KR20220042301A - Image detection method and related devices, devices, storage media, computer programs - Google Patents
Image detection method and related devices, devices, storage media, computer programs Download PDFInfo
- Publication number
- KR20220042301A KR20220042301A KR1020217035770A KR20217035770A KR20220042301A KR 20220042301 A KR20220042301 A KR 20220042301A KR 1020217035770 A KR1020217035770 A KR 1020217035770A KR 20217035770 A KR20217035770 A KR 20217035770A KR 20220042301 A KR20220042301 A KR 20220042301A
- Authority
- KR
- South Korea
- Prior art keywords
- target
- image
- detected
- preset
- feature
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명의 실시예는 이미지 검출 방법 및 관련 장치, 기기, 저장 매체를 공개하였으며, 이미지 검출 방법은, 검출될 타깃을 포함하는 제1 이미지를 획득하는 단계; 제1 이미지를 검출하여, 제1 이미지의 검출 결과를 얻는 단계 - 검출 결과는 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 포함함 - ; 및 검출 결과와 매칭되는 기설정 동작을 수행하는 단계를 포함한다.An embodiment of the present invention discloses an image detection method and related apparatus, apparatus and storage medium, the image detection method comprising: acquiring a first image including a target to be detected; detecting the first image to obtain a detection result of the first image, the detection result including whether or not a target to be detected in the first image is blocked by the preset object; and performing a preset operation matching the detection result.
Description
[관련 출원의 상호 참조][Cross-reference to related applications]
본 발명은 출원번호가 202011002322.1이고, 출원 일자가 2020년 9월 22일이며, 발명의 명칭이 “이미지 검출 방법 및 관련 장치, 기기, 저장 매체”인 중국 특허 출원에 기반하여 제출되며, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본 발명에 인용된다.The present invention is filed based on a Chinese patent application with an application number of 202011002322.1, an application date of September 22, 2020, entitled "Image detection method and related apparatus, apparatus, and storage medium", said Chinese patent Claiming the priority of the application, all contents of the above Chinese patent application are incorporated herein by reference.
본 발명은 이미지 처리 기술 분야에 관한 것으로, 특히는 이미지 검출 방법 및 관련 장치, 기기, 저장 매체, 컴퓨터 프로그램에 관한 것이다.The present invention relates to the field of image processing technology, and more particularly, to an image detection method and related apparatus, apparatus, storage medium, and computer program.
현재 이미지 처리, 특히는 이미지 중의 타깃에 대한 검출 및 인식은 각 사용 장면에 광범위하게 응용되고 있다. 안면을 예로 들면, 이미지 중의 안면 검출 및 인식은 금융, 국경 검문, 정부, 항공 우주, 전력, 공장, 교육, 의료 등 분야에서 광범위하게 응용되고 있다. 선행기술에서 촬영 기기를 사용하여 안면을 포함한 이미지 또는 비디오 스트림을 수집하고, 이미지에서 안면을 자동으로 검출하여, 검출된 안면에 대해 안면 인식을 진행하며, 인식 결과에 따라 상응하게 처리한다.Currently, image processing, in particular, detection and recognition of a target in an image, is widely applied to each use scene. Taking the face as an example, face detection and recognition in an image is widely applied in fields such as finance, border crossing, government, aerospace, power, factories, education, and medical care. In the prior art, an image or video stream including a face is collected by using a photographing device, the face is automatically detected from the image, and the detected face is subjected to face recognition, and the recognition result is processed accordingly.
본 발명의 실시예는 적어도 이미지 검출 방법 및 관련 장치, 기기, 저장 매체, 컴퓨터 프로그램을 제공한다.An embodiment of the present invention provides at least an image detection method and a related apparatus, apparatus, storage medium, and computer program.
본 발명의 실시예는 이미지 검출 방법을 제공하는 바, 검출될 타깃을 포함하는 제1 이미지를 획득하는 단계; 제1 이미지를 검출하여, 제1 이미지의 검출 결과를 얻는 단계 - 검출 결과는 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 포함함 - ; 및 검출 결과와 매칭되는 기설정 동작을 수행하는 단계를 포함한다. An embodiment of the present invention provides an image detection method, comprising: acquiring a first image including a target to be detected; detecting the first image to obtain a detection result of the first image, the detection result including whether or not a target to be detected in the first image is blocked by the preset object; and performing a preset operation matching the detection result.
따라서, 검출될 타깃을 포함하는 제1 이미지를 검출하여 검출될 타깃이 차폐되는 지의 여부인 검출 결과를 얻고, 그 다음 검출 결과와 매칭되는 기설정 동작을 수행하는 것을 통해, 검출될 타깃이 차폐되는 지의 여부를 판단함으로써, 후속적으로 검출 결과와 매칭되는 기설정 동작을 진행하여, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다. Therefore, by detecting the first image including the target to be detected to obtain a detection result that is whether the target to be detected is occluded or not, and then performing a preset operation matching the detection result, the target to be detected is occluded By judging whether or not there is a target, a preset operation matching the detection result is subsequently performed, and flexible processing is implemented based on the shielding state of the target to be detected in the image.
일부 실시예에서, 검출 결과는 신경망을 이용하여 제1 이미지를 검출하여 얻은 것이다. In some embodiments, the detection result is obtained by detecting the first image using a neural network.
따라서, 미리 트레이닝된 신경망을 통해 검출하여, 검출 결과가 더 정확하고 검출 속도가 더 신속하도록 한다. Therefore, it is detected through a pre-trained neural network, so that the detection result is more accurate and the detection speed is faster.
일부 실시예에서, 검출 결과와 매칭되는 기설정 동작을 수행하는 단계는, 검출될 타깃이 기설정 물체에 의해 차폐되지 않을 경우, 제1 알림을 발송하는 단계를 포함하되, 제1 알림은 기설정 물체를 사용하여 검출될 타깃을 차폐하도록 프롬프트하기 위한 것이다. In some embodiments, performing the preset operation matching the detection result includes sending a first alert when the target to be detected is not shielded by the preset object, wherein the first alert is To prompt to use an object to shield the target to be detected.
따라서, 검출될 타깃이 차폐되지 않을 경우 제1 알림을 발송하여, 검출될 타깃이 기설정 물체에 의해 차폐되지 않은 상황을 제때에 알려, 알림 수신자도 대응되는 조치를 제때에 취할 수 있다. Therefore, when the target to be detected is not shielded, the first notification is sent, so that the target to be detected is not blocked by the preset object in a timely manner, so that the notification recipient can also take a corresponding action in a timely manner.
일부 실시예에서, 검출 결과는 검출될 타깃이 기설정 물체에 의해 차폐되는 차폐 방식이 기설정 차폐 방식인 지의 여부를 더 포함하고; 검출 결과와 매칭되는 기설정 동작을 수행하는 단계는, 검출될 타깃이 기설정 물체에 의해 차폐되고 차폐 방식이 기설정 차폐 방식에 속하지 않을 경우, 제2 알림을 발송하는 단계를 포함하되, 제2 알림은 기설정 물체의 차폐 방식을 조절하도록 프롬프트하기 위한 것이다. In some embodiments, the detection result further includes whether the shielding manner in which the target to be detected is shielded by the preset object is the preset shielding manner; The performing the preset operation matching the detection result includes sending a second notification when the target to be detected is shielded by a preset object and the shielding method does not belong to the preset shielding method, The notification is for prompting to adjust the shielding method of the preset object.
따라서, 차폐 방식이 정확하지 않을 경우, 제2 알림을 발송하여, 검출될 타깃의 차폐 방식을 제때에 조절하도록 한다. Therefore, when the shielding method is not correct, a second notification is sent to adjust the shielding method of the target to be detected in time.
일부 실시예에서, 검출 결과와 매칭되는 기설정 동작을 수행하는 단계는, 검출될 타깃이 기설정 물체에 의해 차폐될 경우, 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하여, 검출될 타깃의 인식될 특징으로 하는 단계; 인식될 특징을 이용하여, 검출될 타깃을 인식하여, 인식 결과를 얻는 단계를 포함한다. In some embodiments, the performing the preset operation matching the detection result includes: when the target to be detected is occluded by the preset object, at least a first characteristic of the unoccluded portion of the target to be detected in the first image extracting and characterizing the target to be detected as a recognizable feature; and recognizing a target to be detected by using the feature to be recognized, and obtaining a recognition result.
따라서, 검출될 타깃이 기설정 물체에 의해 차폐될 경우, 차폐되지 않은 부분의 특징을 추출하여 인식하며, 검출될 타깃의 일부 특징을 인식하는 것을 구현하였고, 상기 일부 특징이 차폐되지 않았기에, 검출될 타깃을 대표할 수 있으며, 인식의 정확도를 어느 정도 보장한다. Therefore, when the target to be detected is shielded by the preset object, it is realized by extracting and recognizing the features of the unshielded portion, recognizing some features of the target to be detected, and since the some features are not shielded, detection It can represent the target to be targeted, and guarantees some degree of recognition accuracy.
일부 실시예에서, 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하여, 검출될 타깃의 인식될 특징으로 하는 단계는, 제1 이미지에서 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하고, 검출될 타깃의 차폐된 부분의 제2 특징을 획득하는 단계; 제1 특징 및 제2 특징을 검출될 타깃의 인식될 특징으로 하는 단계를 포함한다. In some embodiments, the step of extracting in the first image at least a first feature of an unoccluded portion of the target to be detected to be a recognized feature of the target to be detected comprises: the unoccluded portion of the target to be detected in the first image extracting a first feature of , and obtaining a second feature of the occluded portion of the target to be detected; characterizing the first characteristic and the second characteristic as a recognized characteristic of the target to be detected.
따라서, 검출될 타깃의 차폐되지 않은 부분의 특징을 사용하는 외에도, 차폐된 부분의 특징에 더 결부하여, 검출될 타깃의 특징 다양성을 향상할 수 있다. Therefore, in addition to using the characteristics of the unshielded portion of the target to be detected, it is possible to improve the feature diversity of the target to be detected by further matching the characteristics of the shielded portion.
일부 실시예에서, 검출될 타깃의 차폐된 부분의 제2 특징을 획득하는 단계는, 제1 이미지에서 차폐된 부분의 특징을 추출하여 제2 특징으로 하는 단계; 또는, 차폐된 부분의 기설정 특징을 획득하여 제2 특징으로 하는 단계를 포함하되, 기설정 특징은 적어도 하나의 참조 특징에 기반하여 얻은 특징을 포함하고, 각 참조 특징은 차폐된 부분이 존재하지 않는 참조 타깃에서 차폐된 부분과 대응되는 영역을 추출하여 얻은 것이다. In some embodiments, obtaining the second characteristic of the occluded portion of the target to be detected comprises: extracting a feature of the occluded portion from the first image and characterizing it as the second characteristic; or, obtaining a preset characteristic of the occluded portion and characterizing it as a second characteristic, wherein the preset characteristic includes a characteristic obtained based on at least one reference characteristic, and each reference characteristic includes the occluded portion not present. It is obtained by extracting the area corresponding to the shielded part from the non-existent reference target.
따라서, 차폐된 부분의 특징 결정 방식에 대해, 차폐된 부분의 특징을 직접 추출하는 것을 통해, 차폐된 부분의 특징이 검출될 타깃의 상이함에 따라 어느 정도 상이할 수 있기에, 상기 방식은 인식의 정확도를 향상할 수 있고; 기설정 특징을 획득하여 차폐된 부분 특징으로 할 수도 있으며, 상기 방식은 차폐된 부분에 대해 특징 추출을 진행할 필요가 없기에, 처리 자원의 소모를 절감하여 처리 효율을 항상할 수 있다. Therefore, with respect to the method of determining the characteristics of the occluded portion, through direct extraction of the characteristics of the occluded portion, the characteristics of the occluded portion may be different to some extent according to the difference of the target to be detected, so that the method is accurate in recognition can improve; It is also possible to obtain a preset feature as a shielded part feature, and since it is not necessary to perform feature extraction on the shielded part in the above method, processing efficiency can be always improved by reducing processing resource consumption.
일부 실시예에서, 인식될 특징을 이용하여, 검출될 타깃을 인식하여, 인식 결과를 얻는 단계는, 기설정 타깃이 하나를 포함할 경우, 인식될 특징과 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 획득하고, 제1 유사도가 제1 기설정 조건을 만족할 경우, 인식 결과가 검출될 타깃이 신원 인증을 통과하였음을 포함하는 것으로 결정하는 단계; 기설정 타깃이 복수 개를 포함할 경우, 인식될 특징과 각 기설정 타깃의 사전 저장 특징 사이의 제2 유사도를 각각 획득하고, 인식 결과가 검출될 타깃의 신원을 제2 기설정 조건을 만족하는 제2 유사도에 대응되는 기설정 타깃의 신원으로 결정하는 것을 포함하는 것으로 결정하는 단계 중의 적어도 하나를 포함한다. In some embodiments, the step of recognizing a target to be detected, using the feature to be recognized, and obtaining a recognition result, comprises: when the preset target includes one, a second value between the feature to be recognized and a pre-stored feature of the preset target. obtaining one degree of similarity, and when the first degree of similarity satisfies a first preset condition, determining that the recognition result includes a target to be detected has passed identity authentication; When the preset target includes a plurality, a second degree of similarity between the feature to be recognized and a pre-stored feature of each preset target is respectively obtained, and the identity of the target for which the recognition result is to be detected satisfies the second preset condition. and determining, including determining the identity of the preset target corresponding to the second similarity.
따라서, 특정 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 산출하거나, 복수 개의 기설정 타깃의 사전 저장 특징 사이의 유사도를 산출하는 것을 통해, 실제 장면 수요에 따라 검출될 타깃과 특정된 어느 하나의 기설정 타깃을 비교하거나, 또는 어느 하나의 데이터 베이스 중의 기설정 타깃과 비교하는 것을 구현할 수 있다. Therefore, by calculating the first similarity between the pre-stored features of a specific preset target or calculating the similarity between the pre-stored features of a plurality of preset targets, according to the actual scene demand, the target to be detected and the specified one It can be implemented to compare a preset target of , or a preset target in any one database.
일부 실시예에서, 방법은, 제1 기설정 조건은 제1 유사도가 제1 유사도 임계값보다 큰 것을 포함하는 단계; 제2 기설정 조건은 제2 유사도가 제2 유사도 임계값보다 큰 것을 포함하는 단계 중의 적어도 하나를 포함한다. In some embodiments, the method includes: the first preset condition comprising a first degree of similarity greater than a first similarity threshold; The second preset condition includes at least one of including that the second similarity is greater than a second similarity threshold.
따라서, 상이한 장면에서 제1 유사도 임계값을 각각 설정하여, 인식 결과가 더 정확하도록 한다. Therefore, the first similarity threshold is set respectively in different scenes, so that the recognition result is more accurate.
일부 실시예에서, 방법은, 인식될 특징이 검출될 타깃의 차폐된 부분의 제2 특징을 포함할 경우의 제1 유사도 임계값은, 인식될 특징이 제2 특징을 포함하지 않을 경우의 제1 유사도 임계값보다 작은 단계; 인식될 특징이 제2 특징을 포함할 경우의 제2 유사도 임계값은, 인식될 특징이 제2 특징을 포함하지 않을 경우의 제2 유사도 임계값보다 작은 단계 중의 적어도 하나를 포함한다. In some embodiments, the method includes: a first similarity threshold when the feature to be recognized comprises a second feature of the occluded portion of the target to be detected is a first similarity threshold when the feature to be recognized does not comprise the second feature less than the similarity threshold; The second similarity threshold when the to-be-recognized feature includes the second feature includes at least one of the steps being less than the second similarity threshold when the to-be-recognized feature does not include the second feature.
따라서, 인식될 특징이 제2 특징을 포함하면, 제2 특징은 검출될 타깃 차폐된 부분의 키포인트의 실제 특징과 차이가 있을 수 있기에, 이러한 경우에 유사도 임계값을 적절하게 감소하면 인식의 정확도를 향상할 수 있다. Therefore, if the feature to be recognized includes the second feature, the second feature may be different from the actual feature of the keypoint of the target occluded portion to be detected, and in this case, appropriately reducing the similarity threshold value reduces the recognition accuracy. can be improved
일부 실시예에서, 인식될 특징과 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 획득하는 단계 이전에, 방법은, 계정 등록 요청에 응답하여, 사용자에 대해 계정을 등록하는 단계; 사용자가 촬영하여 얻은 적어도 한 프레임의 제2 이미지에서, 기설정 품질 요구를 만족하는 제2 이미지를 결정하고, 결정된 제2 이미지에서 사용자의 기설정 부위의 특징을 추출하는 단계; 기설정 부위의 특징과 계정의 연관을 구축하고, 기설정 부위의 특징을 저장하여 기설정 타깃의 사전 저장 특징으로 하는 단계를 더 포함한다. In some embodiments, prior to obtaining a first degree of similarity between the feature to be recognized and the pre-stored feature of the preset target, the method includes, in response to the account registration request, registering an account for the user; determining a second image that satisfies a preset quality requirement from a second image of at least one frame obtained by photographing the user, and extracting a feature of a preset part of the user from the determined second image; The method further includes the steps of establishing an account association with the characteristics of the preset part, and storing the features of the preset part as a pre-stored feature of the preset target.
따라서, 품질 요구를 만족하는 제2 이미지를 결정하여 기설정 부위의 특징을 추출하여 추출된 특징이 더 정확하도록 한다. Accordingly, the second image that satisfies the quality requirement is determined to extract the features of the preset region so that the extracted features are more accurate.
일부 실시예에서, 검출될 타깃이 기설정 물체에 의해 차폐될 경우, 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하는 단계 이전에, 방법은, 검출될 타깃을 포함하는 멀티 프레임 제1 이미지에서, 기설정 품질 요구를 만족하는 제1 이미지를 후속적인 특징을 추출하는 제1 이미지로 결정하는 단계; 후속적인 특징을 추출하는 제1 이미지를 사전 처리하는 단계; 후속적인 특징을 추출하는 제1 이미지에 대해 생체 검출을 진행하고, 생체 검출 결과가 검출될 타깃이 생체인 것일 경우, 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하는 단계 및 그 후속 단계를 수행하는 것으로 결정하는 단계 중의 적어도 하나를 더 포함한다. In some embodiments, when the target to be detected is occluded by the predefined object, prior to the step of extracting in the first image at least a first feature of an unoccluded portion of the target to be detected, the method comprises: determining a first image satisfying a preset quality requirement as a first image from which subsequent features are extracted from the multi-frame first image; pre-processing the first image to extract subsequent features; performing biometric detection on the first image from which subsequent features are extracted, and when the biometric detection result is that the target to be detected is a living body, extracting at least a first feature of an unshielded portion of the target to be detected from the first image and determining to perform the following steps.
따라서, 특징 추출을 진행하기 전에, 사전 처리하여 추출된 특징이 더 정확하도록 하고, 검출될 타깃이 생체일 경우에만 검출될 타깃을 인식하여, 인식의 안전성을 강화하였으며, 가상체의 공격을 어느 정도 방지할 수 있다. Therefore, before proceeding with feature extraction, pre-processing is performed so that the extracted features are more accurate, the target to be detected is recognized only when the target to be detected is a living body, and the safety of recognition is strengthened. can be prevented
일부 실시예에서, 검출될 타깃을 포함하는 멀티 프레임 제1 이미지에서, 기설정 품질 요구를 만족하는 제1 이미지를 후속적인 특징을 추출하는 제1 이미지로 결정하는 단계는, 각 프레임의 제1 이미지의 품질 계수에 기반하여, 대응되게 각 프레임의 제1 이미지의 품질 점수를 얻는 단계 - 제1 이미지의 품질 계수는, 검출될 타깃이 촬영 부재에 대한 포즈 정보, 제1 이미지에서 검출될 타깃의 크기를 반영하는 파라미터 정보, 제1 이미지의 밝기 정보 중의 적어도 하나를 포함함 - ; 및 품질 점수에 기반하여, 기설정 품질 요구를 만족하는 제1 이미지를 후속적인 특징을 추출하는 제1 이미지로 결정하는 단계 - 선택된 제1 이미지의 품질 점수는 다른 제1 이미지의 품질 점수보다 높음 - 를 포함한다. In some embodiments, in the multi-frame first image including the target to be detected, determining the first image satisfying the preset quality requirement as the first image for extracting subsequent features comprises: the first image of each frame correspondingly obtaining a quality score of the first image of each frame based on the quality coefficient of including at least one of parameter information reflecting , brightness information of the first image; and determining, based on the quality score, a first image that satisfies the preset quality requirement as a first image for extracting subsequent features, wherein a quality score of the selected first image is higher than a quality score of another first image; includes
따라서, 품질 점수가 요구를 만족하는 이미지를 결정하여 특징을 추출하여, 추출된 특징이 검출될 타깃을 더욱 잘 표시할 수 있도록 한다. Thus, the quality score determines the image that satisfies the needs and extracts features, so that the extracted features can better represent the target to be detected.
일부 실시예에서, 후속적인 특징을 추출하는 제1 이미지를 사전 처리하는 단계는, 제1 이미지가 복수 개의 검출될 타깃을 포함할 경우, 기설정 추출 요구를 만족하는 검출될 타깃이 제1 이미지에서의 타깃 영역을 결정하고, 제1 이미지에서 타깃 영역 이외의 이미지 부분을 제거하는 단계; 및/또는, 제1 이미지에서 검출될 타깃의 경사 각도가 기설정 각도보다 큰 것을 검출하고, 제1 이미지를 검출될 타깃의 경사 각도가 기설정 각도보다 작거나 같도록 회전하는 단계를 포함한다. In some embodiments, the pre-processing of the first image for extracting subsequent features comprises: when the first image includes a plurality of targets to be detected, a target to be detected that satisfies a preset extraction requirement is selected from the first image. determining a target area of , and removing an image portion other than the target area from the first image; and/or detecting that the inclination angle of the target to be detected in the first image is greater than the preset angle, and rotating the first image so that the inclination angle of the target to be detected is less than or equal to the preset angle.
따라서, 제1 이미지에 복수 개의 검출될 타깃이 존재할 경우, 단지 기설정 추출 요구를 만족하는 검출될 타깃을 결정하고, 요구를 만족하지 않는 검출될 타깃은 폐기하며, 요구를 만족하지 않는 검출될 타깃이 인식 결과에 대한 영향을 감소하였고; 그 다음, 제1 이미지에서 검출될 타깃이 경사진 것이 검출되면, 이를 바르게 놓아, 검출될 타깃이 경사되어 일으키는 영향을 감소하였다. Therefore, when there are a plurality of targets to be detected in the first image, only a target to be detected that satisfies a preset extraction request is determined, a target to be detected that does not satisfy the request is discarded, and a target to be detected that does not satisfy the request is discarded. This reduced the impact on recognition outcomes; Then, when it is detected that the target to be detected is inclined in the first image, it is placed correctly to reduce the influence caused by the tilt of the target to be detected.
일부 실시예에서, 기설정 추출 요구는 검출될 타깃의 대응 영역의 면적이 다른 검출될 타깃의 대응 영역의 면적보다 큰 것을 포함하고, 다른 검출될 타깃은 검출될 타깃 이외의 타깃을 포함한다. In some embodiments, the preset extraction request includes that an area of a corresponding region of the target to be detected is larger than an area of a corresponding region of another target to be detected, and the other target to be detected includes a target other than the target to be detected.
따라서, 검출될 타깃의 면적이 클수록, 추출된 특징이 더 정확하기에, 면적이 더욱 큰 검출될 타깃을 선택하여, 검출될 결과가 더 정확하도록 한다.Therefore, the larger the area of the target to be detected, the more accurate the extracted features, so that the target to be detected with a larger area is selected, so that the result to be detected is more accurate.
일부 실시예에서, 검출될 타깃은 안면을 포함하고, 기설정 물체는 마스크를 포함한다. In some embodiments, the target to be detected comprises a face and the predefined object comprises a mask.
따라서, 안면에 마스크가 착용되었는 지의 여부를 판단하여, 대응되는 동작을 수행하는 바, 예를 들어, 안면에 마스크가 착용되지 않거나 또는 마스크의 착용 방식이 정확하지 않으면, 대응되는 알림을 발송하여, 사용자가 제때에 조절할 수 있도록 하며; 안면에 마스크가 착용되었다면, 안면을 인식한다. Therefore, it is determined whether the mask is worn on the face, and the corresponding operation is performed. For example, if the mask is not worn on the face or the wearing method of the mask is incorrect, a corresponding notification is sent, allow the user to make adjustments in time; If a face mask is worn, it recognizes the face.
본 발명의 실시예는 이미지 검출 장치를 제공하는 바, 검출될 타깃을 포함하는 제1 이미지를 획득하는 이미지 획득 모듈; 제1 이미지를 검출하여 제1 이미지의 검출 결과를 얻는 타깃 검출 모듈 - 검출 결과는 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 포함함 - ; 검출 결과와 매칭되는 기설정 동작을 수행하는 동작 수행 모듈을 포함한다. An embodiment of the present invention provides an image detection apparatus, comprising: an image acquisition module configured to acquire a first image including a target to be detected; a target detection module that detects the first image and obtains a detection result of the first image, the detection result including whether or not a target to be detected in the first image is blocked by a preset object; and an operation performing module that performs a preset operation matching the detection result.
본 발명의 실시예는 전자 기기를 제공하는 바, 메모리 및 프로세서를 포함하며, 프로세서는 메모리에 저장된 프로그램 명령을 실행하여, 상기 이미지 검출 방법을 구현한다. An embodiment of the present invention provides an electronic device, including a memory and a processor, wherein the processor executes a program command stored in the memory to implement the image detection method.
본 발명의 실시예는 컴퓨터 판독 가능 저장 매체를 제공하는 바, 프로그램 명령이 저장되어 있고, 프로그램 명령이 프로세서에 의해 실행될 경우 상기 이미지 검출 방법을 구현한다. An embodiment of the present invention provides a computer-readable storage medium, in which program instructions are stored, and when the program instructions are executed by a processor, the image detection method is implemented.
본 발명의 실시예는 컴퓨터 프로그램을 제공하는 바, 컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 운영될 경우, 상기 전자 기기 중의 프로세서는 상기 내용을 구현하기 위한 이미지 검출 방법을 수행한다. An embodiment of the present invention provides a computer program, including a computer readable code, wherein when the computer readable code is operated in an electronic device, a processor in the electronic device includes an image detection method for realizing the contents carry out
본 발명의 실시예는 이미지 검출 방법 및 관련 장치, 기기, 저장 매체, 컴퓨터 프로그램을 제공하며, 검출될 타깃을 포함하는 제1 이미지를 검출하여 검출될 타깃이 차폐되었는 지의 여부를 얻고, 그 다음 검출 결과와 매칭되는 기설정 동작을 수행하여, 검출될 타깃이 차폐되었는 지의 여부를 판단하여 검출 결과와 매칭되는 후속적인 기설정 동작을 진행할 수 있고, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다. An embodiment of the present invention provides an image detection method and related apparatus, apparatus, storage medium, and computer program, detecting a first image including a target to be detected to obtain whether the target to be detected is shielded, and then detecting By performing a preset operation matching the result, it is determined whether the target to be detected is shielded, and a subsequent preset operation matching the detection result can be performed, and flexibly based on the shielding state of the target to be detected in the image processing has been implemented.
이해해야 할 것은, 상기의 일반적인 서술과 아래의 절차에 대한 서술은 단지 예시적 및 해석적인 것으로 본 발명을 한정하지 않는다.It should be understood that the general description above and the description of the procedure below are merely illustrative and interpretative and do not limit the present invention.
여기서의 도면은 명세서에 병합되어 명세서의 일 부분을 구성하며, 이러한 도면은 본 발명의 실시예에 부합되고, 명세서와 함께 본 발명의 기술적 해결수단을 설명한다.
도 1은 본 발명의 실시예에 따른 이미지 검출 방법의 일 실시예의 흐름 모식도이다.
도 2는 본 발명의 실시예에 따른 이미지 검출 방법의 일 실시예 중 제1 이미지 모식도이다.
도 3은 본 발명의 실시예에 따른 이미지 검출 방법의 일 실시예에서 사전 처리를 거친 제1 이미지 모식도이다.
도 4는 본 발명의 실시예에 따른 이미지 검출 장치의 일 실시예의 구조 모식도이다.
도 5는 본 발명의 실시예에 따른 전자 기기의 일 실시예의 구조 모식도이다.
도 6은 본 발명의 실시예에 따른 컴퓨터 판독 가능 저장 매체의 일 실시예의 구조 모식도이다.The drawings herein are incorporated in and constitute a part of the specification, and these drawings correspond to embodiments of the present invention, and together with the specification, explain the technical solutions of the present invention.
1 is a flowchart of an embodiment of an image detection method according to an embodiment of the present invention.
2 is a schematic diagram of a first image among an embodiment of an image detection method according to an embodiment of the present invention.
3 is a schematic diagram of a first image subjected to pre-processing in an embodiment of an image detection method according to an embodiment of the present invention.
4 is a structural schematic diagram of an embodiment of an image detection apparatus according to an embodiment of the present invention.
5 is a structural schematic diagram of an embodiment of an electronic device according to an embodiment of the present invention.
6 is a structural schematic diagram of an embodiment of a computer-readable storage medium according to an embodiment of the present invention.
이하 명세서 도면을 결부하여 본 발명의 실시예의 기술적 해결수단을 상세하게 설명한다.Hereinafter, the technical solutions of the embodiments of the present invention will be described in detail in conjunction with the drawings in the specification.
하기의 서술에서, 한정하기 위함이 아니라 설명하기 위해 예컨대 특정 시스템 구조, 인터페이스, 기술과 같은 구체적인 절차를 제기하여 본 발명을 더욱 철저하게 이해하도록 한다.In the following description, specific procedures, such as, for example, specific system structures, interfaces, and techniques, are set forth for purposes of explanation and not limitation, so that the present invention may be more thoroughly understood.
본문의 용어 “및/또는”은, 단지 연관 대상의 연관 관계를 서술하기 위한 것으로, 3가지 관계가 존재함을 의미한다. 예를 들면 A 및/또는 B는, A만 존재, A와 B가 동시에 존재, B만 존재하는 3가지 경우를 의미한다. 이밖에, 본문에서 부호 “/”는 일반적으로 전후 연관 대상이 “또는”의 관계임을 의미한다. 이밖에, 본문 중의 “다수”는 두 개 또는 두 개 이상임을 의미한다. 이밖에, 본문에서 용어 “적어도 한 가지”는 여러 가지 중의 임의의 하나 또는 여러 가지 중의 적어도 두 가지의 임의의 조합을 의미하며, 예를 들어 A, B, C 중의 적어도 한 가지를 포함하고, A, B와 C로 구성된 집합에서 선택된 임의의 하나 또는 복수 개의 원소를 표시할 수 있다.The term “and/or” in the text is merely for describing the relation of the related object, and means that there are three types of relation. For example, A and/or B means three cases in which only A exists, A and B exist simultaneously, and only B exists. In addition, in the text, the symbol “/” generally means that the related object before and after is “or”. In addition, “many” in the text means two or more than two. In addition, the term “at least one” in the text means any one of several or any combination of at least two of several, for example, including at least one of A, B, and C, and A , can indicate any one or more elements selected from the set consisting of B and C.
본 발명의 실시예 중의 이미지 검출 방법은 이미지 처리 능력을 구비하는 기기에 응용될 수 있다. 이밖에, 상기 기기는 이미지 수집 또는 비디오 수집 기능을 구비할 수 있고, 예컨대, 상기 기기는 카메라 등 이미지 또는 비디오를 수집하기 위한 부재를 포함할 수 있다. 또는 상기 기기는 다른 기기와 데이터 전송 또는 데이터 인터랙팅을 진행하는 방식을 통해, 다른 기기에서 필요한 비디오 스트림 또는 이미지를 획득할 수 있거나, 또는 다른 기기의 저장 리소스에서 필요한 비디오 스트림 또는 이미지 등에 접근할 수 있다. 여기서, 다른 기기는 이미지 수집 또는 비디오 수집 기능을 구비하고, 상기 기기 사이에 통신 연결을 구비하며, 예컨대, 상기 기기는 다른 기기와 블루투스, 무선 네트워크 등 방식으로 데이터 전송 또는 데이터 인터랙팅을 진행할 수 있고, 본 발명의 실시예는 여기서 양자 사이의 통신 방식에 대해서는 한정하지 않으며, 상기 열거된 경우를 포함하지만 이에 한하지 않는다. 한 가지 실시형태에서, 상기 기기는 휴대폰, 태블릿 PC, 대화형 스크린 등을 포함하지만 이에 한하지 않는다. The image detection method in the embodiment of the present invention can be applied to a device having an image processing capability. In addition, the device may have an image collection or video collection function, for example, the device may include a member for collecting images or videos, such as a camera. Alternatively, the device may acquire a video stream or image required by the other device through data transmission or data interaction with the other device, or access the video stream or image required from the storage resource of the other device. there is. Here, the other device has an image collection or video collection function, and a communication connection between the devices, for example, the device can perform data transmission or data interaction with another device through Bluetooth, wireless network, etc. , the embodiment of the present invention is not limited here to the communication method between the two, including but not limited to the cases listed above. In one embodiment, the device includes, but is not limited to, a mobile phone, a tablet PC, an interactive screen, and the like.
도 1을 참조하면, 도 1은 본 발명의 실시예에 따른 이미지 검출 방법의 일 실시예의 흐름 모식도이다. 여기서, 상기 이미지 검출 방법은 전자 기기로 수행되며, 상기 방법은 하기의 단계를 포함할 수 있다. Referring to FIG. 1, FIG. 1 is a flow diagram of an embodiment of an image detection method according to an embodiment of the present invention. Here, the image detection method is performed by an electronic device, and the method may include the following steps.
단계 S11: 검출될 타깃을 포함하는 제1 이미지를 획득한다. Step S11: Acquire a first image including a target to be detected.
여기서, 검출될 타깃을 포함하는 제1 이미지는 본 기기의 카메라가 수집한, 타깃 객체를 포함하는 원본 이미지를 직접 호출할 수 있고, 물론 다른 기기에서 획득된 이미지일 수도 있으며, 선택 프레임, 밝기 조절, 해상도 등을 거친 이미지일 수도 있다. 검출될 타깃도 안면, 다른 동물의 안면 또는 사지 등을 포함할 수도 있다. 따라서, 검출될 타깃을 포함하는 제1 이미지를 획득하는 방식을 한정하지 않는다. 여기서, 다른 기기는 각각 상이한 중앙 프로세서를 이용해야만 작동 가능한 기기를 가리킨다. Here, the first image including the target to be detected may directly call the original image including the target object collected by the camera of the present device, and may of course be an image obtained from another device, select frame, adjust brightness , may be an image that has been subjected to resolution, etc. The target to be detected may also include the face, the face or limbs of another animal, and the like. Therefore, it does not limit the manner of acquiring the first image including the target to be detected. Here, the other devices refer to devices that can be operated only by using different central processors.
단계 S12: 제1 이미지를 검출하여, 제1 이미지의 검출 결과를 얻고, 여기서, 검출 결과는 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 포함한다. Step S12: Detect the first image, to obtain a detection result of the first image, wherein the detection result includes whether or not a target to be detected in the first image is blocked by a preset object.
여기서, 기설정 물체는 검출될 타깃이 차폐된 임의의 물체를 가리키는 바, 예를 들어 마스크, 스카프, 안경 또는 팔, 종이 등 가시 물체이다. Here, the preset object refers to an arbitrary object in which the target to be detected is shielded, for example, a visible object such as a mask, a scarf, glasses or an arm, or paper.
제1 이미지를 검출하여, 검출 과정에서 제1 이미지에 검출될 이미지가 포함되는 지의 여부를 검출해야 하고, 검출될 타깃이 존재하면, 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 판단한다. 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 판단하는 방식은 제1 이미지를 검출하기 전에, 우선 하나의 차폐 검출 모델을 트레이닝하고, 제1 이미지를 차폐 검출 모델(예컨대, 차폐 검출 기능을 구비하는 신경망일 수 있음)에 입력하는 것을 통해, 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 알 수 있다. 물론, 일부 실시예에서, 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 검출하는 방식도 검출될 타깃에 기설정 검출 위치가 차폐되는 지의 여부, 및 기설정 검출 위치를 차폐한 물체가 기설정 물체의 조건을 만족하는 지의 여부를 검출될 수 있다. 여기서, 차폐 물체와 기설정 차폐 물체의 특징을 추출하여, 유사도를 판단하여 검출될 타깃이 차폐되는 지의 여부를 포함하는 검출 결과를 얻을 수 있다. Detecting the first image, it is necessary to detect whether the first image includes the image to be detected in the detection process, and if there is a target to be detected, it is determined whether the target to be detected is shielded by a preset object . The method of determining whether the target to be detected is occluded by the preset object is to first train one occlusion detection model before detecting the first image, and apply the first image to the occlusion detection model (eg, using the occlusion detection function). It may be a neural network provided with), it may be known whether a target to be detected in the first image is blocked by a preset object. Of course, in some embodiments, the manner of detecting whether or not the target to be detected is shielded by the preset object is also determined whether the preset detection position is shielded by the target to be detected, and whether the object blocking the preset detection position is detected Whether or not the condition of the set object is satisfied may be detected. Here, it is possible to obtain a detection result including whether a target to be detected is shielded by extracting the features of the shielding object and the preset shielding object, determining the degree of similarity.
단계 S13: 검출 결과와 매칭되는 기설정 동작을 수행한다. Step S13: Perform a preset operation matching the detection result.
여기서, 검출 결과는 검출될 타깃이 차폐되었지만 기설정 물체에 의해 차폐된 것이 아닐 수 있으며, 검출될 타깃이 기설정 물체에 의해 차폐되지만 차폐되는 방식은 기설정 방식이 아니고, 검출될 타깃이 기설정 물체에 의해 차폐되며 차폐되는 방식은 기설정 방식과 동일하거나 검출될 타깃이 완전히 차폐되지 않았다. 본 발명의 실시예에서, 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부의 상황을 고려해야 한다. 물론, 일부 실시예에서, 기설정 물체를 임의의 물체로 설치할 수 있고, 차폐 검출 모델을 사용하여, 검출될 타깃이 차폐되는 지의 여부만 판단하면, 대응되는 기설정 동작을 수행할 수 있다. 기설정 동작은 인식 등과 같은 타깃 검출과 연관되는 임의의 동작일 수 있다.Here, the detection result may be that the target to be detected is shielded but not shielded by the preset object, the manner in which the target to be detected is shielded by the preset object but is shielded is not the preset scheme, and the target to be detected is not shielded by the preset object The method of being shielded and shielded by the object is the same as the preset method, or the target to be detected is not completely shielded. In the embodiment of the present invention, the situation of whether or not the target to be detected in the first image is blocked by the preset object should be considered. Of course, in some embodiments, the preset object may be installed as an arbitrary object, and only when it is determined whether the target to be detected is shielded using the occlusion detection model, a corresponding preset operation may be performed. The preset operation may be any operation associated with target detection, such as recognition.
상기 방안에 있어서, 검출될 타깃을 포함하는 제1 이미지를 검출하여 검출될 타깃이 차폐되었는 지의 여부를 얻고, 그 다음 검출 결과와 매칭되는 기설정 동작을 수행하여, 검출될 타깃이 차폐되는 지의 여부를 판단함으로써, 후속적으로 검출 결과와 매칭되는 기설정 동작을 진행하여, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다. In the above method, the first image including the target to be detected is detected to obtain whether the target to be detected is occluded, and then a preset operation matching the detection result is performed to determine whether the target to be detected is occluded By determining , a preset operation matching the detection result is subsequently performed, and flexible processing is implemented based on the shielding state of the target to be detected in the image.
일부 실시예에서, 검출 결과는 신경망을 이용하여 제1 이미지를 검출하여 얻은 것이다. 제1 이미지를 검출하기 전에, 우선 하나의 기설정 물체 차폐 모델을 트레이닝함으로써, 트레이닝된 기설정 물체 차폐 모델은 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 검출될 수 있다. 여기서, 기설정 물체는 하나일 수 있고 복수 개일 수도 있으며, 예를 들면 두 개, 세 개의 상이한 물체이고, 기설정 물체가 복수 개일 경우, 하나의 기설정 물체 차폐 모델은 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 검출하는 동시에 검출될 타깃이 어느 한 가지 기설정 물체에 의해 차폐되는 지도 판단할 수 있다. 여기서, 검출될 타깃은 안면일 수 있고, 기설정 물체는 마스크일 수 있다. 대응되게, 기설정 물체 차폐 모델은 마스크 검출 모델이다. 마스크 검출 모델은 검출될 타깃이 마스크를 착용하는 지의 여부를 검출될 수 있고, 물론, 일부 실시예에서, 검출될 타깃이 마스크를 착용할 경우, 마스크의 착용 방식이 정확한 지의 여부도 검출될 수 있다. 미리 트레이닝된 신경망을 통해 검출하여, 검출 결과가 더 정확하고 검출 속도가 더 신속하도록 한다. In some embodiments, the detection result is obtained by detecting the first image using a neural network. By first training one preset object occlusion model before detecting the first image, the trained preset object occlusion model can detect whether a target to be detected in the first image is occluded by the preset object. . Here, the preset object may be one or a plurality of objects, for example, two or three different objects. It is possible to detect whether or not the target to be detected is blocked by any one preset object at the same time. Here, the target to be detected may be a face, and the preset object may be a mask. Correspondingly, the preset object shielding model is a mask detection model. The mask detection model may detect whether the target to be detected wears a mask, and, of course, in some embodiments, when the target to be detected wears a mask, whether the wearing manner of the mask is correct may also be detected . It is detected through a pre-trained neural network, so that the detection result is more accurate and the detection speed is faster.
검출될 타깃이 기설정 물체에 의해 차폐되지 않을 경우, 제1 알림을 발송하는 단계, 여기서, 제1 알림은 기설정 물체를 사용하여 검출될 타깃을 차폐하도록 프롬프트하기 위한 것이다. 여기서, 제1 알림은 여러 가지 알림 방식이 있는 바, 안면 프레임의 프레임 선택 방식을 포함하며, 검출될 타깃이 기설정 물체에 의해 차폐되지 않은 것으로 검출되면, 안면 영역을 안면 프레임의 형식으로 프레임 선택할 수 있고, 이때의 안면 프레임은 예를 들어 적색 또는 황색과 같은 경고성을 지닌 색상으로 표시될 수 있으며, 제1 알림은 안면 프레임과 프롬프트성 문자의 결합일 수도 있고, 프롬프트성 문자는 예를 들어 “마스크를 착용하지 않았습니다”, “마스크를 착용해주시기 바랍니다”일 수 있으며, 물론, 음성 알림의 방식이거나, 지시등이 깜빡이는 등 형식일 수도 있다. 물론, 이러한 형식은 복수 개로 매칭하여 사용할 수 있고, 단독으로 사용할 수도 있으며, 여기서 더 규정하지 않는다. 예를 들어, 마스크 검출 모델이 안면에 마스크가 착용되지 않음을 검출하면, 제1 알림을 발송하여 상기 안면에 마스크를 착용하여 안면의 입과 코를 차폐하도록 알릴 수 있다. 검출될 타깃이 차폐되지 않을 경우 제1 알림을 발송하여, 검출될 타깃이 기설정 물체에 의해 차폐되지 않은 상황을 제때에 알려, 알림 수신자도 대응되는 조치를 제때에 취할 수 있다. if the target to be detected is not obscured by the preset object, sending a first alert, wherein the first alert is for prompting to use the preset object to shield the target to be detected. Here, the first notification includes several notification methods, including a frame selection method of a face frame, and when a target to be detected is detected as not being blocked by a preset object, selecting a frame in the form of a face frame for the face area In this case, the face frame may be displayed in a warning color such as red or yellow, for example, the first notification may be a combination of the face frame and the prompt character, and the prompt character is, for example, It may be “You are not wearing a mask” or “Please wear a mask”, and of course, it may be in the form of a voice notification or a flashing indicator. Of course, these formats may be used by matching a plurality of them, or may be used alone, which is not further defined herein. For example, when the mask detection model detects that the mask is not worn on the face, a first notification may be sent to inform that the mask is worn on the face to cover the mouth and nose of the face. When the target to be detected is not shielded, the first notification is sent, so that the target to be detected is not blocked by the preset object in a timely manner, so that the notification recipient can take a corresponding action in a timely manner.
일부 실시예에서, 검출 결과는 검출될 타깃이 기설정 물체에 의해 차폐되는 차폐 방식이 기설정 차폐 방식인 지의 여부를 더 포함할 수 있다. 여기서, 기설정 물체 차폐 모델이라는 이 신경망을 트레이닝할 경우, 트레이닝 샘플에 기설정 차폐 방식을 태깅할 수 있고, 여기서 기설정 차폐 방식은 정확한 차폐 방식일 수 있으며, 이로써 기설정 물체 차폐 모델을 트레이닝하여 트레이닝된 기설정 물체 차폐 모델이 검출될 타깃이 기설정 물체에 의해 차폐되는 것을 검출될 경우, 기설정 물체의 차폐 방식이 기설정 차폐 방식인 지의 여부를 판단한다. 검출될 타깃이 기설정 물체에 의해 차폐되고 상기 차폐 방식이 기설정 차폐 방식에 속하지 않을 경우, 제2 알림을 발송한다. 제2 알림은 기설정 물체의 차폐 방식을 조절하도록 프롬프트하기 위한 것이다. 예를 들어, 검출될 타깃이 안면이고, 기설정 물체가 마스크이면, 기설정 차폐 방식은 정확한 마스크 착용 방식이다. 안면에 마스크가 착용된 것으로 검출될 경우, 마스크 착용 방식이 정확한 마스크 착용 방식인 지의 여부를 판단하며, 정확하지 않으면, 제2 알림을 발송하여 안면의 기설정 물체의 차폐 방식을 조절하도록 한다. 물론, 일부 실시예에서, 기설정 차폐 방식은 여러 가지 차폐 방식이 있을 수 있는 바, 예를 들어 정확한 차폐 방식, 첫 번째 착오적인 차폐 방식, 두 번째 착오적인 차폐 방식 등일 수 있으며, 검출될 타깃이 기설정 물체에 의해 차폐되는 차폐 방식이 제1 착오적인 차폐 방식인 것으로 검출되면, 첫 번째 착오적인 차폐 방식과 대응되는 알림을 발송하고, 검출될 타깃이 기설정 물체에 의해 차폐되는 차폐 방식이 두 번째 착오적인 차폐 방식인 것으로 검출되면, 두 번째 착오적인 차폐 방식과 대응되는 알림을 발송하여 검출될 타깃에게 차폐 방식을 정확한 차폐 방식으로 조절할 것을 프롬프트한다. 예를 들어, 마찬가지로 검출될 타깃이 안면이고, 기설정 물체가 마스크이면, 정확한 차폐 방식은 마스크가 코와 입을 동시에 가리는 것이고, 첫 번째 착오적인 차폐 방식은 마스크가 코를 가렸지만 입은 가리지 않은 것이며, 첫 번째 착오적인 차폐 방식과 대응되는 알림은 안면이 동시에 입을 가리는 것을 프롬프트하는 것이고, 두 번째 착오적인 차폐 방식은 마스크가 입을 가렸지만 코는 가리지 않은 것이며, 두 번째 착오적인 차폐 방식과 대응되는 알림은 안면이 동시에 코를 가리는 것을 프롬프트하는 것이다. 차폐 방식이 정확하지 않을 경우, 제2 알림을 발송하여, 검출될 타깃의 차폐 방식을 제때에 조절하도록 한다. 여기서, 제2 알림의 방식은 제1 알림의 방식과 유사하고, 안면 프레임과 문자 알림을 매칭하는 형식 및 안면 프레임과 음성 알림을 매칭하거나 단독적인 문자 알림 또는 단독적인 음성 알림 또는 지시등의 깜빡임 등일 수 있으며, 물론, 여러 가지 상이한 기설정 차폐 방식이 존재하면, 문자 알림 또는 음성도 여러 가지로 대응되게 설정할 수 있고, 예를 들어 기설정 차폐 방식은 첫 번째 착오적인 차폐 방식이면, 문자 알림은 첫 번째 착오적인 차폐 방식과 대응된다. In some embodiments, the detection result may further include whether the shielding scheme in which the target to be detected is shielded by the preset object is the preset shielding scheme. Here, when training this neural network called a preset object shielding model, a preset shielding method may be tagged to the training sample, where the preset shielding method may be an accurate shielding method, whereby the preset object shielding model is trained to When the trained preset object shielding model detects that the target to be detected is shielded by the preset object, it is determined whether the shielding method of the preset object is the preset shielding method. When the target to be detected is shielded by a preset object and the shielding method does not belong to the preset shielding method, a second notification is sent. The second notification is for prompting to adjust the shielding method of the preset object. For example, if the target to be detected is a face and the preset object is a mask, the preset shielding method is an accurate mask wearing method. If it is detected that the mask is worn on the face, it is determined whether the mask wearing method is the correct mask wearing method, and if not, a second notification is sent to adjust the shielding method of the preset object on the face. Of course, in some embodiments, the preset shielding method may have several shielding methods, for example, an accurate shielding method, a first erroneous shielding method, a second erroneous shielding method, etc., and the target to be detected is If it is detected that the shielding method shielded by the preset object is the first erroneous shielding method, a notification corresponding to the first erroneous shielding method is sent, and the target to be detected is shielded by the preset object. If it is detected that it is the second erroneous shielding method, a notification corresponding to the second erroneous shielding method is sent to prompt the target to be detected to adjust the shielding method to the correct shielding method. For example, likewise, if the target to be detected is a face, and the preset object is a mask, the correct masking method is that the mask covers the nose and mouth at the same time, and the first erroneous masking method is that the mask covers the nose but not the mouth, The notification corresponding to the first erroneous masking method is that the face prompts to cover the mouth at the same time, the second false masking method is that the mask covers the mouth but not the nose, and the notification corresponding to the second false masking method is Your face will prompt you to cover your nose at the same time. If the shielding method is not correct, a second notification is sent to adjust the shielding method of the target to be detected in time. Here, the method of the second notification is similar to the method of the first notification, and may be a form of matching a face frame and text notification, matching a face frame and a voice notification, or a single text notification or an independent voice notification or flashing of an indicator light Of course, if there are several different preset shielding methods, text notification or voice can be set to correspond in various ways, for example, if the preset shielding method is the first erroneous shielding method, the text notification is the first It corresponds to the erroneous shielding method.
일부 실시예에서, 일부 업무 장면에서 검출될 타깃이 기설정 물체에 의해 차폐되지 않을 경우, 검출될 타깃을 인식한다. 다른 일부 업무 장면에서, 검출될 타깃이 기설정 물체에 의해 차폐되지 않으면, 검출될 타깃을 인식하지 않으며, 예를 들어, 어느 한 시기 또는 특수한 시간대에 고속철도 또는 비행기 등 공공 장소에서 마스크를 착용해야 할 경우, 안면에 마스크가 착용되지 않은 것으로 검출되면, 안면에 대해 안면 인식을 하지 않고, 마스크를 착용하지 않은 안면은 안면 인식을 통과하여 스테이션에 진입할 수 없다. 물론 업무 장면의 수요에 따라, 비록 검출될 타깃이 기설정 물체에 의해 차폐되지 않은 것으로 검출되어도, 검출될 타깃을 인식될 수도 있다. 검출될 타깃을 인식하여, 검출될 타깃을 특징 추출해야 하고, 특징을 추출하기 전에, 검출될 타깃을 포함하는 멀티 프레임 제1 이미지에서, 기설정 품질 요구를 만족하는 제1 이미지를 후속적인 특징에서 추출한 제1 이미지로 결정할 수 있다. 여기서, 기설정 품질 요구를 만족하는 제1 이미지를 후속적인 특징을 추출하는 제1 이미지로 결정하는 방식은, 각 프레임의 제1 이미지의 품질 계수에 기반하여, 대응되게 각 프레임의 제1 이미지의 품질 점수를 얻을 수 있으며, 여기서, 제1 이미지의 품질 계수는, 검출될 타깃이 촬영 부재에 대한 포즈 정보, 제1 이미지에서 검출될 타깃의 크기를 반영하는 파라미터 정보, 제1 이미지의 밝기 정보 중의 적어도 하나를 포함한다. 여기서, 검출될 타깃이 촬영 부재에 대한 포즈 정보는 검출될 타깃이 촬영 부재에 대한 각도 정보일 수 있다. 그 중, 여기서 검출될 타깃이 촬영 부재에 대한 각도 정보는 검출될 타깃이 촬영 기간의 렌즈에 대한 각도 정보일 수 있다. 예를 들어, 렌즈를 원점으로 하여, 3차원 좌표계를 구축하며, 여기서, 렌즈와 지심의 연결선을 X축으로 하고, 렌즈의 정면 연장선이자 X축과 수직되는 것을 Y축으로 하며, 아울러 X축 및 Y축과 수직되는 것은 Z축이다. 3차원 좌표계는 단지 검출될 타깃과 촬영 부재의 각도를 표시하기 위한 것이고, 일부 실시예에서, 3차원 좌표계의 원점 선택 또는 3개 방향의 선택은 본 발명의 실시예와 상이할 수 있다. 여기서 각도는 렌즈 XYZ 방향에 대응되는 각도로 구분될 수 있으며, 예를 들어, 검출될 타깃이 렌즈에 마주하고 XYZ 방향을 따른 각도는 0°(도)이며, 검출될 타깃이 제1 이미지 수집 부재에 마주하면, 검출될 타깃이 제1 이미지 수집 부재에 대응되는 X방향의 각도는 90°이고, Y방향을 따른 각도는 0°이며, Z방향을 따른 각도 역시 0°이고, 여기서 검출될 타깃이 X축을 에워싸고 90°회전하였기에, 검출될 타깃과 X축은 역시 X방향에 대응되는 각도는 90°이다. 물론, 각 방향의 각도도 작을수록 좋다. 제1 이미지에서 검출될 타깃의 크기를 반영하는 파라미터 정보는 검출될 타깃이 제1 이미지에서 차지하는 면적 크기를 포함하고, 여기서, 면적 크기는 검출될 타깃이 제1 이미지에서 차지하는 영역 크기로 표시한다. 물론, 전제는 검출될 타깃이 제1 이미지에 완벽하게 포함되어야 하며, 제1 이미지에 단지 검출될 타깃을 포함하는 일 부분만 포함되면, 이 프레임의 제1 이미지에서 검출될 타깃의 크기라는 이 품질 계수의 득점은 비교적 낮다. 제1 이미지의 밝기 정보 역시 높으면 높을수록 좋은 것이 아니라, 현재 시각의 자연광의 밝기에 가까울수록 좋으며, 여기서 이 품질 계수의 득점은 상대적으로 높다. 여기서, 상기 3개의 품질 계수가 이미지 품질에 대한 영향 정도 관계에 따라 상기 3개 품질 계수가 차지하는 가중치를 설정한다. 예를 들어, 각도의 가중치를 0.4로 설정하고, 나머지 두 개 부분을 각각 0.3으로 설정하며, 물론, 이는 단계 열거된 것으로서, 각각의 품질 계수 사이의 가중치는 수요에 따라 자체적으로 설정 가능하며, 일부 실시예에서, 이 3개의 품질 계수 외에도, 제1 이미지의 모호성 등 요소를 포함할 수도 있으며, 이미지 품질에 영향 주는 요소는 모두 이미지의 품질 점수를 산출하는 데 사용될 수 있다. 품질 점수가 요구에 만족되는 이미지를 선택하여 특징을 추출하고, 추출된 특징이 검출하 타깃을 더욱 잘 표시할 수 있도록 한다. 물론, 가중치의 설정은 실제의 이미지 검출 정밀도 수요 및 이미지 검출 기기의 처리 능력, 자원 점용 상황 등을 고려할 수 있다. 예를 들어, 일부 실시예에서, 이미지 검출 기기의 처리 능력이 비교적 높고, 자원 점용이 비교적 적으면, 복수 개의 품질 계수를 고려하여 품질 점수를 산출할 수 있고, 이미지 검출 기기의 처리 능력이 지나치게 낮으면, 몇 개의 품질 계수만 고려하여 품질 점수를 산출할 수 있는 바, 예를 들어 각각의 품질 계수에 필요한 시간 또는 메모리 공간을 산출하여 품질 계수를 선택한다. 따라서, 얼마의 품질 계수 또는 몇 개의 품질 계수를 사용하는 것은 유연하게 선택할 수 있다. 물론, 일부 실시예에서, 하나의 비교적 낮은 품질 점수 임계값을 결정할 수도 있으며, 제1 이미지의 품질 점수가 품질 점수 임계값보다 낮으면, 이를 배제하고, 품질 점수가 상기 품질 점수 임계값보다 큰 제1 이미지를 보류한다. In some embodiments, when a target to be detected is not blocked by a preset object in some work scenes, the target to be detected is recognized. In some other work scenes, if the target to be detected is not shielded by a preset object, the target to be detected is not recognized, for example, it is necessary to wear a mask in a public place such as a high-speed train or an airplane at a certain time or special time. In this case, if it is detected that the mask is not worn on the face, face recognition is not performed on the face, and the face not wearing the mask cannot pass through face recognition to enter the station. Of course, according to the demand of the work scene, the target to be detected may be recognized even if it is detected that the target to be detected is not shielded by the preset object. It is necessary to recognize the target to be detected, to extract the target to be detected, and before extracting the feature, from the multi-frame first image including the target to be detected, the first image that satisfies the preset quality requirement in the subsequent feature It may be determined by the extracted first image. Here, the method of determining the first image that satisfies the preset quality requirement as the first image for extracting subsequent features is based on the quality factor of the first image of each frame. A quality score may be obtained, wherein the quality factor of the first image is selected from among pose information about the photographing member that the target to be detected is to be detected, parameter information reflecting the size of the target to be detected in the first image, and brightness information of the first image. contains at least one. Here, the target to be detected pose information about the photographing member may be angle information of the to-be-detected target for the photographing member. Among them, the angle information of the target to be detected with respect to the photographing member may be angle information of the target to be detected with respect to the lens during the photographing period. For example, with the lens as the origin, a three-dimensional coordinate system is constructed, where the connecting line between the lens and the core is the X-axis, the front extension of the lens and perpendicular to the X-axis is the Y-axis, and the X-axis and The Z axis is perpendicular to the Y axis. The three-dimensional coordinate system is only for indicating the angles of the target to be detected and the photographing member, and in some embodiments, the selection of the origin of the three-dimensional coordinate system or the selection of three directions may be different from the embodiments of the present invention. Here, the angle may be divided into an angle corresponding to the lens XYZ direction. For example, the target to be detected faces the lens and the angle along the XYZ direction is 0° (degrees), and the target to be detected is the first image collecting member , the target to be detected has an angle in the X direction corresponding to the first image collection member is 90°, the angle along the Y direction is 0°, and the angle along the Z direction is also 0°, where the target to be detected is Since the X-axis is rotated by 90°, the target to be detected and the X-axis also have an angle corresponding to the X-direction of 90°. Of course, the smaller the angle in each direction, the better. The parameter information reflecting the size of the target to be detected in the first image includes an area size occupied by the target to be detected in the first image, wherein the area size is indicated by the area size occupied by the target to be detected in the first image. Of course, the premise is that the target to be detected must be completely contained in the first image, and if the first image contains only a part containing the target to be detected, then this quality is the size of the target to be detected in the first image of this frame. The score of the coefficient is relatively low. The higher the brightness information of the first image, the better, but the closer it is to the brightness of natural light at the current time, the better, where the score of this quality factor is relatively high. Here, the weight occupied by the three quality factors is set according to the relationship between the degree of influence of the three quality factors on the image quality. For example, set the weight of the angle to 0.4, and set the other two parts to 0.3 each, of course, as this is step-listed, the weight between each quality factor can be set by itself according to the demand, some In an embodiment, in addition to these three quality factors, a factor such as ambiguity of the first image may be included, and all factors affecting the image quality may be used to calculate a quality score of the image. Extract features by selecting images whose quality score satisfies the requirements, and allow the extracted features to better represent the target to be detected. Of course, the setting of the weight may take into consideration the actual demand for image detection precision, the processing capability of the image detection device, the resource occupancy situation, and the like. For example, in some embodiments, if the processing power of the image detection device is relatively high and the resource occupancy is relatively small, the quality score may be calculated in consideration of a plurality of quality factors, and the processing power of the image detection device is too low. , the quality score can be calculated by considering only a few quality factors. For example, the quality factor is selected by calculating the time or memory space required for each quality factor. Therefore, it is possible to flexibly choose how many quality factors or how many quality factors to use. Of course, in some embodiments, it is also possible to determine one relatively low quality score threshold, and if the quality score of the first image is lower than the quality score threshold, it is excluded, and the second image whose quality score is greater than the quality score threshold is excluded. 1 Hold the image.
일부 실시예에서, 제1 이미지를 특징 추출하고 인식하기 전에, 후속적인 특징 추출된 제1 이미지를 사전 처리할 수도 있다. 여기서, 사전 처리의 방식은 제1 이미지가 복수 개의 검출될 타깃을 포함할 경우, 기설정 추출 요구를 만족하는 검출될 타깃이 제1 이미지에서의 타깃 영역을 결정하고, 제1 이미지에서 타깃 영역 이외의 이미지 부분을 제거할 수 있다. 그 중, 여기서 타깃 영역은 하나의 검출될 타깃을 포함하는 영역일 수 있다. 다시 말해, 제1 이미지가 복수 개의 검출될 타깃을 포함할 경우, 완전한 제1 이미지를 인식하는 것이 아니라, 단지 기설정 추출 요구를 만족하는 검출될 타깃의 타깃 영역을 인식하며, 따라서, 다른 검출될 타깃이 인식 과정에서 생성되는 소음을 어느 정도 감소함으로써, 요구를 만족하지 않는 검출될 타깃이 인식 결과에 대한 영향을 감소하였다. 여기서, 기설정 추출 요구는 검출될 타깃에 대응되는 영역의 면적이 다른 검출될 타깃에 대응되는 영역의 면적보다 큰 것일 수 있고, 여기서 다른 검출될 타깃은 검출될 타깃 이외의 타깃을 포함한다. 만약 제1 이미지에 복수 개의 검출될 타깃이 존재하면, 복수 개의 검출될 타깃이 차지하는 면적이 일치하지 않을 수 있고, 면적이 더 큰 검출될 타깃은 인식 과정에서 해상도가 상대적으로 더 높기에, 따라서, 면적이 더 큰 검출될 타깃을 선택하여 인식한다. 여기서, 복수 개의 검출될 타깃의 면적이 동일할 경우, 검출될 타깃의 중심이 제1 이미지 중심에 더 가까운 검출될 타깃을 인식될 수 있거나, 또는 다른 일부 실시예에서, 모든 검출될 타깃에 대응되는 타깃 영역을 획득하여 타깃을 검출하고, 물론 후자의 상기 모든 검출될 타깃은 면적 크기가 첫 번째에 병렬되거나 또는 면적이 하나의 기설정 면적보다 큰 추출 임계값의 검출될 타깃을 가리킨다.In some embodiments, a subsequent feature extracted first image may be pre-processed prior to feature extraction and recognition of the first image. Here, the pre-processing method is that, when the first image includes a plurality of targets to be detected, a target to be detected that satisfies a preset extraction request determines a target area in the first image, and the target area other than the target area in the first image is determined. You can remove the image part of Among them, the target area may be an area including one target to be detected. In other words, when the first image includes a plurality of targets to be detected, it does not recognize the complete first image, but only recognizes the target area of the target to be detected that satisfies the preset extraction requirement, and, thus, By reducing to some extent the noise generated in the target recognition process, the target to be detected that does not satisfy the requirement reduces the influence on the recognition result. Here, the preset extraction request may be that an area of a region corresponding to a target to be detected is larger than an area of a region corresponding to another target to be detected, wherein the other target to be detected includes a target other than the target to be detected. If there are a plurality of targets to be detected in the first image, the areas occupied by the plurality of targets to be detected may not match, and a target to be detected having a larger area has a relatively higher resolution in the recognition process, thus, A target with a larger area to be detected is selected and recognized. Here, when the areas of a plurality of targets to be detected are the same, a target to be detected having a center of the target to be detected closer to the center of the first image may be recognized, or, in some other embodiments, corresponding to all targets to be detected may be recognized. Acquire a target area to detect a target, and of course all the targets to be detected of the latter point to a target to be detected whose area size is parallel to the first or whose area is greater than one preset area of extraction threshold.
일부 실시예에서, 제1 이미지를 특징 추출하여 인식하기 전에, 후속적인 특징 추출한 제1 이미지를 사전 처리하는 것은, 제1 이미지에서 검출될 타깃의 경사 각도가 기설정 각도보다 큰 것을 검출하고, 제1 이미지를 검출될 타깃의 경사 각도가 기설정 각도보다 작거나 같도록 회전하는 것일 수도 있다. 일부 실시예에서, 회전의 방식은 전체 제1 이미지를 회전하는 외에, 검출될 타깃, 또는 검출될 타깃을 포함하는 타깃 영역을 회전할 수도 있으며, 따라서, 검출될 타깃을 바르게 놓는 방식은 여기서 한정하지 않는다. 여기서, 기설정 각도는 시계 방향 또는 시계 반대 방향 0° 내지 180°이내일 수 있고, 본 발명의 실시예는 기설정 각도를 0°로 설정하도록 선택하며, 일부 실시예에서 기설정 각도는 30°, 35° 등일 수도 있다. 여기서, 검출될 타깃이 기설정 각도보다 기울어진 여부를 판단하는 방식은 검출될 타깃 중의 기설정 제1 키포인트 및 기설정 제2 키포인트의 연결선과 수직선의 협각을 획득하고, 상기 협각이 기설정 각도보다 큰 지의 여부를 판단하며, 크다면, 상기 협각이 기설정 각도보다 작거나 같도록 제1 이미지를 회전하고, 회전된 후의 기설정 제1 키포인트는 기설정 제2 키포인트의 위에 위치하며, 여기서 위는 제1 이미지의 밑변에 대응되어 결정할 수 있다. 물론, 경사 각도는 검출될 타깃이 제1 이미지에 대응되는 어느 한 위치의 경사 각도일 수도 있는바, 예를 들면 검출될 타깃이 제1 이미지 중심에 대응되는 경사 각도이다. 물론, 여기서 기설정 각도는 상이한 장면의 수요에 따라 설정할 수 있는 바, 예를 들면 검출될 타깃이 위치한 영역에서 제1 이미지를 차지하는 면적에 따라 결정할 수 있다. 예를 들어, 검출될 타깃이 위치한 영역의 면적이 제1 면적 기설정 값보다 클 경우, 기설정 각도를 30°보다 크게 설정할 수 있고, 검출될 타깃이 위치한 영역의 면적이 제2 면적 기설정 값보다 작을 경우, 기설정 각도를 30°보다 작게 설정할 수 있다. 따라서 검출될 타깃이 위치한 영역의 면적이 클수록 검출될 타깃의 면적이 크다는 것을 설명하며, 즉 검출될 타깃이 각도의 영향을 적게 받으며, 검출될 타깃의 경사 각도가 넓을수록, 반대로 검출될 타깃이 경사 각도의 영향을 많이 받는다는 것을 설명하며, 검출될 타깃의 경사 각도에 대해 더욱 엄격하다. 물론, 이는 단지 열거된 것으로서, 일부 실시예에서, 다른 면적과 기설정 각도의 대응 관계 등을 설정할 수도 있으며, 여기서 규정하지 않는다. In some embodiments, prior to feature extraction and recognition of the first image, the pre-processing of the subsequent feature extraction first image includes: detecting that the inclination angle of the target to be detected in the first image is greater than the preset angle; 1 The image may be rotated so that the inclination angle of the target to be detected is less than or equal to a preset angle. In some embodiments, the manner of rotation may also rotate a target to be detected, or a target area including the target to be detected, in addition to rotating the entire first image, so the manner of correctly placing the target to be detected is not limited here. does not Here, the preset angle may be within a range of 0° to 180° in a clockwise or counterclockwise direction, an embodiment of the present invention selects to set the preset angle to 0°, and in some embodiments, the preset angle is 30° , 35°, or the like. Here, the method of determining whether the target to be detected is inclined more than the preset angle is to obtain an included angle between a connecting line and a vertical line of a preset first key point and a preset second key point among the target to be detected, and the included angle is greater than the preset angle It is determined whether it is large, if it is large, the first image is rotated so that the included angle is less than or equal to the preset angle, and the first preset keypoint after rotation is positioned on the preset second keypoint, where the upper It may be determined to correspond to the base of the first image. Of course, the inclination angle may be an inclination angle of a position at which the target to be detected corresponds to the first image, for example, the inclination angle at which the target to be detected corresponds to the center of the first image. Of course, here, the preset angle can be set according to the demands of different scenes, for example, according to the area occupied by the first image in the area where the target to be detected is located. For example, when the area of the region where the target to be detected is located is larger than the first area preset value, the preset angle may be set to be greater than 30°, and the area of the region where the target to be detected is positioned is the second area preset value If smaller, the preset angle may be set to be smaller than 30°. Therefore, it is explained that the larger the area of the region where the target to be detected is located, the larger the area of the target to be detected is, that is, the target to be detected is less affected by the angle, and the larger the inclination angle of the target to be detected is, the larger the inclination angle of the target to be detected is, the more the target to be detected is inclined. It explains that it is highly affected by the angle, and it is more strict with respect to the inclination angle of the target to be detected. Of course, these are merely listed, and in some embodiments, a correspondence relationship between another area and a preset angle may be set, and the present invention is not defined herein.
예를 들어, 도 2 및 도 3을 참조하면, 도 2는 본 발명의 실시예에 따른 이미지 검출 방법의 일 실시예 중 제1 이미지 모식도이고, 도 3은 본 발명의 실시예에 따른 이미지 검출 방법의 일 실시예에서 사전 처리를 거친 제1 이미지 모식도이다. 도 2에 도시된 바와 같이, 제1 이미지(20)에서 검출될 타깃(21)의 하반부가 기설정 물체(22)에 의해 차폐되고, 검출될 타깃(21)이 뚜렷하게 좌측으로 경사지며, 즉 검출될 타깃(21)의 좌측 상단 끝점(제1 기설정 키포인트)과 좌측 하단 끝점(제2 기설정 키포인트)의 연결선과 수직선의 협각은 30°이고, 즉 검출될 타깃(21)의 경사 각도가 30°로서 기설정 각도 0°보다 크면, 제1 이미지(20)를 우측으로, 다시 말해 시계 방향으로 30° 회전하고, 회전한 후의 제1 이미지는 도 3에 도시된 바와 같으며, 도 3에서 검출될 타깃(21)의 좌측 상단 끝점(제1 기설정 키포인트)과 좌측 하단 끝점(제2 기설정 키포인트)의 연결선과 수직선의 협각은 0°로서 기설정 각도 0°과 같다. For example, referring to FIGS. 2 and 3 , FIG. 2 is a schematic diagram of a first image among an embodiment of an image detection method according to an embodiment of the present invention, and FIG. 3 is an image detection method according to an embodiment of the present invention. It is a schematic diagram of a first image that has undergone pre-processing in an embodiment. As shown in FIG. 2 , in the
제1 이미지에서 검출될 타깃의 경사 각도가 기설정 각도보다 클 경우, 검출될 타깃을 바로 놓아, 후속적으로 검출될 타깃에 대해 생체 검출 또는 타깃 인식을 진행하는 과정에서 검출될 타깃이 경사되어 일으키는 영향을 감소하였다. When the inclination angle of the target to be detected in the first image is greater than the preset angle, the target to be detected is placed right away, and the target to be detected is tilted in the process of biometric detection or target recognition for the target to be detected subsequently. The effect was reduced.
일부 실시예에서, 제1 이미지를 특징 추출하여 인식하기 전에, 후속적인 특징 추출된 제1 이미지를 생체 검출될 수도 있으며, 생체 검출 결과가 검출될 타깃이 생체인 것일 경우, 상기 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출 및 그 후속적인 단계를 수행하도록 결정한다. 여기서, 제1 이미지에 복수 개의 검출될 타깃이 존재할 경우, 면적이 가장 큰 검출될 타깃을 선택하여 생체 검출한다. 여기서, 검출될 타깃에 대응되는 타깃 영역을 생체 검출 모델에 입력하여 생체 검출될 수 있고, 여기서 생체 검출 모델은 소정의 기설정 물체에 의해 차폐되는 검출될 타깃을 포함하는 이미지를 트레이닝하여 얻은 것이다. 검출될 타깃이 생체일 경우에만 검출될 타깃을 인식하여, 인식의 안전성을 강화하였으며, 가상체의 공격을 어느 정도 방지할 수 있다. In some embodiments, before feature extraction and recognition of the first image, the subsequent feature extraction of the first image may be biometrically detected. It is determined to extract a first characteristic of the unoccluded portion of the target to be detected and perform subsequent steps. Here, when a plurality of targets to be detected exist in the first image, a target to be detected having the largest area is selected for biometric detection. Here, a target area corresponding to a target to be detected may be input to a biometric detection model to be biodetected, wherein the biometric detection model is obtained by training an image including a target to be detected that is shielded by a predetermined predetermined object. By recognizing the target to be detected only when the target to be detected is a living body, the safety of recognition is enhanced, and attacks of virtual objects can be prevented to some extent.
여기서, 검출될 타깃을 인식하는 과정에서, 먼저 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하여, 검출될 타깃의 인식될 특징으로 한다. 여기서, 제1 특징은 검출될 타깃에서 차폐되지 않은 키포인트의 특징을 가리킨다. 여기서, 제1 이미지에서 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출할 수 있고, 검출될 타깃의 차폐된 부분의 제2 특징을 획득하며, 제1 특징 및 제2 특징을 검출될 타깃의 인식될 특징으로 한다. 여기서 제2 특징은 검출될 타깃 차폐된 부분 키포인트의 특징이다. 여기서, 차폐된 부분의 제2 특징의 획득 방식은 두 가지 방식이 존재할 수 있는 바, 한 가지는 제1 이미지에서 차폐된 부분의 특징을 추출하여 제2 특징으로 하는 것이다. 다시 말해 비록 이 부분이 기설정 물체에 의해 차폐되지만, 차폐되지 않은 제1 특징의 추출 방식에 따라 차폐 부분의 제2 특징을 추출하는 것이며, 즉 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부는 모두 동일한 처리 메커니즘을 사용하고, 즉 기설정 물체에 의해 차폐되는 지의 여부는 특징 추출 과정에 영향 주지 않는다. 물론, 일부 실시예에서, 검출될 타깃을 차폐하는 물체를 기설정하지 않았다면, 이러한 방식을 사용하여 검출될 타깃에서 키포인트 특징을 추출할 수 있다. 예를 들어, 검출될 타깃이 안면이고, 기설정 물체가 마스크이며, 제2 특징의 추출 방식은 안면이 마스크에 의해 차폐되지 않은 것으로서, 안면의 각각의 키포인트의 특징을 추출하며, 다시 말해 마스크를 착용한 안면 및 마스크를 착용하지 않은 안면에 대해 동일한 처리 메커니즘을 사용하는 바, 마스크를 착용하는 것은 특징 추출 과정에 영향을 주지 않는다. 다른 한 가지 방식은 차폐된 부분의 기설정 특징을 획득하여 제2 특징으로 하는 것으로서, 여기서, 기설정 특징은 적어도 하나의 참조 특징에 기반하여 얻은 특징일 수 있으며, 각 참조 특징은 차폐된 부분이 존재하지 않는 참조 타깃에서 차폐된 부분과 대응되는 영역을 추출하여 얻은 것이다. 다시 말해, 제1 이미지를 인식하기 전에, 먼저 차폐된 부분의 키포인트에 대해 참조 특징을 기설정하며, 다시 말해 차폐된 부분의 특징을 보충한다. 예를 들어, 검출 결과가 차폐된 부분이 존재하지 않는 검출될 타깃에서 기설정 부위에 대응되는 특징들을 미리 추출하고, 그 다음 추출된 특징들의 평균 값을 보충하여 물체에 차폐된 부분의 참조 특징으로 하며, 여기서, 검출 결과가 기설정 물체에 차폐되지 않은 검출될 타깃에서 기설정 부위에 대응되는 특징들을 미리 추출하고, 그 다음 추출된 특징들의 평균 값을 보충하여 기설정 물체에 차폐된 부분의 참조 특징으로 한다. 예를 들어, 마스크를 착용하지 않은 안면에서 기설정 부위에 대응되는 특징들을 미리 추출하고, 즉 예를 들어 코, 입 등 마스크를 착용한 부분의 특징이며, 추출된 특징들의 평균 값을 보충하여 마스크에 의해 가려진 부분의 기설정된 참조 특징으로 한다. 차폐된 부분의 특징 결정 방식에 대해, 차폐된 부분의 특징을 직접 추출하는 것을 통해, 차폐된 부분의 특징이 검출될 타깃의 상이함에 따라 어느 정도 상이하기에, 상기 방식은 인식의 정확도를 향상할 수 있고; 기설정 특징을 획득하여 차폐된 부분 특징으로 할 수도 있으며, 상기 방식은 차폐된 부분에 대해 특징 추출을 진행할 필요가 없으므로, 처리 자원의 소모를 절감하여 처리 효율을 항상할 수 있다. Here, in the process of recognizing the target to be detected, at least a first feature of the unshielded portion of the target to be detected is extracted from the first image to be a recognized feature of the target to be detected. Here, the first characteristic refers to the characteristic of an unshielded keypoint in the target to be detected. Here, it is possible to extract a first feature of an unshielded portion of the target to be detected from the first image, obtain a second feature of the shielded portion of the target to be detected, and obtain the first feature and the second feature from the target to be detected Characteristics to be recognized of Here the second characteristic is the characteristic of the target occluded partial keypoint to be detected. Here, there may be two methods for acquiring the second feature of the shielded portion, one of which is to extract the feature of the shielded portion from the first image and use it as the second feature. In other words, although this part is shielded by the preset object, the second feature of the shielded part is extracted according to the extraction method of the unshielded first feature, that is, whether the target to be detected is shielded by the preset object all use the same processing mechanism, that is, whether or not they are shielded by a preset object does not affect the feature extraction process. Of course, in some embodiments, keypoint features can be extracted from the target to be detected using this method, unless an object that shields the target to be detected is preset. For example, the target to be detected is a face, the preset object is a mask, and the extraction method of the second feature is that the face is not covered by the mask, extracting features of each key point of the face, that is, using the mask Wearing the mask does not affect the feature extraction process, as we use the same processing mechanism for the worn face and the non-masked face. Another method is to obtain a preset feature of the shielded portion and use it as a second feature, wherein the preset feature may be a feature obtained based on at least one reference feature, and each reference feature is a feature of the shielded portion. It is obtained by extracting the area corresponding to the shielded part from the non-existent reference target. In other words, before recognizing the first image, a reference feature is preset for the keypoint of the occluded part, that is, the feature of the occluded part is supplemented. For example, features corresponding to a preset part are extracted in advance from the target to be detected in which the detection result does not have an occluded part, and then the average value of the extracted features is supplemented as a reference feature of the occluded part in the object. Here, features corresponding to a preset part are extracted in advance from the target to be detected whose detection result is not shielded by the preset object, and then the average value of the extracted features is supplemented to refer to the shielded part of the preset object characterized. For example, features corresponding to a preset part are extracted in advance from a face not wearing a mask, that is, features of parts wearing a mask, such as, for example, nose and mouth, and supplementing the average value of the extracted features to provide a mask It is characterized as a preset reference feature of the portion obscured by As for the method of determining the characteristics of the occluded portion, through direct extraction of the characteristics of the occluded portion, the characteristics of the occluded portion are different to some extent according to the difference of the target to be detected, so this method can improve the accuracy of recognition can; It is also possible to obtain a preset feature as a shielded part feature, and in this way, since it is not necessary to perform feature extraction for the shielded part, processing efficiency can be always improved by reducing processing resource consumption.
일부 실시예에서, 검출될 타깃의 인식될 특징을 획득한 후, 인식될 특징을 이용하여검출될 타깃을 인식한다. 여기서, 인식된 장면은 1:1인 장면, 및 1:N인 장면으로 나뉠 수 있고, 여기서 1:1은 두 개 특징 사이의 비율이며, 1:N은 한 특징과 복수 개의 특징 사이의 비율을 가리킨다. 1:1의 장면에서, 즉 기설정 타깃이 하나를 포함할 경우, 인식될 특징과 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 획득하고, 제1 유사도가 제1 기설정 조건을 만족할 경우, 인식 결과가 검출될 타깃이 신원 인증을 통과하였음을 포함하는 것으로 결정한다. 여기서, 제1 기설정 조건은 제1 유사도가 제1 유사도 임계값보다 큰 것일 수 있다. 여기서, 인식될 특징이 검출될 타깃의 차폐된 부분의 제2 특징을 포함할 경우의 제1 유사도 임계값은, 인식될 특징이 제2 특징을 포함하지 않을 경우의 제1 유사도 임계값보다 작다. 인식될 특징이 제2 특징을 포함하면, 제2 특징은 검출될 타깃이 차폐된 부분의 키포인트의 진실한 특징과 차이가 있을 수 있으며, 따라서, 이러한 경우에 유사도 임계값을 적절하게 감소하면 인식의 정확도를 향상할 수 있다. 여기서, 인식될 특징이 제2 특징을 포함하지 않을 경우, 제1 유사도 임계값의 선택은 차폐된 키포인트의 개수가 검출될 타깃 전체 키포인트를 차지하는 개수의 비율에 따라 결정할 수 있다. 예를 들어, 차폐된 부분의 키포인트가 검출될 타깃 전체 키포인트 개수의 3분의 1이면, 제1 유사도 임계값이 차폐되지 않은 검출될 타깃을 인식한 유사도 임계값의 3분의 1임을 결정할 수 있다. 이때, 인식될 특징이 제2 특징을 포함하는 것으로 설정할 경우, 제1 유사도 임계값은 인식될 특징에 제2 특징이 포함되지 않는 경우의 제1 유사도 임계값보다 0.1 작거나, 다른 수치만큼 작으며, 여기서 규정하지 않는다. 예를 들어, 차폐되지 않은 검출될 타깃을 인식한 유사도 임계값은 0.6 내지 1 사이에 있을 수 있다. 물론, 이는 단지 예를 든 것으로서, 일부 실시예에서, 인식될 특징이 검출될 타깃의 차폐된 부분의 제2 특징을 포함할 경우의 제1 유사도 임계값은, 인식될 특징에 제2 특징이 포함되지 않는 경우의 제1 유사도 임계값과 같을 수도 있으며, 인식될 특징에 제2 특징이 포함될 경우, 상기 방법으로 실제 상황에 따라 결정할 수도 있다. In some embodiments, after obtaining the to-be-recognized feature of the to-be-detected target, the to-be-recognized feature is used to recognize the to-be-detected target. Here, the recognized scene can be divided into a 1:1 scene and a 1:N scene, where 1:1 is a ratio between two features, and 1:N is a ratio between one feature and a plurality of features. points to In a scene of 1:1, that is, when the preset target includes one, a first degree of similarity between the feature to be recognized and the pre-stored feature of the preset target is obtained, and the first degree of similarity satisfies the first preset condition , it is determined that the recognition result includes that the target to be detected has passed identity authentication. Here, the first preset condition may be that the first similarity is greater than the first similarity threshold. Here, the first similarity threshold when the feature to be recognized includes the second feature of the occluded portion of the target to be detected is smaller than the first similarity threshold when the feature to be recognized does not include the second feature. If the feature to be recognized includes the second feature, the second feature may be different from the true feature of the keypoint of the part where the target to be detected is occluded, and therefore, in this case, if the similarity threshold is appropriately reduced, the accuracy of recognition can improve Here, when the feature to be recognized does not include the second feature, the selection of the first similarity threshold may be determined according to a ratio of the number of the masked keypoints occupying all the target keypoints to be detected. For example, if the keypoints of the occluded portion are one-third of the total number of keypoints to be detected, it may be determined that the first similarity threshold is one-third of the similarity threshold for recognizing the unshielded target to be detected. . In this case, when it is set that the feature to be recognized includes the second feature, the first similarity threshold is 0.1 less than the first similarity threshold when the feature to be recognized does not include the second feature, or is smaller by another value; , not specified here. For example, the similarity threshold for recognizing an unoccluded target to be detected may be between 0.6 and 1. Of course, this is by way of example only, and in some embodiments, the first similarity threshold when the feature to be recognized comprises a second feature of the occluded portion of the target to be detected is that the feature to be recognized includes the second feature. It may be the same as the first similarity threshold value in the case where it does not occur, and when the second characteristic is included in the characteristic to be recognized, it may be determined according to the actual situation in the above method.
일부 실시예에서, 인식될 특징과 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 획득하는 단계 이전에, 사용자 계정과 기설정 타깃의 사전 저장 특징 사이의 연관을 우선 구축한다. 실시형태는 계정 등록 요청에 응답하여, 사용자에 대해 계정을 등록하는 것이다. 그 중, 여기서 계정은 일부 전자 결제한 계정일 수 있고, 타깃 인식을 진행할 수 있는 응용 프로그램이면 계정 등록 요청에 응답할 수 있으며, 사용자에 대해 계정을 등록한다. 사용자는 대응되는 응용 프로그램에서 휴대폰 번호로 등록할 수 있고 등록 성공한 후, 사용자는 아이디, 비밀번호 등 정보를 획득할 수 있다. 사용자가 촬영하여 얻은 적어도 한 프레임의 제2 이미지에서, 기설정 품질 요구를 만족하는 제2 이미지를 결정하고, 결정된 제2 이미지에서 사용자의 기설정 부위의 특징을 추출한다. 그 중, 여기서 기설정 부위는 검출될 타깃의 기설정 부위와 동일하다. 여기서, 기설정 품질 요구를 만족하는 제2 이미지를 선택하는 단계는 상기 기설정 품질 요구를 만족하는 제1 이미지를 선택하는 단계와 동일하다. 최종적으로, 기설정 부위의 특징과 계정의 연관을 구축하고, 기설정 부위의 특징을 저장하여 기설정 타깃의 사전 저장 특징으로 한다. 즉 사용자의 기설정 부위는 기설정 타깃이다. In some embodiments, prior to obtaining a first degree of similarity between the feature to be recognized and the pre-stored feature of the preset target, an association between the user account and the pre-stored feature of the preset target is first established. An embodiment is to register an account for the user in response to the account registration request. Among them, the account may be an account with some electronic payment, and if it is an application that can perform target recognition, it can respond to an account registration request and register an account for the user. A user can register with a mobile phone number in a corresponding application, and after successful registration, the user can obtain information such as an ID and password. A second image satisfying a preset quality requirement is determined from the second image of at least one frame obtained by photographing the user, and features of the user's preset part are extracted from the determined second image. Among them, the preset region is the same as the preset region of the target to be detected. Here, the step of selecting the second image satisfying the preset quality requirement is the same as the step of selecting the first image satisfying the preset quality requirement. Finally, the association between the characteristics of the preset site and the account is established, and the characteristics of the preset site are stored as a pre-stored feature of the preset target. That is, the user's preset portion is a preset target.
여기서, 1:N의 장면에서, 즉 기설정 타깃이 복수 개를 포함할 경우, 인식될 특징과 각 기설정 타깃의 사전 저장 특징 사이의 제2 유사도를 각각 획득하고, 인식 결과가 검출될 타깃의 신원을 제2 기설정 조건을 만족하는 제2 유사도에 대응되는 기설정 타깃의 신원으로 결정하는 것을 포함한다. 여기서, 제2 기설정 조건은 제2 유사도가 제2 유사도 임계값보다 큰 것일 수 있다. 여기서, 일반적인 경우, 여기서 가리키는 제2 기설정 조건을 만족한다는 것은, 제2 유사도 임계값보다 클 뿐만 아니라, 흔히 모든 제2 유사도에서 최대치인 파라미터이다. 즉 최대 제2 유사도에 대응되는 기설정 타깃 신원을 선택하여 검출될 타깃의 신원으로 한다. 여기서, 인식될 특징이 제2 특징을 포함할 경우의 제2 유사도 임계값은, 인식될 특징이 제2 특징을 포함하지 않을 경우의 제2 유사도 임계값보다 작다. 인식될 특징이 제2 특징을 포함하면, 제2 특징은 검출될 타깃 차폐된 부분의 키포인트의 진실한 특징과 상이할 수 있으며, 따라서, 이러한 경우에 유사도 임계값을 적절하게 감소하면 인식의 정확도를 향상할 수 있다. 제2 유사도 임계값의 결정 방법은 제1 유사도 임계값의 결정 방법과 동일하다. Here, in a scene of 1:N, that is, when a preset target includes a plurality, a second degree of similarity between a feature to be recognized and a pre-stored feature of each preset target is respectively obtained, and the recognition result is a target to be detected. and determining the identity as the identity of a preset target corresponding to a second degree of similarity that satisfies a second preset condition. Here, the second preset condition may be that the second similarity is greater than the second similarity threshold. Here, in a general case, satisfying the second preset condition indicated herein is a parameter that is not only greater than the second similarity threshold, but also often has a maximum value in all second similarities. That is, a preset target identity corresponding to the maximum second degree of similarity is selected as the identity of the target to be detected. Here, the second similarity threshold when the feature to be recognized includes the second feature is smaller than the second similarity threshold when the feature to be recognized does not include the second feature. If the feature to be recognized includes a second feature, the second feature may be different from the true feature of the keypoint of the target occluded portion to be detected, and thus, appropriately reducing the similarity threshold in this case improves the accuracy of recognition can do. The method of determining the second similarity threshold is the same as the method of determining the first similarity threshold.
1:N은 여러 개의 안면에 연관되는 장면에서, 예컨대, 하나의 오피스 빌딩 또는 하나의 회사 입구에 안면 인식 자동 개찰기를 설치하였고, 이러한 장면에서 빌딩 또는 회사 범위 내에서, 출입해야 하는 사람에 대해 각각 등록하여 하나의 안면 데이터베이스를 형성해야 하며, 등록된 사람이 자동 개찰기 앞에 나타나면, 자동 개찰기의 카메라가 안면을 검출, 포착하고, 포착된 안면과 안면 데이터베이스 중에 있는 것과 비교하여, 비교가 성공하면, 자동 개찰기를 열고, 미등록 인원이 자동 개찰기 앞에 나타나면, 비교 실패하여 자동 개찰기가 응답이 없을 것이다.In a scene involving several faces, for example, a face recognition automatic ticket gate is installed at the entrance of one office building or one company, and in this scene, within the scope of the building or company, each It is necessary to register and form one face database, and when the registered person appears in front of the automatic ticket gate, the camera of the automatic ticket gate detects and captures the face, compares the captured face with that in the face database, and if the comparison is successful, , when the automatic ticket gate is opened, and an unregistered person appears in front of the automatic ticket gate, the comparison will fail and the automatic ticket gate will not respond.
상기 방안에 있어서, 검출될 타깃을 포함하는 제1 이미지를 검출하여 검출될 타깃이 차폐되었는 지의 여부를 얻고, 그 다음 검출 결과와 매칭되는 기설정 동작을 수행하여, 검출될 타깃이 차폐되었는 지의 여부를 판단하여 검출 결과와 매칭되는 후속적인 기설정 동작을 진행할 수 있고, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다. In the above method, the first image including the target to be detected is detected to obtain whether the target to be detected is occluded, and then a preset operation matching the detection result is performed to determine whether the target to be detected is occluded By determining , a subsequent preset operation matching the detection result can be performed, and flexible processing is implemented based on the shielding state of the target to be detected in the image.
전술한 실시예에 기반하여, 본 발명의 실시예는 이미지 검출 방법을 더 제공하는 바, 상기 방법은 딥러닝 알고리즘에 기반한 모델 검출 능력을 이용하였으며, 또한 안면 검사 장면으로부터 시작하며, 1:1 및 1:N 장면의 이미지 검출 과정을 구현하였고, 아울러, 마스크 착용 여부 검사 방법을 제공하였으며, 마스크의 착용 과정에서 안면 비교 및 안면 검색의 실시형태를 제공하였다. Based on the above-described embodiment, an embodiment of the present invention further provides an image detection method, which uses a model detection capability based on a deep learning algorithm, and also starts from a facial examination scene, 1:1 and A 1:N scene image detection process was implemented, a mask wearing test method was provided, and an embodiment of face comparison and face search was provided in the mask wearing process.
(1) 안면 검사 장면은 주요하게 1:1 및 1:N 두 개의 장면을 포함한다.(1) The facial examination scene mainly includes 1:1 and 1:N two scenes.
예를 들어, 결제 장면의 1:1은 실시간으로 포착한 안면 사진과 회원이 바인딩한 라이브러리 사진을 1:1의 검증을 진행하여, 동일한 사용자임을 확인하면 인증 통과한다. 또 예컨대, 1:N 장면이 안면 검색에 관련되면, 예컨대 오피스 빌딩 또는 회사가 출입구에 안면 인식 자동 개찰기를 설치하였고, 이러한 장면에서 빌딩 또는 회사 범위 내에서, 출입해야 하는 사용자를 등록하여 하나의 안면 데이터베이스를 형성해야 한다. 사용자가 자동 개찰기 앞에 나타나면, 자동 개찰기의 카메라는 안면을 검출, 포착하고, 포착한 안면 이미지와 안면 데이터베이스 중의 사진과 비교하며, 비교 성공하면 자동 개찰기를 열고, 비교 실패하면 자동 개찰기는 응답하지 않는 바, 즉 자동 개찰기는 닫힘 상태를 유지한다. For example, 1:1 of the payment scene performs 1:1 verification of the face photo captured in real time and the library photo bound by the member, and authentication passes if it is confirmed that they are the same user. Also, for example, if a 1:N scene is related to a face search, for example, an office building or company has installed a facial recognition automatic ticket gate at the entrance, and in this scene, within the building or company range, a user who needs to enter and exit is registered and one face You need to create a database. When the user appears in front of the automatic ticket gate, the automatic ticket gate camera detects and captures the face, compares the captured facial image with the photo in the facial database, and opens the automatic ticket gate if the comparison succeeds, and if the comparison fails, the automatic ticket gate does not respond In other words, the automatic ticket gate remains closed.
일부 실시예에서, 1:1 장면에서나 아니면 1:N 장면에서든지, 모두 생체의 방비를 진행해야 한다. 예를 들면 사진(인물을 촬영하여 얻은 사진, 전자 합성 사진 등을 포함), 가면 등 거짓된 사람의 공격이다. In some embodiments, whether in a 1:1 scene or a 1:N scene, the defense of the living body must proceed. For example, attacks by false persons, such as photographs (including photographs obtained by photographing people, electronic composites, etc.), masks, etc.
(2) 1:1 장면에서의 이미지 검출 방법은 하기와 같이 구현될 수 있다.(2) The image detection method in a 1:1 scene may be implemented as follows.
우선, 사용자가 하나의 계정이 있는 바, 예컨대 전자 결제의 계정이다. 사용자가 상기 전자 결제 계정에 대응되는 응용 시스템에서 휴대폰 번호로 등록하였고, 등록 성공한 후, 사용자는 아이디, 비밀 번호 등 정보를 획득하게 되며, 즉 하나의 전자 결제 계정을 얻게 된다. 그 다음, 상기 응용 시스템은 일부 활동을 통해 사용자가 안면 바인딩 동작을 진행하도록 안내하며, 사용자가 생체 인증을 거칠 경우 안면 인식을 진행하고, 비디오 중의 안면 품질이 안면 수집 수요를 만족할 경우, 사용자의 안면 이미지를 수집한다. 여기서, 촬영 과정에서 품질이 가장 높은 프레임을 선택할 수 있고, 상기 품질의 판단 기준은 안면의 각도, 조명의 강약, 안면의 크기 등 차원 중의 한 가지 또는 여러 가지를 포함한다. First, the user has one account, for example, an account for electronic payment. A user registers with a mobile phone number in the application system corresponding to the electronic payment account, and after successful registration, the user obtains information such as an ID and password, that is, obtains one electronic payment account. Then, the application system guides the user to perform a face binding operation through some activity, performs face recognition when the user goes through biometric authentication, and when the face quality in the video meets the face collection demand, the user's face Collect images. Here, a frame having the highest quality may be selected during the photographing process, and the quality determination criterion includes one or more dimensions such as the angle of the face, the intensity of illumination, and the size of the face.
수집된 사용자의 안면 이미지과 상기 계정을 연관시킬 수 있고, 구체적으로는 계정의 태크와 연관시킬 수 있으며, 안면 라이브러리의 비교 사진으로 한다. 사용자가 온라인에서 소비할 경우, 주문서를 확인한 후 결제 절차에 진입하는데, 이때 사용자가 안면 이미지를 이미 바인딩하여 안면 결제를 선택하면, 안면 포착 절차에 진입하게 된다. 안면을 검출될 경우 마스크 착용의 검사를 진행하고(즉 안면 속성 검출), 마스크를 착용하였으면, 후속적인 과정을 계속하며, 마스크를 착용하지 않았다면, 음성 재생 또는 문자 표시 등 방식으로 사용자에게 마스크 착용을 알릴 수 있다. The collected user's facial image may be associated with the account, specifically, it may be associated with the account's tag, and a comparison picture of the face library may be used. When the user consumes online, after confirming the order form, the payment procedure is entered. At this time, if the user has already bound a facial image and selects facial payment, the face capture procedure is entered. If a face is detected, the mask wear test is performed (that is, facial attribute detection), and if a mask is worn, the subsequent process is continued. can inform
사용자가 마스크를 착용하였을 경우, 안면 검출을 진행하고, 촬영 과정 중의 이 시간대에서, 품질이 가장 높은 프레임을 선택하여, 선택된 이 프레임의 사진에 대해 안면 대칭(예를 들면 안면에 일정한 경사 각도가 존재하면, 안면을 바르게 놓는 처리를 진행함)을 진행하고, 대칭된 후의 안면 사진에 대해 안면 특징 값을 추출한다. When the user wears a mask, face detection is performed, and at this time during the shooting process, the frame with the highest quality is selected, and facial symmetry (for example, there is a certain inclination angle on the face) Then, the process of placing the face correctly) is performed, and facial feature values are extracted from the symmetrical face photo.
여기서, 안면 특징값 추출 및 대조는 두 가지 방식이 있는 바, 첫 번째는 마스크 부분을 포함하는 안면 특징값 추출이고, 예컨대, 안면 라이브러리의 사진에서 마스크를 쓰지 않은 안면 특징값은 A이며, 동일한 방식을 사용하여 마스크를 착용한 안면에 대해 특징 추출을 진행하고, 특징값 A1을 취하며, 다시 마스크를 착용한 특징값 A1과 마스크를 쓰지 않은 특징값 A의 특징 벡터를 비교한다. 두 번째는 마스크 위의 가시 부분의 안면 특징값 추출을 구현하는 것으로, 만약 모든 안면을 128개 키포인트로 하고, 마스크 위를 64개의 키포인트로 한다면, 마스크 위의 가시 부분의 64개 키포인트 추출된 특징값을 상기 안면 라이브러리의 사진에서 대응되는 64개 키포인트 추출된 특징값과 비교한다. 나아가, 생성되는 특징값을 상기 사용자의 상기 안면 라이브러리 중의 사진의 특징값과 비교하고, 비교 임계값을 벗어날 경우(예를 들면 비교 임계값은 0.8이고, 유사도가 0.8을 벗어나면 동일한 사용자로 간주함), 비교 통과하며, 안면 검사 과정이 종료된다. Here, there are two methods for extracting and contrasting facial feature values, the first is extracting facial feature values including a mask part, for example, the facial feature value without a mask in the photo of the facial library is A, and the same method is used to extract the features of the face wearing the mask, take the feature value A1, and compare the feature vector of the feature value A1 with the mask on and the feature value A without the mask again. The second is to implement extraction of facial feature values from the visible part on the mask. If all faces are 128 keypoints and the mask is 64 keypoints, then 64 keypoints extracted feature values from the visible part on the mask. is compared with the feature values extracted from the corresponding 64 keypoints from the photo of the face library. Furthermore, the generated feature value is compared with the feature value of the photo in the face library of the user, and when it deviates from the comparison threshold (for example, the comparison threshold is 0.8, and the similarity is out of 0.8, the same user is considered ), the comparison is passed, and the face examination process is finished.
(3) 1:N 장면에서의 이미지 검출 방법은 하기와 같이 구현될 수 있다.(3) An image detection method in a 1:N scene may be implemented as follows.
우선, 오피스 빌딩 인원 관리 업무 시스템에, 빌딩 진입 권한이 있는 사용자의 각 사진(빌딩의 통해 장면에서의 안면 라이브러리의 비교 사진을 형성)을 입력해야 하며, 이때 상기 안면 라이브러리 중의 사진과 빌딩 사용자는 일대일의 대응 관계를 이룬다. 그 다음, 상기 안면 라이브러리 중의 사진과 자동 개찰기의 안면 인식 기기를 바인딩 연관시켜, 자동 개찰기의 안면 인식 기기가 상기 안면 라이브러리 중의 사진을 판독할 수 있도록 한다. 인원이 자동 개찰기를 통과해야 할 경우, 자동 개찰기의 안면 인식 기기가 안면 정보를 검출한 후, 안면 포착 상태에 진입한다(이때 상기 안면 인식 기기의 카메라 모듈은 줄곧 켜진 상태로 안면을 추적할 수 있으며, 안면 프레임은 줄곧 안면의 이동에 따라 이동함). First, it is necessary to input each picture of the user with the right to enter the building (to form a comparison picture of the facial library in the scene through the building) into the office building personnel management work system, wherein the picture in the facial library and the building user are one-to-one form a corresponding relationship of Then, binding association between the photo in the face library and the face recognition device of the automatic ticket gate allows the face recognition device of the automatic ticket gate to read the photo in the face library. When personnel need to pass through the automatic ticket gate, the facial recognition device of the automatic ticket gate detects the facial information, and then enters the face capture state (at this time, the camera module of the facial recognition device is turned on and can track the face and the facial frame moves along with the movement of the face all the way).
그 다음, 안면을 검출될 때 마스크 착용의 검사를 진행하고(즉 안면 속성 검출), 상이한 검사 결과에 따라 상이한 동작을 진행하며, 구체적인 작동 내용은 상기 1:1 장면에서의 내용에 대한 서술을 참조 바란다. Then, when the face is detected, the mask wearing inspection is performed (ie, facial attribute detection), and different operations are performed according to different inspection results, for specific operation details, refer to the description of the content in the 1:1 scene above hope
여기서, 1:N 장면에서의 안면 특징값 추출 및 검색도 두 가지 방식이 있는데, 첫 번째는 마스크 부분을 포함한 안면 특징값 추출로서, 상기 안면 라이브러리의 비교 사진에 A, B, C, D 및 E 5장의 마스크 미착용 안면 특징값이 있으면, 동일한 방식을 사용하여 마스크 착용한 안면에 대해 특징 추출을 진행하여, A1, B1, C1, D1 및 E1 5개의 특징값을 추출할 수 있으며, 마스크 착용한 특징값 A1를 검색할 경우, 특징값 A1 및 특징값 A의 특징 벡터의 거리가 가장 짧으면, 대응되는 특징값 A를 검색할 수 있다. 두 번째는 마스크 위의 가시 부분의 안면 특징값 추출을 구현하는 것으로서, 여기서, 특징값의 생성 부분은 상기 1:1장면에서의 방법과 동일한 바, 상기 서술을 참조 가능하다. 특징값을 생성한 후, 나아가 생성된 특징값이 전체 빌딩의 모든 사용자의 안면 라이브러리의 사진에서 안면 특징 검색을 진행하고(1:N의 검색), 비교 임계값을 벗어난 특징값이 존재할 경우, 검색 성공으로 간주한다. 검색이 성공하면 안면 인식 기기는 오픈 신호를 전송하여, 자동 개찰기는 열리며 안면 검사 과정은 종료된다. Here, there are two methods of extracting and searching for facial feature values in a 1:N scene. The first is extracting facial feature values including a mask part, and A, B, C, D and E are included in the comparison photos of the facial library. If there are 5 facial feature values without a mask, feature extraction is performed on the mask-wearing face using the same method to extract 5 feature values A1, B1, C1, D1, and E1. In the case of searching for the value A1, if the distance between the feature value A1 and the feature vector of the feature value A is the shortest, the corresponding feature value A may be searched for. The second is to implement extraction of facial feature values of the visible part on the mask, where the feature value generation part is the same as the method in the 1:1 scene, so the above description can be referred to. After generating the feature value, further, the generated feature value performs a facial feature search in the photos of all users of the entire building (1:N search), and if there is a feature value out of the comparison threshold, search considered success If the search is successful, the face recognition device sends an open signal, and the automatic ticket gate is opened and the face examination process is ended.
본 발명의 실시예에서, 상기 방법을 통해, 안면을 인식하기 전에, 사용자가 마스크를 착용하였는 지의 여부를 검사하고 이를 알릴 수 있으며, 사용자가 마스크를 착용하였을 경우, 정밀한 안면 인식을 진행하여, 안면 검사 과정을 완성하며, 통행 효율을 대폭 향상하였고, 마스크를 벗는 위험성을 감소하였다. In an embodiment of the present invention, through the above method, before recognizing a face, it is possible to check whether the user wears a mask and notify this, and when the user wears a mask, precise face recognition is performed to By completing the inspection process, traffic efficiency was greatly improved, and the risk of taking off the mask was reduced.
여기서, 이미지 검출 방법의 수행 주체는 이미지 검출 장치일 수 있고, 예를 들어, 이미지 검출 방법은 단말기 또는 서버 또는 다른 처리 기기로 수행될 수 있으며, 여기서, 단말기는 사용자 기기(User Equipment, UE), 모바일 기기, 단말기, 셀룰러 폰, 무선전화, 개인 정보 단말기(Personal Digital Assistant, PDA), 핸드 헬드 기기, 컴퓨팅 기기, 차량 탑재 기기, 웨어러블 기기 등일 수 있다. 일부 가능한 실시형태에서, 상기 이미지 검출 방법은 프로세서를 통해 메모리에 저장된 컴퓨터 판독 가능 명령을 호출하는 방식으로 구현될 수 있다. Here, the performing subject of the image detection method may be an image detection apparatus, for example, the image detection method may be performed by a terminal or a server or other processing device, where the terminal is a user equipment (UE); It may be a mobile device, a terminal, a cellular phone, a wireless telephone, a personal digital assistant (PDA), a hand-held device, a computing device, an in-vehicle device, a wearable device, and the like. In some possible embodiments, the image detection method may be implemented in a way that invokes computer readable instructions stored in a memory via a processor.
도 4를 참조하면, 도 4는 본 발명의 실시예에 따른 이미지 검출 장치의 일 실시예의 구조 모식도이다. 이미지 검출 장치(40)는 이미지 획득 모듈(41), 타깃 검출 모듈(42) 및 동작 수행 모듈(43)을 포함한다. 이미지 획득 모듈(41)은 검출될 타깃을 포함하는 제1 이미지를 획득하고; 타깃 검출 모듈(42)은 제1 이미지를 검출하여, 제1 이미지의 검출 결과를 얻으며, 여기서, 검출 결과는 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 포함하고; 동작 수행 모듈(43)은 검출 결과와 매칭되는 기설정 동작을 수행한다. Referring to FIG. 4 , FIG. 4 is a structural schematic diagram of an embodiment of an image detection apparatus according to an embodiment of the present invention. The
상기 방안에 있어서, 검출될 타깃을 포함하는 제1 이미지를 검출하여 검출될 타깃이 차폐되었는 지의 여부를 얻고, 그 다음 검출 결과와 매칭되는 기설정 동작을 수행하여, 검출될 타깃이 차폐되었는 지의 여부를 판단하여 검출 결과와 매칭되는 후속적인 기설정 동작을 진행할 수 있고, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다. In the above method, the first image including the target to be detected is detected to obtain whether the target to be detected is occluded, and then a preset operation matching the detection result is performed to determine whether the target to be detected is occluded By determining , a subsequent preset operation matching the detection result can be performed, and flexible processing is implemented based on the shielding state of the target to be detected in the image.
일부 실시예에서, 검출 결과는 타깃 검출 모듈(42)이 신경망을 이용하여 제1 이미지를 검출하여 얻은 것이다. In some embodiments, the detection result is obtained by the target detection module 42 detecting the first image using a neural network.
상기 방안에 있어서, 미리 트레이닝된 신경망을 통해 검출하여, 검출 결과가 더 정확하고 검출 속도가 더 신속하도록 한다. In the above method, detection is performed through a pre-trained neural network, so that the detection result is more accurate and the detection speed is faster.
일부 실시예에서, 동작 수행 모듈(43)은 검출 결과와 매칭되는 기설정 동작을 수행하고, 검출될 타깃이 기설정 물체에 의해 차폐되지 않을 경우, 제1 알림을 발송하는 것을 포함하며; 여기서, 제1 알림은 기설정 물체를 사용하여 검출될 타깃을 차폐하도록 프롬프트하기 위한 것이다. In some embodiments, the
상기 방안에 있어서, 검출될 타깃이 차폐되지 않을 경우 제1 알림을 발송하여, 검출될 타깃이 기설정 물체에 의해 차폐되지 않은 상황을 제때에 알려, 알림 수신자도 대응되는 조치를 제때에 취할 수 있다. In the above method, when the target to be detected is not shielded, the first notification is sent, so that the target to be detected is not blocked by the preset object in a timely manner, so that the notification recipient can take the corresponding action in a timely manner .
일부 실시예에서, 검출 결과는 검출될 타깃이 기설정 물체에 의해 차폐되는 차폐 방식이 기설정 차폐 방식인 지의 여부를 더 포함하고; 동작 수행 모듈(43)이 검출 결과와 매칭되는 기설정 동작을 수행하는 것은, 검출될 타깃이 기설정 물체에 의해 차폐되고 차폐 방식이 기설정 차폐 방식에 속하지 않을 경우, 제2 알림을 발송하는 것을 포함하며; 여기서, 제2 알림은 기설정 물체의 차폐 방식을 조절하도록 프롬프트하기 위한 것이다.In some embodiments, the detection result further includes whether the shielding manner in which the target to be detected is shielded by the preset object is the preset shielding manner; When the
상기 방안에 있어서, 차폐 방식이 정확하지 않을 경우, 제2 알림을 발송하여, 검출될 타깃의 차폐 방식을 제때에 조절하도록 한다. In the above method, when the shielding method is not correct, a second notification is sent to adjust the shielding method of the target to be detected in time.
일부 실시예에서, 동작 수행 모듈(43)이 검출 결과와 매칭되는 기설정 동작을 수행하는 것은, 검출될 타깃이 기설정 물체에 의해 차폐될 경우, 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하여, 검출될 타깃의 인식될 특징으로 하는 것을 포함하며; 인식될 특징을 이용하여, 검출될 타깃을 인식하여, 인식 결과를 얻는다. In some embodiments, when the
상기 방안에 있어서, 검출될 타깃이 기설정 물체에 의해 차폐될 경우, 차폐되지 않은 부분의 특징을 추출하여 인식하며, 검출될 타깃의 일부 특징을 인식하는 것을 구현하였고, 상기 일부 특징이 차폐되지 않았기에, 검출될 타깃을 대표할 수 있으며, 인식의 정확도를 어느 정도 보장한다. In the above method, when the target to be detected is shielded by a preset object, features of the unshielded portion are extracted and recognized, and some features of the target to be detected are recognized, and some features are not shielded. In this case, it can represent the target to be detected, and guarantee the accuracy of recognition to some extent.
일부 실시예에서, 동작 수행 모듈(43)이 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하여, 검출될 타깃의 인식될 특징으로 하는 것은, 제1 이미지에서 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하고, 검출될 타깃의 차폐된 부분의 제2 특징을 획득하며; 제1 특징 및 제2 특징을 검출될 타깃의 인식될 특징으로 하는 것을 포함한다. In some embodiments, the
상기 방안에 있어서, 검출될 타깃의 차폐되지 않은 부분의 특징을 사용하는 외에도, 차폐된 부분의 특징에 더 결부하여, 검출될 타깃의 특징 다양성을 향상할 수 있다. In the above method, in addition to using the characteristics of the unshielded portion of the target to be detected, it is possible to improve the feature diversity of the target to be detected by further attaching to the characteristics of the shielded portion.
일부 실시예에서, 동작 수행 모듈(43)이 검출될 타깃의 차폐된 부분의 제2 특징을 획득하는 것은, 제1 이미지에서 차폐된 부분의 특징을 추출하여 제2 특징으로 하거나; 또는, 차폐된 부분의 기설정 특징을 획득하여 제2 특징으로 하는 것을 포함하며, 여기서, 기설정 특징은 적어도 하나의 참조 특징에 기반하여 얻은 특징을 포함하고, 각 참조 특징은 차폐된 부분이 존재하지 않는 참조 타깃에서 차폐된 부분과 대응되는 영역을 추출하여 얻은 것이다. In some embodiments, the acquiring the second characteristic of the occluded portion of the target to be detected by the
상기 방안에 있어서, 차폐된 부분의 특징 결정 방식에 대해, 차폐된 부분의 특징을 직접 추출하는 것을 통해, 차폐된 부분의 특징이 검출될 타깃의 상이함에 따라 어느 정도 상이하기에, 상기 방식은 인식의 정확도를 향상할 수 있고; 기설정 특징을 획득하여 차폐된 부분 특징으로 할 수도 있으며, 상기 방식은 차폐된 부분에 대해 특징 추출을 진행할 필요가 없기에, 처리 자원의 소모를 절감하여 처리 효율을 항상할 수 있다. In the above method, for the characteristic determination method of the occluded portion, through direct extraction of the characteristic of the occluded portion, the characteristic of the occluded portion is different to some extent according to the difference of the target to be detected, so the method is recognized can improve the accuracy of; It is also possible to obtain a preset feature as a shielded part feature, and since it is not necessary to perform feature extraction on the shielded part in the above method, processing efficiency can be always improved by reducing processing resource consumption.
일부 실시예에서, 동작 수행 모듈(43)이 인식될 특징을 이용하여, 검출될 타깃을 인식하여, 인식 결과를 얻는 것은, 기설정 타깃이 하나를 포함할 경우, 인식될 특징과 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 획득하고, 제1 유사도가 제1 기설정 조건을 만족할 경우, 인식 결과가 검출될 타깃이 신원 인증을 통과하였음을 포함하는 것으로 결정하며; 기설정 타깃이 복수 개를 포함할 경우, 인식될 특징과 각 기설정 타깃의 사전 저장 특징 사이의 제2 유사도를 각각 획득하고, 인식 결과가 검출될 타깃의 신원을 제2 기설정 조건을 만족하는 제2 유사도에 대응되는 기설정 타깃의 신원으로 결정하는 것을 포함하는 것 중의 적어도 하나를 포함한다. In some embodiments, the
상기 방안에 있어서, 특정 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 산출하거나, 복수 개의 기설정 타깃의 사전 저장 특징 사이의 유사도를 산출하는 것을 통해, 실제 장면 수요에 따라 검출될 타깃과 특정된 어느 하나의 기설정 타깃을 비교하거나, 또는 어느 하나의 데이터 베이스 중의 기설정 타깃과 비교하는 것을 구현할 수 있다. In the above method, by calculating the first degree of similarity between the pre-stored features of a specific preset target or calculating the similarity between the pre-stored features of a plurality of preset targets, the target to be detected and the specific It can be implemented to compare any one of the preset targets, or to compare with a preset target in any one database.
일부 실시예에서, 제1 기설정 조건은 제1 유사도가 제1 유사도 임계값보다 큰 것을 포함하고; 제2 기설정 조건은 제2 유사도가 제2 유사도 임계값보다 큰 것을 포함한다. In some embodiments, the first preset condition includes that the first similarity is greater than the first similarity threshold; The second preset condition includes that the second similarity is greater than the second similarity threshold.
상기 방안에 있어서, 상이한 장면에서 제1 유사도 임계값을 각각 설정하여, 인식 결과가 더 정확하도록 한다. In the above scheme, the first similarity threshold is respectively set in different scenes, so that the recognition result is more accurate.
일부 실시예에서, 인식될 특징이 검출될 타깃의 차폐된 부분의 제2 특징을 포함할 경우의 제1 유사도 임계값은, 인식될 특징이 제2 특징을 포함하지 않을 경우의 제1 유사도 임계값보다 작고; 인식될 특징이 제2 특징을 포함할 경우의 제2 유사도 임계값은, 인식될 특징이 제2 특징을 포함하지 않을 경우의 제2 유사도 임계값보다 작다. In some embodiments, the first similarity threshold when the feature to be recognized comprises a second feature of the occluded portion of the target to be detected is a first similarity threshold when the feature to be recognized does not comprise the second feature smaller than; The second similarity threshold when the to-be-recognized feature includes the second feature is smaller than the second similarity threshold when the to-be-recognized feature does not include the second feature.
상기 방안에 있어서, 인식될 특징이 제2 특징을 포함하면, 제2 특징은 검출될 타깃 차폐된 부분의 키포인트의 진실한 특징과 상이할 수 있고, 따라서, 이러한 경우에 유사도 임계값을 적절하게 감소하면 인식의 정확도를 향상할 수 있다. In the above scheme, if the characteristic to be recognized comprises a second characteristic, the second characteristic may be different from the true characteristic of the keypoint of the target occluded portion to be detected, and thus, in this case, if the similarity threshold is appropriately reduced The recognition accuracy can be improved.
일부 실시예에서, 이미지 검출 장치(40)는 사전 저장 모듈(미도시)을 더 포함한다. 동작 수행 모듈(43)이 인식될 특징과 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 획득하기 전에, 사전 저장 모듈은, 계정 등록 요청에 응답하여, 사용자에 대해 계정을 등록하며; 사용자가 촬영하여 얻은 적어도 한 프레임의 제2 이미지에서, 기설정 품질 요구를 만족하는 제2 이미지를 결정하고, 결정된 제2 이미지에서 사용자의 기설정 부위의 특징을 추출하며; 기설정 부위의 특징과 계정의 연관을 구축하고, 기설정 부위의 특징을 저장하여 기설정 타깃의 사전 저장 특징으로 한다. In some embodiments, the
상기 방안에 있어서, 품질 요구를 만족하는 제2 이미지를 결정하여 기설정 부위의 특징을 추출하여 추출된 특징이 더 정확하도록 한다. In the above method, a second image that satisfies the quality requirement is determined and features of a preset region are extracted so that the extracted features are more accurate.
일부 실시예에서, 검출될 타깃이 기설정 물체에 의해 차폐될 경우, 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하는 단계 이전에, 동작 수행 모듈(43)은 또한, 검출될 타깃을 포함하는 멀티 프레임 제1 이미지에서, 기설정 품질 요구를 만족하는 제1 이미지를 후속적인 특징을 추출하는 제1 이미지로 결정하고; 후속적인 특징을 추출하는 제1 이미지를 사전 처리하며; 후속적인 특징을 추출하는 제1 이미지에 대해 생체 검출을 진행하고, 생체 검출 결과가 검출될 타깃이 생체인 것일 경우, 제1 이미지에서 적어도 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출 및 그 후속 단계를 수행하는 것으로 결정하는 것 중의 적어도 하나를 수행하도록 구성된다. In some embodiments, when the target to be detected is occluded by the preset object, prior to the step of extracting from the first image at least a first feature of an unoccluded portion of the target to be detected, the
상기 방안에 있어서, 특징 추출을 진행하기 전에, 사전 처리하여 추출된 특징이 더 정확하도록 하고, 검출될 타깃이 생체일 경우에만 검출될 타깃을 인식하여, 인식의 안전성을 강화하였으며, 가상체의 공격을 어느 정도 방지할 수 있다. In the above method, prior to feature extraction, pre-processing is performed so that the extracted features are more accurate, the target to be detected is recognized only when the target to be detected is a living body, the safety of recognition is strengthened, and the attack of the virtual object can be prevented to some extent.
일부 실시예에서, 동작 수행 모듈(43)이 검출될 타깃을 포함하는 멀티 프레임 제1 이미지에서, 기설정 품질 요구를 만족하는 제1 이미지를 후속적인 특징을 추출하는 제1 이미지로 결정하는 것은, 각 프레임의 제1 이미지의 품질 계수에 기반하여, 대응되게 각 프레임의 제1 이미지의 품질 점수를 얻고, 여기서, 제1 이미지의 품질 계수는, 검출될 타깃이 촬영 부재에 대한 포즈 정보, 제1 이미지에서 검출될 타깃의 크기를 반영하는 파라미터 정보, 제1 이미지의 밝기 정보 중의 적어도 하나를 포함하며; 품질 점수에 기반하여, 기설정 품질 요구를 만족하는 제1 이미지를 후속적인 특징을 추출하는 제1 이미지로 결정하고, 여기서, 선택된 제1 이미지의 품질 점수는 다른 제1 이미지의 품질 점수보다 높은 것을 포함한다.In some embodiments, determining, by the
상기 방안에 있어서, 품질 점수가 요구를 만족하는 이미지를 결정하여 특징을 추출하여, 추출된 특징이 검출하 타깃을 더욱 잘 표시할 수 있도록 한다. In the above scheme, an image whose quality score satisfies the requirement is extracted and features are extracted, so that the extracted features can better represent the target to be detected.
일부 실시예에서, 동작 수행 모듈(43)이 후속적인 특징을 추출하는 제1 이미지를 사전 처리하는 것은, 제1 이미지가 복수 개의 검출될 타깃을 포함할 경우, 기설정 추출 요구를 만족하는 검출될 타깃이 제1 이미지에서의 타깃 영역을 결정하고, 제1 이미지에서 타깃 영역 이외의 이미지 부분을 제거; 및/또는, 제1 이미지에서 검출될 타깃의 경사 각도가 기설정 각도보다 큰 것을 검출하고, 검출될 타깃의 경사 각도가 기설정 각도보다 작도록 제1 이미지를 회전하는 것을 포함한다. In some embodiments, the pre-processing of the first image for extracting subsequent features by the
상기 방안에 있어서, 제1 이미지에 복수 개의 검출될 타깃이 존재할 경우, 단지 기설정 추출 요구를 만족하는 검출될 타깃을 결정하고, 요구를 만족하지 않는 검출될 타깃은 폐기하며, 요구를 만족하지 않는 검출될 타깃이 인식 결과에 대한 영향을 감소하였다. 그 다음, 제1 이미지에서 검출될 타깃이 경사진 것이 검출되면, 이를 바르게 놓아, 검출될 타깃이 경사되어 일으키는 영향을 감소하였다. In the above method, when there are a plurality of targets to be detected in the first image, only a target to be detected that satisfies a preset extraction request is determined, a target to be detected that does not satisfy the request is discarded, and a target that does not satisfy the request is discarded. The influence of the target to be detected on the recognition result was reduced. Then, when it is detected that the target to be detected is inclined in the first image, it is placed correctly to reduce the influence caused by the tilt of the target to be detected.
일부 실시예에서, 기설정 추출 요구는 검출될 타깃의 대응 영역의 면적이 다른 검출될 타깃의 대응 영역의 면적보다 큰 것을 포함하고, 다른 검출될 타깃은 검출될 타깃 이외의 타깃을 포함한다. In some embodiments, the preset extraction request includes that an area of a corresponding region of the target to be detected is larger than an area of a corresponding region of another target to be detected, and the other target to be detected includes a target other than the target to be detected.
상기 방안에 있어서, 검출될 타깃의 면적이 클수록, 추출된 특징이 더 정확하기에, 따라서, 면적이 더욱 큰 검출될 타깃을 선택하여 검출될 결과가 더 정확하도록 한다. In the above scheme, the larger the area of the target to be detected, the more accurate the extracted features, so that the target to be detected with a larger area is selected so that the result to be detected is more accurate.
일부 실시예에서, 검출될 타깃은 안면을 포함하고, 기설정 물체는 마스크를 포함한다. In some embodiments, the target to be detected comprises a face and the predefined object comprises a mask.
상기 방안에 있어서, 안면에 마스크가 착용되었는 지의 여부를 판단하여, 대응되는 동작을 수행하는 바, 예를 들어, 안면에 마스크가 착용되지 않거나 또는 마스크의 착용 방식이 정확하지 않으면, 대응되는 알림을 발송하여, 사용자가 제때에 조절할 수 있도록 하며; 안면에 마스크가 착용되었다면, 안면을 인식한다. In the above method, it is determined whether the mask is worn on the face and a corresponding operation is performed. For example, if the mask is not worn on the face or the wearing method of the mask is not correct, a corresponding notification is issued send, so that the user can make adjustments in time; If a face mask is worn, it recognizes the face.
상기 방안에 있어서, 검출될 타깃을 포함하는 제1 이미지를 검출하여 검출될 타깃이 차폐되었는 지의 여부를 얻고, 그 다음 검출 결과와 매칭되는 기설정 동작을 수행하여, 검출될 타깃이 차폐되었는 지의 여부를 판단하여 검출 결과와 매칭되는 후속적인 기설정 동작을 진행할 수 있고, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다. In the above method, the first image including the target to be detected is detected to obtain whether the target to be detected is occluded, and then a preset operation matching the detection result is performed to determine whether the target to be detected is occluded By determining , a subsequent preset operation matching the detection result can be performed, and flexible processing is implemented based on the shielding state of the target to be detected in the image.
도 5를 참조하면, 도 5는 본 발명의 실시예에 따른 전자 기기의 일 실시예의 구조 모식도이다. 전자 기기(50)는 메모리(51) 및 프로세서(52)를 포함하고, 프로세서(52)는 메모리(51)에 저장된 프로그램 명령을 실행하여, 상기 임의의 이미지 검출 방법 실시예 중의 단계를 구현한다. 일 실시 장면에서, 전자 기기(50)는 마이크로 컴퓨터, 서버를 포함할 수 있지만 이에 한하지 않고, 이밖에, 전자 기기(50)는 노트북, 태블릿 PC 등 모바일 기기를 더 포함할 수 있지만 이에 한하지 않는다.Referring to FIG. 5, FIG. 5 is a structural schematic diagram of an embodiment of an electronic device according to an embodiment of the present invention. The
여기서, 프로세서(52)는 그 자체 및 메모리(51)를 제어하여 상기 임의의 이미지 검출 방법 실시예 중의 단계를 구현한다. 프로세서(52)를 중앙처리장치(Central Processing Unit, CPU)라고도 칭할 수 있다. 프로세서(52)는 신호의 처리 능력을 구비하는 한 가지 집적 회로 칩일 수 있다. 프로세서(52)는 는 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processor, DSP), 전용 집적 회로(Application Specific Integrated Circuit, ASIC), 현장 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 다른 프로그래머블 논리 소자, 개별 게이트 또는 트랜지스터 논리 소자, 개별 하드웨어 컴포넌트 등일 수 있다. 이 밖에, 프로세서(52)는 집적 회로 칩을 통해 공동으로 구현될 수 있다. Here, the
상기 방안에 있어서, 검출될 타깃을 포함하는 제1 이미지를 검출하여 검출될 타깃이 차폐되었는 지의 여부를 얻고, 그 다음 검출 결과와 매칭되는 기설정 동작을 수행하여, 검출될 타깃이 차폐되었는 지의 여부를 판단하여 검출 결과와 매칭되는 후속적인 기설정 동작을 진행할 수 있고, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다. In the above method, the first image including the target to be detected is detected to obtain whether the target to be detected is occluded, and then a preset operation matching the detection result is performed to determine whether the target to be detected is occluded By determining , a subsequent preset operation matching the detection result can be performed, and flexible processing is implemented based on the shielding state of the target to be detected in the image.
도 6을 참조하면, 도 6은 본 발명의 실시예에 따른 컴퓨터 판독 가능 저장 매체의 일 실시예의 구조 모식도이다. 컴퓨터 판독 가능 저장 매체(60)에는 프로세서에 의해 실행되는 프로그램 명령(61)이 저장되어 있고, 프로그램 명령(61)은 상기 임의의 이미지 검출 방법 실시예 중의 단계를 구현한다. Referring to FIG. 6, FIG. 6 is a structural schematic diagram of an embodiment of a computer-readable storage medium according to an embodiment of the present invention. The computer-
상기 방안에 있어서, 검출될 타깃을 포함하는 제1 이미지를 검출하여 검출될 타깃이 차폐되었는 지의 여부를 얻고, 그 다음 검출 결과와 매칭되는 기설정 동작을 수행하여, 검출될 타깃이 차폐되었는 지의 여부를 판단하여 검출 결과와 매칭되는 후속적인 기설정 동작을 진행할 수 있고, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다. In the above method, the first image including the target to be detected is detected to obtain whether the target to be detected is occluded, and then a preset operation matching the detection result is performed to determine whether the target to be detected is occluded By determining , a subsequent preset operation matching the detection result can be performed, and flexible processing is implemented based on the shielding state of the target to be detected in the image.
일부 실시예에서, 본 발명의 실시예는 컴퓨터 프로그램을 제공하는 바, 컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행될 경우, 상기 전자 기기 중의 프로세서는 상기 방법을 구현하기 위해 실행된다. In some embodiments, an embodiment of the present invention provides a computer program, comprising computer readable code, wherein when the computer readable code is executed in an electronic device, a processor in the electronic device is configured to implement the method is executed
일부 실시예에서, 본 발명의 실시예에서 제공하는 장치가 구비하는 기능 또는 포함되는 모듈은 상기 방법 실시예에 서술된 방법을 수행하기 위한 것으로, 간결함을 위해 그 구현은 상기 방법 실시예의 서술을 참조 바란다.In some embodiments, a function provided by an apparatus provided in an embodiment of the present invention or a module included is for performing the method described in the method embodiment, and for the sake of brevity, the implementation refers to the description of the method embodiment hope
상기 각 실시예에 대한 서술은 각 실시예 사이의 상이한 점을 강조하며, 간결함을 위해 그 동일하거나 유사한 점은 상호 참조 가능한다.The description of each embodiment above emphasizes the differences between the embodiments, and for the sake of brevity, the same or similar points may be cross-referenced.
본 발명에서 제공하는 여러 실시예에서, 개시된 기기 및 방법은 다른 방식을 통해 구현될 수 있음을 이해해야 한다. 예를 들어, 위에서 서술된 장치 실시예는 단지 예시적인 것이며, 예를 들어, 모듈 또는 유닛의 분할은 단지 로직 기능의 분할이고, 실제 구현 시 다른 분할 방식을 가질 수 있으며, 예를 들어 유닛 또는 어셈블리를 다른 시스템에 결합하거나 통합할 수 있거나, 또는 일부 특징은 생략될 수 있거나, 또는 구현되지 않을 수 있다. 이 밖에, 표시되거나 논이되는 상호 간의 커플링 또는 직접 커플링 또는 통신 연결은 일부 인터페이스, 장치 또는 유닛을 통한 간접적 커플링 또는 통신 연결일 수 있고, 전기적, 기계적, 또는 다른 형태일 수 있다.In the various embodiments provided by the present invention, it should be understood that the disclosed devices and methods may be implemented in other ways. For example, the device embodiments described above are merely exemplary, for example, the division of a module or a unit is only a division of a logic function, and may have other division manners in actual implementation, for example, a unit or an assembly may be combined or integrated into other systems, or some features may be omitted or not implemented. In addition, the mutual coupling or direct coupling or communication connection indicated or discussed may be an indirect coupling or communication connection through some interface, device or unit, and may be in an electrical, mechanical, or other form.
이 밖에, 본 발명의 각 실시예에서 각 기능 유닛은 하나의 처리 유닛에 통합되거나 또는 각각의 유닛이 물리적으로 단독으로 존재할 수도 있고 2개 또는 2개 이상의 유닛이 하나의 유닛에 통합될 수도 있다. 상기 집적된 유닛은 하드웨어의 형식으로 구현될 수 있고, 소프트웨어 기능 유닛의 형식으로 구현될 수도 있다. 통합된 유닛이 만약 소프트웨어 기능 모듈의 형식으로 실현되고 별도의 제품으로 판매되거나 사용될 경우, 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해에 기반해보면, 본 발명의 실시예의 기술적 해결수단은 본질적으로 또는 선행 기술에 기여하는 부분은 소프트웨어 제품의 형식으로 구현될 수 있고, 해당 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 약간의 명령을 포함하여 하나의 컴퓨팅 기기(개인 컴퓨터, 서버, 또는 네트워크 기기 등) 또는 프로세서(Processor)가 본 발명의 각 실시예에 따른 방법의 전부 또는 일부를 수행하도록 할 수 있다. 전술한 저장 매체는 USB, 이동식 디스크, 롬(Read-Only Memory, ROM), 램(Random Access Memory, RAM), 자기 디스크, 광 디스크 등 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.In addition, in each embodiment of the present invention, each functional unit may be integrated into one processing unit, or each unit may exist physically alone, or two or two or more units may be integrated into one unit. The integrated unit may be implemented in the form of hardware or may be implemented in the form of a software functional unit. If the integrated unit is realized in the form of a software function module and sold or used as a separate product, it may be stored in a computer-readable storage medium. Based on this understanding, the technical solutions of the embodiments of the present invention may be implemented in the form of a software product essentially or a part contributing to the prior art, and the computer software product is stored in a single storage medium, The instructions may be included to cause one computing device (such as a personal computer, a server, or a network device) or a processor to perform all or part of the method according to each embodiment of the present invention. The above-described storage medium includes various media capable of storing a program code, such as a USB, a removable disk, a read-only memory (ROM), a random access memory (RAM), a magnetic disk, an optical disk, and the like.
본 발명의 실시예는 이미지 검출 방법 및 관련 장치, 기기, 저장 매체, 컴퓨터 프로그램을 제공하며, 상기 방법은, 검출될 타깃을 포함하는 제1 이미지를 획득하는 단계; 상기 제1 이미지를 검출하여, 상기 제1 이미지의 검출 결과를 얻는 단계 - 상기 검출 결과는 상기 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 포함함 - ; 및 상기 검출 결과와 매칭되는 기설정 동작을 수행하는 단계를 포함한다. 본 발명의 실시예에 따라 제공되는 이미지 검출 방법은, 검출될 타깃이 차폐되는 지의 여부를 판단함으로써, 후속적으로 검출 결과와 매칭되는 기설정 동작을 진행하여, 이미지에서 검출될 타깃의 차폐 상태에 기반하여 유연하게 처리하는 것을 구현하였다.An embodiment of the present invention provides an image detection method and related apparatus, apparatus, storage medium, and computer program, the method comprising: acquiring a first image including a target to be detected; detecting the first image to obtain a detection result of the first image, the detection result including whether a target to be detected in the first image is blocked by a preset object; and performing a preset operation matching the detection result. The image detection method provided according to an embodiment of the present invention determines whether a target to be detected is shielded, and subsequently performs a preset operation matching the detection result to determine the shielding state of the target to be detected in the image. based on flexible processing was implemented.
Claims (20)
검출될 타깃을 포함하는 제1 이미지를 획득하는 단계;
상기 제1 이미지를 검출하여, 상기 제1 이미지의 검출 결과를 얻는 단계 - 상기 검출 결과는 상기 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 포함함 - ; 및
상기 검출 결과와 매칭되는 기설정 동작을 수행하는 단계를 포함하는 이미지 검출 방법. An image detection method comprising:
acquiring a first image comprising a target to be detected;
detecting the first image to obtain a detection result of the first image, the detection result including whether a target to be detected in the first image is blocked by a preset object; and
and performing a preset operation matching the detection result.
상기 검출 결과는 신경망을 이용하여 상기 제1 이미지를 검출하여 얻은 것인 이미지 검출 방법. According to claim 1,
The detection result is an image detection method obtained by detecting the first image using a neural network.
상기 검출 결과와 매칭되는 기설정 동작을 수행하는 단계는,
상기 검출될 타깃이 상기 기설정 물체에 의해 차폐되지 않을 경우, 제1 알림을 발송하는 단계를 포함하되, 상기 제1 알림은 상기 기설정 물체를 사용하여 상기 검출될 타깃을 차폐하도록 프롬프트하기 위한 것인 이미지 검출 방법. 3. The method of claim 1 or 2,
The step of performing a preset operation matching the detection result includes:
if the target to be detected is not shielded by the preset object, sending a first alert, wherein the first alert is for prompting to use the preset object to shield the to-be-detected target An image detection method.
상기 검출 결과는 상기 검출될 타깃이 기설정 물체에 의해 차폐되는 차폐 방식이 기설정 차폐 방식인 지의 여부를 포함하고; 상기 검출 결과와 매칭되는 기설정 동작을 수행하는 단계는,
상기 검출될 타깃이 상기 기설정 물체에 의해 차폐되고 상기 차폐 방식이 상기 기설정 차폐 방식에 속하지 않을 경우, 제2 알림을 발송하는 단계를 포함하되, 상기 제2 알림은 상기 기설정 물체의 차폐 방식을 조절하도록 프롬프트하기 위한 것인 이미지 검출 방법. 4. The method according to any one of claims 1 to 3,
the detection result includes whether the shielding scheme in which the target to be detected is shielded by a preset object is a preset shielding scheme; The step of performing a preset operation matching the detection result includes:
and sending a second notification when the target to be detected is shielded by the preset object and the shielding method does not belong to the preset shielding method, wherein the second notification is the shielding method of the preset object An image detection method for prompting to adjust
상기 검출 결과와 매칭되는 기설정 동작을 수행하는 단계는,
상기 검출될 타깃이 상기 기설정 물체에 의해 차폐될 경우, 상기 제1 이미지에서 적어도 상기 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하여, 상기 검출될 타깃의 인식될 특징으로 하는 단계; 및
상기 인식될 특징을 이용하여, 상기 검출될 타깃을 인식하여, 인식 결과를 얻는 단계를 포함하는 이미지 검출 방법. 5. The method according to any one of claims 1 to 4,
The step of performing a preset operation matching the detection result includes:
when the target to be detected is occluded by the preset object, extracting from the first image at least a first feature of an unoccluded portion of the target to be detected to be a recognized feature of the target to be detected; and
and recognizing the target to be detected by using the to-be-recognized feature to obtain a recognition result.
상기 제1 이미지에서 적어도 상기 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하여, 상기 검출될 타깃의 인식될 특징으로 하는 단계는,
상기 제1 이미지에서 상기 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하고, 상기 검출될 타깃의 차폐된 부분의 제2 특징을 획득하는 단계; 및
상기 제1 특징 및 제2 특징을 상기 검출될 타깃의 인식될 특징으로 하는 단계를 포함하는 이미지 검출 방법. 6. The method of claim 5,
extracting a first feature of at least an unoccluded portion of the target to be detected from the first image, and characterizing the to-be-detected target as a recognizable feature,
extracting a first feature of an unoccluded portion of the target to be detected from the first image, and obtaining a second feature of the occluded portion of the target to be detected; and
characterizing the first characteristic and the second characteristic as a recognized characteristic of the target to be detected.
상기 검출될 타깃의 차폐된 부분의 제2 특징을 획득하는 단계는,
상기 제1 이미지에서 상기 차폐된 부분의 특징을 추출하여 상기 제2 특징으로 하는 단계; 또는,
상기 차폐된 부분의 기설정 특징을 획득하여 상기 제2 특징으로 하는 단계를 포함하되, 상기 기설정 특징은 적어도 하나의 참조 특징에 기반하여 얻은 특징을 포함하고, 각 상기 참조 특징은 상기 차폐된 부분이 존재하지 않는 참조 타깃에서 상기 차폐된 부분과 대응되는 영역을 추출하여 얻은 것인 이미지 검출 방법. 7. The method of claim 6,
obtaining a second characteristic of the occluded portion of the target to be detected comprises:
extracting a feature of the shielded portion from the first image and setting it as the second feature; or,
obtaining a predetermined characteristic of the occluded portion and characterizing it as the second characteristic, wherein the predetermined characteristic includes a characteristic obtained based on at least one reference characteristic, each reference characteristic comprising the occluded portion An image detection method obtained by extracting an area corresponding to the shielded portion from the non-existent reference target.
상기 인식될 특징을 이용하여, 상기 검출될 타깃을 인식하여, 인식 결과를 얻는 단계는,
기설정 타깃이 하나를 포함할 경우, 상기 인식될 특징과 상기 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 획득하고, 상기 제1 유사도가 제1 기설정 조건을 만족할 경우, 상기 인식 결과가 상기 검출될 타깃이 신원 인증을 통과하였음을 포함하는 것으로 결정하는 단계; 및
상기 기설정 타깃이 복수 개를 포함할 경우, 상기 인식될 특징과 각 상기 기설정 타깃의 사전 저장 특징 사이의 제2 유사도를 각각 획득하고, 상기 인식 결과가 상기 검출될 타깃의 신원을 제2 기설정 조건을 만족하는 제2 유사도에 대응되는 기설정 타깃의 신원으로 결정하는 것을 포함하는 것으로 결정하는 단계 중의 적어도 하나를 포함하는 이미지 검출 방법. 8. The method according to any one of claims 5 to 7,
Recognizing the target to be detected by using the to-be-recognized feature, and obtaining a recognition result,
When the preset target includes one, a first degree of similarity between the feature to be recognized and a pre-stored feature of the preset target is obtained, and when the first degree of similarity satisfies a first preset condition, the recognition result is determining that the target to be detected includes that it has passed identity authentication; and
When the preset target includes a plurality, a second degree of similarity between the to-be-recognized feature and a pre-stored feature of each preset target is respectively obtained, and the identification result of the recognition result determines the identity of the to-be-detected target as a second group An image detection method comprising at least one of determining, including determining the identity of a preset target corresponding to a second degree of similarity that satisfies a preset condition.
상기 방법은,
상기 제1 기설정 조건은 상기 제1 유사도가 제1 유사도 임계값보다 큰 것을 포함하는 단계; 및
상기 제2 기설정 조건은 상기 제2 유사도가 제2 유사도 임계값보다 큰 것을 포함하는 단계 중의 적어도 하나를 포함하는 이미지 검출 방법. 9. The method of claim 8,
The method is
wherein the first preset condition includes that the first similarity is greater than a first similarity threshold; and
and the second preset condition includes at least one of the step of including that the second similarity is greater than a second similarity threshold.
상기 방법은,
상기 인식될 특징이 상기 검출될 타깃의 차폐된 부분의 제2 특징을 포함할 경우의 상기 제1 유사도 임계값은, 상기 인식될 특징이 상기 제2 특징을 포함하지 않을 경우의 상기 제1 유사도 임계값보다 작은 단계; 및
상기 인식될 특징이 상기 제2 특징을 포함할 경우의 상기 제2 유사도 임계값은, 상기 인식될 특징이 상기 제2 특징을 포함하지 않을 경우의 상기 제2 유사도 임계값보다 작은 단계 중의 적어도 하나를 포함하는 이미지 검출 방법. 10. The method of claim 9,
The method is
The first similarity threshold when the feature to be recognized includes a second feature of the occluded portion of the target to be detected is the first similarity threshold when the feature to be recognized does not include the second feature less than the value; and
wherein the second similarity threshold when the to-be-recognized feature includes the second feature is smaller than the second similarity threshold when the to-be-recognized feature does not include the second feature. An image detection method comprising.
상기 인식될 특징과 상기 기설정 타깃의 사전 저장 특징 사이의 제1 유사도를 획득하는 단계 이전에, 상기 방법은,
계정 등록 요청에 응답하여, 사용자에 대해 계정을 등록하는 단계;
상기 사용자가 촬영하여 얻은 적어도 한 프레임의 제2 이미지에서, 기설정 품질 요구를 만족하는 상기 제2 이미지를 결정하고, 결정된 상기 제2 이미지에서 상기 사용자의 기설정 부위의 특징을 추출하는 단계; 및
상기 기설정 부위의 특징과 상기 계정의 연관을 구축하고, 상기 기설정 부위의 특징을 저장하여 상기 기설정 타깃의 사전 저장 특징으로 하는 단계를 더 포함하는 이미지 검출 방법. 11. The method according to any one of claims 8 to 10,
Prior to obtaining a first degree of similarity between the feature to be recognized and the pre-stored feature of the preset target, the method comprises:
in response to the account registration request, registering an account for the user;
determining the second image that satisfies a preset quality requirement from a second image of at least one frame obtained by photographing the user, and extracting a feature of a preset part of the user from the determined second image; and
The image detection method further comprising the step of establishing an association between the characteristic of the preset part and the account, and storing the characteristic of the preset part as a pre-stored feature of the preset target.
상기 검출될 타깃이 상기 기설정 물체에 의해 차폐될 경우, 상기 제1 이미지에서 적어도 상기 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하는 단계 이전에, 상기 방법은,
상기 검출될 타깃을 포함하는 멀티 프레임 제1 이미지에서, 기설정 품질 요구를 만족하는 상기 제1 이미지를 후속적인 특징을 추출하는 상기 제1 이미지로 결정하는 단계;
후속적인 특징을 추출하는 상기 제1 이미지를 사전 처리하는 단계; 및
후속적인 특징을 추출하는 상기 제1 이미지에 대해 생체 검출을 진행하고, 생체 검출 결과가 상기 검출될 타깃이 생체인 것일 경우, 상기 제1 이미지에서 적어도 상기 검출될 타깃의 차폐되지 않은 부분의 제1 특징을 추출하는 단계 및 그 후속 단계를 수행하는 것으로 결정하는 단계 중의 적어도 하나의 단계를 더 포함하는 이미지 검출 방법. 12. The method according to any one of claims 5 to 11,
When the target to be detected is occluded by the preset object, before extracting from the first image at least a first feature of an unoccluded portion of the target to be detected, the method comprises:
determining, in the multi-frame first image including the target to be detected, the first image satisfying a preset quality requirement as the first image from which a subsequent feature is extracted;
pre-processing the first image to extract subsequent features; and
When biometric detection is performed on the first image from which subsequent features are extracted, and the biometric detection result is that the target to be detected is a living body, in the first image, at least a first portion of the unshielded portion of the target to be detected is performed. The method of detecting an image further comprising at least one of extracting the feature and determining to perform a subsequent step.
상기 검출될 타깃을 포함하는 멀티 프레임 제1 이미지에서, 기설정 품질 요구를 만족하는 상기 제1 이미지를 후속적인 특징을 추출하는 상기 제1 이미지로 결정하는 단계는,
각 프레임의 상기 제1 이미지의 품질 계수에 기반하여, 대응되게 각 프레임의 상기 제1 이미지의 품질 점수를 얻는 단계 - 상기 제1 이미지의 품질 계수는, 상기 검출될 타깃이 촬영 부재에 대한 포즈 정보, 상기 제1 이미지에서 검출될 타깃의 크기를 반영하는 파라미터 정보, 상기 제1 이미지의 밝기 정보 중의 적어도 하나를 포함함 - ; 및
상기 품질 점수에 기반하여, 기설정 품질 요구를 만족하는 상기 제1 이미지를 후속적인 특징을 추출하는 상기 제1 이미지로 결정하는 단계 - 상기 선택된 제1 이미지의 상기 품질 점수는 다른 상기 제1 이미지의 품질 점수보다 높음 - 를 포함하는 이미지 검출 방법. 13. The method of claim 12,
In the multi-frame first image including the target to be detected, determining the first image satisfying a preset quality requirement as the first image from which a subsequent feature is extracted includes:
correspondingly, based on the quality factor of the first image of each frame, obtaining a quality score of the first image of each frame; , including at least one of parameter information reflecting the size of a target to be detected in the first image and brightness information of the first image; and
determining, based on the quality score, the first image satisfying a preset quality requirement as the first image for extracting subsequent features, wherein the quality score of the selected first image is different from that of another first image Higher than quality score - an image detection method comprising .
상기 후속적인 특징을 추출하는 상기 제1 이미지를 사전 처리하는 단계는,
상기 제1 이미지가 복수 개의 상기 검출될 타깃을 포함할 경우, 기설정 추출 요구를 만족하는 상기 검출될 타깃이 상기 제1 이미지에서의 타깃 영역을 결정하고, 상기 제1 이미지에서 상기 타깃 영역 이외의 이미지 부분을 제거하는 단계; 및
상기 제1 이미지에서 상기 검출될 타깃의 경사 각도가 기설정 각도보다 큰 것을 검출하고, 상기 제1 이미지를 상기 검출될 타깃의 경사 각도가 상기 기설정 각도보다 작거나 같도록 회전하는 단계; 중 적어도 하나를 포함하는 이미지 검출 방법. 14. The method of claim 12 or 13,
The pre-processing of the first image for extracting the subsequent features comprises:
When the first image includes a plurality of the targets to be detected, the target to be detected that satisfies a preset extraction requirement determines a target area in the first image, and the target area other than the target area in the first image removing the image portion; and
detecting that the inclination angle of the to-be-detected target in the first image is greater than a preset angle, and rotating the first image so that the inclination angle of the to-be-detected target is less than or equal to the preset angle; An image detection method comprising at least one of
상기 기설정 추출 요구는 상기 검출될 타깃의 대응 영역의 면적이 다른 검출될 타깃의 대응 영역의 면적보다 큰 것을 포함하고, 상기 다른 검출될 타깃은 상기 검출될 타깃 이외의 타깃을 포함하는 이미지 검출 방법.15. The method of claim 14,
The preset extraction request includes that an area of a corresponding area of the target to be detected is larger than an area of a corresponding area of another target to be detected, and the other target to be detected includes a target other than the target to be detected. .
상기 검출될 타깃은 안면을 포함하고, 상기 기설정 물체는 마스크를 포함하는 이미지 검출 방법. 11. The method of claim 10,
The target to be detected includes a face, and the preset object includes a mask.
검출될 타깃을 포함하는 제1 이미지를 획득하는 이미지 획득 모듈;
상기 제1 이미지를 검출하여, 상기 제1 이미지의 검출 결과를 얻는 타깃 검출 모듈 - 상기 검출 결과는 상기 제1 이미지 중의 검출될 타깃이 기설정 물체에 의해 차폐되는 지의 여부를 포함함 - ; 및
상기 검출 결과와 매칭되는 기설정 동작을 수행하는 동작 수행 모듈을 포함하는 이미지 검출 장치. An image detection device comprising:
an image acquisition module for acquiring a first image including a target to be detected;
a target detection module that detects the first image and obtains a detection result of the first image, wherein the detection result includes whether a target to be detected in the first image is blocked by a preset object; and
and an operation performing module that performs a preset operation matching the detection result.
상기 프로세서는 상기 메모리에 저장된 프로그램 명령을 실행하여, 제1항 내지 제16항 중 어느 한 항에 따른 이미지 검출 방법을 구현하는 전자 기기.An electronic device comprising a memory and a processor, comprising:
The processor executes a program command stored in the memory to implement the image detection method according to any one of claims 1 to 16.
상기 프로그램 명령이 프로세서에 의해 실행될 경우 제1항 내지 제16항 중 어느 한 항에 따른 이미지 검출 방법을 구현하는 컴퓨터 판독 가능 저장 매체. A computer-readable storage medium having program instructions stored thereon, comprising:
17. A computer-readable storage medium embodying the image detection method according to any one of claims 1 to 16 when the program instructions are executed by a processor.
컴퓨터 판독 가능 코드를 포함하며, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행될 경우, 상기 전자 기기 중의 프로세서는 제1항 내지 제16항 중 어느 한 항에 따른 이미지 검출 방법을 구현하기 위해 실행되는 컴퓨터 프로그램.A computer program comprising:
17. A computer program comprising computer readable code, wherein when the computer readable code is executed in an electronic device, a processor in the electronic device is executed to implement the image detection method according to any one of claims 1 to 16. .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011002322.1 | 2020-09-22 | ||
CN202011002322.1A CN112115886A (en) | 2020-09-22 | 2020-09-22 | Image detection method and related device, equipment and storage medium |
PCT/CN2021/088718 WO2022062379A1 (en) | 2020-09-22 | 2021-04-21 | Image detection method and related apparatus, device, storage medium, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220042301A true KR20220042301A (en) | 2022-04-05 |
Family
ID=73801500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217035770A KR20220042301A (en) | 2020-09-22 | 2021-04-21 | Image detection method and related devices, devices, storage media, computer programs |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022552754A (en) |
KR (1) | KR20220042301A (en) |
CN (1) | CN112115886A (en) |
WO (1) | WO2022062379A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112115886A (en) * | 2020-09-22 | 2020-12-22 | 北京市商汤科技开发有限公司 | Image detection method and related device, equipment and storage medium |
CN113158732A (en) * | 2020-12-31 | 2021-07-23 | 深圳市商汤科技有限公司 | Image processing method and related device |
CN113065394B (en) * | 2021-02-26 | 2022-12-06 | 青岛海尔科技有限公司 | Method for image recognition of article, electronic device and storage medium |
CN113449696B (en) * | 2021-08-27 | 2021-12-07 | 北京市商汤科技开发有限公司 | Attitude estimation method and device, computer equipment and storage medium |
CN113792662B (en) * | 2021-09-15 | 2024-05-21 | 北京市商汤科技开发有限公司 | Image detection method, device, electronic equipment and storage medium |
CN114955772A (en) * | 2022-05-30 | 2022-08-30 | 阿里云计算有限公司 | Processing method and device for electric vehicle |
CN115660468B (en) * | 2022-10-19 | 2024-08-09 | 希格玛检测(江苏)有限公司 | Diversified product inspection and detection method and system |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007148872A (en) * | 2005-11-29 | 2007-06-14 | Mitsubishi Electric Corp | Image authentication apparatus |
JP4957056B2 (en) * | 2006-04-11 | 2012-06-20 | パナソニック株式会社 | Face authentication system and face authentication method |
JP5480532B2 (en) * | 2009-04-30 | 2014-04-23 | グローリー株式会社 | Image processing apparatus, image processing method, and program for causing computer to execute the method |
US9177130B2 (en) * | 2012-03-15 | 2015-11-03 | Google Inc. | Facial feature detection |
JP5871764B2 (en) * | 2012-09-28 | 2016-03-01 | セコム株式会社 | Face recognition device |
US20140282269A1 (en) * | 2013-03-13 | 2014-09-18 | Amazon Technologies, Inc. | Non-occluded display for hover interactions |
CN105095829B (en) * | 2014-04-29 | 2019-02-19 | 华为技术有限公司 | A kind of face identification method and system |
JP2017224186A (en) * | 2016-06-16 | 2017-12-21 | 株式会社 日立産業制御ソリューションズ | Security system |
JP7015216B2 (en) * | 2018-06-25 | 2022-02-02 | 株式会社日立製作所 | Biometric program, biometric method |
JP2020052788A (en) * | 2018-09-27 | 2020-04-02 | キヤノン株式会社 | Image processing system and method therefor, and program |
CN110110681A (en) * | 2019-05-14 | 2019-08-09 | 哈尔滨理工大学 | It is a kind of for there is the face identification method blocked |
CN110826519B (en) * | 2019-11-14 | 2023-08-18 | 深圳华付技术股份有限公司 | Face shielding detection method and device, computer equipment and storage medium |
JP6852779B2 (en) * | 2019-12-12 | 2021-03-31 | 日本電気株式会社 | Image recognition device, image recognition method, and image recognition program |
CN111444862A (en) * | 2020-03-30 | 2020-07-24 | 深圳信可通讯技术有限公司 | Face recognition method and device |
CN111597910A (en) * | 2020-04-22 | 2020-08-28 | 深圳英飞拓智能技术有限公司 | Face recognition method, face recognition device, terminal equipment and medium |
CN111598065B (en) * | 2020-07-24 | 2024-06-18 | 上海肇观电子科技有限公司 | Depth image acquisition method, living body identification method, apparatus, circuit, and medium |
CN112115886A (en) * | 2020-09-22 | 2020-12-22 | 北京市商汤科技开发有限公司 | Image detection method and related device, equipment and storage medium |
-
2020
- 2020-09-22 CN CN202011002322.1A patent/CN112115886A/en active Pending
-
2021
- 2021-04-21 KR KR1020217035770A patent/KR20220042301A/en unknown
- 2021-04-21 JP JP2021564951A patent/JP2022552754A/en active Pending
- 2021-04-21 WO PCT/CN2021/088718 patent/WO2022062379A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022062379A1 (en) | 2022-03-31 |
CN112115886A (en) | 2020-12-22 |
JP2022552754A (en) | 2022-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220042301A (en) | Image detection method and related devices, devices, storage media, computer programs | |
CN106778450B (en) | Face recognition method and device | |
CN113366487A (en) | Operation determination method and device based on expression group and electronic equipment | |
US11256902B2 (en) | People-credentials comparison authentication method, system and camera | |
Chauhan et al. | Study & analysis of different face detection techniques | |
CN108108711B (en) | Face control method, electronic device and storage medium | |
KR101724971B1 (en) | System for recognizing face using wide angle camera and method for recognizing face thereof | |
US20220189212A1 (en) | Authentication device, authentication method, and recording medium | |
KR20210062381A (en) | Liveness test method and liveness test apparatus, biometrics authentication method and biometrics authentication apparatus | |
US20230368563A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
WO2022244357A1 (en) | Body part authentication system and authentication method | |
CN109034029A (en) | Detect face identification method, readable storage medium storing program for executing and the electronic equipment of living body | |
CN110211251A (en) | Face recognition method, face recognition device, storage medium and face recognition terminal | |
KR100347058B1 (en) | Method for photographing and recognizing a face | |
RU2315352C2 (en) | Method and system for automatically finding three-dimensional images | |
CN113837006B (en) | Face recognition method and device, storage medium and electronic equipment | |
CN113705428B (en) | Living body detection method and device, electronic equipment and computer readable storage medium | |
Schneider et al. | Feature based face localization and recognition on mobile devices | |
US10726259B2 (en) | Image processing method and system for iris recognition | |
Grabovskyi et al. | Facial recognition with using of the microsoft face API Service | |
KR101718244B1 (en) | Apparatus and method of processing wide angle image for recognizing face | |
CN111291586A (en) | Living body detection method, living body detection device, electronic apparatus, and computer-readable storage medium | |
US20230326254A1 (en) | Authentication apparatus, control method, and computer-readable medium | |
Nethravathi et al. | Advanced Face Recognition Based Door Unlock System Using Arduino & MATLAB | |
KR102579610B1 (en) | Apparatus for Detecting ATM Abnormal Behavior and Driving Method Thereof |