KR20210129189A - Target detection method, apparatus, electronic device and computer readable storage medium - Google Patents

Target detection method, apparatus, electronic device and computer readable storage medium Download PDF

Info

Publication number
KR20210129189A
KR20210129189A KR1020217030884A KR20217030884A KR20210129189A KR 20210129189 A KR20210129189 A KR 20210129189A KR 1020217030884 A KR1020217030884 A KR 1020217030884A KR 20217030884 A KR20217030884 A KR 20217030884A KR 20210129189 A KR20210129189 A KR 20210129189A
Authority
KR
South Korea
Prior art keywords
vertex
image
detected
target
candidate
Prior art date
Application number
KR1020217030884A
Other languages
Korean (ko)
Inventor
페이 왕
첸 퀴안
Original Assignee
상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드 filed Critical 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드
Publication of KR20210129189A publication Critical patent/KR20210129189A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • G06K2209/21
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

본 발명의 실시예는 타깃 검출 방법, 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체를 제공하고, 여기서, 상기 타깃 검출 방법은 검출될 이미지를 획득하는 단계(S201); 상기 검출될 이미지에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계(S202) - 꼭짓점은 상기 검출될 이미지에서의 타깃 대상의 위치를 나타냄; 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하는 단계(S203)를 포함한다.An embodiment of the present invention provides a target detection method, an apparatus, an electronic device, and a computer-readable storage medium, wherein the target detection method includes: acquiring an image to be detected (S201); Based on the image to be detected, each vertex determines vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex (S202) - the vertex determines the position of the target object in the image to be detected indicate; and determining ( S203 ) a target object in the to-be-detected image based on the vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex.

Description

타깃 검출 방법, 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체Target detection method, apparatus, electronic device and computer readable storage medium

[관련 출원에 대한 상호 참조][Cross-Reference to Related Applications]

본 출원은 출원 번호가 202010073142.6이고, 출원일이 2020년 1월 22일 중국 특허 출원에 기반하여 제출하였고, 상기 중국 특허 출원의 우선권을 주장하며, 상기 중국 특허 출원의 모든 내용은 참조로서 본 출원에 인용된다.This application has an application number 202010073142.6, filed on January 22, 2020 based on a Chinese patent application, and claims the priority of the Chinese patent application, all contents of the Chinese patent application are incorporated herein by reference do.

본 발명은 이미지 인식 기술분야에 관한 것으로서, 구체적으로, 타깃 검출 방법, 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체에 관한 것이다.The present invention relates to the field of image recognition technology, and more particularly, to a target detection method, an apparatus, an electronic device, and a computer-readable storage medium.

타깃 검출은 컴퓨터 시각에서의 중요한 기초문제이고, 많은 컴퓨터 시각의 응용은 모두 타깃 검출에 의존하고 있으며, 예를 들어 자율주행, 영상 모니터링 및 모바일 엔터테인먼트가 있다.Target detection is an important fundamental problem in computer vision, and many computer vision applications all rely on target detection, such as autonomous driving, video monitoring and mobile entertainment.

타깃 검출을 진행할 경우, 주요 작업은 검출 프레임을 사용하여 이미지에서 물체의 위치를 표시하는 것이고, 상기 과정은 물체 키 포인트의 타깃 탐지 알고리즘에 기반하여 이미지에서의 물체의 위치를 결정할 수 있으며, 이미지에서의 모든 물체 키 포인트를 결정한 후, 동일한 물체에 속하는 물체 키 포인트를 매칭함으로써 물체의 검출 프레임을 얻는다.In case of target detection, the main task is to use the detection frame to mark the position of the object in the image, the process can determine the position of the object in the image based on the target detection algorithm of the object key point, After determining all the object key points of , the detection frame of the object is obtained by matching the object key points belonging to the same object.

그러나 이미지에 유사한 모양의 물체가 여러 개 포함되어 있는 경우, 모양이 유사한 물체에 대응되는 물체의 키 포인트 간의 일치도가 비교적 높아, 잘못된 검출 결과를 유발하기 쉽고, 예를 들어 검출 결과가 동일한 검출 프레임에서의 여러 물체를 포함할 수가 있고, 따라서 현재의 타깃 검출 방법은 검출 정확도가 비교적 낮다.However, when the image contains several similarly shaped objects, the degree of agreement between the key points of the objects corresponding to the similar objects is relatively high, and it is easy to cause erroneous detection results, for example, in the detection frame with the same detection results can include several objects, and therefore, the current target detection method has a relatively low detection accuracy.

본 발명의 실시예는 적어도 하나의 타깃 검출 방안을 제공한다.An embodiment of the present invention provides at least one target detection method.

본 발명의 실시예의 제1 측면에 따르면,타깃 검출 방법을 제공하고, 상기 방법은,According to a first aspect of an embodiment of the present invention, there is provided a method for detecting a target, the method comprising:

검출될 이미지를 획득하는 단계;acquiring an image to be detected;

상기 검출될 이미지에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서(centripetal shift tensor)를 결정하는 단계 - 꼭짓점은 상기 검출될 이미지에서의 타깃 대상의 위치를 나타냄 - ; 및Determining a centripetal shift tensor corresponding to each vertex and vertex position information in the image where each vertex is to be detected, based on the to-be-detected image; Indicates location - ; and

각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하는 단계를 포함한다.and determining a target object in the image to be detected based on vertex position information in the image where each vertex is to be detected and a centripetal shift tensor corresponding to each vertex.

본 발명의 실시예에서 제공한 방법은 검출될 이미지를 획득한 후, 먼저 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정해야 하는데, 이는 꼭짓점은 이미지에서의 주요 특징점이기 때문에, 검출될 이미지에서의 꼭짓점의 위치 정보는 각 타킷 대상이 검출될 이미지에서의 위치를 나타낼 수 있으며, 예를 들어 꼭짓점은 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 포함할 수 있고, 여기서 좌측 상단 꼭짓점은 타깃 대상의 상부 윤곽에 대응되는 선과 타깃 대상의 좌측 윤곽에 대응되는 선의 교차점을 가리키고, 우측 하단 꼭짓점은 타깃 대상의 하부 윤곽에 대응되는 선과 타깃 대상의 우측 윤곽에 대응되는 선의 교차점을 가리키며, 좌측 상단 꼭짓점 및 우측 하단 꼭짓점이 동일한 타깃 대상의 검출 프레임에 속할 경우, 좌측 상단 꼭짓점 및 우측 하단 꼭짓점에 각각 대응되는 구심 시프트 텐서가 가리키는 위치가 비교적 가까울 수가 있고, 따라서, 본 발명의 실시예에서 제기한 타깃 검출 방법은, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 동일한 타깃 대상에 속한 꼭짓점을 결정함으로써, 결정된 꼭짓점에 기반하여 동일한 타깃 대상을 검출할 수 있다.In the method provided in the embodiment of the present invention, after obtaining an image to be detected, vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex must first be determined, which means that the vertices are located in the image. Since it is a main feature point, the position information of the vertices in the image to be detected may indicate the position of each target object in the image to be detected, for example, the vertices may include an upper left vertex and a lower right vertex, where the left The upper vertex indicates the intersection of the line corresponding to the upper contour of the target object and the line corresponding to the left contour of the target object, and the lower right vertex indicates the intersection of the line corresponding to the lower contour of the target object and the line corresponding to the right contour of the target object. , when the upper left vertex and the lower right vertex belong to the detection frame of the same target, the positions indicated by the centripetal shift tensors corresponding to the upper left vertex and the lower right vertex may be relatively close. The proposed target detection method determines vertices belonging to the same target object based on vertex position information in the image where each vertex is to be detected and a centripetal shift tensor corresponding to each vertex, thereby determining the same target object based on the determined vertices. can be detected.

한 가지 가능한 실시형태에 있어서, 상기 검출될 이미지에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계는,In one possible embodiment, based on the image to be detected, each vertex determining vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex comprises:

상기 검출될 이미지에 대해 특징 추출을 진행하여, 상기 검출될 이미지에 대응되는 초기 특징맵을 획득하는 단계;performing feature extraction on the to-be-detected image to obtain an initial feature map corresponding to the to-be-detected image;

상기 초기 특징맵에 대해 꼭짓점 풀링을 진행하여, 꼭짓점 풀링된 특징맵을 획득하는 단계; 및 performing vertex pooling on the initial feature map to obtain a vertex pooled feature map; and

상기 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보, 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 획득하는 단계를 포함한다.and obtaining vertex position information in the image where each vertex is to be detected, and a centripetal shift tensor corresponding to each vertex, based on the vertex pooled feature map.

본 발명의 실시예에서 제공한 방법은, 상기 검출될 이미지에 대해 특징 추출을 진행하는 것을 통해, 초기 특징맵을 획득하고, 초기 특징맵에 대해 꼭짓점 풀링을 진행하여, 꼭짓점 및 꼭짓점에 대응되는 구심 시프트 텐서를 추출하는 것에 용이한 특징맵을 획득하며, 즉 꼭짓점 풀링된 특징맵을 획득한다.In the method provided in the embodiment of the present invention, an initial feature map is obtained through feature extraction on the image to be detected, and vertex pooling is performed on the initial feature map, thereby vertex and centripetal corresponding to the vertex. A feature map that is easy to extract the shift tensor is obtained, that is, a vertex pooled feature map is obtained.

한 가지 가능한 실시형태에 있어서, 상기 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 획득하는 단계는, In one possible embodiment, based on the vertex pooled feature map, the step of obtaining vertex position information in the image where each vertex is to be detected comprises:

상기 꼭짓점 풀링된 특징맵에 기반하여, 상기 검출될 이미지에 대응되는 꼭짓점 히트맵을 생성하는 단계; generating a vertex heat map corresponding to the image to be detected based on the vertex pooled feature map;

상기 꼭짓점 히트맵에 기반하여, 상기 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값을 결정하고, 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여 상기 꼭지점 히트맵의 특징점에서 상기 꼭짓점을 선별하는 단계; Based on the vertex heat map, determining a probability value using each feature point in the vertex heat map as a vertex, and selecting the vertex from the feature point of the vertex heat map based on the probability value using each feature point as a vertex ;

선별된 각 꼭짓점이 상기 꼭짓점 히트맵에서의 위치 정보 및 각 꼭짓점에 대응되는 로컬 시프트 정보를 획득하는 단계 - 상기 로컬 시프트 정보는 대응되는 꼭짓점이 나타내는 실제 물리점이 상기 꼭짓점 히트맵에서의 위치 시프트 정보를 표시하기 위해 사용됨 - ; 및Obtaining the location information of each selected vertex in the vertex heat map and local shift information corresponding to each vertex - The local shift information includes the actual physical point indicated by the corresponding vertex position shift information in the vertex heat map. Used to indicate - ; and

획득한 각 꼭짓점이 상기 꼭짓점 히트맵에서의 위치 정보, 각 꼭짓점에 대응되는 로컬 시프트 정보, 및 상기 꼭짓점 히트맵 및 상기 검출될 이미지 간의 크기 비율에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 단계를 포함한다.Based on the position information of each obtained vertex in the vertex heatmap, local shift information corresponding to each vertex, and the size ratio between the vertex heatmap and the image to be detected, each vertex is a vertex in the image to be detected. determining location information.

본 발명의 실시예에서 제공한 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 방식은, 상기 과정에서 꼭짓점 히트맵을 인용하는 것을 통해, 각 특징점을 꼭짓점으로 사용하는 확률값을 통해 꼭짓점으로 사용될 수 있는 특징점을 결정하고, 꼭짓점을 선택한 후, 꼭짓점이 꼭짓점 히트맵에서의 위치 정보에 대해 수정을 진행하는 것을 통해, 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하고, 상기 방식은 비교적 정확도가 높은 꼭짓점의 꼭짓점 위치 정보를 획득할 수 있음으로써, 후속 상기 꼭짓점에 기반하여 타깃 대상이 검출될 이미지에서의 위치를 검출하는 것에 용이하다.The method of determining the vertex position information in the image where each vertex is to be detected provided in the embodiment of the present invention is through quoting the vertex heat map in the above process, and through a probability value using each feature point as a vertex as a vertex Determine the vertex position information in the image where the vertex is to be detected by determining the feature points that can be used, selecting the vertices, and then modifying the vertex position information in the vertex heatmap, the method is relatively accurate Since the vertex position information of the high vertex can be obtained, it is easy to detect the position in the image where the target object is to be detected based on the vertex.

한 가지 가능한 실시형태에 있어서, 상기 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계는, In one possible embodiment, the step of determining a centripetal shift tensor corresponding to each vertex based on the vertex pooled feature map comprises:

상기 꼭짓점 풀링된 특징맵에 기반하여, 상기 꼭짓점 풀링된 특징맵에서의 각 특징점에 대응되는 가이드 시프트 텐서를 결정하는 단계 - 각 특징점에 대응되는 가이드 시프트 텐서는 상기 특징점이 가리키는 상기 검출될 이미지에서의 타깃 대상 중심점의 시프트 텐서를 나타냄 - ; determining a guide shift tensor corresponding to each feature point in the vertex pooled feature map, based on the vertex pooled feature map; Represents the shift tensor of the target target center point - ;

각 특징점에 대응되는 상기 가이드 시프트 텐서에 기반하여, 상기 특징점의 시프트 도메인 정보를 결정하는 단계 - 상기 시프트 도메인 정보는 상기 특징점과 연관된 복수 개의 초기 특징점이 각각에 대응되는 시프트된 특징점을 각각 가리키는 시프트 텐서를 포함함 - ;Determining shift domain information of the feature point based on the guide shift tensor corresponding to each feature point, wherein the shift domain information is a shift tensor in which a plurality of initial feature points associated with the feature point respectively indicate shifted feature points respectively. including - ;

상기 꼭짓점 풀링된 특징맵 및 상기 꼭짓점 풀링된 특징맵에서의 특징점의 시프트 도메인 정보에 기반하여, 상기 꼭짓점 풀링된 특징맵에서의 특징점의 특징 데이터에 대해 조정을 진행하여, 조정된 특징맵을 획득하는 단계 - ; 및Based on the shift domain information of the feature points in the vertex pooled feature map and the vertex pooled feature map, adjusting the feature data of feature points in the vertex pooled feature map to obtain an adjusted feature map step - ; and

조정된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계를 포함한다.and determining a centripetal shift tensor corresponding to each vertex based on the adjusted feature map.

본 발명의 실시예에서 제공한 구심 시프트 텐서를 결정하는 과정은, 타깃 대상 정보를 고려한 것을 통해, 예를 들어 꼭짓점에 대응되는 가이드 시프트 텐서 및 특징점의 시프트 도메인 정보를 인용하여, 꼭짓점 풀링된 특징맵에서의 특징점의 특징 데이터에 대해 조정을 진행하여, 획득한 조정된 특징맵에서의 특징점의 특징 데이터가 더 풍부한 타깃 대상 정보를 포함함으로써, 각 꼭짓점에 대응되는 더욱 정확한 구심 시프트 텐서를 결정할 수 있고, 정확한 구심 시프트 텐서를 통해, 꼭짓점이 가리키는 정확한 중심점 위치 정보를 획득할 수 있음으로써, 타깃 대상이 검출될 이미지에서의 위치를 정확하게 검출할 수 있다.The process of determining the centripetal shift tensor provided in the embodiment of the present invention is a vertex-pooled feature map by considering the target target information, for example, by citing the guide shift tensor corresponding to the vertex and the shift domain information of the feature point. By adjusting the feature data of the feature points in , the feature data of the feature points in the obtained adjusted feature map includes richer target target information, so that a more accurate centripetal shift tensor corresponding to each vertex can be determined, Through an accurate centripetal shift tensor, accurate center point position information pointed to by a vertex can be obtained, so that a position of a target object in an image to be detected can be accurately detected.

한 가지 가능한 실시형태에 있어서, 상기 검출될 이미지에 대응되는 꼭짓점 히트맵은 복수 개 채널에 각각 대응되는 꼭짓점 히트맵을 포함하고, 상기 복수 개 채널에서의 각 채널은 한가지 사전 설정 대상 카테고리에 대응하며; 상기 꼭짓점 히트맵에 기반하여, 상기 꼭짓점 히트맵에서 각 특징점을 꼭짓점으로 사용하는 확률값을 결정한 후, 상기 검출 방법은,In one possible embodiment, the vertex heatmap corresponding to the image to be detected comprises a vertex heatmap respectively corresponding to a plurality of channels, each channel in the plurality of channels corresponding to one preset target category, ; After determining a probability value using each feature point as a vertex in the vertex heat map based on the vertex heat map, the detection method includes:

상기 복수 개 채널에서의 각 채널에 대해, 상기 채널에 대응되는 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 상기 채널에 대응되는 꼭짓점 히트맵에 상기 꼭짓점이 존재하는지 여부를 결정하는 단계; 및For each channel in the plurality of channels, based on a probability value using each feature point in the vertex heatmap corresponding to the channel as a vertex, it is determined whether the vertex exists in the vertex heatmap corresponding to the channel. to do; and

상기 채널에 대응되는 꼭짓점 히트맵에 상기 꼭짓점이 존재할 경우, 상기 검출될 이미지에 상기 채널에 대응되는 사전 설정 대상 카테고리의 타깃 대상이 포함되는 단계를 더 포함한다.The method further includes, when the vertex exists in the vertex heatmap corresponding to the channel, including a target object of a preset target category corresponding to the channel in the image to be detected.

본 발명의 실시예에서 제공한 방법은, 꼭짓점 풀링된 특징맵을 꼭짓점 히트맵 예측 네트워크에 입력하는 것을 통해, 사전 채널 갯수를 포함한 꼭짓점 히트맵을 획득하고, 각 채널에 대응되는 꼭짓점 히트맵에서의 꼭짓점 존재하는지 여부를 통함으로써, 검출될 이미지에 상기 채널에 대응되는 카테고리의 타깃 대상의 존재하는지 여부를 결정할 수 있다.The method provided in the embodiment of the present invention obtains a vertex heatmap including the number of prior channels by inputting the vertex pooled feature map to the vertex heatmap prediction network, and in the vertex heatmap corresponding to each channel By determining whether a vertex exists, it may be determined whether a target object of a category corresponding to the channel exists in the image to be detected.

한 가지 가능한 실시형태에 있어서, 상기 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하는 단계는,In one possible embodiment, the step of determining a target object in the image to be detected comprises: based on the vertex position information in the image where each vertex is to be detected and a centripetal shift tensor corresponding to each vertex,

상기 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하는 단계를 포함한다.and determining a detection frame of a target object in the image to be detected based on a centripetal shift tensor corresponding to each vertex of the vertex position information in the image where each vertex is to be detected.

본 발명의 실시예에서 제공한 방법은, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 각 타깃 대상의 검출 프레임을 결정하고, 각 타깃 대상이 검출될 이미지에서의 위치 정보를 획득할 수 있다.The method provided in the embodiment of the present invention determines the detection frame of each target object based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex, and each target object is Position information in the image to be detected may be acquired.

한 가지 가능한 실시형태에 있어서, 상기 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하는 단계는,In one possible embodiment, the step of determining the detection frame of the target object in the image to be detected based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex comprises: ,

각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 후보 검출 프레임을 구성할수 있는 후보 꼭짓점 페어를 선별하는 단계; selecting a pair of candidate vertices capable of constituting a candidate detection frame based on vertex position information in the image where each vertex is to be detected;

각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 꼭짓점이 가리키는 중심점 위치 정보를 결정하는 단계; determining center point position information indicated by the vertex based on the vertex position information in the image where each vertex is to be detected in each candidate vertex pair and a centripetal shift tensor corresponding to each vertex;

각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하는 단계; 및determining center region information corresponding to the candidate vertex pair based on the vertex position information in the image in which each vertex is to be detected in each candidate vertex pair; and

각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정하는 단계를 포함한다.and determining a detection frame of the target object in the candidate detection frame based on center point position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair.

본 발명의 실시예에서 제기한 타깃 대상의 검출 프레임을 결정하는 방식은, 꼭짓점의 꼭짓점 위치 정보를 통해 먼저 후보 검출 프레임을 구성하는 후보 꼭짓점 페어를 결정한 다음, 상기 후보 꼭짓점 페어에서 각 꼭짓점에 각각 대응되는 구심 시프트 텐서에 기반하여, 후보 검출 프레임이 둘러싼 타깃 대상이 동일한 타깃 대상인지를 판단함으로써, 검출될 이미지에서의 모든 타깃 대상의 검출 프레임을 비교적 정확하게 검출할 수 있다 .In the method of determining the detection frame of the target object proposed in the embodiment of the present invention, the candidate vertex pair constituting the candidate detection frame is first determined through the vertex position information of the vertex, and then corresponds to each vertex in the candidate vertex pair. The detection frames of all target objects in the image to be detected can be detected relatively accurately by determining whether the target object surrounding the candidate detection frame is the same target object based on the obtained centripetal shift tensor.

한 가지 가능한 실시형태에 있어서, 상기 각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하는 단계는,In one possible embodiment, the determining of center region information corresponding to the candidate vertex pair comprises:

상기 후보 꼭짓점 페어에서 각 꼭짓점의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 프레임을 나타내는 꼭짓점 위치 정보를 결정하는 단계; 및determining vertex position information indicating a central region frame corresponding to the candidate vertex pair based on vertex position information of each vertex in the candidate vertex pair; and

상기 중심 영역 프레임의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 좌표 범위를 결정하는 단계를 포함한다.and determining a coordinate range of the central region frame corresponding to the candidate vertex pair based on the vertex position information of the central region frame.

한 가지 가능한 실시형태에 있어서, 상기 각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정하는 단계는,In one possible embodiment, the detection frame of the target object in the candidate detection frame is determined based on center point position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair step is,

각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 유효 후보 꼭짓점 페어를 결정하는 단계;determining a valid candidate vertex pair based on center location information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair;

상기 유효 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보, 상기 유효 후보 꼭짓점 페어에 대응되는 중심 영역 정보, 및 상기 유효 후보 꼭짓점 페어에서 각 꼭짓점에 대응되는 확률값에 기반하여, 각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수를 결정하는 단계 - 각 꼭짓점에 대응되는 확률값은 상기 꼭짓점이 꼭짓점 히트맵에 대응되는 특징점을 꼭짓점으로 사용하는 확률값을 표시하기 위해 사용됨 - ; 및Corresponding to each valid candidate vertex pair based on center point location information indicated by each vertex in the valid candidate vertex pair, center region information corresponding to the valid candidate vertex pair, and a probability value corresponding to each vertex in the valid candidate vertex pair determining a score of a candidate detection frame, wherein a probability value corresponding to each vertex is used to indicate a probability value in which the vertex uses a feature point corresponding to a vertex heat map as a vertex; and

각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수 및 인접 후보 검출 프레임 간의 중첩 영역 크기에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정하는 단계를 포함한다. and determining a detection frame of the target object in the candidate detection frame based on a score of a candidate detection frame corresponding to each valid candidate vertex pair and a size of an overlapping region between adjacent candidate detection frames.

본 발명의 실시예에서 제공한 방법은, 후보 검출 프레임을 구성하는 후보 꼭짓점 페어에 대해 유효선별을 실시하는 것을 통해, 하나의 타깃 대상 후보만을 나타내는 후보 검출프레임을 선별하는 것을 결정한 다음, 이러한 하나의 타깃 대상 후보만을 나타내는 후보 검출프레임에 대해 연식 비극대 억제 선별을 실시함으로써, 정확한 타깃 대상을 나타내는 검출 프레임을 획득한다.The method provided in the embodiment of the present invention determines to select a candidate detection frame representing only one target target candidate through valid selection of candidate vertex pairs constituting the candidate detection frame, and then A detection frame indicating an accurate target object is obtained by performing soft band non-band suppression selection on a candidate detection frame indicating only the target object candidate.

한 가지 가능한 실시형태에 있어서, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정한 후, 상기 타깃 검출 방법은,In one possible embodiment, after determining the detection frame of the target object in the image to be detected, the target detection method comprises:

상기 타깃 대상의 검출 프레임 및 상기 검출될 이미지에 대해 특징 추출을 진행하여 획득한 초기 특징맵에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정하는 단계를 더 포함한다.The method further includes determining instance information of the target object in the image to be detected based on the detection frame of the target object and an initial feature map obtained by performing feature extraction on the image to be detected.

본 발명의 실시예에서 제공한 방법은, 타깃 대상의 인스턴스 정보를 결정할 수 있고, 여기서 인스턴스는 이미지에서의 타깃 대상에 인스턴스 분할을 실시한 후, 픽셀 층면에서 각 타깃 대상의 픽셀을 제공하는 것을 가리키며, 인스턴스 분할은 물체의 가장자리까지 정확함으로써, 타깃 대상이 검출될 이미지에서 더욱 정확한 위치 정보를 획득할 수 있다.The method provided in the embodiment of the present invention may determine instance information of a target object, wherein the instance refers to providing a pixel of each target object in a pixel layer after performing instance segmentation on the target object in the image, Instance segmentation is accurate up to the edge of the object, so that more accurate location information can be obtained from the image in which the target object is to be detected.

한 가지 가능한 실시형태에 있어서, 상기 타깃 대상의 검출 프레임 및 상기 검출될 이미지에 대해 특징 추출을 진행하여 획득한 초기 특징맵에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정하는 단계는,In one possible embodiment, based on an initial feature map obtained by performing feature extraction on the detection frame of the target object and the image to be detected, determining instance information of the target object in the image to be detected step is,

상기 타깃 대상의 검출 프레임 및 상기 초기 특징맵에 기반하여, 상기 초기 특징맵이 상기 검출 프레임 내에서의 특징점의 특징 데이터를 추출하는 단계; 및extracting, by the initial feature map, feature data of feature points in the detection frame based on the detection frame of the target object and the initial feature map; and

상기 초기 특징맵이 상기 검출 프레임 내에서의 특징점의 특징 데이터에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정하는 단계를 포함한다.and determining, by the initial feature map, instance information of the target object in the image to be detected, based on feature data of feature points in the detection frame.

한 가지 가능한 실시형태에 있어서, 상기 타깃 검출 방법은 신경 네트워크를 통해 구현되고, 상기 신경 네트워크는 라벨링 타깃 샘플 대상을 포함하는 샘플 이미지를 이용하여 훈련하여 획득한 것이다.In one possible embodiment, the target detection method is implemented through a neural network, and the neural network is acquired by training using a sample image including a labeling target sample object.

한 가지 가능한 실시형태에 있어서, 상기 신경 네트워크는,In one possible embodiment, the neural network comprises:

샘플 이미지를 획득하는 단계;acquiring a sample image;

상기 샘플 이미지에 기반하여, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계 - 상기 샘플 꼭짓점은 상기 샘플 이미지에서의 타깃 샘플 대상의 위치를 나타냄 - ;Based on the sample image, each sample vertex determines vertex position information in the sample image and a centripetal shift tensor corresponding to each sample vertex, wherein the sample vertex represents the position of a target sample object in the sample image. ;

각 샘플 꼭짓점이 상기 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 샘플 이미지에서의 타깃 대상을 예측하는 단계; 및predicting a target object in the sample image based on vertex position information of each sample vertex in the sample image and a centripetal shift tensor corresponding to each sample vertex; and

예측된 상기 샘플 이미지에서의 타깃 샘플 대상 및 상기 샘플 이미지에서의 라벨링 타깃 샘플 대상에 기반하여, 상기 신경 네트워크의 네트워크 파라미터 값에 대해 조절을 진행하는 단계를 사용하여 훈련하여 획득된 것이다.Based on the predicted target sample object in the sample image and the labeling target sample object in the sample image, it is obtained by training using the step of adjusting the value of the network parameter of the neural network.

본 발명의 실시예에서 제공한 신경 네트워크의 훈련방법은, 샘플 이미지를 획득하는 것을 통해, 상기 샘플 이미지에 기반하여, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보, 및 각 샘플 꼭짓점에 각각 대응되는 구심 시프트 텐서를 결정함으로써, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 샘플 이미지에서의 타깃 샘플 대상을 검출하는데, 이는 샘플 꼭짓점은 이미지에서의 주요 특징점을 가리키기 때문이며, 예를 들어 샘플 꼭짓점은 좌측 상단 샘플 꼭짓점 및 우측 하단 샘플 꼭짓점을 포함할 수 있고, 여기서, 좌측 상단 샘플 꼭짓점은 타깃 샘플 대상의 상부 윤곽에 대응되는 선과 타깃 샘플 대상의 좌측 윤곽에 대응되는 선의 교차점을 가리키고, 우측 하단 샘플 꼭짓점은 타깃 샘플 대상의 하부 윤곽에 대응되는 선과 타깃 샘플 대상의 우측 윤곽에 대응되는 선의 교차점을 가리키며, 좌측 상단 샘플 꼭짓점과 우측 하단 샘플 꼭짓점이 동일한 타깃 샘플 대상의 검출 프레임에 속할 경우, 좌측 상단 샘플 꼭짓점 및 우측 하단 샘플 꼭짓점에 각각 대응되는 구심 시프트 텐서가 가리키는 위치가 비교적 가까울 수가 있기에, 따라서, 본 발명의 실시예에서 제기한 신경 네트워크의 훈련방법은, 타깃 샘플 대상의 샘플 이미지에서의 위치를 나타내는 꼭짓점의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 동일한 타깃 샘플 대상에 속하는 샘플 꼭짓점을 결정함으로써, 결정된 샘플 꼭짓점에 기반하여 상기 동일한 타깃 샘플 대상을 검출할수 있으며, 다음 계속하여 샘플 이미지에서의 라벨링 대상에 기반하여, 계속하여 신경 네트워크 파라미터 값을 조절하는 것을 통함으로써, 정확도가 비교적 높은 신경 네트워크를 획득할 수 있고, 상기 정확도가 비교적 높은 신경 네트워크에 기반하여 타깃 대상을 정확하게 검출할 수 있다. 본 발명의 실시예의 제2 측면에 따르면, 타깃 검출 장치를 제공하고, 상기 장치는,The training method of a neural network provided in an embodiment of the present invention includes obtaining a sample image, based on the sample image, in which each sample vertex corresponds to vertex position information in the sample image, and each sample vertex. By determining the centripetal shift tensor, a target sample object in the sample image is detected where each sample vertex is based on the vertex position information in the sample image and the centripetal shift tensor corresponding to each sample vertex, where the sample vertex is located in the image. This is because it indicates a main feature point, for example, the sample vertex may include an upper left sample vertex and a lower right sample vertex, where the upper left sample vertex is a line corresponding to the upper contour of the target sample object and the left side of the target sample object It points to the intersection of the lines corresponding to the contour, and the lower right sample vertex points to the intersection of the line corresponding to the lower contour of the target sample object and the line corresponding to the right contour of the target sample object, and the upper left sample vertex and the lower right sample vertex are the same target When the sample object belongs to the detection frame, the positions indicated by the centripetal shift tensors corresponding to the upper left sample vertex and the lower right sample vertex may be relatively close. Therefore, the training method of the neural network proposed in the embodiment of the present invention is , by determining a sample vertex belonging to the same target sample object based on the vertex position information of the vertex indicating the position in the sample image of the target sample object and the centripetal shift tensor corresponding to each sample vertex, based on the determined sample vertex. can detect the same target sample object, and then continuously based on the labeling object in the sample image, through continuously adjusting the neural network parameter value, thereby obtaining a neural network with a relatively high accuracy, wherein the accuracy is It is possible to accurately detect a target object based on a relatively high neural network. According to a second aspect of an embodiment of the present invention, there is provided a target detection apparatus, the apparatus comprising:

검출될 이미지를 획득하도록 구성된 획득부; an acquiring unit configured to acquire an image to be detected;

상기 검출될 이미지에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하도록 구성된 결정부 - 꼭짓점은 상기 검출될 이미지에서의 타깃 대상의 위치를 나타냄 - ;a determiner configured to determine, based on the image to be detected, a centripetal shift tensor corresponding to each vertex and vertex position information in the image for each vertex to be detected, the vertex indicating the position of the target object in the image to be detected - ;

각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하도록 구성된 검출부를 포함한다.and a detection unit configured to determine a target object in the image where each vertex is to be detected based on vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex.

한 가지 가능한 실시형태에 있어서, 상기 결정부는,In one possible embodiment, the determining unit comprises:

상기 검출될 이미지에 대해 특징을 추출 진행하여, 상기 검출될 이미지에 대응되는 초기 특징맵을 획득하고;extracting a feature from the image to be detected to obtain an initial feature map corresponding to the image to be detected;

상기 초기 특징맵에 대해 꼭짓점 풀링을 진행하여, 꼭짓점 풀링된 특징맵을 획득하며;vertex pooling is performed on the initial feature map to obtain a vertex pooled feature map;

상기 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보, 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하도록 구성된다.and determine vertex position information for each vertex in the to-be-detected image, and a centripetal shift tensor corresponding to each vertex, based on the vertex pooled feature map.

한 가지 가능한 실시형태에 있어서, 상기 결정부가 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정하도록 구성될 경우, 상기 결정부는,In one possible embodiment, when the determining unit is configured to determine vertex position information in the image where each vertex is to be detected, based on the vertex pooled feature map, the determining unit comprises:

상기 꼭짓점 풀링된 특징맵에 기반하여, 상기 검출될 이미지에 대응되는 꼭짓점 히트맵을 생성하고;generating a vertex heat map corresponding to the image to be detected based on the vertex pooled feature map;

상기 꼭짓점 히트맵에 기반하여, 상기 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값을 결정하고, 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 상기 특징점에서 상기 꼭짓점을 선별하고;determining a probability value using each feature point in the vertex heat map as a vertex based on the vertex heat map, and selecting the vertex from the feature point based on a probability value using each feature point as a vertex;

선별된 각 꼭짓점이 상기 꼭짓점 히트맵에서의 위치 정보 및 각 꼭짓점에 대응되는 로컬 시프트 정보를 획득하며 - 상기 로컬 시프트 정보는 대응되는 꼭짓점이 나타내는 실제 물리점이 상기 꼭짓점 히트맵에서의 위치 시프트 정보를 표시하기 위해 사용됨 - ; Each of the selected vertices obtains position information in the vertex heat map and local shift information corresponding to each vertex, and the local shift information indicates that the actual physical point indicated by the corresponding vertex indicates position shift information in the vertex heat map. used to - ;

획득한 각 꼭짓점이 상기 꼭짓점 히트맵에서의 위치 정보, 각 꼭짓점에 대응되는 로컬 시프트 정보, 및 상기 꼭짓점 히트맵 및 상기 검출될 이미지 간의 크기 비율에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정하도록 구성된다.Based on the position information of each obtained vertex in the vertex heatmap, local shift information corresponding to each vertex, and the size ratio between the vertex heatmap and the image to be detected, each vertex is a vertex in the image to be detected. and determine location information.

한 가지 가능한 실시형태에 있어서, 상기 결정부가 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정할 경우, 상기 결정부는,In one possible embodiment, when the determination unit determines a centripetal shift tensor corresponding to each vertex based on the vertex pooled feature map, the determination unit comprises:

상기 꼭짓점 풀링된 특징맵에 기반하여, 상기 꼭짓점 풀링된 특징맵에서의 각 특징점에 대응되는 가이드 시프트 텐서를 결정하고 - 각 특징점에 대응되는 가이드 시프트 텐서는 상기 검출될 이미지에서 상기 특징점이 타깃 대상 중심점을 가리키는 시프트 텐서를 나타냄 - ;Based on the vertex-pooled feature map, a guide shift tensor corresponding to each feature in the vertex-pooled feature map is determined; represents a shift tensor pointing to - ;

각 특징점에 대응되는 가이드 시프트 텐서에 기반하여, 상기 특징점의 시프트 도메인 정보를 결정하며 -상기 시프트 도메인 정보는 상기 특징점과 연관된 복수 개의 초기 특징점이 각각에 대응되는 시프트된 특징점을 각각 가리키는 시프트 텐서를 포함함 - ;Determining shift domain information of the feature point based on the guide shift tensor corresponding to each feature point, wherein the shift domain information includes a shift tensor in which a plurality of initial feature points associated with the feature point respectively indicate shifted feature points respectively Ham - ;

상기 꼭짓점 풀링된 특징맵 및 상기 꼭짓점 풀링된 특징맵에서의 특징점의 시프트 도메인 정보에 기반하여, 상기 꼭짓점 풀링된 특징맵에서의 특징점의 특징 데이터에 대해 조정을 진행하여, 조정된 특징맵을 획득하며;Based on the shift domain information of the feature points in the vertex pooled feature map and the vertex pooled feature map, adjusting the feature data of the feature points in the vertex pooled feature map to obtain an adjusted feature map, ;

조정된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하도록 구성된다.Based on the adjusted feature map, it is configured to determine a centripetal shift tensor corresponding to each vertex.

한 가지 가능한 실시형태에 있어서, 상기 검출될 이미지에 대응되는 꼭짓점 히트맵은 복수 개 채널에 각각 대응되는 꼭짓점 히트맵을 포함하고, 상기 복수 개 채널에서의 각 채널은 한가지 사전 설정 대상 카테고리에 대응하며; 상기 결정부가 상기 꼭짓점 히트맵에 기반하여, 상기 꼭짓점 히트맵에서 각 특징점을 꼭짓점으로 사용하는 확률값을 결정하도록 구성된 후, 상기 결정부는 또한,In one possible embodiment, the vertex heatmap corresponding to the image to be detected comprises a vertex heatmap respectively corresponding to a plurality of channels, each channel in the plurality of channels corresponding to one preset target category, ; After the determining unit is configured to determine a probability value using each feature point as a vertex in the vertex heat map based on the vertex heat map, the determining unit further comprises:

상기 복수 개 채널에서의 각 채널에 대해, 상기 채널에 대응되는 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 상기 채널에 대응되는 꼭짓점 히트맵에 상기 꼭짓점 존재하는지 여부를 결정하고,For each channel in the plurality of channels, based on a probability value using each feature point in the vertex heatmap corresponding to the channel as a vertex, determine whether the vertex exists in the vertex heatmap corresponding to the channel, and ,

상기 채널에 대응되는 꼭짓점 히트맵에 상기 꼭짓점이 존재할 경우, 상기 검출될 이미지에 상기 채널에 대응되는 사전 설정 대상 카테고리의 타깃 대상이 포함된다고 결정하도록 구성된다.and when the vertex exists in the vertex heatmap corresponding to the channel, determine that the target object of a preset object category corresponding to the channel is included in the image to be detected.

한 가지 가능한 실시형태에 있어서, 상기 검출부는,In one possible embodiment, the detection unit comprises:

상기 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하도록 구성된다.and determine a detection frame of a target object in the image to be detected based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex.

한 가지 가능한 실시형태에 있어서, 상기 검출부가 상기 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하도록 구성될 경우, 상기 검출부는,In one possible embodiment, the detection unit determines the detection frame of the target object in the image to be detected, based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex. When configured to, the detection unit,

각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 후보 검출 프레임을 구성할수 있는 후보 꼭짓점 페어를 선별하고,Based on the vertex position information in the image where each vertex is to be detected, a pair of candidate vertices that can constitute a candidate detection frame is selected,

각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 꼭짓점이 가리키는 중심점 위치 정보를 결정하고;determining center point location information indicated by the vertex based on the vertex location information in the image where each vertex is to be detected in each candidate vertex pair and the centripetal shift tensor corresponding to each vertex;

각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하며;determining center region information corresponding to the candidate vertex pair based on the vertex position information in the image where each vertex is to be detected in each candidate vertex pair;

각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정하도록 구성된다.and determine the detection frame of the target object in the candidate detection frame based on center point position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair.

한 가지 가능한 실시형태에 있어서, 상기 검출부가 각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하도록 구성될 경우, 상기 검출부는,In one possible embodiment, when the detection unit is configured to determine center region information corresponding to the candidate vertex pair based on the vertex position information in the image where each vertex is to be detected in each candidate vertex pair, the the detection unit,

상기 후보 꼭짓점 페어에서 각 꼭짓점의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 프레임을 나타내는 꼭짓점 위치 정보를 결정하고;determining vertex position information indicating a central region frame corresponding to the candidate vertex pair based on vertex position information of each vertex in the candidate vertex pair;

상기 중심 영역 프레임의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 좌표 범위를 결정하도록 구성된다.and determine a coordinate range of the central region frame corresponding to the candidate vertex pair based on the vertex position information of the central region frame.

한 가지 가능한 실시형태에 있어서, 상기 검출부가 상기 각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정도록 구성될 경우, 상기 검출부는,In one possible embodiment, the detection unit is based on the center point position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair, the detection frame of the target object in the candidate detection frame When configured to determine, the detection unit,

각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 유효 후보 꼭짓점 페어를 결정하고;determining a valid candidate vertex pair based on center position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair;

상기 유효 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보, 상기 유효 후보 꼭짓점 페어에 대응되는 중심 영역 정보, 및 상기 유효 후보 꼭짓점 페어에서 각 꼭짓점에 대응되는 확률값에 기반하여, 각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수를 결정하며 - 각 꼭짓점에 대응되는 확률값은 꼭짓점 히트맵에 대응되는 특징점을 꼭짓점으로 사용하는 확률값을 표시하기 위해 사용됨 - ;Corresponding to each valid candidate vertex pair based on center point location information indicated by each vertex in the valid candidate vertex pair, center region information corresponding to the valid candidate vertex pair, and a probability value corresponding to each vertex in the valid candidate vertex pair determines the score of the candidate detection frame to be used - a probability value corresponding to each vertex is used to indicate a probability value using a feature point corresponding to the vertex heat map as a vertex;

각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수 및 인접 후보 검출 프레임 간의 중첩 영역 크기에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정하도록 구성된다.and determine the detection frame of the target object in the candidate detection frame, based on a score of a candidate detection frame corresponding to each valid candidate vertex pair and a size of an overlapping region between adjacent candidate detection frames.

한 가지 가능한 실시형태에 있어서, 상기 검출부는 또한,In one possible embodiment, the detection unit further comprises:

상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정한 후, 상기 타깃 대상의 검출 프레임 및 상기 검출될 이미지에 대해 특징 추출을 진행하여 획득한 초기 특징맵에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정하도록 구성된다.After determining the detection frame of the target object in the image to be detected, based on the detection frame of the target object and the initial feature map obtained by performing feature extraction on the image to be detected, the target in the image to be detected and determine instance information of the target.

한 가지 가능한 실시형태에 있어서, 상기 검출부가 상기 타깃 대상의 검출 프레임 및 상기 검출될 이미지에 대해 특징 추출을 진행하여 획득한 초기 특징맵에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정하도록 구성될 경우,상기 검출부는,In one possible embodiment, based on the detection unit detection frame of the target object and an initial feature map obtained by performing feature extraction on the image to be detected, instance information of the target object in the image to be detected When configured to determine, the detection unit,

상기 타깃 대상의 검출 프레임 및 상기 초기 특징맵에 기반하여, 상기 초기 특징맵이 상기 검출 프레임 내에서의 특징점의 특징 데이터를 추출하고;the initial feature map extracts feature data of feature points in the detection frame based on the detection frame of the target object and the initial feature map;

상기 초기 특징맵이 상기 검출 프레임 내에서의 특징점의 특징 데이터에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정하도록 구성된다.The initial feature map is configured to determine instance information of the target object in the to-be-detected image based on feature data of feature points in the detection frame.

한 가지 가능한 실시형태에 있어서, 상기 타깃 검출장치는 신경 네트워크 훈련부를 더 포함하고, 상기 신경 네트워크 훈련부는,In one possible embodiment, the target detection device further comprises a neural network training unit, the neural network training unit,

타깃 검출을 진행하기 위한 신경 네트워크를 훈련하도록 구성된다 - 상기 신경 네트워크는 라벨링 타깃 샘플 대상을 포함한 샘플 이미지를 이용하여 훈련하여 획득함 - ;configured to train a neural network to proceed with target detection, wherein the neural network is obtained by training using a sample image including a labeling target sample object;

한 가지 가능한 실시형태에 있어서, 상기 신경 네트워크 훈련부는,In one possible embodiment, the neural network training unit comprises:

샘플 이미지를 획득하고;acquiring a sample image;

상기 샘플 이미지에 기반하여, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서를 결정하고 - 상기 샘플 꼭짓점은 상기 샘플 이미지에서의 타깃 샘플 대상의 위치를 나타냄 - ;based on the sample image, each sample vertex determines vertex position information in the sample image and a centripetal shift tensor corresponding to each sample vertex, wherein the sample vertex indicates a position of a target sample object in the sample image;

각 샘플 꼭짓점이 상기 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 샘플 이미지에서의 타깃 대상을 예측하며;predicting a target object in the sample image based on vertex position information of each sample vertex in the sample image and a centripetal shift tensor corresponding to each sample vertex;

예측된 상기 샘플 이미지에서의 타깃 샘플 대상 및 상기 샘플 이미지에서의 라벨링 타깃 샘플 대상에 기반하여, 상기 신경 네트워크의 네트워크 파라미터 값에 대해 조절을 진행하도록 구성된다.and proceed to adjust the value of the network parameter of the neural network based on the predicted target sample object in the sample image and the labeling target sample object in the sample image.

본 발명의 실시예의 제3 측면에 따르면, 전자 기기를 제공하고, 상기 전자 기기는, 프로세서, 메모리 및 버스를 포함하며, 상기 메모리에는 상기 프로세서가 실행 가능한 기계 판독 가능한 명령어가 저장되어 있으며, 전자 기기가 작동될 경우, 상기 프로세서와 상기 메모리 사이는 버스를 통해 통신하고, 상기 기계 판독 가능한 명령어가 상기 프로세서에 의해 실행될 경우 상기 제1 측면의 타깃 검출 방법 단계를 실행한다.According to a third aspect of an embodiment of the present invention, there is provided an electronic device, the electronic device comprising a processor, a memory and a bus, wherein the memory stores machine-readable instructions executable by the processor, the electronic device is activated, communicates between the processor and the memory via a bus, and executes the target detection method step of the first aspect when the machine readable instructions are executed by the processor.

본 발명의 실시예의 제4 측면에 따르면, 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 컴퓨터 판독 가능한 저장 매체에는 컴퓨터 프로그램이 저장되어 있으며, 상기 컴퓨터 프로그램이 프로세서에 의해 작동될 경우 상기 제1 측면의 타깃 검출 방법 단계를 실행한다.According to a fourth aspect of an embodiment of the present invention, there is provided a computer-readable storage medium, wherein the computer-readable storage medium stores a computer program, and when the computer program is operated by a processor, the target of the first aspect Execute the detection method steps.

본 발명의 실시예의 제5 측면에 따르면, 컴퓨터 판독 가능 코드를 포함한 컴퓨터 프로그램을 제공하며, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 작동될 경우, 상기 전자 기기에서의 프로세서는 상기 제1 측면의 타깃 검출 방법 단계를 구현하기 위한 것이다.According to a fifth aspect of an embodiment of the present invention, there is provided a computer program including computer readable code, wherein when the computer readable code is run in an electronic device, the processor in the electronic device detects the target of the first aspect to implement the method steps.

본 발명의 상기 특징 및 장점이 더욱 선명해지고 이해하기 쉬워지도록 하기 위해, 아래에 비교적 바람직한 실시예를 예를 들고, 첨부 도면과 배합하여, 상세하게 설명하고자 한다.In order to make the above features and advantages of the present invention clearer and easier to understand, a comparatively preferred embodiment is given below as an example, and in combination with the accompanying drawings, it will be described in detail.

본 발명의 실시예의 기술방안을 더욱 선명하게 설명하기 위해, 아래에 실시예에서 사용되어야 하는 도면을 간단하게 설명하고, 이 곳의 도면은 명세서의 일부분으로서 명세서 전체를 구성하며, 이러한 도면은 본 발명에 부합되는 실시예를 도시하며, 명세서와 함께 본 발명의 기술방안을 설명하기 위한 것이다. 이해해야 할 것은, 아래의 도면은 본 발명의 일부 실시예만 도시할 뿐이므로, 범위에 대한 한정으로 간주되어서는 안되며, 본 분야의 기술자는 창조성 노동을 부여하지 않는 전제 하에서도, 이러한 도면에 따라 다른 연관된 도면을 획득할 수 있다.
도 1은 검출될 이미지에 대해 검출을 진행 할 경우 획득된 결과 예시도이다.
도 2는 본 발명의 실시예에서 제공한 예시적인 타깃 검출 방법의 흐름도이다.
도 3은 본 발명의 실시예에서 제공한 꼭짓점 위치 정보 및 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 흐름도이다.
도 4는 본 발명의 실시예에서 제공한 꼭짓점 위치 정보 및 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 다른 흐름도이다.
도 5는 본 발명의 실시예에서 제공한 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 흐름도이다.
도 6은 본 발명의 실시예에서 제공한 예시적인 특징 조정 네트워크가 꼭짓점 풀링된 특징맵을 조절하는 흐름도이다.
도 7은 본 발명의 실시예에서 제공한 타깃 대상의 카테고리를 결정하는 흐름도이다.
도 8은 본 발명의 실시예에서 제공한 타깃 대상의 검출 프레임을 결정하는 흐름도이다.
도 9는 본 발명의 실시예에서 제공한 각 후보 꼭짓점 페어에 기반하여 타깃 대상의 검출 프레임을 결정하는 흐름도이다.
도 10은 본 발명의 실시예에서 제공한 예시적인 타깃 검출 방법에 대응되는 흐름도이다.
도 11은 본 발명의 실시예에서 제공한 신경 네트워크의 훈련방법의 흐름도이다.
도 12는 본 발명의 실시예에서 제공한 타깃 검출 장치의 구조 예시도이다.
도 13은 본 발명의 실시예에서 제공한 전자 기기의 구조 예시도이다.
In order to more clearly explain the technical solutions of the embodiments of the present invention, the drawings to be used in the embodiments are briefly described below, and the drawings are a part of the specification and constitute the entire specification, and these drawings represent the present invention. It shows an embodiment conforming to the above, and is for explaining the technical solution of the present invention together with the specification. It is to be understood that the drawings below only show some embodiments of the present invention, and therefore should not be considered as limiting in scope, and those skilled in the art may use other Associated drawings can be obtained.
1 is an exemplary diagram of results obtained when detection is performed on an image to be detected.
2 is a flowchart of an exemplary target detection method provided in an embodiment of the present invention.
3 is a flowchart for determining vertex position information and a centripetal shift tensor corresponding to the vertex provided in an embodiment of the present invention.
4 is another flowchart of determining the vertex position information and the centripetal shift tensor corresponding to the vertex provided in the embodiment of the present invention.
5 is a flowchart of determining a centripetal shift tensor corresponding to a vertex provided in an embodiment of the present invention.
6 is a flowchart illustrating an exemplary feature adjustment network provided in an embodiment of the present invention for adjusting a vertex-pooled feature map.
7 is a flowchart for determining a category of a target object provided in an embodiment of the present invention.
8 is a flowchart of determining a detection frame of a target object provided in an embodiment of the present invention.
9 is a flowchart of determining a detection frame of a target object based on each candidate vertex pair provided in an embodiment of the present invention.
10 is a flowchart corresponding to an exemplary target detection method provided in an embodiment of the present invention.
11 is a flowchart of a neural network training method provided in an embodiment of the present invention.
12 is an exemplary structural diagram of a target detection apparatus provided in an embodiment of the present invention.
13 is an exemplary structural diagram of an electronic device provided in an embodiment of the present invention.

본 발명의 기술적 해결수단 및 장점을 더욱 명확하게 하기 위해, 아래에, 본 발명의 실시예에서의 도면과 결합하여, 본 발명의 실시예에서의 기술적 해결수단에 대해 명확하고 완전하게 설명하며, 설명된 실시예는 본 발명의 전부 실시예가 아닌 일부 실시예일 뿐임은 자명한 것이다. 일반적으로 이곳의 도면에서 설명되고 도시된 본 발명의 실시예의 컴포넌트는 다양한 상이한 구성으로 배치되고 설계될 수 있다. 따라서, 아래 도면에서 제공한 본 발명의 실시예의 상세한 설명은 본 발명의 보호 범위를 한정하려는 것이 아닌 본 발명의 선택된 실시예를 나타내기 위한 것이다. 본 발명의 실시예에 기반하여, 본 분야 기술자가 창조성 노동 없이 획득한 다른 실시예는 전부 본 발명의 실시예의 보호 범위에 속해야 한다.In order to make the technical solutions and advantages of the present invention more clear, below, in combination with the drawings in the embodiments of the present invention, the technical solutions in the embodiments of the present invention will be clearly and completely described, It is apparent that the described embodiments are only some of the embodiments rather than all of the embodiments of the present invention. In general, the components of the embodiments of the invention described and illustrated in the drawings herein may be arranged and designed in a variety of different configurations. Accordingly, the detailed description of the embodiments of the present invention provided in the drawings below is not intended to limit the protection scope of the present invention, but to represent selected embodiments of the present invention. Based on the embodiment of the present invention, all other embodiments obtained by those skilled in the art without creative labor should fall within the protection scope of the embodiments of the present invention.

이미지에 대해 타깃 검출을 진행할 경우, 상기 이미지에 복수 개의 유사한 타깃 대상이 포함될 경우, 도 1에 도시된 바와 같이, 상기 이미지에 복수 개의 유사한 비행기가 존재할 경우, 비행기에 기반한 키 포인트를 사용하여 이미지에서의 비행기에 대해 검출을 진행할 경우, 도1에서의 검출 프레임 (1) 및 검출 프레임 (2)이 도시된 상황이 나타나기 쉽고, 동일한 검출 프레임에 복수 개의 비행기가 포함될 경우, 검출 에러가 나타나고, 현재 이미지에서의 타깃 대상에 대해 검출을 진행 할 경우, 검출 결과의 정학도가 비교적 낮기에, 이에 대해, 발명의 실시예에서 제공한 타깃 검출 방법은, 검출 결과의 정확도를 높일수 있다.When target detection is performed on an image, when a plurality of similar target objects are included in the image, as shown in FIG. 1 , when a plurality of similar planes exist in the image, a key point based on the plane is used in the image When detection is carried out on the plane of When detection is performed on a target object in , the precision of the detection result is relatively low. In contrast, the target detection method provided in the embodiment of the present invention can increase the accuracy of the detection result.

상기 연구에 기반하여 본 발명의 실시예에서 제공한 타깃 검출 방법은, 검출될 이미지를 획득한 후, 먼저 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정해야 하는데, 이는 꼭짓점은 이미지에서의 주요 특징점이기 때문에, 검출될 이미지에서의 꼭짓점의 위치 정보는 각 타킷 대상이 검출될 이미지에서의 위치를 나타낼 수 있으며, 예를 들어 꼭짓점은 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 포함할 수 있고, 여기서 좌측 상단 지점은 타깃 대상의 상부 윤곽에 대응되는 선과 타깃 대상의 좌측 윤곽에 대응되는 선의 교차점을 가리키고, 우측 하단 꼭짓점은 타깃 대상의 하부 윤곽에 대응되는 선과 타깃 대상의 우측 윤곽에 대응되는 선의 교차점을 가리키며, 좌측 상단 꼭짓점과 우측 하단 꼭짓점이 동일한 타깃 대상의 검출 프레임 일 경우, 좌측 상단 꼭짓점과 우측 하단 꼭짓점에 각각 대응되는 구심 시프트 텐서가 가리키는 위치가 비교적 가까울 수가 있기에, 본 발명의 실시예가 제공한 타깃 검출 방법은, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 동일한 타깃 대상에 속한 꼭짓점을 결정함으로써, 결정된 꼭짓점을 기반하여 동일한 타깃 대상을 검출할 수 있다.In the target detection method provided in the embodiment of the present invention based on the above study, after acquiring an image to be detected, first, each vertex determines vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex. However, since the vertex is a major feature point in the image, the position information of the vertex in the image to be detected may indicate the position of each target object in the image to be detected, for example, the vertex is the upper left vertex and the lower right and a vertex, wherein the upper left point indicates an intersection of a line corresponding to the upper contour of the target object and a line corresponding to the left contour of the target object, and the lower right vertex is a line corresponding to the lower contour of the target object and the target object. It points to the intersection of the lines corresponding to the right contour, and if the upper left vertex and the lower right vertex are the same target target detection frame, the position indicated by the centripetal shift tensor corresponding to the upper left vertex and the lower right vertex may be relatively close. The target detection method provided by the embodiment of the present invention determines the vertices belonging to the same target object based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex, thereby determining the determined vertices. based on the same target object can be detected.

아래에 본 발명의 실시예에서의 도면을 참조하여, 본 발명의 실시예에서의 기술 방안을 명확하고 완전하게 설명하며, 설명된 실시예는 본 발명 실시예 중 일부일 뿐이며, 모든 실시예가 아닌 것은 명백하다. 일반적으로 이곳의 도면에서 설명되고 도시된 본 발명의 실시예의 컴포넌트는 다양한 상이한 구성으로 배치되고 설계될 수 있다. 따라서, 아래에 도면에서 제공한 본 발명의 실시예의 상세한 설명은 본 발명의 실시예의 보호 범위를 한정하는 것이 아닌 본 발명의 선택된 실시예를 나타내기 위한 것이다. 본 발명의 실시예에 기반하여, 본 분야 기술자가 창조성 노동 없이 획득한 다른 실시예는 전부 본 발명의 실시예의 보호 범위에 속해야 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The technical solutions in the embodiments of the present invention will be clearly and completely described below with reference to the drawings in the embodiments of the present invention, and it is clear that the described embodiments are only some of the embodiments of the present invention, and not all embodiments. do. In general, the components of the embodiments of the invention described and illustrated in the drawings herein may be arranged and designed in a variety of different configurations. Accordingly, the detailed description of the embodiments of the present invention provided in the drawings below is not intended to limit the protection scope of the embodiments of the present invention, but to represent selected embodiments of the present invention. Based on the embodiment of the present invention, all other embodiments obtained by those skilled in the art without creative labor should fall within the protection scope of the embodiments of the present invention.

유의해야 할 것은, 유사한 부호 및 문자는 아래의 도면에서 유사한 항목을 표시하므로, 어느 한 항목이 하나의 도면에서 정의되면, 후속 도면에서 정의 및 해석을 진행할 필요가 없다.It should be noted that, since similar symbols and characters indicate similar items in the drawings below, if any one item is defined in one drawing, there is no need to proceed with definition and interpretation in subsequent drawings.

본 발명의 실시예의 이해를 돕기 위해, 먼저 본 발명의 실시예가 공개한 타깃 검출 방법에 대해 상세히 소개하고, 본 발명의 실시예에서 제공한 타깃 검출 방법의 실행 주체는 일반적으로 일정한 계산 능력을 가진 컴퓨터 기기이고, 상기 컴퓨터 기기는 단말 기기 또는 서버 또는 기타 처리 기기를 포함한다. 일부 가능한 구현 방식에 있어서, 상기 타깃 검출 방법은 프로세서가 메모리에 저장된 컴퓨터 판독 가능한 명령어를 호출하는 방식을 통해 구현될 수 있다.In order to facilitate understanding of the embodiments of the present invention, first, the target detection method disclosed in the embodiments of the present invention will be described in detail, and the execution subject of the target detection method provided in the embodiments of the present invention is generally a computer having a certain computational capability. device, and the computer device includes a terminal device or a server or other processing device. In some possible implementation manners, the target detection method may be implemented through a method in which a processor calls a computer readable instruction stored in a memory.

도 2에 도시된 바를 참조하면, 본 발명의 실시예에서 제공한 타깃 검출 방법의 흐름도이고, 상기 방법은 단계 S201 내지 단계 203을 포함한다.Referring to FIG. 2 , it is a flowchart of a target detection method provided in an embodiment of the present invention, and the method includes steps S201 to 203 .

단계 S201에 있어서, 검출될 이미지를 획득한다.In step S201, an image to be detected is acquired.

여기서 검출될 이미지는 특정 환경에 대한 검출될 이미지일 수 있고, 예를 들어 특정된 교통입구의 차량에 대해 검출을 진행할 경우, 상기 교통입구에 카메라를 설치 할수 있고, 카메라로 상기 교통입구의 일정한 시간내의 비디오 스트림을 채집한 후, 상기 비디오 스트림에 대해 프레이밍 처리를 진행하여, 검출될 이미지 획득하며; 또는 특정된 동물원의 동물에 대해 검출을 진행하여, 상기 동물원내에 카메라를 설치할 수 있고, 카메라로 상기 동물원의 일정한 시간내의 비디오 스트림을 채집한 다음, 상기 비디오 스트림에 대해 프레이밍 처리를 진행하여, 검출될 이미지를 획득한다.Here, the image to be detected may be an image to be detected for a specific environment. For example, when detecting a vehicle at a specified traffic entrance, a camera may be installed at the traffic entrance, and the camera may be used for a certain time of the traffic entrance. after collecting the video stream in the video stream, framing processing is performed on the video stream to obtain an image to be detected; Alternatively, the animals of a specified zoo may be detected, a camera may be installed in the zoo, and a video stream within a certain time of the zoo may be collected with the camera, and then framing processing is performed on the video stream to be detected. Acquire an image.

여기서, 검출될 이미지는 타깃 대상을 포함할 수 있고, 여기서 타깃 대상은 특정 환경하의 검출될 대상을 가리키고, 예를 들어, 전술한 바와 같이 특정된 교통입구의 차량, 및 특정된 동물원의 동물이고, 타깃 대상을 포함하지 않을수도 있으며, 타깃 대상을 포함하지 않는 경우, 검출 결과는 엠프티이고, 본 발명의 실시예는 타깃 대상을 포함하는 검출될 이미지에 대해 설명을 진행한다Here, the image to be detected may include a target object, wherein the target object points to an object to be detected under a specific environment, for example, a vehicle at a traffic entrance specified as described above, and an animal in a specified zoo, The target object may not be included, and when the target object is not included, the detection result is empty, and the embodiment of the present invention proceeds to explain the image to be detected including the target object

단계 S202에 있어서, 검출될 이미지에 기반하여, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하고, 여기서, 꼭짓점은 검출될 이미지에서의 타깃 대상의 위치를 나타낸다.In step S202, based on the image to be detected, vertex position information for each vertex in the image to be detected and a centripetal shift tensor corresponding to each vertex are determined, wherein the vertex determines the position of the target object in the image to be detected. indicates.

타깃 대상이 검출될 이미지에서의 위치는 검출 프레임을 통해 표시할 수 있고, 본 발명의 실시예는 꼭짓점을 통해 타깃 대상이 검출될 이미지에서의 위치를 나타내고, 여기서 꼭짓점은 검출 프레임의 꼭짓점일 수 있고, 예를 들어 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 통해 타깃 대상이 검출될 이미지에서의 위치를 나타내고, 좌측 상단 꼭짓점은 검출 프레임의 좌측 상단 꼭짓점이고, 우측 하단 꼭짓점은 검출 프레임의 우측 하단 꼭짓점이며, 여기서, 좌측 상단 꼭짓점은 대응 타깃 대상 상부 윤곽에 대응되는 선과 대응 타깃 대상 좌측 윤곽에 대응되는 선의 교차점을 가리키고, 우측 하단 꼭짓점은 대응 타깃 대상 하부 윤곽에 대응되는 선과 대응 타깃 대상 우측 윤곽에 대응되는 선의 교차점을 가리킨다.The position in the image where the target object is to be detected may be indicated through the detection frame, and the embodiment of the present invention indicates the position in the image where the target object is to be detected through a vertex, where the vertex may be a vertex of the detection frame, , for example, the upper-left vertex and the lower-right vertex indicate the position in the image where the target object is to be detected, the upper-left vertex is the upper-left vertex of the detection frame, and the lower-right vertex is the lower-right vertex of the detection frame, where , the upper left vertex indicates the intersection of a line corresponding to the upper contour of the corresponding target object and a line corresponding to the left contour of the corresponding target object, and the lower right vertex is the intersection of the line corresponding to the corresponding target object lower contour and the line corresponding to the right contour of the corresponding target object. points to

물론, 좌측 상단 꼭짓점과 우측 하단 꼭짓점을 통해 타깃 대상의 위치를 나타내는 것에 제한된 것이 아니라, 우측 상단 꼭짓점과 좌측 하단 꼭짓점을 통해서도 타깃 대상의 위치를 나타낼수 있고, 본 발명의 실시예는 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 예로 들어 설명했다.Of course, it is not limited to indicating the position of the target object through the upper left vertex and the lower right vertex, but it is also possible to indicate the position of the target object through the upper right vertex and the lower left vertex, and the embodiment of the present invention is the upper left vertex and The lower-right corner was described as an example.

여기서 구심 시프트 텐서는 꼭짓점이 타깃 대상 중심 위치에 향하는 시프트 텐서를 가리키고, 이는 검출될 이미지가 2차원 이미지이기 때문에, 여기서 구심 시프트 텐서는 양방향에서의 시프트 값을 포함하고, 이 양방향이 각각 X축방향 및 Y축방향일 경우, 상기 구심 시프트 텐서는 X축 방향에서의 시프트 값, 및 Y축 방향에서의 시프트 값을 포함한다. 꼭짓점 및 상기 꼭짓점에 대응되는 구심 시프트 텐서를 통해, 상기 꼭짓점이 가리키는 중심 위치를 결정할 수 있고, 좌측 상단 꼭짓점 및 우측 하단 꼭짓점이 동일한 검출 프레임에 위치해 있을 경우, 가리키는 중심 위치는 같거나, 유사해야 하고, 따라서 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 동일한 타깃 대상에 속하는 꼭짓점을 결정함으로써, 결정된 꼭짓점에 기반하여 타깃 대상의 검출 프레임을 결정할 수 있다.Here, the centripetal shift tensor points to a shift tensor whose vertices point to the target object central position, which is because the image to be detected is a two-dimensional image, where the centripetal shift tensor contains shift values in both directions, and the two directions are in the X-axis direction, respectively. and in the Y-axis direction, the centripetal shift tensor includes a shift value in the X-axis direction and a shift value in the Y-axis direction. Through the vertex and the centripetal shift tensor corresponding to the vertex, the central position pointed to by the vertex can be determined, and when the upper left vertex and the lower right vertex are located in the same detection frame, the pointed center positions must be the same or similar , therefore, by determining a vertex belonging to the same target object based on the centripetal shift tensor corresponding to each vertex, a detection frame of the target object may be determined based on the determined vertex.

본 발명의 실시예는 신경 네트워크를 통해 꼭짓점 및 꼭짓점에 대응되는 구심 시프트 텐서를 결정하고, 아래의 실시예를 결합하여 반복 설명한다.An embodiment of the present invention determines a vertex and a centripetal shift tensor corresponding to the vertex through a neural network, and the following embodiments are combined and described repeatedly.

단계 S203에 있어서, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 검출될 이미지에서의 타깃 대상을 결정한다.In step S203, a target object in the image to be detected is determined based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex.

여기서, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보는 복수 개 꼭짓점에서 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 가리키고, 각 꼭짓점에 대응되는 구심 시프트 텐서는 상기 복수 개 꼭짓점에서의 각 꼭짓점에 각각 대응되는 구심 시프트 텐서를 가리킨다.Here, the vertex position information in the image in which each vertex is to be detected refers to vertex position information in the image in which each vertex is to be detected from a plurality of vertices, and the centripetal shift tensor corresponding to each vertex is at each vertex in the plurality of vertices. Points to the corresponding centripetal shift tensors, respectively.

여기서 검출될 이미지에서 타깃 대상을 검출하는 것은, 타깃 대상의 위치를 검출하는 것을 포함할 수 있고, 예를 들어 검출될 이미지에서 타깃 대상의 검출 프레임을 결정할 수 있고, 검출될 이미지에서 타깃 대상의 인스턴스 정보를 결정할 수 있으며, 또는 검출될 이미지에서 타깃 대상의 검출 프레임 및 인스턴스 정보를 동시에 결정하고, 검출될 이미지에서의 타깃 대상의 결정방법은, 아래에 상세하게 해석할 것이다.Detecting the target object in the image to be detected may include detecting a position of the target object, for example determining a detection frame of the target object in the image to be detected, and an instance of the target object in the image to be detected The information can be determined, or the detection frame and instance information of the target object in the image to be detected are simultaneously determined, and the method of determining the target object in the image to be detected will be interpreted in detail below.

상기 단계 S201 내지 단계 S203가 제공한 타깃 검출 방법은, 검출될 이미지를 획득한 후, 먼저 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정해야 하는데, 이는 꼭짓점은 이미지에서의 주요 특징점이기 때문에, 검출될 이미지에서의 꼭짓점의 위치 정보는 각 타킷 대상이 검출될 이미지에서의 위치를 나타낼 수 있으며, 예를 들어 꼭짓점은 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 포함할 수 있고, 여기서 좌측 상단 꼭짓점은 타깃 대상의 상부 윤곽에 대응되는 선과 타깃 대상의 좌측 윤곽에 대응되는 선의 교차점을 가리키고, 우측 하단 꼭짓점은 타깃 대상의 하부 윤곽에 대응되는 선과 타깃 대상의 우측 윤곽에 대응되는 선의 교차점을 가리키며, 좌측 상단 꼭짓점 및 우측 하단 꼭짓점이 동일한 타깃 대상의 검출 프레임에 속할 경우, 좌측 상단 꼭짓점 및 우측 하단 꼭짓점에 각각 대응되는 구심 시프트 텐서가 가리키는 위치가 비교적 가까울 수가 있기에, 따라서, 본 발명의 실시예가 제공한 타깃 검출 방법은, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 동일한 타깃 대상에 속한 꼭짓점을 결정함으로써, 결정된 꼭짓점에 기반하여 동일한 타깃 대상을 검출할 수 있다.In the target detection method provided by the steps S201 to S203, after obtaining the image to be detected, vertex position information for each vertex in the to-be-detected image and the centripetal shift tensor corresponding to each vertex must be determined first, which Since a vertex is a major feature point in an image, the position information of the vertex in the image to be detected may indicate the position of each target object in the image to be detected, for example, the vertex may include an upper left vertex and a lower right vertex. wherein the upper left vertex indicates the intersection of the line corresponding to the upper contour of the target object and the line corresponding to the left contour of the target object, and the lower right vertex corresponds to the line corresponding to the lower contour of the target object and the right contour of the target object When the upper left vertex and the lower right vertex belong to the detection frame of the same target, the positions indicated by the centripetal shift tensors corresponding to the upper left vertex and the lower right vertex may be relatively close. The target detection method provided by the embodiment of the present invention is based on the determined vertices by determining the vertices belonging to the same target object based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex. Thus, the same target object can be detected.

다음은 상기 단계 S201 내지 단계 S203에 대해 계속하여 설명한다.Next, the above steps S201 to S203 will be described continuously.

상기 단계 S202에 대한 한 가지 실시형태에 있어서, 검출될 이미지에 기반하여, 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 경우, 도 3에 도시된 바와 같이, 아래와 같은 단계 S301 내지 단계303을 포함할 수 있다.In one embodiment for step S202, when a vertex determines vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex, based on the image to be detected, as shown in FIG. Likewise, the following steps S301 to 303 may be included.

단계 S301에 있어서, 검출될 이미지에 대해 특징 추출을 진행하여, 검출될 이미지에 대응되는 초기 특징맵을 획득한다.In step S301, an initial feature map corresponding to the image to be detected is obtained by performing feature extraction on the image to be detected.

단계 S301에 있어서, 상기 초기 특징맵에 대해 꼭짓점 풀링을 진행하여, 꼭짓점 풀링된 특징맵을 획득한다.In step S301, vertex pooling is performed on the initial feature map to obtain a vertex pooled feature map.

단계 S303에 있어서, 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보, 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정한다.In step S303, based on the vertex pooled feature map, vertex position information in an image where each vertex is to be detected and a centripetal shift tensor corresponding to each vertex are determined.

여기서 검출될 이미지의 크기는 일정하고, 예를 들어 크기가 H*W일 경우, 여기서 H 및 W는 각각 검출될 이미지에서 길이 및 너비 방향에서의 픽셀값을 표시하고, 다음 상기 검출될 이미지를 사전 훈련된 모래시계 컨볼루션 신경 네트워크에 입력하여 특징을 추출을 진행하여, 예를 들어 텍스처 특징 추출, 색깔 특징 추출, 가장자리 특징 추출 등, 상기 검출될 이미지에 대응되는 초기 특징맵을 획득할 수 있다.Here, the size of the image to be detected is constant, for example, when the size is H*W, where H and W respectively indicate pixel values in the length and width directions in the image to be detected, and then pre-select the image to be detected. It is possible to obtain an initial feature map corresponding to the image to be detected by inputting it into the trained hourglass convolutional neural network and extracting features, for example, extracting texture features, extracting color features, and extracting edge features.

물론, 모래시계 컨볼루션 신경 네트워크의 입력단은 이미지 크기에 요구가 있기 때문에, 수신 설정 크기의 검출될 이미지, 검출될 이미지의 크기가 상기 설정 크기에 부합되지 않을 경우, 먼저 검출될 이미지의 크기에 대해 조절을 진행한 다음, 크기가 조절된 검출될 이미지를 상기 모래시계 컨볼루션 신경 네트워크에 다시 입력하여, 특징 추출 및 크기 압축을 진행하면, 크기가 h*w*c의초기 특징맵을 획득할 수 있고, 여기서 c는 초기 특징맵의 채널 갯수, h 및 w는 각 채널의 초기 특징맵의 크기를 표시한다.Of course, since the input end of the hourglass convolutional neural network has a request for image size, when the size of the image to be detected and the size of the image to be detected of the reception set size does not match the set size, the size of the image to be detected first After adjustment, the size-adjusted image to be detected is input again into the hourglass convolutional neural network, and feature extraction and size compression are performed to obtain an initial feature map of size h*w*c. where c is the number of channels of the initial feature map, and h and w indicate the size of the initial feature map of each channel.

초기 특징맵은 복수 개 특징점을 포함하고, 각 특징점은 모두 특징 데이터를 가지고, 이러한 특징 데이터는 검출될 이미지의 전역 정보를 표시하며, 이러한 특징점에서 꼭짓점 추출에 용이하기 위해, 본 발명의 실시예는 초기 특징맵에 대해(Corner Pooling) 꼭짓점 풀링을 진행할 것을 제기하여, 꼭짓점 풀링된 특징맵을 획득하고, 꼭짓점 풀링된 특징맵은 초기 특징맵에 비해, 꼭짓점이 내포한 타깃 대상의 의미정보를 향상시키기에, 따라서 꼭짓점 풀링된 특징맵에 기반하여, 검출될 이미지에서의 각 꼭짓점의 꼭짓점 위치 정보, 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 더 정확하게 결정할 수 있다.The initial feature map includes a plurality of feature points, each feature point has feature data, and this feature data displays global information of the image to be detected. For the initial feature map (Corner Pooling), vertex pooling is proposed to obtain a vertex pooled feature map, and the vertex pooled feature map is compared to the initial feature map. Therefore, based on the vertex pooled feature map, vertex position information of each vertex in the image to be detected and the centripetal shift tensor corresponding to each vertex can be more accurately determined.

여기서, 상기 검출될 이미지에 대해 특징 추출을 진행하는 것을 통해, 초기 특징맵을 획득하고, 초기 특징맵에 대해 꼭짓점 풀링을 진행하여, 꼭짓점 및 꼭짓점에 대응되는 구심 시프트 텐서의 특징맵을 추출하는 것에 용이한 특징맵을 획득하고, 즉 꼭짓점 풀링된 특징맵을 획득한다.Here, by performing feature extraction on the image to be detected, obtaining an initial feature map, performing vertex pooling on the initial feature map, and extracting the feature map of the vertex and the centripetal shift tensor corresponding to the vertex An easy feature map is obtained, that is, a vertex pooled feature map is obtained.

꼭짓점 풀링된 특징맵을 획득한 후, 상기 꼭짓점 풀링된 특징맵 및 사전 훈련된 신경 네트워크에 기반하여, 꼭짓점이 존재하는지 여부를 결정할 수 있고, 꼭짓점이 존재할 경우, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하며, 본 발명의 실시예는 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 통해 타깃 대상이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하고, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 과정은, 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보, 및 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 과정일 수 있으며, 여기서, 좌측 상단 꼭짓점 검출 네트워크를 통해 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 검출할 수 있고, 및 우측 하단 꼭짓점 검출 네트워크를 통해 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 검출할 수 있는데, 이는 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보와 유사하기 때문이며, 본 발명의 실시예는 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정한 것을 예를 들어 상세히 설명하도록 한다.After obtaining the vertex pooled feature map, based on the vertex pooled feature map and the pre-trained neural network, it is possible to determine whether vertices exist, and if there are vertices, each vertex is a vertex in the image to be detected. Determining position information, an embodiment of the present invention determines vertex position information in an image in which a target object is to be detected through an upper left vertex and a lower right vertex, and determines vertex position information in an image in which each vertex is to be detected. The process may be a process of determining vertex position information in an image in which an upper left vertex is to be detected, and vertex position information in an image in which a lower right vertex is to be detected, where the upper left vertex is determined through a left upper vertex detection network. It is possible to detect the vertex position information in the image to be detected, and the vertex position information in the image where the lower right vertex is to be detected through a lower right vertex detection network, which is the upper left vertex in the image to be detected. This is because the vertex position information and the lower right vertex are similar to the vertex position information in the image to be detected, and in the embodiment of the present invention, the determination of the vertex position information in the image where the upper left vertex is to be detected will be described in detail.

일 실시 방식에 있어서, 좌측 상단 꼭짓점 검출 네트워크는 좌측 상단 꼭짓점 히트맵 예측 네트워크 및 좌측 상단 꼭짓점 로컬 시프트 예측 네트워크를 포함할 수 있고, 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보가 결정될 경우, 도 4에 도시된 바와 같이, 아래와 같은 단계 S401 내지 단계 S404를 포함할 수 있다.In one embodiment, the upper-left vertex detection network may include an upper-left vertex heat map prediction network and an upper-left vertex local shift prediction network, and based on the vertex pooled feature map, each vertex in the image to be detected When the vertex location information is determined, as shown in FIG. 4 , the following steps S401 to S404 may be included.

단계 S401에 있어서, 꼭짓점 풀링된 특징맵에 기반하여, 검출될 이미지에 대응되는 꼭짓점 히트맵을 생성한다.In step S401, a vertex heat map corresponding to the image to be detected is generated based on the vertex pooled feature map.

좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 예측할 경우, 여기서 꼭짓점 히트맵은 좌측 상단 꼭짓점 검출 네트워크에서의 좌측 상단 꼭짓점 히트맵 예측 네트워크를 통해 획득할 수 있고, 꼭짓점 풀링된 특징맵을 좌측 상단 꼭짓점 히트맵 예측 네트워크에 입력하여, 검출될 이미지에 대응되는 좌측 상단 꼭짓점 히트맵을 획득할 수 있고, 상기 좌측 상단 꼭짓점 히트맵은 복수 개 특징점을 포함하고, 각 특징점은 상기 특징점에 대응되는 특징 데이터를 가지고 있으며, 꼭짓점 히트맵에서 특징점의 특징 데이터에 기반하여, 상기 특징점을 좌측 상단 꼭짓점으로 사용하는 확률값을 결정할 수 있다.When the vertex position information in the image where the upper left vertex is to be detected is predicted, the vertex heat map can be obtained through the upper left vertex heat map prediction network in the upper left vertex detection network, and the vertex pooled feature map is shown in the upper left. By inputting the vertex heat map prediction network, an upper left vertex heat map corresponding to an image to be detected may be obtained, wherein the upper left vertex heat map includes a plurality of feature points, each feature data corresponding to the feature point , and based on the feature data of the feature point in the vertex heat map, it is possible to determine a probability value using the feature point as the upper left vertex.

여기서 획득한 좌측 상단 꼭짓점 히트맵의 크기는 h*w*m이고, 여기서 h*w는 꼭짓점 히트맵이 각 채널에서의 크기를 표시하고, m은 사전 채널 수량을 표시하며, 각 사전 채널은 한가지 사전 설정 대상 카테고리에 대응하고, 예를 들어 m=40은, 40종의 사전 설정 대상 카테고리가 있다는 것을 표시하고, 상기 좌측 상단 꼭짓점 히트맵은 검출될 이미지에서의 좌측 상단 꼭짓점을 결정하기 위해 사용된 이외에, 또한 상기 좌측 상단 꼭짓점이 검출될 이미지에서 나타내는 타깃 대상의 카테고리를 결정하기 위해 사용되고, 타깃 대상의 카테고리를 결정하는 과정은 아래에 상세하게 해석할 것이다.The size of the obtained upper left vertex heatmap is h*w*m, where h*w represents the size of the vertex heatmap in each channel, m represents the pre-channel quantity, and each pre-channel has one Corresponding to a preset object category, for example, m=40, indicates that there are 40 preset object categories, and the upper left vertex heat map is used to determine the upper left vertex in the image to be detected. In addition, the upper left vertex is also used to determine the category of the target object indicated in the image to be detected, and the process of determining the category of the target object will be interpreted in detail below.

단계 S402에 있어서, 꼭짓점 히트맵에 기반하여, 꼭짓점 히트맵에서 각 특징점을 꼭짓점으로 사용하는 확률값을 결정하고, 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 꼭짓점 히트맵에서 특징점에서 꼭짓점을 선별한다.In step S402, based on the vertex heat map, a probability value of using each feature point as a vertex in the vertex heat map is determined, and based on the probability value using each feature point as a vertex, vertices are selected from the feature points in the vertex heat map. .

각 특징점을 좌측 상단 꼭짓점으로 사용하는 확률값에 기반하여, 상기 특징점이 좌측 상단 꼭짓점인 확률을 결정할 수 있음으로써, 확률값이 임계값 설정보다 크다는 특징점을 좌측 상단 꼭짓점으로 사용한다.Based on the probability value of using each feature point as the upper left vertex, the probability that the feature point is the upper left vertex can be determined, so that the feature point whose probability value is greater than the threshold setting is used as the upper left vertex.

단계 S403에 있어서, 선별된 각 꼭짓점이 꼭짓점 히트맵에서의 위치 정보 및 각 꼭짓점에 대응되는 로컬 시프트 정보를 획득한다.In step S403, location information of each selected vertex in the vertex heat map and local shift information corresponding to each vertex are acquired.

로컬 시프트 정보는 대응되는 꼭짓점이 나타내는 실제 물리점이 꼭짓점 히트맵에서의 위치 시프트 정보를 표시하기 위해 사용되고, 여기서, 각 좌측 상단 꼭짓점에 대응되는 로컬 시프트 정보는 상기 좌측 상단 꼭짓점이 나타내는 실제 물리점이 좌측 상단 꼭짓점 히트맵에서의 위치 시프트 정보를 표시하기 위해 사용된다.The local shift information is used to display position shift information in the vertex heat map of the actual physical point indicated by the corresponding vertex, where the local shift information corresponding to each upper left vertex is the actual physical point indicated by the upper left vertex is the upper left It is used to display position shift information in the vertex heatmap.

여기서 로컬 시프트 정보는 로컬 시프트 텐서를 통해 표시할 수 있고, 상기 로컬 시프트 텐서는 좌측 상단 꼭짓점 히트맵에서 마찬가지로 양방향에서의 시프트 값으로 표시될 수 있고, 예를 들어 좌측 상단 꼭짓점 히트맵에서의 좌표계는 양방향을 포함하고, 각각 x축방향 및 y축방향이며, 상기 로컬 시프트 텐서는 x축 방향에서의 시프트 값 및 y축 방향에서의 시프트 값을 포함한다.Here, the local shift information may be displayed through a local shift tensor, and the local shift tensor may also be displayed as a shift value in both directions in the upper left vertex heat map, for example, the coordinate system in the upper left vertex heat map is It includes both directions, in an x-axis direction and a y-axis direction, respectively, and the local shift tensor includes a shift value in the x-axis direction and a shift value in the y-axis direction.

좌측 상단 꼭짓점 히트맵에 대응되는 좌표계에 기반하여, 좌측 상단 꼭짓점 히트맵에서의 각 특징점이 상기 좌측 상단 꼭짓점 히트맵에서의 위치 정보를 획득할 수 있고, 획득한 좌측 상단 꼭짓점의 위치 정보와 상기 좌측 상단 꼭짓점이 나타내는 실제 물리점의 위치 정보간의 오차가 존재할 수 있는 것을 고려하여, 예를 들어, 좌측 상단 꼭짓점 히트맵에 위치 검출을 진행하는 것을 통해 특정된 좌측 상단 꼭짓점의 위치 정보를 획득하고, 상기 좌측 상단 꼭짓점이 나타내는 실제 물리점의 위치 정보와 검출된 상기 좌측 상단 꼭짓점의 위치 정보에 일정한 편차가 있으며, 상기 로컬 시프트 정보는 상기 편차를 표시하기 위해 사용된다.Based on the coordinate system corresponding to the upper left vertex heat map, each feature point in the upper left vertex heat map may acquire location information in the upper left vertex heat map, and the obtained location information of the upper left vertex and the left Considering that there may be an error between the position information of the actual physical point indicated by the upper vertex, for example, by performing position detection on the upper left vertex heat map, the specified position information of the upper left vertex is obtained, and the There is a certain deviation between the position information of the actual physical point indicated by the upper left vertex and the detected position information of the upper left vertex, and the local shift information is used to indicate the deviation.

타깃 대상 검출의 정확도를 높이기 위해, 여기서 사전 훈련된 좌측 상단 꼭짓점 로컬 시프트 예측 네트워크를 인용하고, 다음 꼭짓점 풀링된 특징맵을 좌측 상단 꼭짓점 예측 네트워크에서의 좌측 상단 꼭짓점 로컬 시프트 예측 네트워크에 입력하는 것을 통해, 좌측 상단 꼭짓점 히트맵에서 각 특징점에 대응되는 로컬 시프트 정보를 결정하고, 다음 상기 로컬 시프트 정보에 기반하여 특징점이 꼭짓점 히트맵에서의 위치 정보에 대해 수정을 진행하고, 다음 수정된 위치 정보에 기반하여, 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정한다.In order to increase the accuracy of target object detection, here we cite the pre-trained upper-left vertex local shift prediction network, and input the next vertex pooled feature map into the upper-left vertex local shift prediction network in the upper-left vertex prediction network. , determine local shift information corresponding to each feature point in the upper left vertex heat map, then modify the location information of the feature point in the vertex heat map based on the local shift information, and then based on the modified location information Thus, the vertex position information in the image where the upper left vertex is to be detected is determined.

단계 S404에 있어서, 획득된 각 꼭짓점이 꼭짓점 히트맵에서의 위치 정보, 각 꼭짓점에 대응되는 로컬 시프트 정보, 및 꼭짓점 히트맵 및 검출될 이미지 간의 크기 비율에 기반하여 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정한다.In step S404, each vertex is located in the to-be-detected image based on location information of each obtained vertex in the vertex heatmap, local shift information corresponding to each vertex, and a size ratio between the vertex heatmap and the image to be detected. Determine the vertex position information.

여기서, 획득한 각 좌측 상단 꼭짓점이 좌측 상단 꼭짓점 히트맵에서의 위치 정보는 좌측 상단 꼭짓점 히트맵에서의 x축 방향에서의 좌표값x, 및 y축 방향에서의 좌표값y를 포함할 수 있고, 검출될 이미지에서 각 좌측 상단 꼭짓점의 꼭짓점 위치 정보는 X축 방향에서의 좌표값X, 및 Y축 방향에서의 좌표값Y를 포함할 수 있다.Here, the obtained position information of each of the upper left vertices in the upper left vertex heat map may include a coordinate value x in the x-axis direction in the upper left vertex heat map, and a coordinate value y in the y-axis direction, The vertex position information of each upper left vertex in the image to be detected may include a coordinate value X in the X-axis direction and a coordinate value Y in the Y-axis direction.

여기서, 아래 공식(1) 및 공식(2)에 따라 i 번째 의 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정할 수 있다.Here, vertex position information in the image in which the i-th upper left vertex is to be detected may be determined according to formulas (1) and (2) below.

Figure pct00001
Figure pct00001

여기서,

Figure pct00002
는 i번째 좌측 상단 꼭짓점이 검출될 이미지에서의 X축 방향에서의 좌표값을 표시하고,
Figure pct00003
는 i번째 좌측 상단 꼭짓점이 검출될 이미지에서의 Y축 방향에서의 좌표값을 표시하고; n은 좌측 상단 꼭짓점 히트맵 및 검출될 이미지 간의 크기 비율을 표시하고;
Figure pct00004
는 i번째 좌측 상단 꼭짓점이 좌측 상단 꼭짓점 히트맵에서의 x축 방향에서의 좌표값을 표시하고,
Figure pct00005
는 i번째 좌측 상단 꼭짓점이 꼭짓점 히트맵에서의 y축 방향에서의 좌표값을 표시하고;
Figure pct00006
는 i번째 좌측 상단 꼭짓점이 나타내는 실제 물리점이 꼭짓점 히트맵에서의 x축 방향에서의 시프트 값을 표시하고,
Figure pct00007
는 i번째 좌측 상단 꼭짓점이 나타내는 실제 물리점이 꼭짓점 히트맵에서의 y축 방향에서의 시프트 값을 표시한다.here,
Figure pct00002
represents the coordinate value in the X-axis direction in the image where the i-th upper left vertex is to be detected,
Figure pct00003
denotes the coordinate value in the Y-axis direction in the image where the i-th upper left vertex is to be detected; n denotes the size ratio between the top left vertex heatmap and the image to be detected;
Figure pct00004
indicates the coordinate value of the i-th upper-left vertex in the x-axis direction in the upper-left vertex heat map,
Figure pct00005
denotes the coordinate value of the i-th upper left vertex in the y-axis direction in the vertex heat map;
Figure pct00006
indicates the shift value in the x-axis direction of the actual physical point indicated by the i-th upper left vertex in the vertex heat map,
Figure pct00007
indicates the shift value in the y-axis direction of the actual physical point indicated by the i-th upper left vertex in the vertex heat map.

전술한 과정은 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 과정이고, 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 과정도 마찬가지로, 꼭짓점 풀링된 특징맵을 우측 하단 꼭짓점 예측 네트워크에서의 우측 하단 꼭짓점 히트맵 예측 네트워크에 입력하여, 우측 하단 꼭짓점 히트맵을 획득함으로써, 우측 하단 꼭짓점 히트맵에서의 각 특징점을 우측 하단 꼭짓점으로 사용하는 확률값을 결정하고, 여기서 우측 하단 꼭짓점을 선별하고, 동시에 우측 하단 꼭짓점 예측 네트워크에서의 우측 하단 꼭짓점 로컬 시프트 네트워크를 통해 결정된 우측 하단 꼭짓점에 대응되는 로컬 시프트 정보를 결합하여, 각 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하며, 여기서 더 이상 반복하여 설명하지 않는다.The above-described process is a process of determining vertex position information in the image in which the upper left vertex is to be detected, and the process of determining the vertex position information in the image in which the lower right vertex is to be detected is also the process of determining the vertex pooled feature map to the lower right vertex. Lower-right vertex heatmap in the prediction network By inputting into the prediction network and obtaining the lower-right vertex heatmap, the probability value of using each feature point in the lower-right vertex heatmap as the lower-right vertex is determined, where the lower-right vertex is and at the same time combine the local shift information corresponding to the lower right vertex determined through the lower right vertex local shift network in the lower right vertex prediction network to determine the vertex position information in the image where each lower right vertex is to be detected, No further explanation will be repeated here.

마찬가지로, 아래 공식(3) 및 공식(4)에 따라 j 번째 의 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정할 수 있다.Similarly, vertex position information in the image in which the j-th lower-right vertex is to be detected may be determined according to formulas (3) and (4) below.

Figure pct00008
Figure pct00008

여기서,

Figure pct00009
는 j번째 우측 하단 꼭짓점이 검출될 이미지에서의 X축 방향에서의 좌표값을 표시하고,
Figure pct00010
는 j번째 우측 하단 꼭짓점이 검출될 이미지에서의 Y축 방향에서의 좌표값을 표시하고; n은 우측 하단 꼭짓점 히트맵 및 검출될 이미지 간의 크기 비율을 표시하고;
Figure pct00011
는 j번째 우측 하단 꼭짓점이 우측 하단 꼭짓점 히트맵에서의 x축 방향에서의 좌표값을 표시하고,
Figure pct00012
는 j번째 우측 하단 꼭짓점이 꼭짓점 히트맵에서의 y축 방향에서의 좌표값을 표시하고;
Figure pct00013
는 j번째 우측 하단 꼭짓점이 나타내는 실제 물리점이 꼭짓점 히트맵에서의 x축 방향에서의 시프트 값을 표시하고,
Figure pct00014
는 j번째 우측 하단 꼭짓점이 나타내는 실제 물리점이 꼭짓점 히트맵에서의 y축 방향에서의 시프트 값을 표시한다.here,
Figure pct00009
represents the coordinate value in the X-axis direction in the image where the j-th lower right vertex is to be detected,
Figure pct00010
denotes a coordinate value in the Y-axis direction in the image where the j-th lower right vertex is to be detected; n denotes the size ratio between the bottom right vertex heatmap and the image to be detected;
Figure pct00011
indicates the coordinate value of the j-th lower-right vertex in the x-axis direction in the lower-right vertex heat map,
Figure pct00012
denotes the coordinate value of the j-th lower right vertex in the y-axis direction in the vertex heat map;
Figure pct00013
represents the shift value in the x-axis direction of the actual physical point indicated by the j-th lower right vertex in the vertex heat map,
Figure pct00014
indicates the shift value in the y-axis direction of the actual physical point indicated by the j-th lower right vertex in the vertex heat map.

전술한 단계 S401 내지 단계 S404는 본 발명의 실시예에서 제공한 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 방식으로, 해당 과정은 꼭짓점 히트맵을 인용하는 것을 통해, 각 특징점을 꼭짓점으로 사용하는 확률값을 통해 꼭짓점이 될수 있는 특징점을 결정하고, 꼭짓점을 선택한 후, 꼭짓점이 꼭짓점 히트맵에서의 위치 정보에 대해 수정을 진행하는 것을 통해, 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하고, 상기 방식은 비교적 정확도가 높은 꼭짓점의 꼭짓점 위치 정보를 획득할 수 있음으로써, 후속 상기 꼭짓점에 기반하여 타깃 대상이 검출될 이미지에서의 위치를 검출하는 것에 용이하다.The above-described steps S401 to S404 are a method in which each vertex provided in an embodiment of the present invention determines vertex position information in the to-be-detected image. Determines feature points that can become vertices through the probability value used as In this way, it is possible to obtain vertex position information of a vertex with relatively high accuracy, so that it is easy to detect a position in an image where a target object is to be detected based on the vertex.

아래는 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 과정을 소개하고, 꼭짓점이 좌측 상단 꼭짓점 및 우측 하단 꼭짓점으로 나뉠 경우, 마찬가지로 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서, 및 우측 하단 꼭짓점에 대응되는 구심 시프트 텐서를 각각 확인해야 하고, 본 발명의 실시예는 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 것을 예로 들어 설명하고, 우측 하단 꼭짓점에 대응되는 구심 시프트 텐서와 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 방식은 유사하며, 본 발명의 실시예는 더 이상 반복하여 설명하지 않는다.The following introduces the process of determining the centripetal shift tensor corresponding to each vertex, and when a vertex is divided into an upper left vertex and a lower right vertex, the centripetal shift tensor corresponding to the upper left vertex, and the centripetal corresponding to the lower right vertex Each of the shift tensors should be checked, and the embodiment of the present invention will be described as an example of determining the centripetal shift tensor corresponding to the upper left vertex, and the centripetal shift tensor corresponding to the lower right vertex and the centripetal shift corresponding to the upper left vertex The method of determining the tensor is similar, and the embodiment of the present invention will not be repeated any longer.

일 실시 방식에 있어서, 더욱 정확한 구심 시프트 텐서를 획득하기 위해, 구심 시프트 텐서를 결정하기전, 특징 데이터 과정을 인용하여 꼭짓점 풀링된 특징맵에 대해 조정을 진행한 후, 구심 시프트 텐서를 결정하고, 여기서, 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정할 경우, 도 5에 도시된 바와 같이, 아래와 같은 단계 S501 내지 단계 S504를 포함할 수 있다.In one embodiment, in order to obtain a more accurate centripetal shift tensor, before determining the centripetal shift tensor, after adjusting the vertex pooled feature map by citing the feature data process, the centripetal shift tensor is determined, Here, when determining a centripetal shift tensor corresponding to each vertex based on the vertex pooled feature map, as shown in FIG. 5 , the following steps S501 to S504 may be included.

단계 S501에 있어서, 꼭짓점 풀링된 특징맵에 기반하여, 꼭짓점 풀링된 특징맵에서의 각 특징점에 대응되는 가이드 시프트 텐서를 결정한다.In step S501, based on the vertex-pooled feature map, a guide shift tensor corresponding to each feature in the vertex-pooled feature map is determined.

여기서, 각 특징점에 대응되는 가이드 시프트 텐서는 상기 특징점이 가리키는 상기 검출될 이미지에서의 타깃 대상 중심점의 시프트 텐서를 나타낸다.Here, the guide shift tensor corresponding to each feature point represents the shift tensor of the target center point in the image to be detected indicated by the feature point.

타깃 대상이 검출될 이미지에서의 위치와 타깃 대상 정보에 관련된 것을 고려하여, 꼭짓점 풀링된 특징맵의 꼭짓점의 특징 데이터가 더욱 풍부한 타깃 대상을 포함하도록 희망하므로, 여기서 각 특징점을 고려할 수 있고, 특히 꼭짓점 특징벡터가 더욱 풍부한 타깃 대상 정보를 포함할 수 있도록 표시하고, 따라서 각 특징점에 대응되는 가이드 시프트 텐서에 기반하여, 꼭짓점 풀링된 특징맵에 대해 특징 조정을 진행할 수 있고, 조정된 특징맵으로 하여금, 각 특징점 특히 꼭짓점이 더욱 풍부한 타깃 대상 정보를 포함할 수 있도록 한다.Considering the location of the target object in the image to be detected and related to the target object information, it is hoped that the feature data of the vertices of the vertex pooled feature map will include richer target objects, so that each feature point can be considered here, and in particular the vertex The feature vector is displayed to include more abundant target target information, and accordingly, based on the guide shift tensor corresponding to each feature point, feature adjustment can be performed on the vertex pooled feature map, and the adjusted feature map can be Each feature point, especially a vertex, can contain richer target target information.

여기서, 꼭짓점 풀링된 특징맵에 대해 컨볼루션 연산을 진행하는 것을 통해, 꼭짓점 풀링된 특징맵에서의 각 특징점에 대응되는 가이드 시프트 텐서를 획득하고, 상기 가이드 시프트 텐서는 x축 방향을 따른 시프트 값 및 y축 방향을 따른 시프트 값을 포함한다.Here, by performing a convolution operation on the vertex pooled feature map, a guide shift tensor corresponding to each feature point in the vertex pooled feature map is obtained, and the guide shift tensor is a shift value along the x-axis direction and Contains shift values along the y-axis direction.

좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 것을 예를 들어, 여기서 꼭짓점 풀링된 특징맵에 대해 컨볼루션 연산을 진행하고, 주요 획득한 특징점을 좌측 상단 꼭짓점에 대응되는 가이드 시프트 텐서로 사용한다.To determine the centripetal shift tensor corresponding to the upper left vertex, for example, a convolution operation is performed on the vertex pooled feature map, and the main acquired feature point is used as a guide shift tensor corresponding to the upper left vertex.

단계 S502에 있어서, 각 특징점에 대응되는 가이드 시프트 텐서에 기반하여, 상기 특징점의 시프트 도메인 정보를 결정한다.In step S502, shift domain information of the feature point is determined based on the guide shift tensor corresponding to each feature point.

여기서, 상기 시프트 도메인 정보는 상기 특징점과 연관된 복수 개의 초기 특징점이 각각에 대응되는 시프트된 특징점을 각각 가리키는 시프트 텐서를 포함한다.Here, the shift domain information includes a shift tensor in which a plurality of initial feature points associated with the feature point respectively indicate shifted feature points corresponding to each.

각 특징점에 대응되는 가이드 시프트 텐서를 획득한 후, 각 특징점에 대응되는 가이드 시프트 텐서에 기반하여 컨볼루션 연산을 진행하여, 상기 특징점의 시프트 도메인 정보를 획득한다.After obtaining the guide shift tensor corresponding to each feature point, a convolution operation is performed based on the guide shift tensor corresponding to each feature point to obtain shift domain information of the feature point.

좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 것을 예를 들어, 각 특징점을 좌측 상단 꼭짓점으로 사용하는 경우에 대응되는 가이드 시프트 텐서를 획득한 후, 각 특징점을 좌측 상단 꼭짓점으로 사용하는 경우에 대응되는 가이드 시프트 텐서에 대해 컨볼루션 연산을 진행함으로써,상기 특징점을 좌측 상단 꼭짓점으로 사용하는 경우의 시프트 도메인 정보를 획득한다.Determining the centripetal shift tensor corresponding to the upper left vertex corresponds to, for example, obtaining a guide shift tensor corresponding to the case where each feature point is used as the upper left vertex, and then using each feature point as the upper left vertex By performing a convolution operation on the guide shift tensor, shift domain information is obtained when the feature point is used as the upper left vertex.

단계 S503에 있어서, 꼭짓점 풀링된 특징맵 및 상기 꼭짓점 풀링된 특징맵에서의 특징점의 시프트 도메인 정보에 기반하여, 꼭짓점 풀링된 특징맵에서의 특징점의 특징 데이터에 대해 조정을 진행하여, 조정된 특징맵을 획득한다.In step S503, based on the vertex pooled feature map and the shift domain information of the feature points in the vertex pooled feature map, the feature data of the feature points in the vertex pooled feature map are adjusted, and the adjusted feature map to acquire

꼭짓점 풀링된 특징맵의 특징점을 좌측 상단 꼭짓점으로 사용하는 경우의 시프트 도메인 정보를 획득한 후, 꼭짓점 풀링된 특징맵, 및 상기 꼭짓점 풀링된 특징맵에서의 각 특징점을 좌측 상단 꼭짓점으로 사용할 경우의 시프트 도메인 정보에 대해, 동시에 가변형 컨블루션 연산을 진행하여, 획득한 좌측 상단 꼭짓점에 대응되는 조정된 특징맵이다.After obtaining shift domain information when using the feature point of the vertex pooled feature map as the upper left vertex, the vertex pooled feature map and each feature point in the vertex pooled feature map are used as the upper left vertex. It is an adjusted feature map corresponding to the upper left vertex obtained by simultaneously performing a variable convolution operation on domain information.

여기서, 단계 S501 내지 단계 S503의 과정은 도 6에 도시된 바와 같이 특징 조정 네트워크를 통해 결정할수 있다;Here, the processes of steps S501 to S503 may be determined through a feature coordination network as shown in FIG. 6 ;

꼭짓점 풀링된 특징맵에 대해 컨볼루션 연산을 진행하여, 상기 꼭짓점 풀링된 특징맵에서의 각 특징점을 좌측 상단 꼭짓점으로 사용하는 경우에 대응되는 가이드 시프트 텐서를 획득한 다음, 상기 가이드 시프트 텐서에 대해 컨볼루션 연산을 진행하여, 시프트 도메인 정보를 획득하며, 여기서 시프트 도메인 정보에 대한 해석은 아래와 같다;A convolution operation is performed on the vertex pooled feature map to obtain a guide shift tensor corresponding to the case where each feature point in the vertex pooled feature map is used as the upper left vertex, and then the guide shift tensor is convolved. A solution operation is performed to obtain shift domain information, where the interpretation of the shift domain information is as follows;

꼭짓점 풀링된 특징맵에서의 특징점의 특징 데이터에 대해 컨볼루션 연산을 진행하고, 예를 들어 꼭짓점 풀링된 특징맵에서의 특징점A의 특징 데이터에 대해 컨볼루션 연산을 진행하는 경우, 시프트 도메인 정보가 존재하지 않을 경우, 3*3컨불루션에 따라 특징점A의 특징 데이터에 대해 컨볼루션 연산을 진행할 경우, 꼭짓점 풀링된 특징맵에서의 특징점A를 포함한 9개의 실선 프레임을 통해 표시된 초기 특징점의 특징 데이터를 통해 컨볼루션 연산을 진행하여 획득할 수 있고, 시프트 도메인 정보를 고려한 후, 더욱 풍부한 타깃 대상 정보의 특징점의 특징 데이터를 포함하는 것을 통해, 특징점A에 대해 특징 조정을 진행하는 것을 희망하므로, 예를 들어 각 특징점에 대응되는 가이드 시프트 벡터에 기반하여, 특징점A에 대해 특징 조정을 진행하는 특징점에 대해 시프트을 진행하기 위한 것이고, 예를 들어 시프트된 특징점은 도6에서의 꼭짓점 풀링된 특징맵에서의 9개 점선을 통해 표시되고, 9개 시프트된 특징점의 특징 데이터에 대해 컨볼루션 연산을 진행하는 것을 통함으로써, 특징점A의 특징 데이터에 대해 특징 조정을 진행할 수 있고, 여기서 시프트 도메인 정보는 도6에서의 시프트 텐서를 진행하는 것을 통해 표시하고, 시프트 텐서에서의 각 시프트 텐서, 즉 각 초기 특징점이 가리키는 상기 초기 특징점에 대응되는 시프트 후 특징점의 시프트 텐서는, 초기 특징점이 x축 방향 및 y축 방향에서의 시프트 후, 획득한 상기 초기 특징점에 대응되는 시프트 후 특징점을 표시한다.When a convolution operation is performed on the feature data of the feature point in the vertex pooled feature map, for example, when the convolution operation is performed on the feature data of feature point A in the vertex pooled feature map, shift domain information is present. Otherwise, when convolution operation is performed on the feature data of feature point A according to 3*3 convolution, the feature data of the initial feature point displayed through 9 solid line frames including feature point A in the vertex pooled feature map is used. It can be obtained by performing a convolution operation, and after considering the shift domain information, it is desired to perform feature adjustment on the feature point A by including feature data of the feature point of the more abundant target target information, for example, Based on the guide shift vector corresponding to each feature point, it is for shifting the feature point that performs feature adjustment on feature point A. For example, the shifted feature point is 9 in the vertex pooled feature map in FIG. By performing a convolution operation on the feature data of feature points that are displayed through a dotted line and shifted by nine, feature adjustment can be performed on the feature data of feature point A, where the shift domain information is shifted in FIG. Each shift tensor in the shift tensor, that is, the shift tensor of the feature point after the shift corresponding to the initial feature point pointed to by each initial feature point, is expressed through the progression of the tensor, and the initial feature point is shifted in the x-axis direction and the y-axis direction. After that, the shifted feature point corresponding to the obtained initial feature point is displayed.

각 특징점을 좌측 상단 꼭짓점으로 사용하는 경우에 대응되는 가이드 시프트 텐서를 고려하여, 특징 조정된 특징점에서의 특징 데이터가 포함한 타깃 대상 정보로 하여금 더욱 풍부하게 함으로써, 향후 조정된 특징맵에 기반하여 각 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 결정할 경우, 더욱 정확한 구심 시프트 텐서를 획득할 수 있는 것에 용이하다.In consideration of the guide shift tensor corresponding to the case of using each feature point as the upper left vertex, the target target information included in the feature data at the feature-adjusted feature point is enriched for each left side based on the adjusted feature map in the future. When determining the centripetal shift tensor corresponding to the upper vertex, it is easy to obtain a more accurate centripetal shift tensor.

마찬가지로, 각 특징점을 우측 하단 꼭짓점으로 사용하는 경우에 상대 타깃 대상의 중심점의 가이드 시프트 텐서를 고려하여, 특징 조정된 특징점이 포함한 타깃 대상 정보로 하여금 더욱 풍부하게 함으로써, 향후 조정된 특징맵에 기반하여 각 우측 하단 꼭짓점에 대응되는 구심 시프트 텐서를 결정할 경우, 더욱 정확한 구심 시프트 텐서를 획득할 수 있는 것에 용이하다.Similarly, when each feature point is used as the lower right vertex, the guide shift tensor of the center point of the relative target object is taken into consideration, and the target target information including the feature-adjusted feature point is further enriched, based on the adjusted feature map in the future. When determining the centripetal shift tensor corresponding to each lower right vertex, it is easy to obtain a more accurate centripetal shift tensor.

단계 S504에 있어서, 조정된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정한다.In step S504, a centripetal shift tensor corresponding to each vertex is determined based on the adjusted feature map.

여기서, 조정된 특징맵에서의 꼭짓점에 대응되는 특징 데이터에 대해 컨볼루션 연산을 진행하는 것에 기반하여 각 꼭짓점에 대응되는 구심 시프트 텐서를 획득한다.Here, a centripetal shift tensor corresponding to each vertex is obtained based on performing a convolution operation on the feature data corresponding to the vertices in the adjusted feature map.

여기서, 조정된 특징맵에는 좌측 상단 꼭짓점에 대응되는 조정된 특징맵, 및 우측 하단 꼭짓점에 대응되는 조정된 특징맵을 포함할 수 있고, 좌측 상단 꼭짓점에 대응되는 조정된 특징맵에 기반하여 각 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 결정할 경우, 좌측 상단 꼭짓점에 대응되는 구심 시프트 예측 네트워크를 통해 결정할 수 있고, 우측 하단 꼭짓점에 대응되는 조정된 특징맵에 기반하여 각 우측 하단 꼭짓점에 대응되는 구심 시프트 텐서를 결정 할 경우, 우측 하단 꼭짓점에 대응되는 구심 시프트 예측 네트워크를 통해 결정할 수 있다.Here, the adjusted feature map may include an adjusted feature map corresponding to the upper left vertex and an adjusted feature map corresponding to the lower right vertex, and based on the adjusted feature map corresponding to the upper left vertex, each left When the centripetal shift tensor corresponding to the upper vertex is determined, it can be determined through the centripetal shift prediction network corresponding to the upper left vertex, and the centripetal shift corresponding to each lower right vertex based on the adjusted feature map corresponding to the lower right vertex. When determining the tensor, it can be determined through the centripetal shift prediction network corresponding to the lower right vertex.

전술한 단계 S501 내지 단계 S504 과정은, 발명의 실시예에서 제공한 구심 시프트 텐서를 결정하는 과정으로, 타깃 대상 정보를 고려하는 것을 통해, 예를 들어 꼭짓점에 대응되는 가이드 시프트 텐서 및 특징점의 시프트 도메인 정보를 인용하여, 꼭짓점 풀링된 특징맵에서의 특징점의 특징 데이터에 대해 조정을 진행하여, 획득된 조정된 특징맵에서의 특징점의 특징 데이터가 더 풍부한 타깃 대상 정보를 포함함으로써, 각 꼭짓점에 대응되는 구심 시프트 텐서가 더욱 정확하게 결정되게 하고, 정확한 구심 시프트 텐서를 통해, 꼭짓점이 가리키는 정확한 중심 위치 정보를 획득함으로써, 타깃 대상이 검출될 이미지에서의 위치를 정확하게 검출할 수 있다.The above-described steps S501 to S504 are a process of determining the centripetal shift tensor provided in the embodiment of the present invention, and through consideration of target target information, for example, a guide shift tensor corresponding to a vertex and a shift domain of a feature point By citing information and adjusting the feature data of the feature points in the vertex pooled feature map, the feature data of the feature points in the obtained adjusted feature map includes richer target target information, so that By allowing the centripetal shift tensor to be determined more accurately, and by obtaining accurate center position information pointed to by a vertex through the accurate centripetal shift tensor, the position of the target object in the image to be detected can be accurately detected.

전술한 바와 같이 꼭짓점 히트맵을 통해 검출될 이미지에 포함된 타깃 대상의 카테고리를 결정할 수 있고, 여기서 꼭짓점 히트맵에 따라 타깃 대상의 카테고리를 결정하는 방법을 소개하고, 전술한 바로부터 알다시피 검출될 이미지에 대응되는 꼭짓점 히트맵은 복수 개 채널에 각각 대응되는 꼭짓점 히트맵을 포함하고, 각 채널은 한가지 사전 설정 대상 카테고리에 대응되며; 전술한 바와 같이 꼭짓점 히트맵에 기반하여, 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값을 결정한 후, 도 7에 도시된 바와 같이, 본 발명의 실시예에서 제공한 검출방법은 아래와 같은 단계 S701 내지 단계 S702를 더 포함한다.As described above, the category of the target object included in the image to be detected can be determined through the vertex heatmap. Here, a method of determining the category of the target object according to the vertex heatmap is introduced, and as is known from the above, the the vertex heatmap corresponding to the image includes a vertex heatmap respectively corresponding to a plurality of channels, each channel corresponding to one preset target category; As described above, after determining a probability value using each feature point in the vertex heat map as a vertex based on the vertex heat map, as shown in FIG. 7 , the detection method provided in the embodiment of the present invention includes the following steps S701 to step S702 are further included.

단계 S701에 있어서, 복수 개 채널에서의 각 채널에 대해, 상기 채널에 대응되는 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 상기 채널에 대응되는 꼭짓점 히트맵의 꼭짓점이 존재하는지 여부를 결정한다.In step S701, for each channel in the plurality of channels, based on a probability value using each feature point in the vertex heat map corresponding to the channel as a vertex, whether a vertex of the vertex heat map corresponding to the channel exists decide whether

단계 S702에 있어서, 상기 채널에 대응되는 꼭짓점 히트맵에 꼭짓점이 존재할 경우, 검출될 이미지에 상기 채널에 대응되는 사전 설정 대상 카테고리의 타깃 대상이 포함된다고 결정한다.In step S702, if a vertex exists in the vertex heat map corresponding to the channel, it is determined that a target object of a preset target category corresponding to the channel is included in the image to be detected.

검출될 이미지에 대응되는 꼭짓점 히트맵일 경우, 각 채널에 각각 대응되는 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 상기 채널의 꼭짓점 히트맵에서의 꼭짓점이 존재하는지 여부를 결정할 수 있고, 예를 들어 특정된 채널의 꼭짓점 특징맵에 복수 개 대응 확률값이 임계값보다 큰 특징점을 포함할 경우, 상기 채널의 꼭짓점 특징맵에는 꼭짓점을 포함할 확률이 크다는 것을 설명하고, 꼭짓점은 타깃 대상이 검출될 이미지에서의 위치를 나타내기 위해 사용되고, 이로써 검출될 이미지에는 상기 채널에 대응되는 사전 설정 대상 카테고리의 타깃 대상이 포함되는 것을 설명할 수 있다.In the case of a vertex heatmap corresponding to an image to be detected, based on a probability value of using each feature point in the vertex heatmap corresponding to each channel as a vertex, it can be determined whether a vertex exists in the vertex heatmap of the channel. and, for example, if the vertex feature map of the specified channel includes a feature point having a plurality of corresponding probability values greater than the threshold value, it is explained that the vertex feature map of the channel has a high probability of including the vertex, and the vertex is the target target. It is used to indicate a position in this to-be-detected image, whereby it can be explained that the to-be-detected image includes a target object of a preset object category corresponding to the channel.

예를 들어, 특정된 동물원에 대해 동물 검출을 진행할 경우, 채널 갯수는 100으로 설정할 수 있고, 획득한 꼭짓점 히트맵은 h*w*100이고, 각 채널은 한가지 사전 설정 대상 카테고리에 대응되며, 특정된 검출될 이미지에 대해, 획득한 상기 검출될 이미지에 대응되는 꼭짓점 히트맵의 100개 채널에, 첫 번째 채널 및 두 번째 채널에서의 꼭짓점 히트맵만이 꼭짓점을 포함하고, 첫 번째 채널에 대응되는 사전 설정 대상 카테고리가 01이고, 두 번째 채널에 대응되는 사전 설정 대상 카테고리가 02일 경우, 검출될 이미지에는 카테고리가 01과 02인 타깃 대상이 포함되는 것을 설명할 수 있다.For example, when animal detection is performed for a specified zoo, the number of channels may be set to 100, the obtained vertex heatmap is h*w*100, and each channel corresponds to one preset target category, For the detected image to be detected, in 100 channels of the acquired vertex heatmap corresponding to the to-be-detected image, only the vertex heatmaps in the first channel and the second channel include vertices, and When the preset target category is 01 and the preset target category corresponding to the second channel is 02, it may be explained that the target objects having categories 01 and 02 are included in the image to be detected.

본 발명의 실시예에서는 꼭짓점 풀링된 특징맵을 꼭짓점 히트맵 예측 네트워크에 입력하는 것을 통해, 사전 설정 채널 갯수를 포함한 꼭짓점 히트맵을 획득할 수 있고, 각 채널에 대응되는 꼭짓점 히트맵에서의 꼭짓점 존재하는지 여부를 통해, 검출될 이미지에서의 상기 채널에 대응되는 타깃 대상의 존재하는지 여부를 결정할 수 있다는 것을 제기했다.In an embodiment of the present invention, by inputting the vertex pooled feature map to the vertex heatmap prediction network, a vertex heatmap including the number of preset channels can be obtained, and vertices exist in the vertex heatmap corresponding to each channel. It has been proposed that it is possible to determine whether or not there is a target object corresponding to the channel in the image to be detected.

또한, 여기서 각 채널의 꼭짓점 히트맵이 포함한 꼭짓점을 검출한 후, 꼭짓점에 대응되는 구심 시프트 텐서를 결정할 수 있음으로써, 각 채널에 대응되는 타깃 대상이 검출될 이미지에서의 위치를 결정함으로써, 상기 채널에 대응되는 타깃 대상의 카테고리와 결합하여, 검출될 이미지에서의 각 타깃 대상의 카테고리를 결정한다.In addition, here, after detecting the vertices included in the vertex heatmap of each channel, the centripetal shift tensor corresponding to the vertex can be determined, thereby determining the position in the image where the target object corresponding to each channel is to be detected. In combination with the category of the target object corresponding to , the category of each target object in the image to be detected is determined.

상기 단계 S203에 대해, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 검출될 이미지에서의 타깃 대상을 결정할 경우,In step S203, when determining a target object in the image to be detected based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex,

각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하는 것을 포함할 수 있다.and determining a detection frame of the target object in the image to be detected based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex.

여기서, 검출될 이미지에서 타깃 대상의 검출 프레임을 생성할 경우, 적어도 하나의 좌측 상단 꼭짓점 및 우측 하단 꼭짓점의 꼭짓점 위치 정보를 결정해야 하고, 혹은 적어도 하나의 우측 상단 꼭짓점 및 좌측 하단 꼭짓점의 꼭짓점 위치 정보를 결정해야 하고, 본 발명의 실시예는 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 통해 검출 프레임을 결정하는 것을 예로 들어 설명했다.Here, when generating a detection frame of a target object from an image to be detected, vertex position information of at least one upper left vertex and lower right vertex must be determined, or vertex position information of at least one upper right vertex and lower left vertex should be determined, and the embodiment of the present invention has been described as an example of determining the detection frame through the upper left vertex and the lower right vertex.

여기서, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정할 경우, 도 8에 도시된 바와 같이,Here, when determining the detection frame of the target object in the image to be detected based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex, as shown in FIG. 8 ,

단계 S801에 있어서, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 후보 검출 프레임을 구성하는 후보 꼭짓점 페어를 선별하는 것을 포함할 수 있다.In step S801, the method may include selecting a pair of candidate vertices constituting a candidate detection frame based on vertex position information in an image in which each vertex is to be detected.

좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 포함한 후보 꼭짓점을 예로 들어, 후보 검출 프레임을 조성할 수 있는 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 선별할 경우, 선별 속도를 향상시키기 위해, 먼저 좌측 상단 꼭짓점 및 우측 하단 꼭짓점이 동일한 타깃 대상 카테고리에 속하는지 여부를 판단할 수 있고, 임의의 좌측 상단 꼭짓점 및 우측 하단 꼭짓점이 동일한 타깃 대상 카테고리에 속하는 것이 결정된 경우, 상기 임의의 좌측 상단 꼭짓점 및 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보가 동일한 후보 검출 프레임을 조성하는지 여부에 대해 계속하여 판단한다.Taking the candidate vertices including the upper left vertex and the lower right vertex as an example, when selecting the upper left vertex and the lower right vertex that can form a candidate detection frame, in order to improve the selection speed, first the upper left vertex and the lower right vertex It can be determined whether or not they belong to the same target target category, and when it is determined that any upper left vertex and lower right vertex belong to the same target target category, the arbitrary upper left vertex and lower right vertex in the image to be detected It is continuously determined whether or not the vertex position information of .

예를 들어, 좌측 상단 꼭짓점이 검출될 이미지에서의 우측 하단 꼭짓점의 좌측 상단에 위치해야 하고, 좌측 상단 꼭짓점 및 우측 하단 꼭짓점의 꼭짓점 위치 정보에 따라, 예를 들어 좌측 상단 꼭짓점이 검출될 이미지에서의 위치 좌표, 및 우측 하단 꼭짓점이 검출될 이미지에서의 위치 좌표에 따라, 좌측 상단 꼭짓점으로 하여금 우측 하단 꼭짓점의 좌측 상단에 위치하지 못할 경우, 상기 좌측 상단 꼭짓점 및 우측 하단 꼭짓점은 후보 꼭짓점 페어를 조성할 수 없다.For example, the upper left vertex should be located at the upper left of the lower right vertex in the image to be detected, and according to the vertex position information of the upper left vertex and the lower right vertex, for example, the upper left vertex in the image to be detected According to the position coordinates and the position coordinates in the image where the lower right vertex is to be detected, if the upper left vertex cannot be located in the upper left of the lower right vertex, the upper left vertex and the lower right vertex can form a pair of candidate vertices. can't

여기서, 검출될 이미지에 좌표계를 설립할 수 있고, 상기 좌표계는 X축 및 Y축을 포함하고, 각 꼭짓점이 상기 좌표계에서의 꼭짓점 위치 정보는 X축 방향에서의 횡좌표값, 및 Y축 방향에서의 종좌표값을 포함하고, 다음 상기 좌표계에서, 각 꼭짓점이 상기 좌표계에 대응되는 좌표값에 따라, 후보 검출 프레임을 조성할 수 있는 좌측 상단 꼭짓점 및 우측 하단 꼭짓점을 선별한다.Here, a coordinate system may be established in the image to be detected, the coordinate system includes an X-axis and a Y-axis, and the vertex position information of each vertex in the coordinate system is an abscissa value in the X-axis direction, and a ordinate in the Y-axis direction. value, and then, in the coordinate system, the upper left vertex and the lower right vertex from which each vertex can form a candidate detection frame are selected according to a coordinate value corresponding to the coordinate system.

단계 S802에 있어서, 각 후보 꼭짓점 페어에서 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 꼭짓점이 가리키는 중심점 위치 정보를 결정한다.In step S802, center point position information indicated by the vertex is determined based on the vertex position information in the image in which each vertex is to be detected in each candidate vertex pair and the centripetal shift tensor corresponding to each vertex.

여기서, 아래 공식(5)에 따라 각 후보 꼭짓점 페어에서 좌측 상단 꼭짓점이 가리키는 중심점 위치 정보를 결정할 수 있고, 아래 공식(6)에 따라 각 후보 꼭짓점 페어에서 우측 하단 꼭짓점이 가리키는 중심점 위치 정보를 결정할 수 있다.Here, according to the formula (5) below, the center point position information pointed to by the upper left vertex in each candidate vertex pair can be determined, and the center point position information pointed to by the lower right vertex in each candidate vertex pair can be determined according to the formula (6) below. have.

Figure pct00015
Figure pct00015

여기서,

Figure pct00016
는 i 번째 좌측 상단 꼭짓점이 가리키는 중심점 위치 정보에서의 X축 방향에 대응되는 횡좌표값을 표시하고,
Figure pct00017
는 i 번째 좌측 상단 꼭짓점이 가리키는 중심점 위치 정보에서의 Y축 방향에 대응되는 종좌표값을 표시하며;
Figure pct00018
는 i 번째 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보에서의 X축 방향에 대응되는 횡좌표값을 표시하고;
Figure pct00019
는 i 번째 좌측 상단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보에서의 Y축방향에 대응되는 종좌표값을 표시하며 ;
Figure pct00020
는i 번째 좌측 상단 꼭짓점의 구심 시프트 텐서에서의 X축 방향의 시프트 값을 표시하고,
Figure pct00021
는 i 번째 좌측 상단 꼭짓점의 구심 시프트 텐서에서의 Y축 방향의 시프트 값을 표시한다.here,
Figure pct00016
represents the abscissa value corresponding to the X-axis direction in the center point position information indicated by the i-th upper left vertex,
Figure pct00017
denotes a ordinate value corresponding to the Y-axis direction in the center point position information indicated by the i-th upper left vertex;
Figure pct00018
denotes an abscissa value corresponding to the X-axis direction in the vertex position information in the image where the i-th upper left vertex is to be detected;
Figure pct00019
denotes the ordinate value corresponding to the Y-axis direction in the vertex position information in the image where the i-th upper left vertex is to be detected;
Figure pct00020
denotes the shift value in the X-axis direction in the centripetal shift tensor of the i-th upper left vertex,
Figure pct00021
denotes the shift value in the Y-axis direction in the centripetal shift tensor of the i-th upper left vertex.

여기서,

Figure pct00022
는 j 번째 우측 하단 꼭짓점이 가리키는 중심점 위치 정보에서의 X축 방향에 대응되는 횡좌표값을 표시하고,
Figure pct00023
는 j 번째 우측 하단 꼭짓점이 가리키는 중심점 위치 정보에서의 Y축 방향에 대응되는 종좌표값을 표시하며;
Figure pct00024
는 j 번째 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보에서의 X축 방향에 대응되는 횡좌표값을 표시하고;
Figure pct00025
는 j 번째 우측 하단 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보에서의 Y축방향에 대응되는 종좌표값을 표시하며 ;
Figure pct00026
는 j 번째 우측 하단 꼭짓점의 구심 시프트 텐서에서의 X축 방향의 시프트 값을 표시하고,
Figure pct00027
는 j 번째 우측 하단 꼭짓점의 구심 시프트 텐서에서의 Y축 방향의 시프트 값을 표시한다.here,
Figure pct00022
represents the abscissa value corresponding to the X-axis direction in the center point position information indicated by the j-th lower right vertex,
Figure pct00023
denotes a ordinate value corresponding to the Y-axis direction in the center point position information indicated by the j-th lower right vertex;
Figure pct00024
denotes an abscissa value corresponding to the X-axis direction in the vertex position information in the image where the j-th lower right vertex is to be detected;
Figure pct00025
denotes a ordinate value corresponding to the Y-axis direction in the vertex position information in the image where the j-th lower right vertex is to be detected;
Figure pct00026
denotes the shift value in the X-axis direction in the centripetal shift tensor of the j-th lower right vertex,
Figure pct00027
denotes the shift value in the Y-axis direction in the centripetal shift tensor of the j-th lower right vertex.

단계 S803에 있어서, 각 후보 꼭짓점 페어에서 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정한다.In step S803, center region information corresponding to the candidate vertex pair is determined based on the vertex position information in the image in which each vertex is to be detected in each candidate vertex pair.

여기서 중심 영역 정보는 기 설정될 수 있고, 타깃 대상의 검출 프레임 중심과 오버랩되는 중심 영역 프레임의 좌표 범위로 정의되며, 상기 중심 영역 프레임의 좌표 범위를 통해 후보 검출 프레임에 유일한 타깃 대상이 포함하는지 여부를 검출할 수 있다.Here, the central region information may be preset, and is defined as a coordinate range of the central region frame overlapping the center of the detection frame of the target object, and whether the only target object is included in the candidate detection frame through the coordinate range of the central region frame can be detected.

예를 들어, 후보 꼭짓점 페어에서, 좌측 상단 꼭짓점이 가리키는 중심점 위치 정보 및 우측 하단 꼭짓점이 가리키는 중심점 위치 정보는 중심 영역 프레임의 좌표 범위내에 위치하고, 상기 중심 영역 프레임의 좌표 범위가 비교적 작을 경우, 좌측 상단 꼭짓점이 가리키는 중심점 위치 정보 및 우측 하단 꼭짓점이 가리키는 중심점 위치 정보가 비교적 가깝다는 것으로 인정함으로써, 상기 후보 꼭짓점이 조성한 후보 검출 프레임은 유일한 타깃 대상을 포함한다는 것을 결정한다.For example, in the candidate vertex pair, when the center point location information pointed to by the upper left vertex and the center point location information pointed to by the lower right vertex are located within the coordinate range of the center area frame, and the coordinate range of the center area frame is relatively small, the upper left By recognizing that the center point position information pointed to by the vertex and the center point position information pointed to by the lower right vertex are relatively close, it is determined that the candidate detection frame generated by the candidate vertex contains the unique target object.

여기서, 상기 각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하는 경우는,Here, when determining the center region information corresponding to the candidate vertex pair based on the vertex position information in the image where each vertex is to be detected in each candidate vertex pair,

(1)상기 후보 꼭짓점 페어에서 각 꼭짓점의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심영역 프레임을 나타내는 꼭짓점 위치 정보를 결정하는 단계; 및(1) determining vertex position information indicating a central region frame corresponding to the candidate vertex pair based on vertex position information of each vertex in the candidate vertex pair; and

(2)중심 영역 프레임의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심영역 프레임의 좌표범위를 결정하는 단계를 포함한다.and (2) determining the coordinate range of the central region frame corresponding to the candidate vertex pair based on the vertex position information of the central region frame.

m 번째 후보 꼭짓점이 i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점으로 조성된 경우, 아래 공식(7)~공식(10)에 따라 상기 m 번째 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 꼭짓점 위치 정보를 결정할 수 있다;When the m-th candidate vertex is composed of the i-th upper left vertex and the j-th lower right vertex, the vertex position information of the central region frame corresponding to the m-th candidate vertex pair is obtained according to formulas (7) to (10) below. can decide;

Figure pct00028
Figure pct00028

여기서,

Figure pct00029
는 m 번째 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 좌측 상단 꼭짓점이 검출될 이미지에서의 X축 방향에서의 횡좌표값을 표시하고;
Figure pct00030
는 m 번째 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 좌측 상단 꼭짓점이 검출될 이미지에서의 Y축 방향에서의 횡좌표값을 표시하며;
Figure pct00031
는 m 번째 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 우측 하단 꼭짓점이 검출될 이미지에서의 X축 방향에서의 횡좌표값을 표시하고;
Figure pct00032
는 m 번째 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 우측 하단 꼭짓점이 검출될 이미지에서의 Y축 방향에서의 횡좌표값을 표시하며;
Figure pct00033
는 중심 영역 프레임의 길이 너비와 후보 검출 프레임의 길이 너비의 비율을 표시하고, 상기 비율은 기설정된 것이고,
Figure pct00034
이다.here,
Figure pct00029
denotes the abscissa value in the X-axis direction in the image in which the upper left vertex of the center region frame corresponding to the m-th candidate vertex pair is to be detected;
Figure pct00030
denotes the abscissa value in the Y-axis direction in the image in which the upper left vertex of the center region frame corresponding to the m-th candidate vertex pair is to be detected;
Figure pct00031
denotes the abscissa value in the X-axis direction in the image in which the lower right vertex of the center region frame corresponding to the m-th candidate vertex pair is to be detected;
Figure pct00032
denotes the abscissa value in the Y-axis direction in the image in which the lower right vertex of the center region frame corresponding to the m-th candidate vertex pair is to be detected;
Figure pct00033
denotes the ratio of the length width of the central region frame to the length width of the candidate detection frame, the ratio being a predetermined one,
Figure pct00034
am.

m 번째 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 꼭짓점 위치 정보를 결정한 후, 아래 공식(11)에 따라 상기 중심 영역 프레임의 좌표 범위를 결정할 수 있다;After determining the vertex position information of the central region frame corresponding to the m-th candidate vertex pair, the coordinate range of the central region frame may be determined according to the following formula (11);

Figure pct00035
Figure pct00035

여기서,

Figure pct00036
는 m 번째 후보 꼭짓점에 대응되는중심 영역 프레임의 좌표 범위를 표시하고, 상기 중심 영역 프레임의 좌표 범위는 X축 방향에서의
Figure pct00037
값, 및 Y축 방향에서의
Figure pct00038
값을 통해 표시되고, 여기서
Figure pct00039
의 범위는
Figure pct00040
를 만족하고,
Figure pct00041
의 범위는
Figure pct00042
를 만족한다.here,
Figure pct00036
denotes the coordinate range of the central region frame corresponding to the m-th candidate vertex, and the coordinate range of the central region frame is in the X-axis direction.
Figure pct00037
value, and in the Y-axis direction
Figure pct00038
It is expressed through a value, where
Figure pct00039
the range of
Figure pct00040
satisfied with
Figure pct00041
the range of
Figure pct00042
is satisfied with

단계 S804에 있어서, 각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정한다.In step S804, the detection frame of the target object in the candidate detection frame is determined based on center point position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair.

각 후보 꼭짓점에 대응되는 중심 영역 정보는 상기 후보 꼭짓점 페어에서, 각 꼭짓점이 가리키는 중심점 위치 정보간의 근접도를 제지하기 위해 사용되고, 특정된 후보 꼭짓점에서의 각 꼭짓점이 가리키는 중심점 위치 정보가 상기 후보 꼭짓점에 대응되는 중심 영역 프레임내에 위치할 경우, 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점이 비교적 가깝고, 후보 꼭짓점이 조성한 후보 검출 프레임에서 포함한 타깃 대상은 유일한 타깃 대상임을 설명할 수 있다.The center region information corresponding to each candidate vertex is used to restrain the proximity between the center point position information indicated by each vertex in the candidate vertex pair, and the center point position information indicated by each vertex in the specified candidate vertex is the candidate vertex. When located within the frame of the corresponding central region, it can be explained that the center points indicated by each vertex in the pair of candidate vertices are relatively close, and the target object included in the candidate detection frame created by the candidate vertex is the only target object.

본 발명의 실시예에서 제기한 타깃 대상의 검출 프레임을 결정하는 방식은, 꼭짓점의 꼭짓점 위치 정보를 통해 먼저 후보 검출 프레임을 조성하는 후보 꼭짓점 페어를 결정한 다음, 상기 후보 꼭짓점 페어에서 각 꼭짓점에 각각 대상되는 구심 시프트 텐서에 기반하여, 후보 검출 프레임이 둘러싼 타깃 대상이 동일한 타깃 대상인지를 판단함으로써, 검출될 이미지에서의 모든 타깃 대상의 검출 프레임을 비교적 정확하게 검출할 수 있다 .The method of determining the detection frame of the target object proposed in the embodiment of the present invention is to first determine a candidate vertex pair constituting a candidate detection frame based on vertex position information of the vertex, and then target each vertex in the candidate vertex pair. The detection frames of all target objects in the image to be detected can be detected relatively accurately by determining whether the target object surrounding the candidate detection frame is the same target object based on the obtained centripetal shift tensor.

여기서, 각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정할 경우, 도 9에 도시된 바와 같이, 아래와 같은 단계 S901 내지 단계 S902를 포함할 수 있다;Here, when determining the detection frame of the target in the candidate detection frame based on the center point position information indicated by each vertex in each candidate vertex pair and the center region information corresponding to the vertex pair, as shown in FIG. Likewise, it may include the following steps S901 to S902;

단계 S901에 있어서, 각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 유효 후보 꼭짓점 페어를 결정한다.In step S901, a valid candidate vertex pair is determined based on center position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair.

여기서, 특정된 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심 위치 정보가, 상기 꼭짓점 페어에 대응되는 중심 영역 프레임내에 위치할 경우, 상기 유효 후보 꼭짓점 페어를 유효 후보 꼭짓점 페어로 사용한다.Here, when the center position information indicated by each vertex in the specified candidate vertex pair is located in the center region frame corresponding to the vertex pair, the valid candidate vertex pair is used as a valid candidate vertex pair.

여기서, 아래 공식(12)를 통해 i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 조성한 후보 꼭짓점 페어가 유효 후보 꼭짓점 페어인지 여부에 대해 판단하고, 즉 i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 조성한 후보 검출 프레임에 대응되는 m 번째 중심 영역 프레임의 좌표 범위와 i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 각각 가리키는 중심점 위치 정보가 아래 공식(12)를 만족하는지 여부에 대해 판단한다.Here, it is determined whether the candidate vertex pair formed by the i-th upper left vertex and the j-th lower right vertex is a valid candidate vertex pair through the following formula (12), that is, the i-th upper left vertex and the j-th lower right vertex are It is determined whether the coordinate range of the m-th center region frame corresponding to the created candidate detection frame and the center point location information indicated by the i-th upper left vertex and the j-th lower right vertex respectively satisfy Equation (12) below.

Figure pct00043
Figure pct00043

i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 조성한 후보 검출 프레임에 대응되는 m 번째 중심 영역 프레임의 좌표 범위와 i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 각각 가리키는 중심점 위치 정보가 이상 공식(12)를 만족할 경우, i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 조성한 후보 꼭짓점 페어는 유효 후보 꼭짓점 페어인 것을 설명한 다음, 계속하여 상기 유효 후보 꼭짓점에 대해 단계S902를 실행하고, 그렇지 않을 경우, i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 조성한 후보 꼭짓점 페어가 무효 후보 꼭짓점 페어일 경우, 유효 후보 꼭짓점 페어를 획득할 때까지, 계속하여 상기 i 번째 좌측 상단 꼭짓점 및 기타 우측 하단 꼭짓점이 유효 후보 꼭짓점 페어를 조성하는 여부에 대해 판단하고, 후속 단계를 실행한다.The coordinate range of the m-th center region frame corresponding to the candidate detection frame created by the i-th upper-left vertex and the j-th lower-right vertex and the center point location information pointed to by the i-th upper-left vertex and the j-th lower-right vertex are determined by the anomaly formula (12 ), it is explained that the candidate vertex pair formed by the i-th upper left vertex and the j-th lower right vertex is a valid candidate vertex pair, and then step S902 is continuously performed for the valid candidate vertex. Otherwise, i If the candidate vertex pair created by the th upper-left vertex and the j-th lower-right vertex is an invalid candidate vertex pair, the i-th upper-left vertex and other lower-right vertices are valid candidate vertices until a valid candidate vertex pair is obtained. A decision is made as to whether to establish a pair, and the subsequent steps are executed.

단계 S902에 있어서, 유효 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보, 유효 후보 꼭짓점 페어에 대응되는 중심 영역 정보, 및 유효 후보 꼭짓점 페어에서 각 꼭짓점에 대응되는 확률값에 기반하여, 각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수를 결정한다.In step S902, each valid candidate vertex pair is based on the center point position information pointed to by each vertex in the valid candidate vertex pair, the center region information corresponding to the valid candidate vertex pair, and the probability value corresponding to each vertex in the valid candidate vertex pair. Determine the score of the candidate detection frame corresponding to .

여기서, 각 꼭짓점에 대응되는 확률값은 상기 꼭짓점이 꼭짓점 히트맵에 대응되는 특징점을 꼭짓점으로 하용하는 확률값을 표시하기 위한 거이다.Here, the probability value corresponding to each vertex is for displaying a probability value in which the vertex uses a feature point corresponding to the vertex heat map as a vertex.

검출될 이미지에 대해 검출을 진행할 경우, 동일한 타깃 대상에 대해 복수 개 후보 검출 프레임이 나타날 경우가 존재할 수 있기에, 일부 후보 검출 프레임이 나타내는 타깃 대상이 검출될 이미지에서의 위치의 정확도가 비교적 낮을수 있고, 여기서, 각 유효 후보 꼭짓점에 대응되는 후보 검출 프레임의 점수를 인용하여, 예를 들어 유효 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점이 조성한 영역 및 유효 후보 꼭짓점에 대응되는 중심 영역 프레임 간의 면적관계, 및 유효 후보 꼭짓점 페어에서 각 꼭짓점에 대응되는 확률값을 통해, 각 유효 후보 꼭짓점에 대응되는 후보 검출 프레임의 점수를 표시하고, 점수가 높은 후보 검출 프레임을 타깃 대상의 검출 프레임으로 사용할 확률이 비교적 높고, 이를 통해 후보 검출 프레임에 대해 선별을 진행한다.When detection is performed on an image to be detected, since there may exist a case where a plurality of candidate detection frames may appear for the same target object, the accuracy of the location of the target object indicated by some candidate detection frames in the image to be detected may be relatively low. , where, by citing the score of the candidate detection frame corresponding to each valid candidate vertex, for example, in the valid candidate vertex pair, the area created by the central point pointed to by each vertex and the central region frame corresponding to the valid candidate vertex are area relations, and The score of the candidate detection frame corresponding to each valid candidate vertex is displayed through the probability value corresponding to each vertex in the valid candidate vertex pair, and the probability of using the high-scoring candidate detection frame as the target target detection frame is relatively high, Through this, selection is performed on candidate detection frames.

여기서, i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 조성한 유효 후보 꼭짓점 페어에 대해, 아래 공식(13)에 따라 상기 유효 후보 꼭짓점에 대응되는 후보 검출 프레임의 점수를 결정할 수 있다:Here, with respect to the valid candidate vertex pair formed by the i-th upper left vertex and the j-th lower right vertex, the score of the candidate detection frame corresponding to the valid candidate vertex can be determined according to the following formula (13):

Figure pct00044
Figure pct00044

여기서,

Figure pct00045
는 i 번째 좌측 상단 꼭짓점 및 j 번째 우측 하단 꼭짓점이 조성한 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수를 표시하고;
Figure pct00046
는 i 번째 좌측 상단 꼭짓점이 좌측 상단 꼭짓점 히트맵에 대응되는 특징점을 좌측 상단 꼭짓점으로 사용하는 확률값을 표시하고;
Figure pct00047
는 j 번째 우측 하단 꼭짓점이 우측 하단 꼭짓점 히트맵에 대응되는 특징점을 우측 하단 꼭짓점으로 사용하는 확률값을 표시한다.here,
Figure pct00045
denotes the score of the candidate detection frame corresponding to the valid candidate vertex pair formed by the i-th upper-left vertex and the j-th lower-right vertex;
Figure pct00046
denotes a probability value in which the i-th upper-left vertex uses a feature point corresponding to the upper-left vertex heat map as the upper-left vertex;
Figure pct00047
denotes a probability value in which the j-th lower right vertex uses a feature point corresponding to the lower right vertex heat map as the lower right vertex.

단계 S903에 있어서, 각 유효 후보 꼭짓점에 대응되는 후보 검출 프레임의 점수, 및 인접 후보 검출 프레임 간의 중첩 영역 크기에 기반하여, 후보 검출 프레임에서의 타깃 대상의 검출 프레임을 결정한다.In step S903, a detection frame of the target object in the candidate detection frame is determined based on the score of the candidate detection frame corresponding to each valid candidate vertex and the size of the overlapping region between adjacent candidate detection frames.

여기서, 중첩 영역은 중첩 영역이 검출될 이미지에서의 크기를 통해 결정할 수 있고, 아래는 각 유효 후보 꼭짓점에 대응되는 후보 검출 프레임의 점수, 및 인접 후보 검출 프레임 간의 중첩 영역에 기반하여, 타깃 대상의 검출 프레임을 선별하는 방법을 소개한다.Here, the overlapping area can be determined based on the size of the image in which the overlapping area is to be detected, and the following is the target target based on the score of the candidate detection frame corresponding to each valid candidate vertex, and the overlapping area between adjacent candidate detection frames. A method of selecting a detection frame is introduced.

여기서, 연식 비극대 억제를 통해 복수 개 후보 검출 프레임에서의 타깃 대상의 검출 프레임을 선별할 수 있고, 여기서, 중첩 영역 임계값을 초과한 복수 개 후보 검출 프레임이 있을 경우, 대응 점수가 제일 높은 후보 검출 프레임을 타깃 대상의 검출 프레임으로 사용할 수 있고, 복수 개 후보 검출 프레임에서의 기타 후보 검출 프레임을 삭제하고, 이로써 검출될 이미지에서의 타깃 대상의 검출 프레임을 획득할 수 있다 .Here, the detection frame of the target object from the plurality of candidate detection frames may be selected through soft band suppression, and when there are a plurality of candidate detection frames exceeding the overlapping region threshold, the candidate with the highest correspondence score The detection frame may be used as the detection frame of the target object, and other candidate detection frames in the plurality of candidate detection frames may be deleted, thereby obtaining the detection frame of the target object in the image to be detected.

전술한 단계 S901 내지 단계 S903은 후보 검출 프레임을 조성하는 후보 꼭짓점 페어에 대해 유효 선별을 실시하는 것을 통해, 하나의 타깃 대상 후보만을 나타내는 후보 검출프레임을 선별하는 것을 결정하고, 다음 이러한 하나의 타깃 대상 후보만을 나타내는 후보 검출프레임에 연식비극대억제 선별을 실시함으로써, 타깃 대상을 나타내는 검출 프레임을 정확하게 획득한다.In steps S901 to S903 described above, it is determined that a candidate detection frame representing only one target target candidate is selected by performing effective selection on the candidate vertex pairs constituting the candidate detection frame, and then, this single target target The detection frame indicating the target object is accurately obtained by performing the maximal suppression selection on the candidate detection frame indicating only the candidate.

검출될 이미지에서의 타깃 대상의 검출 프레임을 획득한 후, 상기 검출 프레임내의 타깃 대상의 인스턴스 정보를 결정할 수 있고, 여기서, 타깃 대상의 검출 프레임 및 검출될 이미지에 대해 특징 추출을 진행하여 획득한 초기 특징맵에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정할 수 있다.After obtaining the detection frame of the target object in the image to be detected, instance information of the target object in the detection frame may be determined, wherein the detection frame of the target object and the initial obtained by performing feature extraction on the image to be detected Instance information of the target object in the image to be detected may be determined based on the feature map.

여기서 인스턴스 정보는 마스크를 통해 표시할 수 있고, 여기서 마스크는 이미지에서의 타깃 대상에 대해 인스턴스 분할을 진행한 후, 픽셀 층면에서 각 타깃 대상의 픽셀을 제공하는 것을 가리키고, 따라서 마스크는 물체의 가장자리까지 정확함으로써, 타깃 대상이 검출될 이미지에서 더욱 정확한 위치를 획득할 수 있고, 이 외에, 또한 마스크는 타깃 대상의 형태를 표시할 수 있는 것에 기반함으로써, 상기 형태에 기반하여 타깃 대상의 카테고리의 결정이 정확한지 여부에 대해 인증할 수 있고, 마스크가 표시한 타깃 대상의 외모에 기반하여, 타깃 대상에 대해 후속 동작 분석을 진행할 수 있으며, 본 발명의 실시예에서는 여기서 더 이상 반복하여 설명하지 않는다.Here, the instance information can be displayed through a mask, where the mask refers to providing the pixels of each target object in terms of the pixel layer, after performing instance segmentation on the target object in the image, so that the mask extends to the edge of the object. By being accurate, it is possible to obtain a more accurate position in the image where the target object is to be detected, in addition, the mask can also indicate the shape of the target object, so that the determination of the category of the target object based on the shape is Whether or not it is correct may be authenticated, and subsequent motion analysis may be performed on the target object based on the appearance of the target object indicated by the mask, which will not be repeated in the embodiment of the present invention.

여기서, 타깃 대상의 검출 프레임 및 검출될 이미지에 대해 특징 추출을 진행하여 획득한 초기 특징맵에 기반하여, 상기 검출될 이미지에서 상기 타깃 대상의 인스턴스 정보를 결정할 경우,Here, when determining the instance information of the target object from the image to be detected based on the initial feature map obtained by performing feature extraction on the detection frame of the target object and the image to be detected,

(1)타깃 대상의 검출 프레임 및 초기 특징맵에 기반하여, 초기 특징맵이 검출 프레임 내에서의 특징점의 특징 데이터를 추출하고;(1) based on the detection frame of the target object and the initial feature map, the initial feature map extracts feature data of feature points in the detection frame;

(2)초기 특징맵이 검출 프레임 내에서의 특징점의 특징 데이터에 기반하여, 검출될 이미지에서의 타깃 대상의 인스턴스 정보를 결정하는 것을 포함한다.(2) the initial feature map determines, based on feature data of feature points in the detection frame, instance information of a target object in an image to be detected.

여기서 타깃 대상의 검출 프레임 및 검출될 이미지에 대응되는 초기 특징맵을 관심 영역 추출 네트워크에 입력하고, 상기 관심 영역 추출 네트워크는 먼저 상기 초기 특징맵 크기가 매칭한 관심 영역을 추출할 수 있고, 다음 관심 정렬 풀링을 통해, 상기 초기 특징맵이 상기 검출 프레임 내에서의(관심 영역) 특징점의 특징 데이터를 획득하고, 다음 상기 초기 특징맵이 검출 프레임 내에서의 특징점의 특징 데이터를 마스크 예측 네트워크에 입력한 다음, 타깃 대상의 인스턴스 정보를 생성할 수 있으며, 상기 인스턴스 정보는 마스크의 형식으로 표시 될수 있고, 다음 상기 타깃 대상의 마스크를 검출될 이미지에서의 타깃 대상 크기까지 스케일업 하여, 검출될 이미지의 타깃 대상의 인스턴스 정보를 획득할 수 있다.Here, the detection frame of the target object and the initial feature map corresponding to the image to be detected are input to the region of interest extraction network, and the region of interest extraction network may first extract the region of interest matching the size of the initial feature map, and then Through alignment pooling, the initial feature map acquires feature data of feature points in the detection frame (region of interest), and then the initial feature map inputs feature data of feature points in the detection frame to the mask prediction network. Next, instance information of the target object may be generated, the instance information may be displayed in the form of a mask, and the mask of the target object is then scaled up to the size of the target object in the image to be detected, and the target of the image to be detected It is possible to obtain instance information of the target.

아래 도10과 결합하여 본 발명의 실시예에서 제기한 타깃 검출 방법에 대해 전반적인 설명을 한다;A general description will be given of the target detection method proposed in the embodiment of the present invention in conjunction with FIG. 10 below;

검출될 이미지를 모래시계 컨볼루션 신경 네트워크에 입력하여, 상기 검출될 이미지에 대응되는 초기 특징맵f를 획득한 다음, 상기 검출될 이미지에서의 타깃 대상에 대해 검출을 진행할 경우, 상기 초기 특징맵f에 대해 꼭짓점 풀링을 진행하여, 꼭짓점 풀링된 특징맵p를 획득함으로써, 상기 꼭짓점 풀링된 특징맵p에 대해 좌측 상단 꼭짓점 검출 및 특징 조정을 진행하여, 상기 좌측 상단 꼭짓점 및 상기 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 획득할 수 있고, 좌측 상단 꼭짓점을 획득하는 과정은 좌측 상단 꼭짓점 검출 네트워크를 통해 결정되고, 상기 좌측 상단 꼭짓점 검출 네트워크는 좌측 상단 꼭짓점 히트맵 예측 네트워크 및 좌측 상단 꼭짓점 로컬 시프트 예측 네트워크를 포함하며(도10에 도시되지 않음), 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 획득하기 전, 먼저 특징 조정 네트워크에 대해 꼭짓점 풀링된 특징맵p에 대해 특징 조정을 진행하고, 상기 과정은 좌측 상단 꼭짓점에 대응되는 가이드 시프트 텐서 및 시프트 도메인 정보를 포함하고, 다음 가변형 컨볼루션 연산에 기반하여, 꼭짓점 풀링된 특징맵p에 대해 조정을 진행하여, 조정된 특징맵g를 획득함으로써, 컨볼루션 연산을 통해, 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서를 결정한다.An image to be detected is input to the hourglass convolutional neural network to obtain an initial feature map f corresponding to the image to be detected, and then, when detection is performed on a target object in the image to be detected, the initial feature map f By performing vertex pooling and obtaining a vertex-pooled feature map p, upper-left vertex detection and feature adjustment are performed on the vertex-pooled feature map p, corresponding to the upper-left vertex and the upper-left vertex. A centripetal shift tensor can be obtained, and the process of obtaining the upper-left vertex is determined through the upper-left vertex detection network, and the upper-left vertex detection network is the upper-left vertex heatmap prediction network and the upper-left vertex local shift prediction network. Including (not shown in Fig. 10), before obtaining the centripetal shift tensor corresponding to the upper left vertex, first, feature adjustment is performed on the vertex-pooled feature map p for the feature adjustment network, and the process is in the upper left The convolution operation is performed by including the guide shift tensor and shift domain information corresponding to the vertices, and performing adjustment on the vertex pooled feature map p based on the following variable convolution operation to obtain an adjusted feature map g. Through this, a centripetal shift tensor corresponding to the upper left vertex is determined.

우측 하단 꼭짓점은 우측 하단 꼭짓점 검출 네트워크를 통해 결정되고, 우측 하단 꼭짓점에 대응되는 구심 시프트 텐서는 특징 조정 및 컨볼루션 연산을 통해 결정되고, 좌측 상단 꼭짓점 및 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서의 결정 과정은 유사하며, 다음 좌측 상단 꼭짓점 및 좌측 상단 꼭짓점에 대응되는 구심 시프트 텐서, 및 우측 하단 꼭짓점 및 우측 하단 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 타깃 대상의 검출 프레임을 공동 결정한다.The lower right vertex is determined through the lower right vertex detection network, the centripetal shift tensor corresponding to the lower right vertex is determined through feature adjustment and convolution operation, and the centripetal shift tensor corresponding to the upper left vertex and the upper left vertex is determined. The process is similar, and based on the centripetal shift tensor corresponding to the next upper left vertex and the upper left vertex, and the centripetal shift tensor corresponding to the lower right vertex and the lower right vertex, the detection frame of the target object is jointly determined.

타깃 대상의 검출 프레임을 획득한 후, 상기 타깃 대상의 검출 프레임 및 초기 특징맵f에 기반하여 관심 영역을 추출함으로써, 상기 관심 영역에 대해 관심 영역 정렬 꼭짓점 풀링을 진행하여, 관심 영역 특징(초기 특징맵이 상기 검출 프레임 내에서의 특징점의 특징 데이터)을 획득하고, 마스크 예측 네트워크에서의 컨볼루션 연산을 통해, 타깃 대상의 마스크를 획득하고, 상기 마스크에 대해 크기 스케일업을 진행한 후, 검출될 이미지와 같은 크기의 마스크를 획득한다(타깃 대상의 인스턴스 정보).After obtaining the detection frame of the target object, by extracting the region of interest based on the detection frame of the target object and the initial feature map f, the region of interest alignment vertex pooling is performed on the region of interest, and the region of interest feature (initial feature The map acquires feature data of feature points in the detection frame), obtains a mask of a target object through convolution operation in a mask prediction network, and scales up the mask to be detected. Obtain a mask of the same size as the image (instance information of the target object).

본 발명의 실시예에서 제기한 타깃 검출 방법을 통해, 타깃 대상의 검출 프레임, 타깃 대상의 마스크 및 타깃 대상의 카테고리를 출력할 수 있고, 기설정된 요구에 따라, 원하는 결과를 얻을수 있으며, 예를 들어 타깃 대상의 검출 프레임을 출력, 또는 타깃 대상의 마스크 이미지를 출력, 또는 타깃 대상의 검출 프레임을 출력할 뿐만아니라, 타깃 대상의 마스크 이미지도 출력하고, 또한 동시에 타깃 대상의 카테고리를 출력하며, 본 발명의 실시예서는 한정을 두지 않는다.Through the target detection method proposed in the embodiment of the present invention, it is possible to output the detection frame of the target object, the mask of the target object, and the category of the target object, and according to a predetermined request, a desired result can be obtained, for example, Outputting the detection frame of the target object, or outputting the mask image of the target object, or outputting the detection frame of the target object, outputting the mask image of the target object, and simultaneously outputting the category of the target object, according to the present invention Examples of is not limited.

본 발명의 실시예의 타깃 검출 방법은 신경 네트워크를 통해 구현할 수 있고, 신경 네트워크는 라벨링 타깃 샘플 대상을 포함하는 샘플 이미지를 이용하여 훈련하여 획득한 것이다.The target detection method of the embodiment of the present invention can be implemented through a neural network, and the neural network is acquired by training using a sample image including a labeling target sample object.

여기서, 도 11에 도시된 바와 같이, 본 발명의 실시예가 제기한 타깃 검출 방법의 신경 네트워크는 단계 S1101 내지 단계 S1104를 포함한다;Here, as shown in Fig. 11, the neural network of the target detection method proposed by the embodiment of the present invention includes steps S1101 to S1104;

단계 S1101에 있어서, 샘플 이미지를 획득한다.In step S1101, a sample image is acquired.

여기서 샘플 이미지는 라벨링 타깃 샘플 대상의 양의 샘플를 포함할 수 있고, 및 타깃 샘플 대상의 음의 샘플을 포함하지 않으며, 양의 샘플이 포함한 타깃 대상은 복 수개의 카테고리를 포함할 수 있다.Here, the sample image may include a positive sample of the labeling target sample object, and does not include a negative sample of the target sample object, and the target object included in the positive sample may include a plurality of categories.

여기서, 라벨링 타깃 샘플 대상의 양의 샘플은 검출 프레임 라벨링을 통과한 타깃 샘플 대상, 및 마스크 라벨링을 통과한 타깃 샘플 대상으로 나뉜다.Here, the positive sample of the labeling target sample object is divided into a target sample object that has passed detection frame labeling, and a target sample object that has passed mask labeling.

단계 S1102에 있어서, 샘플 이미지에 기반하여, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서를 결정하고, 샘플 꼭짓점은 샘플 이미지에서의 타깃 샘플 대상의 위치를 나타낸다.In step S1102, based on the sample image, each sample vertex determines vertex position information in the sample image and a centripetal shift tensor corresponding to each sample vertex, and the sample vertex indicates the position of the target sample object in the sample image. .

여기서, 샘플 이미지에 기반하여, 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보, 및 각 샘플 꼭짓점에 각각 대응되는 구심 시프트 텐서의 과정을 결정하고, 전술한 바와 같이 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보, 및 각 꼭짓점에 각각 대응되는 구심 시프트 텐서의 결정방식과 같으므로, 여기서 더 이상 반복하여 설명하지 않는다.Here, based on the sample image, the sample vertices determine the vertex position information in the sample image, and the process of the centripetal shift tensor respectively corresponding to each sample vertex, and as described above, vertex position information in the image where the vertices are to be detected. Since it is the same as the determination method of the centripetal shift tensor corresponding to each vertex, , and , the description is not repeated here.

단계 S1103에 있어서, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 샘플 이미지에서의 타깃 샘플 대상을 예측한다.In step S1103, a target sample object in the sample image is predicted based on the vertex position information of each sample vertex in the sample image and the centripetal shift tensor corresponding to each sample vertex.

여기서, 샘플 이미지에서의 타깃 샘플 대상을 예측하는 과정은 전술한 바와 같이 검출될 이미지에서의 타깃 대상을 결정하는 방식과 같으므로, 여기서 더 이상 반복하여 설명하지 않는다.Here, since the process of predicting the target sample object in the sample image is the same as the method of determining the target object in the image to be detected as described above, it will not be repeatedly described herein.

단계 S1104에 있어서, 예측된 샘플 이미지에서의 타깃 샘플 대상 및 샘플 이미지에서의 라벨링 타깃 샘플 대상에 기반하여, 신경 네트워크의 네트워크 파라미터에 대해 조정을 진행한다.In step S1104, based on the predicted target sample object in the sample image and the labeling target sample object in the sample image, a network parameter of the neural network is adjusted.

여기서, 손실 함수를 인용하여 타깃 샘플 대상을 예측할 경우에 대응되는 손실값을 결정할 수 있고, 여러차례의 훈련을 거친 후, 손실값을 통해 신경 네트워크의 네트워크 파라미터 값에 대해 조정을 진행하고, 예를 들어 손실값을 설정된 임계값보다 작도록 할 경우, 훈련을 멈춤으로써, 신경 네트워크의 네트워크 파라미터 값을 획득할 수 있다.Here, it is possible to determine the corresponding loss value when predicting the target sample object by citing the loss function, and after training several times, adjust the network parameter value of the neural network through the loss value, for example, When the loss value is set to be smaller than the set threshold, the network parameter value of the neural network can be obtained by stopping the training.

또한, 타깃 샘플 대상의 검출 프레임, 및 타깃 샘플 대상의 마스크, 및 타깃 샘플 대상의 카테고리를 결정하는 과정은, 전술한 바와 같이 타깃 대상의 검출 프레임, 타깃 대상의 마스크 및 타깃 대상의 카테고리를 결정하는 과정과 유사하므로, 여기서 더 이상 반복하여 설명하지 않는다.In addition, the process of determining the detection frame of the target sample object, the mask of the target sample object, and the category of the target sample object, as described above, includes determining the detection frame of the target object, the mask of the target object, and the category of the target object as described above. Since it is similar to the process, it will not be repeated here any longer.

본 발명의 실시예에서 제공한 신경 네트워크의 훈련방법은, 샘플 이미지 획득을 통해, 상기 샘플 이미지에 기반하여, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보, 및 각 샘플 꼭짓점에 각각 대응되는 구심 시프트 텐서를 결정함으로써, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 샘플 이미지에서의 타깃 샘플 대상을 검출하는데, 이는 샘플 꼭짓점은 이미지에서의 주요 특징점을 가리키기 때문이며, 예를 들어 샘플 꼭짓점은 좌측 상단 샘플 꼭짓점 및 우측 하단 샘플 꼭짓점을 포함할 수 있고, 여기서, 여기서 좌측 상단 샘플 꼭짓점은 타깃 샘플 대상의 상부 윤곽에 대응되는 선과 타깃 샘플 대상의 좌측 윤곽에 대응되는 선의 교차점을 가리키고, 우측 하단 샘플 꼭짓점은 타깃 샘플 대상의 하부 윤곽에 대응되는 선과 타깃 샘플 대상의 우측 윤곽에 대응되는 선의 교차점을 가리키며, 좌측 상단 샘플 꼭짓점과 우측 하단 샘플 꼭짓점이 동일한 타깃 샘플 대상의 검출 프레임 일 경우, 좌측 상단 샘플 꼭짓점 및 우측 하단 샘플 꼭짓점에 각각 대응되는 구심 시프트 텐서가 가리키는 위치가 비교적 가까울 수가 있기에, 따라서, 본 발명의 실시예에서 제기한 신경 네트워크의 훈련방법은, 타깃 샘플 대상의 샘플 이미지에서의 위치를 나타내는 꼭짓점의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 동일한 타깃 샘플 대상에 속하는 샘플 꼭짓점을 결정하고, 결정된 샘플 꼭짓점에 기반하여 동일한 타깃 샘플 대상을 검출할수 있으며, 샘플 이미지에서의 라벨링 대상에 기반하여, 계속하여 신경 네트워크 파라미터 값을 조절하는 것을 통해, 정확도가 비교적 높은 신경 네트워크를 획득할 수 있고, 정확도가 비교적 높은 신경 네트워크에 기반하여 타깃 대상을 정확하게 검출할 수 있다.The training method of the neural network provided in the embodiment of the present invention is based on the sample image through sample image acquisition, vertex position information of each sample vertex in the sample image, and centripetal shift corresponding to each sample vertex. By determining the tensor, each sample vertex detects a target sample object in the sample image based on the vertex position information in the sample image and the centripetal shift tensor corresponding to each sample vertex, where the sample vertex is a key feature point in the image. For example, the sample vertex may include an upper-left sample vertex and a lower-right sample vertex, where the upper-left sample vertex is a line corresponding to the upper contour of the target sample object and the left contour of the target sample object. indicates the intersection of the lines corresponding to , and the lower right sample vertex points to the intersection of the line corresponding to the lower contour of the target sample object and the line corresponding to the right contour of the target sample object, and the upper left sample vertex and the lower right sample vertex are the same target sample In the case of the target detection frame, the positions indicated by the centripetal shift tensors corresponding to the upper left sample vertex and the lower right sample vertex may be relatively close. Based on the vertex position information of the vertices indicating the position of the sample object in the sample image and the centripetal shift tensor corresponding to each sample vertex, the sample vertices belonging to the same target sample object are determined, and the same target sample is determined based on the determined sample vertices. A target can be detected, and a neural network with relatively high accuracy can be obtained by continuously adjusting the neural network parameter value based on the labeling target in the sample image, and a target based on the neural network with relatively high accuracy can be obtained. The target can be accurately detected.

당업자는 상기 방법에서, 각 단계의 기록 순서가 엄격한 실행 순서를 의미하지 않으며 실시 과정에서 어떠한 제한도 구성하지 않고, 각 단계의 실행 순서는 기능 및 가능한 내부 놀리에 따라 결정하는 것으로 이해할 수 있다.A person skilled in the art can understand that in the above method, the recording order of each step does not imply a strict execution order and does not constitute any limitation in the implementation process, and the execution order of each step is determined according to a function and a possible internal logic.

동일한 기술적 사상에 기반하여, 본 발명의 실시예는 타깃 검출 방법에 대응되는 타깃 검출 장치를 더 제공하고, 본 발명의 실시예에서의 장치의 기술원리가 본 발명의 실시예에 따른 타기 검출 방법과 유사하므로, 장치의 실시는 방법의 실시를 참조할 수 있고, 중복되는 부분은 더이상 반복하여 설명하지 않는다.Based on the same technical idea, the embodiment of the present invention further provides a target detection apparatus corresponding to the target detection method, and the technical principle of the apparatus in the embodiment of the present invention is similar to that of the other detection method according to the embodiment of the present invention. Therefore, the implementation of the apparatus may refer to the implementation of the method, and overlapping parts are not described repeatedly.

도 12에 도시된 바를 참조하면, 본 발명의 실시예에서 제공한 타깃 검출장치(1200)의 예시도로, 장치는 획득부(1201), 결정부(1202), 검출부(1203) 를 포함한다.Referring to FIG. 12 , it is an exemplary view of a target detection apparatus 1200 provided in an embodiment of the present invention, and the apparatus includes an acquisition unit 1201 , a determination unit 1202 , and a detection unit 1203 .

여기서, 획득부(1201)는 검출될 이미지를 획득하고; Here, the acquiring unit 1201 acquires an image to be detected;

결정부(1202)는 검출될 이미지에 기반하여, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하고 - 꼭짓점은 검출될 이미지에서의 타깃 대상의 위치를 나타냄 - ;The determining unit 1202 determines, based on the image to be detected, vertex position information in the image where each vertex is to be detected, and a centripetal shift tensor corresponding to each vertex - the vertex indicates the position of the target object in the image to be detected - ;

검출부(1203)는 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하도록 구성된다.The detection unit 1203 is configured to determine a target object in the image to be detected based on vertex position information in the image where each vertex is to be detected and a centripetal shift tensor corresponding to each vertex.

한 가지 가능한 실시형태에 있어서, 결정부(1202)는,In one possible embodiment, the decision unit 1202 comprises:

검출될 이미지에 대해 특징 추출을 진행하여, 검출될 이미지에 대응되는 초기 특징맵을 획득하고;performing feature extraction on the image to be detected to obtain an initial feature map corresponding to the image to be detected;

초기 특징맵에 대해 꼭짓점 풀링을 진행하여, 꼭짓점 풀링된 특징맵을 획득하며;vertex pooling is performed on the initial feature map to obtain a vertex pooled feature map;

꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보, 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하도록 구성된다.and to determine vertex position information in an image where each vertex is to be detected, and a centripetal shift tensor corresponding to each vertex, based on the vertex pooled feature map.

한 가지 가능한 실시형태에 있어서, 결정부(1202)가 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보를 결정하도록 구성될 경우, 상기 결정부는,In one possible embodiment, when the determiner 1202 is configured to determine vertex position information in the image where each vertex is to be detected, based on the vertex pooled feature map, the determiner comprises:

꼭짓점 풀링된 특징맵에 기반하여, 검출될 이미지에 대응되는 꼭짓점 히트맵을 생성하고;generating a vertex heatmap corresponding to the image to be detected based on the vertex pooled feature map;

꼭짓점 히트맵에 기반하여, 꼭짓점 히트맵에서 각 특징점을 꼭짓점으로 사용하는 확률값을 결정하고, 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여 꼭지점 히트맵의 특징점에서 꼭짓점을 선별하고;based on the vertex heat map, determining a probability value using each feature point as a vertex in the vertex heat map, and selecting vertices from the feature points of the vertex heat map based on the probability value using each feature point as a vertex;

선별된 각 꼭짓점이 꼭짓점 히트맵에서의 위치 정보 및 각 꼭짓점에 대응되는 로컬 시프트 정보를 획득하며 - 로컬 시프트 정보는 대응되는 꼭짓점이 나타내는 실제 물리점이 상기 꼭짓점 히트맵에서의 위치 시프트 정보를 표시하기 위해 사용됨 - ;Each selected vertex acquires position information in the vertex heat map and local shift information corresponding to each vertex - The local shift information is used for displaying position shift information in the vertex heat map at the actual physical point indicated by the corresponding vertex. Used - ;

획득한 각 꼭짓점이 꼭짓점 히트맵에서의 위치 정보, 각 꼭짓점에 대응되는 로컬 시프트 정보, 및 꼭짓점 히트맵 및 검출될 이미지 간의 크기 비율에 기반하여 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정하도록 구성된다.Each vertex determines the vertex position information in the to-be-detected image based on the obtained position information in the vertex heatmap, local shift information corresponding to each vertex, and the size ratio between the vertex heatmap and the image to be detected. configured to do

한 가지 가능한 실시형태에 있어서, 결정부(1202)가 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하도록 구성될 경우, 상기 결정부는,In one possible embodiment, when the determining unit 1202 is configured to determine a centripetal shift tensor corresponding to each vertex based on the vertex pooled feature map, the determining unit comprises:

꼭짓점 풀링된 특징맵에 기반하여, 꼭짓점 풀링된 특징맵에서의 각 특징점에 대응되는 가이드 시프트 텐서를 결정하고 - 각 특징점에 대응되는 가이드 시프트 텐서는 특징점이 가리키는 상기 검출될 이미지에서의 타깃 대상 중심점 시프트 텐서를 나타냄 - ;Based on the vertex-pooled feature map, a guide shift tensor corresponding to each feature in the vertex-pooled feature map is determined; represents a tensor - ;

각 특징점에 대응되는 가이드 시프트 텐서에 기반하여, 특징점의 시프트 도메인 정보를 결정하고 - 시프트 도메인 정보에는 상기 특징점과 연관된 복수 개의 초기 특징점들에 각각 대응되는 시프트후 특징점의 시프트 텐서를 가리키는 것을 포함함 - ;Determining shift domain information of the feature point based on the guide shift tensor corresponding to each feature point - The shift domain information includes indicating the shift tensor of the feature point after shift corresponding to a plurality of initial feature points associated with the feature point - ;

꼭짓점 풀링된 특징맵 및 상기 꼭짓점 풀링된 특징맵에서의 특징점의 시프트 도메인 정보에 기반하여, 꼭짓점 풀링된 특징맵에서의 특징점의 특징 데이터에 대해 조정을 진행하여, 조정된 특징맵을 획득하며;based on the vertex pooled feature map and the shift domain information of the feature points in the vertex pooled feature map, adjusting the feature data of the feature points in the vertex pooled feature map to obtain an adjusted feature map;

조정된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 획득하도록 구성된다.Based on the adjusted feature map, it is configured to obtain a centripetal shift tensor corresponding to each vertex.

한 가지 가능한 실시형태에 있어서, 검출될 이미지에 대응되는 꼭짓점 히트맵은 복수 개 채널에 각각 대응되는 꼭짓점 히트맵을 포함하고, 복수 개 채널에서의 각 채널은 한가지 사전 설정 대상 카테고리에 대응하고; 결정부(1202)가 꼭짓점 히트맵에 기반하여, 꼭짓점 히트맵에서 각 특징점을 꼭짓점으로 사용하는 확률값을 결정하도록 구성될 경우, 상기 결정부는 또한,In one possible embodiment, the vertex heatmap corresponding to the image to be detected comprises a vertex heatmap respectively corresponding to a plurality of channels, each channel in the plurality of channels corresponding to one preset target category; When the determining unit 1202 is configured to determine a probability value of using each feature point as a vertex in the vertex heat map based on the vertex heat map, the determining unit further includes:

다수 채널에서의 각 채널에 대해, 해당 채널에 대응되는 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 해당 채널에 대응되는 꼭짓점 히트맵에 꼭짓점 존재여부를 결정하고;for each channel in the plurality of channels, based on a probability value using each feature point in the vertex heatmap corresponding to the channel as a vertex, determining whether a vertex exists in the vertex heatmap corresponding to the channel;

상기 채널에 대응되는 꼭짓점 히트맵에 꼭짓점이 존재할 경우, 검출될 이미지에 상기 채널에 대응되는 사전 설정 대상 카테고리의 타깃 대상이 포함된다고 결정하도록 구성된다.and determine that, when a vertex exists in the vertex heatmap corresponding to the channel, a target object of a preset object category corresponding to the channel is included in the image to be detected.

한 가지 가능한 실시형태에 있어서, 검출부는 또한,In one possible embodiment, the detection unit further comprises:

각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하도록 구성된다.and determine a detection frame of a target object in the image to be detected, based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex.

한 가지 가능한 실시형태에 있어서, 검출부(1203)가 상기 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하도록 구성될 경우, 상기 검출부는,In one possible embodiment, the detection unit 1203 determines the detection frame of the target object in the image to be detected based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex. When configured to determine, the detection unit,

각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 후보 검출 프레임을 구성하는 후보 꼭짓점 페어를 선별하고;selecting a pair of candidate vertices constituting a candidate detection frame based on vertex position information in an image in which each vertex is to be detected;

각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 꼭짓점이 가리키는 중심점 위치 정보를 결정하고;determining center point location information indicated by the vertex based on the vertex location information in the image where each vertex is to be detected in each candidate vertex pair and the centripetal shift tensor corresponding to each vertex;

각 후보 꼭짓점 페어에서 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하며;determining center region information corresponding to the candidate vertex pair based on vertex position information in an image in which each vertex is to be detected in each candidate vertex pair;

각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정하도록 구성된다.and determine the detection frame of the target object in the candidate detection frame based on center point position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair.

한 가지 가능한 실시형태에 있어서, 검출부(1203)가 각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하도록 구성될 경우, 상기 검출부는,In one possible embodiment, when the detection unit 1203 is configured to determine center region information corresponding to the candidate vertex pair based on the vertex position information in the image where each vertex is to be detected in each candidate vertex pair , the detection unit,

상기 후보 꼭짓점 페어에서 각 꼭짓점의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 프레임을 나타내는 꼭짓점 위치 정보를 결정하고;determining vertex position information indicating a central region frame corresponding to the candidate vertex pair based on vertex position information of each vertex in the candidate vertex pair;

중심 영역 프레임의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 좌표 범위를 결정하도록 구성된다.and determine a coordinate range of the central region frame corresponding to the candidate vertex pair based on the vertex position information of the central region frame.

한 가지 가능한 실시형태에 있어서, 검출부(1203)가 상기 각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서의 상기 타깃 대상의 검출 프레임을 결정하도록 구성될 경우, 상기 검출부는,In one possible embodiment, the detection unit 1203 determines the target target in the candidate detection frame based on center point position information pointed to by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair. When configured to determine a detection frame, the detection unit,

각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 유효 후보 꼭짓점 페어를 결정하고;determining a valid candidate vertex pair based on center position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair;

유효 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보, 유효 후보 꼭짓점 페어에 대응되는 중심 영역 정보, 및 상기 유효 후보 꼭짓점 페어에서 각 꼭짓점에 대응되는 확률값에 기반하여, 각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수를 결정하며 - 각 꼭짓점에 대응되는 확률값은 상기 꼭짓점이 꼭짓점 히트맵에 대응되는 특징점을 꼭짓점으로 사용하는 확률값을 표시하기 위해 사용됨 - ;Candidates corresponding to each valid candidate vertex pair based on center point position information pointed to by each vertex in the valid candidate vertex pair, center region information corresponding to the valid candidate vertex pair, and a probability value corresponding to each vertex in the valid candidate vertex pair determining a score of the detection frame, wherein a probability value corresponding to each vertex is used to indicate a probability value in which the vertex uses a feature point corresponding to a vertex heat map as a vertex;

각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수 및 인접 후보 검출 프레임 간의 중첩 영역 크기에 기반하여 후보 검출 프레임에서의 타깃 대상의 검출 프레임을 결정하도록 구성된다.and determine the detection frame of the target object in the candidate detection frame based on the score of the candidate detection frame corresponding to each valid candidate vertex pair and the size of the overlapping region between the adjacent candidate detection frames.

한 가지 가능한 실시형태에 있어서, 검출부(1203)는 또한,In one possible embodiment, the detection unit 1203 is also

검출될 이미지에서의 타깃 대상의 검출 프레임을 결정한 후, 타깃 대상의 검출 프레임 및 검출될 이미지에 특징 추출을 진행하여 획득한 초기 특징맵에 기반하여, 검출될 이미지에서의 타깃 대상의 인스턴스 정보를 결정하도록 구성된다.After determining the detection frame of the target object in the image to be detected, the instance information of the target object in the image to be detected is determined based on the detection frame of the target object and the initial feature map obtained by performing feature extraction on the image to be detected configured to do

한 가지 가능한 실시형태에 있어서, 검출부(1203)가 상기 타깃 대상의 검출 프레임 및 상기 검출될 이미지에 특징 추출을 진행하여 초기 특징맵을 획득하는 것에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정하도록 구성될 경우, 상기 검출부는,In one possible embodiment, based on the detection unit 1203 performing feature extraction on the detection frame of the target object and the image to be detected to obtain an initial feature map, When configured to determine instance information, the detection unit,

타깃 대상의 검출 프레임 및 초기 특징맵에 기반하여, 초기 특징맵이 검출 프레임 내에서의 특징점의 특징 데이터를 추출하고;based on the detection frame of the target object and the initial feature map, the initial feature map extracts feature data of feature points in the detection frame;

초기 특징맵이 검출 프레임 내에서의 특징점의 특징 데이터에 기반하여, 검출될 이미지에서의 타깃 대상의 인스턴스 정보를 결정하도록 구성된다.The initial feature map is configured to determine instance information of the target object in the image to be detected, based on the feature data of the feature points in the detection frame.

한 가지 가능한 실시형태에 있어서, 타깃 검출장치(1200)는 신경 네트워크 훈련부(1204)를 더 포함하고, 상기 신경 네트워크 훈련부(1204)는,In one possible embodiment, the target detection device 1200 further comprises a neural network training unit 1204, the neural network training unit 1204 comprising:

타깃 검출을 진행하기 위한 신경 네트워크를 훈련하도록 구성된고, 신경 네트워크는 라벨링 타깃 샘플 대상을 포함한 샘플 이미지를 이용하여 훈련하여 획득한다.It is configured to train a neural network for target detection, and the neural network is acquired by training using a sample image including a labeling target sample object.

한 가지 가능한 실시형태에 있어서, 신경 네트워크 훈련부(1204)는,In one possible embodiment, the neural network training unit 1204 comprises:

샘플 이미지를 획득하고; acquiring a sample image;

샘플 이미지에 기반하여, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서를 결정하고 - 샘플 꼭짓점은 상기 샘플 이미지에서의 타깃 샘플 대상의 위치를 나타냄 - ;based on the sample image, each sample vertex determines vertex position information in the sample image and a centripetal shift tensor corresponding to each sample vertex, wherein the sample vertex indicates a position of a target sample object in the sample image;

각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 샘플 이미지에서의 타깃 샘플 대상을 예측하고;predict a target sample object in the sample image based on the vertex position information of each sample vertex in the sample image and the centripetal shift tensor corresponding to each sample vertex;

예측된 샘플 이미지에서의 타깃 샘플 대상과 샘플 이미지에서의 라벨링 타깃 샘플 대상에 기반하여, 상기 신경 네트워크의 네트워크 파라미터 값을 조정하도록 구성된다.and adjust a network parameter value of the neural network based on the predicted sample object in the sample image and the labeling target sample object in the sample image.

본 발명의 실시예 및 기타 실시예에 있어서, “부분”은 부분 회로, 부분 프로세서, 부분 프로그램 또는 소프트웨어 등일 수 있으며, 물론 유닛일 수도 있고, 모듈 방식 또는 비모듈 방식일수도 있다는 것이다.In the embodiments of the present invention and other embodiments, a “part” may be a partial circuit, a partial processor, a partial program or software, etc., of course, may be a unit, and may be modular or non-modular.

도 에서의 타깃 검출 방법에 대응하여, 본 발명의 실시예는 전자 기기 (1300)를 더 제공하고, 도 13 도시된 바와 같이, 본 발명의 실시예에서 제공한 전자 기기(1300) 구조 예시도이고, 상기 전자 기기(1300)는, Corresponding to the target detection method in FIG. 13 , the embodiment of the present invention further provides an electronic device 1300 , and as shown in FIG. 13 , it is an exemplary diagram of the structure of the electronic device 1300 provided in the embodiment of the present invention. , the electronic device 1300,

프로세서(1301), 메모리(1302), 및 버스(1303)를 포함하고; 메모리(1302)는 실행 명령어를 저장하도록 구성되고, 내부 저장소(13021) 및 외부 메모리(13022)를 포함하며; 여기서 내부 저장소(13021)는 내부 메모리로도 지칭되고, 프로세서(1301)에서의 연산 데이터, 및 하드웨어 등 외부 메모리(13022)와 교환되는 데이터를 잠시 저장하고, 프로세서(1301)는 내부 저장소(13021)를 통해 외부 메모리(13022)와 데이터 교환을 진행하도록 구성되며, 상기 전자 기기(1300)가 작동되는 경우, 프로세서(1301)와 메모리(1302) 사이는 버스(1303)를 통해 통신하고, 기계 판독 가능한 명령어가 프로세서(1301)에 의해 실행될 경우, 상기 프로세스는includes a processor 1301 , a memory 1302 , and a bus 1303 ; the memory 1302 is configured to store executable instructions, and includes an internal storage 13021 and an external memory 13022; Here, the internal storage 13021 is also referred to as an internal memory, and temporarily stores data exchanged with the external memory 13022 such as operation data in the processor 1301 and hardware, and the processor 1301 is the internal storage 13021 . is configured to exchange data with the external memory 13022 through When the instruction is executed by the processor 1301, the process

검출될 이미지를 획득하는 것;acquiring an image to be detected;

상기 검출될 이미지에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 것 - 꼭짓점은 상기 검출될 이미지에서의 타깃 대상의 위치를 나타냄 - ;determining, based on the image to be detected, vertex position information in which each vertex is in the image to be detected and a centripetal shift tensor corresponding to each vertex, wherein the vertex represents the position of a target object in the image to be detected;

각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 검출될 이미지에서의 타깃 대상을 결정하는 것을 실행한다.Based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex, a target object in the image to be detected is determined.

본 발명의 실시예는 컴퓨터 판독 가능한 저장 매체를 더 제공하고, 상기 컴퓨터 판독 가능한 저장 매체에는 컴퓨터 프로그램이 저장되어 있으며, 상기 컴퓨터 프로그램이 프로세서에 의해 작동될 경우 상기 방법 실시예에 따른 타깃 검출 방법의 단계를 실행한다. 여기서, 상기 컴퓨터 판독 가능한 저장 매체는 휘발성 컴퓨터 판독 가능한 또는 비휘발성 컴퓨터 판독 가능한 저장 매체일 수 있다.An embodiment of the present invention further provides a computer readable storage medium, the computer program is stored in the computer readable storage medium, and when the computer program is operated by a processor, the target detection method according to the embodiment of the method run the steps Here, the computer-readable storage medium may be a volatile computer-readable or non-volatile computer-readable storage medium.

본 발명의 실시예는 컴퓨터 판독 가능 코드를 포함한 컴퓨터 프로그램을 더 제공하며, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 작동될 경우, 상기 전자 기기에서의 프로세서는 상기 제1 측면의 타깃 검출 방법 단계를 구현하기 위한 것이다.An embodiment of the present invention further provides a computer program including a computer readable code, wherein when the computer readable code is run in an electronic device, the processor in the electronic device implements the target detection method step of the first aspect it is to do

본 발명의 실시예에서 제공한 타깃 검출 방법의 컴퓨터 프로그램 제품은, 프로그램 코드가 기록된 컴퓨터 판독 가능한 저장 매체를 포함하며, 상기 프로그램 코드에 포함된 명령어는 상기 방법 실시예에 따른 타깃 검출 방법의 단계를 실행하는데 사용될 수 있으며, 상기 방법 실시예를 참조할 수 있고, 여기서 더이상 반복하여 설명하지 않는다.The computer program product of the target detection method provided in the embodiment of the present invention includes a computer-readable storage medium in which a program code is recorded, and the instructions included in the program code are the steps of the target detection method according to the embodiment of the method. may be used to perform the above method, and reference may be made to the above method embodiments, which will not be repeatedly described herein.

본 발명의 실시예는 컴퓨터 프로그램을 더 제공하고, 상기 컴퓨터프로그램이 프로세서에 의해 실행될 경우 상기 실시예의 임의의 방법을 구현한다. 상기 컴퓨터 프로그램 제품은 구체적으로 하드웨어, 소프트웨어 또는 이들의 조합을 통해 구현될 수 있다. 일부 실시예에서, 상기 컴퓨터 프로그램 제품은 구체적으로 컴퓨터 저장 매체로 구현되며, 다른 일부 실시예에서, 상기 컴퓨터 프로그램 제품은 구체적으로 소프트웨어 개발 키트(Software Development Kit, SDK) 등과 같은 소프트웨어 제품으로 구현된다.An embodiment of the present invention further provides a computer program, and when the computer program is executed by a processor, any method of the above embodiment is implemented. The computer program product may be specifically implemented through hardware, software, or a combination thereof. In some embodiments, the computer program product is specifically implemented as a computer storage medium, and in some other embodiments, the computer program product is specifically implemented as a software product such as a Software Development Kit (SDK) or the like.

본 기술분야의 통상의 기술자는 설명의 편의 및 간결함을 위해, 상기 설명된 시스템, 장치의 동작 과정이, 전술된 방법 실시예 중 대응되는 과정을 참조할 수 있음을 이해할 수 있으며, 여기서 반복적으로 설명하지 않는다. 본 발명에서 제공된 몇 개의 실시예에 있어서, 개시된 시스템, 장치 및 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 전술된 장치 실시예는 다만 예시적이며, 예를 들어, 상기 유닛에 대한 분할은 다만 논리적 기능 분할이고, 실제로 구현될 경우 다른 분할 방식이 있을 수 있으며, 또 예를 들어, 복수 개의 유닛 또는 컴포넌트는 다른 시스템에 결합되거나 통합될 수 있거나, 일부 특징을 무시하거나 실행하지 않을 수 있다. 또한, 나타내거나 논의된 상호간의 결합 또는 직접 결합 또는 통신 연결은, 일부 통신 인터페이스를 통해 구현되며, 장치 또는 유닛을 통한 간접 결합 또는 통신 연결은, 전기, 기계 또는 다른 형태일 수 있다.A person of ordinary skill in the art may understand that, for convenience and conciseness of the description, the operation process of the above-described system and apparatus may refer to a corresponding process among the above-described method embodiments, which will be described repeatedly I never do that. In the several embodiments provided herein, it should be understood that the disclosed systems, apparatuses, and methods may be implemented in other ways. The above-described device embodiment is merely exemplary, for example, the division for the unit is merely logical function division, and when actually implemented, there may be other division methods, and for example, a plurality of units or components may be It may be combined or integrated into other systems, or some features may be ignored or not implemented. Further, any coupling or direct coupling or communication connection between each other, shown or discussed, is implemented through some communication interface, and the indirect coupling or communication connection through a device or unit may be electrical, mechanical, or other form.

상기 분리 부재로서 설명된 유닛은, 물리적으로 분리된 것이거나 아닐 수 있고, 유닛으로서 나타낸 부재는 물리적 유닛이거나 아닐 수 있고, 즉 한 곳에 위치할 수 있거나, 복수 개의 네트워크 유닛에 분포될 수도 있다. 실제 필요에 따라 유닛의 일부 또는 전부를 선택하여 본 실시예 방안의 목적을 구현할 수 있다.The unit described as the separation member may or may not be physically separated, and the member shown as a unit may or may not be a physical unit, that is, it may be located in one place or may be distributed in a plurality of network units. According to actual needs, some or all of the units may be selected to implement the purpose of the present embodiment method.

또한, 본 발명의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 통합될 수 있고, 각 유닛이 독립적인 물리적 존재일 수도 있고, 두 개 또는 두 개 이상의 유닛이 한 유닛에 통합될 수도 있다.In addition, each functional unit in each embodiment of the present invention may be integrated into one processing unit, each unit may be an independent physical entity, and two or two or more units may be integrated into one unit. .

상기 기능이 소프트웨어 기능 유닛의 형태로 구현되고 단독적인 제품으로 판매되거나 사용될 경우, 하나의 프로세서가 실행 가능한 비휘발성 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 발명의 기술 방안, 즉 종래 기술에 기여하는 부분 또는 상기 기술 방안의 일부는 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 하나의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음)로 하여금 본 발명의 각 실시예의 상기 방법의 전부 또는 일부 단계를 실행하는데 사용되는 복수 개의 명령어를 포함한다. 전술한 저장 매체는 U 디스크, 모바일 디스크, 판독 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 자기 디스크 또는 광 디스크 등 프로그램 코드를 저장할 수 있는 여러 가지 매체를 포함한다.When the above functions are implemented in the form of a software function unit and sold or used as a standalone product, one processor may be stored in an executable nonvolatile computer readable storage medium. Based on this understanding, the technical solution of the present invention, that is, a part contributing to the prior art or a part of the technical solution may be implemented in the form of a software product, the computer software product being stored in one storage medium, one It includes a plurality of instructions used to cause a computer device (which may be a personal computer, a server or a network device, etc.) of The above-described storage medium includes a variety of media capable of storing a program code, such as a U disk, a mobile disk, a read-only memory (ROM), a random access memory (RAM), a magnetic disk or an optical disk. include

마지막으로 설명해야 할 것은, 이상 상기 실시예는, 다만 본 발명의 구체적인 실시형태일 뿐이고, 본 발명의 기술방안을 한정하려는 것이 아닌 설명하기 위함이며, 본 발명의 청구 범위는 이에 한정되지 않으며, 비록 전술한 실시예를 참조하여 본 발명에 대해 상세하게 설명하였지만, 본 분야의 기술자라면, 임의의 본 기술분야의 공지된 기술자가 본 발명에서 개시된 기술 범위 내에서, 여전히 전술한 실시예에서 기재된 기술방안을 수정하거나 용이하게 변화를 생각해낼 수 있으며, 또는 그것의 일부 기술 특징을 동등하게 대체할 수 있음을 이해해야 하고; 이러한 수정, 변화 또는 교체는 상응하는 기술방안의 본질이 본 발명의 기술방안의 사상 및 범위를 벗어나지 않도록 하며, 모두 본 발명의 보호 범위 내에 속해야 함을 이해해야 한다. 따라서, 본 발명의 보호 범위는 상기 특허 청구 범위의 보호 범위를 기준으로 해야 한다.The last thing to be described is that the above embodiment is only a specific embodiment of the present invention, and is not intended to limit the technical solution of the present invention, but is intended to illustrate, and the claims of the present invention are not limited thereto, although Although the present invention has been described in detail with reference to the above-described embodiments, any person skilled in the art will find that within the technical scope disclosed in the present invention, the technical solutions described in the above-described embodiments are still It should be understood that changes may be readily devised, or some technical features thereof may be substituted equally; It should be understood that such modifications, changes or replacements should not depart from the spirit and scope of the technical solutions of the present invention, and should all fall within the protection scope of the present invention. Accordingly, the protection scope of the present invention should be based on the protection scope of the above claims.

본 발명의 실시예는 타깃 검출 방법, 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체를 제공하고, 여기서, 상기 타깃 검출 방법은 검출될 이미지를 획득하는 단계; 상기 검출될 이미지에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계 - 꼭짓점은 상기 검출될 이미지에서의 타깃 대상의 위치를 나타냄; 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하는 단계를 포함한다. 본 발명의 실시예에서 제기한 타깃 검출 방법은, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 동일한 타깃 대상에 속한 꼭짓점을 결정함으로써, 결정된 꼭짓점에 기반하여 동일한 타깃 대상을 검출할 수 있다.An embodiment of the present invention provides a target detection method, an apparatus, an electronic device and a computer-readable storage medium, wherein the target detection method includes: acquiring an image to be detected; determining, based on the to-be-detected image, vertex position information for each vertex in the to-be-detected image and a centripetal shift tensor corresponding to each vertex, the vertex indicating the position of the target object in the to-be-detected image; and determining a target object in the to-be-detected image based on vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex. The target detection method proposed in the embodiment of the present invention determines vertices belonging to the same target object based on vertex position information in an image in which each vertex is to be detected and a centripetal shift tensor corresponding to each vertex, so that the determined vertex is based on the same target object can be detected.

Claims (17)

타깃 검출 방법으로서,
검출될 이미지를 획득하는 단계;
상기 검출될 이미지에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계 - 꼭짓점은 상기 검출될 이미지에서의 타깃 대상의 위치를 표시함 - ;및
각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
A target detection method comprising:
acquiring an image to be detected;
determining, based on the image to be detected, vertex position information for each vertex in the image to be detected and a centripetal shift tensor corresponding to each vertex, the vertex indicating the position of the target object in the image to be detected; ;and
and determining a target object in the image where each vertex is to be detected based on vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex.
제 1항에 있어서,
상기 검출될 이미지에 기반하여, 각 꼭짓점이 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계는,
상기 검출될 이미지에 대해 특징을 추출 진행하여, 상기 검출될 이미지에 대응되는 초기 특징맵을 획득하는 단계;
상기 초기 특징맵에 대해 꼭짓점 풀링을 진행하여, 꼭짓점 풀링된 특징맵을 획득하는 단계; 및
상기 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보, 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 획득하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
The method of claim 1,
Determining the vertex position information and the centripetal shift tensor corresponding to each vertex in the image where each vertex is to be detected, based on the image to be detected,
obtaining an initial feature map corresponding to the image to be detected by extracting features from the image to be detected;
performing vertex pooling on the initial feature map to obtain a vertex pooled feature map; and
and obtaining vertex position information in the image where each vertex is to be detected, and a centripetal shift tensor corresponding to each vertex, based on the vertex pooled feature map.
제 2항에 있어서,
상기 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 단계는,
상기 꼭짓점 풀링된 특징맵에 기반하여, 상기 검출될 이미지에 대응되는 꼭짓점 히트맵을 생성하는 단계;
상기 꼭짓점 히트맵에 기반하여, 상기 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값을 결정하고, 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 상기 꼭지점 히트맵의 특징점에서 상기 꼭짓점을 선별하는 단계;
선별된 각 꼭짓점이 상기 꼭짓점 히트맵에서의 위치 정보 및 각 꼭짓점에 대응되는 로컬 시프트 정보를 획득하는 단계 - 상기 로컬 시프트 정보는 대응되는 꼭짓점이 나타내는 실제 물리점이 상기 꼭짓점 히트맵에서의 위치 시프트 정보를 표시하기 위해 사용됨 - ; 및
획득한 각 꼭짓점이 상기 꼭짓점 히트맵에서의 위치 정보, 각 꼭짓점에 대응되는 로컬 시프트 정보, 및 상기 꼭짓점 히트맵 및 상기 검출될 이미지 간의 크기 비율에 기반하여 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
3. The method of claim 2,
The step of determining vertex position information in the image where each vertex is to be detected based on the vertex pooled feature map comprises:
generating a vertex heat map corresponding to the image to be detected based on the vertex pooled feature map;
Based on the vertex heat map, a probability value of using each feature point in the vertex heat map as a vertex is determined, and based on a probability value of using each feature point as a vertex, the vertex is selected from the feature points of the vertex heat map. step;
Obtaining the location information of each selected vertex in the vertex heat map and local shift information corresponding to each vertex - The local shift information includes the actual physical point indicated by the corresponding vertex position shift information in the vertex heat map. Used to indicate - ; and
Each vertex is a vertex position in the to-be-detected image based on position information of each obtained vertex in the vertex heatmap, local shift information corresponding to each vertex, and a size ratio between the vertex heatmap and the image to be detected A method for detecting a target comprising determining information.
제 2항 또는 제 3항에 있어서,
상기 꼭짓점 풀링된 특징맵에 기반하여, 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계는,
상기 꼭짓점 풀링된 특징맵에 기반하여, 상기 꼭짓점 풀링된 특징맵에서의 각 특징점에 대응되는 가이드 시프트 텐서를 결정하는 단계 - 각 특징점에 대응되는 가이드 시프트 텐서는 상기 검출될 이미지에서 상기 특징점이 타깃 대상 중심점을 가리키는 시프트 텐서를 나타냄 - ;
각 특징점에 대응되는 가이드 시프트 텐서에 기반하여, 상기 특징점의 시프트 도메인 정보를 결정하는 단계 - 상기 시프트 도메인 정보는 상기 특징점과 연관된 복수 개의 초기 특징점이 각각에 대응되는 시프트된 특징점을 각각 가리키는 시프트 텐서를 포함함 - ;
상기 꼭짓점 풀링된 특징맵 및 상기 꼭짓점 풀링된 특징맵에서의 특징점의 시프트 도메인 정보에 기반하여, 상기 꼭짓점 풀링된 특징맵에서의 특징점의 특징 데이터에 대해 조정을 진행하여, 조정된 특징맵을 획득하는 단계; 및
조정된 특징맵에 기반하여 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
4. The method of claim 2 or 3,
Determining a centripetal shift tensor corresponding to each vertex based on the vertex pooled feature map comprises:
determining a guide shift tensor corresponding to each feature point in the vertex pooled feature map based on the vertex-pooled feature map; Represents a shift tensor pointing to the centroid - ;
Determining shift domain information of the feature point based on the guide shift tensor corresponding to each feature point, wherein the shift domain information includes a shift tensor indicating a shifted feature point corresponding to a plurality of initial feature points associated with the feature point, respectively. Included - ;
Based on the shift domain information of the feature points in the vertex pooled feature map and the vertex pooled feature map, adjusting the feature data of the feature points in the vertex pooled feature map to obtain an adjusted feature map step; and
and determining a centripetal shift tensor corresponding to each vertex based on the adjusted feature map.
제 3항에 있어서,
상기 검출될 이미지에 대응되는 꼭짓점 히트맵은 복수 개 채널에 각각 대응되는 꼭짓점 히트맵을 포함하고, 상기 복수 개 채널에서의 각 채널은 한자기 한가지 사전 설정 대상 카테고리에 대응하며; 상기 꼭짓점 히트맵에 기반하여 상기 꼭짓점 히트맵에서 각 특징점을 꼭짓점으로 사용하는 확률값을 결정한 후,상기 검출 방법은,
상기 복수 개 채널에서의 각 채널에 대해, 상기 채널에 대응되는 꼭짓점 히트맵에서의 각 특징점을 꼭짓점으로 사용하는 확률값에 기반하여, 상기 채널에 대응되는 꼭짓점 히트맵에 상기 꼭짓점이 존재하는지 여부를 결정하는 단계; 및
상기 채널에 대응되는 꼭짓점 히트맵에 상기 꼭짓점이 존재할 경우, 상기 검출될 이미지에 상기 채널에 대응되는 사전 설정 대상 카테고리의 타깃 대상이 포함된다고 결정하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
4. The method of claim 3,
the vertex heatmap corresponding to the image to be detected includes a vertex heatmap respectively corresponding to a plurality of channels, wherein each channel in the plurality of channels corresponds to one preset target category; After determining a probability value using each feature point as a vertex in the vertex heatmap based on the vertex heatmap, the detection method includes:
For each channel in the plurality of channels, based on a probability value using each feature point in the vertex heatmap corresponding to the channel as a vertex, it is determined whether the vertex exists in the vertex heatmap corresponding to the channel. to do; and
and determining that a target object of a preset target category corresponding to the channel is included in the image to be detected when the vertex exists in the vertex heatmap corresponding to the channel.
제 1항에 있어서,
각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하는 단계는,
상기 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하는 것을 특징으로 하는 타깃 검출 방법.
The method of claim 1,
Determining a target object in the image to be detected based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex includes:
and determining a detection frame of a target object in the image to be detected based on vertex position information in the image where each vertex is to be detected and a centripetal shift tensor corresponding to each vertex.
제 6항에 있어서,
상기 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정하는 단계는,
각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 후보 검출 프레임을 구성하는 후보 꼭짓점 페어를 선별하는 단계;
각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 상기 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 꼭짓점이 가리키는 중심점 위치 정보를 결정하는 단계;
각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하는 단계; 및
각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서 상기 타깃 대상의 검출 프레임을 결정하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
7. The method of claim 6,
The step of determining the detection frame of the target object in the image to be detected based on the vertex position information in the image where each vertex is to be detected and the centripetal shift tensor corresponding to each vertex,
selecting a pair of candidate vertices constituting a candidate detection frame based on vertex position information in the image where each vertex is to be detected;
determining center point location information indicated by the vertex based on the vertex location information in the image where each vertex is to be detected in each candidate vertex pair and a centripetal shift tensor corresponding to the vertex;
determining center region information corresponding to the candidate vertex pair based on the vertex position information in the image in which each vertex is to be detected in each candidate vertex pair; and
Target detection comprising the step of determining the detection frame of the target object from the candidate detection frame based on center point position information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair Way.
제 7항에 있어서,
각 후보 꼭짓점 페어에서 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 정보를 결정하는 단계는,
상기 후보 꼭짓점 페어에서 각 꼭짓점의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 프레임을 나타내는 꼭짓점 위치 정보를 결정하는 단계; 및
상기 중심 영역 프레임의 꼭짓점 위치 정보에 기반하여, 상기 후보 꼭짓점 페어에 대응되는 중심 영역 프레임의 좌표 범위를 결정하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
8. The method of claim 7,
Determining center region information corresponding to the candidate vertex pair based on the vertex position information in the image in which each vertex is to be detected in each candidate vertex pair comprises:
determining vertex position information indicating a central region frame corresponding to the candidate vertex pair based on vertex position information of each vertex in the candidate vertex pair; and
and determining a coordinate range of a central region frame corresponding to the candidate vertex pair based on vertex position information of the central region frame.
제 7항 또는 제 8항에 있어서,
상기 각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 상기 후보 검출 프레임에서 상기 타깃 대상의 검출 프레임을 결정하는 단계는,
각 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심 위치 정보 및 상기 꼭짓점 페어에 대응되는 중심 영역 정보에 기반하여, 유효 후보 꼭짓점을 결정하는 단계;
상기 유효 후보 꼭짓점 페어에서 각 꼭짓점이 가리키는 중심점 위치 정보, 상기 유효 후보 꼭짓점 페어에 대응되는 중심 영역 정보, 및 상기 유효 후보 꼭짓점 페어에서 각 꼭짓점에 대응되는 확률값에 기반하여, 각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수을 결정하며 - 각 꼭짓점에 대응되는 확률값은 상기 꼭짓점이 꼭짓점 히트맵에 대응되는 특징점을 꼭짓점으로 사용하는 확률값을 표시하기 위해 사용됨 - ; 및
각 유효 후보 꼭짓점 페어에 대응되는 후보 검출 프레임의 점수 및 인접 후보 검출 프레임 간의 중첩 영역 크기에 기반하여, 상기 후보 검출 프레임에서 상기 타깃 대상의 검출 프레임을 결정하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
9. The method according to claim 7 or 8,
The step of determining the detection frame of the target object in the candidate detection frame based on the center point position information indicated by each vertex in each candidate vertex pair and the center region information corresponding to the vertex pair comprises:
determining a valid candidate vertex based on center location information indicated by each vertex in each candidate vertex pair and center region information corresponding to the vertex pair;
Corresponding to each valid candidate vertex pair based on center point location information indicated by each vertex in the valid candidate vertex pair, center region information corresponding to the valid candidate vertex pair, and a probability value corresponding to each vertex in the valid candidate vertex pair determining a score of a candidate detection frame to be used, wherein a probability value corresponding to each vertex is used to indicate a probability value in which the vertex uses a feature point corresponding to a vertex heat map as a vertex; and
Target detection comprising the step of determining the detection frame of the target object in the candidate detection frame based on the score of the candidate detection frame corresponding to each valid candidate vertex pair and the size of the overlapping region between adjacent candidate detection frames Way.
제 6항에 있어서,
상기 검출될 이미지에서의 타깃 대상의 검출 프레임을 결정한 후, 상기 타깃 검출 방법은,
상기 타깃 대상의 검출 프레임 및 상기 검출될 이미지에 대해 특징 추출을 진행하여 획득한 초기 특징맵에 기반하여, 상기 검출될 이미지에서의 상기 타깃 대상의 인스턴스 정보를 결정하는 단계를 더 포함하는 것을 특징으로 하는 타깃 검출 방법.
7. The method of claim 6,
After determining the detection frame of the target object in the image to be detected, the target detection method includes:
The method further comprising the step of determining instance information of the target object in the image to be detected based on the detection frame of the target object and an initial feature map obtained by performing feature extraction on the image to be detected target detection method.
제 10항에 있어서,
상기 타깃 대상의 검출 프레임 및 상기 검출될 이미지에 특징 추출을 진행하여 획득된 초기 특징맵에 기반하여, 상기 검출될 이미지에서 상기 타깃 대상의 인스턴스 정보를 결정하는 단계는,
상기 타깃 대상의 검출 프레임 및 상기 초기 특징맵에 기반하여, 상기 초기 특징맵이 상기 검출 프레임 내에서의 특징점의 특징 데이터를 추출하는 단계; 및
상기 초기 특징맵이 상기 검출 프레임 내에서의 특징점의 특징 데이터에 기반하여, 상기 검출될 이미지에서 상기 타깃 대상의 인스턴스 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 타깃 검출 방법.
11. The method of claim 10,
Determining instance information of the target object in the image to be detected based on an initial feature map obtained by performing feature extraction on the detection frame of the target object and the image to be detected,
extracting, by the initial feature map, feature data of feature points in the detection frame based on the detection frame of the target object and the initial feature map; and
and determining the instance information of the target object in the image to be detected based on the feature data of the feature points in the detection frame by the initial feature map.
제 1항 내지 제 11항 중 어느 한 항에 있어서,
상기 타깃 검출 방법은 신경 네트워크를 통해 구현되고, 상기 신경 네트워크는 라벨링 타깃 샘플 대상을 포함하는 샘플 이미지를 이용하여 훈련하여 획득된 것을 특징으로 하는 타깃 검출 방법.
12. The method according to any one of claims 1 to 11,
The target detection method is implemented through a neural network, and the neural network is obtained by training using a sample image including a labeling target sample object.
제 12항에 있어서,
상기 신경 네트워크는,
샘플이미지를 획득하는 단계;
상기 샘플 이미지에 기반하여, 각 샘플 꼭짓점이 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서를 결정하는 단계 - 상기 샘플 꼭짓점은 상기 샘플 이미지에서의 타깃 샘플 대상의 위치를 나타냄 - ;
각 샘플 꼭짓점이 상기 샘플 이미지에서의 꼭짓점 위치 정보 및 각 샘플 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여 샘플 이미지에서의 타깃 샘플 대상을 예측하는 단계; 및
예측된 상기 샘플 이미지에서의 타깃 샘플 대상 및 상기 샘플 이미지에서의 라벨링 타깃 샘플 대상에 기반하여, 상기 신경 네트워크의 네트워크 파라미터 값에 대해 조절을 진행하는 단계를 사용하여 훈련하여 획득된 것을 특징으로 하는 타깃 검출 방법.
13. The method of claim 12,
The neural network is
acquiring a sample image;
Based on the sample image, each sample vertex determines vertex position information in the sample image and a centripetal shift tensor corresponding to each sample vertex, wherein the sample vertex represents the position of a target sample object in the sample image. ;
predicting a target sample object in the sample image based on vertex position information of each sample vertex in the sample image and a centripetal shift tensor corresponding to each sample vertex; and
Target obtained by training using the step of adjusting the value of the network parameter of the neural network based on the predicted target sample object in the sample image and the labeling target sample object in the sample image detection method.
타깃 검출 장치로서,
검출될 이미지를 획득하도록 구성된 획득부;
상기 검출될 이미지에 기반하여, 각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서를 결정하도록 구성된 결정부 - 상기 꼭짓점은 상기 검출될 이미지에서의 타깃 대상의 위치를 나타냄 - ;
각 꼭짓점이 상기 검출될 이미지에서의 꼭짓점 위치 정보 및 각 꼭짓점에 대응되는 구심 시프트 텐서에 기반하여, 상기 검출될 이미지에서의 타깃 대상을 결정하도록 구성된 검출부를 포함하는 것을 특징으로 하는 타깃 검출 장치.
A target detection device comprising:
an acquiring unit configured to acquire an image to be detected;
a determining unit configured to determine, based on the image to be detected, a centripetal shift tensor corresponding to each vertex and vertex position information for each vertex in the to-be-detected image, wherein the vertex determines the position of the target object in the image to be detected indicates - ;
and a detection unit configured to determine a target object in the image where each vertex is to be detected based on vertex position information in the to-be-detected image and a centripetal shift tensor corresponding to each vertex.
전자 기기로서,
프로세서, 메모리 및 버스를 포함하며, 상기 메모리에는 상기 프로세서가 실행 가능한 기계 판독 가능한 명령어가 저장되며, 전자 기기가 작동될 경우, 상기 프로세서와 상기 메모리 사이는 버스를 통해 통신하고, 상기 기계 판독 가능한 명령어가 상기 프로세서에 의해 실행될 경우 제 1항 내지 제 13항 중 어느 한 항에 따른 타깃 검출 방법의 단계를 실행하는 것을 특징으로 하는 전자 기기.
As an electronic device,
a processor, a memory, and a bus, wherein the memory stores machine-readable instructions executable by the processor, and when an electronic device is operated, the processor and the memory communicate through a bus, and the machine-readable instructions 14. An electronic device characterized in that when is executed by the processor, the step of the target detection method according to any one of claims 1 to 13 is executed.
컴퓨터 판독 가능한 저장 매체로서,
상기 컴퓨터 판독 가능한 저장 매체에는 컴퓨터 프로그램이 저장되며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1항 내지 제13항 중 어느 한 항에 따른 타깃 검출 방법의 단계를 구현하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
A computer-readable storage medium comprising:
A computer program is stored in the computer readable storage medium, and when the computer program is executed by a processor, the computer readable method according to any one of claims 1 to 13 implements the steps of the target detection method. possible storage medium.
컴퓨터 프로그램으로서,
컴퓨터 판독 가능한 코드를 포함하고, 상기 컴퓨터 판독 가능한 코드가 전자 기기에서 작동될 경우, 상기 전자 기기에서의 프로세서는 제1항 내지 제13항 중 어느 한 항에 따른 타깃 검출 방법을 구현하는 것을 특징으로 하는 컴퓨터 프로그램.
A computer program comprising:
14. A method comprising computer readable code, wherein when the computer readable code is operated in an electronic device, a processor in the electronic device implements the method for detecting a target according to any one of claims 1 to 13. computer program to do.
KR1020217030884A 2020-01-22 2020-12-11 Target detection method, apparatus, electronic device and computer readable storage medium KR20210129189A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010073142.6 2020-01-22
CN202010073142.6A CN111242088B (en) 2020-01-22 2020-01-22 Target detection method and device, electronic equipment and storage medium
PCT/CN2020/135967 WO2021147563A1 (en) 2020-01-22 2020-12-11 Object detection method and apparatus, electronic device, and computer readable storage medium

Publications (1)

Publication Number Publication Date
KR20210129189A true KR20210129189A (en) 2021-10-27

Family

ID=70870017

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217030884A KR20210129189A (en) 2020-01-22 2020-12-11 Target detection method, apparatus, electronic device and computer readable storage medium

Country Status (4)

Country Link
JP (1) JP2022526548A (en)
KR (1) KR20210129189A (en)
CN (1) CN111242088B (en)
WO (1) WO2021147563A1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242088B (en) * 2020-01-22 2023-11-28 上海商汤临港智能科技有限公司 Target detection method and device, electronic equipment and storage medium
CN111681284A (en) * 2020-06-09 2020-09-18 商汤集团有限公司 Corner point detection method and device, electronic equipment and storage medium
CN112215840A (en) * 2020-10-30 2021-01-12 上海商汤临港智能科技有限公司 Image detection method, image detection device, driving control method, driving control device, electronic equipment and storage medium
CN112270278A (en) * 2020-11-02 2021-01-26 重庆邮电大学 Key point-based blue top house detection method
CN112348894B (en) * 2020-11-03 2022-07-29 中冶赛迪重庆信息技术有限公司 Method, system, equipment and medium for identifying position and state of scrap steel truck
CN112733653A (en) * 2020-12-30 2021-04-30 智车优行科技(北京)有限公司 Target detection method and device, computer readable storage medium and electronic equipment
CN113822841B (en) * 2021-01-29 2022-05-20 深圳信息职业技术学院 Sewage impurity caking detection method and device and related equipment
CN112699856A (en) * 2021-03-24 2021-04-23 成都新希望金融信息有限公司 Face ornament identification method and device, electronic equipment and storage medium
CN113033539B (en) * 2021-03-30 2022-12-06 北京有竹居网络技术有限公司 Calligraphy practicing lattice detection method and device, readable medium and electronic equipment
CN113095228B (en) * 2021-04-13 2024-04-30 地平线(上海)人工智能技术有限公司 Method and device for detecting target in image and computer readable storage medium
CN113569911A (en) * 2021-06-28 2021-10-29 北京百度网讯科技有限公司 Vehicle identification method and device, electronic equipment and storage medium
CN113743218A (en) * 2021-08-03 2021-12-03 科大讯飞股份有限公司 License plate recognition method, license plate recognition device and computer readable storage medium
CN113936458B (en) * 2021-10-12 2022-12-20 中国联合网络通信集团有限公司 Method, device, equipment and medium for judging congestion of expressway
CN113920538B (en) * 2021-10-20 2023-04-14 北京多维视通技术有限公司 Object detection method, device, equipment, storage medium and computer program product
CN113850238B (en) * 2021-11-29 2022-03-04 北京世纪好未来教育科技有限公司 Document detection method and device, electronic equipment and storage medium
CN115644933B (en) * 2022-11-17 2023-08-22 深圳微创踪影医疗装备有限公司 Catheter flushing control method, catheter flushing control device, computer equipment and storage medium
CN116309587A (en) * 2023-05-22 2023-06-23 杭州百子尖科技股份有限公司 Cloth flaw detection method and device, electronic equipment and storage medium

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040259667A1 (en) * 2003-06-02 2004-12-23 Simon Berdugo Motorized image rotating target apparatus for all sports
US20100317466A1 (en) * 2009-05-24 2010-12-16 Semple Kerry J Miniature Kick Bag Game and Apparatus Kit
JP6094949B2 (en) * 2012-06-29 2017-03-15 日本電気株式会社 Image processing apparatus, image processing method, and program
CN106557940B (en) * 2015-09-25 2019-09-17 杭州海康威视数字技术股份有限公司 Information release terminal and method
CN106874826A (en) * 2015-12-11 2017-06-20 腾讯科技(深圳)有限公司 Face key point-tracking method and device
CN106683091B (en) * 2017-01-06 2019-09-24 北京理工大学 A kind of target classification and attitude detecting method based on depth convolutional neural networks
CN108229307B (en) * 2017-11-22 2022-01-04 北京市商汤科技开发有限公司 Method, device and equipment for object detection
CN108446707B (en) * 2018-03-06 2020-11-24 北方工业大学 Remote sensing image airplane detection method based on key point screening and DPM confirmation
US10872406B2 (en) * 2018-04-13 2020-12-22 Taiwan Semiconductor Manufacturing Company, Ltd. Hot spot defect detecting method and hot spot defect detecting system
CN109670503A (en) * 2018-12-19 2019-04-23 北京旷视科技有限公司 Label detection method, apparatus and electronic system
CN109801335A (en) * 2019-01-08 2019-05-24 北京旷视科技有限公司 Image processing method, device, electronic equipment and computer storage medium
CN110378891A (en) * 2019-07-24 2019-10-25 广东工业大学 A kind of hazardous material detection method, device and equipment based on terahertz image
CN110532894B (en) * 2019-08-05 2021-09-03 西安电子科技大学 Remote sensing target detection method based on boundary constraint CenterNet
CN110543838A (en) * 2019-08-19 2019-12-06 上海光是信息科技有限公司 Vehicle information detection method and device
CN110490256A (en) * 2019-08-20 2019-11-22 中国计量大学 A kind of vehicle checking method based on key point thermal map
CN110647931A (en) * 2019-09-20 2020-01-03 深圳市网心科技有限公司 Object detection method, electronic device, system, and medium
CN111242088B (en) * 2020-01-22 2023-11-28 上海商汤临港智能科技有限公司 Target detection method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2022526548A (en) 2022-05-25
CN111242088B (en) 2023-11-28
WO2021147563A1 (en) 2021-07-29
CN111242088A (en) 2020-06-05

Similar Documents

Publication Publication Date Title
KR20210129189A (en) Target detection method, apparatus, electronic device and computer readable storage medium
US10885365B2 (en) Method and apparatus for detecting object keypoint, and electronic device
JP7236545B2 (en) Video target tracking method and apparatus, computer apparatus, program
CN109829398B (en) Target detection method in video based on three-dimensional convolution network
CN109670474B (en) Human body posture estimation method, device and equipment based on video
JP6950692B2 (en) People flow estimation device, people flow estimation method and program
JP6501501B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING SYSTEM, AND PROGRAM
JP5554984B2 (en) Pattern recognition method and pattern recognition apparatus
JP6044134B2 (en) Image area dividing apparatus, method, and program according to optimum image size
JP2022122984A (en) Image processing system, image processing method, and program
US11341680B2 (en) Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method
US11449706B2 (en) Information processing method and information processing system
CN110222641B (en) Method and apparatus for recognizing image
CN112488999B (en) Small target detection method, small target detection system, storage medium and terminal
CN112801047B (en) Defect detection method and device, electronic equipment and readable storage medium
JP2019114103A (en) Object recognition processing device, object recognition processing method and program
WO2021090771A1 (en) Method, apparatus and system for training a neural network, and storage medium storing instructions
CN111104813A (en) Two-dimensional code image key point detection method and device, electronic equipment and storage medium
CN113822879B (en) Image segmentation method and device
JP2011196940A (en) Tracking device
CN111968030B (en) Information generation method, apparatus, electronic device and computer readable medium
JP4221330B2 (en) Interface method, apparatus, and program
JP4870721B2 (en) Image feature extraction apparatus, image feature extraction method, program, and recording medium
JP6899986B1 (en) Object area identification device, object area identification method, and object area identification program
CN112132895B (en) Image-based position determination method, electronic device, and storage medium