KR102668641B1 - Image processing methods and devices, electronic devices, and computer-readable storage media - Google Patents

Image processing methods and devices, electronic devices, and computer-readable storage media Download PDF

Info

Publication number
KR102668641B1
KR102668641B1 KR1020217035936A KR20217035936A KR102668641B1 KR 102668641 B1 KR102668641 B1 KR 102668641B1 KR 1020217035936 A KR1020217035936 A KR 1020217035936A KR 20217035936 A KR20217035936 A KR 20217035936A KR 102668641 B1 KR102668641 B1 KR 102668641B1
Authority
KR
South Korea
Prior art keywords
target
image
target object
shielded
shielding
Prior art date
Application number
KR1020217035936A
Other languages
Korean (ko)
Other versions
KR20210144887A (en
Inventor
시아오항 잔
신강 판
보 다이
지웨이 리우
다후아 린
첸 찬게 로이
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20210144887A publication Critical patent/KR20210144887A/en
Application granted granted Critical
Publication of KR102668641B1 publication Critical patent/KR102668641B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체를 제공하고, 여기서, 타깃 이미지에서 인접한 대상 간의 차폐 관계에 기반하여 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별한 다음, 선별하여 얻은 타깃 차폐 대상의 모달 마스크, 차폐된 타깃 대상의 모달 마스크에 기반하여 차폐된 타깃 대상의 차폐 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하여, 타깃 대상에서의 차폐된 부분을 복원할 수 있다.The present invention provides an image processing method and device, an electronic device, and a computer-readable storage medium, wherein a target shielding object having a shielding relationship with a shielded target object is selected based on the shielding relationship between adjacent objects in a target image. Next, based on the modal mask of the selected target object and the modal mask of the masked target object, the contour information of the shielded portion of the masked target object and the image information of each pixel point within the outline of the shielded portion are determined, and the target The shielded part of the object can be restored.

Description

이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체Image processing methods and devices, electronic devices, and computer-readable storage media

관련 출원에 대한 상호 참조Cross-reference to related applications

본 발명은 출원 번호가 202010093403.0이고, 출원일이 2020년 2월 14일 중국 특허 출원에 기반하여 제출하였고, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본 발명에 인용된다.The present invention was filed based on the Chinese patent application with application number 202010093403.0 and the filing date was February 14, 2020, and claims priority of the Chinese patent application. All contents of the Chinese patent application are incorporated herein by reference. It is quoted.

본 발명은 컴퓨터 기술, 이미지 처리 분야에 관한 것으로서, 특히 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체에 관한 것이다.The present invention relates to the field of computer technology and image processing, and particularly to image processing methods and devices, electronic devices, and computer-readable storage media.

자연 시나리오에 기반하여 기술을 이해하는 것은 주로 물체 검출, 인스턴스 분할, 시맨틱 분할 등을 포함하고, 이러한 기술은 대상이 차폐되지 않은 영역만을 고려하고, 대상 간의 차폐 관계를 무시한다. 예를 들어 인스턴스 분할은 주어진 이미지에서 대상의 분류 및 위치를 검출한 다음, 대상의 가시 부분의 영역을 분할한다. 그러나, 복수 개의 대상 간의 차폐 관계, 대상이 차폐된 부분의 윤곽 및 이미지 정보는 시나리오 이해에서의 중요한 구성 부분이므로, 상기 부분을 무시하면 시나리오 이해의 기술적 효과가 한정되고, 적용 효과에 영향을 미친다.Understanding techniques based on natural scenarios mainly include object detection, instance segmentation, semantic segmentation, etc., and these techniques only consider the area where the object is not occluded, and ignore the occlusion relationship between objects. For example, instance segmentation detects the classification and location of an object in a given image and then segments the region of the visible part of the object. However, since the occlusion relationship between a plurality of objects, the outline of the occluded part of the object, and image information are important components in scenario understanding, ignoring these parts will limit the technical effect of scenario understanding and affect the application effect.

이를 고려하여, 본 발명은 적어도 하나의 이미지 처리 방법 및 장치를 제공한다.In consideration of this, the present invention provides at least one image processing method and apparatus.

제1 측면에 있어서, 본 발명의 실시예는 이미지 처리 방법을 제공하고, 상기 방법은, 타깃 이미지를 획득하는 단계; 상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하는 단계 - 인접한 타깃 대상의 모달 마스크는 서로 연결됨 - ; 상기 타깃 이미지에서 어느 한 차폐된 타깃 대상에 대해, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하는 단계; 및 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계 - 타깃 대상의 모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보를 포함함 - 를 포함한다.In a first aspect, an embodiment of the present invention provides an image processing method, the method comprising: acquiring a target image; Determining a shielding relationship between adjacent target objects in the target image - modal masks of adjacent target objects are connected to each other; For a target object that is shielded in the target image, based on the shielding relationship, selecting a target shielding object that has a shielding relationship with the shielded target object from the target image; and determining outline information of a shielded portion of the shielded target object and image information of each pixel point within the outline of the shielded portion, based on the modal mask of the target shielded object and the modal mask of the shielded target object. - The modal mask of the target object includes mask information in which the target object is not masked by another target object.

본 발명의 제1 측면에 있어서, 타깃 이미지에서 인접한 대상 간의 차폐 관계에 기반하여 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별한 다음, 선별하여 얻은 타깃 차폐 대상의 모달 마스크, 차폐된 타깃 대상의 모달 마스크에 기반하여 차폐된 타깃 대상의 차폐 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하여, 타깃 대상에서의 차폐된 부분을 복원할 수 있다.In the first aspect of the present invention, the target shielding object that has a shielding relationship with the shielded target object is selected based on the shielding relationship between adjacent objects in the target image, and then the modal mask of the target shielding object obtained by selection, the shielded object, Based on the modal mask of the target object, the outline information of the shielded part of the target object and the image information of each pixel point within the outline of the shielded part are determined, and the shielded part of the target object can be restored.

한 가지 가능한 실시형태에 있어서, 상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하는 단계는, 상기 타깃 이미지로부터 인접한 대상 쌍을 선별하는 단계 - 인접한 타깃 대상 쌍은 두 개의 인접한 타깃 대상을 포함함 - ; 상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완하는 단계; 및 각 타깃 대상의 보완된 이후의 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 상기 인접한 대상 쌍에서 두 개의 인접한 타깃 대상 간의 차폐 관계를 결정하는 단계를 포함한다.In one possible embodiment, determining an occlusion relationship between adjacent target objects in the target image comprises selecting a pair of adjacent objects from the target image, wherein the pair of adjacent target objects includes two adjacent target objects. ; Complementing the outline of one target object in the adjacent object pair by another target object in the adjacent object pair, respectively; and determining a shielding relationship between two adjacent target objects in the pair of adjacent objects, based on the entire outline after complementation and the overall outline before complementation of each target object.

상기 실시형태에 있어서, 타깃 대상의 보완된 이후의 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 두 개의 인접한 대상 간의 차폐 관계를 비교적 정확하게 결정할 수 있어, 결정된 차폐 관계의 정확도를 향상시킬 수 있다.In the above embodiment, based on the overall outline after complementation and the overall outline before supplementation of the target object, the occlusion relationship between two adjacent objects can be relatively accurately determined, thereby improving the accuracy of the determined occlusion relationship.

한 가지 가능한 실시형태에 있어서, 상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완하는 단계는 제1 신경망에 의해 실행된다.In one possible embodiment, the step of each complementing a contour occluded by one target object in the pair of adjacent objects by another target object in the pair of adjacent objects is performed by a first neural network.

상기 실시형태에 있어서, 훈련된 제1 신경망을 이용하여 특정된 타깃 대상이 인접한 대상 쌍에서의 다른 한 타깃 대상에 의해 차폐된 윤곽을 결정하여, 이미지 보완의 자동화 정도, 효율 및 정확도를 향상시킨다.In the above embodiment, the trained first neural network is used to determine the outline of a specified target object being occluded by another target object in an adjacent object pair, thereby improving the degree of automation, efficiency, and accuracy of image supplementation.

한 가지 가능한 실시형태에 있어서, 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보를 결정하는 단계는, 상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하는 단계; 및 상기 제1 신경망을 이용하여, 상기 합집합에 대응되는 이미지, 상기 차폐된 타깃 대상의 모달 마스크에 따라, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보를 결정하는 단계를 포함한다.In one possible embodiment, the step of determining contour information of a shielded portion of the shielded target object based on the modal mask of the target shielded object and the modal mask of the shielded target object includes: determining the union of the modal masks of; and determining, using the first neural network, outline information of a occluded portion of the occluded target object according to an image corresponding to the union and a modal mask of the occluded target object.

상기 실시형태에 있어서, 훈련된 제1 신경망을 이용하여, 타깃 차폐 대상의 병합된 모달 마스크 및 차폐된 타깃 대상의 모달 마스크에 기반하여, 차폐된 타깃 대상의 차폐된 부분에 대해 윤곽 보완을 진행하여, 이미지 보완의 정확도를 향상시킬 수 있다.In the above embodiment, using the trained first neural network, contour supplementation is performed on the occluded portion of the occluded target object based on the merged modal mask of the target occluded object and the modal mask of the occluded target object. , the accuracy of image supplementation can be improved.

한 가지 가능한 실시형태에 있어서, 제1 신경망은, 제1 샘플 대상의 모달 마스크에 대응되는 제1 샘플 이미지 및 제2 샘플 대상의 모달 마스크에 대응되는 제2 샘플 이미지를 획득하는 단계; 및 상기 제2 샘플 이미지를 이용하여 상기 제1 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 상기 제2 샘플 이미지, 차폐된 이후의 제1 샘플 이미지를 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지가 상기 제2 샘플 이미지에 의해 차폐된 윤곽을 보완하는 것을 타깃으로 하여, 상기 훈련될 제1 신경망의 네트워크 파라미터를 조정하는 단계를 사용하여 훈련되어 얻은 것이다.In one possible embodiment, the first neural network comprises: acquiring a first sample image corresponding to a modal mask of a first sample object and a second sample image corresponding to a modal mask of a second sample object; and masking a part of the first sample image using the second sample image, and inputting the first sample image, the second sample image, and the masked first sample image into a first neural network to be trained, The first sample image is obtained by training using a step of adjusting network parameters of the first neural network to be trained, with the goal of complementing the outline masked by the second sample image.

상기 실시형태에 있어서, 한 샘플 이미지가 다른 한 샘플 이미지를 차폐한 일부를 이용하고, 차폐된 이후의 상기 다른 한 샘플 이미지 및 차폐 전의 상기 다른 한 샘플 이미지에 기반하여 다른 한 대상의 차폐된 부분의 윤곽 정보를 결정하기 위한 제1 신경망을 훈련하고, 훈련의 타깃은 차폐된 상기 다른 한 대상에 대해 윤곽 보안을 진행함으로써, 훈련하여 얻은 제1 신경망이 이미지 보완을 수행할 경우의 정확도를 보장하고, 동시에 제1 신경망을 훈련할 경우, 인공으로 라벨링된 샘플 이미지를 이용하지 않는 것임으로써, 인공으로 라벨링된 샘플 이미지로 인한 정확도를 보장할 수 없는 결함을 극복한다.In the above embodiment, one sample image uses a occluded portion of another sample image, and the occluded portion of the other object is determined based on the other sample image after occlusion and the other sample image before occlusion. Train a first neural network to determine contour information, and perform contour security on the other masked target as the target of training, thereby ensuring accuracy when the first neural network obtained through training performs image supplementation, At the same time, when training the first neural network, artificially labeled sample images are not used, thereby overcoming the defect of not being able to guarantee accuracy due to artificially labeled sample images.

한 가지 가능한 실시형태에 있어서, 상기 제1 신경망을 훈련하는 단계는,In one possible embodiment, training the first neural network comprises:

상기 제1 샘플 이미지를 이용하여 상기 제2 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 차폐된 이후의 제2 샘플 이미지를 상기 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지의 윤곽이 변하지 않도록 유지하는 것을 타깃으로 하여, 상기 훈련될 제1 신경망의 네트워크 파라미터를 조정하는 단계를 더 포함한다.A portion of the second sample image is masked using the first sample image, and the first sample image and the masked second sample image are input to the first neural network to be trained, so that the first sample image The method further includes adjusting network parameters of the first neural network to be trained, with the goal of keeping the outline unchanged.

상기 실시형태에 있어서, 제1 신경망을 훈련할 경우, 상기 다른 한 샘플 이미지가 상기 샘플 이미지를 부분적으로 차폐하는 것을 이용하고, 차폐된 이후의 상기 샘플 이미지 및 상기 다른 한 샘플 이미지에 기반하여 제1 신경망을 훈련하고, 훈련의 타깃은 상기 다른 한 샘플 이미지의 윤곽이 변하지 않도록 유지하는 것임으로써, 훈련하여 얻은 제1 신경망이 이미지 보완을 수행할 경우의 정확도를 향상시킬 수 있다.In the above embodiment, when training the first neural network, the fact that the other sample image partially occludes the sample image is used, and the first neural network is generated based on the sample image after occlusion and the other sample image. By training a neural network, and the goal of training is to keep the outline of the other sample image unchanged, the accuracy of the first neural network obtained through training can be improved when performing image supplementation.

한 가지 가능한 실시형태에 있어서, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하는 단계는, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 적어도 한 레벨의 타깃 차폐 대상을 선별하는 단계 - 첫 번째 레벨의 타깃 차폐 대상은 상기 차폐된 타깃 대상을 차폐하고, 다른 레벨의 타깃 차폐 대상은 이전 레벨의 타깃 차폐 대상을 차폐함 - 를 포함한다.In one possible embodiment, the step of selecting a target occlusion object that has a occlusion relationship with the occluded target object from the target image, based on the occlusion relationship, may include selecting a target occlusion object from the target image based on the occlusion relationship. Selecting at least one level of target shielding object that has a shielding relationship with the shielded target object - the target shielding object of the first level shields the shielded target object, and the target shielding object of the other level is of the previous level. Target shielding - Includes shielding the target.

상기 실시형태에 있어서, 차폐된 타깃 대상과 직접적인 차폐 관계가 존재하는 첫 번째 레벨의 타깃 차폐 대상을 선별할 뿐만 아니라, 이전 레벨의 타깃 차폐 대상과 차폐 관계가 존재하는 다른 레벨의 타깃 차폐 대상을 선별할 수 있으므로, 선별하여 얻은 타깃 차폐 대상의 전명성을 향상시킬 수 있음으로써, 이미지 보완의 정확도를 향상시키는데 유리하다.In the above embodiment, in addition to selecting the target shielding object at the first level that has a direct shielding relationship with the shielded target object, it also selects the target shielding object at the other level that has a shielding relationship with the target shielding object at the previous level. Therefore, it is possible to improve the transparency of the selected target shielding object, which is advantageous in improving the accuracy of image supplementation.

한 가지 가능한 실시형태에 있어서, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 적어도 한 레벨의 타깃 차폐 대상을 선별하는 단계는, 상기 차폐 관계에 기반하여, 상기 타깃 이미지에 대응되는 차폐 유향 그래프를 구축하는 단계 - 상기 차폐 유향 그래프에서의 노드는 다른 타깃 대상과 인접한 타깃 대상이고, 상기 차폐 유향 그래프에서의 변은 두 개의 인접한 타깃 대상에서의 한 타깃 대상으로부터 차폐된 타깃 대상을 가리킴 - ; 및 상기 차폐 유향 그래프에 기반하여, 차폐된 타깃 대상에 대응되는 노드의 모든 레벨의 조상 노드를 결정하고, 결정된 각 레벨의 조상 노드에 대응되는 타깃 대상을 상기 차폐된 타깃 대상의 각 레벨의 타깃 차폐 대상으로 사용하는 단계를 포함한다.In one possible embodiment, the step of selecting at least one level of target occlusion object that has a occlusion relationship with the occluded target object from the target image may include, based on the occlusion relationship, a occlusion corresponding to the target image. Constructing a directed graph - a node in the shielded directed graph is a target object adjacent to another target object, and an edge in the shielded directed graph indicates a target object that is shielded from one target object in two adjacent target objects - ; And based on the shielded directed graph, determine ancestor nodes of all levels of the node corresponding to the shielded target object, and select the target object corresponding to the ancestor node of each determined level as the target shield of each level of the shielded target object. It includes the steps of using it as an object.

상기 실시형태에 있어서, 차폐 유향 그래프를 이용하여 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 결정하여, 선별하여 얻은 타깃 차폐 대상의 전면성을 향상시키고, 선별 효율을 향상시킨다.In the above embodiment, a target shielding object that has a shielding relationship with a shielded target object is determined using a shielding directed graph, thereby improving the omnipresence of the target shielding object obtained by screening and improving screening efficiency.

한 가지 가능한 실시형태에 있어서, 상기 타깃 차폐 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 모달 마스크, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계는, 상기 차폐된 타깃 대상의 모달 마스크 및 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보에 기반하여, 상기 차폐된 타깃 대상의 논모달 마스크를 결정하는 단계 - 타깃 대상의 논모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보 및 상기 타깃 대상이 다른 타깃 대상에 의해 차폐된 마스크 정보를 포함함 - ; 상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하는 단계; 상기 합집합과 상기 차폐된 타깃 대상의 논모달 마스크의 제1 교집합을 결정하는 단계; 상기 제1 교집합에 대응되는 이미지를 이용하여 부분 타깃 이미지를 차폐하는 단계 - 상기 부분 타깃 이미지는 상기 타깃 이미지에서 상기 차폐된 타깃 대상을 중심으로 하고, 상기 차폐된 타깃 대상 주변의 픽셀 포인트의 부분을 포함함 - ; 및 상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계를 포함한다.In one possible embodiment, determining the modal mask of the occluded target object, based on the modal mask of the target occluded object, the image information of each pixel point within the outline of the occluded portion of the occluded target object. Determining a non-modal mask of the shielded target object based on the modal mask of the shielded target object and the outline information of the shielded portion of the shielded target object - the non-modal mask of the target object is the target Contains mask information in which the target is not shielded by another target object and mask information in which the target object is shielded by another target object -; determining a union of modal masks of the target shielding object; determining a first intersection of the union and a non-modal mask of the masked target object; A step of shielding a partial target image using an image corresponding to the first intersection - the partial target image is centered on the masked target object in the target image and includes a portion of pixel points around the masked target object. Contains - ; and determining image information of each pixel point within the outline of the occluded portion of the occluded target object, based on the image corresponding to the first intersection and the occluded partial target image.

상기 실시형태에 있어서, 차폐된 타깃 대상의 논모달 마스크와 타깃 차폐 대상의 병합된 모달 마스크의 교집합을 이용하여 부분 타깃 이미지의 일부를 차폐하고, 즉 타깃 대상의 차폐된 영역을 이용하여 부분 타깃 이미지의 일부를 차폐한다. 상기 타깃 대상의 차폐된 영역 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여 결정된 픽셀 포인트의 이미지 정보의 정확도를 향상시킬 수 있다.In the above embodiment, a portion of the partial target image is masked using the intersection of the non-modal mask of the masked target object and the merged modal mask of the target masked object, that is, the partial target image is masked using the masked area of the target object. shield part of the The accuracy of image information of the pixel point determined based on the masked area of the target object and the partial target image after being masked can be improved.

한 가지 가능한 실시형태에 있어서, 상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계는, 제2 신경망에 의해 실행된다.In one possible embodiment, based on the image corresponding to the first intersection and the partial target image after occlusion, image information of each pixel point in the outline of the occluded portion of the occluded target object is determined. The steps are executed by a second neural network.

상기 실시형태에 있어서, 훈련된 제2 신경망을 이용하여 특정된 타깃 대상이 상기 인접한 타깃 대상 쌍에서의 다른 한 타깃 대상에 의해 차폐된 윤곽 내 픽셀 포인트의 이미지 정보를 결정하여, 이미지 내용 보완의 자동화 정도, 효율 및 정확도를 향상시킨다.In the above embodiment, a trained second neural network is used to determine image information of a pixel point in a contour where a specified target object is occluded by another target object in the adjacent target object pair, thereby automating image content supplementation. Improves precision, efficiency and accuracy.

한 가지 가능한 실시형태에 있어서, 상기 제2 신경망은, 제3 샘플 대상의 모달 마스크에 대응되는 제3 샘플 이미지 및 제4 샘플 대상의 모달 마스크에 대응되는 제4 샘플 이미지를 획득하는 단계; 상기 제4 샘플 이미지를 이용하여 상기 제3 샘플 이미지의 일부를 차폐한 후, 상기 제3 샘플 대상의 모달 마스크와 상기 제4 샘플 대상의 모달 마스크의 제2 교집합을 결정하는 단계; 및 차폐된 상기 제3 샘플 이미지, 상기 제2 교집합에 대응되는 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정하는 단계를 사용하여 얻은 것이다.In one possible embodiment, the second neural network includes: acquiring a third sample image corresponding to a modal mask of a third sample object and a fourth sample image corresponding to a modal mask of a fourth sample object; After blocking a portion of the third sample image using the fourth sample image, determining a second intersection of a modal mask of the third sample object and a modal mask of the fourth sample object; And a second neural network to be trained, based on the masked third sample image and the image corresponding to the second intersection, with the goal of complementing the image information of each cell point of the masked portion of the third sample image. was obtained using the steps for adjusting the network parameters.

상기 실시형태에 있어서, 한 샘플 이미지가 다른 한 샘플 이미지를 차폐한 일부를 이용하고, 차폐된 이후의 두 개의 샘플 대상의 모달 마스크의 교집합에 대응되는 이미지와 결합하여 타깃 대상의 차폐된 부분의 윤곽 내 픽셀 포인트의 이미지 정보를 결정하기 위한 제2 신경망을 훈련하므로, 훈련하여 얻은 제2 신경망이 픽셀 포인트의 이미지 정보를 결정할 경우의 정확도를 보장할 수 있고, 이와 동시에, 제2 신경망을 훈련할 경우, 인공으로 라벨링된 샘플 이미지를 이용하지 않음으로써, 인공으로 라벨링된 샘플 이미지로 인한 정확도를 보장할수 없는 결함을 극복한다.In the above embodiment, one sample image uses a occluded portion of another sample image and combines it with an image corresponding to the intersection of the modal masks of the two sample objects after occlusion to outline the occluded portion of the target object. Since the second neural network is trained to determine the image information of my pixel point, the accuracy of the second neural network obtained through training can be guaranteed when determining the image information of the pixel point, and at the same time, when training the second neural network , By not using artificially labeled sample images, it overcomes the defect of not being able to guarantee accuracy caused by artificially labeled sample images.

한 가지 가능한 실시형태에 있어서, 차폐된 상기 제3 샘플 이미지, 상기 제2 교집합에 대응되는 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정하는 단계는, 상기 제3 샘플 대상에 대응되는 제5 샘플 이미지를 획득하는 단계 - 상기 제5 샘플 이미지는 상기 제3 샘플 대상을 이미지 중심으로 하는 이미지이고, 상기 이미지는 상기 제3 샘플 대상 및 상기 제3 샘플 대상 주변의 픽셀 포인트를 포함함; 상기 제2 교집합에 대응되는 이미지를 이용하여 상기 제5 샘플 이미지의 일부를 차폐하는 단계; 및 차폐된 상기 제3 샘플 이미지 및 차폐된 상기 제5 샘플 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정하는 단계를 포함한다.In one possible embodiment, the goal is to supplement the image information of each pixel point of the masked portion of the third sample image, based on the masked third sample image and the image corresponding to the second intersection. Thus, the step of adjusting the network parameters of the second neural network to be trained includes obtaining a fifth sample image corresponding to the third sample object - the fifth sample image is an image centered on the third sample object. and the image includes the third sample object and pixel points around the third sample object; shielding a portion of the fifth sample image using an image corresponding to the second intersection; and a second neural network to be trained, targeting to complement the image information of each pixel point of the masked portion of the third sample image, based on the masked third sample image and the masked fifth sample image. and adjusting network parameters.

상기 실시형태에 있어서, 두 개의 샘플 대상의 모달 마스크의 교집합에 대응되는 이미지에 의해 차폐된 제5 샘플 이미지 및 두 개의 샘플 대상 중 한 샘플 대상에 대응되는 이미지에 의해 차폐된 제3 샘플 이미지에 기반하여 제2 신경망을 훈련하고, 훈련의 타깃은 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것임으로써, 훈련하여 얻은 제2 신경망이 픽셀 포인트의 이미지 정보를 결정할 경우의 정확도를 향상시킬 수 있다.In the above embodiment, based on the fifth sample image masked by the image corresponding to the intersection of the modal masks of the two sample objects and the third sample image masked by the image corresponding to one of the two sample objects. The second neural network is trained, and the target of training is to complement the image information of each pixel point of the masked part of the third sample image, so that when the second neural network obtained by training determines the image information of the pixel point, Accuracy can be improved.

제2측면에 있어서, 본 발명의 실시예는 이미지 처리 장치를 제공하고, 상기 장치는, 타깃 이미지를 획득하도록 구성된 이미지 획득 모듈; 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하도록 구성된 차폐 결정 모듈 - 인접한 타깃 대상의 모달 마스크는 서로 연결됨 - ; 상기 타깃 이미지에서 어느 한 차폐된 타깃 대상에 대해, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하도록 구성된 대상 선별 모듈; 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하도록 구성된 마스크 처리 모듈 - 타깃 대상의 모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보를 포함함 - 을 포함한다.In a second aspect, an embodiment of the present invention provides an image processing device, the device comprising: an image acquisition module configured to acquire a target image; A occlusion determination module configured to determine the occlusion relationship between adjacent target objects in the target image - the modal masks of adjacent target objects are connected to each other; an object selection module configured to select a target shielding object that has a shielding relationship with the shielded target object from the target image, based on the shielding relationship, for a shielded target object in the target image; A mask configured to determine, based on the modal mask of the target shielding object and the modal mask of the shielded target object, contour information of a shielded portion of the shielded target object and image information of each pixel point within the outline of the shielded portion. A processing module comprising: a modal mask of a target object comprising mask information where the target object is not masked by other target objects.

한 가지 가능한 실시형태에 있어서, 상기 차폐 결정 모듈은, 상기 타깃 이미지로부터 인접한 대상 쌍을 선별하고 - 인접한 타깃 대상은 두 개의 인접한 타깃 대상을 포함함 - ; 상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서의 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완하며; 각 타깃 대상의 보완된 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 상기 인접한 대상 쌍에서 두 개의 인접한 타깃 대상 간의 차폐 관계를 결정하도록 구성된다.In one possible embodiment, the occlusion determination module selects pairs of adjacent objects from the target image, where an adjacent target object includes two adjacent target objects; one target object in the pair of adjacent objects each complements the outline occluded by the other target object in the pair of adjacent objects; and determine a shielding relationship between two adjacent target objects in the pair of adjacent objects, based on the complemented overall outline and the entire outline before supplementation of each target object.

한 가지 가능한 실시형태에 있어서, 상기 차폐 결정 모듈은 상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완할 경우, 제1 신경망을 이용하여 상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서의 다른 한 타깃 대상에 의해 차폐된 윤곽을 보완하도록 구성된다.In one possible embodiment, the occlusion determination module is configured to use a first neural network to determine the occlusion when one target object in the adjacent object pair each complements an outline occluded by another target object in the adjacent object pair. One target object in a pair of adjacent objects is configured to complement the outline masked by the other target object in the pair of adjacent objects.

한 가지 가능한 실시형태에 있어서, 상기 마스크 처리 모듈이 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보를 결정할 경우, 상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하고; 상기 제1 신경망을 이용하여, 상기 합집합에 대응되는 이미지, 상기 차폐된 타깃 대상의 모달 마스크에 따라, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보를 결정하도록 구성된다.In one possible embodiment, when the mask processing module determines the outline information of the occluded portion of the occluded target object based on the modal mask of the target occluded object and the modal mask of the occluded target object, determine the union of the modal masks of the target occlusion object; It is configured to determine outline information of a occluded portion of the occluded target object according to an image corresponding to the union and a modal mask of the occluded target object, using the first neural network.

한 가지 가능한 실시형태에 있어서, 상기 이미지 처리 장치는, 제1 샘플 대상의 모달 마스크에 대응되는 제1 샘플 이미지 및 제2 샘플 대상의 모달 마스크에 대응되는 제2 샘플 이미지를 획득하고; 상기 제2 샘플 이미지를 이용하여 상기 제1 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 상기 제2 샘플 이미지, 차폐된 이후의 제1 샘플 이미지를 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지가 상기 제2 샘플 이미지에 의해 차폐된 윤곽을 보완하는 것을 타깃으로 하여, 상기 훈련될 제1 신경망의 네트워크 파라미터를 조정하도록 구성된, 상기 제1 신경망을 훈련하는 네트워크 훈련 모듈을 더 포함한다.In one possible embodiment, the image processing device acquires a first sample image corresponding to a modal mask of a first sample object and a second sample image corresponding to a modal mask of a second sample object; A portion of the first sample image is masked using the second sample image, and the first sample image, the second sample image, and the masked first sample image are input to a first neural network to be trained, It further comprises a network training module for training the first neural network, configured to adjust network parameters of the first neural network to be trained, targeting that the first sample image complements the outline occluded by the second sample image. do.

한 가지 가능한 실시형태에 있어서, 상기 마스크 처리 모듈이 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정할 경우, 상기 마스크 처리 모듈은, 상기 차폐된 타깃 대상의 모달 마스크 및 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보에 기반하여, 상기 차폐된 타깃 대상의 논모달 마스크를 결정하고 - 타깃 대상의 논모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보 및 상기 타깃 대상이 다른 타깃 대상에 의해 차폐된 마스크 정보를 포함함 - ; 상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하고; 상기 합집합과 상기 차폐된 타깃 대상의 논모달 마스크의 제1 교집합을 결정하고; 상기 제1 교집합에 대응되는 이미지를 이용하여 부분 타깃 이미지를 차폐하며 - 상기 부분 타깃 이미지는 상기 타깃 이미지에서 상기 차폐된 타깃 대상을 중심으로 하고, 상기 차폐된 타깃 대상 주변의 픽셀 포인트의 부분을 포함함 - ; 상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하도록 구성된다.In one possible embodiment, the mask processing module generates a modal mask of the target occlusion object, an image of each pixel point within the outline of an occluded portion of the occluded target object, based on the modal mask of the occluded target object. When determining information, the mask processing module determines a non-modal mask of the shielded target object based on the modal mask of the shielded target object and the outline information of the shielded portion of the shielded target object, and - target A non-modal mask of an object includes mask information in which the target object is not occluded by another target object and mask information in which the target object is occluded by another target object. determining a union of modal masks of the target shielding object; determine a first intersection of the union and the non-modal mask of the occluded target object; Masking a partial target image using an image corresponding to the first intersection, wherein the partial target image is centered on the masked target object in the target image and includes a portion of pixel points around the masked target object. Ham - ; Based on the image corresponding to the first intersection and the partial target image after being masked, it is configured to determine image information of each pixel point within the outline of the masked portion of the masked target object.

제3 측면에 있어서, 본 발명은 전자 기기를 제공하고, 상기 전자 기기는, 프로세서, 메모리 및 버스를 포함하며, 상기 메모리에는 상기 프로세서가 실행 가능한 기계 판독 가능한 명령어가 저장되어 있으며, 전자 기기가 작동될 경우, 상기 프로세서와 상기 메모리 사이는 버스를 통해 통신하고, 상기 기계 판독 가능한 명령어가 상기 프로세서에 의해 실행될 경우 상기 이미지 처리 방법의 단계를 실행한다.In a third aspect, the present invention provides an electronic device, the electronic device includes a processor, a memory, and a bus, the memory stores machine-readable instructions executable by the processor, and the electronic device operates. When enabled, the processor and the memory communicate via a bus, and when the machine-readable instructions are executed by the processor, steps of the image processing method are executed.

제4 측면에 있어서, 본 발명은 컴퓨터 판독 가능한 저장 매체를 더 제공하고, 상기 컴퓨터 판독 가능한 저장 매체에는 컴퓨터 프로그램이 저장되어 있으며, 상기 컴퓨터 프로그램이 프로세서에 의해 작동될 경우 상기 이미지 처리 방법 단계를 실행한다.In a fourth aspect, the present invention further provides a computer-readable storage medium, wherein the computer-readable storage medium stores a computer program, and when the computer program is operated by a processor, the image processing method steps are executed. do.

본 발명의 상기 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체는, 적어도 본 발명의 상기 방법의 어느 한 측면 또는 어느 한 측면의 어느 한 실시형태의 기술 특징과 실질적으로 동일하거나 유사한 기술 특징을 포함하므로, 상기 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체에 관한 효과 설명은, 상기 방법 내용의 효과 설명을 참조할 수 있으며, 여기서 더 이상 반복하여 설명하지 않는다.Since the devices, electronic devices, and computer-readable storage media of the present invention include technical features that are substantially the same as or similar to those of at least one aspect or embodiment of any one aspect of the method of the present invention, The effect description regarding the apparatus, electronic device and computer-readable storage medium may refer to the effect description in the method content, and the description will not be repeated here.

본 발명의 실시예의 기술방안을 더욱 명확하게 설명하기 위해, 아래에 실시예에서 사용해야 하는 첨부 도면을 간단하게 소개하고, 아래의 첨부 도면은 본 발명의 일부 실시예를 도시한 것일 뿐이며, 따라서 범위에 대한 한정이라고 간주하여서는 안되며, 본 분야의 기술자가, 창조성 노동을 부여하지 않는 전제 하에서도, 이러한 첨부 도면에 따라 다른 연관된 첨부 도면을 획득할 수 있음을 이해해야 한다.
도 1은 본 발명의 실시예에서 제공한 이미지 처리 방법의 흐름도이다.
도 2는 본 발명의 실시예에서 제공한 다른 이미지 처리 방법에서의 차폐 관계를 결정하는 흐름도이다.
도 3은 본 발명의 실시예에서 제공한 또 다른 이미지 처리 방법에서의 차폐 유향 그래프의 구조 예시도이다.
도 4는 본 발명의 실시예에서 제공한 또 다른 이미지 처리 방법에서의 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 흐름도이다.
도 5는 본 발명의 실시예에서 제공한 또 다른 이미지 처리 방법에서의 제2 신경망을 훈련하는 흐름도이다.
도 6은 본 발명의 실시예에서 제공한 또 다른 이미지 처리 방법에서의 제1 신경망을 훈련하는 흐름 예시도이다.
도 7은 본 발명의 실시예에서 제공한 또 다른 이미지 처리 방법에서의 제2 신경망을 훈련하는 흐름 예시도이다.
도 8은 본 발명의 실시예에서 제공한 이미지 처리 장치의 구조 예시도이다.
도 9는 본 발명의 실시예에서 제공한 전자 기기의 구조 예시도이다.
In order to more clearly explain the technical solutions of the embodiments of the present invention, the accompanying drawings that should be used in the embodiments are briefly introduced below. The accompanying drawings below only illustrate some embodiments of the present invention and are therefore limited to the scope. It should not be considered limiting, and it should be understood that a person skilled in the art may obtain other related accompanying drawings in accordance with these accompanying drawings, even under the premise of not assigning creative labor.
1 is a flowchart of an image processing method provided in an embodiment of the present invention.
Figure 2 is a flowchart for determining a shielding relationship in another image processing method provided by an embodiment of the present invention.
Figure 3 is an example structure of a shielded directed graph in another image processing method provided in an embodiment of the present invention.
Figure 4 is a flowchart of determining image information of each pixel point within the outline of the occluded portion of the occluded target object in another image processing method provided by an embodiment of the present invention.
Figure 5 is a flowchart of training a second neural network in another image processing method provided in an embodiment of the present invention.
Figure 6 is an example flow diagram of training a first neural network in another image processing method provided in an embodiment of the present invention.
Figure 7 is an example flow diagram of training a second neural network in another image processing method provided in an embodiment of the present invention.
Figure 8 is an exemplary structural diagram of an image processing device provided in an embodiment of the present invention.
Figure 9 is an exemplary structural diagram of an electronic device provided in an embodiment of the present invention.

본 발명의 목적, 기술적 해결수단 및 장점을 더욱 명확하게 하기 위해, 아래에, 본 발명의 실시예에서의 도면과 결합하여, 본 발명의 실시예에서의 기술적 해결수단에 대해 명확하고 완전하게 설명하며, 본 발명의 도면은 예시 및 설명의 목적일 뿐이며, 본 발명의 보호 범위를 한정하는데 사용되지 않는다. 또한, 예시 도면은 실제 비율에 따라 그려진 것이 아님을 이해해야 한다. 본 발명에서 사용한 흐름도는 본발명의 일부 실시예서 구현한 조작에 따라 예시되었다. 이해해야 할 것은, 흐름도의 조작은 순서에 따라 구현되지 않을 수 있고, 상하 컨텍스트가 논리적이지 않는 단계는 순서를 반대로 하거나 동시에 구현될 수 있다. 또한, 본 개시 내용의 안내 하에, 당업자는 흐름도에 하나 또는 이상의 다른 작업을 추가하거나 흐름도에서 하나 이상의 작업을 제거할 수 있다.In order to further clarify the purpose, technical solutions and advantages of the present invention, below, in combination with the drawings in the embodiments of the present invention, the technical solutions in the embodiments of the present invention are clearly and completely described. , the drawings of the present invention are for illustrative and descriptive purposes only and are not used to limit the scope of protection of the present invention. Additionally, it should be understood that the example drawings are not drawn to scale. The flowcharts used in the present invention are illustrated according to the operations implemented in some embodiments of the present invention. It should be understood that operations in a flowchart may not be implemented in order, and steps for which the upper and lower contexts are not logical may be implemented in reverse order or simultaneously. Additionally, with the guidance of this disclosure, one skilled in the art may add one or more other operations to the flowchart or remove one or more operations from the flowchart.

또한 설명된 실시예는 다만 본 발명에서 개시한 일부 실시예일 뿐이고, 전부 실시예가 아니다. 일반적으로 이곳의 도면에서 설명되고 도시된 본 발명의 실시예의 컴포넌트는 다양한 상이한 구성으로 배치되고 설계될 수 있다. 따라서, 아래 도면에서 제공한 본 발명의 실시예의 상세한 설명은 본 발명의 보호 범위를 한정하려는 것이 아닌 본 발명의 선택된 실시예를 나타내기 위한 것이다. 본 발명의 실시예에 기반하여, 본 분야 기술자가 창조성 노동 없이 얻은 다른 실시예는 전부 본 발명의 보호 범위에 속해야 한다.Additionally, the described embodiments are only some embodiments disclosed in the present invention and are not all embodiments. Components of embodiments of the invention generally described and shown in the drawings herein may be arranged and designed in a variety of different configurations. Accordingly, the detailed description of embodiments of the present invention provided in the drawings below are not intended to limit the scope of protection of the present invention, but are intended to indicate selected embodiments of the present invention. Based on the embodiments of the present invention, all other embodiments obtained by those skilled in the art without creative labor shall fall within the protection scope of the present invention.

설명해야 할 것은, 본 발명의 실시예에서 "포함"이라는 용어는 이후에 선언되는 특징의 존재를 나타내기 위해 사용되지만, 다른 특징이 추가되는 것을 배제하지 않는다It should be noted that, in embodiments of the present invention, the term "included" is used to indicate the presence of a subsequently declared feature, but does not exclude other features from being added.

자연 시나리오 이해 기술에서, 결정된 복수 개의 대상 간의 차폐 관계, 대상의 차폐된 부분의 윤곽 및 이미지 정보의 기술적 과제를 결정하고 향상시키는 방법에 대해, 본 발명은 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체를 제공한다. 여기서, 본 발명은 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계에 기반하여 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별한 다음, 선별하여 얻은 타깃 차폐 대상의 모달 마스크, 차폐된 타깃 대상의 모달 마스크에 기반하여 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하여, 타깃 대상에서의 차폐된 부분을 복원할 수 있다.In the technology of natural scenario understanding, the occlusion relationship between a determined plurality of objects, the contour of the occluded part of the object and the method for determining and improving the technical tasks of image information, the present invention relates to image processing methods and devices, electronic devices, computer reading Provide available storage media. Here, the present invention selects target shielding objects that have a shielding relationship with the shielded target object based on the shielding relationship between adjacent target objects in the target image, and then selects the modal mask of the target shielding object obtained by screening, and the mask of the shielded target object. Based on the modal mask, the outline information of the masked part of the masked target object and the image information of each pixel point within the outline of the shielded part are determined, and the shielded part of the target object can be restored.

아래에 구체적인 실시예를 통해 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체에 대해 설명한다.Below, image processing methods and devices, electronic devices, and computer-readable storage media will be described through specific embodiments.

본 발명의 실시예는 이미지 처리 방법을 제공하고, 상기 방법은 차폐된 타깃 대상에 대해 보완을 진행하는 단말 기기에 적용된다. 구체적으로, 도 1에 도시된 바와 같이, 본 발명의 실시예에서 제공된 이미지 처리 방법은 아래의 단계를 포함한다.An embodiment of the present invention provides an image processing method, and the method is applied to a terminal device that performs compensation for a occluded target object. Specifically, as shown in Figure 1, the image processing method provided in the embodiment of the present invention includes the following steps.

단계 S110에 있어서, 타깃 이미지를 획득한다.In step S110, a target image is acquired.

여기서, 타깃 이미지에는 적어도 하나의 차폐된 타깃 대상을 포함한다. 타깃 이미지는 단말 기기가 자체 카메라를 이용하여 촬영한 것일 수 있고, 단말 기기가 다른 기기로부터 수신한 것일 수도 있으며, 본 발명은 타깃 이미지의 촬영 기기에 대해 한정하지 않는다.Here, the target image includes at least one masked target object. The target image may be captured by the terminal device using its own camera, or may be received by the terminal device from another device, and the present invention is not limited to the device that captures the target image.

단계 S120에 있어서, 상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정한다.In step S120, a occlusion relationship between adjacent target objects in the target image is determined.

여기서, 인접한 타깃 대상의 모달 마스크는 서로 연결된다. 먼저 타깃 이미지로부터 모든 인접한 타깃 대상을 선별한다. 인접한 타깃 대상은 차폐 관계가 존재하는 타깃 대상으로 이해할 수 있다. 인접한 타깃 대상을 선별하여 얻은 후, 두 개의 타깃 대상 간의 차폐 관계를 결정한다.Here, the modal masks of adjacent target objects are connected to each other. First, all adjacent target objects are selected from the target image. An adjacent target object can be understood as a target object with which a shielding relationship exists. After selecting and obtaining adjacent target objects, the shielding relationship between the two target objects is determined.

일부 가능한 구현 방식에 있어서, 기존 이미지 처리 방법을 이용하여 서로 차폐된 타깃 대상을 선별할 수 있다.In some possible implementations, existing image processing methods can be used to select targets that are occluded from each other.

일부 가능한 구현 방식에 있어서, 먼저 차폐된 타깃 대상에 대해 보완을 진행한 다음, 보완된 타깃 대상과 결합하여 차폐 관계를 결정할 수 있다.In some possible implementation methods, the occluded target object may first be supplemented and then combined with the supplemented target object to determine the occlusion relationship.

단계 S130 있어서, 상기 타깃 이미지에서 어느 한 차폐된 타깃 대상에 대해, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별한다.In step S130, for a target object that is shielded in the target image, a target shielding object that has a shielding relationship with the shielded target object is selected from the target image based on the shielding relationship.

상기 결정된 차폐 관계에 기반하여, 차폐된 타깃 대상을 위해 대응되는 타깃 차폐 대상를 선별하고, 상기 타깃 차폐 대상은 상기 차폐된 타깃 대상을 직접 차폐하는 타깃 대상을 포함할 뿐만 아니라, 상기 차폐된 타깃 대상을 직접 차폐하는 타깃 대상을 차폐하는 타깃 대상을 더 포함하며, 즉, 타깃 차폐 대상을 상이한 레벨의 차폐 대상으로 나눌 수 있고, 첫 번째 레벨의 타깃 차폐 대상은 상기 차폐된 타깃 대상을 직접 차폐하는 타깃 대상이고, 다른 레벨의 타깃 차폐 대상은 이전 레벨의 타깃 차폐 대상을 차폐한다.Based on the determined shielding relationship, a corresponding target shielding object is selected for the shielded target object, and the target shielding object not only includes a target object that directly shields the shielded target object, but also includes the shielded target object. It further includes a target object that directly shields the target object, that is, the target shield object can be divided into different levels of shielding objects, and the target shielding object of the first level is a target object that directly shields the shielded target object. , and the target shielding object of another level shields the target shielding object of the previous level.

여기서, 설명해야 할 것은, 선별된 타깃 차폐 대상은 적어도 한 레벨의 차폐 대상을 포함한다.Here, it should be explained that the selected target shielding object includes at least one level of shielding object.

단계 S140에 있어서, 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정한다.In step S140, based on the modal mask of the target occlusion object, the modal mask of the occluded target object, contour information of the occluded portion of the occluded target object, and image information of each pixel point in the outline of the occluded portion. Decide.

여기서, 타깃 대상의 모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보를 포함한다. 타깃 대상의 차폐된 윤곽 정보 및 차폐된 윤곽 내 픽셀 포인트의 이미지 정보를 결정하기 전, 먼저 상기 차폐된 타깃 대상의 모달 마스크, 타깃 차폐 대상의 모달 마스크를 결정한 다음, 결정된 각 모달 마스크에 기반하여 상기 윤곽 정보 및 픽셀 포인트의 이미지 정보를 결정해야 한다.Here, the modal mask of the target object includes mask information that the target object is not shielded by other target objects. Before determining the occluded contour information of the target object and the image information of the pixel points in the occluded outline, first determine the modal mask of the occluded target object and the modal mask of the target occluded object, and then based on each determined modal mask, Contour information and image information of pixel points must be determined.

상기 모달 마스크는 차폐된 타깃 대상에서 차폐되지 않은 부분의 마스크 정보를 포함하고, 즉 차폐된 타깃 대상에서 차폐되지 않은 부분에 대응되는 각 픽셀 포인트가 속한 물체의 정보이고, 구체적으로 차폐된 타깃 대상에서 차폐되지 않은 부분에 대응되는 각 픽셀 포인트가 속한 물체의 신원 식별 ID를 포함할 수 있다. 일부 가능한 구현 방식에 있어서, 미리 훈련된 신경망을 이용하여, 상기 타깃 차폐 대상의 모달 마스크, 차폐된 타깃 대상의 모달 마스크에 기반하여, 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정할 수 있다.The modal mask includes mask information of the unshielded part of the shielded target object, that is, information of the object to which each pixel point corresponding to the unshielded part of the shielded target object belongs, and specifically, the mask information of the unshielded part of the shielded target object. Each pixel point corresponding to the unoccluded portion may include an identification ID of the object to which it belongs. In some possible implementation methods, using a pre-trained neural network, based on the modal mask of the target occlusion object, the modal mask of the occluded target object, contour information of the occluded portion of the occluded target object, and the occlusion of the occluded portion. Image information for each pixel point within the outline can be determined.

상기 실시예에 있어서, 타깃 대상의 타깃 차폐 대상과 결합하여 결정된 차폐 부분의 윤곽 정보 및 이미지 정보의 정확도를 효과적으로 향상시킬 수 있다.In the above embodiment, the accuracy of the outline information and image information of the determined shielding portion can be effectively improved by combining the target object with the target shielding object.

일부 실시예에 있어서, 도 2에 도시된 바와 같이, 상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하고, 구체적으로 아래 단계를 이용하여 구현된다.In some embodiments, as shown in Figure 2, the occlusion relationship between adjacent target objects in the target image is determined, and is specifically implemented using the steps below.

단계 S210에 있어서, 상기 타깃 이미지로부터 인접한 대상 쌍을 선별한다.In step S210, adjacent object pairs are selected from the target image.

여기서, 하나의 인접한 대상 쌍에는 두 개의 인접한 타깃 대상이 포함된다. 타깃 이미지에서의 인접한 타깃 대상을 결정하고, 결정된 인접한 타깃 대상이 두 개 이상이면, 예를 들어, 세 개의 타깃 대상에서의 각 타깃 대상이 모두 다른 두 개의 타깃 대상과 인접한 것이 결정된 경우, 세 개의 타깃 대상 중 임의의 두 개의 타깃 대상을 조합하여, 총 세 개의 인접한 대상 쌍을 얻어야 한다.Here, one adjacent target pair includes two adjacent target objects. Adjacent target objects in the target image are determined, and if there are more than two determined adjacent target objects, for example, if each target object in the three target objects is determined to be adjacent to two other target objects, the three targets By combining any two target objects among the objects, a total of three adjacent object pairs must be obtained.

단계 S220에 있어서, 상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서의 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완한다.In step S220, one target object in the pair of adjacent objects respectively complements the outline masked by the other target object in the pair of adjacent objects.

여기서, 미리 훈련된 제1 신경망을 이용하여 인접한 대상 쌍에서의 각 타깃 대상에 대해 처리를 진행하여, 상기 인접한 대상 쌍에서의 각 타깃 대상이 상기 인접한 대상 쌍에서의 다른 한 타깃 대상에 의해 차폐된 윤곽을 얻을 수 있다.Here, processing is performed on each target object in the adjacent object pair using a pre-trained first neural network, so that each target object in the adjacent object pair is masked by another target object in the adjacent object pair. You can get an outline.

일부 가능한 구현 방식에 있어서, 인접한 대상 쌍에서의 각 타깃 대상의 모달 마스크에 대응되는 이미지를 훈련된 제1 신경망에 입력하여 대상 보완을 진행한다.In some possible implementation methods, object supplementation is performed by inputting the image corresponding to the modal mask of each target object in the adjacent object pair into the trained first neural network.

상기 훈련된 제1 신경망을 이용하여 특정된 타깃 대상이 인접한 대상 쌍에서의 다른 한 타깃 대상에 의해 차폐된 윤곽을 결정하여, 이미지 윤곽 보완의 자동화 정도, 효율 및 정확도를 향상시킨다.Using the trained first neural network, the specified target object determines the outline occluded by another target object in an adjacent object pair, thereby improving the degree of automation, efficiency, and accuracy of image outline complementation.

설명해야 할 것은, 본 단계에서 대상에 대해 보완을 진행(즉 대상의 차폐된 윤곽을 결정함)할 경우, 차폐된 대상에 대해 보완을 진행할 수 있을 뿐만 아니라, 차폐되지 않은 대상에 대해 보완을 진행할 수도 있으며; 상이한 것은, 차폐된 대상에 대해 보완을 진행할 경우, 차폐된 부분의 윤곽을 결정하고, 즉 결정된 윤곽은 비어있지 않으며, 차폐되지 않은 대상에 대해 보완을 진행할 경우, 아무런 윤곽을 얻지 않은 것을 결정하고, 즉 결정된 윤곽은 비어있으며, 대상의 원래 윤곽이 변하지 않도록 유지한다.What needs to be explained is that in this step, when supplementing the object (i.e. determining the occluded outline of the object), not only can the occlusion be performed on the occluded object, but also the unoccluded object can be supplemented. may; The difference is that when supplementing a occluded object, the outline of the occluded part is determined, that is, the determined outline is not empty, and when supplementation is performed on an unoccluded object, it is determined that no outline is obtained, In other words, the determined outline is empty, and the original outline of the object is maintained so as not to change.

단계 S220에 있어서, 각 타깃 대상의 보완된 이후의 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 상기 인접한 대상 쌍에서 두 개의 인접한 타깃 대상 간의 차폐 관계를 결정한다.In step S220, a shielding relationship between two adjacent target objects in the adjacent object pair is determined based on the entire outline after complementation and the entire outline before complementation of each target object.

일부 가능한 구현 방식에 있어서, 이 단계는 타깃 대상의 보완된 이후의 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 상기 타깃 대상의 면적이 증가된 양을 결정한 다음, 두 개의 인접한 타깃 대상의 면적이 증가된 양을 비교하여, 면적이 증가된 양이 비교적 많은 타깃 대상이 면적이 증가된 양이 비교적 적은 타깃 대상에 의해 차폐되는 것을 결정할 수 있고, 즉 두 개의 인접한 타깃 대상 간의 차폐 관계를 결정한다.In some possible implementations, this step determines the amount by which the area of the target object is increased, based on the post-augmented overall contour and the pre-augmented overall contour of the target object, and then determining the amount by which the area of the two adjacent target objects is increased. By comparing the increased amounts, it can be determined that a target object with a relatively large area increase amount is shielded by a target object with a relatively small area increase amount, that is, a shielding relationship between two adjacent target objects can be determined.

상기 실시예에 있어서, 타깃 대상의 보완된 이후의 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 두 개의 인접한 타깃 대상 간의 차폐 관계를 비교적 정확하게 결정할 수 있어, 결정된 차폐 관계의 정확도를 향상시킨다.In the above embodiment, based on the overall outline after complementation and the overall outline before supplementation of the target object, the shielding relationship between two adjacent target objects can be determined relatively accurately, improving the accuracy of the determined shielding relationship.

관련 기술에 있어서, 타깃 대상에 대해 윤곽 보완을 진행할 경우, 일반적으로 먼저 인공으로 라벨링된 샘플 이미지를 이용하여 신경망을 훈련한 다음, 훈련된 신경망을 이용하여 타깃 대상의 윤곽을 보완한다. 샘플 이미지를 인공으로 라벨링하는 것은, 인적 자원을 낭비할 뿐만 아니라, 인공 경험의 불확실성으로 인해 라벨링 정확도가 낮은 결함을 가져다 줌으로써, 훈련하여 얻은 신경망의 검출 정확도에 영향을 미친다.In related technologies, when performing contour supplementation for a target object, a neural network is generally first trained using an artificially labeled sample image, and then the contour of the target object is supplemented using the trained neural network. Artificially labeling sample images not only wastes human resources, but also affects the detection accuracy of the trained neural network by introducing low labeling accuracy defects due to the uncertainty of artificial experience.

상기 기술 문제에 대해, 본 발명은 아래의 실시예를 제공하여, 인공으로 라벨링된 샘플 이미지를 이용하여, 타깃 대상에 대해 윤곽 보완을 수행하도록 구성된 신경망를 훈련하는 것을 방지한다 Regarding the above technical problem, the present invention provides the following embodiment to avoid training a neural network configured to perform contour complementation on a target object using artificially labeled sample images.

제1 샘플 대상의 모달 마스크에 대응되는 제1 샘플 이미지 및 제2 샘플 대상의 모달 마스크에 대응되는 제2 샘플 이미지를 획득하고; 상기 제2 샘플 이미지를 이용하여 상기 제1 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 상기 제2 샘플 이미지, 차폐된 이후의 제1 샘플 이미지를 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지가 상기 제2 샘플 이미지에 의해 차폐된 윤곽을 보완하는 것을 타깃으로 하여, 훈련될 제1 신경망의 네트워크 파라미터를 조정한다.Obtaining a first sample image corresponding to the modal mask of the first sample object and a second sample image corresponding to the modal mask of the second sample object; A portion of the first sample image is masked using the second sample image, and the first sample image, the second sample image, and the masked first sample image are input to a first neural network to be trained, The network parameters of the first neural network to be trained are adjusted with the goal that the first sample image complements the outline masked by the second sample image.

상기 내용은 제2 샘플 이미지를 이용하여 제1 샘플 이미지의 일부를 차폐하는 것일 수 있고, 제2 샘플 이미지를 이용하여 제1 샘플 이미지의 일부를 지우는 것일 수도 있다.The above may mean shielding part of the first sample image using the second sample image, or erasing part of the first sample image using the second sample image.

상기 실시예에서, 훈련의 타깃은 차폐된 제1 샘플 이미지에 대해 윤곽 보완을 진행하는 것이고, 즉 차폐된 제1 샘플 이미지를 차폐 전의 제1 샘플 이미지로 복원하는 것임으로써, 훈련하여 얻은 제1 신경망이 윤곽 보완을 수행할 경우의 정확도를 보장할 수 있다. 동시에, 상기 실시예에서 제1 신경망을 훈련할 경우, 인공으로 라벨링된 샘플 이미지를 이용하지 않음으로써, 인공으로 라벨링된 샘플 이미지로 인해 정확도를 보장할수 없는 결함을 극복한다.In the above embodiment, the target of training is to perform contour supplementation on the masked first sample image, that is, to restore the masked first sample image to the first sample image before masking, so that the first neural network obtained by training Accuracy can be guaranteed when performing this contour complementation. At the same time, when training the first neural network in the above embodiment, artificially labeled sample images are not used, thereby overcoming the defect of not being able to guarantee accuracy due to artificially labeled sample images.

상기 실시예에서 훈련하여 얻은 제1 신경망은 차폐된 타깃 대상의 윤곽을 보완할 수 있고, 차폐되지 않은 대상에 대해, 제1 신경망이 처리를 진행할 때, 원래 윤곽이 변하지 않도록 유지해야 한다. 따라서, 상기 제1 신경망을 훈련하는 단계는 아래의 단계를 더 포함해야 한다.The first neural network obtained by training in the above embodiment can complement the outline of the masked target object, and for the unmasked object, when the first neural network proceeds with processing, the original outline must be kept unchanged. Therefore, the step of training the first neural network must further include the following steps.

상기 제1 샘플 이미지를 이용하여 상기 제2 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 차폐된 이후의 제2 샘플 이미지를 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지의 윤곽이 변하지 않도록 유지하는 것을 타깃으로 하여, 훈련될 제1 신경망의 네트워크 파라미터를 조정한다.A portion of the second sample image is masked using the first sample image, and the first sample image and the masked second sample image are input to a first neural network to be trained, thereby defining the outline of the first sample image. With the goal of keeping this unchanged, the network parameters of the first neural network to be trained are adjusted.

상기 내용에서, 훈련의 타깃은 상기 제1 샘플 이미지에 대해 윤곽 보완을 진행하지 않는 것이고, 즉 제1 샘플 이미지의 원래 윤곽이 변하지 않도록 유지하는 것이므로, 상기 단계에서 훈련하여 얻은 제1 신경망을 이용함으로써, 이미지 윤곽 보완을 수행할 경우의 정확도를 추가로 향상시킬 수 있다.In the above content, the target of training is not to perform contour supplementation on the first sample image, that is, to keep the original contour of the first sample image unchanged, by using the first neural network obtained by training in the above step. , the accuracy when performing image contour supplementation can be further improved.

일부 가능한 구현 방식에 있어서, 도 6에 도시된 바와 같이, 제1 샘플 이미지는 A이고, 제2 샘플 이미지는 B이며, 제2 샘플 이미지는 제1 샘플 이미지를 차폐한 후, 차폐된 제1 샘플 이미지를 A\B로 표시하고, 제1 샘플 이미지, 제2 샘플 이미지, 차폐된 이후의 제1 샘플 이미지를 훈련될 제1 신경망(PCNet-M)에 입력하여, 차폐된 이후의 제1 샘플 이미지를 차폐 전의 제1 샘플 이미지로 복원하는 것을 타깃으로 하여, 제1 신경망의 네트워크 파라미터를 조정한다.In some possible implementations, as shown in FIG. 6, the first sample image is A, the second sample image is B, and the second sample image is the masked first sample after masking the first sample image. The image is marked as A\B, and the first sample image, the second sample image, and the first sample image after masking are input to the first neural network to be trained (PCNet-M), and the first sample image after masking is input. The network parameters of the first neural network are adjusted with the goal of restoring to the first sample image before shielding.

이와 동시에, 도 6에 도시된 바와 같이, 제1 샘플 이미지가 제2 샘플 이미지를 차폐한 후, 차폐된 제2 샘플 이미지를 B\A로 표시하고, 차폐된 이후의 제2 샘플 이미지 및 제1 샘플 이미지를 훈련될 제1 신경망(PCNet-M)에 입력하여, 제1 샘플 이미지의 윤곽이 변하지 않도록 유지하는 것을 타깃으로 하여, 제1 신경망의 네트워크 파라미터를 조정한다.At the same time, as shown in FIG. 6, after the first sample image masks the second sample image, the masked second sample image is displayed as B\A, and the second sample image after masking and the first sample image are displayed as B\A. The sample image is input into the first neural network to be trained (PCNet-M), and the network parameters of the first neural network are adjusted with the goal of keeping the outline of the first sample image unchanged.

일부 실시예에 있어서, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하는 단계는, 구체적으로 아래의 단계를 이용하여 구현될 수 있다.In some embodiments, the step of selecting a target shielding object that has a shielding relationship with the shielded target object from the target image based on the shielding relationship may be specifically implemented using the following steps.

상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 적어도 한 레벨의 타깃 차폐 대상을 선별하고, 여기서, 첫 번째 레벨의 타깃 차폐 대상은 상기 차폐된 타깃 대상을 차폐하고, 다른 레벨의 타깃 차폐 대상은 이전 레벨의 타깃 차폐 대상을 차폐한다.Based on the shielding relationship, at least one level of target shielding object having a shielding relationship with the shielded target object is selected from the target image, where the target shielding object of the first level is shielded from the shielded target object. And, the target shielding object of another level shields the target shielding object of the previous level.

상기 실시형태에 있어서, 차폐된 타깃 대상과 직접적인 차폐 관계가 존재하는 첫 번째 레벨의 타깃 차폐 대상을 선별할 뿐만 아니라, 이전 레벨의 타깃 차폐 대상과 차폐 관계가 존재하는 다른 레벨의 타깃 차폐 대상을 선별할 수 있으므로, 선별하여 얻은 타깃 차폐 대상의 전명성을 향상시킬 수 있음으로써, 이미지 보완의 정확도를 향상시키는데 유리하다.In the above embodiment, in addition to selecting the target shielding object at the first level that has a direct shielding relationship with the shielded target object, it also selects the target shielding object at the other level that has a shielding relationship with the target shielding object at the previous level. Therefore, it is possible to improve the transparency of the selected target shielding object, which is advantageous in improving the accuracy of image supplementation.

상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 적어도 한 레벨의 타깃 차폐 대상을 선별하는 단계는, 구체적으로 아래 단계를 이용하여 구현될 수 있다.The step of selecting at least one level of target shielding object that has a shielding relationship with the shielded target object from the target image may be specifically implemented using the following steps.

결정된 차폐 관계에 기반하여, 상기 타깃 이미지에 대응되는 차폐 유향 그래프를 구축하고; 상기 차폐 유향 그래프에서의 노드는 다른 타깃 대상과 인접한 타깃 대상이고, 상기 차폐 유향 그래프에서의 변은 두 개의 인접한 타깃 대상에서의 타깃 대상으로부터 차폐된 타깃 대상을 가리키며; 상기 차폐 유향 그래프에 기반하여, 차폐된 타깃 대상에 대응되는 노드의 모든 레벨의 조상 노드를 결정하고, 결정된 각 레벨의 조상 노드에 대응되는 타깃 대상을 상기 차폐된 타깃 대상의 각 레벨의 타깃 차폐 대상으로 사용한다.Based on the determined occlusion relationship, construct an occlusion directed graph corresponding to the target image; A node in the occluded directed graph is a target object that is adjacent to another target object, and an edge in the occluded directed graph indicates a target object that is occluded from a target object in two adjacent target objects; Based on the shielded directed graph, ancestor nodes of all levels of nodes corresponding to the shielded target object are determined, and target objects corresponding to the ancestor nodes of each determined level are designated as target shielded objects of each level of the shielded target object. Use it as

일부 가능한 구현 방식에 있어서, 구축된 차폐 유향 그래프는 도 3에 도시된 바와 같으며, 도 3에서, 노드5는 노드2에 의해 차폐되고, 노드1은 노드5, 노드2, 노드4 및 노드3에 의해 차폐된다. 타깃 대상이 노드 1이면, 결정된 노드 1의 조상 노드는 노드5, 노드2, 노드4, 노드 3을 포함한다. 타깃 대상이 노드 7이면, 결정된 노드 7의 조상 노드는 노드 1, 노드 3, 노드 5, 노드 2, 노드 4를 포함한다.In some possible implementations, the constructed shielded directed graph is as shown in Figure 3, where node 5 is shielded by node 2, node 1 is shielded by node 5, node 2, node 4, and node 3. is shielded by If the target is node 1, the determined ancestor nodes of node 1 include node 5, node 2, node 4, and node 3. If the target object is node 7, the determined ancestor nodes of node 7 include node 1, node 3, node 5, node 2, and node 4.

또한, 구축된 차폐 유향 그래프는 또한 다른 노드와 차폐 관계가 존재하지 않는 노드를 포함할 수 있고, 예를 들어 노드 8 및 노드 9와 다른 노드는 차폐 관계가 존재하지 않는다.Additionally, the constructed shielded directed graph may also include nodes for which no shielding relationship exists with other nodes, for example nodes other than node 8 and node 9 have no shielding relationship.

상기 실시예에 있어서, 차폐 유향 그래프를 이용하여 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 결정하여, 선별하여 얻은 타깃 차폐 대상의 전면성을 향상시키고, 선별 효율을 향상시킨다.In the above embodiment, the target shielding object that has a shielding relationship with the target object is determined using a shielding directed graph, thereby improving the omnipresence of the target shielding object obtained by screening and improving screening efficiency.

일부 실시예에 있어서, 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐 부분의 윤곽 정보를 결정하는 단계는, 구체적으로 아래 단계를 이용하여 구현될 수 있다.In some embodiments, the step of determining the outline information of the shielding portion of the shielded target object based on the modal mask of the target shielded object and the modal mask of the shielded target object, specifically using the following steps: It can be implemented.

상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하고; 상기 제1 신경망을 이용하여, 상기 합집합에 대응되는 이미지, 상기 차폐된 타깃 대상의 모달 마스크에 따라, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보를 결정한다.determining a union of modal masks of the target shielding object; Using the first neural network, outline information of the occluded portion of the occluded target object is determined according to the image corresponding to the union and the modal mask of the occluded target object.

제1 신경망은 대상의 모달 마스크에 기반하여 차폐된 대상에 대해 윤곽 보완을 진행하는데 사용되고, 즉 차폐된 대상의 차폐된 부분의 윤곽 정보를 결정한다. 따라서, 여기서, 제1 신경망을 이용하여, 타깃 대상에 대응되는 타깃 차폐 대상의 모달 마스크 및 차폐된 타깃 대상의 모달 마스크에 기반하여, 타깃 대상의 차폐된 부분의 윤곽 정보를 결정할 수 있다.The first neural network is used to perform contour supplementation for the occluded object based on the modal mask of the object, that is, it determines the outline information of the occluded portion of the occluded object. Therefore, here, using the first neural network, outline information of the shielded portion of the target object can be determined based on the modal mask of the target shielded object corresponding to the target object and the modal mask of the shielded target object.

상기 실시예에서 훈련된 제1 신경망을 이용하여, 타깃 차폐 대상의 병합된 모달 마스크 및 차폐된 타깃 대상의 모달 마스크에 기반하여, 타깃 대상의 차폐된 부분에 대해 보완을 진행하여, 이미지 보완의 정확도를 향상시킬 수 있다.Using the first neural network trained in the above embodiment, compensation is performed on the occluded part of the target object based on the merged modal mask of the target occlusion object and the modal mask of the occluded target object, thereby improving the accuracy of image supplementation. can be improved.

타깃 대상의 차폐된 부분의 윤곽 정보를 얻은 후, 타깃 대상의 모달 마스크에 기반하여 타깃 대상의 논모달 마스크를 결정할 수 있다. 여기서, 논모달 마스크는 타깃 대상의 모달 마스크 및 타깃 대상의 차폐된 부분의 윤곽 정보를 병합한 후 얻은 것이고, 타깃 대상의 차폐되지 않은 부분의 윤곽을 포함할 뿐만 아니라, 타깃 대상의 차폐된 부분의 윤곽도 포함한다.After obtaining the outline information of the masked portion of the target object, the non-modal mask of the target object can be determined based on the modal mask of the target object. Here, the non-modal mask is obtained after merging the modal mask of the target object and the outline information of the occluded part of the target object, and not only includes the outline of the unoccluded part of the target object, but also contains the outline of the occluded part of the target object. It also includes outlines.

일부 실시예에 있어서, 도 4에 도시된 바와 같이, 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계는, 구체적으로 아래 단계를 이용하여 구현될 수 있다.In some embodiments, as shown in Figure 4, a modal mask of the target occlusion object, an image of each pixel point in the outline of the occlusion portion of the occlusion target object, based on the modal mask of the occlusion target object. The step of determining information can be specifically implemented using the steps below.

단계 S410에 있어서, 상기 차폐된 타깃 대상의 모달 마스크 및 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보에 기반하여, 상기 차폐된 타깃 대상의 논모달 마스크를 결정한다.In step S410, a non-modal mask of the shielded target object is determined based on the modal mask of the shielded target object and outline information of the shielded portion of the shielded target object.

여기서, 타깃 대상의 논모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보 및 상기 타깃 대상이 다른 타깃 대상에 의해 차폐된 마스크 정보를 포함한다. 구체적으로 차폐된 타깃 대상의 모달 마스크 및 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보를 병합하여, 타깃 대상의 논모달 마스크를 얻을 수 있다. 얻은 논모달 마스크는 타깃 대상의 차폐되지 않은 부분의 윤곽을 포함하고, 타깃 대상의 차폐된 부분의 윤곽도 포함한다.Here, the non-modal mask of the target object includes mask information in which the target object is not shielded by another target object and mask information in which the target object is shielded by another target object. Specifically, a non-modal mask of the target object can be obtained by merging the modal mask of the shielded target object and the outline information of the shielded portion of the shielded target object. The obtained non-modal mask contains the outline of the unoccluded part of the target object and also contains the outline of the occluded part of the target object.

단계 S420에 있어서, 상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하고; 상기 합집합과 상기 차폐된 타깃 대상의 논모달 마스크의 제1 교집합을 결정한다. In step S420, a union of modal masks of the target shielding object is determined; A first intersection of the union and the non-modal mask of the shielded target object is determined.

여기서, 차폐된 타깃 대상의 논모달 마스크 및 상기 합집합을 이용하여 결정된 제1 교집합은, 차폐된 타깃 대상의 차폐된 영역의 각 픽셀 포인트에 대응되는 마스크 정보이다.Here, the first intersection determined using the non-modal mask of the shielded target object and the union is mask information corresponding to each pixel point of the shielded area of the shielded target object.

단계 S430에 있어서, 상기 제1 교집합에 대응되는 이미지를 이용하여 부분 타깃 이미지를 차폐한다.In step S430, the partial target image is shielded using the image corresponding to the first intersection.

여기서, 상기 부분 타깃 이미지는 상기 타깃 이미지에서 상기 차폐된 타깃 대상을 중심으로 하고, 상기 차폐된 타깃 대상 주변의 픽셀 포인트의 부분을 포함한다. 차폐된 타깃 대상의 차폐된 영역을 이용하여 부분 타깃 이미지를 차폐한다.Here, the partial target image centers on the occluded target object in the target image and includes a portion of pixel points around the occluded target object. A partial target image is shielded using the shielded area of the shielded target object.

단계 S440에 있어서, 상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정한다.In step S440, image information of each pixel point within the outline of the masked portion of the masked target object is determined based on the image corresponding to the first intersection and the partial target image after masking.

여기서, 상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 부분 타깃 이미지를 미리 훈련된 제2 신경망에 입력하고, 상기 훈련된 제2 신경망이 입력된 이미지에 대해 처리를 진행하는 것을 통해, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 얻는 것일 수 있다.Here, the image corresponding to the first intersection and the partial target image after being masked are input to a pre-trained second neural network, and the trained second neural network processes the input image, thereby blocking the masking. This may be to obtain image information of each pixel point within the outline of the masked portion of the target object.

이 단계는 훈련된 제2 신경망을 이용하여 특정된 타깃 대상이 인접한 대상 쌍에서의 다른 한 타깃 대상에 의해 차폐된 윤곽 내 픽셀 포인트의 이미지 정보를 결정하여, 이미지 보완의 자동화 정도, 효율 및 정확도를 향상시킬 수 있다.This step uses a trained second neural network to determine the image information of pixel points in the outline where a specified target object is occluded by another target object in an adjacent object pair, thereby improving the degree of automation, efficiency, and accuracy of image supplementation. It can be improved.

상기 실시예에서 상기 차폐된 타깃 대상의 차폐된 영역 및 타깃 대상에 대응되는 차폐된 이후의 이미지를 이용하여, 결정된 픽셀 포인트의 이미지 정보의 정확도를 향상시킬 수 있다.In the above embodiment, the accuracy of image information of the determined pixel point can be improved by using the masked area of the masked target object and the subsequent masked image corresponding to the target object.

관련 기술에 있어서, 픽셀 포인트의 이미지 정보를 결정할 경우, 일반적으로 먼저 인공으로 라벨링된 샘플 이미지를 이용하여 신경망을 훈련한 다음, 훈련된 신경망을 이용하여 픽셀 포인트의 이미지 정보를 결정하는 것이다. 샘플 이미지를 인공으로 라벨링하면, 인적 자원을 낭비할 뿐만 아니라, 인공 경험의 불확실성으로 인해 라벨링 정확도가 낮은 결함을 가져다 줌으로써, 훈련하여 얻은 신경망의 검출 정확도에 영향을 미친다.In related technology, when determining image information of a pixel point, a neural network is generally first trained using an artificially labeled sample image, and then the image information of the pixel point is determined using the trained neural network. Artificially labeling sample images not only wastes human resources, but also introduces defects such as low labeling accuracy due to the uncertainty of artificial experience, thereby affecting the detection accuracy of the trained neural network.

상기 기술 문제에 대해, 본 발명은 아래의 실시예를 제공하여, 도 5에 도시된 바와 같이, 인공으로 라벨링된 샘플 이미지를 이용하여 신경망을 훈련하는 것을 방지한다.Regarding the above technical problem, the present invention provides the following embodiment to avoid training a neural network using artificially labeled sample images, as shown in Figure 5.

단계 S510에 있어서, 제3 샘플 대상의 모달 마스크에 대응되는 제3 샘플 이미지 및 제4 샘플 대상의 모달 마스크에 대응되는 제4 샘플 이미지를 획득한다.In step S510, a third sample image corresponding to the modal mask of the third sample object and a fourth sample image corresponding to the modal mask of the fourth sample object are acquired.

단계 S520에 있어서, 상기 제4 샘플 이미지를 이용하여 상기 제3 샘플 이미지의 일부를 차폐한다.In step S520, a portion of the third sample image is shielded using the fourth sample image.

여기서, 제4 샘플 이미지를 이용하여 일부 제3 샘플 이미지를 차폐하는 것일 수 있을 뿐만 아니라, 제4 샘플 이미지를 이용하여 일부 제3 샘플 이미지를 지우는 것일 수도 있다.Here, not only may some of the third sample images be shielded using the fourth sample image, but also some of the third sample images may be erased using the fourth sample image.

단계 S530에 있어서, 제4 샘플 이미지를 이용하여 상기 제3 샘플 이미지의 일부를 차폐한 후, 상기 제3 샘플 대상의 모달 마스크와 상기 제4 샘플 대상의 모달 마스크의 제2 교집합을 결정한다.In step S530, after blocking a part of the third sample image using the fourth sample image, a second intersection of the modal mask of the third sample object and the modal mask of the fourth sample object is determined.

단계 S540에 있어서, 차폐된 제3 샘플 이미지, 제2 교집합에 대응되는 이미지에 기반하여, 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정한다.In step S540, based on the masked third sample image and the image corresponding to the second intersection, the target is to complement the image information of each pixel point of the masked portion of the third sample image, and a second to be trained Adjust the network parameters of the neural network.

일부 가능한 구현 방식에 있어서, 이 단계는 아래의 서브 단계를 이용하여 구현될 수 있다.In some possible implementation methods, this step may be implemented using the substeps below.

서브 단계1 에 있어서, 상기 제3 샘플 대상에 대응되는 제5 샘플 이미지를 획득하고, 상기 제5 샘플 이미지는 상기 제3 샘플 대상을 이미지 중심으로 한 이미지이고, 상기 이미지는 상기 제3 샘플 대상 및 상기 제3 샘플 대상 주변의 픽셀 포인트를 포함한다.In substep 1, a fifth sample image corresponding to the third sample object is acquired, the fifth sample image is an image centered on the third sample object, and the image is the third sample object and the third sample object. Includes pixel points around the third sample object.

서브 단계2 에 있어서, 상기 제2 교집합에 대응되는 이미지를 이용하여 상기 제5 샘플 이미지의 일부를 차폐한다.In substep 2, a part of the fifth sample image is masked using the image corresponding to the second intersection.

서브 단계3 에 있어서, 차폐된 상기 제3 샘플 이미지 및 차폐된 상기 제5 샘플 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정한다.In sub-step 3, based on the masked third sample image and the masked fifth sample image, training is performed with the goal of complementing the image information of each pixel point of the masked portion of the third sample image. Adjust the network parameters of the second neural network to be used.

이 단계에서, 상기 대응되는 이미지에 의해 차폐된 제5 샘플 이미지 및 한 샘플 대상에 대응되는 이미지에 의해 차폐된 제3 샘플 이미지를 이용하여 제2 신경망을 훈련하고, 훈련의 타깃은 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것임으로써, 훈련하여 얻은 제2 신경망이 픽셀 포인트의 이미지 정보를 결정할 경우의 정확도를 향상시킬 수 있다.In this step, a second neural network is trained using the fifth sample image masked by the corresponding image and the third sample image masked by the image corresponding to one sample object, and the training target is the third sample image. By supplementing the image information of each pixel point in the masked portion of the image, the accuracy of the second neural network obtained through training can be improved when determining the image information of the pixel point.

설명해야 할 것은, 제2 교집합은 제3 샘플 이미지가 제4 샘플 이미지에 의해 지워지거나 차폐된 부분이고, 제2 교집합으로 제5 샘플 이미지를 차폐하되, 실질적으로 차폐된 것은 제5 샘플 이미지에서, 제3 샘플 이미지가 제4 샘플 이미지에 의해 지워진 부분이고, 따라서, 제2 신경망을 훈련할 경우, 제5 샘플 이미지를 복원하는 것을 타깃으로 간주할 수 있고, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 간주할 수도 있다.What should be explained is that the second intersection is the part where the third sample image is erased or blocked by the fourth sample image, and the fifth sample image is masked by the second intersection, but the fifth sample image is substantially masked, The third sample image is the part erased by the fourth sample image, and therefore, when training the second neural network, restoring the fifth sample image can be considered as the target, and the masked part of the third sample image Complementing the image information of each pixel point may be considered a target.

여기서, 차폐된 상기 제3 샘플 이미지의 역할은 신경망이 복원해야 하는 대상이 제3 샘플 이미지에 대응되는 대상임을 안내하는 것이다.Here, the role of the masked third sample image is to guide the neural network that the object to be restored is the object corresponding to the third sample image.

상기 실시예에 있어서, 한 샘플 이미지가 다른 한 샘플 이미지를 부분적으로 차폐한 것을 이용하고, 차폐된 이후의 두 개의 샘플 대상의 모달 마스크의 교집합에 대응되는 이미지와 결합하여 대상의 차폐된 부분의 윤곽 내 픽셀 포인트의 이미지 정보를 결정하기 위한 제2 신경망을 훈련하여, 훈련하여 얻은 제2 신경망이 픽셀 포인트의 정보를 결정할 경우의 정확도를 보장할 수 있고; 이와 동시에, 제2 신경망을 훈련할 경우, 인공으로 라벨링된 샘플 이미지를 이용하지 않음으로써, 인공으로 라벨링된 샘플 이미지로 인한 정확도를 보장할 수 없는 결함을 극복한다.In the above embodiment, one sample image partially occludes another sample image, and the outline of the occluded portion of the object is combined with the image corresponding to the intersection of the modal masks of the two sample objects after occlusion. By training a second neural network to determine image information of my pixel point, the accuracy of the trained second neural network in determining the information of the pixel point can be guaranteed; At the same time, when training the second neural network, artificially labeled sample images are not used, thereby overcoming the defect of not being able to guarantee accuracy due to artificially labeled sample images.

일부 가능한 구현 방식에 있어서, 도 7에 도시된 바와 같이, 제3 샘플 이미지는 이전의 제1 샘플 이미지 A를 사용할 수 있고, 제4 샘플 이미지는 이전의 제2 샘플 이미지 B를 사용할 수 있고, 제4 샘플 이미지가 제3 샘플 이미지를 차폐한 후, 차폐된 제3 샘플 이미지는 A\B로 표시된다. 차폐된 후, 제3 샘플 대상의 모달 마스크와 상기 제4 샘플 대상의 모달 마스크의 제2 교집합은 A∩B로 표시될 수 있고, 차폐된 상기 제3 샘플 이미지 및 차폐된 상기 제5 샘플 이미지를 훈련될 제2 신경망(PCNet-C)에 입력하여, 차폐된 이후의 제5 샘플 이미지를 차폐 전의 제5 샘플 이미지로 복원하는 것을 타깃으로 하여, 제2 신경망의 네트워크 파라미터를 조정한다.In some possible implementation methods, as shown in FIG. 7, the third sample image may use the previous first sample image A, the fourth sample image may use the previous second sample image B, and the third sample image may use the previous second sample image B, and After the 4 sample image masks the third sample image, the masked third sample image is displayed as A\B. After masking, the second intersection of the modal mask of the third sample object and the modal mask of the fourth sample object can be expressed as A∩B, and the masked third sample image and the masked fifth sample image It is input to the second neural network to be trained (PCNet-C), and the network parameters of the second neural network are adjusted with the goal of restoring the fifth sample image after masking to the fifth sample image before masking.

설명해야 할 것은, 상기 제1 신경망 및 제2 신경망을 훈련하는 단계는 이미지 처리 방법을 실행하는 단말 기기에 의해 실행될 수 있고, 독립적으로 하나 또는 두 개의 신경망을 훈련하는 기기에 의해 실행될 수도 있다.It should be noted that the step of training the first neural network and the second neural network may be performed by a terminal device executing the image processing method, or may be performed by a device independently training one or two neural networks.

상기 실시예에서의 이미지 처리 방법은, 인공으로 라벨링된 차폐 관계, 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 윤곽 내 픽셀 포인트의 이미지 정보의 샘플 이미지를 이용하지 않으므로, 인적 자원을 절약하는 동시에, 인공 라벨링으로 인한 불확실성을 극복한다.The image processing method in the above embodiment does not use sample images of artificially labeled occlusion relationships, outline information of the occluded portion of the target object, and image information of pixel points within the occluded outline, thereby saving human resources. , overcoming the uncertainty caused by artificial labeling.

상기 실시예에서는 훈련된 제1 신경망을 이용하여, 타깃 이미지에서 차폐된 타깃 대상을 보완할 수 있고, 타깃 대상 보완 전의 윤곽 및 보완 이후의 윤곽에 기반하여 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 예측한다. 상기 실시예에서는 차폐 관계에 기반하여 차폐된 타깃 대상에 대응되는 타깃 차폐 대상을 결정할 수 있음으로써, 결정된 타깃 차폐 대상의 모달 마스크, 차폐된 타깃 대상의 모달 마스크에 기반하여 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정한다. 상기 실시예에서는 인공으로 라벨링된 이미지를 이용하여 훈련하는 네트워크로 차폐 부분의 윤곽 정보 및 이미지 정보를 결정하는 것을 방지하는 동시에, 차폐된 타깃 대상의 타깃 차폐 대상이 차폐된 타깃 대상의 차폐된 부분에 대해 보완을 진행하는 것과 결합하므로, 결정된 차폐 부분의 윤곽 정보 및 이미지 정보의 정확도를 효과적으로 향상시킬 수 있다. In the above embodiment, the target object masked in the target image can be supplemented using the trained first neural network, and the occlusion relationship between adjacent target objects in the target image is predicted based on the outline before and after the target object complementation. do. In the above embodiment, the target shielding object corresponding to the shielded target object can be determined based on the shielding relationship, thereby determining the modal mask of the determined target shielding object and the shielding of the shielded target object based on the modal mask of the shielded target object. Determine the outline information of the part and the image information of each pixel point within the outline of the masked part. In the above embodiment, the network trained using artificially labeled images is prevented from determining the outline information and image information of the occluded portion, and at the same time, the target occluded object of the occluded target object is connected to the occluded portion of the occluded target object. By combining this with supplementation, the accuracy of the contour information and image information of the determined shielded part can be effectively improved.

상기 이미지 처리 방법에 대응되게, 본 발명은 이미지 처리 장치를 더 제공하고, 상기 장치는 차폐된 대상에 대해 보완을 진행하는 단말 기기에 적용되며, 각 모듈은 상기 방법에서 동일한 방법 단계를 구현할 수 있고 및 동일한 유익한 효과를 얻을 수 있으며, 따라서 동일한 부분에 대해, 본 발명은 더이상 반복하여 설명하지 않는다.Corresponding to the above image processing method, the present invention further provides an image processing device, the device being applied to a terminal device that performs compensation for a occluded object, each module capable of implementing the same method steps in the method, and the same beneficial effects can be obtained, and therefore, for the same parts, the present invention will not be described again repeatedly.

구체적으로, 도 8에 도시된 바와 같이, 본 발명은 이미지 처리 장치를 제공하고, 상기 장치는,Specifically, as shown in FIG. 8, the present invention provides an image processing device, the device comprising:

타깃 이미지를 획득하도록 구성된 이미지 획득 모듈(810);An image acquisition module 810 configured to acquire a target image;

상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하도록 구성된 차폐 결정 모듈(820) - 인접한 타깃 대상의 모달 마스크는 서로 연결됨 - ;A shielding determination module 820 configured to determine a shielding relationship between adjacent target objects in the target image - modal masks of adjacent target objects are connected to each other;

상기 타깃 이미지에서 어느 한 차폐된 타깃 대상에 대해, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하도록 구성된 대상 선별 모듈(830); 및An object selection module 830 configured to select a target shielding object that has a shielding relationship with the shielded target object from the target image, based on the shielding relationship, with respect to a shielded target object in the target image; and

상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하도록 구성된 마스크 처리 모듈(840) - 타깃 대상의 모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보를 포함함 - 을 포함한다.A mask configured to determine, based on the modal mask of the target shielding object and the modal mask of the shielded target object, contour information of a shielded portion of the shielded target object and image information of each pixel point within the outline of the shielded portion. Processing module 840 includes a modal mask of a target object including mask information where the target object is not occluded by other target objects.

일부 실시예에 있어서, 상기 차폐 결정 모듈(820)은,In some embodiments, the shielding determination module 820:

상기 타깃 이미지로부터 인접한 대상 쌍을 선별하고 - 인접한 대상 쌍은 두 개의 인접한 타깃 대상을 포함함 - ; Select adjacent object pairs from the target image - an adjacent object pair includes two adjacent target objects;

상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완하며;one target object in the pair of adjacent objects each complements an outline masked by another target object in the pair of adjacent objects;

각 타깃 대상의 보완된 이후의 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 상기 인접한 대상 쌍에서 두 개의 인접한 타깃 대상 간의 차폐 관계를 결정하도록 구성된다.and determine a shielding relationship between two adjacent target objects in the pair of adjacent objects, based on the overall outline after complementation and the overall outline before complementation of each target object.

일부 실시예에 있어서, 상기 차폐 결정 모듈(820)이 상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완할 경우, 상기 차폐 결정 모듈(820)은,In some embodiments, the occlusion determination module 820 determines the occlusion when one target object in the adjacent object pair respectively complements the outline occluded by the other target object in the adjacent object pair. )silver,

제1 신경망을 이용하여 상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완하도록 구성된다.Using the first neural network, one target object in the adjacent object pair is configured to respectively complement the outline masked by the other target object in the adjacent object pair.

일부 실시예에 있어서, 상기 마스크 처리 모듈(840)이 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐 부분의 윤곽 정보를 결정할 경우, 상기 마스크 처리 모듈(840)은,In some embodiments, when the mask processing module 840 determines the outline information of the shielding portion of the shielded target object based on the modal mask of the target shielded object and the modal mask of the shielded target object, The mask processing module 840 is,

상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하고; determining a union of modal masks of the target shielding object;

상기 제1 신경망을 이용하여, 상기 합집합에 대응되는 이미지, 상기 차폐된 타깃 대상의 모달 마스크에 따라, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보를 결정하도록 구성된다.It is configured to determine outline information of a occluded portion of the occluded target object according to an image corresponding to the union and a modal mask of the occluded target object, using the first neural network.

일부 실시예에 있어서, 상기 이미지 처리 장치는 상기 제1 신경망을 훈련하는 네트워크 훈련 모듈(850)을 더 포함하고, 상기 네트워크 훈련 모듈(850)은,In some embodiments, the image processing device further includes a network training module 850 for training the first neural network, and the network training module 850 includes,

제1 샘플 대상의 모달 마스크에 대응되는 제1 샘플 이미지 및 제2 샘플 대상의 모달 마스크에 대응되는 제2 샘플 이미지를 획득하고;Obtaining a first sample image corresponding to the modal mask of the first sample object and a second sample image corresponding to the modal mask of the second sample object;

상기 제2 샘플 이미지를 이용하여 상기 제1 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 상기 제2 샘플 이미지, 차폐된 이후의 제1 샘플 이미지를 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지가 상기 제2 샘플 이미지에 의해 차폐된 윤곽을 보완하는 것을 타깃으로 하여, 상기 훈련될 제1 신경망의 네트워크 파라미터를 조정하도록 구성된다.A portion of the first sample image is masked using the second sample image, and the first sample image, the second sample image, and the masked first sample image are input to a first neural network to be trained, and adjust network parameters of the first neural network to be trained, with the goal that the first sample image complements the outline masked by the second sample image.

일부 실시예에 있어서, 상기 네트워크 훈련 모듈(850)은 또한, 상기 제1 샘플 이미지를 이용하여 상기 제2 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 차폐된 이후의 제2 샘플 이미지를 상기 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지의 윤곽이 변하지 않도록 유지하는 것을 타깃으로 하여, 상기 훈련될 제1 신경망의 네트워크 파라미터를 조정하도록 구성된다.In some embodiments, the network training module 850 also masks a portion of the second sample image using the first sample image, and uses the first sample image and the second sample image after the masking. It is configured to adjust network parameters of the first neural network to be trained by inputting it to the first neural network to be trained, with the goal of keeping the outline of the first sample image unchanged.

일부 실시예에 있어서, 대상 선별 모듈(830)은, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 적어도 한 레벨의 타깃 차폐 대상을 선별 - 첫 번째 레벨의 타깃 차폐 대상은 상기 차폐된 타깃 대상을 차폐하고, 다른 레벨의 타깃 차폐 대상은 이전 레벨의 타깃 차폐 대상을 차폐함 - 하도록 구성된다.In some embodiments, the object selection module 830 selects a target occlusion object of at least one level that has a occlusion relationship with the occluded target object from the target image, based on the occlusion relationship - the first level. The target shielding object is configured to shield the shielded target object, and the target shielding object at another level is configured to shield the target shielding object at the previous level.

일부 실시예에 있어서, 대상 선별 모듈(830)은 또한, 상기 차폐 관계에 기반하여, 상기 타깃 이미지에 대응되는 차폐 유향 그래프를 구축하고 - 상기 차폐 유향 그래프에서의 노드는 다른 타깃 대상과 인접한 타깃 대상이고, 상기 차폐 유향 그래프에서의 변은 두 개의 인접한 타깃 대상에서의 한 타깃 대상으로부터 차폐된 타깃 대상을 가리킴 - ; 상기 차폐 유향 그래프에 기반하여, 차폐된 타깃 대상에 대응되는 노드의 모든 레벨의 조상 노드를 결정하며; 결정된 각 레벨의 조상 노드에 대응되는 타깃 대상을 상기 차폐된 타깃 대상의 각 레벨의 타깃 차폐 대상으로 사용하도록 구성된다.In some embodiments, the target selection module 830 also constructs, based on the occlusion relationship, a occlusion directed graph corresponding to the target image, wherein a node in the occlusion directed graph is a target object that is adjacent to another target object. , and an edge in the shielded directed graph indicates a target object that is shielded from one target object in two adjacent target objects -; Based on the occluded directed graph, determine ancestor nodes of all levels of the node corresponding to the occluded target object; It is configured to use the target object corresponding to the ancestor node of each determined level as the target shielding object of each level of the shielded target object.

일부 실시예에 있어서, 상기 마스크 처리 모듈(840)이 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정할 경우, 상기 마스크 처리 모듈(840)은,In some embodiments, the mask processing module 840 generates an image of each pixel point within the outline of the occluded portion of the occluded target object based on the modal mask of the target occluded object and the modal mask of the occluded target object. When determining information, the mask processing module 840

상기 차폐된 타깃 대상의 모달 마스크 및 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보에 기반하여, 상기 차폐된 타깃 대상의 논모달 마스크를 결정하고 - 타깃 대상의 논모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보 및 상기 타깃 대상이 다른 타깃 대상에 의해 차폐된 마스크 정보를 포함함 - ;Based on the modal mask of the shielded target object and the outline information of the shielded portion of the shielded target object, a non-modal mask of the shielded target object is determined - the non-modal mask of the target object is determined when the target object is different from the target object. Contains mask information that is not shielded by a target object and mask information that the target object is shielded by another target object -;

상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하며;determining a union of modal masks of the target shielding object;

상기 합집합과 상기 차폐된 타깃 대상의 논모달 마스크의 제1 교집합을 결정하고;determine a first intersection of the union and the non-modal mask of the occluded target object;

상기 제1 교집합에 대응되는 이미지를 이용하여 부분 타깃 이미지를 차폐하며 - 상기 부분 타깃 이미지는 상기 타깃 이미지에서 상기 차폐된 타깃 대상을 중심으로 하고, 상기 차폐된 타깃 대상 주변의 픽셀 포인트의 부분을 포함함 - ;Masking a partial target image using an image corresponding to the first intersection, wherein the partial target image is centered on the masked target object in the target image and includes a portion of pixel points around the masked target object. Ham - ;

상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하도록 구성된다.Based on the image corresponding to the first intersection and the partial target image after being masked, it is configured to determine image information of each pixel point within the outline of the masked portion of the masked target object.

일부 실시예에 있어서, 상기 네트워크 훈련 모듈(850)은 또한, 제2 신경망에 대해 훈련을 진행하도록 구성되고, 상기 제2 신경망은 또한, 상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하기 위한 것이다.In some embodiments, the network training module 850 is also configured to train a second neural network, wherein the second neural network further includes an image corresponding to the first intersection and the portion after being masked. Based on the target image, the image information of each pixel point within the outline of the masked portion of the masked target object is determined.

일부 실시예에 있어서, 상기 네트워크 훈련 모듈(850)은 또한, 제3 샘플 대상의 모달 마스크에 대응되는 제3 샘플 이미지 및 제4 샘플 대상의 모달 마스크에 대응되는 제4 샘플 이미지를 획득하고; 상기 제4 샘플 이미지를 이용하여 상기 제3 샘플 이미지의 일부를 차폐한 후, 상기 제3 샘플 대상의 모달 마스크와 상기 제4 샘플 대상의 모달 마스크의 제2 교집합을 결정하며; 차폐된 상기 제3 샘플 이미지, 상기 제2 교집합에 대응되는 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정하도록 구성된다.In some embodiments, the network training module 850 further acquires a third sample image corresponding to the modal mask of the third sample object and a fourth sample image corresponding to the modal mask of the fourth sample object; After blocking a portion of the third sample image using the fourth sample image, determining a second intersection of the modal mask of the third sample object and the modal mask of the fourth sample object; Based on the masked third sample image and the image corresponding to the second intersection, the target is to complement the image information of each pixel point of the masked portion of the third sample image, and the second neural network to be trained It is configured to adjust network parameters.

일부 실시예에 있어서, 상기 네트워크 훈련 모듈(850)은 또한, 상기 제3 샘플 대상에 대응되는 제5 샘플 이미지를 획득하고 - 상기 제5 샘플 이미지는 상기 제3 샘플 대상을 이미지 중심으로 하는 이미지이고, 상기 제3 샘플 대상 및 상기 제3 샘플 대상 주변의 픽셀 포인트를 포함함 - ; 상기 제2 교집합에 대응되는 이미지를 이용하여 상기 제5 샘플 이미지의 일부를 차폐하며; 차폐된 상기 제3 샘플 이미지 및 차폐된 상기 제5 샘플 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정하도록 구성된다.In some embodiments, the network training module 850 also obtains a fifth sample image corresponding to the third sample object, wherein the fifth sample image is an image centered on the third sample object, and , including the third sample object and pixel points around the third sample object; shielding a portion of the fifth sample image using an image corresponding to the second intersection; A network of a second neural network to be trained, based on the masked third sample image and the masked fifth sample image, with the goal of complementing the image information of each pixel point of the masked portion of the third sample image. It is configured to adjust parameters.

본 발명의 실시예는 전자 기기를 개시하고, 도 9에 도시된 바와 같이, 프로세서(901), 메모리(902) 및 버스(903)를 포함하며, 상기 메모리(902)에는 상기 프로세서(901)가 실행 가능한 기계 판독 가능한 명령어가 저장되어 있으며, 전자 기기가 작동될 경우, 상기 프로세서(901)와 상기 메모리(902) 사이는 버스(903)를 통해 통신한다.An embodiment of the present invention discloses an electronic device, as shown in FIG. 9, including a processor 901, a memory 902, and a bus 903, wherein the memory 902 includes the processor 901. Executable machine-readable instructions are stored, and when the electronic device is operated, the processor 901 and the memory 902 communicate through a bus 903.

상기 기계 판독 가능한 명령어가 상기 프로세서(901)에 의해 실행될 경우,When the machine-readable instruction is executed by the processor 901,

타깃 이미지를 획득하는 단계; Obtaining a target image;

상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하는 단계 - 인접한 타깃 대상의 모달 마스크는 서로 연결됨 - ;Determining a shielding relationship between adjacent target objects in the target image - modal masks of adjacent target objects are connected to each other;

상기 타깃 이미지에서 어느 한 차폐된 타깃 대상에 대해, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하는 단계; 및For a target object that is shielded in the target image, based on the shielding relationship, selecting a target shielding object that has a shielding relationship with the shielded target object from the target image; and

상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계 - 타깃 대상의 모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보를 포함함 - 를 실행한다.Based on the modal mask of the target shielding object and the modal mask of the shielded target object, determining outline information of a shielded portion of the shielded target object and image information of each pixel point within the outline of the shielded portion - The modal mask of the target object includes mask information in which the target object is not masked by other target objects.

이외에, 기계 판독 가능한 명령어가 프로세서(901)에 의해 실행될 경우, 상기 방법 부분에서 묘사한 어느 한 실시형태에서의 방법 내용을 실행하고, 여기서 반복하여 설명하지 않는다.In addition, when the machine-readable instructions are executed by the processor 901, the method content in any one embodiment described in the method section above is executed, and the description is not repeated here.

본 발명의 실시예는 상기 방법 및 장치에 대응되는 컴퓨터 프로그램 제품을 더 제공하고, 프로그램 코드가 기록된 컴퓨터 판독 가능한 저장 매체를 포함하며, 프로그램 코드에 포함된 명령어는 이전 방법 실시예의 방법을 실행하는데 사용될 수 있으며, 구체적인 실현은 상기 방법 실시예를 참조할 수 있고, 여기서 더이상 반복하여 설명하지 않는다.An embodiment of the present invention further provides a computer program product corresponding to the method and device, and includes a computer-readable storage medium on which program code is recorded, and instructions included in the program code execute the method of the previous method embodiment. may be used, and specific implementation may refer to the above method embodiments, and will not be repeated herein.

전술한 바와 같이, 각 실시예에 대해 각 실시예 사이의 차이점에 초점을 맞추고, 그 동일하거나 유사한 부분은 서로 참조할 수 있으며, 간결함을 위해, 본문에서 더이상 반복하여 설명하지 않는다.As described above, for each embodiment, we will focus on the differences between each embodiment, and the same or similar parts may be referenced to each other, and for the sake of brevity, they will not be repeated further in the text.

본 기술분야의 통상의 기술자는 설명의 편의 및 간결함을 위해, 상기 설명된 시스템, 장치의 구체적인 동작 과정이, 방법 실시예 중 대응되는 과정을 참조할 수 있음을 이해할 수 있으며, 본 발명에서 반복적으로 설명하지 않는다. 본 발명에서 제공된 몇 개의 실시예에 있어서, 개시된 시스템, 장치 및 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 전술한 장치 실시예는 다만 개략적인 것이며, 예를 들어, 상기 모듈의 분할은, 다만 논리적 기능 분할이며, 실제 구현 시 다른 분할 방식이 있을 수 있으며, 또 예를 들어, 복수 개의 모듈 또는 구성 요소가 다른 시스템에 결합되거나 통합될 수 있거나, 일부 특징이 무시되거나 실행되지 않을 수 있다. 또한, 나타내거나 논의된 상호간의 결합 또는 직접 결합 또는 통신 연결은, 일부 통신 인터페이스를 통해 구현되며, 장치 또는 모듈을 통한 간접 결합 또는 통신 연결은, 전기, 기계 또는 다른 형태일 수 있다.Those skilled in the art may understand that, for convenience and brevity of explanation, the specific operation process of the above-described system and device may refer to the corresponding process in the method embodiments, and may be repeated repeatedly in the present invention. Doesn't explain. It should be understood that, in some embodiments provided herein, the disclosed systems, devices, and methods may be implemented in other ways. The above-described device embodiments are only schematic, for example, the division of the module is only a logical function division, and in actual implementation, there may be other division methods, for example, a plurality of modules or components. It may be combined or integrated into other systems, or some features may be ignored or not implemented. Additionally, the mutual coupling or direct coupling or communication connection shown or discussed is implemented through some communication interface, and the indirect coupling or communication connection through a device or module may be electrical, mechanical or other form.

상기 분리 부재로서 설명된 모듈은 물리적으로 분리된 것이거나 아닐 수 있고, 모듈으로 나타낸 부재는 물리적 유닛이거나 아닐 수 있고, 즉 한 곳에 위치하거나, 복수 개의 네트워크 유닛에 분포될 수도 있다. 실제 필요에 따라 그 중의 일부 또는 전부 유닛을 선택하여 본 실시예의 방안의 목적을 구현할 수 있다.Modules described as separate members may or may not be physically separated, and members represented as modules may or may not be physical units, that is, they may be located in one place or distributed over a plurality of network units. Depending on actual needs, some or all of the units may be selected to implement the purpose of the method of this embodiment.

또한, 본 발명의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 통합될 수 있고, 각 유닛이 독립적인 물리적 존재일 수도 있고, 두 개 또는 두 개 이상의 유닛이 한 유닛에 통합될 수도 있다.Additionally, each functional unit in each embodiment of the present invention may be integrated into one processing unit, each unit may be an independent physical entity, or two or two or more units may be integrated into one unit. .

상기 기능이 소프트웨어 기능 유닛의 형태로 구현되고 단독적인 제품으로 판매되거나 사용될 경우, 하나의 프로세서가 실행 가능한 비휘발성 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 발명의 기술 방안, 즉 관련 기술에 기여하는 부분 또는 상기 기술 방안의 일부는 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 하나의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음)로 하여금 본 발명의 각 실시예의 상기 방법의 전부 또는 일부 단계를 실행하는데 사용되는 복수 개의 명령어를 포함한다. 전술한 저장 매체는, USB 디스크, 모바일 하드 디스크, ROM, RAM, 자기 디스크 또는 광 디스크 등과 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.When the above function is implemented in the form of a software functional unit and sold or used as a stand-alone product, it may be stored in a single processor-executable non-volatile computer-readable storage medium. Based on this understanding, the technical solution of the present invention, that is, the part contributing to related technology or a part of the technical solution may be implemented in the form of a software product, and the computer software product is stored in one storage medium, and one It includes a plurality of instructions used to cause a computer device (which may be a personal computer, server, or network device, etc.) to execute all or part of the steps of the method of each embodiment of the present invention. The above-described storage media includes various media capable of storing program code, such as USB disks, mobile hard disks, ROM, RAM, magnetic disks, or optical disks.

이상의 설명은 다만 본 발명의 구체적인 실시 형태일뿐이고, 본 발명의 보호 범위는 이에 한정되지 않는다. 본 출원이 속하는 기술 분야의 통상의 기술자라면, 본 발명에서 개시된 기술적 범위 내의 변화 또는 교체가 모두 본 발명의 보호 범위 내에 속해야 함을 쉽게 알 수 있을 것이다. 따라서, 본 발명의 보호 범위는 특허청구범위의 보호 범위를 기준으로 해야 한다.The above description is only a specific embodiment of the present invention, and the scope of protection of the present invention is not limited thereto. Anyone skilled in the art to which this application belongs will easily understand that any changes or replacements within the technical scope disclosed in the present invention should fall within the protection scope of the present invention. Therefore, the scope of protection of the present invention should be based on the scope of protection of the patent claims.

본 발명의 실시예는 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체를 제공하고, 여기서, 타깃 이미지를 획득하고; 상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하며, 여기서, 인접한 타깃 대상의 모달 마스크는 서로 연결되며; 상기 타깃 이미지에서 어느 한 차폐된 타깃 대상에 대해, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하며; 상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하며; 타깃 대상의 모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보를 포함한다.Embodiments of the present invention provide an image processing method and device, an electronic device, and a computer-readable storage medium, wherein a target image is acquired; determine a shielding relationship between adjacent target objects in the target image, where modal masks of adjacent target objects are connected to each other; For a target object that is shielded in the target image, based on the shielding relationship, select a target shielding object that has a shielding relationship with the shielded target object from the target image; Based on the modal mask of the target shielding object and the modal mask of the shielded target object, determine outline information of a shielded portion of the shielded target object and image information of each pixel point within the outline of the shielded portion; The modal mask of the target object includes mask information in which the target object is not shielded by another target object.

Claims (20)

이미지 처리 방법으로서,
타깃 이미지를 획득하는 단계;
상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하는 단계 - 인접한 타깃 대상의 모달 마스크는 서로 연결됨 - ;
상기 타깃 이미지에서 어느 한 차폐된 타깃 대상에 대해, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하는 단계; 및
상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계 - 타깃 대상의 모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보를 포함함 - 를 포함하고,
상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하는 단계는,
상기 타깃 이미지로부터 인접한 대상 쌍을 선별하는 단계 - 인접한 대상 쌍은 두 개의 인접한 타깃 대상을 포함함 - ;
상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완하는 단계; 및
각 타깃 대상의 보완된 이후의 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 상기 인접한 대상 쌍에서 두 개의 인접한 타깃 대상 간의 차폐 관계를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
As an image processing method,
Obtaining a target image;
Determining a shielding relationship between adjacent target objects in the target image - modal masks of adjacent target objects are connected to each other;
For a target object that is shielded in the target image, based on the shielding relationship, selecting a target shielding object that has a shielding relationship with the shielded target object from the target image; and
Based on the modal mask of the target shielding object and the modal mask of the shielded target object, determining outline information of a shielded portion of the shielded target object and image information of each pixel point within the outline of the shielded portion - The modal mask of the target object includes - where the target object includes mask information that is not masked by another target object,
The step of determining the shielding relationship between adjacent target objects in the target image is,
Selecting adjacent object pairs from the target image, where the adjacent object pair includes two adjacent target objects;
Complementing the outline of one target object in the adjacent object pair by another target object in the adjacent object pair, respectively; and
An image processing method comprising determining an occlusion relationship between two adjacent target objects in the pair of adjacent objects, based on the entire contour after complementation and the overall outline before complementation of each target object.
삭제delete 제1항에 있어서,
상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완하는 단계는 제1 신경망에 의해 실행되는 것을 특징으로 하는 이미지 처리 방법.
According to paragraph 1,
An image processing method, wherein the step of complementing the outline of one target object in the adjacent object pair by another target object in the adjacent object pair is performed by a first neural network.
제3항에 있어서,
상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐 부분의 윤곽 정보를 결정하는 단계는,
상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하는 단계 ; 및
상기 제1 신경망을 이용하여, 상기 합집합에 대응되는 이미지, 상기 차폐된 타깃 대상의 모달 마스크에 따라, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
According to paragraph 3,
The step of determining outline information of a shielded portion of the shielded target object based on the modal mask of the target shielded object and the modal mask of the shielded target object,
determining a union of modal masks of the target shielding object; and
An image comprising the step of determining, using the first neural network, contour information of a masked portion of the masked target object according to an image corresponding to the union and a modal mask of the masked target object. How to handle it.
제3항에 있어서,
상기 제1 신경망은,
제1 샘플 대상의 모달 마스크에 대응되는 제1 샘플 이미지 및 제2 샘플 대상의 모달 마스크에 대응되는 제2 샘플 이미지를 획득하는 단계; 및
상기 제2 샘플 이미지를 이용하여 상기 제1 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 상기 제2 샘플 이미지, 차폐된 이후의 제1 샘플 이미지를 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지가 상기 제2 샘플 이미지에 의해 차폐된 윤곽을 보완하는 것을 타깃으로 하여, 상기 훈련될 제1 신경망의 네트워크 파라미터를 조정하는 단계를 사용하여 훈련되어 얻은 것임을 특징으로 하는 이미지 처리 방법.
According to paragraph 3,
The first neural network is,
Obtaining a first sample image corresponding to a modal mask of a first sample object and a second sample image corresponding to a modal mask of a second sample object; and
A portion of the first sample image is masked using the second sample image, and the first sample image, the second sample image, and the masked first sample image are input to a first neural network to be trained, An image processing method, wherein the first sample image is obtained by being trained using a step of adjusting network parameters of the first neural network to be trained, targeting to complement the outline masked by the second sample image.
제5항에 있어서,
상기 제1 신경망을 훈련하는 단계는,
상기 제1 샘플 이미지를 이용하여 상기 제2 샘플 이미지의 일부를 차폐하고, 상기 제1 샘플 이미지, 차폐된 이후의 제2 샘플 이미지를 상기 훈련될 제1 신경망에 입력하여, 상기 제1 샘플 이미지의 윤곽이 변하지 않도록 유지하는 것을 타깃으로 하여, 상기 훈련될 제1 신경망의 네트워크 파라미터를 조정하는 단계를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
According to clause 5,
The step of training the first neural network is,
A portion of the second sample image is masked using the first sample image, and the first sample image and the masked second sample image are input to the first neural network to be trained, so that the first sample image An image processing method further comprising adjusting network parameters of the first neural network to be trained, with the goal of keeping the outline unchanged.
제1항에 있어서,
상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하는 단계는,
상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 적어도 한 레벨의 타깃 차폐 대상을 선별하는 단계 - 첫 번째 레벨의 타깃 차폐 대상은 상기 차폐된 타깃 대상을 차폐하고, 다른 레벨의 타깃 차폐 대상은 이전 레벨의 타깃 차폐 대상을 차폐함 - 를 포함하는 것을 특징으로 하는 이미지 처리 방법.
According to paragraph 1,
Based on the shielding relationship, the step of selecting a target shielding object that has a shielding relationship with the shielded target object from the target image,
Based on the shielding relationship, selecting at least one level of target shielding object that has a shielding relationship with the shielded target object from the target image - the target shielding object of the first level shields the shielded target object, and , the target shielding object of another level shields the target shielding object of the previous level - an image processing method comprising:
제7항에 있어서,
상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 적어도 한 레벨의 타깃 차폐 대상을 선별하는 단계는,
상기 차폐 관계에 기반하여, 상기 타깃 이미지에 대응되는 차폐 유향 그래프를 구축하는 단계 - 상기 차폐 유향 그래프에서의 노드는 다른 타깃 대상과 인접한 타깃 대상이고, 상기 차폐 유향 그래프에서의 변은 두 개의 인접한 타깃 대상에서의 타깃 대상으로부터 차폐된 타깃 대상을 가리킴 - ;
상기 차폐 유향 그래프에 기반하여, 차폐된 타깃 대상에 대응되는 노드의 모든 레벨의 조상 노드를 결정하는 단계 ; 및
결정된 각 레벨의 조상 노드에 대응되는 타깃 대상을 상기 차폐된 타깃 대상의 각 레벨의 타깃 차폐 대상으로 사용하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
In clause 7,
The step of selecting at least one level of target shielding object that has a shielding relationship with the shielded target object from the target image,
Based on the occlusion relationship, constructing a occlusion directed graph corresponding to the target image - a node in the occlusion directed graph is a target object adjacent to another target object, and an edge in the occlusion directed graph is two adjacent targets. Indicates a target object shielded from the target object - ;
Based on the shielded directed graph, determining ancestor nodes of all levels of nodes corresponding to the shielded target object; and
An image processing method comprising using a target object corresponding to an ancestor node of each determined level as a target shielding object of each level of the shielded target object.
제1항에 있어서,
상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계는,
상기 차폐된 타깃 대상의 모달 마스크 및 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보에 기반하여, 상기 차폐된 타깃 대상의 논모달 마스크를 결정하는 단계 - 타깃 대상의 논모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보 및 상기 타깃 대상이 다른 타깃 대상에 의해 차폐된 마스크 정보를 포함함 - ;
상기 타깃 차폐 대상의 모달 마스크의 합집합을 결정하는 단계;
상기 합집합과 상기 차폐된 타깃 대상의 논모달 마스크의 제1 교집합을 결정하는 단계;
상기 제1 교집합에 대응되는 이미지를 이용하여 부분 타깃 이미지를 차폐하는 단계 - 상기 부분 타깃 이미지는 상기 타깃 이미지에서 상기 차폐된 타깃 대상을 중심으로 하고, 상기 차폐된 타깃 대상 주변의 픽셀 포인트의 부분을 포함함 - ; 및
상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
According to paragraph 1,
The step of determining image information of each pixel point in the outline of the shielded portion of the shielded target object based on the modal mask of the target shielded object and the modal mask of the shielded target object,
Based on the modal mask of the shielded target object and the outline information of the shielded portion of the shielded target object, determining a non-modal mask of the shielded target object - the non-modal mask of the target object is the target object. Contains mask information that is not shielded by another target object and mask information that the target object is shielded by another target object -;
determining a union of modal masks of the target shielding object;
determining a first intersection of the union and a non-modal mask of the masked target object;
A step of shielding a partial target image using an image corresponding to the first intersection - the partial target image is centered on the masked target object in the target image and includes a portion of pixel points around the masked target object. Contains - ; and
Based on the image corresponding to the first intersection and the partial target image after being masked, determining image information of each pixel point in the outline of the masked portion of the masked target object. Image processing method.
제9항에 있어서,
상기 제1 교집합에 대응되는 이미지 및 차폐된 이후의 상기 부분 타깃 이미지에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하는 단계는, 제2 신경망에 의해 실행되는 것을 특징으로 하는 이미지 처리 방법.
According to clause 9,
The step of determining image information of each pixel point within the outline of the masked portion of the masked target object based on the image corresponding to the first intersection and the partial target image after being masked includes using a second neural network. An image processing method characterized in that it is executed.
제10항에 있어서,
상기 제2 신경망은,
제3 샘플 대상의 모달 마스크에 대응되는 제3 샘플 이미지 및 제4 샘플 대상의 모달 마스크에 대응되는 제4 샘플 이미지를 획득하는 단계;
상기 제4 샘플 이미지를 이용하여 상기 제3 샘플 이미지의 일부를 차폐한 후, 상기 제3 샘플 대상의 모달 마스크와 상기 제4 샘플 대상의 모달 마스크의 제2 교집합을 결정하는 단계; 및
상기 차폐된 제3 샘플 이미지, 상기 제2 교집합에 대응되는 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정하는 단계를 사용하여 훈련되어 얻은 것임을 특징으로 하는 이미지 처리 방법.
According to clause 10,
The second neural network is,
Obtaining a third sample image corresponding to the modal mask of the third sample object and a fourth sample image corresponding to the modal mask of the fourth sample object;
After blocking a portion of the third sample image using the fourth sample image, determining a second intersection of a modal mask of the third sample object and a modal mask of the fourth sample object; and
Based on the masked third sample image and the image corresponding to the second intersection, the target is to complement the image information of each pixel point of the masked portion of the third sample image, and the second neural network to be trained An image processing method, characterized in that it is obtained by training using steps to adjust network parameters.
제11항에 있어서,
상기 차폐된 제3 샘플 이미지, 상기 제2 교집합에 대응되는 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 훈련될 제2 신경망의 네트워크 파라미터를 조정하는 단계는,
상기 제3 샘플 대상에 대응되는 제5 샘플 이미지를 획득하는 단계 - 상기 제5 샘플 이미지는 상기 제3 샘플 대상을 이미지 중심으로 한 이미지이고, 상기 제3 샘플 대상 및 상기 제3 샘플 대상 주변의 픽셀 포인트를 포함함 - ;
상기 제2 교집합에 대응되는 이미지를 이용하여 상기 제5 샘플 이미지의 일부를 차폐하는 단계; 및
차폐된 상기 제3 샘플 이미지 및 차폐된 상기 제5 샘플 이미지에 기반하여, 상기 제3 샘플 이미지의 차폐된 부분의 각 픽셀 포인트의 이미지 정보를 보완하는 것을 타깃으로 하여, 상기 훈련될 제2 신경망의 네트워크 파라미터를 조정하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
According to clause 11,
Based on the masked third sample image and the image corresponding to the second intersection, the target is to complement the image information of each pixel point of the masked portion of the third sample image, and the second neural network to be trained The steps to adjust network parameters are:
Obtaining a fifth sample image corresponding to the third sample object - the fifth sample image is an image centered on the third sample object, and pixels around the third sample object and the third sample object Contains points - ;
shielding a portion of the fifth sample image using an image corresponding to the second intersection; and
Based on the masked third sample image and the masked fifth sample image, the target is to complement the image information of each pixel point of the masked portion of the third sample image, and the second neural network to be trained An image processing method comprising the step of adjusting network parameters.
이미지 처리 장치로서,
타깃 이미지를 획득하도록 구성된 이미지 획득 모듈;
상기 타깃 이미지에서 인접한 타깃 대상 간의 차폐 관계를 결정하도록 구성된 차폐 결정 모듈 - 인접한 타깃 대상의 모달 마스크는 서로 연결됨 - ;
상기 타깃 이미지에서 어느 한 차폐된 타깃 대상에 대해, 상기 차폐 관계에 기반하여, 상기 타깃 이미지로부터 상기 차폐된 타깃 대상과 차폐 관계가 존재하는 타깃 차폐 대상을 선별하도록 구성된 대상 선별 모듈; 및
상기 타깃 차폐 대상의 모달 마스크, 상기 차폐된 타깃 대상의 모달 마스크에 기반하여, 상기 차폐된 타깃 대상의 차폐된 부분의 윤곽 정보 및 차폐된 부분의 윤곽 내 각 픽셀 포인트의 이미지 정보를 결정하도록 구성된 마스크 처리 모듈 - 타깃 대상의 모달 마스크는 상기 타깃 대상이 다른 타깃 대상에 의해 차폐되지 않은 마스크 정보를 포함함 - 을 포함하고,
상기 차폐 결정 모듈은 또한,
상기 타깃 이미지로부터 인접한 대상 쌍을 선별하고 - 인접한 대상 쌍은 두 개의 인접한 타깃 대상을 포함함 - ;
상기 인접한 대상 쌍에서의 한 타깃 대상이 상기 인접한 대상 쌍에서 다른 한 타깃 대상에 의해 차폐된 윤곽을 각각 보완하며;
각 타깃 대상의 보완된 이후의 전체 윤곽 및 보완 전의 전체 윤곽에 기반하여, 상기 인접한 대상 쌍에서 두 개의 인접한 타깃 대상 간의 차폐 관계를 결정하도록 구성되는 것을 특징으로 하는 이미지 처리 장치.
An image processing device, comprising:
an image acquisition module configured to acquire a target image;
a shielding determination module configured to determine a shielding relationship between adjacent target objects in the target image, where modal masks of adjacent target objects are connected to each other;
an object selection module configured to select a target shielding object that has a shielding relationship with the shielded target object from the target image, based on the shielding relationship, for a shielded target object in the target image; and
A mask configured to determine, based on the modal mask of the target shielding object and the modal mask of the shielded target object, contour information of a shielded portion of the shielded target object and image information of each pixel point within the outline of the shielded portion. a processing module comprising: a modal mask of a target object comprising mask information where the target object is not masked by another target object;
The shielding determination module also:
Select adjacent object pairs from the target image - an adjacent object pair includes two adjacent target objects;
one target object in the pair of adjacent objects each complements an outline occluded by another target object in the pair of adjacent objects;
An image processing device, characterized in that it is configured to determine a shielding relationship between two adjacent target objects in the pair of adjacent objects, based on the overall contour after complementation and the overall outline before complementation of each target object.
전자 기기로서,
프로세서, 저장 매체 및 버스를 포함하고, 상기 저장 매체에는 상기 프로세서가 실행 가능한 컴퓨터 판독 가능한 명령어가 저장되며, 전자 기기가 작동될 경우, 상기 프로세서와 상기 저장 매체 사이는 버스를 통해 통신하고, 상기 프로세스는 상기 컴퓨터 판독 가능한 명령어를 실행하여, 제1항, 제3항 내지 제12항 중 어느 한 항에 따른 이미지 처리 방법을 실행하는 것을 특징으로 하는 전자기기.
As an electronic device,
Comprising a processor, a storage medium, and a bus, wherein the storage medium stores computer-readable instructions executable by the processor, and when the electronic device is operated, the processor and the storage medium communicate through a bus, and the process is an electronic device characterized in that the image processing method according to any one of claims 1, 3 to 12 is executed by executing the computer-readable instructions.
컴퓨터 판독 가능한 저장 매체로서,
상기 컴퓨터 판독 가능한 저장 매체에는 컴퓨터 프로그램이 저장되고, 상기 컴퓨터 프로그램이 프로세서에 의해 작동될 때, 제1항, 제3항 내지 제12항 중 어느 한 항에 따른 이미지 처리 방법을 실행하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
A computer-readable storage medium, comprising:
A computer program is stored in the computer-readable storage medium, and when the computer program is operated by a processor, the image processing method according to any one of claims 1, 3 to 12 is executed. A computer-readable storage medium.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020217035936A 2020-02-14 2021-01-19 Image processing methods and devices, electronic devices, and computer-readable storage media KR102668641B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010093403.0 2020-02-14
CN202010093403.0A CN111340030B (en) 2020-02-14 2020-02-14 Image processing method and device, electronic equipment and computer readable storage medium
PCT/CN2021/072772 WO2021159925A1 (en) 2020-02-14 2021-01-19 Image processing method and apparatus, electronic device, and computer-readable storage medium

Publications (2)

Publication Number Publication Date
KR20210144887A KR20210144887A (en) 2021-11-30
KR102668641B1 true KR102668641B1 (en) 2024-05-29

Family

ID=71186014

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217035936A KR102668641B1 (en) 2020-02-14 2021-01-19 Image processing methods and devices, electronic devices, and computer-readable storage media

Country Status (4)

Country Link
JP (1) JP2022522242A (en)
KR (1) KR102668641B1 (en)
CN (1) CN111340030B (en)
WO (1) WO2021159925A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340030B (en) * 2020-02-14 2021-12-21 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and computer readable storage medium
CN111768468B (en) * 2020-06-30 2023-08-04 北京百度网讯科技有限公司 Image filling method, device, equipment and storage medium
CN112162672A (en) * 2020-10-19 2021-01-01 腾讯科技(深圳)有限公司 Information flow display processing method and device, electronic equipment and storage medium
CN113256656A (en) * 2021-05-28 2021-08-13 北京达佳互联信息技术有限公司 Image segmentation method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513112A (en) * 2014-10-16 2016-04-20 北京畅游天下网络技术有限公司 Image processing method and device
JP2018124973A (en) * 2017-01-27 2018-08-09 株式会社デンソーアイティーラボラトリ Object detection system, object detection device, object detection program, and object detection method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102208022A (en) * 2010-03-31 2011-10-05 富士通株式会社 Shaded character recovery device and method thereof, shaded character recognition device and method thereof
CN102831584B (en) * 2012-08-02 2015-04-22 中山大学 Data-driven object image restoring system and method
AU2012244275A1 (en) * 2012-10-30 2014-05-15 Canon Kabushiki Kaisha Method, apparatus and system for determining a boundary of an obstacle which occludes an object in an image
US9373183B2 (en) * 2012-11-15 2016-06-21 Honeywell International Inc. Removing an occlusion from an image
US10311312B2 (en) * 2017-08-31 2019-06-04 TuSimple System and method for vehicle occlusion detection
JP6826296B2 (en) * 2017-03-21 2021-02-03 富士通株式会社 Joint position estimation device, joint position estimation method and joint position estimation program
CN107730457B (en) * 2017-08-28 2020-02-14 广东数相智能科技有限公司 Image completion method and device, electronic equipment and storage medium
CN108986041A (en) * 2018-06-13 2018-12-11 浙江大华技术股份有限公司 A kind of image recovery method, device, electronic equipment and readable storage medium storing program for executing
CN110033487A (en) * 2019-02-25 2019-07-19 上海交通大学 Vegetables and fruits collecting method is blocked based on depth association perception algorithm
CN111340030B (en) * 2020-02-14 2021-12-21 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and computer readable storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513112A (en) * 2014-10-16 2016-04-20 北京畅游天下网络技术有限公司 Image processing method and device
JP2018124973A (en) * 2017-01-27 2018-08-09 株式会社デンソーアイティーラボラトリ Object detection system, object detection device, object detection program, and object detection method

Also Published As

Publication number Publication date
CN111340030A (en) 2020-06-26
WO2021159925A1 (en) 2021-08-19
JP2022522242A (en) 2022-04-14
CN111340030B (en) 2021-12-21
KR20210144887A (en) 2021-11-30

Similar Documents

Publication Publication Date Title
KR102668641B1 (en) Image processing methods and devices, electronic devices, and computer-readable storage media
US11284128B2 (en) Object positioning method, video display method, apparatus, device, and storage medium
US20210366127A1 (en) Image processing method and apparatus, computer-readable storage medium
CN110675407B (en) Image instance segmentation method and device, electronic equipment and storage medium
Mutholib et al. Design and implementation of automatic number plate recognition on android platform
US10949993B2 (en) Pupil localization method and device, apparatus, and storage medium
US20160112757A1 (en) Server, client and video processing method
CN111640123B (en) Method, device, equipment and medium for generating background-free image
CN111832396B (en) Method and device for analyzing document layout, electronic equipment and storage medium
CN111783665A (en) Action recognition method and device, storage medium and electronic equipment
CN111597845A (en) Two-dimensional code detection method, device and equipment and readable storage medium
CN116563303B (en) Scene generalizable interactive radiation field segmentation method
CN112037173B (en) Chromosome detection method and device and electronic equipment
CN112949642B (en) Character generation method and device, storage medium and electronic equipment
KR20220042467A (en) Motion information recognition method, apparatus, electronic device and storage medium
CN117441195A (en) Texture complement
JP7136303B1 (en) Counting device, counting method and computer program
CN111739062B (en) Target detection method and system based on feedback mechanism
JP7508212B2 (en) Image processing device, image processing method, and program
CN116977616A (en) Two-dimensional code detection method and device, electronic equipment and storage medium
CN114596325A (en) Video target segmentation method, device, equipment and computer readable storage medium
EP4320585A1 (en) Bystander and attached object removal
CN117496399A (en) Clustering method, system, equipment and medium for detecting moving target in video
CN112766208A (en) Model training method and device
CN117495894A (en) Image generation processing method and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right