KR20220083831A - Image creation method, device, and storage medium - Google Patents

Image creation method, device, and storage medium Download PDF

Info

Publication number
KR20220083831A
KR20220083831A KR1020227017609A KR20227017609A KR20220083831A KR 20220083831 A KR20220083831 A KR 20220083831A KR 1020227017609 A KR1020227017609 A KR 1020227017609A KR 20227017609 A KR20227017609 A KR 20227017609A KR 20220083831 A KR20220083831 A KR 20220083831A
Authority
KR
South Korea
Prior art keywords
contour
target
image
information
coordinates
Prior art date
Application number
KR1020227017609A
Other languages
Korean (ko)
Inventor
리앙 왕
지아루이 순
얀춘 주
지안화 야오
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20220083831A publication Critical patent/KR20220083831A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

컴퓨터의 기술 분야에 관련된 이미지 생성 방법 및 장치, 디바이스 및 저장 매체가 제공된다. 본 방법은, 윤곽 정보 및 타깃 영역 정보를 획득하는 단계; 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계 - 각각의 타깃 윤곽의 전부 또는 일부는 타깃 영역에 위치함 -; 각각의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 각각의 타깃 윤곽에 있는 다수의 윤곽 포인트들의 제 1 좌표들을 감소시키는 단계 - 타깃 윤곽의 제 2 위치 정보는 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들을 포함하고, 각각의 윤곽 포인트의 좌표들의 감소의 크기는 동일함 -; 및 각각의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라, 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계 - 타깃 이미지는 타깃 영역에 위치하는 윤곽들을 포함함 -를 포함한다. 본 방법은 타깃 이미지의 크기를 감소시키고, 생성된 타깃 이미지의 정확도를 추가로 보장한다.An image generating method and apparatus, a device, and a storage medium related to the technical field of a computer are provided. The method includes: obtaining contour information and target area information; determining at least one target contour according to the contour information and the target region information, wherein all or part of each target contour is located in the target region; reducing first coordinates of the plurality of contour points in each target contour to obtain second position information of each target contour, wherein the second position information of the target contour is the second position information of the plurality of contour points in the target contour 2 coordinates, the magnitude of the reduction of the coordinates of each contour point equal; and generating a target image corresponding to the target region according to the target region information and the second position information of each target contour, the target image including contours located in the target region. The method reduces the size of the target image and further ensures the accuracy of the generated target image.

Description

이미지 생성 방법, 디바이스, 및 저장 매체 Image creation method, device, and storage medium

본 출원은 2020년 2월 17일에 출원된 발명의 명칭이 "이미지 생성 방법 및 장치, 디바이스 및 저장 매체(IMAGE GENERATION METHOD AND APPARATUS, DEVICE, AND STORAGE MEDIUM)"인 중국 특허 출원 번호 제 202010097623.0 호에 대한 우선권을 주장하며, 그 전체 내용은 본 명세서에 참조로 포함된다.This application is based on Chinese Patent Application No. 202010097623.0, entitled "IMAGE GENERATION METHOD AND APPARATUS, DEVICE, AND STORAGE MEDIUM", filed on February 17, 2020 priority, the entire contents of which are incorporated herein by reference.

본 개시내용은 컴퓨터 기술 분야에 관한 것으로서, 특히 이미지 생성 방법, 디바이스, 및 저장 매체에 관한 것이다.TECHNICAL FIELD The present disclosure relates to the field of computer technology, and more particularly to methods, devices, and storage media for generating images.

현재, 전체 슬라이드 이미지들(whole slide images, WSIs)의 처리는 점점 더 딥 러닝 네트워크 모델들(deep learning network models)을 기반으로 한다. 예를 들어, WSI에서 타깃 오브젝트를 인식하기 이전에, WSI와 WSI의 타깃 이미지를 이용하여 네트워크 모델이 학습되어야 하는데, 여기서, 타깃 이미지는 WSI에서 윤곽의 위치 정보에 따라 생성된 이미지이다. 타깃 이미지의 크기는 상대적으로 크고 현재의 이미지 생성 기술의 처리 범위를 초과하므로, 타깃 이미지의 크기를 감소시켜야 한다.Currently, the processing of whole slide images (WSIs) is increasingly based on deep learning network models. For example, before recognizing a target object in WSI, a network model must be trained using WSI and target images of WSI, where the target image is an image generated according to position information of an outline in WSI. Since the size of the target image is relatively large and exceeds the processing range of the current image generation technology, it is necessary to reduce the size of the target image.

종래 기술에서, WSI에서 윤곽의 위치 정보가 감소되고, 감소된 위치 정보에 따라 WSI의 타깃 이미지가 생성된다. 그러나 WSI에서 상대적으로 가까운 2개의 윤곽이 있는 경우, 위치 정보가 감소된 이후에, 2개의 윤곽은 중첩될 수 있다. 결과적으로, 생성된 타깃 이미지에서, 2개의 윤곽은 연결되어 하나의 윤곽이 되며, 이에 의해, 잘못된 타깃 이미지를 획득하게 된다.In the prior art, the position information of the contour is reduced in the WSI, and a target image of the WSI is generated according to the reduced position information. However, when there are two contours that are relatively close in WSI, after the location information is reduced, the two contours may overlap. As a result, in the generated target image, the two contours are connected to become one contour, thereby obtaining an erroneous target image.

본 개시내용의 실시예들은 타깃 이미지의 정확도를 향상시킬 수 있는 이미지 생성 방법, 디바이스 및 저장 매체를 제공한다. 기술 해결방안들을 다음과 같다.Embodiments of the present disclosure provide an image generating method, device, and storage medium capable of improving the accuracy of a target image. Technical solutions include:

하나의 양태에 따르면, 이미지 생성 방법이 제공되며, 이미지 생성 방법은,According to one aspect, a method of generating an image is provided, the method comprising:

윤곽 정보 및 타깃 영역 정보를 획득하는 단계 - 윤곽 정보는 원래의 이미지에서 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 포함하고, 임의의 원래의 윤곽의 제 1 위치 정보는 임의의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 포함하고, 타깃 영역 정보는 원래의 이미지에서 타깃 영역을 나타냄 -;obtaining contour information and target area information, wherein the contour information includes first position information of at least one original contour in the original image, and the first position information of any original contour is located in any original contour. first coordinates of a plurality of contour points in which the target area information indicates a target area in the original image;

윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계 - 임의의 타깃 윤곽은 타깃 영역에 전체적으로 또는 부분적으로 위치함 -;determining at least one target contour according to the contour information and the target region information, any target contour being located wholly or in part in the target region;

적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키는 단계 - 임의의 타깃 윤곽의 제 2 위치 정보는 임의의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들을 포함하고, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들은 동일한 감소 범위를 가짐 -; 및 reducing first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour, wherein the second position information of any target contour is located in the arbitrary target contour second coordinates of the plurality of contour points, wherein the first coordinates of the plurality of contour points in the at least one target contour have the same reduction range; and

적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계 - 타깃 이미지는 타깃 영역에 위치하는 윤곽을 포함함 -를 포함한다.generating a target image corresponding to the target region according to the target region information and second position information of the at least one target contour, the target image including the contour located in the target region.

추가의 양태에 따르면, 이미지 생성 장치가 제공되며, 이미지 생성 장치는,According to a further aspect, there is provided an image generating device, the image generating device comprising:

윤곽 정보 및 타깃 영역 정보를 획득하도록 구성된 정보 획득 모듈 - 윤곽 정보는 원래의 이미지에서 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 포함하고, 임의의 원래의 윤곽의 제 1 위치 정보는 임의의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 포함하고, 타깃 영역 정보는 원래의 이미지에서 타깃 영역을 나타냄 -;an information acquiring module, configured to acquire the contour information and the target area information, wherein the contour information includes first position information of at least one original contour in the original image, and the first position information of any original contour is first coordinates of a plurality of contour points in the contour of , wherein the target region information indicates a target region in the original image;

윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하도록 구성된 결정 모듈 - 임의의 타깃 윤곽은 타깃 영역에 전체적으로 또는 부분적으로 위치함 -;a determining module, configured to determine at least one target contour according to the contour information and the target region information, any target contour being located in whole or in part in the target region;

적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키도록 구성된 감소 모듈 - 임의의 타깃 윤곽의 제 2 위치 정보는 임의의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들을 포함하고, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들은 동일한 감소 범위를 가짐 -; 및 a reduction module, configured to reduce first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour, wherein the second position information of the arbitrary target contour is second coordinates of the plurality of contour points in the contour, wherein the first coordinates of the plurality of contour points in the at least one target contour have the same reduction range; and

적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하도록 구성된 생성 모듈 - 타깃 이미지는 타깃 영역에 위치하는 윤곽을 포함함 -을 포함한다.and a generating module, configured to generate a target image corresponding to the target region according to the target region information and the second position information of the at least one target contour, the target image including the contour located in the target region.

가능한 구현 예에서, 제1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 장치는, In a possible implementation, the first coordinates comprise horizontal coordinates and vertical coordinates, the apparatus comprising:

적어도 하나의 타깃 윤곽의 제 1 위치 정보에 따라 제 1 최소 수평 좌표 및 제 1 최소 수직 좌표를 획득하고; 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 제 1 최소 수평 좌표를 결정하고; 그리고, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 제 1 최소 수직 좌표를 결정하도록 추가로 구성된 범위 획득 모듈(extent obtaining module)을 더 포함한다.obtain a first minimum horizontal coordinate and a first minimum vertical coordinate according to the first position information of the at least one target contour; determine a first minimum horizontal coordinate as a decreasing range of horizontal coordinates of a plurality of contour points in the at least one target contour; and an extent obtaining module further configured to determine a first minimum vertical coordinate as a reduced range of vertical coordinates of a plurality of contour points in the at least one target contour.

가능한 구현 예에서, 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 범위 획득 모듈은, 타깃 영역 정보에 따라 타깃 영역의 제 2 최소 수평 좌표 및 제 2 최소 수직 좌표를 획득하고; 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 제 2 최소 수평 좌표를 결정하고; 그리고, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 제 2 최소 수직 좌표를 결정하도록 추가로 구성된다.In a possible implementation example, the first coordinates include horizontal coordinates and vertical coordinates, and the range obtaining module is configured to: obtain a second minimum horizontal coordinate and a second minimum vertical coordinate of the target area according to the target area information; determine a second minimum horizontal coordinate as a decreasing range of horizontal coordinates of a plurality of contour points in the at least one target contour; and determine a second minimum vertical coordinate as a decreasing range of vertical coordinates of the plurality of contour points in the at least one target contour.

가능한 구현 예에서, 결정 모듈은, 임의의 윤곽 포인트가 윤곽 정보 및 타깃 영역 정보에 따라 타깃 영역에 위치하는 것으로 결정하는 것에 응답하여, 임의의 윤곽 포인트가 속하는 원래의 윤곽을 타깃 윤곽으로 결정하도록 추가로 구성된다.In a possible implementation embodiment, the determining module is further configured to, in response to determining that the arbitrary contour point is located in the target region according to the contour information and the target region information, determine an original contour to which the arbitrary contour point belongs as the target contour is composed of

가능한 구현 예에서, 결정 모듈은,In a possible implementation, the determining module comprises:

적어도 하나의 제 1 윤곽의 제 3 위치 정보를 획득하기 위해 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 감소시키도록 구성된 감소 유닛 - 임의의 제 1 윤곽은 대응하는 원래의 윤곽이 감소된 이후의 윤곽이고, 적어도 하나의 원래의 윤곽의 제 1 위치 정보는 동일한 감소율을 가짐 -;a reduction unit, configured to decrease the first position information of the at least one original contour to obtain third position information of the at least one first contour, any first contour after the corresponding original contour is reduced contour, wherein the first positional information of at least one original contour has the same reduction rate;

적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 원래의 이미지에 대응하는 제 1 이미지를 생성하도록 구성된 제 1 생성 유닛 - 제 1 이미지는 적어도 하나의 제 1 윤곽을 포함함 -,a first generating unit, configured to generate a first image corresponding to the original image according to the third position information of the at least one first contour, the first image including the at least one first contour;

제 1 영역 정보를 획득하기 위해 타깃 영역 정보를 감소시키도록 구성된 감소 유닛 - 제 1 영역 정보는 감소된 타깃 영역을 나타내고, 타깃 영역 정보의 감소율은 적어도 하나의 원래의 윤곽의 제 1 위치 정보의 감소율과 동일함 -; 및a reduction unit, configured to reduce the target area information to obtain the first area information, wherein the first area information indicates a reduced target area, and a reduction rate of the target area information is a reduction rate of the first position information of the at least one original contour Same as -; and

제 1 영역 정보 및 제 1 이미지에 따라 적어도 하나의 타깃 윤곽을 결정하도록 구성된 제 1 결정 유닛을 포함한다.and a first determining unit, configured to determine the at least one target contour according to the first area information and the first image.

가능한 구현 예에서, 윤곽 정보는 적어도 하나의 원래의 윤곽의 윤곽 식별자를 더 포함하고; 제 1 생성 유닛은 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 원래의 윤곽의 윤곽 식별자에 따라 제 1 이미지를 생성하도록 구성되고, 제 1 이미지는 적어도 하나의 제 1 윤곽 및 적어도 하나의 제 1 윤곽의 윤곽 식별자를 포함하고, 임의의 제 1 윤곽의 윤곽 식별자는 임의의 제 1 윤곽에 대응하는 원래의 윤곽의 윤곽 식별자이다.In a possible implementation, the contour information further comprises a contour identifier of the at least one original contour; The first generating unit is configured to generate a first image according to the third position information of the at least one first contour and the contour identifier of the at least one original contour, the first image being the at least one first contour and the at least one the contour identifier of the first contour of , wherein the contour identifier of the arbitrary first contour is the contour identifier of the original contour corresponding to the arbitrary first contour.

가능한 구현 예에서, 제 1 결정 유닛은 제 1 이미지에서 적어도 하나의 제 1 윤곽, 적어도 하나의 제 1 윤곽의 윤곽 식별자, 및 제 1 영역 정보에 따라 적어도 하나의 제 2 윤곽의 윤곽 식별자를 결정하고 - 적어도 하나의 제 2 윤곽은 제 1 이미지에서 감소된 타깃 영역에 전체적으로 또는 부분적으로 위치함 -; 그리고, 적어도 하나의 제 2 윤곽의 윤곽 식별자에 따라 적어도 하나의 제 2 윤곽에 대응하는 원래의 윤곽을 타깃 윤곽으로 결정하도록 구성된다.In a possible implementation example, the first determining unit determines the contour identifier of the at least one second contour according to the at least one first contour, the at least one contour identifier of the first contour, and the first area information in the first image, - the at least one second contour is located wholly or in part in the reduced target area in the first image; and determine, as the target contour, an original contour corresponding to the at least one second contour according to the contour identifier of the at least one second contour.

가능한 구현 예에서, 제 1 생성 유닛은, 임의의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값을 임의의 제 1 윤곽의 윤곽 식별자로 설정하고; 그리고, 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값에 따라 제 1 이미지를 생성하도록 구성된다.In a possible implementation example, the first generating unit is configured to: set a pixel value in the contour area corresponding to the arbitrary first contour to the contour identifier of the arbitrary first contour; and generate the first image according to the third position information of the at least one first contour and the pixel value in the contour region corresponding to the at least one first contour.

가능한 구현 예에서, 생성 모듈은, In a possible implementation, the generating module comprises:

적어도 하나의 타깃 윤곽의 제 2 위치 정보에 따라 제 3 이미지를 생성하도록 구성된 제 2 생성 유닛 - 제 3 이미지는 적어도 하나의 타깃 윤곽을 포함함 -; 및 a second generating unit, configured to generate a third image according to the second position information of the at least one target contour, the third image including the at least one target contour; and

타깃 영역에 대응하는 타깃 이미지를 획득하기 위해 타깃 영역 정보에 따라 제 3 이미지에서 타깃 영역을 커팅하도록 구성된 커팅 유닛을 포함한다.and a cutting unit, configured to cut the target area in the third image according to the target area information to obtain a target image corresponding to the target area.

가능한 구현 예에서, 생성 모듈은,In a possible implementation, the generating module comprises:

적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치하는 윤곽 포인트들을 결정하도록 구성된 제 2 결정 유닛을 포함하고,a second determining unit, configured to determine contour points located in the target area in the at least one target contour according to the target area information and second coordinates of the plurality of contour points in the at least one target contour,

제 2 결정 유닛은 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치한 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라 타깃 이미지를 생성하도록 추가로 구성된다.The second determining unit is further configured to generate the target image according to the target area information and second coordinates of contour points located in the target area in the at least one target contour.

또 다른 양태에 따르면, 컴퓨터 디바이스가 제공되며, 컴퓨터 디바이스는 프로세서 및 메모리를 포함하고, 메모리는 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어는, 상술한 양태에 따른 이미지 생성 방법에서 수행되는 동작들을 구현하기 위해 프로세서에 의해 로딩 및 실행된다.According to another aspect, there is provided a computer device, the computer device comprising a processor and a memory, the memory storing at least one instruction, wherein the at least one instruction is an operation performed in the method for generating an image according to the aspect described above. are loaded and executed by the processor to implement them.

또 다른 양태에 따르면, 비-일시적 컴퓨터-판독 가능 저장 매체가 제공되며, 비-일시적 컴퓨터-판독 가능 저장 매체는 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어는, 상술한 양태에 따른 이미지 생성 방법에서 수행되는 동작들을 구현하기 위해 프로세서에 의해 로딩 및 실행된다.According to another aspect, there is provided a non-transitory computer-readable storage medium, the non-transitory computer-readable storage medium storing at least one instruction, the at least one instruction generating an image according to the aspect described above. loaded and executed by a processor to implement the operations performed in the method.

또 다른 양태에 따르면, 컴퓨터 프로그램 제품이 제공되며, 컴퓨터 프로그램 제품은 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어는 상술한 양태에 따른 이미지 생성 방법에서 수행되는 동작들을 구현하기 위해 프로세서에 의해 로딩 및 실행된다.According to another aspect, there is provided a computer program product, the computer program product storing at least one instruction, the at least one instruction being loaded by a processor to implement operations performed in an image generating method according to the above-described aspect. and executed.

본 개시내용의 실시예들에서 제공되는 기술적 해결방안들은 적어도 다음과 같은 유익한 효과들을 포함한다.The technical solutions provided in the embodiments of the present disclosure include at least the following beneficial effects.

본 개시내용의 실시예들에서 제공된 이미지 생성 방법, 디바이스, 및 저장 매체에 따르면, 타깃 영역이 정의되어, 컴퓨터 디바이스는 타깃 영역에 대응하는 타깃 이미지를 생성하기만 하면 되고, 다른 영역들에 해당하는 이미지들을 생성할 필요가 없다. 본 개시내용에 따르면, 타깃 윤곽에 대한 복수의 윤곽 포인트들의 좌표들은 다른 영역들에 대응하는 이미지들을 커팅하는 효과를 달성하도록 감소되고, 이에 의해, 타깃 이미지의 크기를 감소시킨다. 또한, 본 개시내용에서 타깃 윤곽에 대한 복수의 윤곽 포인트들의 좌표들은 감소 범위를 갖고, 타깃 이미지의 윤곽들 사이의 거리가 원래의 이미지에서 해당하는 윤곽들 사이의 거리와 동일한 것을 보장하며, 이에 의해, 윤곽 접착의 문제를 방지하고 생성된 타깃 이미지의 정확성을 보장한다.According to the image generating method, device, and storage medium provided in the embodiments of the present disclosure, a target area is defined, so that the computer device only needs to generate a target image corresponding to the target area, and corresponding to other areas There is no need to create images. According to the present disclosure, the coordinates of a plurality of contour points with respect to the target contour are reduced to achieve the effect of cutting images corresponding to different regions, thereby reducing the size of the target image. Further, in the present disclosure, the coordinates of the plurality of contour points with respect to the target contour have a reduced range, ensuring that the distance between contours of the target image is equal to the distance between the corresponding contours in the original image, thereby , it avoids the problem of contour adhesion and ensures the accuracy of the generated target image.

또한, 적어도 하나의 타깃 윤곽에서 최소 수평 좌표는 적어도 하나의 타깃 윤곽에 있는 각각의 윤곽 포인트의 수평 좌표의 감소 범위로 사용될 수 있고, 적어도 하나의 타깃 윤곽에서 최소 수직 좌표는 적어도 하나의 타깃 윤곽에 있는 각각의 윤곽 포인트의 수직 좌표의 감소 범위로 사용될 수 있으며, 이는 최소 수평 좌표와 최소 수직 좌표를 타깃 이미지의 윤곽 좌표계의 원점으로 사용하는 것과 같으며, 적어도 하나의 타깃 윤곽의 외부 영역의 드로잉을 가능한 한 많이 피할 수 있고, 타깃 이미지의 크기를 감소시킬 수 있다.Further, the minimum horizontal coordinate in the at least one target contour may be used as a decreasing range of the horizontal coordinate of each contour point in the at least one target contour, wherein the minimum vertical coordinate in the at least one target contour is in the at least one target contour can be used as the decreasing range of the vertical coordinates of each contour point in the You can avoid it as much as possible, and reduce the size of the target image.

또한, 타깃 영역 정보에서 최소 수평 좌표는 적어도 하나의 타깃 윤곽에 있는 각각의 윤곽 포인트의 수평 좌표의 감소 범위로 사용될 수 있고, 타깃 영역 정보에서 최소 수직 좌표는 적어도 하나의 타깃 윤곽에 있는 각각의 윤곽 포인트의 수직 좌표의 감소 범위로 사용될 수 있으며, 이는 타깃 영역 정보에서 최소 수평 좌표와 최소 수직 좌표를 윤곽 좌표계의 원점으로 사용하는 것과 같으며, 타깃 영역의 외부 영역의 드로잉을 가능한 한 많이 피할 수 있고, 타깃 이미지의 크기를 감소시킬 수 있다.Also, the minimum horizontal coordinate in the target area information may be used as a decreasing range of horizontal coordinates of each contour point in the at least one target contour, and the minimum vertical coordinate in the target area information is each contour in the at least one target contour It can be used as a reduction range of the vertical coordinate of the point, which is equivalent to using the minimum horizontal coordinate and the minimum vertical coordinate in the target area information as the origin of the contour coordinate system, avoiding drawing of the area outside the target area as much as possible, , it is possible to reduce the size of the target image.

또한, 본 개시내용에 따르면, 적어도 하나의 원래의 윤곽의 제 1 위치 정보는 원래의 이미지에 대응하는 제 1 이미지를 생성하기 위해 더 감소된다. 제 1 이미지는 적어도 하나의 원래의 윤곽의 윤곽 식별자를 포함한다. 제 1 이미지는 원래의 이미지의 인덱스 이미지로 간주될 수 있다. 원래의 이미지에서 타깃 영역에 위치하는 적어도 하나의 타깃 윤곽은 원래의 이미지와 제 1 이미지의 타깃 영역 정보에 따라 결정될 수 있으며, 이는 타깃 영역에 위치한 적어도 하나의 타깃 윤곽을 결정하는 속도를 증가시키고, 또한 타깃 이미지를 생성하는 효율성을 향상시킨다.Further, according to the present disclosure, the first positional information of the at least one original contour is further reduced to generate a first image corresponding to the original image. The first image includes a contour identifier of at least one original contour. The first image may be regarded as an index image of the original image. At least one target contour located in the target region in the original image may be determined according to the target region information of the original image and the first image, which increases the speed of determining the at least one target contour located in the target region, It also improves the efficiency of generating the target image.

본 개시내용의 실시예들에서 기술적인 해결 방안들을 보다 명확하게 설명하기 위하여, 이하에서는 실시예들을 설명하기 위해 필요한 첨부한 도면들을 간략히 소개한다. 물론, 다음 설명에서 첨부 도면들은 단지 본 출원의 일부 실시예들을 도시하고, 본 기술 분야의 통상의 기술자는 창조적 노력 없이도 첨부한 도면들로부터 다른 도면들을 여전히 도출할 수 있다.
도 1은 본 개시내용의 실시예에 따른 구현 환경의 개략적인 다이어그램이다.
도 2는 본 개시내용의 실시예에 따른 이미지 생성 방법의 흐름도이다.
도 3은 본 개시내용의 실시예에 따른 원래의 이미지의 개략적인 다이어그램이다.
도 4는 본 개시내용의 실시예에 따른 타깃 이미지의 개략적인 다이어그램이다.
도 5는 본 개시내용의 실시예에 따른 원래의 이미지의 타깃 영역의 개략적인 다이어그램이다.
도 6은 본 개시내용의 실시예에 따른 타깃 영역에서 적어도 하나의 타깃 윤곽의 개략적인 다이어그램이다.
도 7은 본 개시내용의 실시예에 따른 제 1 이미지의 개략적인 다이어그램이다.
도 8은 본 개시내용의 실시예에 따른 제 1 이미지의 부분적인 영역의 개략적인 다이어그램이다.
도 9는 본 개시내용의 실시예에 따른 제 1 영역의 윤곽의 개략적인 다이어그램이다.
도 10은 본 개시내용의 실시예에 따른 다른 제 1 이미지의 부분적인 영역의 개략적인 다이어그램이다.
도 11은 본 개시내용의 실시예에 따른 제 2 이미지의 개략적인 다이어그램이다.
도 12는 본 개시내용의 실시예에 따른 다른 타깃 이미지의 개략적인 다이어그램이다.
도 13은 본 개시내용의 실시예에 따른 WSI 타깃 이미지를 생성하기 위한 흐름도이다.
도 14는 종래의 기술을 사용하여 생성된 타깃 이미지와 본 개시내용의 실시예에 따른 개시내용에서 제공된 방법을 사용하여 타깃 이미지 사이의 비교의 개략적인 다이어그램이다.
도 15는 본 개시내용의 실시예에 따른 이미지 생성 장치의 개략적인 구조적 다이어그램이다.
도 16은 본 개시내용의 실시예에 따른 다른 이미지 생성 장치의 개략적인 구조적 다이어그램이다.
도 17은 본 개시내용의 실시예에 따른 단말기의 구조적 블록 다이어그램이다.
도 18은 본 개시내용의 실시예에 따른 서버의 개략적인 구조적 다이어그램이다.
In order to more clearly describe the technical solutions in the embodiments of the present disclosure, the following briefly introduces the accompanying drawings necessary for describing the embodiments. Of course, the accompanying drawings in the following description show only some embodiments of the present application, and a person skilled in the art may still derive other drawings from the accompanying drawings without creative efforts.
1 is a schematic diagram of an implementation environment according to an embodiment of the present disclosure;
2 is a flowchart of an image generating method according to an embodiment of the present disclosure;
3 is a schematic diagram of an original image according to an embodiment of the present disclosure;
4 is a schematic diagram of a target image according to an embodiment of the present disclosure;
5 is a schematic diagram of a target area of an original image according to an embodiment of the present disclosure;
6 is a schematic diagram of at least one target contour in a target area according to an embodiment of the present disclosure;
7 is a schematic diagram of a first image according to an embodiment of the present disclosure;
8 is a schematic diagram of a partial region of a first image according to an embodiment of the present disclosure;
9 is a schematic diagram of an outline of a first region according to an embodiment of the present disclosure;
10 is a schematic diagram of a partial region of another first image according to an embodiment of the present disclosure;
11 is a schematic diagram of a second image according to an embodiment of the present disclosure;
12 is a schematic diagram of another target image according to an embodiment of the present disclosure;
13 is a flowchart for generating a WSI target image according to an embodiment of the present disclosure;
14 is a schematic diagram of a comparison between a target image generated using conventional techniques and a target image using a method provided in the disclosure according to an embodiment of the present disclosure;
15 is a schematic structural diagram of an image generating apparatus according to an embodiment of the present disclosure;
16 is a schematic structural diagram of another image generating apparatus according to an embodiment of the present disclosure.
17 is a structural block diagram of a terminal according to an embodiment of the present disclosure;
18 is a schematic structural diagram of a server according to an embodiment of the present disclosure;

본 개시내용의 목적들, 기술적 해결방안들, 및 이점들을 보다 명확하게 하기 위하여, 첨부된 도면들을 참조하여 본 개시내용의 구현 예들을 더욱 상세하게 설명한다.In order to make the objects, technical solutions, and advantages of the present disclosure more clear, implementation examples of the present disclosure will be described in more detail with reference to the accompanying drawings.

본 개시내용에서 사용된 "제 1", "제 2" 등의 용어들은 본 명세서에서 다양한 개념을 설명하기 위해 사용될 수 있음이 이해될 수 있다. 다만, 특별한 언급이 없는 한 그 개념들은 그 용어들에 의하여 한정되는 것은 아니다. 용어들은 단지 하나의 개념을 다른 개념과 구별하기 위해 사용된다. 예를 들어, 본 개시내용의 권리 범위를 벗어나지 않으면서, 제 1 좌표들은 제 2 좌표들로 지칭될 수 있고, 유사하게 제 2 좌표들은 제 1 좌표들로 지칭될 수 있다.It may be understood that terms such as “first”, “second”, etc. used in this disclosure may be used to describe various concepts herein. However, unless otherwise specified, the concepts are not limited by the terms. Terms are only used to distinguish one concept from another. For example, first coordinates may be referred to as second coordinates, and similarly, second coordinates may be referred to as first coordinates, without departing from the scope of the present disclosure.

본 개시내용에서 사용되는 용어 "적어도 하나"는 하나 이상을 포함하고, 적어도 하나의 수량은 정수이다. 예를 들어, 적어도 하나는 1, 2, 3 등이다. 본 개시내용에서 사용되는 용어 "복수"는 둘 이상을 포함하며, 복수의 수량은 정수이다. 예를 들어, 복수는 2, 3, 4 등이다. 본 개시 내용에서 사용된 용어 "각각"은 복수의 대응하는 각각을 지칭한다. 예를 들어, 복수의 윤곽 포인트들은 3개의 윤곽 포인트들이며, 복수의 윤곽 포인트들의 각각은 3개의 윤곽 포인트들의 각각을 지칭한다. 본 개시내용에서 용어 "임의"는 복수의 대응하는 것들 중 어느 하나를 지칭한다. 예를 들어, 복수의 윤곽 포인트들은 3개의 윤곽 포인트들이며, 복수의 윤곽 포인트들 중 어느 하나는 3개의 윤곽 포인트들 중 어느 하나를 지칭한다. 예를 들어, 모든 윤곽 포인트는 제 1 윤곽 포인트, 또는 제 2 윤곽 포인트 또는 제 3 윤곽 포인트이다.As used herein, the term “at least one” includes one or more, and the quantity of at least one is an integer. For example, at least one is 1, 2, 3, etc. As used herein, the term “plurality” includes two or more, and the quantity of the plurality is an integer. For example, the plural is 2, 3, 4, etc. As used herein, the term “each” refers to a plurality of corresponding each. For example, the plurality of contour points are three contour points, and each of the plurality of contour points refers to each of the three contour points. The term “optional” in this disclosure refers to any one of a plurality of corresponding ones. For example, the plurality of contour points are three contour points, and any one of the plurality of contour points refers to any one of the three contour points. For example, every contour point is a first contour point, or a second contour point or a third contour point.

본 개시내용의 실시예들에서 제공되는 이미지 생성 방법은 컴퓨터 디바이스에 적용 가능하다. 가능한 구현 예에서, 컴퓨터 디바이스는 모바일 폰, 컴퓨터, 또는 태블릿 컴퓨터와 같은 단말기이다. 단말기는, 윤곽 정보 및 타깃 영역 정보를 획득하고, 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하고, 여기서, 임의의 타깃 윤곽은 타깃 영역에 전체적으로 또는 부분적으로 위치하고; 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표를 감소시키고; 그리고, 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는데, 여기서, 타깃 이미지는 타깃 영역에 위치하는 윤곽을 포함한다.The image generating method provided in the embodiments of the present disclosure is applicable to a computer device. In possible implementations, the computer device is a terminal such as a mobile phone, computer, or tablet computer. The terminal acquires the contour information and the target region information, and determines at least one target contour according to the contour information and the target region information, wherein any target contour is located in whole or in part in the target region; reduce the first coordinates of the plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour; Then, a target image corresponding to the target region is generated according to the second position information and the target region information of the at least one target contour, wherein the target image includes the contour located in the target region.

다른 가능한 구현 예에서, 컴퓨터 디바이스는 서버이다. 서버는 하나의 서버, 복수의 서버들을 포함하는 서버 클러스터, 또는 클라우드 컴퓨팅 서비스 센터이다. 도 1은 본 개시내용의 실시예에 따른 구현 환경의 개략적인 다이어그램이다. 도 1을 참조하면, 구현 환경은 단말기(101) 및 서버(102)를 포함한다. 단말기(101)와 서버(102)는 유선 또는 무선 네트워크를 통해 통신 연결을 설정한다.In another possible implementation, the computer device is a server. A server is one server, a server cluster including a plurality of servers, or a cloud computing service center. 1 is a schematic diagram of an implementation environment according to an embodiment of the present disclosure; Referring to FIG. 1 , the implementation environment includes a terminal 101 and a server 102 . The terminal 101 and the server 102 establish a communication connection through a wired or wireless network.

타깃 애플리케이션은 단말기(101)에 설치될 수 있고, 타깃 애플리케이션은 이미지 처리 기능이 있는 애플리케이션 또는 이미지 처리와 관련된 애플리케이션일 수 있다. 서버(102)는 타깃 애플리케이션을 위한 서비스를 제공하는 서버이다.The target application may be installed in the terminal 101, and the target application may be an application having an image processing function or an application related to image processing. Server 102 is a server that provides services for target applications.

가능한 구현 예에서, 서버(102)는 윤곽 정보를 저장하고, 사용자는 단말기(101)의 타깃 애플리케이션을 통해 서버(102)에 타깃 영역 정보를 전송하고, 서버(102)는 타깃 영역 정보를 획득한다. 서버(102)는, 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하고, 여기서, 임의의 타깃 윤곽은 타깃 영역에 전체적으로 또는 부분적으로 위치하며; 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키고; 그리고, 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는데, 여기서, 타깃 이미지는 타깃 영역에 위치하는 윤곽을 포함한다.In a possible implementation example, the server 102 stores the contour information, the user sends the target area information to the server 102 through the target application of the terminal 101 , and the server 102 obtains the target area information . The server 102 determines at least one target contour according to the contour information and the target region information, wherein any target contour is located in whole or in part in the target region; reduce first coordinates of the plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour; Then, a target image corresponding to the target region is generated according to the second position information and the target region information of the at least one target contour, wherein the target image includes the contour located in the target region.

본 개시내용의 본 실시예에서 제공되는 방법은 이미지 생성 시나리오에 적용 가능하다. 예를 들어, WSI의 타깃 이미지를 생성하는 시나리오에서:The method provided in this embodiment of the present disclosure is applicable to an image generation scenario. For example, in a scenario that creates a target image for WSI:

WSI는 타깃 오브젝트를 포함하고, WSI에 대응하는 타깃 이미지는 WSI에서 타깃 오브젝트의 윤곽을 포함한다. 일부 실시예들에서, WSI와 WSI에 대응하는 타깃 이미지는 네트워크 모델의 트레이닝 데이터로 사용되며, 이에 의해, WSI에서 타깃 오브젝트를 인식할 수 있는 네트워크 모델을 트레이닝한다. 본 개시내용의 실시예들에서 제공하는 이미지 생성 방법을 이용함으로써, 각각의 타깃 윤곽의 윤곽 포인트들의 좌표들은 감소될 수 있고, 이에 의해, 생성된 타깃 이미지의 크기를 감소시킬 수 있다. 또한, 타깃 이미지에서 각각의 윤곽 포인트의 상대적인 위치는 변경되지 않는데, 즉 타깃 이미지에서 윤곽들 사이의 상대적인 포지션 관계는 원래의 이미지의 해당하는 윤곽들 사이의 상대적인 포지션 관계와 동일하며, 이에 의해, 원래의 이미지의 2개의 윤곽들이 연결되는 문제를 방지하고, 타깃 이미지의 정확도를 보장한다.The WSI includes the target object, and the target image corresponding to the WSI includes the outline of the target object in the WSI. In some embodiments, the WSI and the target image corresponding to the WSI are used as training data of the network model, thereby training the network model capable of recognizing the target object in the WSI. By using the image generating method provided by the embodiments of the present disclosure, the coordinates of the contour points of each target contour may be reduced, thereby reducing the size of the generated target image. Further, the relative position of each contour point in the target image is not changed, i.e. the relative positional relationship between contours in the target image is the same as the relative positional relation between the corresponding contours in the original image, whereby, It avoids the problem of connecting the two contours of the image of , and guarantees the accuracy of the target image.

본 개시내용의 실시예들에서 제공하는 이미지 생성 방법은 이미지가 생성되는 모든 시나리오에 적용 가능하며, 이는 본 개시내용의 실시예들에 제한되지 않는다.The image generating method provided in the embodiments of the present disclosure is applicable to all scenarios in which an image is generated, which is not limited to the embodiments of the present disclosure.

도 2는 본 개시내용의 실시예에 따른 이미지 생성 방법의 흐름도이다. 본 개시내용의 실시예들의 실행 엔티티(execution entity)는 컴퓨터 디바이스이다. 컴퓨터 디바이스는 모바일 폰, 컴퓨터, 또는 태블릿 컴퓨터와 같은 단말기, 또는 서버, 또는 복수의 서버들을 포함하는 서버 클러스터, 또는 클라우드 컴퓨팅 서비스 센터이다. 이미지 생성 프로세스는 본 개시내용의 실시예들에서 설명된다. 도 2를 참조하면, 이미지 생성 방법은 다음 단계를 포함한다.2 is a flowchart of an image generating method according to an embodiment of the present disclosure; The execution entity of embodiments of the present disclosure is a computer device. A computer device is a terminal, such as a mobile phone, computer, or tablet computer, or a server, or a server cluster comprising a plurality of servers, or a cloud computing service center. The image creation process is described in embodiments of the present disclosure. Referring to FIG. 2 , the image generating method includes the following steps.

201: 윤곽 정보를 획득하는 단계로서, 윤곽 정보는 원래 이미지에서 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 포함하고, 임의의 원래의 윤곽의 제 1 위치 정보는 임의의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 포함한다.201: Acquire contour information, wherein the contour information includes first position information of at least one original contour in the original image, and the first position information of any original contour includes a plurality of pieces in the original contour. first coordinates of the contour points of .

구현 예에서, 원래의 이미지는 타깃 오브젝트를 포함하는 임의의 이미지이다. 원래의 이미지에서 원래의 윤곽은 원래의 이미지에서 타깃 오브젝트의 윤곽이다. 도 3에 도시된 바와 같이, 원래의 이미지는 복수의 타깃 오브젝트들(301)을 포함하고, 타깃 오브젝트들(301)의 윤곽들은 원래의 이미지에서 원래의 윤곽들이다. 일부 실시예들에서, 타깃 오브젝트는 임의의 오브젝트이다. 예를 들어, 원래의 이미지는 병리학적 WSI이고, 타깃 오브젝트들은 암 세포들이며, 원래의 윤곽들은 암 세포들의 윤곽들이며, 또는 타깃 오브젝트들이 암 세포들의 세포 그룹이고, 원래의 윤곽은 세포 그룹의 윤곽이고, 세포 그룹은 복수의 세포들의 포함하는 부분이다.In an implementation, the original image is any image containing the target object. The original outline in the original image is the outline of the target object in the original image. As shown in FIG. 3 , the original image includes a plurality of target objects 301 , and the outlines of the target objects 301 are original outlines in the original image. In some embodiments, the target object is any object. For example, the original image is a pathological WSI, the target objects are cancer cells, the original contours are contours of cancer cells, or the target objects are a cell group of cancer cells, the original contour is a contour of a cell group and , a cell group is an inclusive portion of a plurality of cells.

일부 실시예들에서, 적어도 하나의 원래의 윤곽은 원래 이미지에서 모든 원래의 윤곽들을 지칭하거나, 원래의 윤곽에서 원래의 윤곽들의 일부를 지칭한다. 이것은 본 개시내용의 실시예들에 제한되지 않는다.In some embodiments, the at least one original contour refers to all original contours in the original image, or refers to some of the original contours in the original contour. This is not limited to the embodiments of the present disclosure.

도 3에 도시된 바와 같이, 원래의 이미지는 타깃 오브젝트들, 색상들, 질감들 등을 포함할 수 있다. 도 4는 도 3에 도시된 원래의 이미지에 대응하는 타깃 이미지를 나타낸다. 도 4에 도시된 바와 같이, 타깃 이미지는 색상 또는 질감을 포함하지 않고, 단지 복수의 타깃 오브젝트들(301)의 원래의 윤곽(401)만을 포함한다. 구현 예에서, 원래의 이미지와 원래의 이미지에 대응하는 타깃 이미지는 분류 네트워크 모델의 트레이닝 데이터로 사용되고, 분류 네트워크 모델은 타깃 오브젝트들을 구별하기 위해 사용될 수 있다.As shown in FIG. 3 , the original image may include target objects, colors, textures, and the like. Fig. 4 shows a target image corresponding to the original image shown in Fig. 3; As shown in FIG. 4 , the target image contains no color or texture, only the original outline 401 of the plurality of target objects 301 . In an implementation, the original image and the target image corresponding to the original image are used as training data of the classification network model, and the classification network model may be used to distinguish target objects.

일부 실시예들에서, 타깃 이미지는 원래의 이미지에서 적어도 하나의 원래의 윤곽의 제 1 위치 정보에 따라 생성된다. 따라서, 원래의 이미지에 해당하는 타깃 이미지는 원래의 이미지와 동일한 크기를 갖는다. 원래의 이미지의 이미지 크기가 제 1 참조 크기를 초과하는 경우, 생성된 타깃 이미지의 크기는 또한 제 1 기준 크기를 초과한다. 예를 들어, 제 1 기준 크기는 현재의 이미지 처리 기술을 이용하여 생성될 수 있는 이미지의 최대 크기이다. 따라서, 원래의 이미지의 이미지 크기가 제 1 기준 크기를 초과할 때, 원래의 이미지에 대응하는 타깃 이미지는 현재의 이미지 처리 기술을 사용하여 생성될 수 없다. 예를 들어, 현재의 이미지 처리 기술을 사용하여 생성될 수 있는 이미지의 최대 크기는 프로그래밍 언어의 처리 상한 또는 하드웨어 디바이스에 의해 처리될 수 있는 데이터의 상한에 의해 결정된다. 하드웨어 디바이스는 메모리 등이다.In some embodiments, the target image is generated according to first position information of at least one original contour in the original image. Accordingly, the target image corresponding to the original image has the same size as the original image. If the image size of the original image exceeds the first reference size, the size of the generated target image also exceeds the first reference size. For example, the first reference size is the maximum size of an image that can be created using current image processing techniques. Therefore, when the image size of the original image exceeds the first reference size, the target image corresponding to the original image cannot be generated using the current image processing technology. For example, the maximum size of an image that can be created using current image processing technology is determined by the processing upper limit of the programming language or the upper limit of the data that can be processed by the hardware device. The hardware device is a memory or the like.

예를 들어, 원래의 이미지의 크기는 100,000*100,000 이고, 현재의 이미지 처리 기술을 사용하여 처리될 수 있는 이미지의 최대 크기는 50,000*50,000 이다. 따라서, 원래의 이미지에 대응하는 타깃 이미지는 현재의 이미지 처리 기술에 의해 생성될 수 없다.For example, the size of an original image is 100,000*100,000, and the maximum size of an image that can be processed using current image processing techniques is 50,000*50,000. Therefore, the target image corresponding to the original image cannot be generated by the current image processing technology.

또한, 원래의 이미지와 원래의 이미지의 타깃 이미지가 네트워크 모델의 트레이닝 데이터로 사용될 때, 원래의 이미지와 원래의 이미지의 타깃 이미지는 제 2 기준 크기보다 작아야 한다. 원래의 이미지와 타깃 이미지의 크기들이 제 2 참조 크기를 초과하는 경우, 원래의 이미지와 원래의 이미지의 타깃 이미지는 네트워크 모델의 트레이닝 데이터로 사용될 수 없다. 예를 들어, 제 2 기준 크기는 인공 지능 알고리즘에서 사용되는 트레이닝 이미지의 최대 크기이다. 구현 예에서, 제 2 참조 크기는 2000*2000이다.In addition, when the original image and the target image of the original image are used as training data of the network model, the original image and the target image of the original image must be smaller than the second reference size. When the sizes of the original image and the target image exceed the second reference size, the original image and the target image of the original image cannot be used as training data of the network model. For example, the second reference size is the maximum size of the training image used in the artificial intelligence algorithm. In an implementation, the second reference size is 2000*2000.

본 개시내용에서, 생성된 타깃 이미지의 크기는 타깃 영역을 정의하고 타깃 영역에 대응하는 타깃 이미지를 생성함으로써 감소시킬 수 있으므로, 원래의 이미지의 크기는 본 개시내용에서 제한되지 않는다.In the present disclosure, since the size of the generated target image can be reduced by defining a target area and generating a target image corresponding to the target area, the size of the original image is not limited in the present disclosure.

윤곽 포인트들의 제 1 좌표들은 원래의 이미지에서 윤곽 포인트들의 위치들을 나타내기 위해 사용된다. 구현 예에서, 윤곽 포인트들의 제 1 좌표들은 원래의 이미지의 2차원 좌표계에서 윤곽 포인트들의 좌표들이다. 일부 실시예들에서, 원래의 이미지의 2차원 좌표계는 원래의 이미지의 정점이 좌표의 원점인 좌표계이다. 예를 들어, 원래의 이미지의 정점은 원래의 이미지의 좌측 하단 코너의 정점, 우측 하단 코너의 정점, 좌측 상단 코너의 정점, 우측 상단 코너의 정점 등이며, 이것은 본 개시내용의 실시예들에 제한되지 않는다. 구현 예에서, 원래의 이미지의 2차원 좌표계는 원래의 이미지가 생성될 때 사용되는 좌표계이며, 원래의 이미지에 대한 임의의 포지션 포인트는 2차원 좌표계에 따라 결정된다.The first coordinates of the contour points are used to indicate the positions of the contour points in the original image. In an implementation, the first coordinates of the contour points are coordinates of the contour points in a two-dimensional coordinate system of the original image. In some embodiments, the two-dimensional coordinate system of the original image is a coordinate system in which the vertex of the original image is the origin of the coordinates. For example, the vertices of the original image are the vertices of the lower-left corner, the vertices of the lower-right corners, the vertices of the upper-left corners, the vertices of the upper-right corners, etc. of the original image, which are limited to embodiments of the present disclosure doesn't happen In an implementation, the two-dimensional coordinate system of the original image is the coordinate system used when the original image is generated, and any position point with respect to the original image is determined according to the two-dimensional coordinate system.

가능한 구현 예에서, 윤곽 정보는 적어도 하나의 원래의 윤곽의 윤곽 식별자를 더 포함한다. 윤곽 식별자는 원래의 윤곽을 고유하게 결정하는 식별자이다. 예를 들어, 윤곽 식별자는 원래의 윤곽의 시퀀스 번호, 아이덴티티(identity, ID) 등이며, 윤곽 식별자는 본 개시내용의 실시예들에서 제한되지 않는다. 구현 예에서, 원래의 윤곽의 윤곽 식별자 및 원래의 윤곽의 제 1 위치 정보는 대응하여 저장된다. 예를 들어, 각각의 원래의 윤곽의 제 1 위치 정보는 파일에 저장되고, 파일의 파일 이름은 원래의 윤곽의 윤곽 식별자를 포함한다.In a possible implementation, the contour information further comprises a contour identifier of the at least one original contour. The contour identifier is an identifier that uniquely determines the original contour. For example, the contour identifier is a sequence number, identity, ID, etc. of the original contour, and the contour identifier is not limited in the embodiments of the present disclosure. In an implementation, the contour identifier of the original contour and the first position information of the original contour are stored correspondingly. For example, the first position information of each original contour is stored in a file, and the file name of the file includes the contour identifier of the original contour.

구현 예에서, 윤곽 식별자는 원래의 윤곽의 제 1 위치 정보에 추가된다. 예를 들어, 제 1 위치 정보는 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 포함하고, 복수의 윤곽 포인트들의 제 1 좌표들은 [[x_i_1, y_i_1], [x_i_2, y_i_2], [x_i_3, y_i_3], ..., [x_i_n, y_i_n]] 이며, 여기서 x는 제 1 좌표의 수평 좌표, y는 제 1 좌표의 수직 좌표, i는 윤곽 식별자, 및 n은 원래의 윤곽에 있는 윤곽 포인트들의 수량이며, 여기서, n은 3보다 크거나 같은 정수이다. 구현 예에서, i는 원래의 윤곽의 시퀀스 번호이고, i = 1은 원래의 윤곽이 제 1 윤곽임을 의미하고, i = 2는 원래의 윤곽이 제 2 윤곽을 의미하며, i = n은 원래의 윤곽이 n 번째 윤곽임을 의미한다.In an implementation, the contour identifier is added to the first position information of the original contour. For example, the first position information includes first coordinates of a plurality of contour points in the original contour, and the first coordinates of the plurality of contour points are [[x_i_1, y_i_1], [x_i_2, y_i_2], [x_i_3] , y_i_3], ..., [x_i_n, y_i_n]] where x is the horizontal coordinate of the first coordinate, y is the vertical coordinate of the first coordinate, i is the contour identifier, and n is the contour point in the original contour. , where n is an integer greater than or equal to 3. In an implementation, i is the sequence number of the original contour, i = 1 means the original contour is the first contour, i = 2 means the original contour is the second contour, and i = n is the original contour It means that the contour is the nth contour.

예를 들어, 윤곽 정보를 획득하는 방법은, 원래의 이미지에 대해 윤곽 분석 처리를 수행함으로써 원래의 이미지의 윤곽 정보를 획득하거나; 국부 저장 공간으로부터 윤곽 정보를 획득하는 것이다.For example, the method for acquiring contour information includes: acquiring contour information of the original image by performing contour analysis processing on the original image; To obtain contour information from a local storage space.

구현 예에서, 컴퓨터 디바이스는 원래의 이미지를 분석 및 처리함으로써 원래의 이미지의 윤곽 정보를 획득한다. 가능한 구현 예에서, 원래의 이미지는 적어도 하나의 타깃 오브젝트를 포함하고; 컴퓨터 디바이스에 의해 원래의 이미지를 분석 및 처리함으로써 원래의 이미지의 윤곽 정보를 획득하는 것은, 컴퓨터 디바이스에 의해, 원래의 이미지의 각각의 포인트의 픽셀 값에 따라 임의의 포인트의 픽셀 값과 인접한 포인트의 픽셀 값 사이의 픽셀 차이를 결정하는 것; 픽셀 차이가 기준 차이보다 큰 것에 응답하여 임의의 포인트를 원래의 윤곽에 대한 윤곽 포인트로 사용하는 것; 그리고, 원래의 이미지의 윤곽 정보를 획득하기 위해 적어도 하나의 원래의 윤곽에 대한 복수의 윤곽 포인트들의 위치 정보를 획득하는 것을 포함한다.In an implementation, the computer device obtains contour information of the original image by analyzing and processing the original image. In a possible implementation, the original image comprises at least one target object; Obtaining the contour information of the original image by analyzing and processing the original image by the computer device, by the computer device, according to the pixel value of each point of the original image, the pixel value of any point and the adjacent point determining a pixel difference between pixel values; using any point as the contour point for the original contour in response to the pixel difference being greater than the reference difference; and obtaining position information of a plurality of contour points with respect to at least one original contour to obtain contour information of the original image.

다른 가능한 구현 예에서, 원래의 이미지는 적어도 하나의 원래의 윤곽을 포함하고, 컴퓨터 디바이스에 의해 원래의 이미지를 분석 및 처리함으로써 원래의 이미지의 윤곽 정보를 획득하는 것은, 컴퓨터 디바이스에 의해, 원래의 이미지에 대한 적어도 하나의 원래의 윤곽의 위치에 따라 원래의 이미지의 2차원 좌표계에서 적어도 하나의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 획득하는 것, 그리고, 적어도 하나의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들에 따라 원래의 이미지의 윤곽 정보를 획득하는 것을 포함한다.In another possible implementation example, the original image includes at least one original contour, and obtaining contour information of the original image by analyzing and processing the original image by the computer device includes, by the computer device, the original contour. obtaining first coordinates of a plurality of contour points in the at least one original contour in a two-dimensional coordinate system of the original image according to a position of the at least one original contour with respect to the image; and and obtaining contour information of the original image according to first coordinates of a plurality of contour points in .

구현 예에서, 윤곽 정보는 대안적으로 국부 저장 공간으로부터 획득될 수 있으며, 이는 본 개시내용의 실시예들에서 제한되지 않는다. 구현 예에서, 국부 저장 공간은 적어도 하나의 원래의 이미지의 윤곽 정보를 포함하고, 원래의 이미지의 적어도 하나의 원래의 윤곽의 제 1 위치 정보는 동일한 저장 위치에 저장된다.In an implementation, the contour information may alternatively be obtained from a local storage space, which is not limited in embodiments of the present disclosure. In an implementation, the local storage space includes contour information of the at least one original image, and the first location information of the at least one original contour of the original image is stored in the same storage location.

예를 들어, 윤곽 정보는 사용자에 의해 컴퓨터 디바이스에 수동으로 원래의 윤곽을 드로잉함으로써 획득되거나, 컴퓨터 디바이스에 의해 원래의 이미지에 윤곽 분석 처리를 수행함으로써 획득되며, 이는 본 개시내용의 실시예들에서 제한되지 않는다.For example, the contour information is obtained by manually drawing the original contour on the computer device by the user, or is obtained by performing contour analysis processing on the original image by the computer device, which in the embodiments of the present disclosure not limited

가능한 구현 예에서, 윤곽 정보는 사용자에 의해 컴퓨터 디바이스에 원래의 윤곽을 수동으로 드로잉함으로써 획득된다. 컴퓨터 디바이스는 원래의 이미지를 디스플레이하고, 사용자는 원래의 이미지를 드로잉한다. 컴퓨터 디바이스는 검출된 슬라이딩 궤적에 따라 원래의 이미지에 대해 슬라이딩 궤적에 대응하는 원래의 윤곽을 생성하고, 윤곽 정보를 획득하기 위해 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 획득한다.In a possible implementation, the contour information is obtained by manually drawing an original contour on a computer device by a user. The computer device displays the original image, and the user draws the original image. The computer device generates an original contour corresponding to the sliding trajectory for the original image according to the detected sliding trajectory, and acquires first coordinates of a plurality of contour points in the original contour to obtain contour information.

일부 실시예들에서, 원래의 이미지에 대한 사용자의 드로잉은 원래의 이미지에 대한 트리거 조작이다. 예를 들어, 트리거 조작은 클릭 조작, 길게 누르기 조작, 드래그 조작, 더블 클릭 조작, 슬라이딩 조작 등이다. 예를 들어, 트리거 조작은 사용자에 의해 마우스를 통해 트리거되거나 사용자에 의해 디스플레이 스크린을 터치함으로써 트리거된다. 구현 예에서, 원래의 이미지에 대한 트리거 조작은 복수의 트리거 조작들 중 하나 또는 조합 등이며, 이는 본 개시내용의 실시예들에서 제한되지 않는다.In some embodiments, the user's drawing on the original image is a trigger operation on the original image. For example, the trigger operation is a click operation, a long press operation, a drag operation, a double click operation, a sliding operation, and the like. For example, the trigger operation is triggered by the user through a mouse or by touching the display screen by the user. In an implementation, the trigger operation on the original image is one or a combination of a plurality of trigger operations, which is not limited in the embodiments of the present disclosure.

가능한 구현 예에서, 윤곽 정보는 컴퓨터 디바이스에 의해 원래의 이미지에 대한 윤곽 분석 처리를 수행함으로써 획득된다. 구현 예에서, 원래의 이미지는 적어도 하나의 타깃 오브젝트를 포함하고, 컴퓨터 디바이스에 의해 원래의 이미지를 분석 및 처리함으로써 원래의 이미지의 윤곽 정보를 획득하는 것은, 컴퓨터 디바이스에 의해, 원래의 이미지에 대한 임의의 포인트의 픽셀 값 및 인접한 포인트의 픽셀 값에 따라 임의의 포인트의 픽셀 값과 인접한 포인트의 픽셀 값 사이의 차이를 결정하는 것; 타깃 오브젝트의 원래의 윤곽을 결정하기 위해 기준 차이보다 큰 차이에 응답하여 임의의 포인트를 원래의 윤곽에 대한 윤곽 포인트로 사용하는 것; 그리고, 원래의 이미지의 2차원 좌표계에서 원래의 윤곽에 있는 복수의 윤곽 포인트들의 위치들에 따라, 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 획득하고, 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표에 따라 원래의 이미지의 윤곽 정보를 획득하는 것을 포함한다.In a possible implementation example, the contour information is obtained by performing contour analysis processing on the original image by the computer device. In an implementation embodiment, the original image includes at least one target object, and obtaining contour information of the original image by analyzing and processing the original image by the computer device includes, by the computer device, the contour information of the original image. determining a difference between the pixel value of any point and the pixel value of the adjacent point according to the pixel value of the arbitrary point and the pixel value of the adjacent point; using any point as a contour point for the original contour in response to a difference greater than a reference difference to determine the original contour of the target object; And, according to the positions of the plurality of contour points in the original contour in the two-dimensional coordinate system of the original image, first coordinates of the plurality of contour points in the original contour are obtained, and the plurality of contours in the original contour is obtained. and acquiring contour information of the original image according to the first coordinates of the points.

구현 예에서, 원래의 이미지는 적어도 하나의 원래의 윤곽의 윤곽 라인을 포함하고, 컴퓨터 디바이스에 의해 원래의 이미지를 분석 및 처리함으로써 원래의 이미지의 윤곽 정보를 획득하는 것은, 컴퓨터 디바이스에 의해, 원래의 이미지에 대한 적어도 하나의 원래의 윤곽의 윤곽 라인의 위치에 따른 원래의 이미지의 2차원 좌표계에서, 적어도 하나의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 획득하는 것, 그리고, 적어도 하나의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들에 따른 원래의 이미지의 윤곽 정보를 획득하는 것을 포함한다.In an implementation, the original image includes at least one contour line of the original contour, and obtaining contour information of the original image by analyzing and processing the original image by the computer device includes, by the computer device, the contour information of the original image. obtaining first coordinates of a plurality of contour points in the at least one original contour in a two-dimensional coordinate system of the original image according to the position of the contour line of the at least one original contour with respect to the image of ; and acquiring contour information of the original image according to first coordinates of a plurality of contour points in one original contour.

윤곽 정보를 획득하는 방식은 본 개시내용의 실시예들에서 예들을 취하여 설명될 뿐이고, 전술한 여러 획득 방식들에 제한되지 않는다. 윤곽 정보는 대안적으로 다른 방식들로 획득될 수 있다. 윤곽 정보를 획득하는 방식은 본 개시내용의 실시예들에서 제한되지 않는다.A method of obtaining the contour information is only described by taking examples in the embodiments of the present disclosure, and is not limited to the above-described various obtaining methods. The contour information may alternatively be obtained in other manners. A manner of obtaining the contour information is not limited in the embodiments of the present disclosure.

202: 타깃 영역 정보를 획득하는 단계로서, 타깃 영역 정보는 원래의 이미지에서 타깃 영역을 나타낸다.202: Acquire target area information, wherein the target area information indicates a target area in the original image.

타깃 영역 정보는 타깃 영역을 결정하기 위해 사용되는 정보이다. 가능한 구현 예에서, 타깃 영역 정보는 타깃 영역의 복수의 정점들의 좌표들을 포함한다. 예를 들어, 타깃 영역은 직사각형 영역이고, 타깃 영역 정보는 타깃 영역의 4개의 정점들의 좌표들이다. 다른 가능한 구현 예에서, 타깃 영역 정보는 타깃 영역의 임의의 정점의 좌표들, 타깃 영역의 형상 및 크기를 포함한다. 예를 들어, 타깃 영역 정보는 타깃 영역의 형상이 직사각형이고 타깃 영역의 길이가 500이고, 너비가 400이며, 타깃 영역의 좌측 상단 코너에서 정점의 좌표들이 (18000, 25000)인 것을 포함한다. 즉, 타깃 영역의 형상, 크기, 및 포지션은 타깃 영역 정보를 통해 모두 결정된다.The target area information is information used to determine the target area. In a possible implementation, the target area information comprises coordinates of a plurality of vertices of the target area. For example, the target area is a rectangular area, and the target area information is coordinates of four vertices of the target area. In another possible implementation, the target area information includes the coordinates of any vertex of the target area, the shape and size of the target area. For example, the target area information includes that the shape of the target area is a rectangle, the length of the target area is 500, the width is 400, and the coordinates of the vertices in the upper left corner of the target area are (18000, 25000). That is, the shape, size, and position of the target area are all determined through target area information.

구현 예에서, 타깃 영역의 형상은 고정되어 있다. 예를 들어, 타깃 영역의 형상은 직사각형, 원형 등이고, 타깃 영역 정보는 타깃 영역의 임의의 정점의 좌표 및 타깃 영역의 크기를 포함한다. 즉, 타깃 영역의 형상은 디폴트이며, 타깃 영역의 포지션 및 크기는 타깃 영역 정보를 통해 결정된다.In an embodiment, the shape of the target area is fixed. For example, the shape of the target region is a rectangle, a circle, or the like, and the target region information includes coordinates of arbitrary vertices of the target region and the size of the target region. That is, the shape of the target region is the default, and the position and size of the target region are determined through target region information.

구현 예에서, 타깃 영역 정보는 사용자에 의해 입력되거나, 컴퓨터 디바이스에 의해 원래의 이미지를 분석 및 처리함으로써 획득된다. 가능한 구현 예에서, 컴퓨터 디바이스는 영역 정보 획득 페이지를 디스플레이하고, 영역 정보 획득 페이지를 통해 사용자에 의해 입력된 타깃 영역 정보를 획득하며, 영역 정보 획득 페이지는 타깃 영역 정보를 획득하기 위해 사용된다. 예를 들어, 영역 정보 획득 페이지는 적어도 하나의 영역 정보 입력 옵션을 포함한다.In an implementation, the target area information is input by a user or obtained by analyzing and processing the original image by a computer device. In a possible implementation example, the computer device displays a region information acquisition page, obtains target region information input by a user through the region information acquisition page, and the region information acquisition page is used to acquire target region information. For example, the area information acquisition page includes at least one area information input option.

가능한 구현 예에서, 컴퓨터 디바이스는 원래의 이미지를 복수의 영역 이미지들로 분할하고, 각각의 영역 이미지에 대해 윤곽 인식 처리를 수행하며, 원래의 윤곽을 포함하는 영역 이미지에 응답하여, 영역 이미지의 영역 정보를 타깃 영역 정보로 사용한다. 예를 들어, 원래의 윤곽을 포함하는 영역 이미지는 영역 이미지가 완전한 원래의 윤곽을 포함하거나, 또는 영역 이미지가 원래의 윤곽의 일부를 포함한다는 것을 의미한다.In a possible implementation embodiment, the computer device divides the original image into a plurality of region images, performs contour recognition processing on each region image, and in response to the region image comprising the original contour, the region of the region image Use the information as target area information. For example, a region image including the original contour means that the region image contains the complete original contour, or the region image contains a portion of the original contour.

일부 실시예들에서, 원래의 윤곽이 영역 이미지에 포함되는지를 결정하기 위해 컴퓨터 디바이스가 영역 이미지에 대해 윤곽 인식 처리를 수행하는 방식은 영역 이미지에 대한 임의의 포인트의 픽셀 값과 인접한 포인트의 픽셀 값 사이의 차이에 따라 원래의 윤곽이 영역 이미지에 포함되는지를 결정하거나, 또는 영역 이미지에 윤곽 라인들이 있는지에 따라 원래의 윤곽이 영역 이미지에 포함되는지를 결정하기 위한 것이다. 물론, 다른 방식들이 원래의 윤곽이 영역 이미지에 포함되는지를 결정하기 위해 대안적으로 사용될 수 있으며, 이는 본 개시내용의 실시예들에서 제한되지 않는다.In some embodiments, the manner in which the computer device performs contour recognition processing on the area image to determine whether the original contour is included in the area image is a pixel value at any point on the area image and a pixel value at an adjacent point. It is for determining whether the original contour is included in the region image according to the difference between the two, or whether the original contour is included in the region image according to whether there are contour lines in the region image. Of course, other schemes may alternatively be used to determine whether the original contour is included in the area image, which is not limited in embodiments of the present disclosure.

예를 들어, 도 5에 도시된 것처럼, 원래의 이미지의 영역(501)은 복수의 원래의 윤곽들을 포함한다. 컴퓨터 디바이스는 영역(501)을 타깃 영역으로 사용하고 영역(501)의 영역 정보를 타깃 영역 정보로 획득한다. 그러나, 원래의 이미지의 영역(502)은 원래의 윤곽을 포함하지 않으며, 컴퓨터 디바이스는 영역(502)을 타깃 영역으로 사용하지 않는다.For example, as shown in FIG. 5 , the area 501 of the original image includes a plurality of original contours. The computer device uses the area 501 as the target area and obtains area information of the area 501 as the target area information. However, region 502 of the original image does not include the original outline, and the computer device does not use region 502 as a target region.

203: 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계로서, 임의의 타깃 윤곽은 타깃 영역에 전체적으로 또는 부분적으로 위치한다.203: Determine at least one target contour according to the contour information and the target region information, wherein any target contour is located in whole or in part in the target region.

임의의 타깃 윤곽이 타깃 영역에 완전히 또는 부분적으로 위치한다는 것은 임의의 타깃 윤곽이 타깃 영역에 전체적으로 위치하거나 타깃 영역에 부분적으로 위치한다는 것을 의미한다. 즉, 타깃 영역은 완전한 타깃 윤곽에 대응하는 닫힌 영역, 또는 불완전한 타깃 윤곽에 대응하는 닫히지 않은 영역을 포함한다. 예를 들어, 도 6에 도시된 바와 같이, 타깃 영역은 직사각형 영역이고, 타깃 영역은 복수의 타깃 윤곽들을 포함한다. 제 1 타깃 윤곽(601)은 닫힌 영역을 둘러싸고, 제 1 타깃 윤곽(601)은 타깃 영역에 완전히 위치한다. 제 2 타깃 윤곽(602)은 또한 닫힌 영역을 둘러싸고, 제 2 타깃 윤곽(602)은 또한 타깃 영역에 전체적으로 위치한다. 제 3 타깃 윤곽(603)은 닫힌 영역을 둘러싸지 않고, 제 3 타깃 윤곽(603)은 타깃 영역에 부분적으로 위치한다.When any target contour is fully or partially located in the target area, it is meant that any target contour is entirely located in the target area or partially located in the target area. That is, the target region includes a closed region corresponding to a complete target contour, or an unclosed region corresponding to an incomplete target contour. For example, as shown in FIG. 6 , the target area is a rectangular area, and the target area includes a plurality of target contours. The first target contour 601 surrounds the closed area, and the first target contour 601 lies completely in the target area. The second target contour 602 also surrounds the closed area, and the second target contour 602 is also located entirely in the target area. The third target contour 603 does not surround the closed area, and the third target contour 603 is located partially in the target area.

가능한 구현 예에서, 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계는, 윤곽 정보 및 타깃 영역 정보에 따라 임의의 윤곽 포인트가 타깃 영역에 위치한다고 결정하는 것에 응답하여, 임의의 윤곽 포인트가 타깃 윤곽으로 속하는 원래의 윤곽을 결정하는 단계를 포함한다.In a possible implementation, determining the at least one target contour according to the contour information and the target area information comprises, in response to determining that any contour point is located in the target area according to the contour information and the target area information, any and determining an original contour to which the contour point belongs to the target contour.

구현 예에서, 윤곽 포인트의 위치 정보는 윤곽 포인트가 속하는 원래의 윤곽의 윤곽 식별자를 포함하고, 컴퓨터 디바이스는 윤곽 포인트의 위치 정보에 포함된 윤곽 식별자를 획득할 수 있다. 윤곽 포인트의 위치 정보에 포함된 윤곽 식별자에 따라, 윤곽 포인트가 속하는 원래의 윤곽은 결정되고, 결정된 원래의 윤곽은 타깃 윤곽으로 결정된다. 즉, 원래의 윤곽의 윤곽 식별자를 획득함으로써, 원래의 윤곽은 타깃 윤곽으로 결정된다.In an implementation example, the position information of the contour point may include a contour identifier of an original contour to which the contour point belongs, and the computer device may obtain the contour identifier included in the position information of the contour point. According to the contour identifier included in the positional information of the contour point, an original contour to which the contour point belongs is determined, and the determined original contour is determined as a target contour. That is, by obtaining the contour identifier of the original contour, the original contour is determined as the target contour.

예를 들어, 타깃 영역에 위치하는 윤곽 포인트의 좌표들은 [x_2_n, y_2_n]이며, 여기서, 2는 원래의 윤곽의 윤곽 식별자이다. 윤곽 포인트가 속하는 원래의 윤곽의 윤곽 식별자는 윤곽 포인트의 좌표들에 따라 획득될 수 있다. 이어서, 윤곽 식별자에 따라, 윤곽 식별자가 2인 원래의 윤곽의 제 1 위치 정보는 윤곽 정보로부터 획득될 수 있다.For example, the coordinates of the contour point located in the target area are [x_2_n, y_2_n], where 2 is the contour identifier of the original contour. The contour identifier of the original contour to which the contour point belongs may be obtained according to the coordinates of the contour point. Then, according to the contour identifier, first position information of the original contour whose contour identifier is 2 may be obtained from the contour information.

상술한 방식에서, 타깃 영역에서 타깃 윤곽이 타깃 영역 정보에 따라 결정될 때마다, 각각의 원래의 윤곽의 윤곽 포인트들이 검색되고 비교되어야 한다. 각각의 타깃 영역에서 타깃 윤곽이 복수의 타깃 영역 정보에 따라 결정되어야 한다면, 각각의 원래의 윤곽의 윤곽 포인트들은 반복적으로 검색 및 비교되어야 한다.In the above-described manner, whenever the target contour in the target region is determined according to the target region information, the contour points of each original contour must be retrieved and compared. If the target contour in each target region is to be determined according to a plurality of target region information, contour points of each original contour must be iteratively searched and compared.

따라서, 본 개시내용의 실시예들에서, 감소된 타깃 영역에서 적어도 하나의 타깃 윤곽은 제 1 이미지를 생성함으로써 제 1 이미지에서 추가로 결정될 수 있다. 제 1 이미지는 감소된 원래의 이미지에 해당하는 타깃 이미지이다.Accordingly, in embodiments of the present disclosure, at least one target contour in the reduced target area may be further determined in the first image by generating the first image. The first image is a target image corresponding to the reduced original image.

다른 가능한 구현 예에서, 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계는, 적어도 하나의 제 1 윤곽의 제 3 위치 정보를 획득하기 위해 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 감소시키는 단계 - 임의의 제 1 윤곽은 해당하는 원래의 윤곽이 감소된 후의 윤곽이고, 적어도 하나의 원래의 윤곽의 제 1 위치 정보는 동일한 감소율을 가짐 -; 적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 원래의 이미지에 대응하는 제 1 이미지를 생성하는 단계 - 제 1 이미지는 적어도 하나의 제 1 윤곽을 포함함 -; 제 1 영역 정보를 획득하기 위해 타깃 영역 정보를 감소시키는 단계 - 제 1 영역 정보는 감소된 타깃 영역을 나타내고, 타깃 영역 정보의 감소율은 적어도 하나의 원래의 윤곽의 제 1 위치 정보의 감소율과 동일함 -; 및 제 1 영역 정보 및 제 1 이미지에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계를 포함한다.In another possible implementation example, determining the at least one target contour according to the contour information and the target area information comprises: a first position of the at least one original contour to obtain third position information of the at least one first contour reducing information, wherein any first contour is a contour after the corresponding original contour has been reduced, and the first position information of the at least one original contour has the same reduction rate; generating a first image corresponding to the original image according to the third position information of the at least one first contour, the first image including the at least one first contour; reducing target area information to obtain first area information, wherein the first area information indicates a reduced target area, and a reduction rate of the target area information is equal to a reduction rate of the first position information of the at least one original contour -; and determining at least one target contour according to the first region information and the first image.

일부 실시예들에서, 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 감소시키는 단계는 각각의 원래의 윤곽에 대한 복수의 윤곽 포인트들의 좌표들을 감소시키는 것이다. 윤곽 포인트들의 좌표들이 수평 좌표들과 수직 좌표들을 포함하는 경우, 윤곽 포인트의 수평 좌표들 및 수직 좌표들은 감소되어야 하며, 여기서, 수평 좌표들 및 수직 좌표들은 동일한 감소율을 갖는다. 예를 들어, 각각의 윤곽 포인트의 수평 좌표는 10배 감소되고, 각각의 윤곽 포인트의 수직 좌표는 10배 감소되어, 적어도 하나의 제 1 윤곽의 제 3 위치 정보를 획득한다.In some embodiments, reducing the first position information of the at least one original contour is reducing the coordinates of the plurality of contour points for each original contour. When the coordinates of the contour points include horizontal coordinates and vertical coordinates, the horizontal and vertical coordinates of the contour point must be reduced, where the horizontal coordinates and the vertical coordinates have the same reduction rate. For example, the horizontal coordinate of each contour point is reduced 10 times, and the vertical coordinate of each contour point is decreased 10 times, to obtain third position information of the at least one first contour.

구현 예에서, 적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 원래의 이미지에 대응하는 제 1 이미지를 생성하는 단계는, 2차원 좌표계를 설정하고, 적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 2차원 좌표계에서 각각의 윤곽 포인트의 위치를 결정하는 단계; 및 2차원 좌표계에서 각각의 윤곽 포인트의 위치에 따라 2차원 좌표계에서 제 1 이미지를 생성하는 단계를 포함한다. 각각의 윤곽 포인트의 좌표들이 감소되므로, 생성된 제 1 이미지는 또한 감소되고, 원래의 이미지에 대한 제 1 이미지의 감소율은 각각의 윤곽 포인트 좌표들의 감소율과 동일한다.In an implementation example, the generating of the first image corresponding to the original image according to the third position information of the at least one first contour includes setting a two-dimensional coordinate system, and the third position information of the at least one first contour determining the position of each contour point in the two-dimensional coordinate system according to and generating the first image in the two-dimensional coordinate system according to the position of each contour point in the two-dimensional coordinate system. Since the coordinates of each contour point are reduced, the generated first image is also reduced, and the reduction rate of the first image relative to the original image is equal to the reduction rate of the respective contour point coordinates.

구현 예에서, 윤곽 정보는 적어도 하나의 원래의 윤곽의 윤곽 식별자를 더 포함하고; 적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 원래의 이미지에 대응하는 제 1 이미지를 생성하는 단계는, 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 원래의 윤곽의 윤곽 식별자에 따라 제 1 이미지를 생성하는 단계를 포함하고, 제 1 이미지는 적어도 하나의 제 1 윤곽 및 적어도 하나의 제 1 윤곽의 윤곽 식별자를 포함하고, 임의의 제 1 윤곽의 윤곽 식별자는 임의의 제 1 윤곽에 대응하는 원래의 윤곽의 윤곽 식별자이다.In an implementation embodiment, the contour information further includes a contour identifier of the at least one original contour; The generating of the first image corresponding to the original image according to the third position information of the at least one first contour includes: the at least one third position information of the first contour and the contour identifier of the at least one original contour generating a first image according to the method, wherein the first image comprises at least one first contour and at least one contour identifier of the first contour, wherein the contour identifier of any first contour is any first contour is the contour identifier of the original contour corresponding to .

예를 들어, 도 7에 도시된 바와 같이, 제 1 이미지에서 윤곽(701)으로 둘러싸인 영역은 윤곽(701)의 윤곽 식별자(45)를 포함하고, 윤곽(702)으로 둘러싸인 영역은 윤곽(702)의 윤곽 식별자(47)를 포함하고, 윤곽(703)으로 둘러싸인 영역은 윤곽(703)의 식별자(48)를 포함하며, 윤곽(704)으로 둘러싸인 영역은 윤곽(704)의 윤곽 식별자(49)를 포함한다.For example, as shown in FIG. 7 , in the first image, the region surrounded by the contour 701 includes the contour identifier 45 of the contour 701 , and the region surrounded by the contour 702 is the contour 702 . contains the contour identifier 47 of , the region surrounded by the contour 703 contains the identifier 48 of the contour 703 , and the region surrounded by the contour 704 contains the contour identifier 49 of the contour 704 . include

구현 예에서, 제 1 영역 정보 및 제 1 이미지에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계는, 제 1 이미지에서 적어도 하나의 제 1 윤곽, 적어도 하나의 제 1 윤곽의 윤곽 식별자, 및 제 1 영역 정보에 따라 적어도 하나의 제 2 윤곽의 윤곽 식별자를 결정하는 단계 - 적어도 하나의 제 2 윤곽은 제 1 이미지에서 감소된 타깃 영역에서 전체적으로 또는 부분적으로 위치하는 제 1 윤곽임 -; 및 적어도 하나의 제 2 윤곽의 윤곽 식별자에 따라 적어도 하나의 제 2 윤곽에 대응하는 원래의 윤곽을 타깃 윤곽으로 결정하는 단계를 포함한다.In an implementation, determining the at least one target contour according to the first region information and the first image comprises: in the first image at least one first contour, a contour identifier of the at least one first contour, and a first region determining a contour identifier of the at least one second contour according to the information, the at least one second contour being a first contour located wholly or partially in the reduced target area in the first image; and determining an original contour corresponding to the at least one second contour as the target contour according to the contour identifier of the at least one second contour.

예를 들어, 타깃 영역 정보는 타깃 영역의 좌측 상단 코너에서 정점의 좌표들이 (30000, 36000)이고, 타깃 영역의 길이가 4000이며, 타깃 영역의 너비가 4000인 것을 포함한다. 원래의 윤곽의 제 1 위치 정보를 20배 감소시킨 이후에, 컴퓨터 디바이스는 제 1 윤곽의 제 3 위치 정보를 획득하고, 제 1 윤곽의 제 3 위치 정보에 따라 제 1 이미지를 생성한다. 도 8은 제 1 이미지의 부분적인 영역을 나타낸다. 제 1 위치 정보가 20배 감소되므로, 타깃 영역 정보는 또한 제 1 영역 정보를 획득하기 위해 20배 감소되어야 한다. 도 8에 도시된 바와 같이, 제 1 영역 정보는 제 1 영역(801)의 좌측 상단 코너에서 정점의 좌표들이 (1500, 1800)이고, 제 1 영역(801)의 길이가 200이며, 제 1 영역(801)의 너비가 200인 것을 포함한다. 제 1 이미지에서 적어도 하나의 제 1 윤곽, 적어도 하나의 제 1 윤곽의 윤곽 식별자, 및 제 1 영역 정보에 따라, 제 1 이미지에서 감소된 타깃 영역에 전체적으로 또는 부분적으로 위치한 적어도 하나의 제 1 윤곽의 윤곽 식별자들이 각각 45, 47, 및 49인 것이 결정될 수 있는데, 즉 적어도 하나의 제 2 윤곽의 윤곽 식별자들이 각각 45, 47, 및 49인 것으로 결정된다. 도 9는 제 1 영역(901)에서 3개의 윤곽들을 도시한다.For example, the target area information includes that coordinates of the vertices in the upper left corner of the target area are (30000, 36000), the length of the target area is 4000, and the width of the target area is 4000. After reducing the first position information of the original contour by 20 times, the computer device acquires third position information of the first contour, and generates a first image according to the third position information of the first contour. 8 shows a partial area of the first image. Since the first location information is reduced by 20 times, the target area information must also be reduced by 20 times to obtain the first area information. As shown in FIG. 8 , in the first region information, the coordinates of the vertices in the upper left corner of the first region 801 are (1500, 1800), the length of the first region 801 is 200, and the first region (801) includes a width of 200. According to the at least one first contour in the first image, the contour identifier of the at least one first contour, and the first region information, of the at least one first contour located wholly or in part in the reduced target region in the first image. It can be determined that the contour identifiers are 45, 47, and 49, respectively, ie the contour identifiers of the at least one second contour are 45, 47, and 49, respectively. 9 shows three contours in the first area 901 .

구현 예에서, 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 원래의 윤곽의 윤곽 식별자에 따라 제 1 이미지를 생성하는 단계는, 임의의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값을 임의의 제 1 윤곽의 윤곽 식별자로 설정하는 단계; 및 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값에 따라 제 1 이미지를 생성하는 단계를 포함한다. 예를 들어, 생성된 제 1 이미지는 색상들을 포함하거나, 블랙, 그레이, 화이트의 3가지 색상들을 포함하며, 이는 본 개시내용의 실시예들에서 제한되지 않는다.In an implementation, generating the first image according to the third position information of the at least one first contour and the contour identifier of the at least one original contour comprises: determining a pixel value in a contour region corresponding to any first contour setting a contour identifier of an arbitrary first contour; and generating the first image according to the third position information of the at least one first contour and the pixel value in the contour region corresponding to the at least one first contour. For example, the generated first image includes colors or includes three colors of black, gray, and white, which is not limited in embodiments of the present disclosure.

예를 들어, 도 10은 제 1 이미지의 부분적인 영역을 나타낸다. 도 10은 상이한 윤곽들에 대응하는 윤곽 영역들에서 상이한 픽셀 값들을 나타내지 않지만, 윤곽 영역에서 픽셀 값을 나타내기 위해 문자 i를 사용하며, 여기서, i = 45는 윤곽 영역(1001)에서 픽셀 값이 45인 것을 나타내고, i = 47은 윤곽 영역(1002)에서 픽셀 값이 47인 것을 나타내고, i = 48은 윤곽 영역(1003)에서 픽셀 값이 48인 것을 나타내며, i = 49는 윤곽 영역(1004)에서 픽셀 값이 49인 것을 나타낸다. 각각의 윤곽 영역의 픽셀 값을 획득함으로써, 각각의 타깃 윤곽의 윤곽 식별자가 획득된다.For example, FIG. 10 shows a partial area of the first image. 10 does not show different pixel values in the contour regions corresponding to different contours, but uses the letter i to denote the pixel value in the contour region, where i = 45 is the pixel value in the contour region 1001 45, i = 47 indicates a pixel value of 47 in the outline area 1002, i = 48 indicates a pixel value of 48 in the outline area 1003, and i = 49 indicates a pixel value of 47 in the outline area 1004. indicates that the pixel value is 49. By obtaining the pixel value of each contour region, the contour identifier of each target contour is obtained.

제 1 영역 정보 및 제 1 이미지를 통해, 타깃 영역에 위치하는 적어도 하나의 타깃 윤곽은 신속하게 결정될 수 있으며, 이는 적어도 하나의 타깃 윤곽을 결정하는 속도를 향상시키므로, 컴퓨터 디바이스는 타깃 윤곽의 제 1 위치 정보에 따라 타깃 이미지를 가능한 한 빨리 드로잉할 수 있고, 이에 의해, 타깃 이미지를 생성하는 효율성을 향상시킨다.Via the first region information and the first image, at least one target contour located in the target region can be quickly determined, which improves the speed of determining the at least one target contour, so that the computer device can determine the first of the target contour. It is possible to draw the target image as quickly as possible according to the position information, thereby improving the efficiency of generating the target image.

단계(203)에서, 컴퓨터 디바이스는 타깃 윤곽의 윤곽 식별자를 획득한다. 단계(204) 이전에, 컴퓨터 디바이스는 적어도 하나의 타깃 윤곽의 윤곽 식별자에 따라 윤곽 정보로부터 적어도 하나의 타깃 윤곽의 제 1 위치 정보를 추가로 획득할 수 있다.In step 203 , the computer device obtains a contour identifier of the target contour. Prior to step 204 , the computer device may further obtain first position information of the at least one target contour from the contour information according to the contour identifier of the at least one target contour.

예를 들어, 타깃 영역은 3개의 타깃 윤곽들을 포함하고, 3개의 타깃 윤곽들의 윤곽 식별자들은 각각 45, 47, 및 49이다. 윤곽 정보는 3개의 타깃 윤곽들의 제 1 위치 정보를 획득하기 위해 45, 47, 및 49에 따라 검색된다. 3개의 타깃 윤곽들의 제 1 위치 정보는 다음과 같다.For example, the target area includes three target contours, and the contour identifiers of the three target contours are 45, 47, and 49, respectively. The contour information is retrieved according to 45 , 47 , and 49 to obtain first position information of the three target contours. The first position information of the three target contours is as follows.

[[x_45_1, y_45_1], [x_45_2, y_45_2], [x_45_3, y_45_3], ..., [x_45_n, y_45_n]],[[x_45_1, y_45_1], [x_45_2, y_45_2], [x_45_3, y_45_3], ..., [x_45_n, y_45_n]],

[[x_47_1, y_47_1], [x_47_2, y_47_2], [x_47_3, y_47_3], ..., [x_47_n, y_47_n]],[[x_47_1, y_47_1], [x_47_2, y_47_2], [x_47_3, y_47_3], ..., [x_47_n, y_47_n]],

[[x_49_1, y_49_1], [x_49_2, y_49_2], [x_49_3, y_49_3], ..., [x_49_n, y_49_n]].[[x_49_1, y_49_1], [x_49_2, y_49_2], [x_49_3, y_49_3], ..., [x_49_n, y_49_n]].

204: 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키는 단계로서, 임의의 타깃 윤곽의 제 2 위치 정보는 임의의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들을 포함하고, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들은 동일한 감소 범위를 갖는다.204: reducing first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour, wherein the second position information of the arbitrary target contour is and second coordinates of the plurality of contour points in the contour, wherein the first coordinates of the plurality of contour points in the at least one target contour have the same reduction range.

타깃 윤곽에 대응하는 이미지가 타깃 윤곽의 좌표들에 따라 생성될 때, 타깃 윤곽에 대응하는 이미지의 크기는 a*b 이며, 여기서, a는 타깃 윤곽의 최대 수평 좌표이고, b는 타깃 윤곽의 최대 수직 좌표이다. 따라서, 타깃 윤곽에 대응하는 이미지의 크기는 타깃 윤곽의 크기에 관련될 뿐만 아니라 타깃 윤곽의 좌표들에도 관련된다. 타깃 윤곽에 있는 각각의 윤곽 포인트의 좌표들은 불필요한 영역을 최대한 줄이고 또한 생성된 이미지의 크기를 작게 하기 위해 감소되며, 이에 의해, 타깃 윤곽의 좌표들에 따라 타깃 윤곽에 대응하는 이미지를 생성할 때 획득된 이미지의 크기가 상대적으로 커지는 현상을 방지한다. 예를 들어, 좌표들이 감소될 때, 감소 범위는 0보다 큰 임의의 값이다.When the image corresponding to the target contour is generated according to the coordinates of the target contour, the size of the image corresponding to the target contour is a*b, where a is the maximum horizontal coordinate of the target contour, and b is the maximum of the target contour. is the vertical coordinate. Thus, the size of the image corresponding to the target contour is related not only to the size of the target contour, but also to the coordinates of the target contour. The coordinates of each contour point in the target contour are reduced to minimize unnecessary areas and to reduce the size of the generated image, thereby obtaining when generating an image corresponding to the target contour according to the coordinates of the target contour. Prevents the image size from becoming relatively large. For example, when the coordinates are reduced, the reduction range is any value greater than zero.

가능한 구현 예에서, 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키기 이전에, 본 방법은, 적어도 하나의 타깃 윤곽의 제 1 위치 정보에 따라 제 1 최소 수평 좌표 및 제 1 최소 수직 좌표를 획득하는 단계; 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 제 1 최소 수평 좌표를 결정하는 단계; 및 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 제 1 최소 수직 좌표를 결정하는 단계를 더 포함한다.In a possible implementation, the first coordinates comprise horizontal coordinates and vertical coordinates, and reduce the first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour. Prior to this, the method includes: obtaining a first minimum horizontal coordinate and a first minimum vertical coordinate according to first position information of at least one target contour; determining a first minimum horizontal coordinate as a decreasing range of horizontal coordinates of a plurality of contour points in the at least one target contour; and determining the first minimum vertical coordinate as a decreasing range of vertical coordinates of the plurality of contour points in the at least one target contour.

예를 들어, 적어도 하나의 타깃 윤곽의 제 1 위치 정보에서, 최소 수평 좌표(즉, 제 1 최소 수평 좌표)는 5543이고, 최소 수직 좌표(즉, 제 1 최소 수직 좌표)는 4796 이다. (5543, 4796)은 감소 범위로 사용되는데, 즉, (5543, 4796)은 타깃 윤곽에 대한 각각의 윤곽 포인트의 제 1 좌표에서 감산된다. 윤곽 포인트의 제 1 좌표들이 (6543, 5796)이면, (5543, 4796)은 (6543, 5796)에서 감산되고, 획득된 좌표들은 윤곽 포인트의 제 2 좌표들로 업데이트된다.For example, in the first position information of the at least one target contour, the minimum horizontal coordinate (ie, the first minimum horizontal coordinate) is 5543, and the minimum vertical coordinate (ie, the first minimum vertical coordinate) is 4796 . (5543, 4796) is used as the reduction range, ie, (5543, 4796) is subtracted from the first coordinate of each contour point with respect to the target contour. If the first coordinates of the contour point are (6543, 5796), (5543, 4796) is subtracted from (6543, 5796), and the obtained coordinates are updated with the second coordinates of the contour point.

예를 들어, 적어도 하나의 타깃 윤곽의 제 1 위치 정보, 제 1 최소 수평 좌표, 및 제 1 최소 수직 좌표는 다음 관계를 충족한다.For example, the first position information, the first minimum horizontal coordinate, and the first minimum vertical coordinate of the at least one target contour satisfy the following relationship.

x_min = MIN[x_i_n];x_min = MIN[x_i_n];

y_min = MIN[y_i_n];y_min = MIN[y_i_n];

여기서, x_min은 제 1 최소 수평 좌표이고, y_min은 제 1 최소 수직 좌표이고, i는 윤곽 식별자이고, n은 임의의 타깃 윤곽의 윤곽 포인트들의 수량이며, n은 3 이상의 정수이고; MIN[]은 최소값을 취하는 함수이고, x는 수평 좌표이고, y는 수평 좌표이고, [x_i_n]은 적어도 하나의 타깃 윤곽의 제 1 위치 정보에서 임의의 수평 좌표이며, [y_i_n]은 적어도 하나의 타깃 윤곽의 제 1 위치 정보에서 임의의 수직 좌표이다.where x_min is a first minimum horizontal coordinate, y_min is a first minimum vertical coordinate, i is a contour identifier, n is a quantity of contour points of an arbitrary target contour, and n is an integer greater than or equal to 3; MIN[] is a function taking a minimum value, x is a horizontal coordinate, y is a horizontal coordinate, [x_i_n] is an arbitrary horizontal coordinate in the first position information of at least one target contour, and [y_i_n] is at least one It is an arbitrary vertical coordinate in the first position information of the target contour.

일부 실시예들에서, 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키는 단계는, 수평 좌표들의 감소 범위에 따라 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들에서 수평 좌표들을 감소시키는 단계; 및 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들을 획득하기 위해, 수직 좌표들의 감소 범위에 따라 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들에서 수직 좌표들을 감소시키는 단계를 포함한다.In some embodiments, reducing the first coordinates of the plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour comprises at least one according to a reduction range of the horizontal coordinates. reducing horizontal coordinates at first coordinates of a plurality of contour points in a target contour of ; and reducing vertical coordinates in the first coordinates of the plurality of contour points in the at least one target contour according to a reduction range of the vertical coordinates to obtain second coordinates of the plurality of contour points in the at least one target contour. includes steps.

구현 예에서, 적어도 하나의 타깃 윤곽의 제 2 위치 정보, 적어도 하나의 타깃 윤곽의 제 1 위치 정보, 제 1 최소 수평 좌표, 및 제 1 최소 수직 좌표는 다음 관계를 충족한다.In an implementation, the second position information of the at least one target contour, the first position information of the at least one target contour, the first minimum horizontal coordinate, and the first minimum vertical coordinate satisfy the following relationship.

contour_list_local = contour_list -[x_min, y_min]contour_list_local = contour_list -[x_min, y_min]

여기서, contour_list_local은 적어도 하나의 타깃 윤곽의 윤곽 포인트들의 제 2 좌표 목록이고, contour_list는 적어도 하나의 타깃 윤곽의 윤곽 포인트들의 제 1 좌표 목록이며; x_min 은 제 1 최소 수평 좌표이고, y_min은 제 1 최소 수직 좌표이다.where contour_list_local is a second coordinate list of contour points of at least one target contour, contour_list is a first coordinate list of contour points of at least one target contour; x_min is the first minimum horizontal coordinate, and y_min is the first minimum vertical coordinate.

즉, 타깃 영역에서 윤곽들의 좌표들의 좌표계의 원점은 [x_min, y_min]으로 설정되고, 타깃 이미지는 contour_list_local에 기초하여 좌표계에서 생성될 수 있다.That is, the origin of the coordinate system of the coordinates of the contours in the target area is set to [x_min, y_min], and the target image may be generated in the coordinate system based on contour_list_local.

적어도 하나의 타깃 윤곽의 제 1 최소 수평 좌표와 제 1 최소 세로 좌표는 각각의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키기 위해 감소 범위로 사용되며, 이는 타깃 윤곽에 해당하는 이미지를 커팅하는 것과 같으며, 이에 의해, 타깃 영역에 해당하는 타깃 이미지의 크기를 감소시킨다.A first minimum horizontal coordinate and a first minimum ordinate of the at least one target contour are used as a reduction range for reducing first coordinates of a plurality of contour points in each target contour, which reduce the image corresponding to the target contour. It is the same as cutting, thereby reducing the size of the target image corresponding to the target area.

다른 가능한 구현 예에서, 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키기 이전에, 본 방법은, 타깃 영역 정보에 따라 타깃 영역의 제 2 최소 수평 좌표들 및 제 2 최소 수직 좌표들을 획득하는 단계; 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 제 2 최소 수평 좌표를 결정하는 단계; 및 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 제 2 최소 수직 좌표를 결정하는 단계를 포함한다. 즉, 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들에서 수평 좌표들은 타깃 영역의 제 2 최소 수평 좌표에서 감산 되어야 하고, 타깃 영역에 있는 복수의 윤곽 포인트들의 제 1 좌표들에서 수직 좌표들은 타깃 윤곽은 타깃 영역의 제 2 최소 수직 좌표에서 감산 되어야 하며, 이는 타깃 영역의 정점을 윤곽 좌표계의 좌표 원점으로 사용하고, 좌표 원점으로 타깃 이미지를 생성하는 것과 같으며, 이에 의해 타깃 이미지의 크기를 감소시킬 수 있다.In another possible implementation example, the first coordinates include horizontal coordinates and vertical coordinates, and first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour. Before reducing, the method includes: obtaining second minimum horizontal coordinates and second minimum vertical coordinates of a target area according to target area information; determining a second minimum horizontal coordinate as a reduced range of horizontal coordinates of a plurality of contour points in the at least one target contour; and determining a second minimum vertical coordinate as a decreasing range of vertical coordinates of a plurality of contour points in the at least one target contour. That is, the horizontal coordinates in the first coordinates of the plurality of contour points in the target area must be subtracted from the second minimum horizontal coordinate of the target area, and the vertical coordinates in the first coordinates of the plurality of contour points in the target area are determined by the target area. The contour must be subtracted from the second minimum vertical coordinate of the target area, which is equivalent to using the vertex of the target area as the coordinate origin of the contour coordinate system and generating the target image as the coordinate origin, thereby reducing the size of the target image can do it

제 2 최소 수평 좌표 및 제 1 최소 수평 좌표는 동일하거나 상이할 수 있으며, 이는 적어도 하나의 타깃 윤곽의 제 1 위치 정보 및 타깃 영역 정보의 실제 상황에 관련된다. 이것은 본 개시내용의 실시예에서 제한되지 않는다. 또한, 제 2 최소 수직 좌표 및 제 1 최소 수직 좌표는 동일하거나 상이할 수 있으며, 이는 적어도 하나의 타깃 윤곽의 제 1 위치 정보 및 타깃 영역 정보의 실제 상황에 관련된다.The second minimum horizontal coordinate and the first minimum horizontal coordinate may be the same or different, which relates to the actual situation of the first position information of the at least one target contour and the target area information. This is not limited in the embodiments of the present disclosure. Further, the second minimum vertical coordinate and the first minimum vertical coordinate may be the same or different, which relates to the actual situation of the first position information of the at least one target contour and the target area information.

205: 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 해당하는 타깃 이미지를 생성하는 단계로서, 타깃 이미지는 타깃 영역에 위치한 윤곽을 포함한다.205: Generating a target image corresponding to the target region according to the target region information and the second position information of the at least one target contour, wherein the target image includes a contour located in the target region.

가능한 구현 예에서, 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계는, 적어도 하나의 타깃 윤곽의 제 2 위치 정보에 따라 제 3 이미지를 생성하는 단계 - 제 3 이미지는 적어도 하나의 타깃 윤곽을 포함함 -; 및 타깃 영역에 대응하는 타깃 이미지를 획득하기 위해 타깃 영역 정보에 따라 제 3 이미지에서 타깃 영역을 커팅하는 단계를 포함한다.In a possible implementation, generating the target image corresponding to the target region according to the second position information and the target region information of the at least one target contour comprises: generating a third image according to the second position information of the at least one target contour generating, wherein the third image includes at least one target contour; and cutting the target region in the third image according to the target region information to obtain a target image corresponding to the target region.

일부 실시예들에서, 타깃 영역에 대응하는 타깃 이미지를 획득하기 위해 타깃 영역 정보에 따라 제 3 이미지에서 타깃 영역을 커팅하는 단계는, 업데이트된 타깃 영역 정보를 획득하기 위해 타깃 영역 정보에 포함된 좌표들을 감소시키는 단계; 업데이트된 타깃 영역 정보에 따라 제 3 이미지에서 타깃 영역을 결정하는 단계; 및 타깃 영역에 대응하는 타깃 이미지를 획득하기 위해 제 3 이미지에서 타깃 영역을 커팅하는 단계를 포함한다. 타깃 영역 정보에 포함된 좌표들의 감소 범위는 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들의 감소 범위와 동일하다.In some embodiments, cutting the target area in the third image according to the target area information to obtain a target image corresponding to the target area includes: coordinates included in the target area information to obtain updated target area information reducing them; determining a target area in the third image according to the updated target area information; and cutting the target area in the third image to obtain a target image corresponding to the target area. The reduction range of the coordinates included in the target area information is the same as the reduction range of the first coordinates of the plurality of outline points in the at least one target outline.

예를 들어, 타깃 영역 정보가 타깃 영역의 복수의 정점들의 좌표들을 포함하는 경우에, 타깃 영역 정보에 포함된 좌표들을 감소시키는 것은 타깃 영역 정보에 포함된 타깃 영역의 복수의 정점들의 좌표들을 감소시키는 것을 지칭한다. 타깃 영역의 복수의 정점들의 좌표들의 감소 범위는 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들의 감소 범위와 동일하다.For example, when the target area information includes coordinates of a plurality of vertices of the target area, decreasing the coordinates included in the target area information reduces the coordinates of the plurality of vertices of the target area included in the target area information. refers to The reduction range of the coordinates of the plurality of vertices of the target area is equal to the reduction range of the first coordinates of the plurality of contour points in the at least one target outline.

예를 들어, 타깃 영역 정보가 타깃 영역의 임의의 정점의 좌표들 및 타깃 영역의 크기를 포함하는 경우에, 타깃 영역 정보에 포함된 좌표들을 감소시키는 것은 타깃 영역 정보에 포함된 임의의 정점의 좌표들을 감소시키는 것으로 지칭한다. 이 경우에, 타깃 영역 정보에 포함된 타깃 영역의 크기는 변경되지 않고 유지된다.For example, when the target area information includes the coordinates of an arbitrary vertex of the target area and the size of the target area, decreasing the coordinates included in the target area information may include coordinates of any vertex included in the target area information. are referred to as reducing In this case, the size of the target area included in the target area information remains unchanged.

어느 경우든, 타깃 영역 정보에 포함된 좌표들이 감소된 이후에, 업데이트된 타깃 영역 정보는 획득될 수 있으며, 업데이트된 타깃 영역 정보는 제 3 이미지에서 타깃 영역을 나타낼 수 있다. 다시 말해, 제 3 이미지에서 타깃 영역은 업데이트된 타깃 영역 정보에 따라 직접 결정될 수 있고, 그 다음에, 타깃 이미지는 타깃 영역을 커팅함으로써 획득될 수 있다.In any case, after the coordinates included in the target area information are reduced, updated target area information may be obtained, and the updated target area information may indicate the target area in the third image. In other words, the target area in the third image may be directly determined according to the updated target area information, and then, the target image may be obtained by cutting the target area.

예를 들어, 제 3 이미지는 도 11에 도시되어 있다. 도 11은 3개의 타깃 윤곽들의 완전한 윤곽들을 포함한다. 도 11은 3개의 타깃 윤곽들, 즉 윤곽 식별자가 45인 윤곽(1101), 윤곽 식별자가 47인 윤곽(1102), 및 윤곽 식별자가 49인 윤곽(1103)의 윤곽 이미지들을 도시한다. 도 11은 타깃 영역(1104)을 더 포함한다. 도 11에서 타깃 영역(1104)은 도 12에 도시된 것처럼 타깃 이미지(1201)를 획득하기 위해 커팅된다.For example, a third image is shown in FIG. 11 . 11 includes complete contours of three target contours. 11 shows contour images of three target contours: a contour 1101 with a contour identifier of 45, a contour 1102 with a contour identifier of 47, and a contour 1103 with a contour identifier of 49. As shown in FIG. 11 further includes a target area 1104 . In FIG. 11 , the target area 1104 is cut to obtain a target image 1201 as shown in FIG. 12 .

가능한 구현 예에서, 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계는, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라, 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치하는 윤곽 포인트들을 결정하는 단계; 및 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치하는 윤곽 포인트들의 제 2 좌표들과 타깃 영역 정보에 따라 타깃 이미지를 생성하는 단계를 포함한다.In a possible implementation embodiment, generating a target image corresponding to the target area according to the target area information and the second position information of the at least one target contour comprises: second coordinates of a plurality of contour points in the at least one target contour and determining, according to the target area information, contour points located in the target area in the at least one target contour; and generating the target image according to the target area information and second coordinates of contour points located in the target area in the at least one target contour.

일부 실시예들에서, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라, 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치하는 윤곽 포인트들을 결정하는 단계는, 업데이트된 타깃 영역 정보를 획득하기 위해 타깃 영역 정보에 포함된 좌표들을 감소시키는 단계; 및 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들과 업데이트된 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치하는 윤곽 포인트들을 결정하는 단계를 포함한다. 타깃 영역 정보에 포함된 좌표들의 감소 범위는 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들의 감소 범위와 동일하다.In some embodiments, determining the contour points located in the target area in the at least one target contour according to the target area information and second coordinates of the plurality of contour points in the at least one target contour comprises: reducing the coordinates included in the target area information to obtain the target area information; and determining contour points located in the target region in the at least one target contour according to the updated target region information and second coordinates of the plurality of contour points in the at least one target contour. The reduction range of the coordinates included in the target area information is the same as the reduction range of the first coordinates of the plurality of outline points in the at least one target outline.

일부 실시예들에서, 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치하는 윤곽 포인트들의 제 2 좌표들과 타깃 영역 정보에 따라 타깃 이미지를 생성하는 단계는, 업데이트된 타깃 영역 정보를 획득하기 위해 타깃 영역 정보에 포함된 좌표들을 감소시키는 단계; 및 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치한 윤곽 포인트들의 제 2 좌표들과 업데이트된 타깃 영역 정보에 따라 타깃 이미지를 생성하는 단계를 포함한다. 타깃 영역 정보에 포함된 좌표들의 감소 범위는 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들의 감소 범위와 동일하다.In some embodiments, generating the target image according to the target area information and second coordinates of contour points located in the target area in the at least one target contour comprises: target area information to obtain updated target area information reducing the coordinates included in ; and generating the target image according to the second coordinates of the contour points located in the target region in the at least one target contour and the updated target region information. The reduction range of the coordinates included in the target area information is the same as the reduction range of the first coordinates of the plurality of outline points in the at least one target outline.

본 개시내용의 실시예들에서 제공되는 이미지 생성 방법에 따르면, 타깃 영역이 정의되어, 컴퓨터 디바이스는 단지 타깃 영역에 대응하는 타깃 이미지를 생성하기만 하면 되고, 다른 영역들에 대응하는 이미지들을 생성할 필요가 없다. 본 개시내용에 따르면, 타깃 윤곽에 대한 복수의 윤곽 포인트들의 좌표들은 감소되어 다른 영역들에 대응하는 이미지들을 커팅하는 효과를 달성하며, 이에 의해, 타깃 이미지의 크기를 감소시킨다. 또한, 본 개시내용에서 타깃 윤곽에 대한 복수의 윤곽 포인트들의 좌표들은 동일한 감소 범위를 가지므로, 타깃 이미지에서 윤곽들 사이의 거리는 원래의 이미지에서 해당하는 윤곽들 사이의 거리와 동일한 것을 보장하며, 이에 의해, 윤곽 접착의 문제를 방지하고, 생성된 타깃 이미지의 정확성을 보장한다.According to the image generating method provided in the embodiments of the present disclosure, a target area is defined, so that the computer device only needs to generate a target image corresponding to the target area, and to generate images corresponding to other areas. no need. According to the present disclosure, the coordinates of the plurality of contour points with respect to the target contour are reduced to achieve the effect of cutting images corresponding to different regions, thereby reducing the size of the target image. In addition, since the coordinates of a plurality of contour points with respect to the target contour in the present disclosure have the same reduction range, it is ensured that the distance between contours in the target image is equal to the distance between corresponding contours in the original image, thereby Thus, the problem of contour adhesion is prevented and the accuracy of the generated target image is ensured.

또한, 적어도 하나의 타깃 윤곽에서 최소 수평 좌표는 적어도 하나의 타깃 윤곽에서 각각의 윤곽 포인트의 수평 좌표의 감소 범위로 사용될 수 있고, 적어도 하나의 타깃 윤곽에서 최소 수직 좌표는 적어도 하나의 타깃 윤곽에서 각각의 윤곽 포인트의 수직 좌표의 감소 범위로 사용될 수 있으며, 이는 최소 수평 좌표와 최소 수직 좌표를 타깃 이미지의 윤곽 좌표계의 원점으로 사용하는 것과 같으며, 적어도 하나의 타깃 윤곽의 외부 영역의 드로잉을 가능한 한 많이 피할 수 있고, 타깃 이미지의 크기를 감소시킬 수 있다.Further, the minimum horizontal coordinate in the at least one target contour may be used as a decreasing range of the horizontal coordinate of each contour point in the at least one target contour, wherein the minimum vertical coordinate in the at least one target contour is each in the at least one target contour can be used as a decreasing range of the vertical coordinates of the contour point of Much can be avoided, and the size of the target image can be reduced.

또한, 타깃 영역 정보에서 최소 수평 좌표는 적어도 하나의 타깃 윤곽에서 각각의 윤곽 포인트의 수평 좌표의 감소 범위로 사용될 수 있고, 타깃 영역 정보에서 최소 수직 좌표는 적어도 하나의 타깃 윤곽에서 각각의 윤곽 포인트의 수직 좌표의 감소 범위로 사용될 수 있으며, 이는 타깃 이미지의 윤곽 좌표계의 원점으로 타깃 영역 정보에서 최소 수평 좌표 및 최소 수직 좌표를 사용하는 것과 같으며, 타깃 윤곽의 외부 영역의 드로잉을 가능한 한 많이 피할 수 있고, 타깃 이미지의 크기를 감소시킬 수 있다.In addition, the minimum horizontal coordinate in the target area information may be used as a decreasing range of horizontal coordinates of each contour point in the at least one target contour, and the minimum vertical coordinate in the target area information is the minimum vertical coordinate of each contour point in the at least one target contour. It can be used as a reduction range of vertical coordinates, which is equivalent to using the minimum horizontal coordinate and minimum vertical coordinate in the target area information as the origin of the contour coordinate system of the target image, and it is possible to avoid drawing of the area outside of the target outline as much as possible. and the size of the target image can be reduced.

또한, 본 개시내용에 따르면, 적어도 하나의 원래의 윤곽의 제 1 위치 정보는 원래의 이미지에 대응하는 제 1 이미지를 생성하기 위해 더 감소된다. 제 1 이미지는 적어도 하나의 원래의 윤곽의 윤곽 식별자를 포함할 수 있다. 제 1 이미지는 원래의 이미지의 인덱스 이미지로 간주될 수 있다. 원래의 이미지에서 타깃 영역에 위치하는 적어도 하나의 타깃 윤곽은 원래의 이미지와 제 1 이미지의 타깃 영역 정보에 따라 결정될 수 있으며, 이는 타깃 영역에 위치하는 적어도 하나의 타깃 윤곽을 결정하는 속도를 증가시키고, 또한 타깃 이미지 생성의 효율성을 향상시킨다.Further, according to the present disclosure, the first positional information of the at least one original contour is further reduced to generate a first image corresponding to the original image. The first image may include a contour identifier of the at least one original contour. The first image may be regarded as an index image of the original image. At least one target contour located in the target region in the original image may be determined according to target region information of the original image and the first image, which increases the speed of determining the at least one target contour located in the target region, and , it also improves the efficiency of target image generation.

본 개시내용의 실시예들에서 제공되는 이미지 생성 방법은 병리학적 WSI를 처리하는 과정에 적용될 수 있다. 현재, 병리학적 WSI들의 분류 처리는 점점 더 분류 네트워크 모델들을 기반으로 하고 있다. 병리학적 WSI들을 분류하기 위해 분류 네트워크 모델을 사용하기 위하여, 먼저 분류 네트워크 모델은 트레이닝 되어 하고, 그 다음에, 트레이닝된 분류 네트워크 모델은 병리학적 WSI들을 분류하기 위해 사용된다.The image generation method provided in the embodiments of the present disclosure may be applied to the process of processing pathological WSI. Currently, classification processing of pathological WSIs is increasingly based on classification network models. In order to use the classification network model to classify pathological WSIs, first the classification network model is trained, and then the trained classification network model is used to classify pathological WSIs.

분류 네트워크 모델이 트레이닝 될 때, 샘플 병리학적 WSI와 이 샘플 병리학적 WSI에 대응하는 타깃 이미지는 먼저 획득되어야 한다. 예를 들어, 샘플 병리학적 WSI는 타깃 오브젝트 또는 타깃 영역을 포함하고, 샘플 병리학적 WSI에 대응하는 타깃 이미지는 타깃 오브젝트의 윤곽 또는 타깃 영역의 윤곽을 포함한다. 본 실시예에서, 타깃 오브젝트를 포함하는 샘플 병리학적 WSI는 설명을 위한 예로서 취해진다.When the classification network model is trained, the sample pathological WSI and the target image corresponding to this sample pathological WSI must first be acquired. For example, the sample pathological WSI includes a target object or target region, and a target image corresponding to the sample pathological WSI includes a contour of the target object or target region. In this embodiment, a sample pathological WSI including a target object is taken as an example for explanation.

일부 실시예들에서, 샘플 병리학적 WSI는 적어도 하나의 타깃 오브젝트를 포함하고, 샘플 병리학적 WSI에 대응하는 타깃 윤곽은 적어도 하나의 타깃 오브젝트의 윤곽을 포함한다. 샘플 병리학적 WSI와 타깃 이미지는 트레이닝 샘플 데이터로 사용되고 분류 네트워크 모델에 입력된다. 분류 네트워크 모델은, WSI를 처리하여, WSI에서 타깃 오브젝트의 윤곽을 결정하고, 샘플 병리학적 WSI에 해당하는 타깃 이미지에서 윤곽에 따라 분류 결과가 올바른 지를 결정하고, 그 다음에, 분류 모델의 출력 결과와 타깃 이미지에서 윤곽의 위치 정보 사이의 차이에 따라 분류 네트워크 모델의 파라미터들을 조정함으로써, 분류 네트워크 모델의 분류 결과는 보다 정확하게 될 수 있다. 분류 네트워크 모델의 트레이닝이 완료된 이후에, WSI에서 타깃 오브젝트는 분류 네트워크 모델을 기반으로 인식될 수 있다.In some embodiments, the sample pathological WSI comprises at least one target object, and the target contour corresponding to the sample pathological WSI comprises a contour of the at least one target object. The sample pathological WSI and target images are used as training sample data and fed into the classification network model. The classification network model processes the WSI to determine the contour of the target object in the WSI, determines whether the classification result is correct according to the contour in the target image corresponding to the sample pathological WSI, and then, the output result of the classification model By adjusting the parameters of the classification network model according to the difference between and the position information of the contour in the target image, the classification result of the classification network model can be more accurate. After the training of the classification network model is completed, the target object in WSI may be recognized based on the classification network model.

샘플 병리학적 WSI의 크기는 상대적으로 크고, 타깃 이미지는 샘플 병리학적 WSI와 동일한 크기이다. 따라서, 현재, 스케일링 된 샘플 병리학적 WSI와 스케일링 된 타깃 이미지는 샘플 트레이닝 데이터로 사용된다. 스케일링 된 이미지에서 2개의 윤곽들이 서로 가깝다면, 2개의 윤곽들은 하나의 윤곽을 형성하기 위해 접착된다. 분류 네트워크 모델을 트레이닝하기 위해 사용되는 타깃 이미지에서 오류는 분류 네트워크 모델의 정확도를 감소시킨다.The size of the sample pathological WSI is relatively large, and the target image is the same size as the sample pathological WSI. Therefore, at present, scaled sample pathological WSI and scaled target image are used as sample training data. If two contours are close to each other in the scaled image, the two contours are glued to form one contour. Errors in the target image used to train the classification network model reduce the accuracy of the classification network model.

본 개시내용은 WSI의 타깃 이미지를 생성하기 위한 방법을 제공한다. 본 방법은 컴퓨터 디바이스에 적용된다. 도 13에 도시된 바와 같이, WSI의 타깃 이미지를 생성하는 방법은 다음 단계들을 포함한다.The present disclosure provides a method for generating a target image of a WSI. The method is applied to a computer device. As shown in FIG. 13 , the method of generating a target image of WSI includes the following steps.

1301: 윤곽 정보를 획득하는 단계로서, 윤곽 정보는 WSI에서 적어도 하나의 타깃 오브젝트의 원래의 윤곽의 제 1 위치 정보를 포함하고, 임의의 원래의 윤곽의 제 1 위치 정보는 임의의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 포함한다.1301: Obtaining contour information, wherein the contour information includes first position information of an original contour of at least one target object in the WSI, and the first position information of any original contour is in any original contour. first coordinates of a plurality of contour points in

일부 실시예들에서, WSI는 타깃 오브젝트를 포함하는 이미지이다. 예를 들어, 타깃 오브젝트는 암 세포, 질병에 걸린 혈관, 암이 아닌 세포(non-cancerous cell), 병에 걸리지 않은 혈관 등이다. 타깃 오브젝트는 본 개시내용의 실시예들에서 제한되지 않는다.In some embodiments, the WSI is an image containing the target object. For example, the target object is a cancer cell, a diseased blood vessel, a non-cancerous cell, a diseased blood vessel, and the like. The target object is not limited in the embodiments of the present disclosure.

1302: 타깃 영역 정보를 획득하는 단계로서, 타깃 영역 정보는 WSI에서 타깃 영역을 나타낸다.1302: Acquire target area information, wherein the target area information indicates a target area in WSI.

1303: 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계로서, 임의의 타깃 윤곽은 타깃 영역에 전체적으로 또는 부분적으로 위치한다.1303: Determine at least one target contour according to the contour information and the target region information, wherein any target contour is located in whole or in part in the target region.

가능한 구현 예에서, 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계는, 임의의 윤곽 포인트가 윤곽 정보 및 타깃 영역 정보에 따라 타깃 영역에 위치한다고 결정하는 것에 응답하여, 임의의 윤곽 포인트가 타깃 윤곽으로 속하는 원래의 윤곽을 결정하는 단계를 포함한다.In a possible implementation, determining the at least one target contour according to the contour information and the target area information comprises, in response to determining that any contour points are located in the target area according to the contour information and the target area information, any and determining an original contour to which the contour point belongs to the target contour.

가능한 구현 예에서, 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계는, 적어도 하나의 제 1 윤곽의 제 3 위치 정보를 획득하기 위해 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 감소시키는 단계 - 임의의 제 1 윤곽은 해당하는 원래의 윤곽이 감소된 이후의 윤곽이고, 적어도 하나의 원래의 윤곽의 제 1 위치 정보는 동일한 감소율을 가짐 -; 적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 WSI에 대응하는 제 1 이미지를 생성하는 단계 - 제 1 이미지는 적어도 하나의 제 1 윤곽을 포함함 -; 제 1 영역 정보를 획득하기 위해 타깃 영역 정보를 감소시키는 단계 - 제 1 영역 정보는 감소된 타깃 영역을 나타내고 타깃 영역 정보의 감소율은 적어도 하나의 원래의 윤곽의 제 1 위치 정보의 감소율과 동일함 -; 및 제 1 영역 정보 및 제 1 이미지에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계를 포함한다.In a possible implementation example, determining the at least one target contour according to the contour information and the target area information comprises: first position information of the at least one original contour to obtain third position information of the at least one first contour reducing , wherein any first contour is a contour after the corresponding original contour has been reduced, and the first position information of at least one original contour has the same reduction rate; generating a first image corresponding to the WSI according to third position information of the at least one first contour, the first image including the at least one first contour; reducing target area information to obtain first area information, wherein the first area information indicates a reduced target area and a reduction rate of the target area information is equal to a reduction rate of the first position information of the at least one original contour; ; and determining at least one target contour according to the first region information and the first image.

구현 예에서, 윤곽 정보는 적어도 하나의 원래의 윤곽의 윤곽 식별자를 더 포함하고, 적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 WSI에 대응하는 제 1 이미지를 생성하는 단계는, 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 원래의 윤곽의 윤곽 식별자에 따라 제 1 이미지를 생성하는 단계 - 제 1 이미지는 적어도 하나의 제 1 윤곽 및 적어도 하나의 제 1 윤곽의 윤곽 식별자를 포함하고, 임의의 제 1 윤곽의 윤곽 식별자는 임의의 제 1 윤곽에 대응하는 원래의 윤곽의 윤곽 식별자임 -를 포함한다.In an implementation example, the contour information further includes a contour identifier of the at least one original contour, and generating the first image corresponding to the WSI according to the third position information of the at least one first contour comprises: generating a first image according to the third positional information of the first contour and the contour identifier of the at least one original contour, the first image comprising the at least one first contour and the contour identifier of the at least one first contour , and the contour identifier of the first contour is the contour identifier of the original contour corresponding to the first contour.

구현 예에서, 제 1 영역 정보 및 제 1 이미지에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계는, 제 1 이미지에서 적어도 하나의 제 1 윤곽, 적어도 하나의 제 1 윤곽의 윤곽 식별자, 및 제 1 영역 정보에 따라 적어도 하나의 제 2 윤곽의 윤곽 식별자를 결정하는 단계 - 적어도 하나의 제 2 윤곽은 제 1 이미지에서 감소된 타깃 영역에 전체적으로 또는 부분적으로 위치하는 제 1 윤곽임 -; 및 적어도 하나의 제 2 윤곽의 윤곽 식별자에 따라 적어도 하나의 제 2 윤곽에 대응하는 원래의 윤곽을 타깃 윤곽으로 결정하는 단계를 포함한다.In an implementation, determining the at least one target contour according to the first region information and the first image comprises: in the first image at least one first contour, a contour identifier of the at least one first contour, and a first region determining a contour identifier of the at least one second contour according to the information, wherein the at least one second contour is a first contour located wholly or in part in the reduced target area in the first image; and determining an original contour corresponding to the at least one second contour as the target contour according to the contour identifier of the at least one second contour.

구현 예에서, 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 원래의 윤곽의 윤곽 식별자에 따라 제 1 이미지를 생성하는 단계는, 임의의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값을 임의의 제 1 윤곽의 윤곽 식별자로 설정하는 단계; 및 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값에 따라 제 1 이미지를 생성하는 단계를 포함한다.In an implementation, generating the first image according to the third position information of the at least one first contour and the contour identifier of the at least one original contour comprises: determining a pixel value in a contour region corresponding to any first contour setting a contour identifier of an arbitrary first contour; and generating the first image according to the third position information of the at least one first contour and the pixel value in the contour region corresponding to the at least one first contour.

1304: 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키는 단계로서, 임의의 타깃 윤곽의 제 2 위치 정보는 임의의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들을 포함하고, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들은 동일한 감소 범위를 갖는다.1304: Decrease first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour, wherein the second position information of the arbitrary target contour is and second coordinates of the plurality of contour points in the contour, wherein the first coordinates of the plurality of contour points in the at least one target contour have the same reduction range.

가능한 구현 예에서, 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키기 이전에, 본 방법은, 적어도 하나의 타깃 윤곽의 제 1 위치 정보에 따라 제 1 최소 수평 좌표 및 제 1 최소 수직 좌표를 획득하는 단계; 제 1 최소 수평 좌표를 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 결정하는 단계; 및 제 1 최소 수직 좌표를 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 결정하는 단계를 더 포함한다.In a possible implementation, the first coordinates comprise horizontal coordinates and vertical coordinates, and reduce the first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour. Prior to this, the method includes: obtaining a first minimum horizontal coordinate and a first minimum vertical coordinate according to first position information of at least one target contour; determining the first minimum horizontal coordinate as a reduction range of horizontal coordinates of a plurality of contour points in the at least one target contour; and determining the first minimum vertical coordinate as a decreasing range of vertical coordinates of a plurality of contour points in the at least one target contour.

가능한 구현 예에서, 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키기 이전에, 본 방법은, 타깃 영역 정보에 따라 타깃 영역의 제 2 최소 수평 좌표 및 제 2 최소 수직 좌표를 획득하는 단계; 제 2 최소 수평 좌표를 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 결정하는 단계; 및 제 2 최소 수직 좌표를 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 결정하는 단계를 더 포함한다.In a possible implementation, the first coordinates comprise horizontal coordinates and vertical coordinates, and reduce the first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour. Prior to this, the method includes the steps of: obtaining a second minimum horizontal coordinate and a second minimum vertical coordinate of a target area according to target area information; determining a second minimum horizontal coordinate as a reduction range of horizontal coordinates of a plurality of contour points in the at least one target contour; and determining the second minimum vertical coordinate as a decreasing range of vertical coordinates of a plurality of contour points in the at least one target contour.

1305: 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계로서, 타깃 이미지는 타깃 영역에 위치한 윤곽을 포함한다.1305: Generating a target image corresponding to the target region according to the target region information and the second position information of the at least one target contour, wherein the target image includes a contour located in the target region.

가능한 구현 예에서, 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계는, 적어도 하나의 타깃 윤곽의 제 2 위치 정보에 따라 제 3 이미지를 생성하는 단계 - 제 3 이미지는 적어도 하나의 타깃 윤곽을 포함함 -; 및 타깃 영역에 대응하는 타깃 이미지를 획득하기 위해 타깃 영역 정보에 따라 제 3 이미지에서 타깃 영역을 커팅하는 단계를 포함한다.In a possible implementation, generating the target image corresponding to the target region according to the second position information and the target region information of the at least one target contour comprises: generating a third image according to the second position information of the at least one target contour generating, wherein the third image includes at least one target contour; and cutting the target region in the third image according to the target region information to obtain a target image corresponding to the target region.

가능한 구현 예에서, 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계는, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치하는 윤곽 포인트들을 결정하는 단계; 및 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치한 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라 타깃 이미지를 생성하는 단계를 포함한다.In a possible implementation embodiment, generating a target image corresponding to the target area according to the target area information and the second position information of the at least one target contour comprises: second coordinates of a plurality of contour points in the at least one target contour and determining contour points located in the target region in the at least one target contour according to the target region information; and generating the target image according to the target area information and second coordinates of contour points located in the target area in the at least one target contour.

WSI의 타깃 영역에 해당하는 타깃 이미지는 생성된 타깃 이미지의 크기를 감소시키는 전술한 방법을 사용하여 생성된다. 이후에, 타깃 영역에 대응하는 이미지는 타깃 영역에 따라 WSI에서 커팅될 수 있고, 이미지와 타깃 이미지는 분류 네트워크 모델의 트레이닝 데이터로 사용된다. 타깃 이미지에서 윤곽들 사이의 거리는 WSI에서 해당하는 윤곽들 사이의 거리와 동일하기 때문에, 타깃 이미지의 정확도가 보장되며, 이에 의해, 분류 네트워크 모델의 트레이닝의 정확도를 향상시킨다.The target image corresponding to the target region of the WSI is generated using the above-described method for reducing the size of the generated target image. Thereafter, the image corresponding to the target region may be cut in the WSI according to the target region, and the image and the target image are used as training data of the classification network model. Since the distance between contours in the target image is the same as the distance between corresponding contours in WSI, the accuracy of the target image is guaranteed, thereby improving the accuracy of training of the classification network model.

도 14는 종래의 기술을 사용하여 생성된 타깃 이미지와 본 개시내용에서 제공된 방법을 사용하여 생성된 타깃 이미지 사이의 비교의 개략적인 다이어그램이다. 도 14에 도시된 바와 같이, 종래 기술을 이용하여 생성된 타깃 이미지(1401)에서 윤곽 라인들은 흐려지고, 윤곽 라인들은 접착된다. 컴퓨터 디바이스는 접착된 윤곽 라인들을 하나의 윤곽으로 잘못 판단한다. 그러나, 본 개시내용에서 제공된 방법을 사용하여 생성된 타깃 이미지(1402)의 윤곽 라인들은 명확하고, 윤곽 라인들 사이의 경계들은 명확하며, 이는 컴퓨터 디바이스에 의한 잘못된 판단을 방지한다. 또한, 복수의 타깃 영역들에 대응하는 타깃 이미지들이 생성된 이후에, 복수의 타깃 이미지들은 타깃 이미지들 사이의 포지션 관계에 따라 조합될 수 있고, WSI에 대응하는 타깃 이미지로 조합할 수 있다.14 is a schematic diagram of a comparison between a target image generated using conventional techniques and a target image generated using a method provided in this disclosure. As shown in FIG. 14 , in the target image 1401 generated using the prior art, the contour lines are blurred, and the contour lines are glued. The computer device erroneously judges the glued contour lines as one contour. However, the contour lines of the target image 1402 generated using the method provided in the present disclosure are clear, and the boundaries between the contour lines are clear, which prevents misjudgment by the computer device. Also, after target images corresponding to the plurality of target regions are generated, the plurality of target images may be combined according to a positional relationship between the target images, and may be combined into a target image corresponding to the WSI.

도 15는 본 개시내용의 실시예에 따른 이미지 생성 장치의 개략적인 구조적 다이어그램이다. 도 15를 참조하면, 본 장치는,15 is a schematic structural diagram of an image generating apparatus according to an embodiment of the present disclosure; Referring to Figure 15, the device,

윤곽 정보 및 타깃 영역 정보를 획득하도록 구성된 정보 획득 모듈(1501) - 윤곽 정보는 원래의 이미지에서 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 포함하고, 임의의 원래의 윤곽의 제 1 위치 정보는 임의의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 포함하고, 타깃 영역 정보는 원래의 이미지에서 타깃 영역을 나타냄- ; the information obtaining module 1501, configured to obtain the contour information and the target area information, the contour information includes first position information of at least one original contour in the original image, and the first position information of any original contour is comprising first coordinates of a plurality of contour points in any original contour, wherein the target region information indicates a target region in the original image;

윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하도록 구성된 결정 모듈(1502) - 임의의 타깃 윤곽은 타깃 영역에 전체적으로 또는 부분적으로 위치함 -;a determining module 1502, configured to determine at least one target contour according to the contour information and the target region information, any target contour being located in whole or in part in the target region;

적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키도록 구성된 감소 모듈(1503) - 임의의 타깃 윤곽의 제 2 위치 정보는 임의의 타깃 윤곽에 있는 복수의 윤곽 포인트들을 포함하고, 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들은 동일한 감소 범위를 가짐 -; 및a reduction module 1503, configured to reduce first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour, wherein the second position information of any target contour includes: a plurality of contour points in an arbitrary target contour, wherein first coordinates of the plurality of contour points in at least one target contour have the same reduction range; and

적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하도록 구성된 생성 모듈(1504) - 타깃 이미지는 타깃 영역에 위치한 윤곽을 포함함 -을 포함한다.and a generating module 1504, configured to generate a target image corresponding to the target region according to the target region information and second position information of the at least one target contour, the target image including the contour located in the target region.

본 개시내용의 실시예들에서 제공되는 이미지 생성 장치에 따르면, 타깃 영역이 정의되어, 컴퓨터 디바이스는 타깃 영역에 대응하는 타깃 이미지를 생성하기만 하면 되고, 다른 영역들에 대응하는 이미지들을 생성할 필요가 없다. 본 개시내용에 따르면, 타깃 윤곽에 대한 복수의 윤곽 포인트들의 좌표들은 다른 영역들에 대응하는 이미지들을 커팅하는 효과를 달성하기 위해 감소되고, 이에 의해, 타깃 이미지의 크기를 감소시킨다. 또한, 본 개시내용에서 타깃 윤곽에 대한 복수의 윤곽 포인트들의 좌표들은 동일한 감소 범위를 가지므로, 타깃 이미지에서 윤곽들 사이의 거리는 원래의 이미지에서 해당하는 윤곽들 사이의 거리와 동일하며, 이에 의해, 윤곽 접착의 문제를 방지할 수 있고, 생성된 타깃 이미지의 정확성을 보장한다.According to the image generating apparatus provided in the embodiments of the present disclosure, a target area is defined, so that the computer device only needs to generate a target image corresponding to the target area, and it is necessary to generate images corresponding to other areas there is no According to the present disclosure, the coordinates of a plurality of contour points with respect to the target contour are reduced to achieve the effect of cutting images corresponding to different regions, thereby reducing the size of the target image. In addition, since the coordinates of a plurality of contour points with respect to the target contour in the present disclosure have the same reduction range, the distance between contours in the target image is equal to the distance between corresponding contours in the original image, whereby The problem of contour adhesion can be prevented, and the accuracy of the generated target image is ensured.

도 16에 도시된 바와 같이, 가능한 구현 예에서, 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 본 장치는, 16 , in a possible implementation, the first coordinates include horizontal coordinates and vertical coordinates, the apparatus comprising:

적어도 하나의 타깃 윤곽의 제 1 위치 정보에 따라 제 1 최소 수평 좌표 및 제 1 최소 수직 좌표를 획득하고; 제 1 최소 수평 좌표를 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 결정하고; 그리고, 제 1 최소 수직 좌표를 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 결정하도록 구성된 범위 획득 모듈(1505)을 더 포함한다.obtain a first minimum horizontal coordinate and a first minimum vertical coordinate according to the first position information of the at least one target contour; determine the first minimum horizontal coordinate as a decreasing range of horizontal coordinates of a plurality of contour points in the at least one target contour; and a range obtaining module 1505, configured to determine the first minimum vertical coordinate as a decreasing range of vertical coordinates of a plurality of contour points in the at least one target contour.

가능한 구현 예에서, 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 범위 획득 모듈(1505)은, 타깃 영역 정보에 따라 타깃 영역의 제 2 최소 수평 좌표 및 제 2 최소 수직 좌표를 획득하고; 제 2 최소 수평 좌표를 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 결정하고; 그리고, 제 2 최소 수직 좌표를 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 결정하도록 추가로 구성된다.In a possible implementation example, the first coordinates include horizontal coordinates and vertical coordinates, and the range obtaining module 1505 is configured to: obtain a second minimum horizontal coordinate and a second minimum vertical coordinate of the target area according to the target area information; determine a second minimum horizontal coordinate as a decreasing range of horizontal coordinates of a plurality of contour points in the at least one target contour; and determine the second minimum vertical coordinate as a decreasing range of vertical coordinates of the plurality of contour points in the at least one target contour.

가능한 구현 예에서, 결정 모듈(1502)은, 임의의 윤곽 포인트가 윤곽 정보 및 타깃 영역 정보에 따라 타깃 영역에 위치한다는 결정하는 것 응답하여, 임의의 윤곽 포인트가 속하는 원래의 윤곽을 타깃 윤곽으로 결정하도록 추가로 구성된다.In a possible implementation, the determining module 1502 is responsive to determining that any contour point is located in the target region according to the contour information and the target region information, determining the original contour to which the arbitrary contour point belongs as the target contour. further configured to do so.

가능한 구현 예에서, 도 16에 도시된 바와 같이, 결정 모듈(1502)은,In a possible implementation, as shown in FIG. 16 , the determining module 1502 includes:

적어도 하나의 제 1 윤곽의 제 3 위치 정보를 획득하기 위해 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 감소시키도록 구성된 감소 유닛(1512) - 임의의 제 1 윤곽은 대응하는 원래의 윤곽이 감소된 이후의 윤곽이고, 적어도 하나의 원래의 윤곽의 제 1 위치 정보는 동일한 감소율을 가짐 -;a reducing unit 1512, configured to reduce the first position information of the at least one original contour to obtain third position information of the at least one first contour, any first contour being reduced to a corresponding original contour a contour after being changed, and the first position information of at least one original contour has the same reduction rate;

적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 원래 이미지에 대응하는 제 1 이미지를 생성하도록 구성된 제 1 생성 유닛(1522) - 제 1 이미지는 적어도 하나의 제 1 윤곽을 포함함 -;a first generating unit 1522, configured to generate a first image corresponding to the original image according to the third position information of the at least one first contour, the first image including the at least one first contour;

제 1 영역 정보를 획득하기 위해 타깃 영역 정보를 감소시키도록 추가로 구성된 감소 유닛(1512) - 제 1 영역 정보는 감소된 타깃 영역을 나타내고, 타깃 영역 정보의 감소율은 적어도 하나의 원래의 윤곽의 제 1 위치 정보의 감소율과 동일함 -; 및a reduction unit 1512, further configured to reduce the target area information to obtain the first area information, wherein the first area information indicates a reduced target area, and a reduction rate of the target area information is determined by the second of the at least one original contour. 1 Same as reduction rate of location information -; and

제 1 영역 정보 및 제 1 이미지에 따라 적어도 하나의 타깃 윤곽을 결정하도록 구성된 제 1 결정 유닛(1532)을 포함한다.and a first determining unit 1532, configured to determine the at least one target contour according to the first area information and the first image.

가능한 구현 예에서, 윤곽 정보는 적어도 하나의 원래의 윤곽의 윤곽 식별자를 더 포함하고; 제 1 생성 유닛(1522)은 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 원래의 윤곽의 윤곽 식별자에 따라 제 1 이미지를 생성하도록 구성되며, 제 1 이미지는 적어도 하나의 제 1 윤곽 및 적어도 하나의 제 1 윤곽의 윤곽 식별자를 포함하고, 임의의 제 1 윤곽의 윤곽 식별자는 임의의 제 1 윤곽에 대응하는 원래의 윤곽의 윤곽 식별자이다.In a possible implementation, the contour information further comprises a contour identifier of the at least one original contour; The first generating unit 1522 is configured to generate a first image according to the third position information of the at least one first contour and the contour identifier of the at least one original contour, the first image being the at least one first contour and a contour identifier of at least one first contour, wherein the contour identifier of any first contour is a contour identifier of an original contour corresponding to the arbitrary first contour.

가능한 구현 예에서, 제 1 결정 유닛(1532)은, 제 1 이미지에서 적어도 하나의 제 1 윤곽, 적어도 하나의 제 1 윤곽의 윤곽 식별자, 및 제 1 영역 정보에 따라 적어도 하나의 제 2 윤곽의 윤곽 식별자를 결정하고 - 적어도 하나의 제 2 윤곽은 제 1 이미지에서 감소된 타깃 영역에 전체적으로 또는 부분적으로 위치하는 제 1 윤곽임 -; 그리고, 적어도 하나의 제 2 윤곽의 윤곽 식별자에 따라 적어도 하나의 제 2 윤곽에 대응하는 원래의 윤곽을 타깃 윤곽으로 결정하도록 구성된다.In a possible implementation example, the first determining unit 1532 is configured to: the contour of the at least one second contour according to the at least one first contour, the contour identifier of the at least one first contour, and the first area information in the first image determine an identifier, wherein the at least one second contour is a first contour located in whole or in part in the reduced target area in the first image; and determine, as the target contour, an original contour corresponding to the at least one second contour according to the contour identifier of the at least one second contour.

가능한 구현 예에서, 제 1 생성 유닛(1522)은 임의의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값을 임의의 제 1 윤곽의 윤곽 식별자로 설정하고; 그리고, 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값에 따라 제 1 이미지를 생성하도록 구성된다.In a possible implementation example, the first generating unit 1522 sets the pixel value in the contour area corresponding to the arbitrary first contour to the contour identifier of the arbitrary first contour; and generate the first image according to the third position information of the at least one first contour and the pixel value in the contour region corresponding to the at least one first contour.

가능한 구현 예에서, 도 16에 도시된 바와 같이, 생성 모듈(1504)은,In a possible implementation, as shown in FIG. 16 , the generating module 1504 includes:

적어도 하나의 타깃 윤곽의 제 2 위치 정보에 따라 제 3 이미지를 생성하도록 구성된 제 2 생성 유닛(1514) - 제 3 이미지는 적어도 하나의 타깃 윤곽을 포함함 -; 및a second generating unit 1514, configured to generate a third image according to the second position information of the at least one target contour, the third image including the at least one target contour; and

타깃 영역에 대응하는 타깃 이미지를 획득하기 위해 타깃 영역 정보에 따라 제 3 이미지에서 타깃 영역을 커팅하도록 구성된 커팅 유닛(1524)을 포함한다.and a cutting unit 1524, configured to cut the target area in the third image according to the target area information to obtain a target image corresponding to the target area.

가능한 구현 예에서, 도 16에 도시된 바와 같이, 생성 모듈(1504)은,In a possible implementation, as shown in FIG. 16 , the generating module 1504 includes:

적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치한 윤곽 포인트들을 결정하도록 구성된 제 2 결정 유닛(1534)을 포함하고, a second determining unit (1534), configured to determine contour points located in the target area in the at least one target contour according to the target area information and second coordinates of the plurality of contour points in the at least one target contour,

제 2 생성 유닛(1514)은 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치한 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라 타깃 이미지를 생성하도록 추가로 구성된다.The second generating unit 1514 is further configured to generate the target image according to the target area information and second coordinates of contour points located in the target area in the at least one target contour.

도 17은 본 개시내용의 실시예에 따른 단말기의 개략적인 구조적 블록 다이어그램이다. 단말기(1700)는 전술한 실시예들에서 단말기 또는 스마트 디바이스에 의해 수행되는 단계들을 수행하도록 구성된다. 예를 들어, 단말기(1700)는 휴대용 모바일 단말기이다. 단말기(1700)는 또한 사용자 장비, 휴대용 단말기, 랩톱 단말기, 데스크탑 단말기 등으로 지칭될 수 있다.17 is a schematic structural block diagram of a terminal according to an embodiment of the present disclosure; The terminal 1700 is configured to perform the steps performed by the terminal or smart device in the above-described embodiments. For example, the terminal 1700 is a portable mobile terminal. Terminal 1700 may also be referred to as user equipment, a portable terminal, a laptop terminal, a desktop terminal, and the like.

일반적으로, 단말기(1700)는 프로세서(1701) 및 메모리(1702)를 포함한다.In general, the terminal 1700 includes a processor 1701 and a memory 1702 .

프로세서(1701)는 하나 이상의 프로세싱 코어들, 예를 들면, 4-코어 프로세서 또는 8-코어 프로세서를 포함한다. 메모리(1702)는 하나 이상의 컴퓨터-판독 가능한 저장 매체를 포함한다. 예를 들어, 컴퓨터-판독 가능한 저장 매체는 비-일시적이다. 일부 실시예들에서, 메모리(1702)의 비-일시적 컴퓨터-판독 가능한 저장 매체는 적어도 하나의 명령어를 저장하도록 구성되며, 적어도 하나의 명령어는 본 개시내용의 실시예들에서 제공되는 이미지 생성 방법을 구현하기 위해 프로세서(1701)에 의해 실행되도록 구성된다.Processor 1701 includes one or more processing cores, eg, a 4-core processor or an 8-core processor. Memory 1702 includes one or more computer-readable storage media. For example, a computer-readable storage medium is non-transitory. In some embodiments, the non-transitory computer-readable storage medium of the memory 1702 is configured to store at least one instruction, wherein the at least one instruction comprises an image generating method provided in embodiments of the present disclosure. and configured to be executed by the processor 1701 to implement.

일부 실시예들에서, 단말기(1700)는, 구현 예에서, 주변기기 인터페이스(1703) 및 적어도 하나의 주변기기를 포함할 수 있다. 프로세서(1701), 메모리(1702), 및 주변기기 인터페이스(1703)는 버스 또는 신호 케이블에 의해 연결될 수 있다. 각각의 주변기기는 버스, 신호 케이블, 또는 회로 기판에 의해 주변기기 인터페이스(1703)에 연결될 수 있다. 예를 들어, 주변기기는 무선 주파수(RF) 회로(1704), 디스플레이 스크린(1705), 카메라 컴포넌트(1706), 오디오 회로(1707), 포지셔닝 컴포넌트(1708), 또는 전원(1709) 중 적어도 하나를 포함한다.In some embodiments, terminal 1700 may include, in implementations, a peripherals interface 1703 and at least one peripheral. The processor 1701 , the memory 1702 , and the peripheral interface 1703 may be connected by a bus or signal cable. Each peripheral may be connected to the peripherals interface 1703 by a bus, signal cable, or circuit board. For example, the peripheral includes at least one of radio frequency (RF) circuitry 1704 , display screen 1705 , camera component 1706 , audio circuitry 1707 , positioning component 1708 , or power source 1709 . do.

주변기기 인터페이스(1703)는 입/출력(I/O)에 관련된 적어도 하나의 주변기기를 프로세서(1701) 및 메모리(1702)에 연결하도록 구성될 수 있다. RF 회로(1704)는 전자기 신호로도 지칭되는 RF 신호를 수신 및 송신하도록 구성된다. 표시 스크린(1705)은 사용자 인터페이스(UI)를 디스플레이 하도록 구성된다. 카메라 컴포넌트(1706)는 이미지 또는 비디오를 획득하도록 구성된다. 오디오 회로(1707)는 마이크로폰 및 스피커를 포함한다. 마이크로폰은 사용자들 및 주변의 사운드 웨이브들을 획득하고, 사운드 웨이브들을 전기적 신호들로 변환하고 이들 신호를, 처리를 위한 프로세서(1701)에 입력하거나, 이들 신호를, 음성 통신을 구현하기 위해 RF 회로(1704)에 입력하도록 구성된다. 스피커는 프로세서(1701) 또는 RF 회로(1704)로부터의 전기적 신호들을 사운드 웨이브들로 변환하도록 구성된다. 포지셔닝 컴포넌트(1708)는 내비게이션 또는 위치-기반 서비스(LBS, location-based service)를 구현하기 위해 단말기(1700)의 현재 지리적 위치를 결정하도록 구성된다. 전원(1709)은 단말기(1700)에서 어셈블리들에 전원을 공급하도록 구성된다.The peripheral interface 1703 may be configured to connect at least one peripheral related to input/output (I/O) to the processor 1701 and the memory 1702 . The RF circuitry 1704 is configured to receive and transmit RF signals, also referred to as electromagnetic signals. The display screen 1705 is configured to display a user interface (UI). The camera component 1706 is configured to acquire an image or video. Audio circuitry 1707 includes a microphone and a speaker. The microphone acquires sound waves from users and surroundings, converts the sound waves into electrical signals and inputs these signals to the processor 1701 for processing, or sends these signals to an RF circuit ( 1704). The speaker is configured to convert electrical signals from the processor 1701 or RF circuitry 1704 into sound waves. The positioning component 1708 is configured to determine a current geographic location of the terminal 1700 to implement a navigation or location-based service (LBS). The power source 1709 is configured to power the assemblies in the terminal 1700 .

본 기술분야의 통상의 기술자는 도 17에 도시된 구조가 단말기(1700)에 대한 구성을 제한하지 않으며, 단말기(1700)는 도면에 도시된 것보다 많거나 적은 컴포넌트를 포함할 수 있거나, 일부 컴포넌트들이 결합되거나, 다른 컴포넌트의 배열이 사용될 수 있다는 것을 이해할 수 있을 것이다.A person skilled in the art will know that the structure shown in FIG. 17 does not limit the configuration of the terminal 1700, and the terminal 1700 may include more or fewer components than those shown in the drawing, or some components. It will be appreciated that these may be combined, or arrangements of other components may be used.

도 18은 본 개시내용의 실시예에 따른 서버의 개략적인 구조적 다이어그램이다. 서버(1800)는 상이한 구성들 또는 성능으로 인해 크게 변할 수 있고, 하나 이상의 중앙 처리 유닛들(CPU)(1801) 및 하나 이상의 메모리들(1802)을 포함할 수 있다. 메모리(1802)는 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어는 전술한 방법 실시예들에서 제공된 이미지 생성 방법을 구현하기 위해 프로세서(1801)에 의해 로딩 및 실행된다. 물론, 서버(1800)는 입력/출력을 용이하게 하는 유선 또는 무선 네트워크 인터페이스, 키보드, 입력/출력 인터페이스 및 다른 컴포넌트들을 더 가질 수 있다. 서버(1800)는 디바이스 기능들을 구현하기 위한 다른 컴포넌트들을 더 포함할 수 있다. 상세 내용은 여기에서 설명하지 않는다. 서버(1800)는 전술한 이미지 생성 방법에서 서버에 의해 수행되는 단계들을 수행하도록 구성될 수 있다.18 is a schematic structural diagram of a server according to an embodiment of the present disclosure; Server 1800 may vary widely due to different configurations or performance, and may include one or more central processing units (CPU) 1801 and one or more memories 1802 . The memory 1802 stores at least one instruction, and the at least one instruction is loaded and executed by the processor 1801 to implement the image generating method provided in the above-described method embodiments. Of course, the server 1800 may further have a wired or wireless network interface, a keyboard, an input/output interface, and other components to facilitate input/output. The server 1800 may further include other components for implementing device functions. Details are not described here. The server 1800 may be configured to perform steps performed by the server in the above-described image generating method.

본 개시내용의 실시예는 프로세서 및 메모리를 포함하는 컴퓨터 디바이스를 더 제공하며, 메모리는 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어는 전술한 실시예들에 따른 이미지 생성 방법에서 수행되는 동작들을 수행하기 위해 프로세서에 의해 로딩 및 실행된다.An embodiment of the present disclosure further provides a computer device including a processor and a memory, wherein the memory stores at least one instruction, and the at least one instruction performs operations performed in the image generating method according to the above-described embodiments. loaded and executed by the processor to perform.

본 개시내용의 실시예는 적어도 하나의 명령어를 저장하는 비-일시적 컴퓨터-판독 가능한 저장 매체를 더 제공하며, 적어도 하나의 명령어는 전술한 실시예들에 따른 이미지 생성 방법에서 수행되는 동작들을 수행하기 위해 프로세서에 의해 로딩 및 실행된다.An embodiment of the present disclosure further provides a non-transitory computer-readable storage medium storing at least one instruction, wherein the at least one instruction performs operations performed in the image generating method according to the above-described embodiments. to be loaded and executed by the processor.

본 개시내용의 실시예는 컴퓨터 프로그램 또는 컴퓨터 프로그램 제품을 더 제공하며, 컴퓨터 프로그램 또는 컴퓨터 프로그램 제품은 적어도 하나의 명령어를 저장하고, 적어도 하나의 명령어는 전술한 실시예들에 따른 이미지 생성 방법에서 수행되는 동작들을 수행하기 위해 프로세서에 의해 로딩 및 및 실행된다.An embodiment of the present disclosure further provides a computer program or computer program product, wherein the computer program or computer program product stores at least one instruction, wherein the at least one instruction is performed in the image generating method according to the above-described embodiments loaded and executed by the processor to perform the specified operations.

본 기술분야의 통상의 기술자는 전술한 실시예들의 단계들의 전부 또는 일부가 하드웨어에 의해 구현될 수 있거나, 관련 하드웨어에 지시하는 프로그램이 구현될 수 있음을 이해할 수 있다. 프로그램은 비-일시적 컴퓨터-판독 가능한 저장매체에 저장될 수 있다. 비-일시적 컴퓨터-판독 가능한 저장매체는 판독 전용 메모리(ROM; Read-Only Memory), 자기디스크, 또는 광디스크이다.A person skilled in the art may understand that all or part of the steps of the above-described embodiments may be implemented by hardware, or a program instructing related hardware may be implemented. The program may be stored in a non-transitory computer-readable storage medium. The non-transitory computer-readable storage medium is a read-only memory (ROM), a magnetic disk, or an optical disk.

전술한 설명들은 단지 본 개시내용의 선택적인 실시예들일 뿐이며, 본 개시내용을 제한하려는 의도는 아니다. 개시내용의 정신과 원칙 내에서 이루어진 모든 수정, 동등한 교체, 또는 개선은 본 개시내용의 보호 범위에 속할 것이다.The foregoing descriptions are merely optional embodiments of the present disclosure, and are not intended to limit the present disclosure. Any modification, equivalent replacement, or improvement made within the spirit and principle of the disclosure shall fall within the protection scope of the disclosure.

Claims (13)

컴퓨터 디바이스에 적용 가능한 이미지 생성 방법으로서, 상기 방법은,
윤곽 정보 및 타깃 영역 정보를 획득하는 단계 - 상기 윤곽 정보는 원래의 이미지에서 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 포함하고, 임의의 원래의 윤곽의 제 1 위치 정보는 상기 임의의 원래의 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 포함하고, 상기 타깃 영역 정보는 원래의 이미지에서 타깃 영역을 나타냄 -;
상기 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계 - 임의의 타깃 윤곽은 타깃 영역에 전체적으로 또는 부분적으로 위치함 -;
상기 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키는 단계 - 임의의 타깃 윤곽의 제 2 위치 정보는 상기 임의의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들을 포함하고, 상기 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들은 동일한 감소 범위를 가짐 -; 및
상기 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계 - 상기 타깃 이미지는 타깃 영역에 위치하는 윤곽을 포함함 -를 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
A method for generating an image applicable to a computer device, the method comprising:
obtaining contour information and target area information, wherein the contour information includes first position information of at least one original contour in an original image, and the first position information of any original contour is first coordinates of a plurality of contour points in the contour, wherein the target area information indicates a target area in an original image;
determining at least one target contour according to the contour information and the target region information, any target contour being located in whole or in part in the target region;
reducing first coordinates of a plurality of contour points in at least one target contour to obtain second position information of the at least one target contour, wherein the second position information of any target contour is the arbitrary target contour second coordinates of a plurality of contour points in the at least one target contour, wherein the first coordinates of the plurality of contour points in the at least one target contour have the same reduction range; and
generating a target image corresponding to a target region according to the target region information and second position information of the at least one target contour, the target image including a contour located in the target region;
An image creation method applicable to computer devices.
제1항에 있어서,
상기 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 상기 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 상기 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키기 이전에, 상기 방법은,
상기 적어도 하나의 타깃 윤곽의 제 1 위치 정보에 따라 제 1 최소 수평 좌표 및 제 1 최소 수직 좌표를 획득하는 단계;
상기 적어도 하나의 타깃 윤곽에 있는 상기 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 상기 제 1 최소 수평 좌표를 결정하는 단계; 및
상기 적어도 하나의 타깃 윤곽에 있는 상기 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 상기 제 1 최소 수직 좌표를 결정하는 단계를 더 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
According to claim 1,
the first coordinates include horizontal coordinates and vertical coordinates, before reducing first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour In the method,
obtaining first minimum horizontal coordinates and first minimum vertical coordinates according to first position information of the at least one target contour;
determining the first minimum horizontal coordinate as a decreasing range of horizontal coordinates of the plurality of contour points in the at least one target contour; and
determining the first minimum vertical coordinate as a decreasing range of vertical coordinates of the plurality of contour points in the at least one target contour;
An image creation method applicable to computer devices.
제1항에 있어서,
상기 제 1 좌표들은 수평 좌표들 및 수직 좌표들을 포함하고, 상기 적어도 하나의 타깃 윤곽의 제 2 위치 정보를 획득하기 위해 상기 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 1 좌표들을 감소시키기 이전에, 상기 방법은,
상기 타깃 영역 정보에 따라 타깃 영역의 제 2 최소 수평 좌표 및 제 2 최소 수직 좌표를 획득하는 단계;
상기 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수평 좌표들의 감소 범위로 상기 제 2 최소 수평 좌표를 결정하는 단계; 및
상기 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 수직 좌표들의 감소 범위로 상기 제 2 최소 수직 좌표를 결정하는 단계를 더 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
According to claim 1,
the first coordinates include horizontal coordinates and vertical coordinates, before reducing first coordinates of a plurality of contour points in the at least one target contour to obtain second position information of the at least one target contour In the method,
obtaining a second minimum horizontal coordinate and a second minimum vertical coordinate of a target area according to the target area information;
determining the second minimum horizontal coordinate as a reduced range of horizontal coordinates of a plurality of contour points in the at least one target contour; and
determining the second minimum vertical coordinate as a decreasing range of vertical coordinates of a plurality of contour points in the at least one target contour;
An image creation method applicable to computer devices.
제1항에 있어서,
상기 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계는,
임의의 윤곽 포인트가 상기 윤곽 정보 및 타깃 영역 정보에 따라 타깃 영역에 위치하는 것으로 결정하는 것에 응답하여, 상기 임의의 윤곽 포인트가 속하는 원래의 윤곽을 타깃 윤곽으로 결정하는 단계를 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
According to claim 1,
The determining of at least one target contour according to the contour information and the target area information may include:
in response to determining that the arbitrary contour point is located in the target region according to the contour information and the target region information, determining an original contour to which the arbitrary contour point belongs as the target contour;
An image creation method applicable to computer devices.
제1항에 있어서,
상기 윤곽 정보 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계는,
적어도 하나의 제 1 윤곽의 제 3 위치 정보를 획득하기 위해 상기 적어도 하나의 원래의 윤곽의 제 1 위치 정보를 감소시키는 단계 - 임의의 제 1 윤곽은 대응하는 원래의 윤곽이 감소된 이후의 윤곽이고, 적어도 하나의 원래의 윤곽의 제 1 위치 정보는 동일한 감소율을 가짐 -;
상기 적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 원래의 이미지에 대응하는 제 1 이미지를 생성하는 단계 - 상기 제 1 이미지는 적어도 하나의 제 1 윤곽을 포함함 -;
제 1 영역 정보를 획득하기 위해 타깃 영역 정보를 감소시키는 단계 - 상기 제 1 영역 정보는 감소된 타깃 영역을 나타내고, 상기 타깃 영역 정보의 감소율은 적어도 하나의 원래의 윤곽의 제 1 위치 정보의 감소율과 동일함 -; 및
상기 제 1 영역 정보 및 제 1 이미지에 따라 적어도 하나의 타깃 윤곽을 결정하는 단계를 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
According to claim 1,
The determining of at least one target contour according to the contour information and the target area information may include:
reducing the first position information of the at least one original contour to obtain third position information of the at least one first contour, wherein any first contour is a contour after the corresponding original contour has been reduced , the first positional information of the at least one original contour has the same reduction rate;
generating a first image corresponding to an original image according to third position information of the at least one first contour, the first image including the at least one first contour;
reducing target area information to obtain first area information, wherein the first area information indicates a reduced target area, and the reduction rate of the target area information is equal to a reduction rate of the first position information of the at least one original contour Same -; and
determining at least one target contour according to the first region information and the first image;
An image creation method applicable to computer devices.
제5항에 있어서,
상기 윤곽 정보는 적어도 하나의 원래의 윤곽의 윤곽 식별자를 더 포함하고; 적어도 하나의 제 1 윤곽의 제 3 위치 정보에 따라 원래의 이미지에 대응하는 제 1 이미지를 생성하는 단계는,
상기 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 원래의 윤곽의 윤곽 식별자에 따라 제 1 이미지를 생성하는 단계 - 상기 제 1 이미지는 적어도 하나의 제 1 윤곽 및 적어도 하나의 제 1 윤곽의 윤곽 식별자를 포함하고, 임의의 제 1 윤곽의 윤곽 식별자는 임의의 제 1 윤곽에 대응하는 원래의 윤곽의 윤곽 식별자임 -를 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
6. The method of claim 5,
the contour information further includes a contour identifier of at least one original contour; Generating the first image corresponding to the original image according to the third position information of the at least one first contour comprises:
generating a first image according to the third position information of the at least one first contour and the contour identifier of the at least one original contour, the first image comprising the at least one first contour and the at least one first contour a contour identifier of , wherein the contour identifier of any first contour is a contour identifier of an original contour corresponding to any first contour;
An image creation method applicable to computer devices.
제6항에 있어서,
상기 제 1 영역 정보 및 제 1 이미지에 따라 상기 적어도 하나의 타깃 윤곽을 결정하는 단계는,
상기 제 1 이미지에서 적어도 하나의 제 1 윤곽, 상기 적어도 하나의 제 1 윤곽의 윤곽 식별자, 및 상기 제 1 영역 정보에 따라 적어도 하나의 제 2 윤곽의 윤곽 식별자를 결정하는 단계 - 상기 적어도 하나의 제 2 윤곽은 상기 제 1 이미지에서 감소된 타깃 영역에 전체적으로 또는 부분적으로 위치함 -;
상기 적어도 하나의 제 2 윤곽의 윤곽 식별자에 따라 상기 적어도 하나의 제 2 윤곽에 대응하는 원래의 윤곽을 타깃 윤곽으로 결정하는 단계를 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
7. The method of claim 6,
The determining of the at least one target contour according to the first area information and the first image may include:
determining a contour identifier of at least one first contour in the first image, a contour identifier of the at least one first contour, and a contour identifier of at least one second contour according to the first region information; 2 contours are located wholly or partially in the reduced target area in the first image;
determining an original contour corresponding to the at least one second contour as a target contour according to the contour identifier of the at least one second contour;
An image creation method applicable to computer devices.
제6항에 있어서,
상기 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 원래의 윤곽의 윤곽 식별자에 따라 상기 제 1 이미지를 생성하는 단계는,
임의의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값을 임의의 제 1 윤곽의 윤곽 식별자로 설정하는 단계; 및
상기 적어도 하나의 제 1 윤곽의 제 3 위치 정보 및 적어도 하나의 제 1 윤곽에 대응하는 윤곽 영역에서 픽셀 값에 따라 제 1 이미지를 생성하는 단계를 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
7. The method of claim 6,
generating the first image according to the third position information of the at least one first contour and the contour identifier of the at least one original contour,
setting a pixel value in the contour area corresponding to the arbitrary first contour to the contour identifier of the arbitrary first contour; and
generating a first image according to third position information of the at least one first contour and a pixel value in a contour region corresponding to the at least one first contour;
An image creation method applicable to computer devices.
제1항에 있어서,
상기 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계는,
적어도 하나의 타깃 윤곽의 제 2 위치 정보에 따라 제 3 이미지를 생성하는 단계 - 상기 제 3 이미지는 적어도 하나의 타깃 윤곽을 포함함 -; 및
상기 타깃 영역에 대응하는 타깃 이미지를 획득하기 위해 상기 타깃 영역 정보에 따라 제 3 이미지에서 타깃 영역을 커팅하는 단계를 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
According to claim 1,
generating a target image corresponding to the target area according to the second position information and the target area information of the at least one target contour;
generating a third image according to second position information of the at least one target contour, the third image including the at least one target contour; and
cutting a target area in a third image according to the target area information to obtain a target image corresponding to the target area;
An image creation method applicable to computer devices.
제1항에 있어서,
상기 적어도 하나의 타깃 윤곽의 제 2 위치 정보 및 타깃 영역 정보에 따라 타깃 영역에 대응하는 타깃 이미지를 생성하는 단계는,
상기 적어도 하나의 타깃 윤곽에 있는 복수의 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치하는 윤곽 포인트들을 결정하는 단계; 및
상기 적어도 하나의 타깃 윤곽에서 타깃 영역에 위치한 윤곽 포인트들의 제 2 좌표들 및 타깃 영역 정보에 따라 타깃 이미지를 생성하는 단계를 포함하는,
컴퓨터 디바이스에 적용 가능한 이미지 생성 방법.
According to claim 1,
generating a target image corresponding to the target area according to the second position information and the target area information of the at least one target contour;
determining contour points located in a target region in at least one target contour according to target region information and second coordinates of a plurality of contour points in the at least one target contour; and
generating a target image according to target area information and second coordinates of contour points located in a target area in the at least one target contour;
An image creation method applicable to computer devices.
컴퓨터 디바이스로서,
상기 컴퓨터 디바이스는 메모리 및 하나 이상의 프로세서를 포함하고, 상기 메모리는 적어도 하나의 명령어를 저장하고, 상기 적어도 하나의 명령어는, 제1항 내지 제10항 중 어느 한 항에 따른 이미지 생성 방법에서 수행되는 동작들을 구현하기 위해 상기 프로세서에 의해 로딩 및 실행되는,
컴퓨터 디바이스.
A computer device comprising:
The computer device includes a memory and one or more processors, wherein the memory stores at least one instruction, wherein the at least one instruction is performed in the image generating method according to any one of claims 1 to 10. loaded and executed by the processor to implement operations;
computer device.
비-일시적 컴퓨터-판독 가능 저장 매체로서,
상기 비-일시적 컴퓨터-판독 가능 저장 매체는 적어도 하나의 명령어를 저장하고, 상기 적어도 하나의 명령어는, 제1항 내지 제10항 중 어느 한 항에 따른 이미지 생성 방법에서 수행되는 동작들을 구현하기 위해 프로세서에 의해 로딩 및 실행되는,
비-일시적 컴퓨터-판독 가능 저장 매체.
A non-transitory computer-readable storage medium comprising:
The non-transitory computer-readable storage medium stores at least one instruction, wherein the at least one instruction is configured to implement operations performed in the image generating method according to any one of claims 1 to 10. loaded and executed by the processor;
A non-transitory computer-readable storage medium.
컴퓨터 프로그램 제품으로서,
상기 컴퓨터 프로그램 제품은 적어도 하나의 명령어를 저장하고, 상기 적어도 하나의 명령어는, 제1항 내지 제10항 중 어느 한 항에 따른 이미지 생성 방법에서 수행되는 동작들을 구현하기 위해 프로세서에 의해 로딩 및 실행되는,
컴퓨터 프로그램 제품.
A computer program product comprising:
The computer program product stores at least one instruction, the at least one instruction being loaded and executed by a processor to implement the operations performed in the method for generating an image according to any one of claims 1 to 10. felled,
computer program products.
KR1020227017609A 2020-02-17 2020-11-06 Image creation method, device, and storage medium KR20220083831A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010097623.0A CN111325220B (en) 2020-02-17 2020-02-17 Image generation method, device, equipment and storage medium
CN202010097623.0 2020-02-17
PCT/CN2020/127065 WO2021164328A1 (en) 2020-02-17 2020-11-06 Image generation method, device, and storage medium

Publications (1)

Publication Number Publication Date
KR20220083831A true KR20220083831A (en) 2022-06-20

Family

ID=71172800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227017609A KR20220083831A (en) 2020-02-17 2020-11-06 Image creation method, device, and storage medium

Country Status (6)

Country Link
US (1) US11847812B2 (en)
EP (1) EP4009232A4 (en)
JP (1) JP7379684B2 (en)
KR (1) KR20220083831A (en)
CN (1) CN111325220B (en)
WO (1) WO2021164328A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325220B (en) 2020-02-17 2023-04-07 腾讯科技(深圳)有限公司 Image generation method, device, equipment and storage medium
CN112307978B (en) * 2020-10-30 2022-05-24 腾讯科技(深圳)有限公司 Target detection method and device, electronic equipment and readable storage medium
CN112529978B (en) * 2020-12-07 2022-10-14 四川大学 Man-machine interactive abstract picture generation method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5683888B2 (en) * 2010-09-29 2015-03-11 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP5953842B2 (en) * 2012-03-14 2016-07-20 オムロン株式会社 Image inspection method and inspection area setting method
ES2481347B1 (en) * 2012-12-26 2015-07-30 Universidad De Almeria PROCEDURE FOR AUTOMATIC INTERPRETATION OF IMAGES FOR THE QUANTIFICATION OF NUCLEAR TUMOR MARKERS.  
CN103500223B (en) * 2013-10-17 2017-12-01 宁波工程学院 A kind of vector map data compression method towards mobile subscriber
US9542127B2 (en) * 2014-05-19 2017-01-10 Canon Kabushiki Kaisha Image processing method and image processing apparatus
CN105335976A (en) * 2015-10-23 2016-02-17 广州视睿电子科技有限公司 Image processing method and device
CN105740872B (en) * 2016-01-29 2020-05-19 徐庆 Image feature extraction method and device
CN106407902A (en) * 2016-08-31 2017-02-15 西北工业大学 Geometric difference-based airplane object identification method
JP6602743B2 (en) * 2016-12-08 2019-11-06 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing method
CN107563384B (en) * 2017-08-31 2020-02-21 江苏大学 Head and tail identification method of adhered pigs based on generalized Hough clustering
JP7198577B2 (en) * 2017-11-17 2023-01-04 シスメックス株式会社 Image analysis method, device, program, and method for manufacturing trained deep learning algorithm
JP6702360B2 (en) * 2018-06-27 2020-06-03 ソニー株式会社 Information processing method, information processing system, and information processing apparatus
CN109378052B (en) * 2018-08-31 2019-07-30 透彻影像(北京)科技有限公司 The preprocess method and system of image labeling
US11893732B2 (en) * 2019-05-29 2024-02-06 Leica Biosystems Imaging, Inc. Computer supported review of tumors in histology images and post operative tumor margin assessment
CN110739051B (en) * 2019-10-08 2022-06-03 中山大学附属第三医院 Method for establishing eosinophilic granulocyte proportion model by using nasal polyp pathological picture
CN111325220B (en) * 2020-02-17 2023-04-07 腾讯科技(深圳)有限公司 Image generation method, device, equipment and storage medium

Also Published As

Publication number Publication date
CN111325220A (en) 2020-06-23
WO2021164328A1 (en) 2021-08-26
JP7379684B2 (en) 2023-11-14
US20220189136A1 (en) 2022-06-16
US11847812B2 (en) 2023-12-19
JP2022551110A (en) 2022-12-07
EP4009232A4 (en) 2022-12-28
EP4009232A1 (en) 2022-06-08
CN111325220B (en) 2023-04-07

Similar Documents

Publication Publication Date Title
US11847812B2 (en) Image generation method and apparatus, device, and storage medium
CN106874937B (en) Text image generation method, text image generation device and terminal
US20220237812A1 (en) Item display method, apparatus, and device, and storage medium
CN110517214B (en) Method and apparatus for generating image
US11790584B2 (en) Image and text typesetting method and related apparatus thereof
WO2021082885A1 (en) Method and device for generating training sample for semantic segmentation model, storage medium, and electronic device
CN110431563B (en) Method and device for correcting image
CN111310866B (en) Data labeling method, device, system and terminal equipment
CN110211195B (en) Method, device, electronic equipment and computer-readable storage medium for generating image set
WO2019080702A1 (en) Image processing method and apparatus
CN113627428A (en) Document image correction method and device, storage medium and intelligent terminal device
US20230087489A1 (en) Image processing method and apparatus, device, and storage medium
CN115147265A (en) Virtual image generation method and device, electronic equipment and storage medium
CN113657518B (en) Training method, target image detection method, device, electronic device, and medium
CN110827301A (en) Method and apparatus for processing image
WO2022095318A1 (en) Character detection method and apparatus, electronic device, storage medium, and program
CN111461965A (en) Picture processing method and device, electronic equipment and computer readable medium
CN111107264A (en) Image processing method, image processing device, storage medium and terminal
CN114663418A (en) Image processing method and device, storage medium and electronic equipment
CN112465692A (en) Image processing method, device, equipment and storage medium
CN113837194B (en) Image processing method, image processing apparatus, electronic device, and storage medium
CN109784332B (en) Document image inclination detection method and device
CN111784710B (en) Image processing method, device, electronic equipment and medium
CN110232407B (en) Image processing method and apparatus, electronic device, and computer storage medium
CN111383238B (en) Target detection method, target detection device and intelligent terminal