WO2019231162A1 - 이미지 분할 방법 및 장치 - Google Patents

이미지 분할 방법 및 장치 Download PDF

Info

Publication number
WO2019231162A1
WO2019231162A1 PCT/KR2019/006132 KR2019006132W WO2019231162A1 WO 2019231162 A1 WO2019231162 A1 WO 2019231162A1 KR 2019006132 W KR2019006132 W KR 2019006132W WO 2019231162 A1 WO2019231162 A1 WO 2019231162A1
Authority
WO
WIPO (PCT)
Prior art keywords
fragment
image
generation
image set
images included
Prior art date
Application number
PCT/KR2019/006132
Other languages
English (en)
French (fr)
Inventor
송효섭
이준호
송지은
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to US16/753,051 priority Critical patent/US11715197B2/en
Priority to EP19811854.9A priority patent/EP3686841B1/en
Priority to CN201980004787.XA priority patent/CN111164645A/zh
Publication of WO2019231162A1 publication Critical patent/WO2019231162A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the disclosed embodiments relate to image segmentation techniques.
  • the problem of the conventional deep learning-based classification technology is that the rich information of the high resolution image cannot be used when the classifier is trained, and the result classified using the partial information is applied to the second condition. There is a problem that final classification is possible only through the process.
  • the process of assigning an area corresponding to the object in the image of the object to be classified and assigning a label to the designated area is performed.
  • the general method is to reduce or resize to a uniform size to match the input of the deep learning network selected for learning, and then proceed with the learning.
  • This method can have a great effect in the case of the image classification of the person-dog-cat which is distinguished only by appearance.
  • the characteristic area disappears due to reduction or reduction.
  • the same shape is changed. For example, a circular feature that exists in a 10x10 region in an image of 2000 x 2000 resolution is likely to disappear or become a pixel of 1 pixel when the entire image is reduced to 200 x 200 in a batch.
  • features such as circles, triangles, and squares that exist in a 10x10 size in an image of 2000 x 2000 resolution can be converted to 1 pixel dots when the entire image is reduced to 200 x 200. The feature disappears.
  • Another method of image learning for a deep learning-based object classifier is to use a fragment image generated by dividing into a grid of the same size to facilitate parallel processing.
  • a fragment image generated by dividing into a grid it is difficult to find an association between neighboring fragment images, and the generated fragment image may have only a part of information, not the entire information of the object to be learned.
  • a representative problem that can be solved using detection techniques is a normal / abnormal classification problem. In general, if a singularity is found, it is generally classified as abnormal.
  • the disclosed embodiments are to provide an image segmentation apparatus and method.
  • An image segmentation method is performed in a computing device having one or more processors and a memory storing one or more programs executed by the one or more processors, the method comprising: (a) inputting an image Receiving, (b) generating a first generation fragment image set by dividing the input image by overlapping, (c) generating a second generation fragment image set from the first generation fragment image set, and generating a previous generation fragment image Overlapping at least one of the plurality of pieces of images included in the set to produce a subsequent generation of pieces of image sets.
  • Each of the plurality of fragment images included in the j (where j is an integer of j ⁇ 1) generation sets may include a region overlapping with one or more fragment images included in the j generation fragment image sets.
  • the next generation fragment image set may be generated by overlapping at least one fragment image satisfying a predetermined selection condition among a plurality of fragment images included in the previous generation fragment image set.
  • the step (c) may include calculating pixel similarity in the image for each of the plurality of fragment images included in the previous generation fragment image set and the pixel similarity among the plurality of fragment images included in the previous generation fragment image set.
  • the method may include overlapping each fragment image having a preset reference value or less to generate the subsequent generation fragment image set.
  • step (c) when there is no fragment image having the pixel similarity equal to or less than the reference value, generation of the subsequent generation fragment image set may be terminated.
  • step (c) when the preset split end condition is satisfied, generation of the subsequent generation fragment image set may be terminated.
  • step (c) it may be determined whether the preset segmentation termination condition is satisfied based on sizes and preset reference values of each of the plurality of fragment images included in the previous generation fragment image set.
  • step (c) it may be determined whether the preset segmentation termination condition is satisfied based on the total number of fragment images included in the fragment image set generated so far and a preset reference value.
  • the image segmentation method may include (d) all or part of a plurality of fragment images included in each of the input image and the first to n generation fragment image sets, wherein n is an integer of n ⁇ 2. It may further comprise the step of reducing.
  • the image segmentation method may further include (e) training a deep learning based image classifier using the reduced image.
  • An image splitting apparatus includes one or more processors, a memory and one or more programs, wherein the one or more programs are stored in the memory and configured to be executed by the one or more processors.
  • One or more programs may include (a) receiving an image, (b) generating a first generation fragment image set by overlapping the input image, and (c) generating two or more generations from the first generation fragment image set. Generating a fragment image set, wherein at least one of the plurality of fragment images included in the previous generation fragment image set is overlapped to generate a next generation fragment image set.
  • Each of the plurality of fragment images included in the j (where j is an integer of j ⁇ 1) generation sets may include a region overlapping with one or more fragment images included in the j generation fragment image sets.
  • the next generation fragment image set may be generated by overlapping at least one fragment image satisfying a predetermined selection condition among a plurality of fragment images included in the previous generation fragment image set.
  • the step (c) may include calculating pixel similarity in the image for each of the plurality of fragment images included in the previous generation fragment image set and the pixel similarity among the plurality of fragment images included in the previous generation fragment image set.
  • the method may include overlapping each fragment image having a preset reference value or less to generate the subsequent generation fragment image set.
  • step (c) when there is no fragment image having the pixel similarity equal to or less than the reference value, generation of the subsequent generation fragment image set may be terminated.
  • step (c) when the preset split end condition is satisfied, generation of the subsequent generation fragment image set may be terminated.
  • step (c) it may be determined whether the preset segmentation termination condition is satisfied based on sizes and preset reference values of each of the plurality of fragment images included in the previous generation fragment image set.
  • step (c) it may be determined whether the preset segmentation termination condition is satisfied based on the total number of fragment images included in the fragment image set generated so far and a preset reference value.
  • the one or more programs may include (d) all or part of a plurality of fragment images included in each of the input image and the first generation to n generations, wherein n is an integer of n ⁇ 2.
  • the method may further include instructions for executing the step of reducing.
  • the one or more programs may further include instructions for executing (e) training a deep learning based image classifier using the reduced image.
  • fragment images having relevance may be generated without loss of information on a small feature area in the image.
  • the fragment image included in the last generation fragment image set can be zoomed-in and compared with the fragment image included in the previous generation fragment image set. You can learn by combining the information together.
  • FIG. 1 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments.
  • FIG. 2 is a flowchart of an image segmentation method according to an embodiment of the present invention.
  • 3 is an exemplary view of an input image
  • FIG. 4 is a view for explaining a fragment image generation process according to an embodiment of the present invention.
  • 5 to 8 are views for explaining a fragment image generation process according to another embodiment of the present invention.
  • 9 to 14 are views for explaining a fragment image generation process according to another embodiment of the present invention.
  • 16 is a flowchart of an image segmentation method according to a further embodiment of the present invention.
  • FIG 17 illustrates an example of fragment image sets generated according to an embodiment of the present invention.
  • 18 and 19 are exemplary diagrams for explaining generation of a training image set according to an embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating and describing a computing environment 10 that includes a computing device suitable for use in example embodiments.
  • each component may have different functions and capabilities in addition to those described below, and may include additional components in addition to those described below.
  • the illustrated computing environment 10 includes a computing device 12.
  • computing device 12 may be an image segmentation device in accordance with embodiments of the present invention.
  • Computing device 12 includes at least one processor 14, computer readable storage medium 16, and communication bus 18.
  • the processor 14 may cause the computing device 12 to operate according to the example embodiments mentioned above.
  • processor 14 may execute one or more programs stored in computer readable storage medium 16.
  • the one or more programs may include one or more computer executable instructions that, when executed by the processor 14, cause the computing device 12 to perform operations in accordance with an exemplary embodiment. Can be.
  • Computer readable storage medium 16 is configured to store computer executable instructions or program code, program data and / or other suitable forms of information.
  • the program 20 stored in the computer readable storage medium 16 includes a set of instructions executable by the processor 14.
  • computer readable storage medium 16 includes memory (volatile memory, such as random access memory, nonvolatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash Memory devices, or any other form of storage medium that is accessible by computing device 12 and capable of storing desired information, or a suitable combination thereof.
  • the communication bus 18 interconnects various other components of the computing device 12, including the processor 14 and the computer readable storage medium 16.
  • Computing device 12 may also include one or more input / output interfaces 22 and one or more network communication interfaces 26 that provide an interface for one or more input / output devices 24.
  • the input / output interface 22 and the network communication interface 26 are connected to the communication bus 18.
  • the input / output device 24 may be connected to other components of the computing device 12 via the input / output interface 22.
  • Exemplary input / output device 24 may include a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touchpad or touchscreen), a voice or sound input device, various types of sensor devices, and / or imaging devices.
  • Input devices, and / or output devices such as display devices, printers, speakers, and / or network cards.
  • the example input / output device 24 may be included inside the computing device 12 as one component of the computing device 12, and may be connected to the computing device 12 as a separate device from the computing device 12. It may be.
  • FIG. 2 is a flowchart of an image segmentation method according to an exemplary embodiment.
  • the computing device 12 receives an image.
  • the input image may be an original image input by a user or obtained from an image database including a plurality of images collected in advance.
  • the present invention is not limited thereto, and according to an exemplary embodiment, the input image may be an image in which unnecessary regions are partially or completely removed from the original image, such as a margin or a background.
  • the method of removing unnecessary areas is not necessarily limited to a specific method.
  • FIG. 3 is an exemplary view of an input image.
  • 310 represents an example of a retinal image (ie, an original image) input by a user or obtained from an image database
  • 320 is a margin region of the original image 310 except for the retinal region.
  • An example of an image with some removed is shown.
  • the input image is the original image 310 illustrated in FIG. 3.
  • the input image is an image in which some of the margin areas are removed from the original image 310. It should be noted that it may be (320).
  • the computing device 12 generates a first-generation piece image set by overlapping the input image.
  • the term “slicing images overlapping” means generating a plurality of fragment images each including a partial region of the segment target image from the segment target image, and including a plurality of regions overlapping each other with one or more fragment images. This means creating a fragment image.
  • the first generation fragment image set includes a plurality of fragment images each including a partial region of the input image.
  • each of the plurality of fragment images included in the first generation fragment image set includes an area overlapping with another fragment image included in the first generation fragment image set.
  • FIG. 4 is a diagram illustrating a fragment image generation process according to an exemplary embodiment of the present invention.
  • the computing device 12 may arrange a window 410 having a preset size on the input image 400. Further, while sequentially moving the window 410 of the computing device 12 in the input image 400 by a predetermined distance in the X-axis direction and the Y-axis direction, each of the regions included in the window 410 is input. A fragment image for 400 can be extracted.
  • the X-axis movement distance of the window 410 may be set smaller than the X-axis length of the window 410, and the Y-axis movement distance of the window 410 is set smaller than the Y-axis length of the window 301. Can be.
  • the size of the window 410, the X-axis movement distance, and the Y-axis movement distance may be changed according to the number of fragment images to be generated and the size of the image to be divided.
  • 5 to 8 are diagrams for explaining a fragment image generation process according to another embodiment of the present invention.
  • the computing device 12 divides the input image 500 into quadrants as shown in the example of FIG. 5 to form the first to fourth fragment images 510, 520, 530, and 540. ) Can be created.
  • the computing device 12 includes regions corresponding to one side of the first fragment image 510 and the other side of the third fragment image 530 in the input image 500 as shown in the example illustrated in FIG. 6.
  • the fifth fragment image 550 may be generated.
  • the computing device 120 may generate a sixth fragment image 560 including an area corresponding to one side of the second fragment image 520 and the other side of the fourth fragment image 540.
  • the computing device 12 includes an area corresponding to the right side of the first fragment image 510 and the left side of the second fragment image 520 in the input image 500 as shown in the example illustrated in FIG. 7.
  • a seventh fragment image 570 may be generated.
  • the computing device 12 may include an eighth fragment image 580 including an area corresponding to the right side of the third fragment image 530 and the left side of the fourth fragment image 540 in the input image 500. Can be generated.
  • the computing device 12 includes regions corresponding to one side of the seventh fragment image 570 and the other side of the eighth fragment image 580 in the input image 500 as shown in the example illustrated in FIG. 8.
  • a ninth piece image 590 may be generated.
  • 9 to 14 are views for explaining a fragment image generation process according to another embodiment of the present invention.
  • the computing device 12 divides the input image 600 into quadrants as shown in the example illustrated in FIG. 9, and thus the first to fourth fragment images 610, 620, 630, and 640. ) Can be created.
  • the computing device 12 divides the first fragment image 610 and the third fragment image 630 into upper, lower, and lower portions, respectively, as shown in the example of FIG. 10, and then the first fragment image 610.
  • the fifth piece of image 650 may be generated by combining the other piece of H and the other piece of image of the third piece image 630.
  • the computing device 120 divides the second fragment image 620 and the fourth fragment image 640 into upper and lower sides, respectively, as shown in the example of FIG. 11, and then the second fragment image 620.
  • the sixth fragment image 660 may be generated by combining the other side of and the upper side of the fourth fragment image 640.
  • the computing device 12 divides the first fragment image 610 and the second fragment image 620 into left and right sides, respectively, as shown in the example shown in FIG. 12, and then the first fragment image 610.
  • the seventh fragment image 670 may be generated by combining the right side of the left side and the left side of the second fragment image 610.
  • the computing device 12 divides the third fragment image 630 and the fourth fragment image 640 into left and right sides, respectively, as shown in the example of FIG. 13, and then the third fragment image 630.
  • An eighth fragment image 680 may be generated by combining the right side of the left side and the left side of the fourth fragment image 640.
  • the computing device 12 divides the first to fourth fragment images 610, 620, 630, and 640 into four equal parts, respectively, as shown in the example illustrated in FIG. 14, and then displays the quadrants of the first fragment images 610.
  • the ninth fragment image 690 may be generated by combining three quadrants of the second fragment image 620, one quadrant of the third fragment image 630, and two quadrants of the fourth fragment image 640.
  • 15 is a diagram illustrating an example of a first generation fragment image set generated according to the above-described embodiments.
  • the first-generation fragment image set includes nine fragment images, and each fragment image includes a region overlapping with another fragment image.
  • the first pieces of image set may be generated by various methods in addition to the above-described embodiments.
  • the computing device 12 generates two or more generations of fragment image sets from the first generation of fragment image sets. In this case, the computing device 12 overlaps at least one of the plurality of fragment images included in the previous generation fragment image set to generate a subsequent generation fragment image.
  • computing device 12 overlaps at least one of a plurality of pieces of images included in a set of pieces of i (where i is an integer of i ⁇ 1) Create i + 1 generation fragment image sets.
  • the i + 1 generation fragment image set may be generated using the same method as the generation method of the first generation fragment image set described above.
  • each of the plurality of fragment images included in each generation of the fragment image set may include a region overlapping with one or more fragment images included in the same generation of fragment image sets.
  • 16 is a flowchart of an image segmentation method according to a further embodiment of the present invention.
  • steps 810 and 820 are the same as steps 210 and 220 shown in FIG. 2, respectively, and thus redundant description thereof will be omitted.
  • the computing device 12 sets i, which represents a generation index value of the currently generated fragment image set, to 1.
  • the computing device 12 determines whether there is a fragment image that satisfies a predetermined selection condition among a plurality of fragment images included in the first generation fragment image set.
  • the computing device 120 calculates pixel similarity in the image for each of the plurality of fragment images included in the first generation fragment image set, and the calculated pixel similarity is a preset reference value.
  • the following fragment images can be selected.
  • the pixel similarity may be calculated based on, for example, brightness, color value, frequency, gradient, etc. of pixels in the fragment image.
  • the computing device 12 when there is no fragment image that satisfies a preset selection condition among a plurality of fragment images included in the first generation fragment image set, the computing device 12 generates a subsequent generation fragment image set for the first generation fragment image set. Quit.
  • the computing device 12 may determine one or more fragment images that satisfy the selection condition. Select each additional split target.
  • step 860 the computing device 12 divides each selected fragment image by overlapping to generate a second generation fragment image set.
  • the computing device 12 determines whether the preset partition termination condition is satisfied.
  • the computing device 12 divides the split end condition based on the size of each of the plurality of fragment images included in the second-generation fragment image set generated in operation 860 and the first reference value. It can be determined whether this is satisfied. For example, when the size of the fragment image generated by overlapping at least one of the plurality of fragment images included in the second generation fragment image set becomes smaller than the first reference value, the computing device 12 may determine the segmentation termination condition. It can be determined that this is satisfied. In this case, the first reference value may be set to be equal to the input image size set in the deep learning based image classifier.
  • the computing device 12 may determine whether the partitioning condition is satisfied based on the total number of fragment images included in the fragment image set generated so far and a second preset reference value. have. For example, the computing device 12 may generate a 3rd generation slice image set from the 2nd generation slice image set based on the total number of pieces of the image included in the 1st and 2nd generation slice image sets, which is a set of fragment images created to date. When generating, when the total number of pieces of images exceeds the second reference value, it may be determined that the split end condition is satisfied. In this case, the second reference value may be set to an appropriate value by the user, for example, in consideration of the amount of calculation.
  • Step 870 when the segmentation termination condition is not satisfied, the computing device 12 increases the generation index value i by 1, and then the aforementioned segmentation termination condition is satisfied or the selection described above in the generation i fragment image set. Steps 840 to 880 may be repeated until there are no fragment images satisfying the condition, thereby generating two or more generations of fragment image sets.
  • FIG 17 illustrates an example of fragment image sets generated according to an embodiment of the present invention.
  • FIG. 17 it is assumed that first to third generation fragment images are generated from the input image A.
  • a first generation fragment image set first includes nine fragment images generated by overlapping an input image A (A-1 to A-9).
  • each of the second generation fragment image sets includes nine fragment images A-7-1 to A-7-9 generated by overlapping A-7 among fragment images included in the first generation fragment image set. It includes nine fragment images A-9-1 to A-9-9 generated by overlapping A-9.
  • the 3rd generation fragment image set includes nine fragment images (A-7-4-1 to A-7) generated by overlapping A-7-4 among the fragment images included in the second generation fragment image set. -4-9) and nine fragment images A-9-2-1 to A-9-2-9 generated by overlapping division of A-9-2.
  • the computing device 12 may include at least some of the fragment images included in each of the input image and the generated fragment image sets to be reduced to a preset size, and include images that are reduced. You can create a set of images.
  • the preset size may be set to be equal to the input image size set in the deep learning based image classifier.
  • the computing device 12 may train the deep learning based image classifier using the training image set.
  • the deep learning based image classifier is for recognition or classification of an input image.
  • a deep learning based image classifier may be a CNN (Convolution Neural Network) model. It doesn't happen.
  • 18 and 19 are exemplary diagrams for describing generation of a training image set according to an embodiment of the present invention.
  • a first generation fragment image set is generated from an input image for convenience of description, and a second generation fragment image set is generated from one fragment image 1010 of the first generation fragment image set.
  • the computing device 12 may reduce, for example, an input image, a fragment image included in the first generation fragment image set, and a fragment image included in the second generation fragment image set to reduce to a preset size. It is possible to generate a set of training images comprising the images.
  • the computing device 12 may reduce each of the fragment images included in the input image and the last generation second generation fragment image set to a preset size.
  • the computing device 12 may reduce each of the remaining fragment images to a preset size except for the fragment image 1010 used for generating the second generation fragment image set among the fragment images included in the first generation fragment image set. .
  • the computing device 12 may then generate a training image set that includes the reduced images.
  • the computing device 12 may generate the first generation to n (where n is an integer of n ⁇ 2) generation fragment image sets from the input image, and according to the embodiment, the first generation as shown in the example of FIG. 18. All fragment images included in the to n-th generation fragment image sets are used to generate a training image set, or subsequent generations of the fragment images included in each of the 1st to n-1th generation fragment image sets as shown in FIG. 19. Fragment images not used for generation and fragment images included in the n-generation fragment image set may be used for generating the training image set.
  • the fragment image selection for generating the training image set may be modified in various ways in consideration of learning efficiency, accuracy of learning results, and computation amount.
  • embodiments of the present invention may include a program for performing the methods described herein on a computer, and a computer readable recording medium including the program.
  • the computer-readable recording medium may include program instructions, local data files, local data structures, etc. alone or in combination.
  • the media may be those specially designed and constructed for the purposes of the present invention, or they may be conventionally available in the field of computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, and specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
  • Hardware devices are included. Examples of such programs may include high-level language code that can be executed by a computer using an interpreter as well as machine code such as produced by a compiler.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

이미지 분할 장치 및 방법이 개시된다. 본 발명의 일 실시예에 따른 이미지 분할 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되며, (a) 이미지를 입력받는 단계, (b) 상기 입력된 이미지를 중첩적으로 분할하여 1 세대 조각 이미지 세트를 생성하는 단계, (c) 상기 1 세대 조각 이미지 세트로부터 2 세대 이상의 조각 이미지 세트를 생성하되, 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 적어도 하나를 중첩적으로 분할하여 후속 세대 조각 이미지 세트를 생성하는 단계를 포함한다.

Description

이미지 분할 방법 및 장치
개시되는 실시예들은 이미지 분할 기술과 관련된다.
종래의 딥 러닝(deep learning) 기반의 분류기술의 문제점은 분류기를 학습할 때 고해상도 이미지의 풍부한 정보를 모두 사용하지 못하는 문제점과, 부분 정보를 사용하여 분류된 결과는 2차적으로 다른 조건들을 적용하는 과정을 거쳐야 최종 분류가 가능하다는 문제점이 존재한다.
영상을 입력으로 하여 딥 러닝 기반의 물체 분류기를 학습시키고자 하는 경우, 분류하고자 하는 대상의 영상에서 물체에 해당하는 영역을 지정하고, 지정된 영역에 대한 레이블(label)을 할당(annotation)하는 과정을 거친 후, 학습을 위해 선정된 딥 러닝 네트워크의 입력단과 일치하도록 균일한 크기로 축소 혹은 확대(resize)한 후 학습을 진행하는 방법이 일반적이다.
이러한 방법은 겉모습만으로 구분되는 사람-개-고양이 이미지 분류와 같은 경우에는 큰 효과를 얻을 수 있다. 그러나, 겉모습은 동일하지만 색상, 패턴, 질감 등과 같은 내부 정보의 차이를 고려해야만 구분이 가능한 이미지의 경우(특히, 고해상도 영상을 축소하여 사용하는 경우)에는 특징이 되는 영역이 축소에 의해 사라지거나, 동일한 모양으로 변경되는 현상이 발생된다. 예를 들면 2000 x 2000 해상도의 영상에서 10x10 영역에 존재하는 원형 모양의 특징은, 전체 영상을 200 x 200으로 일괄 축소하게 되면 1 픽셀의 점이 되거나, 사라질 가능성이 높다. 또 다른 예로 2000 x 2000 해상도의 영상에서 10x10 크기로 존재하는 원 모양, 삼각형 모양, 사각형 모양의 패턴들과 같은 특징은, 전체 영상을 200 x 200으로 일괄 축소하게 되면 모두 1 픽셀의 점으로 같게 변환되어 특징이 사라진다.
한편, 딥 러닝 기반 물체 분류기를 위한 영상 학습의 다른 방법으로는 병렬처리가 용이하도록 동일한 크기의 격자로 일괄적으로 나누어 생성한 조각 이미지를 사용하는 방법이다. 하지만 격자로 나누는 경우 이웃한 조각 이미지들 사이의 연관성을 찾기 어려우며, 생성되는 조각 이미지는 학습의 대상이 되는 물체의 전체 정보가 아니라, 일부분의 정보만 가지고 있을 수도 있다.
조각 이미지를 이용하는 학습 방법은 분류된 조각 이미지의 위치를 찾기 위한 검출(detection, classification 및 localization)을 목적으로 하는 경우에 더 잘 어울리는 방법이다. 검출 기술을 사용하여 해결 가능한 대표적인 문제가 정상/비정상의 분류문제이다. 일반적으로 특이점(singularity)이 발견되면 비정상으로 분류하는 방법이 일반적이다.
하지만, 특이점이 발견되더라도 특이한 정도, 특이점의 개수 등의 여러 가지 복합적인 조합에 의해 정상과 비정상이 분류 가능하므로, 검출 기술을 적용한 이후에도 다양한 조합의 룰(rule)에 의한 필터링을 거쳐야 정확한 정상/비정상 분류가 가능하다. 대표적인 예로, 이미지 내에서 병변이 발견되었다고 무조건 질환으로 판정되지 않고, 병변의 심각한 정도, 병변의 개수 등에 따라 질환이 아닌 정상으로 판정 가능하다.
개시되는 실시예들은 이미지 분할 장치 및 방법을 제공하기 위함이다.
본 발명의 일 실시예에 따른 이미지 분할 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되며, (a) 이미지를 입력받는 단계, (b) 상기 입력된 이미지를 중첩적으로 분할하여 1 세대 조각 이미지 세트를 생성하는 단계, (c) 상기 1 세대 조각 이미지 세트로부터 2 세대 이상의 조각 이미지 세트를 생성하되, 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 적어도 하나를 중첩적으로 분할하여 후속 세대 조각 이미지 세트를 생성하는 단계를 포함한다.
j(이때, j는 j≥1인 정수) 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각은, 상기 j 세대 조각 이미지 세트에 포함된 다른 하나 이상의 조각 이미지와 중첩되는 영역을 포함할 수 있다.
상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 기 설정된 선택 조건을 만족하는 적어도 하나의 조각 이미지를 중첩적으로 분할하여 상기 후속 세대 조각 이미지 세트를 생성할 수 있다.
상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각에 대하여, 이미지 내 픽셀 유사도를 산출하는 단계 및 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 상기 픽셀 유사도가 기 설정된 기준 값 이하인 조각 이미지 각각을 중첩적으로 분할하여 상기 후속 세대 조각 이미지 세트를 생성하는 단계를 포함할 수 있다.
상기 (c) 단계는, 상기 픽셀 유사도가 상기 기준 값 이하인 조각 이미지가 존재하지 않는 경우, 상기 후속 세대 조각 이미지 세트의 생성을 종료할 수 있다.
상기 (c) 단계는, 기 설정된 분할 종료 조건이 만족된 경우, 상기 후속 세대 조각 이미지 세트의 생성을 종료할 수 있다.
상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각의 크기 및 기 설정된 기준 값에 기초하여 상기 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단할 수 있다.
상기 (c) 단계는, 현재까지 생성된 조각 이미지 세트에 포함된 조각 이미지들의 총 개수 및 기 설정된 기준 값에 기초하여 상기 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단할 수 있다.
상기 이미지 분할 방법은, (d) 상기 입력된 이미지 및 상기 1 세대 내지 n(이때, n은 n≥2인 정수) 세대 조각 이미지 세트 각각에 포함된 복수의 조각 이미지 전체 또는 일부를 기 설정된 크기로 축소하는 단계를 더 포함할 수 있다.
이미지 분할 방법은, (e) 상기 축소된 이미지를 이용하여 딥 러닝 기반의 이미지 분류기를 학습시키는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 이미지 분할 장치는, 하나 이상의 프로세서, 메모리 및 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은 상기 메모리에 저장되고, 상기 하나 이상의 프로세서들에 의해 실행되도록 구성되며, 상기 하나 이상의 프로그램들은, (a) 이미지를 입력받는 단계, (b) 상기 입력된 이미지를 중첩적으로 분할하여 1 세대 조각 이미지 세트를 생성하는 단계, (c) 상기 1 세대 조각 이미지 세트로부터 2 세대 이상의 조각 이미지 세트를 생성하되, 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 적어도 하나를 중첩적으로 분할하여 후속 세대 조각 이미지 세트를 생성하는 단계를 실행하기 위한 명령어들을 포함한다.
j(이때, j는 j≥1인 정수) 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각은, 상기 j 세대 조각 이미지 세트에 포함된 다른 하나 이상의 조각 이미지와 중첩되는 영역을 포함할 수 있다.
상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 기 설정된 선택 조건을 만족하는 적어도 하나의 조각 이미지를 중첩적으로 분할하여 상기 후속 세대 조각 이미지 세트를 생성할 수 있다.
상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각에 대하여, 이미지 내 픽셀 유사도를 산출하는 단계 및 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 상기 픽셀 유사도가 기 설정된 기준 값 이하인 조각 이미지 각각을 중첩적으로 분할하여 상기 후속 세대 조각 이미지 세트를 생성하는 단계를 포함할 수 있다.
상기 (c) 단계는, 상기 픽셀 유사도가 상기 기준 값 이하인 조각 이미지가 존재하지 않는 경우, 상기 후속 세대 조각 이미지 세트의 생성을 종료할 수 있다.
상기 (c) 단계는, 기 설정된 분할 종료 조건이 만족된 경우, 상기 후속 세대 조각 이미지 세트의 생성을 종료할 수 있다.
상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각의 크기 및 기 설정된 기준 값에 기초하여 상기 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단할 수 있다.
상기 (c) 단계는, 현재까지 생성된 조각 이미지 세트에 포함된 조각 이미지들의 총 개수 및 기 설정된 기준 값에 기초하여 상기 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단할 수 있다.
상기 하나 이상의 프로그램들은, (d) 상기 입력된 이미지 및 상기 1 세대 내지 n(이때, n은 n≥2인 정수) 세대 조각 이미지 세트 각각에 포함된 복수의 조각 이미지 전체 또는 일부를 기 설정된 크기로 축소하는 단계를 실행하기 위한 명령어들을 더 포함할 수 있다.
상기 하나 이상의 프로그램들은, (e) 상기 축소된 이미지를 이용하여 딥 러닝 기반의 이미지 분류기를 학습시키는 단계를 실행하기 위한 명령어들을 더 포함할 수 있다.
본 발명의 실시예들에 따르면, 이미지를 중첩적으로 분할하여 복수 세대의 조각 이미지 세트를 생성함으로써, 이미지 내에서 크기가 작은 특징 영역에 대한 정보 손실 없이 연관성을 가지는 조각 이미지들을 생성할 수 있다.
또한, 본 발명이 실시예들에 따르면, 중첩 분할된 복수 세대의 조각 이미지 세트에 포함된 조각 이미지들을 딥 러닝 기반의 이미지 분류기 학습을 위해 이용하되, 이미지 분류기의 입력 크기로 변환하여 학습을 수행함으로써, 마지막 세대의 조각 이미지 세트에 포함된 조각 이미지는 이전 세대의 조각 이미지 세트에 포함된 조각 이미지에 비해 확대(zoom-in)되어 학습되는 효과를 얻을 수 있으며, 이미지의 전체 정보와 특징이 되는 부분 정보를 같이 조합하여 학습 가능하게 된다.
도 1은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 이미지 분할 방법의 순서도
도 3은 입력되는 이미지의 예시도
도 4는 본 발명의 일 실시예에 따른 조각 이미지 생성 과정을 설명하기 위한 도면
도 5 내지 도 8은 본 발명의 다른 실시예에 따른 조각 이미지 생성 과정을 설명하기 위한 도면
도 9 내지 도 14는 본 발명의 또 다른 실시예에 따른 조각 이미지 생성 과정을 설명하기 위한 도면
도 15는 1 세대 조각 이미지 세트의 일 예를 나타낸 도면
도 16은 본 발명의 추가적인 실시예에 따른 이미지 분할 방법의 순서도
도 17은 본 발명의 일 실시예에 따라 생성된 조각 이미지 세트들의 일 예를 나타낸 도면
도 18 및 도 19는 본 발명의 일 실시예에 따른 학습 이미지 세트 생성을 설명하기 위한 예시도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 본 발명의 실시예들에 따른 이미지 분할 장치일 수 있다. 컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
도 2는 본 발명의 일 실시예에 따른 이미지 분할 방법의 순서도이다.
도 2를 참조하면, 210 단계에서 컴퓨팅 장치(12)는 이미지를 입력받는다.
이때, 입력되는 이미지는 사용자에 의해 입력되거나, 미리 수집된 복수의 이미지들을 포함하는 이미지 데이터베이스로부터 획득된 원본 이미지일 수 있다. 그러나, 반드시 이에 한정되는 것은 아니며, 실시예에 따라, 입력되는 이미지는 예를 들어, 여백이나 배경과 같이 원본 이미지에서 불필요한 영역이 전체 또는 일부 제거된 이미지일 수 있다. 이때, 불필요한 영역의 제거 방법은 반드시 특정한 방법으로 한정되는 것은 아니다.
구체적으로, 도 3은 입력되는 이미지의 예시도이다.
도 3에 도시된 예에서, 310은 사용자에 의해 입력되거나, 이미지 데이터베이스로부터 획득된 망막 이미지(즉, 원본 이미지)의 일 예를 나타내고, 320은 원본 이미지(310)에서 망막 영역을 제외한 여백 영역 중 일부를 제거한 이미지의 일 예를 나타낸다.
이하에서는, 설명의 편의를 위해 입력되는 이미지가 도 3에 도시된 원본 이미지(310)인 것으로 가정하고 설명하나, 실시예에 따라 입력되는 이미지는 원본 이미지(310)에서 여백 영역 중 일부를 제거한 이미지(320)일 수도 있음을 유의하여야 한다.
다시 도 2를 참조하면, 220 단계에서, 컴퓨팅 장치(12)는 입력된 이미지를 중첩적으로 분할하여 1 세대 조각 이미지 세트를 생성한다.
이때, '이미지를 중첩적으로 분할'한다는 의미는 분할 대상 이미지로부터 각각 분할 대상 이미지 중 일부 영역을 포함하는 복수의 조각 이미지를 생성하되, 각각 다른 하나 이상의 조각 이미지와 중첩되는 영역을 포함하도록 복수의 조각 이미지를 생성함을 의미한다.
즉, 1세대 조각 이미지 세트는 각각 입력된 이미지 중 일부 영역을 포함하는 복수의 조각 이미지들을 포함한다. 또한, 1 세대 조각 이미지 세트에 포함된 복수의 조각 이미지들 각각은 1 세대 조각 이미지 세트에 포함된 다른 하나의 조각 이미지와 중첩되는 영역을 포함한다.
도 4는 본 발명의 일 실시예에 따른 조각 이미지 생성 과정을 설명하기 위한 도면이다.
도 4를 참조하면, 컴퓨팅 장치(12)는 입력된 이미지(400) 상에 기 설정된 크기의 윈도우(410)를 배치할 수 있다. 또한, 컴퓨팅 장치(12) 윈도우(410)를 입력된 이미지(400) 내에서 X축 방향 및 Y축 방향으로 기 설정된 거리만큼 순차적으로 이동시키면서, 윈도우(410) 내에 포함된 영역을 각각 입력된 이미지(400)에 대한 조각 이미지로 추출할 수 있다. 이때, 윈도우(410)의 X축 방향 이동 거리는 윈도우(410)의 X 축 방향 길이 보다 작게 설정될 수 있으며, 윈도우(410)의 Y 축 방향 이동 거리는 윈도우(301)의 Y 축 방향 길이 보다 작게 설정될 수 있다.
한편, 도 4에 도시된 예에서, 윈도우(410)의 크기, X축 방향 이동 거리 및 Y 축 방향 이동 거리는 생성할 조각 이미지의 개수, 분할 대상인 이미지의 크기에 따라 변경될 수 있다.
도 5 내지 도 8은 본 발명의 다른 실시예에 따른 조각 이미지 생성 과정을 설명하기 위한 도면이다.
도 5 내지 도 8을 참조하면, 우선, 컴퓨팅 장치(12)는 도 5에 도시된 예와 같이 입력된 이미지(500)를 4등분하여 제1 내지 제4 조각 이미지(510, 520, 530, 540)를 생성할 수 있다.
이후, 컴퓨팅 장치(12)는 도 6에 도시된 예와 같이 입력된 이미지(500)에서 제1 조각 이미지(510)의 하 반면과 제3 조각 이미지(530)의 상 반면에 해당하는 영역을 포함하는 제5 조각 이미지(550)를 생성할 수 있다. 또한, 컴퓨팅 장치(120)는 제2 조각 이미지(520)의 하 반면과 제4 조각 이미지(540)의 상 반면에 해당하는 영역을 포함하는 제6 조각 이미지(560)를 생성할 수 있다.
또한, 컴퓨팅 장치(12)는 도 7에 도시된 예와 같이 입력된 이미지(500)에서 제1 조각 이미지(510)의 우 반면과 제2 조각 이미지(520)의 좌 반면에 해당하는 영역을 포함하는 제7 조각 이미지(570)를 생성할 수 있다. 또한, 컴퓨팅 장치(12)는 입력된 이미지(500)에서 제3 조각 이미지(530)의 우 반면과 제4 조각 이미지(540)의 좌 반면에 해당하는 영역을 포함하는 제8 조각 이미지(580)를 생성할 수 있다.
이후, 컴퓨팅 장치(12)는 도 8에 도시된 예와 같이 입력된 이미지(500)에서 제7 조각 이미지(570)의 하 반면과 제8 조각 이미지(580)의 상 반면에 해당하는 영역을 포함하는 제9 조각 이미지(590)를 생성할 수 있다.
도 9 내지 도 14는 본 발명의 또 다른 실시예에 따른 조각 이미지 생성 과정을 설명하기 위한 도면이다.
도 9 내지 도 14를 참조하면, 우선, 컴퓨팅 장치(12)는 도 9에 도시된 예와 같이 입력된 이미지(600)를 4등분하여 제1 내지 제4 조각 이미지(610, 620, 630, 640)를 생성할 수 있다.
이후, 컴퓨팅 장치(12)는 도 10에 도시된 예와 같이 제1 조각 이미지(610)와 제3 조각 이미지(630)를 각각 상 반면과 하 반면으로 분할한 후, 제1 조각 이미지(610)의 하 반면과 제3 조각 이미지(630)의 상 반면을 결합하여 제5 조각 이미지(650)를 생성할 수 있다.
또한, 컴퓨팅 장치(120)는 도 11에 도시된 예와 같이 제2 조각 이미지(620)와 제4 조각 이미지(640)를 각각 상 반면과 하 반면으로 분할한 후, 제2 조각 이미지(620)의 하 반면과 제4 조각 이미지(640)의 상 반면을 결합하여 제6 조각 이미지(660)를 생성할 수 있다.
또한, 컴퓨팅 장치(12)는 도 12에 도시된 예와 같이 제1 조각 이미지(610)와 제2 조각 이미지(620)를 각각 좌 반면과 우 반면으로 분할한 후, 제1 조각 이미지(610)의 우 반면과 제2 조각 이미지(610)의 좌 반면을 결합하여 제7 조각 이미지(670)를 생성할 수 있다.
또한, 컴퓨팅 장치(12)는 도 13에 도시된 예와 같이 제3 조각 이미지(630)와 제4 조각 이미지(640)를 각각 좌 반면과 우 반면으로 분할한 후, 제3 조각 이미지(630)의 우 반면과 제4 조각 이미지(640)의 좌 반면을 결합하여 제8 조각 이미지(680)를 생성할 수 있다.
또한, 컴퓨팅 장치(12)는 도 14에 도시된 예와 같이 제1 내지 제4 조각 이미지(610, 620, 630, 640)를 각각 4 등분한 후, 제1 조각 이미지(610)의 4 사분면, 제2 조각 이미지(620)의 3 사분면, 제3 조각 이미지(630)의 1 사분면 및 제4 조각 이미지(640)의 2 사분면을 결합하여 제9 조각 이미지(690)를 생성할 수 있다.
한편, 도 15는 상술한 실시예들에 따라 생성된 1 세대 조각 이미지 세트의 일 예를 나타낸 도면이다.
도 15에 도시된 예와 같이, 1 세대 조각 이미지 세트는 9개의 조각 이미지들을 포함하고, 각 조각 이미지들은 다른 하나의 조각 이미지와 중첩되는 영역을 포함함을 확인할 수 있다.
한편, 상술한 예에서는, 입력된 이미지로부터 9개의 조각 이미지를 생성하는 것으로 가정하여 설명하였으나, 생성되는 조각 이미지의 수는 상술한 예와 달리 실시예에 따라 변동 가능하다.
또한, 입력된 이미지로부터 각각 다른 하나 이상의 조각 이미지와 중첩되는 영역을 포함하는 복수의 조각 이미지를 생성할 수만 있다면, 제1 조각 이미지 세트는 상술한 실시예들 외에도 다양한 방식에 의해 생성될 수 있다.
다시 도 2를 참조하면, 230 단계에서, 컴퓨팅 장치(12)는 1세대 조각 이미지 세트로부터 2 세대 이상의 조각 이미지 세트를 생성한다. 이때, 컴퓨팅 장치(12)는 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 적어도 하나를 중첩적으로 분할하여 후속 세대 조각 이미지를 생성한다.
구체적으로, 본 발명의 일 실시예에 따르면, 컴퓨팅 장치(12)는 i(이때, i는 i≥1인 정수) 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 적어도 하나를 중첩적으로 분할하여 i+1 세대 조각 이미지 세트를 생성할 수 있다.
이때, i+1 세대 조각 이미지 세트는 상술한 1세대 조각 이미지 세트 생성 방식과 동일한 방식을 이용하여 생성될 수 있다. 또한, 각 세대의 조각 이미지 세트에 포함된 복수의 조각 이미지 각각은 동일한 세대의 조각 이미지 세트에 포함된 다른 하나 이상의 조각 이미지와 중첩되는 영역을 포함할 수 있다.
도 16은 본 발명의 추가적인 실시예에 따른 이미지 분할 방법의 순서도이다.
도 16에 도시된 순서도에서, 810 단계 및 820 단계는 각각 도 2에 도시된 210 단계 및 220 단계와 동일하므로, 이에 대한 중복적인 설명은 생략한다.
도 16을 참조하면, 830 단계에서, 컴퓨팅 장치(12)는 현재 생성된 조각 이미지 세트의 세대 인덱스 값을 나타내는 i를 1로 설정한다.
840 단계에서, 컴퓨팅 장치(12)는 1 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 기 설정된 선택 조건을 만족하는 조각 이미지가 존재하는지 여부를 판단한다.
구체적으로, 본 발명의 일 실시예에 따르면, 컴퓨팅 장치(120)는 1 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각에 대하여 이미지 내 픽셀 유사도를 산출하고, 산출된 픽셀 유사도가 기 설정된 기준 값 이하인 조각 이미지를 선택할 수 있다. 이때, 픽셀 유사도는 예를 들어, 조각 이미지 내 픽셀들의 밝기, 색상 값, 주파수, 기울기(gradient) 등에 기초하여 산출될 수 있다.
한편, 1 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 기 설정된 선택 조건을 만족하는 조각 이미지가 존재하지 않는 경우, 컴퓨팅 장치(12)는 1 세대 조각 이미지 세트에 대한 후속 세대 조각 이미지 세트 생성을 종료한다.
반면, 1 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 기 설정된 선택 조건을 만족하는 하나 이상의 조각 이미지가 존재하는 경우, 850 단계에서, 컴퓨팅 장치(12)는 선택 조건을 만족하는 하나 이상의 조각 이미지를 각각 추가 분할 대상으로 선택한다.
추가 분할 대상 조각 이미지가 선택된 경우, 860 단계에서, 컴퓨팅 장치(12)는 선택된 조각 이미지 각각을 중첩적으로 분할하여 2 세대 조각 이미지 세트를 생성한다.
이후, 870 단계에서, 컴퓨팅 장치(12)는 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단한다.
이때, 본 발명의 일 실시예에 따르면, 컴퓨팅 장치(12)는 860 단계에서 생성된 2 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각의 크기 및 기 설정된 제1 기준 값에 기초하여 분할 종료 조건이 만족되었는지 여부를 판단할 수 있다. 예를 들어, 2 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 적어도 하나를 중첩적으로 분할하여 생성되는 조각 이미지의 크기가 제1 기준 값보다 작아지는 경우, 컴퓨팅 장치(12)는 분할 종료 조건이 만족된 것으로 판단할 수 있다. 이때, 제1 기준 값은 후술할 딥 러닝(deep learning) 기반의 이미지 분류기에 설정된 입력 이미지 크기와 동일하게 설정될 수 있다.
본 발명의 다른 실시예에 따르면, 컴퓨팅 장치(12)는 현재까지 생성된 조각 이미지 세트에 포함된 조각 이미지의 총 개수 및 기 설정된 제2 기준 값 에 기초하여 분할 조건이 만족되었는지 여부를 판단할 수 있다. 예를 들어, 컴퓨팅 장치(12)는 현재까지 생성된 조각 이미지 세트인 1 세대 및 2 세대 조각 이미지 세트에 포함된 조각 이미지들의 총 개수에 기초하여, 2 세대 조각 이미지 세트로부터 3 세대 조각 이미지 세트를 생성할 경우, 조각 이미지들의 총 개수가 제2 기준 값을 초과하게 되면 분할 종료 조건이 만족된 것으로 판단할 수 있다. 이때, 제2 기준 값은 예를 들어, 연산량을 고려하여 사용자에 의해 적절한 값으로 설정될 수 있다.
한편, 870 단계에서, 분할 종료 조건이 만족되지 않은 경우, 컴퓨팅 장치(12)는 세대 인덱스 값 i를 1만큼 증가 시킨 후, 상술한 분할 종료 조건이 만족되거나, i 세대 조각 이미지 세트에서 상술한 선택 조건을 만족하는 조각 이미지가 존재하지 않을 때까지 840 단계 내지 880 단계를 반복 수행하여 2 세대 이상의 조각 이미지 세트를 생성할 수 있다.
도 17은 본 발명의 일 실시예에 따라 생성된 조각 이미지 세트들의 일 예를 나타낸 도면이다.
도 17에 도시된 예에서는, 입력 이미지(A)로부터 1 세대 내지 3 세대 조각 이미지가 생성된 것으로 가정한다.
도 17을 참조하면, 우선 1 세대 조각 이미지 세트는 입력 이미지(A)를 중첩적으로 분할하여 생성된 9개의 조각 이미지들을 포함한다(A-1 내지 A-9).
또한, 2 세대 조각 이미지 세트는 각각 1 세대 조각 이미지 세트에 포함된 조각 이미지 중 A-7을 중첩적으로 분할하여 생성된 9개의 조각 이미지들(A-7-1 내지 A-7-9)과 A-9를 중첩적으로 분할하여 생성된 9개의 조각 이미지들(A-9-1 내지 A-9-9)을 포함한다.
또한, 3 세대 조각 이미지 세트는 각각 2 세대 조각 이미지 세트에 포함된 조각 이미지 중 A-7-4를 중첩적으로 분할하여 생성된 9개의 조각 이미지들(A-7-4-1 내지 A-7-4-9)과 A-9-2를 중첩적으로 분할하여 생성된 9개의 조각 이미지들(A-9-2-1 내지 A-9-2-9)을 포함한다.
한편, 본 발명의 일 실시예에 따르면, 컴퓨팅 장치(12)는 입력 이미지 및 생성된 조각 이미지 세트들 각각에 포함된 조각 이미지들 중 적어도 일부를 기 설정된 크기로 축소하여 축소된 이미지들을 포함하는 학습 이미지 세트를 생성할 수 있다. 이때, 기 설정된 크기는 딥 러닝 기반의 이미지 분류기에 설정된 입력 이미지 크기와 동일하게 설정될 수 있다.
또한, 컴퓨팅 장치(12)는 학습 이미지 세트를 이용하여 딥 러닝 기반의 이미지 분류기를 학습시킬 수 있다. 한편, 딥 러닝 기반의 이미지 분류기는 입력된 이미지의 인식 내지는 분류를 위한 것으로, 예를 들어, CNN(Convolution Neural Network) 모델일 수 있으나, 복수의 학습 이미지를 이용하여 학습 가능하다면 반드시 특정한 구조로 한정되는 것은 아니다.
도 18 및 도 19는 본 발명의 일 실시예에 따른 학습 이미지 세트 생성을 설명하기 위한 예시도이다.
도 18 및 도 19에 도시된 예에서는 설명의 편의를 위해 입력 이미지로부터 1 세대 조각 이미지 세트를 생성하고, 1 세대 조각 이미지 세트 중 하나의 조각 이미지(1010)로부터 2세대 조각 이미지 세트를 생성한 것으로 가정한다.
도 18을 참조하면, 컴퓨팅 장치(12)는, 예를 들어, 입력 이미지, 1 세대 조각 이미지 세트에 포함된 조각 이미지 및 2 세대 조각 이미지 세트에 포함된 조각 이미지 각각을 기 설정된 크기로 축소하여 축소된 이미지들을 포함하는 학습 이미지 세트를 생성할 수 있다.
다른 예로, 도 19를 참조하면, 컴퓨팅 장치(12)는, 입력 이미지 및 마지막 세대인 2 세대 조각 이미지 세트에 포함된 조각 이미지 각각을 기 설정된 크기로 축소할 수 있다.
또한, 컴퓨팅 장치(12)는 1 세대 조각 이미지 세트에 포함된 조각 이미지들 중 2 세대 조각 이미지 세트 생성을 위해 이용된 조각 이미지(1010)를 제외한 나머지 조각 이미지 각각을 기 설정된 크기로 축소할 수 있다.
이후, 컴퓨팅 장치(12)는 축소된 이미지들을 포함하는 학습 이미지 세트를 생성할 수 있다.
즉, 컴퓨팅 장치(12)는 입력 이미지로부터 1 세대 내지 n(이때, n은 n≥2인 정수) 세대 조각 이미지 세트가 생성된 경우, 실시예에 따라, 도 18에 도시된 예와 같이 1 세대 내지 n 세대 조각 이미지 세트에 포함된 전체 조각 이미지들을 학습 이미지 세트 생성을 위해 이용하거나, 도 19에 도시된 예와 같이 1 세대 내지 n-1 세대 조각 이미지 세트 각각에 포함된 조각 이미지들 중 후속 세대 생성을 위해 이용되지 않은 조각 이미지 및 n 세대 조각 이미지 세트에 포함된 조각 이미지를 학습 이미지 세트 생성을 위해 이용할 수 있다.
한편, 학습 이미지 세트 생성을 위한 조각 이미지 선택은 상술한 예 외에도 학습의 효율성, 학습 결과의 정확성, 연산량 등을 고려하여 다양한 방식으로 변형 실시 가능하다.
한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    (a) 이미지를 입력받는 단계;
    (b) 상기 입력된 이미지를 중첩적으로 분할하여 1 세대 조각 이미지 세트를 생성하는 단계;
    (c) 상기 1 세대 조각 이미지 세트로부터 2 세대 이상의 조각 이미지 세트를 생성하되, 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 적어도 하나를 중첩적으로 분할하여 후속 세대 조각 이미지 세트를 생성하는 단계를 포함하는, 이미지 분할 방법.
  2. 청구항 1에 있어서,
    j(이때, j는 j≥1인 정수) 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각은, 상기 j 세대 조각 이미지 세트에 포함된 다른 하나 이상의 조각 이미지와 중첩되는 영역을 포함하는, 이미지 분할 방법.
  3. 청구항 1에 있어서,
    상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 기 설정된 선택 조건을 만족하는 적어도 하나의 조각 이미지를 중첩적으로 분할하여 상기 후속 세대 조각 이미지 세트를 생성하는, 이미지 분할 방법.
  4. 청구항 3에 있어서,
    상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각에 대하여, 이미지 내 픽셀 유사도를 산출하는 단계; 및
    상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 상기 픽셀 유사도가 기 설정된 기준 값 이하인 조각 이미지 각각을 중첩적으로 분할하여 상기 후속 세대 조각 이미지 세트를 생성하는 단계를 포함하는, 이미지 분할 방법.
  5. 청구항 4에 있어서,
    상기 (c) 단계는, 상기 픽셀 유사도가 상기 기준 값 이하인 조각 이미지가 존재하지 않는 경우, 상기 후속 세대 조각 이미지 세트의 생성을 종료하는, 이미지 분할 방법.
  6. 청구항 1에 있어서,
    상기 (c) 단계는, 기 설정된 분할 종료 조건이 만족된 경우, 상기 후속 세대 조각 이미지 세트의 생성을 종료하는, 이미지 분할 방법.
  7. 청구항 6에 있어서,
    상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각의 크기 및 기 설정된 기준 값에 기초하여 상기 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단하는, 이미지 분할 방법.
  8. 청구항 6에 있어서,
    상기 (c) 단계는, 현재까지 생성된 조각 이미지 세트에 포함된 조각 이미지들의 총 개수 및 기 설정된 기준 값에 기초하여 상기 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단하는, 이미지 분할 방법.
  9. 청구항 1에 있어서,
    (d) 상기 입력된 이미지 및 상기 1 세대 내지 n(이때, n은 n≥2인 정수) 세대 조각 이미지 세트 각각에 포함된 복수의 조각 이미지 전체 또는 일부를 기 설정된 크기로 축소하는 단계를 더 포함하는, 이미지 분할 방법.
  10. 청구항 9에 있어서,
    (e) 상기 축소된 이미지를 이용하여 딥 러닝 기반의 이미지 분류기를 학습시키는 단계를 더 포함하는, 이미지 분할 방법.
  11. 하나 이상의 프로세서;
    메모리; 및
    하나 이상의 프로그램들을 포함하고,
    상기 하나 이상의 프로그램들은 상기 메모리에 저장되고, 상기 하나 이상의 프로세서들에 의해 실행되도록 구성되며,
    상기 하나 이상의 프로그램들은,
    (a) 이미지를 입력받는 단계;
    (b) 상기 입력된 이미지를 중첩적으로 분할하여 1 세대 조각 이미지 세트를 생성하는 단계;
    (c) 상기 1 세대 조각 이미지 세트로부터 2 세대 이상의 조각 이미지 세트를 생성하되, 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 적어도 하나를 중첩적으로 분할하여 후속 세대 조각 이미지 세트를 생성하는 단계를 실행하기 위한 명령어들을 포함하는, 이미지 분할 장치.
  12. 청구항 11에 있어서,
    j(이때, j는 j≥1인 정수) 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각은, 상기 j 세대 조각 이미지 세트에 포함된 다른 하나 이상의 조각 이미지와 중첩되는 영역을 포함하는, 이미지 분할 장치.
  13. 청구항 11에 있어서,
    상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 기 설정된 선택 조건을 만족하는 적어도 하나의 조각 이미지를 중첩적으로 분할하여 상기 후속 세대 조각 이미지 세트를 생성하는, 이미지 분할 장치.
  14. 청구항 13에 있어서,
    상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각에 대하여, 이미지 내 픽셀 유사도를 산출하는 단계; 및
    상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 중 상기 픽셀 유사도가 기 설정된 기준 값 이하인 조각 이미지 각각을 중첩적으로 분할하여 상기 후속 세대 조각 이미지 세트를 생성하는 단계를 포함하는, 이미지 분할 장치.
  15. 청구항 14에 있어서,
    상기 (c) 단계는, 상기 픽셀 유사도가 상기 기준 값 이하인 조각 이미지가 존재하지 않는 경우, 상기 후속 세대 조각 이미지 세트의 생성을 종료하는, 이미지 분할 장치.
  16. 청구항 11에 있어서,
    상기 (c) 단계는, 기 설정된 분할 종료 조건이 만족된 경우, 상기 후속 세대 조각 이미지 세트의 생성을 종료하는, 이미지 분할 장치.
  17. 청구항 16에 있어서,
    상기 (c) 단계는, 상기 이전 세대 조각 이미지 세트에 포함된 복수의 조각 이미지 각각의 크기 및 기 설정된 기준 값에 기초하여 상기 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단하는, 이미지 분할 장치.
  18. 청구항 16에 있어서,
    상기 (c) 단계는, 현재까지 생성된 조각 이미지 세트에 포함된 조각 이미지들의 총 개수 및 기 설정된 기준 값에 기초하여 상기 기 설정된 분할 종료 조건이 만족되었는지 여부를 판단하는, 이미지 분할 장치.
  19. 청구항 11에 있어서,
    상기 하나 이상의 프로그램들은,
    (d) 상기 입력된 이미지 및 상기 1 세대 내지 n(이때, n은 n≥2인 정수) 세대 조각 이미지 세트 각각에 포함된 복수의 조각 이미지 전체 또는 일부를 기 설정된 크기로 축소하는 단계를 실행하기 위한 명령어들을 더 포함하는, 이미지 분할 장치.
  20. 청구항 19에 있어서,
    상기 하나 이상의 프로그램들은,
    (e) 상기 축소된 이미지를 이용하여 딥 러닝 기반의 이미지 분류기를 학습시키는 단계를 실행하기 위한 명령어들을 더 포함하는, 이미지 분할 장치.
PCT/KR2019/006132 2018-05-31 2019-05-22 이미지 분할 방법 및 장치 WO2019231162A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/753,051 US11715197B2 (en) 2018-05-31 2019-05-22 Image segmentation method and device
EP19811854.9A EP3686841B1 (en) 2018-05-31 2019-05-22 Image segmentation method and device
CN201980004787.XA CN111164645A (zh) 2018-05-31 2019-05-22 图像分割方法及装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0062295 2018-05-31
KR1020180062295A KR102580062B1 (ko) 2018-05-31 2018-05-31 이미지 분할 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2019231162A1 true WO2019231162A1 (ko) 2019-12-05

Family

ID=68698290

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/006132 WO2019231162A1 (ko) 2018-05-31 2019-05-22 이미지 분할 방법 및 장치

Country Status (5)

Country Link
US (1) US11715197B2 (ko)
EP (1) EP3686841B1 (ko)
KR (1) KR102580062B1 (ko)
CN (1) CN111164645A (ko)
WO (1) WO2019231162A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507213A (zh) * 2020-04-03 2020-08-07 北京三快在线科技有限公司 图像识别方法、装置、存储介质及电子设备
US20230043089A1 (en) * 2021-08-04 2023-02-09 Samsung Electronics Co., Ltd. Super resolution sem image implementing device and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120045095A1 (en) * 2010-08-18 2012-02-23 Canon Kabushiki Kaisha Image processing apparatus, method thereof, program, and image capturing apparatus
KR20160015583A (ko) * 2014-07-31 2016-02-15 한국과학기술연구원 이미지 처리 장치 및 방법
US9430697B1 (en) * 2015-07-03 2016-08-30 TCL Research America Inc. Method and system for face recognition using deep collaborative representation-based classification

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110075935A1 (en) * 2009-09-25 2011-03-31 Sony Corporation Method to measure local image similarity based on the l1 distance measure
JP2014041455A (ja) * 2012-08-22 2014-03-06 Sony Corp 画像処理装置、画像処理方法、及びプログラム
KR101412727B1 (ko) 2013-11-15 2014-07-01 동국대학교 산학협력단 얼굴 인식 장치 및 방법
CN103903236B (zh) * 2014-03-10 2016-08-31 北京信息科技大学 人脸图像超分辨率重建的方法和装置
CN104318236B (zh) * 2014-10-28 2017-11-14 苏州科达科技股份有限公司 一种获取图像局部特征的方法及系统
CN104598885B (zh) * 2015-01-23 2017-09-22 西安理工大学 街景图像中的文字标牌检测与定位方法
CN105787466B (zh) * 2016-03-18 2019-07-16 中山大学 一种车辆类型的精细识别方法及系统
US20180060719A1 (en) 2016-08-29 2018-03-01 International Business Machines Corporation Scale-space label fusion using two-stage deep neural net
CN107832807B (zh) * 2017-12-07 2020-08-07 上海联影医疗科技有限公司 一种图像处理方法和系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120045095A1 (en) * 2010-08-18 2012-02-23 Canon Kabushiki Kaisha Image processing apparatus, method thereof, program, and image capturing apparatus
KR20160015583A (ko) * 2014-07-31 2016-02-15 한국과학기술연구원 이미지 처리 장치 및 방법
US9430697B1 (en) * 2015-07-03 2016-08-30 TCL Research America Inc. Method and system for face recognition using deep collaborative representation-based classification

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GALPIN, F. ET AL.: "AHG9: CNN-based driving of block partitioning for intra slices encoding", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3, no. JVET-J0034, 20 April 2018 (2018-04-20), San Diego, US, pages 1 - 12, XP030151206, Retrieved from the Internet <URL:http://phenix.int-evry.fr/jvet/> [retrieved on 20190813] *
GIRSHICK, ROSS ET AL.: "Region-based Convolutional Networks for Accurate Object Detection and Segmentation", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 38, no. 1, 1 January 2016 (2016-01-01), pages 142 - 158, XP011592792 *

Also Published As

Publication number Publication date
US11715197B2 (en) 2023-08-01
KR20190136493A (ko) 2019-12-10
EP3686841A4 (en) 2021-01-20
EP3686841B1 (en) 2023-02-22
US20200320711A1 (en) 2020-10-08
EP3686841A1 (en) 2020-07-29
CN111164645A (zh) 2020-05-15
KR102580062B1 (ko) 2023-09-19

Similar Documents

Publication Publication Date Title
WO2022050473A1 (ko) 카메라 포즈 추정 장치 및 방법
WO2018106005A1 (ko) 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 그 방법
WO2021054706A1 (en) Teaching gan (generative adversarial networks) to generate per-pixel annotation
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2019231162A1 (ko) 이미지 분할 방법 및 장치
WO2020045848A1 (ko) 세그멘테이션을 수행하는 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
WO2021194056A1 (en) Method for training deep learning network based on artificial intelligence and learning device using the same
WO2022131497A1 (ko) 이미지 생성을 위한 학습 장치 및 방법과 이미지 생성 장치 및 방법
EP3752978A1 (en) Electronic apparatus, method for processing image and computer-readable recording medium
WO2020060019A1 (ko) 글자 검출 장치, 방법 및 시스템
WO2020246655A1 (ko) 상황 인지 방법 및 이를 수행하는 장치
WO2021010671A9 (ko) 뉴럴 네트워크 및 비국소적 블록을 이용하여 세그멘테이션을 수행하는 질병 진단 시스템 및 방법
WO2016186236A1 (ko) 3차원 오브젝트의 색상 처리 시스템 및 방법
WO2021225296A1 (en) Method for explainable active learning, to be used for object detector, by using deep encoder and active learning device using the same
WO2021235682A1 (en) Method and device for performing behavior prediction by using explainable self-focused attention
WO2011078430A1 (ko) 다수의 특징점 기반 마커를 인식하기 위한 순차 검색 방법 및 이를 이용한 증강현실 구현 방법
WO2017003240A1 (ko) 영상 변환 장치 및 그 영상 변환 방법
CN109542766B (zh) 基于代码映射和词法分析的大规模程序相似性快速检测与证据生成方法
WO2020032560A2 (ko) 진단 결과 생성 시스템 및 방법
WO2020032561A2 (ko) 다중 색 모델 및 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
WO2023210884A1 (ko) 비지역적 평균 기반의 노이즈 제거 장치 및 방법
WO2019164277A1 (ko) 수술영상을 이용한 출혈 평가 방법 및 장치
WO2019225799A1 (ko) 딥러닝 생성 모델을 이용한 사용자 정보 삭제 방법 및 장치
WO2022124736A1 (ko) 웹툰 컨텐츠 재배치 방법 및 그 장치
WO2021256578A1 (ko) 이미지 캡션 자동 생성 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19811854

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019811854

Country of ref document: EP

Effective date: 20200424

NENP Non-entry into the national phase

Ref country code: DE