KR102046720B1 - Method for adjusting color of image and apparatus using the same - Google Patents

Method for adjusting color of image and apparatus using the same Download PDF

Info

Publication number
KR102046720B1
KR102046720B1 KR1020180084477A KR20180084477A KR102046720B1 KR 102046720 B1 KR102046720 B1 KR 102046720B1 KR 1020180084477 A KR1020180084477 A KR 1020180084477A KR 20180084477 A KR20180084477 A KR 20180084477A KR 102046720 B1 KR102046720 B1 KR 102046720B1
Authority
KR
South Korea
Prior art keywords
image
class
color
computing device
module
Prior art date
Application number
KR1020180084477A
Other languages
Korean (ko)
Inventor
박정혁
김영원
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Priority to KR1020180084477A priority Critical patent/KR102046720B1/en
Application granted granted Critical
Publication of KR102046720B1 publication Critical patent/KR102046720B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Abstract

The present invention relates to a method for adjusting the color of an image and an apparatus using the same. Specifically, according to the method of the present invention, a computing apparatus obtains an image, classifies a class for each of the image elements, which are individual elements constituting the image and obtains a result image by adjusting the color of each of the image elements by referring to the class. Therefore, the accuracy and efficiency of image classification can be increased.

Description

영상의 색상을 조정하는 방법 및 이를 이용한 장치{METHOD FOR ADJUSTING COLOR OF IMAGE AND APPARATUS USING THE SAME}METHOOD FOR ADJUSTING COLOR OF IMAGE AND APPARATUS USING THE SAME}

본 발명은 영상의 색상을 조정하는 방법 및 이를 이용한 장치에 관한 것이다. 구체적으로, 본 발명에 따른 방법에 의하면, 컴퓨팅 장치가, 영상을 획득하고, 상기 영상을 구성하는 개별 요소인 영상 요소 각각에 대한 클래스를 분류하며, 상기 영상 요소 각각에 대응되는 클래스를 참조로 하여 상기 영상 요소 각각의 색상을 조절함으로써 결과 영상을 획득한다.The present invention relates to a method for adjusting the color of an image and an apparatus using the same. Specifically, according to the method according to the present invention, the computing device acquires an image, classifies a class for each of the image elements which are individual elements constituting the image, and with reference to the class corresponding to each of the image elements The resultant image is obtained by adjusting the color of each of the image elements.

의료 영상, 예컨대 일반적인 RGB 이미지로서 보존될 수 있는 영상들은 촬영 장치의 특징과 주변 환경의 영향에 따라서 색상이 다소 변화하게 된다. 예컨대, 병리 영상의 경우 염색 방식의 차이 등으로 인하여 샘플 자체 혹은 샘플을 생성한 의료 기관마다 색상의 차이가 있으며, 이는 기계학습 알고리즘의 판단에 영향을 줄 수 있는 요소들 중의 하나이다.Medical images, such as those that can be preserved as a general RGB image, will change color somewhat depending on the characteristics of the imaging device and the influence of the surrounding environment. For example, in the case of pathological images, there is a color difference between the sample itself or the medical institution that generated the sample due to the difference in staining method, which is one of factors that may affect the judgment of the machine learning algorithm.

피부 질환을 포함하는, 피부 외부에서도 육안으로 관찰이 가능한 병변들에 대한, 혹은, 세포나 조직을 포함하는 신체 장기의 절편을 올린 전체 슬라이드를 스캐너 혹은 현미경으로 촬영한 영상(whole slide image) 등을 이용한 진단은 환자에 대한 치료 방법의 결정과 예후의 예측에 있어 결정적인 역할을 한다. 이러한 진단은 주로 조직과 세포의 형태를 고려하여 이루어진다. 이러한 진단은 동일 국가 내의 의료인들 사이에서뿐만 아니라 국가 간에도 차이가 있을 정도로 난이도가 높은 문제 중의 하나이다. 이 진단의 난이도는 의사의 경험과 직감에 크게 좌우되는데, 실제 임상에서는 경험이 많은 의사도 혼자서 진단을 내리기 모호한 경우가 빈번하다. 이는 의사 간 진단의 불일치와 자문, 재판독 등 의료 서비스의 낭비를 발생하게 하는 주요 원인 중의 하나이다.Scanning or microscopic images of lesions that can be seen with the naked eye from outside the skin, including skin diseases, or whole slides of sections of the body that contain cells or tissues. The diagnosis used plays a decisive role in the determination of treatment options and the prediction of prognosis for the patient. This diagnosis is mainly made by considering the type of tissue and cells. This diagnosis is one of the problems that is so difficult that there is a difference between not only medical practitioners in the same country but also between countries. The difficulty of this diagnosis largely depends on the doctor's experience and intuition. In practice, even an experienced doctor is often ambiguous to diagnose alone. This is one of the main reasons for the inconsistency of diagnosis between doctors and the waste of medical services such as advice and reread.

따라서 의료 영상을 이용한 인공지능 진단 보조의 효율을 높이기 위하여 영상간 색상 차이를 줄이거나 그와 같은 색상 차이에 대하여 강건한(robust) 모델을 구성하는 것이 필요하다.Therefore, in order to increase the efficiency of artificial intelligence diagnosis aid using medical images, it is necessary to reduce the color difference between images or construct a robust model for such color difference.

이를 위하여 본 개시서에서는 컬러로 된 의료 영상에 포함된 복수의 패치들을 이용하여 영상의 색상을 표준화 혹은 조정할 수 있도록 그 영상에 포함된 구조들(예컨대 세포체, 세포질, 배경 등)을 구분할 수 있는 모델, 이를 이용하여 색상을 표준화 혹은 조절하는 방법, 그리고 이들을 이용하여 패치 단위로 병변을 진단하는 방법을 학습한 인공 신경망 모델을 구성하는 시스템을 제안하고자 한다.To this end, in the present disclosure, a model capable of distinguishing structures (eg, cell body, cytoplasm, background, etc.) included in the image to standardize or adjust the color of the image using a plurality of patches included in the color medical image. In this paper, we propose a system for constructing an artificial neural network model that learns how to standardize or adjust colors using them, and how to diagnose lesions by patch.

본 발명은 인공지능에 의한 학습에 있어, 영상에 이용된 염색 또는 촬영 방식의 변화에 강건한 모델을 마련하는 데 도움이 되고, 분류 과정에 있어서의 신뢰도의 향상을 도모할 수 있으며, 레이블링 데이터가 있는 지도 학습뿐만 아니라 레이블링 데이터가 없는 경우에도 비지도 학습을 시행할 수 있게 하여 영상에 관한 클래스 분류의 적용성을 높이는 것을 일 목적으로 한다.The present invention helps to prepare a robust model for the change of the dyeing or photographing method used in the image in learning by artificial intelligence, and can improve the reliability in the classification process, and the labeling data It is an object of the present invention to enhance the applicability of class classification on an image by allowing unsupervised learning to be performed even when there is no labeling data as well as supervised learning.

이에 따라 본 발명은 궁극적으로 인공지능에 기반한 영상에 관한 판단, 예컨대 의료 영상의 진단에 있어서의 효율성 및 정확성을 향상시키는 것을 목적으로 한다.Accordingly, the present invention aims to ultimately improve the efficiency and accuracy in the determination of artificial intelligence based images, such as the diagnosis of medical images.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic constitution of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described below is as follows.

본 발명의 일 태양(aspect)에 따르면, 영상의 색상을 조정하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 상기 영상을 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, 상기 영상을 구성하는 개별 요소인 영상 요소 각각에 대한 클래스를 분류하거나 상기 타 장치로 하여금 분류하도록 지원하는 단계; 및 (c) 상기 컴퓨팅 장치가, 상기 영상 요소 각각에 대응되는 클래스를 참조로 하여 상기 영상 요소 각각의 색상을 조절함으로써 결과 영상을 획득하거나 상기 타 장치로 하여금 상기 색상을 조절함으로써 상기 결과 영상을 획득하도록 지원하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of adjusting the color of an image, the method comprising: (a) causing a computing device to acquire an image or cause another device to be linked to the computing device; Assisting to obtain; (b) classifying, by the computing device, or classifying the classifier for each of the image elements that are individual elements constituting the image or allowing the other device to classify the class; And (c) the computing device obtaining a resultant image by adjusting the color of each of the image elements with reference to a class corresponding to each of the image elements, or obtaining the resultant image by allowing the other device to adjust the color. Supporting the steps.

본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, there is also provided a computer program, stored on a machine-readable non-transitory recording medium comprising instructions implemented to perform a method according to the invention.

본 발명의 또 다른 태양에 따르면, 영상의 색상을 조정하는 컴퓨팅 장치가 제공되는바, 그 장치는, 영상을 획득하는 통신부; 및 (i) 상기 영상을 구성하는 개별 요소인 영상 요소 각각에 대한 클래스를 분류하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 분류하도록 지원하는 프로세스; 및 (ii) 상기 영상 요소 각각에 대응되는 클래스를 참조로 하여 상기 영상 요소 각각의 색상을 조절함으로써 결과 영상을 획득하거나 상기 타 장치로 하여금 상기 색상을 조절함으로써 상기 결과 영상을 획득하도록 지원하는 프로세스를 수행하는 프로세서를 포함한다.According to another aspect of the invention, there is provided a computing device for adjusting the color of an image, the device comprising: a communication unit for acquiring an image; And (i) classifying a class for each of the image elements, which are individual elements constituting the image, or supporting another device linked with the communication unit. And (ii) obtaining a result image by adjusting the color of each of the image elements with reference to a class corresponding to each of the image elements, or supporting the other device to obtain the result image by adjusting the color. It includes a processor to perform.

본 발명에 의하면 영상에 대한 분류의 정확성과 그 효율성의 증대를 촉진할 수 있는 효과가 있다.According to the present invention, there is an effect of facilitating an increase in accuracy and efficiency of classification of images.

또한, 본 발명에 의하면, 영상의 분류 정보를 영상과 함께 저장할 수 있어 편리한 효과가 있다.In addition, according to the present invention, it is possible to store the classification information of the image with the image, which has a convenient effect.

이와 같은 본 발명의 실시 예에 따른 효과는 특정 형식(modality)의 영상뿐만 아니라 널리 다양한 형식의 2차원 영상 또는 3차원 영상들에 적용될 수 있는바, 본 발명의 방법이 특정 형식이나 플랫폼에 종속되지 않음은 물론이다.Such an effect according to an embodiment of the present invention can be applied not only to a specific modality image but also to a wide variety of formats of 2D or 3D images, and thus the method of the present invention is not dependent on a specific format or platform. Of course not.

본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야의 통상의 기술자에게 있어서는 신규한 발명에 이르는 노력 없이도 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 따라 영상의 색상을 조정하는 방법(이하 "영상 색상 조정 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 발명에 따른 영상 색상 조정 방법을 수행하는 장치의 하드웨어 또는 소프트웨어 구성요소를 개략적으로 도시한 블록도이다.
도 3은 본 발명에 따른 영상 색상 조정 방법에 따라 입력된 영상으로부터 클래스별로 색상이 조절된 출력 영상이 획득되는 과정을 예시적으로 나타낸 블록도이다.
도 4는 도 3에 나타난 클래스 분류 모듈의 2가지 실시 예들을 나타낸 블록도이다.
도 5a는 도 2에 나타난 영상 클래스별 색상 조절 모듈의 일 실시예로서 통계에 기반한 방식에 의한 모듈을 예시적으로 나타낸 블록도이다.
도 5b는 도 2에 나타난 영상 클래스별 색상 조절 모듈의 다른 일 실시예로서 인공신경망을 포함한 기계학습 모듈을 예시적으로 나타낸 블록도이고, 도 5c는 도 5a 및 도 5b에 나타난 모듈들을 함께 개관한 블록도이다.
도 6은 본 발명에 따라 보유 또는 제공되는 결과 영상의 구성을 종래의 영상에 대비하여 개념적으로 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The following drawings, which are attached to be used in the description of the embodiments of the present invention, are merely some of the embodiments of the present invention, and to those skilled in the art to which the present invention pertains based on these drawings without efforts to reach a novel invention. Other drawings can be obtained.
1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device for performing a method of adjusting color of an image (hereinafter referred to as "image color adjusting method") according to the present invention.
2 is a block diagram schematically illustrating hardware or software components of an apparatus for performing a method for adjusting color of an image according to the present invention.
3 is a block diagram illustrating a process of obtaining an output image of which color is adjusted for each class from an input image according to the image color adjusting method according to the present invention.
FIG. 4 is a block diagram illustrating two embodiments of a class classification module shown in FIG. 3.
FIG. 5A is a block diagram illustrating an example of a module based on statistics as an example of the color adjustment module for each image class shown in FIG. 2.
FIG. 5B is a block diagram illustrating a machine learning module including an artificial neural network as another example of the image class color adjusting module shown in FIG. 2, and FIG. 5C is an overview of the modules shown in FIGS. 5A and 5B together. It is a block diagram.
6 is a view conceptually showing the configuration of the resultant image retained or provided according to the present invention as compared to the conventional image.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced to clarify the objects, technical solutions and advantages of the invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.

본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상", "이미지", "영상 데이터" 또는 "이미지 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭하며, 달리 말하자면, (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 대상 또는 (예컨대, 픽셀 혹은 복셀 출력에 대응되는 파일과 같은) 그 대상의 디지털 표현물을 지칭하는 용어이다.The terms "image", "image", "image data" or "image data" as used throughout the description and claims of the present invention refer to discrete image elements (e.g. pixels, two-dimensional images in two-dimensional images). Refers to multidimensional data consisting of voxels, or in other words, refers to a visually visible object (eg, displayed on a video screen) or a digital representation of that object (eg, a file corresponding to a pixel or voxel output). It is a term to refer to.

예를 들어 "영상"은 현미경 영상의 촬영과 같이 본 발명의 기술분야에서 공지된 임의의 영상 촬영 방식에 따라 수집된 피검체(subject)의 영상일 수 있다. 그러나 그 영상이 반드시 의료적 맥락에서 제공되어야 하는 것은 아니고 비의료적 맥락에서 제공될 수도 있다.For example, an "image" may be an image of a subject collected according to any imaging method known in the art, such as imaging a microscope image. However, the image is not necessarily provided in a medical context, but may be provided in a non-medical context.

설명의 편의를 위하여 제시된 도면에서는 예시적인 일부의 영상 형식(modality)이 도시되어 있으나 통상의 기술자는 본 발명의 다양한 실시 예에서 이용되는 영상 형식들이 현미경에 의하여 촬영된 영상을 포함하나 반드시 그 형식에 한정되지 않고 스캔을 요하는 다양한 영상을 포함할 수 있다는 점을 이해할 수 있을 것이다.In the drawings provided for convenience of description, some exemplary image modalities are illustrated, but a person skilled in the art includes images captured by a microscope, although the image formats used in various embodiments of the present disclosure are necessarily included in the format. It will be appreciated that it is possible to include various images that are not limited and require scanning.

그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.And throughout the description and claims of this invention, the word 'comprises' and variations thereof are not intended to exclude other technical features, additives, components or steps. In addition, "one" or "one" is used in more than one sense, and "other" is limited to at least a second or more.

본 개시서에서 언급되는 사용자는 단수만을 지칭하는 것이 아니라 영상, 특히 병리 영상 및 그 관련 데이터를 풍부하고 중첩적으로 획득하기 위한 목적의 복수 사용자를 지칭할 수도 있는바, 이에는 영상의 훈련(학습) 또는 실제 사용에 있어서 영상의 무결성(integrity)을 확보하기 위한 목적이 있을 수 있다.A user referred to in the present disclosure may not only refer to singular but may also refer to a plurality of users whose purpose is to obtain an image, especially a pathological image and its related data in a rich and overlapping manner, including training of images. ) Or in order to secure the integrity of the image in actual use.

통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 개시서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.Other objects, advantages and features of the present invention will become apparent to those skilled in the art, in part from this description and in part from the practice of the invention. The following examples and drawings are provided by way of illustration and are not intended to limit the invention. Accordingly, the details disclosed in this disclosure with respect to particular structures or functions are not to be interpreted in a limiting sense, but merely to provide a guide for a person skilled in the art to variously implement the present invention with any suitable structures. It should be interpreted as representative basic data.

더욱이 본 발명은 본 개시서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention encompasses all possible combinations of the embodiments indicated in this disclosure. It is to be understood that the various embodiments of the invention are different, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.

본 개시서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Unless otherwise indicated in the present disclosure or clearly contradicted by context, the item referred to in the singular encompasses the plural unless the context otherwise requires. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명에 따른 영상 색상 조정 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device for performing an image color adjustment method according to the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.Referring to FIG. 1, the computing device 100 according to an embodiment of the present invention includes a communication unit 110 and a processor 120, and directly or indirectly with an external computing device (not shown) through the communication unit 110. Can communicate with each other.

구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically, the computing device 100 may comprise typical computer hardware (eg, a computer processor, memory, storage, input and output devices, devices that may include components of other existing computing devices; routers, switches, etc.). Electronic communication devices; electronic information storage systems such as network-attached storage (NAS) and storage area networks (SANs) and computer software (ie, enabling computing devices to function in a particular manner). Combination of instructions) to achieve the desired system performance.

이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치, 프린터 등 인쇄장치, 디스플레이 장치, 기타 외부 출력장치를 포함할 수 있다.The communication unit 110 of such a computing device may transmit and receive a request and a response with another computing device to which the computing device is interworked. As an example, the request and response may be made by the same transmission control protocol (TCP) session. However, the present invention is not limited thereto, and may be transmitted and received as, for example, a user datagram protocol (UDP) datagram. In addition, in a broad sense, the communication unit 110 may include a keyboard, a mouse, another external input device, a printing device such as a printer, a display device, and other external output devices for receiving commands or instructions.

또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 120 of the computing device may include a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU), a neural processing unit (NPU) or a tensor processing unit (TPU), and a cache memory. ), And a hardware configuration such as a data bus. In addition, the operating system may further include a software configuration of an application performing a specific purpose.

도 2는 본 발명에 따른 영상 색상 조정 방법을 수행하는 장치의 하드웨어 또는 소프트웨어 구성요소를 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating hardware or software components of an apparatus for performing an image color adjusting method according to the present invention.

도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 영상 클래스별 색상 조절 모듈(200)을 포함할 수 있다. 이 영상 클래스별 색상 조절 모듈(200)은 본 발명에 따른 방법이 적용되는 영상을 획득하고, 획득된 영상에 대한 클래스 분류를 수행하며, 그 결과에 따라 클래스별로 영상의 색상을 조절하도록 구성된다. 색상이 조절된 결과 영상은 의료 영상 진단 인공신경망 모듈(300)에 입력되어 영상 진단에 이용될 수 있을 것이다.2, the computing device 100 may include a color adjustment module 200 for each image class as a component thereof. The color adjustment module 200 for each image class is configured to acquire an image to which the method according to the present invention is applied, classify the obtained image, and adjust the color of the image for each class according to the result. The color-adjusted result image may be input to the medical image diagnosis neural network module 300 and used for image diagnosis.

본 발명에 따른 클래스의 분류 결과, 색상이 조절된 결과 영상 등 처리 과정에서 산출되는 정보들은 그 중 적어도 일부가 외부 엔티티(external entity)에 제공될 수 있는바, 여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자, 상기 영상에 나타난 내용을 담당하는 담당 의료인 등을 포함하나, 이 이외에도 그 영상의 분류(판정, 판독 등)을 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. 외부 엔티티는 상기 정보를 이용하는 인공지능 주체(artificial intelligence entity)일 수도 있으며, 그 정보를 저장하기 위한 저장 장치 혹은 출력 장치일 수도 있다.Information calculated in the processing process, such as a classification result of the class according to the present invention, a color-adjusted result image, or the like may be provided to at least a part of the information in an external entity, which is referred to as the external entity. It is understood that the subject includes a user, an administrator of the computing device 100, a medical person in charge of the contents shown in the image, and any subject that requires classification (determination, reading, etc.) of the image. Should be. The external entity may be an artificial intelligence entity using the information, or may be a storage device or an output device for storing the information.

이와 같이 도 2에 도시된 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이며, 아래에서 그 기능 및 효과 등에 관하여 더 상세하게 설명될 것이다. 도 2에 나타난 모듈들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 장치(100)는 복수개의 장치들이 서로 연동되도록 구성될 수도 있으며, 이는 본 개시서에 첨부된 청구범위에 의하여 망라될 수 있다는 점이 이해될 것이다.As described above, the modules illustrated in FIG. 2 may be implemented by, for example, the communication unit 110 or the processor 120 included in the computing device 100, or the interworking of the communication unit 110 and the processor 120. It will be understood by those skilled in the art and will be described in more detail below with respect to the function and effect thereof. Although the modules illustrated in FIG. 2 are illustrated as being implemented in one computing device for convenience of description, the apparatus 100 for performing the method of the present invention may be configured such that a plurality of devices are interlocked with each other, which is attached to the present disclosure. It will be understood that it may be covered by the appended claims.

도 3은 본 발명에 따른 영상 색상 조정 방법에 따라 입력된 영상으로부터 클래스별로 색상이 조절된 출력 영상이 획득되는 과정을 예시적으로 나타낸 블록도이다.3 is a block diagram illustrating a process of obtaining an output image of which color is adjusted for each class from an input image according to the image color adjusting method according to the present invention.

도 3을 참조하여 설명하면, 본 발명에 따른 영상 색상 조정 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 영상 획득 모듈(미도시)이, 영상(1)을 획득하거나 상기 컴퓨팅 장치의 통신부(110)를 통하여 연동되는 타 장치(미도시)로 하여금 상기 영상을 획득하도록 지원하는 단계(S100; 미도시)를 포함한다.Referring to FIG. 3, in the image color adjusting method according to the present invention, an image acquisition module (not shown) implemented by the computing device 100 acquires an image 1 or communicates with the communication unit 110 of the computing device. (S100) (not shown) for supporting another device (not shown) interworking with each other to acquire the image.

다음으로, 본 발명에 따른 영상 색상 조정 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 영상 클래스별 색상 조절 모듈(200)의 클래스 분류 모듈(220)이, 상기 영상(1)을 구성하는 개별 요소인 영상 요소 각각에 대한 클래스를 분류하거나 상기 타 장치로 하여금 분류하도록 지원하는 단계(S200; 미도시)를 더 포함한다. 그 분류의 결과는 도 3에 참조부호 2로 예시된 바와 같다. 여기에서 클래스는, 예컨대, 세포체, 세포질 등으로 예시되어 있다.Next, in the image color adjustment method according to the present invention, the class classification module 220 of the color adjustment module 200 for each image class implemented by the computing device 100 constitutes the individual elements constituting the image 1. The method may further include classifying a class for each of the in-picture elements, or supporting the classifying device (S200) (not shown). The result of the classification is as illustrated by reference numeral 2 in FIG. 3. Classes are exemplified herein as, for example, cell bodies, cytoplasm, and the like.

도 4는 도 3에 나타난 클래스 분류 모듈(220)의 2가지 실시 예들(220a, 및 220b)을 나타낸 블록도이다.FIG. 4 is a block diagram illustrating two embodiments 220a and 220b of the class classification module 220 shown in FIG. 3.

도 4를 참조하면, 단계(S200)의 제1 실시 예를 수행하는 클래스 분류 모듈(220a)은, 합성곱 층(222a) 및 업샘플링 층(upsampling layer; 224a)을 포함하는 자기부호화기(autoencoder; 222a 및 224a) 및 클러스터링 모듈(clustering module; 228a)을 포함한다. 이 실시 예에서 합성곱 층(222a) 및 업샘플링 층(224a)은 훈련 손실값을 통하여 훈련되며, 클래스 분류 모듈(220a)은, 합성곱 층에서 얻어지는 값인 중간 특징값을 이용하여 훈련된 클러스터링 모듈(228a)의 결과값으로부터 상기 영상(1)에 대한 분류 정보를 획득한다. 합성곱 층의 특징 값으로부터 원래 크기의 영상을 재구성하기 위하여 크기 조절(226a)이 이루어질 수도 있다. 이와 같이 클래스가 분류된 결과를 저장하기 위한 데이터베이스(240)가 예시적으로 도시되어 있으나 이 데이터베이스(240)가 필수적인 것이 아님은 물론이다.Referring to FIG. 4, the class classification module 220a according to the first embodiment of step S200 may include an autoencoder including a product multiplication layer 222a and an upsampling layer 224a; 222a and 224a and clustering module 228a. In this embodiment, the convolutional layer 222a and the upsampling layer 224a are trained through a training loss value, and the class classification module 220a is trained using a clustered module trained using intermediate feature values, which are values obtained from the convolutional layer. The classification information for the image 1 is obtained from the result value of 228a. Size adjustment 226a may be made to reconstruct the original size image from the feature value of the convolutional product layer. As described above, a database 240 for storing the classified results of the classes is illustrated as an example, but it is a matter of course that the database 240 is not essential.

계속해서 도 4를 참조하면, 단계(S200)의 제2 실시 예를 수행하는 클래스 분류 모듈(220b)은, 다수의 훈련용 영상 및 훈련용 레이블링 정보를 이용하여 훈련된 U-Net 또는 U-Net과 유사한 구조(222b)를 포함한다. 이 훈련용 레이블링 정보는 정답 데이터라는 점에서 ground truth라고도 지칭된다. 이 실시 예에서 구조(222b)는 훈련 손실값을 통하여 훈련되며, 클래스 분류 모듈(220b)은 구조(222b)를 이용하여 분할(segmentation)을 수행한다. 마찬가지로 데이터베이스(240)가 필수적인 것이 아님은 물론이다.4, the class classification module 220b according to the second embodiment of step S200 may be trained using U-Net or U-Net trained using a plurality of training images and training labeling information. And similar structure 222b. This training labeling information is also called ground truth in that it is correct data. In this embodiment, structure 222b is trained through a training loss value, and class classification module 220b performs segmentation using structure 222b. Likewise, database 240 is not essential.

다음으로, 단계(S200)에서 클래스가 분류(2)된 후에, 본 발명에 따른 영상 색상 조정 방법은, 상기 컴퓨팅 장치(100)에 의하여 구현되는 영상 클래스별 색상 조절 모듈(200)의 통계 기반 영상 표준화 모듈(280a) 또는 클래스별 색상 변화 모듈(280b)이, 상기 영상 요소 각각에 대응되는 클래스를 참조로 하여 상기 영상 요소 각각의 색상을 조절함으로써 결과 영상(3)을 획득하거나 상기 타 장치로 하여금 상기 색상을 조절함으로써 상기 결과 영상(3)을 획득하도록 지원하는 단계(S300; 미도시)를 더 포함한다.Next, after the class is classified (2) in step (S200), the image color adjustment method according to the present invention, the statistics-based image of the color adjustment module 200 for each image class implemented by the computing device 100 The standardization module 280a or the class-specific color change module 280b adjusts the color of each of the image elements by referring to the class corresponding to each of the image elements, thereby obtaining the resultant image 3 or causing the other device to perform the operation. The method may further include assisting to obtain the resultant image 3 by adjusting the color (S300; not shown).

도 5a는 도 2에 나타난 영상 클래스별 색상 조절 모듈의 일 실시예로서 통계에 기반한 방식에 의한 모듈(200a)을 예시적으로 나타낸 블록도이며, 도 5b는 도 2에 나타난 영상 클래스별 색상 조절 모듈의 다른 일 실시예로서 인공신경망을 포함한 기계학습 모듈(200b)을 예시적으로 나타낸 블록도이고, 도 5c는 도 5a 및 도 5b에 나타난 모듈들을 함께 개관한 블록도이다.FIG. 5A is an exemplary block diagram illustrating a module 200a based on a statistic based method as an embodiment of the color class adjusting module for each image class shown in FIG. 2, and FIG. 5B is a color class adjusting module for each image class shown in FIG. 2. As another embodiment of the present invention, a block diagram showing an example of a machine learning module 200b including an artificial neural network is illustrated. FIG. 5C is a block diagram of the modules shown in FIGS. 5A and 5B together.

도 5a를 참조하면, 단계(S300)에서 통계 기반 영상 표준화 모듈(280a)이 이용되는 일 실시 예가 나타나 있는데, 이 실시 예에서 통계 기반 영상 표준화 모듈(280a)은 클래스별 색상 정보의 통계치를 이용하여 색상을 조절한다.Referring to FIG. 5A, an embodiment in which the statistics-based image standardization module 280a is used in step S300 is illustrated. In this embodiment, the statistics-based image standardization module 280a uses statistics of color information for each class. Adjust the color.

구체적으로, 의료 영상을 포함하는 데이터베이스로부터 각각의 영상이 획득되면, 영상 클래스별 색상 조절 모듈(200a)은, 클래스 분류 모듈(220)에 의하여 획득된 분류 정보를 이용하여 데이터베이스(260a)로부터 클래스별 색상 정보의 통계치를 얻고 이를 이용하여, 영상 표준화를 수행(280a)한다. In detail, when each image is obtained from a database including a medical image, the color adjustment module 200a for each image class may classify each class from the database 260a using the classification information obtained by the class classification module 220. A statistical value of color information is obtained and image normalization is performed using the image information (280a).

일 예시로서, 영상(1)에 포함된 모든 픽셀에 대하여, 영상 클래스별 색상 조절 모듈(200a)은, RGB 채널, LAB 채널 또는 다른 채널을 이용하여 클래스의 분류를 실시하고, 이를 LAB 채널로 변환한 후, 각각의 클래스에 대하여 채널별 평균과 분산을 계산할 수 있다. 이 평균과 분산을 포함하는 통계치를 이용하면 Color Transfer(Reinhard et al., 2001)로 알려진 통계 기반 색상 표준화 방법을 적용할 수 있으며, 클래스별로 영상을 표준화할 수 있다.As an example, for all pixels included in the image 1, the color adjustment module 200a for each image class classifies the class using an RGB channel, a LAB channel, or another channel, and converts the class into a LAB channel. After that, the average and variance of each channel can be calculated for each class. Using these averages and variances, a statistical-based color standardization method known as Color Transfer (Reinhard et al., 2001) can be applied, and images can be normalized by class.

게다가, 사용자는 필요에 따라 클래스의 개수(자연수)를 지정할 수 있는데, 클래스의 개수가 1인 경우에는 클래스 분류가 픽셀별(pixel-wise) 분류와 동치이다.In addition, the user can specify the number of classes (natural numbers) as necessary. When the number of classes is 1, the class classification is equivalent to the pixel-wise classification.

다음으로, 도 5b를 참조하면, 단계(S300)에서 클래스별 색상 임의 변화 모듈(280b)이 이용되는 다른 일 실시예가 나타나 있는데, 이 실시 예에서 클래스별 색상 임의 변화 모듈(280b)은 사용자에 의하여 지정된 클래스별 조절 변수 또는 훈련된 지정 모듈에 의하여 제공되는 클래스별 조절 변수에 응하여, 영상의 클래스별 색상을 변화시킨다.Next, referring to FIG. 5B, another embodiment in which the color random change module 280b for each class is used in step S300 is illustrated. In this embodiment, the color random change module 280b for each class is determined by a user. The color of each class of the image is changed in response to the designated class-specific adjustment variables or the class-specific adjustment variables provided by the trained designated module.

구체적으로, 의료 영상을 포함하는 데이터베이스로부터 각각의 영상이 획득되면, 영상 클래스별 색상 조절 모듈(200b)은, 클래스 분류 모듈(220)에 의하여 획득된 분류 정보를 이용하여 클래스별로 색상을 임의로 변화시켜 영상 표준화를 수행(280b)한다.In detail, when each image is obtained from a database including a medical image, the color adjustment module 200b for each image class randomly changes colors for each class by using classification information obtained by the class classification module 220. Image normalization is performed (280b).

그 일 예시로서, 영상(1)에 포함된 모든 픽셀에 대하여, 영상 클래스별 색상 조절 모듈(200b)이, 클래스를 나누고, 각각의 클래스에 대하여 사용자가 지정한 범위 내에서 색상을 임의로 변화시킨다. 사용자는 필요에 따라 클래스의 개수(자연수)를 지정할 수 있는데, 클래스의 개수가 1인 경우에는 픽셀별(pixel-wise) 분류와 동치이다. 이와 같이 색상이 임의로 변화된 영상들은 그 후 의료 영상 진단 인공신경망 모듈(300)의 훈련에 이용될 수 있다.As an example, for every pixel included in the image 1, the color adjustment module 200b for each image class divides the class, and randomly changes the color within a range specified by the user for each class. The user can specify the number of classes (natural numbers) as needed. If the number of classes is 1, this is equivalent to the pixel-wise classification. The images of which the color is arbitrarily changed may be used for training of the medical imaging diagnostic neural network module 300.

참고로, 도 5c는 도 5a의 실시 예 및 도 5b의 실시 예를 하나의 도면에 나타낸 것이다.For reference, FIG. 5C illustrates the embodiment of FIG. 5A and the embodiment of FIG. 5B in one drawing.

다시 도 3을 참조하여 설명하면, 본 발명의 영상 색상 조정 방법은, 획득된 결과 영상을 보유하거나 외부 엔티티에 제공하거나, 상기 타 장치로 하여금 보유 또는 제공하도록 지원하는 단계(S400)를 더 포함할 수 있다. Referring back to FIG. 3, the image color adjustment method of the present invention may further include the step of retaining or providing the obtained result image to an external entity, or supporting the other device to retain or provide the image (S400). Can be.

도 6은 본 발명에 따라 보유 또는 제공되는 결과 영상의 구성을 종래의 영상에 대비하여 개념적으로 나타낸 도면이다. 통상적으로 영상(600a)은, 각각의 색상 채널들, 예를 들어, R 채널, B 채널, G 채널 각각에 대응되는 R 채널 영상(610a), B 채널 영상(620a) 및 G 채널 영상(630a)을 포함하는데, 단계(S400)에서의 보유 또는 제공에서의 편의를 위하여 상기 결과 영상(3; 600b)은 R, B, G 채널 영상들(610b, 620b, 630b)뿐만 아니라 상기 영상에 대한 분류 정보(2)를 적어도 하나의 채널(640b 내지 660b)로서 포함할 수 있다. 클래스에 해당하는지 여부를 2진 분류 또는 다진 분류로 다루지 않고 각각의 클래스에 해당할 확률 혹은 신뢰도(confidence)로서 저장하는 경우에, 즉, 각각의 채널이 각각의 클래스에 대응되는 경우에, 상기 적어도 하나의 채널은 클래스의 개수만큼 마련될 수 있는바, 클래스의 개수가 3개라면, C1 채널 영상(640b), C2 채널 영상(650b), C3 채널 영상(660b)이 포함될 수 있을 것이다.6 is a view conceptually showing the configuration of the resultant image retained or provided according to the present invention as compared to the conventional image. Typically, the image 600a includes R channel images 610a, B channel images 620a, and G channel images 630a corresponding to respective color channels, for example, R channels, B channels, and G channels. For example, the resultant image 3 (600b) may include R, B, and G channel images 610b, 620b, and 630b, as well as classification information about the image, for convenience in holding or providing in operation S400. (2) may be included as at least one channel 640b to 660b. In the case of storing as a probability or confidence corresponding to each class without dealing with the class as a binary classification or a chopped classification, that is, when each channel corresponds to each class, the at least One channel may be provided as many as the number of classes. If the number of classes is three, the C1 channel image 640b, the C2 channel image 650b, and the C3 channel image 660b may be included.

한편, 본 발명의 영상 색상 조정 방법은, 컴퓨팅 장치(100)가, 상기 결과 영상을 이용하여 클래스를 분류하도록 구성된 소정의 기계학습 모델, 예컨대, 인공신경망 모델을 훈련하거나 상기 타 장치로 하여금 훈련하도록 지원하는 단계(S500)를 더 포함할 수 있다. 이 소정의 기계학습 모델은 예컨대 컴퓨팅 장치(100)에 의하여 구현되는 앞서 언급된 의료 영상 진단 인공신경망 모듈(300)에 포함된 모델로서 의료 영상의 진단을 위한 것일 수 있다.On the other hand, the image color adjustment method of the present invention, the computing device 100 to train a predetermined machine learning model, for example, artificial neural network model configured to classify the class using the resultant image or to let the other device to train. Supporting step (S500) may further include. The predetermined machine learning model may be, for example, a model included in the aforementioned medical imaging diagnostic neural network module 300 implemented by the computing device 100, for diagnosing a medical image.

지금까지의 설명에 의하여 본 발명은 그 모든 실시 예 및 변형례에 걸쳐, 클래스마다 영상에 대한 색상 조정을 수행하여, 영상에 대한 분류의 정확성과 그 효율성의 증대를 촉진할 수 있는 효과를 가진다는 점이 설명되었는바, 위 실시 예들의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. According to the description so far, the present invention has the effect of facilitating the improvement of the classification and the efficiency of the classification of the image by performing the color adjustment for the image for each class in all the embodiments and modifications thereof. Having been described, based on the description of the above embodiments, one of ordinary skill in the art will appreciate that the method and / or processes of the present invention and the steps of the hardware and software are suitable for the specific application. It can be clearly understood that it can be realized in combination.

위에서 설명된 기능들 및 프로세스 단계들은 자동으로 수행되거나 전부 또는 일부 사용자 명령(user command)에 대한 응답으로서 수행될 수 있다. 자동으로 수행되는 (단계를 포함하는) 작용(activity)은 상기 작용의 사용자에 의한 직접 개시(direct initiation) 없이 하나 이상의 실행 가능한 명령어들(instructions) 또는 장치 작동(device operation)에 대한 응답으로서 수행된다.The functions and process steps described above may be performed automatically or in response to all or some user commands. Activity (including steps) performed automatically is performed in response to one or more executable instructions or device operation without direct initiation by the user of the action. .

상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. The hardware may include a general purpose computer and / or a dedicated computing device or a particular aspect or component of a particular computing device or a specific computing device. The processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors or other programmable devices having internal and / or external memory. In addition, or alternatively, the processes may be configured to process an application specific integrated circuit (ASIC), a programmable gate array, a programmable array logic (PAL), or electronic signals. It can be implemented in any other device or combination of devices that are present. Furthermore, the objects of the technical solution of the present invention or the portions contributing to the prior art can be embodied in the form of program instructions that can be executed by various computer components and recorded in a machine-readable recording medium. The machine-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the machine-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts. Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, Blu-rays, and magnetic-optical media such as floptical disks. (magneto-optical media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include, but are not limited to storing and compiling or interpreting for execution on any one of the foregoing devices, as well as on a machine capable of executing a heterogeneous combination of a processor, processor architecture or combinations of different hardware and software, or any other program instructions. Can be made using a structural programming language such as C, an object-oriented programming language such as C ++, or a high or low level programming language (assembly, hardware description languages and database programming languages and technologies), including machine code, This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter.

따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.Thus, in one aspect according to the present invention, when the methods and combinations described above are performed by one or more computing devices, the methods and combinations of methods can be implemented as executable code that performs each step. In another aspect, the method may be practiced as systems that perform the steps, and the methods may be distributed in various ways across the devices or all the functions may be integrated into one dedicated, standalone device or other hardware. In another aspect, the means for performing the steps associated with the processes described above may include any hardware and / or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.

예를 들어, 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.For example, the hardware device may be configured to operate as one or more software modules to perform a process according to the present invention, and vice versa. The hardware device may include a processor, such as an MPU, CPU, GPU, TPU, coupled with a memory, such as a ROM / RAM for storing program instructions, and configured to execute the instructions stored in the memory, the external device and the signal It may include a communication unit that can send and receive. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving instructions written by developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 첨부된 도면들의 시스템 및 프로세스들은 배타적인 것이 아니다. 다른 시스템들, 프로세스들 및 메뉴들이 동일한 목적을 달성하기 위하여 본 발명의 원리에 따라 도출될 수 있다. 비록 본 발명이 특정 실시 예들을 참조하여 설명되었지만, 본 개시서에서 도시되고 설명된 실시 예들 및 변형례들이 설명을 위한 목적만을 가진 것임이 이해될 것이다. 본 발명의 보호범위에서 일탈됨 없이 본 개시서의 설계에 대한 변경물이 통상의 기술자에 의하여 구현될 수 있을 것이다. 본 개시서에서 설명된 바와 같이 다양한 시스템들, 부수 시스템들, 에이전트들(agents), 관리자들(managers) 및 프로세스들이 하드웨어 구성요소, 소프트웨어 구성요소 및/또는 그것들의 조합을 이용하여 구현될 수 있다.Although the present invention has been described in terms of specific embodiments such as specific components and the like, and limited embodiments and drawings, the systems and processes of the accompanying drawings are not exclusive. Other systems, processes and menus may be derived in accordance with the principles of the present invention to achieve the same purpose. Although the present invention has been described with reference to specific embodiments, it will be understood that the embodiments and variations shown and described herein are for illustrative purposes only. Modifications to the design of the present disclosure may be implemented by those skilled in the art without departing from the scope of protection of the present invention. Various systems, ancillary systems, agents, managers, and processes as described in this disclosure can be implemented using hardware components, software components, and / or combinations thereof. .

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the appended claims, fall within the scope of the spirit of the present invention. I will say.

그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalent or equivalent modifications will include, for example, logically equivalent methods capable of producing the same results as those of the method according to the invention, the spirit and scope of the invention being Is not to be limited by the foregoing examples, but is to be understood in the broadest sense acceptable by law.

Claims (13)

영상의 색상을 조정(adjust)하는 방법에 있어서,
(a) 컴퓨팅 장치에 의하여 구현되는 영상 획득 모듈이, 영상을 획득하거나 상기 컴퓨팅 장치의 통신부를 통하여 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 상기 영상을 획득하도록 지원하는 단계;
(b) 상기 컴퓨팅 장치에 의하여 구현되는 클래스 분류 모듈이, 상기 영상을 구성하는 개별 요소인 영상 요소 각각에 대한 클래스를 분류하거나 상기 타 장치로 하여금 분류하도록 지원하는 단계;
(c) 상기 컴퓨팅 장치에 의하여 구현되는 통계 기반 영상 표준화 모듈 또는 클래스별 색상 변화 모듈이, 상기 영상 요소 각각에 대응되는 클래스를 참조로 하여 상기 클래스에 대응되는 영상 표준화가 수행되는 방향으로 상기 영상 요소 각각의 색상을 조절한 결과인 결과 영상을 상기 영상으로부터 획득하거나 상기 타 장치로 하여금 상기 결과 영상을 상기 영상으로부터 획득하도록 지원하는 단계; 및
(d) 상기 컴퓨팅 장치의 상기 통신부가, 상기 결과 영상을 보유하거나 외부 엔티티(external entity)에 제공하거나, 상기 타 장치로 하여금 보유 또는 제공하도록 지원하는 단계
를 포함하되,
상기 (c) 단계는,
클래스별 색상 정보의 통계치를 이용하여 수행되는 것, 또는
사용자에 의하여 지정되거나 훈련된 지정 모듈에 의하여 제공되는 클래스별 조절 변수에 응하여, 클래스별 색상을 변화시킴으로써 수행되는 것
을 특징으로 하고,
상기 결과 영상은 색상 채널들 및 상기 영상에 대한 분류 정보를 나타낸 적어도 하나의 채널을 포함하는 것을 특징으로 하는 영상 색상 조정 방법.
In the method of adjusting the color of the image,
(a) the image obtaining module implemented by the computing device, obtaining an image or supporting another device linked to the computing device through a communication unit of the computing device to acquire the image;
(b) a class classification module implemented by the computing device, classifying a class for each of the image elements which are individual elements constituting the image, or supporting the other device to classify the class;
(c) the image element in a direction in which a statistical based image standardization module or a color change module for each class implemented by the computing device refers to a class corresponding to each of the image elements to perform image normalization corresponding to the class. Acquiring a result image from the image or the other device to obtain the result image from the image; And
(d) the communication unit of the computing device retaining or providing the resultant image to an external entity or assisting the other device to hold or provide it.
Including,
In step (c),
Performed using statistics of color information per class, or
Performed by changing the color of a class in response to class-specific adjustment variables provided by a user-designated or trained assignment module
Characterized by,
And the resultant image includes color channels and at least one channel representing classification information about the image.
삭제delete 제1항에 있어서,
(e) 상기 컴퓨팅 장치의 프로세서가, 상기 결과 영상을 이용하여 클래스를 분류하도록 구성된 소정의 기계학습 모델을 훈련하거나 상기 타 장치로 하여금 훈련하도록 지원하는 단계
를 더 포함하는 영상 색상 조정 방법.
The method of claim 1,
(e) the processor of the computing device training or assisting the other device to train a machine learning model configured to classify the class using the resulting image.
Image color adjustment method further comprising.
제1항에 있어서,
상기 (b) 단계는,
합성곱 층 및 업샘플링 층(upsampling layer)을 포함하는 자기부호화기(autoencoder) 및 클러스터링 모듈(clustering module)을 이용하여 수행되되, 상기 클래스의 분류는, 상기 합성곱 층에서 얻어지는 값인 중간 특징값을 이용하여 훈련된 상기 클러스터링 모듈의 결과값으로부터 상기 영상에 대한 분류 정보를 획득함으로써 수행되는 것을 특징으로 하는 영상 색상 조정 방법.
The method of claim 1,
In step (b),
Performed using an autoencoder and a clustering module comprising a multiplication product layer and an upsampling layer, the classification of the class using an intermediate feature value that is a value obtained in the multiplication product layer. And classifying information on the image from the trained clustering module result.
제1항에 있어서,
상기 (b) 단계는,
다수의 훈련용 영상 및 훈련용 레이블링 정보를 이용하여 훈련된 U-Net 또는 상기 U-Net의 유사 구조를 이용한 분할(segmentation; 세그먼테이션)에 의하여 수행되는 것을 특징으로 하는 영상 색상 조정 방법.
The method of claim 1,
In step (b),
And a segmentation using a U-Net trained using a plurality of training images and training labeling information or a similar structure of the U-Net.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 적어도 하나의 채널은 각각 하나의 클래스에 대응되는 것을 특징으로 하는 영상 색상 조정 방법.
The method of claim 1,
And the at least one channel corresponds to one class each.
컴퓨팅 장치로 하여금, 제1항, 제3항 내지 제5항 및 제9항 중 어느 한 항의 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램.A computer program stored on a machine-readable non-transitory recording medium comprising instructions implemented to cause a computing device to perform the method of any one of claims 1, 3-5 and 9. . 영상의 색상을 조정(adjust)하는 컴퓨팅 장치에 있어서,
영상을 획득하는 통신부; 및
(i) 상기 영상을 구성하는 개별 요소인 영상 요소 각각에 대한 클래스를 분류하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 분류하도록 지원하는 프로세스; 및 (ii) 상기 영상 요소 각각에 대응되는 클래스를 참조로 하여 상기 클래스에 대응되는 영상 표준화가 수행되는 방향으로 상기 영상 요소 각각의 색상을 조절한 결과인 결과 영상을 상기 영상으로부터 획득하거나 상기 타 장치로 하여금 상기 결과 영상을 상기 영상으로부터 획득하도록 지원하는 프로세스를 수행하는 프로세서
를 포함하되,
상기 프로세서는,
(iii) 상기 결과 영상을 보유하거나 외부 엔티티(external entity)에 제공하거나, 상기 타 장치로 하여금 보유 또는 제공하도록 지원하는 프로세스를 더 수행하고,
상기 (ii) 프로세스는,
클래스별 색상 정보의 통계치를 이용하여 수행되는 것, 또는
사용자에 의하여 지정되거나 훈련된 지정 모듈에 의하여 제공되는 클래스별 조절 변수에 응하여, 클래스별 색상을 변화시킴으로써 수행되는 것
을 특징으로 하고,
상기 결과 영상은,
상기 영상에 대한 분류 정보를 적어도 하나의 채널로서 포함하는 것을 특징으로 하는 영상 색상 조정 장치.
In a computing device that adjusts the color of an image,
Communication unit for obtaining an image; And
(i) a process of classifying a class for each of the image elements, which are individual elements constituting the image, or allowing other devices to be interlocked through the communication unit to classify; And (ii) obtaining a resultant image from the image or the other device as a result of adjusting the color of each image element in a direction in which image standardization corresponding to the class is performed by referring to a class corresponding to each of the image elements. A processor that performs a process for assisting the user to obtain the resultant image from the image
Including,
The processor,
(iii) further performing a process of retaining or providing the resultant image to an external entity, or assisting the other device to retain or provide,
The process (ii),
Performed using statistics of color information per class, or
Performed by changing the color of a class in response to class-specific adjustment variables provided by a user-designated or trained assignment module
Characterized by,
The resulting image,
And color classification information of the image as at least one channel.
삭제delete 제11항에 있어서,
상기 프로세서는,
상기 결과 영상을 이용하여 클래스를 분류하도록 구성된 소정의 기계학습 모델을 훈련하거나 상기 타 장치로 하여금 훈련하도록 지원하는 프로세스를 더 포함하는 영상 색상 조정 장치.
The method of claim 11,
The processor,
And training a predetermined machine learning model configured to classify a class using the resultant image, or assisting the other apparatus to train.
KR1020180084477A 2018-07-20 2018-07-20 Method for adjusting color of image and apparatus using the same KR102046720B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180084477A KR102046720B1 (en) 2018-07-20 2018-07-20 Method for adjusting color of image and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180084477A KR102046720B1 (en) 2018-07-20 2018-07-20 Method for adjusting color of image and apparatus using the same

Publications (1)

Publication Number Publication Date
KR102046720B1 true KR102046720B1 (en) 2019-11-19

Family

ID=68771133

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180084477A KR102046720B1 (en) 2018-07-20 2018-07-20 Method for adjusting color of image and apparatus using the same

Country Status (1)

Country Link
KR (1) KR102046720B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111861940A (en) * 2020-07-31 2020-10-30 中国科学院深圳先进技术研究院 Image toning enhancement method based on condition continuous adjustment
CN113705620A (en) * 2021-08-04 2021-11-26 百度在线网络技术(北京)有限公司 Training method and device for image display model, electronic equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150010515A (en) * 2013-07-19 2015-01-28 삼성전자주식회사 Apparatus and method for photographing a medical image
KR20180051367A (en) * 2016-11-08 2018-05-16 삼성전자주식회사 method and device for adjusting an image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150010515A (en) * 2013-07-19 2015-01-28 삼성전자주식회사 Apparatus and method for photographing a medical image
KR20180051367A (en) * 2016-11-08 2018-05-16 삼성전자주식회사 method and device for adjusting an image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111861940A (en) * 2020-07-31 2020-10-30 中国科学院深圳先进技术研究院 Image toning enhancement method based on condition continuous adjustment
CN113705620A (en) * 2021-08-04 2021-11-26 百度在线网络技术(北京)有限公司 Training method and device for image display model, electronic equipment and storage medium
CN113705620B (en) * 2021-08-04 2023-08-15 百度在线网络技术(北京)有限公司 Training method and device for image display model, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
Chowdhury et al. A random forest classifier-based approach in the detection of abnormalities in the retina
US11593943B2 (en) RECIST assessment of tumour progression
US10402979B2 (en) Imaging segmentation using multi-scale machine learning approach
US10932662B2 (en) System and method of otoscopy image analysis to diagnose ear pathology
WO2020260936A1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
Bechar et al. Semi-supervised superpixel classification for medical images segmentation: application to detection of glaucoma disease
US10610098B1 (en) Generalized retinal image screening system (GRIS)
WO2006105473A2 (en) Automatic detection of red lesions in digital color fundus photographs
US11741598B2 (en) Method for aiding visualization of lesions in medical imagery and apparatus using the same
Palma et al. Detection of masses and architectural distortions in digital breast tomosynthesis images using fuzzy and a contrario approaches
WO2022088665A1 (en) Lesion segmentation method and apparatus, and storage medium
Amelard et al. Melanoma decision support using lighting-corrected intuitive feature models
JP7294695B2 (en) Program, Information Recording Medium, Classification Apparatus, and Classification Method Based on Trained Model
KR102372200B1 (en) Method and apparatus for classification of lesion based on learning data applying one or more augmentation method in lesion information augmented patch of medical image
Li et al. Automated analysis of diabetic retinopathy images: principles, recent developments, and emerging trends
KR20190042429A (en) Method for image processing
KR102046720B1 (en) Method for adjusting color of image and apparatus using the same
KR101925603B1 (en) Method for faciliating to read pathology image and apparatus using the same
CA3202916A1 (en) Automatic annotation of condition features in medical images
CN113313680A (en) Colorectal cancer pathological image prognosis auxiliary prediction method and system
das Chagas et al. Fast fully automatic skin lesions segmentation probabilistic with Parzen window
JP2024027078A (en) Multi-scale whole slide pathological feature fusion extraction method, system, electronic equipment and storage medium
Sadhana et al. An intelligent technique for detection of diabetic retinopathy using improved alexnet model based convoluitonal neural network
Shen et al. Multicontext multitask learning networks for mass detection in mammogram
KR101923962B1 (en) Method for facilitating medical image view and apparatus using the same

Legal Events

Date Code Title Description
GRNO Decision to grant (after opposition)
GRNT Written decision to grant