KR101893557B1 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
KR101893557B1
KR101893557B1 KR1020170183860A KR20170183860A KR101893557B1 KR 101893557 B1 KR101893557 B1 KR 101893557B1 KR 1020170183860 A KR1020170183860 A KR 1020170183860A KR 20170183860 A KR20170183860 A KR 20170183860A KR 101893557 B1 KR101893557 B1 KR 101893557B1
Authority
KR
South Korea
Prior art keywords
image
object
color
object image
range
Prior art date
Application number
KR1020170183860A
Other languages
Korean (ko)
Inventor
김원태
강신욱
이명재
김동민
김필수
문태준
Original Assignee
(주)제이엘케이인스펙션
대한민국(관세청장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제이엘케이인스펙션, 대한민국(관세청장) filed Critical (주)제이엘케이인스펙션
Priority to KR1020170183860A priority Critical patent/KR101893557B1/en
Application granted granted Critical
Publication of KR101893557B1 publication Critical patent/KR101893557B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Abstract

Provided are a method and an apparatus for processing an image based on color distribution information of an image. The method for processing an image comprises the steps of: receiving an analysis target image; extracting an object included in the analysis target image; dividing an object image including the object into one or more regions; obtaining color distribution information for each of the one or more regions; determining one or more weighted values for at least a part of the one or more regions; and generating a first output image for the object image by applying the one or more determined weighted values to at least a part of the one or more regions.

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD} Image processing apparatus and method {IMAGE PROCESSING APPARATUS AND METHOD}

본 개시는 영상 처리 장치 및 방법에 관한 것이다. This disclosure relates to image processing apparatus and method. 보다 구체적으로, 본 개시는 영상의 색상 분포 정보에 기초한 영상 처리 장치, 방법 및 본 개시의 영상 처리 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 관한 것이다. More particularly, the present disclosure relates to a computer-readable recording medium recording a program for executing the image processing apparatus, method, and image processing method of the present disclosure based on the color distribution of the image information.

객체 인식은 임의의 영상 내에서 객체로 인식된 영역을 기설정된 복수의 부류(class) 중 하나로 인식하는 프로세싱으로서, 객체를 보다 명확하게 구분하기 위한 다양한 영상 처리 기법들이 제시되고 있다. Object recognition is a processing of recognizing one of the plurality of classes a predetermined area recognized as an object in any image (class), has been suggested a variety of image processing techniques to more clearly distinguish the object.

한편, 전자 통관 시스템에서 이용되는 영상은, 보다 효과적인 영상 판독을 위해 일반적으로 영상에 포함되어 있는 객체들의 물성(예를 들어, 해당 객체가 유기물, 무기물, 금속 등인지 여부)에 따라 다른 색상이 사용된다. On the other hand, an image used in the electronic clearance system, the physical properties of objects that are commonly included in images for better image interpretation of different colors used in accordance with the (e. G., Whether the object is organic material, inorganic material, metal, etc.) do. 그러나, 해당 객체의 외형적인 형상, 명암의 차이, 객체 고유의 X-Ray 감쇄율, 관측 각도 등의 다양한 요인으로 인해 영상에서 해당 객체들을 명확하게 파악하기 어렵다는 문제가 있다. However, it is difficult to clearly identify the object in the image due to various factors such as the external shape, the difference in contrast, the object-specific X-Ray attenuation, the observation angle of the object.

본 개시의 기술적 과제는, 영상 처리 장치 및 방법을 제공하는 것이다. Aspect of the present disclosure is to provide an image processing apparatus and method.

본 개시의 다른 기술적 과제는, 영상의 색상 분포 정보에 기초한 영상 처리 장치 방법을 제공하는 것이다. Another aspect of this disclosure is to provide a video processing device a method based on the color distribution of the image information.

본 개시의 또 다른 기술적 과제는, 영상의 색상 분포 정보에 기초하여 색상 별 가중치를 다르게 적용하는 영상 처리 장치 및 방법을 제공하는 것이다. Another object of the present disclosure, on the basis of the color distribution of the image information to provide a video processing apparatus and method for applying a different color by weight.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. SUMMARY OF THE INVENTION In the present disclosure are not limited to the technical problem mentioned above, is not mentioned another technical problem will be clearly understood to those of ordinary skill in the art that the present disclosure from the following description It will be.

본 개시의 일 양상에 따르면, 분석 대상 영상을 수신하는 영상 수신부; According to one aspect of the present disclosure, an image receiving unit that receives an analysis target image; 상기 분석 대상 영상에 포함되어 있는 객체를 추출하고, 상기 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할하는 객체 영상 추출부; The analysis extracts the object included in the object image and the object images extracted for dividing the object image containing the object into one or more sub-areas; 상기 하나 이상의 영역들 각각에 대해 색상 분포 정보를 획득하고, 상기 색상 분포 정보에 기초하여, 상기 하나 이상의 영역들 중 적어도 일부에 대해 하나 이상의 가중치를 결정하는 색상 분포 분석부; The at least one region of the color distribution information obtained for each of the color distribution based on the color distribution information, determining said one or more regions of one or more weights to at least some analysis unit; 및 상기 결정된 하나 이상의 가중치를 상기 하나 이상의 영역들 중 적어도 일부에 적용하여 상기 객체 영상에 대한 제1 출력 영상을 생성하는 영상 강화부를 포함하는 영상 처리 장치가 제공될 수 있다. And it may be provided an image processing apparatus including a reinforced image to generate a first output image for the object image by applying to at least a portion of said one or more areas of one or more of the weight determined above.

본 개시의 다른 양상에 따르면, 분석 대상 영상을 수신하는 단계; According to another aspect of the disclosure, the method comprising: receiving a target image analysis; 상기 분석 대상 영상에 포함되어 있는 객체를 추출하는 단계; Extracting the object included in the analysis target image; 상기 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할하는 단계; Dividing the object image containing the object into one or more regions; 상기 하나 이상의 영역들 각각에 대해 색상 분포 정보를 획득하는 단계; Obtaining a color distribution information for each of the at least one region; 상기 색상 분포 정보에 기초하여, 상기 하나 이상의 영역들 중 적어도 일부에 대해 하나 이상의 가중치를 결정하는 단계; Determining one or more weights to at least some of the one or more regions on the basis of the color distribution information; 및 상기 결정된 하나 이상의 가중치를 상기 하나 이상의 영역들 중 적어도 일부에 적용하여 상기 객체 영상에 대한 제1 출력 영상을 생성하는 단계를 포함하는 영상 처리 방법이 제공될 수 있다. And it can be provided with a video processing method comprising: generating a first output image for the object image by applying to at least a portion of said one or more areas of one or more of the weight determined above.

본 개시의 또 다른 양상에 따르면, 본 개시의 영상 처리 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체가 제공될 수 있다. According to still another aspect of the disclosure, a computer-readable recording medium recording a program for executing the image processing method of the present disclosure can be provided.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다. With respect to the disclosure briefly summarized above features are merely exemplary yangsangil detailed description of the disclosure that will be described later, it is not intended to limit the scope of this disclosure.

본 개시에 따르면, 영상 처리 장치 및 방법이 제공될 수 있다. According to this disclosure, it can be provided with a video processing device and method.

또한, 본 개시에 따르면, 영상의 색상 분포 정보에 기초한 영상 처리 장치 및 방법이 제공될 수 있다. Further, according to the present disclosure, the image processing apparatus and method based on the color distribution of the image information can be provided.

또한, 본 개시에 따르면, 영상의 색상 분포 정보에 기초하여 색상 별 가중치를 다르게 적용하는 영상 처리 장치 및 방법이 제공될 수 있다. Further, according to the present disclosure, the image processing apparatus and method for applying a different color by weight, based on the color distribution of the image information can be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. Effects that can be obtained in the present disclosure is not limited to the effects mentioned above, are not mentioned other effects can be clearly understood to those of ordinary skill in the art that the present disclosure from the following description will be.

도 1은 본 개시의 일 실시 예에 따른 영상 처리 장치의 구성을 나타내는 블록도이다. 1 is a block diagram showing the configuration of an image processing apparatus according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시 예에 따른 단일 객체를 포함하는 영상에서, 객체와 배경을 구분하는 과정을 설명하기 위한 도면이다. 2 is a view for explaining a process to separate, and the background object in the image that contains a single object, according to one embodiment of the present disclosure.
도 3은 본 개시의 일 실시 예에 따른 객체의 물성에 기초하여 색상이 표현된 영상을 나타내는 도면이다. 3 is a view showing a color image based on the representation of the object properties in accordance with one embodiment of the present disclosure.
도 4는 본 개시의 일 실시 예에 따른 영상의 색상 분포 정보에 기초하여 출력 영상을 생성하는 과정을 설명하기 위한 도면이다. 4 is a view for explaining a process of image based on color distribution information in accordance with one embodiment of the present disclosure produce an output image.
도 5는 본 개시의 일 실시 예에 따른 색상 분포 정보를 이용하여 획득된 영상과 에지 기반 필터링 또는 평활화 필터링을 적용하여 획득된 영상을 결합한 최종 출력 영상을 획득하는 과정을 설명하기 위한 도면이다. 5 is a view for explaining a process for obtaining the final output image is a combination of an image obtained by applying the image with an edge-based filtering or smoothing filter obtained using the color distribution information according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시 예에 따른 그래피컬 모델을 이용하여 최종 출력 영상을 획득하는 과정을 설명하기 위한 도면이다. 6 is a view for explaining a process for obtaining a final output image using a graphical model in accordance with one embodiment of the present disclosure.
도 7은 본 개시의 일 실시 예에 따른 영상 처리 방법을 설명하기 위한 도면이다. 7 is a view for explaining the image processing method according to an embodiment of the present disclosure.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. Hereinafter, a detailed description to be carried out easily self having ordinary skill in the art that the present disclosure with respect to the embodiment of the present disclosure with reference to the accompanying drawings. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. However, this disclosure may be implemented in many different forms and is not limited to the embodiments set forth herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. If a detailed description of known configuration or function In the following description of the embodiments of the present disclosure that are determined to obscure the gist of the present disclosure, the detailed description thereof will be omitted. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Then, the description and relationship of the parts is not disclosed in the drawing was in nature and not restrictive. Like reference numerals designate like elements.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. In the present disclosure, when the said one element is the other component and "connected", "coupled" or "connected", which is an indirect connection relationship as well as a direct connection relationship, the other components present in the medium also it can be included. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다. In addition, any components other components when that "include" or "have", which is not to exclude the other components do not have a particularly opposite substrate which means that also can contain other components, more .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. In the present disclosure, the first, the term of the second, etc. are used only to distinguish one element from the other, it is not limited to such order or importance among the components, except where noted. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. Thus, the first component is the first component to the second component according to the embodiment of claim may be referred to as second components, as in another embodiment In a further embodiment according to the embodiment within the scope of this disclosure It may be referred to as.

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. In the present disclosure, it is intended to clearly explain the characteristics of the respective components are to be distinguished from each other, this does not mean that the components must be separated. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. That is, are integrated with a plurality of components may be made into a single hardware or software of the unit, are distributed, one component may be formed of a plurality of hardware or software units. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. Therefore, even if otherwise noted examples the integrated or dispersed, as this embodiment is within the scope of this disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. In the present disclosure, the components that are described in the various embodiments are not necessarily essential means are components, some of which may be an optional component. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. Thus, the embodiment in consisting of a subset of the components described in the embodiment are included within the scope of this disclosure. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In addition, the embodiment in additionally including the other components, the components that are described in the various embodiments is within the scope of this disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다. A description will be given of the embodiments below, the present disclosure with reference to the accompanying drawings.

도 1을 참조하면, 영상 처리 장치(100)는 영상 수신부(110), 객체 영상 추출부(120), 색상 분포 분석부(130) 및/또는 영상 강화부(140)를 포함할 수 있다. 1, the video processing apparatus 100 may include an image receiving unit 110, the object image extraction section 120, a color distribution analysis unit 130, and / or enhanced video unit 140. 다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 영상 처리 장치(100)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다. However, this is not limited to the example in which the components included in the intended as showing only some of the components, the image processing device 100 is necessary to describe the present embodiment described above. 예컨대, 둘 이상의 구성부가 하나의 구성부 내에서 구현될 수도 있고, 하나의 구성부에서 실행되는 동작이 분할되어 둘 이상의 구성부에서 실행되도록 구현될 수도 있다. For example, may be implemented within a single component parts add more than one configuration, the split operation performed in one of the component parts may be implemented to run on two or more component parts. 또한, 일부 구성부가 생략되거나 부가적인 구성부가 추가될 수도 있다. In addition, some components may be added or omitted add additional components added.

일 실시 예에 따른 영상 처리 장치(100)는 분석 대상 영상을 수신하고, 분석 대상 영상에 포함되어 있는 객체를 추출하고, 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할하고, 하나 이상의 영역들 각각에 대해 색상 분포 정보를 획득하고, 색상 분포 정보에 기초하여, 하나 이상의 영역들 중 적어도 일부에 대해 하나 이상의 가중치를 결정하고, 결정된 하나 이상의 가중치를 하나 이상의 영역들 중 적어도 일부에 적용하여 객체 영상에 대한 제1 출력 영상을 생성할 수 있다. The image processing apparatus 100 according to an exemplary embodiment receives the analysis object image and extracting the object contained in the analysis target image, and segmenting the object image including an object into one or more regions, one or more regions obtaining a color distribution information on each and, on the basis of the color distribution information, to determine at least one weight to at least some of the one or more zones, and applying at least one weight is determined in at least some of the one or more regions the object image it is possible to generate a first output image in the.

영상 수신부(110)는 하나 이상의 객체를 포함하는 분석 대상 영상(150)을 수신할 수 있다. An image receiving unit 110 may receive the analysis of the target image 150 that includes one or more objects. 영상은 단일 객체를 포함하는 영상을 포함할 수 있다. Image may comprise an image that contains a single object. 예컨대, 입력 영상은 하나의 객체를 포함하는 화물에 관한 영상일 수 있다. For example, the input image may be an image on the storage that includes one object. 또한 예컨대, 입력 영상은 X-Ray 판독 기기가 촬영한 화물에 관한 X-Ray 영상일 수 있다. In addition, for example, the input image may be an X-Ray image on a cargo-up the X-Ray device reading. 상기 입력 영상은 X-Ray 영상 기기가 촬영한 로(raw) 이미지이거나 상기 로 이미지를 저장 또는 전송하기 위한 임의의 형태(포맷)의 이미지일 수 있다. The input image may be an image of any type (format) for a recorded the X-Ray imaging device (raw) image or store or transfer the image to the. 또한 예컨대, 상기 입력 영상은 X-Ray 판독 기기가 촬영하여 모니터와 같은 출력 장치로 전송하는 영상 정보를 캡쳐하여 데이터화함으로써 획득될 수도 있다. In addition, for example, the input image may be obtained by ingestion and up to the X-Ray device to capture the read image information to be transmitted to an output device such as a monitor.

객체 영상 추출부(120)는 영상 수신부(110)에서 수신된 분석 대상 영상에 포함되어 있는 객체를 추출하고, 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할할 수 있다. An object image extracting unit 120 extracts the object contained in the analysis object image received by the image receiving unit 110, and may divide the object image including an object into one or more regions. 예컨대 객체 영상 추출부(120)는 분석 대상 영상의 픽셀값과 소정의 임계값을 비교하여 픽셀값을 이진화하고, 이진화된 픽셀값을 그룹핑함으로써 분석 대상 영상에 포함된 객체를 추출할 수 있다. For example, the object image extracting unit 120 can extract the objects included in the analysis object image by comparing a pixel value with a predetermined threshold value of the analysis target image by binarizing the pixel values, and grouping the binarized pixel values. 여기서 객체를 추출한다는 것은 객체와 배경을 구분한다는 의미일 수 있고, 객체는 영상 내의 특정한 물체를 의미하며 또한 배경은 영상에서 객체를 제외한 부분을 의미할 수 있다. Here, it may be that the object extraction means to separate the object and the background, an object refers to the particular object in the image and background also may means a portion except for the object in the image. 영상의 배경은 영상의 촬영 방법 또는 촬영 장치에 따라 소정의 색상으로 표현될 수 있다. Background of the image can be represented in a predetermined color according to a method of recording images or the shooting device. 예컨대, 상기 소정의 색상은 흰색일 수 있다. For example, the predetermined color may be white. 영상의 배경을 표현하는 색상이 특정된 경우, 특정된 배경 색상에 기초하여 배경과 객체를 분리할 수도 있다. If the color representing a background image of the specific, on the basis of the specified background color may be separated from the background object. 예컨대, 특정된 배경 색상 영역을 분석 대상 영상(150)에서 삭제함으로써 객체를 구분할 수도 있다. For example, it may identify the object by deleting the specific background color area in the analysis target image 150.

또한 예컨대 객체 영상은 객체 영역을 둘러싸는 사각형 박스(bounding box)를 특정함으로써 획득될 수 있으며, 객체 영상 추출부(120)는 특정된 사각형 박스에 기초하여, 구분된 객체의 위치 정보를 생성할 수 있다. In addition, for example, an object image is to be, and the object image extraction section 120 is obtained by specifying a rectangular box (bounding box) surrounding the object region on the basis of the specific rectangular box, generates the location information of the separated objects have.

일 실시예에 따를 때, 입력 영상이 X-Ray 판독 기기가 촬영한 화물에 관한 X-Ray 영상이라고 하면, 화물이 아닌 배경 부분은 불필요하기 때문에 해당 배경 부분은 잘라내고 화물이 존재하는 영역만으로 분석할 수 있다. When bound to one embodiment, analysis of only the area that the input image is the background portion is cut off a cargo exists because when that X-Ray image of the cargo taken a X-Ray reading device, a background portion other than the storage is not required can do. 특히, 화물들이 컨베이어 벨트를 통해 계속적으로 X-Ray 판독 기기를 통과하는 실제 환경에서는 화물에 대한 영역을 획득하는 것이 중요하다고 할 수 있다. In particular, it can be said that the cargo are continuously in the actual environment through the X-Ray reading device, it is important to obtain the area of ​​the cargo on a conveyor belt. 객체와 배경을 구분하고 객체의 위치 정보를 생성하는 구체적인 과정은 도 2를 참고하여 자세히 설명한다. Specific process of separating the object and the background and generates the location information of the object is described in detail with reference to FIG.

도 2는 본 개시의 일 실시 예에 따른 단일 객체를 포함하는 영상에서, 객체와 배경을 구분하고, 객체의 위치 정보를 생성하는 과정을 설명하기 위한 도면이다. 2 is a view for explaining a process of a single object in an image comprising, in accordance with an embodiment of this disclosure, separate the objects and background and generates position information of the object. 도 2의 객체 영상 추출부(200)는 도 1의 객체 영상 추출부(120)의 일 실시 예일 수 있다. Fig object image extraction section 200 in one embodiment may be an example of the object image extraction section 120 in FIG. 입력 영상(210)은 도 1을 참조하여 설명한 입력 영상(150)일 수 있으며, 예컨대, 단일 객체로서 가방(212)을 포함하는 화물에 관한 영상일 수 있다. An input image 210 may be in reference to FIG. 1 may be mentioned an input image 150, for example, images of cargo comprising a bag (212) as a single object.

객체 영상 추출부(200)는 먼저 하나의 가방(212)을 포함하는 입력 영상(210)에 대해 크로핑(cropping) 연산을 수행함으로써 가방(212)을 기준으로 주변 영역을 대략적으로(roughly) 잘라버린, 크로핑된 영상(220)을 획득할 수 있다. An object image extracting unit 200 is cut first one of the peripheral region with approximately relative to the bag 212, an input image 210 is cropped (cropping) by performing the calculation bag 212 for containing the (roughly) lost, it is possible to obtain a cropped image 220. 그런 다음 객체 영상 추출부(200)는 크로핑된 영상(220)의 픽셀값과 소정의 임계값을 비교(thresholding)하여 픽셀값을 이진화함으로써 이진화된 영상(230)을 획득할 수 있다. Then, the object image extraction section 200 may obtain a binarized image 230 by binarizing the pixel values ​​and the pixel values ​​compared (thresholding) a predetermined threshold value of the cropped image 220. 그리고, 객체 영상 추출부(200)는 이진화된 영상(230)에서 객체에 대한 부분을 선택하기 위해 근접한 픽셀끼리 그룹핑(군집화, morphology, closing)함으로써, 그룹핑된 영상(240)을 획득할 수 있다. Then, the object image extraction section 200, it is possible to obtain a grouped image 240 by grouping (clustering, morphology, closing) between adjacent pixels in order to select the portion of the object in the binarized image 230. 그런 다음, 객체 영상 추출부(200)는 그룹핑된 영상(240)에 대해 라벨링(labeling) 및 홀 채우기(hole filling) 연산을 수행하여 가장 큰 형태로 형성된 픽셀 그룹을 객체에 대한 영역(252)으로 결정하고, 나머지를 배경에 대한 영역(254)으로 결정함으로써 객체가 추출된 영상(250)을 획득할 수 있다. Then the next, the object image extraction section 200 is labeled (labeling) and a hole for filling area 252 for a group of pixels formed in the largest form by performing a (hole filling) operations on objects for the grouped image 240 by determining, and determines the remaining as the area 254 of the background it is possible to obtain an image 250, the object has been extracted. 또한, 객체 영상 추출부(200)는 추출된 객체 영상에 대한 정보를 이용하여 입력 영상(210) 내에서의 객체의 위치를 결정할 수 있다. Further, the object image extraction section 200 with the information for the extracted object image may determine the location of the object in the input image (210). 예컨대, 객체 영상 추출부(200)는 객체 영역을 둘러싸는 사각형 박스를 특정하고, 특정된 사각형 박스에 기초하여, 객체의 위치 정보를 생성할 수 있다. For example, the object image extraction section 200 can be specified, and generates position information of the object on the basis of the specific rectangular box a rectangular box surrounding the object region. 도 2를 참조하면, 객체 영상 추출부(200)는 가방(212)을 둘러싸는 사각형 박스(262)를 특정하고, 특정된 사각형 박스에 기초하여, 가방(212)의 위치 정보를 획득할 수 있다. 2, the object image extraction section 200 in particular, and based on a particular rectangular box of a rectangular box 262 surrounding the bag 212, it is possible to obtain the position information of the bag (212) . 예컨대, 가방(212)의 위치 정보는 사각형 박스(262)를 형성하는 네 개의 꼭지점의 위치 정보일 수 있으나, 이에 제한되지 않는다. For example, the position information of the bag (212) may be a positional information of the four corners to form a rectangular box 262, but is not limited thereto. 예컨대, 위치 정보는 사각형 박스(262)의 하나의 꼭지점의 좌표 (x, y) 및 사각형 박스의 가로 길이(width), 세로 길이(height)에 의해 표현될 수도 있다. For example, position information may be represented by one of the coordinates of the point (x, y) and the horizontal length (width) of the rectangular box, a vertical length (height) of the rectangular box 262. 상기 하나의 꼭지점의 좌표 (x, y)는 사각형 박스(262)의 좌측 상단 꼭지점의 좌표일 수 있다. Coordinates of the one point (x, y) may be a coordinate of the top left vertex of the rectangular box 262. 상기 꼭지점의 좌표 (x, y)는 입력 영상(210)의 좌측 상단 꼭지점의 좌표 (0, 0)을 기준으로 특정될 수 있다. Coordinates of the point (x, y) can be specified relative to the coordinates (0, 0) at the left upper corner of the input image (210).

다시 도 1을 참조하여, 객체 영상 추출부(120)는 객체 영상의 크기에 기초하여 객체 영상을 하나 이상의 영역들로 분할할 수 있다. Referring again to Figure 1, the object image extraction section 120 may divide the object image based on the size of the object image into one or more regions. 상기 하나 이상의 영역들의 각각은 정방형일 수 있다. Each of said at least one region may be a square. 예컨대, 객체 영상 추출부(120)는 객체 영상의 크기에 기초하여 객체 영상을 분할하는 영역들의 개수나 크기를 결정할 수 있다. For example, the object image extracting unit 120 can determine the number or size of the area which divides the object image based on the size of the object image. 예컨대, 객체 영상이 상대적으로 크거나 소정의 임계치 이상의 크기를 갖는 경우, 더 많은 분할 영역을 갖도록 분할될 수 있다. For example, when the object image is relatively large, or having at least a predetermined threshold size, it may be divided so as to have a more partitions. 또한, 객체 영상을 분할하는 영역들 각각의 크기는 서로 동일하지 않을 수 있다. In addition, each of the size of the area which divides the object image may not be equal to each other.

또한 객체 영상 추출부(120)는 객체 영상이 정방형이 아닌 경우, 객체 영상을 업샘플링(up-sampling) 또는 다운샘플링(down-sampling)하여 객체 영상을 정방형으로 변환한 후, 객체 영상을 하나 이상의 영역들로 분할할 수 있다. In addition, the object image extraction section 120 has one or more of the after to when the object image other than a square, upsampling (up-sampling) or down-sampling (down-sampling) the object image converting an object image into a square shape, the object image It can be divided into regions. 예컨대, 객체 영상은 객체 영상 추출부(120)에서 추출된 객체에 대해 해당 객체를 둘러싸는 사각형 박스를 기초로 획득되므로 객체 영상이 정방형이 아닐 수 있다. For example, since the object image is obtained on the basis of a rectangular box surrounding the object for the object extracted in the object image extraction section 120, which may be non-square, the object image. 이 경우에 객체 영상 추출부(120)는 해당 객체 영상에 대해 하나 이상의 영역들로 분할할 수도 있겠으나, 객체 영상의 가로나 세로 방향으로 업샘플링 또는 다운샘플링 함으로써 정방형의 객체 영상을 획득하고, 획득된 정방형의 객체 영상을 하나 이상의 영역들로 분할할 수도 있다. In this case, the object image extraction section 120, but could also be divided into at least one region for the object image, by up-sampling or down-sampling in the horizontal or vertical direction of an object image acquiring an object image of the square and obtain the object image of the squares may be partitioned into one or more regions.

예컨대, 도 4를 참조하면, 객체 영상(400)은 가로 9픽셀 및 세로 12픽셀로 구성되어 정방형이 아닐 수 있다. For example, 4, the object image 400 may not be a square composed of 9 horizontal pixels and vertical 12 pixels. 이 경우, 본 개시에 따르면, 객체 영상(400)을 3x3 크기의 정방형 영역으로 분할할 수도 있으나(이 경우, (객체 영상의 가로 크기/분할 영역의 가로 크기) x (객체 영상의 세로 크기/분할 영역의 세로 크기) = (9/3) x (12/3) = 12, 총 12개의 영역들을 가진다), 객체 영상(400)의 가로를 업샘플링 하여 가로 12픽셀 및 세로 12픽셀로 구성되는 영상을 획득하고, 이를 3x3 크기의 영역으로 분할하여 총 16개의 영역으로 분할할 수도 있다. In this case, according to the present disclosure, but also dividing the object image 400 in a square area of ​​3x3 size (in this case, the (horizontal in the transverse size / slices of the object image size) x (vertical size / division of the object image region of the vertical size) = (9/3) x (12/3) = 12, and has a total of 12 regions), by up-sampling the horizontal of an object image 400, the image consisting of horizontal 12 pixels and vertical 12 pixels the acquisition and, by dividing it into regions of a 3x3 size may be divided into a total of 16 regions. 객체 영상을 분할하는 하나 이상의 영역들의 형태는 정방형으로 한정되지 않는다. In the form of one or more regions for dividing the object image it is not limited to the square. 예컨대, 상기 영역은 n과 m이 상이한 양의 정수인 nxm의 형태를 가질 수도 있다. For example, the region may take the form of n and m are different positive integer nxm. 이러한 경우, 전술한 업샘플링 또는 다운 샘플링이 수행되지 않을 수도 있다. In this case, it may not perform the above-described up-sampling or down-sampling.

다시 도 1을 참조하여, 색상 분포 분석부(130)는 객체 영상 추출부(120)에서 분할된 영역들 각각에 대해 색상 분포 정보를 획득하고, 색상 분포 정보에 기초하여 영역들 중 적어도 일부에 대해 하나 이상의 가중치를 결정할 수 있다. Referring again to Figure 1, the color distribution analysis unit 130 for at least a portion of obtaining a color distribution information for each of the divided object image extraction section 120, the area, and based on the color distribution information area It may determine one or more weights.

색상 분포 정보는 n(n은 1보다 큰 정수)개의 색상 표현 범위의 각각에 대한 정보를 포함할 수 있다. Color distribution information may include information for each of the n (n is an integer greater than 1) of the color representation range. 색상 표현 범위는 영상 획득 장치의 종류, 성능 등에 따라 달라질 수 있다. Color representation range can vary depending upon the type of image capture device, or performance. 또한, 예컨대, R(red)에 대한 “색상”은 8비트의 영상에서 픽셀값이 (R, G, B)= (255,0,0)을 가지는 픽셀의 색상만을 의미할 수 있으나, R에 대한 “색상 표현 범위”는 상기 픽셀값이 (R, G, B)= (255,0,0)인 경우뿐만 아니라 상기 픽셀값을 기준으로 소정의 범위 내에 있는 유사 색상을 포함하는 의미이다. Further, for example, "color" of the R (red) is the pixel value in the image of an 8-bit (R, G, B) = (255,0,0), but can refer only to the color of the pixels having, on R for "color representation range" it is intended to include the similar colors in a predetermined range as well as when the pixel values ​​(R, G, B) = (255,0,0) on the basis of the pixel value. 예컨대, 영상 획득 장치의 색상 표현 범위가 R, G(green), B(blue) 3가지라면 색상 분포 정보는 3개의 색상 표현 범위의 각각에 대한 정보를 포함할 수 있다. For example, the color representation range of the image capture device R, G (green), B (blue) 3 gaji If color distribution information may include information for each of the three color representation range. 색상 표현 범위가 R, G, B, Y(yellow), P(purple) 5가지라면 색상 분포 정보는 5개의 색상 표현 범위의 각각에 대한 정보를 포함할 수 있다. Color representation range of the R, G, B, Y (yellow), if P (purple) 5 color distribution information may include information for each of the five color representation range. 예컨대, 입력 영상이 X-Ray 판독 기기가 촬영한 화물에 관한 X-Ray 영상이라고 하면, X-Ray 영상은 해당 영상에 포함되어 있는 객체들의 물성(예를 들어, 해당 객체가 유기물, 무기물, 금속 등인지 여부)에 따라 다른 색상 표현 범위가 사용될 수 있다. For example, assuming input image is an X-Ray image of the cargo by the X-Ray reading device taken, X-Ray imaging properties of the objects contained in the image (e.g., the object is organic material, inorganic material, metal whether, and so on) so that a different color representation range can be used in accordance with the. 즉, 객체들의 물성에 따라 색상 표현 범위가 다를 수 있다. That is, the color representation range can vary depending on the physical properties of the objects.

도 3은 본 개시의 일 실시 예에 따른 객체의 물성에 기초하여 색상이 표현된 영상을 나타내는 도면이다. 3 is a view showing a color image based on the representation of the object properties in accordance with one embodiment of the present disclosure.

도 3을 참조하면, X-Ray 판독 기기에 의해 촬영된 가방 영상(300), 의약품용기 영상(310) 및 여행자수화물 캐리어 영상(320)을 나타낸다. 3, the image shows the bag 300, the medicine container image 310 and the travelers luggage carrier image 320 photographed by the X-Ray device reading. 가방 고리(302), 가방 지퍼(304), 의약품(312) 및 병(322)의 경우 각각 객체의 물성에 따라 색상 표현 범위가 상이함을 확인할 수 있다. For a bag ring 302, a fastener bag 304, the drug 312 and the bottle 322 has confirmed that the color representation range differs depending on the physical properties of each object. 한편, 가방 고리(302), 가방 지퍼(304), 의약품(312) 및 병(322)은 다른 객체들과 구분될 수 있도록 비교적 선명하게 색상이 표현되어 있는 반면에, 수화물 내의 임의의 내용물(324)의 경우에는 여행자 수화물 영상(320)에서 그 임의의 내용물(324)이 무엇인지도 확인하기 어렵고 다른 객체들과 구분하기에도 용이하지 않음을 알 수 있다. On the other hand, the bag ring 302, a bag fastener 304, the drug 312 and the bottle 322 is any contents in the other hand, which is a relatively sharp color representation to be distinguished from the other objects, hydrate (324 If) it may be difficult to know what their check any of the contents (324) Travelers' baggage recognition in the image 320 is not easy to distinguish it from other objects. 따라서, 객체의 물성에 따라 색상 표현 범위가 상이하다는 특징을 이용하여, 색상 표현 범위에 따라 영상의 강화 정도를 다르게 할 필요가 있다. Therefore, it is necessary to use a characteristic that a color representation range differs depending on the physical properties of the object, different from the enhancement degree of an image according to the color representation range. 이를 위해, 분할된 영역들 각각에 대한 색상 분포를 분석하여 적어도 일부의 영역에 대해 가중치를 적용할 수 있다. To this end, by analyzing the color distribution for each of the divided areas can be applied to the weight for the region of at least a portion.

상기 하나 이상의 가중치는 n개의 색상 표현 범위 중 적어도 일부에 대한 가중치를 포함할 수 있다. The one or more weights may comprise a weight for at least a portion of the n color representation range. 예컨대, 하나의 영역이 n개의 색상 표현 범위를 가진다고 하면, 해당 영역에서의 가중치의 개수는 1부터 n개를 가질 수 있다. For example, if one area of ​​the n number of said to have a color representation range, the number of weights in the corresponding area may have an n number of 1 to.

예컨대, 하나의 영역에 대해 하나의 가중치가 결정되는 경우, 상기 하나의 영역에 포함된 모든 색상 표현 범위에 대해 상기 결정된 가중치를 적용할 수 있다. For example, it may be the case that one weight value determined for one region, to the extent any color representation contained in the regions of the one applying the determined weights. 또는 상기 하나의 영역에 포함된 모든 색상 표현 범위 중 적어도 일부에 대해 상기 결정된 가중치를 적용할 수도 있다. Or it may be applied to the determined weights for at least some of any color representation range included in the one area. 예컨대, 영상 강화의 대상이 되는 소정의 색상 표현 범위에 대해서만 상기 결정된 가중치를 적용할 수 있다. For example, it is possible to apply the determined weights only for the predetermined color range expressed as the object of image enhancement.

또는 예컨대, n개의 색상 표현 범위의 각각에 대해 가중치가 결정될 수 있다. Or for example, a weight can be determined for each of the n color representation range. 즉, 하나의 영역에 대한 가중치의 개수는 n일 수 있다. That is, the number of weights for one area may be n. 이 경우, 상기 영역에 포함된 모든 색상 표현 범위의 각각에 대응되는 가중치를 해당하는 색상 표현 범위에 적용할 수 있다. In this case, it is possible to apply the color representation range of the weights corresponding to each of the range of all color representation contained in the regions. 가중치는 영상 강화의 대상이 되는 소정의 색상 표현 범위에 대해 상대적으로 높은 가중치가 부여될 수 있다. Weights may be given a relatively high weight for a given color range expressed as the object of image enhancement.

또는 예컨대, 1보다 크고 n보다 작은 m개의 색상 표현 범위의 각각에 대해 가중치가 결정될 수 있다. Or for example, a weight can be determined for each of the m number of small color representation range than is greater than 1 n. 즉, 하나의 영역에 대한 가중치의 개수는 m일 수 있다. That is, the number of weights for one area may be a m. 이 경우, 상기 영역에 포함된 색상 표현 범위 중 가중치가 부여된 색상 표현 범위에 대해서만 상기 부여된 가중치를 적용할 수 있다. In this case, only the color representation range of the color representation range of the weighted contained in the region can be applied to the assigned weights. 영상 강화의 대상이 되는 소정의 색상 표현 범위에 대해 상대적으로 높은 가중치가 부여되는 것은 전술한 바와 같다. It is to be relatively higher weight is given to the range of a predetermined color expression to be subjected to the enhanced image as described above.

전술한 바와 같이, n개의 색상 표현 범위 중 소정의 색상 표현 범위에 대해서는 가중치를 상대적으로 높게 결정할 수 있다. For the range of the predetermined color representation of the n color representation range, as described above, can be determined relatively high weights. 예컨대, X-Ray 영상에 포함된 객체가 유기물인 경우 다른 물성(금속, 무기물 등)을 가진 객체에 비해 상대적으로 경계가 덜 선명하게 영상에 표현되는 경우가 많다. For example, the objects included in the X-Ray image organisms often relatively sharp boundary is less represented in the image relative to the object with different physical properties (metals, inorganic substances, etc.). 따라서, 분할 영역 중 유기물을 나타내는 색상 표현 범위에 해당하는 부분에 대해서 상대적으로 높은 가중치가 부여될 수 있다. Thus, it can be given a relatively high weight for the part corresponding to the color representation range of the organic material that represents the partition.

상대적으로 높은 가중치가 부여되는 상기 소정의 색상 표현 범위는 하나 이상일 수 있다. The predetermined range of color representation are given the relatively high weight may be more than one. 예컨대, 전체 색상 표현 범위가 n개일 때, 상대적으로 높은 가중치가 부여되는 상기 소정의 색상 표현 범위는 1 내지 n-1개일 수 있다. For example, when the full color representation range n clear up, the predetermined range of the color representation to be relatively higher weight is assigned may be 1, n-1 to clear up. 상기 소정의 색상 표현 범위가 복수 개일 때, 각각에 대해 요구되는 영상 강화의 정도는 상이할 수 있으며, 그에 따라 가중치가 부여될 수 있다. The degree of reinforcement required for the image when the certain color representation range plurality clear up, and each may be different, may be weighted accordingly. 예컨대, 금속->무기물->유기물의 순서로 영상이 선명하게 표현될 때, 유기물에 대한 색상 표현 범위에 대해서만 상대적으로 높은 가중치를 부여할 수도 있으나, 무기물과 유기물에 대해 금속보다 상대적으로 높은 가중치를 부여할 수도 있다. For example, metal-> Minerals> when expressed as the image is sharp in the order of the organic material, only the color representation range for the organic material, but may be given a relatively high weight value, a relatively high weight than the metal for the inorganic and organic It may be granted. 이때, 무기물보다는 유기물에 상대적으로 높은 가중치가 부여될 수 있다. At this time, a relatively high weight organic material to be given than inorganic.

분할된 영역들 각각에 대해 색상 분포 정보를 획득하고, 가중치를 결정하는 구체적인 과정은 도 4를 참고하여 자세히 설명한다. Obtaining a color distribution information on each of the divided areas, and the specific process for determining the weights will be explained in detail with reference to FIG.

도 4는 본 개시의 일 실시 예에 따른 영상의 색상 분포 정보에 기초하여 출력 영상을 생성하는 과정을 설명하기 위한 도면이다. 4 is a view for explaining a process of image based on color distribution information in accordance with one embodiment of the present disclosure produce an output image.

도 4를 참조하면, 객체 영상(400)은 제1 영역(410), 제2 영역(420) 등 하나 이상의 영역들로 분할될 수 있다. 4, the object image 400 can be divided into one or more areas, and the first region 410 and second region 420. 객체 영상(400)에서 영역들을 분할하는 과정에 대해서는 도 1의 객체 영상 추출부(120)에 대해서 설명한 바와 같다. For the process of dividing the area in the object image 400 as described above also with respect to the object image extracting unit 120 in Fig. 이하에서 제1 영역(410)에서 색상 분포 정보가 획득되고 가중치가 결정되는 과정에 대해 자세히 설명한다. The color distribution in the first region 410 and the information obtained from the below to detail the process by which the weight is determined. 제1 영역(410)은 3x3 크기의 영역으로서 총 9개의 픽셀을 가지고, 5개(n=5)의 색상 표현 범위들을 가지는 것으로 가정한다. The first area 410 is an area of ​​3x3 size is assumed to have the color representation range of the total of 9 has a pixel, five (n = 5). 일 실시예에 따른 영상 처리 장치는 제1 영역(410)에 대해 5개의 색상 표현 범위에 대한 정보를 포함하는 색상 분포 정보를 획득하고, 획득된 색상 분포 정보에 기초하여 3x3 크기의 영역 중 적어도 일부에 대해 하나 이상의 가중치를 결정할 수 있다. The image processing apparatus according to an embodiment comprises of obtaining a color distribution information including information for the five color representation range for the first region 410, and based on the obtained color distribution information area of ​​3x3 size, at least a portion one or more weights can be determined for.

또는 영상 강화의 대상이 되는 소정의 색상 표현 범위에 대한 정보만을 색상 분포 정보로서 획득하고 이용할 수도 있다. Or only it may be obtained and used as the color distribution information on a predetermined color range expressed as the object of image enhancement. 예컨대, 소정의 색상 표현 범위에 대한 분포 정보가 소정의 임계치 이상인 경우, 해당 영역에 상대적으로 높은 가중치를 부여할 수도 있다. For example, in the case where the distribution information on the range of a predetermined color expression greater than or equal to the predetermined threshold value, it may be given a relatively high weight in the zone.

색상 분포 정보에 기초하여 가중치를 결정하는 보다 구체적인 과정을 살펴보면, 분할된 영역들 각각에 대해서, n개의 색상 표현 범위 각각에 대한 정보를 반영하는 n개의 색상 채널 영상들이 획득될 수 있다. Referring to a more specific process for determining a weight based on the color distribution information, for each of the divided areas, and the n-channel color image reflecting the information for each of the n color representation range can be obtained. 예컨대, 제1 영역(410)은 5개(n=5)의 색상 표현 범위들에 대한 정보를 가지므로 5개의 색상 채널 영상들이 획득될 수 있으며, 이를 제1 색상 채널 영상(430), 제2 색상 채널 영상(440), 제3 색상 채널 영상(450), 제4 색상 채널 영상(460) 및 제5 색상 채널 영상(470)이라 한다. For example, the first region 410 is five, because of the information on the color representation range (n = 5) may be obtained are five color channel image, this first color channel image 430, a second It is referred to as color channel image 440, the third color channel image (450), the fourth color channel image 460, and the fifth color channel image (470). 또한 예컨대, X-Ray 판독 기기가 R, G, B, Y, P의 5가지 색상 표현 범위를 지원하는 경우, 제1 색상 채널 영상(430), 제2 색상 채널 영상(440), 제3 색상 채널 영상(440), 제4 색상 채널 영상(460) 및 제5 색상 채널 영상(470)은 각각 R, G, B, Y 및 P의 색상을 가지는 영상에 대응될 수 있다. In addition, for example, when the X-Ray reading device supports the five color representation range of the R, G, B, Y, P, a first color channel image 430, the second color channel image 440, the third color channel image 440, the fourth color channel image 460, and the fifth color channel image 470 may correspond to an image having a color of R, G, B, Y and P, respectively.

제1 내지 제5 색상 채널 영상(430~470)의 각각은 제1 영역(410)의 구성 픽셀들 각각의 색상 정보에 기초하여 해당 색상 정보에 대응하는 색상 채널 영상에 매핑시킴으로써 생성될 수 있다. Each of the first to fifth color channel image (430-470) can be generated by mapping the color channel image corresponding to the color information based on the configuration of pixels of each of the color information in the first area (410). 예컨대, 제1 픽셀(412)은 제3 색상 채널 영상(450)의 해당 위치의 픽셀(452)에 매핑되고, 또한 제2 픽셀(414)은 제1 색상 채널 영상(430)의 해당 위치의 픽셀(432)에 매핑되고, 또한 제3 픽셀(416)은 제5 색상 채널 영상(470)의 해당 위치의 픽셀(472)에 매핑되고, 또한 제4 픽셀(418)은 제2 색상 채널 영상(440)의 해당 위치의 픽셀(442)에 매핑되고, 또한 제5 픽셀(420)은 제5 색상 채널 영상(470)의 해당 위치의 픽셀(474)에 매핑되고, 또한 제6 픽셀(422)은 제5 색상 채널 영상(470)의 해당 위치의 픽셀(476)에 매핑되고, 또한 제7 픽셀(424)은 제2 색상 채널 영상(440)의 해당 위치의 픽셀(444)에 매핑되고, 또한 제8 픽셀(426)은 제5 색상 채널 영상(470)의 해당 위치의 픽셀(478)에 매핑되고, 또한 제9 픽셀(428)은 제5 색상 채널 영상(470)의 해당 위치의 픽셀(480)에 매핑됨으로써, 상기 제1 내지 제5 색 For example, the first pixel 412, a third mapped to the pixel 452 at the location of the color channel image 450, and the second pixel 414 is the pixel at the location of the first color channel image 430 maps to 432, and the third pixel (416) is mapped to the pixel 472 at the location of the fifth color channel image 470, and a fourth pixel 418 of the second color channel image (440 ) it is mapped to the pixels 442 in the location, and the fifth pixel 420 is mapped to the pixel 474 at the location of the fifth color channel image 470, and the sixth pixel 422 first of 5 are mapped to the pixels 476 in the location of the color channel image 470, and the seventh pixel 424 is mapped to the pixel 444 at the location of the second color channel image 440, and an eighth pixel 426 is mapped to the pixel 478 at the location of the fifth color channel image 470, and the ninth pixel 428 pixel 480 at the location of the fifth color channel image 470 mapping, whereby the first to the fifth color 상 채널 영상(430~470)이 생성될 수 있다. A video channel (430-470) can be generated.

한편, 색상 표현 범위가 최대 n개인 경우, n보다 적은 수의 색상 채널 영상들이 획득될 수 있는데, 예컨대, 제1 영역(410)의 경우 제4 색상 채널 영상(460)에 해당되는 색상을 가진 픽셀이 존재하지 않기 때문에, 제4 색상 채널 영상(460)을 제외한 총 4개의 색상 채널 영상들이 획득될 수 있다. On the other hand, there is a color representation range up to n can be obtained if individual, a small number of color channel image than n are, for example, in the case of the first area 410 of pixels having a color corresponding to a fourth color channel image 460 since this is not present, the fourth can be obtained a total of four color channels in the image other than the color channel image (460).

색상 채널 영상들이 획득되면, 제1 색상 채널 영상(430), 제2 색상 채널 영상(440), 제3 색상 채널 영상(450), 제4 색상 채널 영상(460) 및 제5 색상 채널 영상(470)에 가중치 a1, a2, a3, a4 및 a5를 각각 적용할 수 있다. When the color channel image to obtain a first color channel image 430, the second color channel image 440, the third color channel image (450), the fourth color channel image 460, and the fifth color channel image (470 ) can be applied to the weights a1, a2, a3, a4 and a5, respectively.

가중치는 각 영역을 구성하는 픽셀들의 색상 분포를 고려하여 결정될 수 있으며, 예컨대, 픽셀들의 색상 분포에 비례하도록 가중치가 결정될 수 있다. Weight can be determined in consideration of the color distribution of the pixels constituting the respective regions, for example, the weight may be determined to be proportional to the color distribution of pixels. 또는, 가중치는 소정의 색상 표현 범위에 대해서는 가중치를 상대적으로 높게, 나머지 색상 표현 범위에 대해서는 가중치를 상대적으로 낮게 결정할 수 있다. Alternatively, the weights may be determined for a range of a predetermined color expression increasing the weight relatively, relatively low weight for the other color representation range.

다시 도 1을 참조하여, 영상 강화부(140)는 색상 분포 분석부(130)에서 결정된 하나 이상의 가중치를 하나 이상의 영역들 중 적어도 일부에 적용하여 객체 영상에 대한 제1 출력 영상을 생성할 수 있다. Referring again to Figure 1, the image reinforcement section 140 by applying one or more weights determined from the color distribution analysis unit 130, at least some of the one or more regions may generate a first output image for the object image .

도 4를 참조하면, 제1 색상 채널 영상(430), 제2 색상 채널 영상(440), 제3 색상 채널 영상(450), 제4 색상 채널 영상(460) 및 제5 색상 채널 영상(470)에 가중치 a1, a2, a3, a4 및 a5를 적용하고, 가중치가 적용된 상기 제1 내지 제5 색상 채널 영상을 결합하여 가중치가 적용된 제1 영역(410-1)이 획득될 수 있다. 4, the first color channel image 430, the second color channel image 440, the third color channel image (450), the fourth color channel image 460, and the fifth color channel image 470 the weighted a1, a2, a3, a4 and a5, and has a first area (410-1) by combining the first to fifth color channel image is weighted is applied, the weight can be obtained. 그리고, 상기 객체 영상(400)의 나머지 영역들에 대해서도 상기 과정을 반복함으로써, 최종적으로 제1 출력 영상이 생성될 수 있다. Then, by repeating the above process, also in the remaining region of the object image 400, there can be produced and finally the first output image. 가중치는 각 영역을 구성하는 픽셀들의 색상 분포를 고려하여 결정되고 또한 소정의 색상 표현 범위에 대해서는 상대적으로 높은 가중치가, 나머지 색상 표현 범위에 대해서는 상대적으로 낮은 가중치가 결정될 수 있다. Weights may have been determined in consideration of the color distribution of the pixels also relatively high weight for a given range of color representation, a relatively low weight for the other color representation range it is determined to make up each area. 예컨대, 각 분할 영역에서 유기물을 나타내는 색상에 해당되는 부분은 경계 부분이 영상에서 상대적으로 명확하게 표현되지 않으므로 가중치가 상대적으로 높게 결정되고, 금속을 나타내는 색상에 해당되는 부분은 경계 부분이 영상에서 상대적으로 명확하게 표현되기 때문에 가중치가 상대적으로 낮게 결정될 수 있다. For example, the part corresponding to the color representing the organisms in each partition is not expressed relatively clear in the image boundary portions, and the weight is determined relatively high, part of which corresponds to the color representing the metal boundary portion in the image is relatively since the clearly it expressed as can be determined the weight relatively low.

또는 전술한 바와 같이, 객체 영상(400)에 포함된 영역(410)의 색상 분포 분석 결과, 영상 강화의 대상이 되는 소정의 색상 표현 범위가 지배적이거나 소정의 임계치 이상의 분포를 갖는 경우, 해당 영역(410)에 대해 상대적으로 높은 가중치를 설정할 수 있다. Or the like, the color distribution analysis of the region 410 included in the object image 400, the results described above, a predetermined color representation range to be subjected to the image enhance the dominant, or if it has a predetermined threshold value or more distributions, the region ( 410) can be set to a relatively high weight to. 상기 소정의 임계치 및/또는 가중치는 임의로 결정될 수도 있고, 축적된 영상 처리 정보에 기초하여 결정될 수도 있다. The predetermined threshold value and / or weights may be determined randomly, it may be determined based on the accumulated image processing information. 또는, 인공지능 기반 학습 모델을 통해 상기 임계치 및/또는 가중치에 관한 학습을 수행함으로써, 최적의 임계치 및/또는 가중치가 계속하여 업데이트될 수 있다. Or by performing a study on the threshold and / or weighted by an artificial intelligence-based learning model, the optimal threshold and / or weight, may continue to be updated.

또한, 영상 강화부(140)는 하나 이상의 영역들 중 적어도 일부에 대해 에지 기반 필터링 또는 평활화 필터링을 적용하여 객체 영상에 대한 제2 출력 영상을 생성할 수 있다. Further, Image intensifier 140 may be applied to the edge-based filter or a smoothing filter for the at least some of the at least one region to generate a second output image to the object image. 또한, 영상 강화부(140)는 생성된 제1 출력 영상 및 제2 출력 영상에 기초하여 객체 영상에 대한 제3 출력 영상을 생성할 수 있다. In addition, the enhanced image 140 based on the generated first output image and a second output image may produce a third output image for the object image.

에지 기반 필터링 또는 평활화 필터링은 영상의 컨트라스트(contrast)를 강화하기 위한 기법으로서, 예컨대 Wiener filtering, Unsharp mask filtering, Histogram equalization, linear contrast adjustment의 기법 등을 포함하나, 이에 제한되지 않으며, 영상의 컨트라스트를 강화하기 위한 기법들을 포함할 수 있다. An edge-based filter or smoothing filter is a technique for enhancing the contrast (contrast) of the image, such as Wiener filtering, Unsharp mask filtering, Histogram equalization, one or the like of the linear contrast adjustment methods, not limited to this, the contrast of the image It may include mechanisms for strengthening.

도 5는 본 개시의 일 실시 예에 따른 색상 분포 정보를 이용하여 획득된 영상과 에지 기반 필터링 또는 평활화 필터링을 적용하여 획득된 영상을 결합한 최종 출력 영상을 획득하는 과정을 설명하기 위한 도면이다. 5 is a view for explaining a process for obtaining the final output image is a combination of an image obtained by applying the image with an edge-based filtering or smoothing filter obtained using the color distribution information according to an embodiment of the present disclosure. 도 5의 객체 영상(500), 제1 영역(510) 및 가중치가 적용된 제1 영역(510-1)은 도 4의 객체 영상(400), 제1 영역(410) 및 가중치가 적용된 제1 영역(410-1)에 각각 대응될 수 있다. Fig object image 500 in the first region 510 and a weight is applied to the first area 510-1 is the first object image area 400, the first region 410 and weighted in Figure 4 It may be respectively corresponding to the (410-1). 도 5를 참조하면, 영상 강화부(140)는 제1 영역(510)에 대해 상기 필터링이 적용된 제1 영역(510-2)을 생성할 수 있으며, 가중치가 적용된 제1 영역(510-1)과 필터링이 적용된 제1 영역(510-2)을 결합하여 최종 제1 영역(510-3)을 생성할 수 있다. 5, the image enhance unit 140 may generate a first area (510-2) is the filter applied to the first region 510, the first area weighted 510-1 and filtering the combination applied to a first area (510-2) and it is possible to produce a final first area (510-3). 그리고, 영상 강화부(140)는 나머지 영역들에도 상기와 같은 거쳐 필터링 기법들이 적용된 제2 출력 영상 및 제1 출력 영상과 제2 출력 영상을 결합한 제3 출력 영상을 생성할 수 있다. And, Image intensifier 140 may claim to generate a third output image that combines a second video output and a first output image and the second output image in the remaining regions after filtering techniques as described above is applied.

가중치가 적용된 영역(예컨대, 510-1), 필터링이 적용된 영역(예컨대, 510-2) 및/또는 상기 둘을 이용한 최종 영역(510-3)을 생성하는 과정은 영역 단위로 수행될 수 있다. Generating an area weighted (e.g., 510-1), the filtering area is applied (e.g., 510-2) and / or end region with the two (510-3) may be performed on a per-zone basis. 그러나 이에 한정되지 않으며, 상기 과정은 객체 영상 단위로 수행될 수도 있다. However, it not limited to this and the process may be performed in a video object unit. 예컨대, 객체 영상에 포함된 영역의 각각에 대해 가중치를 적용하는 과정을 수행하여 가중치가 적용된 객체 영상(제1 출력 영상)을 획득할 수 있다. For example, by performing the step of applying the weight for each of the areas included in the object image can be obtained for the object image (the first output image) is weighted. 또한, 객체 영상에 포함된 영역의 각각에 대해 상기 필터링을 적용하는 과정을 수행하여 객체 영상(제2 출력 영상)을 획득할 수 있다. Further, by performing the process of applying the filter for each of the areas included in the object image it can be obtained for the object image (second output image). 또한, 상기 가중치가 적용된 객체 영상과 상기 에지가 강화된 객체 영상을 결합함으로써, 상기 최종 영상(제3 출력 영상)을 생성할 수 있다. Further, by combining the object image is the object image is weighted with the enhanced edge, the final image may generate a (third output image).

한편, 예컨대 분할 영역 내 유기물이 다른 물질에 비해 적게 포함된 경우에는, 제1 출력 영상에 제2 출력 영상을 결합함으로써 제1 출력 영상에 대한 영향이 상대적으로 적을 수 있는데, 이 경우 유기물을 나타내는 색상 분포 정보에 대한 가중치를 상대적으로 더 높게 결정할 수 있다. On the other hand, for example when the inside partition organisms include less than the other materials include, first there are effects on the first output image can be relatively small, by coupling the second output image to the first output image, the color indicating that the case organics the weight for the distribution information can be determined relatively higher. 또한 예컨대, 제1 출력 영상과 제2 출력 영상을 결합함으로써 영상 내 여러 객체가 겹쳐있는 경우에도 보다 정확한 객체 인식이 가능하게 할 수 있다. In addition, for example, it is possible to more accurate object recognition, even if the first output image and the second number of objects in the image by combining the output image overlap allows.

도 6은 본 개시의 일 실시 예에 따른 그래피컬 모델을 이용하여 최종 출력 영상을 획득하는 과정을 설명하기 위한 도면이다. 6 is a view for explaining a process for obtaining a final output image using a graphical model in accordance with one embodiment of the present disclosure.

일 실시예에 따른 영상 처리 장치는 색상 분포 정보에 포함된 색상 표현 범위들 각각을 개별 노드로 결정하고, 결정된 각 개별 노드간의 상대적인 관계 및 제1 출력 영상, 제2 출력 영상 및 제3 출력 영상과의 상대적인 관계를 이용하여, 계층적(hierarchical) 구조의 그래피컬 모델(graphical model)을 생성할 수 있다. Image processing according to one embodiment of the device for each of the color representation range includes the color distribution information is determined by the individual node, and the relative relation and the first output image and the second output image, and a third output image among the individual nodes determined using a relative relationship, it is possible to create a hierarchical (hierarchical) graphical model (graphical model) of the structure.

도 6을 참조하면, 각각의 분할 영역에서, 색상 분포 정보에 n개의 색상 표현 범위가 포함되어 있으면, 가장 하위 노드는 제1 색상 분포 정보(610-1)부터 제n 색상 분포 정보(610-n)까지 최대 n개의 노드를 포함할 수 있다. In Figure 6, each of the slices, if they contain n number of color representation range of the color distribution information, the sub-node has a first color distribution information (610-1), the n-th color distribution information (610-n from ) it has to be included up to n nodes. 그런 다음, 각 색상 분포 정보에 기초하여 해당 분할 영역 또는 해당 분할 영역의 색상 표현 범위들의 각각에 가중치를 적용하여 제1 출력 영상(620)을 획득할 수 있다. Then, based on the respective color distribution information by applying a weight to each of the color representation range of the partition or the partitions may obtain a first output image 620. 제1 출력 영상(620)이 최종 출력 영상으로 결정될 수 있다. The first output image 620 may be determined in a final output video. 또는 영상의 컨트라스트 강화 기법을 적용하여 획득된 제2 출력 영상(630)을 더 생성하고, 제1 출력 영상(620)과 제2 출력 영상(630)을 기초로 제3 출력 영상(640)을 생성할 수도 있다. Or applying a contrast enhanced technique of the image of the second further generates an output image 630 obtained, and generating a first output image 620 and the second output image is a third output image 640 based on the 630 You may.

도 7은 본 개시의 일 실시 예에 따른 영상 처리 방법을 설명하기 위한 도면이다. 7 is a view for explaining the image processing method according to an embodiment of the present disclosure. 도 7의 영상 처리 방법은 도 1의 영상 처리 장치가 수행하는 방법으로서, 도 1의 영상 처리 장치에 관한 설명은 도 7의 영상 처리 방법에 적용될 수 있다. A method of image processing method of Figure 7 is performed by the image processing apparatus of Figure 1, description of the image processing apparatus of Figure 1 can be applied to the image processing method of FIG.

S700 단계에서, 분석 대상 영상을 수신할 수 있다. In step S700, you can receive the analyzed image.

영상은 단일 객체를 포함하는 영상을 포함할 수 있다. Image may comprise an image that contains a single object. 예컨대, 입력 영상은 하나의 객체를 포함하는 화물에 관한 영상일 수 있다. For example, the input image may be an image on the storage that includes one object. 또한 예컨대, 입력 영상은 X-Ray 판독 기기가 촬영한 화물에 관한 X-Ray 영상일 수 있다. In addition, for example, the input image may be an X-Ray image on a cargo-up the X-Ray device reading. 상기 입력 영상은 X-Ray 영상 기기가 촬영한 로(raw) 이미지이거나 상기 로 이미지를 저장 또는 전송하기 위한 임의의 형태(포맷)의 이미지일 수 있다. The input image may be an image of any type (format) for a recorded the X-Ray imaging device (raw) image or store or transfer the image to the. 또한 예컨대, 입력 영상은 X-Ray 판독 기기가 촬영하여 모니터와 같은 출력 장치로 전송하는 영상 정보를 캡쳐하여 데이터화함으로써 획득될 수도 있다. In addition, for example, the input image may be obtained by ingestion and up to the X-Ray device to capture the read image information to be transmitted to an output device such as a monitor.

S710 단계에서 분석 대상 영상에 포함되어 있는 객체를 추출할 수 있다. It is possible to extract an object that is included in the analysis target image in step S710. 예컨대, 분석 대상 영상의 픽셀값과 소정의 임계값을 비교하여 픽셀값을 이진화하고, 이진화된 픽셀값을 그룹핑함으로써 분석 대상 영상에 포함된 객체를 추출할 수 있다. For example, it is possible to extract the objects included in the analysis object image by comparing a pixel value with a predetermined threshold value of the analysis target image by binarizing the pixel values, and grouping the binarized pixel values.

S720 단계에서 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할할 수 있다. An object image containing an object in the step S720 can be divided into one or more regions. 예컨대, 객체 영상의 크기에 기초하여 객체 영상을 분할하는 영역들의 개수나 크기를 결정할 수 있다. For example, on the basis of the size of the object image it can determine the number or size of the area which divides the object image. 또한, 객체 영상을 분할하는 영역들 각각의 크기는 서로 동일하지 않을 수 있다. In addition, each of the size of the area which divides the object image may not be equal to each other. 또한, 예컨대 객체 영상이 정방형이 아닌 경우, 객체 영상을 업샘플링(up-sampling) 또는 다운샘플링(down-sampling)하여 객체 영상을 정방형으로 변환한 후, 객체 영상을 하나 이상의 영역들로 분할할 수 있다. Further, for example, when the object image other than a square, upsampling (up-sampling) the object image or down-sampling (down-sampling) to be split, and then by converting the object image into a square shape, the object image into one or more regions have.

S730 단계에서 하나 이상의 영역들 각각에 대해 색상 분포 정보를 획득할 수 있다. In step S730 it is able to obtain the color distribution information on each of at least one region. 예컨대, 색상 분포 정보는 n(n은 1보다 큰 정수)개의 색상 표현 범위의 각각에 대한 정보를 포함할 수 있다. For example, the color distribution information may include information for each of the n (n is an integer greater than 1) of the color representation range.

S740 단계에서, 색상 분포 정보에 기초하여, 하나 이상의 영역들 중 적어도 일부에 대해 하나 이상의 가중치를 결정할 수 있다. In step S740, on the basis of the color distribution information, it is possible to determine the at least one weight to at least some of the one or more regions. 예컨대, 하나 이상의 가중치는 n개의 색상 표현 범위 중 적어도 일부에 대한 가중치를 포함할 수 있다. For example, one or more weights may comprise a weight for at least a portion of the n color representation range. 예컨대, 하나의 영역이 n개의 색상 표현 범위를 가진다고 하면, 해당 영역에서의 가중치의 개수는 1부터 n개를 가질 수 있다. For example, if one area of ​​the n number of said to have a color representation range, the number of weights in the corresponding area may have an n number of 1 to.

S750 단계에서, 결정된 하나 이상의 가중치를 하나 이상의 영역들 중 적어도 일부에 적용하여 객체 영상에 대한 제1 출력 영상을 생성할 수 있다. In step S750, it is possible to apply one or more weights as determined in at least some of the one or more regions to generate a first output image to the object image.

도 7에는 도시되지 않았으나, 하나 이상의 영역들 중 적어도 일부에 대해 에지 기반 필터링 또는 평활화 필터링을 적용하여 객체 영상에 대한 제2 출력 영상을 생성할 수 있다. 7 is not shown, by applying the edge-based filter or a smoothing filter for the at least some of the one or more regions may generate a second output image to the object image. 또한 예컨대, 생성된 제1 출력 영상 및 제2 출력 영상에 기초하여 객체 영상에 대한 제3 출력 영상을 생성할 수 있다 In addition, for example, on the basis of the generated first output image and a second output image may produce a third output image for the object image

도 1 내지 도 7을 참조하여 설명한 실시 예에서는 단일 객체를 포함하는 영상을 입력 받아, 객체와 배경을 분리하는 예를 설명하였다. In the embodiment described above with reference to Figure 1 to Figure 7 receives an image containing a single object, and an example of separating the object and the background. 그러나, 반드시 이에 한정되지 않으며, 입력 영상이 둘 이상의 객체를 포함하는 영상일 수도 있다. However, it is not necessarily limited to this, and may be input image is an image that includes two or more objects. 이 경우, 입력 영상으로부터 둘 이상의 객체와 배경을 구분하고, 둘 이상의 객체의 각각에 대해 위치 정보를 생성하여 이용할 수도 있다. In this case, it can be used to distinguish more than one object and the background, and generates the position information for each of the two or more objects from the input image. 또한, 이 경우, 도 2를 참조한 설명에서, 복수의 픽셀 그룹이 형성된 경우, 가장 큰 형태로 형성된 픽셀 그룹뿐만 아니라 다른 픽셀 그룹에 대해서도 각각 객체에 대한 영역인 것으로 결정할 수 있다. In this case, even if in the description with reference to Figure 2, having a plurality of groups of pixels may be determined to be the largest form as a pixel group formed of a well region for each object for the other pixel group. 각각의 결정된 객체의 위치 정보를 생성하는 과정은 하나의 객체를 포함하는 영상에 대해 설명한 바와 동일하다. Generating a respective position information of the determined object is the same as described for the image including an object.

따라서, 본 개시에 따르면 객체의 물성 특징이 반영된 색상 분포 정보를 이용함으로써 객체 영상의 각 영역마다 적합한 영상 처리를 통해 객체의 형태적 특징이 강화된 영상을 획득하는 영상 처리 장치 및 방법이 제공될 수 있다. Thus, can be, according to the present disclosure by using a physical property feature that reflects color distribution information of the object with an appropriate image processing for each area of ​​an object image provided by the image processing apparatus and method for acquiring a morphological features are enhanced image of the object have. 또한, 계층적 구조의 그래피컬 모델의 이용하여 적응성 있는 영상 처리 장치 및 방법이 제공될 수 있다. Further, the adaptive video processing device and method for using a graphical model of a hierarchical structure can be provided.

본 개시의 영상 처리 장치의 구성부들 및 영상 처리 방법의 단계들 중 적어도 일부는 인공지능 기반 또는 딥러닝 기반의 모델을 이용하여 수행될 수 있다. Configuring at least some of the parts and steps of the image processing method of the image processing apparatus of the present disclosure may be carried out using artificial intelligence based or deep learning based models. 예컨대, 객체 영상을 분할하여 생성되는 영역의 크기, 개수, 색상 분포 정보에 기초하여 결정되는 가중치, 본 개시에서 언급된 각종 임계치, 제2 출력 영상의 생성 여부 등은 인공지능 기반 또는 딥러닝 기반의 모델을 이용하여 학습될 수 있고, 학습된 모델에 따른 정보가 이용될 수 있다. For example, the area that is generated by dividing the object image size, number, weight, which is determined on the basis of the color distribution information, the various thresholds referred to in this disclosure, whether to generate the like of the second output image is the AI-based or deep learning based It can be learned by using the model, the information corresponding to the learned model can be used.

본 개시의 딥러닝 기반의 모델은 완전 합성곱 신경망(완전 컨볼루션 뉴럴 네트워크, fully convolutional neural network), 합성곱 신경망(컨볼루션 뉴럴 네트워크, convolutional neural network), 순환 신경망(회귀 뉴럴 네트워크, recurrent neural network), 제한 볼츠만 머신(restricted Boltzmann machine, RBM) 및 심층 신뢰 신경망(deep belief neural network, DBN) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. Deep learning model concept of the disclosure is full convolution neural network (full convolution neural network, fully convolutional neural network), Convolution Neural Network (convolutional neural network, convolutional neural network), Recurrent Neural Network (regression neural network, recurrent neural network ), limiting the Boltzmann machine (restricted Boltzmann machine, RBM) and depth trust neural network (deep belief neural network, DBN), but may include at least one of, and the like. 또는, 딥러닝 이외의 머신 러닝 방법도 포함할 수 있다. Or it may also include machine learning methods other than deep learning. 또는 딥러닝과 머신 러닝을 결합한 하이브리드 형태의 모델도 포함할 수 있다. Or deep learning to the model of the hybrid type combining a machine learning can also be included. 예컨대, 딥러닝 기반의 모델을 적용하여 영상의 특징을 추출하고, 상기 추출된 특징에 기초하여 영상을 분류하거나 인식할 때는 머신 러닝 기반의 모델을 적용할 수도 있다. For example, it is also possible to extract the image feature of applying a dip-learning-based models, and apply a model of machine learning-based classification or recognition when an image based on the characteristics of the extracted. 머신 러닝 기반의 모델은 서포트 벡터 머신(Support Vector Machine, SVM), 에이다부스트(AdaBoost) 등을 포함할 수 있으나, 이에 한정되지 않는다. Model of machine learning-based may include a support vector machine (Support Vector Machine, SVM), Ada-boost (AdaBoost), such as, but not limited to this.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. Although the exemplary method of the present disclosure is expressed as a motion series for clarity of illustration, this is not intended to limit the order in which the steps are performed, may be performed, if necessary, the respective steps simultaneously or in different order. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다. To implement a methodology in accordance with the present disclosure, including the further step to another step of an example, or may exclude some of the steps include, or exclude some steps in the rest of the steps includes the additional steps other.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다. Various embodiments of the present disclosure is not to list all the possible combinations are for explaining an exemplary aspect of the present disclosure, the details described in the various embodiments may be applied to the applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. Further, the various embodiments of this disclosure may be implemented by hardware, firmware (firmware), software, or a combination thereof. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In case of the implementation by hardware, one or more (Application Specific Integrated Circuits) ASICs, (Digital Signal Processors) DSPs, DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), Universal It can be implemented by a processor (general processor), controllers, micro-controllers, microprocessors.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is software or machine to be executed on a device or a computer operating according to the various embodiments of method-executable instructions (e. G., Operating system, applications, firmware (firmware) program, etc.), and such software or this command is stored, such as non-viable on a device or computer-readable media (non-transitory computer-readable medium) - temporarily computer.

100 : 영상 처리 장치 100: image processing device
110 : 영상 수신부 110: an image receiving
120 : 객체 영상 추출부 120: object image extraction section
130 : 색상 분포 분석부 130: color distribution analyzer
140 : 영상 강화부 140: Image intensifier unit

Claims (15)

  1. 객체를 포함하고, 상기 객체의 물성에 따라 해당 객체의 영역이 상이한 색상으로 표현된 분석 대상 영상을 수신하는 영상 수신부; Image receiver comprising an object and a region of the object receiving the analysis object image represented by different colors according to the object properties;
    상기 분석 대상 영상으로부터 상기 객체를 추출하고, 상기 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할하는 객체 영상 추출부; The analysis extracts the target object from the image, the object image extraction for dividing the object image containing the object into one or more sub-areas;
    상기 분할된 영역에 포함된 픽셀의 색상을 표현하는 픽셀값에 기초하여 상기 분할된 영역의 색상 분포 정보를 획득하고, 상기 색상 분포 정보에 기초하여 소정의 색상 표현 범위에 대한 가중치를 결정하는 색상 분포 분석부; Color distribution on the basis of pixel values ​​representing the colors of the pixels included in the divided region obtained color distribution information of the divided areas, and based on the color distribution information, determining a weight for a range predetermined color expression analyzer; And
    상기 분할된 영역에 포함된 제1 픽셀의 색상을 표현하는 픽셀값이 상기 소정의 색상 표현 범위에 포함되는 경우, 상기 제1 픽셀의 색상을 표현하는 픽셀값에 상기 가중치를 적용하여 상기 객체 영상에 대한 제1 출력 영상을 생성하는 영상 강화부를 포함하는 영상 처리 장치. , The image the object by applying the weights to the pixel value representing the color of the first pixel if the pixel value representing the color of the first pixel included in the divided regions included in the range of the predetermined color expression for enhanced image to generate a first output video image processing apparatus comprising: a.
  2. 제1항에 있어서, According to claim 1,
    상기 객체 영상 추출부는, The object image extracting unit,
    상기 분석 대상 영상의 밝기를 표현하는 픽셀값과 소정의 임계값을 비교하여 상기 픽셀값을 이진화하고, 상기 이진화된 픽셀값을 그룹핑함으로써 상기 분석 대상 영상에 포함된 상기 객체를 추출하는 영상 처리 장치. An image processing device for comparing a pixel value with a predetermined threshold value representing the brightness of the analysis object image binarizing the pixel values ​​and extracts the above objects included in the analysis object image by grouping the binarized pixel values.
  3. 제1항에 있어서, According to claim 1,
    상기 객체 영상 추출부는, The object image extracting unit,
    상기 객체 영상의 크기에 기초하여 상기 객체 영상을 상기 하나 이상의 영역들로 분할하고, Based on the size of the object image and dividing the object image into the one or more areas,
    상기 하나 이상의 영역들의 각각은 정방형인 영상 처리 장치. Each of said at least one region is a square in the image processing apparatus.
  4. 제3항에 있어서, 4. The method of claim 3,
    상기 객체 영상이 정방형이 아닌 경우, When the object image other than a square,
    상기 객체 영상을 업샘플링(up-sampling) 또는 다운샘플링(down-sampling)하여 상기 객체 영상을 정방형으로 변환한 후, 상기 객체 영상을 상기 하나 이상의 영역들로 분할하는 영상 처리 장치. Image processing apparatus for dividing the object image to the up-sampling (up-sampling) or down-sampling (down-sampling) by then converting said object image into a square shape, the one or more of the object image areas.
  5. 제1항에 있어서, According to claim 1,
    상기 색상 분포 정보는 n 개의 색상 표현 범위의 각각에 대한 정보를 포함하고, The color distribution information includes information for each of the n color representation range,
    상기 가중치는 상기 n 개의 색상 표현 범위 중 적어도 일부에 대한 가중치를 포함하는 영상 처리 장치. The weight is an image processing device including a weight for at least a portion of the n color representation range.
  6. 제5항에 있어서, 6. The method of claim 5,
    상기 n 개의 색상 표현 범위 중 상기 소정의 색상 표현 범위에 대한 가중치가 상대적으로 높게 결정되는 영상 처리 장치. The image processing apparatus the weights for the predetermined range of the color representation of the n color representation range in which a relatively high crystal.
  7. 제1항에 있어서, According to claim 1,
    상기 영상 강화부는, The enhanced image portion,
    상기 하나 이상의 영역들 중 적어도 일부에 대해 에지 기반 필터링 및 평활화 필터링 중 적어도 하나를 적용하여 상기 객체 영상에 대한 제2 출력 영상을 더 생성하고, By applying at least one of an edge-based filtering and smoothing filtering for at least some of the one or more regions, and further generate a second output image for the object image,
    상기 제1 출력 영상 및 상기 제2 출력 영상에 기초하여, 상기 객체 영상에 대한 제3 출력 영상을 생성하는 영상 처리 장치. Wherein the first output image and the image processing apparatus based on the second output image, generating a third output image for the object image.
  8. 객체를 포함하고, 상기 객체의 물성에 따라 해당 객체의 영역이 상이한 색상으로 표현된 분석 대상 영상을 수신하는 단계; Phase comprising an object and a region of the object receiving the analysis object image represented by different colors according to the object properties;
    상기 분석 대상 영상으로부터 상기 객체를 추출하는 단계; Extracting said object from said analysis target image;
    상기 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할하는 단계; Dividing the object image containing the object into one or more regions;
    상기 분할된 영역에 포함된 픽셀의 색상을 표현하는 픽셀값에 기초하여 상기 분할된 영역의 색상 분포 정보를 획득하는 단계; Obtaining a color distribution information of the divided areas on the basis of pixel values ​​representing the colors of the pixels included in the divided area;
    상기 색상 분포 정보에 기초하여, 소정의 색상 표현 범위에 대한 가중치를 결정하는 단계; Determining, based on the color distribution information, determining a weight for a given range of the color representation; And
    상기 분할된 영역에 포함된 제1 픽셀의 색상을 표현하는 픽셀값이 상기 소정의 색상 표현 범위에 포함되는 경우, 상기 제1 픽셀의 색상을 표현하는 픽셀값에 상기 가중치를 적용하여 상기 객체 영상에 대한 제1 출력 영상을 생성하는 단계를 포함하는 영상 처리 방법. , The image the object by applying the weights to the pixel value representing the color of the first pixel if the pixel value representing the color of the first pixel included in the divided regions included in the range of the predetermined color expression for image processing comprises the step of generating a first output image.
  9. 제8항에 있어서, The method of claim 8,
    상기 분석 대상 영상에 포함되어 있는 객체를 추출하는 단계는, Extracting the object included in the analysis object image is,
    상기 분석 대상 영상의 밝기를 표현하는 픽셀값과 소정의 임계값을 비교하여 상기 픽셀값을 이진화하고, 상기 이진화된 픽셀값을 그룹핑함으로써 상기 분석 대상 영상에 포함된 상기 객체를 추출하는 단계를 포함하는 영상 처리 방법. By comparing the pixel value with a predetermined threshold value representing the brightness of the analysis object image binarizing the pixel values, comprising the step of extracting the said objects it included in the analysis object image by grouping the binarized pixel values the image processing method.
  10. 제8항에 있어서, The method of claim 8,
    상기 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할하는 단계는상기 객체 영상의 크기에 기초하여 수행되고, Dividing the object image containing the object into one or more regions is performed based on the size of the object image,
    상기 하나 이상의 영역들의 각각은 정방형인 영상 처리 방법. Each of said at least one region is a square in the image processing method.
  11. 제10항에 있어서, 11. The method of claim 10,
    상기 객체 영상이 정방형이 아닌 경우, When the object image other than a square,
    상기 객체 영상을 업샘플링(up-sampling) 또는 다운샘플링(down-sampling)하여 상기 객체 영상을 정방형으로 변환한 후, 상기 객체 영상을 상기 하나 이상의 영역들로 분할하는 영상 처리 방법. Image processing method for dividing the object image into a up-sampling (up-sampling) or down-sampling (down-sampling) by then converting said object image into a square shape, the one or more of the object image areas.
  12. 제8항에 있어서, The method of claim 8,
    상기 색상 분포 정보는 n 개의 색상 표현 범위의 각각에 대한 정보를 포함하고, The color distribution information includes information for each of the n color representation range,
    상기 가중치는 상기 n 개의 색상 표현 범위 중 적어도 일부에 대한 가중치를 포함하는 영상 처리 방법. The weight is an image processing method including a weight for at least a portion of the n color representation range.
  13. 제12항에 있어서, 13. The method of claim 12,
    상기 n 개의 색상 표현 범위 중 상기 소정의 색상 표현 범위에 대한 가중치가 상대적으로 높게 결정되는 영상 처리 방법. Image processing method for a weight range of the predetermined color representation of the n color representation range in which a relatively high crystal.
  14. 제8항에 있어서, The method of claim 8,
    상기 영상 처리 방법은, The image processing method,
    상기 하나 이상의 영역들 중 적어도 일부에 대해 에지 기반 필터링 및 평활화 필터링 중 적어도 하나를 적용하여 상기 객체 영상에 대한 제2 출력 영상을 더 생성하는 단계; A step of applying at least one of the edge-based filtering and smoothing filtering for at least some of the one or more regions further generate a second output image on the object image; And
    상기 제1 출력 영상 및 상기 제2 출력 영상에 기초하여, 상기 객체 영상에 대한 제3 출력 영상을 생성하는 단계를 더 포함하는 영상 처리 방법. Wherein the first output image and based on the second output image, the image processing method further comprising the step of generating a third output image for the object image.
  15. 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체로서, As a computer-readable recording medium storing a program,
    상기 프로그램은, The program comprising:
    객체를 포함하고, 상기 객체의 물성에 따라 해당 객체의 영역이 상이한 색상으로 표현된 분석 대상 영상을 수신하는 단계; Phase comprising an object and a region of the object receiving the analysis object image represented by different colors according to the object properties;
    상기 분석 대상 영상으로부터 상기 객체를 추출하는 단계; Extracting said object from said analysis target image;
    상기 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할하는 단계; Dividing the object image containing the object into one or more regions;
    상기 분할된 영역에 포함된 픽셀의 색상을 표현하는 픽셀값에 기초하여 상기 분할된 영역의 색상 분포 정보를 획득하는 단계; Obtaining a color distribution information of the divided areas on the basis of pixel values ​​representing the colors of the pixels included in the divided area;
    상기 색상 분포 정보에 기초하여, 소정의 색상 표현 범위에 대한 가중치를 결정하는 단계; Determining, based on the color distribution information, determining a weight for a given range of the color representation; And
    상기 분할된 영역에 포함된 제1 픽셀의 색상을 표현하는 픽셀값이 상기 소정의 색상 표현 범위에 포함되는 경우, 상기 제1 픽셀의 색상을 표현하는 픽셀값에 상기 가중치를 적용하여 상기 객체 영상에 대한 제1 출력 영상을 생성하는 단계를 실행하는 컴퓨터로 판독 가능한 기록 매체. , The image the object by applying the weights to the pixel value representing the color of the first pixel if the pixel value representing the color of the first pixel included in the divided regions included in the range of the predetermined color expression on a computer-readable recording medium to execute the step of generating a first output image.
KR1020170183860A 2017-12-29 2017-12-29 Image processing apparatus and method KR101893557B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170183860A KR101893557B1 (en) 2017-12-29 2017-12-29 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170183860A KR101893557B1 (en) 2017-12-29 2017-12-29 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
KR101893557B1 true KR101893557B1 (en) 2018-08-30

Family

ID=63453393

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170183860A KR101893557B1 (en) 2017-12-29 2017-12-29 Image processing apparatus and method

Country Status (1)

Country Link
KR (1) KR101893557B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0244141A2 (en) * 1986-04-21 1987-11-04 Konica Corporation Image processing system
KR20020078610A (en) * 2001-04-06 2002-10-19 티오엠테크놀로지 주식회사 Segmentation method for interesting object in natural infrared images
US20070052706A1 (en) * 2002-12-10 2007-03-08 Martin Ioana M System and Method for Performing Domain Decomposition for Multiresolution Surface Analysis
JP2009122108A (en) * 2007-11-15 2009-06-04 Qinghua Univ Method and instrument for material identification
EP2397969B1 (en) * 2004-06-01 2013-04-17 Lumidigm, Inc. Multispectral imaging biometrics
KR20140090777A (en) * 2013-01-10 2014-07-18 한국전자통신연구원 Method for detecting and recogniting object using local binary patterns and apparatus thereof
KR101740464B1 (en) * 2016-10-20 2017-06-08 (주)제이엘케이인스펙션 Method and system for diagnosis and prognosis of stroke and systme therefor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0244141A2 (en) * 1986-04-21 1987-11-04 Konica Corporation Image processing system
KR20020078610A (en) * 2001-04-06 2002-10-19 티오엠테크놀로지 주식회사 Segmentation method for interesting object in natural infrared images
US20070052706A1 (en) * 2002-12-10 2007-03-08 Martin Ioana M System and Method for Performing Domain Decomposition for Multiresolution Surface Analysis
EP2397969B1 (en) * 2004-06-01 2013-04-17 Lumidigm, Inc. Multispectral imaging biometrics
JP2009122108A (en) * 2007-11-15 2009-06-04 Qinghua Univ Method and instrument for material identification
KR20140090777A (en) * 2013-01-10 2014-07-18 한국전자통신연구원 Method for detecting and recogniting object using local binary patterns and apparatus thereof
KR101740464B1 (en) * 2016-10-20 2017-06-08 (주)제이엘케이인스펙션 Method and system for diagnosis and prognosis of stroke and systme therefor

Similar Documents

Publication Publication Date Title
Roth et al. Deeporgan: Multi-level deep convolutional networks for automated pancreas segmentation
Caicedo et al. Histopathology image classification using bag of features and kernel functions
Beijbom et al. Automated annotation of coral reef survey images
Sirmacek et al. Urban-area and building detection using SIFT keypoints and graph theory
EP1831823B1 (en) Segmenting digital image and producing compact representation
Huang et al. Salicon: Reducing the semantic gap in saliency prediction by adapting deep neural networks
Soille Constrained connectivity for hierarchical image partitioning and simplification
Schwarz et al. RGB-D object recognition and pose estimation based on pre-trained convolutional neural network features
Lucchi et al. A fully automated approach to segmentation of irregularly shaped cellular structures in EM images
He et al. Supercnn: A superpixelwise convolutional neural network for salient object detection
US8675974B2 (en) Image processing apparatus and image processing method
Zhou et al. Segmentation of petrographic images by integrating edge detection and region growing
CN105701519B (en) Based on analysis of actual planograms scene super-pixel image
US8873812B2 (en) Image segmentation using hierarchical unsupervised segmentation and hierarchical classifiers
Preetha et al. Image segmentation using seeded region growing
Xie et al. Beyond classification: structured regression for robust cell detection using convolutional neural network
Krig Computer vision metrics: Survey, taxonomy, and analysis
Silberman et al. Instance segmentation of indoor scenes using a coverage loss
US9633282B2 (en) Cross-trained convolutional neural networks using multimodal images
CN103577475B (en) An image-automated classification method, image processing method and apparatus
Hu et al. Deep level sets for salient object detection
Pan et al. Leukocyte image segmentation using simulated visual attention
Zhao et al. Detail-preserving smoothing classifier based on conditional random fields for high spatial resolution remote sensing imagery
US8989437B2 (en) Salient object detection by composition
Ersoy et al. HEp-2 cell classification in IIF images using shareboost

Legal Events

Date Code Title Description
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant