KR101995294B1 - Image analysis apparatus and method - Google Patents

Image analysis apparatus and method Download PDF

Info

Publication number
KR101995294B1
KR101995294B1 KR1020180168527A KR20180168527A KR101995294B1 KR 101995294 B1 KR101995294 B1 KR 101995294B1 KR 1020180168527 A KR1020180168527 A KR 1020180168527A KR 20180168527 A KR20180168527 A KR 20180168527A KR 101995294 B1 KR101995294 B1 KR 101995294B1
Authority
KR
South Korea
Prior art keywords
image
information
analysis
unit
color
Prior art date
Application number
KR1020180168527A
Other languages
Korean (ko)
Inventor
김원태
강신욱
이명재
김동민
김신곤
Original Assignee
(주)제이엘케이인스펙션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제이엘케이인스펙션 filed Critical (주)제이엘케이인스펙션
Priority to KR1020180168527A priority Critical patent/KR101995294B1/en
Application granted granted Critical
Publication of KR101995294B1 publication Critical patent/KR101995294B1/en
Priority to PCT/KR2019/017806 priority patent/WO2020138803A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention provides an apparatus and a method which determine a classification standard of an object for classifying a detection target object. According to an embodiment of the present invention, the present invention relates to an image analysis method comprising the following steps: receiving an analysis target image including at least one object; using a model based on pre-learned deep learning to detect the object in the analysis target image; analyzing the detected object based on an actual measurement size of the detected object; and outputting an analysis result.

Description

영상 분석 장치 및 방법{IMAGE ANALYSIS APPARATUS AND METHOD}[0001] IMAGE ANALYSIS APPARATUS AND METHOD [0002]

본 개시는 영상 분석 장치 및 방법에 관한 것이다. 보다 구체적으로, 본 개시는 미리 학습된 딥러닝 기반의 모델을 이용하여 입력 영상에서 물체를 검출 할 때, 물체의 실측 크기를 고려하는 장치 및 방법에 관한 것이다.The present disclosure relates to an image analysis apparatus and method. More particularly, the present disclosure relates to an apparatus and method for considering an actual size of an object when an object is detected in an input image using a pre-learned deep learning based model.

항만, 공항 또는 연구 시설 등의 보안 시설에서는 보안을 강화하고 기술 유출 등을 방지하고자, 통행자의 소지품을 검색해야 하는 필요성이 야기된다. 이때, 다수의 통행자에 대한 소지품을 보다 빠르고 효율적으로 검색하기 위한 기술로서, 방사선(X-ray) 등을 이용한 물품 검색 시스템이 활용되곤 한다.In security facilities such as ports, airports or research facilities, there is a need to search for belongings of passersby to enhance security and prevent leakage of technology. At this time, an article search system using X-ray or the like is used as a technique for searching for belongings of a plurality of passers more quickly and efficiently.

이러한 물품 검색 시스템은 특히 관세 전자 통관 시스템 혹은 보안 검사 시스템 등에 널리 활용된다. 예컨대, 관세 전자 통관 시스템은 수출입 화물에 대한 통관 업무를 전산화한 것으로서, 이를 통해 다자간에 이루어지는 관세행정 업무의 효율성을 제고할 수 있다.Such an article retrieval system is widely used especially in customs electronic clearance system or security inspection system. For example, the Customs Electronic Customs clearance system is a computerized customs clearance service for import and export cargo, which can enhance efficiency of customs administration work in multilateral.

또한, 보안 검사 시스템은 통행자의 소지품에 안전 또는 보안 상 문제가 발생 할 수 있는 물품이 있는지 여부를 판단하는 보안 검사 업무를 전산화한 것으로, 이를 통해 보안 구역의 보안 강화를 제고 할 수 있다.In addition, the security inspection system is a computerized security inspection task for judging whether there is any item that may cause a safety or security problem in a passenger's belongings, thereby enhancing the security of the security zone.

한편, 딥러닝(deep learning)은 매우 방대한 양의 데이터를 학습하여, 새로운 데이터가 입력될 경우 학습 결과를 바탕으로 확률적으로 가장 높은 답을 선택하는 것으로서, 영상에 따라 적응적으로 동작할 수 있으며, 데이터에 기초하여 모델을 학습하는 과정에서 특성인자를 자동으로 찾아내기 때문에 최근 인공 지능 분야에서 이를 활용하려는 시도가 늘어나고 있는 추세이다.Deep learning, on the other hand, learns a very large amount of data, and when new data is input, it selects the highest probability with probability based on the learning result, and it can adaptively operate according to the image In the artificial intelligence field, there is an increasing tendency to utilize it in the field of artificial intelligence because it automatically finds the characteristic factor in the learning process of the model based on the data.

기존의 물품 검색 시스템은 이러한 딥러닝 등의 기술을 활용한 보다 효율적이고 정확한 데이터 분석에 관한 연구가 부족한 실정이다. 이에 따라, 검출 대상 물체의 실제 크기를 고려하여 입력 영상으로부터 물체를 검출하는 물품 검색 시스템에 대한 연구가 요구된다.The conventional product retrieval system lacks research on more efficient and accurate data analysis using such techniques as deep running. Accordingly, research on an article search system for detecting an object from an input image in consideration of an actual size of an object to be detected is required.

본 개시의 기술적 과제는, 딥러닝 기법이 적용된 물품 검색 시스템을 제공하는 것이다.The technical object of the present invention is to provide an article search system to which a deep running technique is applied.

본 개시의 또 다른 기술적 과제는, 미리 학습된 딥러닝 기반의 모델을 이용하여 물품 검색 시스템에서 획득된 영상을 분석하는 장치 및 방법을 제공하는 것이다.It is another object of the present invention to provide an apparatus and method for analyzing an image obtained in an article search system using a pre-learned deep learning based model.

본 개시의 또 다른 기술적 과제는, 미리 학습된 딥러닝 기반의 모델을 이용하여 물체를 검출 할 때, 검출 대상 물체의 실제 크기를 고려하는 장치 및 방법을 제공하는 것이다.Another object of the present invention is to provide an apparatus and a method for considering an actual size of an object to be detected when an object is detected using a model of a deep learning based on a pre-learned model.

본 개시의 또 다른 기술적 과제는, 검출 대상 물체를 분류하는 물체의 분류 기준을 결정하는 장치 및 방법을 제공하는 것이다.Another object of the present invention is to provide an apparatus and method for determining a classification criterion of an object for classifying an object to be detected.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present disclosure are not limited to the above-mentioned technical subjects, and other technical subjects which are not mentioned are to be clearly understood from the following description to those skilled in the art It will be possible.

본 개시의 일 양상에 따르면, 적어도 하나의 물체를 포함하는 분석 대상 영상을 수신하는 단계, 미리 학습된 딥러닝 기반의 모델을 이용하여 상기 분석 대상 영상에서 물체를 검출하는 단계, 상기 검출된 물체의 실측 크기를 기반으로 상기 검출된 물체를 분석하는 단계 및 상기 분석 결과를 출력하는 단계를 포함하는 영상 분석 방법이 제공 될 수 있다.According to an aspect of the present disclosure, there is provided a method of analyzing an object, the method comprising: receiving an analysis object image including at least one object; detecting an object in the analysis object image using a previously learned deep learning based model; Analyzing the detected object based on the measured size, and outputting the analysis result.

상기 영상 분석 방법은 상기 분석 대상 영상에 대한 영상 정보를 수신하는 단계를 더 포함하되, 상기 영상 정보는 상기 분석 대상 영상에 대한 해상도 정보 및 상기 분석 대상 영상에 대한 실제 크기에 대한 정보 중 적어도 하나를 포함할 수 있다.The image analysis method may further include receiving image information of the analysis target image, wherein the image information includes at least one of resolution information on the analysis target image and information on an actual size of the analysis target image .

상기 영상 분석 방법은 상기 해상도 정보를 이용하여 상기 분석 대상 영상의 픽셀 당 단위 길이를 계산하는 단계를 더 포함 할 수 있다.The image analysis method may further include calculating a unit length per pixel of the analysis object image using the resolution information.

상기 검출된 물체를 분석하는 단계는 상기 분석 대상 영상의 픽셀 당 단위 길이를 이용하여 상기 검출된 물체의 실측 크기를 계산하는 단계 및 상기 검출된 물체의 실측 크기에 기반하여 상기 물체의 종류를 결정하는 단계를 포함 할 수 있다.Analyzing the detected object may include calculating an actual size of the detected object using a unit length per pixel of the analysis target image and determining the type of the object based on the actual size of the detected object Step < / RTI >

상기 물체의 종류를 결정하는 단계는, 상기 물체의 실측 크기가 기 설정된 값보다 큰 경우, 상기 물체의 종류를 제 1 종류로 결정하고, 상기 물체의 실측 크기가 상기 기 설정된 값보다 작은 경우, 상기 물체의 종류를 제 2 종류로 결정 할 수 있다.Wherein the step of determining the type of the object determines the type of the object as the first type when the actual size of the object is larger than a preset value and if the actual size of the object is smaller than the predetermined value, The kind of object can be determined as the second kind.

상기 영상 분석 방법은 상기 물체에 대한 분류 기준을 결정하는 단계를 더 포함하되, 상기 분류 기준을 결정하는 단계는, 판독 물체를 포함하는 판독 영상을 수신하는 단계, 상기 판독 물체에 대한 정보를 수신하는 단계, 상기 판독 영상과 상기 판독 물체에 대한 정보를 이용하여 데이터 베이스를 업데이트 하는 단계 및 상기 데이터 베이스를 이용하여 물체에 대한 분류 기준을 결정하는 단계를 포함 할 수 있다.Wherein the image analysis method further comprises the step of determining a classification criterion for the object, the determining criterion comprising: receiving a readout image comprising a readout object; receiving information about the readout object Updating the database using the read image and information about the read object, and determining a classification criterion for the object using the database.

상기 분류 기준을 결정하는 단계는, 상기 판독 물체의 구성요소 각각에 서로 다른 중요도를 부가하여, 물체에 대한 분류 기준을 결정할 수 있다.The step of determining the classification criterion may determine the classification criterion for the object by adding different importance levels to the respective components of the reading object.

상기 분류 기준을 결정하는 단계는, 상기 판독 물체의 실제 크기 정보에 기반하여 물체의 분류 기준을 결정할 수 있다.The step of determining the classification criterion may determine the classification criterion of the object based on the actual size information of the reading object.

상기 데이터 베이스를 업데이트하는 단계는, 상기 판독 영상을 기 설정된 각도에 따라 정렬하는 단계 및 상기 정렬된 판독 영상과 상기 정렬된 판독 영상에 대한 정보를 이용하여 상기 데이터 베이스를 업데이트하는 단계를 포함할 수 있다.Updating the database may include aligning the read image according to a predetermined angle and updating the database using information about the aligned read image and the aligned read image have.

상기 판독 물체에 대한 정보는, 상기 판독 물체의 종류, 너비, 높이, 종횡비, 상기 판독 물체가 상기 판독 영상 내에서 회전되어 있는 정도, 상기 판독 영상의 촬영 날짜, 촬영 시간, 영상 이미지 및 저장 경로 중 적어도 하나를 포함 할 수 있다.Wherein the information on the reading object includes at least one of the type, width, height, aspect ratio of the reading object, degree of rotation of the reading object in the reading image, photographing date of the reading image, photographing time, And may include at least one.

본 개시의 다른 양상에 따르면, 적어도 하나의 물체를 포함하는 분석 대상 영상을 수신하는 분석 대상 영상 수신부, 미리 학습된 딥러닝 기반의 모델을 이용하여 상기 분석 대상 영상에서 물체를 검출하는 물체 검출부 및 상기 검출된 물체의 실측 크기를 기반으로 상기 검출된 물체를 분석하는 물체 분석부를 포함하는 영상 분석 장치가 제공 될 수 있다.According to another aspect of the present disclosure, there is provided an image processing apparatus including an analysis object image receiving unit that receives an analysis object image including at least one object, an object detection unit that detects an object in the analysis object image using a previously learned deep- And an object analyzing unit for analyzing the detected object based on the actual size of the detected object.

본 개시의 또 다른 양상에 따르면, 적어도 하나의 물체를 포함하는 분석 대상 영상을 수신하는 단계, 미리 학습된 딥러닝 기반의 모델을 이용하여 상기 분석 대상 영상에서 물체를 검출하는 단계, 상기 검출된 물체의 실측 크기를 기반으로 상기 검출된 물체를 분석하는 단계 및 상기 분석 결과를 출력하는 단계를 수행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체가 제공 될 수 있다.According to still another aspect of the present disclosure, there is provided a method of analyzing an object, the method comprising: receiving an analysis object image including at least one object; detecting an object in the analysis object image using a pre- Analyzing the detected object on the basis of the actual size of the object, and outputting the analysis result. The computer readable recording medium records the program.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다The features briefly summarized above for this disclosure are only exemplary aspects of the detailed description of the disclosure which follow, and are not intended to limit the scope of the disclosure

본 개시에 따르면, 딥러닝 기법이 적용된 물품 검색 시스템이 제공될 수 있다.According to the present disclosure, an article search system to which a deep running technique is applied can be provided.

또한, 본 개시에 따르면, 미리 학습된 딥러닝 기반의 모델을 이용하여 물품 검색 시스템에서 획득된 영상을 분석하는 장치 및 방법이 제공될 수 있다.Furthermore, according to the present disclosure, an apparatus and method for analyzing an image acquired in an article search system using a pre-learned deep learning based model can be provided.

또한, 본 개시에 따르면, 미리 학습된 딥러닝 기반의 모델을 이용하여 물체를 검출 할 때, 검출 대상 물체의 실제 크기를 고려하는 장치 및 방법이 제공 될 수 있다.Furthermore, according to the present disclosure, an apparatus and method for considering an actual size of an object to be detected when an object is detected using a model of a depth learning-based learning that has been learned in advance can be provided.

또한, 본 개시에 따르면, 검출 대상 물체를 분류하는 물체의 분류 기준을 결정하는 장치 및 방법이 제공 될 수 있다.Furthermore, according to the present disclosure, an apparatus and method for determining a classification criterion of an object for classifying an object to be detected can be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below will be.

도 1은 본 개시의 일 실시예에 따른 물품 검색 시스템을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시예에 따른 영상 분석 장치(200)의 구성을 나타내는 블록도이다.
도 3은 영상의 판독 과정을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시예에 따른 영상 판독 과정에서의 인공지능의 적용 범위를 설명하기 위한 도면이다.
도 5는 본 개시에 따른 영상 강화를 수행하는 영상 강화 장치의 일 실시예를 도시한 도면이다.
도 6은 본 개시의 일 실시예에 따라, 단일 객체를 포함하는 영상으로부터 객체와 배경을 구분하고, 객체의 위치 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시예에 따른 객체의 물성에 기초하여 색상이 표현된 영상을 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따른 영상의 색상 분포 정보에 기초하여 출력 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시예에 따른 색상 분포 정보를 이용하여 획득된 영상과 에지 기반 필터링 또는 평활화 필터링을 적용하여 획득된 영상을 결합한 최종 출력 영상을 획득하는 과정을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시예에 따른 그래피컬 모델을 이용하여 최종 출력 영상을 획득하는 과정을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시예에 따른 영상 강화 방법을 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시예에 따른 맥락 분석을 설명하기 위한 도면이다.
도 13은 본 개시의 일 실시예에 따른 영상의 맥락 정보를 생성하고 분석하는 과정을 나타내는 도면이다.
도 14는 본 개시의 일 실시예에 따른 영상 분석 장치가 영상을 분석하여 객체를 식별하는 과정을 설명하기 위한 도면이다.
도 15는 본 개시의 일 실시예에 따른 영상 분석 장치의 동작을 설명하기 위한 도면이다.
도 16은 다채널 특징맵을 생성하는 합성곱 신경망의 일 실시예를 설명하기 위한 도면이다.
도 17은 풀링 기법의 일 실시예를 설명하기 위한 도면이다.
도 18은 본 개시의 일 실시예에 따른 영상 합성 장치의 구성을 나타내는 블록도이다.
도 19는 본 개시의 일 실시예에 따른 단일 객체를 포함하는 두 개의 영상을 이용하여 다중 객체 영상을 생성하는 과정을 나타내는 도면이다.
도 20은 본 개시의 일 실시예에 따른 다중 객체 영상을 이용하여 합성곱 신경망을 학습시키는 과정을 나타내는 도면이다.
도 21은 본 개시의 일 실시예에 따른 영상 합성 장치를 이용하여 실제 영상을 분석하는 과정을 설명하기 위한 도면이다.
도 22는 본 개시의 일 실시예에 따른 영상 합성 방법을 설명하기 위한 도면이다.
도 23은 본 개시의 일 실시예에 따른 영상 분석 방법을 설명하기 위한 흐름도이다.
도 24는 본 개시의 다른 실시예에 따른 영상 분석 방법을 설명하기 위한 흐름도이다.
도 25는 본 개시의 일 실시예에 따른 물체의 분류 기준을 결정하는 방법을 설명하기 위한 흐름도이다.
도 26은 본 개시의 일 실시예에 따른 물체의 분류 기준을 결정하는 방법을 설명하기 위한 도면이다.
도 27은 물체의 분류 기준의 예시를 도시하는 도면이다.
도 28은 본 개시의 일 실시예에 따른 물체의 데이터베이스를 도시한 도면이다.
도 29는 본 개시의 몇몇 실시예에 따른 영상 분석 결과를 설명하기 위한 도면이다.
도 30은 본 개시의 일 실시예에 따른 따른 영상 분석 장치의 구성을 나타내는 다른 블록도이다.
1 is a diagram for explaining an article search system according to an embodiment of the present disclosure.
2 is a block diagram showing a configuration of an image analysis apparatus 200 according to an embodiment of the present disclosure.
3 is a diagram for explaining a process of reading an image.
4 is a diagram for explaining an application range of artificial intelligence in an image reading process according to an embodiment of the present disclosure.
FIG. 5 is a view showing an embodiment of an image enhancement apparatus for performing image enhancement according to the present disclosure.
FIG. 6 is a diagram for explaining a process of separating an object and a background from an image including a single object and generating position information of the object according to an embodiment of the present disclosure;
7 is a view showing an image in which a hue is expressed based on the physical properties of an object according to an embodiment of the present disclosure;
8 is a diagram for explaining a process of generating an output image based on color distribution information of an image according to an embodiment of the present disclosure.
FIG. 9 is a diagram for explaining a process of acquiring a final output image obtained by combining an image obtained using color distribution information and an image obtained by applying edge-based filtering or smoothing filtering according to an embodiment of the present disclosure.
10 is a diagram for explaining a process of obtaining a final output image using a graphical model according to an embodiment of the present disclosure.
11 is a view for explaining an image enhancement method according to an embodiment of the present disclosure.
12 is a diagram for explaining context analysis according to an embodiment of the present disclosure.
13 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present disclosure.
14 is a diagram for explaining a process of analyzing an image and identifying an object according to an image analysis apparatus according to an embodiment of the present disclosure.
15 is a diagram for explaining the operation of the image analysis apparatus according to an embodiment of the present disclosure.
16 is a view for explaining an embodiment of a composite neural network for generating a multi-channel feature map.
17 is a view for explaining an embodiment of the pulling technique.
18 is a block diagram showing a configuration of an image synthesizing apparatus according to an embodiment of the present disclosure.
19 is a view illustrating a process of generating a multi-object image using two images including a single object according to an embodiment of the present disclosure.
20 is a diagram illustrating a process of learning a composite-object neural network using a multi-object image according to an embodiment of the present disclosure.
21 is a diagram for explaining a process of analyzing an actual image using the image synthesizing apparatus according to an embodiment of the present disclosure.
FIG. 22 is a view for explaining an image synthesizing method according to an embodiment of the present disclosure; FIG.
23 is a flowchart illustrating an image analysis method according to an embodiment of the present disclosure.
24 is a flowchart for explaining an image analysis method according to another embodiment of the present disclosure.
25 is a flowchart for explaining a method of determining a classification criterion of an object according to an embodiment of the present disclosure.
FIG. 26 is a diagram for explaining a method of determining a classification criterion of an object according to an embodiment of the present disclosure; FIG.
27 is a diagram showing an example of classification criteria of an object.
28 is a diagram of a database of objects in accordance with one embodiment of the present disclosure;
29 is a diagram for explaining image analysis results according to some embodiments of the present disclosure.
30 is another block diagram showing a configuration of an image analysis apparatus according to an embodiment of the present disclosure.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, which will be easily understood by those skilled in the art. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein.

본 개시의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. Parts not related to the description of the present disclosure in the drawings are omitted, and like parts are denoted by similar reference numerals.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when an element is referred to as being "connected", "coupled", or "connected" to another element, it is understood that not only a direct connection relationship but also an indirect connection relationship May also be included. Also, when an element is referred to as " comprising "or" having "another element, it is meant to include not only excluding another element but also another element .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제1 구성요소는 다른 실시예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, the terms first, second, etc. are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements, etc. unless specifically stated otherwise. Thus, within the scope of this disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly a second component in one embodiment may be referred to as a first component .

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are intended to clearly illustrate each feature and do not necessarily mean that components are separate. That is, a plurality of components may be integrated into one hardware or software unit, or a single component may be distributed into a plurality of hardware or software units. Thus, unless otherwise noted, such integrated or distributed embodiments are also included within the scope of this disclosure.

본 개시에 있어서, 다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 개시의 범위에 포함된다. In the present disclosure, the components described in the various embodiments are not necessarily essential components, and some may be optional components. Thus, embodiments consisting of a subset of the components described in one embodiment are also included within the scope of the present disclosure. Also, embodiments that include other elements in addition to the elements described in the various embodiments are also included in the scope of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시예들에 대해서 설명한다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 물품 검색 시스템을 설명하기 위한 도면이다.1 is a diagram for explaining an article search system according to an embodiment of the present disclosure.

물품 검색 시스템(100)은 판독부(110) 및/또는 학습부(120)를 포함할 수 있다. 판독부(110)는 영상 분석 장치(112) 및/또는 출력 장치(114)를 포함할 수 있다. 학습부(120)는 데이터 베이스(122), 딥러닝 학습부(124), 알고리즘 검증부(126) 및/또는 학습된 모델 저장부(128)를 포함할 수 있다. 판독부(110)는 판독 인터페이스로서 기능할 수 있으며, 학습부(120)는 중앙 관리되는 인공지능 데이터 센터로서 기능할 수 있다.The article retrieval system 100 may include a reading unit 110 and / or a learning unit 120. [ The reader 110 may include an image analyzer 112 and / or an output device 114. The learning unit 120 may include a database 122, a deep learning learning unit 124, an algorithm verification unit 126, and / or a learned model storage unit 128. The reading unit 110 may function as a reading interface, and the learning unit 120 may function as a centrally managed intelligent data center.

이하에서는, 본 개시에 따른 물품 검색 시스템이 전자 통관 시스템 혹은 보안 검색 시스템에 활용되는 경우를 예를 들어 설명한다. 하지만 본 개시에 따른 물품 검색 시스템이 이러한 활용에만 한정되는 것은 아니다. 이외에도, 본 개시에 따른 물품 검색 시스템은 다양한 목적에 따라 특정 물품을 식별하는 역할을 수행하는 시스템에서 활용 될 수 있다.Hereinafter, the case where the article search system according to the present disclosure is applied to an electronic clearance system or a security search system will be described as an example. However, the article retrieval system according to the present disclosure is not limited to this use. In addition, the article retrieval system according to the present disclosure can be utilized in a system that performs a role of identifying a specific article according to various purposes.

물품 검색 시스템(100)의 입력(130)은 영상, 물품 정보 및/또는 제어 정보를 포함할 수 있다. The input 130 of the article retrieval system 100 may include image, article information, and / or control information.

상기 영상은 적어도 하나의 객체를 포함하는 물품에 관한 영상일 수 있다. 예컨대, X-Ray 판독 기기가 촬영한 물품에 관한 X-Ray 영상일 수 있다. 상기 영상은 X-Ray 영상 기기가 촬영한 로(raw) 이미지이거나 상기 로 이미지를 저장 또는 전송하기 위한 임의의 형태(포맷)의 이미지일 수 있다. 상기 영상은 X-Ray 판독 기기가 촬영하여 모니터와 같은 출력 장치로 전송하는 영상 정보를 캡쳐하여 데이터화함으로써 획득될 수도 있다. 영상은 출력 장치(114)에 출력되기 전, 또는 영상 분석 장치(112)에 입력되기 전에 강화될 수 있다. 영상을 강화하는 방법에 대해서는 후술한다. 출력 장치(114)는 영상 또는 강화된 영상을 출력할 수 있다. 영상 분석 장치(112)는 영상 또는 강화된 영상을 입력 받아 후술하는 영상 분석 장치(112)의 동작을 수행할 수 있다. The image may be an image relating to an article comprising at least one object. For example, it may be an X-ray image of an article taken by an X-ray reading device. The image may be a raw image taken by an X-ray imaging device or an image in any form (format) for storing or transmitting the image. The image may be obtained by capturing image data captured by an X-ray reading device and transmitting the image data to an output device such as a monitor and then data. The image may be enhanced before being output to the output device 114 or before being input to the image analysis device 112. A method of enhancing an image will be described later. The output device 114 may output an image or an enhanced image. The image analysis apparatus 112 may receive an image or an enhanced image and may perform an operation of the image analysis apparatus 112 described later.

상기 영상 정보는 X-ray 판독 기기를 통해 전송되거나, 판독원(114) 혹은 사용자에 의해 입력된, 영상 자체의 속성에 대한 정보 일 수 있다. 예를 들어, 상기 영상 정보는 상기 영상에 대한 분해능 정보, 해상도 정보, 휘도 범위 정보, 색차 범위 정보, 픽셀 정보, 상기 영상의 실제 크기에 관한 정보, 영상의 각도 정보, 영상의 종횡비 정보 영상 저장 경로에 대한 정보, 영상 촬영 날짜 및 영상 촬영 시간 중 적어도 하나를 포함할 수 있다. 이외에도, 전송된 영상 자체의 속성을 나타내기 위한 다양한 정보가 영상 정보에 포함 될 수 있다.The image information may be transmitted through an X-ray reading device, or may be information about an attribute of the image itself input by the reading source 114 or the user. For example, the image information may include resolution information, resolution information, luminance range information, color difference range information, pixel information, information on the actual size of the image, angle information of the image, Information on the date of image capture, date of image capture, and image capture time. In addition, various information for indicating the attribute of the transmitted image itself may be included in the image information.

상기 물품 정보는 대응하는 영상에 포함된 물품에 관한 정보일 수 있다. 예를 들어, 영상 분석 장치로 입력되는 물품이 전자 통관 시스템에서의 화물인 경우, 물품 정보는 수입 신고된 정보 및/또는 통관 목록 리스트 정보를 포함할 수 있다. 다른 예로, 영상 분석 장치로 입력되는 물품이 보안 검사 시스템에서의 물품인 경우, 물품 정보는 통행자의 식별 정보, 통행자의 보안 레벨 및/또는 통행자의 인가 품목 정보를 포함 할 수 있다.The article information may be information on the article included in the corresponding image. For example, if the goods entered into the image analysis device is a cargo in the e-commerce system, the goods information may include information on import declaration and / or customs listing information. As another example, when the article input to the image analysis apparatus is an article in the security check system, the article information may include identification information of the passer, the security level of the passer, and / or the item information of the passer.

물품 정보는 영상 분석 장치(112)에 입력되기 전에 소정의 전처리 과정을 거칠 수 있다. 예컨대, 물품 정보에 포함된 물품 목록, 반입 정보 등에 대해 품명의 정제 작업이 수행될 수 있다. 품명의 정제 작업이란 동일 또는 유사한 물품에 대해 입력되는 다양한 물품의 명칭을 통일하는 작업을 의미할 수 있다. The article information may be subjected to a predetermined preprocessing process before being input to the image analysis apparatus 112. For example, refinement of the name of the article may be performed on the list of articles, the information of imports, etc. contained in the article information. Refining work of a product name may mean an operation of unifying the names of various articles inputted for the same or similar articles.

물품 정보의 입력은 선택적일 수 있다. 예컨대, 본 개시의 물품 검색 시스템(100)은 물품 정보의 입력이 없어도 영상만을 입력으로 받아 동작할 수 있다. 상기 물품은 검사 또는 판독 대상의 물품으로서 모든 종류의 물품을 포함할 수 있다. 예컨대, 본 개시에 따른 영상 분석 장치가 전자 통관 시스템에 사용되는 경우, 상기 물품은 특송 화물, 우편 화물, 컨테이너 화물, 여행자 수송 화물 및 여행자 자신 중 적어도 하나일 수 있다. 다른 예로, 본 개시에 따른 영상 분석 장치가 보안 검색 시스템에 사용되는 경우, 상기 물품은 통행자 소지품 및 통행자 자신 중 적어도 하나 일 수 있다.The input of article information may be optional. For example, the article search system 100 of the present disclosure can operate only by inputting images without inputting article information. The article may include any kind of article as an article to be inspected or read. For example, when the image analysis apparatus according to the present disclosure is used in an electronic clearance system, the article may be at least one of a express cargo, a postal cargo, a container cargo, a traveler cargo and a traveler himself. As another example, when the image analysis apparatus according to the present disclosure is used in a security search system, the article may be at least one of a passenger belonging and a passenger himself.

예를 들어, 전자 통관 시스템이 여행자를 판독한 결과, 판독된 여행자가 이상이 있거나 위험한 객체를 과거에 운송한 이력이 있는 요주의 여행자인 경우, 해당 여행자의 화물에 대해서는 다른 여행자의 화물보다 높은 수준의 분석 및/또는 판독을 수행하도록 할 수 있다. 예컨대, 특정 물품이 요주의 여행자의 화물이라는 정보를 판독원에게 제공할 수 있다.For example, if the e-clearance system reads a traveler and the read traveler is an anxious traveler with an anomaly or a history of carrying a dangerous object in the past, the traveler's cargo may be of a higher level than other traveler's cargo Analysis and / or reading. For example, information that a specific article is a cargo of a critical traveler can be provided to the readers.

다른 예로, 통행자를 판독한 결과, 통행자가 보안 레벨이 높은 통행자인 경우, 해당 통행자의 소지품에 대해서는 다른 통행자보다 높은 수준의 분석 및/또는 판독을 수행하도록 할 수 있다. 예컨대, 특정 물품이 보안 레벨이 높은 통행자의 소지품이라는 정보를 판독원에게 제공 할 수 있다.As another example, if the passer is a passenger with a high security level as a result of reading the passer, the passenger can perform analysis and / or reading at a higher level than the other passenger for the passenger's belongings. For example, information that a specific article is a belonging of a passenger with a high security level can be provided to a read-out person.

상기 제어 정보는 영상 판독을 제어하거나, 판독된 영상을 제어하는 정보 일 수 있다. 일예로, 제어 정보는 판독원(140)에 의해 입력될 수 있다. 예를 들어 제어 정보는 판독원 정보, 관리자 정보, 동작 모드 정보, 판독 민감도 정보 및/또는 유저 인터페이스 정보를 포함 할 수 있다. 제어 정보의 구체적인 활용에 대해서는 후술 하도록 한다.The control information may be information for controlling image reading or controlling the read image. For example, the control information may be input by the readout source 140. [ For example, the control information may include read source information, manager information, operation mode information, read sensitivity information, and / or user interface information. Specific use of the control information will be described later.

물품 검색 시스템(100)은 영상, 물품 정보 및/또는 제어 정보(130)를 입력 받아 출력 장치(114)에 전송하거나, 영상 분석 장치(112)에 전송할 수 있다. 영상 분석 장치(112)는 미리 학습된 딥러닝 기반의 모델을 이용하여 입력된 영상을 분석할 수 있다. 영상 분석 장치(112)는 분석된 결과를 출력 장치(114)로 전송할 수 있다. 출력 장치(114)는 입력된 영상, 물품 정보 및/또는 제어 정보(130), 영상 분석 장치(112)로부터 전송 받은 영상 분석 결과 및/또는 유저 인터페이스를 출력하고, 판독원(140)은 출력 장치(114)의 출력 결과를 판독할 수 있다. 전술한 바와 같이, 물품 정보(130)에 대해 정제 작업이 수행될 수 있으며, 또한, 영상 분석 장치(112)에 입력되기 전 및/또는 출력 장치(114)에 출력되기 전에 분석 대상 영상에 대해 영상 강화가 수행될 수 있다.The article searching system 100 may receive the image, the article information and / or the control information 130 and transmit the same to the output apparatus 114 or the image analyzing apparatus 112. The image analyzing apparatus 112 can analyze the input image using the deep learning based model that has been learned in advance. The image analysis device 112 may transmit the analyzed result to the output device 114. [ The output device 114 outputs the input image, the article information and / or the control information 130, the image analysis result and / or the user interface transmitted from the image analysis device 112, It is possible to read out the output result of the memory 114. As described above, the refinement operation can be performed on the article information 130, and the image to be analyzed can be imaged before being input to the image analysis apparatus 112 and / Strengthening can be performed.

출력 장치(114)는 모니터, 경고등 등의 시각 정보를 출력하는 장치, 스피커 등의 음향 정보를 출력하는 장치, 바이브레이터 등의 촉각 정보를 출력하는 장치 등 인간이 감지할 수 있는 모든 형태의 신호를 출력할 수 있는 장치를 포함한다. 출력 장치(114)를 통해 유저 인터페이스가 제공 될 수 있으며, 판독원은 상기 유저 인터페이스를 이용하여 물품 검색 시스템(100)의 동작을 제어 할 수 있다. 예를 들어, 판독원(140)은 출력되는 유저 인터페이스를 이용하여 제어 정보를 입력함으로써, 영상 분석 장치의 동작을 제어 할 수 있다.The output device 114 outputs all kinds of human-sensible signals such as a device for outputting visual information such as a monitor and a warning light, a device for outputting acoustic information such as a speaker, and a device for outputting tactile information such as a vibrator And the like. A user interface may be provided via the output device 114 and the reader may use the user interface to control the operation of the article retrieval system 100. For example, the reading source 140 can control the operation of the image analysis apparatus by inputting control information using the output user interface.

상기 영상 분석 장치(112)의 영상 분석 결과, 해당 영상에 검출 대상인 객체, 이상이 있는 객체 또는 위험도가 임계치 이상인 객체가 포함된 경우, 이와 관련된 정보가 영상 분석 결과로서 출력 장치(114)를 통해 출력되고, 판독원(140)은 이를 확인할 수 있다. 상기 영상 분석 장치(112)는 분석 대상 영상을 분석하는 다양한 과정을 수행할 수 있다. 예컨대, 영상 분석 장치(112)는 분석 대상 영상을 보다 정확히 분석하기 위해, 맥락 분석을 수행할 수 있다. 상기 영상 분석 장치(112)가 수행하는 다양한 과정 및 맥락 분석에 대해서는 후술한다. When the image of the image analyzing apparatus 112 includes an object to be detected, an object having an abnormality, or an object having a risk level equal to or higher than a threshold value, the information related thereto is output as an image analysis result through the output device 114 And the reading source 140 can confirm this. The image analyzing apparatus 112 may perform various processes for analyzing an analysis target image. For example, the image analyzer 112 may perform context analysis to more accurately analyze the image to be analyzed. Various processes and context analysis performed by the image analysis apparatus 112 will be described later.

판독원(140)은 출력 장치(114)를 통해 출력된 영상 분석 결과에 기초하여 추가적인 검사의 수행 여부를 결정할 수 있다. 상기 추가적인 검사는 해당 영상에 관한 물품을 직접 열어 해당 물품에 포함된 객체를 확인하는 개장 검사를 포함할 수 있다. 본 명세서에서 검색 대상 객체는 전술한 바와 같이 이상이 있는 객체 또는 위험도가 임계치 이상인 객체를 의미할 수 있다. 그러나 이에 한정되지 않으며, 본 개시의 시스템에 의해 검출 또는 검색하고자 하는 다양한 객체를 포함할 수 있다.The reading source 140 may determine whether to perform additional examination based on the image analysis result output through the output device 114. [ The additional inspection may include opening inspection directly opening an article related to the image and confirming an object included in the article. In this specification, the object to be searched may refer to an object having an abnormality or an object having a risk greater than a threshold value as described above. However, it is not so limited and may include various objects that are to be detected or searched by the system of the present disclosure.

영상 분석 장치의 영상 분석 결과, 판독원이 직접 개장 검사를 수행한 후 입력하는 개장 검사 결과 및/또는 영상 분석 장치가 영상과 물품 정보를 매칭한 매칭 결과 정보 등은 학습부(120)에 전송될 수 있다. 학습부(120)는 새롭게 수신한 정보를 데이터 베이스(122)에 저장하고, 딥러닝 학습부(124)는 데이터 베이스(122)에 저장된 정보를 이용하여 딥러닝 학습을 수행할 수 있다. 또는 데이터 베이스(122)에 저장됨이 없이, 딥러닝 학습부(124)가 상기 학습 데이터의 전부 또는 일부를 직접 수신할 수도 있다. 딥러닝 학습부(124)에서 학습된 결과는 알고리즘 검증부(126)에서 검증되고, 검증된 모델은 학습된 모델 저장부(128)에 업데이트된 모델로서 저장될 수 있다. 학습된 모델 저장부(128)에 저장된 모델은 다시 영상 분석 장치(112)로 전송되고, 영상 분석 장치(112)는 수신한 모델을 전술한 미리 학습된 딥러닝 기반의 모델로서 업데이트하여 이용할 수 있다. 학습부(120)는 복수의 영상을 수신하여 합성함으로써 하나의 합성 영상을 생성할 수 있다. 또한 상기 복수의 영상의 각각에 대한 영상 분석 결과, 개장 검사 결과 및/또는 매칭 결과 정보 등을 이용하여 상기 합성 영상에 대응하는 가상의 영상 분석 결과, 개장 검사 결과 및/또는 매칭 결과 정보를 생성할 수 있다. 학습부(120)는 상기 합성 영상 및 상기 생성된 가상의 정보 등을 학습 데이터로서 이용할 수 있다. 이에 따르면 학습 데이터의 수가 절대적으로 적다고 하더라도, 이들 학습 데이터를 합성하거나 병합함으로써, 인공 지능 모델의 학습에 필요한 충분한 양의 학습 데이터를 생성해 낼 수 있다. 영상의 합성 및 합성 영상에 대한 가상의 정보의 생성에 대해서는 후술한다.As a result of the image analysis of the image analysis apparatus, the remediation test result inputted after the read source performs the direct remediation test and / or the matching result information in which the image analysis apparatus matches the image and the article information is transmitted to the learning unit 120 . The learning unit 120 stores the newly received information in the database 122 and the deep learning learning unit 124 can perform the deep learning learning using the information stored in the database 122. [ Or the deep learning learning unit 124 may directly receive all or a part of the learning data without being stored in the database 122. [ The learning result of the deep learning learning unit 124 may be verified by the algorithm verification unit 126 and the verified model may be stored as an updated model in the learned model storage unit 128. The model stored in the learned model storage unit 128 is transmitted again to the image analysis apparatus 112. The image analysis apparatus 112 can update the received model as a previously learned deep learning based model . The learning unit 120 may generate a composite image by receiving and combining a plurality of images. Also, the virtual image analysis result, the refinement inspection result and / or the matching result information corresponding to the composite image are generated using the image analysis result, the refinement inspection result and / or the matching result information for each of the plurality of images . The learning unit 120 may use the composite image and the generated virtual information as learning data. According to this, even if the number of learning data is absolutely small, a sufficient amount of learning data necessary for learning of the artificial intelligence model can be generated by combining or merging these learning data. Synthesis of images and generation of virtual information on the synthesized image will be described later.

판독부(110)와 학습부(120)는 별개의 장치로 구현될 수도 있고, 동일한 장치 내에서 구현될 수도 있다. 또한 판독부(110)와 학습부(120)가 포함하는 구성의 일부 또는 전부는 하드웨어로 구성되거나 소프트웨어로 구성될 수 있다.The reading unit 110 and the learning unit 120 may be implemented as separate devices or may be implemented in the same device. Also, some or all of the configurations included in the reading unit 110 and the learning unit 120 may be configured by hardware or software.

인공지능 기술은 컴퓨터에게 데이터를 학습시켜 마치 사람처럼 스스로 의사결정을 할 수 있게 하는데, 인공 신경망(artificial neural network)은 생물학의 신경망에서 영감을 얻은 수학적 모델로서, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런이 학습을 통해 시냅스의 결합 세기를 변화시킴으로써 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 일반적으로 입력층(input layer), 은닉층(hidden layer) 및 출력층(output layer)로 구성되어 있으며 각 층에 포함된 뉴런들이 가중치를 통해 연결되어 있으며, 가중치와 뉴런값의 선형 결합과 비선형 활성화 함수를 통해 인공 신경망은 복잡한 함수를 근사화할 수 있는 형태를 가질 수 있다. 인공 신경망 학습의 목적은 출력층에서 계산된 출력과 실제 출력의 값 차이를 최소화 시키는 가중치를 찾는데 있다.Artificial intelligence technology allows computers to learn data and make decisions like a person. Artificial neural network is a mathematical model that is inspired by neural networks of biology. Neurons can mean the entire model with problem solving ability by changing the synaptic bond strength through learning. Artificial neural networks are generally composed of an input layer, a hidden layer and an output layer. The neurons contained in each layer are connected via weights. The linear combination of weights and neuron values, Through an activation function, an artificial neural network can have a form that can approximate a complex function. The objective of artificial neural network learning is to find a weight that minimizes the difference between the output of the output layer and the actual output.

심층 신경망(deep neural network)은 입력층과 출력층 사이에 여러 개의 은닉층들로 이루어진 인공 신경망으로서, 많은 은닉층을 통해 복잡한 비선형 관계들을 모델링할 수 있으며, 이처럼 층의 개수를 늘림으로써 고도화된 추상화가 가능한 신경망 구조를 딥러닝(deep learning)이라고 부른다. 딥러닝은 매우 방대한 양의 데이터를 학습하여, 새로운 데이터가 입력될 경우 학습 결과를 바탕으로 확률적으로 가장 높은 답을 선택하기 때문에 영상에 따라 적응적으로 동작할 수 있으며, 데이터에 기초하여 모델을 학습하는 과정에서 특성인자를 자동으로 찾아낼 수 있다.The deep neural network is an artificial neural network composed of several hidden layers between the input layer and the output layer. It can model complex nonlinear relations through many hidden layers. By increasing the number of layers in this way, The structure is called deep learning. Deep learning learns a very large amount of data, and when new data is input, it chooses the highest possible answer based on the learning result, so it can operate adaptively according to the image, In the course of learning, you can automatically find the characteristic parameter.

본 개시의 일 실시예에 따르면, 딥러닝 기반의 모델은 완전 합성곱 신경망(완전 컨볼루션 뉴럴 네트워크, fully convolutional neural network), 합성곱 신경망(컨볼루션 뉴럴 네트워크, convolutional neural network), 순환 신경망(회귀 뉴럴 네트워크, recurrent neural network), 제한 볼츠만 머신(restricted Boltzmann machine, RBM) 및 심층 신뢰 신경망(deep belief neural network, DBN) 중 적어도 하나를 포함할 수 있으나, 이에 제한되지 않는다. 또는, 딥러닝 이외의 머신 러닝 방법도 포함할 수 있다. 또는 딥러닝과 머신 러닝을 결합한 하이브리드 형태의 모델도 포함할 수 있다. 예컨대, 딥러닝 기반의 모델을 적용하여 영상의 특징을 추출하고, 상기 추출된 특징에 기초하여 영상을 분류하거나 인식할 때는 머신 러닝 기반의 모델을 적용할 수도 있다. 머신 러닝 기반의 모델은 서포트 벡터 머신(Support Vector Machine, SVM), 에이다부스트(AdaBoost) 등을 포함할 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present disclosure, the deep learning-based model may be a fully convolutional neural network, a convolutional neural network, But is not limited to, at least one of a neural network, a recurrent neural network, a restricted Boltzmann machine (RBM), and a deep belief neural network (DBN). Alternatively, a machine running method other than deep running may be included. Or a hybrid model combining deep running and machine running. For example, a feature of an image may be extracted by applying a deep learning-based model, and a model based on a machine learning may be applied when an image is classified or recognized based on the extracted feature. The machine learning based model may include, but is not limited to, a support vector machine (SVM), an AdaBoost, and the like.

또한, 본 개시의 일 실시예에 따르면, 딥러닝 기반의 모델을 학습하는 방법은 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 또는 강화 학습(reinforcement learning) 중 적어도 하나를 포함할 수 있으나, 이에 제한되지 않는다. 지도 학습은 일련의 학습 데이터와 그에 상응하는 레이블(label, 목표 출력값)을 이용하여 학습이 이루어지며, 지도 학습에 기초한 신경망 모델은 훈련용 데이터(training data)로부터 함수를 추론해내는 형태의 모델일 수 있다. 지도 학습은 일련의 학습 데이터와 그에 상응하는 목표 출력 값을 수신하고, 입력되는 데이터에 대한 실제 출력 값과 목표 출력 값을 비교하는 학습을 통해 오류를 찾아내고, 해당 결과를 근거로 모델을 수정하게 된다. 지도 학습은 결과물의 형태에 따라 다시 회귀(regression), 분류(classification), 검출(detection), 시멘틱 세그멘테이션(semantic segmentation) 등으로 구분될 수 있다. 지도 학습을 통해 도출된 함수는 다시 새로운 결과값을 예측하는데 사용될 수 있다. 이처럼, 지도 학습에 기초한 신경망 모델은 수많은 학습 데이터의 학습을 통해, 신경망 모델의 파라미터를 최적화하게 된다.Also, according to one embodiment of the present disclosure, a method of learning a deep learning based model may include at least one of supervised learning, unsupervised learning, or reinforcement learning , But is not limited thereto. Map learning is performed by using a series of learning data and a corresponding label (label, target output value), and a neural network model based on map learning is a model model in which a function is inferred from training data . Map learning receives a series of learning data and a corresponding target output value, finds an error through learning to compare the actual output value with the target output value for the input data, and modifies the model based on the result do. Map learning can be divided into regression, classification, detection, and semantic segmentation depending on the type of the result. The function derived from the map learning can be used again to predict new results. As such, the neural network model based on the map learning can optimize the parameters of the neural network model through learning of a large number of learning data.

본 개시의 일 실시예에 따르면, 딥러닝 기반의 모델은 입력 영상과 물품에 대한 정보를 학습에 이용할 수 있으며, 학습된 모델을 생성한 후에도 본 개시의 장치에서 획득된 영상과 물품에 대한 정보를 이용하여 신경망 모델을 업데이트할 수 있다. 또한, 본 개시의 일 실시예에 따른 딥러닝 기반의 모델은 본 개시의 방법에 의해 출력되는 분석 결과, 예를 들어 식별된 객체에 대한 이상 유무 또는 위험도, 객체에 관한 정보, 식별된 객체가 검색 대상 객체인지의 여부 등의 예측 결과, 상기 예측 결과와 최종 개장 검사 결과에 대한 비교 정보, 상기 예측 결과에 대한 평가도 또는 신뢰도 정보 등을 이용하여 신경망 모델을 업데이트할 수 있다.According to one embodiment of the present disclosure, a deep learning-based model can use information about an input image and an article for learning, and even after generating a learned model, information about images and articles obtained in the apparatus of this disclosure Can be used to update the neural network model. Further, a deep learning based model according to an embodiment of the present disclosure may be applied to an analysis result output by the method of the present disclosure, for example, anomaly or risk for an identified object, information about an object, The neural network model can be updated by using prediction results such as whether the target object is a target object, comparison information on the prediction result and the final open inspection result, evaluation degree or reliability information on the prediction result, and the like.

도 2는 본 개시의 일 실시예에 따른 영상 분석 장치(200)의 구성을 나타내는 블록도이다. 도 2의 영상 분석 장치(200)는 도 1의 영상 분석 장치(112)의 일 실시예다.2 is a block diagram showing a configuration of an image analysis apparatus 200 according to an embodiment of the present disclosure. The image analysis apparatus 200 of FIG. 2 is an embodiment of the image analysis apparatus 112 of FIG.

영상 분석 장치(200)는 영상 수신부(210), 물품 정보 매칭부(220) 및/또는 영상 분석부(230)를 포함할 수 있다. 전술한 바와 같이, 물품 정보의 입력은 선택적이므로, 영상 분석 장치(200)는 물품 정보 매칭부(220)를 포함하지 않을 수 있다. 물품 정보의 입력에 관한 설명은 도 1을 참조하여 설명된 바와 같다.The image analysis apparatus 200 may include an image receiving unit 210, an article information matching unit 220, and / or an image analysis unit 230. As described above, since the input of the article information is optional, the image analyzing apparatus 200 may not include the article information matching unit 220. The description of the input of the article information is as described with reference to Fig.

영상 수신부(210)는 하나 이상의 객체를 포함하는 물품에 관한 영상을 수신할 수 있다. 영상 수신부(210)가 수신하는 영상에 관한 설명은 도 1을 참조하여 설명된 바와 같다.The image receiving unit 210 may receive an image related to an article including one or more objects. The description of the image received by the image receiving unit 210 is as described with reference to FIG.

물품 정보 매칭부(220)는 물품 정보 및 영상 수신부(210)에서 수신한 영상을 입력으로 수신하여 물품 정보와 영상의 매칭을 수행할 수 있다. 상기 물품 정보에 대한 설명은 도 1을 참조하여 설명된 바와 같다. 매칭된 영상과 물품 정보는 판독원에게 출력되어 판독원의 판독 업무를 보조할 수 있다. 또는 매칭된 영상과 물품 정보는 도 1의 학습부(120)에 전송되어, 딥러닝 모델의 학습에 이용될 수도 있다. 매칭된 영상과 물품 정보는 도 1의 학습부(120)의 데이터 베이스(122)에 저장되고, 이후, 판독 대상별 및/또는 판독 업무별로 정제되고, 딥러닝 학습부(124)는 판독 대상별 및/또는 적용될 판독 업무별로 정제된 데이터를 이용하여 학습을 수행할 수 있다. 상기 판독 대상은 특송 화물, 우편 화물, 컨테이너 화물, 여행자 수송 화물 및 여행자를 포함할 수 있다. 또한 상기 판독 대상은 통행자 소지품 및 통행자를 포함 할 수 있다. 상기 판독 업무는 물체에 포함된 객체의 이상 유무 또는 위험 여부 판단, 식별된 객체가 검색 대상 객체인지의 여부 판단, 식별된 객체와 물체에 대한 정보의 매칭 여부에 대한 판단, 물체가 신고된 것인지 또는 신고되지 않은 것인지에 대한 판단을 포함할 수 있다. 전술한 바와 같이 학습부(124)에서 학습된 모델은 영상 분석부(230)에 입력되어 기존의 모델을 업데이트할 수 있다. 이 때, 판독 대상에 따라 적합한 인공 지능이 업데이트될 수 있다. 또한, 전술한 바와 같이, 학습부(124)는 기존의 학습 데이터를 활용하여 새로운 학습 데이터를 생성하고 이를 학습에 이용할 수도 있다. 새로운 학습 데이터는 기존의 영상의 합성 및 데이터의 병합에 의해 생성될 수 있음은 전술한 바와 같다.The article information matching unit 220 receives the article information and the image received by the image receiving unit 210 as input, and performs matching of the article information and the image. The description of the article information is as described with reference to Fig. The matched image and article information may be output to the read source to assist in reading the read source. Alternatively, the matched image and article information may be transmitted to the learning unit 120 of FIG. 1 and used for learning of the deep learning model. The matched image and article information are stored in the database 122 of the learning unit 120 of FIG. 1 and then refined by the reading object and / or the reading task, Alternatively, the learning can be performed using the refined data for each reading task to be applied. The object to be read may include the express cargo, the postal cargo, the container cargo, the traveler cargo and the traveler. Further, the object to be read may include a traveler's belongings and a traveler. The reading task may include determining whether an object included in the object is abnormal or dangerous, determining whether the identified object is an object to be searched, determining whether the object is matched with the object, And may include a determination as to whether or not it has not been reported. As described above, the model learned by the learning unit 124 may be input to the image analysis unit 230 to update the existing model. At this time, an appropriate artificial intelligence may be updated depending on the object to be read. Also, as described above, the learning unit 124 may generate new learning data using existing learning data and may use it for learning. The new learning data can be generated by combining existing data and merging data as described above.

영상 분석부(230)는 영상(분석 대상 영상) 또는 영상과 물품 정보를 수신하고, 미리 학습된 딥러닝 기반의 모델을 이용하여 상기 영상을 분석한 후, 분석된 결과를 출력 장치로 출력할 수 있다.The image analyzing unit 230 receives the image (image to be analyzed) or image and article information, analyzes the image using a deep learning-based model that has been previously learned, and outputs the analyzed result to an output device have.

영상만이 수신되는 경우, 영상 분석부(230)는 영상에 포함된 객체를 식별하고, 식별된 객체에 대한 이상 유무 또는 위험도를 판단할 수 있다. 영상 분석부(230)는 후술하는 맥락 분석 과정을 수행하여 객체 식별의 정확도를 향상시킬 수 있다. When only a video is received, the video analyzer 230 may identify the object included in the video and determine the presence or absence of an anomaly or the risk of the identified object. The image analyzing unit 230 may improve the accuracy of object identification by performing the context analysis process described below.

예컨대, 식별된 객체가 금지되거나 부적합하다고 판단되는 경우, 영상 분석부(230)는 해당 객체는 이상이 있거나 위험하다고 판단될 수 있다. 상기 위험도는 수치로 표현될 수 있고, 소정의 임계치와의 비교를 통해 위험한 객체인지 여부가 판단될 수 있다. 상기 위험도에 관한 수치 및/또는 상기 소정의 임계치는 판독 대상 및/또는 판독 업무에 따라 적응적으로 결정될 수 있다.For example, if it is determined that the identified object is prohibited or not suitable, the image analysis unit 230 may determine that the object is abnormal or dangerous. The risk can be represented by a numerical value, and it can be determined whether or not it is a dangerous object by comparing with a predetermined threshold value. The numerical value of the risk and / or the predetermined threshold value may be adaptively determined according to the read object and / or the read task.

영상과 물품 정보가 함께 수신되는 경우, 영상 분석부(230)는 영상과 물품 정보를 이용하여 영상에 포함된 객체에 대한 분석을 보다 정밀하게 수행할 수 있다. 예컨대, 물품 목록 리스트에 기재된 물품의 종류, 수량 및/또는 크기 정보, 통행자의 보안 레벨 및/또는 통행자의 인가 품목 정보 등을 영상으로부터 객체를 식별하는데 추가적으로 이용할 수 있다. 영상을 분석하여 식별한 객체와 물품 정보 사이에 불일치가 있는 경우, 이를 영상 분석 결과로서 출력할 수 있다.When both the image and the article information are received, the image analyzing unit 230 can more accurately analyze the object included in the image using the image and the article information. For example, the type, quantity and / or size information of the articles listed in the article list, the security level of the passer, and / or the authorized item information of the passer may be additionally used to identify the object from the image. If there is a discrepancy between the identified object and the item information by analyzing the image, it can be outputted as the image analysis result.

영상 분석부(230)가 출력하는 영상 분석 결과는 객체의 위험도, 종류, 양, 수, 크기 및 위치 중 적어도 하나를 포함할 수 있다. 영상 분석 결과가 객체의 위치인 경우, 분석 대상 영상에 해당 객체의 위치를 표시하여 출력 장치로 출력할 수 있다. 해당 객체의 위치는 좌표로 표시될 수도 있으나, 판독원이 용이하게 판독할 수 있도록 출력 영상 내의 해당 위치에 객체를 강조하여 표시할 수 있다. 예컨대, 객체의 에지를 강조하거나 객체를 둘러싸는 사각 박스를 표시하여 객체를 강조할 수도 있다. 또한, 후술하는 영상 강화 과정을 통해 판독원이 보다 용이하게 객체를 식별할 수 있도록 소정의 객체 영역을 강화할 수 있다. 예컨대, 소정의 색상에 해당하는 영역을 강화하여, 영역이 보다 명확히 식별될 수 있도록 영상을 변환할 수 있다.The image analysis result output by the image analysis unit 230 may include at least one of the risk level, type, quantity, number, size, and position of the object. If the image analysis result is the position of the object, the position of the object can be displayed on the image to be analyzed and output to the output device. The position of the object may be displayed in coordinates, but the object may be highlighted and displayed at the corresponding position in the output image so that the read source can easily read it. For example, an object may be highlighted by highlighting the edges of the object or by displaying a square box surrounding the object. In addition, a predetermined object area can be strengthened so that the readout source can more easily identify the object through the image enhancement process to be described later. For example, the region corresponding to a predetermined color can be enhanced to convert the image so that the region can be more clearly identified.

또는, 영상 분석부(230)는 분석 대상 영상에 검색 대상 객체(예컨대, 통관이 금지되거나 부적합한 객체)가 포함되는지 여부를 판단할 수 있다. 이를 위해, 영상 분석부(230)는 검색 대상 객체에 관한 정보를 수신하거나 미리 저장할 수 있다. 또한, 영상 분석부(230)는 영상에 포함된 객체를 식별하고, 식별된 객체가 검색 대상 객체인지 여부를 판단할 수 있다.Alternatively, the image analysis unit 230 may determine whether or not a search target object (for example, an object for which customs clearance is prohibited or not suitable) is included in the analysis target image. For this, the image analysis unit 230 may receive or store information on the object to be searched. In addition, the image analysis unit 230 may identify an object included in the image and determine whether the identified object is an object to be searched.

도 3은 영상의 판독 과정을 설명하기 위한 도면이다.3 is a diagram for explaining a process of reading an image.

도 3의 (a)는 종래의 판독 과정에 관한 흐름도이고, 도 3의 (b)는 본 개시의 일 실시예에 따른 판독 과정에 관한 흐름도이다.FIG. 3 (a) is a flowchart of a conventional reading process, and FIG. 3 (b) is a flowchart of a reading process according to an embodiment of the present disclosure.

도 3의 (a)에 도시된 바와 같이, 기존의 판독 과정에 따르면, 영상 및/또는 물품 정보가 입력(311)되면, 판독자에게 정보로서 제공(312)된다. 판독자는 영상 및/또는 물품 정보에 기초하여, 개장 검사가 필요한 물품을 선별(313)한다. 개장 검사를 수행한 결과는 검사 결과로서 입력(314)된다.As shown in FIG. 3A, according to an existing reading process, when image and / or article information is input 311, it is provided as information 312 to a reader. The reader selects (313) an article that requires a remedial inspection based on the image and / or article information. The result of performing the opening inspection is input 314 as a result of inspection.

도 3의 (b)에 도시된 바와 같이, 본 개시의 일 실시예에 따른 판독 과정에 따르면, 영상 및/또는 물품 정보가 입력(321)되면, 영상 분석 장치(322)는 미리 학습된 딥러닝 기반의 모델을 이용하여 영상을 분석하고, 분석된 결과를 판독자에게 정보로서 제공(324)한다. 또한 영상 분석 장치(322)는 학습 데이터를 인공지능 데이터 센터(323)로 전송하고, 인공지능 데이터 센터(323)는 학습 데이터를 학습할 수 있다. 인공지능 데이터 센터(323)는 추후 판독 대상별 판독 업무 보조 인공지능으로서 학습된 모델을 영상 분석 장치(322)에 전송할 수 있다. As shown in FIG. 3 (b), according to the reading process according to an embodiment of the present disclosure, when the image and / or article information is input 321, the image analysis device 322 performs pre- Based model, and provides the analyzed result to the reader as information (324). The image analysis apparatus 322 may transmit the learning data to the artificial intelligence data center 323, and the artificial intelligence data center 323 may learn the learning data. The artificial intelligence data center 323 may transmit the learned model to the image analysis apparatus 322 as a reading task assistant artificial intelligence to be read later.

판독자는 상기 영상 분석 장치(322)의 분석 결과, 영상 및/또는 물품 정보에 기초하여, 개장 검사가 필요한 물품을 선별(325)할 수 있다. 개장 검사를 수행한 결과는 검사 결과로서 입력(326)될 수 있다. 상기 검사 결과는 인공지능 데이터 센터(323)로 전송되어 학습 데이터로 이용될 수도 있다.The reader can select (325) an article requiring the inspection of the opening, based on the analysis result of the image analysis device 322, the image and / or the article information. The result of performing the remade inspection can be input 326 as a result of the inspection. The result of the inspection may be transmitted to the artificial intelligence data center 323 and used as learning data.

도 4는 본 개시의 일 실시예에 따른 영상 판독 과정에서의 인공지능의 적용 범위를 설명하기 위한 도면이다.4 is a diagram for explaining an application range of artificial intelligence in an image reading process according to an embodiment of the present disclosure.

도 4에 도시된 바와 같이, 모든 물품(410) 중 랜덤하게 추출된 샘플(420)을 관리 대상으로 선별(450)할 수 있다. 또는 관리 대상을 선별하기 위한 선별 보조 인공지능(430)을 이용하여, 모든 물품(410)에 대한 위험 분석(440)을 수행할 수 있고, 이를 통해 관리 대상을 선별(450)할 수 있다. As shown in FIG. 4, randomly sampled samples 420 among all the products 410 can be selected (450) as a management object. Or perform a risk analysis 440 on all the articles 410 using the screening assistant artificial intelligence 430 to select the objects to be managed, thereby selecting the objects to be managed 450.

인공지능의 활용은 전술한 물품의 위험 분석(440)에만 국한되지 않는다. 예컨대, 관리 대상이 선별(450)되면, 이후, 검사를 보조하기 위한 검사 보조 인공지능(460)으로서 활용될 수 있다. 예컨대, 검사 보조 인공지능(460)을 적용함으로써, 객체의 식별, 식별된 객체의 이상 유무 또는 위험도 판단 및/또는 검색 대상 객체에 관한 정보를 판독원에게 제공함으로써 판독원의 검사를 보조할 수 있다. 판독원은 검사 보조 인공지능이 제공한 정보를 활용하여 정밀 검사(470)를 수행할 수 있다.The use of artificial intelligence is not limited to the risk analysis 440 of the article described above. For example, when the management object is selected (450), it can be utilized as an assistant artificial intelligence 460 for assisting the inspection thereafter. For example, by applying the test assistant artificial intelligence 460, it is possible to assist in the examination of the reading source by identifying the object, determining whether there is an abnormality or risk of the identified object, and / or providing the reading source with information about the object to be searched . The reader can perform the close inspection 470 using the information provided by the test assistant AI.

이하, 도 5 내지 도 11을 참조하여, 도 1의 영상 분석 장치(112)에 입력되기 전 및/또는 출력 장치(114)에 출력되기 전에 영상을 강화하는 방법의 일 실시예를 설명한다.Hereinafter, referring to Figs. 5 to 11, an embodiment of a method for enhancing an image before being input to the image analysis apparatus 112 of Fig. 1 and before being output to the output apparatus 114 will be described.

도 5는 본 개시에 따른 영상 강화를 수행하는 영상 강화 장치의 일 실시예를 도시한 도면이다.FIG. 5 is a view showing an embodiment of an image enhancement apparatus for performing image enhancement according to the present disclosure.

도 5의 영상 강화 장치는 도 1의 영상 분석 장치(112)과는 별개로 구성되거나 또는 그 일부로서 구성될 수 있다.The image enhancement apparatus of FIG. 5 may be configured separately or as a part of the image analysis apparatus 112 of FIG.

영상 강화 장치(500)는 영상 수신부(510), 객체 영상 추출부(520), 색상 분포 분석부(530) 및/또는 영상 강화부(540)를 포함할 수 있다. 다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 영상 강화 장치(500)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다. 예컨대, 둘 이상의 구성부가 하나의 구성부 내에서 구현될 수도 있고, 하나의 구성부에서 실행되는 동작이 분할되어 둘 이상의 구성부에서 실행되도록 구현될 수도 있다. 또한, 일부 구성부가 생략되거나 부가적인 구성부가 추가될 수도 있다.The image enhancement apparatus 500 may include an image receiving unit 510, an object image extracting unit 520, a color distribution analyzing unit 530, and / or an image enhancing unit 540. It should be noted, however, that this shows only some components necessary for explaining the present embodiment, and the components included in the image enhancement apparatus 500 are not limited to the above-described examples. For example, two or more constituent units may be implemented in one constituent unit, and an operation performed in one constituent unit may be divided and executed in two or more constituent units. Also, some of the constituent parts may be omitted or additional constituent parts may be added.

본 개시의 일 실시예에 따른 영상 강화 장치(500)는 입력 영상(550)을 수신하고, 입력 영상(550)에 포함되어 있는 객체를 추출하고, 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할하고, 하나 이상의 영역들 각각에 대해 색상 분포 정보를 획득하고, 색상 분포 정보에 기초하여, 하나 이상의 영역들 중 적어도 일부에 대해 하나 이상의 가중치를 결정하고, 결정된 하나 이상의 가중치를 하나 이상의 영역들 중 적어도 일부에 적용하여 객체 영상에 대한 제1 출력 영상(560)을 생성할 수 있다.The image enhancement apparatus 500 according to an exemplary embodiment of the present invention receives an input image 550, extracts an object included in the input image 550, and converts the object image including the object into one or more regions Determining one or more weights for at least some of the one or more areas based on the color distribution information, and determining one or more of the weights determined among the one or more areas The first output image 560 for the object image can be generated by applying the first output image 560 to at least a part of the object image.

영상을 구성하는 각 픽셀은 휘도(밝기)를 나타내는 휘도 값과 색상을 나타내는 색상 값의 조합에 의해 소정의 밝기와 색상을 가질 수 있다. 이때, 색상 값은 색상을 표현하는 다양한 방식에 따라, 3개 또는 그 이상의 색요소의 값의 조합에 의해 나타내어질 수 있다. 예컨대, 색상 값은 3개의 색요소(Red(R), Green(G), Blue(B))의 조합인 RGB 값으로 표현될 수 있다. 예컨대, R, G, B의 각각은 0 내지 255 중 하나의 값을 가짐으로써, 해당 색요소 각각의 강도를 표현할 수 있다. R, G, B의 각각이 가질 수 있는 값의 범위는 R, G, B의 각각을 표현하는 비트 수에 기초하여 결정될 수 있다. 예컨대, 8 비트로 표현되는 경우, R, G, B의 각각은 0 내지 255 중 하나의 값을 가질 수 있다.Each pixel constituting the image may have a predetermined brightness and hue by a combination of a luminance value representing luminance (brightness) and a hue value representing hue. At this time, the hue value may be represented by a combination of values of three or more hue elements, depending on various ways of expressing the hue. For example, the color value may be represented by an RGB value which is a combination of three color elements (Red (R), Green (G), and Blue (B)). For example, each of R, G, and B has a value from 0 to 255, so that the intensity of each color element can be expressed. The range of values that each of R, G, and B can have is determined based on the number of bits representing each of R, G, and B. [ For example, when represented by 8 bits, each of R, G, and B may have a value of one of 0 to 255. [

색상 분포 정보를 획득한다는 것은 해당 영역에 포함된 픽셀들의 색상 값의 색요소를 분석함으로써, 그로부터 획득될 수 있는 다양한 통계값을 획득한다는 것을 의미할 수 있다. 예컨대, 상기 통계값은 해당 영역에 포함된 픽셀들의 색상 값의 색요소 중 평균적으로 가장 큰 값을 갖는 색요소가 무엇인지에 관한 정보일 수 있다. 예컨대, 해당 영역에 포함된 모든 픽셀들의 R, G 및 B 각각의 값을 더한 값에 기초하여, R, G, B 중 총합 또는 평균이 가장 큰 색요소가 무엇인지 결정될 수 있다. 또는, 각 픽셀마다, R, G, B 중 가장 큰 값을 갖는 색요소를 해당 픽셀의 지배적 색상으로 결정하고, 해당 영역에 포함된 모든 픽셀들에 대해 어떤 색상이 지배적 색상으로 가장 많이 결정되었는지를 판단할 수 있다. 이와 같은 방법으로, 소정 영역의 지배적 색상이 무엇인지가 결정될 수 있다. 예컨대, 소정 영역에 포함된 대다수의 픽셀들의 색상 값들에 대해, 3 개의 색요소(R, G, B) 중 R이 가장 큰 값을 갖는다면, 해당 소정 영역의 지배적 색상은 적색(Red)인 것으로 판단할 수 있다. 상기 설명에서는, R, G, B의 각각을 기준으로 색상 분포 정보 또는 지배적인 색상을 분석하였다. 그러나, 이에 한정되지 않으며, R, G, B 중 둘 이상의 조합에 의해 표현되는 다양한 색상을 기준으로 분석할 수도 있다. 예컨대, 식별하고자하는 색상이 오렌지색이라면, 오렌지색을 표현하는 R, G, B의 일부 또는 전부의 조합을 기준으로하여 해당 영역 내의 픽셀의 지배적 색상이 오렌지색인지 여부를 판단할 수 있다. Acquiring the color distribution information may mean acquiring various statistical values that can be obtained therefrom by analyzing the color components of the color values of the pixels included in the region. For example, the statistical value may be information on which color element has the largest average value among the color elements of the color values of the pixels included in the corresponding region. For example, based on the values of R, G, and B of all the pixels included in the area, it is possible to determine which color element has the greatest total or average among R, G, and B. Alternatively, for each pixel, a color element having the largest value among R, G, and B is determined as the dominant color of the corresponding pixel, and the color of which the dominant color is determined most for all the pixels included in the corresponding region It can be judged. In this way, what is the dominant color of a given area can be determined. For example, if R of the three color components (R, G, B) has the largest value for the color values of a majority of pixels included in a predetermined region, the dominant color of the predetermined region is red It can be judged. In the above description, the color distribution information or dominant color is analyzed based on each of R, G, and B. However, the present invention is not limited to this, and may be analyzed based on various colors represented by a combination of two or more of R, G, For example, if the color to be identified is orange, it can be determined whether the dominant color of the pixel in the corresponding region is orange based on a part or all of R, G, and B representing orange.

이하에서, 지배적 색상이 적색인 영역이 영상 강화의 대상인 경우를 가정하고, 가중치를 적용하여 영상을 강화하는 과정의 일 실시예를 구체적으로 설명한다. 색상 분포 정보에 기초하여 소정 영역의 지배적 색상이 적색인 것으로 판단되면, 해당 영역에 대해 하나 이상의 가중치가 결정될 수 있다. 가중치는 R, G, B 및 휘도의 전부 또는 일부에 대해 결정될 수 있다. 예컨대, 적색을 강화하는 경우, R에 대한 가중치는 1보다 큰 값일 수 있다. 가중치를 적용한다는 것은 해당 영역의 픽셀의 색요소 값에 해당 가중치를 곱한다는 의미일 수 있다. 이 경우, G 및/또는 B에 대한 가중치는 1보다 작은 값일 수 있다. 그럼으로써, 적색이 지배적인 영역은 보다 적색인 영역으로 강화할 수 있다. Hereinafter, an embodiment of a process of enhancing an image by applying a weight to a region where a dominant color is red is assumed as an object of image enhancement will be described in detail. If it is determined that the dominant color of a predetermined region is red based on the color distribution information, one or more weights may be determined for the region. The weights can be determined for all or part of R, G, B and luminance. For example, when enhancing red, the weight for R may be a value greater than one. Applying the weight may mean that the color element value of the pixel in the corresponding area is multiplied by the corresponding weight. In this case, the weight for G and / or B may be a value less than one. By doing so, the red dominant region can be enhanced to a more red region.

상기에서는 영상의 특정 색상을 강화하는 것에 대해서 설명하였다. 그러나, 본 개시의 영상의 강화는 이에 한정되지 않으며, 색상 값의 변화 또는 밝기 값의 변화를 모두 포함할 수 있다. 따라서, 필요에 따라서는 휘도 값에 대해서도 가중치를 적용하여 영상을 강화할 수 있다.In the above description, the enhancement of a specific color of an image has been described. However, the enhancement of the image of the present disclosure is not limited to this, and may include both a change in color value or a change in brightness value. Therefore, if necessary, the brightness value may be weighted to enhance the image.

이하, 영상 강화 장치(500)의 각 구성부에 대해 설명한다.Hereinafter, each component of the image enhancement apparatus 500 will be described.

영상 수신부(510)는 하나 이상의 객체를 포함하는 입력 영상(550)을 수신할 수 있다. 입력 영상(550)은 영상 분석 장치(112)에 입력되기 전의 영상 및/또는 출력 장치(114)에 출력되기 전의 영상일 수 있다.The image receiving unit 510 may receive an input image 550 including one or more objects. The input image 550 may be an image before being input to the image analysis apparatus 112 and / or an image before being output to the output apparatus 114.

객체 영상 추출부(520)는 영상 수신부(510)에서 수신된 입력 영상에 포함되어 있는 객체를 추출하고, 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할할 수 있다. 예컨대 객체 영상 추출부(520)는 분석 대상 영상의 픽셀값과 소정의 임계값을 비교하여 픽셀값을 이진화하고, 이진화된 픽셀값을 그룹핑함으로써 입력 영상에 포함된 객체를 추출할 수 있다. 여기서 객체를 추출한다는 것은 객체와 배경을 구분한다는 의미일 수 있고, 객체는 영상 내의 특정한 물체를 의미하며 또한 배경은 영상에서 객체를 제외한 부분을 의미할 수 있다. 영상의 배경은 영상의 촬영 방법 또는 촬영 장치에 따라 소정의 색상으로 표현될 수 있다. 예컨대, 상기 소정의 색상은 흰색일 수 있다. 영상의 배경을 표현하는 색상이 특정된 경우, 특정된 배경 색상에 기초하여 배경과 객체를 분리할 수도 있다. 예컨대, 특정된 배경 색상 영역을 입력 영상(550)에서 삭제함으로써 객체를 구분할 수도 있다.The object image extracting unit 520 may extract an object included in the input image received by the image receiving unit 510 and divide the object image including the object into one or more regions. For example, the object image extracting unit 520 may extract an object included in the input image by comparing the pixel value of the image to be analyzed with a predetermined threshold value to binarize the pixel values and grouping the binarized pixel values. Here, extracting an object may mean separating the object from the background, the object means a specific object in the image, and the background may be a part excluding the object from the image. The background of the image may be expressed in a predetermined color depending on the image capturing method or the image capturing apparatus. For example, the predetermined color may be white. If a color representing the background of the image is specified, the background and the object may be separated based on the specified background color. For example, an object may be identified by deleting a specified background color area from the input image 550.

또한 예컨대 객체 영상은 객체 영역을 둘러싸는 사각형 박스(bounding box)를 특정함으로써 획득될 수 있으며, 객체 영상 추출부(520)는 특정된 사각형 박스에 기초하여, 구분된 객체의 위치 정보를 생성할 수 있다. 즉 사각형 박스는 객체 인식 박스를 의미 할 수 있다.For example, the object image may be obtained by specifying a bounding box surrounding the object region, and the object image extracting unit 520 may generate position information of the separated object based on the specified rectangular box have. That is, the square box may refer to an object recognition box.

본 개시의 일 실시예에 따를 때, 입력 영상이 X-Ray 판독 기기가 촬영한 물품에 관한 X-Ray 영상이라고 하면, 물품이 아닌 배경 부분은 불필요하기 때문에 해당 배경 부분은 잘라내고 물품이 존재하는 영역만으로 분석할 수 있다. 특히, 물품들이 컨베이어 벨트를 통해 계속적으로 X-Ray 판독 기기를 통과하는 실제 환경에서는 물품에 대한 영역을 획득하는 것이 중요하다고 할 수 있다. 객체와 배경을 구분하고 객체의 위치 정보를 생성하는 구체적인 과정은 도 6을 참고하여 자세히 설명한다.According to one embodiment of the present disclosure, when an input image is an X-ray image of an item photographed by an X-ray reading device, since a background portion is not necessary, the corresponding background portion is cut off, It can be analyzed only by region. In particular, it can be said that it is important to acquire an area for the article in a real environment where the articles continue to pass through the X-Ray reading device through the conveyor belt. A detailed process of dividing the object and the background and generating the location information of the object will be described in detail with reference to FIG.

도 6은 본 개시의 일 실시예에 따라, 단일 객체를 포함하는 영상으로부터 객체와 배경을 구분하고, 객체의 위치 정보를 생성하는 과정을 설명하기 위한 도면이다. 도 6의 객체 영상 추출부(600)는 도 5의 객체 영상 추출부(520)의 일 실시예일 수 있다. 입력 영상(610)은 도 5를 참조하여 설명한 입력 영상(550)일 수 있으며, 예컨대, 단일 객체로서 가방(612)을 포함하는 물품에 관한 영상일 수 있다. FIG. 6 is a diagram for explaining a process of separating an object and a background from an image including a single object and generating position information of the object according to an embodiment of the present disclosure; The object image extracting unit 600 of FIG. 6 may be an embodiment of the object image extracting unit 520 of FIG. The input image 610 may be the input image 550 described with reference to FIG. 5, and may be, for example, an image relating to the article including the bag 612 as a single object.

객체 영상 추출부(600)는 먼저 하나의 가방(612)을 포함하는 입력 영상(610)에 대해 크로핑(cropping) 연산을 수행함으로써 가방(612)을 기준으로 주변 영역을 대략적으로(roughly) 잘라버린, 크로핑된 영상(620)을 획득할 수 있다. 그런 다음 객체 영상 추출부(600)는 크로핑된 영상(620)의 픽셀값과 소정의 임계값을 비교(thresholding)하여 픽셀값을 이진화함으로써 이진화된 영상(630)을 획득할 수 있다. 그리고, 객체 영상 추출부(600)는 이진화된 영상(630)에서 객체에 대한 부분을 선택하기 위해 근접한 픽셀끼리 그룹핑(군집화, morphology, closing)함으로써, 그룹핑된 영상(640)을 획득할 수 있다. 그런 다음, 객체 영상 추출부(600)는 그룹핑된 영상(640)에 대해 라벨링(labeling) 및 홀 채우기(hole filling) 연산을 수행하여 가장 큰 형태로 형성된 픽셀 그룹을 객체에 대한 영역(652)으로 결정하고, 나머지를 배경에 대한 영역(654)으로 결정함으로써 객체가 추출된 영상(650)을 획득할 수 있다. 또한, 객체 영상 추출부(600)는 추출된 객체 영상에 대한 정보를 이용하여 입력 영상(610) 내에서의 객체의 위치를 결정할 수 있다. 예컨대, 객체 영상 추출부(600)는 객체 영역을 둘러싸는 사각형 박스를 특정하고, 특정된 사각형 박스에 기초하여, 객체의 위치 정보를 생성할 수 있다. 도 6을 참조하면, 객체 영상 추출부(600)는 가방(612)을 둘러싸는 사각형 박스(662)를 특정하고, 특정된 사각형 박스에 기초하여, 가방(612)의 위치 정보를 획득할 수 있다. 예컨대, 가방(612)의 위치 정보는 사각형 박스(662)를 형성하는 네 개의 꼭지점의 위치 정보일 수 있으나, 이에 제한되지 않는다. 예컨대, 위치 정보는 사각형 박스(662)의 하나의 꼭지점의 좌표 (x, y) 및 사각형 박스의 가로 길이(width), 세로 길이(height)에 의해 표현될 수도 있다. 상기 하나의 꼭지점의 좌표 (x, y)는 사각형 박스(662)의 좌측 상단 꼭지점의 좌표일 수 있다. 상기 꼭지점의 좌표 (x, y)는 입력 영상(610)의 좌측 상단 꼭지점의 좌표 (0, 0)을 기준으로 특정될 수 있다.The object image extracting unit 600 roughly cuts the surrounding area based on the bag 612 by performing a cropping operation on the input image 610 including one bag 612 A cropped image 620 can be acquired. Then, the object image extracting unit 600 may obtain the binarized image 630 by binarizing the pixel value by thresholding the pixel value of the cropped image 620 with a predetermined threshold value. Then, the object image extracting unit 600 can obtain the grouped image 640 by grouping adjacent pixels (clustering, morphology, closing) to select a portion of the object from the binarized image 630. [ Then, the object image extracting unit 600 performs labeling and hole filling operations on the grouped image 640 to form a pixel group formed in the largest shape as an area 652 for the object And determine the remainder as the area 654 for the background, thereby obtaining the object 650 extracted image. In addition, the object image extracting unit 600 can determine the position of the object in the input image 610 using the information about the extracted object image. For example, the object image extracting unit 600 may specify a rectangular box surrounding the object area, and may generate position information of the object based on the specified rectangular box. 6, the object image extracting unit 600 can specify a rectangular box 662 surrounding the bag 612 and acquire the position information of the bag 612 based on the specified rectangular box . For example, the positional information of the bag 612 may be position information of four vertices forming the rectangular box 662, but is not limited thereto. For example, the position information may be represented by the coordinates (x, y) of one vertex of the rectangular box 662 and the width and height of the rectangular box. The coordinates (x, y) of the one vertex may be the coordinates of the upper left vertex of the square box 662. The coordinates (x, y) of the vertex can be specified based on the coordinates (0, 0) of the upper left vertex of the input image 610.

다시 도 5를 참조하여, 객체 영상 추출부(520)는 객체 영상의 크기에 기초하여 객체 영상을 하나 이상의 영역들로 분할할 수 있다. 상기 하나 이상의 영역들의 각각은 정방형일 수 있다. 예컨대, 객체 영상 추출부(520)는 객체 영상의 크기에 기초하여 객체 영상을 분할하는 영역들의 개수나 크기를 결정할 수 있다. 예컨대, 객체 영상이 상대적으로 크거나 소정의 임계치 이상의 크기를 갖는 경우, 더 많은 분할 영역을 갖도록 분할될 수 있다. 또한, 객체 영상을 분할하는 영역들 각각의 크기는 서로 동일하지 않을 수 있다.Referring again to FIG. 5, the object image extracting unit 520 may divide the object image into one or more regions based on the size of the object image. Each of the one or more regions may be square. For example, the object image extracting unit 520 may determine the number and size of regions for dividing the object image based on the size of the object image. For example, if the object image is relatively large or has a size larger than a predetermined threshold value, it can be divided to have more divided areas. Also, the size of each of the regions dividing the object image may not be equal to each other.

또한 객체 영상 추출부(520)는 객체 영상이 정방형이 아닌 경우, 객체 영상을 업샘플링(up-sampling) 또는 다운샘플링(down-sampling)하여 객체 영상을 정방형으로 변환한 후, 객체 영상을 하나 이상의 영역들로 분할할 수 있다. 예컨대, 객체 영상은 객체 영상 추출부(520)에서 추출된 객체에 대해 해당 객체를 둘러싸는 사각형 박스를 기초로 획득되므로 객체 영상이 정방형이 아닐 수 있다. 이 경우에 객체 영상 추출부(520)는 해당 객체 영상에 대해 하나 이상의 영역들로 분할할 수도 있겠으나, 객체 영상의 가로나 세로 방향으로 업샘플링 또는 다운샘플링 함으로써 정방형의 객체 영상을 획득하고, 획득된 정방형의 객체 영상을 하나 이상의 영역들로 분할할 수도 있다.If the object image is not a square, the object image extracting unit 520 may convert the object image into a square by up-sampling or down-sampling the object image, Regions. ≪ / RTI > For example, since the object image is acquired based on a rectangular box surrounding the object extracted by the object image extracting unit 520, the object image may not be a square. In this case, the object image extracting unit 520 may divide the object image into one or more regions, but it may acquire a square object image by up-sampling or down-sampling the object image in the horizontal or vertical direction, An object image of a square may be divided into one or more regions.

예컨대, 도 8을 참조하면, 객체 영상(800)은 가로 9픽셀 및 세로 12픽셀로 구성되어 정방형이 아닐 수 있다. 이 경우, 본 개시에 따르면, 객체 영상(800)을 3x3 크기의 정방형 영역으로 분할할 수도 있으나(이 경우, (객체 영상의 가로 크기/분할 영역의 가로 크기) x (객체 영상의 세로 크기/분할 영역의 세로 크기) = (9/3) x (12/3) = 12, 총 12개의 영역들을 가진다), 객체 영상(800)의 가로를 업샘플링 하여 가로 12픽셀 및 세로 12픽셀로 구성되는 영상을 획득하고, 이를 3x3 크기의 영역으로 분할하여 총 16개의 영역으로 분할할 수도 있다. 객체 영상을 분할하는 하나 이상의 영역들의 형태는 정방형으로 한정되지 않는다. 예컨대, 상기 영역은 n과 m이 상이한 양의 정수인 n x m의 형태를 가질 수도 있다. 이러한 경우, 전술한 업샘플링 또는 다운 샘플링이 수행되지 않을 수도 있다.For example, referring to FIG. 8, an object image 800 may be composed of 9 pixels in width and 12 pixels in height and may not be square. In this case, according to the present disclosure, the object image 800 may be divided into square regions of 3x3 size (in this case, the horizontal size of the object image / the horizontal size of the divided region) x (Vertical size of the region) = (9/3) x (12/3) = 12, having a total of 12 areas), up-sampling the width of the object image 800, And divides it into a 3x3 size area and divides it into a total of 16 areas. The shape of one or more regions dividing the object image is not limited to a square. For example, the region may have the form n x m, where n and m are positive integers that are different. In this case, the above-described upsampling or downsampling may not be performed.

다시 도 5를 참조하여, 색상 분포 분석부(530)는 객체 영상 추출부(520)에서 분할된 영역들 각각에 대해 색상 분포 정보를 획득하고, 색상 분포 정보에 기초하여 영역들 중 적어도 일부에 대해 하나 이상의 가중치를 결정할 수 있다.Referring again to FIG. 5, the color distribution analyzing unit 530 obtains the color distribution information for each of the divided regions in the object image extracting unit 520, and generates color distribution information for at least a part of the regions One or more weights can be determined.

색상 분포 정보는 n(n은 1보다 큰 정수)개의 색상 표현 범위의 각각에 대한 정보를 포함할 수 있다. 색상 표현 범위는 영상 획득 장치의 종류, 성능 등에 따라 달라질 수 있다. 또한, 예컨대, R(red)에 대한 "색상"은 8비트의 영상에서 픽셀값이 (R, G, B) = (255,0,0)을 가지는 픽셀의 색상만을 의미할 수 있으나, R에 대한 "색상 표현 범위"는 상기 픽셀값이 (R, G, B)= (255,0,0)인 경우뿐만 아니라 상기 픽셀값을 기준으로 소정의 범위 내에 있는 유사 색상을 포함하는 의미이다. 예컨대, R에 대한 "색상 표현 범위"는 (R, G, B) = (150~255, 0~100, 0~100)의 범위일 수 있다. 즉, (R, G, B) = (150, 100, 100)인 픽셀도 적색(R)의 색상 표현 범위에 포함되는 것으로 정의할 수 있다. 상기 "색상 표현 범위"는 식별하고자 하는 색상에 대해 정의될 수 있다. 전술한 예에서는 적색의 색상 표현 범위를 기준으로 설명하였으나, 녹색(G) 또는 청색(B)의 색상 표현 범위가 정의될 수도 있다. 또는 R, G, B 중 일부 또는 전부를 조합하여 표현되는 임의의 색상(황색, 주황색, 하늘색 등)에 대한 색상 표현 범위를 정의할 수도 있다. 영상에 포함된 객체 중 예컨대, 주황색으로 표현되는 객체의 영역을 강화하고자 할 경우, 색상 분포 정보의 분석 결과, 주황색의 색상 표현 범위에 포함되는 픽셀이 다수이거나 지배적인 영역에 대해 가중치를 적용함으로써, 본 개시에 따른 영상 강화를 수행할 수 있다. 가중치를 적용하는 방법은 전술한 바와 같다.The color distribution information may include information on each of n (n is an integer greater than 1) color expression ranges. The color representation range may vary depending on the type and performance of the image acquisition device. Further, for example, "color" for R (red) may mean only the color of a pixel whose pixel value has (R, G, B) = (255,0,0) in an 8- Refers to not only when the pixel value is (R, G, B) = (255, 0, 0) but also includes similar color within a predetermined range based on the pixel value. For example, the "color expression range" for R may range from (R, G, B) = (150 to 255, 0 to 100, 0 to 100). That is, a pixel having (R, G, B) = (150, 100, 100) can also be defined as being included in the color expression range of red (R). The "color expression range" may be defined for the color to be identified. In the above example, the range of the color gamut of red is described, but the range of the color gamut of green (G) or blue (B) may be defined. Or a color expression range for any color (yellow, orange, sky blue, etc.) represented by a combination of some or all of R, G, and B may be defined. For example, when an area of an object represented by orange color is to be enhanced among the objects included in the image, as a result of analysis of the color distribution information, a weight is applied to a region where a number of pixels included in an orange color expression range is dominant, The image enhancement according to the present disclosure can be performed. The method of applying the weight is as described above.

영상 획득 장치가 R, G(green), B(blue)의 3가지 색요소의 조합에 의해 색상을 표현한다면, 색상 분포 정보는 3개의 색요소의 일부 또는 전부에 대한 정보를 포함할 수 있다. 색요소가 R, G, B, Y(yellow), P(purple) 5가지라면 색상 분포 정보는 5개의 색요소의 일부 또는 전부에 대한 정보를 포함할 수 있다. If the image acquisition device expresses a color by a combination of three color elements of R, G (green), and B (blue), the color distribution information may include information on a part or all of the three color elements. If the color elements are five colors R, G, B, Y (yellow), and P (purple), the color distribution information may include information on some or all of the five color elements.

X-Ray 판독 기기가 촬영한 물품에 관한 X-Ray 영상에 있어서, 영상에 포함되어 있는 객체들의 물성(예를 들어, 해당 객체가 유기물, 무기물, 금속 등인지 여부)에 따라 다른 색상 표현 범위를 적용한 X-Ray 영상이 사용되고 있다. 판독원은 색상이 부가된 X-Ray 영상을 판독함으로써, 영상에 포함된 객체의 형태뿐만 아니라, 객체의 물성에 대해서도 어느 정도의 식별이 가능하다. 본 개시의 영상 강화는 객체의 물성에 따른 색상이 부가된 X-Ray 영상을 입력 영상으로 하여, 색상 분포 정보를 분석하고, 이에 기초하여 특정 색상의 영역을 강화함으로써, 영상에 포함된 객체 검출의 정확도와 영상을 판독하는 판독원의 가독성을 향상시킬 수 있다.An X-ray image of an article taken by an X-ray reading device is used to determine a range of color expressions according to the physical properties of the objects included in the image (for example, whether the object is organic, inorganic, The applied X-ray image is being used. By reading the X-ray image to which the color is added, it is possible to identify not only the shape of the object included in the image but also the physical properties of the object to some extent. In the image enhancement of the present disclosure, an X-ray image added with a color according to the physical properties of an object is used as an input image, and the color distribution information is analyzed. Based on the analyzed color distribution information, The accuracy and the readability of the readout source for reading the image can be improved.

도 7은 본 개시의 일 실시예에 따른 객체의 물성에 기초하여 색상이 표현된 영상을 나타내는 도면이다.7 is a view showing an image in which a hue is expressed based on the physical properties of an object according to an embodiment of the present disclosure;

도 7을 참조하면, X-Ray 판독 기기에 의해 촬영된 가방 영상(700), 의약품용기 영상(710) 및 여행자수화물 캐리어 영상(720)을 나타낸다. 가방 고리(702), 가방 지퍼(704), 의약품(712) 및 병(722)의 경우 각각 객체의 물성에 따라 색상 표현 범위(적용된 색상)가 상이함을 확인할 수 있다. 한편, 가방 고리(702), 가방 지퍼(704), 의약품(712) 및 병(722)은 다른 객체들과 구분될 수 있도록 비교적 선명하게 색상이 표현되어 있는 반면에, 수화물 내의 임의의 내용물(724)의 경우에는 여행자 수화물 영상(720)에서 그 임의의 내용물(724)이 무엇인지도 확인하기 어렵고 다른 객체들과 구분하기에도 용이하지 않음을 알 수 있다. 이것은 객체의 물성에 기인한 것이다. 예컨대, 금속이나 무기물은 배경과 뚜렷이 구분될 수 있도록 비교적 선명하고 뚜렷한 색상으로 표현되는 반면, 유기물은 옅은 색상으로 표현되어 배경과의 구분이 뚜렷하지 않게 된다. 유기물을 표현하는 색상의 영역에 대해서는 해당 색상을 강화하는 방법을 통해 배경과 뚜렷하게 구분될 수 있는 선명하고 뚜렷한 색상으로 강화할 수 있다.Referring to FIG. 7, a bag image 700, a medicine container image 710, and a traveler's baggage carrier image 720 taken by an X-ray reading device are shown. In the case of the bag ring 702, the bag zipper 704, the medicine bottle 712 and the bottle 722, it can be seen that the color expression range (applied color) differs according to the physical properties of the object. On the other hand, while the bag ring 702, the bag zipper 704, the medicine 712, and the bottle 722 are relatively clearly colored so that they can be distinguished from other objects, ), It is difficult to identify what the arbitrary content 724 is in the traveler's baggage image 720 and it is not easy to distinguish it from other objects. This is due to the properties of the object. For example, metals or minerals are expressed in a relatively clear and distinct color so that they can be clearly distinguished from the background, while organic matter is expressed in a light color, so that the distinction with the background becomes unclear. For areas of color that represent organic matter, you can enhance them with a clear, distinct color that can be clearly distinguished from the background by enhancing that color.

다시 말해, 객체의 물성에 따라 색상 표현 범위가 상이하다는 특징을 이용하여, 색상 표현 범위에 따라 영상의 강화 정도를 다르게 할 필요가 있다. 이를 위해, 분할된 영역들 각각에 대한 색상 분포를 분석하여 적어도 일부의 영역에 대해 가중치를 적용할 수 있다.In other words, it is necessary to vary the degree of enhancement of the image according to the color expression range, using the feature that the range of color expression is different according to the physical properties of the object. For this purpose, the color distribution for each of the divided regions may be analyzed to apply a weight to at least some of the regions.

상기 하나 이상의 가중치는 n개의 색상 표현 범위 또는 색상을 표현하는 n개의 색요소 중 적어도 일부에 대한 가중치를 포함할 수 있다. 예컨대, 하나의 영역이 n개의 색상 표현 범위 또는 색요소를 가진다고 하면, 해당 영역에서의 가중치의 개수는 1부터 n개를 가질 수 있다.The one or more weights may include weights for at least some of n color elements representing n color representation ranges or colors. For example, if one area has n color expression ranges or color elements, the number of weights in the corresponding area may be 1 to n.

예컨대, 하나의 영역에 대해 하나의 가중치가 결정되는 경우, 상기 하나의 영역에 포함된 모든 색요소 또는 모든 색상 표현 범위에 대해 상기 결정된 가중치를 적용할 수 있다. 또는 상기 하나의 영역에 포함된 모든 색요소 또는 모든 색상 표현 범위 중 적어도 일부에 대해 상기 결정된 가중치를 적용할 수도 있다. 예컨대, 영상 강화를 위해, n개의 색요소 중 소정의 색요소 또는 n 개의 색상 표현 범위 중 소정의 색상 표현 범위에 대해서만 상기 결정된 가중치를 적용할 수 있다.For example, when one weight is determined for one area, the determined weight can be applied to all color elements included in the one area or all the color expression ranges. Alternatively, the determined weight may be applied to at least a part of all color elements included in the one area or all the color expression ranges. For example, in order to enhance the image, the determined weight may be applied only to a predetermined color expression range of a predetermined color element or n color expression ranges among n color elements.

또는 예컨대, n개의 색요소 또는 n개의 색상 표현 범위의 각각에 대해 가중치가 결정될 수 있다. 즉, 하나의 영역에 대한 가중치의 개수는 n일 수 있다. 이 경우, 상기 영역에 포함된 모든 색요소 또는 색상 표현 범위의 각각에 대응되는 가중치를 해당하는 색요소 또는 색상 표현 범위에 적용할 수 있다. 가중치는 영상 강화의 대상이 되는 소정의 색요소 또는 색상 표현 범위에 대해 상대적으로 높은 가중치가 부여될 수 있다. 예컨대, 1보다 큰 가중치가 부여되어 해당 색요소의 값 또는 해당 색상 표현 범위에 속하는 픽셀값에 곱해질 수 있다.Alternatively, for example, weights may be determined for each of n color elements or n color representation ranges. That is, the number of weights for one area may be n. In this case, a weight corresponding to each color element or color expression range included in the area may be applied to the corresponding color element or color expression range. The weight may be given a relatively high weighting value for a predetermined color element or a color expression range to be subjected to image enhancement. For example, a weight value greater than 1 may be given to multiply the value of the color element or the pixel value belonging to the color representation range.

또는 예컨대, 1보다 크고 n보다 작은 m개의 색요소 또는 색상 표현 범위의 각각에 대해 가중치가 결정될 수 있다. 즉, 하나의 영역에 대한 가중치의 개수는 m일 수 있다. 이 경우, 상기 영역에 포함된 색요소 또는 색상 표현 범위 중 가중치가 부여된 색요소 또는 색상 표현 범위에 대해서만 상기 부여된 가중치를 적용할 수 있다. 영상 강화의 대상이 되는 소정의 색요소 또는 색상 표현 범위에 대해 상대적으로 높은 가중치가 부여되는 것은 전술한 바와 같다.Or, for example, a weight can be determined for each of m color elements or color representation ranges greater than 1 and less than n. That is, the number of weights for one area may be m. In this case, the weighted value may be applied only to a color element or a color expression range to which a weight is assigned, among the color elements included in the area or the color expression range. As described above, a relatively high weight is given to a predetermined color element or color expression range to be subjected to image enhancement.

전술한 바와 같이, n개의 색요소 또는 색상 표현 범위 중 소정의 색요소 또는 색상 표현 범위에 대해서는 가중치를 상대적으로 높게 결정할 수 있다. 예컨대, X-Ray 영상에 포함된 객체가 유기물인 경우 다른 물성(금속, 무기물 등)을 가진 객체에 비해 상대적으로 경계가 덜 선명하게 영상에 표현되는 경우가 많다. 이는 유기물인 객체의 색상이 주변의 다른 객체 또는 배경과 구분될 수 있을 정도로 선명하게 표현되지 않기 때문이다. 예컨대, 연한 주황색으로 표현됨으로써, 백색의 배경과 잘 구분되지 않는 경우가 있다. 따라서, 분할 영역 중 유기물을 나타내는 색상 표현 범위에 해당하는 부분에 대해서 상대적으로 높은 가중치를 부여함으로써, 해당 색상을 강화하여, 예컨대, 연한 주황색을 진한 주황색으로 변경할 수 있다. 이와 같은 방식으로 영상을 강화하여, 주변 객체 또는 배경과, 강화의 대상이 되는 객체의 구분을 보다 명확히 할 수 있다.As described above, the weights can be determined to be relatively high for a predetermined color element or color expression range among n color elements or color expression ranges. For example, when an object included in an X-ray image is an organic material, the boundaries are often expressed less clearly in an image as compared with objects having different physical properties (metal, inorganic materials, etc.). This is because the color of the object, which is organic, is not clearly represented so that it can be distinguished from other objects or backgrounds around. For example, by being represented by a light orange color, it may not be distinguished from the background of white color. Therefore, by imparting a relatively high weight to the portion corresponding to the color expression range representing the organic matter in the divided regions, the corresponding color can be enhanced, for example, the light orange color can be changed to the deep orange color. By strengthening the image in this way, it is possible to further clarify the distinction between the surrounding object or the background and the object to be strengthened.

상대적으로 높은 가중치가 부여되는 상기 소정의 색요소 또는 색상 표현 범위는 하나 이상일 수 있다. 예컨대, 전체 색요소 또는 색상 표현 범위가 n개일 때, 상대적으로 높은 가중치가 부여되는 상기 소정의 색요소 또는 색상 표현 범위는 1 내지 n개일 수 있다. 상기 소정의 색요소 또는 색상 표현 범위가 복수 개일 때, 각각에 대해 요구되는 영상 강화의 정도는 상이할 수 있으며, 그에 따라 각각에 대해 상이한 가중치가 부여될 수 있다. 예컨대, 금속->무기물->유기물의 순서로 영상이 선명하게 표현될 때, 유기물에 대한 색요소 또는 색상 표현 범위에 대해서만 상대적으로 높은 가중치를 부여할 수도 있으나, 무기물과 유기물에 대해 금속보다 상대적으로 높은 가중치를 부여할 수도 있다. 이때, 무기물보다는 유기물에 상대적으로 높은 가중치가 부여될 수 있다.The predetermined color element or color representation range to which a relatively high weight is given may be one or more. For example, when the total color element or the color expression range is n, the predetermined color element or color expression range to which a relatively high weight value is given may be 1 to n. When there are a plurality of predetermined color elements or color expression ranges, the degree of image enhancement required for each may be different, and thus different weights may be given to each. For example, when an image is clearly expressed in the order of metal-> inorganic-> organic matter, a relatively high weight can be given only to a color element or color expression range for an organic material. However, A high weight may be given. At this time, a relatively high weight can be given to the organic matter rather than the inorganic matter.

분할된 영역들 각각에 대해 색상 분포 정보를 획득하고, 가중치를 결정하는 구체적인 과정은 도 8을 참고하여 자세히 설명한다.A specific process of acquiring color distribution information and determining a weight value for each of the divided regions will be described in detail with reference to FIG.

도 8은 본 개시의 일 실시예에 따른 영상의 색상 분포 정보에 기초하여 출력 영상을 생성하는 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a process of generating an output image based on color distribution information of an image according to an embodiment of the present disclosure.

도 8을 참조하면, 객체 영상(800)은 제1 영역(810), 제2 영역(820) 등 하나 이상의 영역들로 분할될 수 있다. 객체 영상(800)에서 영역들을 분할하는 과정에 대해서는 도 5의 객체 영상 추출부(520)에 대해서 설명한 바와 같다. 이하에서 제1 영역(810)에서 색상 분포 정보가 획득되고 가중치가 결정되는 과정에 대해 자세히 설명한다. 제1 영역(810)은 3x3 크기의 영역으로서 총 9개의 픽셀을 가지고, 5개(n=5)의 색상 표현 범위(이하, 색상 표현 범위는 색요소로 치환될 수 있음)들을 가지는 것으로 가정한다. 일 실시예에 따른 영상 강화 장치는 제1 영역(810)에 대해 5개의 색상 표현 범위에 대한 정보를 포함하는 색상 분포 정보를 획득하고, 획득된 색상 분포 정보에 기초하여 3x3 크기의 영역 중 적어도 일부에 대해 하나 이상의 가중치를 결정할 수 있다. Referring to FIG. 8, an object image 800 may be divided into one or more regions such as a first region 810, a second region 820, and the like. The process of dividing regions in the object image 800 is as described for the object image extraction unit 520 in FIG. Hereinafter, the process of obtaining the color distribution information and determining the weight in the first region 810 will be described in detail. It is assumed that the first area 810 has a total of 9 pixels as a 3x3 area and has five color expression ranges (n = 5) (hereinafter, the color expression range can be replaced with color elements) . The image enhancement apparatus according to an exemplary embodiment may acquire color distribution information including information on five color representation ranges for the first area 810 and may generate color distribution information including at least a part of a 3x3 size area One or more weights may be determined for the < / RTI >

또는 영상 강화의 대상이 되는 소정의 색상 표현 범위에 대한 정보만을 색상 분포 정보로서 획득하고 이용할 수도 있다. 예컨대, 소정의 색상 표현 범위에 대한 분포 정보가 소정의 임계치 이상인 경우, 해당 영역은 강화의 대상으로 결정되고, 해당 영역에 상대적으로 높은 가중치가 부여될 수 있다.Alternatively, only information on a predetermined color expression range that is an object of image enhancement may be acquired and used as color distribution information. For example, when distribution information on a predetermined color expression range is equal to or greater than a predetermined threshold value, the region is determined as an enhancement target, and a relatively high weight can be given to the region.

색상 분포 정보에 기초하여 가중치를 결정하는 일 실시예를 보다 구체적으로 살펴보면, 분할된 영역들 각각에 대해서, n개의 색상 표현 범위 각각에 대한 정보를 반영하는 n개의 색상 채널 영상들이 획득될 수 있다. 예컨대, 제1 영역(810)은 5개(n=5)의 색상 표현 범위들에 대한 정보를 가지므로 5개의 색상 채널 영상들이 획득될 수 있으며, 이를 제1 색상 채널 영상(830), 제2 색상 채널 영상(840), 제3 색상 채널 영상(850), 제4 색상 채널 영상(860) 및 제5 색상 채널 영상(870)이라 한다. 또한 예컨대, X-Ray 판독 기기가 R, G, B, Y, P의 5가지 색요소를 지원하는 경우, 제1 색상 채널 영상(830), 제2 색상 채널 영상(840), 제3 색상 채널 영상(840), 제4 색상 채널 영상(860) 및 제5 색상 채널 영상(870)은 각각 R, G, B, Y 및 P의 색요소에 대응될 수 있다.More specifically, in one embodiment for determining the weight based on the color distribution information, n color channel images reflecting information on each of n color rendering ranges may be obtained for each of the divided areas. For example, since the first area 810 has information on five (n = 5) color expression ranges, five color channel images can be obtained, and the first color channel image 830, A color channel image 840, a third color channel image 850, a fourth color channel image 860, and a fifth color channel image 870. For example, if the X-ray reading device supports five color components R, G, B, Y and P, the first color channel image 830, the second color channel image 840, The image 840, the fourth color channel image 860, and the fifth color channel image 870 may correspond to R, G, B, Y, and P color elements, respectively.

제1 내지 제5 색상 채널 영상(830~870)의 각각은 제1 영역(810)의 구성 픽셀들 각각의 색상 정보에 기초하여 해당 색상 정보에 대응하는 색상 채널 영상에 각 픽셀을 매핑시킴으로써 생성될 수 있다. 예컨대, 제1 픽셀(812)은 제3 색상 채널 영상(850)의 해당 위치의 픽셀(852)에 매핑되고, 또한 제2 픽셀(814)은 제1 색상 채널 영상(830)의 해당 위치의 픽셀(832)에 매핑되고, 또한 제3 픽셀(816)은 제5 색상 채널 영상(870)의 해당 위치의 픽셀(872)에 매핑되고, 또한 제4 픽셀(818)은 제2 색상 채널 영상(840)의 해당 위치의 픽셀(842)에 매핑되고, 또한 제5 픽셀(820)은 제5 색상 채널 영상(870)의 해당 위치의 픽셀(874)에 매핑되고, 또한 제6 픽셀(822)은 제5 색상 채널 영상(870)의 해당 위치의 픽셀(876)에 매핑되고, 또한 제7 픽셀(824)은 제2 색상 채널 영상(840)의 해당 위치의 픽셀(844)에 매핑되고, 또한 제8 픽셀(826)은 제5 색상 채널 영상(870)의 해당 위치의 픽셀(878)에 매핑되고, 또한 제9 픽셀(828)은 제5 색상 채널 영상(870)의 해당 위치의 픽셀(880)에 매핑됨으로써, 상기 제1 내지 제5 색상 채널 영상(830~870)이 생성될 수 있다.Each of the first to fifth color channel images 830 to 870 is generated by mapping each pixel to a color channel image corresponding to the corresponding color information based on the color information of each of the constituent pixels of the first area 810 . For example, the first pixel 812 is mapped to a pixel 852 at the corresponding position of the third color channel image 850, and the second pixel 814 is mapped to the pixel 852 at the corresponding position of the first color channel image 830 And the third pixel 816 is mapped to the pixel 872 at the corresponding position of the fifth color channel image 870 and the fourth pixel 818 is mapped to the second color channel image 840 And the fifth pixel 820 is mapped to the pixel 874 at the corresponding position of the fifth color channel image 870 and the sixth pixel 822 is mapped to the pixel 842 at the corresponding position of the fifth color channel image 870, The seventh pixel 824 is mapped to the pixel 844 at the corresponding position of the second color channel image 840 and the seventh pixel 824 is mapped to the pixel 844 at the corresponding position of the second color channel image 840, The pixel 826 is mapped to the pixel 878 at the corresponding position of the fifth color channel image 870 and the ninth pixel 828 is mapped to the pixel 880 at the corresponding position of the fifth color channel image 870 So that the first to fifth colors Phase channel images 830 to 870 can be generated.

한편, 색상 표현 범위가 최대 n개인 경우, n보다 적은 수의 색상 채널 영상들이 획득될 수 있는데, 예컨대, 제1 영역(810)의 경우 제4 색상 채널 영상(860)에 해당되는 색상을 가진 픽셀이 존재하지 않기 때문에, 제4 색상 채널 영상(860)을 제외한 총 4개의 색상 채널 영상들이 획득될 수 있다.On the other hand, if the color expression range is at most n, color channel images less than n can be obtained. For example, in the first region 810, pixels having a color corresponding to the fourth color channel image 860 A total of four color channel images excluding the fourth color channel image 860 can be obtained.

색상 채널 영상들이 획득되면, 제1 색상 채널 영상(830), 제2 색상 채널 영상(840), 제3 색상 채널 영상(850), 제4 색상 채널 영상(860) 및 제5 색상 채널 영상(870)에 가중치 a1, a2, a3, a4 및 a5를 각각 적용할 수 있다.When the color channel images are acquired, the first color channel image 830, the second color channel image 840, the third color channel image 850, the fourth color channel image 860, and the fifth color channel image 870 , Weights a1, a2, a3, a4, and a5 can be applied to each of them.

가중치는 각 영역을 구성하는 픽셀들의 색상 분포를 고려하여 결정될 수 있으며, 예컨대, 픽셀들의 색상 분포에 비례하도록 가중치가 결정될 수 있다. 또는, 가중치는 소정의 색상 표현 범위에 대해서는 가중치를 상대적으로 높게, 나머지 색상 표현 범위에 대해서는 가중치를 상대적으로 낮게 결정할 수 있다. The weights can be determined in consideration of the color distribution of the pixels constituting each region, for example, the weights can be determined to be proportional to the color distribution of the pixels. Alternatively, the weights can be determined to be relatively high for a predetermined color expression range and relatively low for a remaining color expression range.

다시 도 5를 참조하여, 영상 강화부(540)는 색상 분포 분석부(530)에서 결정된 하나 이상의 가중치를 하나 이상의 영역들 중 적어도 일부에 적용하여 객체 영상에 대한 제1 출력 영상을 생성할 수 있다.Referring again to FIG. 5, the image enhancement unit 540 may apply one or more weights determined in the color distribution analysis unit 530 to at least a part of one or more regions to generate a first output image for the object image .

도 8을 참조하면, 제1 색상 채널 영상(830), 제2 색상 채널 영상(840), 제3 색상 채널 영상(850), 제4 색상 채널 영상(860) 및 제5 색상 채널 영상(870)에 가중치 a1, a2, a3, a4 및 a5를 적용하고, 가중치가 적용된 상기 제1 내지 제5 색상 채널 영상을 결합하여 가중치가 적용된 제1 영역(810-1)이 획득될 수 있다. 그리고, 상기 객체 영상(800)의 나머지 영역들에 대해서도 상기 과정을 반복함으로써, 최종적으로 제1 출력 영상이 생성될 수 있다. 가중치는 각 영역을 구성하는 픽셀들의 색상 분포를 고려하여 결정되고 또한 소정의 색상 표현 범위에 대해서는 상대적으로 높은 가중치가, 나머지 색상 표현 범위에 대해서는 상대적으로 낮은 가중치가 결정될 수 있다. 예컨대, 각 분할 영역에서 유기물을 나타내는 색상에 해당되는 부분은 배경과의 구분이 뚜렷하지 않아 경계 부분이 영상에서 상대적으로 명확하게 표현되지 않으므로 가중치가 상대적으로 높게 결정되고, 금속을 나타내는 색상에 해당되는 부분은 배경과의 구분이 비교적 뚜렷하므로 경계 부분이 영상에서 상대적으로 명확하게 표현되기 때문에 가중치가 상대적으로 낮게 결정될 수 있다. 가중치를 적용한다는 것은 전술한 바와 같이, 강화되는 영역 내 픽셀을 가중치가 곱해진 새로운 픽셀값으로 치환하는 것을 의미할 수 있다. 8, a first color channel image 830, a second color channel image 840, a third color channel image 850, a fourth color channel image 860, and a fifth color channel image 870, A1, a2, a3, a4, and a5 are applied to the first to fifth color channel images to which the weight is applied, and the first region 810-1 to which the weight is applied is obtained by combining the first to fifth color channel images. The first output image may be finally generated by repeating the process for the remaining regions of the object image 800 as well. The weights may be determined in consideration of the color distribution of the pixels constituting each region, a relatively high weight for a predetermined color expression range, and a relatively low weight for the remaining color expression range may be determined. For example, since the portion corresponding to the hue representing the organic matter in each of the divided regions is not clearly distinguished from the background, the boundary portion is relatively not expressed clearly in the image, so that the weight is determined to be relatively high, Since the part is relatively distinct from the background, the weight can be determined to be relatively low since the boundary part is expressed relatively clearly in the image. Applying the weighting may mean replacing pixels in the region to be enhanced with new pixel values multiplied by weights, as described above.

또는 전술한 바와 같이, 객체 영상(800)에 포함된 영역(810)의 색상 분포 분석 결과, 영상 강화의 대상이 되는 소정의 색상 표현 범위가 지배적이거나 소정의 임계치 이상의 분포를 갖는 경우, 해당 영역(810)에 대해 상대적으로 높은 가중치를 설정할 수 있다. Or as described above, if a predetermined color representation range to be subjected to image enhancement is dominant or has a distribution of a predetermined threshold value or more as a result of color distribution analysis of the region 810 included in the object image 800, 810) can be set relatively high.

예를 들어, 강화의 대상이 되는 색상 표현 범위가 적색(R)이고, 소정 영역의 지배적 색상이 적색일 때, 해당 영역에 1 이상의 가중치가 적용될 수 있다. 예컨대, 상기 소정 영역 내 픽셀의 (R, G, B) = (120, 10, 10) 일 때, 가중치 2를 적용함으로써, (R, G, B) = (240, 20, 20)으로 강화할 수 있다. 또는, R, G, B 중 일부, 예컨대, 적색에만 가중치 2가 적용되어, (R, G, B) = (240, 10, 10)으로 강화할 수도 있다. 또는, R, G, B 중 일부, 예컨대, 적색에는 가중치 2가 적용되고, 다른 일부, 예컨대, 녹색과 청색에는 가중치 0.5가 적용되어, (R, G, B) = (240, 5, 5)으로 강화할 수도 있다. 상기 예시는 적색을 강화하는 경우에 관한 것이나, 이에 한정되지 않으며, 임의의 색상을 강화의 대상이 되는 색상으로 결정할 수 있다.For example, when the color expression range to be enhanced is red (R) and the dominant color of a predetermined region is red, one or more weights may be applied to the region. For example, (R, G, B) = (240, 20, 20) can be enhanced by applying the weight 2 when (R, G, B) = (120,10,10) have. Alternatively, a weight 2 may be applied to only some of R, G, and B, e.g., red, so that (R, G, B) = (240, 10, 10). (R, G, B) = (240, 5, 5) is applied to a part of R, G and B, for example red, . The above example relates to the case of reinforcing the red color, but it is not limited thereto, and any color can be determined as the color to be strengthened.

상기 소정의 임계치 및/또는 가중치는 임의로 결정될 수도 있고, 축적된 영상 처리 정보에 기초하여 결정될 수도 있다. 또는, 인공지능 기반 학습 모델을 통해 상기 임계치 및/또는 가중치에 관한 학습을 수행함으로써, 최적의 임계치 및/또는 가중치가 계속하여 업데이트될 수 있다.The predetermined threshold value and / or the weight value may be arbitrarily determined or may be determined based on the accumulated image processing information. Alternatively, by performing learning on the threshold and / or weight through an artificial intelligence based learning model, optimal thresholds and / or weights can be continuously updated.

또한, 영상 강화부(540)는 하나 이상의 영역들 중 적어도 일부에 대해 에지 기반 필터링 또는 평활화 필터링을 적용하여 객체 영상에 대한 제2 출력 영상을 생성할 수 있다. 또한, 영상 강화부(540)는 생성된 제1 출력 영상 및 제2 출력 영상에 기초하여 객체 영상에 대한 제3 출력 영상을 생성할 수 있다.In addition, the image enhancement unit 540 may apply edge-based filtering or smoothing filtering to at least a portion of the one or more regions to generate a second output image for the object image. In addition, the image enhancement unit 540 may generate a third output image for the object image based on the generated first output image and the second output image.

에지 기반 필터링 또는 평활화 필터링은 영상의 컨트라스트(contrast)를 강화하기 위한 기법으로서, 예컨대 Wiener filtering, Unsharp mask filtering, Histogram equalization, linear contrast adjustment의 기법 등을 포함하나, 이에 제한되지 않으며, 영상의 컨트라스트를 강화하기 위한 기법들을 포함할 수 있다.Edge-based filtering or smoothing filtering is a technique for enhancing the contrast of an image including, but not limited to, Wiener filtering, unsharp mask filtering, histogram equalization, and linear contrast adjustment techniques, May include techniques for enhancing < / RTI >

도 9는 본 개시의 일 실시예에 따른 색상 분포 정보를 이용하여 획득된 영상과 에지 기반 필터링 또는 평활화 필터링을 적용하여 획득된 영상을 결합한 최종 출력 영상을 획득하는 과정을 설명하기 위한 도면이다. 도 9의 객체 영상(900), 제1 영역(910) 및 가중치가 적용된 제1 영역(910-1)은 도 8의 객체 영상(800), 제1 영역(810) 및 가중치가 적용된 제1 영역(810-1)에 각각 대응될 수 있다. 도 9를 참조하면, 영상 강화부(540)는 제1 영역(910)에 대해 상기 필터링이 적용된 제1 영역(910-2)을 생성할 수 있으며, 가중치가 적용된 제1 영역(910-1)과 필터링이 적용된 제1 영역(910-2)을 결합하여 최종 제1 영역(910-3)을 생성할 수 있다. 그리고, 영상 강화부(540)는 나머지 영역들에도 상기와 같은 필터링 기법들이 적용된 제2 출력 영상 및 제1 출력 영상과 제2 출력 영상을 결합한 제3 출력 영상을 생성할 수 있다.FIG. 9 is a diagram for explaining a process of acquiring a final output image obtained by combining an image obtained using color distribution information and an image obtained by applying edge-based filtering or smoothing filtering according to an embodiment of the present disclosure. The object image 900, the first area 910, and the weighted first area 910-1 of FIG. 9 correspond to the object image 800, the first area 810, and the weighted first area 910-1, And 810-1, respectively. 9, the image enhancement unit 540 may generate a first region 910-2 to which the filtering is applied to the first region 910, and may include a first region 910-1 to which weighting is applied, And the first area 910-2 to which the filtering is applied, to generate the final first area 910-3. The image enhancement unit 540 may generate a second output image to which the above-described filtering techniques are applied to the remaining regions, and a third output image that combines the first output image and the second output image.

가중치가 적용된 영역(예컨대, 910-1), 필터링이 적용된 영역(예컨대, 910-2) 및/또는 상기 둘을 이용한 최종 영역(910-3)을 생성하는 과정은 영역 단위로 수행될 수 있다. 그러나 이에 한정되지 않으며, 상기 과정은 객체 영상 단위로 수행될 수도 있다. 예컨대, 객체 영상에 포함된 영역의 각각에 대해 가중치를 적용하는 과정을 수행하여 가중치가 적용된 객체 영상(제1 출력 영상)을 획득할 수 있다. 또한, 객체 영상에 포함된 영역의 각각에 대해 상기 필터링을 적용하는 과정을 수행하여 객체 영상(제2 출력 영상)을 획득할 수 있다. 또한, 상기 가중치가 적용된 객체 영상과 상기 에지가 강화된 객체 영상을 결합함으로써, 상기 최종 영상(제3 출력 영상)을 생성할 수 있다.The process of generating the weighted region (e.g., 910-1), the filtered region (e.g., 910-2), and / or the final region 910-3 using the two may be performed on a domain basis. However, the present invention is not limited to this, and the process may be performed in units of object images. For example, it is possible to obtain a weighted object image (first output image) by applying a weight to each of the regions included in the object image. Also, it is possible to acquire an object image (second output image) by applying the filtering to each of the regions included in the object image. In addition, the final image (third output image) can be generated by combining the weighted object image and the enhanced edge object image.

한편, 예컨대 분할 영역 내 유기물이 다른 물질에 비해 적게 포함된 경우에는, 제1 출력 영상에 제2 출력 영상을 결합함으로써 제1 출력 영상에 대한 영향이 상대적으로 적을 수 있는데, 이 경우 유기물을 나타내는 색상 분포 정보에 대한 가중치를 상대적으로 더 높게 결정할 수 있다. 또한 예컨대, 제1 출력 영상과 제2 출력 영상을 결합함으로써 영상 내 여러 객체가 겹쳐있는 경우에도 보다 정확한 객체 인식이 가능하게 할 수 있다.On the other hand, for example, when the organic matter in the divided region is less than the other materials, the influence on the first output image may be relatively small by combining the second output image with the first output image. In this case, The weight for distribution information can be determined to be relatively higher. Also, for example, by combining the first output image and the second output image, it is possible to more accurately recognize an object even when a plurality of objects overlap each other.

도 10은 본 개시의 일 실시예에 따른 그래피컬 모델을 이용하여 최종 출력 영상을 획득하는 과정을 설명하기 위한 도면이다.10 is a diagram for explaining a process of obtaining a final output image using a graphical model according to an embodiment of the present disclosure.

일 실시예에 따른 영상 강화 장치는 색상 분포 정보에 포함된 색상 표현 범위들 각각을 개별 노드로 결정하고, 결정된 각 개별 노드간의 상대적인 관계 및 제1 출력 영상, 제2 출력 영상 및 제3 출력 영상과의 상대적인 관계를 이용하여, 계층적(hierarchical) 구조의 그래피컬 모델(graphical model)을 생성할 수 있다.The image enhancement apparatus according to an exemplary embodiment determines each of the color expression ranges included in the color distribution information as individual nodes, and determines a relative relationship between the determined individual nodes, a first output image, a second output image, , A graphical model of a hierarchical structure can be generated.

도 10을 참조하면, 각각의 분할 영역에서, 색상 분포 정보에 n개의 색상 표현 범위가 포함되어 있으면, 가장 하위 노드는 제1 색상 분포 정보(1010-1)부터 제n 색상 분포 정보(1010-n)까지 최대 n개의 노드를 포함할 수 있다. 그런 다음, 각 색상 분포 정보에 기초하여 해당 분할 영역 또는 해당 분할 영역의 색상 표현 범위들의 각각에 가중치를 적용하여 제1 출력 영상(1020)을 획득할 수 있다. 제1 출력 영상(1020)이 최종 출력 영상으로 결정될 수 있다. 또는 영상의 컨트라스트 강화 기법을 적용하여 획득된 제2 출력 영상(1030)을 더 생성하고, 제1 출력 영상(1020)과 제2 출력 영상(1030)을 기초로 제3 출력 영상(1040)을 생성할 수도 있다.Referring to FIG. 10, if the color distribution information includes n color expression ranges in each of the divided regions, the lowest-order node is the first color distribution information 1010-1 to the nth color distribution information 1010-n ≪ / RTI > Then, the first output image 1020 can be obtained by applying a weight to each of the color representation ranges of the corresponding divided region or the corresponding divided region based on the respective color distribution information. The first output image 1020 may be determined as the final output image. A third output image 1040 is generated based on the first output image 1020 and the second output image 1030. The second output image 1030 is generated by applying a contrast enhancement technique You may.

도 11은 본 개시의 일 실시예에 따른 영상 강화 방법을 설명하기 위한 도면이다. 도 11의 영상 강화 방법은 도 5의 영상 강화 장치가 수행하는 방법으로서, 도 5의 영상 강화 장치에 관한 설명은 도 11의 영상 강화 방법에 적용될 수 있다.11 is a view for explaining an image enhancement method according to an embodiment of the present disclosure. The image enhancement method of FIG. 11 is performed by the image enhancement apparatus of FIG. 5, and the description of the image enhancement apparatus of FIG. 5 may be applied to the image enhancement method of FIG.

S1100 단계에서, 입력 영상을 수신할 수 있다.In step S1100, an input image can be received.

S1110 단계에서 입력 영상에 포함되어 있는 객체를 추출할 수 있다. 예컨대, 입력 영상의 픽셀값과 소정의 임계값을 비교하여 픽셀값을 이진화하고, 이진화된 픽셀값을 그룹핑함으로써 분석 대상 영상에 포함된 객체를 추출할 수 있다.The object included in the input image can be extracted in step S1110. For example, a pixel value of an input image may be compared with a predetermined threshold value to binarize the pixel value, and binarized pixel values may be grouped to extract an object included in the analysis target image.

S1120 단계에서 객체를 포함하는 객체 영상을 하나 이상의 영역들로 분할할 수 있다. 예컨대, 객체 영상의 크기에 기초하여 객체 영상을 분할하는 영역들의 개수나 크기를 결정할 수 있다. 또한, 객체 영상을 분할하는 영역들 각각의 크기는 서로 동일하지 않을 수 있다. 또한, 예컨대 객체 영상이 정방형이 아닌 경우, 객체 영상을 업샘플링(up-sampling) 또는 다운샘플링(down-sampling)하여 객체 영상을 정방형으로 변환한 후, 객체 영상을 하나 이상의 영역들로 분할할 수 있다.In step S1120, the object image including the object may be divided into one or more regions. For example, the number and size of regions for dividing the object image can be determined based on the size of the object image. Also, the size of each of the regions dividing the object image may not be equal to each other. In addition, when the object image is not a square, the object image may be converted into a square by up-sampling or down-sampling the object image, and then the object image may be divided into one or more regions have.

S1130 단계에서 하나 이상의 영역들 각각에 대해 색상 분포 정보를 획득할 수 있다. 예컨대, 색상 분포 정보는 n(n은 1보다 큰 정수)개의 색상 표현 범위의 각각에 대한 정보를 포함할 수 있다.In step S1130, the color distribution information may be obtained for each of the one or more areas. For example, the color distribution information may include information on each of n (n is an integer greater than 1) color expression ranges.

S1140 단계에서, 색상 분포 정보에 기초하여, 하나 이상의 영역들 중 적어도 일부에 대해 하나 이상의 가중치를 결정할 수 있다. 예컨대, 하나 이상의 가중치는 n개의 색상 표현 범위 중 적어도 일부에 대한 가중치를 포함할 수 있다. 예컨대, 하나의 영역이 n개의 색상 표현 범위를 가진다고 하면, 해당 영역에서의 가중치의 개수는 1부터 n개를 가질 수 있다.In step S1140, based on the color distribution information, one or more weights may be determined for at least some of the one or more areas. For example, the one or more weights may include weights for at least some of the n color representation ranges. For example, if one area has n color expression ranges, the number of weights in the corresponding area may be 1 to n.

S1150 단계에서, 결정된 하나 이상의 가중치를 하나 이상의 영역들 중 적어도 일부에 적용하여 객체 영상에 대한 제1 출력 영상을 생성할 수 있다. In step S1150, the determined one or more weights may be applied to at least one of the one or more regions to generate a first output image for the object image.

도 11에는 도시되지 않았으나, 하나 이상의 영역들 중 적어도 일부에 대해 에지 기반 필터링 또는 평활화 필터링을 적용하여 객체 영상에 대한 제2 출력 영상을 생성할 수 있다. 또한 예컨대, 생성된 제1 출력 영상 및 제2 출력 영상에 기초하여 객체 영상에 대한 제3 출력 영상을 생성할 수 있다Although not shown in FIG. 11, edge-based filtering or smoothing filtering may be applied to at least a portion of the one or more regions to generate a second output image for the object image. Also, for example, a third output image for the object image may be generated based on the generated first output image and the second output image

도 5 내지 도 11을 참조하여 설명한 실시예에서는 단일 객체를 포함하는 영상을 입력 받아, 객체와 배경을 분리하는 예를 설명하였다. 그러나, 반드시 이에 한정되지 않으며, 입력 영상이 둘 이상의 객체를 포함하는 영상일 수도 있다. 이 경우, 입력 영상으로부터 둘 이상의 객체와 배경을 구분하고, 둘 이상의 객체의 각각에 대해 위치 정보를 생성하여 이용할 수도 있다. 또한, 이 경우, 도 6을 참조한 설명에서, 복수의 픽셀 그룹이 형성된 경우, 가장 큰 형태로 형성된 픽셀 그룹뿐만 아니라 다른 픽셀 그룹에 대해서도 각각 객체에 대한 영역인 것으로 결정할 수 있다. 각각의 결정된 객체의 위치 정보를 생성하는 과정은 하나의 객체를 포함하는 영상에 대해 설명한 바와 동일하다.In the embodiments described with reference to FIGS. 5 to 11, an example of receiving an image including a single object and separating an object and a background has been described. However, the present invention is not limited thereto, and the input image may be an image including two or more objects. In this case, it is possible to distinguish two or more objects and backgrounds from the input image, and generate position information for each of the two or more objects. Also, in this case, in the description with reference to FIG. 6, when a plurality of pixel groups are formed, it can be determined that not only the pixel group formed in the largest shape but also the other pixel groups are regions for the object. The process of generating the position information of each determined object is the same as described for the image including one object.

본 개시의 영상 강화 장치의 구성부들 및 영상 강화 방법의 단계들 중 적어도 일부는 인공지능 기반 또는 딥러닝 기반의 모델을 이용하여 수행될 수 있다. 예컨대, 객체 영상을 분할하여 생성되는 영역의 크기, 개수, 색상 분포 정보에 기초하여 결정되는 가중치, 본 개시에서 언급된 각종 임계치, 제2 출력 영상의 생성 여부 등은 인공지능 기반 또는 딥러닝 기반의 모델을 이용하여 학습될 수 있고, 학습된 모델에 따른 정보가 이용될 수 있다.At least some of the steps of the components of the image enhancement apparatus of the present disclosure and the image enhancement method may be performed using an artificial intelligence based or deep run based model. For example, a weight determined on the basis of the size, number and color distribution information of an area generated by dividing an object image, various thresholds mentioned in the present disclosure, whether or not a second output image is generated, Model can be learned, and information according to the learned model can be used.

이하, 도 12 내지 도 17을 참고하여, 영상 분석 장치(112)가 수행하는 맥락 분석 방법의 일 실시예에 대해 설명한다.Hereinafter, an embodiment of a context analysis method performed by the image analysis apparatus 112 will be described with reference to FIGS. 12 to 17. FIG.

도 12의 영상 분석 장치(1200)는 도 1의 영상 분석 장치(112)의 일 실시예일 수 있다. 또는 도 12의 영상 분석 장치(1200)는, 도 1 의 영상 분석 장치(112)에 포함되거나, 별개로 구성되어 맥락 분석을 수행하는 장치일 수 있다.The image analysis apparatus 1200 of FIG. 12 may be an embodiment of the image analysis apparatus 112 of FIG. Alternatively, the image analyzing apparatus 1200 of FIG. 12 may be included in the image analyzing apparatus 112 of FIG. 1, or may be a separate apparatus for performing context analysis.

도 12를 참조하면, 영상 분석 장치(1200)는 특징 추출부(1210), 맥락 생성부(1220) 및/또는 특징 및 맥락 분석부(1230)를 포함할 수 있다. 다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 영상 분석 장치(1200)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다.Referring to FIG. 12, the image analysis apparatus 1200 may include a feature extraction unit 1210, a context generation unit 1220, and / or a feature and context analysis unit 1230. It should be noted, however, that this shows only some components necessary for explaining the present embodiment, and the components included in the image analysis apparatus 1200 are not limited to the above-described examples.

영상 분석 장치(1200)는 입력 영상(분석 대상 영상)의 특징을 추출하고, 추출된 특징에 기초하여 맥락 정보를 생성하고, 추출된 특징 및 생성된 맥락 정보에 기초하여 분석 대상 영상을 분석할 수 있다. 예컨대, 영상 분석 장치(1200)는 추출된 특징 및 생성된 맥락 정보를 이용하여 영상을 분류하거나 관심 객체의 위치를 찾아낼 수 있다.The image analysis apparatus 1200 extracts the characteristics of the input image (analysis target image), generates context information based on the extracted features, and analyzes the analysis target image based on the extracted features and the generated context information have. For example, the image analysis apparatus 1200 can classify an image or locate an object of interest using extracted features and generated context information.

영상 분석 장치(1200)의 입력 영상은 도 1의 영상 분석 장치(112)의 입력 영상과 동일할 수 있다.The input image of the image analysis apparatus 1200 may be the same as the input image of the image analysis apparatus 112 of FIG.

특징 추출부(1210)는 입력 영상을 분석하여 영상의 특징을 추출할 수 있다. 예컨대, 상기 특징은 영상의 각 영역마다의 국소적인 특징일 수 있다. 일 실시예에 따른 특징 추출부(1210)는 일반적인 합성곱 신경망(Convolutional Neural Network, CNN) 기법 또는 풀링(pooling) 기법을 이용하여 입력 영상의 특징을 추출할 수 있다. 상기 풀링 기법은 맥스(max) 풀링 기법 및 평균(average) 풀링 기법 중 적어도 하나를 포함할 수 있다. 그러나, 본 개시에서 언급되는 풀링 기법은 맥스 풀링 기법 또는 평균 풀링 기법에 한정되지 않으며, 소정 크기의 영상 영역의 대표값을 획득하는 임의의 기법을 포함한다. 예컨대, 풀링 기법에 사용되는 대표값은 최대값 및 평균값 외에, 분산값, 표준 편차값, 중간값(mean value), 최빈값(most frequent value), 최소값, 가중 평균값 등 중 적어도 하나일 수 있다.The feature extracting unit 1210 can extract an image feature by analyzing the input image. For example, the feature may be a local feature for each region of the image. The feature extraction unit 1210 according to an exemplary embodiment may extract features of an input image using a general convolutional neural network (CNN) scheme or a pooling scheme. The pooling scheme may include at least one of a max pooling scheme and an average pooling scheme. However, the pulling technique referred to in the present disclosure is not limited to the max-pulling technique or the average-pulling technique, and includes any technique of obtaining a representative value of an image area of a predetermined size. For example, the representative value used in the pooling technique may be at least one of a variance value, a standard deviation value, a mean value, a most frequent value, a minimum value, a weighted average value, etc., in addition to the maximum value and the average value.

본 개시의 합성곱 신경망은 입력 데이터(영상)로부터 테두리, 선 색 등과 같은 "특징들(features)"을 추출하기 위해 이용될 수 있으며, 복수의 계층들(layers)을 포함할 수 있다. 각각의 계층은 입력 데이터를 수신하고, 해당 계층의 입력 데이터를 처리하여 출력 데이터를 생성할 수 있다. 합성곱 신경망은 입력된 영상 또는 입력된 특징맵(feature map)을 필터 커널들(filter kernels)과 컨볼루션하여 생성한 특징맵을 출력 데이터로서 출력할 수 있다. 합성곱 신경망의 초기 계층들은 입력으로부터 에지들 또는 그레디언트들과 같은 낮은 레벨의 특징들을 추출하도록 동작될 수 있다. 신경망의 다음 계층들은 눈, 코 등과 같은 점진적으로 더 복잡한 특징들을 추출할 수 있다. 합성곱 신경망의 구체적인 동작에 대해서는 도 16을 참고하여 후술한다.The composite neural network of the present disclosure may be used to extract "features" such as borders, line colors, etc. from input data (images) and may include multiple layers. Each layer can receive input data and process the input data of the layer to generate output data. The composite neural network can output the feature map generated by convoluting the input image or the input feature map with filter kernels as output data. The initial layers of the composite product neural network may be operated to extract low level features such as edges or gradients from the input. The next layers of the neural network can extract gradually more complex features such as eyes, nose, and so on. The concrete operation of the composite neural network will be described later with reference to FIG.

합성곱 신경망은 컨볼루션 연산이 수행되는 합성곱 계층 외에도 풀링 연산이 수행되는 풀링 계층도 포함할 수 있다. 풀링 기법은 풀링 계층에서 데이터의 공간적 크기를 축소하는데 사용되는 기법이다. 구체적으로, 풀링 기법에는 해당 영역에서 최대값을 선택하는 맥스 풀링(max pooling) 기법과 해당 영역의 평균값을 선택하는 평균 풀링(average pooling) 기법이 있으며, 이미지 인식 분야에서는 일반적으로 맥스 풀링 기법이 사용된다. 풀링 기법에서는 일반적으로 풀링의 윈도우 크기와 간격(스트라이드, stride)을 같은 값으로 설정한다. 여기서, 스트라이드란 입력 데이터에 필터를 적용할 때 이동할 간격을 조절하는 것, 즉 필터가 이동할 간격을 의미하며, 스트라이드 또한 출력 데이터의 크기를 조절하기 위해 사용될 수 있다. 풀링 기법의 구체적인 동작에 대해서는 도 17을 참고하여 후술한다.The composite neural network may also include a pooling layer in which a pooling operation is performed in addition to the convolutional layer in which the convolution operation is performed. The pooling technique is a technique used to reduce the spatial size of data in the pooling layer. Specifically, the pooling technique includes a max pooling technique for selecting a maximum value in a corresponding area and an average pooling technique for selecting an average value of the corresponding area. In the field of image recognition, a max pooling technique is generally used do. In the pooling technique, the window size and interval (stride) of the pooling are generally set to the same value. Here, the stride means adjusting the interval to move the filter when applying the filter to the input data, i.e., the interval at which the filter moves, and the stride can also be used to adjust the size of the output data. The specific operation of the pulling technique will be described later with reference to FIG.

본 개시의 일 실시예에 따른 특징 추출부(1210)는 분석 대상 영상의 특징을 추출하기 위한 전처리(pre-processing)로서, 분석 대상 영상에 필터링을 적용할 수 있다. 상기 필터링은 고속 푸리에 변환(Fast Fourier Transform, FFT), 히스토그램 평활화(histogram equalization), 모션 아티팩트(motion artifact) 제거 또는 노이즈(noise) 제거 등일 수 있다. 그러나, 본 개시의 필터링은 상기 열거한 방법으로 제한되지 않으며, 영상의 품질을 개선할 수 있는 모든 형태의 필터링을 포함할 수 있다. 또는 전처리로서 도 5 내지 도 11을 참조하여 설명한 영상의 강화가 수행될 수도 있다.The feature extraction unit 1210 according to an embodiment of the present disclosure is a pre-processing for extracting a feature of an analysis object image, and can apply filtering to the analysis object image. The filtering may be Fast Fourier Transform (FFT), histogram equalization, motion artifact rejection, or noise rejection. However, the filtering of the present disclosure is not limited to the methods listed above, and may include any type of filtering that can improve the quality of the image. Or enhancement of the image described with reference to Figs. 5 to 11 as pre-processing may be performed.

맥락 생성부(1220)는 특징 추출부(1210)로부터 추출된 입력 영상의 특징을 이용하여 입력 영상(분석 대상 영상)의 맥락 정보를 생성할 수 있다. 예컨대, 상기 맥락 정보는 분석 대상 영상의 전체 또는 일부 영역을 나타내는 대표값일 수 있다. 또한 상기 맥락 정보는 입력 영상의 전역적인 맥락 정보일 수 있다. 일 실시예에 따른 맥락 생성부(1220)는 합성곱 신경망 기법 또는 풀링 기법을 특징 추출부(1210)로부터 추출된 특징에 적용하여 맥락 정보를 생성할 수 있다. 상기 풀링 기법은 예컨대, 평균 풀링(average pooling) 기법일 수 있다.The context generation unit 1220 can generate the context information of the input image (analysis target image) using the characteristics of the input image extracted from the feature extraction unit 1210. [ For example, the context information may be a representative value indicating all or a part of the region to be analyzed. Also, the context information may be global context information of the input image. The context generation unit 1220 according to an embodiment may generate context information by applying the resultant synthesis neural network technique or the pulling technique to the features extracted from the feature extraction unit 1210. [ The pooling technique may be, for example, an average pooling technique.

특징 및 맥락 분석부(1230)는 특징 추출부(1210)에서 추출된 특징 및 맥락 생성부(1220)에서 생성된 맥락 정보에 기초하여 영상을 분석할 수 있다. 일 실시예에 따른 특징 및 맥락 분석부(1230)는 특징 추출부(1210)에서 추출된 영상의 각 영역마다의 국소적인 특징 및 맥락 생성부(1220)에서 재구성된 전역적인 맥락을 결합(concatenate)하는 등의 방식으로 함께 사용하여, 입력 영상을 분류하거나 입력 영상에 포함된 관심 객체의 위치 등을 찾는데 이용할 수 있다. 입력 영상 내 특정 2차원 위치에서의 정보는 국소적인 특징 정보뿐만 아니라 전역적인 맥락 정보까지 포함하게 되므로, 특징 및 맥락 분석부(1230)는 이들 정보를 이용함으로써, 실제 내용은 상이하지만 국소적인 특징 정보가 유사한 입력 영상들에 대해 보다 정확한 인식 또는 분류 등이 가능하게 된다. The feature and context analyzing unit 1230 can analyze the image based on the features extracted from the feature extracting unit 1210 and the context information generated in the context generating unit 1220. The feature and context analyzing unit 1230 according to an embodiment concatenates the local features of each region of the image extracted by the feature extracting unit 1210 and the global context reconstructed from the context generating unit 1220, Or the like to classify an input image or use it to find a position of an object of interest included in an input image. Since the information at the specific two-dimensional position in the input image includes not only the local feature information but also the global context information, the feature and context analyzing unit 1230 uses the information to distinguish the local feature information Can more accurately recognize or classify similar input images.

전술한 바와 같이, 본 개시의 일 실시예에 따른 발명은, 일반적인 합성곱 신경망 기법이 사용하는 국소적인 특징뿐만 아니라 전역적인 맥락 정보를 함께 사용함으로써, 보다 더 정확하고 효율적인 학습 및 영상 분석이 가능하게 된다. 이러한 관점에서 본 개시에 따른 발명이 적용된 신경망을 '맥락 분석을 통한 심층 신경망'이라 할 수 있다.As described above, the invention according to one embodiment of the present disclosure allows for more accurate and efficient learning and image analysis by using global context information as well as local features used by a general artificial neural network technique do. From this point of view, the neural network to which the invention according to the present disclosure is applied can be referred to as a 'depth neural network through context analysis'.

도 13은 본 개시의 일 실시예에 따른 영상의 맥락 정보를 생성하고 분석하는 과정을 나타내는 도면이다.13 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present disclosure.

도 13의 특징 추출부(1310), 맥락 생성부(1320), 및 특징 및 맥락 분석부(1330)는 각각 도 12의 특징 추출부(1210), 맥락 생성부(1220), 및 특징 및 맥락 분석부(1230)의 일 실시예일 수 있다.The feature extraction unit 1310, the context generation unit 1320, and the feature and context analysis unit 1330 of FIG. 13 respectively correspond to the feature extraction unit 1210, the context generation unit 1220, May be one embodiment of the < RTI ID = 0.0 >

도 13을 참조하면, 특징 추출부(1310)는 입력 영상(1312)을 이용하여 입력 영상(1312)으로부터 특징을 추출하고, 추출된 특징 정보를 포함하는 특징 영상(1314)을 생성할 수 있다. 상기 추출된 특징은 입력 영상의 국소 영역에 대한 특징일 수 있다. 상기 입력 영상(1312)은 영상 분석 장치의 입력 영상 또는 합성곱 신경망 모델 내의 각 계층에서의 특징맵을 포함할 수 있다. 또한 상기 특징 영상(1314)은 입력 영상(1312)에 대해 합성곱 신경망 기법 및/또는 풀링 기법을 적용하여 획득된 특징맵 및/또는 특징 벡터를 포함할 수 있다.13, the feature extraction unit 1310 may extract a feature from the input image 1312 using the input image 1312 and generate a feature image 1314 including the extracted feature information. The extracted feature may be a feature of the local region of the input image. The input image 1312 may include an input image of the image analysis apparatus or a feature map of each layer in the composite neural network model. Also, the feature image 1314 may include a feature map and / or feature vector obtained by applying a composite neural network technique and / or a pulling technique to the input image 1312.

맥락 생성부(1320)는 특징 추출부(1310)에서 추출된 특징 영상(1314)에 대해 합성곱 신경망 기법 및/또는 풀링 기법을 적용하여 맥락 정보를 생성할 수 있다. 예컨대, 맥락 생성부(1320)는 풀링의 간격(stride)을 다양하게 조절함으로써 영상 전체, 4등분 영역, 9등분 영역 등의 다양한 크기(scale)의 맥락 정보를 생성할 수 있다. 도 13을 참조하면, 영상 전체 크기의 영상에 대한 맥락 정보를 포함하는 전체 맥락 정보 영상(1322), 영상 전체를 4등분한 크기의 4등분 영상에 대한 맥락 정보를 포함하는 4등분 맥락 정보 영상(1324) 및 영상 전체를 9등분한 크기의 9등분 영상에 대한 맥락 정보를 포함하는 9등분 맥락 정보 영상(1326)이 획득될 수 있다. The context generation unit 1320 may generate context information by applying a composite neural network technique and / or a pooling technique to the feature image 1314 extracted by the feature extraction unit 1310. [ For example, the context generation unit 1320 can generate context information of various scales such as an entire image, a quadrant region, and a 9th region by variously adjusting the pooling interval. Referring to FIG. 13, a full context information image 1322 including context information on an image of a full size of an image, a quadrature context information image 1322 including context information on a quadruple image having a size divided into four quadrants, 1324), and a 9-ary context information image 1326 including context information for a 9-ary image having a size divided into nine equal parts of the whole image.

특징 및 맥락 분석부(1330)는 상기 특징 영상(1314)과 상기 맥락 정보 영상(1322, 1324, 1326)을 모두 이용하여 분석 대상 영상의 특정 영역에 대한 분석을 보다 정확히 수행할 수 있다. The feature and context analyzer 1330 can more accurately analyze the specific region of the analysis target image using both the feature image 1314 and the context information images 1322, 1324, and 1326.

예컨대, 자동차(car)와 유사한 형태를 갖는 보트(boat)가 포함된 영상이 입력 영상인 경우, 특징 추출부(1310)가 추출한 국소적인 특징을 포함하는 특징 영상(1314)으로부터는 상기 식별된 객체가 자동차인지 보트인지 정확히 판단할 수 없다. 즉, 특징 추출부(1310)는 국소적인 특징에 기초하여 객체의 형상을 인식할 수 있으나, 해당 객체의 형상만 가지고는 정확히 객체를 식별하고 분류할 수 없는 경우가 있다.For example, when an image including a boat having a shape similar to a car is an input image, a characteristic image 1314 including a local feature extracted by the feature extraction unit 1310, Can not accurately determine whether it is a car or a boat. That is, although the feature extracting unit 1310 can recognize the shape of the object based on local features, there are cases where it is not possible to correctly identify and classify the object only by the shape of the object.

본 개시의 일 실시예에 따른 맥락 생성부(1320)는 상기 분석 대상 영상 또는 상기 특징 영상(1314)에 기초하여 맥락 정보(1322, 1324, 1326)를 생성함으로써, 보다 정확히 객체를 식별하고 분류할 수 있다. 예컨대, 전체 영상에 대해 추출된 특징이 "자연 경관"으로 인식 또는 분류되고, 4등분 영상에 대해 추출된 특징이 "호수"로 인식 또는 분류되고, 9등분 영상에 대해 추출된 특징이 "물"로 인식 또는 분류되는 경우, 상기 추출된 특징인 "자연 경관", "호수", "물"을 맥락 정보로서 생성하고 활용할 수 있다.The context generation unit 1320 according to an embodiment of the present disclosure generates context information 1322, 1324, and 1326 based on the analysis object image or the feature image 1314 to more accurately identify and classify objects . For example, if the feature extracted for the whole image is recognized or classified as "natural landscape ", the feature extracted for the quadrant image is recognized or classified as" Quot; natural scenery ", "lake ", and" water "as the context information.

본 개시의 일 실시예에 따른 특징 및 맥락 분석부(1330)는 상기 맥락 정보를 활용함으로써, 상기 보트 또는 자동차의 형상을 갖는 객체를 "보트"로 식별할 수 있다.The feature and context analyzer 1330 according to an embodiment of the present disclosure can identify the object having the shape of the boat or car as a "boat" by utilizing the context information.

도 13을 참조하여 설명한 실시예에서는 전체 영상에 대한 맥락 정보, 4등분 영상에 대한 맥락 정보, 9등분 영상에 대한 맥락 정보를 생성하고 활용하는 것에 대해 설명하였으나, 맥락 정보를 추출하는 영상의 크기는 이에 한정되지 않는다. 예컨대, 전술한 크기의 영상 이외의 크기를 갖는 영상에 대한 맥락 정보를 생성하고 활용할 수도 있다. In the embodiment described with reference to FIG. 13, the context information for the entire image, the context information for the quadruple image, and the context information for the nine-divided image are generated and utilized. However, But is not limited thereto. For example, context information for an image having a size other than the image of the above-described size may be generated and utilized.

본 개시의 일 실시예에 따른 합성곱 신경망 기법 및 풀링에 대해서는 도 16 및 도 17을 참조하여 후술한다.The resultant artificial neural network technique and pulling according to an embodiment of the present disclosure will be described later with reference to FIG. 16 and FIG.

도 14는 본 개시의 일 실시예에 따른 영상 분석 장치가 영상을 분석하여 객체를 식별하는 과정을 설명하기 위한 도면이다.14 is a diagram for explaining a process of analyzing an image and identifying an object according to an image analysis apparatus according to an embodiment of the present disclosure.

예컨대, 영상 분석 장치(1400)는 영상(1410)을 입력 받고, 다양한 크기의 영상 영역에 대한 정보를 생성함으로써, 영상(1410)에 포함된 객체를 정확히 식별 및/또는 분류할 수 있다. 입력 영상(1410)은 예컨대, 가방을 포함하는 X-ray 영상일 수 있다. 영상 분석 장치(1400)는 전술한 바에 따라 입력 영상(1410)을 분석하여, 영상 전체에 대한 특징, 영상의 일부 영역에 대한 특징을 추출하고 이를 이용하여 영상(1410)에 포함된 객체를 정확히 식별할 수 있다. 상기 영상 전체에 대한 특징(1422)은 예컨대, 가방의 형상에 대한 특징일 수 있다. 상기 영상의 일부 영역에 대한 특징은 예컨대, 손잡이에 대한 특징(1424), 지퍼에 대한 특징(1426, 고리에 대한 특징(1428) 등을 포함할 수 있다. For example, the image analysis apparatus 1400 receives the image 1410 and generates information about image regions of various sizes, thereby accurately identifying and / or classifying the objects included in the image 1410. The input image 1410 may be, for example, an X-ray image including a bag. The image analysis apparatus 1400 analyzes the input image 1410 according to the above description, extracts features of the entire image, features of a partial region of the image, and accurately identifies the objects included in the image 1410 can do. The feature 1422 for the entire image may be, for example, a feature of the shape of the bag. The features for a portion of the image may include, for example, features 1424 for the handle, features 1426 for the zipper, features for the ring 1428, and the like.

영상 분석 장치(1400)는 상기 생성된 특징들(1422, 1424, 1426, 1428)을 맥락 정보로서 활용함으로써, 상기 영상(1410)에 포함된 객체가 "가방"이라는 것을 정확히 식별할 수 있다.The image analysis apparatus 1400 can accurately identify that the object included in the image 1410 is a "bag" by utilizing the generated features 1422, 1424, 1426, and 1428 as context information.

만약 상기 생성된 특징들 중 일부가 "가방"과 관련이 없는 특징이라면, 영상 분석 장치(1400)는 상기 영상(1410)에 포함된 객체가 "가방"이라고 식별할 수 없거나 또는 상기 영상(1410)에 포함된 객체를 "가방"으로 식별할 수 없다는 분석 결과를 제공할 수 있다. 또는, 맥락 정보 중 일부가 다른 맥락 정보와 관련이 없는 경우, 해당 객체의 이상을 출력할 수 있다. 예컨대, "가방"에 대한 통상의 특징과는 관련이 없는 비정형의 공간, 일정한 두께 이상의 공간 등이 검출되는 경우, 해당 "가방"은 이상이 있는 가방이라는 신호를 출력할 수 있다. If some of the generated features are unrelated to the "bag ", the image analysis apparatus 1400 may determine that the object contained in the image 1410 can not be identified as a" bag " Can not be identified as "bag ". Alternatively, if some of the context information is not related to other context information, an abnormality of the object can be output. For example, when an unstructured space that is not related to a normal characteristic of the "bag ", a space of a certain thickness or more is detected, the" bag "

상기와 같이, 통상의 맥락 정보와는 관련이 없는 맥락 정보가 포함되는 경우, 그러한 사실은 판독원에게 출력될 수 있으며, 판독원은 이에 기초하여 해당 영상의 물품 또는 객체에 대한 정밀 검사 또는 개장 검사를 실시할 수 있다.As described above, when context information that is not related to the normal context information is included, such fact can be output to the readout source, and the readout source can perform close inspection or refinement inspection Can be performed.

도 15는 본 개시의 일 실시예에 따른 영상 분석 장치의 동작을 설명하기 위한 도면이다.15 is a diagram for explaining the operation of the image analysis apparatus according to an embodiment of the present disclosure.

S1500 단계에서 영상 분석 장치는 분석 대상 영상의 특징을 추출할 수 있다.In step S1500, the image analysis apparatus can extract the characteristics of the analysis target image.

일 실시예에 따른 영상 분석 장치는 일반적인 합성곱 신경망 기법 또는 풀링 기법을 이용하여 입력 영상의 특징을 추출할 수 있다. 상기 분석 대상 영상의 특징은 영상의 각 영역마다의 국소적인 특징일 수 있으며, 또한 상기 풀링 기법은 맥스 풀링 기법 및 평균 풀링 기법 중 적어도 하나를 포함할 수 있다. The image analysis apparatus according to an exemplary embodiment can extract characteristics of an input image by using a general artificial neural network technique or a pulling technique. The feature of the analysis object image may be a local feature for each region of the image, and the pooling technique may include at least one of a max pooling technique and an average pooling technique.

S1510 단계에서 영상 분석 장치는 S1500 단계에서 추출된 특징에 기초하여 맥락 정보를 생성할 수 있다.In step S1510, the image analysis apparatus can generate context information based on the features extracted in step S1500.

일 실시예에 따른 영상 분석 장치는 합성곱 신경망 기법 및/또는 풀링 기법을 S1500 단계에서 추출된 특징에 적용하여 맥락 정보를 생성할 수 있다. 상기 맥락 정보는 분석 대상 영상의 전체 또는 일부 영역을 나타내는 대표값일 수 있다. 또한 상기 맥락 정보는 입력 영상의 전역적인 맥락 정보일 수 있다. 또한, 상기 풀링 기법은 예컨대, 평균 풀링 기법일 수 있다.The image analysis apparatus according to an exemplary embodiment may generate context information by applying the resultant artificial neural network technique and / or the pulling technique to the feature extracted in step S1500. The context information may be a representative value indicating all or a part of the region of the image to be analyzed. Also, the context information may be global context information of the input image. Also, the pooling technique may be, for example, an average pooling technique.

S1520 단계에서 영상 분석 장치는 S1500 단계에서 추출된 특징 및 S1510 단계에서 생성된 맥락 정보에 기초하여 상기 분석 대상 영상을 분석할 수 있다.In step S1520, the image analysis apparatus may analyze the analysis target image based on the feature extracted in step S1500 and the context information generated in step S1510.

예컨대, 영상 분석 장치는 S1500 단계에서 추출된 영상의 각 영역마다의 국소적인 특징 및 S1510 단계에서 재구성된 전역적인 맥락을 결합하여 입력 영상을 분류하거나 입력 영상에 포함된 관심 객체의 위치 등을 찾을 수 있다. 따라서, 입력 영상에서 특정 2차원 위치에서의 정보가 국소적인 정보부터 전역적인 맥락까지 포함됨으로써, 실제 내용은 상이하지만 국소적인 정보가 유사한 입력 영상들에 대해 보다 정확한 인식 또는 분류 등이 가능하다. 또는 다른 맥락 정보와 관련이 없는 맥락 정보를 포함하는 객체에 대한 검출이 가능하다.For example, the image analysis apparatus may classify the input image by combining the local features of each region of the image extracted in operation S1500 and the global context reconstructed in operation S1510, or locate the object of interest included in the input image have. Therefore, since the information at a specific two-dimensional position in the input image is included from the local information to the global context, it is possible to more accurately recognize or classify input images which are different in actual contents but local information is similar to each other. Or context information that is not related to other context information.

도 16은 다채널 특징맵을 생성하는 합성곱 신경망의 일 실시예를 설명하기 위한 도면이다.16 is a view for explaining an embodiment of a composite neural network for generating a multi-channel feature map.

합성곱 신경망 기반의 영상 처리는 다양한 분야에 활용될 수 있다. 예컨대, 영상의 객체 인식(object recognition)을 위한 영상 처리 장치, 영상 복원(image reconstruction)을 위한 영상 처리 장치, 시맨틱 세그먼테이션(semantic segmentation)을 위한 영상 처리 장치, 장면 인식(scene recognition)을 위한 영상 처리 장치 등에 이용될 수 있다.The image processing based on the composite neural network can be applied to various fields. For example, image processing apparatuses for image object recognition, image processing apparatuses for image reconstruction, image processing apparatuses for semantic segmentation, image processing for scene recognition, Device or the like.

입력 영상(1610)은 합성곱 신경망(1600)을 통해 처리됨으로써 특징맵 영상을 출력할 수 있다. 출력된 특징맵 영상은 전술한 다양한 분야에 활용될 수 있다.The input image 1610 may be processed through the composite neural network 1600 to output the feature map image. The outputted feature map image can be utilized in various fields as described above.

합성곱 신경망(1600)은 복수의 계층들(1620, 1630, 1640)을 통해 처리될 수 있으며, 각 계층은 다채널 특징맵 영상들(1625, 1635)을 출력할 수 있다. 일 실시예에 따른 복수의 계층들(1620, 1630, 1640)은 입력 받은 데이터의 좌측 상단으로부터 우측 하단까지 일정한 크기의 필터를 적용하여 영상의 특징을 추출할 수 있다. 예를 들어, 복수의 계층들(1620, 1630, 1640)은 입력 데이터의 좌측 상단 NxM 픽셀에 가중치를 곱해서 특징맵의 좌측 상단의 한 뉴런에 매핑시킨다. 이 경우, 곱해지는 가중치도 NxM가 될 것이다. 상기 NxM은 예컨대, 3x3일 수 있으나, 이에 한정되지 않는다. 이후, 동일한 과정으로, 복수의 계층들(1620, 1630, 1640)은 입력 데이터를 좌측에서 우측으로, 그리고 상단에서 하단으로 k 칸씩 스캔하면서 가중치를 곱하여 특징맵의 뉴런에 매핑한다. 상기 k 칸은 합성곱 수행시 필터를 이동시킬 간격(stride)을 의미하며, 출력 데이터의 크기를 조절하기 위해 적절히 설정될 수 있다. 예컨대, k는 1일 수 있다. 상기 NxM 가중치는 필터 또는 필터 커널이라고 한다. 즉, 복수의 계층들(1620, 1630, 1640)에서 필터를 적용하는 과정은 필터 커널과의 컨볼루션 연산을 수행하는 과정이며, 그 결과 추출된 결과물을 "특징맵(feature map)" 또는 "특징맵 영상"이라고 한다. 또한, 컨볼루션 연산이 수행된 계층을 합성곱 계층이라 할 수 있다.The composite neural network 1600 may be processed through a plurality of layers 1620, 1630, and 1640, and each layer may output multi-channel feature map images 1625 and 1635. The plurality of layers 1620, 1630, and 1640 according to an exemplary embodiment may extract a feature of an image by applying a filter having a predetermined size from the upper left end to the lower right end of the input data. For example, the plurality of layers 1620, 1630, and 1640 multiply the weighted value by the weighted upper left NxM pixel of the input data and map it to a neuron at the upper left of the feature map. In this case, the weight to be multiplied will also be NxM. The NxM may be, for example, 3x3, but is not limited thereto. Thereafter, in the same process, the plurality of layers 1620, 1630, and 1640 scans input data from left to right and from top to bottom by k squares, and maps the weights to neurons in the feature map. The k-th column means a stride for moving the filter when performing the product multiplication, and can be set appropriately to adjust the size of the output data. For example, k may be one. The NxM weight is called a filter or filter kernel. That is, the process of applying the filter in the plurality of layers 1620, 1630, and 1640 is a process of performing a convolution operation with the filter kernel. As a result, the extracted result is referred to as a "feature map" Map image ". In addition, the layer on which the convolution operation is performed may be referred to as a convolution layer.

“다채널 특징맵(multiple-channel feature map)"의 용어는 복수의 채널에 대응하는 특징맵들의 세트를 의미하고, 예를 들어 복수의 영상 데이터일 수 있다. 다채널 특징맵들은 합성곱 신경망의 임의의 계층에서의 입력일 수 있고, 컨볼루션 연산 등의 특징맵 연산 결과에 따른 출력일 수 있다. 일 실시예에 따르면, 다채널 특징맵들(1625, 1635)은 합성곱 신경망의 "특징 추출 계층들" 또는 "컨볼루션 계층들"이라고도 불리는 복수의 계층들(1620, 1630, 1640)에 의해 생성된다. 각각의 계층은 순차적으로 이전 계층에서 생성된 다채널 특징맵들을 수신하고, 출력으로서 그 다음의 다채널 특징맵들을 생성할 수 있다. 최종적으로 L(L은 정수)번째 계층(1640)에서는 L-1번째 계층(미도시)에서 생성한 다채널 특징맵들을 수신하여 미도시의 다채널 특징맵들을 생성할 수 있다.The term " multiple-channel feature map "refers to a set of feature maps corresponding to a plurality of channels, and may be, for example, a plurality of image data. Channel feature maps 1625 and 1635 may be inputs at any hierarchy and may be output according to a feature map operation result, such as a convolution operation. According to one embodiment, 1630, 1640, also referred to as " layers "or" convolutional layers. &Quot; Each layer sequentially receives the multi-channel feature maps generated in the previous layer, Channel characteristic maps generated in the L-1th layer (not shown) in the L (L is an integer) th layer 1640. The multi-channel characteristic maps generated in the L-1th layer Maps can be generated.

도 16을 참조하면, 채널 K1개를 가지는 특징맵들(1625)은 입력 영상(1610)에 대해 계층 1에서의 특징맵 연산(1620)에 따른 출력이고, 또한 계층 2에서의 특징맵 연산(1630)을 위한 입력이 된다. 또한, 채널 K2개를 가지는 특징맵들(1635)은 입력 특징맵들(1625)에 대해 계층 2에서의 특징맵 연산(1630)에 따른 출력이고, 또한 계층 3에서의 특징맵 연산(미도시)을 위한 입력이 된다.16, the feature maps 1625 having the channel K1 are outputs according to the feature map operation 1620 in the layer 1 with respect to the input image 1610 and the feature maps 1630 ≪ / RTI > In addition, feature maps 1635 with channel K2 are outputs according to feature map operation 1630 at layer 2 for input feature maps 1625 and feature map operations (not shown) at layer 3, ≪ / RTI >

도 16을 참조하면, 첫 번째 계층(1620)에서 생성된 다채널 특징맵들(1625)은 K1(K1은 정수)개의 채널에 대응하는 특징맵들을 포함한다. 또한, 두 번째 계층(1630)에서 생성된 다채널 특징맵들(1635)은 K2(K2은 정수)개의 채널에 대응하는 특징맵들을 포함한다. 여기서, 채널의 개수를 나타내는 K1 및 K2는, 첫 번째 계층(1620) 및 두 번째 계층(1630)에서 각각 사용된 필터 커널의 개수와 대응될 수 있다. 즉, M(M은 1 이상 L-1 이하의 정수)번째 계층에서 생성된 다채널 특징맵들의 개수는 M번째 계층에서 사용된 필터 커널의 개수와 동일할 수 있다.Referring to FIG. 16, the multi-channel feature maps 1625 generated in the first layer 1620 include feature maps corresponding to K1 (K1 is an integer) channels. In addition, the multi-channel feature maps 1635 generated in the second layer 1630 include feature maps corresponding to K2 (K2 is an integer) channels. Here, K1 and K2, which represent the number of channels, may correspond to the number of filter kernels used in the first layer 1620 and the second layer 1630, respectively. That is, the number of multi-channel feature maps generated in the Mth layer (M is an integer equal to or greater than 1 and equal to or smaller than L-1) may be equal to the number of filter kernels used in the Mth layer.

도 17은 풀링 기법의 일 실시예를 설명하기 위한 도면이다.17 is a view for explaining an embodiment of the pulling technique.

도 17에 도시된 바와 같이, 풀링의 윈도우 사이즈는 2x2, 스트라이드는 2이며, 맥스 풀링을 입력 영상(1710)에 적용하여 출력 영상(1790)을 생성할 수 있다. As shown in FIG. 17, the window size of the pulling is 2x2, the stride is 2, and the output image 1790 can be generated by applying the maximum pulling to the input image 1710. [

도 17의 (a)에서, 입력 영상(1710)의 좌측 상단에 2x2 윈도우(1710)를 적용하고, 윈도우(1710) 영역 내의 값들 중 대표값(여기서는, 최대값 4)을 계산하여 출력 영상(1790)의 대응 위치(1720)에 입력한다.17A, a 2x2 window 1710 is applied to the upper left of the input image 1710 and a representative value (here, maximum value 4) among the values in the window 1710 area is calculated to output the output image 1790 At a corresponding position 1720 of the display unit 1720.

이후, 도 17의 (b)에서, 스트라이드만큼, 즉, 2만큼 윈도우를 이동하고, 윈도우(1730) 영역 내의 값들 중 최대값 3을 출력 영상(1790)의 대응 위치(1740)에 입력한다.Then, in FIG. 17B, the window is shifted by stride, that is, by 2, and the maximum value 3 of the values in the window 1730 region is input to the corresponding position 1740 of the output image 1790.

더 이상 우측으로 윈도우를 이동시킬 없는 경우, 다시 입력 영상의 좌측에서 스트라이드만큼 아래의 위치부터 상기 과정을 반복한다. 즉, 도 17의 (c)에 도시된 바와 같이, 윈도우(1750) 영역 내의 값들 중 최대값 5를 출력 영상(1790)의 대응 위치(1760)에 입력한다.If the window can not be moved to the right side, the above process is repeated from the left side of the input image by a stride. That is, as shown in FIG. 17C, the maximum value 5 of the values in the window 1750 area is input to the corresponding position 1760 of the output image 1790.

이후, 도 17의 (d)에 도시된 바와 같이, 스트라이드만큼 윈도우를 이동하고, 윈도우(1770) 영역 내의 값들 중 최대값 2를 출력 영상(1790)의 대응 위치(1780)에 입력한다.Thereafter, as shown in Fig. 17D, the window is shifted by a stride, and the maximum value 2 of the values in the window 1770 region is input to the corresponding position 1780 of the output image 1790.

상기 과정은 입력 영상(1710)의 우측 하단 영역에 윈도우가 위치할 때까지 반복적으로 수행됨으로써, 입력 영상(1710)에 풀링을 적용한 출력 영상(1790)을 생성할 수 있다.The above process is repeated until the window is located in the lower right region of the input image 1710, thereby generating an output image 1790 in which the pulling is applied to the input image 1710.

이하, 도 18 내지 도 22를 참고하여, 복수의 영상 및/또는 물품 정보를 활용하여 새로운 합성 영상 및/또는 이에 대응하는 가상의 물품 정보를 생성하는 방법의 일 실시예에 대해 설명한다.Hereinafter, an embodiment of a method of generating a new composite image and / or corresponding virtual article information by utilizing a plurality of image and / or article information will be described with reference to FIGS. 18 to 22. FIG.

도 18은 본 개시의 일 실시예에 따른 영상 합성 장치의 구성을 나타내는 블록도이다.18 is a block diagram showing a configuration of an image synthesizing apparatus according to an embodiment of the present disclosure.

도 18을 참조하면, 영상 합성 장치(1800)는 객체 영상 추출부(1810), 객체 위치 정보 생성부(1820), 영상 합성부(1830) 및/또는 객체 검출 딥러닝 모델 학습부(1840)를 포함할 수 있다. 다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 영상 합성 장치(1800)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다. 예컨대, 둘 이상의 구성부가 하나의 구성부 내에서 구현될 수도 있고, 하나의 구성부에서 실행되는 동작이 분할되어 둘 이상의 구성부에서 실행되도록 구현될 수도 있다. 또한, 일부 구성부가 생략되거나 부가적인 구성부가 추가될 수도 있다. 또는, 도 1의 영상 분석 장치(112), 도 5의 영상 강화 장치(500), 도 12의 영상 분석 장치(1200) 및 도 18의 영상 합성 장치(1800)의 구성요소 중, 동일한 기능 또는 유사한 기능을 수행하는 구성부는 하나의 구성요소로서 구현될 수도 있다.18, the image synthesizing apparatus 1800 includes an object image extracting unit 1810, an object position information generating unit 1820, an image synthesizing unit 1830, and / or an object detecting deep learning model learning unit 1840 . It should be noted, however, that this shows only some of the components necessary for explaining the present embodiment, and the components included in the image synthesizer 1800 are not limited to the above-described examples. For example, two or more constituent units may be implemented in one constituent unit, and an operation performed in one constituent unit may be divided and executed in two or more constituent units. Also, some of the constituent parts may be omitted or additional constituent parts may be added. Or, among the components of the image analyzing apparatus 112 of FIG. 1, the image enhancing apparatus 500 of FIG. 5, the image analyzing apparatus 1200 of FIG. 12, and the image synthesizing apparatus 1800 of FIG. 18, The component performing the function may be implemented as one component.

본 개시의 일 실시예에 따른 영상 합성 장치(1800)는 제1 객체를 포함하는 제1 영상 및 제2 객체를 포함하는 제2 영상을 입력 받아, 제1 영상 및 제2 영상의 각각에 대해 객체와 배경을 구분하고, 구분된 제1 객체 및 제2 객체의 위치 정보를 생성하고, 제1 객체의 위치 정보 및 제2 객체의 위치 정보에 기초하여, 제1 객체 및 제2 객체를 포함하는 제3 영상을 생성하고, 제1 객체의 위치 정보, 제2 객체의 위치 정보 및 제3 영상을 이용하여 객체 검출 딥러닝 모델을 학습할 수 있다.The image synthesizing apparatus 1800 according to an embodiment of the present disclosure receives a first image including a first object and a second image including a second object, and for each of the first image and the second image, The first object and the second object are generated based on the position information of the first object and the position information of the second object, 3 image, and learn the object detection deep learning model using the position information of the first object, the position information of the second object, and the third image.

도 18을 참조하면, 입력 영상(1850)은 단일 객체를 포함하는 영상을 포함할 수 있다. 입력 영상(1850)에 대한 설명은 도 1 등을 참조하여 설명한 입력 영상에 대한 설명과 동일하다.Referring to FIG. 18, the input image 1850 may include an image including a single object. The description of the input image 1850 is the same as the description of the input image described with reference to FIG.

객체 영상 추출부(1810)는 단일 객체를 포함하는 영상(1850)을 수신하고 수신된 영상을 객체와 배경으로 구분할 수 있다. 객체 영상 추출부(1810)에 대한 설명은 도 5 및 도 6을 참조하여 설명한 객체 영상 추출부(520)에 대한 설명과 동일하다.The object image extracting unit 1810 may receive the image 1850 including a single object and may divide the received image into an object and a background. The description of the object image extracting unit 1810 is the same as the description of the object image extracting unit 520 described with reference to FIG. 5 and FIG.

객체 위치 정보 생성부(1820)는 객체 영상 추출부(1810)로부터 추출된 객체의 위치를 결정할 수 있다. 예컨대, 객체 위치 정보 생성부(1820)는 객체 영역을 둘러싸는 사각형 박스(bounding box)를 특정하고, 특정된 사각형 박스에 기초하여, 객체 영상 추출부(1810)에서 구분된 객체의 위치 정보를 생성할 수 있다. 객체의 위치 정보를 생성하는 방법에 대한 설명은 도 6을 참조한 방법에 대한 설명과 동일하다.The object location information generation unit 1820 can determine the location of the object extracted from the object image extraction unit 1810. For example, the object position information generation unit 1820 specifies a bounding box surrounding the object region, and generates position information of the object classified by the object image extraction unit 1810 based on the specified rectangular box can do. The description of the method of generating the location information of the object is the same as the description of the method referring to Fig.

본 개시의 일 실시예에 따르면, 영상에 포함된 객체의 위치 정보가 자동으로 생성될 수 있으므로, 인공지능 학습을 위해 판독원이 각각의 영상마다 객체의 위치 정보를 직접 입력해야 하는 번거로움을 피할 수 있다.According to an embodiment of the present disclosure, since position information of an object included in an image can be automatically generated, it is possible to avoid the hassle of a readout source for directly inputting the positional information of an object for each image for artificial intelligence learning .

다시 도 18을 참조하여, 영상 합성부(1830)는 객체 영상 추출부(1810) 및 객체 위치 정보 생성부(1820)를 거쳐 객체의 위치 정보가 획득된 복수의 단일 객체 영상을 이용하여 다중 객체 영상을 생성할 수 있다. 예컨대, 제1 객체를 포함하는 제1 영상 및 제2 객체를 포함하는 제2 영상에 대해, 각각 객체 영상 추출부(1810) 및 객체 위치 정보 생성부(1820)를 거쳐 제1 객체의 위치 정보 및 제2 객체의 위치 정보가 획득되고, 영상 합성부(1830)는 획득된 제1 객체의 위치 정보 및 제2 객체의 위치 정보에 기초하여 제1 객체 및 제2 객체를 포함하는 제3 영상을 생성할 수 있다. 다중 객체 영상을 생성하는 구체적인 과정에 대해 도 19를 참고하여 보다 상세히 설명한다.Referring again to FIG. 18, the image synthesizing unit 1830 receives the position information of the object through the object image extracting unit 1810 and the object position information generating unit 1820, Can be generated. For example, the first image including the first object and the second image including the second object are respectively transmitted through the object image extracting unit 1810 and the object position information generating unit 1820, The position information of the second object is obtained and the image combining unit 1830 generates a third image including the first object and the second object based on the obtained position information of the first object and the position information of the second object can do. A detailed process of generating a multi-object image will be described in detail with reference to FIG.

도 19는 본 개시의 일 실시예에 따른 단일 객체를 포함하는 두 개의 영상을 이용하여 다중 객체 영상을 생성하는 과정을 나타내는 도면이다. 도 19의 영상 합성부(1900)는 도 18의 영상 합성부(1830)의 일 실시예다. 도 19를 참조하면, 영상 합성부(1900)는 객체 영상 추출부 및 객체 위치 정보 생성부를 통해 획득된 제1 단일 객체 영상(1910), 제2 단일 객체 영상(1920) 및 제1 단일 객체 영상(1910)과 제2 단일 객체 영상(1920)의 위치 정보를 이용하여, 제1 단일 객체 영상(1910)과 제2 단일 객체 영상이 합성된 다중 객체 영상(1940) 및 다중 객체 영상(1940)에 포함된 객체들에 대한 위치 정보(1950)를 획득할 수 있다. 한편, 영상 합성부(1900)는 제1 단일 객체 영상(1910)과 제2 단일 객체 영상(1920)의 합성 시 객체로부터 구분된 배경에 대한 영상(1930)도 함께 이용할 수도 있다. 복수의 영상 합성시, 제1 단일 객체 영상(1910)의 위치 정보와 제2 단일 객체 영상(1920)의 위치 정보는 임의로 수정될 수 있다. 또한, 수정된 위치 정보에 기초하여 영상의 합성이 수행될 수 있다. 그럼으로써, 무수히 많은 양의 합성 영상과 가상의 위치 정보를 생성해 낼 수 있다.19 is a view illustrating a process of generating a multi-object image using two images including a single object according to an embodiment of the present disclosure. The image combining unit 1900 of FIG. 19 is an embodiment of the image combining unit 1830 of FIG. 19, the image synthesizing unit 1900 includes a first single object image 1910, a second single object image 1920, and a first single object image 1920 obtained through an object image extracting unit and an object position information generating unit Object image 1940 and the multi-object image 1940 in which the first single object image 1910 and the second single object image are combined using the position information of the second single object image 1920 and the second single object image 1920, Location information 1950 for the objects that are being processed. The image combining unit 1900 may also use the image 1930 for the background separated from the object when the first single object image 1910 and the second single object image 1920 are combined. The position information of the first single object image 1910 and the position information of the second single object image 1920 may be arbitrarily modified. In addition, image synthesis may be performed based on the corrected position information. Thus, it is possible to generate a large amount of composite images and virtual position information.

전술한 바와 같이, 합성을 통해 학습에 필요한 만큼의 합성 영상 및/또는 그에 대응하는 가상의 위치 정보를 생성해 낼 수 있다. 따라서, 학습에 필요한 영상 및/또는 위치 정보의 절대적인 수가 작은 경우에도 인공지능 모델을 학습시키기에 충분한 수의 학습 데이터를 얼마든지 생성해 낼 수 있다.As described above, it is possible to generate as many synthetic images and / or corresponding virtual position information as necessary for learning through synthesis. Therefore, even when the absolute number of images and / or position information required for learning is small, a sufficient number of learning data can be generated to sufficiently learn the artificial intelligence model.

다시 도 18을 참조하여, 객체 검출 딥러닝 모델 학습부(1840)는 제1 객체의 위치 정보, 제2 객체의 위치 정보 및 제3 영상을 이용하여 객체 검출 딥러닝 모델을 학습시킬 수 있다. 예컨대, 객체 검출 딥러닝 모델 학습부(1840)는 합성곱 신경망 모델을 학습시킬 수 있다. 합성곱 신경망 모델의 학습을 위해 제1 객체의 위치 정보, 제2 객체의 위치 정보 및 제3 영상이 이용될 수 있다.Referring again to FIG. 18, the object detection deep learning model learning unit 1840 can learn the object detection deep learning model using the position information of the first object, the position information of the second object, and the third image. For example, the object detection deep learning model learning unit 1840 can learn a combined-effect neural network model. The position information of the first object, the position information of the second object, and the third image may be used for learning of the compound neural network model.

도 20은 본 개시의 일 실시예에 따른 다중 객체 영상을 이용하여 합성곱 신경망을 학습시키는 과정을 나타내는 도면이다. 도 20의 객체 검출 딥러닝 모델 학습부(2000)는 도 18의 객체 검출 딥러닝 모델 학습부(1840)의 일 실시예다. 도 20을 참조하면, 학습에 필요한 데이터로서 단일 객체 영상들과 객체들의 위치 정보를 이용하여 합성된 다중 객체 영상(2010)을 이용할 수 있다. 객체 검출 딥러닝 모델 학습부(2000)는 다중 객체 영상(2010)에 대해 단일 객체 각각의 위치 정보를 함께 사영시킴으로써 합성곱 신경망(2020)을 학습시킬 수 있다. 일 실시예에 따를 때, 전자 검색 시스템에서 X-Ray 검색기를 통과하는 물체 내에 복수의 객체가 존재하면, 복수의 객체들이 겹쳐진 X-Ray 영상이 획득될 수 있는데, 본 개시에 따르면, 영상 내의 복수의 객체의 위치 정보와 함께 각각의 객체의 형상을 이용하여 합성곱 신경망을 학습시키기 때문에, 객체 간 겹침이 발생하여도 보다 정확한 검출 결과가 획득될 수 있다.20 is a diagram illustrating a process of learning a composite-object neural network using a multi-object image according to an embodiment of the present disclosure. The object detection deep learning model learning unit 2000 of FIG. 20 is an embodiment of the object detection deep learning model learning unit 1840 of FIG. Referring to FIG. 20, it is possible to use a multi-object image 2010 synthesized using single object images and position information of objects as data necessary for learning. The object detection deep learning model learning unit 2000 can learn the composite neural network 2020 by projecting the position information of each of the single objects with respect to the multi object image 2010. [ According to one embodiment, when there are a plurality of objects in an object passing through an X-ray searcher in an electronic search system, an overlapping X-ray image of a plurality of objects can be obtained. According to this disclosure, Since the artificial neural network is learned by using the shape of each object together with the position information of the objects of the object, the more accurate detection result can be obtained even when the overlap between the objects occurs.

도 21은 본 개시의 일 실시예에 따른 영상 합성 장치를 이용하여 실제 영상을 분석하는 과정을 설명하기 위한 도면이다.21 is a diagram for explaining a process of analyzing an actual image using the image synthesizing apparatus according to an embodiment of the present disclosure.

도 21의 영상 합성 장치(2100)는 도 18의 영상 합성 장치(1800)의 일 실시예다. 도 21의 영상 합성 장치(2100)가 포함하는 객체 영상 추출부(2104), 객체 위치 정보 생성부(2106), 영상 합성부(2108) 및 객체 검출 딥러닝 모델 학습부(2110)의 동작은 도 18의 영상 합성 장치(1800)에 포함된 객체 영상 추출부(1810), 객체 위치 정보 생성부(1820), 영상 합성부(1830) 및 객체 검출 딥러닝 모델 학습부(1840)의 동작과 동일하다. 따라서, 영상 합성 장치(2100)는 복수의 단일 객체 영상(2102)에 대해 객체 영상 추출부(2104), 객체 위치 정보 생성부(2106), 영상 합성부(2108) 및 객체 검출 딥러닝 모델 학습부(2110)에서의 동작을 수행함으로써 학습된 합성곱 신경망 모델을 생성할 수 있다. 객체 검출 장치(2120)는 실제 환경의 다중 객체를 포함하는 영상(2122)에 대해 영상 처리 장치(2100)에서 학습된 합성곱 신경망 모델을 이용하여 각각의 객체를 검출할 수 있다. The image synthesizing apparatus 2100 of FIG. 21 is an embodiment of the image synthesizing apparatus 1800 of FIG. The operation of the object image extracting unit 2104, the object position information generating unit 2106, the image synthesizing unit 2108 and the object detecting deep learning model learning unit 2110 included in the image synthesizing apparatus 2100 of FIG. The object image extracting unit 1810, the object position information generating unit 1820, the image synthesizing unit 1830 and the object detecting deep learning model learning unit 1840 included in the image synthesizing apparatus 1800 . Accordingly, the image synthesizing apparatus 2100 includes an object image extracting unit 2104, an object position information generating unit 2106, an image synthesizing unit 2108, and an object detecting deep learning model learning unit 2104 for a plurality of single object images 2102, Lt; RTI ID = 0.0 > 2110 < / RTI > The object detecting apparatus 2120 can detect each object using the artificial neural network model learned in the image processing apparatus 2100 with respect to the image 2122 including multiple objects in the real environment.

일 실시예에 따를 때, 물품 검색 시스템에 본 개시의 발명이 적용되는 경우, 본 개시의 영상 합성 장치(2100)는 X-Ray 영상 내 단일 객체 영역 추출을 기반으로 새롭게 다중 객체 포함 영상을 생성할 수 있다. 또한 객체 검출 장치(2120)는 X-Ray 검색기를 통과하는 물품 내 포함된 다중 객체가 존재하는 영역을 찾을 수 있다. 따라서, X-Ray 영상에 대해 객체의 위치를 자동적으로 추출함으로써, 판독원이 보다 수월하게 영상 검사 작업을 수행할 수 있도록 할 수 있고, 또한 추출된 객체와 물체 내 객체의 수량 정보 등을 포함하는 전산 정보를 비교하는 업무 등에 이용될 수 있다.According to one embodiment, when the present invention is applied to an article search system, the image synthesizing apparatus 2100 of the present disclosure generates a new multi-object embedded image based on a single object region extraction in an X-ray image . In addition, the object detection apparatus 2120 can find an area where there are multiple objects included in an article passing through the X-ray scanner. Accordingly, by automatically extracting the position of the object with respect to the X-ray image, it is possible to more easily perform the image inspection operation by the readout source, and further, And can be used for comparison of computerized information.

도 22는 본 개시의 일 실시예에 따른 영상 합성 방법을 설명하기 위한 도면이다.FIG. 22 is a view for explaining an image synthesizing method according to an embodiment of the present disclosure; FIG.

S2200 단계에서, 제1 객체를 포함하는 제1 영상 및 제2 객체를 포함하는 제2 영상을 입력 받아, 제1 영상 및 제2 영상의 각각에 대해 객체와 배경을 구분할 수 있다. 예컨대, 입력 영상의 픽셀값과 소정의 임계값을 비교하여 픽셀값을 이진화하고, 이진화된 픽셀값을 그룹핑함으로써 입력 영상에 포함된 객체를 구분할 수 있다.In step S2200, the first image including the first object and the second image including the second object may be input, and the object and the background may be distinguished for the first image and the second image, respectively. For example, a pixel value of an input image may be compared with a predetermined threshold value to binarize the pixel value, and binarized pixel values may be grouped to distinguish objects included in the input image.

S2210 단계에서, 구분된 제1 객체 및 제2 객체의 위치 정보를 생성할 수 있다. 예컨대, 객체 영역을 둘러싸는 사각형 박스를 특정하고, 특정된 사각형 박스에 기초하여, S2200 단계에서 구분된 객체의 위치 정보를 생성할 수 있다.In step S2210, the location information of the first object and the second object may be generated. For example, a rectangular box surrounding the object area may be specified, and position information of the object classified in step S2200 may be generated based on the specified rectangular box.

S2220 단계에서, 제1 객체의 위치 정보 및 제2 객체의 위치 정보에 기초하여, 제1 객체 및 제2 객체를 포함하는 제3 영상을 생성할 수 있다. 예컨대, S2210 단계에서 획득된 제1 객체의 위치 정보 및 제2 객체의 위치 정보에 기초하여 제1 객체 및 제2 객체를 포함하는 제3 영상을 생성할 수 있다.In step S2220, a third image including the first object and the second object may be generated based on the position information of the first object and the position information of the second object. For example, the third image including the first object and the second object may be generated based on the position information of the first object and the position information of the second object obtained in step S2210.

S2230 단계에서, 제1 객체의 위치 정보, 제2 객체의 위치 정보 및 제3 영상을 이용하여 객체 검출 딥러닝 모델을 학습할 수 있다. 예컨대, 합성곱 신경망 모델을 학습시킬 수 있으며, 합성곱 신경망 모델의 학습을 위해 S2210 단계에서 생성된 제1 객체의 위치 정보와 제2 객체의 위치 정보 및 S2220 단계에서 생성된 제3 영상이 이용될 수 있다.In step S2230, the object detection deep learning model may be learned using the position information of the first object, the position information of the second object, and the third image. For example, the location information of the first object generated in step S2210, the location information of the second object, and the third image generated in step S2220 may be used for learning the articulated neural network model. .

도 18 내지 도 22를 참조하여 설명한 실시예에서는 단일 객체를 포함하는 영상을 입력 받아, 객체와 배경을 분리하는 예를 설명하였다. 그러나, 반드시 이에 한정되지 않으며, 입력 영상이 둘 이상의 객체를 포함하는 영상일 수도 있다. 이 경우, 입력 영상으로부터 둘 이상의 객체와 배경을 구분하고, 둘 이상의 객체의 각각에 대해 위치 정보를 생성하여 이용할 수도 있다. In the embodiment described with reference to FIGS. 18 to 22, an example in which an image including a single object is received and an object and a background are separated has been described. However, the present invention is not limited thereto, and the input image may be an image including two or more objects. In this case, it is possible to distinguish two or more objects and backgrounds from the input image, and generate position information for each of the two or more objects.

또한, 상기 설명한 실시예에서는 2개의 단일 객체 영상 및 각 객체의 위치 정보에 기초하여 제3 영상을 생성하는 것으로 설명하였다. 그러나, 반드시 이에 한정되지 않으며, 둘 이상의 단일 객체 영상 및 각 객체의 위치 정보를 이용하여 제3 영상을 생성할 수도 있다. 즉, 본 개시에 따른 영상 처리 방법 및 장치는 각각이 하나 이상의 객체를 포함하는 둘 이상의 영상 및 각 객체의 위치 정보에 기초하여 제3 영상을 생성할 수 있다.Also, in the above-described embodiment, it has been described that the third image is generated based on the two single object images and the position information of the respective objects. However, the present invention is not limited to this, and a third image may be generated using two or more single object images and position information of each object. That is, the image processing method and apparatus according to the present disclosure can generate a third image based on two or more images each including one or more objects and position information of each object.

이하, 도 23 내지 도 30을 참고하여, 본 개시에 따른 물품 검색 시스템이 물체의 실측 크기를 고려하여, 분석 대상 영상을 분석하는 방법에 대해서 구체적으로 설명한다.Hereinafter, with reference to FIGS. 23 to 30, a method for analyzing an analysis object image in consideration of an actual size of an object in the article search system according to the present disclosure will be described in detail.

종래 물품 검색 시스템은, 분석 대상 영상에 특정 물체가 존재하는 경우, 이를 별도로 마킹한 영상을 판독원에게 제공하였을 뿐, 판독원에게 분석 대상 영상 내의 특정 물체가 구체적으로 무엇인지를 알려주지는 못했다. 하지만, 전술한 CNN 혹은 딥러닝 기반의 영상 분석 기법을 이용하면, 영상 분석 장치는 사용자에게 분석 대상 영상 내의 특정 물체가 무엇인지에 대한 정보를 제공 할 수 있다.In the conventional article search system, when there is a specific object in the analysis target image, the image obtained by separately marking it is provided to the readout source, and the reader can not tell the specific object in the analysis target image. However, by using the above-described CNN or deep learning based image analysis technique, the image analysis apparatus can provide the user with information on what specific object in the analysis target image is.

전술한 딥러닝 기반의 영상 분석 방법은, 분석 대상 영상 내의 물체의 특징 및 추출된 특징에 기초한 맥락 정보만 이용하여 수행되기 때문에, 분석 대상 영상에 대한 속성 정보의 별도 입력이 없는 한 물체의 실측 크기가 고려 될 수 없는 문제점이 있다.Since the above-described deep learning-based image analysis method is performed using only the context information based on the features of the object and the extracted features in the analysis target image, the actual measurement size of the object Can not be considered.

예컨대, 동일한 맥락 정보가 추출된 물체도, 물체의 실제 크기에 따라서는 서로 다른 종류의 물체 일 수가 있다. 예를 들어, 스마트폰과 테블릿은 서로 다른 종류의 물체이나, 형태적 유사성 때문에, 영상 분석 장치는 분석 대상 영상 내의 스마트폰과 테블릿을 구분하기 어렵다.For example, an object from which the same context information is extracted may be an object of a different kind depending on the actual size of the object. For example, smartphones and tablets are different types of objects, but because of their morphological similarity, it is difficult to distinguish between smartphones and tablets in the image to be analyzed.

즉, 상술한 딥러닝 기반의 영상 분석 방법은 물체의 실제 크기를 고려하여 영상을 분석하지 않으므로, 맥락 정보가 동일하거나 유사한 물체에 대해서는 실측 크기에 관계 없이 영상 분석 결과가 동일해 지는 문제점이 있다.That is, the above-described deep learning-based image analysis method does not analyze an image in consideration of an actual size of an object, and therefore, the same image analysis results are obtained for the same or similar objects regardless of the actual size.

이하에서는, 분석 대상 영상 내의 물체의 실측 크기 정보를 활용하여, 영상 분석 장치의 검출 및 분석 성능을 향상시키는 방안을 제안한다.Hereinafter, a method of improving the detection and analysis performance of the image analyzing apparatus using the actual size information of the object in the image to be analyzed is proposed.

영상 분석 장치는 X-ray 판독 기기로부터, 분석 대상 영상과 함께 상기 분석 대상 영상의 속성과 관련된 정보 혹은 영상 정보를 수신 할 수 있다. 영상 분석 장치는 수신된 분석 대상 영상과 영상 정보를 이용하여, 분석 대상 물체의 실제 크기를 계산 할 수 있고, 계산된 실제 크기를 바탕으로 영상 분석 성능을 향상 시킬 수 있다.The image analysis apparatus can receive information related to the attribute of the analysis object image or image information together with the analysis object image from the X-ray reading apparatus. The image analysis apparatus can calculate the actual size of the object to be analyzed and improve the image analysis performance based on the calculated actual size by using the received analysis object image and image information.

도 23은 본 개시의 일 실시예에 따른 영상 분석 방법을 설명하기 위한 흐름도이다.23 is a flowchart illustrating an image analysis method according to an embodiment of the present disclosure.

도 23에 따르면, 본 개시의 일 실시예에 따른 물체의 실측 크기를 고려한 영상 분석 방법은, 물품 검색 시스템(100) 혹은 영상 분석 장치(112)에 의해 수행 될 수 있다. 이하에서는, 편의상 영상 분석 장치(112)가 방법을 수행하는 것으로 설명한다. 하지만 넓은 의미에서, 본 개시에 따른 물체의 실측 크기를 고려한 영상 분석 방법은 물품 검색 시스템(100)에 의해 수행되는 것으로도 해석 될 수 있다.Referring to FIG. 23, an image analyzing method considering an actual size of an object according to an embodiment of the present disclosure may be performed by the article searching system 100 or the image analyzing apparatus 112. Hereinafter, it is assumed that the image analysis apparatus 112 performs the method for convenience. However, in a broad sense, the image analysis method considering the actual size of the object according to the present disclosure can also be interpreted as being performed by the article search system 100.

본 개시의 일 실시예에 따른 물체의 실측 크기를 고려한 영상 분석 방법은, 분석 대상 영상을 수신하는 단계(S2300), 분석 대상 영상 내의 물체를 검출하는 단계(S2310), 검출된 물체의 실측 크기를 기반으로 검출된 물체를 분석하는 단계(S2320) 및/또는 분석된 결과를 출력하는 단계(S2340)를 포함 할 수 있다.An image analyzing method considering an actual size of an object according to an embodiment of the present disclosure includes receiving an analyzing object image (S2300), detecting an object in the analyzing object image (S2310), measuring an actual size of the detected object (S2320) analyzing the detected object on the basis of the analyzed result (S2340) and / or outputting the analyzed result (S2340).

단계 S2300에서, 영상 분석 장치는 X-ray 장치 등으로부터 분석 대상 영상을 수신할 수 있다. 여기서 분석 대상 영상은, 검출 대상 물체를 포함하는 영상 또는 사진을 의미 할 수 있다. 본 개시에 따른 영상 분석 방법은 분석 대상 영상에 포함되어 있는 물체를 검출하고, 검출된 물체의 종류가 무엇인지를 결정하여 판독원에게 제공하는 방법을 의미 할 수 있다.In step S2300, the image analysis apparatus can receive the analysis object image from the X-ray apparatus or the like. Here, the analysis target image may mean an image or a photograph including an object to be detected. The image analysis method according to the present disclosure may be a method of detecting an object included in an analysis object image, determining what kind of object is detected, and providing the object to a readout object.

단계 S2310에서, 영상 분석 장치는 분석 대상 영상 내의 물체를 검출 할 수 있다. 영상 분석 장치는 CNN 또는 미리 학습된 딥러닝 기반의 모델을 이용하여 분석 대상 영상 내의 물체를 검출 할 수 있다. 영상 분석 장치가 분석 대상 영상 내의 물체를 검출하는 방법은 도 12 내지 도 22에서 설명한 바와 같으므로 설명을 생략한다.In step S2310, the image analysis apparatus can detect an object in the analysis target image. The image analysis apparatus can detect an object in the analysis target image by using CNN or a pre-learned deep learning based model. The method of the image analyzing apparatus for detecting an object in the analysis object image is the same as that described with reference to FIG. 12 to FIG. 22, and a description thereof will be omitted.

단계 S2320에서, 영상 분석 장치는 검출된 물체의 실측 크기를 기반으로, 단계 S2310에서 검출된 물체에 대한 분석을 수행 할 수 있다. 여기서 실측 크기는 검출 대상 물체의 실제 크기를 의미 할 수 있다. 검출 대상 물체의 실제 크기는 분석 대상 영상의 해상도 정보를 바탕으로 계산 될 수 있다. 예컨대, 영상 분석 장치는 검출 대상 물체의 길이를 픽셀 단위로 계산 한 뒤, 계산한 픽셀 값에 단위 픽셀 당 길이 값을 곱하여 검출 대상 물체의 실측 크기를 얻을 수 있다. 여기서 검출 대상 물체의 길이는 상기 물체의 가로, 세로, 및/또는 대각선 길이 등을 포함 할 수 있다.In step S2320, the image analysis apparatus can perform an analysis on the detected object in step S2310 based on the actual size of the detected object. Here, the actual size may mean the actual size of the object to be detected. The actual size of the object to be detected can be calculated based on the resolution information of the analysis object image. For example, the image analyzing apparatus may calculate the length of the detection object in units of pixels, and then multiply the calculated pixel value by the length per unit pixel to obtain the actual size of the detection object. Here, the length of the object to be detected may include the length, length, and / or diagonal length of the object.

다른 예로, 영상 분석 장치는 검출 대상 물체가 분석 대상 영상에서 차지하고 있는 면적을 계산하여 물체의 실측 크기를 얻을 수도 있다. 예컨대, 영상 분석 장치는 물체의 면적을 픽셀 단위로 계산하고, 계산된 픽셀 값에 픽셀 당 넓이 값을 곱하여 검출 대상 물체의 실측 크기를 얻을 수 있다. 예컨대, 물체의 영역을 이루는 픽셀의 수를 획득하고, 하나의 픽셀이 차지하는 넓이를 상기 획득한 픽셀의 수와 곱하여 물체의 면적을 계산할 수 있다. 이 때, 하나의 픽셀이 차지하는 넓이는 분석 대상 영상에 관한 정보(예컨대, 해상도 등)에 기초하여 획득될 수 있다. 또는, 하나의 픽셀이 차지하는 넓이는 분석 대상 영상에 관한 정보로서 상기 물품 검색 시스템(100) 혹은 영상 분석 장치에 의해 직접 획득될 수 있다.As another example, the image analysis apparatus may calculate the actual size of the object by calculating the area occupied by the object to be detected in the image to be analyzed. For example, the image analyzing apparatus can calculate the actual size of the detection target object by calculating the area of the object in pixels and multiplying the calculated pixel value by the width per pixel. For example, the number of pixels constituting an area of an object may be obtained, and the area occupied by one pixel may be multiplied by the number of pixels obtained to calculate the area of the object. At this time, the area occupied by one pixel can be obtained based on information (e.g., resolution, etc.) regarding the analysis target image. Alternatively, the area occupied by one pixel may be directly obtained by the product retrieval system 100 or the image analysis apparatus as information on the analysis target image.

영상 분석 장치는 검출 대상 물체의 실측 크기를, 물체의 종류별로 결정된 값 혹은 물체의 종류별로 데이터 베이스에 정의된 값과 비교하여, 검출 대상 물체의 종류를 결정 할 수 있다.The image analysis apparatus can determine the type of the object to be detected by comparing the actual size of the object to be detected with a value determined for each object type or a value defined in the database for each object type.

예를 들어, 영상 분석 장치는 검출 대상 물체의 실측 크기를 기 설정된 값과 비교 할 수 있다. 상기 비교 결과, 검출 대상 물체의 실측 크기가 상기 기 설정된 값보다 작거나 같은 경우, 영상 분석 장치는 상기 검출 대상 물체의 종류를 제 1 종류로 결정할 수 있다. 상기 비교 결과, 검출 대상 물체의 실측 크기가 상기 기 설정된 값보다 큰 경우, 영상 분석 장치는 상기 검출 대상 물체의 종류를 제 2 종류로 결정 할 수 있다. 다른 예로, 상기 비교 결과, 검출 대상 물체의 실측 크기가 상기 기 설정된 값보다 작은 경우, 영상 분석 장치는 상기 검출 대상 물체의 종류를 제 1 종류로 결정할 수 있다. 상기 비교 결과 검출 대상 물체의 실측 크기가 상기 기 설정된 값보다 크거나 같은 경우, 영상 분석 장치는 상기 검출 대상 물체의 종류를 제 2 종류로 결정 할 수 있다.For example, the image analysis apparatus can compare an actual size of an object to be detected with a predetermined value. As a result of the comparison, when the actual size of the detection object is smaller than or equal to the predetermined value, the image analysis apparatus can determine the type of the detection object as the first type. As a result of the comparison, when the actual size of the detection object is larger than the predetermined value, the image analysis apparatus can determine the type of the detection object as the second type. As another example, when the actual size of the detection object is smaller than the preset value as a result of the comparison, the image analysis apparatus can determine the type of the detection object as the first type. When the actual size of the detection object is greater than or equal to the predetermined value as a result of the comparison, the image analysis apparatus can determine the type of the detection object as the second type.

영상 분석 장치가 검출 대상 물체의 종류을 제 1 종류 및 제 2 종류 중 하나로 결정하는 것은 본 개시의 일 예로서, 본 발명의 권리범위가 이에 한정 되는 것은 아니다. 영상 분석 장치는 검출 대상 물체의 크기를 복수의 기설정된 값들과 비교하여, 검출 대상 물체의 종류를 복수의 종류 중 하나로 결정 할 수 있다. 다른 예로, 영상 분석 장치는 검출 대상 물체의 크기가 복수의 기설정된 범위 중 어느 범위에 포함되는지에 따라, 검출 대상 물체의 종류를 복수의 종류 중 하나로 결정 할 수 있다.It is an example of the present invention that the image analysis apparatus determines the type of the object to be detected as one of the first type and the second type and the scope of the present invention is not limited thereto. The image analysis apparatus can compare the size of the object to be detected with a plurality of preset values and determine the type of the object to be detected as one of a plurality of types. As another example, the image analysis apparatus can determine the type of the detection object as one of a plurality of types, depending on which of a plurality of predetermined ranges the size of the detection object is included in.

예를 들어, 영상 분석 장치가 검출 대상 물체를 1차적으로 스마트폰으로 판단하였으나, 검출 대상 물체의 크기가 기 설정된 값을 초과하는 경우, 영상 분석 장치는 해당 물체를 스마트폰이 아닌 타블렛(tablet)으로 결정 할 수 있다. For example, if the image analysis apparatus determines that the object to be detected is primarily a smartphone, but the size of the object to be detected exceeds a preset value, the image analyzing apparatus may not display the object as a tablet, .

다른 실시예로서, 상기 검출 대상 물체의 실측 크기는 물체의 종류 별로 미리 결정된 소정의 크기 범위와 비교될 수 있다. 예컨대, 상기 검출 대상 물체의 실측 크기가 소정의 크기 범위에 속하는 경우, 상기 검출 대상 물체는 상기 소정의 크기 범위와 관련된 종류의 물체로 결정될 수 있다. 예컨대, 스마트폰에 관한 제 1 크기 범위와 타블렛에 관한 제 2 크기 범위가 미리 저장되어 있고, 검출 대상 물체의 실측 크기가 제 1 크기 범위에 포함되는 경우, 상기 검출 대상 물체는 스마트폰인 것으로 결정될 수 있다. 또한, 검출 대상 물체의 실측 크기가 제 2 크기 범위에 포함되는 경우, 상기 검출 대상 물체는 타블렛인 것으로 결정될 수 있다. 만약, 상기 검출 대상 물체의 실측 크기가 제1 크기 범위 및 제2 크기 범위의 어디에도 포함되지 않는 경우, 상기 검출 대상 물체는 스마트폰 및 타블렛이 아닌 다른 물체(예컨대, 제3의 액정 장치)인 것으로 판단될 수 있다. In another embodiment, the actual size of the detection object may be compared with a predetermined size range predetermined for each type of object. For example, when the actual size of the detection object belongs to a predetermined size range, the detection object may be determined as an object of a type related to the predetermined size range. For example, if the first size range for the smartphone and the second size range for the tablet are stored in advance, and the actual size of the detection object is included in the first size range, the detection object is determined to be a smartphone . Further, when the actual size of the detection object is included in the second size range, the detection object may be determined to be a tablet. If the actual size of the detection object is not included in any of the first size range and the second size range, the detection object is an object other than the smartphone and the tablet (e.g., a third liquid crystal device) Can be judged.

단계 S2330에서, 영상 분석 장치는 단계 S2320의 분석 결과를 출력 할 수 있다. 일예로, 영상 분석 장치는 분석 결과를 출력 장치(114)를 통해, 사용자 혹은 판독원(140)에게 제공 할 수 있다. In step S2330, the image analysis apparatus may output the analysis result of step S2320. For example, the image analysis apparatus may provide the analysis result to the user or the readout source 140 via the output device 114. [

도 24는 본 개시의 몇몇 실시예에 따른 영상 분석 방법을 설명하기 위한 흐름도이다.24 is a flow chart illustrating an image analysis method according to some embodiments of the present disclosure.

도 24를 참조하여, 영상 분석 장치가 판독원에게 검출 결과를 제공하는 구체적인 방법에 대해서 설명한다. 본 개시의 일 실시예에 따른 물체의 실측 크기를 고려한 영상 분석 방법은, 분석 대상 영상을 수신하는 단계(S2400), 영상 정보를 수신하는 단계(S2410), 분석 대상 영상 내의 물체를 검출하는 단계(S2420), 분석 대상 영상의 픽셀 당 길이를 계산하는 단계(S2430), 픽셀 당 길이를 바탕으로 검출된 물체를 분석하는 단계(S2440), 분석된 결과를 출력하는 단계(S2450) 및/또는 검증 결과를 수신하는 단계(S2460)를 포함 할 수 있다.Referring to Fig. 24, a specific method by which the image analysis apparatus provides the detection result to the reading source will be described. An image analyzing method considering an actual size of an object according to an embodiment of the present disclosure includes receiving an analyzing object image (S2400), receiving image information (S2410), detecting an object in the analyzing object image S2420), calculating the length per pixel of the image to be analyzed (S2430), analyzing the detected object based on the per-pixel length (S2440), outputting the analyzed result (S2450) and / (S2460). ≪ / RTI >

단계 S2400, 단계 S2420, 단계 S2440 및 단계 S2450은 각각 도 23에서 설명한 영상 분석 장치의 단계 S2300, 단계 2310, 단계 S2320 및 단계 S2330에 대응 될 수 있다.Steps S2400, S2420, S2440, and S2450 may correspond to steps S2300, S2310, S2320, and S2330 of the image analysis apparatus described in FIG. 23, respectively.

또한, 도 24에 도시되지는 않았지만, 본 개시의 일 실시예에 따른 영상 분석 방법은 분석 대상 영상에 대한 전처리를 수행하는 단계를 포함 할 수 있다. 분석 대상 영상에 대한 전처리는, 분석 대상 영상 전반에 대한 간섭을 제거하는 과정 혹은 영상 분석 장치의 검출을 위해 X-ray 입력 영상의 색 정보를 프리셋으로 설정하는 과정 등을 의미 할 수 있다. 또한, 영상 분석 장치는 도 5 내지 도 11에서 설명한 영상의 전처리 방법을 통해, 분석 대상 영상에 대한 전처리를 수행 할 수 있다.Also, although not shown in FIG. 24, the image analysis method according to an embodiment of the present disclosure may include a step of performing a preprocessing on an analysis object image. The preprocessing of the image to be analyzed may mean a process of eliminating the interference to the entire image to be analyzed or a process of setting the color information of the X-ray input image as a preset in order to detect the image analyzing device. In addition, the image analysis apparatus can perform preprocessing on the analysis object image through the preprocessing method of the images described with reference to FIG. 5 to FIG.

다른 예로, 본 개시의 일 실시예에 따른 영상 전처리 방법은 분석 대상 영상을 회전하여, 각도가 보정된 분석 대상 영상을 얻는 단계를 포함 할 수 있다. 영상 분석 장치의 각도 보정은 수신된 분석 대상 영상에 대해 수행되거나 검출된 물체를 둘러싸는 사각형 박스(bounding box)에 대해 수행 될 수 있다.As another example, an image preprocessing method according to an embodiment of the present disclosure may include a step of rotating an analysis object image to obtain an angle-corrected analysis object image. The angle correction of the image analysis device may be performed on a received analysis image or on a bounding box surrounding the detected object.

단계 S2410에서, 영상 분석 장치는 영상 정보를 수신 할 수 있다. X-ray 판독 기기 등의 영상 촬영 장비는 각각이 고유의 스펙을 지니며, 스펙은 공개가 되어 있으므로, 영상 분석 장치는 이를 바탕으로 분석 대상 영상의 단위 픽셀 당 길이 값을 계산 할 수 있다. 영상 분석 장치는 CNN 혹은 딥러닝 기반의 확률 모델에 물체의 실제 크기에 대한 확률 모델을 추가 또는 반영하여, 물체의 실측 크기를 고려한 확률 모델을 구축 할 수 있다.In step S2410, the image analysis apparatus can receive the image information. X-ray readers, etc., each has its own specification. Since specifications are disclosed, the image analysis apparatus can calculate the length per unit pixel of the analysis target image based on the specifications. The image analysis apparatus can construct a probability model considering the actual size of the object by adding or reflecting a probability model of the actual size of the object to the CNN or deep learning based probability model.

여기서 영상 정보는 X-ray 판독 기기를 통해 전송되거나, 판독원 혹은 사용자에 의해 입력된, 분석 대상 영상의 속성에 대한 정보 일 수 있다. 또는 영상 정보는 공개된 X-ray 판독 기기의 스펙에 따라 영상 분석 장치에 미리 입력되어 있는 정보 일 수 있다. 예를 들어, 상기 영상 정보는 X-ray 판독 기기를 통해 수신되는 분석 대상 영상에 대한 분해능 정보, 해상도 정보, 휘도 범위 정보, 색차 범위 정보, 픽셀 정보, 영상의 실제 크기에 관한 정보, 코덱 정보, X-ray 판독 기기 모델 정보, 영상 종횡비, 영상 촬영 날짜 및 시간, 영상 저장 경로 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다. 이외에도, 수신된 분석 대상 영상 자체의 속성을 나타내기 위한 다양한 정보가 영상 정보에 포함 될 수 있다. 이하에서는 편의를 위해, 영상 정보가 분석 대상 영상의 해상도 정보 및/또는 영상의 실제 크기에 대한 정보인 경우를 예를 들어 설명한다.Here, the image information may be information transmitted through the X-ray reading device, information about the attribute of the analysis object image input by the reader or the user. Or the image information may be information previously input to the image analysis apparatus according to specifications of the disclosed X-ray reading apparatus. For example, the image information may include resolution information, resolution information, luminance range information, chrominance range information, pixel information, information on the actual size of the image, codec information, But is not limited to, at least one of X-ray reading device model information, image aspect ratio, imaging date and time, and image storage path. In addition, various information for indicating the attributes of the received analysis target image itself may be included in the image information. Hereinafter, for convenience, the case where the image information is resolution information of the analysis target image and / or information on the actual size of the image will be described as an example.

단계 S2430에서, 영상 분석 장치는 단계 S2410에서 수신한 영상 정보를 이용하여 분석 대상 영상의 단위 픽셀 당 길이를 계산 할 수 있다. 일예로, 영상 분석 장치가 수신한 영상 정보가 분석 대상 영상에 대한 해상도 정보 및 영상의 실제 크기에 대한 정보인 경우, 영상 분석 장치는 분석 대상 영상의 가로 또는 세로 길이를 분석 대상 영상의 가로 또는 세로 해상도 값으로 나누어 분석 대상 영상의 단위 픽셀 당 길이를 계산 할 수 있다.In step S2430, the image analysis apparatus can calculate the length per unit pixel of the analysis target image using the image information received in step S2410. For example, when the image information received by the image analyzing apparatus is resolution information on the image to be analyzed and information on the actual size of the image, the image analyzing apparatus measures the horizontal or vertical length of the image to be analyzed, And the resolution per unit pixel of the image to be analyzed.

예를 들어, 분석 대상 영상이 X * Y 해상도를 가지는 영상이고, 영상의 실제 크기가 Hcm * Wcm인 경우, 영상 분석 장치는 분석 대상 영상의 픽셀 당 길이로서 X/H (pixel/cm) 혹은 W/Y (pixel/cm) 값을 얻을 수 있다.For example, when the image to be analyzed is an image having X * Y resolution and the actual size of the image is Hcm * Wcm, the image analyzing apparatus calculates X / H (pixel / cm) or W / Y (pixel / cm).

상술한 영상 분석 장치가 단위 픽셀 당 길이를 계산하는 방법은 하나의 예시로서, 본 발명의 권리범위가 상기 예시에 한정되는 것은 아니다. 이외에도, 영상 분석 장치는 X-ray 판독 기기 혹은 판독원으로부터 직접 단위 픽셀 당 길이에 대한 정보를 입력 받을 수도 있다.The method of calculating the length per unit pixel of the image analyzing apparatus is one example, and the scope of the present invention is not limited to the above example. In addition, the image analysis apparatus may receive information on the length per unit pixel directly from the X-ray reading device or the reading source.

단계 S2440에서 영상 분석 장치는, 단계 S2430에서 계산된 분석 대상 영상의 단위 픽셀 당 길이를 고려하여 검출된 물체를 분석 할 수 있다. 영상 분석 장치는 물체의 실제 크기를 고려하여 물체를 분석하기 위해, 사전에 검출 가능 물체의 종류를 분류 할 수 있다.In step S2440, the image analysis apparatus can analyze the detected object in consideration of the length per unit pixel of the analysis object image calculated in step S2430. In order to analyze an object in consideration of the actual size of the object, the image analysis apparatus can classify the types of the detectable object in advance.

단계 S2460에서, 영상 분석 장치는, 분석 결과에 대한 판독원의 검증 결과를 수신 할 수 있다. 여기서 검증 결과는 도 1 내지 도 4에서 설명했던 판독원의 개장 검사 결과를 의미 할 수 있다. 개장 검사를 수행한 결과는 검사 결과로서 입력될 수 있다. 상기 검사 결과는 인공지능 데이터 센터(323)로 전송되어 학습 데이터로 이용될 수도 있다. 영상 분석 장치가 검증 결과 흑은 개장 검사 결과를 학습 데이터로 사용하는 방법에 대해서는 전술한 바와 같으므로 설명을 생략한다.In step S2460, the image analysis apparatus can receive the verification result of the reading source for the analysis result. Here, the verification result may refer to the result of the opening inspection of the reading source described in Figs. 1 to 4. The results of the retrofit inspection can be input as inspection results. The result of the inspection may be transmitted to the artificial intelligence data center 323 and used as learning data. The method of using the result of the inspection of the image analysis apparatus as the verification result and the result of the inspection of the open / close operation as the learning data is the same as described above, and the description thereof is omitted.

도 25는 본 개시의 일 실시예에 따른 물체의 분류 기준을 결정하는 방법을 설명하기 위한 흐름도이다.25 is a flowchart for explaining a method of determining a classification criterion of an object according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 물체의 분류 기준을 결정하는 방법은, 물품 검색 시스템(100), 영상 분석 장치(112) 혹은 학습부(120)에 의해 수행 될 수 있다. 이하에서는, 편의상 영상 분석 장치(112)가 물체의 분류 기준을 결정 것으로 설명한다. 하지만 넓은 의미에서, 본 개시에 따른 물체의 분류 기준 결정 방법은 물품 검색 시스템(100) 혹은 학습부(120)에 의해 수행되는 것으로도 해석 될 수 있다.The method for determining the classification criterion of an object according to an embodiment of the present disclosure can be performed by the article search system 100, the image analysis apparatus 112, or the learning unit 120. Hereinafter, it is assumed that the image analysis apparatus 112 determines the classification criterion of the object for convenience. However, in a broad sense, the method of determining classification criteria of an object according to the present disclosure can also be interpreted as being performed by the article search system 100 or the learning unit 120.

도 25를 참조하여, 영상 분석 장치가 물체의 분류 기준을 결정하는 방법에 대해서 설명한다. 본 개시의 일 실시예에 따른 물체의 분류 기준을 결정하는 방법은, 판독 물체를 포함하는 판독 영상을 수신하는 단계(S2500), 판독 물체에 대한 정보를 수신하는 단계(S2510), 판독 영상을 분석하는 단계(S2520) 및/또는 물체의 분류 기준을 결정하는 단계(S2530)를 포함 할 수 있다.Referring to Fig. 25, a method in which an image analysis apparatus determines a classification criterion of an object will be described. A method for determining a classification criterion of an object according to an embodiment of the present disclosure includes receiving a read image including a read object (S2500), receiving information about the read object (S2510), analyzing the read image (S2520), and / or determining a classification criterion of the object (S2530).

단계 S2500에서, 영상 분석 장치는 물체의 분류 기준 결정을 위한 판독 영상을 수신 할 수 있다. 일예로, 판독 영상은 물체의 분류 기준을 결정하고자 하는 판독원, 사용자 혹은 관리자에 의해 입력 될 수 있다. 판독 영상은 데이터 베이스 추가 및 분류 기준 결정을 위해 입력되는 영상이므로, 앞서 설명한 분석 대상 영상과 다르게, 단일 물체를 포함하는 영상일 수 있다.In step S2500, the image analysis apparatus can receive the read image for determining the classification criterion of the object. For example, the read image may be input by a read source, a user, or an administrator who wants to determine the classification criteria of the object. Since the read image is an image input for database addition and determination of classification criteria, it may be an image including a single object differently from the analysis target image described above.

단계 S2510에서, 영상 분석 장치는 판독 영상에 포함되어 있는 물체에 대한 정보를 수신 할 수 있다. 판독 영상에 포함되어 있는 물체에 대한 정보는 물체의 분류 기준을 결정하고자 하는 판독원, 사용자 혹은 관리자에 의해 입력 될 수 있다.In step S2510, the image analysis apparatus can receive information on an object included in the read image. The information about the object included in the readout image can be input by a readout source, a user or an administrator to determine the classification standard of the object.

영상 분석 장치는, 판독 영상과 함께 판독 영상에 포함되어 있는 물체에 대한 정보를 수신하여 데이터화 할 수 있다. 예를 들어 영상 분석 장치는, 판독 영상이 수신된 날짜 및 시간, 물체 이미지 정보, 영상 저장 경로, 판독 영상에 포함되어 있는 물체의 회전된 정도 혹은 각도, 물체의 너비 및 높이, 물체 또는 판독 영상의 종횡비 중 적어도 하나를 데이터화하여 데이터 베이스로 구축 할 수 있다.The image analysis apparatus can receive the information about the object included in the read image together with the read image and can convert the data into data. For example, the image analysis apparatus may be configured to determine the time and date at which the read image was received, the object image information, the image storage path, the degree or angle of rotation of the object contained in the read image, the width and height of the object, And the aspect ratio can be converted into data and constructed as a database.

단계 S2520 내지 단계 S2530에서, 영상 분석 장치는 판독 영상, 판독 영상에 포함되어 있는 물체에 대한 정보를 바탕으로 판독 영상에 포함되어 있는 물체를 분석하고, 물체에 대한 분류 기준을 결정 할 수 있다. 물체의 분류 기준을 결정하기 위한 단계 S2500 내지 단계 S2520은 물체의 분류 기준 결정을 위한 데이터 베이스의 생성을 위해 반복적으로 수행될 수 있다.In steps S2520 to S2530, the image analysis apparatus can analyze the object included in the read image based on the information about the object included in the read image and the read image, and determine the classification criterion for the object. Steps S2500 to S2520 for determining a classification criterion of an object may be repeatedly performed to generate a database for determining classification criteria of an object.

동일 종류의 물체라 할지라도, X-ray 영상을 통해 도시되는 물체의 특징은 용도, 재질 등에 따라 달라질 수 있다. 물체의 종류를 어디까지 세분화하여 결정할지를 판단하기 위해, 영상 분석 장치는 판독 영상에서 특징 벡터를 추출 할 수 있다.Even if the object is of the same type, the characteristics of the object shown through the X-ray image may vary depending on the use, material, and the like. In order to determine to what extent the type of object is to be determined, the image analysis apparatus can extract the feature vector from the read image.

영상 분석 장치는 SIFT(Scale Invariant Feature Transform) 혹은 SURF(Speeded Up Robust Features) 알고리즘 중 적어도 하나를 이용하여, 판독 영상에서 특징 벡터를 추출 할 수 있다.The image analysis apparatus can extract a feature vector from a read image using at least one of a Scale Invariant Feature Transform (SIFT) or a Speeded Up Robust Feature (SURF) algorithm.

다른 예로, 영상 분석 장치는 물체의 맥락을 이용한 합성곱 신경망 Convolutional Neural Network, CNN)의 출력 벡터를 제공 받고, 주성분 분석법(Principal Component Analysis) 등의 벡터의 차원 변경 알고리즘을 통해 출력 벡터를 최적의 복잡도를 가지는 출력 벡터로 변환 할 수 있다.In another example, the image analysis device is provided with an output vector of the Convolutional Neural Network (CNN) using the context of the object, and the output vector is transformed to the optimal complexity by a vector dimension change algorithm such as Principal Component Analysis Can be converted into an output vector.

상술한 알고리즘은 본 개시의 특징 벡터를 유도하는데 사용되는 알고리즘의 일 예로서, 본 발명의 권리범위를 한정하지 않는다. 영상 분석 장치는 영상의 특징을 분석 혹은 추출하는 다양한 알고리즘을 활용하여 판독 영상의 특징 벡터를 추출하거나, 유도 할 수 있다.The algorithm described above is an example of an algorithm used to derive the feature vectors of the present disclosure and does not limit the scope of the present invention. The image analysis apparatus can extract or derive the feature vectors of the read image by using various algorithms for analyzing or extracting features of the image.

여기서, SIFT는 영상의 크기와 회전에 불변하는 특징점을 추출하는 알고리즘을 의미 할 수 있다. 또한, SURF는 여러 개의 영상으로부터 스케일, 조명 시점 등의 환경 변화를 고려하여, 환경 변화에 불변하는 특징점을 찾는 알고리즘을 의미 할 수 있다. Here, SIFT may mean an algorithm for extracting feature points that are invariant to image size and rotation. In addition, SURF can refer to an algorithm that finds feature points that are invariant to environmental changes in consideration of environmental changes such as scale and illumination point from multiple images.

영상 분석 장치는 상술한 알고리즘 중 적어도 하나를 이용하여, 특징 벡터를 추출할 수 있다. 영상 분석 장치는 PCA 또는 선형 판별 분석법(LDA: Linear Discriminant Analysis) 등을 이용하여 추출한 특징 벡터를 n차원에 투영하고, 투영된 결과를 분석 할 수 있다. 여기서 PCA는 높은 차원의 특징 벡터를 낮은 차원의 특징 벡터로 변환하는 알고리즘을 의미 할 수 있다. The image analysis apparatus can extract a feature vector using at least one of the algorithms described above. The image analysis device can project the feature vector extracted using PCA or Linear Discriminant Analysis (LDA) or the like to n dimensions and analyze the projected result. Here, PCA can mean an algorithm that transforms a high-dimensional feature vector into a low-dimensional feature vector.

도 26은 본 개시의 일 실시예에 따른 물체의 분류 기준을 결정하는 방법을 설명하기 위한 도면이며, 도 27은 물체의 분류 기준의 예시를 도시하는 도면이다.Fig. 26 is a diagram for explaining a method of determining a classification criterion of an object according to an embodiment of the present disclosure, and Fig. 27 is a diagram showing an example of classification criterion of an object.

도 26은 다양한 도검류 물체들의 특징 벡터를 2차원 평면상에 투영한 예시를 도시한다. 구체적으로, 도 26은 여러 특징 벡터들을 복수의 클러스터(2600, 2610, 2620)로 클러스터링한 예시를 도시한다. 도 26의 그래프에서 x축과 y축은 특징 벡터를 표현하기 위한 다양한 형태의 파라미터 중 하나 일 수 있다.FIG. 26 shows an example of projecting feature vectors of various sagitious objects onto a two-dimensional plane. Specifically, FIG. 26 shows an example of clustering multiple feature vectors into a plurality of clusters 2600, 2610, and 2620. In the graph of FIG. 26, the x-axis and the y-axis may be one of various types of parameters for expressing the feature vector.

도 26에 도시되어 있는 특징 벡터들은 모두 도검류에 대한 특징 벡터들이나, 이를 크게 좌측 하단의 제 1 클러스터(2600)와 우측 상단의 제 2 클러스터(2610, 2620)로 분류 할 수 있다. 동일 물체임에도 불구하고 특징 벡터가 서로 다른 두개의 클러스터를 형성하는 것은, 동일 물체에 대한 영상이라 할지라도, 물체의 용도, 재질 및 구체적인 형태에 따라 특징 벡터가 다르게 추출 될 수 있기 때문이다.The feature vectors shown in FIG. 26 are all feature vectors for the swords, which can be largely classified into a first cluster 2600 on the lower left side and a second cluster 2610 and 2620 on the upper right side. The reason why the two clusters having different feature vectors are formed is that the feature vectors can be extracted differently depending on the use, material, and specific form of the object, even if the images are about the same object.

예를 들어, 제 1 클러스터(2600)는 스위스칼에 대한 특징 벡터가 클러스터화 되어 있는 것일 수 있다. 제 2 클러스터는 식칼에 대한 특징 벡터가 클러스터화 되어 있는 것일 수 있다.For example, the first cluster 2600 may be a clustered feature vector for a Swiss knife. The second cluster may be one in which feature vectors for the kitchen knife are clustered.

클러스터링 상으로 제 2 클러스터는 모두 유사한 특징 벡터를 포함하고 있으나, 영상 분석 장치는 입력된 물품에 대한 정보에 근거하여 제 2 클러스터가 서로 다른 두개의 세부 클러스터로 구분 될 수 있음을 인지 할 수 있다. 예를 들어, 도 26의 도시에서 두개의 세부 클러스터(2610, 2620)의 각각은 손잡이가 나무 재질로 만들어진 식칼의 특징 벡터들의 클러스터(2610)와 손잡이가 플라스틱 재질로 만들어진 식칼의 특징 벡터들의 클러스터(2620)일 수 있다.On the clustering basis, the second clusters all contain similar feature vectors, but the image analyzing apparatus can recognize that the second clusters can be divided into two different detailed clusters based on the information about the inputted products. 26, each of the two sub-clusters 2610 and 2620 includes a cluster 2610 of feature vectors of a knife made of wood and a cluster 2612 of feature vectors of a knife made of a plastic material (for example, 2620).

도 27은 도 26의 클러스터 결과에 따라, 영상 분석 장치가 도검류 물체에 대한 분류 기준을 결정한 예시를 도시한다.FIG. 27 shows an example in which the image analysis apparatus determines classification criteria for a sword object according to the cluster result in FIG. 26;

영상 분석 장치는, 특징 벡터들 간의 유사도를 고려하여, 검출하고자 하는 물체의 종류를 어디까지 세분화할지 결정 할 수 있다. 도 27은 영상 분석 장치가 도검류를 커터칼, 스위스칼 및 식칼로 세분화한 예시를 도시한다.The image analyzing apparatus can determine to what extent the object type to be detected is to be subdivided in consideration of the similarity between the feature vectors. Fig. 27 shows an example in which the image analysis apparatus subdivides the swords into cutter knives, Swiss knives, and knives.

일예로, 영상 분석 장치는 물체의 구성요소 각각에 대한 서로 다른 중요도를 부가하여, 상기 중요도를 물체의 분류 기준을 결정하는데 사용 할 수 있다. 예를 들어, 도 26의 예시에서, 영상 분석 장치는 손잡이 부분에 대한 중요도를 낮게 계산하여, 손잡이 부분의 차이가 물체 분류 기준에 영향을 미치지 않도록 할 수 있다. 각 구성요소에 대한 중요도는 판독원 혹은 관리자의 필요에 따라 기 설정될 수 있다.For example, the image analysis apparatus may add different importance levels to each of the components of the object, and use the importance to determine classification criteria of the object. For example, in the example of FIG. 26, the image analysis apparatus calculates the degree of importance of the handle portion to be low, so that the difference of the handle portion does not affect the object classification standard. The importance of each component can be pre-set according to the needs of the reader or administrator.

다른 예로, 영상 분석 장치는 물체의 실제 크기 정보를 바탕으로 물체의 분류 기준을 결정 할 수 있다. 예를 들어, 과도, 중식도, 일본도는 모두 손잡이와 칼날 부분으로 구성되므로, 형태적 유사도가 높을 수 있다. 형태적 유사도가 높은 상기 물체들은 모두 하나의 클러스터로 클러스터링 될 확률이 높으므로, 영상 분석 장치는 물체를 분류하는 기준에 물체의 실제 크기를 추가하여, 과도, 중식도 및 일본도를 서로 다른 클러스터에 포함되도록 할 수 있다.As another example, the image analysis apparatus can determine the classification criterion of the object based on the actual size information of the object. For example, since the transient, the Chinese, and the Japanese are all composed of the handle and the blade, the morphological similarity can be high. Since the objects with high morphological similarity are all likely to be clustered into a single cluster, the image analysis apparatus adds the actual size of the object to the object classification criterion, so that the transient, Can be included.

예를 들어, 스마트폰과 타블렛은, 모두 사각형 형태의 액정이 포함된 물체로 도시되므로, 형태적 유사도에 따라 하나의 클러스터로 클러스터링 될 수 있다. 이 때 영상 분석 장치는 물체의 실제 크기를 고려하여, 스마트폰과 타블렛을 서로 다른 클러스터에 포함되도록 할 수 있다For example, since a smartphone and a tablet are both shown as objects including a liquid crystal of a rectangular shape, they can be clustered into one cluster according to their morphological similarity. At this time, the image analyzing device can consider the actual size of the object, so that the smartphone and the tablet are included in different clusters

도 28은 본 개시의 일 실시예에 따른 물체의 데이터 베이스를 도시한 도면이다.28 is a diagram illustrating a database of objects according to an embodiment of the present disclosure;

도 28은 판독 영상과 판독 영상에 포함된 물체에 대한 정보를 포함하는 데이터 베이스의 예시를 도시한다. 예를 들어 물체의 데이터 베이스는 물체의 종류, 판독 영상의 촬영 날짜 및 시간, 판독 영상 이미지, 영상 저장 경로, 판독 영상 내에서 물체가 회전되어 있는 정도, 너비, 높이 및 종횡비 중 적어도 하나를 포함 할 수 있다. 이러한 정보들은 하나의 예시일 뿐, 본 발명의 권리범위가 상기 예시에 한정되는 것은 아니다. 영상 분석 장치는 물체의 실제 크기를 나타낼 수 있는 다양한 정보들을 이용하여, 판독 영상을 데이터 베이스에 추가 할 수 있다.28 shows an example of a database including information on objects included in a read image and a read image. For example, the database of objects may include at least one of the type of object, the date and time of imaging of the read image, the read image, the image storage path, the extent to which the object is rotated within the read image, the width, . Such information is only an example, and the scope of the present invention is not limited to the above example. The image analysis apparatus can add the read image to the database by using various information that can represent the actual size of the object.

종래의 일반적인 영상 분석에서는 목적물의 일반적인 크기를 K-mean 클러스터링 기법 등으로 추정하여 분석을 수행하였다. 하지만, 이러한 클러스터링은 목적물의 형태가 정규 분포에 근접한 경우에만 효과적이므로, 서로 다른 다양한 크기의 물체가 혼재되어 있는 영상 분석에는 적합하지 않을 수 있다. 특히, 비파괴 검사 등에서의 복수의 물체가 도시되는 경우에는 대해서는 정규 분포를 이용한 크기 기반 확률 모델의 구축이 어려운 문제가 있다.In the conventional image analysis, the general size of the object is estimated by K-mean clustering technique or the like. However, this clustering is only effective when the shape of the object is close to the normal distribution, and thus may not be suitable for image analysis in which objects of various sizes are mixed. Particularly, when a plurality of objects in a non-destructive inspection are shown, it is difficult to construct a size-based probability model using a normal distribution.

물체의 실체 크기를 동일한 조건에서 비교하기 위해, 영상 분석 장치는 판독 영상 내의 물체의 각도를 추정(skew estimation)하거나, 판독 영상을 데이터 베이스에 추가하기 전에 각도를 보정하는 전처리 단계를 수행 할 수 있다. 예를 들어, 도 28의 예시에서, 물체의 각도는 각각 -30, 60, 30으로 차이가 있으나, 영상 분석 장치는 각각의 물체의 각도가 동일해 질 수 있도록 판독 영상을 회전시켜 데이터 베이스에 저장 할 수 있다. 이때, 영상 분석 장치는 회전된 판독 영상을 기준으로 물체의 너비 및 높이 값을 데이터 베이스화 할 수 있다.To compare the entity size of an object under the same conditions, the image analysis apparatus may perform a preprocessing step of skew estimation of the object in the readout image or correcting the angle before adding the readout image to the database . For example, in the example of FIG. 28, the angles of the objects are -30, 60, and 30, respectively, but the image analysis apparatus rotates the read image so that the angles of the respective objects become the same, can do. At this time, the image analysis apparatus can database the width and height of the object based on the rotated read image.

도 29는 본 개시의 몇몇 실시예에 따른 영상 분석 결과를 설명하기 위한 도면이다.29 is a diagram for explaining image analysis results according to some embodiments of the present disclosure.

도 29를 참고하여, 영상 분석 장치가 물체의 종류 별로 확률 모델을 구축하는 방법에 대해서 설명한다. 앞서 설명한 바와 같이, 형태적 특징이 매우 유사한 물체라 하더라도, 실제 크기에 따라 물체의 종류가 달라질 수 있다. 단일 종류의 객체에 대한 분석이 수행되는 경우에는, 특징 벡터의 분포가 정규 분포를 따르나, 서로 다른 종류로 분류 될 수 있는 객체들이 혼재해 있는 경우에는 특징 벡터간의 분포가 정규 분포를 따르지 않는다.A method of constructing a probability model for each type of object will be described with reference to FIG. As described above, even if the morphological characteristic is very similar, the type of the object may vary depending on the actual size. When the analysis of a single kind of object is performed, the distribution of the feature vectors follows the normal distribution, but when the objects that can be classified into different kinds are mixed, the distribution of the feature vectors does not follow the normal distribution.

예를 들어, 영상 분석의 대상이 사람인 경우에는 사람에 대한 특징 벡터의 분포가 정규 분포를 따르나, 도검류와 같이 물체의 종류가 같음에도 다양한 형태, 재질 및 크기의 물체가 존재하는 경우에는 특징 벡터의 분포가 정규 분포를 따르지 않는다.For example, if the subject of the image analysis is a person, the distribution of the feature vectors to the human follows the normal distribution. However, if objects of various shapes, materials, and sizes exist even though the object types are the same as the swords, The distribution does not follow the normal distribution.

이러한 점을 고려하여, 영상 분석 장치는 동일 분류에 속한 특징 벡터를 하나의 가우시안 확률 모델로 구성하지 않고, 가우시안 혼합 분포(Gaussian Mixture Model, GMM) 및/또는 정규화된 히스토그램(Normalized Histogram)을 이용하여 물체의 종류에 대한 수학적 확률 모델을 구축 할 수 있다.In consideration of this point, the image analysis apparatus does not construct the feature vectors belonging to the same category as one Gaussian probability model but uses a Gaussian Mixture Model (GMM) and / or a normalized histogram A mathematical probability model for the type of object can be constructed.

도 29의 그래프는, 물체의 종류가 같음에도 다양한 형태, 재질 및 크기의 물체가 존재하는 경우에 대한 특징 벡터들을 그래프 상에 도시화한 것일 수 있다. 도 29의 (a) 그래프에서 가로 축은 물체의 실제 크기를 표현하는 파라미터를 의미할 수 있고, 세로 축은 각 샘플의 분포 값을 의미 할 수 있다. 한편, 도 29의 (b) 그래프의 가로 축은 물체의 실제 크기를 표현하는 파라미터를 의미 할 수 있고, 세로 축은 각 구간 별 확률 값을 의미 할 수 있다. 도 29 (a)의 그래프에서 특징 벡터들은 크게 두 개의 클러스터로 구분 될 수 있다. 이 때 각각의 클러스터는 정규 분포를 따른다고 볼 수 있으나 좌측 클러스터와 우측 클러스터 간에는 정규 분포가 형성 되지 않는다.The graph of FIG. 29 may be a graph showing feature vectors for the case where objects of various types, materials, and sizes exist even though the types of objects are the same. In the graph of FIG. 29 (a), the horizontal axis may mean a parameter representing an actual size of an object, and the vertical axis may mean a distribution value of each sample. On the other hand, the horizontal axis of the graph of FIG. 29 (b) may mean a parameter representing an actual size of an object, and the vertical axis may mean a probability value of each interval. In the graph of FIG. 29 (a), the feature vectors can be largely divided into two clusters. In this case, each cluster is considered to follow a normal distribution, but no normal distribution is formed between the left cluster and the right cluster.

이 경우, 영상 분석 장치는 물체의 크기를 표현하는 특징들을 이용하여 물체의 종류를 세분화 할 수 있다. 각 데이터 값은 선형 변환을 통해 추출될 수도 있다. 예컨대 도 29의 그래프의 좌측 클러스터는 스위스칼 특징 벡터에 대한 정규 분포의 예시 일 수 있고, 그래프의 우측 클러스터는 식칼 특징 벡터에 대한 정규 분포의 예시 일 수 있다.In this case, the image analysis apparatus can classify the type of the object by using the features expressing the size of the object. Each data value may be extracted through a linear transformation. For example, the left cluster of the graph of FIG. 29 may be an example of a normal distribution for a Swiss knife feature vector, and the right cluster of the graph may be an example of a normal distribution for a knife feature vector.

도 30은 본 개시의 일 실시예에 따른 따른 영상 분석 장치의 구성을 나타내는 다른 블록도이다.30 is another block diagram showing a configuration of an image analysis apparatus according to an embodiment of the present disclosure.

도 30을 참조하면, 영상 분석 장치(3000)는, 분석 대상 영상 수신부(3001), 영상 정보 수신부(3002), 분류 기준 결정부(3003), 데이터 베이스(3004), 실측 거리 계산부(3005), 전처리부(3006), 확률 모델 구축부(3007) 및/또는 영상 분석부(3008)를 포함 할 수 있다.30, the image analyzing apparatus 3000 includes an analyzing object image receiving unit 3001, an image information receiving unit 3002, a classification criterion determining unit 3003, a database 3004, a measured distance calculating unit 3005, A pre-processing unit 3006, a probability model building unit 3007, and / or an image analysis unit 3008. [

다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 영상 분석 장치(3000)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다. 예컨대, 둘 이상의 구성부가 하나의 구성부 내에서 구현될 수도 있고, 하나의 구성부에서 실행되는 동작이 분할되어 둘 이상의 구성부에서 실행되도록 구현될 수도 있다. 또한, 일부 구성부가 생략되거나 부가적인 구성부가 추가될 수도 있다. 또한, 도 1의 영상 분석 장치(112), 도 5의 영상 강화 장치(500), 도 12의 영상 분석 장치(1200) 및 도 18의 영상 합성 장치(1800)의 구성요소 중, 동일한 기능 또는 유사한 기능을 수행하는 구성부는 하나의 구성요소로서 구현될 수도 있다.It should be noted, however, that this shows only some components necessary for explaining the present embodiment, and the components included in the image analysis apparatus 3000 are not limited to the above-described examples. For example, two or more constituent units may be implemented in one constituent unit, and an operation performed in one constituent unit may be divided and executed in two or more constituent units. Also, some of the constituent parts may be omitted or additional constituent parts may be added. Among the components of the image analyzing apparatus 112 of FIG. 1, the image enhancing apparatus 500 of FIG. 5, the image analyzing apparatus 1200 of FIG. 12, and the image synthesizing apparatus 1800 of FIG. 18, The component performing the function may be implemented as one component.

분석 대상 영상 수신부(3001)는 X-ray 판독 기기로부터 제공받은 분석 대상 영상, 데이터 베이스 구축을 위해 입력 받은 판독 영상을 수신 할 수 있다. 여기서 분석 대상 영상 수신부(3001)는 분석 대상 입력부로 정의될 수도 있다.The analysis object image receiving unit 3001 can receive the analysis object image provided from the X-ray reading device and the read image inputted for building the database. Here, the analysis object image receiving unit 3001 may be defined as an analysis object input unit.

영상 정보 수신부(3002)는 X-ray 판독 기기로부터 제공받은 분석 대상 영상 및 판독 영상에 대한 영상 정보를 수신 할 수 있다. 여기서 영상 정보 수신부(3002)는 영상 정보 입력부로 정의될 수도 있다.The image information receiving unit 3002 can receive the image information of the analysis object image and the read image provided from the X-ray reading device. Here, the image information receiving unit 3002 may be defined as an image information input unit.

분류 기준 결정부(3003)는 검출 대상 물체의 분류 기준을 결정 할 수 있다. 분류 기준 결정부(3003)는 도 25에서 설명한 방법에 따라 검출 대상 물체의 분류 기준을 결정 할 수 있다.The classification criterion determining unit 3003 can determine the classification criterion of the detection object. The classification criterion determining section 3003 can determine the classification criterion of the detection object object in accordance with the method described in Fig.

데이터 베이스(3004)는 도 1의 학습부(120)를 의미하거나, 학습부에 포함되는 데이터 베이스(122)를 의미할 수 있다. 도 30에 의해 개시되는 데이터 베이스(3004)는 영상 분석 장치(3000)에 포함되어 구성되는 것으로 도시되어 있으나 본 개시의 권리범위가 이에 한정되는 것은 아니다. 도 1에 개시되는 학습부(120)처럼, 데이터 베이스(3040)와 동일한 기능을 하는 구성요소는 영상 분석 장치와 별도로 구성 될 수 있다.The database 3004 may mean the learning unit 120 of FIG. 1 or the database 122 included in the learning unit. The database 3004 shown in FIG. 30 is shown as being included in the image analysis apparatus 3000, but the scope of the present disclosure is not limited thereto. Like the learning unit 120 shown in FIG. 1, a component having the same function as the database 3040 can be configured separately from the image analysis apparatus.

실측 거리 계산부(3005)는 영상 정보에 포함된 정보를 이용하여, 분석 대상 영상의 단위 픽셀 당 길이를 계산 할 수 있다. 전처리부(3006)는 분석 대상 영상 또는 판독 영상에 대한 전처리를 수행 할 수 있다. 예를 들어 전처리부(3060)는 분석 대상 영상 또는 판독 영상에 대한 각도 추정(skew estimation)을 수행하거나 각도 보정을 수행 할 수 있다.The actual distance calculation unit 3005 can calculate the length per unit pixel of the analysis target image using the information included in the image information. The preprocessing unit 3006 may perform preprocessing on the analysis object image or the read image. For example, the preprocessing unit 3060 may perform skew estimation or perform angle correction on an analysis object image or a read image.

확률 모델 구축부(3007)는 실측 거리 계산부(3005)로부터 제공 받은 단위 픽셀 당 길이 및 데이터 베이스(3004)에 포함되어 있는 물체 분류 기준을 이용하여 분석 대상 영상의 물체를 분석하기 위한 확률 모델을 구축 할 수 있다.The probability model construction unit 3007 constructs a probability model for analyzing the object of the analysis target image using the length per unit pixel provided from the actual distance calculation unit 3005 and the object classification reference included in the database 3004 Can be constructed.

영상 분석부(3008)는 확률 모델 구축부가 생성한 확률 모델을 이용하여, 분석 대상 영상을 분석 할 수 있다. 도 30에 도시되지는 않았지만 영상 분석부(3008)는 물체 검출부와 물체 분석부를 포함 할 수 있다. 물체 검출부는 CNN 혹은 딥러닝 기반의 모델을 이용하여 분석 대상 영상으로부터 물체를 검출할 수 있다. 물체 분석부는 검출된 물체의 실측 크기를 기반으로 물체를 분석 할 수 있다.The image analysis unit 3008 can analyze the analysis target image using the probability model generated by the probability model construction unit. Although not shown in FIG. 30, the image analysis unit 3008 may include an object detection unit and an object analysis unit. The object detection unit can detect an object from the analysis object image using a model based on CNN or a deep learning. The object analyzing unit can analyze the object based on the actual size of the detected object.

영상 분석 장치(3000)에 포함되는 각각의 구성요소의 구체적인 동작은 도 23 내지 도 29를 통해 설명한 바와 같다.The specific operation of each component included in the image analysis apparatus 3000 is as described with reference to FIGS. 23 to 29.

출력 장치(3020)는 영상 분석 장치(3000)에서 처리되는 정보를 디스플레이 할 수 있다. 예를 들어, 출력 장치(3030)는 영상 분석 장치(3000)에서 구동되는 응용 프로그램의 실행 화면 정보, 또는 이러한 실행 화면 정보에 따른 유저 인터페이스, GUI(Graphic User Interface) 정보를 표시할 수 있다.The output device 3020 can display information processed in the image analysis apparatus 3000. [ For example, the output device 3030 can display execution screen information of an application program driven by the image analysis device 3000, or a user interface and GUI (Graphic User Interface) information according to the execution screen information.

출력 장치(3020)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The output device 3020 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, a 3D display, and an e-ink display.

도 30에 의해 개시되는 출력 장치(3020)는 영상 분석 장치(3000)와는 별도의 장치로 구성되는 것으로 도시되어 있으나 본 개시의 권리범위가 이에 한정되는 것은 아니다. 출력 장치와 동일한 기능을 하는 출력부가 영상 분석 장치(3000)의 일부로 구성될 수도 있다.Although the output device 3020 illustrated in FIG. 30 is shown as being configured as a separate apparatus from the image analyzing apparatus 3000, the scope of rights of the present disclosure is not limited thereto. An output unit having the same function as the output apparatus may be configured as a part of the image analyzing apparatus 3000.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of this disclosure are represented by a series of acts for clarity of explanation, they are not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, the illustrative steps may additionally include other steps, include the remaining steps except for some steps, or may include additional steps other than some steps.

본 개시의 다양한 실시예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the disclosure are not intended to be all-inclusive and are intended to illustrate representative aspects of the disclosure, and the features described in the various embodiments may be applied independently or in a combination of two or more.

또한, 본 개시의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays A general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure is to be accorded the broadest interpretation as understanding of the principles of the invention, as well as software or machine-executable instructions (e.g., operating system, applications, firmware, Instructions, and the like are stored and are non-transitory computer-readable medium executable on the device or computer.

Claims (18)

적어도 하나의 물체를 포함하는 분석 대상 영상을 수신하는 단계;
미리 학습된 딥러닝 기반의 모델을 이용하여 상기 분석 대상 영상에서 물체를 검출하는 단계;
상기 분석 대상 영상에 대한 해상도 정보를 포함하는 영상 정보를 수신하는 단계;
상기 해상도 정보를 이용하여 상기 분석 대상 영상의 픽셀 당 단위 길이를 계산하는 단계;
상기 검출된 물체의 실측 크기를 기반으로 상기 검출된 물체를 분석하는 단계; 및
상기 분석 결과를 출력하는 단계를 포함하되,
상기 검출된 물체를 분석하는 단계는
상기 분석 대상 영상의 픽셀 당 단위 길이를 이용하여 상기 검출된 물체의 상기 실측 크기를 계산하는 단계; 및
상기 검출된 물체의 상기 실측 크기에 기반하여 상기 물체의 종류를 결정하는 단계를 포함하는, 영상 분석 방법.
Comprising: receiving an analysis object image including at least one object;
Detecting an object in the analysis target image using a pre-learned deep learning based model;
Receiving image information including resolution information on the analysis target image;
Calculating a unit length per pixel of the analysis target image using the resolution information;
Analyzing the detected object based on an actual size of the detected object; And
And outputting the analysis result,
The step of analyzing the detected object
Calculating an actual size of the detected object using a unit length per pixel of the analysis target image; And
And determining the type of the object based on the actual size of the detected object.
제 1항에 있어서,
상기 영상 정보는 상기 분석 대상 영상에 대한 실제 크기에 대한 정보를 포함하는, 영상 분석 방법.
The method according to claim 1,
Wherein the image information includes information on an actual size of the analysis target image.
삭제delete 삭제delete 제 1항에 있어서,
상기 물체의 종류를 결정하는 단계는,
상기 물체의 실측 크기가 기 설정된 값보다 큰 경우, 상기 물체의 종류를 제 1 종류로 결정하고,
상기 물체의 실측 크기가 상기 기 설정된 값보다 작은 경우, 상기 물체의 종류를 제 2 종류로 결정하는, 영상 분석 방법.
The method according to claim 1,
Wherein the step of determining the type of the object comprises:
When the actual size of the object is larger than a preset value, the type of the object is determined as the first type,
And when the actual size of the object is smaller than the preset value, the type of the object is determined as the second type.
제 1항에 있어서,
상기 물체에 대한 분류 기준을 결정하는 단계를 더 포함하되,
상기 분류 기준을 결정하는 단계는,
판독 물체를 포함하는 판독 영상을 수신하는 단계;
상기 판독 물체에 대한 정보를 수신하는 단계;
상기 판독 영상과 상기 판독 물체에 대한 정보를 이용하여 데이터 베이스를 업데이트 하는 단계; 및
상기 데이터 베이스를 이용하여 물체에 대한 분류 기준을 결정하는 단계를 포함하는, 영상 분석 방법.
The method according to claim 1,
Further comprising determining a classification criterion for the object,
Wherein the step of determining the classification criterion comprises:
The method comprising: receiving a read image including a read object;
Receiving information about the reading object;
Updating the database using the read image and the information about the read object; And
And determining a classification criterion for an object using the database.
제 6항에 있어서,
상기 분류 기준을 결정하는 단계는,
상기 판독 물체의 구성요소 각각에 서로 다른 중요도를 부가하여, 물체에 대한 분류 기준을 결정하는, 영상 분석 방법.
The method according to claim 6,
Wherein the step of determining the classification criterion comprises:
And assigning different importance levels to each of the components of the read object to determine a classification criterion for the object.
제 6항에 있어서,
상기 분류 기준을 결정하는 단계는,
상기 판독 물체의 실제 크기 정보에 기반하여 물체의 분류 기준을 결정하는, 영상 분석 방법.
The method according to claim 6,
Wherein the step of determining the classification criterion comprises:
And determining a classification criterion of the object based on the actual size information of the reading object.
제 6항에 있어서,
상기 데이터 베이스를 업데이트하는 단계는,
상기 판독 영상을 기 설정된 각도에 따라 정렬하는 단계; 및
상기 정렬된 판독 영상과 상기 정렬된 판독 영상에 대한 정보를 이용하여 상기 데이터 베이스를 업데이트하는 단계를 포함하는, 영상 분석 방법.
The method according to claim 6,
Wherein updating the database comprises:
Aligning the read image according to a predetermined angle; And
And updating the database using information about the aligned read image and the aligned read image.
제 6항에 있어서,
상기 분석 대상 영상, 상기 분석 결과 및 개장 검사 결과에 관한 정보를 이용하여 상기 데이터베이스를 업데이트하는 단계를 더 포함하는 영상 분석 방법.
The method according to claim 6,
And updating the database using the information on the analysis target image, the analysis result, and the modification test result.
제 6항에 있어서,
상기 판독 물체에 대한 정보는,
상기 판독 물체의 종류, 너비, 높이, 종횡비, 상기 판독 물체가 상기 판독 영상 내에서 회전되어 있는 정도, 상기 판독 영상의 촬영 날짜, 촬영 시간, 영상 이미지 및 저장 경로 중 적어도 하나를 포함하는, 영상 분석 방법.
The method according to claim 6,
Wherein the information on the reading object includes:
Wherein the image analysis includes at least one of a type, a width, a height, an aspect ratio of the read object, a degree to which the read object is rotated in the read image, a shooting date of the read image, Way.
적어도 하나의 물체를 포함하는 분석 대상 영상을 수신하는 분석 대상 영상 수신부;
미리 학습된 딥러닝 기반의 모델을 이용하여 상기 분석 대상 영상에서 물체를 검출하는 물체 검출부;
상기 분석 대상 영상에 대한 해상도 정보를 포함하는 영상 정보를 수신하는 영상 정보 수신부;
상기 해상도 정보를 이용하여 상기 분석 대상 영상의 픽셀 당 단위 길이를 계산하는 실측 거리 계산부; 및
상기 검출된 물체의 실측 크기를 기반으로 상기 검출된 물체를 분석하는 물체 분석부를 포함하되,
상기 물체 분석부는,
상기 분석 대상 영상의 픽셀 당 단위 길이를 이용하여 상기 검출된 물체의 상기 실측 크기를 계산하고, 상기 검출된 물체의 상기 실측 크기에 기반하여 상기 물체의 종류를 결정하는 영상 분석 장치.
An analysis object image receiving unit for receiving an analysis object image including at least one object;
An object detecting unit that detects an object in the analysis target image using a pre-learned deep learning based model;
An image information receiver for receiving image information including resolution information of the analysis target image;
A measured distance calculating unit for calculating a unit length per pixel of the analysis target image using the resolution information; And
And an object analyzing unit for analyzing the detected object based on an actual size of the detected object,
The object analyzing unit,
Wherein the actual size of the detected object is calculated using the unit length per pixel of the analysis target image and the type of the object is determined based on the actual size of the detected object.
제 12항에 있어서,
상기 영상 정보는 상기 분석 대상 영상에 대한 실제 크기에 대한 정보를 포함하는, 영상 분석 장치.
13. The method of claim 12,
Wherein the image information includes information on an actual size of the analysis target image.
삭제delete 삭제delete 제 12항에 있어서,
상기 물체 분석부는,
상기 물체의 실측 크기가 기 설정된 값보다 큰 경우, 상기 물체의 종류를 제 1 종류로 결정하고,
상기 물체의 실측 크기가 상기 기 설정된 값보다 작은 경우, 상기 물체의 종류를 제 2 종류로 결정하는, 영상 분석 장치.
13. The method of claim 12,
The object analyzing unit,
When the actual size of the object is larger than a preset value, the type of the object is determined as the first type,
And determines the type of the object as the second type when the actual size of the object is smaller than the predetermined value.
제 12항에 있어서,
상기 물체에 대한 분류 기준을 결정하는 분류 기준 결정부를 더 포함하되,
상기 분류 기준 결정부는,
판독 물체를 포함하는 판독 영상을 수신하고, 상기 판독 물체에 대한 정보를 수신하고, 상기 판독 영상과 상기 판독 물체에 대한 정보를 이용하여 데이터 베이스를 업데이트하며, 상기 데이터 베이스를 이용하여 물체에 대한 분류 기준을 결정하는, 영상 분석 장치.
13. The method of claim 12,
Further comprising a classification criterion determining unit for determining a classification criterion for the object,
Wherein the classification-
A system for receiving a read image including a read object, receiving information about the read object, updating the database using the read image and information about the read object, and classifying the object using the database An image analyzing device that determines a reference.
적어도 하나의 물체를 포함하는 분석 대상 영상을 수신하는 단계;
미리 학습된 딥러닝 기반의 모델을 이용하여 상기 분석 대상 영상에서 물체를 검출하는 단계;
상기 분석 대상 영상에 대한 해상도 정보를 포함하는 영상 정보를 수신하는 단계;
상기 해상도 정보를 이용하여 상기 분석 대상 영상의 픽셀 당 단위 길이를 계산하는 단계;
상기 검출된 물체의 실측 크기를 기반으로 상기 검출된 물체를 분석하는 단계; 및
상기 분석 결과를 출력하는 단계를 포함하되,
상기 검출된 물체를 분석하는 단계는
상기 분석 대상 영상의 픽셀 당 단위 길이를 이용하여 상기 검출된 물체의 상기 실측 크기를 계산하는 단계; 및
상기 검출된 물체의 상기 실측 크기에 기반하여 상기 물체의 종류를 결정하는 단계를 포함하는 영상 분석 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
Comprising: receiving an analysis object image including at least one object;
Detecting an object in the analysis target image using a pre-learned deep learning based model;
Receiving image information including resolution information on the analysis target image;
Calculating a unit length per pixel of the analysis target image using the resolution information;
Analyzing the detected object based on an actual size of the detected object; And
And outputting the analysis result,
The step of analyzing the detected object
Calculating an actual size of the detected object using a unit length per pixel of the analysis target image; And
And determining the type of the object based on the actual size of the detected object. ≪ Desc / Clms Page number 19 >
KR1020180168527A 2018-12-24 2018-12-24 Image analysis apparatus and method KR101995294B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180168527A KR101995294B1 (en) 2018-12-24 2018-12-24 Image analysis apparatus and method
PCT/KR2019/017806 WO2020138803A1 (en) 2018-12-24 2019-12-16 Image analysis device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180168527A KR101995294B1 (en) 2018-12-24 2018-12-24 Image analysis apparatus and method

Publications (1)

Publication Number Publication Date
KR101995294B1 true KR101995294B1 (en) 2019-07-03

Family

ID=67258738

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180168527A KR101995294B1 (en) 2018-12-24 2018-12-24 Image analysis apparatus and method

Country Status (2)

Country Link
KR (1) KR101995294B1 (en)
WO (1) WO2020138803A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020138803A1 (en) * 2018-12-24 2020-07-02 (주)제이엘케이 Image analysis device and method
KR102186751B1 (en) 2019-09-05 2020-12-04 주식회사 아이에스피디 Apparatus and method for improving multiple recognition and recognition rate of classification using object detection
KR20210061848A (en) * 2019-11-20 2021-05-28 한국항공우주연구원 Method and apparatus for detecting floating matter
KR102293548B1 (en) * 2021-03-11 2021-08-25 대한민국 Dangerous substance detection system and method using artificial intelligence
KR20210115695A (en) * 2020-03-16 2021-09-27 한국해양과학기술원 Method for identifying cargo based on deep-learning and apparatus performing the same
KR20220028604A (en) * 2020-08-31 2022-03-08 연세대학교 산학협력단 Apparatus and method for detecting object based on dynamic kenel
KR20220064846A (en) * 2020-11-12 2022-05-19 주식회사 에이직스 Multidimensional visualization system using deep learning object detection ratio and filtering technology and the method using the same

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110660102B (en) * 2019-06-17 2020-10-27 腾讯科技(深圳)有限公司 Speaker recognition method, device and system based on artificial intelligence
CN110865862B (en) * 2019-11-13 2023-04-28 北京字节跳动网络技术有限公司 Page background setting method and device and electronic equipment
US20230131977A1 (en) * 2021-10-22 2023-04-27 The Boeing Company Method For Large Area Inspection
CN115482533B (en) * 2022-09-19 2023-06-16 北京百度网讯科技有限公司 Display case splitting method and device, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249475A (en) * 1995-02-17 1996-09-27 Internatl Business Mach Corp <Ibm> Size featuring/deciding system of object
KR101703316B1 (en) * 2016-02-26 2017-02-06 주식회사 엠비씨플러스 Method and apparatus for measuring velocity based on image
KR101893557B1 (en) * 2017-12-29 2018-08-30 (주)제이엘케이인스펙션 Image processing apparatus and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101825689B1 (en) * 2016-11-03 2018-02-05 재단법인대구경북과학기술원 Object recognition apparatus, learning method thereof and object recognition method using the same
KR101930940B1 (en) * 2017-07-20 2018-12-20 에스케이텔레콤 주식회사 Apparatus and method for analyzing image
KR101995294B1 (en) * 2018-12-24 2019-07-03 (주)제이엘케이인스펙션 Image analysis apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249475A (en) * 1995-02-17 1996-09-27 Internatl Business Mach Corp <Ibm> Size featuring/deciding system of object
KR101703316B1 (en) * 2016-02-26 2017-02-06 주식회사 엠비씨플러스 Method and apparatus for measuring velocity based on image
KR101893557B1 (en) * 2017-12-29 2018-08-30 (주)제이엘케이인스펙션 Image processing apparatus and method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020138803A1 (en) * 2018-12-24 2020-07-02 (주)제이엘케이 Image analysis device and method
KR102186751B1 (en) 2019-09-05 2020-12-04 주식회사 아이에스피디 Apparatus and method for improving multiple recognition and recognition rate of classification using object detection
KR20210061848A (en) * 2019-11-20 2021-05-28 한국항공우주연구원 Method and apparatus for detecting floating matter
KR102316387B1 (en) * 2019-11-20 2021-10-22 한국항공우주연구원 Method and apparatus for detecting floating matter
KR20210115695A (en) * 2020-03-16 2021-09-27 한국해양과학기술원 Method for identifying cargo based on deep-learning and apparatus performing the same
KR102325017B1 (en) * 2020-03-16 2021-11-10 한국해양과학기술원 Method for identifying cargo based on deep-learning and apparatus performing the same
KR20220028604A (en) * 2020-08-31 2022-03-08 연세대학교 산학협력단 Apparatus and method for detecting object based on dynamic kenel
KR102433631B1 (en) * 2020-08-31 2022-08-18 연세대학교 산학협력단 Apparatus and method for detecting object based on dynamic kenel
KR20220064846A (en) * 2020-11-12 2022-05-19 주식회사 에이직스 Multidimensional visualization system using deep learning object detection ratio and filtering technology and the method using the same
KR102504607B1 (en) * 2020-11-12 2023-03-02 주식회사 에이직스 Multidimensional visualization system using deep learning object detection ratio and filtering technology and the method using the same
KR102293548B1 (en) * 2021-03-11 2021-08-25 대한민국 Dangerous substance detection system and method using artificial intelligence
WO2022191618A1 (en) * 2021-03-11 2022-09-15 대한민국(대통령경호처장) System and method for detecting dangerous substance by using artificial intelligence

Also Published As

Publication number Publication date
WO2020138803A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
KR101995294B1 (en) Image analysis apparatus and method
KR101969022B1 (en) Image analysis apparatus and method
Beijbom et al. Automated annotation of coral reef survey images
KR101932009B1 (en) Image processing apparatus and method for multiple object detection
Gong et al. Change detection in synthetic aperture radar images based on image fusion and fuzzy clustering
Benedek et al. Change detection in optical aerial images by a multilayer conditional mixed Markov model
CN106408030B (en) SAR image classification method based on middle layer semantic attribute and convolutional neural networks
CN109447169A (en) The training method of image processing method and its model, device and electronic system
CA3100642A1 (en) Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
Benedek et al. Multilayer Markov random field models for change detection in optical remote sensing images
CN104408482B (en) A kind of High Resolution SAR Images object detection method
US20090175411A1 (en) Methods and systems for use in security screening, with parallel processing capability
CN108647625A (en) A kind of expression recognition method and device
KR101893557B1 (en) Image processing apparatus and method
KR102032796B1 (en) Image analysis apparatus and method
KR101990123B1 (en) Image analysis apparatus and method
EP3772722B1 (en) X-ray image processing system and method, and program therefor
Li et al. GIS-based detection of grain boundaries
KR20190059083A (en) Apparatus and method for recognition marine situation based image division
CN108596244A (en) A kind of high spectrum image label noise detecting method based on spectrum angle density peaks
KR102188649B1 (en) Image processing apparatus and method
KR102158967B1 (en) Image analysis apparatus, image analysis method and recording medium
Singh et al. Image segmentation optimisation for X-ray images of airline luggage
Dubosclard et al. Automated visual grading of grain kernels by machine vision
KR102048948B1 (en) Image analysis apparatus and method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant