KR102505074B1 - Apparatus and method for processing image data using hierachical output - Google Patents

Apparatus and method for processing image data using hierachical output Download PDF

Info

Publication number
KR102505074B1
KR102505074B1 KR1020210135022A KR20210135022A KR102505074B1 KR 102505074 B1 KR102505074 B1 KR 102505074B1 KR 1020210135022 A KR1020210135022 A KR 1020210135022A KR 20210135022 A KR20210135022 A KR 20210135022A KR 102505074 B1 KR102505074 B1 KR 102505074B1
Authority
KR
South Korea
Prior art keywords
recognized
classified
data processing
reliability
image data
Prior art date
Application number
KR1020210135022A
Other languages
Korean (ko)
Inventor
김형복
이진석
윤석원
Original Assignee
주식회사 테스트웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 테스트웍스 filed Critical 주식회사 테스트웍스
Priority to KR1020210135022A priority Critical patent/KR102505074B1/en
Application granted granted Critical
Publication of KR102505074B1 publication Critical patent/KR102505074B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

Disclosed are a device and method for processing image data using a hierarchical-type output. The present invention, by recognizing an object from an original image and visually hierarchical-outputting the object according to a reliability of a recognized object, enables an inspector to reduce a verification time of a recognized object. The device comprises: an image input part; an object recognition part; an object analysis part; and an object labeling processing part.

Description

계층형 출력을 이용한 영상 데이터 가공장치 및 방법{APPARATUS AND METHOD FOR PROCESSING IMAGE DATA USING HIERACHICAL OUTPUT}Image data processing apparatus and method using hierarchical output {APPARATUS AND METHOD FOR PROCESSING IMAGE DATA USING HIERACHICAL OUTPUT}

본 발명은 계층형 출력을 이용한 영상 데이터 가공장치 및 방법에 관한 발명으로서, 더욱 상세하게는 원본 이미지로부터 객체를 인식하고, 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력하는 계층형 출력을 이용한 영상 데이터 가공장치 및 방법에 관한 것이다.The present invention relates to an image data processing apparatus and method using a hierarchical output, and more particularly, to a hierarchical output that recognizes an object from an original image, visually stratifies the object according to the reliability of the recognized object, and outputs the image data processing device and method. It relates to a video data processing device and method.

최근 인공지능(Artificial Intelligence) 기술의 발전으로 인공지능의 학습을 위한 양질의 이미지 데이터가 요구되고 있다.Recently, with the development of artificial intelligence technology, high-quality image data for artificial intelligence learning is required.

이러한 이미지 데이터는 이미지 센서를 통해 로우(raw) 이미지로 획득되고, 획득한 로우 이미지는 이미지 신호 프로세서(image signal processor: ISP)를 통해 개선된 화질의 이미지 데이터로 제공된다.Such image data is obtained as a raw image through an image sensor, and the obtained raw image is provided as improved quality image data through an image signal processor (ISP).

한편, 이미지 데이터의 가공은 사용자가 이미지 내의 주요 객체 또는 주요 영역에 대하여 비박스(B-box), 폴리곤(Polygon), 큐보이드(Cuboid) 등의 방식으로 해당 영역을 지정하고, 이를 기반으로 객체 인식을 수행할 수 있다.On the other hand, processing of image data is performed by a user designating a corresponding area in a method such as B-box, polygon, or cuboid for a main object or main area in an image, and based on this, the user designates the corresponding area. recognition can be performed.

또한, 머신 러닝(machine learning) 또는 딥 러닝(deep learning) 등의 인식 알고리즘을 이용하여 이미지 데이터에서 객체를 인식할 수도 있다.In addition, an object may be recognized from image data using a recognition algorithm such as machine learning or deep learning.

도1은 종래 기술에 따른 인공지능 학습용 데이터 가공을 설명하기 위해 나타낸 예시도이다.1 is an exemplary diagram shown to explain data processing for artificial intelligence learning according to the prior art.

도1(a)에 도시된 바와 같이, 복수의 객체(11)를 포함한 이미지(10)가 입력되면, 1차적으로 학습된 인공지능 기반의 객체 인식 모델을 이용하여 이미지(10) 내의 주요 객체(11)를 인식하여 도1(b)와 같은 인식 결과를 출력한다.As shown in FIG. 1 (a), when an image 10 including a plurality of objects 11 is input, the main object in the image 10 ( 11) is recognized and the recognition result shown in Fig. 1(b) is output.

도1(b)를 참조하면 인식된 객체(11)는 이미지(10)에서 박스 형상 등을 이용하여 해당 영역(12)을 표시하여 인공지능 기반의 객체 인식 모델이 미인식한 객체(11a)와 함께 출력된다.Referring to FIG. 1 (b), the recognized object 11 displays a corresponding area 12 using a box shape in the image 10, so that the artificial intelligence-based object recognition model compares the unrecognized object 11a and output together.

또한, 상기 인공지능 기반의 객체 인식 모델이 미인식한 객체(11a)는 도1(c)와 같이, 사용자가 수작업을 통해 이미지(10)에서 미인식 객체(11a)에 대한 추가 인식 영역(12a)을 설정하여 추가 가공된다.In addition, the object 11a unrecognized by the artificial intelligence-based object recognition model is an additional recognition area 12a for the unrecognized object 11a in the image 10 through manual work by the user, as shown in FIG. 1(c). ) is set to be further processed.

또한, 인공지능 기반의 객체 인식 모델이 없는 경우, 사용자가 이미지(10)에서 주요 객체 또는 주요 영역에 대하여 비박스(B-box), 폴리곤(Polygon), 큐보이드(Cuboid) 등을 이용하여 해당 영역을 수작업으로지정할 수 있다.In addition, when there is no artificial intelligence-based object recognition model, the user uses B-box, polygon, cuboid, etc. for the main object or main area in the image 10 Areas can be specified manually.

그러나, 인공지능 기반의 객체 인식 모델이 없거나, 객체 인식 모델의 성능이 낮거나, 원본 이미지의 상태 또는 객체의 상태가 나쁜 경우, 사용자가 인식된 객체와 미인식된 객체의 구분이 어려워서, 이를 검수하거나 추가 가공을 위한 작업에 많은 시간이 필요한 문제점이 있다.However, if there is no AI-based object recognition model, if the performance of the object recognition model is low, or if the state of the original image or object is bad, it is difficult for the user to distinguish between a recognized object and an unrecognized object. There is a problem that requires a lot of time for processing or additional processing.

또한, 종래 기술에 따른 인공지능 학습용 데이터 가공방법은 사용자가 인식된 객체와 미인식된 객체의 직관적인 구분이 어렵고, 인식된 객체의 신뢰도를 확인하기 어려운 문제점이 있다.In addition, the prior art data processing method for artificial intelligence learning has problems in that it is difficult for a user to intuitively distinguish between a recognized object and an unrecognized object, and it is difficult to check the reliability of a recognized object.

특히, 객체가 많거나, 객체가 흐릿(Blur)하거나, 객체가 노이즈를 많이 포함하거나, 객체가 모호하여 판단하기 어렵거나, 객체간의 폐색이 있거나, 이미지가 왜곡된 경우, 사용자가 인식된 객체에 대하여 신뢰하기 어려운 문제점이 있다.In particular, if there are many objects, objects are blurry, objects contain a lot of noise, objects are difficult to judge because they are ambiguous, there is occlusion between objects, or the image is distorted, the user is not aware of the recognized object. There are problems with unreliability.

또한, 사용자가 객체의 가공을 위한 과중한 업무로 인해 효율적인 업무 진행이 어려운 문제점이 있다.In addition, there is a problem in that it is difficult for the user to efficiently work due to heavy work for processing the object.

한국 공개특허공보 공개번호 제10-2019-0051230호(발명의 명칭: 신뢰도에 기반하여 객체를 인식하는 전자 장치 및 방법)Korean Patent Laid-open Publication No. 10-2019-0051230 (Title of Invention: Electronic Device and Method for Recognizing Objects Based on Reliability)

이러한 문제점을 해결하기 위하여, 본 발명은 원본 이미지로부터 객체를 인식하고 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력하는 계층형 출력을 이용한 영상 데이터 가공장치 및 방법을 제공하는 것을 목적으로 한다.In order to solve this problem, an object of the present invention is to provide an image data processing apparatus and method using a hierarchical output that recognizes an object from an original image and visually stratifies the object according to the reliability of the recognized object and outputs the object. .

상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 계층형 출력을 이용한 영상 데이터 가공장치로서, 하나 이상의 객체를 포함한 원본 이미지로부터 인식된 객체를 출력하되, 상기 인식된 객체에 대한 신뢰도를 산출하고, 상기 산출된 신뢰도를 기반으로 상기 인식된 객체를 분류하며, 상기 분류된 객체를 미리 설정된 계층 시각화 정보에 따라 구분되도록 표시한다.In order to achieve the above object, an embodiment of the present invention is an image data processing apparatus using hierarchical output, which outputs a recognized object from an original image including one or more objects, calculates the reliability of the recognized object, and , The recognized object is classified based on the calculated reliability, and the classified object is displayed to be classified according to preset layer visualization information.

또한, 상기 실시 예에 따른 계층 시각화 정보는 인식된 객체의 신뢰도에 따라 서로 다른 종류의 다른 색상(Color), 선 굵기, 선 종류 및 해칭(Hatching) 중 하나로 표시되는 것을 특징으로 한다.In addition, the hierarchical visualization information according to the embodiment is characterized in that it is displayed as one of different colors, line thicknesses, line types, and hatching of different types according to the reliability of the recognized object.

또한, 상기 실시 예에 따른 영상 데이터 가공장치는 하나 이상의 객체를 포함한 원본 이미지를 입력받는 이미지 입력부; 상기 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행하는 객체 인식부; 상기 객체 인식 결과를 분석하여 객체의 예측 확률에 따른 신뢰도를 산출하고, 산출된 신뢰도에 따라 인식된 객체를 분류하는 객체 분석부; 및 상기 분류된 객체를 서로 다른 종류의 색상(Color), 선 굵기, 선 종류, 해칭(Hatching) 중 하나를 이용한 계층 시각화 정보로 구분하여 표시하는 객체 라벨링 처리부;를 포함하는 것을 특징으로 한다.In addition, the image data processing apparatus according to the embodiment includes an image input unit for receiving an original image including one or more objects; an object recognition unit for finding an instance of an object from the input original image and performing object recognition; an object analyzer configured to analyze the object recognition result, calculate reliability according to the predicted probability of the object, and classify the recognized object according to the calculated reliability; and an object labeling processing unit that divides the classified objects into hierarchical visualization information using one of different types of colors, line thicknesses, line types, and hatching, and displays the classified objects.

또한, 상기 실시 예에 따른 신뢰도에 따른 인식된 객체는 미리 설정된 객체 라벨링 등급에 따라 분류되는 것을 특징으로 한다.In addition, the recognized object according to the reliability according to the embodiment is characterized in that it is classified according to a preset object labeling level.

또한, 본 발명에 따른 일 실시 예는 계층형 출력을 이용한 영상 데이터 가공방법으로서, a) 영상 데이터 가공장치가 하나 이상의 객체를 포함한 원본 이미지를 입력받는 단계; b) 상기 영상 데이터 가공장치가 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행하는 단계; c) 상기 영상 데이터 가공장치가 인식된 객체에 대한 예측 확률에 따른 신뢰도를 산출하고, 상기 산출된 신뢰도를 기반으로 인식된 객체를 분류하는 단계; 및 d) 상기 분류된 객체를 미리 설정된 계층 시각화 정보에 따라 구분되도록 표시하는 단계;를 포함한다.In addition, an embodiment according to the present invention is an image data processing method using hierarchical output, comprising: a) receiving an original image including one or more objects by an image data processing apparatus; b) performing object recognition by finding an instance of an object from an input original image by the image data processing device; c) calculating, by the image data processing device, reliability according to predicted probabilities of the recognized objects, and classifying the recognized objects based on the calculated reliability; and d) displaying the classified objects to be classified according to preset layer visualization information.

또한, 상기 실시 예에 따른 c) 단계의 신뢰도를 기반으로 인식된 객체는 미리 설정된 객체 라벨링 등급에 따라 분류되는 것을 특징으로 한다.In addition, the object recognized based on the reliability of step c) according to the embodiment is characterized in that it is classified according to a preset object labeling level.

또한, 상기 실시 예에 따른 d) 단계의 계층 시각화 정보는 인식된 객체의 신뢰도에 따라 서로 다른 종류의 다른 색상(Color), 선 굵기, 선 종류 및 해칭(Hatching) 중 하나로 표시되는 것을 특징으로 한다.In addition, the hierarchical visualization information of step d) according to the embodiment is characterized in that it is displayed in one of different colors, line thicknesses, line types, and hatching according to the reliability of the recognized object. .

본 발명은 원본 이미지로부터 객체를 인식하고 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력함으로써, 사용자가 인식된 객체의 검증 시간을 감소시킬 수 있는 장점이 있다.The present invention has an advantage in that a user can reduce verification time of a recognized object by recognizing an object from an original image and visually layering the object according to the reliability of the recognized object and outputting the object.

또한, 본 발명은 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력함으로써, 사용자가 인식된 객체와 미인식된 객체를 직관적으로 인식할 수 있는 장점이 있다.In addition, the present invention has an advantage in that a user can intuitively recognize a recognized object and an unrecognized object by visually layering and outputting objects according to the reliability of the recognized object.

또한, 본 발명은 사용자가 검수 및 가공을 위해 출력되는 표시 방식에 따라 집중해야하는 객체를 쉽게 확인할 수 있는 장점이 있다.In addition, the present invention has an advantage in that a user can easily check an object to be focused on according to a display method output for inspection and processing.

또한, 본 발명은 객체의 가공 및 검수를 위한 프로세서의 효율화를 통해 시간과 예산 비용을 감소시킬 수 있는 장점이 있다.In addition, the present invention has the advantage of reducing time and budget costs through efficiency of a processor for processing and inspecting an object.

또한, 본 발명은 객체 인식 모델의 객체 인식 신뢰도에 따른 출력과, 사용자의 가공 효율을 수치화 함으로써, 객체 인식 모델의 성능 개선에 재반영할 수 있는 장점이 있다.In addition, the present invention has the advantage of being able to reflect back on the performance improvement of the object recognition model by digitizing the output according to the object recognition reliability of the object recognition model and the user's processing efficiency.

도1은 종래 기술에 따른 인공지능 학습용 데이터 가공을 설명하기 위해 나타낸 예시도.
도2는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공장치의 구성을 나타낸 블록도.
도3은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공방법을 설명하기 위해 나타낸 흐름도.
도4는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 원본 이미지 예시도.
도5는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 인식 이미지 예시도.
도6은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 다른 인식 이미지 예시도.
도7은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 또 다른 인식 이미지 예시도.
도8은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 또 다른 인식 이미지 예시도.
도9는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 또 다른 인식 이미지 예시도.
Figure 1 is an exemplary diagram shown to explain data processing for artificial intelligence learning according to the prior art.
2 is a block diagram showing the configuration of an image data processing apparatus using hierarchical output according to an embodiment of the present invention.
3 is a flowchart illustrating a method of processing image data using hierarchical output according to an embodiment of the present invention;
4 is an exemplary view of an original image shown to explain image data processing using hierarchical output according to an embodiment of the present invention;
5 is an exemplary view of a recognition image shown to explain image data processing using hierarchical output according to an embodiment of the present invention.
6 is an exemplary view of another recognition image shown to explain image data processing using hierarchical output according to an embodiment of the present invention;
7 is another example of a recognized image shown to explain image data processing using hierarchical output according to an embodiment of the present invention;
8 is another example of a recognized image shown to explain image data processing using hierarchical output according to an embodiment of the present invention;
9 is another example of a recognized image shown to explain image data processing using hierarchical output according to an embodiment of the present invention.

이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to preferred embodiments of the present invention and accompanying drawings, but the same reference numerals in the drawings will be described on the premise that they refer to the same components.

본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다. Prior to describing specific details for the implementation of the present invention, it should be noted that configurations not directly related to the technical subject matter of the present invention are omitted within the scope of not disturbing the technical subject matter of the present invention.

또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.In addition, the terms or words used in this specification and claims are meanings and concepts consistent with the technical idea of the invention based on the principle that the inventor can define the concept of appropriate terms to best describe his/her invention. should be interpreted as

본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In this specification, the expression that a certain part "includes" a certain component means that it may further include other components, rather than excluding other components.

또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.In addition, terms such as ".. unit", ".. unit", and ".. module" refer to units that process at least one function or operation, which may be classified as hardware, software, or a combination of the two.

또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. In addition, the term "at least one" is defined as a term including singular and plural, and even if at least one term does not exist, each component may exist in singular or plural, and may mean singular or plural. would be self-evident.

또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시 예에 따라 변경가능하다 할 것이다.In addition, the singular or plural number of each component may be changed according to embodiments.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공장치 및 방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, a preferred embodiment of an image data processing apparatus and method using hierarchical output according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도2는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공장치의 구성을 나타낸 블록도이다.2 is a block diagram showing the configuration of an image data processing apparatus using hierarchical output according to an embodiment of the present invention.

도2를 참조하면, 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공장치(100)는 하나 이상의 객체를 포함한 원본 이미지로부터 인식된 객체를 출력한다.Referring to FIG. 2 , the image data processing apparatus 100 using hierarchical output according to an embodiment of the present invention outputs an object recognized from an original image including one or more objects.

또한, 상기 영상 데이터 가공장치(100)는 인식된 객체에 대한 신뢰도를 산출할 수 있다.Also, the image data processing apparatus 100 may calculate the reliability of the recognized object.

또한, 상기 영상 데이터 가공장치(100)는 산출된 신뢰도를 기반으로 상기 인식된 객체를 분류할 수 있다.Also, the image data processing apparatus 100 may classify the recognized object based on the calculated reliability.

또한, 상기 영상 데이터 가공장치(100)는 분류된 객체를 미리 설정된 계층 시각화 정보에 따라 구분되도록 표시할 수 있다.In addition, the image data processing apparatus 100 may display classified objects according to preset layer visualization information.

이를 위해, 상기 영상 데이터 가공장치(100)는 이미지 입력부(110)와, 객체 인식부(120)와, 객체 분석부(130)와, 객체 라벨링 처리부(140)를 포함하여 구성될 수 있다.To this end, the image data processing apparatus 100 may include an image input unit 110, an object recognition unit 120, an object analysis unit 130, and an object labeling processing unit 140.

상기 이미지 입력부(110)는 외부 장치로부터 제공되는 하나 이상의 객체를 포함한 원본 이미지를 입력받는다.The image input unit 110 receives an original image including one or more objects provided from an external device.

상기 객체 인식부(120)는 이미지 입력부(110)에 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행할 수 있다. The object recognition unit 120 may perform object recognition by finding an instance of an object from an original image input to the image input unit 110 .

또한, 본 발명의 일 실시 예에 따른 객체 인식부(120)는 객체 인식을 위해 객체 인식 모델을 이용할 수 있는데, 머신러닝중에서 딥러닝(Deep learning)이라는 방법을 통해 만들어진 객체 인식 모델들로 구현될 수 있다.In addition, the object recognition unit 120 according to an embodiment of the present invention may use an object recognition model for object recognition, which will be implemented with object recognition models created through a method called deep learning among machine learning. can

상기 객체 인식 모델은 그레이 스케일, 영상 이진화 등의 전처리 과정과 특징점 추출 등을 통해 객체 인식을 수행할 수 있다.The object recognition model may perform object recognition through a preprocessing process such as gray scale and image binarization and feature point extraction.

또한, 머신러닝은 복잡한 시스템이 명시적으로 프로그래밍되지 않고서, 경험으로부터 자동으로 학습하고 개선할 수 있게 하는 인공 지능의 응용이다.Machine learning is also an application of artificial intelligence that allows complex systems to learn and improve automatically from experience without being explicitly programmed.

또한, 머신러닝 모델들의 정확도 및 유효성은 그들 모델들을 훈련시키는 데 사용되는 데이터에 부분적으로 의존할 수 있다.Also, the accuracy and effectiveness of machine learning models may depend in part on the data used to train them.

따라서, 본 발명의 일 실시 예에 따른 객체 인식 모델은 하나 이상의 객체를 포함한 다수의 학습 데이터를 서로 비교한 결과 값에 기반하여 인식된 객체를 학습 데이터로 반복 학습할 수 있다.Therefore, the object recognition model according to an embodiment of the present invention may repeatedly learn a recognized object as learning data based on a value obtained by comparing a plurality of learning data including one or more objects with each other.

상기 객체 분석부(130)는 객체를 인식한 결과를 분석하여 인식된 객체에 대한 예측 확률과, 그에 따른 신뢰도를 산출할 수 있다.The object analyzer 130 may analyze a result of recognizing an object to calculate a predicted probability of the recognized object and reliability accordingly.

즉, 상기 객체 분석부(130)는 분류(Classifier)를 이용하여 어떤 특징(Feature)의 분포가 객체(Object)를 표현하는지 또는 그렇지 않은지를 구분하여 인식된 객체에 대한 예측 확률 값을 산출하고, 산출된 예측 확률 값, 또는 산출된 예측 확률 값을 기반으로 객체 여부에 대한 신뢰도를 산출하여 제공할 수 있다.That is, the object analyzer 130 calculates a predicted probability value for a recognized object by distinguishing whether a distribution of a feature represents an object or not by using a classifier, Based on the calculated predicted probability value or the calculated predicted probability value, it is possible to calculate and provide reliability on whether or not an object exists.

또한, 상기 객체 분석부(130)는 산출된 신뢰도에 따라 인식된 객체를 미리 설정된 객체 라벨링 등급에 따라 분류할 수 있다.Also, the object analyzer 130 may classify the object recognized according to the calculated reliability according to a preset object labeling level.

즉, 신뢰도에 따라 인식된 객체를 미리 설정된 등급, 예를 들어 '객체 인식률 상', '객체 인식률 중', '객체 인식률 하' 등의 객체 라벨링 등급으로 분류할 수 있다.That is, the recognized object may be classified according to the reliability into a preset level, for example, an object labeling level such as 'above the object recognition rate', 'among the object recognition rate', and 'under the object recognition rate'.

상기 객체 라벨렝 처리부(140)는 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 색상(Color)을 이용한 계층 시각화 정보로 표시하여 출력할 수 있다.The object labeling processing unit 140 may display and output the classified objects as hierarchical visualization information using different types of colors so that users can easily recognize and distinguish them.

또한, 상기 객체 라벨링 처리부(140)는 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 선 굵기, 예를 들어 '1㎜ 두께선', '5㎜ 두께선', '10㎜ 두께선' 등을 이용한 계층 시각화 정보로 표시하여 출력할 수도 있다.In addition, the object labeling processing unit 140 sets different types of line thicknesses, for example, '1mm thick line', '5mm thick line', '10mm thick line' so that the user can easily recognize and distinguish the classified objects. It can also be displayed and output as hierarchical visualization information using 'line' or the like.

또한, 상기 객체 라벨링 처리부(140)는 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 선 종류, 예를 들어, '실선', '점선', '짧은 점선' 등을 이용한 계층 시각화 정보로 표시하여 출력할 수도 있다.In addition, the object labeling processing unit 140 performs layer visualization using different types of lines, for example, 'solid lines', 'dotted lines', 'short dotted lines', etc. so that users can easily recognize and classify the classified objects. It can also be displayed as information and output.

또한, 상기 객체 라벨링 처리부(140)는 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 해칭(Hatching)을 이용한 계층 시각화 정보로 표시하여 출력함으로써, 인식된 객체의 인식률에 대하여 사용자가 직관적으로 인식 및 확인할 수 있도록 하여 사용자에 의한 추가 객체 인식 작업에 대한 신속한 결정이 이루어질 수 있도록 한다. In addition, the object labeling processing unit 140 displays and outputs the classified objects as hierarchical visualization information using different types of hatching so that users can easily recognize and distinguish them, so that the user can improve the recognition rate of the recognized object. By intuitively recognizing and confirming the object, the user can quickly decide on an additional object recognition task.

다음은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공방법을 설명한다.Next, an image data processing method using hierarchical output according to an embodiment of the present invention will be described.

도3은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공방법을 설명하기 위해 나타낸 흐름도이다.3 is a flowchart illustrating an image data processing method using hierarchical output according to an embodiment of the present invention.

도2 및 도3을 참조하면, 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공방법은 도4와 같이, 영상 데이터 가공장치(100)가 하나 이상의 객체(210)를 포함한 원본 이미지(200)를 입력(S100)받는다.2 and 3, in the image data processing method using hierarchical output according to an embodiment of the present invention, as shown in FIG. 4, the image data processing apparatus 100 is an original image including one or more objects 210. (200) is input (S100).

상기 영상 데이터 가공장치(100)는 S100 단계에서 입력된 원본 이미지를 객체 인식 모델을 이용하여 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행(S200)한다.The video data processing apparatus 100 finds an instance of an object using an object recognition model of the original image input in step S100 and performs object recognition (S200).

상기 영상 데이터 가공장치(100)는 S200 단계에서 인식된 객체에 대한 예측 확률과 그에 따른 신뢰도를 산출(S300)한다.The image data processing apparatus 100 calculates the predicted probability for the object recognized in step S200 and the corresponding reliability (S300).

즉, 상기 S300 단계는 분류(Classifier)를 이용하여 어떤 특징(Feature)의 분포가 객체(Object)를 표현하는지 또는 그렇지 않은지를 구분하여 인식된 객체에 대한 예측 확률 값을 산출하여 신뢰도를 분석한다.That is, in the step S300, reliability is analyzed by calculating a predicted probability value for a recognized object by distinguishing which feature distribution represents an object or not by using a classifier.

상기 S300 단계에서 산출된 예측 확률 값은 예를 들어 객체 인식률의 '상', '중', '하'를 평가하기 위한 기준 값과 비교 및 판단(S400)하고, S400 단계의 판단 결과에 따라 신뢰도를 기반으로 인식된 객체를 객체 라벨링 등급에 따라 분류(S500)한다.The predicted probability value calculated in step S300 is compared with and determined (S400) with reference values for evaluating 'high', 'middle', and 'low' of the object recognition rate, and the reliability level is determined according to the determination result of step S400. The recognized object is classified according to the object labeling level based on (S500).

상기 영상 데이터 가공장치(1000는 S500 단계에서 분류된 객체를 상기 객체 라벨링 등급에 따라 설정된 계층 시각화 정보에 기반하여 구분하고, 상기 구분된 계층 시각화 정보에 따라 인식된 객체와 함께 표시하는 객체 라벨링을 수행(S600)한다. The image data processing apparatus 1000 performs object labeling in which the objects classified in step S500 are classified based on layer visualization information set according to the object labeling class and displayed together with objects recognized according to the classified layer visualization information. (S600).

즉, 도5와 같이 인식 이미지(300)에 분류된 객체, 예를 들어 제1 객체(310), 제2 객체(311), 제3 객체(312)를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 색상(Color)을 이용한 제1 계층 시각화 표시(320), 제2 계층 시각화 표시(321), 제3 계층 시각화 표시(322) 정보로 표시하여 출력할 수 있다.That is, as shown in FIG. 5, the objects classified in the recognition image 300, for example, the first object 310, the second object 311, and the third object 312, are different from each other so that the user can easily recognize and distinguish them. The information of the first layer visualization display 320, the second layer visualization display 321, and the third layer visualization display 322 using the color of the type may be displayed and output.

또한, 도6과 같이, 인식 이미지(300a)에 분류된 객체, 예를 들어 제1 객체(310a), 제2 객체(311a), 제3 객체(312a)를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 선 굵기, 예를 들어 '1㎜ 두께선'을 사용한 제1 계층 시각화 표시(320a), '5㎜ 두께선'을 사용한 제2 계층 시각화 표시(321a), '10㎜ 두께선'을 사용한 제3 계층 시각화 표시(322a) 정보로 표시하여 출력할 수도 있다.In addition, as shown in FIG. 6, the objects classified in the recognition image 300a, for example, the first object 310a, the second object 311a, and the third object 312a can be easily recognized and distinguished from each other by the user. Different types of line thicknesses, for example, the first layer visualization display 320a using '1mm thick line', the second layer visualization display 321a using '5mm thick line', and '10mm thick line' The used third layer visualization display 322a information may be displayed and output.

또한, 도7과 같이, 인식 이미지(300b)에 분류된 객체, 예를 들어 제1 객체(310b), 제2 객체(311b), 제3 객체(312b)를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 선 종류, 예를 들어, '실선'을 사용한 제1 계층 시각화 표시(320b), '점선'을 사용한 제2 계층 시각화 표시(321b), '짧은 점선'을 사용한 제3 계층 시각화 표시(322b) 정보로 표시하여 출력할 수도 있다.In addition, as shown in FIG. 7, the objects classified in the recognition image 300b, for example, the first object 310b, the second object 311b, and the third object 312b, can be easily recognized and distinguished from each other by the user. Different kinds of line types, for example, 1st layer visualization using 'solid line' 320b, 2nd layer visualization using 'dotted line' 321b, 3rd layer visualization using 'short dotted line' ( 322b) It can also be displayed and output as information.

또한, 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 해칭(Hatching)을 이용한 계층 시각화 정보로 표시하여 출력함으로써, 인식된 객체의 인식률에 대하여 사용자가 직관적으로 인식 및 확인할 수 있도록 하여 사용자에 의한 추가 객체 인식 작업에 대한 신속한 결정이 이루어질 수 있도록 한다.In addition, the classified objects are displayed and output as hierarchical visualization information using different types of hatching so that users can easily recognize and distinguish them, so that users can intuitively recognize and check the recognition rate of recognized objects. Allows a quick decision on further object recognition tasks by the user to be made.

한편, 본 발명의 실시 예에서는 비박스를 이용하여 인식된 객체에 대한 계층 시각화 표시 정보가 출력되도록 설명하였지만, 이에 한정되는 것은 아니고, 도8과 같이 폴리곤(Polygon)을 이용하여 인식 이미지(300')에 포함된 제1 객체(310') 및 제2 객체(311')에 대한 제1 계층 시각화 표시(320') 및 제2 계층 시각화 표시(321') 정보를 표시할 수도 있다.On the other hand, in the embodiment of the present invention, it has been described that hierarchical visualization display information for objects recognized using a bi-box is output, but it is not limited thereto, and the recognition image 300' using a polygon as shown in FIG. The first layer visualization display 320' and the second layer visualization display 321' information for the first object 310' and the second object 311' included in ) may be displayed.

또한, 큐보이드(Cuboid)를 이용하여 인식 이미지(300")에 포함된 제1 객체(310") 및 제2 객체(311")에 대한 제1 계층 시각화 표시(320") 및 제2 계층 시각화 표시(321") 정보를 표시할 수도 있다.In addition, a first layer visualization display 320" and a second layer visualization of the first object 310" and the second object 311" included in the recognition image 300" using a cuboid. Display 321" may display information.

또한, 도9(a)와 같이 다수의 객체(410, 411, 412)가 포함된 원본 이미지(400), 도9(b)와 같은 객체(410a)와 노이즈(420a)가 포함된 원본 이미지(400a), 도9(c)와 같은 객체(410b)와 객체(410b')간에 폐색이 포함된 원본 이미지(400c), 도9(d)와 같은 블러 객체(410d, 420d)를 포함한 원본 이미지(400d), 도9(e)와 같은 모호한 객체(410e, 411e)를 포함한 원본 이미지(400e), 도9(f)와 같은 왜곡된 객체(410f)를 포함한 원본 이미지(400f)에도 객체에 대한 계층 시각화된 표시를 이용하여 표시함으로써 사용자가 인식된 객체의 검증 시간을 감소시킬 수 있다.In addition, an original image 400 including a plurality of objects 410, 411, and 412 as shown in FIG. 9 (a), and an original image including objects 410a and noise 420a as shown in FIG. 9 (b) ( 400a), the original image 400c including occlusion between the object 410b and the object 410b′ as shown in FIG. 9(c), and the original image including the blur objects 410d and 420d as shown in FIG. 9(d) ( 400d), the original image 400e including the ambiguous objects 410e and 411e as shown in FIG. 9(e), and the original image 400f including the distorted object 410f as shown in FIG. By displaying using a visualized display, the user can reduce the verification time of the recognized object.

따라서, 원본 이미지로부터 객체를 인식하고 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력함으로써, 사용자가 인식된 객체의 검증 시간을 감소시킬 수 있다.Therefore, by recognizing an object from an original image and visually layering the object according to the reliability of the recognized object, the user can reduce the verification time of the recognized object.

또한, 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력함으로써, 사용자가 인식된 객체와 미인식된 객체를 직관적으로 인식할 수 있다.In addition, the user can intuitively recognize the recognized object and the unrecognized object by visually layering and outputting the objects according to the reliability of the recognized object.

또한, 사용자가 검수 및 가공을 위해 출력되는 표시 방식에 따라 집중해야하는 객체를 쉽게 확인할 수 있고, 객체의 가공 및 검수를 위한 프로세서의 효율화를 통해 시간과 예산 비용을 감소시킬 수 있다.In addition, a user can easily check an object to be focused on according to a display method output for inspection and processing, and time and budget costs can be reduced through efficiency of a processor for processing and inspection of an object.

또한, 객체 인식 모델의 객체 인식 신뢰도에 따른 출력과, 사용자의 가공 효율을 수치화 함으로써, 객체 인식 모델의 성능 개선에 재반영할 수 있다.In addition, by quantifying the output according to the object recognition reliability of the object recognition model and the user's processing efficiency, it can be reflected again in the performance improvement of the object recognition model.

상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, although it has been described with reference to the preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.In addition, the drawing numbers described in the claims of the present invention are only described for clarity and convenience of explanation, but are not limited thereto, and in the process of describing the embodiments, the thickness of lines or the size of components shown in the drawings, etc. may be exaggerated for clarity and convenience of description.

또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the above-mentioned terms are terms defined in consideration of functions in the present invention, which may change according to the intention or custom of the user or operator, so the interpretation of these terms should be made based on the contents throughout this specification. .

또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다. In addition, even if it is not explicitly shown or described, a person skilled in the art to which the present invention belongs can make various modifications from the description of the present invention to the technical idea according to the present invention. Obviously, it is still within the scope of the present invention.

또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.In addition, the above embodiments described with reference to the accompanying drawings are described for the purpose of explaining the present invention, and the scope of the present invention is not limited to these embodiments.

100 : 영상 데이터 가공장치 110 : 이미지 입력부
120 : 객체 인식부 130 : 객체 분석부
140 : 객체 라벨링 처리부 200 : 원본 이미지
210 : 객체
300, 300', 300", 300a, 300b : 인식 이미지
310, 310', 310", 310a, 310b : 제1 객체
311, 311', 311", 311a, 311b : 제2 객체
312, 312a, 312b : 제3 객체
320, 310", 320", 320a, 320b : 제1 계층 시각화 표시
321, 321', 321", 321a, 321b : 제2 계층 시각화 표시
322, 322a, 322b : 제3 계층 시각화 표시
400, 400a, 400b, 400c, 400d, 400e, 400f : 원본 이미지
410, 411, 412, 410a, : 객체 410b, 410b' : 폐색이 있는 객체
410d, 420d : 블러(Blur) 객체 410e, 411e : 모호한 객체
410f : 왜곡된 객체 420a : 노이즈
100: image data processing device 110: image input unit
120: object recognition unit 130: object analysis unit
140: object labeling processing unit 200: original image
210: object
300, 300', 300", 300a, 300b: recognition image
310, 310', 310", 310a, 310b: first object
311, 311', 311", 311a, 311b: second object
312, 312a, 312b: third object
320, 310", 320", 320a, 320b: First layer visualization display
321, 321', 321", 321a, 321b: second layer visualization display
322, 322a, 322b: third layer visualization display
400, 400a, 400b, 400c, 400d, 400e, 400f : original image
410, 411, 412, 410a, : object 410b, 410b' : object with occlusion
410d, 420d: Blur object 410e, 411e: Ambiguous object
410f: Distorted object 420a: Noise

Claims (7)

하나 이상의 객체를 포함한 원본 이미지를 입력받는 이미지 입력부(110);
상기 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행하는 객체 인식부(120);
상기 객체의 인식 결과를 예측한 확률에 따라 신뢰도를 산출하고, 산출된 신뢰도에 따라 인식된 객체를 미리 설정된 객체 라벨링 등급 - 여기서 객체 라벨링 등급은 '객체 인식률 상', '객체 인식률 중', '객체 인식률 하'로 구분됨 -으로 분류하는 객체 분석부(130); 및
상기 분류된 객체 라벨링 등급에 따라 인식된 객체의 인식률을 사용자가 직관적으로 인식 및 확인하여 사용자에 의한 추가 객체 인식 작업의 수행 여부를 결정할 수 있도록 서로 다른 종류의 색상(Color), 선 굵기, 선 종류, 해칭(Hatching), 폴리곤(Polygon), 큐보이드(Cuboid) 중 하나를 이용한 계층 시각화 정보로 구분하여 표시하는 객체 라벨링 처리부(140);를 포함하고,
상기 원본 이미지로부터 인식된 객체와 미인식된 객체를 사용자가 직관적으로 인식할 수 있도록 인식된 객체별로 신뢰도에 따라 분류 및 시각적으로 구분하여 출력하는 것을 특징으로 하는 계층형 출력을 이용한 영상 데이터 가공장치.
an image input unit 110 that receives an original image including one or more objects;
an object recognition unit 120 that finds an instance of an object from the input original image and performs object recognition;
Reliability is calculated according to the probability of predicting the recognition result of the object, and the recognized object is assigned a preset object labeling grade according to the calculated reliability. Classified as 'under recognition rate - object analysis unit 130 classified as; and
Different types of color, line thickness, and line type so that the user can intuitively recognize and check the recognition rate of the object recognized according to the classified object labeling level to determine whether to perform additional object recognition by the user. Including; object labeling processing unit 140 that classifies and displays hierarchical visualization information using one of hatching, polygon, and cuboid,
Image data processing apparatus using hierarchical output, characterized in that the object recognized from the original image and the unrecognized object are classified and visually classified according to reliability for each recognized object so that a user can intuitively recognize them and output them.
삭제delete 삭제delete 삭제delete a) 영상 데이터 가공장치(100)가 하나 이상의 객체를 포함한 원본 이미지를 입력받는 단계;
b) 상기 영상 데이터 가공장치(100)가 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행하는 단계;
c) 상기 영상 데이터 가공장치(100)가 객체의 인식 결과를 예측한 확률에 따라 신뢰도를 산출하고, 산출된 신뢰도에 따라 인식된 객체를 미리 설정된 객체 라벨링 등급 - 여기서 객체 라벨링 등급은 '객체 인식률 상', '객체 인식률 중', '객체 인식률 하'로 구분됨 -으로 분류하는 단계; 및
d) 상기 영상 데이터 가공장치(100)가 분류된 객체 라벨링 등급에 따라 인식된 객체의 인식률을 사용자가 직관적으로 인식 및 확인하여 사용자에 의한 추가 객체 인식 작업의 수행 여부를 결정할 수 있도록 서로 다른 종류의 색상(Color), 선 굵기, 선 종류, 해칭(Hatching), 폴리곤(Polygon), 큐보이드(Cuboid) 중 하나를 이용한 계층 시각화 정보로 구분하여 표시하는 단계;를 포함하고,
상기 원본 이미지로부터 인식된 객체와 미인식된 객체를 사용자가 직관적으로 인식할 수 있도록 인식된 객체별로 신뢰도에 따라 분류 및 시각적으로 구분하여 출력하는 것을 특징으로 하는 계층형 출력을 이용한 영상 데이터 가공방법.
a) receiving, by the video data processing device 100, an original image including one or more objects;
b) performing object recognition by finding an instance of an object from an input original image by the video data processing apparatus 100;
c) The image data processing apparatus 100 calculates reliability according to the probability of predicting the object recognition result, and assigns the recognized object to a preset object labeling level according to the calculated reliability - here, the object labeling level is 'object recognition rate'','of object recognition rate', classified into 'under object recognition rate' - classifying step; and
d) different types of images so that the user can intuitively recognize and confirm the recognition rate of the object recognized according to the object labeling class classified by the image data processing apparatus 100 and determine whether to perform an additional object recognition task by the user. Classifying and displaying hierarchical visualization information using one of color, line thickness, line type, hatching, polygon, and cuboid;
Image data processing method using hierarchical output, characterized in that the objects recognized and unrecognized from the original image are classified and visually classified according to reliability for each recognized object so that a user can intuitively recognize them.
삭제delete 삭제delete
KR1020210135022A 2021-10-12 2021-10-12 Apparatus and method for processing image data using hierachical output KR102505074B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210135022A KR102505074B1 (en) 2021-10-12 2021-10-12 Apparatus and method for processing image data using hierachical output

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210135022A KR102505074B1 (en) 2021-10-12 2021-10-12 Apparatus and method for processing image data using hierachical output

Publications (1)

Publication Number Publication Date
KR102505074B1 true KR102505074B1 (en) 2023-03-02

Family

ID=85509130

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210135022A KR102505074B1 (en) 2021-10-12 2021-10-12 Apparatus and method for processing image data using hierachical output

Country Status (1)

Country Link
KR (1) KR102505074B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101943011B1 (en) * 2018-01-22 2019-01-28 주식회사 뷰노 Method for facilitating medical image reading and apparatus using the same
KR20190051230A (en) 2017-11-06 2019-05-15 삼성전자주식회사 Electronic device and method for reliability-based ojbect recognition
KR20200066130A (en) * 2018-11-30 2020-06-09 한국전자통신연구원 Object recognition device, operating method of object recognition device, and computing device including object recognition device
KR102283673B1 (en) * 2020-11-30 2021-08-03 주식회사 코어라인소프트 Medical image reading assistant apparatus and method for adjusting threshold of diagnostic assistant information based on follow-up exam

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051230A (en) 2017-11-06 2019-05-15 삼성전자주식회사 Electronic device and method for reliability-based ojbect recognition
KR101943011B1 (en) * 2018-01-22 2019-01-28 주식회사 뷰노 Method for facilitating medical image reading and apparatus using the same
KR20200066130A (en) * 2018-11-30 2020-06-09 한국전자통신연구원 Object recognition device, operating method of object recognition device, and computing device including object recognition device
KR102283673B1 (en) * 2020-11-30 2021-08-03 주식회사 코어라인소프트 Medical image reading assistant apparatus and method for adjusting threshold of diagnostic assistant information based on follow-up exam

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J. Redmon et al., ‘You Only Look Once: United, Real-Time Objectg Detection,’ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp.779-788 (2016.06.27.) 1부.* *

Similar Documents

Publication Publication Date Title
CN109142366B (en) Spherical shell defect detection method and device and computer readable storage medium
CN110148130B (en) Method and device for detecting part defects
US20210089895A1 (en) Device and method for generating a counterfactual data sample for a neural network
CN108229485B (en) Method and apparatus for testing user interface
JP4741704B2 (en) Device, method and computer program for confirming road signs in images
CN111862064A (en) Silver wire surface flaw identification method based on deep learning
CN110264444B (en) Damage detection method and device based on weak segmentation
Parlak et al. Deep learning-based detection of aluminum casting defects and their types
CN114120349B (en) Test paper identification method and system based on deep learning
EP1583023B1 (en) Model of documents and method for automatically classifying a document
CN114549993A (en) Method, system and device for scoring line segment image in experiment and readable storage medium
JP2019220014A (en) Image analyzing apparatus, image analyzing method and program
CN114004984A (en) High-voltage cable accessory process library drawing comparison method and system
KR102505074B1 (en) Apparatus and method for processing image data using hierachical output
Castejón-Limas et al. Texture descriptors for automatic estimation of workpiece quality in milling
JP2006292615A (en) Visual examination apparatus, visual inspection method, program for making computer function as visual inspection apparatus, and recording medium
JP3696212B2 (en) Generation of image used for matching in pattern recognition, and method, apparatus, and program for pattern recognition using the image
CN112287905A (en) Vehicle damage identification method, device, equipment and storage medium
CN112052730A (en) 3D dynamic portrait recognition monitoring device and method
JPH11306325A (en) Method and device for object detection
CN117253099A (en) Image data augmentation device and method
CN113989588A (en) Self-learning-based intelligent evaluation system and method for pentagonal drawing test
RU2571510C2 (en) Method and apparatus using image magnification to suppress visible defects on image
JP2021128402A (en) Perturbation program, perturbation method, and information processing device
JP2858530B2 (en) Edge enhancement device