KR102505074B1 - Apparatus and method for processing image data using hierachical output - Google Patents
Apparatus and method for processing image data using hierachical output Download PDFInfo
- Publication number
- KR102505074B1 KR102505074B1 KR1020210135022A KR20210135022A KR102505074B1 KR 102505074 B1 KR102505074 B1 KR 102505074B1 KR 1020210135022 A KR1020210135022 A KR 1020210135022A KR 20210135022 A KR20210135022 A KR 20210135022A KR 102505074 B1 KR102505074 B1 KR 102505074B1
- Authority
- KR
- South Korea
- Prior art keywords
- recognized
- classified
- data processing
- reliability
- image data
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 title abstract description 14
- 238000002372 labelling Methods 0.000 claims abstract description 21
- 238000004458 analytical method Methods 0.000 claims abstract description 4
- 238000012800 visualization Methods 0.000 claims description 32
- 230000012447 hatching Effects 0.000 claims description 7
- 238000003672 processing method Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002620 method output Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
Description
본 발명은 계층형 출력을 이용한 영상 데이터 가공장치 및 방법에 관한 발명으로서, 더욱 상세하게는 원본 이미지로부터 객체를 인식하고, 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력하는 계층형 출력을 이용한 영상 데이터 가공장치 및 방법에 관한 것이다.The present invention relates to an image data processing apparatus and method using a hierarchical output, and more particularly, to a hierarchical output that recognizes an object from an original image, visually stratifies the object according to the reliability of the recognized object, and outputs the image data processing device and method. It relates to a video data processing device and method.
최근 인공지능(Artificial Intelligence) 기술의 발전으로 인공지능의 학습을 위한 양질의 이미지 데이터가 요구되고 있다.Recently, with the development of artificial intelligence technology, high-quality image data for artificial intelligence learning is required.
이러한 이미지 데이터는 이미지 센서를 통해 로우(raw) 이미지로 획득되고, 획득한 로우 이미지는 이미지 신호 프로세서(image signal processor: ISP)를 통해 개선된 화질의 이미지 데이터로 제공된다.Such image data is obtained as a raw image through an image sensor, and the obtained raw image is provided as improved quality image data through an image signal processor (ISP).
한편, 이미지 데이터의 가공은 사용자가 이미지 내의 주요 객체 또는 주요 영역에 대하여 비박스(B-box), 폴리곤(Polygon), 큐보이드(Cuboid) 등의 방식으로 해당 영역을 지정하고, 이를 기반으로 객체 인식을 수행할 수 있다.On the other hand, processing of image data is performed by a user designating a corresponding area in a method such as B-box, polygon, or cuboid for a main object or main area in an image, and based on this, the user designates the corresponding area. recognition can be performed.
또한, 머신 러닝(machine learning) 또는 딥 러닝(deep learning) 등의 인식 알고리즘을 이용하여 이미지 데이터에서 객체를 인식할 수도 있다.In addition, an object may be recognized from image data using a recognition algorithm such as machine learning or deep learning.
도1은 종래 기술에 따른 인공지능 학습용 데이터 가공을 설명하기 위해 나타낸 예시도이다.1 is an exemplary diagram shown to explain data processing for artificial intelligence learning according to the prior art.
도1(a)에 도시된 바와 같이, 복수의 객체(11)를 포함한 이미지(10)가 입력되면, 1차적으로 학습된 인공지능 기반의 객체 인식 모델을 이용하여 이미지(10) 내의 주요 객체(11)를 인식하여 도1(b)와 같은 인식 결과를 출력한다.As shown in FIG. 1 (a), when an
도1(b)를 참조하면 인식된 객체(11)는 이미지(10)에서 박스 형상 등을 이용하여 해당 영역(12)을 표시하여 인공지능 기반의 객체 인식 모델이 미인식한 객체(11a)와 함께 출력된다.Referring to FIG. 1 (b), the recognized
또한, 상기 인공지능 기반의 객체 인식 모델이 미인식한 객체(11a)는 도1(c)와 같이, 사용자가 수작업을 통해 이미지(10)에서 미인식 객체(11a)에 대한 추가 인식 영역(12a)을 설정하여 추가 가공된다.In addition, the
또한, 인공지능 기반의 객체 인식 모델이 없는 경우, 사용자가 이미지(10)에서 주요 객체 또는 주요 영역에 대하여 비박스(B-box), 폴리곤(Polygon), 큐보이드(Cuboid) 등을 이용하여 해당 영역을 수작업으로지정할 수 있다.In addition, when there is no artificial intelligence-based object recognition model, the user uses B-box, polygon, cuboid, etc. for the main object or main area in the
그러나, 인공지능 기반의 객체 인식 모델이 없거나, 객체 인식 모델의 성능이 낮거나, 원본 이미지의 상태 또는 객체의 상태가 나쁜 경우, 사용자가 인식된 객체와 미인식된 객체의 구분이 어려워서, 이를 검수하거나 추가 가공을 위한 작업에 많은 시간이 필요한 문제점이 있다.However, if there is no AI-based object recognition model, if the performance of the object recognition model is low, or if the state of the original image or object is bad, it is difficult for the user to distinguish between a recognized object and an unrecognized object. There is a problem that requires a lot of time for processing or additional processing.
또한, 종래 기술에 따른 인공지능 학습용 데이터 가공방법은 사용자가 인식된 객체와 미인식된 객체의 직관적인 구분이 어렵고, 인식된 객체의 신뢰도를 확인하기 어려운 문제점이 있다.In addition, the prior art data processing method for artificial intelligence learning has problems in that it is difficult for a user to intuitively distinguish between a recognized object and an unrecognized object, and it is difficult to check the reliability of a recognized object.
특히, 객체가 많거나, 객체가 흐릿(Blur)하거나, 객체가 노이즈를 많이 포함하거나, 객체가 모호하여 판단하기 어렵거나, 객체간의 폐색이 있거나, 이미지가 왜곡된 경우, 사용자가 인식된 객체에 대하여 신뢰하기 어려운 문제점이 있다.In particular, if there are many objects, objects are blurry, objects contain a lot of noise, objects are difficult to judge because they are ambiguous, there is occlusion between objects, or the image is distorted, the user is not aware of the recognized object. There are problems with unreliability.
또한, 사용자가 객체의 가공을 위한 과중한 업무로 인해 효율적인 업무 진행이 어려운 문제점이 있다.In addition, there is a problem in that it is difficult for the user to efficiently work due to heavy work for processing the object.
이러한 문제점을 해결하기 위하여, 본 발명은 원본 이미지로부터 객체를 인식하고 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력하는 계층형 출력을 이용한 영상 데이터 가공장치 및 방법을 제공하는 것을 목적으로 한다.In order to solve this problem, an object of the present invention is to provide an image data processing apparatus and method using a hierarchical output that recognizes an object from an original image and visually stratifies the object according to the reliability of the recognized object and outputs the object. .
상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 계층형 출력을 이용한 영상 데이터 가공장치로서, 하나 이상의 객체를 포함한 원본 이미지로부터 인식된 객체를 출력하되, 상기 인식된 객체에 대한 신뢰도를 산출하고, 상기 산출된 신뢰도를 기반으로 상기 인식된 객체를 분류하며, 상기 분류된 객체를 미리 설정된 계층 시각화 정보에 따라 구분되도록 표시한다.In order to achieve the above object, an embodiment of the present invention is an image data processing apparatus using hierarchical output, which outputs a recognized object from an original image including one or more objects, calculates the reliability of the recognized object, and , The recognized object is classified based on the calculated reliability, and the classified object is displayed to be classified according to preset layer visualization information.
또한, 상기 실시 예에 따른 계층 시각화 정보는 인식된 객체의 신뢰도에 따라 서로 다른 종류의 다른 색상(Color), 선 굵기, 선 종류 및 해칭(Hatching) 중 하나로 표시되는 것을 특징으로 한다.In addition, the hierarchical visualization information according to the embodiment is characterized in that it is displayed as one of different colors, line thicknesses, line types, and hatching of different types according to the reliability of the recognized object.
또한, 상기 실시 예에 따른 영상 데이터 가공장치는 하나 이상의 객체를 포함한 원본 이미지를 입력받는 이미지 입력부; 상기 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행하는 객체 인식부; 상기 객체 인식 결과를 분석하여 객체의 예측 확률에 따른 신뢰도를 산출하고, 산출된 신뢰도에 따라 인식된 객체를 분류하는 객체 분석부; 및 상기 분류된 객체를 서로 다른 종류의 색상(Color), 선 굵기, 선 종류, 해칭(Hatching) 중 하나를 이용한 계층 시각화 정보로 구분하여 표시하는 객체 라벨링 처리부;를 포함하는 것을 특징으로 한다.In addition, the image data processing apparatus according to the embodiment includes an image input unit for receiving an original image including one or more objects; an object recognition unit for finding an instance of an object from the input original image and performing object recognition; an object analyzer configured to analyze the object recognition result, calculate reliability according to the predicted probability of the object, and classify the recognized object according to the calculated reliability; and an object labeling processing unit that divides the classified objects into hierarchical visualization information using one of different types of colors, line thicknesses, line types, and hatching, and displays the classified objects.
또한, 상기 실시 예에 따른 신뢰도에 따른 인식된 객체는 미리 설정된 객체 라벨링 등급에 따라 분류되는 것을 특징으로 한다.In addition, the recognized object according to the reliability according to the embodiment is characterized in that it is classified according to a preset object labeling level.
또한, 본 발명에 따른 일 실시 예는 계층형 출력을 이용한 영상 데이터 가공방법으로서, a) 영상 데이터 가공장치가 하나 이상의 객체를 포함한 원본 이미지를 입력받는 단계; b) 상기 영상 데이터 가공장치가 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행하는 단계; c) 상기 영상 데이터 가공장치가 인식된 객체에 대한 예측 확률에 따른 신뢰도를 산출하고, 상기 산출된 신뢰도를 기반으로 인식된 객체를 분류하는 단계; 및 d) 상기 분류된 객체를 미리 설정된 계층 시각화 정보에 따라 구분되도록 표시하는 단계;를 포함한다.In addition, an embodiment according to the present invention is an image data processing method using hierarchical output, comprising: a) receiving an original image including one or more objects by an image data processing apparatus; b) performing object recognition by finding an instance of an object from an input original image by the image data processing device; c) calculating, by the image data processing device, reliability according to predicted probabilities of the recognized objects, and classifying the recognized objects based on the calculated reliability; and d) displaying the classified objects to be classified according to preset layer visualization information.
또한, 상기 실시 예에 따른 c) 단계의 신뢰도를 기반으로 인식된 객체는 미리 설정된 객체 라벨링 등급에 따라 분류되는 것을 특징으로 한다.In addition, the object recognized based on the reliability of step c) according to the embodiment is characterized in that it is classified according to a preset object labeling level.
또한, 상기 실시 예에 따른 d) 단계의 계층 시각화 정보는 인식된 객체의 신뢰도에 따라 서로 다른 종류의 다른 색상(Color), 선 굵기, 선 종류 및 해칭(Hatching) 중 하나로 표시되는 것을 특징으로 한다.In addition, the hierarchical visualization information of step d) according to the embodiment is characterized in that it is displayed in one of different colors, line thicknesses, line types, and hatching according to the reliability of the recognized object. .
본 발명은 원본 이미지로부터 객체를 인식하고 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력함으로써, 사용자가 인식된 객체의 검증 시간을 감소시킬 수 있는 장점이 있다.The present invention has an advantage in that a user can reduce verification time of a recognized object by recognizing an object from an original image and visually layering the object according to the reliability of the recognized object and outputting the object.
또한, 본 발명은 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력함으로써, 사용자가 인식된 객체와 미인식된 객체를 직관적으로 인식할 수 있는 장점이 있다.In addition, the present invention has an advantage in that a user can intuitively recognize a recognized object and an unrecognized object by visually layering and outputting objects according to the reliability of the recognized object.
또한, 본 발명은 사용자가 검수 및 가공을 위해 출력되는 표시 방식에 따라 집중해야하는 객체를 쉽게 확인할 수 있는 장점이 있다.In addition, the present invention has an advantage in that a user can easily check an object to be focused on according to a display method output for inspection and processing.
또한, 본 발명은 객체의 가공 및 검수를 위한 프로세서의 효율화를 통해 시간과 예산 비용을 감소시킬 수 있는 장점이 있다.In addition, the present invention has the advantage of reducing time and budget costs through efficiency of a processor for processing and inspecting an object.
또한, 본 발명은 객체 인식 모델의 객체 인식 신뢰도에 따른 출력과, 사용자의 가공 효율을 수치화 함으로써, 객체 인식 모델의 성능 개선에 재반영할 수 있는 장점이 있다.In addition, the present invention has the advantage of being able to reflect back on the performance improvement of the object recognition model by digitizing the output according to the object recognition reliability of the object recognition model and the user's processing efficiency.
도1은 종래 기술에 따른 인공지능 학습용 데이터 가공을 설명하기 위해 나타낸 예시도.
도2는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공장치의 구성을 나타낸 블록도.
도3은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공방법을 설명하기 위해 나타낸 흐름도.
도4는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 원본 이미지 예시도.
도5는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 인식 이미지 예시도.
도6은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 다른 인식 이미지 예시도.
도7은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 또 다른 인식 이미지 예시도.
도8은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 또 다른 인식 이미지 예시도.
도9는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공을 설명하기 위해 나타낸 또 다른 인식 이미지 예시도.Figure 1 is an exemplary diagram shown to explain data processing for artificial intelligence learning according to the prior art.
2 is a block diagram showing the configuration of an image data processing apparatus using hierarchical output according to an embodiment of the present invention.
3 is a flowchart illustrating a method of processing image data using hierarchical output according to an embodiment of the present invention;
4 is an exemplary view of an original image shown to explain image data processing using hierarchical output according to an embodiment of the present invention;
5 is an exemplary view of a recognition image shown to explain image data processing using hierarchical output according to an embodiment of the present invention.
6 is an exemplary view of another recognition image shown to explain image data processing using hierarchical output according to an embodiment of the present invention;
7 is another example of a recognized image shown to explain image data processing using hierarchical output according to an embodiment of the present invention;
8 is another example of a recognized image shown to explain image data processing using hierarchical output according to an embodiment of the present invention;
9 is another example of a recognized image shown to explain image data processing using hierarchical output according to an embodiment of the present invention.
이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to preferred embodiments of the present invention and accompanying drawings, but the same reference numerals in the drawings will be described on the premise that they refer to the same components.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다. Prior to describing specific details for the implementation of the present invention, it should be noted that configurations not directly related to the technical subject matter of the present invention are omitted within the scope of not disturbing the technical subject matter of the present invention.
또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.In addition, the terms or words used in this specification and claims are meanings and concepts consistent with the technical idea of the invention based on the principle that the inventor can define the concept of appropriate terms to best describe his/her invention. should be interpreted as
본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In this specification, the expression that a certain part "includes" a certain component means that it may further include other components, rather than excluding other components.
또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.In addition, terms such as ".. unit", ".. unit", and ".. module" refer to units that process at least one function or operation, which may be classified as hardware, software, or a combination of the two.
또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. In addition, the term "at least one" is defined as a term including singular and plural, and even if at least one term does not exist, each component may exist in singular or plural, and may mean singular or plural. would be self-evident.
또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시 예에 따라 변경가능하다 할 것이다.In addition, the singular or plural number of each component may be changed according to embodiments.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공장치 및 방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, a preferred embodiment of an image data processing apparatus and method using hierarchical output according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도2는 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공장치의 구성을 나타낸 블록도이다.2 is a block diagram showing the configuration of an image data processing apparatus using hierarchical output according to an embodiment of the present invention.
도2를 참조하면, 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공장치(100)는 하나 이상의 객체를 포함한 원본 이미지로부터 인식된 객체를 출력한다.Referring to FIG. 2 , the image
또한, 상기 영상 데이터 가공장치(100)는 인식된 객체에 대한 신뢰도를 산출할 수 있다.Also, the image
또한, 상기 영상 데이터 가공장치(100)는 산출된 신뢰도를 기반으로 상기 인식된 객체를 분류할 수 있다.Also, the image
또한, 상기 영상 데이터 가공장치(100)는 분류된 객체를 미리 설정된 계층 시각화 정보에 따라 구분되도록 표시할 수 있다.In addition, the image
이를 위해, 상기 영상 데이터 가공장치(100)는 이미지 입력부(110)와, 객체 인식부(120)와, 객체 분석부(130)와, 객체 라벨링 처리부(140)를 포함하여 구성될 수 있다.To this end, the image
상기 이미지 입력부(110)는 외부 장치로부터 제공되는 하나 이상의 객체를 포함한 원본 이미지를 입력받는다.The
상기 객체 인식부(120)는 이미지 입력부(110)에 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행할 수 있다. The
또한, 본 발명의 일 실시 예에 따른 객체 인식부(120)는 객체 인식을 위해 객체 인식 모델을 이용할 수 있는데, 머신러닝중에서 딥러닝(Deep learning)이라는 방법을 통해 만들어진 객체 인식 모델들로 구현될 수 있다.In addition, the
상기 객체 인식 모델은 그레이 스케일, 영상 이진화 등의 전처리 과정과 특징점 추출 등을 통해 객체 인식을 수행할 수 있다.The object recognition model may perform object recognition through a preprocessing process such as gray scale and image binarization and feature point extraction.
또한, 머신러닝은 복잡한 시스템이 명시적으로 프로그래밍되지 않고서, 경험으로부터 자동으로 학습하고 개선할 수 있게 하는 인공 지능의 응용이다.Machine learning is also an application of artificial intelligence that allows complex systems to learn and improve automatically from experience without being explicitly programmed.
또한, 머신러닝 모델들의 정확도 및 유효성은 그들 모델들을 훈련시키는 데 사용되는 데이터에 부분적으로 의존할 수 있다.Also, the accuracy and effectiveness of machine learning models may depend in part on the data used to train them.
따라서, 본 발명의 일 실시 예에 따른 객체 인식 모델은 하나 이상의 객체를 포함한 다수의 학습 데이터를 서로 비교한 결과 값에 기반하여 인식된 객체를 학습 데이터로 반복 학습할 수 있다.Therefore, the object recognition model according to an embodiment of the present invention may repeatedly learn a recognized object as learning data based on a value obtained by comparing a plurality of learning data including one or more objects with each other.
상기 객체 분석부(130)는 객체를 인식한 결과를 분석하여 인식된 객체에 대한 예측 확률과, 그에 따른 신뢰도를 산출할 수 있다.The
즉, 상기 객체 분석부(130)는 분류(Classifier)를 이용하여 어떤 특징(Feature)의 분포가 객체(Object)를 표현하는지 또는 그렇지 않은지를 구분하여 인식된 객체에 대한 예측 확률 값을 산출하고, 산출된 예측 확률 값, 또는 산출된 예측 확률 값을 기반으로 객체 여부에 대한 신뢰도를 산출하여 제공할 수 있다.That is, the
또한, 상기 객체 분석부(130)는 산출된 신뢰도에 따라 인식된 객체를 미리 설정된 객체 라벨링 등급에 따라 분류할 수 있다.Also, the
즉, 신뢰도에 따라 인식된 객체를 미리 설정된 등급, 예를 들어 '객체 인식률 상', '객체 인식률 중', '객체 인식률 하' 등의 객체 라벨링 등급으로 분류할 수 있다.That is, the recognized object may be classified according to the reliability into a preset level, for example, an object labeling level such as 'above the object recognition rate', 'among the object recognition rate', and 'under the object recognition rate'.
상기 객체 라벨렝 처리부(140)는 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 색상(Color)을 이용한 계층 시각화 정보로 표시하여 출력할 수 있다.The object
또한, 상기 객체 라벨링 처리부(140)는 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 선 굵기, 예를 들어 '1㎜ 두께선', '5㎜ 두께선', '10㎜ 두께선' 등을 이용한 계층 시각화 정보로 표시하여 출력할 수도 있다.In addition, the object
또한, 상기 객체 라벨링 처리부(140)는 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 선 종류, 예를 들어, '실선', '점선', '짧은 점선' 등을 이용한 계층 시각화 정보로 표시하여 출력할 수도 있다.In addition, the object
또한, 상기 객체 라벨링 처리부(140)는 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 해칭(Hatching)을 이용한 계층 시각화 정보로 표시하여 출력함으로써, 인식된 객체의 인식률에 대하여 사용자가 직관적으로 인식 및 확인할 수 있도록 하여 사용자에 의한 추가 객체 인식 작업에 대한 신속한 결정이 이루어질 수 있도록 한다. In addition, the object
다음은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공방법을 설명한다.Next, an image data processing method using hierarchical output according to an embodiment of the present invention will be described.
도3은 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공방법을 설명하기 위해 나타낸 흐름도이다.3 is a flowchart illustrating an image data processing method using hierarchical output according to an embodiment of the present invention.
도2 및 도3을 참조하면, 본 발명의 일 실시 예에 따른 계층형 출력을 이용한 영상 데이터 가공방법은 도4와 같이, 영상 데이터 가공장치(100)가 하나 이상의 객체(210)를 포함한 원본 이미지(200)를 입력(S100)받는다.2 and 3, in the image data processing method using hierarchical output according to an embodiment of the present invention, as shown in FIG. 4, the image
상기 영상 데이터 가공장치(100)는 S100 단계에서 입력된 원본 이미지를 객체 인식 모델을 이용하여 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행(S200)한다.The video
상기 영상 데이터 가공장치(100)는 S200 단계에서 인식된 객체에 대한 예측 확률과 그에 따른 신뢰도를 산출(S300)한다.The image
즉, 상기 S300 단계는 분류(Classifier)를 이용하여 어떤 특징(Feature)의 분포가 객체(Object)를 표현하는지 또는 그렇지 않은지를 구분하여 인식된 객체에 대한 예측 확률 값을 산출하여 신뢰도를 분석한다.That is, in the step S300, reliability is analyzed by calculating a predicted probability value for a recognized object by distinguishing which feature distribution represents an object or not by using a classifier.
상기 S300 단계에서 산출된 예측 확률 값은 예를 들어 객체 인식률의 '상', '중', '하'를 평가하기 위한 기준 값과 비교 및 판단(S400)하고, S400 단계의 판단 결과에 따라 신뢰도를 기반으로 인식된 객체를 객체 라벨링 등급에 따라 분류(S500)한다.The predicted probability value calculated in step S300 is compared with and determined (S400) with reference values for evaluating 'high', 'middle', and 'low' of the object recognition rate, and the reliability level is determined according to the determination result of step S400. The recognized object is classified according to the object labeling level based on (S500).
상기 영상 데이터 가공장치(1000는 S500 단계에서 분류된 객체를 상기 객체 라벨링 등급에 따라 설정된 계층 시각화 정보에 기반하여 구분하고, 상기 구분된 계층 시각화 정보에 따라 인식된 객체와 함께 표시하는 객체 라벨링을 수행(S600)한다. The image data processing apparatus 1000 performs object labeling in which the objects classified in step S500 are classified based on layer visualization information set according to the object labeling class and displayed together with objects recognized according to the classified layer visualization information. (S600).
즉, 도5와 같이 인식 이미지(300)에 분류된 객체, 예를 들어 제1 객체(310), 제2 객체(311), 제3 객체(312)를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 색상(Color)을 이용한 제1 계층 시각화 표시(320), 제2 계층 시각화 표시(321), 제3 계층 시각화 표시(322) 정보로 표시하여 출력할 수 있다.That is, as shown in FIG. 5, the objects classified in the
또한, 도6과 같이, 인식 이미지(300a)에 분류된 객체, 예를 들어 제1 객체(310a), 제2 객체(311a), 제3 객체(312a)를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 선 굵기, 예를 들어 '1㎜ 두께선'을 사용한 제1 계층 시각화 표시(320a), '5㎜ 두께선'을 사용한 제2 계층 시각화 표시(321a), '10㎜ 두께선'을 사용한 제3 계층 시각화 표시(322a) 정보로 표시하여 출력할 수도 있다.In addition, as shown in FIG. 6, the objects classified in the
또한, 도7과 같이, 인식 이미지(300b)에 분류된 객체, 예를 들어 제1 객체(310b), 제2 객체(311b), 제3 객체(312b)를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 선 종류, 예를 들어, '실선'을 사용한 제1 계층 시각화 표시(320b), '점선'을 사용한 제2 계층 시각화 표시(321b), '짧은 점선'을 사용한 제3 계층 시각화 표시(322b) 정보로 표시하여 출력할 수도 있다.In addition, as shown in FIG. 7, the objects classified in the
또한, 분류된 객체를 사용자가 쉽게 인식 및 구분할 수 있도록 서로 다른 종류의 해칭(Hatching)을 이용한 계층 시각화 정보로 표시하여 출력함으로써, 인식된 객체의 인식률에 대하여 사용자가 직관적으로 인식 및 확인할 수 있도록 하여 사용자에 의한 추가 객체 인식 작업에 대한 신속한 결정이 이루어질 수 있도록 한다.In addition, the classified objects are displayed and output as hierarchical visualization information using different types of hatching so that users can easily recognize and distinguish them, so that users can intuitively recognize and check the recognition rate of recognized objects. Allows a quick decision on further object recognition tasks by the user to be made.
한편, 본 발명의 실시 예에서는 비박스를 이용하여 인식된 객체에 대한 계층 시각화 표시 정보가 출력되도록 설명하였지만, 이에 한정되는 것은 아니고, 도8과 같이 폴리곤(Polygon)을 이용하여 인식 이미지(300')에 포함된 제1 객체(310') 및 제2 객체(311')에 대한 제1 계층 시각화 표시(320') 및 제2 계층 시각화 표시(321') 정보를 표시할 수도 있다.On the other hand, in the embodiment of the present invention, it has been described that hierarchical visualization display information for objects recognized using a bi-box is output, but it is not limited thereto, and the recognition image 300' using a polygon as shown in FIG. The first layer visualization display 320' and the second layer visualization display 321' information for the first object 310' and the second object 311' included in ) may be displayed.
또한, 큐보이드(Cuboid)를 이용하여 인식 이미지(300")에 포함된 제1 객체(310") 및 제2 객체(311")에 대한 제1 계층 시각화 표시(320") 및 제2 계층 시각화 표시(321") 정보를 표시할 수도 있다.In addition, a first
또한, 도9(a)와 같이 다수의 객체(410, 411, 412)가 포함된 원본 이미지(400), 도9(b)와 같은 객체(410a)와 노이즈(420a)가 포함된 원본 이미지(400a), 도9(c)와 같은 객체(410b)와 객체(410b')간에 폐색이 포함된 원본 이미지(400c), 도9(d)와 같은 블러 객체(410d, 420d)를 포함한 원본 이미지(400d), 도9(e)와 같은 모호한 객체(410e, 411e)를 포함한 원본 이미지(400e), 도9(f)와 같은 왜곡된 객체(410f)를 포함한 원본 이미지(400f)에도 객체에 대한 계층 시각화된 표시를 이용하여 표시함으로써 사용자가 인식된 객체의 검증 시간을 감소시킬 수 있다.In addition, an
따라서, 원본 이미지로부터 객체를 인식하고 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력함으로써, 사용자가 인식된 객체의 검증 시간을 감소시킬 수 있다.Therefore, by recognizing an object from an original image and visually layering the object according to the reliability of the recognized object, the user can reduce the verification time of the recognized object.
또한, 인식된 객체의 신뢰도에 따라 객체를 시각적으로 계층화시켜 출력함으로써, 사용자가 인식된 객체와 미인식된 객체를 직관적으로 인식할 수 있다.In addition, the user can intuitively recognize the recognized object and the unrecognized object by visually layering and outputting the objects according to the reliability of the recognized object.
또한, 사용자가 검수 및 가공을 위해 출력되는 표시 방식에 따라 집중해야하는 객체를 쉽게 확인할 수 있고, 객체의 가공 및 검수를 위한 프로세서의 효율화를 통해 시간과 예산 비용을 감소시킬 수 있다.In addition, a user can easily check an object to be focused on according to a display method output for inspection and processing, and time and budget costs can be reduced through efficiency of a processor for processing and inspection of an object.
또한, 객체 인식 모델의 객체 인식 신뢰도에 따른 출력과, 사용자의 가공 효율을 수치화 함으로써, 객체 인식 모델의 성능 개선에 재반영할 수 있다.In addition, by quantifying the output according to the object recognition reliability of the object recognition model and the user's processing efficiency, it can be reflected again in the performance improvement of the object recognition model.
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, although it has been described with reference to the preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.
또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.In addition, the drawing numbers described in the claims of the present invention are only described for clarity and convenience of explanation, but are not limited thereto, and in the process of describing the embodiments, the thickness of lines or the size of components shown in the drawings, etc. may be exaggerated for clarity and convenience of description.
또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the above-mentioned terms are terms defined in consideration of functions in the present invention, which may change according to the intention or custom of the user or operator, so the interpretation of these terms should be made based on the contents throughout this specification. .
또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다. In addition, even if it is not explicitly shown or described, a person skilled in the art to which the present invention belongs can make various modifications from the description of the present invention to the technical idea according to the present invention. Obviously, it is still within the scope of the present invention.
또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.In addition, the above embodiments described with reference to the accompanying drawings are described for the purpose of explaining the present invention, and the scope of the present invention is not limited to these embodiments.
100 : 영상 데이터 가공장치 110 : 이미지 입력부
120 : 객체 인식부 130 : 객체 분석부
140 : 객체 라벨링 처리부 200 : 원본 이미지
210 : 객체
300, 300', 300", 300a, 300b : 인식 이미지
310, 310', 310", 310a, 310b : 제1 객체
311, 311', 311", 311a, 311b : 제2 객체
312, 312a, 312b : 제3 객체
320, 310", 320", 320a, 320b : 제1 계층 시각화 표시
321, 321', 321", 321a, 321b : 제2 계층 시각화 표시
322, 322a, 322b : 제3 계층 시각화 표시
400, 400a, 400b, 400c, 400d, 400e, 400f : 원본 이미지
410, 411, 412, 410a, : 객체 410b, 410b' : 폐색이 있는 객체
410d, 420d : 블러(Blur) 객체 410e, 411e : 모호한 객체
410f : 왜곡된 객체 420a : 노이즈100: image data processing device 110: image input unit
120: object recognition unit 130: object analysis unit
140: object labeling processing unit 200: original image
210: object
300, 300', 300", 300a, 300b: recognition image
310, 310', 310", 310a, 310b: first object
311, 311', 311", 311a, 311b: second object
312, 312a, 312b: third object
320, 310", 320", 320a, 320b: First layer visualization display
321, 321', 321", 321a, 321b: second layer visualization display
322, 322a, 322b: third layer visualization display
400, 400a, 400b, 400c, 400d, 400e, 400f : original image
410, 411, 412, 410a, :
410d, 420d:
410f:
Claims (7)
상기 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행하는 객체 인식부(120);
상기 객체의 인식 결과를 예측한 확률에 따라 신뢰도를 산출하고, 산출된 신뢰도에 따라 인식된 객체를 미리 설정된 객체 라벨링 등급 - 여기서 객체 라벨링 등급은 '객체 인식률 상', '객체 인식률 중', '객체 인식률 하'로 구분됨 -으로 분류하는 객체 분석부(130); 및
상기 분류된 객체 라벨링 등급에 따라 인식된 객체의 인식률을 사용자가 직관적으로 인식 및 확인하여 사용자에 의한 추가 객체 인식 작업의 수행 여부를 결정할 수 있도록 서로 다른 종류의 색상(Color), 선 굵기, 선 종류, 해칭(Hatching), 폴리곤(Polygon), 큐보이드(Cuboid) 중 하나를 이용한 계층 시각화 정보로 구분하여 표시하는 객체 라벨링 처리부(140);를 포함하고,
상기 원본 이미지로부터 인식된 객체와 미인식된 객체를 사용자가 직관적으로 인식할 수 있도록 인식된 객체별로 신뢰도에 따라 분류 및 시각적으로 구분하여 출력하는 것을 특징으로 하는 계층형 출력을 이용한 영상 데이터 가공장치.an image input unit 110 that receives an original image including one or more objects;
an object recognition unit 120 that finds an instance of an object from the input original image and performs object recognition;
Reliability is calculated according to the probability of predicting the recognition result of the object, and the recognized object is assigned a preset object labeling grade according to the calculated reliability. Classified as 'under recognition rate - object analysis unit 130 classified as; and
Different types of color, line thickness, and line type so that the user can intuitively recognize and check the recognition rate of the object recognized according to the classified object labeling level to determine whether to perform additional object recognition by the user. Including; object labeling processing unit 140 that classifies and displays hierarchical visualization information using one of hatching, polygon, and cuboid,
Image data processing apparatus using hierarchical output, characterized in that the object recognized from the original image and the unrecognized object are classified and visually classified according to reliability for each recognized object so that a user can intuitively recognize them and output them.
b) 상기 영상 데이터 가공장치(100)가 입력된 원본 이미지로부터 객체의 인스턴스(Instance)를 찾아 객체 인식(Object recognition)을 수행하는 단계;
c) 상기 영상 데이터 가공장치(100)가 객체의 인식 결과를 예측한 확률에 따라 신뢰도를 산출하고, 산출된 신뢰도에 따라 인식된 객체를 미리 설정된 객체 라벨링 등급 - 여기서 객체 라벨링 등급은 '객체 인식률 상', '객체 인식률 중', '객체 인식률 하'로 구분됨 -으로 분류하는 단계; 및
d) 상기 영상 데이터 가공장치(100)가 분류된 객체 라벨링 등급에 따라 인식된 객체의 인식률을 사용자가 직관적으로 인식 및 확인하여 사용자에 의한 추가 객체 인식 작업의 수행 여부를 결정할 수 있도록 서로 다른 종류의 색상(Color), 선 굵기, 선 종류, 해칭(Hatching), 폴리곤(Polygon), 큐보이드(Cuboid) 중 하나를 이용한 계층 시각화 정보로 구분하여 표시하는 단계;를 포함하고,
상기 원본 이미지로부터 인식된 객체와 미인식된 객체를 사용자가 직관적으로 인식할 수 있도록 인식된 객체별로 신뢰도에 따라 분류 및 시각적으로 구분하여 출력하는 것을 특징으로 하는 계층형 출력을 이용한 영상 데이터 가공방법.a) receiving, by the video data processing device 100, an original image including one or more objects;
b) performing object recognition by finding an instance of an object from an input original image by the video data processing apparatus 100;
c) The image data processing apparatus 100 calculates reliability according to the probability of predicting the object recognition result, and assigns the recognized object to a preset object labeling level according to the calculated reliability - here, the object labeling level is 'object recognition rate'','of object recognition rate', classified into 'under object recognition rate' - classifying step; and
d) different types of images so that the user can intuitively recognize and confirm the recognition rate of the object recognized according to the object labeling class classified by the image data processing apparatus 100 and determine whether to perform an additional object recognition task by the user. Classifying and displaying hierarchical visualization information using one of color, line thickness, line type, hatching, polygon, and cuboid;
Image data processing method using hierarchical output, characterized in that the objects recognized and unrecognized from the original image are classified and visually classified according to reliability for each recognized object so that a user can intuitively recognize them.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210135022A KR102505074B1 (en) | 2021-10-12 | 2021-10-12 | Apparatus and method for processing image data using hierachical output |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210135022A KR102505074B1 (en) | 2021-10-12 | 2021-10-12 | Apparatus and method for processing image data using hierachical output |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102505074B1 true KR102505074B1 (en) | 2023-03-02 |
Family
ID=85509130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210135022A KR102505074B1 (en) | 2021-10-12 | 2021-10-12 | Apparatus and method for processing image data using hierachical output |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102505074B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101943011B1 (en) * | 2018-01-22 | 2019-01-28 | 주식회사 뷰노 | Method for facilitating medical image reading and apparatus using the same |
KR20190051230A (en) | 2017-11-06 | 2019-05-15 | 삼성전자주식회사 | Electronic device and method for reliability-based ojbect recognition |
KR20200066130A (en) * | 2018-11-30 | 2020-06-09 | 한국전자통신연구원 | Object recognition device, operating method of object recognition device, and computing device including object recognition device |
KR102283673B1 (en) * | 2020-11-30 | 2021-08-03 | 주식회사 코어라인소프트 | Medical image reading assistant apparatus and method for adjusting threshold of diagnostic assistant information based on follow-up exam |
-
2021
- 2021-10-12 KR KR1020210135022A patent/KR102505074B1/en active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190051230A (en) | 2017-11-06 | 2019-05-15 | 삼성전자주식회사 | Electronic device and method for reliability-based ojbect recognition |
KR101943011B1 (en) * | 2018-01-22 | 2019-01-28 | 주식회사 뷰노 | Method for facilitating medical image reading and apparatus using the same |
KR20200066130A (en) * | 2018-11-30 | 2020-06-09 | 한국전자통신연구원 | Object recognition device, operating method of object recognition device, and computing device including object recognition device |
KR102283673B1 (en) * | 2020-11-30 | 2021-08-03 | 주식회사 코어라인소프트 | Medical image reading assistant apparatus and method for adjusting threshold of diagnostic assistant information based on follow-up exam |
Non-Patent Citations (1)
Title |
---|
J. Redmon et al., ‘You Only Look Once: United, Real-Time Objectg Detection,’ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp.779-788 (2016.06.27.) 1부.* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109142366B (en) | Spherical shell defect detection method and device and computer readable storage medium | |
CN110148130B (en) | Method and device for detecting part defects | |
US20210089895A1 (en) | Device and method for generating a counterfactual data sample for a neural network | |
CN108229485B (en) | Method and apparatus for testing user interface | |
JP4741704B2 (en) | Device, method and computer program for confirming road signs in images | |
CN111862064A (en) | Silver wire surface flaw identification method based on deep learning | |
CN110264444B (en) | Damage detection method and device based on weak segmentation | |
Parlak et al. | Deep learning-based detection of aluminum casting defects and their types | |
CN114120349B (en) | Test paper identification method and system based on deep learning | |
EP1583023B1 (en) | Model of documents and method for automatically classifying a document | |
CN114549993A (en) | Method, system and device for scoring line segment image in experiment and readable storage medium | |
JP2019220014A (en) | Image analyzing apparatus, image analyzing method and program | |
CN114004984A (en) | High-voltage cable accessory process library drawing comparison method and system | |
KR102505074B1 (en) | Apparatus and method for processing image data using hierachical output | |
Castejón-Limas et al. | Texture descriptors for automatic estimation of workpiece quality in milling | |
JP2006292615A (en) | Visual examination apparatus, visual inspection method, program for making computer function as visual inspection apparatus, and recording medium | |
JP3696212B2 (en) | Generation of image used for matching in pattern recognition, and method, apparatus, and program for pattern recognition using the image | |
CN112287905A (en) | Vehicle damage identification method, device, equipment and storage medium | |
CN112052730A (en) | 3D dynamic portrait recognition monitoring device and method | |
JPH11306325A (en) | Method and device for object detection | |
CN117253099A (en) | Image data augmentation device and method | |
CN113989588A (en) | Self-learning-based intelligent evaluation system and method for pentagonal drawing test | |
RU2571510C2 (en) | Method and apparatus using image magnification to suppress visible defects on image | |
JP2021128402A (en) | Perturbation program, perturbation method, and information processing device | |
JP2858530B2 (en) | Edge enhancement device |