KR102186751B1 - Apparatus and method for improving multiple recognition and recognition rate of classification using object detection - Google Patents

Apparatus and method for improving multiple recognition and recognition rate of classification using object detection Download PDF

Info

Publication number
KR102186751B1
KR102186751B1 KR1020190109997A KR20190109997A KR102186751B1 KR 102186751 B1 KR102186751 B1 KR 102186751B1 KR 1020190109997 A KR1020190109997 A KR 1020190109997A KR 20190109997 A KR20190109997 A KR 20190109997A KR 102186751 B1 KR102186751 B1 KR 102186751B1
Authority
KR
South Korea
Prior art keywords
recognition
class
image
extracted
unit
Prior art date
Application number
KR1020190109997A
Other languages
Korean (ko)
Inventor
정한별
김경훈
Original Assignee
주식회사 아이에스피디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이에스피디 filed Critical 주식회사 아이에스피디
Priority to KR1020190109997A priority Critical patent/KR102186751B1/en
Application granted granted Critical
Publication of KR102186751B1 publication Critical patent/KR102186751B1/en

Links

Images

Classifications

    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Provided are a device and a method for multiple recognition and recognition rate improvement of classification using object detection capable of improving a recognition rate (recognition performance) of each object existing in an input image such as a preview image. The provided device comprises: an object area detection unit detecting one or more object areas in an input image; an object area extraction unit extracting the detected one or more object areas; an adjustment unit processing and correcting the extracted one or more object areas to output a plurality of images for each object area; an accuracy calculation unit calculating an accuracy value corresponding to a matching rate with a pre-stored classification model for each of the plurality of images which are adjusted and outputted by the adjustment unit for each extracted object area; and an object name designation unit designating an object name for the corresponding object area based on results calculated by the accuracy calculation unit.

Description

객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치 및 방법{Apparatus and method for improving multiple recognition and recognition rate of classification using object detection}TECHNICAL FIELD [Apparatus and method for improving multiple recognition and recognition rate of classification using object detection}

본 발명은 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치 및 방법에 관한 것으로, 보다 상세하게는 프리뷰 영상과 같은 입력 영상내에 존재하는 하나 이상의 객체를 인식해 내는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recognizing multiple objects and improving recognition rate of a class using object detection, and more particularly, to an apparatus and method for recognizing one or more objects present in an input image such as a preview image.

프리뷰 영상과 같은 입력 영상내에 존재하는 객체를 인식하기 위해, 통상적으로 영상 분류(Classification) 기법을 많이 사용한다.In order to recognize an object existing in an input image such as a preview image, an image classification technique is commonly used.

영상 분류 기법은 주어진 입력 영상내에 어느 특정한 클래스에 해당하는 사물이 포함되어 있는지의 여부를 파악하는 것으로서, 예컨대 주어진 입력 영상내에 클래스 x의 사물이 존재할 가능성이 어느 정도인지를 통해 파악할 수 있다. 여기서, 클래스는 고양이, 개, 오리 등이 될 수 있다. The image classification technique is to determine whether an object corresponding to a specific class is included in a given input image. For example, it can be determined through how likely an object of class x exists in a given input image. Here, the class may be a cat, dog, or duck.

영상 분류 기법의 경우, 도 1에서와 같은 입력 영상에는 고양이가 존재하는 것으로 인식할 수 있다.In the case of the image classification technique, it may be recognized that a cat is present in the input image as shown in FIG. 1.

이러한 종래의 영상 분류 기법은 클래스별로 벤치마크 데이터세트(예컨대, 사진 형태)를 미리 수집해 두되, 벤치마크 데이터세트는 여러 각도, 밝기, 종류 등의 사진을 포함한다. 그리고 나서, 다양한 벤치마크 데이터세트를 근거로 머신 러닝(machine learning)을 하여 각각의 클래스를 구분하는 분류 모델(classification model)을 생성한다. 즉, 클래스별로 대표적인 1개의 분류 모델이 생성될 수 있다. 이후, 테스트 영상이 입력되면 분류 모델을 근거로 해당 테스트 영상내의 객체(사물)를 분류(구분)해 낸다.In such a conventional image classification technique, a benchmark dataset (eg, photo format) is previously collected for each class, but the benchmark dataset includes photos of various angles, brightness, and types. Then, based on various benchmark datasets, machine learning is performed to create a classification model that classifies each class. That is, one representative classification model may be generated for each class. Thereafter, when the test image is input, the object (object) in the test image is classified (classified) based on the classification model.

그런데, 종래의 영상 분류 기법의 경우, 각각의 클래스를 구분하는 분류 모델을 생성하기 위해서는 각각의 클래스별로 상당히 많은 수의 사진이 필요하다.However, in the case of the conventional image classification technique, a considerably large number of pictures are required for each class in order to generate a classification model for classifying each class.

그리고, 종래의 영상 분류 기법은 입력 영상내에서 분류해 내야 할 객체(사물)의 갯수가 적을 경우에는 큰 문제가 없겠지만, 분류해야 할 객체(사물)가 상당히 많을 때에는 많은 착오가 발생한다.In addition, the conventional image classification technique does not have a big problem when the number of objects (things) to be classified in an input image is small, but a lot of errors occur when there are a lot of objects (objects) to be classified.

또한, 객체(사물; 예컨대, 고양이)를 찍는 각도 및 밝기 요소 등의 촬영 환경에 따라 영상 분류 기법에 의한 인식률(인식 성능)이 떨어진다.In addition, the recognition rate (recognition performance) by the image classification technique is deteriorated according to the photographing environment, such as an angle and a brightness factor in which an object (object, for example, a cat) is photographed.

선행기술 1 : 대한민국 등록특허 제10-1995294호(영상 분석 장치 및 방법)Prior Art 1: Korean Patent Registration No. 10-1995294 (Image analysis apparatus and method) 선행기술 2 : 대한민국 등록특허 제10-1907883호(객체 검출 및 분류 방법)Prior Art 2: Korean Patent Registration No. 10-1907883 (Object detection and classification method) 선행기술 3 : 대한민국 등록특허 제10-1829386호(표적 검출 장치 및 방법)Prior Art 3: Korean Patent Registration No. 10-1829386 (target detection device and method)

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 프리뷰 영상과 같은 입력 영상내에 존재하는 각각의 객체에 대한 인식률(인식 성능)을 개선시킬 수 있는 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed in order to solve the above-described problems in the related art, and multiple recognition of the classification using object detection capable of improving the recognition rate (recognition performance) for each object existing in an input image such as a preview image. And an apparatus and method for improving recognition rate.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치는, 입력 영상에서 하나 이상의 객체 영역을 검출하는 객체 영역 검출부; 상기 검출된 하나 이상의 객체 영역을 추출하는 객체 영역 추출부; 상기 추출된 하나 이상의 객체 영역을 가공 및 보정하여 객체 영역별로 다수의 영상을 출력하는 조정부; 상기 추출된 객체 영역별로 상기 조정부에서 조정되어 출력되는 다수의 영상의 각각에 대하여 기저장된 분류 모델과의 일치율에 해당하는 정확도 값을 계산해 내는 정확도 계산부; 및 상기 정확도 계산부에서 계산된 결과들을 근거로 해당 객체 영역에 대한 객체명을 지정하는 객체명 지정부;를 포함한다.In order to achieve the above object, an apparatus for multiple recognition and recognition rate improvement of a class using object detection according to a preferred embodiment of the present invention includes: an object region detection unit for detecting one or more object regions in an input image; An object region extraction unit extracting the detected one or more object regions; An adjustment unit processing and correcting the extracted one or more object regions to output a plurality of images for each object region; An accuracy calculation unit for calculating an accuracy value corresponding to a matching rate with a pre-stored classification model for each of the plurality of images adjusted and output by the adjustment unit for each of the extracted object regions; And an object name designation unit that designates an object name for a corresponding object area based on the results calculated by the accuracy calculation unit.

상기 입력 영상은 프리뷰(preview) 영상일 수 있다.The input image may be a preview image.

상기 가공은, 상기 추출된 객체 영역을 좌/우/상/하 방향으로 소정각도 움직인 영상을 만들어 내는 것일 수 있다.The processing may be to create an image in which the extracted object area is moved by a predetermined angle in the left/right/upward/downward directions.

상기 보정은, 상기 추출된 객체 영역에 대해 밝기 및 콘트라스트 중에서 하나 이상을 조정한 영상을 만들어 내는 것일 수 있다.The correction may be to generate an image obtained by adjusting at least one of brightness and contrast for the extracted object area.

상기 객체명 지정부는, 상기 다수의 영상의 각각에 대한 정확도 값을 합산한 후에 평균값을 계산해 내고, 상기 계산된 평균값이 기설정된 임계값 이상이면 해당 분류 모델에 상응하는 객체명을 해당 객체 영역에 대한 객체명으로 지정할 수 있다.The object name designation unit calculates an average value after summing the accuracy values for each of the plurality of images, and if the calculated average value is greater than or equal to a preset threshold, the object name corresponding to the classification model is assigned to the object area. Can be specified by object name.

한편, 본 발명의 바람직한 실시양태에 따른 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법은, 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치에서의 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법으로서, 입력 영상에서 하나 이상의 객체 영역을 검출하는 단계; 상기 검출된 하나 이상의 객체 영역을 추출하는 단계; 상기 추출된 하나 이상의 객체 영역을 가공 및 보정하여 객체 영역별로 다수의 영상을 출력하는 단계; 상기 추출된 객체 영역별로 가공 및 보정되어 출력되는 다수의 영상의 각각에 대하여 기저장된 분류 모델과의 일치율에 해당하는 정확도 값을 계산해 내는 단계; 및 상기 계산된 결과들을 근거로 해당 객체 영역에 대한 객체명을 지정하는 단계;를 포함한다.On the other hand, a method for multi-recognition and recognition rate improvement of a class using object detection according to a preferred embodiment of the present invention is a method of classifying a class using object detection in an apparatus for multiple recognition and recognition rate improvement using object detection. A method of multiple recognition and recognition rate improvement, the method comprising: detecting one or more object regions in an input image; Extracting the detected one or more object regions; Processing and correcting the extracted one or more object regions to output a plurality of images for each object region; Calculating an accuracy value corresponding to a matching rate with a pre-stored classification model for each of the plurality of images processed and corrected for each of the extracted object regions and output; And designating an object name for a corresponding object area based on the calculated results.

이러한 구성의 본 발명에 따르면, 입력 영상의 객체 영역을 여러 환경에 맞게 가공 및 보정하고 이들을 근거로 해당 객체 영역내의 객체를 분류(구분)해 냄으로써, 프리뷰 영상과 같은 입력 영상내에 존재하는 각각의 객체에 대한 인식률(인식 성능)을 향상시킬 수 있다.According to the present invention with such a configuration, each object existing in the input image such as the preview image is processed and corrected according to various environments and objects in the corresponding object area are classified based on these. It is possible to improve the recognition rate (recognition performance) of.

도 1은 종래의 영상 분류 기법 설명에 채용되는 예시적인 도면이다.
도 2는 본 발명의 실시예에 따른 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치의 블럭구성도이다.
도 3은 도 2에 도시된 객체 영역 검출부의 설명에 채용되는 예시적인 도면이다.
도 4는 도 2에 도시된 객체 추출부의 설명에 채용되는 예시적인 도면이다.
도 5는 도 2에 도시된 조정부의 설명에 채용되는 예시적인 도면이다.
도 6은 도 2에 도시된 정확도 계산부의 설명에 채용되는 예시적인 도면이다.
도 7은 본 발명의 실시예에 따른 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법을 설명하기 위한 플로우차트이다.
도 8은 도 7의 설명에 채용되는 예시적인 도면이다.
1 is an exemplary diagram employed to describe a conventional image classification technique.
2 is a block diagram of an apparatus for multi-recognition and recognition rate improvement of a class using object detection according to an embodiment of the present invention.
FIG. 3 is an exemplary diagram employed to describe the object area detection unit shown in FIG. 2.
FIG. 4 is an exemplary diagram employed to describe the object extraction unit shown in FIG. 2.
FIG. 5 is an exemplary diagram employed to describe the adjustment unit shown in FIG. 2.
6 is an exemplary diagram employed to describe the accuracy calculation unit shown in FIG. 2.
7 is a flowchart for explaining a method of multi-recognition and recognition rate improvement of a class using object detection according to an embodiment of the present invention.
8 is an exemplary diagram employed in the description of FIG. 7.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate an overall understanding, the same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted.

도 2는 본 발명의 실시예에 따른 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치의 블럭구성도이고, 도 3은 도 2에 도시된 객체 영역 검출부의 설명에 채용되는 예시적인 도면이고, 도 4는 도 2에 도시된 객체 추출부의 설명에 채용되는 예시적인 도면이고, 도 5는 도 2에 도시된 조정부의 설명에 채용되는 예시적인 도면이고, 도 6은 도 2에 도시된 정확도 계산부의 설명에 채용되는 예시적인 도면이다.FIG. 2 is a block diagram of an apparatus for multiple recognition and recognition rate improvement of a class using object detection according to an embodiment of the present invention, and FIG. 3 is an exemplary diagram employed in the description of the object region detection unit shown in FIG. , FIG. 4 is an exemplary diagram employed in the description of the object extracting unit shown in FIG. 2, FIG. 5 is an exemplary diagram employed in the description of the adjustment unit shown in FIG. 2, and FIG. 6 is an accuracy calculation shown in FIG. It is an exemplary diagram employed in the description of the part.

본 발명의 실시예에 따른 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치는 카메라(camera) 기능이 내장된 전자 장치(예컨대, 스마트폰, 태블릿 PC, 이동 전화기 등), 카메라에 채용가능하다.The apparatus for multiple recognition and recognition rate improvement of a class using object detection according to an embodiment of the present invention can be employed in electronic devices (eg, smartphones, tablet PCs, mobile phones, etc.) and cameras with built-in camera functions. Do.

그리고, 상술한 전자 장치는 상기에서 예시한 것 이외로, 카메라 기능이 내장된 것이라면 어떠한 전자 장치라도 무방하다.In addition, the above-described electronic device may be any electronic device as long as it has a built-in camera function other than those exemplified above.

본 발명의 실시예에 따른 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치는, 객체 영역 검출부(10), 객체 영역 추출부(20), 조정부(30), 정확도 계산부(40), 및 객체명 지정부(50)를 포함한다.According to an embodiment of the present invention, an apparatus for multiple recognition and recognition rate improvement of a class using object detection includes an object area detection unit 10, an object area extraction unit 20, an adjustment unit 30, an accuracy calculation unit 40, And an object name designation unit 50.

객체 영역 검출부(10)는 입력 영상에서 하나 이상의 객체 영역을 검출한다.The object region detection unit 10 detects one or more object regions in the input image.

여기서, 입력 영상은 하나 이상의 객체(사물)를 포함하는 영상으로서, 프리뷰(preview) 영상일 수 있다.Here, the input image is an image including one or more objects (objects), and may be a preview image.

따라서, 객체 영역 검출부(10)는 인공지능 사물 검출(object detection) 기법을 사용하여 도 3에 예시한 바와 같이 입력 영상에서 객체 영역을 검출해 낼 수 있다. 도 3은 객체(예컨대, 고양이)가 하나인 경우를 보여주는데, 객체 영역 검출부(10)는 객체가 존재하는 것으로 여겨지는 부분을 박스 형태로 감싸는 윤곽선(12)으로 표시함으로써 객체 영역을 검출할 수 있다.Accordingly, the object region detection unit 10 may detect the object region from the input image, as illustrated in FIG. 3 using an artificial intelligence object detection technique. 3 shows a case in which there is only one object (eg, a cat). The object area detection unit 10 may detect the object area by displaying the area where the object is considered to be present in a box-shaped outline 12. .

결국, 윤곽선(12) 내부의 영역이 관심영역(ROI ; Region Of Interest)으로 되고, 이러한 관심영역을 객체 영역이라고 할 수 있다. As a result, the region inside the outline 12 becomes a region of interest (ROI), and this region of interest may be referred to as an object region.

만약, 입력 영상내에 객체가 다수개인 경우에는 객체 영역 검출부(10)는 각각의 객체 영역을 검출할 수 있다.If there are multiple objects in the input image, the object region detection unit 10 may detect each object region.

객체 영역 추출부(20)는 객체 영역 검출부(10)에서 검출한 하나 이상의 객체 영역을 추출한다. The object region extraction unit 20 extracts one or more object regions detected by the object region detection unit 10.

즉, 객체 영역 추출부(20)는 객체 영역 검출부(10)에서 검출한 객체 영역을 기반으로 해당 입력 영상에서 객체 영역만을 추출한다. 예를 들어, 객체 영역 추출부(20)는 도 4에 예시한 바와 같이 입력 영상내의 객체 영역을 잘라내기(crop)하여 추출할 수 있다.That is, the object region extraction unit 20 extracts only the object region from the corresponding input image based on the object region detected by the object region detection unit 10. For example, as illustrated in FIG. 4, the object region extracting unit 20 may crop and extract the object region in the input image.

만약, 검출된 객체 영역이 여러 개가 있는 경우에는 객체 영역 추출부(20)는 각각의 객체 영역을 잘라내기(crop)하여 추출할 수 있다.If there are several detected object regions, the object region extracting unit 20 may extract each object region by cropping.

조정부(30)는 객체 영역 추출부(20)에서 추출된 각각의 객체 영역을 가공 및 보정한다.The adjustment unit 30 processes and corrects each object area extracted by the object area extraction unit 20.

예를 들어, 조정부(30)는 도 5의 (a), (b)에서와 같이 추출된 객체 영역의 세로 중앙선(도시 생략)을 기점으로 해당 객체 영역을 좌 방향 또는 우 방향으로 각각 소정각도(예컨대, 60도 이내) 움직인 영상을 만들어 내고, 도 5의 (c), (d)에서와 같이 추출된 객체 영역의 가로 중앙선(도시 생략)을 기점으로 해당 객체 영역을 상 방향 또는 하 방향으로 각각 소정각도(예컨대, 60도 이내) 움직인 영상을 만들어 낸다. 도 5의 (a), (b), (c), (d)와 같은 영상을 만들어 내는 것을 가공이라고 할 수 있다. 필요에 따라, 가공시 눈, 비 등이 내리는 것을 추가로 가정하여 가공할 수도 있다.For example, as shown in (a) and (b) of FIG. 5, the adjustment unit 30 rotates the object region at a predetermined angle in the left or right direction based on the vertical center line (not shown) of the extracted object region. For example, within 60 degrees) a moving image is created, and the object area is moved upward or downward based on the horizontal center line (not shown) of the extracted object area as shown in FIGS. 5C and 5D. Each of them creates an image that is moved by a predetermined angle (for example, within 60 degrees). Creating an image such as (a), (b), (c), and (d) of FIG. 5 can be referred to as processing. If necessary, processing may be performed by additionally assuming that snow or rain falls during processing.

그리고, 조정부(30)는 도 5의 (e)에서와 같이 추출된 객체 영역의 밝기(brightness), 콘트라스트(contrast) 등을 조정한 영상을 만들어 낸다. 도 5의 (e)와 같은 영상을 만들어 내는 것을 보정이라고 할 수 있다.In addition, the adjustment unit 30 generates an image obtained by adjusting brightness, contrast, and the like of the extracted object area, as shown in FIG. 5E. Creating an image as shown in (e) of FIG. 5 can be referred to as correction.

정확도 계산부(40)는 하나 이상의 객체(사물; 클래스라고도 함)에 대한 분류 모델을 내장하고 있다. The accuracy calculation unit 40 has a built-in classification model for one or more objects (things; also referred to as classes).

정확도 계산부(40)는 객체 영역 추출부(20)에서 추출된 객체 영역에 대해 조정부(30)에서 조정되어 출력되는 다수의 영상 각각에 대하여 분류 모델과의 일치율에 해당하는 정확도 값을 계산해 낸다.The accuracy calculation unit 40 calculates an accuracy value corresponding to a matching rate with the classification model for each of a plurality of images that are output by being adjusted by the adjustment unit 30 with respect to the object region extracted by the object region extracting unit 20.

즉, 정확도 계산부(40)는 도 6의 (a), (b), (c), (d), (e)에서와 같이 각각의 영상에 대한 분류 모델과의 일치율에 해당되는 정확도 값을 계산해 낸다. That is, the accuracy calculation unit 40 calculates an accuracy value corresponding to the match rate with the classification model for each image as shown in (a), (b), (c), (d), and (e) of FIG. 6. Calculate it.

예를 들어, 정확도 계산부(40)는 도 5의 (a)의 영상에 대해 도 6의 (a)와 같이 고양이와의 일치율(즉, 정확도 값)이 90%인 것으로 계산해 낼 수 있고, 도 5의 (b)의 영상에 대해 도 6의 (b)와 같이 고양이와의 일치율이 80%인 것으로 계산해 낼 수 있고, 도 5의 (c)의 영상에 대해 도 6의 (c)와 같이 고양이와의 일치율이 50%인 것으로 계산해 낼 수 있고, 도 5의 (d)의 영상에 대해 도 6의 (d)와 같이 고양이와의 일치율이 75%인 것으로 계산해 낼 수 있고, 도 5의 (e)의 영상에 대해 도 6의 (e)와 같이 고양이와의 일치율이 90%인 것으로 계산해 낼 수 있다.For example, the accuracy calculation unit 40 may calculate that the match rate with the cat (that is, the accuracy value) is 90% for the image of FIG. 5 (a), as shown in FIG. 6 (a). For the image of 5(b), it can be calculated that the match rate with the cat is 80% as shown in FIG. 6(b), and for the image of FIG. 5(c), as shown in FIG. 6(c) It can be calculated that the coincidence rate with is 50%, and it can be calculated that the coincidence rate with the cat is 75% as shown in Figure 6 (d) for the image in Figure 5 (d), and Figure 5 (e) ), it can be calculated that the match rate with the cat is 90%, as shown in (e) of FIG. 6.

객체명 지정부(50)는 정확도 계산부(40)에서 계산된 결과들을 근거로 입력 영상내의 해당 객체 영역에 대한 객체명을 지정한다. 결국, 객체명 지정부(50)에서 지정되는 객체명은 해당 객체 영역에 존재하는 객체를 지칭하는 것이 된다. 객체명 지정부(50)에는 분류 모델별로 그에 상응하는 객체명이 미리 저장되어 있다.The object name designation unit 50 designates an object name for a corresponding object area in the input image based on the results calculated by the accuracy calculation unit 40. Consequently, the object name designated by the object name designation unit 50 refers to an object existing in the object area. In the object name designation unit 50, object names corresponding to each classification model are previously stored.

예를 들어, 도 6의 (a)의 영상에 대한 고양이와의 일치율이 90%이고, 도 6의 (b)의 영상에 대한 고양이와의 일치율이 80%이고, 도 6의 (c)의 영상에 대한 고양이와의 일치율이 50%이고, 도 6의 (d)의 영상에 대한 고양이와의 일치율이 75%이고, 도 6의 (e)의 영상에 대한 고양이와의 일치율이 90%라고 가정한다면, 객체명 지정부(50)는 이들 각각의 일치율을 합산한 후에 평균값(예컨대, 77%)을 계산해 낸다. 즉, 객체명 지정부(50)는 "(90% + 80% + 50% + 75% + 90%)/5" 를 하여 77%라는 평균값을 계산해 낸다.For example, the match rate with the cat for the image of FIG. 6(a) is 90%, the match rate with the cat for the image of FIG. 6(b) is 80%, and the image of FIG. 6(c) Assuming that the match rate with the cat is 50%, the match rate with the cat for the image of FIG. 6(d) is 75%, and the match rate with the cat for the image of FIG. 6(e) is 90%. , The object name designation unit 50 calculates an average value (eg, 77%) after summing each of these matching rates. That is, the object name designation unit 50 calculates the average value of 77% by doing "(90% + 80% + 50% + 75% + 90%)/5".

그리고, 객체명 지정부(50)는 평균값이 기설정된 임계값(예컨대, 70% 정도) 이상인지를 판단하고, 평균값이 기설정된 임계값 이상이면 입력 영상내의 해당 객체 영역에 대한 객체명(예컨대, 고양이)을 지정한다. 이때, 객체명 지정부(50)는 여러 분류 모델중에서 현재의 객체 영역(즉, 가공 및 보정되어 다수의 영상으로 된 것)에 대한 분류 판단 자료로 사용한 분류 모델이 고양이이므로, 해당 객체 영역에 대한 객체명을 고양이로 지정할 수 있다.Then, the object name designation unit 50 determines whether the average value is greater than or equal to a preset threshold (eg, about 70%), and if the average value is greater than or equal to a preset threshold, the object name for a corresponding object area in the input image (eg, Cat). At this time, the object name designation unit 50 is the classification model used as classification determination data for the current object area (ie, processed and corrected into multiple images) among the various classification models. You can specify the object name as cat.

여기서, 임계값은 각각의 객체 또는 분류 모델별로 상이하게 설정될 수도 있고, 모든 객체 또는 분류 모델에 대해 동일한 임계값이 설정될 수도 있다.Here, the threshold value may be set differently for each object or classification model, or the same threshold value may be set for all objects or classification models.

상술한 도 2에서는 정확도 계산부(40) 및 객체명 지정부(50)를 별개로 구성시켰으나, 필요에 따라서는 정확도 계산부(40) 및 객체명 지정부(50)를 통합하여 객체명 출력부라고 하여도 된다.In FIG. 2 described above, the accuracy calculation unit 40 and the object name designation unit 50 are separately configured. However, if necessary, the accuracy calculation unit 40 and the object name designation unit 50 are integrated to provide an object name output unit. You may say.

도 7은 본 발명의 실시예에 따른 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법을 설명하기 위한 플로우차트이고, 도 8은 도 7의 설명에 채용되는 예시적인 도면이다.FIG. 7 is a flowchart illustrating a method of improving recognition rate and multiple recognition of a class using object detection according to an embodiment of the present invention, and FIG. 8 is an exemplary diagram employed in the description of FIG. 7.

먼저, 객체 영역 검출부(10)는 입력받은 입력 영상(예컨대, 프리뷰(preview) 영상)에서 하나 이상의 객체 영역을 검출한다(S10). 예를 들어, 도 8과 같은 입력 영상에 대해 객체 영역 검출부(10)는 4개의 객체 영역을 검출할 수 있다.First, the object region detection unit 10 detects one or more object regions from an input input image (eg, a preview image) (S10). For example, with respect to the input image as shown in FIG. 8, the object region detection unit 10 may detect four object regions.

이어, 객체 영역 추출부(20)는 객체 영역 검출부(10)에서 검출한 하나 이상의 객체 영역을 추출한다(S20). 앞서 도 4를 참조하여 설명한 바와 같이 객체 영역 추출부(20)는 입력 영상내의 각각의 객체 영역을 잘라내기(crop)하여 추출할 수 있다.Subsequently, the object region extraction unit 20 extracts one or more object regions detected by the object region detection unit 10 (S20). As described above with reference to FIG. 4, the object region extracting unit 20 may extract each object region in the input image by cropping it.

이후, 조정부(30)는 객체 영역 추출부(20)에서 추출된 각각의 객체 영역을 가공 및 보정한다(S30). 즉, 앞서 도 5를 참조하여 설명한 바와 같이 조정부(30)는 각각의 객체 영역별로 가공 및 보정한 결과인 다수의 영상을 만들어 낸다.Thereafter, the adjustment unit 30 processes and corrects each object area extracted by the object area extraction unit 20 (S30). That is, as described above with reference to FIG. 5, the adjustment unit 30 generates a plurality of images that are results of processing and correcting for each object area.

그리고, 정확도 계산부(40)는 객체 영역 추출부(20)에서 추출된 객체 영역에 대해 조정부(30)에서 조정되어 출력되는 다수의 영상의 각각에 대하여 분류 모델과의 일치율에 해당하는 정확도 값을 계산해 낸다(S40). 즉, 정확도 계산부(40)는 도 6의 (a), (b), (c), (d), (e)에서와 같이 각각의 영상에 대한 분류 모델과의 일치율에 해당되는 정확도 값을 계산해 낸다. In addition, the accuracy calculation unit 40 calculates an accuracy value corresponding to the match rate with the classification model for each of the plurality of images that are adjusted and output by the adjustment unit 30 with respect to the object region extracted by the object region extraction unit 20. Calculate it (S40). That is, the accuracy calculation unit 40 calculates an accuracy value corresponding to the match rate with the classification model for each image as shown in (a), (b), (c), (d), and (e) of FIG. 6. Calculate it.

이어, 객체명 지정부(50)는 정확도 계산부(40)에서 계산된 결과들을 근거로 입력 영상내의 해당 객체 영역에 대한 객체명을 지정한다(S50). 결국, 객체명 지정부(50)에서 지정되는 객체명은 해당 객체 영역에 존재하는 객체를 지칭하는 것이 된다.Subsequently, the object name designation unit 50 designates an object name for a corresponding object area in the input image based on the results calculated by the accuracy calculation unit 40 (S50). Consequently, the object name designated by the object name designation unit 50 refers to an object existing in the object area.

예를 들어, 도 6의 (a)의 영상에 대한 고양이와의 일치율(즉, 정확도 값)이 90%이고, 도 6의 (b)의 영상에 대한 고양이와의 일치율이 80%이고, 도 6의 (c)의 영상에 대한 고양이와의 일치율이 50%이고, 도 6의 (d)의 영상에 대한 고양이와의 일치율이 75%이고, 도 6의 (e)의 영상에 대한 고양이와의 일치율이 90%라고 가정한다면, 객체명 지정부(50)는 이들 각각의 일치율을 합산한 후에 평균값(예컨대, 77%)을 계산해 내고, 평균값이 기설정된 임계값(예컨대, 70% 정도) 이상임에 따라 입력 영상내의 해당 객체 영역에 대한 객체명(예컨대, 고양이)을 지정한다.For example, the match rate (i.e., the accuracy value) with the cat for the image of FIG. 6(a) is 90%, the match rate with the cat for the image of FIG. 6(b) is 80%, and FIG. 6 The match rate with the cat for the image of (c) is 50%, the match rate with the cat for the image of (d) of FIG. 6 is 75%, and the match rate with the cat to the image of (e) of FIG. 6 Assuming that this is 90%, the object name designation unit 50 calculates an average value (e.g., 77%) after summing each of these coincidence rates, and the average value is equal to or greater than a preset threshold (e.g., about 70%). Specifies the object name (eg, cat) for the object area in the input image.

또한, 상술한 본 발명의 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the above-described method for multiple recognition and recognition rate improvement of a class using object detection according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage devices. In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes and code segments for implementing the method can be easily deduced by programmers in the art to which the present invention belongs.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specifications. Although specific terms have been used herein, these are only used for the purpose of describing the present invention, and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical scope of the present invention should be determined by the technical spirit of the appended claims.

10 : 객체 영역 검출부 20 : 객체 영역 추출부
30 : 조정부 40 : 정확도 계산부
50 : 객체명 지정부
10: object area detection unit 20: object area extraction unit
30: adjustment unit 40: accuracy calculation unit
50: object name designation part

Claims (9)

입력 영상에서 하나 이상의 객체 영역을 검출하는 객체 영역 검출부;
상기 검출된 하나 이상의 객체 영역을 추출하는 객체 영역 추출부;
상기 추출된 하나 이상의 객체 영역을 가공 및 보정하여 객체 영역별로 다수의 영상을 출력하는 조정부;
상기 추출된 객체 영역별로 상기 조정부에서 조정되어 출력되는 다수의 영상의 각각에 대하여 기저장된 분류 모델과의 일치율에 해당하는 정확도 값을 계산해 내는 정확도 계산부; 및
상기 정확도 계산부에서 계산된 결과들을 근거로 해당 객체 영역에 대한 객체명을 지정하는 객체명 지정부;를 포함하고,
상기 객체명 지정부는,
상기 다수의 영상의 각각에 대한 정확도 값을 합산한 후에 평균값을 계산해 내고, 상기 계산된 평균값이 기설정된 임계값 이상이면 해당 분류 모델에 상응하는 객체명을 해당 객체 영역에 대한 객체명으로 지정하는 것을 특징으로 하는 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치.
An object region detector for detecting one or more object regions in the input image;
An object region extraction unit extracting the detected one or more object regions;
An adjustment unit processing and correcting the extracted one or more object regions to output a plurality of images for each object region;
An accuracy calculation unit for calculating an accuracy value corresponding to a matching rate with a pre-stored classification model for each of the plurality of images adjusted and output by the adjustment unit for each of the extracted object regions; And
Includes; an object name designation unit that designates an object name for a corresponding object area based on the results calculated by the accuracy calculation unit,
The object name designation unit,
After summing the accuracy values for each of the plurality of images, an average value is calculated, and if the calculated average value is greater than or equal to a preset threshold value, designating the object name corresponding to the classification model as the object name for the object area. An apparatus for multiple recognition and recognition rate improvement of a class using object detection as a feature.
청구항 1에 있어서,
상기 입력 영상은 프리뷰(preview) 영상인 것을 특징으로 하는 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치.
The method according to claim 1,
The apparatus for multiple recognition and recognition rate improvement of a class using object detection, wherein the input image is a preview image.
청구항 1에 있어서,
상기 가공은,
상기 추출된 객체 영역을 좌/우/상/하 방향으로 소정각도 움직인 영상을 만들어 내는 것을 특징으로 하는 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치.
The method according to claim 1,
The above processing,
An apparatus for multi-recognition and recognition rate improvement of a class using object detection, characterized in that generating an image that moves the extracted object area at a predetermined angle in a left/right/up/down direction.
청구항 1에 있어서,
상기 보정은,
상기 추출된 객체 영역에 대해 밝기 및 콘트라스트 중에서 하나 이상을 조정한 영상을 만들어 내는 것을 특징으로 하는 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치.
The method according to claim 1,
The correction is,
An apparatus for multiple recognition and recognition rate improvement of a class using object detection, characterized in that generating an image obtained by adjusting at least one of brightness and contrast for the extracted object area.
삭제delete 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 장치에서의 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법으로서,
입력 영상에서 하나 이상의 객체 영역을 검출하는 단계;
상기 검출된 하나 이상의 객체 영역을 추출하는 단계;
상기 추출된 하나 이상의 객체 영역을 가공 및 보정하여 객체 영역별로 다수의 영상을 출력하는 단계;
상기 추출된 객체 영역별로 가공 및 보정되어 출력되는 다수의 영상의 각각에 대하여 기저장된 분류 모델과의 일치율에 해당하는 정확도 값을 계산해 내는 단계; 및
상기 계산된 결과들을 근거로 해당 객체 영역에 대한 객체명을 지정하는 단계;를 포함하고,
상기 객체명을 지정하는 단계는,
상기 다수의 영상의 각각에 대한 정확도 값을 합산한 후에 평균값을 계산해 내고, 상기 계산된 평균값이 기설정된 임계값 이상이면 해당 분류 모델에 상응하는 객체명을 해당 객체 영역에 대한 객체명으로 지정하는 것을 특징으로 하는 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법.
As a method for multi-recognition and recognition rate improvement of a class using object detection in an apparatus for multi-recognition and recognition rate improvement of a class using object detection,
Detecting one or more object regions in the input image;
Extracting the detected one or more object regions;
Processing and correcting the extracted one or more object regions to output a plurality of images for each object region;
Calculating an accuracy value corresponding to a matching rate with a pre-stored classification model for each of the plurality of images processed and corrected for each of the extracted object regions; And
Including; designating an object name for a corresponding object area based on the calculated results,
The step of designating the object name,
After summing the accuracy values for each of the plurality of images, an average value is calculated, and if the calculated average value is greater than or equal to a preset threshold value, designating the object name corresponding to the classification model as the object name for the object area. A method for improving recognition rate and multiple recognition of a class using object detection as a feature.
청구항 6에 있어서,
상기 가공은,
상기 추출된 객체 영역을 좌/우/상/하 방향으로 소정각도 움직인 영상을 만들어 내는 것을 특징으로 하는 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법.
The method of claim 6,
The above processing,
A method for improving multiple recognition and recognition rate of a class using object detection, characterized in that generating an image that moves the extracted object area at a predetermined angle in a left/right/upward/downward direction.
청구항 6에 있어서,
상기 보정은,
상기 추출된 객체 영역에 대해 밝기 및 콘트라스트 중에서 하나 이상을 조정한 영상을 만들어 내는 것을 특징으로 하는 객체 검출을 이용한 클래시피케이션의 다중 인식 및 인식률 개선 방법.
The method of claim 6,
The correction is,
A method for improving multiple recognition and recognition rate of a class using object detection, comprising generating an image obtained by adjusting at least one of brightness and contrast for the extracted object area.
삭제delete
KR1020190109997A 2019-09-05 2019-09-05 Apparatus and method for improving multiple recognition and recognition rate of classification using object detection KR102186751B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190109997A KR102186751B1 (en) 2019-09-05 2019-09-05 Apparatus and method for improving multiple recognition and recognition rate of classification using object detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190109997A KR102186751B1 (en) 2019-09-05 2019-09-05 Apparatus and method for improving multiple recognition and recognition rate of classification using object detection

Publications (1)

Publication Number Publication Date
KR102186751B1 true KR102186751B1 (en) 2020-12-04

Family

ID=73776832

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190109997A KR102186751B1 (en) 2019-09-05 2019-09-05 Apparatus and method for improving multiple recognition and recognition rate of classification using object detection

Country Status (1)

Country Link
KR (1) KR102186751B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008034981A (en) * 2006-07-26 2008-02-14 Fujitsu Ten Ltd Image recognition device and method, pedestrian recognition device and vehicle controller
KR20140093189A (en) * 2013-01-16 2014-07-25 한국전자통신연구원 Method and Apparatus of Face Tracking Robust for Face Rotation
KR101829386B1 (en) 2017-08-22 2018-02-14 엘아이지넥스원 주식회사 Apparatus and method for detecting target
KR101825459B1 (en) * 2016-08-05 2018-03-22 재단법인대구경북과학기술원 Multi-class objects detection apparatus and method thereof
KR101907883B1 (en) 2017-05-10 2018-10-16 국방과학연구소 Object detection and classification method
KR101995294B1 (en) 2018-12-24 2019-07-03 (주)제이엘케이인스펙션 Image analysis apparatus and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008034981A (en) * 2006-07-26 2008-02-14 Fujitsu Ten Ltd Image recognition device and method, pedestrian recognition device and vehicle controller
KR20140093189A (en) * 2013-01-16 2014-07-25 한국전자통신연구원 Method and Apparatus of Face Tracking Robust for Face Rotation
KR101825459B1 (en) * 2016-08-05 2018-03-22 재단법인대구경북과학기술원 Multi-class objects detection apparatus and method thereof
KR101907883B1 (en) 2017-05-10 2018-10-16 국방과학연구소 Object detection and classification method
KR101829386B1 (en) 2017-08-22 2018-02-14 엘아이지넥스원 주식회사 Apparatus and method for detecting target
KR101995294B1 (en) 2018-12-24 2019-07-03 (주)제이엘케이인스펙션 Image analysis apparatus and method

Similar Documents

Publication Publication Date Title
US8170368B2 (en) Correcting device and method for perspective transformed document images
US9773322B2 (en) Image processing apparatus and image processing method which learn dictionary
US11908160B2 (en) Method and apparatus for context-embedding and region-based object detection
KR101747216B1 (en) Apparatus and method for extracting target, and the recording media storing the program for performing the said method
US20140037212A1 (en) Image processing method and device
CN107005655A (en) Image processing method
JP2021082316A5 (en)
CN111126108A (en) Training method and device of image detection model and image detection method and device
KR102471124B1 (en) System and method for detecting fiducial mark on the pcb
CN108961262B (en) Bar code positioning method in complex scene
CN110751106A (en) Unmanned aerial vehicle target detection method and system
WO2018121414A1 (en) Electronic device, and target image recognition method and apparatus
US10999513B2 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
JP2022009474A (en) System and method for detecting lines in vision system
JP6669390B2 (en) Information processing apparatus, information processing method, and program
CN117456204A (en) Target tracking method, device, video processing system, storage medium and terminal
KR102186751B1 (en) Apparatus and method for improving multiple recognition and recognition rate of classification using object detection
US20230281821A1 (en) Methods and systems for authentication of a physical document
JP5754931B2 (en) Image analysis apparatus, image analysis method, and program
KR20110091381A (en) System and method for stabilizing images
JP4812743B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
CN110766671A (en) Image processing method based on machine vision software
JP2004199200A (en) Pattern recognition device, imaging apparatus, information processing system, pattern recognition method, recording medium and program
KR102602400B1 (en) Method and Apparatus for Box Level Postprocessing For Accurate Object Detection
CN111860051A (en) Vehicle-based loop detection method and device and vehicle-mounted terminal

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant