KR20220092746A - Method and system for detecting unlearned objects based on stereo camera - Google Patents

Method and system for detecting unlearned objects based on stereo camera Download PDF

Info

Publication number
KR20220092746A
KR20220092746A KR1020200183937A KR20200183937A KR20220092746A KR 20220092746 A KR20220092746 A KR 20220092746A KR 1020200183937 A KR1020200183937 A KR 1020200183937A KR 20200183937 A KR20200183937 A KR 20200183937A KR 20220092746 A KR20220092746 A KR 20220092746A
Authority
KR
South Korea
Prior art keywords
image
target
targets
unlearned
stereo camera
Prior art date
Application number
KR1020200183937A
Other languages
Korean (ko)
Other versions
KR102589433B1 (en
Inventor
옥승호
이성호
감지웅
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020200183937A priority Critical patent/KR102589433B1/en
Publication of KR20220092746A publication Critical patent/KR20220092746A/en
Application granted granted Critical
Publication of KR102589433B1 publication Critical patent/KR102589433B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2252
    • H04N5/2254
    • H04N5/2257
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

A method and system for detecting an unlearned object based on a stereo camera are disclosed. The present invention relates to a method for detecting an unlearned object using a first image acquisition part and a second image acquisition part for photographing a plurality of targets. The method may include the steps of: acquiring a first image from the first image acquisition part; acquiring a second image from the second image acquisition part; recognizing the plurality of targets based on the first image and the second image; and distinguishing a pre-learned first target and an unlearned second target among the plurality of targets.

Description

스테레오 카메라 기반 미학습 물체 검출 방법 및 시스템{METHOD AND SYSTEM FOR DETECTING UNLEARNED OBJECTS BASED ON STEREO CAMERA}Stereo camera-based unlearned object detection method and system

본 발명은 스테레오 카메라 기반 미학습 물체 검출 방법 및 시스템에 관한 것이다. 보다 상세하게는 2개의 카메라를 사용하여 물체를 인식하되, 복수의 물체들 중 미학습된 물체를 검출하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for detecting unlearned objects based on a stereo camera. More particularly, it relates to a method and system for recognizing an object using two cameras, but detecting an unlearned object among a plurality of objects.

단일 카메라 기반의 비전 인식 시스템은 사전의 정보(prior information) 또는 추가적인 정보가 없으면 탐색 영역을 줄일 수 없기 때문에 검출 속도를 향상시키는데 한계가 존재하였다. The single camera-based vision recognition system has limitations in improving the detection speed because the search area cannot be reduced without prior information or additional information.

이에, 스테레오 카메라 기반의 비전 인식 시스템이 등장하였다. 일반적인 스테레오 카메라 기반의 비전 인식 시스템은 두 카메라의 시차(disparity)를 이용하여 깊이 지도를 생성하고 이를 이용하여 각 객체들을 추출하기 위한 비전 인식 시스템이다. Accordingly, a stereo camera-based vision recognition system has emerged. A general stereo camera-based vision recognition system is a vision recognition system for generating a depth map using the disparity of two cameras and extracting each object using this.

이처럼, 비전 인식 기술은 객체를 인식하기 위하여 학습되었던 특징과 대비하는 데에 초점이 맞춰져왔다. 그러나, 학습되지 않은 객체는 딥 러닝을 통하여 검출이 되지 않기 때문에, 실제 구동 환경에서 많은 문제점이 발생하여 왔다. As such, vision recognition technology has been focused on contrasting with the features learned to recognize objects. However, since the unlearned object is not detected through deep learning, many problems have occurred in the actual driving environment.

대한민국 특허등록공보 KR101699014B1와 같은 기술을 살펴보면, 스테레오 카메라에 기반하여 객체를 인식하되 미리 학습된 특징을 기초로 객체를 인식하는 데에 초점이 맞춰져 있다. Looking at a technology such as Korean Patent Registration Publication KR101699014B1, the object is recognized based on a stereo camera, but the focus is on recognizing an object based on a pre-learned feature.

따라서, 복수의 객체 중 이미 학습되어 특징을 알고 있는 객체를 제외하고 후에 추가 학습이 필요한 객체를 따로 검출할 수 있는 기술에 대한 필요성이 증가하고 있다. Accordingly, there is an increasing need for a technology capable of separately detecting an object requiring additional learning later, except for an object having already learned and knowing a characteristic among a plurality of objects.

KR 101699014 B1KR 101699014 B1

본 발명의 목적은 복수의 객체 중 미학습 객체를 추출하기 위한 방법 및 시스템을 제공하는 것이다. An object of the present invention is to provide a method and system for extracting an unlearned object from among a plurality of objects.

또한, 본 발명의 목적은 스테레오 카메라 기반 미학습 물체 검출 방법 및 시스템에 있어서, 일상 생활뿐만 아니라 산업 현장에서도 활용할 수 있는 스테레오 카메라 기반 미학습 물체 검출 방법 및 시스템을 제공하는 것이다. Another object of the present invention is to provide a stereo camera-based unlearned object detection method and system, which can be utilized not only in daily life but also in industrial settings, in a stereo camera-based unlearned object detection method and system.

상술한 과제를 해결하기 위하여, 본 발명은, 복수의 타겟을 촬영하는 제1 영상 획득부 및 제2 영상 획득부를 사용하는 미학습 물체 검출 방법에 있어서, 상기 제1 영상 획득부로부터 제1 영상을 획득하는 단계, 상기 제2 영상 획득부로부터 제2 영상을 획득하는 단계, 상기 제1 영상 및 제2 영상을 기초로 상기 복수의 타겟을 인식하는 단계 및 상기 복수의 타겟 중 미리 학습된 제1 타겟과 비학습된 제2 타겟을 구분하는 단계를 포함할 수 있다. In order to solve the above problem, the present invention provides a method for detecting an unlearned object using a first image acquisition unit and a second image acquisition unit for photographing a plurality of targets, wherein the first image is obtained from the first image acquisition unit. acquiring, acquiring a second image from the second image acquiring unit, recognizing the plurality of targets based on the first image and the second image, and a pre-learned first target among the plurality of targets and discriminating the non-learned second target.

또한, 상기 제1 영상 및 제2 영상을 기초로 상기 복수의 타겟을 인식하는 단계는 상기 제1 영상을 기초로 깊이 정보를 포함하는 깊이 맵을 획득하는 단계, 상기 깊이 맵을 프레임 별로 이진화하는 단계, 상기 이진화된 깊이 맵을 기초로 최빈 데이터를 획득하여 잡음을 제거하는 단계 및 상기 최빈 데이터를 기초로 상기 복수의 타겟에 대한 복수의 좌표값을 획득하는 단계를 포함할 수 있다. In addition, recognizing the plurality of targets based on the first image and the second image may include: obtaining a depth map including depth information based on the first image; and binarizing the depth map for each frame. , removing noise by obtaining mode data based on the binarized depth map, and obtaining a plurality of coordinate values for the plurality of targets based on the mode data.

또한, 상기 제1 영상 및 제2 영상을 기초로 상기 복수의 타겟을 인식하는 단계는, 상기 제2 영상을 기초로 제1 학습 알고리즘을 수행하는 단계 및 상기 학습 결과를 기초로 상기 제1 타겟의 좌표값을 획득하는 단계를 포함할 수 있다. In addition, the step of recognizing the plurality of targets based on the first image and the second image may include performing a first learning algorithm based on the second image and selecting the first target based on the learning result. It may include obtaining a coordinate value.

또한, 상기 복수의 타겟 중 미리 학습된 제1 타겟과 비학습된 제2 타겟을 구분하는 단계는, 상기 제1 영상으로부터 획득한 상기 복수의 좌표값과, 상기 제2 영상으로부터 획득한 상기 제1 타겟의 좌표값을 기초로, 상기 제1 타겟과 상기 제2 타겟을 구분할 수 있다. In addition, the step of discriminating the pre-learned first target and the non-learned second target among the plurality of targets includes the plurality of coordinate values obtained from the first image, and the first obtained from the second image. Based on the coordinate value of the target, the first target and the second target may be distinguished.

또한, 상기 제1 영상 획득부는 광 이미지로부터 영상 이미지를 생성하는 카메라 모듈을 포함하고, 상기 카메라 모듈은 측벽에 관통홀을 포함하는 하우징, 상기 관통홀에 설치된 렌즈 및 상기 렌즈를 구동하는 구동부를 포함할 수 있다. In addition, the first image acquisition unit includes a camera module for generating an image image from an optical image, the camera module includes a housing including a through hole in a sidewall, a lens installed in the through hole, and a driving unit for driving the lens can do.

또한, 상술한 과제를 해결하기 위하여, 본 발명은, 복수의 타겟의 제1 영상을 촬영하는 제1 영상 획득부, 상기 복수의 타겟의 제2 영상을 촬영하는 제2 영상 획득부 및 상기 제1 영상 및 상기 제2 영상을 기초로 상기 복수의 타겟을 인식하고, 상기 복수의 타겟 중 미리 학습된 제1 타겟과 비학습된 제2 타겟을 구분하는 제어부를 포함할 수 있다. In addition, in order to solve the above problems, the present invention, a first image acquisition unit for photographing a first image of a plurality of targets, a second image acquisition unit for photographing a second image of the plurality of targets, and the first and a controller configured to recognize the plurality of targets based on an image and the second image, and to distinguish a pre-learned first target from a non-learned second target among the plurality of targets.

또한, 상기 제1 영상 획득부는, 광 이미지로부터 영상 이미지를 생성하는 카메라 모듈을 포함하고, 상기 카메라 모듈은 측벽에 관통홀을 포함하는 하우징, 상기 관통홀에 설치된 렌즈 및 상기 렌즈를 구동하는 구동부를 포함할 수 있다. In addition, the first image acquisition unit includes a camera module that generates an image image from an optical image, wherein the camera module includes a housing including a through hole in a sidewall, a lens installed in the through hole, and a driving unit for driving the lens may include

또한, 상기 제어부는, 상기 제1 영상을 기초로 깊이 정보를 포함하는 깊이 맵을 획득하고, 상기 깊이 맵을 프레임 별로 이진화하며, 상기 이진화된 깊이 맵을 기초로 최빈 데이터를 획득하여 잡음을 제거하고, 상기 최빈 데이터를 기초로 상기 복수의 타겟에 대한 복수의 좌표값을 획득할 수 있다. In addition, the controller obtains a depth map including depth information based on the first image, binarizes the depth map for each frame, and removes noise by obtaining mode data based on the binarized depth map, , it is possible to obtain a plurality of coordinate values for the plurality of targets based on the mode data.

또한, 상기 제어부는, 상기 제1 영상 및 제2 영상을 기초로 상기 복수의 타겟을 인식하고, 상기 제2 영상을 기초로 제1 학습 알고리즘을 수행하며, 상기 학습 결과를 기초로 상기 제1 타겟의 좌표값을 획득할 수 있다. In addition, the control unit recognizes the plurality of targets based on the first image and the second image, performs a first learning algorithm based on the second image, and based on the learning result, the first target It is possible to obtain the coordinate values of

또한, 상기 제어부는, 상기 제1 영상으로부터 획득한 상기 복수의 좌표값과, 상기 제2 영상으로부터 획득한 상기 제1 타겟의 좌표값을 기초로, 상기 제1 타겟과 상기 제2 타겟을 구분할 수 있다. In addition, the controller may distinguish the first target from the second target based on the plurality of coordinate values obtained from the first image and the coordinate values of the first target obtained from the second image have.

또한, 상술한 과제를 해결하기 위하여, 본 발명은, 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상술한 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체일 수 있다. In addition, in order to solve the above problem, the present invention provides a non-transitory computer-readable medium storing instructions, which, when executed by a processor, cause the processor to perform the above-described method, a non-transitory computer It may be a readable medium.

본 발명은 스테레오 카메라 기반의 시스템을 이용하여 미학습 물체를 효과적으로 검출할 수 있는 효과가 있다. The present invention has the effect of effectively detecting an unlearned object using a stereo camera-based system.

또한, 본 발명은 일상 생활 또는 산업 현장에서 오염물질이 많은 곳에 스테레오 카메라가 설치되는 경우에 있어서도, 오염물질에 상관없이 미학습 물체를 효과적으로 검출할 수 있는 효과가 있다. In addition, the present invention has the effect of effectively detecting an unlearned object regardless of the pollutants even when the stereo camera is installed in a place with a lot of pollutants in daily life or industrial sites.

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable according to the present invention are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which this specification belongs from the description below. will be.

도 1은 본 발명에 따른 스테레오 카메라 기반 미학습 물체 검출 방법을 나타낸 도면이다.
도 2는 본 발명에 따른 S1300 및 S1400 단계를 나타낸 도면이다.
도 3은 본 발명에 따른 스테레오 카메라 기반 미학습 물체 검출 시스템을 나타낸 도면이다.
도 4는 본 발명에 따른 제어부를 나타낸 도면이다.
도 5는 본 발명에 따른 영상 획득부를 나타낸 도면이다.
도 6은 본 발명에 따른 구체적인 실시예를 나타낸 도면이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 is a view showing a stereo camera-based unlearned object detection method according to the present invention.
2 is a view showing steps S1300 and S1400 according to the present invention.
3 is a view showing a stereo camera-based unlearned object detection system according to the present invention.
4 is a view showing a control unit according to the present invention.
5 is a diagram illustrating an image acquisition unit according to the present invention.
6 is a view showing a specific embodiment according to the present invention.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as a part of the detailed description to help the understanding of the present specification, provide embodiments of the present specification, and together with the detailed description, explain the technical features of the present specification.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 상술한 내용들을 바탕으로 본 발명의 바람직한 일 실시예에 따른, 스테레오 카메라 기반 미학습 물체 검출 방법 및 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a stereo camera-based unlearned object detection method and system according to a preferred embodiment of the present invention will be described in detail based on the above-mentioned contents.

도 1은 본 발명에 따른 스테레오 카메라 기반 미학습 물체 검출 방법을 나타낸 도면이다. 본 발명에 따른 미학습 물체 검출 방법을 수행하는 주체는 본 발명에 따른 미학습 물체 검출 시스템 또는 제어부일 수 있다. 1 is a view showing a stereo camera-based unlearned object detection method according to the present invention. The subject performing the unlearned object detection method according to the present invention may be the unlearned object detection system or the control unit according to the present invention.

도 1에 따르면, 본 발명에 따른 미학습 물체 검출 방법은, 제1 영상 획득부로부터 제1 영상을 획득하는 단계(S1100), 제2 영상 획득부로부터 제2 영상을 획득하는 단계(S1200), 제1 영상 및 제2 영상을 기초로 복수의 타겟을 인식하는 단계(S1300) 및 복수의 타겟 중 미리 학습된 제1 타겟과 비학습된 제2 타겟을 구분하는 단계(S1400)를 포함할 수 있다. 제1 영상 획득부 및 제2 영상 획득부는 카메라일 수 있다. 1 , the method for detecting an unlearned object according to the present invention includes: acquiring a first image from a first image acquiring unit (S1100), acquiring a second image from a second image acquiring unit (S1200); Recognizing a plurality of targets based on the first image and the second image (S1300) and separating a pre-learned first target from a non-learned second target among the plurality of targets (S1400) may be included. . The first image acquisition unit and the second image acquisition unit may be cameras.

제1 영상은 깊이 맵을 추출하기 위한 영상일 수 있고, 제2 영상은 비전 인식 알고리즘을 적용하기 위한 영상일 수 있다. 본 발명은 비학습된 제2 타겟을 구분함으로써 미학습 물체를 검출할 수 있다. The first image may be an image for extracting a depth map, and the second image may be an image for applying a vision recognition algorithm. The present invention can detect an unlearned object by classifying the unlearned second target.

도 2는 본 발명에 따른 S1300 및 S1400 단계를 나타낸 도면이다. 2 is a view showing steps S1300 and S1400 according to the present invention.

도 2에 따르면, 본 발명에 따른 S1300 및 S1400 단계는, 제1 영상을 기초로 깊이 정보를 포함하는 깊이 맵을 획득하는 단계(S1311), 깊이 맵을 프레임 별로 이진화하는 단계(S1312), 이진화된 깊이 맵을 기초로 최빈 데이터를 획득하여 잡음을 제거하는 단계(S1313) 및 최빈 데이터를 기초로 복수의 타겟에 대한 복수의 좌표값을 획득하는 단계(S1314)를 포함할 수 있다. According to FIG. 2 , steps S1300 and S1400 according to the present invention include: obtaining a depth map including depth information based on a first image (S1311); binarizing the depth map for each frame (S1312); The method may include removing noise by obtaining mode data based on the depth map ( S1313 ) and obtaining a plurality of coordinate values for a plurality of targets based on the mode data ( S1314 ).

또한, 본 발명에 따른 S1300 및 S1400 단계는, 제2 영상을 기초로 제1 학습 알고리즘을 수행하는 단계(S1321) 및 학습 결과를 기초로 제1 타겟의 좌표값을 획득하는 단계(S1322)를 더 포함할 수 있다. In addition, the steps S1300 and S1400 according to the present invention further include the steps of performing the first learning algorithm based on the second image (S1321) and obtaining the coordinate values of the first target based on the learning result (S1322). may include

또한, 본 발명에 따른 S1300 및 S1400 단계는, 제1 영상으로부터 획득한 복수의 좌표값과, 제2 영상으로부터 획득한 상기 제1 타겟의 좌표값을 기초로, 제1 타겟과 제2 타겟을 구분하는 단계(S1410)를 더 포함할 수 있다. S1410 단계는 IoU(Intersection Of Union) 알고리즘을 사용할 수 있다. 구체적으로, IoU 알고리즘은 2개의 Bounding Box의 합집합과 교집합의 비율을 기초로 겹치는 비율을 획득하는 알고리즘일 수 있다. In addition, in steps S1300 and S1400 according to the present invention, the first target and the second target are divided based on the plurality of coordinate values obtained from the first image and the coordinate values of the first target obtained from the second image. It may further include a step (S1410) of doing. Step S1410 may use an IoU (Intersection Of Union) algorithm. Specifically, the IoU algorithm may be an algorithm for obtaining an overlapping ratio based on the ratio of the union and intersection of two Bounding Boxes.

즉, IoU 알고리즘을 수행한 결과, 상기 겹치는 비율이 임계값을 넘으면 좌표값이 서로 겹치는 것으로 판단하고, 상기 겹치는 비율이 임계값을 넘지 않으면 좌표값이 서로 겹치지 않는 것으로 판단할 수 있다. 이를 토대로, 본 발명은 제1 영상으로부터 획득한 복수의 좌표값과 제2 영상으로부터 획득한 좌표값 중 겹치지 않는 것으로 판단되는 좌표값을 획득할 수 있다. 이때, 획득된 좌표값에 대응되는 객체가 미학습 물체에 해당한다. That is, as a result of performing the IoU algorithm, if the overlapping ratio exceeds the threshold value, it is determined that the coordinate values overlap each other, and if the overlapping ratio does not exceed the threshold value, it can be determined that the coordinate values do not overlap each other. Based on this, in the present invention, it is possible to obtain a coordinate value determined not to overlap among a plurality of coordinate values obtained from the first image and a plurality of coordinate values obtained from the second image. In this case, the object corresponding to the obtained coordinate value corresponds to the unlearned object.

도 3은 본 발명에 따른 스테레오 카메라 기반 미학습 물체 검출 시스템을 나타낸 도면이다. 3 is a view showing a stereo camera-based unlearned object detection system according to the present invention.

도 3에 따르면, 본 발명은 제1 영상 획득부(110), 제2 영상 획득부(120) 및 제어부(130)를 포함할 수 있다. 제1 영상 획득부(110)는 타겟(10, 11)의 제1 영상을 촬영하고, 제2 영상 획득부(120)는 타겟(10, 11)의 제2 영상을 촬영할 수 있다. 제어부(130)는 제1 영상 및 상기 제2 영상을 기초로 복수의 타겟(10, 11)을 인식하고, 복수의 타겟(10, 11) 중 미리 학습된 제1 타겟(10)과 비학습된 제2 타겟(11)을 구분할 수 있다. Referring to FIG. 3 , the present invention may include a first image acquisition unit 110 , a second image acquisition unit 120 , and a controller 130 . The first image acquisition unit 110 may photograph a first image of the targets 10 and 11 , and the second image acquisition unit 120 may photograph a second image of the targets 10 and 11 . The control unit 130 recognizes the plurality of targets 10 and 11 based on the first image and the second image, and among the plurality of targets 10 and 11 , the pre-learned first target 10 and the unlearned The second target 11 can be distinguished.

복수의 타겟(10, 11)은 제1 타겟(10)과 제2 타겟(11)을 포함할 수 있다. 제1 타겟(10)은 미리 비전 인식을 통하여 학습된 물체일 수 있다. 제2 타겟(11)은 이전에 학습되지 않았든 물체일 수 있다. 본 발명에 따른 미학습 물체 검출 시스템은 제1 영상 속의 복수의 타겟(10, 11)에 대한 복수의 좌표값들 중에서, 제2 영상 속의 타겟(10)에 대한 좌표값과 겹치지 않는 타겟을 미학습된 타겟인 제2 타겟(11)으로 판단할 수 있다. The plurality of targets 10 and 11 may include a first target 10 and a second target 11 . The first target 10 may be an object previously learned through vision recognition. The second target 11 may be an object that has not been previously learned. The unlearned object detection system according to the present invention unlearns a target that does not overlap the coordinate values of the target 10 in the second image from among the plurality of coordinate values for the plurality of targets 10 and 11 in the first image. It can be determined as the second target 11 that is the target.

제어부(130)는 제1 영상을 기초로 깊이 정보를 포함하는 깊이 맵을 획득하고, 깊이 맵을 프레임 별로 이진화하며, 이진화된 깊이 맵을 기초로 최빈 데이터를 획득하여 잡음을 제거하고, 최빈 데이터를 기초로 복수의 타겟에 대한 복수의 좌표값을 획득할 수 있다. 최빈 데이터는 각 프레임별로 영상 속에서 나타나는 빈도수가 높은 데이터를 의미할 수 있다. 깊이 맵(Depth map)은 깊이 정보를 기초로 비전 인식하기 위한 영상 종류일 수 있다. The controller 130 obtains a depth map including depth information based on the first image, binarizes the depth map for each frame, obtains mode data based on the binarized depth map, removes noise, and collects the mode data. A plurality of coordinate values for a plurality of targets may be obtained based on the plurality of coordinate values. The mode data may mean data having a high frequency appearing in an image for each frame. The depth map may be an image type for vision recognition based on depth information.

또한, 제어부(130)는 제1 영상 및 제2 영상을 기초로 복수의 타겟을 인식하고, 제2 영상을 기초로 제1 학습 알고리즘을 수행하며, 학습 결과를 기초로 상기 제1 타겟의 좌표값을 획득할 수 있다. In addition, the controller 130 recognizes a plurality of targets based on the first image and the second image, performs a first learning algorithm based on the second image, and coordinates values of the first target based on the learning result can be obtained.

또한, 제어부(130)는 제1 영상으로부터 획득한 복수의 좌표값과, 제2 영상으로부터 획득한 제1 타겟의 좌표값을 기초로, 제1 타겟과 제2 타겟을 구분할 수 있다. Also, the controller 130 may distinguish the first target from the second target based on the plurality of coordinate values obtained from the first image and the coordinate values of the first target obtained from the second image.

도 4는 본 발명에 따른 제어부를 나타낸 도면이다. 4 is a view showing a control unit according to the present invention.

도 4에 따르면, 제어부(130)는 프로세서(131), 메모리 및 통신부를 포함할 수 있다. 프로세서(131)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다. Referring to FIG. 4 , the control unit 130 may include a processor 131 , a memory, and a communication unit. The processor 131 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), or the like. In addition, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, a CPU or AP may consist of a few cores optimized for serial processing, whereas a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.

메모리(132)는, 제어부(130)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(132)는 제어부(130)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. The memory 132 stores data supporting various functions of the controller 130 . The memory 132 may store a plurality of application programs (or applications) and commands driven by the controller 130 . At least some of these application programs may be downloaded from an external server through wireless communication.

메모리(132)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(132)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 132 is a flash memory type, a hard disk type, a solid state disk type (SSD), a silicon disk drive type (SDD), and a multimedia card micro type. ), card-type memory (such as SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. Also, the memory 132 may include a web storage that performs a storage function on the Internet.

통신부(133)는, 안테나를 통해 기지국 또는 통신 기능을 포함하는 차량과 정보의 송수신을 실행한다. 통신부(133)는, 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. The communication unit 133 transmits/receives information to and from a base station or a vehicle including a communication function through an antenna. The communication unit 133 may include a modulator, a demodulator, a signal processor, and the like.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신부(133)는, CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신부(133)는, 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신 뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a communication facility installed by telecommunication companies and a wireless communication network using a frequency of the communication facility. At this time, the communication unit 133, CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple) access), etc., may be used in various wireless communication systems, and the communication unit 133 may also be used in 3rd generation partnership project (3GPP) long term evolution (LTE) and the like. In addition, not only 5G communication that is being commercialized recently, but also 6G, which is scheduled to be commercialized in the future, may be used. However, in the present specification, a pre-installed communication network may be utilized without being limited by such a wireless communication method.

도 5는 본 발명에 따른 영상 획득부를 나타낸 도면이다. 5 is a diagram illustrating an image acquisition unit according to the present invention.

도 5에 따르면, 본 발명의 영상 획득부는 제1 영상 획득부(110) 및 제2 영상 획득부(120)를 의미할 수 있다. 설명의 편의를 위하여 제1 영상 획득부(110)로 설명하나, 제2 영상 획득부(120)도 동일한 구성일 수 있다. Referring to FIG. 5 , the image acquisition unit of the present invention may refer to the first image acquisition unit 110 and the second image acquisition unit 120 . For convenience of description, the first image acquisition unit 110 is described, but the second image acquisition unit 120 may also have the same configuration.

제1 영상 획득부(110)는 카메라로서, 카메라 모듈(111)을 포함할 수 있다. 카메라 모듈(111)은 광 이미지로부터 영상 이미지를 생성할 수 있다. 카메라 모듈(111)은 측벽에 관통홀을 포함하는 하우징, 관통홀에 설치된 렌즈(113) 및 렌즈(113)를 구동하는 구동부(112)를 포함할 수 있다. 관통홀은 렌즈(113)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(113)는 관통홀에 삽입될 수 있다. The first image acquisition unit 110 may include a camera module 111 as a camera. The camera module 111 may generate a video image from the optical image. The camera module 111 may include a housing including a through hole in a sidewall, a lens 113 installed in the through hole, and a driving unit 112 for driving the lens 113 . The through hole may be formed in a size corresponding to the diameter of the lens 113 . The lens 113 may be inserted into the through hole.

구동부(112)는 렌즈(113)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(113)와 구동부(112)는 종래 알려진 방식으로 연결되고 렌즈(113)는 종래 알려진 방식으로 구동부(112)에 의하여 제어될 수 있다. The driving unit 112 may be configured to control the lens 113 to move forward or backward. The lens 113 and the driving unit 112 may be connected in a conventionally known manner, and the lens 113 may be controlled by the driving unit 112 in a conventionally known manner.

다양한 영상 이미지를 수득하기 위해서는 렌즈(113)가 카메라 모듈(111) 또는 영상 획득부(110)를 구성하는 하우징의 외부로 노출될 필요가 있다. In order to obtain various image images, the lens 113 needs to be exposed to the outside of the housing constituting the camera module 111 or the image acquisition unit 110 .

바람직하게 상기 렌즈(113)는 그 표면에 하기의 [화학식 1]로 표시되는 실록산계 화합물; 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the lens 113 is a siloxane-based compound represented by the following [Formula 1] on its surface; It may be coated with a coating composition containing an organic solvent, inorganic particles and a dispersing agent.

[화학식 1][Formula 1]

Figure pat00001
Figure pat00001

(여기서 n은 1 내지 100의 정수이다.)(Where n is an integer from 1 to 100.)

상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 차량의 외부에 설치된 렌즈(113)가 오염 환경에 장기간 노출되더라도, 도로정보로 활용할 수 있는 이미지 또는 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and stain resistance, so even if the lens 113 installed outside the vehicle is exposed to a polluted environment for a long time, images or images that can be used as road information are collected. can do.

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(113) 표면에 코팅층(114)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above example. After the inorganic particles are formed as a coating layer 114 on the surface of the lens 113 , physical strength may be improved, and the viscosity may be maintained within a certain range to increase moldability.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, and preferably methyl ethyl ketone may be used, but is not limited thereto.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersant, a polyester-based dispersant may be used, and specifically, as a polyester-based dispersion stabilizer composed of a copolymer of 2-methoxypropyl acetate and 1-methoxy-2-propyl acetate, TEGO-Disperse 670 (manufacturer : EVONIK), but is not limited to the above examples and any dispersant obvious to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include a UV absorber, an antioxidant, and the like, but is not limited to the above examples and may be used without limitation.

상기 코팅층(114)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 실록산계 화합물; 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.For forming the coating layer 114, the coating composition may include a siloxane-based compound represented by Chemical Formula 1; organic solvents, inorganic particles and dispersants.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 실록산계 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the siloxane-based compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant based on 100 parts by weight of the organic solvent. In the case of the above range, a synergistic effect is expressed to the extent that the water repellency effect due to the interaction of each component has a critical significance, and when it is out of the above range, the synergistic effect is rapidly reduced or almost absent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(113) 표면에 도포하면, 흘러내려 코팅층(114)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(114)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP, and when the viscosity is less than 1500 cP, when applied to the surface of the lens 113, there is a problem that the formation of the coating layer 114 is not easy because it flows down, and exceeds 1800 cP In this case, there is a problem in that the formation of a uniform coating layer 114 is not easy.

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 상기 [화학식 1]로 표시되는 실록산계 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with the siloxane-based compound represented by the above [Formula 1], inorganic particles and a dispersant:

상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 폴리실록산polysiloxane 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)2. 코팅층의 제조 (unit parts by weight) 2. Preparation of coating layer

렌즈(113)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(114)을 형성하였다. The coating composition of DX1 to DX5 was applied to one surface of the lens 113 and cured to form a coating layer 114 .

[실험예][Experimental example]

1. 표면 외관에 대한 평가1. Evaluation of surface appearance

코팅 조성물의 점도 차이로 인해, 코팅층(114)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(114)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after the coating layer 114 was prepared, a sensory evaluation was performed as to whether a uniform surface was formed. Whether or not a uniform coating layer 114 was formed was evaluated, and evaluation was performed according to the following criteria.

○: 균일한 코팅층 형성○: uniform coating layer formation

×: 불균일한 코팅층의 형성×: Formation of a non-uniform coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가sensory evaluation ХХ ХХ

코팅층(114)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(113)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(114)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(114)의 형성이 불가하였다.When the coating layer 114 is formed, if the viscosity is less than a certain level, a flow occurs on the surface of the lens 113 , and after the curing process, it is difficult to form a uniform coating layer 114 . Accordingly, there may be a problem in that the production yield is lowered. In addition, even when the viscosity is too high, it is difficult to uniformly apply the composition to form a uniform coating layer 114 .

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈(113) 표면에 코팅층(114)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 114 on the surface of the lens 113, the results of measuring the water repellency angle are shown in Table 3 below.

전진 접촉각 (

Figure pat00002
Figure pat00003
) advancing contact angle (
Figure pat00002
Figure pat00003
) 정지 접촉각 (
Figure pat00004
Figure pat00005
)
stop contact angle (
Figure pat00004
Figure pat00005
)
후진 접촉각 (
Figure pat00006
Figure pat00007
)
receding contact angle (
Figure pat00006
Figure pat00007
)
TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(114)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after forming the coating layer 114 using the coating composition of TX1 to TX5, the result of measuring the contact angle was confirmed. For TX1 and TX5, the receding contact angle was measured to be less than 10 degrees. That is, when it is out of the optimal range for preparing the coating composition, it was confirmed that the phenomenon of pinning water droplets occurs. On the other hand, it was confirmed that the peening phenomenon did not occur in TX2 to 4, thereby exhibiting an excellent waterproof effect.

3. 내오염성 평가3. Pollution resistance evaluation

설비 외부에 상기 실시예에 따른 코팅층(114)을 형성한 렌즈(113)를 모형카메라에 부착하고, 4일 간 일반도로 주행 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(114)이 형성되지 않은 동일한 렌즈(113)를 사용하였으며, 각 실시예에 모형카메라는 차량의 동일한 위치에 부착하였다.The lens 113 having the coating layer 114 formed according to the above embodiment on the outside of the facility was attached to the model camera, and exposed to the general road driving environment for 4 days. As the comparative example (Con), the same lens 113 on which the coating layer 114 was not formed was used, and in each embodiment, the model camera was attached to the same position of the vehicle.

그 뒤 실험 전후의 렌즈(113)의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(114)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.Thereafter, the degree of contamination of the lens 113 before and after the experiment was evaluated as related, and for objective comparison, the result was evaluated as an index of 1 to 10 in comparison with the comparative example in which the coating layer 114 was not formed. shown in In the following index, the lower the number, the better the stain resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성stain resistance 1010 77 33 33 33 88

(단위: 지수)상기 표 4를 참조하면, 렌즈(113)에 코팅층(114)을 형성하는 경우 차량의 외부에 라이더 센서 또는 카메라를 설치하면서 렌즈(113)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(114)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.(Unit: Index) Referring to Table 4, when the coating layer 114 is formed on the lens 113, the lidar sensor or camera is installed on the outside of the vehicle and the lens 113 is exposed to the outside, but the high pollution resistance It can be seen that image data can be collected in a form that is easy to analyze over a long period of time. In particular, in the case of TX2 to TX4, it can be seen that the stain resistance by the coating layer 114 is very excellent.

도 6은 본 발명에 따른 구체적인 실시예를 나타낸 도면이다. 6 is a view showing a specific embodiment according to the present invention.

도 6에 따르면, 좌측의 깊이 맵 영상(a, c)이 상술한 제1 영상이고, 우측의 RGB 이미지 영상(b, d)이 상술한 제2 영상일 수 있다. 또한, 깊이 맵 영상의 경우 Mode-ROI를 활용하여 깊이 맵 영상의 배경을 삭제하고 물체의 윤곽 위추로 발명을 검출할 수 있다. Referring to FIG. 6 , the depth map images a and c on the left may be the above-described first images, and the RGB image images b and d on the right may be the above-described second images. In addition, in the case of a depth map image, by using Mode-ROI, the background of the depth map image can be deleted and the invention can be detected by displacing the contour of the object.

도 6에 따르면, (c) 그림에서 Mode-ROI를 이용하여 3개의 물체 모두 검출되었다. 그러나, (d) 그림에서는 YOLO 알고리즘을 통하여 2가지의 물체가 검출되었다. 그러나, 가운데 깡통캔은 (d) 그림에서서 알고리즘에 의하여 검출되지 않았다. 따라서, (a, c)와 (b, d)를 결합하여 IoU 알고리즘을 적용한 결과, 가운데의 콜라캔이 미학습 물체로서 검출되었다. According to FIG. 6, all three objects were detected using Mode-ROI in the figure (c). However, in (d), two objects were detected through the YOLO algorithm. However, the can in the middle was not detected by the algorithm in the figure (d). Therefore, as a result of applying the IoU algorithm by combining (a, c) and (b, d), the Coke can in the middle was detected as an unlearned object.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The present invention described above can be modeled as computer readable code on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes modeling in the form of a carrier wave (eg, transmission over the Internet). Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present specification should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Any of the above-described embodiments or other embodiments of the present invention may be combined or combined with each configuration or function.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

10: 학습된 타겟
11: 미학습된 타겟
110: 제1 영상 획득부
120: 제2 영상 획득부
130: 제어부
10: learned target
11: Untrained target
110: first image acquisition unit
120: second image acquisition unit
130: control unit

Claims (11)

복수의 타겟을 촬영하는 제1 영상 획득부 및 제2 영상 획득부를 사용하는 미학습 물체 검출 방법에 있어서,
상기 제1 영상 획득부로부터 제1 영상을 획득하는 단계;
상기 제2 영상 획득부로부터 제2 영상을 획득하는 단계;
상기 제1 영상 및 제2 영상을 기초로 상기 복수의 타겟을 인식하는 단계; 및
상기 복수의 타겟 중 미리 학습된 제1 타겟과 비학습된 제2 타겟을 구분하는 단계;를 포함하는 것인, 스테레오 카메라 기반 미학습 물체 검출 방법.
In the unlearned object detection method using a first image acquisition unit and a second image acquisition unit for photographing a plurality of targets,
acquiring a first image from the first image acquiring unit;
acquiring a second image from the second image acquiring unit;
recognizing the plurality of targets based on the first image and the second image; and
Distinguishing a pre-learned first target from among the plurality of targets and a non-learned second target; will include, a stereo camera-based unlearned object detection method.
제1항에 있어서,
상기 제1 영상 및 제2 영상을 기초로 상기 복수의 타겟을 인식하는 단계는,
상기 제1 영상을 기초로 깊이 정보를 포함하는 깊이 맵을 획득하는 단계;
상기 깊이 맵을 프레임 별로 이진화하는 단계;
상기 이진화된 깊이 맵을 기초로 최빈 데이터를 획득하여 잡음을 제거하는 단계; 및
상기 최빈 데이터를 기초로 상기 복수의 타겟에 대한 복수의 좌표값을 획득하는 단계;를 포함하는 것인, 스테레오 카메라 기반 미학습 물체 검출 방법.
According to claim 1,
Recognizing the plurality of targets based on the first image and the second image includes:
obtaining a depth map including depth information based on the first image;
binarizing the depth map for each frame;
removing noise by obtaining mode data based on the binarized depth map; and
Acquiring a plurality of coordinate values for the plurality of targets based on the mode data; will include, a stereo camera-based unlearned object detection method.
제2항에 있어서,
상기 제1 영상 및 제2 영상을 기초로 상기 복수의 타겟을 인식하는 단계는,
상기 제2 영상을 기초로 제1 학습 알고리즘을 수행하는 단계; 및
상기 학습 결과를 기초로 상기 제1 타겟의 좌표값을 획득하는 단계;를 포함하는 것인, 스테레오 카메라 기반 미학습 물체 검출 방법.
3. The method of claim 2,
Recognizing the plurality of targets based on the first image and the second image includes:
performing a first learning algorithm based on the second image; and
Acquiring the coordinates of the first target based on the learning result; comprising a, stereo camera-based unlearned object detection method.
제3항에 있어서,
상기 복수의 타겟 중 미리 학습된 제1 타겟과 비학습된 제2 타겟을 구분하는 단계는,
상기 제1 영상으로부터 획득한 상기 복수의 좌표값과, 상기 제2 영상으로부터 획득한 상기 제1 타겟의 좌표값을 기초로, 상기 제1 타겟과 상기 제2 타겟을 구분하는 것인, 스테레오 카메라 기반 미학습 물체 검출 방법.
4. The method of claim 3,
The step of distinguishing the pre-learned first target from the non-learned second target among the plurality of targets,
Based on the plurality of coordinate values obtained from the first image and the coordinate values of the first target obtained from the second image, the first target and the second target are distinguished from each other, stereo camera-based A method for detecting unlearned objects.
제1항에 있어서,
상기 제1 영상 획득부는,
광 이미지로부터 영상 이미지를 생성하는 카메라 모듈;을 포함하고,
상기 카메라 모듈은,
측벽에 관통홀을 포함하는 하우징;
상기 관통홀에 설치된 렌즈; 및
상기 렌즈를 구동하는 구동부;를 포함하는 것인, 스테레오 카메라 기반 미학습 물체 검출 방법.
The method of claim 1,
The first image acquisition unit,
A camera module that generates a video image from an optical image; includes,
The camera module is
a housing including a through hole in the side wall;
a lens installed in the through hole; and
A method for detecting unlearned objects based on a stereo camera comprising a; a driving unit for driving the lens.
복수의 타겟의 제1 영상을 촬영하는 제1 영상 획득부;
상기 복수의 타겟의 제2 영상을 촬영하는 제2 영상 획득부; 및
상기 제1 영상 및 상기 제2 영상을 기초로 상기 복수의 타겟을 인식하고, 상기 복수의 타겟 중 미리 학습된 제1 타겟과 비학습된 제2 타겟을 구분하는 제어부;를 포함하는, 스테레오 카메라 기반 미학습 물체 검출 시스템.
a first image acquisition unit for capturing a first image of a plurality of targets;
a second image acquisition unit for capturing second images of the plurality of targets; and
A control unit that recognizes the plurality of targets based on the first image and the second image, and distinguishes a pre-learned first target from a non-learned second target among the plurality of targets; stereo camera-based including; Unlearned object detection system.
제6항에 있어,
상기 제1 영상 획득부는,
광 이미지로부터 영상 이미지를 생성하는 카메라 모듈;을 포함하고,
상기 카메라 모듈은,
측벽에 관통홀을 포함하는 하우징;
상기 관통홀에 설치된 렌즈; 및
상기 렌즈를 구동하는 구동부;를 포함하는 것인, 스테레오 카메라 기반 미학습 물체 검출 시스템.
7. The method of claim 6,
The first image acquisition unit,
A camera module for generating a video image from the optical image; includes,
The camera module,
a housing including a through hole in the sidewall;
a lens installed in the through hole; and
A stereo camera-based unlearned object detection system that includes; a driving unit for driving the lens.
제6항에 있어서,
상기 제어부는,
상기 제1 영상을 기초로 깊이 정보를 포함하는 깊이 맵을 획득하고, 상기 깊이 맵을 프레임 별로 이진화하며, 상기 이진화된 깊이 맵을 기초로 최빈 데이터를 획득하여 잡음을 제거하고, 상기 최빈 데이터를 기초로 상기 복수의 타겟에 대한 복수의 좌표값을 획득하는 것인, 스테레오 카메라 기반 미학습 물체 검출 시스템.
7. The method of claim 6,
The control unit is
Obtaining a depth map including depth information based on the first image, binarizing the depth map for each frame, obtaining mode data based on the binarized depth map to remove noise, and based on the mode data to obtain a plurality of coordinate values for the plurality of targets, a stereo camera-based unlearned object detection system.
제8항에 있어서,
상기 제어부는,
상기 제1 영상 및 제2 영상을 기초로 상기 복수의 타겟을 인식하고, 상기 제2 영상을 기초로 제1 학습 알고리즘을 수행하며, 상기 학습 결과를 기초로 상기 제1 타겟의 좌표값을 획득하는 것인, 스테레오 카메라 기반 미학습 물체 검출 시스템.
9. The method of claim 8,
The control unit is
Recognizing the plurality of targets based on the first image and the second image, performing a first learning algorithm based on the second image, and obtaining the coordinate values of the first target based on the learning result , a stereo camera-based unlearned object detection system.
제9항에 있어서,
상기 제어부는,
상기 제1 영상으로부터 획득한 상기 복수의 좌표값과, 상기 제2 영상으로부터 획득한 상기 제1 타겟의 좌표값을 기초로, 상기 제1 타겟과 상기 제2 타겟을 구분하는 것인, 스테레오 카메라 기반 미학습 물체 검출 시스템.
10. The method of claim 9,
The control unit is
Based on the plurality of coordinate values obtained from the first image and the coordinate values of the first target obtained from the second image, the first target and the second target are distinguished from each other, stereo camera-based Unlearned object detection system.
명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서,
상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제1항의 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체.
A non-transitory computer-readable medium having stored thereon instructions, comprising:
The non-transitory computer-readable medium, wherein the instructions, when executed by a processor, cause the processor to perform the method of claim 1 .
KR1020200183937A 2020-12-24 2020-12-24 Method and system for detecting unlearned objects based on stereo camera KR102589433B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200183937A KR102589433B1 (en) 2020-12-24 2020-12-24 Method and system for detecting unlearned objects based on stereo camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200183937A KR102589433B1 (en) 2020-12-24 2020-12-24 Method and system for detecting unlearned objects based on stereo camera

Publications (2)

Publication Number Publication Date
KR20220092746A true KR20220092746A (en) 2022-07-04
KR102589433B1 KR102589433B1 (en) 2023-10-16

Family

ID=82399157

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200183937A KR102589433B1 (en) 2020-12-24 2020-12-24 Method and system for detecting unlearned objects based on stereo camera

Country Status (1)

Country Link
KR (1) KR102589433B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130077573A (en) * 2011-12-29 2013-07-09 삼성전기주식회사 Camera module
KR101699014B1 (en) 2015-12-11 2017-01-23 재단법인대구경북과학기술원 Method for detecting object using stereo camera and apparatus thereof
JP2017146957A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Augmenting layer-based object detection with deep convolutional neural networks
KR20200039040A (en) * 2018-09-28 2020-04-16 강원호 Method Of Fast And High Efficiency Video Codec Image Coding Based On Object Information Using Machine Learning
KR20200125502A (en) * 2019-04-25 2020-11-04 울산과학기술원 Method and apparatus training artificial neural network for identifying object in image
KR102190315B1 (en) * 2020-01-07 2020-12-11 주식회사 에이아이스튜디오 Method for recognizing goods and sales system using the method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130077573A (en) * 2011-12-29 2013-07-09 삼성전기주식회사 Camera module
KR101699014B1 (en) 2015-12-11 2017-01-23 재단법인대구경북과학기술원 Method for detecting object using stereo camera and apparatus thereof
JP2017146957A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Augmenting layer-based object detection with deep convolutional neural networks
KR20200039040A (en) * 2018-09-28 2020-04-16 강원호 Method Of Fast And High Efficiency Video Codec Image Coding Based On Object Information Using Machine Learning
KR20200125502A (en) * 2019-04-25 2020-11-04 울산과학기술원 Method and apparatus training artificial neural network for identifying object in image
KR102190315B1 (en) * 2020-01-07 2020-12-11 주식회사 에이아이스튜디오 Method for recognizing goods and sales system using the method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
이상호 등, 스테레오 기반 ROI 검출 알고리즘의 성능 향상에 관한 연구, 한국정보기술학회 한국디지털콘텐츠학회 하계학술대회 논문집(2019.06.30.)* *

Also Published As

Publication number Publication date
KR102589433B1 (en) 2023-10-16

Similar Documents

Publication Publication Date Title
WO2020181870A1 (en) Systems and methods for lane detection
WO2017139049A1 (en) Recognition-based object segmentation of a 3-dimensional image
WO2014189484A1 (en) Technologies for increasing the accuracy of depth camera images
CN104660904A (en) Shooting subject recognition method and device
CN107609510B (en) Positioning method and device for lower set of quayside container crane
US9812020B2 (en) Electronic device and unmanned aerial vehicle control method
CN112534469A (en) Image detection method, image detection device, image detection apparatus, and medium
CN112926461B (en) Neural network training and driving control method and device
US11772271B2 (en) Method and computing system for object recognition or object registration based on image classification
CN104252629A (en) Target Detection And Tracking Method And System
CN102792675A (en) Method, system, and computer-readable recording medium for adaptively performing image-matching according to conditions
CN103745236A (en) Texture image identification method and texture image identification device
KR20220092746A (en) Method and system for detecting unlearned objects based on stereo camera
CN111105429B (en) Integrated unmanned aerial vehicle detection method
CN116311135A (en) Data dimension reduction method, data dimension reduction system and controller for semantic information
KR20220112321A (en) System and method for preventing invasion of wild animal using drones
US9070015B2 (en) System and method for iris detection in digital images
KR102483351B1 (en) Control system and control method for manipulator
CN115494856A (en) Obstacle avoidance method and device, unmanned aerial vehicle and electronic equipment
KR102523770B1 (en) Machine vision-based quality management system and method for electric parts using deep learning
KR102603945B1 (en) System and method for vehicle occupant detection
CN105704381A (en) Zoom tracking method and zoom tracking device for camera
KR102524374B1 (en) Automatic classification method and system of agricultural products using image analysis model
KR20230105217A (en) System and method for displaying fines using electronic sign boards
KR20230018018A (en) System and method for provision of korean food information using artificial intelligence

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant