KR20200054344A - 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법 - Google Patents

스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법 Download PDF

Info

Publication number
KR20200054344A
KR20200054344A KR1020180128012A KR20180128012A KR20200054344A KR 20200054344 A KR20200054344 A KR 20200054344A KR 1020180128012 A KR1020180128012 A KR 1020180128012A KR 20180128012 A KR20180128012 A KR 20180128012A KR 20200054344 A KR20200054344 A KR 20200054344A
Authority
KR
South Korea
Prior art keywords
instance
stereo camera
deep learning
data
instance object
Prior art date
Application number
KR1020180128012A
Other languages
English (en)
Other versions
KR102655999B1 (ko
Inventor
이동열
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020180128012A priority Critical patent/KR102655999B1/ko
Publication of KR20200054344A publication Critical patent/KR20200054344A/ko
Application granted granted Critical
Publication of KR102655999B1 publication Critical patent/KR102655999B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법이 개시된다. 본 발명의 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법은, 스테레오 카메라로부터 좌우측 각각의 이미지를 수신하는 스테레오 카메라 이미지 수신부; 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 인스턴스 객체(instance object)를 분류(classification)하고, 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 데이터 추출부; 및 미리 설정된 딥러닝 네트워크 알고리즘을 통해 데이터 추출부에서 추출된 데이터를 연관성이 있는 데이터들끼리 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 인스턴스 객체별 클래스(class) 정보 및 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 딥러닝부;를 포함하는 것을 특징으로 한다.

Description

스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법{APPARATUS AND METHOD FOR DETECTING DISTANCE VALUES PER INSTANCE OBJECT USING A STEREO CAMERA}
본 발명은 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법에 관한 것으로서, 보다 상세하게는 스테레오 카메라의 영상 이미지에서 검출 가능한 데이터를 딥러닝에 활용하여 자차와 주위 인스턴스 객체간의 거리값을 검출하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법에 관한 것이다.
최근 급속한 과학 기술의 발전으로, 디지털 영상 처리는 우주 관측, 의료용, 사진 해석, 디자인, 각종 패턴 인식 및 차량 운행 등 많은 응용 분야에서 실용화되고 있다. 특히 최근에는 이미지나 영상인식 기술을 AI에 결합한 서비스들이 등장하고 있으며, 딥러닝을 활용한 영상인식 기술은 의료, 자율주행차, 커머스 등과 연계할 수 있는 분야가 다양해 기술 개발에 박차를 가하고 있다.
다시 말해, 영상인식이란 카메라로부터 입력된 영상신호를 해석하여, 물체를 분할하고 특징을 추출하는 것이며, 특히 본 실시예에서는 차량 주행에 있어, 영상인식을 수행하여 자차와 자차 주변의 인스턴스(instance) 객체들과의 거리값을 구하는 것에 관한 것이다.
영상인식을 수행하여 배경에서 특정 물체를 추출하는 방법은 다양하나, 도 1에 도시된 바와 같이, 뎁스 맵(Depth map)과 바운딩 박스(bounding box, bbox) 정보를 활용하여, 영상 이미지 내에 존재하는 인스턴스 객체들과 자차간의 상대적인 거리값을 구할 수 있다. 보다 구체적으로는, 바운딩 박스별 상대적 거리 산출을 위해 바운딩 박스 내에서 가장 깊이값이 가장 작은 값을 사용하거나 좌측 이미지와 우측 이미지간의 상관관계를 계산하여 거리값을 산출할 수 있다.
한편, 이미지 내에서 검출해야 하는 다양한 객체들이 존재하는데 이 중 같은 속성을 가지는 객체를 묶어서 정의하는 것을 클래스(class)라고 하며, 적용하는 어플리케이션에 따라 클래스 형태는 가변적일 수 있다. 이때 정의된 클래스의 형태에 따라서 동일한 객체일 수도 있으며, 다른 객체일 수도 있다. 예를 들어, 하늘(sky) 클래스의 경우 이미지 내에 서로 고립된 하늘의 영역이 두 군데 이상에서 나타날 수 있으며, 상기 영역들은 같은 객체로 구분할 수 있다. 반면, 서로 다른 객체인 경우에는, 경계가 애매하여 구분이 어려운 경우에는 객체 구분을 하지 않고 클래스만 정의하고, 예를 들어, 자동차, 보행자, 자전거와 같은 클래스를 정의할 때는 경계가 명확하고 때에 따라서 구분하여 인식하는 것이 중요한 정보이기 때문에, 각 객체를 필수적으로 구분해야 한다. 이때 구분하는 각 객체를 인스턴스 객체라고 한다.
상기 도 1에 도시된 종래기술에서는, 바운딩 박스 내의 모든 필셀 정보를 다 사용하여 자차와 인스턴스 객체와의 거리값을 산출하였다. 이에, 인스턴스 객체와 관련 없는 픽셀들로 정보가 오염되어 정확한 거리산출을 할 수 없는 문제가 있었다. 또한, 뎁스 맵을 산출하여 바운딩 박스별 상대적 거리를 산출함에 따라, 연산량이 상당히 증가하여 성능이 떨어지는 문제가 있었다.
본 발명의 배경기술로는 대한민국 공개특허공보 제10-2014-0142554호(공개일 : 2014.12.12.공개)인 "깊이 정보를 사용한 움직인 물체 검출 장치, 방법 및 컴퓨터 판독 가능한 기록 매체"가 있다.
본 발명의 일 측면에 따르면, 본 발명은 상기와 같은 문제점들을 개선하기 위하여 창안된 것으로, 스테레오 카메라의 영상 이미지에서 검출 가능한 데이터를 딥러닝에 활용하여 자차와 주위 인스턴스 객체간의 거리값을 검출하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명의 일 측면에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치는, 스테레오 카메라로부터 좌우측 각각의 이미지를 수신하는 스테레오 카메라 이미지 수신부; 상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 인스턴스 객체(instance object)를 분류(classification)하고, 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 데이터 추출부; 및 미리 설정된 딥러닝 네트워크 알고리즘을 통해 상기 데이터 추출부에서 추출된 데이터를 연관성이 있는 데이터들끼리 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 인스턴스 객체별 클래스(class) 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 딥러닝부;를 포함하는 것을 특징으로 한다.
본 발명에서, 상기 데이터 추출부는, 상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서, 바운딩 박스(bounding box)와, 픽셀별 특정 인스턴스 객체에 해당되는지를 표시하는 인스턴스별 마스크 세그먼테이션(mask segmentation)을 검출하는 마스크 세그먼테이션 생성부; 및 상기 마스크 세그먼테이션 생성부에서 검출한 인스턴스별 마스크 세그먼테이션을 영역으로 나누고, 바운딩 박스의 원점을 산출하며, 인스턴스 객체별 클래스 정보를 추출하는 영역추출부;를 포함하는 것을 특징으로 한다.
본 발명에서, 상기 딥러닝부는, 좌우측 각각의 이미지에 대한 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리에 대응하는 인스턴스 객체를 나열하고 배열 형태로 구조화시켜 결합(concatenation)하며, 딥러닝 수행을 위한 입력 데이터로 변환하는 결합구조화부; 상기 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리별로 상기 결합구조화부에서 변환한 입력 데이터를 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 부호화(encoding)하는 인코딩부; 상기 인코딩부에서 부호화한 각각의 카테고리별 데이터를 결합(concatenation)하여 하나의 이미지 형태로 압축하는 이미지압축부; 및 상기 이미지압축부에서 압축한 이미지의 데이터를 다시 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 인스턴스 객체별 클래스 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 배열생성부;를 포함하는 것을 특징으로 한다.
본 발명에서, 상기 데이터 추출부는, 상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 바운딩 박스를 검출하고, 상기 검출된 바운딩 박스의 해당 위치의 특징 맵(feature map)을 RoIAlign 방식으로 정렬(align)시켜 추출하며, 상기 추출된 특징 맵으로부터 객체의 클래스를 분류함과 동시에 객체의 마스크를 검출하는 것을 특징으로 한다.
본 발명에서, 상기 미리 설정된 객체분류 알고리즘은, 마스크 R-CNN(mask R-CNN: mask region-based convolutional neural network)을 포함하는 영역 기반 딥러닝 알고리즘인 것을 특징으로 한다.
본 발명에서, 상기 미리 설정된 딥러닝 네트워크 알고리즘은, 컨볼루션 신경망(Convolution Neural Network, CNN) 기반의 딥러닝 네트워크 알고리즘인 것을 특징으로 한다.
본 발명의 다른 측면에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법은, 스테레오 카메라 이미지 수신부가 스테레오 카메라로부터 좌우측 각각의 이미지를 수신하는 단계; 데이터 추출부가 상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 인스턴스 객체(instance object)를 분류(classification)하고, 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 단계; 및 딥러닝부가 미리 설정된 딥러닝 네트워크 알고리즘을 통해 상기 데이터 추출부에서 추출된 데이터를 연관성이 있는 데이터들끼리 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 인스턴스 객체별 클래스(class) 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 단계;를 포함하는 것을 특징으로 한다.
본 발명의 상기 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 단계에서, 상기 데이터 추출부는, 상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서, 바운딩 박스(bounding box)와, 픽셀별 특정 인스턴스 객체에 해당되는지를 표시하는 인스턴스별 마스크 세그먼테이션(mask segmentation)을 검출하고, 상기 검출한 인스턴스별 마스크 세그먼테이션을 영역으로 나누고, 바운딩 박스의 원점을 산출하며, 인스턴스 객체별 클래스 정보를 추출하는 것을 특징으로 한다.
본 발명의 상기 인스턴스 객체별 클래스(class) 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 단계에서, 상기 딥러닝부는, 좌우측 각각의 이미지에 대한 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리에 대응하는 인스턴스 객체를 나열하고 배열 형태로 구조화시켜 결합(concatenation)하며, 딥러닝 수행을 위한 입력 데이터로 변환하고, 상기 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리별로 변환한 입력 데이터를 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 부호화(encoding)하며, 상기 부호화한 각각의 카테고리별 데이터를 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 상기 압축한 이미지의 데이터를 다시 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 인스턴스 객체별 클래스 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 것을 특징으로 한다.
본 발명의 상기 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 단계에서, 상기 데이터 추출부는, 상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 바운딩 박스를 검출하고, 상기 검출된 바운딩 박스의 해당 위치의 특징 맵(feature map)을 RoIAlign 방식으로 정렬(align)시켜 추출하며, 상기 추출된 특징 맵으로부터 객체의 클래스를 분류함과 동시에 객체의 마스크를 검출하는 것을 특징으로 한다.
본 발명에서, 상기 미리 설정된 객체분류 알고리즘은, 마스크 R-CNN(mask R-CNN: mask region-based convolutional neural network)을 포함하는 영역 기반 딥러닝 알고리즘인 것을 특징으로 한다.
본 발명에서, 상기 미리 설정된 딥러닝 네트워크 알고리즘은, 컨볼루션 신경망(Convolution Neural Network, CNN) 기반의 딥러닝 네트워크 알고리즘인 것을 특징으로 한다.
본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법은, 스테레오 카메라의 영상 이미지에서 검출 가능한 데이터를 딥러닝에 활용하여 자차와 주위 인스턴스 객체간의 거리값을 검출함으로써, 정확도를 향상시킬 수 있으며, 뎁스 맵(깊이지도)을 구하지 않기 때문에 연산량 및 하드웨어 저장 용량 감소, 및 속도 향상에 따른 성능 향상의 효과를 얻을 수 있다.
또한, 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법은, 배열을 사용한 간단한 자료구조와, CNN 알고리즘만으로 구현이 쉽게 가능하여 편의성을 향상시킬 수 있다.
또한, 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법은, 계산 용량이 감소하여 필요한 Flop수가 급감하고, 이에 해당하는 계산칩의 크기가 작아져 타겟 보드의 사이즈가 감소되어 경량화가 가능하고, 부품수 감소 및 경량화로 인해 원가 절감의 효과가 있다.
도 1은 종래의 스테레오 카메라를 이용한 객체별 거리 산출 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치를 나타낸 블록구성도이다.
도 3은 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치의 데이터 추출을 설명하기 위한 도면이다.
도 5a, b는 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치의 딥러닝 과정을 설명하기 위한 도면이다.
이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 2는 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치를 나타낸 블록구성도이고, 도 4는 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치의 데이터 추출을 설명하기 위한 도면이며, 도 5a, b는 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치의 딥러닝 과정을 설명하기 위한 도면으로서, 이를 참조하여 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치를 설명하면 다음과 같다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치는, 스테레오 카메라 이미지 수신부(10), 데이터 추출부(20) 및 딥러닝부(30)를 포함한다.
먼저, 일 실시예에 따르면, 본 발명은 스테레오 카메라를 사용하는 환경에서 자차의 주변(전방 등)의 객체를 판별하고 객체별 거리를 산출하는 발명에 관한 것이다.
이에, 스테레오 카메라 이미지 수신부(10)는 스테레오 카메라로부터 촬영된 좌측(Left) 이미지와 우측(Right) 이미지를 수신하는 것으로, 수신한 좌측 및 우측 이미지를 데이터 추출부(20) 및 그 외 차량 내 ECU 등으로 전송할 수 있다.
데이터 추출부(20)는 마스크 세그먼테이션(mask segmentation) 생성부(22) 및 영역추출부(24)를 포함하여, 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 인스턴스 객체(instance object)를 분류(classification)하고, 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출한다.
다시 말해, 데이터 추출부(20)는 스테레오 카메라 이미지 수신부(10)에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 바운딩 박스(bounding box)를 검출하고, 상기 검출된 바운딩 박스의 해당 위치의 특징 맵(feature map)을 RoIAlign 방식으로 정렬(align)시켜 추출하며, 상기 추출된 특징 맵으로부터 객체의 클래스를 분류함과 동시에 객체의 마스크를 검출할 수 있다.
여기서, 바운딩 박스는 이미지 내에서 인스턴스 객체를 모두 포함하는 사각박스를 의미한다. 일반적으로 바운딩 박스의 원점 또는 대각선 양 극값의 위치 좌표에 의해서 정의되며, 원점과 대각선 양 극값은 서로 쉽게 구할 수 있다.
마스크 세그먼테이션 생성부(22)는 도 4에 도시된 바와 같이, 스테레오 카메라 이미지 수신부(10)에서 수신한 좌우측 각각의 이미지에서, 바운딩 박스(bounding box)와, 픽셀별 특정 인스턴스 객체에 해당되는지를 표시하는 인스턴스별 마스크 세그먼테이션(mask segmentation)을 검출한다. 이때, (a)는 마스크 세그멘테이션 결과 영역이고, (b)는 검출된 객체의 클래스 정보와 바운딩 박스의 이미지 내 원점 좌표이다.
한편, 이미지 내에서 픽셀 단위로, 사전에 정의한 클래스로 맵핑(mapping)하는 것을 세그멘테이션(segmentation, 분할)이라고 하며, 이때 동일한 인스턴스(instance) 또는 클래스(class)끼리 세그멘테이션된 픽셀들을 묶어서 이미지화한 것을 마스크 세그멘테이션(mask segmentation)이라고 한다. 보다 정확히는 인스턴스 끼리 묶으면 instance mask segmentation, 클래스 끼리 묶으면 class mask segmentation 이라고 하나, 본 실시예에서는 instance object를 인식하는 것을 대상으로 하기 때문에, instance mask segmentation만 해당되므로, instance mask segmentation을 간략히 mask segmentation이라고 할 수 있다.
그리고 영역추출부(24)는 상기 마스크 세그먼테이션 생성부(22)에서 검출한 인스턴스별 마스크 세그먼테이션을 영역으로 나누고, 바운딩 박스의 원점을 산출하며, 인스턴스 객체별 클래스 정보를 추출한다.
한편, 본 실시예에서, 미리 설정된 객체분류 알고리즘은 마스크 R-CNN(Mask R-CNN: mask region-based convolutional neural network)을 포함하는 영역 기반 딥러닝 알고리즘이다.
여기서, Mask R-CNN은 이미지 면(plane)에서 인스턴스 객체를 인식하는 알고리즘 중 하나이다. 수많은 바운딩 박스를 제안(proposal-based)하고 제안된 바운딩 박스 내에서 CNN(Convolutional Neural Network) 기반의 딥러닝 알고리즘으로 가장 주요한 인스턴스 객체를 픽셀 단위(pixel-wise)로 나타낸다. 이때 찾아낸 결과가 옳을 경우에는 이미지 내에서 인스턴스 객체에 해당하는 모든 픽셀들이 찾아질 것이다.
또한, Mask R-CNN은 제안된 바운딩 박스(RoI라고도 함)에서, 해당 위치의 특징 맵(feature map)을 RoIAling 방식으로 추출하고, 추출된 특징 맵으로부터 객체의 클래스를 분류함과 동시에 객체의 마스크를 얻을 수 있으며, 여러 객체들을 각각의 인스턴스로 인식할 수 있다. 즉, Mask R-CNN은 RoIAlign과 클래스별 마스크를 분리하는 알고리즘이며, 객체 검출(object detection)과 semantic segmentation(이론적 분할)을 별개의 작업으로 수행하지 않을 수 있다. 그리고 RoIAlign은 특징 맵을 정렬(align)시켜 바이리니어 인터폴레이션(bilinear interpolation)과 같은 보간법을 사용하여 보정된 특정 값을 사용한다. 즉, RoIAlign은 반올림 등을 사용하지 않고 바이리니어 인터폴레이션을 이용해서 특징 맵의 RoI 영역을 정확하게 정렬되도록 할 수 있다.
다시 말해, Mask R-CNN은 RoI 영역 안에 있는 객체의 마스클 예측할 때 클래스별로 독립적으로 예측할 수 있다. 즉 k개의 클래스가 존재한다면 마스크를 k개 예측할 수 있으며, 실제 클래스에 해당하는 마스크 채널의 loss(손실)만 사용해서 학습시킬 수 있다. 종래의 분할(segmentation) 네트워크에서는 영상의 한 픽셀이 어떤 클래스에 해당하는지를 예측하기 위해서 모든 클래스들은 서로 상호 배제임을 가정하였다. 그러므로 한 픽셀에 대해 모든 클래스가 경쟁 상태에 놓이게 된다.
그러나 Mask R-CNN은 RoI의 객체의 클래스가 무엇인지 예측하는 것과 그 객체의 마스크를 예측하는 것이 분리되어 있다. 객체의 클래스 예측은 다른 네트워크와 마찬가지로 상호 배제를 가정하여 서로 경쟁하나, 그 객체의 마스크를 예측할 때는 객체에 대한 k개의 마스크를 예측하고, k개의 마스크는 loss 계산이 독립적으로 이루어지기 때문에 서로 경쟁하지 않을 수 있다.
다음으로, 딥러닝부(30)는 결합구조화부(32), 인코딩(encoding)부(34), 이미지압축부(36) 및 배열생성부(38)을 포함하여, 도 5a, b에 도시된 바와 같이, 미리 설정된 딥러닝 네트워크 알고리즘을 통해 상기 데이터 추출부에서 추출된 데이터를 연관성이 있는 데이터들끼리 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 인스턴스 객체별 클래스(class) 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성한다.
먼저, 결합구조화부(32)는 좌우측 각각의 이미지에 대한 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리에 대응하는 인스턴스 객체를 나열하고 배열 형태로 구조화시켜 결합(concatenation)하며, 딥러닝 수행을 위한 입력 데이터로 변환한다.
한편, 본 실시예에서, 결합(concatenation)이란, 딥러닝에서 사용되는 용어로 다(n)차원 또는 다채널 배열을 기준으로 하며, 특정 채널을 기준으로 배열을 바로 쌓는 것을 의미한다. 이로 인해, n차원 배열에서 하나의 채널을 제외한 나머지 채널이 무조건 동일해야만 결합(concatenation)이 가능하다. 예를 들어 5*5*3 배열과 5*5*10 채널을 결합(concatenation)하면 3번째 채널을 기준으로 배열을 쌓아 5*5*13채널이 되나, 5*5*3 배열과 5*3*10 채널의 경우 두 개 이상의 채널에서 크기가 상이하기 때문에 결합(concatenation)이 될 수 없다.
그리고 인코딩부(34)는 상기 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리별로 상기 결합구조화부에서 변환한 입력 데이터를 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 부호화(encoding)한다.
또한, 이미지압축부(36)는 상기 인코딩부(34)에서 부호화한 각각의 카테고리별 데이터를 결합(concatenation)하여 하나의 이미지 형태로 압축할 수 있다.
최종적으로, 배열생성부(38)는 상기 이미지압축부(36)에서 압축한 이미지의 데이터를 다시 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 인스턴스 객체별 클래스 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성할 수 있다. 즉, 배열생성부(38)는 최종적으로 인스턴스 객체별 클래스 정보와, 상기 인스턴스 객체와 자차간의 거리값을 검출할 수 있다.
본 실시예에서, 상기 미리 설정된 딥러닝 네트워크 알고리즘은 컨볼루션 신경망(CNN) 기반의 딥러닝 네트워크 알고리즘이다.
CNN은 Convolution Neural Network의 약자로, convolution filter, pooling, relu/tanh/absolute/sigmode function 등 딥러닝 기본 구성 블럭을 통해서 정의되며, convolution filter, pooling, relu function 등을 조합하는 방법에 따라 수 만 가지의 방법이 있을 수 있다. CNN은 pooling으로 인해서 이미지로부터 관련성 있는 정보들을 포함하는 데이터들이 서로 합쳐지고 배열의 크기가 감소하게 되며, pooling은 상기와 같이 특징이 압축되었다고 해서 encoding 이라고 부르기도 한다.
한편, 상술하는 내용은 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치의 forward pass에 대한 것으로, CNN을 학습시키기 위해 backward pass가 동작할 수 있다.
즉, 본 실시예에서는, 실제 물체와 자차간의 정답지를 사용하여 상기에서 예측한 거리정보와의 차이를 loss(손실)로 계산하여 CNN의 가중치(weight)들을 학습시킬 수 있다. 이때, 정답지는 스테레오 카메라 외에 라이더(lidar) 센서(미도시)를 통해서 얻거나 고정밀 거리센서(미도시)를 통해서 얻을 수 있다. 이때, loss 계산에는 L2 loss 등이 사용될 수 있다. 또한, backward pass에서 학습은 Mask R-CNN을 포함하여 학습할 수도 있으며, Mask R-CNN 이후 CNN 네트워크에 대해서만 학습할 수도 있다. 만약, Mask R-CNN을 학습시키지 않을 경우에는 해당 가중치들을 학습 시에 업데이트 대상에서 제외할 수 있다.
도 3은 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법을 설명하기 위한 흐름도로서, 이를 참조하여 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법을 설명하면 다음과 같다.
먼저, 스테레오 카메라 이미지 수신부(10)가 스테레오 카메라로부터 좌우측 각각의 이미지를 수신한다(S10).
다음으로, 데이터 추출부(20)는 스테레오 카메라 이미지 수신부(10)에서 수신한 좌우측 각각의 이미지에서, 바운딩 박스(bounding box)와, 픽셀별 특정 인스턴스 객체에 해당되는지를 표시하는 인스턴스별 마스크 세그먼테이션(mask segmentation)을 검출한다(S20).
그리고, 데이터 추출부(20)는 S20단계에서 검출한 인스턴스별 마스크 세그먼테이션을 영역으로 나누고, 바운딩 박스의 원점을 산출하며, 인스턴스 객체별 클래스 정보를 추출한다(S30).
즉, 데이터 추출부(20)는 스테레오 카메라 이미지 수신부(10)에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 인스턴스 객체(instance object)를 분류(classification)하고, 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출할 수 있다.
다시 말해, 데이터 추출부(20)는 스테레오 카메라 이미지 수신부(10)에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 바운딩 박스(bounding box)를 검출하고, 상기 검출된 바운딩 박스의 해당 위치의 특징 맵(feature map)을 RoIAlign 방식으로 정렬(align)시켜 추출하며, 상기 추출된 특징 맵으로부터 객체의 클래스를 분류함과 동시에 객체의 마스크를 검출할 수 있다.
한편, 본 실시예에서, 미리 설정된 객체분류 알고리즘은 마스크 R-CNN(Mask R-CNN: mask region-based convolutional neural network)을 포함하는 영역 기반 딥러닝 알고리즘이다.
여기서, Mask R-CNN은 이미지 면(plane)에서 인스턴스 객체를 인식하는 알고리즘 중 하나이다. 수많은 바운딩 박스를 제안(proposal-based)하고 제안된 바운딩 박스 내에서 CNN(Convolutional Neural Network) 기반의 딥러닝 알고리즘으로 가장 주요한 인스턴스 객체를 픽셀 단위(pixel-wise)로 나타낸다.
그 다음, 딥러닝부(30)는 좌우측 각각의 이미지에 대한 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리에 대응하는 인스턴스 객체를 나열하고 배열 형태로 구조화시켜 결합(concatenation)하며, 딥러닝 수행을 위한 입력 데이터로 변환한다(S40).
그리고, 딥러닝부(30)는 S40단계에서, 상기 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리별로 변환한 입력 데이터를 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 부호화(encoding)한다(S50).
다음으로, 딥러닝부(30)는 S50단계에서, 부호화한 각각의 카테고리별 데이터를 결합(concatenation)하여 하나의 이미지 형태로 압축하고(S60), 상기 압축한 이미지의 데이터를 다시 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 인스턴스 객체별 클래스 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성한다(S70).
즉, 딥러닝부(30)는 미리 설정된 딥러닝 네트워크 알고리즘을 통해 상기 데이터 추출부에서 추출된 데이터를 연관성이 있는 데이터들끼리 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 인스턴스 객체별 클래스(class) 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하며, 즉 최종적으로 인스턴스 객체별 클래스 정보와, 상기 인스턴스 객체와 자차간의 거리값을 검출할 수 있다.
본 실시예에서, 상기 미리 설정된 딥러닝 네트워크 알고리즘은 컨볼루션 신경망(CNN) 기반의 딥러닝 네트워크 알고리즘이다.
CNN은 Convolution Neural Network의 약자로, convolution filter, pooling, relu/tanh/absolute/sigmode function 등 딥러닝 기본 구성 블럭을 통해서 정의되며, convolution filter, pooling, relu function 등을 조합하는 방법에 따라 수 만 가지의 방법이 있을 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법은, 스테레오 카메라의 영상 이미지에서 검출 가능한 데이터를 딥러닝에 활용하여 자차와 주위 인스턴스 객체간의 거리값을 검출함으로써, 정확도를 향상시킬 수 있으며, 뎁스 맵(깊이지도)을 구하지 않기 때문에 연산량 및 하드웨어 저장 용량 감소, 및 속도 향상에 따른 성능 향상의 효과를 얻을 수 있다.
또한, 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법은, 배열을 사용한 간단한 자료구조와, CNN 알고리즘만으로 구현이 쉽게 가능하여 편의성을 향상시킬 수 있다.
또한, 본 발명의 일 실시예에 따른 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법은, 계산 용량이 감소하여 필요한 Flop수가 급감하고, 이에 해당하는 계산칩의 크기가 작아져 타겟 보드의 사이즈가 감소되어 경량화가 가능하고, 부품수 감소 및 경량화로 인해 원가 절감의 효과가 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.
10 : 스테레오 카메라 이미지 수신부
20 : 데이터 추출부
22 : 마스크 세그먼테이션(mask segmentation) 생성부
24 : 영역추출부
30 : 딥러닝부
32 : 결합구조화부
34 : 인코딩(encoding)부
36 : 이미지압축부
38 : 배열생성부

Claims (12)

  1. 스테레오 카메라로부터 좌우측 각각의 이미지를 수신하는 스테레오 카메라 이미지 수신부;
    상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 인스턴스 객체(instance object)를 분류(classification)하고, 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 데이터 추출부; 및
    미리 설정된 딥러닝 네트워크 알고리즘을 통해 상기 데이터 추출부에서 추출된 데이터를 연관성이 있는 데이터들끼리 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 인스턴스 객체별 클래스(class) 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 딥러닝부;를 포함하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치.
  2. 제 1항에 있어서,
    상기 데이터 추출부는,
    상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서, 바운딩 박스(bounding box)와, 픽셀별 특정 인스턴스 객체에 해당되는지를 표시하는 인스턴스별 마스크 세그먼테이션(mask segmentation)을 검출하는 마스크 세그먼테이션 생성부; 및
    상기 마스크 세그먼테이션 생성부에서 검출한 인스턴스별 마스크 세그먼테이션을 영역으로 나누고, 바운딩 박스의 원점을 산출하며, 인스턴스 객체별 클래스 정보를 추출하는 영역추출부;를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치.
  3. 제 2항에 있어서,
    상기 딥러닝부는,
    좌우측 각각의 이미지에 대한 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리에 대응하는 인스턴스 객체를 나열하고 배열 형태로 구조화시켜 결합(concatenation)하며, 딥러닝 수행을 위한 입력 데이터로 변환하는 결합구조화부;
    상기 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리별로 상기 결합구조화부에서 변환한 입력 데이터를 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 부호화(encoding)하는 인코딩부;
    상기 인코딩부에서 부호화한 각각의 카테고리별 데이터를 결합(concatenation)하여 하나의 이미지 형태로 압축하는 이미지압축부; 및
    상기 이미지압축부에서 압축한 이미지의 데이터를 다시 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 인스턴스 객체별 클래스 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 배열생성부;를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치.
  4. 제 1항에 있어서,
    상기 데이터 추출부는,
    상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 바운딩 박스를 검출하고, 상기 검출된 바운딩 박스의 해당 위치의 특징 맵(feature map)을 RoIAlign 방식으로 정렬(align)시켜 추출하며, 상기 추출된 특징 맵으로부터 객체의 클래스를 분류함과 동시에 객체의 마스크를 검출하는 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치.
  5. 제 1항에 있어서,
    상기 미리 설정된 객체분류 알고리즘은,
    마스크 R-CNN(mask R-CNN: mask region-based convolutional neural network)을 포함하는 영역 기반 딥러닝 알고리즘인 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치.
  6. 제 1항에 있어서,
    상기 미리 설정된 딥러닝 네트워크 알고리즘은,
    컨볼루션 신경망(Convolution Neural Network, CNN) 기반의 딥러닝 네트워크 알고리즘인 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치.
  7. 스테레오 카메라 이미지 수신부가 스테레오 카메라로부터 좌우측 각각의 이미지를 수신하는 단계;
    데이터 추출부가 상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 인스턴스 객체(instance object)를 분류(classification)하고, 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 단계; 및
    딥러닝부가 미리 설정된 딥러닝 네트워크 알고리즘을 통해 상기 데이터 추출부에서 추출된 데이터를 연관성이 있는 데이터들끼리 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 인스턴스 객체별 클래스(class) 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 단계;를 포함하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법.
  8. 제 7항에 있어서,
    상기 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 단계에서, 상기 데이터 추출부는,
    상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서, 바운딩 박스(bounding box)와, 픽셀별 특정 인스턴스 객체에 해당되는지를 표시하는 인스턴스별 마스크 세그먼테이션(mask segmentation)을 검출하고, 상기 검출한 인스턴스별 마스크 세그먼테이션을 영역으로 나누고, 바운딩 박스의 원점을 산출하며, 인스턴스 객체별 클래스 정보를 추출하는 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법.
  9. 제 8항에 있어서,
    상기 인스턴스 객체별 클래스(class) 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 단계에서, 상기 딥러닝부는,
    좌우측 각각의 이미지에 대한 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리에 대응하는 인스턴스 객체를 나열하고 배열 형태로 구조화시켜 결합(concatenation)하며, 딥러닝 수행을 위한 입력 데이터로 변환하고, 상기 마스크 세그먼테이션 영역, 바운딩 박스의 원점 및 객체별 클래스 정보 각각의 카테고리별로 변환한 입력 데이터를 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 부호화(encoding)하며, 상기 부호화한 각각의 카테고리별 데이터를 결합(concatenation)하여 하나의 이미지 형태로 압축하고, 상기 압축한 이미지의 데이터를 다시 미리 설정된 딥러닝 네트워크 알고리즘에 입력하여 인스턴스 객체별 클래스 정보 및 상기 인스턴스 객체와 자차간의 거리값을 포함하는 2 채널의 배열을 생성하는 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법.
  10. 제 7항에 있어서,
    상기 인스턴스 객체별 거리값 추출 딥러닝을 위한 데이터를 추출하는 단계에서, 상기 데이터 추출부는,
    상기 스테레오 카메라 이미지 수신부에서 수신한 좌우측 각각의 이미지에서 미리 설정된 객체분류 알고리즘을 통해 바운딩 박스를 검출하고, 상기 검출된 바운딩 박스의 해당 위치의 특징 맵(feature map)을 RoIAlign 방식으로 정렬(align)시켜 추출하며, 상기 추출된 특징 맵으로부터 객체의 클래스를 분류함과 동시에 객체의 마스크를 검출하는 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법.
  11. 제 7항에 있어서,
    상기 미리 설정된 객체분류 알고리즘은, 마스크 R-CNN(mask R-CNN: mask region-based convolutional neural network)을 포함하는 영역 기반 딥러닝 알고리즘인 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법.
  12. 제 7항에 있어서,
    상기 미리 설정된 딥러닝 네트워크 알고리즘은, 컨볼루션 신경망(Convolution Neural Network, CNN) 기반의 딥러닝 네트워크 알고리즘인 것을 특징으로 하는 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 방법.
KR1020180128012A 2018-10-25 2018-10-25 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법 KR102655999B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180128012A KR102655999B1 (ko) 2018-10-25 2018-10-25 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180128012A KR102655999B1 (ko) 2018-10-25 2018-10-25 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200054344A true KR20200054344A (ko) 2020-05-20
KR102655999B1 KR102655999B1 (ko) 2024-04-11

Family

ID=70919391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180128012A KR102655999B1 (ko) 2018-10-25 2018-10-25 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102655999B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102225774B1 (ko) * 2020-10-07 2021-03-10 (주)인포스텍 긴급차량을 감지하여 긴급차량 통행 알림 표시기를 제어하는 방법과 이를 위한 통행 제어 장치 및 통행 제어 장치를 포함하는 긴급차량 통행 제어 시스템
KR102290510B1 (ko) * 2020-07-15 2021-08-13 이영훈 딥러닝 기반의 스마트 tv 자동 제어 방법 및 이를 수행하는 스마트 tv
KR20210155536A (ko) * 2020-06-16 2021-12-23 남서울대학교 산학협력단 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법
WO2023054957A1 (ko) * 2021-10-01 2023-04-06 삼성전자 주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치
KR20230087816A (ko) 2021-12-10 2023-06-19 동명대학교산학협력단 딥러닝 모델 학습 시스템 및 방법, 그리고 딥러닝 모델을 이용한 영상 분류 시스템 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170122836A (ko) * 2015-08-07 2017-11-06 구글 엘엘씨 이미지로부터 상가 발견

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170122836A (ko) * 2015-08-07 2017-11-06 구글 엘엘씨 이미지로부터 상가 발견

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Chou, Yao, et al. "A parallel convolutional neural network architecture for stereo vision estimation." 2017 IEEE International Conference on Image Processing (ICIP). IEEE, 2017.* *
He, Kaiming, et al. "Mask r-cnn." Proceedings of the IEEE international conference on computer vision. 2017.* *
Konda, Kishore Reddy, and Roland Memisevic. "Learning visual odometry with a convolutional network." VISAPP (1) 2015 (2015): 486-490. *
Xu, Bin, and Zhenzhong Chen. "Multi-level fusion based 3d object detection from monocular images." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.* *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210155536A (ko) * 2020-06-16 2021-12-23 남서울대학교 산학협력단 스테레오 영상과 딥러닝을 이용한 교통량 산정 시스템 및 그 방법
KR102290510B1 (ko) * 2020-07-15 2021-08-13 이영훈 딥러닝 기반의 스마트 tv 자동 제어 방법 및 이를 수행하는 스마트 tv
KR102290505B1 (ko) * 2020-07-15 2021-08-13 이영훈 딥러닝 기반의 스마트 tv 자동 제어 방법 및 이를 수행하는 스마트 tv
KR102225774B1 (ko) * 2020-10-07 2021-03-10 (주)인포스텍 긴급차량을 감지하여 긴급차량 통행 알림 표시기를 제어하는 방법과 이를 위한 통행 제어 장치 및 통행 제어 장치를 포함하는 긴급차량 통행 제어 시스템
WO2023054957A1 (ko) * 2021-10-01 2023-04-06 삼성전자 주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치
KR20230087816A (ko) 2021-12-10 2023-06-19 동명대학교산학협력단 딥러닝 모델 학습 시스템 및 방법, 그리고 딥러닝 모델을 이용한 영상 분류 시스템 및 방법

Also Published As

Publication number Publication date
KR102655999B1 (ko) 2024-04-11

Similar Documents

Publication Publication Date Title
KR20200054344A (ko) 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법
KR100762670B1 (ko) 스테레오 이미지로부터 디스패리티 맵을 생성하는 방법 및장치와 그를 위한 스테레오 매칭 방법 및 장치
CN111062263B (zh) 手部姿态估计的方法、设备、计算机设备和存储介质
KR20200031019A (ko) 깊이 데이터를 최적화하기 위해 깊이 맵에 이미지 등록을 수행할 수 있는 깊이 데이터 처리 시스템
CN112200056B (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN111382637B (zh) 行人检测跟踪方法、装置、终端设备及介质
US9386266B2 (en) Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream
CN111160291A (zh) 基于深度信息与cnn的人眼检测方法
US8164633B2 (en) Calibration apparatus and method for imaging devices and computer program
CN113592015B (zh) 定位以及训练特征匹配网络的方法和装置
CN114155278A (zh) 目标跟踪及相关模型的训练方法和相关装置、设备、介质
JP2020017136A (ja) 物体検出認識装置、方法、及びプログラム
Srikakulapu et al. Depth estimation from single image using defocus and texture cues
Hyun et al. Hardware-friendly architecture for a pseudo 2D weighted median filter based on sparse-window approach
CN110689556A (zh) 跟踪方法、装置及智能设备
JP6393495B2 (ja) 画像処理装置および物体認識方法
US11961256B2 (en) Method for indoor localization using deep learning
KR20160148806A (ko) 방향정보를 이용한 객체 검출기 생성 방법, 이를 이용한 객체 검출 장치 및 방법
de Lima et al. Toward a smart camera for fast high-level structure extraction
KR101505360B1 (ko) 시차 탐색 범위 추정 장치 및 방법
KR101220003B1 (ko) 시차 맵 생성 방법
CN113095257A (zh) 异常行为检测方法、装置、设备及存储介质
CN111753766A (zh) 一种图像处理方法、装置、设备及介质
Joglekar et al. Area based stereo image matching technique using Hausdorff distance and texture analysis
CN111435448A (zh) 图像显著性物体检测方法、装置、设备及介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right