KR102224218B1 - 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치 - Google Patents

비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치 Download PDF

Info

Publication number
KR102224218B1
KR102224218B1 KR1020190050429A KR20190050429A KR102224218B1 KR 102224218 B1 KR102224218 B1 KR 102224218B1 KR 1020190050429 A KR1020190050429 A KR 1020190050429A KR 20190050429 A KR20190050429 A KR 20190050429A KR 102224218 B1 KR102224218 B1 KR 102224218B1
Authority
KR
South Korea
Prior art keywords
feature map
object detection
previous frame
current frame
information
Prior art date
Application number
KR1020190050429A
Other languages
English (en)
Other versions
KR20200130768A (ko
Inventor
최준원
고준호
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020190050429A priority Critical patent/KR102224218B1/ko
Publication of KR20200130768A publication Critical patent/KR20200130768A/ko
Application granted granted Critical
Publication of KR102224218B1 publication Critical patent/KR102224218B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에서 제안하는 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법은 카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합하는 단계 및 현재 프레임과 이전 프레임과의 상관관계에 따라 이전 프레임의 정보의 사용 정도를 결정하여 물체 검출을 수행하는 단계를 포함한다.

Description

비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치{Method and Apparatus for Deep Learning based Object Detection utilizing Video Time Information}
본 발명은 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치에 관한 것이다.
물체 검출기법이란 카메라 영상으로부터 검출하고자 하는 물체의 위치와 클래스를 구분하는 기술을 의미한다. 영상 정보를 통한 물체 검출 기술은 컴퓨터 비전 분야에서 오랫동안 연구되어 왔던 분야이다. 최근에 딥뉴럴네트워크 구조를 이용하는 딥러닝 기술이 발전함에 따라 대용량의 영상데이터로부터 고차원의 특집지도를 학습하여 이를 통해 매우 높은 수준의 정확도로 물체를 검출하는 방법이 제안되었다. 이러한 기술은 자율주행, 로봇공학, 의료, 보안 등 다양한 분야에서 활발히 적용되고 있고 공장에서 사용되는 로봇 또한 영상 기반 물체 인지 기술을 사용하여 스스로 공장 환경의 변화와 특징을 학습하고 궁극적으로 로봇의 지능과 처리 성능을 극대화하는 기법에도 중요한 기술로 사용되고 있다. 이처럼 영상분야의 인지 기술의 발달과 함께 환경과 상황에 대한 이해를 통한 물체 검출 기술의 필요성이 높아지고 있다. 이러한 인지기술을 바탕으로 물체의 주변 환경과 상황에 대한 이해가 함께 이루어지는 기술은 물체 검출을 넘어 물체간의 관계 파악, 물체의 위치 예측 등의 다양한 분야에 응용 될 수 있다.
제안하는 기술과 관련도가 높은 종래 기술은 영상 기반의 물체 검출기술이 있다. 딥러닝 기술이 적용되기 이전에는 발명자가 데이터의 주요 특징들을 추출할 수 있는 기법들을 정교하게 설계하여 영상의 특징값을 얻고 이를 통계적인 분류기를 통해 물체를 인식 또는 검출하는 기술이 주로 사용되었다. 예를 들어, 영상의 선의 구조나 형태 등의 특징들을 알아내고 이를 이미 알고 있는 템플릿과 비교하여 물체를 인지하거나 검출하는 기술이다. 대표적인 특징 추출 기술로는 SIFT(Scale invariant feature transform)과 HOG (Histogram of oriented gradients) 표현자 등이 있다. SIFT는 영상에서 코너점 등 시결이 용이한 특징점들을 선택한 후에 각 특징점을 중심으로 한 로컬 패치에 대해 방향성을 갖는 특징 벡터를 추출하는 방법이다. 이는 주변의 밝기 변화의 방향 및 밝기 변화의 급격한 정도를 표현하는 특징을 이용한 방법이다. 이는 주변의 밝기 변화의 방향 및 밝기 변화의 급격한 정도를 표현하는 특징을 이용한 방법이다. HOG는 대산 영역을 일정 크기의 셀로 분할하고, 각 셀마다 경계 픽셀들의 방향에 대한 히스토그램을 구한 후 이들 히스토그램 bin 값들을 일렬로 연결한 벡터를 이용한 방법이다. HOG경계의 방향정보를 이용하기 때문에 경계기반 템플릿의 매칭 방법이다. 또한 물체의 실루엣 정보를 이용하므로 사람, 자동차 등과 같이 내부 패턴이 복잡하지 않으면서도 고유의 독특한 윤곽선 정보를 갖는 물체를 식별하는데 적합한 방법이다. 이러한 기술들은 미리 엣지나 형태에 대한 물체의 알려진 정보만을 활용하기 때문에 영상 데이터에 다양한 조도 변화나 형태 왜곡, 노이즈, 가림 등이 발생하는 경우에 특징값이 예측된 분포에서 벗어나게 되면 인식 성능이 크게 떨어지는 단점이 있다.
이러한 특징값 기반의 물체 검출 기법의 한계를 극복하기 위해서 딥러닝 기술은 보다 일반화된 학습 모델인 딥뉴럴 네트워크 구조를 사용하여 방대한 양의 데이터로부터 데이터의 표현 방법 즉 특징지도를 학습하게 된다. 이러한 경우 데이터의 표현 방법을 다양한 종류의 데이터를 통해 얻기 때문에 영상 정보의 다양한 변화와 악의적인 요소에 대해 좋은 성능을 얻을 수 있다. 딥러닝 기법을 이용한 종래 물체검출 방법에는 R-CNN 기법이 있다. R-CNN 기법은 카메라 센서로부터 입력을 받아 먼저 이미지에서 물체의 후보가 될 수 있는 영역을 제안하는 전처리 네트워크를 거친 후, 그 영역에 대한 정보를 각각 딥뉴럴 네트워크의 입력으로 하는 물체 분류 네트워크에 통과시키는 방법이다. 또한 R-CNN의 단점을 개선한 Fast R-CNN 기법은 기존의 R-CNN 기법의 연산량을 줄이기 위해 CNN 네트워크를 이용하여 특징값을 찾고 중간 노드의 특징지도 단에서 물체 후보 영역에 대한 정보를 추출하는 영역제안 네트워크와 물체의 종류를 판별하는 컨볼루션 네트워킹을 사용하여 물체 검출을 수행하게 된다. 최근에는 이러한 두 가지 네트워크를 하나로 통합하여 물체 영역의 위치를 찾는 단계와 물체의 종류를 구분하는 단계를 통합하여 처리하는 SSD(Single shot detector)와 YOLO(You only look once)하는 딥러닝 물체 검출 기법이 제안되었다.
딥러닝을 기반으로 하는 종래의 물체 검출 기술의 문제점으로는 CNN으로부터 특징값으로부터 물체에 해당하는 특징값을 매칭하여 물체의 영역과 종류를 판별하기 때문에 영상 데이터의 시간정보를 활용하지 않아서 가려진 물체나 사라진 물체에 대한 검출에 한계가 있다. 하지만 실제 사람의 경우 이전의 물체 위치를 기억하고 현재 물체가 가려지더라도 애매한 위치에 있는 물체라도 매우 높은 가능성으로 물체를 인지할 수 있다. 이처럼 영상 데이터에서 가지고 있는 시간정보를 이용하지 않는 것은 데이터가 가지고 있는 정보를 충분히 활용하지 않는다는 문제를 가지게 된다.
[비특허문헌]
(1) T. Y. Lin, P. Goyal, R. Girshick, K. He, and P. Dollar. "Focal loss for dense object detection," in ICCV, 2017.
(2) Zeming Li, Chao Peng, Gang Yu, Xiangyu Zhang, Yangdong Deng, Jian Sun, "DetNet: A Backbone network for Object Detection", 19 Apr 2018
(3) K. He, X. Zhang, S. Ren, and J. Sun. "Deep residual learning for image recognition,"in CVPR 2016.
(4) 네이버 블로그(MASK R-CNN, 2017. 5. 23, https://blog.naver.com/sogangori/221012300995)
본 발명이 이루고자 하는 기술적 과제는 딥러닝 기반 물체 검출 기법의 성능을 개선하기 위하여 물체가 있는 지역정보와 함께 별도의 CNN구조를 활용하여 얻은 비디오 시퀀스의 시간 정보를 함께 이용하여 물체를 검출할 수 있는 방법 및 장치를 제안하고자 한다. 또한, 딥러닝을 기반으로 하는 물체 검출의 기술을 비디오 데이터에서 프레임간의 상관관계에 대한 이해를 수행하여 물체 검출 성능의 수준을 향상시키는 것을 목적으로 한다.
일 측면에 있어서, 본 발명에서 제안하는 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법은 카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합하는 단계 및 현재 프레임과 이전 프레임과의 상관관계에 따라 이전 프레임의 정보의 사용 정도를 결정하여 물체 검출을 수행하는 단계를 포함한다.
카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합하는 단계는 입력되는 카메라 센서 데이터의 이전 프레임과 현재 프레임에 대한 영상 정보가 시간 축에 따라 분리된 네트워크에 각각 통과 되고, 각 네트워크 연산에 사용되는 웨이트는 시간 축에 대해 서로 공유되며, 물체에 대한 지역정보와 함께 별도의 CNN구조를 활용하여 얻은 시간정보를 이용한다.
시간 축에 따라 분리된 네트워크를 통과한 출력 값은, 현재 프레임에 대한 물체 검출을 수행하기 위해 필요한 정보를 이전 프레임 영상으로부터 얻기 위하여 현재 프레임과의 연관성을 이용하는 TIE(Temporal information extractor) 구조로 입력된다.
각 프레임의 웨이트를 GIF(Gated Information Fusion) 기법을 이용하여 판단한 뒤 지역정보와 시간정보를 융합한다. GIF 기법은 라이다에서 얻은 포인트 클라우드로 만들어진 전방 이미지로부터의 원본 특징지도의 웨이트와 카메라 이미지로부터의 원본 특징지도의 웨이트를 판단하고, 각 이미지에서 얻은 특징지도를 이어 붙여서 얻은 특징지도를 이용하여 단일채널 특징지도를 만들고, 단일채널 특징지도와 원본 특징지도들을 이용하여 각 시간별 특징 지도를 만든다.
또 다른 일 측면에 있어서, 본 발명에서 제안하는 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 장치는 카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합하는 지역정보 및 시간정보 융합부 및 현재 프레임과 이전 프레임과의 상관관계에 따라 이전 프레임의 정보의 사용 정도를 결정하여 물체 검출을 수행하는 물체 검출부를 포함한다.
본 발명의 실시예들에 따르면 딥러닝 기법을 이용한 물체 검출 수행 시 지역정보와 시간정보를 함께 이용하여 물체 검출 성능을 향상시킬 수 있다. 제안하는 방법은 카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크에서 물체가 있는 지역정보를 얻기 위한 네트워크와 두 프레임간의 정보에 상호 연관성을 주기 위한 융합 네트워크가 구성되어 두 정보를 효율적으로 융합하고, 물체의 시간에 따른 변화에 대한 정보를 이해하여 효율적인 물체 검출을 수행할 수 있다. 최근 스마트 홈 환경에나 자율 주행 환경에서는 카메라 센서 데이터를 이용하여 물체 검출을 수행할 때 물체 검출과 동시에 시간정보를 이해하는 데에 활용될 것으로 예상이 되며 제안하는 방법은 이러한 물체와 그 물체의 시간 정보에 대한 이해를 효과적으로 수행할 수 있는 해결책을 제시한다. 또한, 스마트폰이나 자율주행뿐만 아니라 환경이나 물체를 인식하는 다양한 인공지능 기술에 적용이 가능하다.
도 1은 본 발명의 일 실시예에 따른 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 시간정보를 이용하여 물체 검출을 수행하기 위한 딥뉴럴 네트워크 구조를 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 이전과 현재 프레임 정보를 융합하기 위한 딥뉴럴 네트워크 구조를 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 장치의 구성을 나타내는 도면이다.
본 발명에서는 자율주행 또는 스마트 가정을 위한 사물인터넷 환경에서 카메라 센서 정보를 이용한 물체 검출 수행 시 비디오의 시간정보를 함께 이용하는 딥러닝 기반 물체 검출 기법에 대해 제안하고자 한다. 기존의 딥러닝 기반 물체 검출 방법은 CNN(Convolutional Neural Network)을 사용하여 단일 이미지로부터 특징지도를 추출하고 특징지도로부터 특정 물체에 해당하는 지역정보를 이용하여 물체의 위치를 표시하는 바운딩박스 정보를 찾고 물체의 종류를 분류한다. 이러한 방법을 통해 얻은 모델의 웨이트를 이용해 비디오 영상에서 인퍼런스를 해보면 매우 끊기는 현상이 발생하기 때문에 본 발명은 딥러닝 기반 물체 검출 기법의 성능을 개선하기 위하여 물체가 있는 지역정보와 함께 별도의 CNN구조를 활용하여 얻은 비디오 시퀀스의 시간 정보를 함께 이용하여 물체를 검출할 수 있는 기술을 제안한다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법을 설명하기 위한 흐름도이다.
비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법은 카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합하는 단계(110) 및 현재 프레임과 이전 프레임과의 상관관계에 따라 이전 프레임의 정보의 사용 정도를 결정하여 물체 검출을 수행하는 단계(120)를 포함한다.
단계(110)에서, 카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합한다.
입력되는 카메라 센서 데이터의 이전 프레임과 현재 프레임에 대한 영상 정보가 시간 축에 따라 분리된 네트워크에 각각 통과 된다. 각 네트워크 연산에 사용되는 웨이트는 시간 축에 대해 서로 공유되고, 물체에 대한 지역정보와 함께 별도의 CNN구조를 활용하여 얻은 시간정보를 이용한다.
시간 축에 따라 분리된 네트워크를 통과한 출력 값은, 현재 프레임에 대한 물체 검출을 수행하기 위해 필요한 정보를 이전 프레임 영상으로부터 얻기 위하여 현재 프레임과의 연관성을 이용하는 TIE(Temporal information extractor) 구조로 입력된다.
이후, 각 프레임의 웨이트를 GIF(Gated Information Fusion) 기법을 이용하여 판단한 뒤 지역정보와 시간정보를 융합한다. GIF 기법을 통해 라이다에서 얻은 포인트 클라우드로 만들어진 전방 이미지로부터의 원본 특징지도의 웨이트와 카메라 이미지로부터의 원본 특징지도의 웨이트를 판단하고, 각 이미지에서 얻은 특징지도를 이어 붙여서 얻은 특징지도를 이용하여 단일채널 특징지도를 만든다. 이러한 단일채널 특징지도와 원본 특징지도들을 이용하여 각 시간별 특징 지도를 만든다.
단계(120)에서, 현재 프레임과 이전 프레임과의 상관관계에 따라 이전 프레임의 정보의 사용 정도를 결정하여 물체 검출을 수행한다.
제안하는 기술은 위의 종래 기술의 문제점을 다음과 같이 해결해준다. 먼저, 종래의 딥러닝 기반 물체 인지 기술은 딥뉴럴 네트워크의 특징지도에서 지역 정보만을 활용하여 물체 검출을 수행하지만, 제안하는 기술은 현재 검출하고자 하는 프레임정보 뿐만이 아니라 이전 프레임의 정보를 같이 활용하기 때문에 이전에 검출되었다가 가려진 물체에 대한 정보를 가져와서 현재 프레임에서 물체를 검출하는 데에 큰 도움이 된다. 두 프레임의 상호작용을 적용하기 위해 센서융합에서 사용했던 GIF 구조를 사용하였고 이러한 구조를 사용함으로써 이전 프레임의 정보에 대한 중요도를 네트워크가 직접 학습하여 필요한 정보만 가져오게 되었다. 도 2 및 도 3을 참조하여 본 발명에서 제안하는 딥뉴럴 네트워크 구조에 대하여 더욱 상세히 설명한다.
도 2는 본 발명의 일 실시예에 따른 시간정보를 이용하여 물체 검출을 수행하기 위한 딥뉴럴 네트워크 구조를 나타내는 도면이다.
제안하는 기술은 딥뉴럴 네트워크를 이용하여 물체 검출을 수행하는 종래의 방식에서 사용하는 물체에 대한 지역정보와 함께 이전 프레임과의 상관관계를 표현하는 시간정보를 융합하여 영상 기반의 물체 검출 성능을 높이는 것을 목표로 한다.
제안하는 기술은 다양한 딥러닝 기반 물체 인지 알고리즘에 적용 가능하며, 지역적 정보와 시간적 정보를 추출하기 위해서 CNN 구조를 활용하고 특징지도로부터 물체를 검출하기 위한 구조로 레티나넷(Retinanet) 방법의 일부를 활용하였다.
도 2에서는 제안하는 시간 정보 융합 물체 검출 방법의 딥뉴럴 네트워크 구조를 나타낸다. 도 2에 보이는 바와 같이 제안하는 방법은 카메라 영상 정보를 레스넷18(ResNet18)이라는 CNN구조를 통과시킨 뒤 FPN구조를 통해 물체 검출을 수행한다. 현재 시간 t 에서의 입력 영상에 대한 물체 검출을 수행하는 경우, 이전 프레임(T = t-1)에 대한 특징 추출(220)과 현재 프레임(T = t)에 대한 특징 추출(210)을 수행한다. 이와 같이 추출된 특징에 대한 영상 정보가 시간 축에 따라 분리된 네트워크에 각각 통과 되며 각 네트워크 연산에 사용되는 웨이트는 시간 축에 대해 서로 공유되어 시간정보를 추출한다(230). 이러한 구조를 통과한 출력 값은 제안하는 TIE(Temporal information extractor) 구조의 입력으로 이용된다. 제안하는 TIE 구조는 현재 프레임에 대한 물체 검출을 수행함에 있어 도움이 될 수 있는 정보를 이전 프레임 영상으로부터 얻기 위해 현재 프레임과의 연관성을 이용하며, 분류(241) 및 회귀분석(242)을 수행한다. 이 과정에서 각 프레임의 중요도를 GIF(Gated Information Fusion) 기법을 이용해 판단한 뒤 정보 융합을 통해 물체 검출을 수행한다.
도 3은 본 발명의 일 실시예에 따른 이전과 현재 프레임 정보를 융합하기 위한 딥뉴럴 네트워크 구조를 나타내는 도면이다.
GIF 기법은 센서 융합에서 사용되는 기술로서, 라이다에서 얻은 포인트 클라우드로 만들어진 전방 이미지로부터의 특징지도의 중요도와 카메라 이미지로부터의 특징지도의 중요도를 판단하여 카메라 이미지에서 물체검출을 수행할 때에 도움을 주는 기법이다. 이 구조는 각각의 이미지에서 얻은 특징지도의 중요도를 정해주는 구조로, 이전과 현재 프레임의 시간 정보를 추출(300)하여 융합하기 위한 딥뉴럴 네트워크 구조이다.
더욱 상세하게는, 연속한(Concatenation)(310) 프레임간의 시간 정보를 활용하여 두 특징지도를 이어 붙여서 얻은 특징지도에 대한 각각 컨볼루션 연산을 수행하고 활성함수로 시그모이드(Sigmoid) 함수(320)를 적용하여 각각의 픽셀 값을 얼마나 사용할지를 0에서 1 사이의 값으로 정해주는 단일채널 특징지도를 만든다. 이 특징지도를 원본 특징지도에 각 픽셀(pixel)별로 곱해주는 엘리먼트-와이즈 곱(Element-wise Product)(330)을 수행하여 나온 각 시간별 특징 지도를 다시 이어 붙인 뒤에 1x1 컨볼루션을 이용해 채널 수를 줄여주고 시간 정보 추출(340)을 수행한다. 이 구조를 이용하면 현재 프레임과 이전 프레임에 대한 특징 지도를 단순히 이어 붙일 때보다 이전 프레임의 정보를 얼마나 사용할지를 결정하여 현재 프레임에 도움이 되는 정보만을 이용하여 검출을 수행하므로 물체검출 성능 향상에 도움을 줄 수 있다.
도 4는 본 발명의 일 실시예에 따른 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 장치의 구성을 나타내는 도면이다.
비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 장치(400)는 지역정보 및 시간정보 융합부(410) 및 물체 검출부(420)를 포함한다. 지역정보 및 시간정보 융합부(410) 및 물체 검출부(420)는 도 1의 단계들(110~120)을 수행하기 위해 구성될 수 있다.
지역정보 및 시간정보 융합부(410)는 카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합한다.
입력되는 카메라 센서 데이터의 이전 프레임과 현재 프레임에 대한 영상 정보가 시간 축에 따라 분리된 네트워크에 각각 통과 된다. 각 네트워크 연산에 사용되는 웨이트는 시간 축에 대해 서로 공유되고, 물체에 대한 지역정보와 함께 별도의 CNN구조를 활용하여 얻은 시간정보를 이용한다.
시간 축에 따라 분리된 네트워크를 통과한 출력 값은, 현재 프레임에 대한 물체 검출을 수행하기 위해 필요한 정보를 이전 프레임 영상으로부터 얻기 위하여 현재 프레임과의 연관성을 이용하는 TIE(Temporal information extractor) 구조로 입력된다.
이후, 각 프레임의 웨이트를 GIF(Gated Information Fusion) 기법을 이용하여 판단한 뒤 지역정보와 시간정보를 융합한다. GIF 기법을 통해 라이다에서 얻은 포인트 클라우드로 만들어진 전방 이미지로부터의 원본 특징지도의 웨이트와 카메라 이미지로부터의 원본 특징지도의 웨이트를 판단하고, 각 이미지에서 얻은 특징지도를 이어 붙여서 얻은 특징지도를 이용하여 단일채널 특징지도를 만든다. 이러한 단일채널 특징지도와 원본 특징지도들을 이용하여 각 시간별 특징 지도를 만든다.
물체 검출부(420)는 현재 프레임과 이전 프레임과의 상관관계에 따라 이전 프레임의 정보의 사용 정도를 결정하여 물체 검출을 수행한다.
<표 3>
Figure 112019044451417-pat00001
표 3은 제안하는 기술과 기존 알고리즘의 성능을 비교한 도표이다. 검출기의 성능은 mAP(Mean Average Precision)로 나타내었고 트레이닝을 위한 데이터는 KITTI를 사용하였다. KITTI 데이터는 물체 검출의 난이도에 따라 Easy, Moderate, Hard로 나눠지고 차에 대한 검출 결과를 위 표에서 나타냈다. 결과를 보면 종래 기술인 레티나넷(Retinanet)보다 Easy는 0.9프로, Moderate은 0.5프로가 상승한 효과를 볼 수 있다.
이와 같이 제안하는 기술은 위의 종래 기술의 문제점을 다음과 같이 해결해준다. 먼저, 종래의 딥러닝 기반 물체 인지 기술은 딥뉴럴 네트워크의 특징지도에서 지역 정보만을 활용하여 물체 검출을 수행하지만, 제안하는 기술은 현재 검출하고자 하는 프레임정보 뿐만이 아니라 이전 프레임의 정보를 같이 활용하기 때문에 이전에 검출되었다가 가려진 물체에 대한 정보를 가져와서 현재 프레임에서 물체를 검출하는 데에 큰 도움이 된다. 두 프레임의 상호작용을 적용하기 위해 센서융합에서 사용했던 GIF 구조를 사용하였고 이 구조를 사용함으로써 이전 프레임의 정보에 대한 중요도를 네트워크가 직접 학습하여 필요한 정보만 가져오게 되었다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (10)

  1. 적어도 하나의 프로세서를 포함하는 컴퓨터 장치의 딥러닝 기반 물체 검출 방법에 있어서,
    상기 적어도 하나의 프로세서에 의해, 카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합하는 단계; 및
    상기 적어도 하나의 프로세서에 의해, 현재 프레임과 이전 프레임과의 상관관계에 따라 이전 프레임의 정보의 사용 정도를 결정하여 물체 검출을 수행하는 단계
    를 포함하고,
    상기 융합하는 단계는,
    상기 현재 프레임의 원본 특징지도와 상기 이전 프레임의 원본 특징지도를 연결하여 컨볼루션 연산을 수행하고, 활성함수를 적용하여 단일채널 특징지도를 생성하는 단계;
    상기 단일채널 특징지도를 상기 현재 프레임의 원본 특징지도 및 상기 이전 프레임의 원본 특징지도 각각과 결합하여 상기 현재 프레임의 특징지도 및 상기 이전 프레임의 특징지도를 생성하는 단계; 및
    상기 현재 프레임의 특징지도 및 상기 이전 프레임의 특징지도를 연결한 후, 채널 수를 줄이는 단계
    를 포함하는 것을 특징으로 하는 딥러닝 기반 물체 검출 방법.
  2. 제1항에 있어서,
    상기 단일채널 특징지도를 생성하는 단계는,
    상기 활성함수로서 시그모이드 함수를 적용하여 상기 단일채널 특징지도를 생성하는 것
    을 특징으로 하는 딥러닝 기반 물체 검출 방법.
  3. 제1항에 있어서,
    상기 현재 프레임의 특징지도 및 상기 이전 프레임의 특징지도를 생성하는 단계는,
    상기 단일채널 특징지도와 상기 현재 프레임의 원본 특징지도간의 엘리먼트-와이즈 곱(Element-wise Product)을 통해 상기 현재 프레임의 특징지도를 생성하고, 상기 단일채널 특징지도와 상기 이전 프레임의 원본 특징지도간의 엘리먼트-와이즈 곱을 통해 상기 이전 프레임의 특징지도를 생성하는 것
    을 특징으로 하는 딥러닝 기반 물체 검출 방법.
  4. 제1항에 있어서,
    상기 채널 수를 줄이는 단계는,
    1x1 컨볼루션을 이용하여 채널 수를 줄이는 것
    을 특징으로 하는 딥러닝 기반 물체 검출 방법.
  5. 삭제
  6. 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서에 의해,
    카메라 센서 데이터를 입력으로 하는 딥뉴럴 네트워크를 이용하여 검출하고자 하는 물체에 대한 지역정보와 함께 현재 프레임과 이전 프레임과의 상관관계를 표현하는 시간정보를 융합하고,
    현재 프레임과 이전 프레임과의 상관관계에 따라 이전 프레임의 정보의 사용 정도를 결정하여 물체 검출을 수행하고,
    상기 현재 프레임의 원본 특징지도와 상기 이전 프레임의 원본 특징지도를 연결하여 컨볼루션 연산을 수행하고, 활성함수로 시그모이드 함수를 적용하여 단일채널 특징지도를 생성하고,
    상기 단일채널 특징지도를 상기 현재 프레임의 원본 특징지도 및 상기 이전 프레임의 원본 특징지도 각각과 엘리먼트-와이즈 곱(Element-wise Product)을 수행하여 상기 현재 프레임의 특징지도 및 상기 이전 프레임의 특징지도를 생성하고,
    상기 현재 프레임의 특징지도 및 상기 이전 프레임의 특징지도를 연결한 후, 채널 수를 줄이는 것
    을 특징으로 하는 딥러닝 기반 물체 검출 장치.
  7. 제6항에 있어서,
    상기 적어도 하나의 프로세서에 의해,
    상기 활성함수로서 시그모이드 함수를 적용하여 상기 단일채널 특징지도를 생성하는 것
    을 특징으로 하는 딥러닝 기반 물체 검출 장치.
  8. 제6항에 있어서,
    상기 적어도 하나의 프로세서에 의해,
    상기 단일채널 특징지도와 상기 현재 프레임의 원본 특징지도간의 엘리먼트-와이즈 곱(Element-wise Product)을 통해 상기 현재 프레임의 특징지도를 생성하고, 상기 단일채널 특징지도와 상기 이전 프레임의 원본 특징지도간의 엘리먼트-와이즈 곱을 통해 상기 이전 프레임의 특징지도를 생성하는 것
    을 특징으로 하는 딥러닝 기반 물체 검출 장치.
  9. 제6항에 있어서,
    상기 적어도 하나의 프로세서에 의해,
    1x1 컨볼루션을 이용하여 상기 채널 수를 줄이는 것
    을 특징으로 하는 딥러닝 기반 물체 검출 장치.
  10. 삭제
KR1020190050429A 2019-04-30 2019-04-30 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치 KR102224218B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190050429A KR102224218B1 (ko) 2019-04-30 2019-04-30 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190050429A KR102224218B1 (ko) 2019-04-30 2019-04-30 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20200130768A KR20200130768A (ko) 2020-11-20
KR102224218B1 true KR102224218B1 (ko) 2021-03-08

Family

ID=73697211

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190050429A KR102224218B1 (ko) 2019-04-30 2019-04-30 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102224218B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114767120B (zh) * 2022-04-25 2024-05-10 上海韶脑传感技术有限公司 基于深度学习的单侧肢体患者运动想象脑电通道选择方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101644370B1 (ko) * 2014-10-23 2016-08-01 현대모비스 주식회사 물체 검출 장치 및 그 동작 방법
KR101672732B1 (ko) * 2014-12-24 2016-11-07 한국항공우주연구원 객체 추적 장치 및 방법
KR102425578B1 (ko) * 2017-08-08 2022-07-26 삼성전자주식회사 객체를 인식하는 방법 및 장치
CN109426782B (zh) * 2017-08-29 2023-09-19 北京三星通信技术研究有限公司 对象检测方法和用于对象检测的神经网络系统

Also Published As

Publication number Publication date
KR20200130768A (ko) 2020-11-20

Similar Documents

Publication Publication Date Title
US10810745B2 (en) Method and apparatus with image segmentation
WO2019218824A1 (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
CN108388879B (zh) 目标的检测方法、装置和存储介质
US11393256B2 (en) Method and device for liveness detection, and storage medium
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
KR101872811B1 (ko) 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법
KR102592551B1 (ko) Ar장치를 위한 객체 인식 처리 장치 및 방법
Xing et al. DE‐SLAM: SLAM for highly dynamic environment
Cheng et al. Person re-identification by articulated appearance matching
KR102108951B1 (ko) 영상의 전역 문맥 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 시스템
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Wang et al. MCF3D: Multi-stage complementary fusion for multi-sensor 3D object detection
Choudhury et al. Improved pedestrian detection using motion segmentation and silhouette orientation
Ward et al. RGB-D image-based object detection: from traditional methods to deep learning techniques
KR101817440B1 (ko) 다중 카메라를 통한 3차원 모델 기반 객체 인식 기법과 시스템
CN114842466A (zh) 目标检测方法、计算机程序产品和电子设备
Antonio et al. Pedestrians' detection methods in video images: A literature review
KR102224218B1 (ko) 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치
Huang et al. Multi‐class obstacle detection and classification using stereovision and improved active contour models
Harshitha et al. Design of a real-time pedestrian detection system for autonomous vehicles
CN115409991B (zh) 目标识别方法、装置、电子设备和存储介质
EP4332910A1 (en) Behavior detection method, electronic device, and computer readable storage medium
Kavimandan et al. Human action recognition using prominent camera
Dayananda Kumar et al. Depth based static hand gesture segmentation and recognition
CN114241202A (zh) 着装分类模型的训练方法及装置、着装分类方法及装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant