KR20190115542A - 보행자 검출 장치 및 방법 - Google Patents

보행자 검출 장치 및 방법

Info

Publication number
KR20190115542A
KR20190115542A KR1020180037899A KR20180037899A KR20190115542A KR 20190115542 A KR20190115542 A KR 20190115542A KR 1020180037899 A KR1020180037899 A KR 1020180037899A KR 20180037899 A KR20180037899 A KR 20180037899A KR 20190115542 A KR20190115542 A KR 20190115542A
Authority
KR
South Korea
Prior art keywords
image
feature map
pedestrian
pedestrian detection
input
Prior art date
Application number
KR1020180037899A
Other languages
English (en)
Other versions
KR102103770B1 (ko
Inventor
박강령
김종현
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020180037899A priority Critical patent/KR102103770B1/ko
Publication of KR20190115542A publication Critical patent/KR20190115542A/ko
Application granted granted Critical
Publication of KR102103770B1 publication Critical patent/KR102103770B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06K9/00362
    • G06K9/44
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이미지 내에서 보행자를 검출하는 기술에 관한 것으로, 보다 상세하게는 더 빠른 R-CNN 기반의 딥 러닝을 기반으로 한 이미지 내 보행자를 검출하는 기술에 관한 것이다. 본 발명의 일 실시 예에 따르면, R-CNN을 이용하여 연속된 이미지의 각각의 특징 맵을 생성한 후, 생성한 특징 맵을 결합하여 공간 시간적인 합산을 통한 보행자 인식 성능을 높일 수 있다.

Description

보행자 검출 장치 및 방법{APPARATUS AND METHOD FOR PEDESTRIAN DETECTION}
본 발명은 이미지 내에서 보행자를 검출하는 기술에 관한 것으로, 보다 상세하게는 더 빠른 R-CNN 기반의 딥 러닝을 기반으로 한 이미지 내 보행자를 검출하는 기술에 관한 것이다.
최근 무인 자동차 및 인공지능 감시 시스템의 급격한 발전과 함께, 원거리에서 취득된 영상 내에서 정확한 사람 영역을 검출하는 연구에 대한 중요성이 증대되고 있다. 기존에 가시광선 카메라를 이용한 연구들에서는 외부광이 존재하는 낮 시간에 사람을 검출하는 방법들에 대해 주로 연구하였으나 외부광이 존재하지 않는 밤시간에는 사람을 검출하는 데 어려움이 있는 관계로, 추가적인 근 적외선 조명 및 근 적외선 카메라를 이용하거나, 혹은 열화상 카메라를 이용하는 방법들을 주로 사용하였다. 하지만, 근적외선 조명의 경우, 조사 각도 및 거리에 한계가 있고, 대상체가 가까이 있는 경우와 먼 경우 조명 전력을 적응적으로 조절해야 하는 어려움이 있다. 그리고 열화상 카메라의 경우 아직 가격 이 고가인 관계로 다양한 장소에 설치되어 사용하기 어렵다. 이를 고려하여 가시광선 카메라를 이용하여 야간 시간에서 사람들을 검출하는 연구들이 있으나, 이는 주로 대상체까지의 거리가 가까운 실내환경을 대상으로 하였다.
본 발명의 배경기술은 대한민국 등록특허 제10-1818129호에 게시되어 있다.
본 발명은 야간 시간에도 사람을 인식하는 데 있어 더욱 정확도가 높은 보행자 검출 장치 및 방법을 제공하는 것이다.
본 발명의 일 측면에 따르면, 보행자 검출 장치를 제공한다.
본 발명의 일 실시 예에 따른 보행자 검출 장치는 연속적인 복수의 이미지들을 입력받는 연속 이미지 입력부, 입력된 연속적인 복수의 이미지들을 정규화하는 이미지 정규화부 및 정규화된 연속적인 복수의 이미지들에 대해 기계 학습된 변경된 R-CNN 을 적용하여 보행자 후보군을 분류하는 변경된 R-CNN부를 포함할 수 있다.
본 발명의 다른 측면에 따르면, 보행자 검출 방법이 제공된다.
본 발명의 일 실시 예에 따른 보행자 검출 방법은 연속적인 복수의 이미지들을 입력 받는 단계, 입력된 연속적인 복수의 이미지들을 정규화하는 단계, 정규화된 연속적인 복수의 이미지들에 대해 기계 학습된 변경된 R-CNN 을 적용하여 각 이미지들의 공간적인 특징 맵을 추출하는 단계, 각 이미지에서 추출한 공간적인 특징 맵 들에서 시간적으로 특징 맵 결합을 수행하여 보행자 후보군을 추정하는 단계 및 각 이미지에서 추출한 공간적인 특징 맵 및 추정된 보행자 후보군을 이용하여 예상 보행자를 분류하는 단계를 포함할 수 있다.
본 발명의 일 실시 예에 따르면, 가시광선 카메라에서 얻은 야간 시간의 이미지에서 보행자를 정확하게 검출할 수 있다.
본 발명의 일 실시 예에 따르면, R-CNN을 이용하여 연속된 이미지의 각각의 특징 맵을 생성한 후, 생성한 특징 맵을 결합하여 공간 시간적인 합산을 통한 보행자 인식 성능을 높일 수 있다.
도 1은 본 발명의 일 실시 예에 따른 보행자 검출 장치를 설명하기 위한 도면.
도 2내지 도 7은 본 발명의 일 실시 예에 따른 보행자 검출 장치의 변경된 R-CNN부를 설명하기 위한 도면들.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 보행자 검출 방법을 설명하기 위한 도면들.
도 10 내지 도 13은 본 발명의 일 실시 예에 따른 보행자 검출 방법의 기계학습을 설명하기 위한 도면들.
도 14 내지 도 17는 본 발명의 효과를 설명하기 위한 도면들.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시 예에 따른 보행자 검출 장치를 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 보행자 검출 장치는 연속 이미지 입력부(110), 이미지 정규화부(120), 변경된 R-CNN부(130) 및 보행자 검출부(140)를 포함한다.
일반적으로, 야간 이미지는 야간 시간 대의 이미지로, 대부분의 픽셀 값들이 낮은 강도(Intensity)에 몰려 있어서 콘트라스트(Contrast)가 낮고, 더군다나 빛을 충분히 얻지 못하여 노이즈가 많다. 만약, 카메라의 노출 값을 높여서 짧은 시간 동안 빛을 충분히 얻게 되면 노이즈를 크게 줄일 수 있지만, 이러한 경우 모션 블러링(Motion Blurring)이 증가하여 움직이는 보행자와 같은 물체는 알아보기 힘들 정도로 흐려지며, 특히나 이동하는 카메라에서는 사용 할 수 없게 된다. 결과적으로, 카메라의 노출 값을 그대로 유지하면, 실제 어두운 이미지에 의해 생기는 참인 가장자리(true edge; 실제 이미지 상에 존재하는)와 노이즈에 의해 생기는 거짓인 가장자리(false edge; 노이즈에 의해 생긴)가 산재되어 있는 정보로부터 보행자의 형태를 추출해 내기 어렵다. 본 발명에 따른 보행자 검출 장치는 상술한 특징을 가진 야간 이미지에서 보행자를 검출하기 위하여 공간 시간적 합산(spatio-temporal summation)을 통하여 야간의 약한 신호를 모아서 강한 신호를 만들 수 있다. 본 발명에 따른 보행자 검출 장치는 CNN을 이용하여 야간의 연속된 비디오 프레임들로부터 각각 딥 특징을 생성 (공간적 정보 이용)한 후, 특징 레벨에서 그들을 결합(시간적 정보 이용)하여 최종적인 보행자 인식 성능을 높일 수 있다.
연속 이미지 입력부(110)는 연속적인 복수의 이미지들을 입력 받는다. 연속 이미지 입력부(110)는 가시광선 카메라일 수 있으며, 용도에 따라 감시 카메라로 사용될 수 있다.
이미지 정규화부(120)는 연속적인 복수의 이미지들을 정규화한다. 이미지 정규화부(120)는 입력된 연속적인 복수의 이미지들을 그대로 사용하면 영상취득 시간대에 따라, 콘트라스트와 조도가 크게 변동하기 때문에 적절한 전처리를 통해 정규화 시킬 수 있다. 더욱 상세히 설명하면, 입력된 연속의 각 이미지 픽셀들의 조도(이미지 빛 강도의 평균)과 콘트라스트(이미지 빛 강도의 분산)이 크게 다르다. 예를 들어, 야간 이미지의 경우 주간 이미지에 비해, 상대적으로 작은 조도와 콘트라스트를 가진다. 만약 이런 다양한 입력 이미지를 이용하여 기계 학습을 한다면 노이즈가 많아 분별하기 힘든 보행자 검출 외에 추가적으로 다양한 조도와 콘트라스트에 강인해지도록 학습해야 하므로 적절한 모델로 수렴하기가 어려워 질 것이다. 따라서, 이미지 정규화부(120)는 모든 입력 이미지는 유사한 조도와 콘트라스트를 갖도록 전처리를 수행한다.
이미지 정규화부(120)는 다음과 같은 두 가지 전 처리 방법을 적용할 수 있다.
첫 번째 방법은 픽셀 정규화로 각 입력 이미지에 대해서, RGB 채널 각각에 다음 수식 (1)과 같은 처리를 할 수 있다.
수식 (1)
여기서, 는 스케일을 맞추기 위한 값 (255/2)이며, 는 미니-배치 이미지의 각 채널 (R, G, B를 위한)의 위치에서의 픽셀 값이며, 은 픽셀의 개수이다. 즉, 각 채널의 픽셀 값들을 제로 평균 및 단위 표준 편차를 갖는 분포로 만든 후 스케일링 하여, 각 입력 이미지의 조도와 콘트라스트를 정규화시킬 수 있다.
두 번째 방법인 히스토그램 정규화(histogram equalization (HE)) 및 평균 차감(mean subtraction)은, 각각의 입력 이미지의 RGB 컬러를 HSV 컬러로 채널 변환 한 후, 밸류(value) 채널 이미지에 히스토그램 정규화를 적용하는 방식이다. 일반적으로 야간 이미지는 밝기 값이 전체적으로 낮을 뿐, 고유의 색깔은 어느 정도 보존하고 있다고 가정 할 수 있기 때문에 밸류(value) 채널만 히스토그램 정규화를 적용하였다. 따라서, 각 이미지의 픽셀 밝기 값들이 히스토그램 정규화를 통해 근사적으로 일정한 분포에 좀더 가까워 지게 되므로, 정규화된 콘트라스트를 가질 수 있다. 그 후, 다시 RGB 채널로 변경하여 이미지 셋 전체의 RGB 평균 값을 빼줌으로써, 이미지 픽셀 값들을 제로 센터링하였다.
변경된 R-CNN부(130)는 정규화된 연속적인 복수의 이미지들에 대해 기계 학습된 변경된 R-CNN 을 적용하여 각 이미지들의 공간적인 특징 맵을 추출한다. 변경된 R-CNN부(130)는 각 이미지에서 추출한 공간적인 특징 맵 들에서 시간적으로 특징 맵 결합을 통하여 보행자 후보군을 추정하여 분류한다. 변경된 R-CNN부(130)는 이하 도 2 내지 도 7을 참조하여 더욱 상세히 설명하기로 한다.
보행자 검출부(140)는 확인한 보행자 후보군에서 보행자를 검출한다.
도 2내지 도 7은 본 발명의 일 실시 예에 따른 보행자 검출 장치의 변경된 R-CNN부를 설명하기 위한 도면들이다.
도 2를 참조하면, 보행자 검출 장치의 변경된 R-CNN부(130)는 특징맵추출부(132), 특징맵결합부(134), 분류기부(136) 및 딥러닝부(138)를 포함한다.
본 발명에 따른 변경된 R-CNN부(130)는 더 빠른 R-CNN의 특징 맵 추출부의 마지막 콘볼루션 레이어의 특징 해상도가 낮기 때문에 관심 영역(ROI)이 풀링 레이어에 의해 구별되지 않은 밋밋한 특징이 생기고, 이로 인하여 특히 작은 크기의 대상 검출이 어려워지는 문제를 해결하기 위하여, 추가로 4번째 맥스 풀링 레이어를 제거하여, 마지막 특징 맵의 해상도를 높였다.
특징맵추출부(132)는 정규화된 연속적인 복수의 이미지들에 대해 기계 학습된 변경된 R-CNN 을 적용하여 각 이미지들의 공간적인 특징 맵을 추출한다.
도 3을 참조하면, 특징맵추출부(132)는 복수의 보행자들을 포함한 이미지를 입력으로 받아, 13개의 콘볼루션 레이어와 ReLU 활성함수를 3개의 맥스 풀링 레이어를 통과시켜서 특징맵을 추출한다. 특징맵추출부(132)는 VGG-네트 16 네트워크의 마지막 맥스 풀링 레이어 전까지의 레이어들을 특징 추출 네트워크로 사용했고, 상술한 바와 같이 저 해상도 특징 맵 문제를 해결하기 위하여 추가로 4번째 맥스 풀링 레이어를 제거하여, 마지막 특징 맵의 해상도를 높였다. 도 3의 표 1에서와 같이 스트라이드 2××2를 기반으로 한 맥스 풀링 레이어가 총 3번 수행되므로, 최종적인 특징 추출 네트워크의 전체 스트라이드는 8××8 ((2××2)3) 이 된다. 특징맵추출부(132)는 추출한 특징맵을 도 4의 특징맵결합부(134)와 도 6의 분류기부(136)의 입력으로 사용된다.
특징맵결합부(134)는 각 이미지에서 추출한 공간적인 특징 맵 들에서 시간적으로 특징 맵 결합을 수행하여 보행자 후보군을 추정한다.
특징맵결합부(134)는 완전 콘볼루션 네트워크로써, 마지막 1x1 콘볼루션 레이어를 통해, 특징 맵의 각 위치와 대응되는 이미지의 위치를 중심으로, 총 9개 앵커 박스에 대한 보행자 확률과 경계 박스 회귀 벡터를 얻는다. 특징맵결합부(134)는 보행자의 형태에 맞게, 세로가 긴 형태의 동일한 세로대가로비가 예를 들면 7:3이면서 스케일이 다른 9개의 앵커 박스들을 사용했다. 여기서, 경계 박스 회귀 벡터 ()는 아래 수식 (2),(3)와 같이 앵커 박스와 제안 박스(보행자를 둘러싼다고 예상하는 경계 박스)사이의 변환을 파라미터로 표현 한 값이다.
수식 (2)
수식 (3)
여기서, 는 박스의 중심 좌표 와 너비 및 높이를 각각 나타낸다. 또한, 는 각각 제안 박스의 중심 좌표 x와 앵커 박스의 중심 좌표 x를 나타낸다 (도 마찬가지임).
수식 (2)은 중심 좌표 간의 스케일이 변하지 않는 전환을 나타내며, 수식 (3)은 너비 및 높이 간의 로그 공간상의 전환을 나타낸다.
따라서, 스케일이 유사한 타겟(경계 박스 회귀 벡터)으로 기계 학습할 수 있으며, 경계 박스 회귀 벡터를 얻게 되면, 앵커 박스를 다시 정의된 제안 박스로 전환할 수 있다. 최종적으로, 각 제안 박스의 보행자 확률로 비최대 서프레션(non-maximum suppression;NMS)을 수행하여, 임계 값 이상 IoU(Intersection Over Union)가 겹치면서 확률이 낮은 제안 박스들을 제거하고, 보행자 확률 상위 N(N은 자연수)개 (e.g. 100개)의 제안 박스들을 선별한다.
야간 이미지 한 장은 밝기 및 콘트라스트 값이 낮은 관계로 대상 영역에 대한 극도로 적은 정보를 포함하고 있기 때문에, 연속적인 복수 장의 이미지 정보를 결합함으로써 대상 검출 성능을 향상할 수 있다. 즉, 대상의 참인 가장자리(true edge)는 연속적인 프레임 내에서 약간의 위치변화로 거의 동일하게 생기지만, 무작위 노이즈에 의해 생기는 거짓인 가장자리(false edge)는 매 프레임 달라지기 때문에, 결합을 통해 참인 가장자리의 영향력을 키울 수 있다. 그러나, 카메라가 움직이거나 대상이가 움직이는 경우, 복수 장의 이미지끼리 합쳤을 때 서로 오브젝트들의 위치가 다르기 때문에 정확한 경계 박스를 추정하기 힘들 것이다. 특징맵결합부(134)는 이 때문에 연속적인 프레임의 이미지들끼리 결합하지 않고, 아래 수식 (4)와 같이 특징맵추출부(132)로부터 얻은 각 특징 맵들 간의 가중치 합산을 통한 결합을 수행한다. 이는 특징맵추출부(132)를 거치면서 얻은 특징 맵 (도 3의 5_3rd 콘볼루션 레이어(ReLU)에서의 90××113××512크기의 특징 맵)의 경우, 입력 영상 (도 3의 720××900××3크기의 입력 영상) 대비, 수평 및 수직 추출을 통해 대상의 전환 변화에 보다 강건한 특성을 가지기 때문이다. 이는 일반적으로 CNN은 작은 전환에 강인한 특징 추출의 특성을 갖기 때문이다.
수식 (4)
여기서, 는 연속적인 프레임 인덱스를 나타내며, 은 결합에 사용된 모든 프레임의 갯수이고, 는 i번째 이미지 프레임을 입력으로 도 3의 특징맵추출부(132)로부터 얻은 90××113××512크기의 특징 맵을 의미한다. (는 특징 맵에서의 수평, 수직 및 채널 방향 위치를 나타낸다. 는 1-D 이산 가우시안 분포 계수들을 사용하였다. 따라서, 연속적인 프레임들의 특징 맵들 ()들을 동일한 위치끼리 가중치를 합산하여, 결합한 특징 맵들 ()를 얻은 후, 도 4의 특징맵결합부(134)와 도 6의 분류기부(136)의 입력으로 사용된다.
구체적으로, 특징 맵들상에서 연속적인 프레임 정보를 결합하는 이유는, 더 깊은 레이어의 특징일수록 실제 이미지상의 수용영역(receptive field)이 커져서, 연속적인 프레임들의 동일한 위치 스칼라(scalar) 특징들은 유사한 콘텐츠를 포함하는 수용영역들을 가질 가능성이 커지기 때문이다 (도 5 참조). 즉, 각 프레임 특징 맵들의 동일한 위치 스칼라 특징 () 들은 서로 유사한 콘텐츠를 갖는 수용영역 이미지를 갖고, 동일한 CNN을 거친다. 하지만 서로 다른 노이즈를 갖고 있기 때문에, 수식 (4)와 같이 가중치 합산했을 때 노이즈의 영향력을 약화 시킬 수 있게 된다.
분류기부(136)는 각 이미지에서 추출한 공간적인 특징 맵 및 추정된 보행자 후보군을 이용하여 예상 보행자를 분류한다
도 6을 참조하면, 분류기부(136)는 특징맵추출부(132)로부터 얻은 특징 맵들과 특징맵결합부(134)로부터 얻은 제안 박스들을 입력으로 사용한다. 먼저, 각 제안 박스에 따라 특징 맵들상의 해당 위치를 자른다. 이때, 잘라진 크기는 모두 다르기 때문에, ROI 풀링을 통해 통일된 크기를 갖도록 한다. 본 발명에서 사용한 ROI 풀링 크기는 보행자의 형태를 고려한 세로가 긴 형태의 직사각형 크기 (e.g. 3x7)을 사용하였다. 이는 특징맵결합부(134)의 경계 박스 회귀 벡터에 의해 앵커 박스의 형태가 조금씩 재정의 되지만, 여전히 세로가 긴 형태의 제안 박스를 출력하기 때문에, 이에 맞도록 설계한 크기이다. 또한, ROI 풀링 크기를 절반이상 줄임으로써, 네트워크의 전체 파라미터의 개수를 절반 가량 줄일 수 있기 때문에, 오우버 피팅(over-fitting)을 줄이고 메모리 사용량을 절감할 수 있다. 이는 대부분의 가중치는 첫번째 완전 연결 레이어에 연결 되어있기 때문에, ROI 풀링 크기를 절반 가량 줄임으로써 전체 네트워크의 파라미터 개수를 절반 가량 줄일 수 있게 된 것이다. ROI 풀링된 후 밋밋한 특징들은 완전 연결 레이어를 거쳐 경계 박스 회귀 벡터와 보행자 확률들을 얻는다. 다시 한번, 경계 박스 회귀 벡터를 이용하여 제안 박스들을 예상 박스들로 재정의한 후, NMS로 겹쳐진 예상 박스를 제거하여 최종적인 검출 결과를 얻는다. 도 6의 분류 완전 연결 레이어에서 2××100를 얻게 되는데, 여기서 2는 보행자 또는 배경일 확률을 의미하고, 100은 후보 수를 나타낸다.
딥러닝부(138)는 데이터베이스를 이용하여 변경된 R-CNN부(130)를 기계 학습한다.
딥러닝부(138)는 데이터베이스를 이용하여 특징 맵 결합 학습과 분류기 학습을 번갈아 가며 수행하는 4-단계 교차 학습 방법을 사용한다. 딥러닝부(138)는 변경된 R-CNN부(130)에서는 특징 맵 결합 학습과 분류기 학습 모두 2계급 분류를 수행하게 된다. 따라서, 특징 맵 결합 학습과 분류기 학습은 미니 배치 내의 각 앵커 박스 혹은 제안 박스에 대해 동일한 (는 달라질 수 있음) 손실 함수를 최소화하도록 가중치가 기계 학습된다.
수식 (5)
여기서, 는 앵커 박스 (특징 맵 결합의 경우) 혹은 제안 박스 (분류기의 경우)가 보행자를 둘러싸고 있다고 예상하는 확률이다. 는 대응되는 실제 지상 검증 레벨이다 (보행자=1, 배경=0). 그리고 (분류 손실 함수)는 로그 손실 함수이다. 는 해당 앵커 박스 혹은 제안 박스의 경계 박스 회귀 벡터이고, 는 대응되는 실제 지상 검증 경계 박스와의 경계 박스 회귀 벡터 이다. (회귀 손실 함수)는 강건한 손실 함수 (매끄러운 )이다. 또한, 회귀 손실은 실제 지상 검증이 보행자인 경우 ()에 만 발생한다. 따라서, 보행자 샘플의 경우 분류 손실과 회귀 손실을 합쳐서 주고, 배경 샘플의 경우 분류 손실만 준다. 마지막으로, 를 통해, 분류와 회귀 손실의 가중치를 조절한다.
딥러닝부(138)는 야간 보행자 뿐만 아니라 주간 보행자에 대해서도 기계 학습을 수행할 수 있다. 이는 일반적으로 기계 학습에 사용할 충분한 야간 보행자 이미지가 없기 때문에, 주간 보행자 이미지에 대해 밝기 감소, 노이즈 추가 및 수직 플립핑을, 야간 기계 학습 이미지에 대해서는 수직 플립핑을 각각 적용하는 데이터 확장(데이터 확장)을 수행하여 야간 기계 학습 이미지수를 늘릴 수 있다. 여기서, 밝기 감소 및 노이즈 추가 시, 실제 야간 이미지와 유사한 특성을 갖도록 다음 알고리즘 1과 같이 수행하였다.
알고리즘 1
일정 무작위 변수 을 범위 내에서 얻는다 ( 은 어두운 정도를 나타낸다). RGB 컬러의 주간 이미지를 HSV 컬러로 변환한 후,
밸류 채널 이미지의 픽셀 값들을 최소 최대 스케일링 방법으로 정규화 한다. 밸류 채널 이미지의 각 픽셀을 에 따른 로 나눠줌으로써 영상을 어둡게 만든다. HSV 컬러 이미지를 다시 RGB 컬러 이미지로 변환한다. 각 픽셀의 각 RGB채널에 추가적 화이트 가우시안 노이즈 (AWGN) (에 따른 분산 ()를 기반으로 한 노이즈 이미지 ())를 더한 후, 전체 이미지를 가우시안 블러링하여 야간 이미지와 유사하게 변환한다.
도 7은 데이터 확장에 따라 칼텍 데이터베이스 주간 이미지를 이용하여, (level of darkness)에 따라 상술한 알고리즘1에 의해 얻어진 야간 이미지의 예를 나타낸다.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 보행자 검출 방법을 설명하기 위한 도면들이다. 이하 설명하는 각 단계는 보행자 검출 장치를 구성하는 각 기능부를 통해 수행되는 과정이나 발명의 간결하고 명확한 설명을 위해 각 단계의 주체를 보행자 검출 장치로 통칭하도록 한다.
도 8을 참조하면, 단계 S810에서 보행자 검출 장치(100)는 연속적인 복수의 이미지들을 입력 받는다.
단계 S820에서 보행자 검출 장치(100)는 연속적인 복수의 이미지들을 정규화한다. 보행자 검출 장치(100)는 픽셀 정규화(픽셀 정규화)로 각 입력 이미지에 대해서, RGB 채널 각각에, 각 채널의 픽셀 값들을 제로 평균 및 단위 표준 편차를 갖는 분포로 만든 후 스케일링 하여, 각 입력 이미지의 조도와 콘트라스트를 정규화시킬 수 있다. 또한, 보행자 검출 장치(100)는 히스토그램 정규화(histogram equalization (HE)) 및 평균 차감(mean subtraction)으로, 각각의 입력 이미지의 RGB 컬러를 HSV 컬러로 채널 변환 한 후, 밸류(value) 채널 이미지에 히스토그램 정규화를 적용하고, 그 후, 다시 RGB 채널로 변경하여 이미지 셋 전체의 RGB 평균 값을 빼줌으로써, 이미지 픽셀 값들을 제로 센터링할 수 있다.
이하 도 8 및 도 9를 참조하면, 단계 S830에서 보행자 검출 장치는 정규화된 연속적인 복수의 이미지들에 대해 기계 학습된 변경된 R-CNN 을 적용하여 각 이미지들의 공간적인 특징 맵을 추출한다.
단계 S840에서 보행자 검출 장치는 각 이미지에서 추출한 공간적인 특징 맵 들에서 시간적으로 특징 맵 결합을 수행하여 보행자 후보군을 추정한다.
단계 S850에서 보행자 검출 장치는 각 이미지에서 추출한 공간적인 특징 맵 및 추정된 보행자 후보군을 이용하여 예상 보행자를 분류한다
보행자 검출 장치는 데이터베이스를 이용하여 기계 학습을 수행하는 단계를 더 포함할 수 있다. 기계 학습을 수행하는 단계에 대해서는 이하 도 10내지 도 13을 참조하여 자세히 설명한다.
도 10 내지 도 13은 본 발명의 일 실시 예에 따른 보행자 검출 방법의 기계학습을 설명하기 위한 도면들이다.
본 발명의 일 실시 예에 따른 보행자 검출 방법을 수행하기 위하여 예를 들면, 카이스트 데이터베이스 및 칼텍 데이터베이스를 이용할 수 있다.
도 10을 참조하면, 카이스트 데이터베이스는 가시광선 카메라 이미지 뿐만 아니라, 열화상 이미지도 함께 제공하며, 주간 및 야간 이미지를 갖는 보행자 이미지 세트이다. 본 발명에서는 기계학습 및 검증에서 가시광선 카메라 이미지만을 이용하였다. 카이스트 데이터베이스는 모든 이미지가 512640 크기 이므로 동일한 비율로 크기를 조정하여 720900 크기로 사용할 수 있다.
칼텍 데이터베이스는 많은 보행자를 포함한 주간 이미지-세트이다. 카이스트 데이터베이스는 야간 이미지를 포함하기 때문에 다양한 노이즈로 학습시키기 위해 10 프레임마다 샘플링 했으며, 칼텍 데이터베이스는 30 프레임마다 샘플링 했다. 칼텍 데이터베이스는 모든 이미지가 480640 크기 이므로 일단, 512640로 세로를 늘린 후, 동일한 비율로 크기를 조정하여 720900 크기로 사용했다.
도 11을 참조하면, 기계 학습시 데이터 확장으로 플립핑 방법을 사용했고, 주간 이미지에 대해서는 무작위한 정도로 어둡게 만드는 방법도 함께 사용했다. 또, 유효화 세트로 야간 기계 학습 이미지의 10% 가량을 따로 빼서 사용했다. 검증시에는 보행자 실제 지상 검증 기준 (합리적)을 사용했고, 평가 매트릭은 log-average Miss Rate on False Positive Per Image(FPPI) in []를 사용해 성능 평가 했다.
기계 학습 시 이미지네트 데이터세트로 사전 학습된 된 VGG-16 모델을 사용하여 가중치를 초기화 했다. 다만, 관심 영역(ROI) 풀링 된 후의 특징 맵 크기가 7x3(세로가 긴)이기 때문에, 첫번째 레이어와 연결되는 가중치의 개수()가 해당 사전 학습된 모델의 가중치 개수()와 맞지 않는다. 따라서, 너비축의 중앙부분과 연결되는 가중치만 잘라서 초기화에 사용했다. 또한, VGG-16 모델의 첫 번째부터 네 번째 콘볼루션 레이어까지의 사전 학습된 가중치는 기계 학습시 프리징(freezing) 했다.
도 12를 참조하여 기계 학습 과정을 설명한다. 기계 학습 과정에 특징맵 결합의 제안 박스를 주는 것은 실선 화살표로 표시했고, 기계 학습된 가중치를 줌으로써 가중치를 초기화 하는 것은 점선 화살표로 표시 했다. 첫 번째와 두 번째 행의 특징맵결합과 분류기(실선 박스)에서는 특징 맵 결합과 함께 단대단 학습하고, 마지막 행의 특징 맵 결합과 분류기(점선 박스) 특징 맵 추출을 공유하기 위해 특징 맵 추출을 제외한 고유한 네트워크만 학습한다.
구체적인 기계 학습 과정은, 먼저 칼텍 보행자 데이터베이스를 사용하여 특징맵 추출 및 특징맵 결합을 미세하게 튜닝하였다. 그 후, 학습된 특징맵 결합을 사용하여 기계 학습 이미지마다 제안 박스들을 생성하고, 그것을 이용해 특징맵 추출과 분류기 부분을 미세 튜닝하였다 (학습율 =0.001). 그 다음 카이스트 데이터베이스를 사용하여 4-단계 교차 기계 학습방식으로, 다시 한번 미세 튜닝 하였다 (학습율=0.0001). 따라서, 보행자 수가 많은 칼텍 데이터베이스를 사용하여 일반적인 보행자에 대한 특징 맵 추출과 분류기 부분을 기계 학습하고, 야간에 강인한 네트워크를 학습하기 위해 카이스트 데이터베이스를 통해 최종적으로 미세 튜닝 했다.
기계 학습시 Stochastic Gradient Descent (SGD) 방법을 사용했고, 모멘텀(momentum)은 0.9, 가중치 디케이(decay)는 0.0005를 사용했다. 총 3번의 특징맵결합(RPN) 기계 학습 단계시 각 80k번 SGD 반복을 수행했고, 마찬가지로 총 3번의 분류기(classifier) 기계 학습 단계시 각 40k번 SGD 반복을 수행했다.
도 13을 참조하면, 마지막 특징맵결합(RPN)(a)과 분류기(classifier)(b) 기계 학습 단계시 미니 배치 손실의 평균이 감소하는 그래프를 그렸다. 여기서, 분류기의 손실에 비해 특징맵결합의 손실이 낮은 이유는, 특징맵결합은 이미지 내의 모든 앵커 박스에 대한 손실을 평균하므로, 상대적으로 쉬운 샘플이 많기 때문이다.
총 6번의 단계 (칼텍 데이터베이스를 위한 2 단계와 카이스트 데이터베이스를 위한 4 단계)마다 기계 학습이 끝나면, 다음 단계의 기계 학습을 위하여 현재 단계의 저장된 모델 중 유효성 에러가 가장 적은 모델을 선택하여 진행했다. 또한, 기계 학습 시 보행자가 적어도 한 명 이상 존재하는 이미지만 사용하여, 그레디언트(gradient)가 배경 손실(background loss)에 너무 치중되지 않도록 했다. 모든 기계 학습이 완료 되는 데에는 대략 2.5일 정도가 걸렸다.
도 14 내지 도 17는 본 발명의 효과를 설명하기 위한 도면들이다.
도 14를 참조하면, 본 발명의 픽셀 정규화 전처리방법을 사용해 기계 학습한 제안 모델을 사용하여 다양한 특징 결합 방법에 대한 성능을 비교했다. 연속적인 프레임 특징 결합 (가중치 합산) 시 현재 프레임 (실제 검출결과를 얻는 이미지)의 가중치를 크게 하기 위하여 1-D 이산 가우시안 필터 계수를 사용했다. 이론적으로는 모든 가중치를 같게 하여 결합하는 것이 가장 좋지만 (appendix), 실제로는 현재 프레임의 가중치를 가장 크게 해야 정확한 경계 박스를 얻을 수 있을 것이다. 본 연구에서는 현재 프레임의 가중치와 연속적인 프레임들의 가중치를 더한 값이 동일해 지도록 하기 위하여 default로 [0.25, 0.5, 0.25]를 사용했다.
연속적인 프레임 결합에 있어서, 몇 개의 연속적인 프레임을 결합 할 것인지가 중요한 변수가 된다. 이론적으로는 (appendix) 많은 프레임을 결합 할수록 특징의 분별력이 더 좋아지지만, 실제로는 이미지끼리 대응되는 위치가 점점 어긋나기 때문에 적당한 개수의 프레임을 결합 해야 한다. 아래 표에서 보듯, 3개의 프레임을 결합했을 때 가장 좋은 성능이 나왔고, 5개 이상부터는 성능이 점점 떨어졌다. 이는 각 프레임 특징의 수용범위(receptive field)가 크게 벗어나기 때문으로 해석 된다. 만약, 감시 카메라와 같이 고정된 카메라의 경우에는, 연속적인 프레임의 개수를 더 늘렸을 때, 더 큰 성능 향상이 있을 것으로 추측한다.
이번에는, 연속적인 프레임 특징 결합이 분류와 경계 박스 회귀에 미치는 영향을 살펴 보았다. 여기서 경계 박스 회귀는 실제 보행자의 실제 지상 검증 경계 박스와 예상 경계 박스 간의 IoU(intersection over union)가 클수록 올바르게 회귀한 것이다.
도 15를 참조하면, IoU 허용치(threshold)가 작았을 때(IoU가 작아도 true positive로 간주), 연속적인 프레임을 결합하지 않은 그래프 (1520)보다 결합했을 때 (1510), 손실률(MR)이 확연히 줄어든다. 그러나, IoU 허용치(threshold)가 높아지면, 결합 했을 때와 안 했을 때의 성능 차가 거의 없다. 이는 연속적인 프레임의 특징을 결합함으로써, 분류기 성능은 증가하지만, 회귀 성능에는 큰 효과를 보이지 못하는 것으로 해석된다. 왜냐하면, IoU 허용치가 낮을 때는, 예상 경계 박스가 러프하게 실제 지상 검증 경계 박스와 교차해도 true positive로 간주하기 때문에 분류기 성능이 손실율에 큰 영향을 준다. 따라서, 결합을 통해 분류기 성능이 증가하면서, 손실율이 상대적으로 낮아졌다. 반면, IoU 허용치가 높아지면, 예상 박스가 실제 지상 검증 경계 박스와 거의 일치해야 true positive가 된다.
도 16을 참조하면, 연속적인 프레임 특징 결합을 사용한 제안 모델과 카이스트 데이터베이스 베이스 라인간의 성능을 비교했다.
베이스 라인에 사용된 알고리즘은 RGB 채널을 이용한 ACF-RGB(1620)와 RGB 채널, thermal 채널 (T) 그리고, HOG 특징 of the thermal 이미지 (THOG) 채널을 사용한 ACF-RGB+T+THOG (1630)이다. 물론, 2개의 베이스 라인 알고리즘의 성능을 비교하면, 정보가 더 많은 ACF-RGB+T+THOG 가 모든 시간에서 우수한 성능을 보였다. 특히, ACF-RGB는 야간에서 성능이 매우 저조하다. 이는 야간에서는 노이즈가 매우 강하기 때문에 hand-crafted 특징으로는 보행자를 구분해내기 힘들기 때문이다. 그러나, 본 발명에 따른 모델(1610)은 딥 특징을 사용하였고, 그러한 특징 정보를 짧은 시간 동안 결합했기 때문에 카이스트 데이터베이스 야간 이미지에서 ACF-RG(1620)보다 30% 이상 높은 검출 성능을 보였다 (도16(c)). 특히, 열화상 정보까지 사용한 ACF-RGB+T+THOG(1630) 보다도 5% 이상 높은 성능을 보였다. 또한, 카이스트 데이터베이스 주간 이미지에서도 안정된 성능을 보였다 (도 16(b)). 이는 데이터 확장을 통해 다양한 이미지로 기계 학습 했고, 적절한 전처리로 콘트라스트와 조명을 정규화 했기 때문으로 해석 된다. 결과적으로, 카이스트 데이터베이스 모두(도 16(a)) 에서 베이스 라인의 성능을 능가했다.
도 17을 참조하면, 카이스트 데이터베이스의 샘플 이미지들의 검출 결과를 보여준다.
도 17의 첫 번째 행은 주간 이미지에 대한 검출 결과이고, 나머지 행은 야간 이미지의 검출 결과이다. 녹색, 노란색(1520) 및 빨간색(1530)의 경계 박스는 각각 true positive 박스, false negative 박스 (손실된 실제 지상 검증), false positive 박스를 나타낸다.
본 발명에 따른 보행자 검출 방법은 가시광선 카메라에서 얻은 야간을 포함한 모든 시간대의 이미지를 대상으로 적용하였다. 보행자 검출에 맞춰 약간의 변화를 준 faster R-CNN 모델을 주간과 야간 이미지들을 이용하여 기계 학습 시켰다. 이때, 노이즈와 조명에 강인한 모델이 되도록 주간 이미지의 강도를 무작위하게 줄이고, 무작위한 AWGN을 넣었다. 또한, 안정적인 기계 학습이 되도록 모든 기계 학습 이미지의 조명과 콘트라스트를 정규화 하는 전처리방법을 적용했다. 검증시에도 동일한 전처리방법을 적용하였으며, 추가적으로 연속적인 프레임 특징들을 가중치 합산하여 시간적인 정보를 함께 사용했다. 결과적으로, 카이스트 데이터베이스의 모든 시간대에서 베이스 라인의 성능을 능가했으며, 특히 야간에서 열화상 카메라정보까지 사용한 방법보다 높은 성능을 보였다.
성능 측정에서 사용한 카이스트 데이터베이스는 이동하는 차량에서 얻은 이미지이기 때문에, 보행자와의 거리와 조명이 다양했다. 그에 따라, 대부분의 에러 사례들은 너무 어둡거나 거리가 먼 보행자 혹은 배경에서 생겼다 (사람의 육안으로도 식별이 불가능한). 그러나 만약 어느 정도의 제약조건을 가진 감시 시스템 환경 이라면 (거리, 조명 등이 식별 가능한 정도의 수준), 연속적인 프레임 특징 결합의 효과가 더욱 커짐으로써, 높은 정확도의 검출 성능을 보일 것으로 예상한다.
본 발명의 실시 예에 따른 보행자 검출 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(mag네트ic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(mag네트o-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (11)

  1. 보행자 검출 장치에 있어서,
    연속적인 복수의 이미지들을 입력받는 연속 이미지 입력부;
    입력된 연속적인 복수의 이미지들을 정규화하는 이미지 정규화부; 및
    정규화된 연속적인 복수의 이미지들에 대해 기계 학습된 변경된 R-CNN 을 적용하여 보행자 후보군을 분류하는 변경된 R-CNN부를 포함하는 보행자 검출 장치.
  2. 제1항에 있어서,
    상기 이미지 정규화부는
    각 입력 이미지에 대해서, RGB 채널 각각에, 각 채널의 픽셀 값들을 제로 평균 및 단위 표준 편차를 갖는 분포로 만든 후 스케일링 하여, 각 입력 이미지의 조도와 콘트라스트를 정규화시키거나
    각각의 입력 이미지의 RGB 컬러를 HSV 컬러로 채널 변환 한 후, 밸류(value) 채널 이미지에 히스토그램 정규화를 적용하고, 그 후, 다시 RGB 채널로 변경하여 이미지 셋 전체의 RGB 평균 값을 빼는 보행자 검출 장치.
  3. 제1항에 있어서,
    상기 연속적인 복수의 이미지는 3개의 연속적인 이미지인 보행자 검출 장치.
  4. 제1항에 있어서,
    상기 변경된 R-CNN부는
    정규화된 연속적인 복수의 이미지들에 대해 기계 학습된 변경된 R-CNN 을 적용하여 각 이미지들의 공간적인 특징 맵을 추출하는 특징맵추출부;
    각 이미지에서 추출한 공간적인 특징 맵 들에서 시간적으로 특징 맵 결합을 수행하여 보행자 후보군을 추정하는 특징맵결합부; 및
    각 이미지에서 추출한 공간적인 특징 맵 및 추정된 보행자 후보군을 이용하여 예상 보행자를 분류하는 분류기부를 포함하는 보행자 검출장치.
  5. 제4항에 있어서,
    상기 딥 특징 추출부는,
    복수의 보행자들을 포함한 이미지를 입력으로 받아, 13개의 콘볼루션 레이어와 ReLU 활성함수를 3개의 맥스 풀링 레이어를 통과시켜서, 특징맵을 추출하는 보행자 검출 장치.
  6. 제5항에 있어서,
    상기 딥 특징 추출부는,
    VGG-네트 16 네트워크에서 저 해상도 특징 맵 문제를 해결하기 위하여 추가로 4번째 맥스 풀링 레이어를 제거하여, 마지막 특징 맵의 해상도를 높인 보행자 검출 장치.
  7. 제4항에 있어서,
    상기 특징맵결합부는
    각 이미지에서 추출한 공간적인 특징 맵들 간의 가중치 합산을 통한 결합을 수행하는 보행자 검출 장치.
  8. 보행자 검출장치에서 수행되는 보행자 검출방법에 있어서,
    연속적인 복수의 이미지들을 입력 받는 단계;
    입력된 연속적인 복수의 이미지들을 정규화하는 단계;
    정규화된 연속적인 복수의 이미지들에 대해 기계 학습된 변경된 R-CNN 을 적용하여 각 이미지들의 공간적인 특징 맵을 추출하는 단계;
    각 이미지에서 추출한 공간적인 특징 맵 들에서 시간적으로 특징 맵 결합을 수행하여 보행자 후보군을 추정하는 단계; 및
    각 이미지에서 추출한 공간적인 특징 맵 및 추정된 보행자 후보군을 이용하여 예상 보행자를 분류하는 단계를 포함하는 보행자 검출 방법.
  9. 제8항에 있어서,
    상기 입력된 연속적인 복수의 이미지들을 정규화하는 단계는,
    각 입력 이미지에 대해서, RGB 채널 각각에, 각 채널의 픽셀 값들을 제로 평균 및 단위 표준 편차를 갖는 분포로 만든 후 스케일링 하여, 각 입력 이미지의 조도와 콘트라스트를 정규화시키거나
    각각의 입력 이미지의 RGB 컬러를 HSV 컬러로 채널 변환 한 후, 밸류(value) 채널 이미지에 히스토그램 정규화를 적용하고, 그 후, 다시 RGB 채널로 변경하여 이미지 셋 전체의 RGB 평균 값을 빼는 보행자 검출 방법.
  10. 제8항에 있어서,
    데이터베이스를 이용하여 기계 학습을 수행하는 단계를 더 포함하는 보행자 검출 방법.
  11. 제8항 내지 제10항 중 어느 하나의 보행자 검출 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.


KR1020180037899A 2018-04-02 2018-04-02 보행자 검출 장치 및 방법 KR102103770B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180037899A KR102103770B1 (ko) 2018-04-02 2018-04-02 보행자 검출 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180037899A KR102103770B1 (ko) 2018-04-02 2018-04-02 보행자 검출 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190115542A true KR20190115542A (ko) 2019-10-14
KR102103770B1 KR102103770B1 (ko) 2020-04-24

Family

ID=68171287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180037899A KR102103770B1 (ko) 2018-04-02 2018-04-02 보행자 검출 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102103770B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079629A (zh) * 2019-12-12 2020-04-28 哈尔滨市科佳通用机电股份有限公司 铁路货车心盘脱出故障图像识别方法
CN111091552A (zh) * 2019-12-12 2020-05-01 哈尔滨市科佳通用机电股份有限公司 铁路货车折角塞门把手关闭故障图像识别方法
KR102388806B1 (ko) * 2021-04-30 2022-05-02 (주)에이아이매틱스 주행 상황 판단 시스템
KR20220057389A (ko) * 2020-10-29 2022-05-09 주식회사 딥비전스 행동 인식 장치 및 방법
US20230144745A1 (en) * 2021-11-09 2023-05-11 Zoox, Inc. Machine-learned architecture for efficient object attribute and/or intention classification
KR102540629B1 (ko) * 2022-10-27 2023-06-13 주식회사 모빌테크 교통 시설물에 대한 학습 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102577350B1 (ko) * 2022-05-10 2023-09-12 스페이스워크 주식회사 작물 생육 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102336103B1 (ko) * 2020-09-09 2021-12-08 울산과학기술원 딥러닝 기반 영상 디블러링 방법 및 이를 수행하는 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101818129B1 (ko) * 2017-04-25 2018-01-12 동국대학교 산학협력단 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법
JP2018026108A (ja) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 物体追跡方法、物体追跡装置およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026108A (ja) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 物体追跡方法、物体追跡装置およびプログラム
KR101818129B1 (ko) * 2017-04-25 2018-01-12 동국대학교 산학협력단 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079629A (zh) * 2019-12-12 2020-04-28 哈尔滨市科佳通用机电股份有限公司 铁路货车心盘脱出故障图像识别方法
CN111091552A (zh) * 2019-12-12 2020-05-01 哈尔滨市科佳通用机电股份有限公司 铁路货车折角塞门把手关闭故障图像识别方法
KR20220057389A (ko) * 2020-10-29 2022-05-09 주식회사 딥비전스 행동 인식 장치 및 방법
KR102388806B1 (ko) * 2021-04-30 2022-05-02 (주)에이아이매틱스 주행 상황 판단 시스템
US20230144745A1 (en) * 2021-11-09 2023-05-11 Zoox, Inc. Machine-learned architecture for efficient object attribute and/or intention classification
WO2023086405A1 (en) * 2021-11-09 2023-05-19 Zoox, Inc. A machine-learned architecture for efficient object attribute and/or intention classification
US11972614B2 (en) * 2021-11-09 2024-04-30 Zoox, Inc. Machine-learned architecture for efficient object attribute and/or intention classification
KR102577350B1 (ko) * 2022-05-10 2023-09-12 스페이스워크 주식회사 작물 생육 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR102540629B1 (ko) * 2022-10-27 2023-06-13 주식회사 모빌테크 교통 시설물에 대한 학습 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Also Published As

Publication number Publication date
KR102103770B1 (ko) 2020-04-24

Similar Documents

Publication Publication Date Title
KR102103770B1 (ko) 보행자 검출 장치 및 방법
TWI750498B (zh) 視訊流的處理方法和裝置
US11195038B2 (en) Device and a method for extracting dynamic information on a scene using a convolutional neural network
US10885372B2 (en) Image recognition apparatus, learning apparatus, image recognition method, learning method, and storage medium
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
US7957560B2 (en) Unusual action detector and abnormal action detecting method
Sen-Ching et al. Robust techniques for background subtraction in urban traffic video
Wan et al. Bootstrapping face detection with hard negative examples
Ramirez-Quintana et al. Self-adaptive SOM-CNN neural system for dynamic object detection in normal and complex scenarios
US8861853B2 (en) Feature-amount calculation apparatus, feature-amount calculation method, and program
US9189867B2 (en) Adaptive image processing apparatus and method based in image pyramid
CN112446270A (zh) 行人再识别网络的训练方法、行人再识别方法和装置
JP6797860B2 (ja) 水上侵入検知システムおよびその方法
KR20170038622A (ko) 영상으로부터 객체를 분할하는 방법 및 장치
KR20200027887A (ko) 복수의 비디오 프레임을 이용하여 cnn의 파라미터를 최적화하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
US20210256314A1 (en) Methods and systems for object recognition in low illumination conditions
KR20180020376A (ko) 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법
Negri et al. Detecting pedestrians on a movement feature space
Tuominen et al. Cloud detection and movement estimation based on sky camera images using neural networks and the Lucas-Kanade method
Li et al. Weak moving object detection in optical remote sensing video with motion-drive fusion network
US11830272B2 (en) Method and apparatus for identifying animal species
Mao A pedestrian detection algorithm for low light and dense crowd Based on improved YOLO algorithm
Teršek et al. Re-evaluation of the CNN-based state-of-the-art crowd-counting methods with enhancements
Kushwaha et al. Performance evaluation of various moving object segmentation techniques for intelligent video surveillance system
CN112632601A (zh) 面向地铁车厢场景的人群计数方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right