KR102105954B1 - 사고위험 감지시스템 및 감지방법 - Google Patents

사고위험 감지시스템 및 감지방법 Download PDF

Info

Publication number
KR102105954B1
KR102105954B1 KR1020180144409A KR20180144409A KR102105954B1 KR 102105954 B1 KR102105954 B1 KR 102105954B1 KR 1020180144409 A KR1020180144409 A KR 1020180144409A KR 20180144409 A KR20180144409 A KR 20180144409A KR 102105954 B1 KR102105954 B1 KR 102105954B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
lane
camera
detection module
Prior art date
Application number
KR1020180144409A
Other languages
English (en)
Inventor
김경섭
홍진석
한명우
김정선
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR1020180144409A priority Critical patent/KR102105954B1/ko
Application granted granted Critical
Publication of KR102105954B1 publication Critical patent/KR102105954B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • G06K9/00791
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 의한 사고위험 감지시스템은, 차량 이미지, 사람 이미지, 복합 이미지가 저장된 데이터베이스; 데이터베이스에 저장된 이미지를 전처리한 후 패스트 알시엔엔으로 학습하여 복합 이미지로부터 차량과 사물을 인식하는 훈련을 하는 학습 모듈; 차량의 전방을 활영하는 카메라; 상기 카메라가 촬영한 영상에서 차선을 탐지하는 차선 탐지 모듈; 상기 카메라가 촬영한 영상에서 물체를 감지하고 감지된 물체가 차량이고 그 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단하는 위험 탐지 모듈;을 포함하는 것을 특징으로 한다.

Description

사고위험 감지시스템 및 감지방법{SYSTEM AND METHOD FOR ACCIDENT RISK DETECTION}
본 발명은 사고위험 감지시스템 및 감지방법에 관한 것으로, 보다 상세하게는 주행하는 차량의 블랙박스 영상을 통해 다른 차량이 자신의 차선으로 끼어드는 위험을 감지하는 사고위험 감지시스템 및 감지방법에 관한 것이다.
2010년 이후 딥 러닝이 많은 관심을 받으면서 다양한 분야에서 이용하려는 연구가 활발히 진행 중에 있다. 딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습 알고리즘의 집합이다. 컴퓨터가 학습할 수 있게 하도록 많은 연구가 진행되고 있으며, 이러한 노력의 결과로 Deep Neural Network, Convolutional Deep Neural Network, Recurrent Neural Network와 같은 다양한 딥 러닝 기법들이 컴퓨터 비전, 음성인식, 자연어 처리, 음성/신호처리 등의 분야에서 적용되어 최첨단 결과들을 보여주고 있다.
자동차 분야에서도 딥 러닝 기법을 활용하여 많은 연구 및 개발이 이루어지고 있다.
딥 러닝 기법을 적용한 대표적인 사례로 비특허문헌 1의 자율주행 자동차를 들 수 있는데, Google, Tesla, NVIDIA 등 많은 기업에서 자율주행 자동차 개발을 진행하고 있으며, 실제 일반 도로에서 완전 자율주행에 성공하고 있다. 또, 비특허문헌 2의 자동차 충돌 사고를 탐지하거나, 비특허문헌 3의 사고를 예측하는 연구 등이 진행 중이다.
그리고 이러한 딥 러닝 기법을 적용한 사례에서는 비특허문헌 4의 ResNet(Residual Network)이나 비특허문헌 5의 Faster R-CNN(Faster Region-based Convolutional Neural Networks)가 사용될 수 있다.
ResNet(Residual Network)은 2015년에 제안된 모델로 이미지 인식분야에서 사용되고 있는 딥 네트워크 모델이다. 레이어의 깊이를 늘렸을 때 생기는 부작용을 해결한 모델로 기존의 평범한 CNN에서 레이어의 입력을 레이어의 출력에 바로 연결시키는 Skip Connection을 사용하여 학습을 진행한다. 도 1은 ResNet의 구조를 나타낸 도면이며, ResNet은 F(x)가 0이 되는 방향으로 학습을 진행한다. 이러한 구조로 ResNet은 깊은 레이어도 쉽게 최적화가 가능하고, 늘어난 깊이로 인해 정확도를 개선할 수 있다
Faster R-CNN(Faster Region-based Convolutional Neural Networks)은, 이미지 안에 어떤 물체들이 들어있는지 구분하기 위해 이미지 분류기 앞에 이미지 영역을 찾아내는 탐지 영역을 결합한 모델이다. 그림2는 Faster R-CNN의 구조를 나타낸 도면이다.
Faster R-CNN의 훈련은 4단계의 교대훈련으로 이루어져 있다. 1단계는 미리 훈련된 데이터 셋을 통해 RPN을 훈련시킨다. 2단계는 1단계에서 제안된 박스를 가지고 RoI Layer를 훈련시킨다. 3단계는 2단계를 바탕으로 RPN을 훈련시키며 이때 특징 맵을 추출하는 레이어는 고정된다. 마지막으로 3단계 결과를 가지고 RoI Pooling Layer를 훈련시킨다.
그러나 주행하는 차량의 블랙박스 영상을 통해 다른 차량이 자신의 차선으로 끼어드는 위험을 감지하는 기술은 정확도가 높지 않다.
Chenyi Chen, Ari Seff, Alain Kornhauser, Jianxiong Xiao, "DeepDriving: Learning Affordance for Direct Perception in Autonomous Driving", The IEEE International Conference on Computer Vision (ICCV), Santiago , pp. 2722-2730 , 2015 Jagannath Aghav, Poorwa Hirwe, and Mayura Nene, "Deep Learning for Real Time Collision Detection and Avoidance", in the Proceedings of International Conference on Communication, Computing and Networking (ICCCN 2017) , Vancouver , pp. 483-488 , 2017 Fu-Hsiang Chan, Yu-Ting Chen, Yu Xiang, Min Sun, "Anticipating Accidents in Dashcam Videos", Asian Conference on Computer Vision (ACCV) , Taipei , pp. 136-153 , 2016 Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, "Deep Residual Learning for Image Recognition", The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas , pp. 770-778 , 2016 S. Ren, K. He, R. Girshick and J. Sun, "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", in IEEE Transactions on Pattern Analysis & Machine Intelligence, vol. 39, no. 6, pp. 1137-1149, 2017.
본 발명이 해결하고자는 하는 과제는, 주행하는 차량의 블랙박스 영상을 통해 다른 차량이 자신의 차선으로 끼어드는 위험을 감지함에 있어서, 정확도가 높은 사고위험 감지시스템 및 감지방법을 제공하는 것이다.
본 발명에 의한 사고위험 감지시스템은, 차량 이미지, 사람 이미지, 복합 이미지가 저장된 데이터베이스; 데이터베이스에 저장된 이미지를 전처리한 후 패스트 알시엔엔으로 학습하여 복합 이미지로부터 차량과 사물을 인식하는 훈련을 하는 학습 모듈; 차량의 전방을 활영하는 카메라; 상기 카메라가 촬영한 영상에서 차선을 탐지하는 차선 탐지 모듈; 상기 카메라가 촬영한 영상에서 물체를 감지하고 감지된 물체가 차량이고 그 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단하는 위험 탐지 모듈;을 포함하는 것을 특징으로 한다.
상기 위험 탐지 모듈이 차량으로 판단되는 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단할 때, 상기 설정된 범위는 바운더리 박스의 크기에 따라 다르게 설정된 것일 수 있다.
본 발명에 의한 사고위험 감지방법은, 데이터베이스, 학습 모듈, 차량의 전방을 활영하는 카메라, 차선 탐지 모듈, 위험 탐지 모듈을 포함하는 사고위험 감지시스템을 이용한 사고위험 감지방법에 있어서, 학습 모듈이 데이터베이스에 저장된 이미지를 전처리한 후 패스트 알시엔엔으로 학습하여 복합 이미지로부터 차량과 사물을 인식하는 훈련을 하는 제1 단계; 카메라가 차량의 전방을 촬영하는 제2 단계; 차선 탐지 모듈이 차선을 탐지하는 제3 단계: 상기 카메라가 촬영한 영상에서 물체를 감지하고 감지된 물체가 차량이고 그 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면, 위험 탐지모듈이 사고위험이 있는 것으로 판단하는 제4 단계;를 포함하는 것을 특징으로 한다.
상기 위험 탐지 모듈이 차량으로 판단되는 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단할 때, 상기 설정된 범위는 바운더리 박스의 크기에 따라 다르게 설정된 것일 수 있다.
본 발명에 의한 사고위험 감지시스템 및 감지방법은, 주행하는 차량의 블랙박스 영상을 통해 다른 차량이 자신의 차선으로 끼어드는 위험을 감지함에 있어서, 정확도가 높다.
도 1은 ResNet의 구조를 나타낸 도면
도 2는 Faster R-CNN의 구조를 나타낸 도면
도 3은 사고위험 감지시스템의 실시예 1의 개념도
도 4는 위험감지 디지전 트리의 예
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
(실시예 1)
도 3은 본 발명에 의한 사고위험 감지시스템의 실시예 1의 개념도이다.
전처리란 Data set을 훈련이 가능하도록 샘플링을 해주는 작업이다.
Tensorflow-Slim 는 텐서플로우의 낮은 수준의 API를 사용하여 모델을 정의, 학습, 평가하는 과정을 간소화하는 API이다.
Resnet v101 는 단일 이미지를 인식하기 위해 사용하는 모델로 Tensorflow-Slim을 통해 구현된다.
Faster R-CNN 의 구조는 'Faster R-CNN'라는 글자 밑의 박스 부분에 나타나 있다.
Check Point는 단일 이미지를 인식하기 위해 Resnet을 사용하였는데 이 Resnet의 변수들의 값을 저장해놓은 지점을 의미한다.
Conv layer 는 컨볼루션 레이어로 특징을 추출하기 위해 사용한다. 컨볼루션 레이어에 Resnet 변수들이 들어간다.
Feature maps 은 컨볼루션 레이어를 통해 나온 특징들을 모아놓은 맵이다.
RPN layer 는 Region Proposal Network의 준말로, 물체가 있을법한 위치를 찾는 layer를 말하다.
Classifier 는 물체가 있을법한 위치를 찾고나면 그 위치에 어떤 물체가 있는지를 알게 해준다.
Frame 는 영상를 하나의 이미지로 나눈 단위이다.
본 사고위험 감지시스템을 위해 차량, 사람 등이 존재하는 복합 이미지에 라벨링 작업을 진행하여 데이터 셋을 만드는 전처리 과정을 거쳤다. 전 처리된 데이터 셋을 훈련시키기 위해 Faster R-CNN(Faster Region-based Convolutional Nueral Network) 모델을 사용하여 학습을 진행하고, 이미지 분류 모델로 Resnet101을 사용해 훈련 횟수를 감소시킨다. 훈련된 모델을 바탕으로 블랙박스 영상을 통하여 차량과 사람을 탐지하고, OpenCV 라이브러리를 사용하여 차선을 탐지한 후 측면 충돌이 일어날 수 있는 끼어들기 상황에 대해 위험 상황이라고 보여주는 시각화 모델로 이루어져 있다.
데이터 세트(Data Set)는 학습 데이터 세트와 시나리오 데이터 세트를 포함한다.
차량과 사람을 학습데이터로 정의하고, 그중 차량의 종류가 여러 가지 있기 때문에 차량 6가지와 사람 2가지로 분류하여 총 8가지의 이미지를 학습데이터로 정의하였다. 단일 이미지는 차량 데이터 셋{Jonathan Krause, Michael Stark, Jia Deng, Li Fei-Fei, "3D Object Representations for Fine-Grained Categorization",The IEEE International Conference on Computer Vision (ICCV) Workshops , Sydney , pp. 554-561, 2013}를 사용하였다. 데이터 셋은 다양한 크기로 구성된 차량 이미지이며, 훈련데이터 8000개로 훈련을 진행하였고, 시험 데이터 4000개로 테스트를 진행하여 훈련의 성과를 평가하였다.
여러 차량과 사람이 존재하는 복합이미지는 KITTI{Andreas Geiger and Philip Lenz and Raquel Urtasun, "Are we ready for autonomous driving? the kitti vision benchmark suite", IEEE Conference on Computer Vision and Pattern Recognition, Providence, pp.3354-3361, June 2012} 데이터 셋을 사용하였다. 데이터 셋은 1242x375의 고정된 크기의 이미지로 훈련 데이터 5000개, 시험 데이터 2500개로 데이터 셋을 구성하였다.
시나리오 데이터 세트는, 끼어들기 상황에 대한 위험 시나리오에 적합한 영상을 웹상에서 총 30개를 찾아 위험 시나리오가 있는 부분만 잘라서 영상을 확보하였으며, 훈련 데이터 15개, 시험 데이터 15개로 데이터 셋을 구성하였다.
데이터 전 처리 과정은 다음과 같다.
사전학습을 위한 데이터 셋은 해당 사이트에서 각 이미지별 라벨 데이터를 제공하기 때문에 라벨 데이터를 가져와 훈련을 진행하였다.
복합이미지의 경우는 해당 사이트에서 각 이미지별 라벨을 제공은 하지만, 라벨 데이터의 내용 중 쓰지 않는 값들이 존재하여 그 부분을 제거한 새로운 라벨 데이터를 만들어 훈련을 진행하였다.
영상의 경우는 각 영상에 프레임을 추출하여 위험 상황인지 아닌지를 사람의 눈으로 직접 판단하여 위험상황을 1로, 아닌 상황을 0으로 설정하여 진행하였다.
학습 모듈은 Tensorflow Slim 와 Faster R-CNN 으로 구현된다.
Tensorflow Slim 은 저수준의 Tensorflow API를 간편하게 사용할 수 있는 고수준 경량 API로써, 이미지 분류에 사용되는 딥 러닝 CNN 모델을 제공한다. 지원되는 모델은VGG{K. Simonyan, A. Zisserman., "Very Deep Convolutional Networks for Large-Scale Image Recognition", Proceedings of International Conference on Learning Representations (ICLR), San Diego, p.1-14 , May 2015}, ResNet 등이 있으며 미리 훈련된 모델을 기반으로 파인 튜닝(fine-tuning)하는 과정이 단순화되어 있다. 본 실시예에서는 Tensorflow Slim에서 지원하는 ResNet_V1_101 모델을 사용하여 사전 학습을 진행하였으며, 총 100,000번의 반복학습을 진행하였다.
Faster R-CNN은 Tensorflow로 구현이 되었으며, 전처리된 이미지와 반복학습을 줄이기 위한 사전훈련 데이터를 입력으로 받아 복합이미지에서 차량과 사물을 인지한다. 훈련이 시작되면 Faster R-CNN에 정의된 레이어들을 사전에 ResNet으로 학습시킨 데이터를 가지고 초기화를 한다. 이후 데이터 셋 중 훈련 데이터 셋 부분을 랜덤하게 입력값으로 넣으며 각각의 이미지에 대하여 훈련을 진행하여 훈련이 완료되었을 시 시험 데이터를 이용해 모델을 평가하고 정확도를 측정한다. 사전 데이터를 사용하는 것은 처음 진행할 때만 사용하며 이후 추가로 훈련하고자 할 경우 훈련된 데이터를 바탕으로 진행된다. 훈련 횟수를 3가지로 나누어 400,000번, 800,000번, 1,600,000번 훈련을 진행하였으며, Ckpt 파일 형식으로 3가지 훈련 횟수에 대해 따로 저장하였다.
차선 탐지는 다음의 과정을 통해 이루어진다.
차선을 탐지하기 위해 OpenCV 라이브러리를 사용하여 구현하였다. OpenCV는 주로 실시간 컴퓨터 비전을 목적으로 한 프로그래밍 라이브러리이다. 차선을 탐지하기 위해 처음에 기존의 이미지를 흑백화면으로 변환하는 Gray Scale 작업을 진행한다. 이 작업을 통해 백색 부분을 제외한 나머지 부분을 모두 까맣게 변환시킨다. 그 뒤 백색 부분의 채워진 부분을 제거하여 테두리 부분만 남긴 뒤, RoI(Region of Interest) 범위에 해당하는 영역만 남긴 뒤 모두 제거하는 Canny Edge Detection{ J. Canny, "A computational approach to edge detection", IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol.8, No.8, pp. 679-698, Nov.1986} 작업을 진행한다. 그 뒤 남은 부분에 Hough Space{T. Risse, "Hough transform for line recognition: Complexity of evidence accumulation and cluster detection",Computer Vision Graphics Image Processing, vol. 46, Issue 3, pp. 327-345, June 1989} 작업을 통해 직선을 그어 차선을 탐지한 결과를 보여준다
위험탐지 과정은 다음과 같다.
Faster R-CNN을 통해 훈련된 계층을 사용하여 얻은 물체 인식 정보(물체 이름, 물체 위치, 정확도)와 OpenCV라이브러리를 통해 나온 차선을 바탕으로 끼어들기 상황에 대한 위험 시나리오를 구성하였다. 인식된 물체의 클래스에 대해 물체의 경계 박스(bounding box)와 차선의 중첩된 영역 비율에 대한 조건을 다르게 하여 위험 탐지를 정의하였다.
물체의 경계 박스(bounding box)는 촬영된 영상의 이미지에서 물체의 영상이 차지하는 부분을 말한다. 차선의 중첩된 영역비율은, 물체의 경계 박스(bounding box)의 면적 중에서 차선을 넘어온 부분의 면적 비율을 의미한다.
도 4는 위험탐지에 대한 디시전 트리(Decision Tree)의 예이다.
도 4에서는 물체가 사람이 아닌 차량이라고 판단될 때, 경계 박스(bounding box)의 크기가 10만 픽셀 이하일 때에는 차선의 중첩된 영역 비율이 5 ~ 30 %일 때 위험으로 판단하고, 경계 박스(bounding box)의 크기가 10만 픽셀 초과 30만 픽셀 이하일 때에는 9 ~ 23 %일 때 위험으로 판단하고, 경계 박스(bounding box)의 크기가 30만 픽셀 초과일 때에는 차선의 중첩된 영역 비율이 12 ~ 30 %일 때 위험으로 판단한다. 해당 차량의 경계 박스 크기는 차량과의 거리(거리가 멀면 박스 크기가 작아지고 가까우면 박스크기가 커진다) 및 차량의 크기(버스 , 승용차, 소형차 마다 크기가 다르기 때문)에 따라 다른데, 도 4에서는 크게 세가지로 분류를 하여 탐지된 차선과 차량의 바운딩박스의 중첩비율을 계산하여 미리 설정된 비율에 해당하면 위험이라고 판단한다.
이렇게 위험 탐지 모듈이 차량으로 판단되는 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단할 때, 상기 설정된 범위는 바운더리 박스의 크기에 따라 다르게 설정하면 판단의 정확도가 향상된다.
경계 박스의 크기가 커질수록 위험을 탐지하는 비율도 더 크게 적용해야 한다고 판단하여 최적의 비율 조건을 찾아 적용시켰다.
위험탐지가 이루어지면 시각화를 통해 사용자에게 알려줄 수 있다.
시각화는 위험 탐지가 된 프레임은 영상에서 배경색이 바뀌게 하여 진행하였고, 몇 번째 프레임에서 위험 상황을 탐지하였는지 로그를 남겨 확인할 수 있도록 하였다.
실시예 1의 성능분석을 위해, 정확도(Accuracy)와 정밀도(Precision), 민감도(Sensitivity) 를 다음의 표 1과 같이 정의한다.
Prediction
Actual 위험감지 위험감지X
위험감지 TP FN
위험감지X FP TN
정확도는 (TP + TN) / (TP + TN + FP + FN)로 이루어져 있으며, 이 모델의 전체 정확도를 알려준다. 민감도는 TP / (TP + FN)로 이루어져 있으며, 실제 위험상황을 얼마나 잘 감지했는지를 알려준다. 정밀도은 TP / (TP + FP)로 이루어져 있으며, 위험상황이든 아니든 모두 위험상황으로 예측한 경우를 알려준다.
본 실시예에서는, 실제 위험상황을 얼마나 잘 감지했는지를 더 중요하게 생각하여 민감도가 얼마나 높게 나오는지를 중점적으로 보고 성능 측정을 진행하였다. 다음의 표 2는 훈련 횟수에 따른 시나리오 데이터의 분석 결과이다.
Figure 112018116114355-pat00001
위험 상황 판단의 경우 차량을 인식하는 경계 박스와 차선에 중첩된 비율을 계산하여 비율 조건에 만족하면 위험 상황을 감지하도록 설정했다. 대부분의 탐지 모델 활용이 실시간으로 이루어지므로 프레임 단위로 기록들을 저장하였다. 정확도는 약 80%의 성능을 보였고, 민감도는 약 84%, 정밀도는 약 55%의 성능을 보여 본 실시예의 성능이 나쁘지 않음이 확인된다.
따라서 본 발명에 의한 사고위험 감지시스템은 데이터베이스, 학습 모듈, 카메라, 차선 탐지 모듈, 위험 탐지 모듈을 포함한다.
데이터베이스에는, 차량 이미지, 사람 이미지, 복합 이미지가 저장되다.
학습 모듈은 데이터베이스에 저장된 이미지를 전처리한 후 패스트 알시엔엔으로 학습하여 복합 이미지로부터 차량과 사물을 인식하는 훈련을 한다.
카메라는 차량의 전방을 촬영한다.
차선 탐지 모듈은 상기 카메라가 촬영한 영상에서 차선을 탐지한다.
위험 탐지 모듈은 상기 카메라가 촬영한 영상에서 물체를 감지하고 감지된 물체가 차량이고 그 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단한다.
본 발명에 의한 사고위험 감지방법은, 데이터베이스, 학습 모듈, 차량의 전방을 활영하는 카메라, 차선 탐지 모듈, 위험 탐지 모듈을 포함하는 사고위험 감지시스템을 이용한 사고위험 감지방법으로서 다음의 4단계를 포함한다.
(1) 제1 단계: 학습 모듈이 데이터베이스에 저장된 이미지를 전처리한 후 패스트 알시엔엔으로 학습하여 복합 이미지로부터 차량과 사물을 인식하는 훈련을 하는 단계
(2) 제2 단계: 카메라가 차량의 전방을 촬영하는 단계
(3) 제3 단계: 차선 탐지 모듈이 차선을 탐지하는 단계
(4) 제4 단계: 상기 카메라가 촬영한 영상에서 물체를 감지하고 감지된 물체가 차량이고 그 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면, 위험 탐지모듈이 사고위험이 있는 것으로 판단하는 단계
상기 위험 탐지 모듈이 차량으로 판단되는 물체의 바운더리 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단할 때, 상기 설정된 범위는 바운더리 박스의 크기에 따라 다르게 설정될 수 있다.

Claims (4)

  1. 차량 이미지, 사람 이미지, 복합 이미지가 저장된 데이터베이스;
    데이터베이스에 저장된 이미지를 전처리한 후 패스트 알시엔엔으로 학습하여 복합 이미지로부터 차량과 사물을 인식하는 훈련을 하는 학습 모듈;
    차량의 전방을 활영하는 카메라;
    상기 카메라가 촬영한 영상에서 차선을 탐지하는 차선 탐지 모듈;
    상기 카메라가 촬영한 영상에서 물체를 감지하고 감지된 물체가 차량이고 그 물체의 경계 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단하는 위험 탐지 모듈;
    을 포함하고,
    상기 위험 탐지 모듈이 차량으로 판단되는 물체의 경계 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단할 때, 경계박스의 크기가 커질수록 위험을 탐지하는 비율이 더 커지고,
    물체의 경계 박스는 촬영된 영상의 이미지에서 물체의 영상이 차지하는 부분을 의미하고,
    물체의 경계 박스가 차선을 넘어선 비율은, 물체의 경계 박스의 면적 중에서 차선을 넘어온 부분의 면적 비율을 의미하는 것을 특징으로 하는 사고위험 감지시스템.
  2. 삭제
  3. 데이터베이스, 학습 모듈, 차량의 전방을 활영하는 카메라, 차선 탐지 모듈, 위험 탐지 모듈을 포함하는 사고위험 감지시스템을 이용한 사고위험 감지방법에 있어서,
    학습 모듈이 데이터베이스에 저장된 이미지를 전처리한 후 패스트 알시엔엔으로 학습하여 복합 이미지로부터 차량과 사물을 인식하는 훈련을 하는 제1 단계;
    카메라가 차량의 전방을 촬영하는 제2 단계;
    차선 탐지 모듈이 차선을 탐지하는 제3 단계:
    상기 카메라가 촬영한 영상에서 물체를 감지하고 감지된 물체가 차량이고 그 물체의 경계 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면, 위험 탐지모듈이 사고위험이 있는 것으로 판단하는 제4 단계;
    를 포함하고,
    상기 위험 탐지 모듈이 차량으로 판단되는 물체의 경계 박스가 차선을 넘어선 비율이 미리 설정된 범위에 들어오면 사고위험이 있는 것으로 판단할 때, 경계박스의 크기가 커질수록 위험을 탐지하는 비율이 더 커지고,
    물체의 경계 박스는 촬영된 영상의 이미지에서 물체의 영상이 차지하는 부분을 의미하고,
    물체의 경계 박스가 차선을 넘어선 비율은, 물체의 경계 박스의 면적 중에서 차선을 넘어온 부분의 면적 비율을 의미하는 것을 특징으로 하는 사고위험 감지방법.
  4. 삭제
KR1020180144409A 2018-11-21 2018-11-21 사고위험 감지시스템 및 감지방법 KR102105954B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180144409A KR102105954B1 (ko) 2018-11-21 2018-11-21 사고위험 감지시스템 및 감지방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180144409A KR102105954B1 (ko) 2018-11-21 2018-11-21 사고위험 감지시스템 및 감지방법

Publications (1)

Publication Number Publication Date
KR102105954B1 true KR102105954B1 (ko) 2020-04-29

Family

ID=70466411

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180144409A KR102105954B1 (ko) 2018-11-21 2018-11-21 사고위험 감지시스템 및 감지방법

Country Status (1)

Country Link
KR (1) KR102105954B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111764963A (zh) * 2020-07-06 2020-10-13 中国矿业大学(北京) 基于Faster-RCNN的冲击地压预测方法
CN111931581A (zh) * 2020-07-10 2020-11-13 威海精讯畅通电子科技有限公司 一种基于卷积神经网络农业害虫识别方法、终端及可读存储介质
CN113313119A (zh) * 2021-07-30 2021-08-27 深圳市海清视讯科技有限公司 图像识别方法、装置、设备、介质及产品
WO2022174075A1 (en) * 2021-02-12 2022-08-18 Retinus Llc Systems and methods for computer vision based detection and alerting
KR102594804B1 (ko) 2022-09-27 2023-10-30 (주)에이아이매틱스 메모리 연동 가능한 계층적 구조 기반의 이벤트 검출 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015189404A (ja) * 2014-03-28 2015-11-02 マツダ株式会社 車線維持制御装置
JP2015195018A (ja) * 2014-03-18 2015-11-05 株式会社リコー 画像処理装置、画像処理方法、運転支援システム、プログラム
KR20180063524A (ko) * 2016-12-02 2018-06-12 현대자동차주식회사 가상 차선을 이용한 전방 차량 위험도 감지 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015195018A (ja) * 2014-03-18 2015-11-05 株式会社リコー 画像処理装置、画像処理方法、運転支援システム、プログラム
JP2015189404A (ja) * 2014-03-28 2015-11-02 マツダ株式会社 車線維持制御装置
KR20180063524A (ko) * 2016-12-02 2018-06-12 현대자동차주식회사 가상 차선을 이용한 전방 차량 위험도 감지 방법 및 장치

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Chenyi Chen, Ari Seff, Alain Kornhauser, Jianxiong Xiao, "DeepDriving: Learning Affordance for Direct Perception in Autonomous Driving", The IEEE International Conference on Computer Vision (ICCV), Santiago , pp. 2722-2730 , 2015
Fu-Hsiang Chan, Yu-Ting Chen, Yu Xiang, Min Sun, "Anticipating Accidents in Dashcam Videos", Asian Conference on Computer Vision (ACCV) , Taipei , pp. 136-153 , 2016
Jagannath Aghav, Poorwa Hirwe, and Mayura Nene, "Deep Learning for Real Time Collision Detection and Avoidance", in the Proceedings of International Conference on Communication, Computing and Networking (ICCCN 2017) , Vancouver , pp. 483-488 , 2017
Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, "Deep Residual Learning for Image Recognition", The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas , pp. 770-778 , 2016
S. Ren, K. He, R. Girshick and J. Sun, "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", in IEEE Transactions on Pattern Analysis & Machine Intelligence, vol. 39, no. 6, pp. 1137-1149, 2017.

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111764963A (zh) * 2020-07-06 2020-10-13 中国矿业大学(北京) 基于Faster-RCNN的冲击地压预测方法
CN111931581A (zh) * 2020-07-10 2020-11-13 威海精讯畅通电子科技有限公司 一种基于卷积神经网络农业害虫识别方法、终端及可读存储介质
WO2022174075A1 (en) * 2021-02-12 2022-08-18 Retinus Llc Systems and methods for computer vision based detection and alerting
CN113313119A (zh) * 2021-07-30 2021-08-27 深圳市海清视讯科技有限公司 图像识别方法、装置、设备、介质及产品
KR102594804B1 (ko) 2022-09-27 2023-10-30 (주)에이아이매틱스 메모리 연동 가능한 계층적 구조 기반의 이벤트 검출 방법 및 장치

Similar Documents

Publication Publication Date Title
KR102105954B1 (ko) 사고위험 감지시스템 및 감지방법
US20230014874A1 (en) Obstacle detection method and apparatus, computer device, and storage medium
CN113033604A (zh) 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质
US20130265424A1 (en) Reconfigurable clear path detection system
Farag et al. An advanced vehicle detection and tracking scheme for self-driving cars
Hechri et al. Robust road lanes and traffic signs recognition for driver assistance system
CN103714321A (zh) 基于距离图像和强度图像的驾驶员人脸定位系统
CN104915642A (zh) 前方车辆测距方法及装置
Kumtepe et al. Driver aggressiveness detection via multisensory data fusion
Farag A lightweight vehicle detection and tracking technique for advanced driving assistance systems
Sirbu et al. Real-time line matching based speed bump detection algorithm
Chen Road vehicle recognition algorithm in safety assistant driving based on artificial intelligence
Tumas et al. Acceleration of HOG based pedestrian detection in FIR camera video stream
Hechri et al. Lanes and road signs recognition for driver assistance system
Nguwi et al. Number plate recognition in noisy image
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
CN109977844A (zh) 一种基于图像识别机动车礼让行人控制系统及控制方法
Kavitha et al. Traffic Sign Recognition and Voice-Activated Driving Assistance Using Raspberry Pi
Farag A fast and reliable balanced approach for detecting and tracking road vehicles
CN111611942B (zh) 一种透视自适应车道骨架提取建库的方法
Saffarini et al. Survey of road anomalies detection methods
CN104077566A (zh) 基于颜色差分的卡口图片人脸检测方法
HV et al. Car Damage Detection and Analysis Using Deep Learning Algorithm For Automotive
Bahadure et al. Traffic Signal Detection and Recognition from Real-Scenes Using YOLO
Patel et al. Driving with Deep Learning: A Robust Traffic Sign Detection and Classification System

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant