KR102033858B1 - 교통사고 예보 시스템 - Google Patents
교통사고 예보 시스템 Download PDFInfo
- Publication number
- KR102033858B1 KR102033858B1 KR1020180080109A KR20180080109A KR102033858B1 KR 102033858 B1 KR102033858 B1 KR 102033858B1 KR 1020180080109 A KR1020180080109 A KR 1020180080109A KR 20180080109 A KR20180080109 A KR 20180080109A KR 102033858 B1 KR102033858 B1 KR 102033858B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- traffic accident
- camera
- photographing
- tunnel
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/07—Controlling traffic signals
- G08G1/075—Ramp control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 교통사고 예보 시스템에 관한 것으로, 안개지역, 도로빙결지역, 터널입구 운행시 바로 직전에 있는 차량과의 거리, 충돌 예상 시간, 평균 속도 등을 고휘도 LED 전광판을 통해 알려줌으로써 안개, 도로빙결, 터널 진입 구간에서 발생하는 교통사고를 예방하는 시스템에 관한 것이다. 본 발명의 일 양상인 교통사고 예보 시스템은, 적어도 하나의 객체를 촬영하는 제 1 카메라; 및 상기 촬영한 제 1 정보를 외부로 전송하는 제 1 통신부;를 포함하는 복수의 촬영장치; 및 상기 적어도 하나의 객체를 촬영하는 제 2 카메라; 상기 복수의 촬영장치로부터 상기 제 1 정보를 수신하는 제 2 통신부; 상기 제 2 카메라가 촬영한 제 2 정보 및 상기 수신한 제 1 정보 중 적어도 하나를 이용하여 상기 적어도 하나의 객체와 관련된 제 3 정보를 결정하는 제어부; 및 상기 제어부의 제어에 따라 상기 제 3 정보를 표시하는 디스플레이부;를 포함하는 교통사고 예보장치;를 포함하되, 상기 복수의 촬영장치는, 상기 교통사고 예보장치를 기준으로 미리 설정된 간격만큼 이격 되어 설치되고, 상기 교통사고 예보장치의 디스플레이부는, 상기 적어도 하나의 객체 중 제 1 객체와 관련된 정보를 표시하며, 상기 제 1 객체는, 상기 교통사고 예보장치를 기준으로 일정 영역 범위 이내에 존재하는 객체일 수 있다.
Description
본 발명은 교통사고 예보 시스템에 관한 것이다. 구체적으로, 본 발명은 안개지역, 도로빙결지역, 터널입구 운행시 바로 직전에 있는 차량과의 거리, 충돌 예상 시간, 평균 속도 등을 고휘도 LED 전광판을 통해 알려줌으로써 안개, 도로빙결, 터널 진입 구간에서 발생하는 교통사고를 예방하는 시스템에 관한 것이다.
종래의 안개지역 감시 시스템, 도로빙결 지역 감시 시스템 및 터널 감시 시스템은 단순한 영역 내의 상황만을 모니터링하는 장치로서 사고발생 시점을 능동적으로 분석하거나 인지하는데 부적절하다.
따라서 사고 발생을 예방하거나 사고발생시 현장에 대한 신속한 처리과정 및 대처 상황에 어려움이 있으며, 이는 교통상황의 흐름과 연계되어 많은 손해를 가져 올 수 있다.
따라서 안개지역, 도로빙결지역, 터널입구 등과 같이 빈번하게 사고가 발생하는 지역에 대한 교통사고를 효율적으로 예방하는 시스템에 대한 니즈가 높아지고 있는 실정이다.
본 발명은 교통사고 예보 시스템에 관한 것으로, 안개지역, 도로빙결지역, 터널입구 운행시 바로 직전에 있는 차량과의 거리, 충돌 예상 시간, 평균 속도 등을 고휘도 LED 전광판을 통해 알려줌으로써 안개, 도로빙결, 터널 진입 구간에서 발생하는 교통사고를 예방하는 시스템을 사용자에게 제공하고자 한다.
또한, 본 발명이 제안하는 교통사고 예보시스템과 연동하여 구간 진입 전에 운전자에게 이벤트(안개, 빙결 등) 발생에 대한 경고가 가능한 시스템을 구축 및 제공하고자 한다.
한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 교통사고 예보 시스템은, 적어도 하나의 객체를 촬영하는 제 1 카메라; 및 상기 촬영한 제 1 정보를 외부로 전송하는 제 1 통신부;를 포함하는 복수의 촬영장치; 및 상기 적어도 하나의 객체를 촬영하는 제 2 카메라; 상기 복수의 촬영장치로부터 상기 제 1 정보를 수신하는 제 2 통신부; 상기 제 2 카메라가 촬영한 제 2 정보 및 상기 수신한 제 1 정보 중 적어도 하나를 이용하여 상기 적어도 하나의 객체와 관련된 제 3 정보를 결정하는 제어부; 및 상기 제어부의 제어에 따라 상기 제 3 정보를 표시하는 디스플레이부;를 포함하는 교통사고 예보장치;를 포함하되, 상기 복수의 촬영장치는, 상기 교통사고 예보장치를 기준으로 미리 설정된 간격만큼 이격 되어 설치되고, 상기 교통사고 예보장치의 디스플레이부는, 상기 적어도 하나의 객체 중 제 1 객체와 관련된 정보를 표시하며, 상기 제 1 객체는, 상기 교통사고 예보장치를 기준으로 일정 영역 범위 이내에 존재하는 객체일 수 있다.
또한, 상기 제 1 카메라 및 제 2 카메라는 복수이고, 상기 복수의 제 1 카메라 및 제 2 카메라는, 전방을 촬영하는 제 1 열화상 카메라; 후방을 촬영하는 제 2 열화상 카메라; 및 상기 제 1 열화상 카메라와 상기 제 2 열화상 카메라의 사각지대를 촬영하는 카메라;를 포함할 수 있다.
또한, 상기 복수의 촬영장치는 복수이고, 상기 복수의 복수의 촬영장치 중 제 1 복수의 촬영장치와 제 2 복수의 촬영장치는, 상기 제 1 복수의 촬영장치의 제 2 열화상 카메라가 촬영 가능한 제 1 운용범위와 상기 제 2 복수의 촬영장치의 제 1 열화상 카메라가 촬영 가능한 제 2 운용범위가 적어도 일부 겹치도록 이격 되어 배치될 수 있다.
또한, 상기 제 1 카메라 및 제 2 카메라는 레이더를 포함하고, 상기 복수의 촬영장치는, 상기 레이더의 상기 적어도 하나의 객체와 관련된 정보를 수집할 수 있는 운용거리보다 짧은 간격만큼 이격 되어 배치될 수 있다.
또한, 상기 제 3 정보는, 상기 적어도 하나의 객체 간의 이격거리, 현재 속도를 기준으로 결정된 충돌 예상시간 및 미리 설정된 구간 내의 상기 적어도 하나의 객체의 평균 속도를 포함할 수 있다.
또한, 상기 제 3 정보는, 시간에 따라 변화되어 표시될 수 있다.
또한, 상기 적어도 하나의 객체에 사고 이벤트가 발생된 경우, 상기 제 3 정보는, 사고 이벤트를 알리는 정보, 진입금지를 알리는 정보 및 속도 감속 비율에 대한 정보를 추가적으로 포함할 수 있다.
또한, 상기 복수의 촬영장치는 터널 내부에 배치되고, 상기 교통사고 예보장치의 디스플레이부는 복수이며, 상기 복수의 디스플레이부 각각은, 상기 적어도 하나의 객체 중 배치된 차선 내에 존재하는 객체와 관련된 제 3 정보를 표시할 수 있다.
본 발명은 교통사고 예보 시스템에 관한 것으로, 안개지역, 도로빙결지역, 터널입구 운행시 바로 직전에 있는 차량과의 거리, 충돌 예상 시간, 평균 속도 등을 고휘도 LED 전광판을 통해 알려줌으로써 안개, 도로빙결, 터널 진입 구간에서 발생하는 교통사고를 예방하는 시스템을 사용자에게 제공할 수 있다.
또한, 본 발명이 제안하는 교통사고 예보시스템과 연동하여 구간 진입 전에 운전자에게 이벤트(안개, 빙결 등) 발생에 대한 경고가 가능한 시스템을 구축 및 제공할 수 있다.
한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 안개 상황, 터널 내 상황 등에서 시야 확보가 되지 않아 도로위험상황을 인지하지 못함으로써, 발생한 이벤트 등을 도시한 것이다.
도 2는 안개 상황에서 시야 확보가 되지 않아 도로위험상황을 인지하지 못하는 일례를 도시한 것이다.
도 3은 터널 내 상황 등에서 시야 확보가 되지 않아 도로위험상황을 인지하지 못하는 일례를 도시한 것이다.
도 4는 종래의 동력분사형 안개소산장치 및 무동력확산형 안개소산장치의 일례를 도시한 것이다.
도 5는 종래의 터널 관련 교통 안전 관리 시스템의 일례를 도시한 것이다.
도 6은 본 발명이 제안하는 교통사고 예보 시스템에 관한 구성요소를 설명하기 위한 도면이다.
도 7은 본 발명이 제안하는 교통사고 예보 방법을 설명하는 순서도이다.
도 8은 본 발명이 제안하는 교통사고 예보 시스템의 일례를 도시한 것이다.
도 9 및 도 10은 안개발생지역에서 열화상 카메라가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 11 및 도 12는 안개발생지역에서 레이더가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 13 및 도 14는 터널 진입 구역에서 열화상 카메라가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 15 및 도 16은 터널 진입 구역에서 열화상 카메라가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 17은 본 발명과 관련하여, 정상 주행 상황, 사고 발생상황 등에서 터널 입구 디스플레이가 정보를 표시하는 구체적인 일례를 도시한 것이다.
도 18은 본 발명과 관련하여, 영상 레이더 수집장치의 구성 및 활용 방안을 설명하는 도면이다.
도 19는 본 발명과 관련하여, 추돌 예상시간을 추정하는 알고리즘의 일례를 도시한 것이다.
도 20은 본 발명과 관련하여, RGB 카메라와 열화상 카메라 간의 좌표계 변환의 일례를 도시한 것이다.
도 21은 본 발명과 관련하여, 차선 정보 기반의 카메라 외부 파라미터 캘리브레이션 및 거리정보를 획득하는 일례를 도시한 것이다.
도 22는 본 발명과 관련하여, 도로 분석용으로 설치된 카메라의 영상을 하나의 Top-view 형태로 정합하는 일례를 도시한 것이다.
도 23은 본 발명과 관련하여, 영상 내 차선 분할을 위한 차선 검출 결과의 일례를 도시한 것이다.
도 24는 본 발명과 관련하여, 차량 후보군 검출용 정보를 획득하는 일례를 도시한 것이다.
도 25는 본 발명과 관련하여, Clustering을 이용한 adaboost의 Weak classifier 학습 과정의 일례를 도시한 것이다.
도 26은 본 발명과 관련하여, 차량 검출 및 추적 결과(차량 상대속도, 거리 등 정보 제공)의 일례를 도시한 것이다.
도 27은 본 발명과 관련하여, 컬러정보를 이용한 영상 내 안개성분 검출 결과의 일례를 도시한 것이다.
도 28은 본 발명과 관련하여, 안개 유무를 판단하는 기술과 관련된 내용을 도시한 것이다.
도 29는 본 발명과 관련하여, 열화상 카메라 영상 기반 계절별 차량 검출 결과의 일례를 도시한 것이다.
도 30은 본 발명과 관련하여, 안개 상황 시 RGB, FIR 카메라 영상을 비교한 일례를 도시한 것이다.
도 2는 안개 상황에서 시야 확보가 되지 않아 도로위험상황을 인지하지 못하는 일례를 도시한 것이다.
도 3은 터널 내 상황 등에서 시야 확보가 되지 않아 도로위험상황을 인지하지 못하는 일례를 도시한 것이다.
도 4는 종래의 동력분사형 안개소산장치 및 무동력확산형 안개소산장치의 일례를 도시한 것이다.
도 5는 종래의 터널 관련 교통 안전 관리 시스템의 일례를 도시한 것이다.
도 6은 본 발명이 제안하는 교통사고 예보 시스템에 관한 구성요소를 설명하기 위한 도면이다.
도 7은 본 발명이 제안하는 교통사고 예보 방법을 설명하는 순서도이다.
도 8은 본 발명이 제안하는 교통사고 예보 시스템의 일례를 도시한 것이다.
도 9 및 도 10은 안개발생지역에서 열화상 카메라가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 11 및 도 12는 안개발생지역에서 레이더가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 13 및 도 14는 터널 진입 구역에서 열화상 카메라가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 15 및 도 16은 터널 진입 구역에서 열화상 카메라가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 17은 본 발명과 관련하여, 정상 주행 상황, 사고 발생상황 등에서 터널 입구 디스플레이가 정보를 표시하는 구체적인 일례를 도시한 것이다.
도 18은 본 발명과 관련하여, 영상 레이더 수집장치의 구성 및 활용 방안을 설명하는 도면이다.
도 19는 본 발명과 관련하여, 추돌 예상시간을 추정하는 알고리즘의 일례를 도시한 것이다.
도 20은 본 발명과 관련하여, RGB 카메라와 열화상 카메라 간의 좌표계 변환의 일례를 도시한 것이다.
도 21은 본 발명과 관련하여, 차선 정보 기반의 카메라 외부 파라미터 캘리브레이션 및 거리정보를 획득하는 일례를 도시한 것이다.
도 22는 본 발명과 관련하여, 도로 분석용으로 설치된 카메라의 영상을 하나의 Top-view 형태로 정합하는 일례를 도시한 것이다.
도 23은 본 발명과 관련하여, 영상 내 차선 분할을 위한 차선 검출 결과의 일례를 도시한 것이다.
도 24는 본 발명과 관련하여, 차량 후보군 검출용 정보를 획득하는 일례를 도시한 것이다.
도 25는 본 발명과 관련하여, Clustering을 이용한 adaboost의 Weak classifier 학습 과정의 일례를 도시한 것이다.
도 26은 본 발명과 관련하여, 차량 검출 및 추적 결과(차량 상대속도, 거리 등 정보 제공)의 일례를 도시한 것이다.
도 27은 본 발명과 관련하여, 컬러정보를 이용한 영상 내 안개성분 검출 결과의 일례를 도시한 것이다.
도 28은 본 발명과 관련하여, 안개 유무를 판단하는 기술과 관련된 내용을 도시한 것이다.
도 29는 본 발명과 관련하여, 열화상 카메라 영상 기반 계절별 차량 검출 결과의 일례를 도시한 것이다.
도 30은 본 발명과 관련하여, 안개 상황 시 RGB, FIR 카메라 영상을 비교한 일례를 도시한 것이다.
도 1은 안개 상황, 터널 내 상황 등에서 시야 확보가 되지 않아 도로위험상황을 인지하지 못함으로써, 발생한 이벤트 등을 도시한 것이다.
도 1에 도시된 사회문제들은 시야확보가 되지 않는 상황에서 전방의 도로위험상황을 미리 인지하지 못한 것이 원인이다.
시야 미확보 상황에도 전방의 상황이나 앞차와의 거리를 파악할 수 있다면 사고를 방지할 수 있었을 것이다.
예를 들어, 터널 진입 시 조도 차이에 의해 터널 입구가 블랙홀 현상이 발생하여 터널 진입 시 순간적으로 바로 앞차와의 차간거리를 확인할 수 없어 추돌사고가 발생한다.
도 2는 안개 상황에서 시야 확보가 되지 않아 도로위험상황을 인지하지 못하는 일례를 도시한 것이다.
도 2의 (a)는 안개 구간에서 구간 평균 시속, 차간 거리, 추돌 예상 시간이 얼마나 중요한지를 시각적으로 나타낸다.
또한, 도 2의 (b)는 안개 발생시 운전형태 시뮬레이션 결과를 도시한 것으로, 공사구간으로 인해 차로가 감소하는 상황을 전제한 것이다.
도 2의 (b)에 도시된 것고 같이, 안개 속에서 운전자는 전방 차량을 시야에서 잃지 않으려고 차간거리를 좁혀 운전하게 되고, 이로 인해 짧은 차간거리로 사고율이 증가된다.
교통안전공단이 만 20세 이상 운전면허 소지자 88명을 대상으로 안개 낀 날 고속도로에서 운전행태를 시뮬레이션 한 결과, 차간거리가 30% 감소하며 안개 낀 날 규정 속도를 넘는 것으로 나타났다.
안개 낀 날 차간거리 감소의 이유는 운전자들이 안개 속에서 전방 차량을 시야에서 잃지 않으려는 운전행태를 보인 결과다.
이와 같이 가시거리가 짧은 경우에는 앞차와의 거리를 확인 할 수 없는 불안감으로 차간거리를 좁혀 앞차를 지속적으로 인지하기 위한 행동을 취하지만 짧은 차간거리는 급정차시 사고로 이어질 수 있다.
또한, 도 3은 터널 내 상황 등에서 시야 확보가 되지 않아 도로위험상황을 인지하지 못하는 일례를 도시한 것이다.
도 3의 (a) 및 (b)를 참조하면, 터널 교통사고 원인은 안전거리 미확보와 안전운전 불이행인 것으로 드러났다.
예를 들어, 봉평터널에서 발생한 6중 추돌사고로 4명이 숨지고 16명이 큰 부상을 입는 대형사고가 발생했는데, 이 터널에서는 12년간 크고 작은 사고가 11건으로 나타났으며 반복되는 대형참사로 죽음의 터널이라고 불린다.
경찰조사에 따르면 터널 안에서 발생하는 교통사고는 졸음운전, 전방주시 태만과 과속, 안전 거리 미확보가 원인이라고 드러났다.
어두운 터널 안으로 진입하면서 일부 운전자들이 속도를 급격이 줄이거나 높이고, 차선을 변경 하면서 추돌사고가 발생하는 경우가 많으며 운전자들의 안전 불감증과 짧은 제동거리로 사고위험성을 증가시킨다.
일반사고 감소, 터널사고 증가, 피해액도 일반도로보다 터널보다 1.76배 높은데, 한국도로공사의 자료를 보면 고속도로 일반 사고는 줄고 있는 반면 터널 내부 사고는 해마다 증가했다.
사고 당 평균 피해액도 일반도로보다 터널이 더 높고, 2016년 터널사고 평균 피해액은 364만 8,516원. 171만4,370원인 일반사고보다 1.76배 더 높았다.
이는, 다중추돌, 화재발생등 대형사고 발생이 많은 까닭이다.
또한, 일반도로보다 치사율과 피해액이 큰 터널 사고의 원인은 주시태만이 가장 많았는데, 2012~16년 2,000여 건의 사고 데이터를 종합해 본 결과 주시태만 465건으로 으뜸이었고, 졸음운전이 357건으로 뒤를 이었으며, 과속 또한 298건으로 무시할 수 없는 비율을 차지했다.
특히, 터널은 시야확보가 힘들어 대형 사고로 이어질 가능성이 높으므로, 터널구간에서는 진입 전부터 충분한 안전거리를 확보하는 것은 무엇보다 중요하다.
도 4는 종래의 동력분사형 안개소산장치 및 무동력확산형 안개소산장치의 일례를 도시한 것이다.
도 4의 (a)에는 동력분사형 안개소산장치가 도시되고, (b)에슨 무동력확산형 안개소산장치가 도시되는데, 이 장치들은 주변안개와 차단된 도로상의 안개에 다량의 음이온을 분사하여 음이온이 안개입자를 응집하고 침강시킴으로써 시정이 개선되고 안개가 소산되는 효과를 제공한다.
또한, 도 5는 종래의 터널 관련 교통 안전 관리 시스템의 일례를 도시한 것이다.
도 5(a) 내지 (c)에 도시된 시스템은, 터널의 안전관리를 위해 터널내의 상태정보수집을 u-IT기반의 센서 기술을 이용하여 실시간 수집 및 저장, 가공하며 영상 IP 카메라와 연동하여 편리하고, 효과적으로 모니터링이 가능하고, 동시에 터널을 실시간으로 관리가 가능한 터널 통합 관리시스템이다.
그러나 도 4 및 도 5에 도시된 종래의 제안된 방법 및 장치에도 불구하고, 사고발생 시점을 능동적으로 분석하거나 인지하는데 부적절하였고, 사고 발생을 예방하거나 사고발생시 현장에 대한 신속한 처리과정 및 대처 상황에 어려움이 있으며, 이는 교통상황의 흐름과 연계되어 많은 손해를 가져 올 수 있다는 문제가 여전히 존재하였다.
따라서 안개지역, 도로빙결지역, 터널입구 등과 같이 빈번하게 사고가 발생하는 지역에 대한 교통사고를 효율적으로 예방하는 시스템에 대한 니즈가 높아지고 있는 실정이다.
본 발명에서는 이러한 문제점을 해소하고자 안개지역, 도로빙결지역, 터널입구 운행시 바로 직전에 있는 차량과의 거리, 충돌 예상 시간, 평균 속도 등을 고휘도 LED 전광판을 통해 알려줌으로써 안개, 도로빙결, 터널 진입 구간에서 발생하는 교통사고를 예방하는 시스템을 사용자에게 제공하고자 한다.
또한, 본 발명이 제안하는 교통사고 예보시스템과 연동하여 구간 진입 전에 운전자에게 이벤트(안개, 빙결 등) 발생에 대한 경고가 가능한 시스템을 구축 및 제공하고자 한다.
즉, 본 발명에서는 안개지역, 터널입구에 진입하는 차량 및 운전자에게 앞차와의 추돌사고 위험성을 고휘도 LED 디지털 사인을 통해 알림으로 운전자가 교통사고 위험성을 인지하고 대비할 수 있는 구간평균 시속, 차간 거리, 추돌 예상 시간 등을 표출하는 교통사고 방지시스템을 제안한다.
기존의 아날로그 사인에 의한 안개지역 경고, 안개발생에 대한 안개특보를 스마트폰 및 내비게이션을 통해 전달하는 방식과의 차이점은, 구간 운행 중에 앞차와의 추돌위험 정도를 직접적이고 직관적으로 전달하여 운전자에게 안전거리 확보를 유도함으로서 교통사고를 방지하는 시스템이라는 것이다.
본 시스템을 터널 입구상단에 차선별로 설치하여 구간 평균 시속, 차간 거리, 추돌 예상시간을 표출함으로써, 안전거리 미확보에 의한 추돌사고를 방지할 수 있다.
교통사고 예보 시스템 및 기본 동작
도 6은 본 발명이 제안하는 교통사고 예보 시스템에 관한 구성요소를 설명하기 위한 도면이다.
본 발명이 제안하는 교통사고 예보 시스템(1)은 적어도 하나의 교통사고 예보 장치(100)와 교통사고 예보장치(100)와 데이터를 통신하는 서버(200)로 구성될 수 있다.
교통사고 예보 장치(100) 및 서버(200)는 복수로 시스템(1)에 구비될 수 있고, 본 명세서에서는 설명의 편의를 위해 교통사고 예보 장치(100)가 복수이고, 서버(200)는 단수인 것으로 가정하여 설명한다.
도 6a를 참조하면, 본 발명에 따른 교통사고 예보 장치(100)는 무선 통신부(110), 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 지지부(170), 제어부(180) 등을 포함할 수 있다.
단, 도 6a에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 단말이 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 교통사고 예보 장치(100)와 무선 통신 시스템 사이 또는 교통사고 예보 장치(100)와 교통사고 예보 장치(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
특히, 서버(200)와의 데이터 통신을 수행하는 것에 이용될 수 있다.
무선 통신부(110)는 이동 통신망 상에서 기지국, 외부의 교통사고 예보 장치(100), 휴대용 단말(10), 서버(1) 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 신호, 화상 신호, 영상 신호, 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 통신부(110)는 근거리 통신을 이용할 수 있는데, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee 등이 이용될 수 있다.
또한, 무선 통신부(110)는 교통사고 예보 장치(100)의 위치를 획득하기 위한 모듈로 동작할 수도 있고, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.
예를 들어, 무선 통신부(1110)는 이동통신 모듈(1112), 무선 인터넷 모듈(1113), 근거리 통신 모듈(1114) 및 위치정보 모듈(1115) 등을 포함할 수 있다.
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말(10), 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 교통사고 예보 장치(100)에 내장되거나 외장될 수 있다.
상기 무선 인터넷의 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 상기 근거리 통신(short range communication)의 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치 정보 모듈(115)은 교통사고 예보 장치(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(1115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다.
다음으로 도 6a을 참조하면, 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121), 열화상 카메라(122), 레이더(123), 라이더(124) 및 마이크(125) 등이 포함될 수 있다.
카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다.
이때, 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
열화상 카메라(122)는 원적외선 카메라(122)로도 호칭되고, 원적외선(Far Infrared, LongWave Infrared, FIR)을 이용하여 적어도 하나의 객체를 촬영하는 카메라이다.
원적외선은 통상 파장이 8㎛ 이상인 적외선을 의미하고, 가시광선보다 파장이 길어서 눈에 보이지 않고 열작용이 크며 침투력이 강하다.
본 발명에 따른 원적외선 카메라(122)의 특성을 설명한다.
일반 CCD, CMOS 소자를 사용하는 카메라는 가시광 영역의 빛을 감지하여 투영하는 역할을 하기 때문에 사람의 눈으로 보는 것과 비슷한 영상을 획득할 수 있다.
반면, 원적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영한다.
적외선은 빛의 파장 중 750nm에서 1mm의 대역의 빛을 말하는 것으로서, 이러한 적외선 대역 중에서도 NIR(Near Infra-Red)의 빛은 700nm에서 1400nm의 파장을 말하며, NIR 대역의 빛은 사람의 눈에는 보이지 않지만 CCD나 CMOS 소자로도 감지가 가능하며 필터를 이용하면 NIR 대역의 빛만을 감지할 수 있다.
이에 비해, FIR의 빛은 LWIR(Long Wavelength Infra-Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타낸다.
특히, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있는 장점이 있다.
원적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가진다.
특히, 원적외선 카메라(122)를 통해 획득된 정보를 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하며, 상기 처리가 완료된 영상 신호가 디스플레이부(151)를 통해 출력되도록 제어할 수 있다.
제어부(180)는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
또한, 본 발명에는 레이더(123)가 구비될 수 있다.
레이더(123)는 무선탐지와 거리측정(Radio Detecting And Ranging)의 약어로 마이크로파(극초단파, 10cm~100cm 파장) 의 전자기파를 물체에 발사시켜 그 물체에서 반사되는 전자기파를 수신하여 물체와의 거리, 방향, 고도 등을 알아내는 무선감시장치이다.
또한, 본 발명에는 라이더(124)가 구비될 수도 있다.
라이더(124)는 light detection and ranging의 줄인 말로 레이저레이더(laser radar)와 같다.
전파에 가까운 성질을 가진 레이저광선을 사용하여 개발한 레이더라고 볼 수 있는데, 레이저는 처음에 통신용으로 개발되었지만 강한 단색성에 의해 빛과 전파의 양면 특징을 가진다.
즉, 펄스 레이저광을 대기중에 발사해 그 반사체 또는 산란체를 이용하여 거리, 대기현상 등을 측정하는 장치이다.
라이더(124)는 반사광의 시간 측정은 클록 펄스로 계산하며, 그 진동수 30MHz로 5m, 150MHz로 1m 분해능을 가질 수 있고, 각도로는 30초 정도의 작은 빔폭의 강력한 적외선 펄스를 발생할 수 있다.
또한, 마이크(125)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다.
마이크(125)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
또한, 사용자 입력부(130)는 사용자가 교통사고 예보 장치(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(140)는 교통사고 예보 장치(100)의 위치, 사용자 접촉 유무, 교통사고 예보 장치(100)의 방위, 교통사고 예보 장치(100)의 가속/감속 등과 같이 교통사고 예보 장치(100)의 현 상태를 감지하여 교통사고 예보 장치(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.
또한, 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152 등이 포함될 수 있다.
여기서 디스플레이부(151)는 교통사고 예보 장치(100)에서 처리되는 정보를 표시(출력)한다. 교통사고 예보 장치(100)가 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 교통사고 예보 장치(100) 바디의 디스플레이부(151)가 차지하는 영역을 통해 교통사고 예보 장치(100) 바디의 후방에 위치한 사물을 볼 수 있다.
교통사고 예보 장치(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 교통사고 예보 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
또한, 음향 출력 모듈(152)은 음성인식 모드, 영상 출력 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 교통사고 예보 장치(100)에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
한편, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
또한, 지지부(170)는 교통사고 예보 장치(100)가 지면으로부터 특정 방향으로 세워져 유지될 수 있도록 서포트 하는 기능을 제공한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
도 6b를 참조하면, 도 6a에서 설명한 본 발명에 따른 예시적인 교통사고 예보 장치(100)의 일례가 도시된다.
도 6b를 참조하면, 카메라(121), 디스플레이부(151), 제어부(180)를 포함하는 교통사고 예보장치(100)가 지지부(170)를 통해 설치된 구체적인 일례가 도시된다.
물론, 도 6b에 도시된 교통사고 예보 장치(100)의 구성은 본 발명이 적용되는 일례에 불과하고, 보다 적거나 많은 구성을 포함하는 다양한 형태의 교통사고 예보 장치(100)의 구현이 가능하다.
교통사고 예보 시스템 및 교통사고 예보 방법
도 7은 본 발명이 제안하는 교통사고 예보 방법을 설명하는 순서도이다.
도 7을 참조하면, 가장 먼저, 열화상 카메라(122)와 일반 카메라(121)가 정보를 수집하는 단계(S10) 또는 레이더(123)가 정보를 수집하는 단계(S21)가 진행된다.
S10 단계 이후에는 제어부(180)를 통해 영상을 분석하고, 차량을 검지하는 과정이 수행된다(S11).
또한, S11 단계 이후, 제어부(180)는 차간 거리를 산출하고, 차량충돌예상 시간을 도출하며, 해당 차량의 평균 속도를 파악하고, 구간 내 사고 이벤트를 분석하여 무선통신부(110)를 통해 전파하는 과정을 수행한다(S12).
S21 단계 이후에는, 제어부(180)를 통해 영상을 분석하고, 차량을 검지하여 ID를 부과하는 과정이 수행된다(S22).
또한, S12 단계와 마찬가지로 S22 단계 이후에도, 제어부(180)는 차간 거리를 산출하고, 차량충돌예상 시간을 도출하며, 해당 차량의 평균 속도를 파악하고, 구간 내 사고 이벤트를 분석하여 무선통신부(110)를 통해 전파하는 과정을 수행한다(S23).
또한, S12 단계 또는 S23 단계 이후, 제어부(180)의 제어에 따라 디스플레이부(151)는 해당 정보를 표출하는 과정을 수행하게 된다(S30).
한편, 도 8은 본 발명이 제안하는 교통사고 예보 시스템(1)의 일례를 도시한 것이다.
도 8의 (a) 및 (b)는 안개 상습 발생 도로에서의 본 발명이 제안하는 교통사고 예보 시스템(1)이 적용된 일례를 도시한 것이다.
도 8의 (a) 및 (b)를 참조하면, 복수의 교통사고 예보장치(100)가 일정 간격을 두고 배치되고, 도 7에서 설명한 흐름(flow)에 따라 복수의 교통사고 예보장치(100)의 각 디스플레이부(151)가 해당 정보를 표시하게 된다.
또한, 도 8의 (c)는 터널 진입로에서의 본 발명이 제안하는 교통사고 예보 시스템(1)이 적용된 일례를 도시한 것이다.
도 8의 (c)를 참조하면, 복수의 교통사고 예보장치(100)가 일정 간격을 두고 배치되고, 도 7에서 설명한 흐름(flow)에 따라 복수의 교통사고 예보장치(100)의 각 디스플레이부(151)가 해당 정보를 표시하게 된다.
이하에서는 도면을 이용하여 안개 발생 지역 및 터널 진입 지역에서의 본 발명이 적용되는 구체적인 실시예에 대해 설명한다.
안개 발생 지역에서의 동작 - 열화상 카메라 이용
도 9 및 도 10은 안개발생지역에서 열화상 카메라가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 9를 참조하면, 복수의 교통사고 예보장치(100)가 일정 간격을 두고 배치되고, 각 교통사고 예보장치(100)에는 전방 촬영을 위한 열화상 카메라(122), 후방 촬영을 위한 열화상 카메라(122) 및 상기 전방/후방 촬영을 위한 열화상 카메라(122)의 사각지대를 촬영하기 위한 일반 카메라(121)가 적용된다.
복수의 교통사고 예보장치(100)는 도 9에 도시된 것과 같이, 디스플레이부(151)만으로 구비될 수도 있고, 전술한 열화상 카메라(122) 및 일반 카메라(121)를 구비하여 배치될 수도 있다.
예를 들어, 열화상 카메라(122) 및 일반 카메라(121)를 구비한 교통사고 예보장치(100)는 135-260m의 간격을 두고 설치되고, 그 사이에 70m의 간격으로 카메라를 포함하지 않는 교통사고 예보장치(100)가 배치될 수 있다.
즉, 열화상 카메라(122)로 전방과 후방을 촬영하고, 일반 카메라(121)로 사각지대 촬영하며, 카메라(120)의 최대 촬영 거리가 130m라는 점을 고려할 때, 열화상 카메라(122) 및 일반 카메라(121)를 구비한 교통사고 예보장치(100)는 135-260m의 간격을 두고 설치된다.
또한, LED DISPLAY(151)를 구비한 장치(100)는 카메라 폴 대의 간격에 따라 추가 설치 또는 제거될 수 있고, 설치 간격은 약 70m가 될 수 있다.
복수의 교통사고 예보장치(100)에 포함된 제어부(180) 중 적어도 일부는 구간 진입과 동시에 차량에 ID를 부여하고, 부여된 ID 에 대한 차량을 식별한다.
또한, 제어부(180)는 식별된 차량에 대한 암호화 저장(블록체인 등)을 할 수 있다.
또한, 제어부(180)는 메모리(160)를 통해, 각 차량의 전체 구간 통과에 대한 행적 데이터(시속, 앞 차와의 차간 거리, 이벤트 정보 등)를 저장할 수 있다.
또한, 제어부(180)는 이벤트 발생 시, 이를 인지하고, 70m 단위로 배치된 LED DISPLAY(151) 중 해당되는 장치가 정보를 표출하며, 전체 상황을 레코딩할 수 있다.
한편, 별도의 서버(200)에서는 전술한 정보 및 과정 관련 정보를 저장하고, 이를 기초로 빅데이터 체계를 구축할 수도 있다.
따라서 서버(20)는 저장된 정보 분석을 통해, 구간평균시속, 시속에 따른 차간 평균 거리, 가시거리에 따른 차간 평균 거리, 평균 시속, 사고발생 차량들의 맥락적인 원인 등을 분석하고, 저장 및/또는 타 기관 등에 제공할 수 있게 된다.
또한, 도 10에서는 디스플레이부(151)가 표시하는 구체적인 정보의 일례가 도시된다.
도 10을 참조하면, 디스플레이부(151)는 자동차 2(CAR 002)에 대해 정보를 표시하게 되므로, 자동차 1(CAR 1)과의 차간 거리 30m, 충돌 예상시간 1초, 구간 평균 시속 80Km 등 자동차 2(CAR 002)의 운행 정보를 순차적으로 표시하게 된다.
만약, 사고가 발생하는 경우에는 안개 구간 발생한 사고에 대해 운전자에게 사고 발생 사실을 공지하고, 진입금지 또는 50% 감속에 대한 안내 등의 정보가 표시될 수도 있다.
사고발생 즉시 후방 모든 LED(151) Pole LED에 정보를 표출하여, 자동차 3(CAR 003) 등의 후속 차량의 사고를 방지하고, 안개구간 전방에 설치된 VMS VMS에 정보 표출할 수 있다.
나아가 교통 관제 센터, 경찰청 등 유관기관에 유무선 통신으로 사고정보를 전달 할 수 있다.
안개 발생 지역에서의 동작 - 레이더 이용
도 11 및 도 12는 안개발생지역에서 레이더가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 11을 참조하면, 복수의 교통사고 예보장치(100)가 일정 간격을 두고 배치되고, 각 교통사고 예보장치(100)에는 전방 데이터 수집을 위한 레이더(123)가 적용된다.
복수의 교통사고 예보장치(100)는 도 11에 도시된 것과 같이, 디스플레이부(151)만으로 구비될 수도 있고, 전술한 레이더(123)를 구비하여 배치될 수도 있다.
예를 들어, 레이더(123)를 구비한 교통사고 예보장치(100)는 레이더를 6~8m 높이에 배치하고, 210m의 간격을 두고 설치되며, 그 사이에 70m의 간격으로 카메라를 포함하지 않는 교통사고 예보장치(100)가 배치될 수 있다.
즉, LED DISPLAY(151)를 구비한 장치(100)는 카메라 폴 대의 간격에 따라 추가 설치 또는 제거될 수 있고, 설치 간격은 약 70m가 될 수 있다.
복수의 교통사고 예보장치(100)에 포함된 제어부(180) 중 적어도 일부는 구간 진입과 동시에 차량에 ID를 부여하고, 부여된 ID 에 대한 차량을 식별한다.
또한, 제어부(180)는 식별된 차량에 대한 암호화 저장(블록체인 등)을 할 수 있다.
또한, 제어부(180)는 메모리(160)를 통해, 각 차량의 전체 구간 통과에 대한 행적 데이터(시속, 앞 차와의 차간 거리, 이벤트 정보 등)를 저장할 수 있다.
또한, 제어부(180)는 이벤트 발생 시, 이를 인지하고, 70m 단위로 배치된 LED DISPLAY(151) 중 해당되는 장치가 정보를 표출하며, 전체 상황을 레코딩할 수 있다.
한편, 별도의 서버(200)에서는 전술한 정보 및 과정 관련 정보를 저장하고, 이를 기초로 빅데이터 체계를 구축할 수도 있다.
따라서 서버(20)는 저장된 정보 분석을 통해, 구간평균시속, 시속에 따른 차간 평균 거리, 가시거리에 따른 차간 평균 거리, 평균 시속, 사고발생 차량들의 맥락적인 원인 등을 분석하고, 저장 및/또는 타 기관 등에 제공할 수 있게 된다.
또한, 도 11에서는 디스플레이부(151)가 표시하는 구체적인 정보의 일례가 도시된다.
도 11을 참조하면, 디스플레이부(151)는 자동차 2(CAR 002)에 대해 정보를 표시하게 되므로, 자동차 1(CAR 1)과의 차간 거리 60m, 충돌 예상시간 2초, 구간 평균 시속 80Km 등 자동차 2(CAR 002)의 운행 정보를 순차적으로 표시하게 된다.
만약, 사고가 발생하는 경우에는 안개 구간 발생한 사고에 대해 운전자에게 사고 발생 사실을 공지하고, 진입금지 또는 50% 감속에 대한 안내 등의 정보가 표시될 수도 있다.
사고발생 즉시 후방 모든 LED(151) Pole LED에 정보를 표출하여, 자동차 3(CAR 003) 등의 후속 차량의 사고를 방지하고, 안개구간 전방에 설치된 VMS VMS에 정보 표출할 수 있다.
나아가 교통 관제 센터, 경찰청 등 유관기관에 유무선 통신으로 사고정보를 전달 할 수 있다.
터널 구간에서의 동작 - 열화상 카메라 이용
도 13 및 도 14는 터널 진입 구역에서 열화상 카메라가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 13을 참조하면, 복수의 교통사고 예보장치(100)가 터널 내부에 일정 간격을 두고 배치되고, 각 교통사고 예보장치(100)에는 전방 촬영을 위한 열화상 카메라(122), 후방 촬영을 위한 열화상 카메라(122) 및 상기 전방/후방 촬영을 위한 열화상 카메라(122)의 사각지대를 촬영하기 위한 일반 카메라(121)가 적용된다.
복수의 교통사고 예보장치(100)는 도 13에 도시된 것과 같이, 디스플레이부(151)만으로 구비될 수도 있고, 전술한 열화상 카메라(122) 및 일반 카메라(121)를 구비하여 배치될 수도 있다.
특히, 터널 입구에서는 열화상 카메라(122)로 전방과 후방을 촬영하고, 일반 카메라(121)로 사각지대를 촬영하며, 제어부(180)를 통해, 터널 내부 이벤트 상황 감지, 분석하고, 데이터 처리를 위해 일정 간격으로 터널 내부에 열화상 카메라(122)가 일정 간격에 따라 설치(터널 길이에 따라 결정)될 수 있다.
제어부(180)는 터널 내부에 설치된 열화상 카메라(122) 등의 정보를 기초로, 터널 내 영상정보를 분석하고, 처리된 정보를 터널 입구의 디스플레이부(151)에 표출(터널 내 평균시속, 정체, 사고 발생 판단, 진입금지 표출 등)하게 된다.
예를 들어, 디스플레이부(151)는 터널 입구에 차선 당 1대씩 설치될 수 있다.
복수의 교통사고 예보장치(100)에 포함된 제어부(180) 중 적어도 일부는 구간 진입과 동시에 차량에 ID를 부여하고, 부여된 ID 에 대한 차량을 식별한다.
또한, 제어부(180)는 식별된 차량에 대한 암호화 저장(블록체인 등)을 할 수 있다.
또한, 제어부(180)는 메모리(160)를 통해, 각 차량의 전체 구간 통과에 대한 행적 데이터(시속, 앞 차와의 차간 거리, 이벤트 정보 등)를 저장할 수 있다.
또한, 제어부(180)는 이벤트 발생 시, 이를 인지하고, 70m 단위로 배치된 LED DISPLAY(151) 중 해당되는 장치가 정보를 표출하며, 전체 상황을 레코딩할 수 있다.
한편, 별도의 서버(200)에서는 전술한 정보 및 과정 관련 정보를 저장하고, 이를 기초로 빅데이터 체계를 구축할 수도 있다.
따라서 서버(20)는 저장된 정보 분석을 통해, 구간평균시속, 시속에 따른 차간 평균 거리, 가시거리에 따른 차간 평균 거리, 평균 시속, 사고발생 차량들의 맥락적인 원인 등을 분석하고, 저장 및/또는 타 기관 등에 제공할 수 있게 된다.
또한, 도 14에서는 디스플레이부(151)가 표시하는 구체적인 정보의 일례가 도시된다.
도 14를 참조하면, 2개의 디스플레이부(151) 중 한개는 자동차 4(CAR 004)에 대해 정보를 표시하게 되므로, 자동차 1(CAR 1)과의 차간 거리 60m, 충돌 예상시간 2초, 구간 평균 시속 80Km 등 운행 정보를 순차적으로 표시하게 된다.
또한, 2개의 디스플레이부(151) 중 나머지는 자동차 3(CAR 003)에 대해 정보를 표시하게 되므로, 자동차 2(CAR 2)와의 차간 거리 30m, 충돌 예상시간 1초, 구간 평균 시속 80Km 등 운행 정보를 순차적으로 표시하게 된다.
터널 구간에서의 동작 - 레이더 이용
도 15 및 도 16은 터널 진입 구역에서 레이더가 적용된 교통사고 예보 시스템의 일례를 도시한 것이다.
도 15를 참조하면, 복수의 교통사고 예보장치(100)가 터널 내부에 일정 간격을 두고 배치되고, 각 교통사고 예보장치(100)에는 레이더(123)가 적용된다.
복수의 교통사고 예보장치(100)는 도 15에 도시된 것과 같이, 디스플레이부(151)만으로 구비될 수도 있고, 전술한 레이더(123)를 구비하여 배치될 수도 있다.
특히, 터널 입구에서는 레이더(123)로 전방과 후방을 촬영하고, 레이더(123) 탐지 거리 일부를 서로 교차키셔 사각지대를 없앨 수 있으며, 제어부(180)를 통해, 터널 내부 이벤트 상황 감지, 분석하고, 데이터 처리를 위해 일정 간격으로 터널 내부에 레이더(123)가 일정 간격에 따라 설치(터널 길이에 따라 결정)될 수 있다.
제어부(180)는 터널 내부에 설치된 레이더(123) 등의 정보를 기초로, 터널 내 영상정보를 분석하고, 처리된 정보를 터널 입구의 디스플레이부(151)에 표출(터널 내 평균시속, 정체, 사고 발생 판단, 진입금지 표출 등)하게 된다.
예를 들어, 디스플레이부(151)는 터널 입구에 차선 당 1대씩 설치될 수 있다.
복수의 교통사고 예보장치(100)에 포함된 제어부(180) 중 적어도 일부는 구간 진입과 동시에 차량에 ID를 부여하고, 부여된 ID 에 대한 차량을 식별한다.
또한, 제어부(180)는 식별된 차량에 대한 암호화 저장(블록체인 등)을 할 수 있다.
또한, 제어부(180)는 메모리(160)를 통해, 각 차량의 전체 구간 통과에 대한 행적 데이터(시속, 앞 차와의 차간 거리, 이벤트 정보 등)를 저장할 수 있다.
또한, 제어부(180)는 이벤트 발생 시, 이를 인지하고, 70m 단위로 배치된 LED DISPLAY(151) 중 해당되는 장치가 정보를 표출하며, 전체 상황을 레코딩할 수 있다.
한편, 별도의 서버(200)에서는 전술한 정보 및 과정 관련 정보를 저장하고, 이를 기초로 빅데이터 체계를 구축할 수도 있다.
따라서 서버(20)는 저장된 정보 분석을 통해, 구간평균시속, 시속에 따른 차간 평균 거리, 가시거리에 따른 차간 평균 거리, 평균 시속, 사고발생 차량들의 맥락적인 원인 등을 분석하고, 저장 및/또는 타 기관 등에 제공할 수 있게 된다.
또한, 도 16에서는 디스플레이부(151)가 표시하는 구체적인 정보의 일례가 도시된다.
도 14를 참조하면, 2개의 디스플레이부(151) 중 한 개는 자동차 3(CAR 003)에 대해 정보를 표시하게 되므로, 자동차 2(CAR 2)과의 차간 거리 40m, 충돌 예상시간 1초, 구간 평균 시속 80Km 등 운행 정보를 순차적으로 표시하게 된다.
또한, 2개의 디스플레이부(151) 중 나머지는 자동차 4(CAR 004)에 대해 정보를 표시하게 되므로, 자동차 1(CAR 1)와의 차간 거리 90m, 충돌 예상시간 3초, 구간 평균 시속 80Km 등 운행 정보를 순차적으로 표시하게 된다.
터널 구간에서의 정보 표시
도 17은 본 발명과 관련하여, 정상 주행 상황, 사고 발생상황 등에서 터널 입구 디스플레이가 정보를 표시하는 구체적인 일례를 도시한 것이다.
도 17의 (a)는 정상 주행시 디스플레이부(151)가 표시하는 일례를 도시한 것이다.
도 17의 (a)를 참조하면, 주행 차선의 바로 앞 차량과의 거리인 차간 거리가 가장 먼저 표시되고, 다음으로, 현재 시속에 따른 앞차와의 충돌 예상시간이 표시된다.
이후, 터널 전체 구간의 현재 평균 시속인 터널 구간평균시속 정보가 표시되고, 터널 내 이벤트 정보가 표시될 수 있따.
도 17의 (b)는 사고 발생시 디스플레이부(151)가 표시하는 일례를 도시한 것이다.
도 17의 (b)를 참조하면, 터널 내에 발생한 사고에 대해 운전자에게 사고발생을 공지하거나 터널진입금지를 전파할 수 있다.
또한, 이미 터널 내 진입한 차량에 대해 터널 내에서 발생한 사고를 공지할 수 있다.
사고발생 즉시 후방 모든 LED(151) Pole LED에 정보를 표출하여 후속 차량의 사고를 방지하고, 터널입구 전방에 설치된 VMS VMS에 정보 표출할 수 있다.
나아가 교통 관제 센터, 경찰청 등 유관기관에 유무선 통신으로 사고정보를 전달 할 수 있다.
또한, 도 17의 (c) 및 (d)는 차선 별로 정보를 표시하는 디스플레이부(151)의 일례를 도시한 것이다.
도 17의 (c) 및 (d)를 참조하면, 차선 별로 앞차와의 간격과 충돌 예상 시간이 표시된다.
또한, 차선 별로 진입금지에 대한 정보 안내 또는 사고가 발생되었다는 정보 전달 등이 이루어질 수 있다.
구간 평균 시속, 차간 거리, 추돌 예상 시간을 표시하는 방법
도 18은 본 발명과 관련하여, 영상 레이더 수집장치의 구성 및 활용 방안을 설명하는 도면이다.
도 18을 참조하면, 열화상(122) 및 RGB 카메라와 제어시스템(180)을 연동할 수 있따.
즉, 열화상 카메라(122)와 RGB 카메라(121)가 PC와 연동되고, 수집된 영상 데이터가 PC의 데이터 저장소에 저장되어 영상처리 기술개발에 사용될 수 있도록 보관되도록 한다.
또한, 총 4대의 열화상 카메라(122)와 이미지 카메라(121)가 수집한 데이터들이 시간적으로 동기화 될 수 있다.
또한, 데이터 수집 장치(100)가 약 1년가량의 외부환경에서의 노출에서도 그 기능을 잃지 않도록 내환경성을 갖추도록 외장을 설계하고, 장치를 제작할 수 있다.
또한, 도 19는 본 발명과 관련하여, 추돌 예상시간을 추정하는 알고리즘의 일례를 도시한 것이다.
도 19를 참조하면, 본 발명에서는, 검지된 차량의 속도와 차간거리를 기반으로 추돌예상시간, 구간 내 평균시속등을 연산하는 알고리즘이 적용된다.
또한, 도 20은 본 발명과 관련하여, RGB 카메라와 열화상 카메라 간의 좌표계 변환의 일례를 도시한 것이다.
도 20을 참조함녀, 열화상 카메라 영상 획득용 방법이 기재된다.
즉, 열화상 카메라(122) 및 RGB 카메라(121) 간 영상 캘리브레이션이 수행될 수 있고, PC 환경에서 열화상 카메라 영상을 획득하기 위한 제조사 SDK 기반의 캡쳐 interface 구성과 RGB 카메라의 좌표계를 열화상 카메라의 좌표계로 변환하는 기술적 구성이 적용된다.
또한, 도 21은 본 발명과 관련하여, 차선 정보 기반의 카메라 외부 파라미터 캘리브레이션 및 거리정보를 획득하는 일례를 도시한 것이다.
도 21의 (a)는 카메라로 촬영한 도로 영상을 도시한 것이고, (b)는 top view 형태의 도로 영상의 일례를 도시한 것이다.
도 21을 참조하면, 도로 측면에서 촬영한 영상의 Perspective distortion을 보정하기 위한 카메라 외부 캘리브레이션을 수행하는 것과 도로상의 차선정보를 활용하는 캘리브레이션 연구 진행거리정보 정확도 향상을 위한 카메라 캘리브레이션 최적화하는 단계가 도시된다.
또한, 본 발명에서는 다수 카메라로 촬영한 도로 영상을 정합하는 방법이 적용될 수도 있다.
도 22는 본 발명과 관련하여, 도로 분석용으로 설치된 카메라의 영상을 하나의 Top-view 형태로 정합하는 일례를 도시한 것이다.
도 22의 (a) 및 (b)를 참조하면, 시스템에 설치된 3개의 카메라(121)로 촬영한 도로 영상을 하나의 도로 영상으로 정합하고 정합된 영상을 TOP-VIEW 형태의 도로 영상으로 변경하는 일례가 도시된다.
또한, 도 23은 본 발명과 관련하여, 영상 내 차선 분할을 위한 차선 검출 결과의 일례를 도시한 것이다.
도 23의 (a) 및 (b)를 참조하면, RGB 카메라 영상에서 차량을 검출하는 방법과 관련하여, RGB 카메라로 촬영한 도로 영상에서 검출속도 향상을 위한 차선 별 분할방법의 일례가 도시된다.
또한, 도 24는 본 발명과 관련하여, 차량 후보군 검출용 정보를 획득하는 일례를 도시한 것이다.
도 24의 (a) 내지 (d)를 참조하면, 차량의 특징(수직/수평 Edge, 그림자 등) 정보를 활용한 (a) 원본영상 (b) 수직경계선 (c) 수평경계선 (d) 그림자가 순차적으로 도시되어 있다.
또한, 도 25는 본 발명과 관련하여, Clustering을 이용한 adaboost의 Weak classifier 학습 과정의 일례를 도시한 것이다.
즉, 도 25의 (a) 내지 (f)에 도시된 것과 같이, Clustering 기반의 adaboost algorithm1)등 machine learning 기반의 차량 검출기법이 본 발명에 적용될 수 있다.
또한, 도 26은 본 발명과 관련하여, 차량 검출 및 추적 결과(차량 상대속도, 거리 등 정보 제공)의 일례를 도시한 것이다.
또한, 도 27은 본 발명과 관련하여, 시스템 미적용 도로와 적용 도로의 일례를 도시한 것이고, 도 28은 본 발명과 관련하여, 안개 유무를 판단하는 기술과 관련된 내용을 도시한 것이다.
도 27 및 도 28을 참조하면, FIR(122), RGB 카메라(121) 기반 안개 유무를 판단하는 기술의 일례가 도시된다.
먼저, 안개 도로환경에서의 RGB 영상 분석 및 안개 정보 획득하고, 다음으로, HSI 컬러정보 등 영상의 안개성분 분석을 통한 안개 정보를 획득하는 방법이 적용된다.
또한, 컬러정보를 이용한 영상 내 안개성분 검출 결과를 파악할 수 있고, 안개 도로환경에서의 FIR 영상 분석 및 안개 정보를 획득할 수 있다.
또한, RGB, FIR 카메라 기반 안개 정보 융합 및 안개 유무를 판단하는 것도 가능하다.
도 29는 본 발명과 관련하여, 열화상 카메라 영상 기반 계절별 차량 검출 결과의 일례를 도시한 것이다.
도 29에 개시된 것과 같이, 차량 검출용 머신러닝 학습 기반 차량 데이터베이스가 적용될 수 있다.
이는, 안개 환경에서의 자율주행도로 및 차량 데이터베이스 획득, 안개 정도에 따른 도로 및 차량 데이터베이스 분류, 차량 검출용 분류기에 따른 데이터베이스 형태 정의 등의 프로세스로 구축된다.
또한, 안개 도로환경에서의 FIR 영상 기반 차량검출 기술이 적용될 수 있고, 이에는 안개 환경에 강인한 FIR 영상 기반의 차량 검출용 머신러닝 분류기가 적용되고, 열화상 카메라로 촬영한 차량 영상에서 Windshield의 모양을 기반으로 차량을 검출하는 등 차량의 다양한 형태 및 feature 활용하여 차량을 검출하는 기법이 적용된다.
또한, 차량 검출용 머신러닝 분류기 학습을 위한 특징을 획득하고, 차량 검출 정보를 이용하여 전방 차량과의 거리 및 차량의 속도를 추정할 수도 있다.
또한, 도 30은 본 발명과 관련하여, 안개 상황 시 RGB, FIR 카메라 영상을 비교한 일례를 도시한 것이다.
도 30을 참조하면, 도로상의 안개유무를 판단하기 위한 RGB, FIR 카메라 기반의 안개유무 판단하는 기술이 적용되고, 이를 통해, 안개 상황 시 RGB와 FIR의 시계확보 범위를 비교하여 안개유무를 판단할 수 있다.
또한, 안개 유무를 판단하여 안개 상황시의 고휘도 LED 디지털 사인(151)의 트리거로써 사용할 수도 있다.
본 발명에 따른 효과
전술한 본 발명의 구성이 적용되는 경우, 터널 진입 시 조도 차이에 의해 터널 입구가 블랙홀 현상이 발생하여 터널 진입 시 순간적으로 바로 앞차와의 차간거리를 확인할 수 없어 추돌사고가 발생하는 것을 방지할 수 있다.
또한, 기존제품들과 달리 각 차량의 속도에 따라 위험구역을 상정할 수 있다.
또한, 기존 도로교통용 시설과 다르게 추돌예상시간을 표출함으로써 직관적인 위험 파악이 가능하고, 기존의 레이더/라이다를 이용한 제품들에 비해 비용 절감 효과가 있다.
또한, 매년 약 37명이 안개 교통사고로 사망, 약 570명이 터널 교통사고로 사망하고 있고, 매년 안개 교통사고로 158억7,633만원, 터널 교통사고로 인하여 2,445억 8,130만원의 사망자로 인한 비용이 발생한다.
이중, 본 발명이 제안하는 교통사고 방지시스템에 의해 터널 및 안개 교통사고 사망자가 10%가 줄어든다고 가정하면, 매년 안개 교통사고로 115억 8,763만원, 터널 교통사고로 244억 5813만원의 경제적 손실을 예방할 수 있을 것으로 판단된다.
또한, 사회적 충격과 여파를 감소시키고, 높은 치사율을 띄는 안개 및 터널 진입 시의 교통 재난 예방을 통한 사회적 가치를 보호할 수 있다.
결론적으로, 안개 상습 발생 도로 및 터널 진입로 등에 활용하여, 안개 상습 발생 도로 및 터널 진입로에서의 교통사고 예방 및 대응에 대한 새로운 방안을 마련하고, 안개 발생, 구간 내 평균 속도 등 교통사고 방지시스템에 의해 수집된 정보의 DB화를 통한 교통관련 타 솔루션에 응용 가능하며, 안개 상습 발생지역, 터널 내부 및 진입로 등에서의 추돌사고에 의한 인명, 재산 피해 방지 효과에 의한 사회적, 경제적 손실 방지하고, 교통정보 DB 구축에 의한 교통관련 데이터 산업에 긍정적인 기여가 가능할 것이다.
상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.
하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
Claims (8)
- 적어도 하나의 객체를 촬영하는 제 1 카메라; 및 상기 촬영한 제 1 정보를 외부로 전송하는 제 1 통신부;를 포함하는 복수의 촬영장치; 및
상기 적어도 하나의 객체를 촬영하는 제 2 카메라; 상기 복수의 촬영장치로부터 상기 제 1 정보를 수신하는 제 2 통신부; 상기 제 2 카메라가 촬영한 제 2 정보 및 상기 수신한 제 1 정보 중 적어도 하나를 이용하여 상기 적어도 하나의 객체와 관련된 제 3 정보를 결정하는 제어부; 및 상기 제어부의 제어에 따라 상기 제 3 정보를 표시하는 디스플레이부;를 포함하는 교통사고 예보장치;를 포함하되,
상기 복수의 촬영장치는, 상기 교통사고 예보장치를 기준으로 미리 설정된 간격만큼 이격 되어 설치되고,
상기 교통사고 예보장치의 디스플레이부는, 상기 적어도 하나의 객체 중 제 1 객체와 관련된 정보를 표시하며,
상기 제 1 객체는, 상기 교통사고 예보장치를 기준으로 일정 영역 범위 이내에 존재하는 객체이고,
상기 제 1 카메라 및 제 2 카메라는 복수이며,
상기 복수의 제 1 카메라 및 제 2 카메라는,
전방을 촬영하는 제 1 열화상 카메라;
후방을 촬영하는 제 2 열화상 카메라;
상기 제 1 열화상 카메라와 상기 제 2 열화상 카메라의 사각지대를 촬영하는 카메라; 및
상기 전방 및 후방 중 적어도 하나를 촬영하는 레이더를 포함하고,
상기 복수의 촬영장치 중 제 1 촬영장치와 제 2 촬영장치는,
상기 제 1 촬영장치의 제 2 열화상 카메라가 촬영 가능한 제 1 운용범위와 상기 제 2 촬영장치의 제 1 열화상 카메라가 촬영 가능한 제 2 운용범위가 적어도 일부 겹치도록 이격 되어 배치되며,
상기 복수의 제 1 카메라 및 제 2 카메라는,
상기 레이더의 상기 적어도 하나의 객체와 관련된 정보를 수집할 수 있는 운용거리보다 짧은 간격만큼 이격 되어 배치되고,
상기 제어부는,
상기 제 2 카메라가 촬영한 제 2 정보 및 상기 수신한 제 1 정보 중 적어도 하나를 이용하여 상기 적어도 하나의 객체에 대해 ID를 부여하고, 상기 부여한 ID를 이용하여 미리 설정된 구간을 통과하는 상기 적어도 하나의 객체를 구분하며, 상기 적어도 하나의 객체가 상기 미리 설정된 구간을 통과하는 과정에 대한 행적 데이터를 기초로 상기 제 3 정보를 결정하는 것을 특징으로 하는 교통사고 예보 시스템.
- 삭제
- 삭제
- 삭제
- 제 1항에 있어서,
상기 제 3 정보는,
상기 적어도 하나의 객체 간의 이격거리, 현재 속도를 기준으로 결정된 충돌 예상시간 및 상기 미리 설정된 구간 내의 상기 적어도 하나의 객체의 평균 속도를 포함하는 것을 특징으로 하는 교통사고 예보 시스템.
- 제 5항에 있어서,
상기 제 3 정보는, 시간에 따라 변화되어 표시되는 것을 특징으로 하는 교통사고 예보 시스템. - 제 5항에 있어서,
상기 적어도 하나의 객체에 사고 이벤트가 발생된 경우,
상기 제 3 정보는,
사고 이벤트를 알리는 정보, 진입금지를 알리는 정보 및 속도 감속 비율에 대한 정보를 추가적으로 포함하는 것을 특징으로 하는 교통사고 예보 시스템. - 제 1항에 있어서,
상기 복수의 촬영장치는 터널 내부에 배치되고,
상기 교통사고 예보장치의 디스플레이부는 복수이며,
상기 복수의 디스플레이부 각각은, 상기 적어도 하나의 객체 중 배치된 차선 내에 존재하는 객체와 관련된 제 3 정보를 표시하는 것을 특징으로 하는 교통사고 예보 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180080109A KR102033858B1 (ko) | 2018-07-10 | 2018-07-10 | 교통사고 예보 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180080109A KR102033858B1 (ko) | 2018-07-10 | 2018-07-10 | 교통사고 예보 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102033858B1 true KR102033858B1 (ko) | 2019-10-17 |
Family
ID=68424175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180080109A KR102033858B1 (ko) | 2018-07-10 | 2018-07-10 | 교통사고 예보 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102033858B1 (ko) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111429756A (zh) * | 2020-03-30 | 2020-07-17 | 淮阴工学院 | 一种基于视频技术的公路隧道防追尾预警方法 |
KR102158853B1 (ko) * | 2020-02-19 | 2020-09-22 | (주)고려진공안전 | 램프 역주행 방지장치 및 램프 역주행 방지방법 |
KR102214492B1 (ko) * | 2020-08-21 | 2021-02-10 | 마스코리아 주식회사 | 도로 유고 검지 및 알림 시스템 |
CN112530163A (zh) * | 2020-11-23 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 交通事故预测方法、装置、电子设备及存储介质 |
KR102299778B1 (ko) * | 2020-05-18 | 2021-09-07 | 김응욱 | 연속 영상 제공 모니터링 시스템 |
KR102630455B1 (ko) * | 2023-10-04 | 2024-01-29 | (주)보고텍 | 객체 감지 수단을 이용한 스마트 vms 시스템 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049988A (ja) * | 2000-07-31 | 2002-02-15 | Hitachi Ltd | 情報提供方法 |
JP2003058978A (ja) * | 2001-08-09 | 2003-02-28 | Toshiba Corp | 車両監視システム |
KR20060013446A (ko) | 2006-01-24 | 2006-02-09 | 김노석 | 패턴디자인이 용이한 음악분수 제어시스템 |
KR100578041B1 (ko) * | 2004-06-02 | 2006-05-11 | (주)에이직뱅크 | 교통정보수집과 부가기능을 갖는 네트워크 카메라 장치 및그 교통정보 처리방법 |
KR100862398B1 (ko) * | 2008-07-18 | 2008-10-13 | 한국비전기술(주) | 다중 카메라를 이용한 방범용 씨씨티브이 기능을 갖는 불법주정차 무인 자동 단속방법 및 그 시스템 |
KR20110010953A (ko) * | 2009-07-27 | 2011-02-08 | 조용성 | 교통사고 안내시스템 및 안내방법 |
-
2018
- 2018-07-10 KR KR1020180080109A patent/KR102033858B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049988A (ja) * | 2000-07-31 | 2002-02-15 | Hitachi Ltd | 情報提供方法 |
JP2003058978A (ja) * | 2001-08-09 | 2003-02-28 | Toshiba Corp | 車両監視システム |
KR100578041B1 (ko) * | 2004-06-02 | 2006-05-11 | (주)에이직뱅크 | 교통정보수집과 부가기능을 갖는 네트워크 카메라 장치 및그 교통정보 처리방법 |
KR20060013446A (ko) | 2006-01-24 | 2006-02-09 | 김노석 | 패턴디자인이 용이한 음악분수 제어시스템 |
KR100862398B1 (ko) * | 2008-07-18 | 2008-10-13 | 한국비전기술(주) | 다중 카메라를 이용한 방범용 씨씨티브이 기능을 갖는 불법주정차 무인 자동 단속방법 및 그 시스템 |
KR20110010953A (ko) * | 2009-07-27 | 2011-02-08 | 조용성 | 교통사고 안내시스템 및 안내방법 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102158853B1 (ko) * | 2020-02-19 | 2020-09-22 | (주)고려진공안전 | 램프 역주행 방지장치 및 램프 역주행 방지방법 |
CN111429756A (zh) * | 2020-03-30 | 2020-07-17 | 淮阴工学院 | 一种基于视频技术的公路隧道防追尾预警方法 |
CN111429756B (zh) * | 2020-03-30 | 2022-02-11 | 淮阴工学院 | 一种基于视频技术的公路隧道防追尾预警方法 |
KR102299778B1 (ko) * | 2020-05-18 | 2021-09-07 | 김응욱 | 연속 영상 제공 모니터링 시스템 |
KR102214492B1 (ko) * | 2020-08-21 | 2021-02-10 | 마스코리아 주식회사 | 도로 유고 검지 및 알림 시스템 |
WO2022039328A1 (ko) * | 2020-08-21 | 2022-02-24 | 마스코리아 주식회사 | 도로 유고 검지 및 알림 시스템 |
CN112530163A (zh) * | 2020-11-23 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 交通事故预测方法、装置、电子设备及存储介质 |
CN112530163B (zh) * | 2020-11-23 | 2022-03-01 | 腾讯科技(深圳)有限公司 | 交通事故预测方法、装置、电子设备及存储介质 |
KR102630455B1 (ko) * | 2023-10-04 | 2024-01-29 | (주)보고텍 | 객체 감지 수단을 이용한 스마트 vms 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102033858B1 (ko) | 교통사고 예보 시스템 | |
US20210357670A1 (en) | Driver Attention Detection Method | |
KR101030763B1 (ko) | 이미지 획득 유닛, 방법 및 연관된 제어 유닛 | |
US20200079368A1 (en) | Control device and control method | |
US9965957B2 (en) | Driving support apparatus and driving support method | |
KR101967610B1 (ko) | 다차로 차량속도 및 차량번호 인식이 가능한 다차로 모니터링 시스템 | |
US10481606B1 (en) | Self-driving vehicle systems and methods | |
US20200380257A1 (en) | Autonomous vehicle object content presentation systems and methods | |
KR102032654B1 (ko) | 교통사고 예보 시스템 | |
RU2017124586A (ru) | Транспортное средство и соответствующий способ проекционного отображения (варианты) | |
US10861336B2 (en) | Monitoring drivers and external environment for vehicles | |
CN102592475A (zh) | 路口交通预警系统 | |
CN111354182A (zh) | 一种辅助驾驶方法和系统 | |
US10832569B2 (en) | Vehicle detection systems | |
CN109080640A (zh) | 用于在车辆内提供昏睡警报的方法 | |
KR102565227B1 (ko) | 위험도 예측 안내를 제공하는 교통 안전 장치 및 이를 포함하는 교통 안전 시스템 | |
CN108482367A (zh) | 一种基于智能后视镜辅助驾驶的方法、装置及系统 | |
US20160280135A1 (en) | Animal Detection System for a Vehicle | |
KR20120063657A (ko) | 어린이 보행자 보호 장치 및 그의 어린이 보행자 보호 방법 | |
Borges et al. | Integrating off-board cameras and vehicle on-board localization for pedestrian safety | |
CN105679090B (zh) | 一种基于智能手机的夜间司机驾驶辅助方法 | |
JP2024133552A (ja) | 判定装置及び判定方法並びに判定プログラム | |
KR102538548B1 (ko) | 딥러닝 기반의 객체 인식 및 모니터링 시스템 | |
WO2018212090A1 (ja) | 制御装置及び制御方法 | |
KR101935853B1 (ko) | 라이다 및 레이더를 이용한 나이트 비전 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |