KR102646041B1 - 교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템 - Google Patents

교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템 Download PDF

Info

Publication number
KR102646041B1
KR102646041B1 KR1020230102622A KR20230102622A KR102646041B1 KR 102646041 B1 KR102646041 B1 KR 102646041B1 KR 1020230102622 A KR1020230102622 A KR 1020230102622A KR 20230102622 A KR20230102622 A KR 20230102622A KR 102646041 B1 KR102646041 B1 KR 102646041B1
Authority
KR
South Korea
Prior art keywords
vehicle
entry
approach
movement
information
Prior art date
Application number
KR1020230102622A
Other languages
English (en)
Inventor
정병식
엄성용
Original Assignee
(주)보고텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)보고텍 filed Critical (주)보고텍
Priority to KR1020230102622A priority Critical patent/KR102646041B1/ko
Application granted granted Critical
Publication of KR102646041B1 publication Critical patent/KR102646041B1/ko

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/22Advertising or display means on roads, walls or similar surfaces, e.g. illuminated
    • G09F19/228Ground signs, i.e. display signs fixed on the ground
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 신호등이 설치되지 않은 교차로에 설치되는 디스플레이 패널을 통해, 접근-차로의 차량 접근 상태를 영상 및 경고 문구를 포함하는 통합 영상을 디스플레이 함으로써 진입-차로의 대기 차량 운전자가 해당 교차로의 다른 차량의 접근상황을 신속하고 정확하게 인지하므로, 교통사고를 효과적으로 절감시킬 뿐만 아니라 조도, 날씨, 우천 등의 외부 환경과 상관없이 운영되어, 서비스 정확성 및 신뢰도를 높일 수 있으며, 주도로의 차량 접근에 대한 정보 전달력, 직관성 및 가시성을 개선하여 종래에 도로반사경의 낮은 시인성 및 가시성으로 인해 교통사고가 발생하는 문제점을 획기적으로 해결할 수 있는 삼거리 차량 진입 안내 시스템에 관한 것이다.

Description

교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템{Three-way vehicle entry guide system for enhancing effect of preventing traffic accidents}
본 발명은 교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템에 관한 것으로서, 상세하게로는 신호등이 설치되지 않은 교차로에 설치되는 디스플레이 패널을 통해, 접근-차로의 차량 접근 상태를 영상 및 경고 문구를 포함하는 통합 영상을 디스플레이 함으로써 진입-차로의 대기 차량 운전자가 해당 교차로의 다른 차량의 접근상황을 신속하고 정확하게 인지하므로, 교통사고를 효과적으로 절감시킬 뿐만 아니라 조도, 날씨, 우천 등의 외부 환경과 상관없이 운영되어, 서비스 정확성 및 신뢰도를 높일 수 있으며, 주도로의 차량 접근에 대한 정보 전달력, 직관성 및 가시성을 개선하여 종래에 도로반사경의 낮은 시인성 및 가시성으로 인해 교통사고가 발생하는 문제점을 획기적으로 해결할 수 있는 삼거리 차량 진입 안내 시스템에 관한 것이다.
최근 들어, 지역경제 활성화 정책에 따라 지방자치단체를 중심으로 지역개발 사업이 활발하게 추진되고 있고, 이 결과로 도농 복합 형태의 경제구조를 갖는 소도시들이 많이 생겨나고 있고, 이러한 소도시는 교통량이 밀집되지 않는 특성으로 인해, 신호등이 설치되지 않은 소도로 진입 교차로가 널리 증가하고 있는 실정이다.
이러한 소도로 진입 교차로는 신호등이 설치되지 않으므로, 불필요한 대기시간 정체를 절감시키며, 원활한 교통-흐름을 유도하는 장점을 가지나, 운전자가 다른 차선의 차량을 육안으로 확인한 후, 교차로를 진입해야 하므로, 운전자의 부주의 등으로 인해 교통사고가 오히려 증가하는 역기능이 발생하게 되었다.
특히 고령 운전자 또는 운전 미숙자는 소도로 진입 교차로에서 상황 인지능력이 떨어지므로, 잦은 진입 판단 실수로 인해 교통사고가 더욱 자주 발생하게 되고, 설령 조종에 능숙한 운전자라고 하더라도, 야간, 안개, 강우, 강설 등으로 가시거리가 확보되지 않는 환경에서는, 교통사고 위험도가 현저히 증가하게 된다.
이에 따라 종래에는 소도로 진입 교차로의 진입차선에 대향되는 위치에, 대형볼록거울인 도로반사경을 설치하여, 도로반사경을 통해 교차로로 진입하는 주-도로의 차량이 표시되도록 하는 방안이 연구되었으나, 이러한 도로반사경은 가시성 및 시인성이 떨어지므로, 운전자가 도로반사경을 통해 주-도로의 차량 접근을 육안으로 확인하기가 어려워, 교통사고 예방 효율성 및 효과가 현저히 떨어지는 단점을 갖는다.
도 1은 국내등록특허 제10-0870782호(발명의 명칭 : 사각지대용 반사경 및 이를 이용한 교통안전 시스템)에 개시된 사각지대용 반사경을 나타내는 블록도이다.
도 1의 사각지대용 반사경(이하 종래기술이라고 함)(100)은 전원을 공급하는 전원공급부(130)와, 3방향의 각 도로를 감지하는 3방향 감지부(116)와, 3방향 감지부(116)의 감지신호를 분석하여, 특정 감지부에서의 차량 및 보행자 감지 시, 경고신호가 표시되도록 3방향 표시부를 제어하는 제어부(160)와, 진입방향을 표시하는 다수의 LED들을 포함하여 제어부(160)의 제어에 따라 각 방향에 대한 경고신호가 표시되도록 하는 3방향 표시부(143)와, 제어부(160)의 제어에 따라 음성신호를 출력하는 음성출력부(125)로 이루어진다.
이와 같이 구성되는 종래기술(100)은 교차로상에 보이지 않는 방향의 차량, 보행자 상황을 감지하여 표시토록 함으로써 기후조건에 상관없이 원거리에서도 사각 지역에서의 보행자나 차량 진입여부를 확인하도록 하여 이에 따른 안전사고를 미연에 방지할 수 있는 장점을 갖는다.
그러나 종래기술(100)은 각 방향에 대한 경고신호가 소정 면적의 LED를 통해 표시되기 때문에 시인성 및 가시성이 떨어져, 정보 전달의 효과 및 효율성이 저하되고, 이에 따라 운전자가 정확하게 확인하지 못하는 경우, 오히려 대형 교통사고를 유발하는 단점을 갖는다.
또한 종래기술(100)은 단순히 각 방향의 객체 감지 여부에 따라 경고표시가 이루어지기 때문에 운전자에게 정확한 정보를 제공할 수 없으므로, 서비스 정확성 및 편의성이 떨어지는 단점을 갖는다.
본 발명은 이러한 문제를 해결하기 위한 것으로, 본 발명의 해결과제는 일측에 제1 접근-차로(S1)의 영상인 제1 접근-영상이 배치되되, 타측에 제2 접근-차로의 영상인 제2 접근-영상이 배치되는 통합 영상이, 진입-차로(S3)에 대향되게 설치되는 디스플레이 패널을 통해 전시됨으로써 접근-차로의 차량 접근에 대한 정보를 영상을 통해 제공하므로, 정보 전달의 효율성 및 효과를 극대화할 뿐만 아니라 시인성 및 가시성을 높여 교통사고를 효과적으로 방지할 수 있으며, 종래의 도로반사경이 낮은 시인성 및 가시성으로 인해 교통사고를 유발하는 문제점을 획기적으로 해결할 수 있는 삼거리 차량 진입 안내 시스템을 제공하기 위한 것이다.
또한 본 발명의 다른 해결과제는 컨트롤러가 통합 영상 생성 시, 감지된 접근-차량의 객체의 테두리에 영상-데이터블록이 표시되도록 통합 영상을 가공함으로써 접근 차량에 대한 시인성 및 가시성을 더욱 개선하여, 교통사고를 더욱 효과적으로 방지할 수 있는 삼거리 차량 진입 안내 시스템을 제공하기 위한 것이다.
또한 본 발명의 또 다른 해결과제는 컨트롤러가 라이다 센서에 의한 라이다 신호를 분석하여 객체를 감지함과 동시에 AI알고리즘을 이용하여 접근-영상을 분석하여 객체를 감지하며, 두 개의 객체 정보를 캘리브레이션 처리한 후, 차량 접근정보를 생성하며, 통합 영상 생성 시, 하부에 차량 접근정보가 노출되도록 통합 영상을 가공함으로써 영상과 경고 문구를 통해, 대기 차량 운전자에게 안전한 교차로 진입을 안내 및 통제할 수 있는 삼거리 차량 진입 안내 시스템을 제공하기 위한 것이다.
또한 본 발명의 또 다른 해결과제는 컨트롤러가 대기 차량 감지 시, 대기 차량의 이동-방향을 검출한 후, 검출된 이동-방향에 따라 교차로 진입이 가능한지 여부를 판단하여, 판단 결과를 나타내는 안내 문구가 통합 영상의 하부에 노출되도록 통합 영상을 가공함으로써 대기 차량의 이동하고자 하는 방향에 적합한 교차로 진입을 안내할 수 있으므로, 서비스 편의성 및 신뢰도를 높일 수 있는 삼거리 차량 진입 안내 시스템을 제공하기 위한 것이다.
또한 본 발명의 또 다른 해결과제는 조도, 날씨, 우천 등으로 인해 시정거리가 열악한 환경이더라도, 접근-차로의 차량 접근에 대한 정보를 정확하게 제공할 수 있기 때문에 교통사고 예방 효과를 더욱 극대화할 수 있는 삼거리 차량 진입 안내 시스템을 제공하기 위한 것이다.
상기 과제를 해결하기 위한 본 발명의 해결수단은 주도로와, 주도로에 연결되는 소도로의 교차 지점인 교차로(S)에 설치되는 차량 진입 안내장치에 있어서: 상기 차량 진입 안내장치는 디스플레이 패널; 교차로(S)를 향해 접근하는 양측 주도로의 차로를 제1, 2 접근-차로(S1), (S2)라고 할 때, 제1 접근-차로(S1)를 촬영하여 제1 접근-영상을 획득하는 제1 카메라; 제2 접근-차로(S2)를 촬영하여 제2 접근-영상을 획득하는 제2 카메라; 교차로(S)를 향해 접근하는 소도로의 차로를 진입-차로(S3)라고 할 때, 진입-차로(S3)를 촬영하여 진입-영상을 획득하는 제3 카메라; 상기 제1 카메라에 의해 획득된 제1 접근-영상과, 상기 제2 카메라에 의해 획득된 제2 접근-영상을 병합하여 통합 영상을 생성한 후, 상기 디스플레이 패널을 통해 전시하는 컨트롤러를 포함하고, 상기 컨트롤러는 메모리; 상기 제1 카메라 또는 상기 제2 카메라로부터 출력된 제1 접근-영상 또는 제2 접근-영상을 분석하여 차량 객체를 인식함과 동시에 차량 객체의 위치를 포함하는 객체정보를 생성하는 영상/공간정보 융합 처리부; 상기 영상/공간정보 융합 처리부에서 검출된 차량 객체의 궤적을 추적하여, 차량의 위치 및 속도를 포함하는 차량 정보를 생성하는 차량/교통정보 생성부; 상기 차량/교통정보 생성부에서 생성된 차량 정보를 활용 및 참조하여, 차량의 접근-방향을 ‘우측’ 또는 ‘좌측’으로 결정하며, 1)현재 감지된 객체들의 접근-방향이 모두 ‘우측’이면, ‘우측-접근’이라는 차량 접근정보를 생성하고, 2)현재 감지된 객체들의 접근-방향이 모두 ‘좌측’이면, ‘좌측-접근’이라는 차량 접근정보를 생성하고, 3)현재 감지된 객체들의 접근-방향이 ‘우측’ 및 ‘좌측’을 포함하면, ‘양방향-접근’이라는 차량 접근정보를 생성하고, 4)현재 감지된 객체가 존재하지 않으면, ‘접근차량 미감지’라는 차량 접근정보를 생성하는 차량 접근정보 생성부; 상기 제3 카메라로부터 입력된 진입-영상을 분석하여, 대기 차량을 감지하는 진입-영상 분석 및 대기 차량 감지부; 상기 진입-영상 분석 및 대기 차량 감지부에서 감지된 대기 차량의 방향지시등을 분석하여, ‘좌회전’, ‘우회전’ 및 ‘양방향’ 중 어느 하나로 대기 차량의 진입-방향을 검출하는 진입-방향 검출부; 상기 차량 접근정보 생성부에서 생성된 차량 접근정보의 접근-방향과, 상기 진입-방향 검출부에서 검출된 진입-방향을 활용하여, 대기 차량의 진입-방향이 ‘우회전’일 때, 접근-방향이 ‘좌측’인 접근-차량을 상충 객체로 결정하되, 대기 차량의 진입-방향이 ‘좌회전’일 때, 접근-방향이 ‘좌측’ 또는 ‘우측’인 접근-차량 모두를 상충 객체로 결정하는 진입 가능 여부 분석부; 상기 진입 가능 여부 분석부에서 상충 객체가 존재하면, 대기 차량의 진입-방향의 진입을 금지하는 내용의 진입 유도정보를 생성하며, 상충 객체가 존재하지 않으면, 대기 차량의 진입-방향의 진입을 허용하는 내용의 진입 유도정보를 생성하는 진입 유도정보 생성부; 대기 차량의 이동이 완료되면, 대기 차량의 궤적 정보를 참조하여, 대기 차량의 최종 이동-방향을 검출한 후, 대기 차량의 차량번호, 최종 이동-방향 및 이동 시각을 매칭시켜 이동-데이터를 생성한 후, 상기 메모리에 저장하는 이동-데이터 생성부; 상기 진입-방향 검출부에서 진입-방향이 ‘양방향’이면, 대기 차량의 진입-방향을 예측하는 진입-방향 예측부; 상기 진입-방향 예측부에서 대기 차량의 진입-방향이 예측되면, 상기 진입 가능 여부 분석부와 동일한 방법으로 대기 차량의 진입 가능 여부를 분석하는 제3 진입 가능 여부 분석부; 상기 진입 유도정보 생성부와 동일한 방법으로 제3 진입 유도정보를 생성하는 제3 진입 유도정보 생성부; 통합 영상을 생성하되, 하부에 상기 차량 접근정보 생성부에서 생성된 차량 접근정보에 대응하는 문구, 상기 진입 유도정보 생성부에서 생성된 진입 유도정보에 대응하는 문구 또는 상기 제3 진입 유도정보 생성부에서 생성된 제3 진입 유도정보가 노출되도록 통합 영상을 가공하는 통합 영상 생성부를 포함하고, 상기 진입-방향 예측부는 상기 메모리에 저장된 이동-데이터들을 수집하는 이동-데이터 수집모듈; 상기 차량/교통정보 생성부로부터 대기 차량의 차량번호 정보를 입력받는 차량번호 입력모듈; 상기 이동-데이터 수집모듈에 의해 수집된 이동-데이터들 중, 상기 차량번호 입력모듈을 통해 입력된 차량번호의 이동-데이터들을 선별하는 제1 선별모듈; 상기 제1 선별모듈에 의해 선별된 대기 차량의 이동-데이터들의 이동 시각 정보를 참조하여, 현재 시각을 기준으로 임계 범위에 포함되는 이동 시각을 갖는 이동-데이터들을 선별하되, 현재 시각을 기준으로 임계 범위에 포함되는 이동 시간을 갖는 이동-데이터가 존재하지 않을 때, 임계 범위를 기 설정된 α배 만큼 확장시켜 이동-데이터들을 선별하고, 적어도 한 개 이상의 이동-데이터가 검출될 때까지 과정을 반복하는 제2 선별모듈; 상기 제2 선별모듈에 의해 선별된 이동-데이터들을 최종 이동-방향을 기반으로 ‘우회전’ 또는 ‘좌회전’으로 분류시키는 이동-방향 기반 분류모듈; 상기 이동-방향 기반 분류모듈에 의해 분류된 데이터들을 활용하여, 각 이동-방향의 점유율을 산출하는 각 이동-방향별 점유율 산출모듈; 상기 각 이동-방향별 점유율 산출모듈에서 산출된 점유율들 중, 큰 값을 갖는 이동-방향의 점유율을 추출한 후, 추출된 이동-방향의 점유율을, 대기 차량의 이동-방향을 예측할 수 있는 점유율의 최솟값인 기 설정된 임계값과 비교하는 비교모듈; 상기 비교모듈에서, 추출된 이동-방향의 점유율이 상기 임계값 이상이면, 추출된 이동-방향을 대기 차량의 최종 이동-방향으로 결정하며, 추출된 이동-방향의 점유율이 상기 임계값 미만이면, 대기 차량의 최종 이동-방향을 ‘양방향’으로 결정하며, 대기 차량의 이전 이동-데이터가 검출되지 않으면, 해당 대기 차량의 최종 이동-방향을 ‘양방향’으로 결정하는 최종 이동-방향 예측모듈을 포함하는 것이다.
또한 본 발명에서 상기 차량 진입 안내장치는 제1 접근-차로(S1)로 라이다(LiDAR) 신호를 송출한 후 반사 신호를 수신받는 제1 라이다 센서와, 제2 접근-차로(S2)로 라이다(LiDAR) 신호를 송출한 후 반사 신호를 수신받는 제2 라이다 센서를 더 포함하고, 상기 영상/공간정보 융합 처리부는 상기 제1 라이다 센서 또는 상기 제2 라이다 센서로부터 출력된 포인트 점군(Point cloud) 데이터를 분석하여 차량 객체를 인식하며, 영상에 의한 차량 객체와 라이다 신호에 의한 차량 객체를 캘리브레이션 처리하여, 차량 객체의 위치를 포함하는 객체정보를 생성하는 것이 바람직하다.
또한 본 발명에서 상기 영상/공간정보 융합 처리부는 상기 제1 카메라 또는 상기 제2 카메라로부터 출력된 제1 접근-영상 또는 제2 접근-영상을 분석하여, 차량을 감지 및 인식한 후, 객체(Object)를 추출하는 차량 인식 및 객체 추출모듈; 상기 차량 인식 및 객체 추출모듈에서 추출된 객체의 테두리에 인덱스된 영상-데이터블록이 표시되도록 접근-영상을 가공하는 영상-데이터블록 가공모듈; 상기 제1 라이다 센서 또는 상기 제2 라이다 센서로부터 입력된 포인트 점군(Point cloud) 데이터를 클러스터링(군집화, Clustering) 하는 클러스터링 모듈; 상기 클러스터링 모듈에 의해 군집화된 데이터를 참조 및 활용하여, 접근-영상 내 차량인 객체를 추출하는 객체 추출모듈; 상기 객체 추출모듈에 의해 추출된 객체의 테두리에 인덱스된 포인트-데이터블록이 표시되도록 그리드 맵을 가공하는 포인트-데이터블록 가공모듈; 동일 객체에 대한 영상-데이터 블록과 포인트-데이터블록을 매칭시키는 캘리브레이션 작업을 진행하는 캘리브레이션 처리모듈; 상기 캘리브레이션 처리모듈에서 검출된 캘리브레이션 결과를 이용하여, 객체정보를 생성하는 객체정보 생성모듈을 포함하는 것이 바람직하다.
삭제
또한 본 발명에서 상기 진입 가능 여부 분석부는 상기 차량 접근정보 생성부에서 생성된 차량 접근정보와, 상기 진입-방향 검출부에서 검출된 대기 차량의 진입-방향 정보를 입력받는 데이터 입력모듈; 상기 데이터 입력모듈을 통해 입력된 차량 접근정보와, 대기 차량의 진입-방향분석 및 비교하여, 대기 차량의 진입-방향이 ‘우회전’일 때, 접근-방향이 ‘좌측’인 접근-차량을 상충 객체로 검출하고, 대기 차량의 진입-방향이 ‘좌회전’일 때, 접근-방향이 ‘좌측’ 또는 ‘우측’인 접근-차량 모두를 상충 객체로 검출하는 상충 객체 검출모듈; 상기 상충 객체 검출모듈에서 상충 객체가 검출될 때 실행되며, 상기 차량/교통정보 생성부에서 생성된 차량 정보의 위치 및 속도 정보를 활용하여, 교차로(S)까지의 거리(D)를 산출한 후, 거리(D)를 속도로 나누어, 해당 상충 객체가 현재 위치로부터 교차로(S)를 통과할 때까지의 경과시간인 도착 경과시간(△T)을 산출하는 도착 경과시간(△T) 산출모듈; 상기 도착 경과시간(△T) 산출모듈에서 산출된 도착 경과시간(△T)을, 기 차량이 우회전 또는 좌회전하는데 필요한 주행시간의 최솟값인 기 설정된 설정값(TH, Threshold)과 비교하는 비교모듈; 상기 비교모듈에서, 도착 경과시간(△T)이 설정값(TH) 이상이면 충돌이 발생하지 않는다고 예측하고, 도착 경과시간(△T)이 설정값(TH) 미만이면 충돌이 발생한다고 예측하는 충돌예측 판단모듈; 상충 객체 검출모듈 및 상기 충돌예측 판단모듈에서 검출된 상충 객체의 접근-방향과 충돌예측 결과정보를 입력받으며, 상충 객체의 충돌예측 결과정보가 ‘충돌’이면, 대기-차량의 진입 금지를 나타내는 진입 금지 정보를 생성하며, 상충 객체의 충돌예측 결과정보가 ‘미충돌’이면, 대기-차량의 진입을 허용하는 진입 허용 정보를 생성하는 대기 차량 진입/미진입 결정모듈을 포함하고, 상기 진입 유도정보 생성부는 상기 진입 가능 여부 분석부에서 진입 금지 정보가 생성되면, 진입-방향의 진입을 금지하는 내용의 진입 유도정보를 생성하며, 상기 진입 가능 여부 분석부에서 진입 허용 정보가 생성되면, 대기 차량의 진입-방향의 진입을 허용하는 내용의 진입 유도정보를 생성하는 것이 바람직하다.
상기 과제와 해결수단을 갖는 본 발명에 따르면 일측에 제1 접근-차로(S1)의 영상인 제1 접근-영상이 배치되되, 타측에 제2 접근-차로의 영상인 제2 접근-영상이 배치되는 통합 영상이, 진입-차로(S3)에 대향되게 설치되는 디스플레이 패널을 통해 전시됨으로써 접근-차로의 차량 접근에 대한 정보를 영상을 통해 제공하므로, 정보 전달의 효율성 및 효과를 극대화할 뿐만 아니라 시인성 및 가시성을 높여 교통사고를 효과적으로 방지할 수 있으며, 종래의 도로반사경이 낮은 시인성 및 가시성으로 인해 교통사고를 유발하는 문제점을 획기적으로 해결할 수 있게 된다.
또한 본 발명에 의하면 컨트롤러가 통합 영상 생성 시, 감지된 접근-차량의 객체의 테두리에 영상-데이터블록이 표시되도록 통합 영상을 가공함으로써 접근 차량에 대한 시인성 및 가시성을 더욱 개선하여, 교통사고를 더욱 효과적으로 방지할 수 있다.
또한 본 발명에 의하면 컨트롤러가 라이다 센서에 의한 라이다 신호를 분석하여 객체를 감지함과 동시에 AI알고리즘을 이용하여 접근-영상을 분석하여 객체를 감지하며, 두 개의 객체 정보를 캘리브레이션 처리한 후, 차량 접근정보를 생성하며, 통합 영상 생성 시, 하부에 차량 접근정보가 노출되도록 통합 영상을 가공함으로써 영상과 경고 문구를 통해, 대기 차량 운전자에게 안전한 교차로 진입을 안내 및 통제할 수 있게 된다.
또한 본 발명에 의하면 컨트롤러가 대기 차량 감지 시, 대기 차량의 이동-방향을 검출한 후, 검출된 이동-방향에 따라 교차로 진입이 가능한지 여부를 판단하여, 판단 결과를 나타내는 안내 문구가 통합 영상의 하부에 노출되도록 통합 영상을 가공함으로써 대기 차량의 이동하고자 하는 방향에 적합한 교차로 진입을 안내할 수 있으므로, 서비스 편의성 및 신뢰도를 높일 수 있게 된다.
또한 본 발명에 의하면 조도, 날씨, 우천 등으로 인해 시정거리가 열악한 환경이더라도, 접근-차로의 차량 접근에 대한 정보를 정확하게 제공할 수 있기 때문에 교통사고 예방 효과를 더욱 극대화할 수 있게 된다.
도 1은 국내등록특허 제10-0870782호(발명의 명칭 : 사각지대용 반사경 및 이를 이용한 교통안전 시스템)에 개시된 사각지대용 반사경을 나타내는 블록도이다.
도 2는 본 발명의 일실시예인 삼거리 차량 진입 안내 시스템을 나타내는 구성도이다.
도 3은 도 2를 설명하기 위한 개념도이다.
도 4는 도 2의 예시도이다.
도 5는 도 2의 차량 진입 안내장치를 나타내는 블록도이다.
도 6은 도 5의 개념도이다.
도 7은 도 5의 예시도이다.
도 8은 도 5의 카메라부를 나타내는 블록도이다.
도 9는 도 5의 라이다 센서부를 나타내는 블록도이다.
도 10은 도 5의 컨트롤러를 나타내는 블록도이다.
도 11은 도 10의 영상/공간 정보 융합 처리부를 나타내는 블록도이다.
도 12는 도 11의 영상/공간 정보 융합 처리부를 설명하기 위한 개념도이다.
도 13은 도 10의 통합 영상 생성부를 설명하기 위한 예시도이다.
도 14는 도 8의 카메라부의 제2 실시예를 나타내는 블록도이다.
도 15는 도 10의 컨트롤러의 제2 실시예를 나타내는 블록도이다.
도 16은 도 15의 진입 가능 여부 분석부를 나타내는 블록도이다.
도 17은 도 10의 컨트롤러의 제3 실시예를 나타내는 블록도이다.
도 18은 도 17의 진입-방향 예측부를 나타내는 블록도이다.
이하, 첨부된 도면을 참조하여 본 발명의 일실시예를 설명한다.
도 2는 본 발명의 일실시예인 삼거리 차량 진입 안내 시스템을 나타내는 구성도이고, 도 3은 도 2를 설명하기 위한 개념도이고, 도 4는 도 2의 예시도이다.
도 2 내지 4의 본 발명의 일실시예인 삼거리 차량 진입 안내 시스템(1)은 신호등이 설치되지 않은 교차로에 설치되는 디스플레이 패널을 통해, 접근-차로의 차량 접근 상태를 영상 및 경고 문구를 포함하는 통합 영상을 디스플레이 함으로써 진입-차로의 대기 차량 운전자가 해당 교차로의 다른 차량의 접근상황을 신속하고 정확하게 인지하므로, 교통사고를 효과적으로 절감시킬 뿐만 아니라 조도, 날씨, 우천 등의 외부 환경과 상관없이 운영되어, 서비스 정확성 및 신뢰도를 높일 수 있으며, 주도로의 차량 접근에 대한 정보 전달력, 직관성 및 가시성을 개선하여 종래에 도로반사경의 낮은 시인성 및 가시성으로 인해 교통사고가 발생하는 문제점을 획기적으로 해결하기 위한 것이다.
또한 본 발명의 삼거리 차량 진입 안내 시스템(1)은 도 2 내지 4에 도시된 바와 같이, 각 교차로(S-1, ..., S-N)에 설치되어, 해당 교차로(S)의 진입-차로(S1)의 대기 차량의 이동-방향에 따른 교차로 진입(접근) 여부를 안내하는 차량 진입 안내장치(3-1), ..., (3-N)들과, 차량 진입 안내장치(3-1), ..., (3-N)들로부터 전송받은 영상들을 저장 및 모니터링하는 교통관제센터 서버(5)와, 교통관제센터 서버(5) 및 차량 진입 안내장치(3-1), ..., (3-N)들 사이의 데이터 이동경로를 제공하는 통신망(10)으로 이루어진다.
이때 교차로(S)는 신호등이 설치되지 않은 소도로 진입 교차로이며, 상세하게로는 교차로에 연결되는 주도로(210)와 주도로(210)에 연결되는 소도로(220)로 이루어지고, 이하 교차로(S)를 향해 접근하는 주도로(210)의 차로를 접근-차로(S1), (S2)라고 명칭하기로 하고, 교차로(S)를 향해 접근하는 소도로(S220)의 차로를 진입-차로(S3)라고 명칭하기로 하고, 진입-차로(S3)에서 교차로(S)를 향하는 방향으로 바라보았을 때, 우측에 배치된 접근-차로(S1)를 제1 접근-차로(S1)라고 명칭하기로 하고, 좌측에 배치된 접근-차로(S2)를 제2 접근-차로(S2)라고 명칭하기로 한다.
통신망(10)은 교통관제센터 서버(5) 및 차량 진입 안내장치(3-1), ..., (3-N)들 사이의 데이터 통신을 지원하며, 상세하게로는 광역통신망(WAN), LAN(Local Area Network)망, VAN(Value Added Network)망, 유선통신망 등으로 구현될 수 있다.
교통관제센터 서버(5)는 각 교차로(S-1), ..., (S-N)에 설치된 차량 진입 안내장치(3-1), ..., (3-N)들의 동작을 관리 및 제어한다.
또한 교통관제센터 서버(5)는 차량 진입 안내장치(3-1), ..., (3-N)들로부터 전송받은 차량 정보를 가공하여, 해당 교차로(S)의 교통정보를 생성하며, 생성된 교통정보를 저장 및 모니터링한다.
차량 진입 안내장치(3-1), ..., (3-N)들은 각 교차로(S-1), ..., (S-N)에 설치되어, 진입-차로(S3)의 대기-차량 감지 시, 제1, 2 접근-차로(S1), (S2)의 차량 정보를 분석 및 참조하여, 해당 교차로(S)의 진입 여부를 통제 및 안내하기 위한 장치이다.
또한 차량 진입 안내장치(3)는 해당 교차로(S)의 진입-차로(S3)에 대향되는 위치에 설치, 상세하게로는 진입-차로(S3)의 운전자의 전면 시야에 위치하도록 갓길에 설치된다.
도 5는 도 2의 차량 진입 안내장치를 나타내는 블록도이고, 도 6은 도 5의 개념도이고, 도 7은 도 5의 예시도이다.
차량 진입 안내장치(3)는 도 5 내지 7에 도시된 바와 같이, 차로(S1), (S2), (S3)들 각각을 촬영하여 영상을 획득하는 카메라들을 포함하는 카메라부(301)와, 각 접근-차로(S1, S2)로 라이다(LiDAR) 신호를 송출한 후, 반사되는 신호를 수신받는 라이다 센서들을 포함하는 라이다 센서부(302)와, 후술되는 컨트롤러(300)의 제어에 따라, 영상 및 차량 접근정보를 디스플레이 하는 디스플레이 패널(303)과, 카메라부(301)로부터 입력된 영상들과 라이다 센서부(302)로부터 입력된 라이다 신호를 분석하여, 진입-차로(S3)에서 대기 중인 대기 차량의 교차로 접근 여부에 대한 정보인 차량 접근정보를 생성한 후, 생성된 차량 접근정보가 표시되는 통합 영상을 디스플레이 패널(303)을 통해 전시하는 컨트롤러(Main Controller)(300)로 이루어진다.
이때 차량 진입 안내장치(3)는 도 7에 도시된 바와 같이, 지면에 수직 설치되되, 외면에 안전 운행 문구가 표시되는 지주(304)가 설치되고, 지주(304)의 상부에 디스플레이 패널(303)이 설치되는 것으로 설계될 수 있다.
도 8은 도 5의 카메라부를 나타내는 블록도이다.
도 8의 카메라부(301)는 차량 진입 안내장치(3)와 일체형 또는 독립적으로 설치될 수 있으며, 상세하게로는 디스플레이 패널(303)의 하우징의 외면에 설치되는 것이 바람직하다.
또한 카메라부(301)는 도 8에 도시된 바와 같이, 교차로(S)의 제1 접근-차로(S1)를 촬영하여 제1 접근-영상을 획득하는 제1 카메라(3011)와, 교차로(S)의 제2 접근-차로(S2)를 촬영하여 제2 접근-영상을 획득하는 제2 카메라(3012)로 구성된다.
이때 제1, 2 카메라(3011), (3012)들에 의한 제1, 2 영상들은 컨트롤러(300)에 의해 제1, 2 접근-차로(S1), (S2)들의 차량 감지 등의 연산 처리와 통합 영상의 생성에 활용된다.
또한 카메라부(301)는 제1, 2 카메라(3011), (3012)의 촬영을 통해 제1, 2 접근-영상들이 획득되면, 획득된 제1, 2 접근-영상들을 컨트롤러(300)로 출력한다.
도 9는 도 5의 라이다 센서부를 나타내는 블록도이다.
도 9의 라이다 센서부(302)는 차량 진입 안내장치(3)와 일체형 또는 독립적으로 설치될 수 있으며, 상세하게로는 디스플레이 패널(303)의 하우징에 설치되는 것이 바람직하다.
또한 라이다 센서부(302)는 도 9에 도시된 바와 같이, 교차로(S)의 제1 접근-차로(S1)로 라이다(LiDAR, Light Detection And Ranging) 신호를 송출한 후, 반사되는 신호를 수집하는 제1 라이다 센서(3021)와, 교차로(S)의 제2 접근-차로(S2)로 라이다(LiDAR) 신호를 송출한 후, 반사되는 신호를 수집하는 제2 라이다 센서(3022)로 구성된다.
이때 라이다 센서는 도면에는 도시되지 않았으나, 각면을 형성하는 폴리건 미러와, 폴리건 미러를 회전시키는 구동부와, 회전하는 폴리건 미러를 향하여 라이다(LiDAR) 신호를 출사한 후 반사되는 신호를 수신 받는 라이다 센서로 구성됨으로써 32채널에 대한 라이다 신호에 대한 분석이 가능하여 다양한 수집데이터를 기반으로 차량 등의 객체를 정확하게 감지할 수 있게 된다.
일반적으로, 라이다(LiDAR) 신호는 외부 대상체로 광신호를 조사한 후, 수신되는 광신호의 시간차(Time of flight) 또는 위상차를 검출하여 거리를 측정하며, 레이더와 비교하여 공간 분해능 및 해상도가 우수한 장점으로 인해 종래에 항공 및 위성 분야 등 특수 분야에 한정 사용되었으나, 최근에는 감시정찰 등의 민수 및 국반 분야 로봇, 무인 수상함, 드론 등의 항공기, 산업용 보안 및 안전 분야 등 다양한 분야로 확대 적용되고 있다.
이러한 라이다(LiDAR) 신호는 x, y, z의 3차원 점군(Point Cloud)을 활용하여 실시간으로 입체 영상을 모델링 할 수 있기 때문에 감지된 객체의 궤적을 추적 및 검출하기 위한 용도로 널리 사용되고 있다.
이와 같이 구성되는 라이다 센서부(302)는 제1, 2 라이다 센서(3021), (3022)들에 의해 검출된 포인트 점군(Point cloud) 데이터를 컨트롤러(300)로 출력한다.
디스플레이 패널(303)은 통상의 LED 디스플레이 패널이며, 컨트롤러(300)의 제어에 따라, 통합 영상이 전시된다.
이때 디스플레이 패널(303)은 폭 방향을 기준으로 제1 접근-차로(S1)의 영상 및 제2 접근-차로(S2)의 영상이 양측으로 분할되어 디스플레이 되고, 하부에는 차량 접근정보가 텍스트로 전시됨으로써 진입-차로(S3)의 운전자에게 교차로(S)의 접근 여부에 대한 정보를 정확하고 직관적으로 전달할 수 있게 된다.
도 10은 도 5의 컨트롤러를 나타내는 블록도이다.
컨트롤러(300)는 도 10에 도시된 바와 같이, 제어부(30)와, 메모리(31), 통신 인터페이스부(32), 영상/공간정보 융합 처리부(33), 딥러닝 기반 차량인식 및 분류부(34), 차량/교통정보 생성부(35), 차량 접근정보 생성부(36), 통합 영상 생성부(37), 디스플레이부(38)로 이루어진다.
제어부(30)는 컨트롤러(300)의 O.S(Operating System)이며, 제어대상(31), (32), (33), (34), (35), (36), (37), (38)들의 동작을 관리 및 제어한다.
또한 제어부(30)는 라이다 센서부(302)로부터 출력된 포인트 점군(Point cloud) 데이터를 영상/공간정보 융합 처리부(33)로 입력한다.
또한 제어부(30)는 카메라부(301)의 제1, 2 카메라(3011), (3012)들로부터 출력된 제1, 2 접근-영상들을 영상/공간정보 융합 처리부(33)로 입력한다.
또한 제어부(30)는 영상/공간정보 융합 처리부(33)에서 차량이 감지 및 인식되면, 딥러닝 기반 차량인식 및 분류부(34)를 실행시킨다.
또한 제어부(30)는 통합 영상 생성부(37)에서 통합 영상이 생성되면, 디스플레이부(38)를 실행시킨다.
또한 제어부(30)는 차량/교통정보 생성부(35)에서 생성된 교통정보와, 통합 영상 생성부(37)에서 생성된 통합 영상이 교통관제센터 서버(5)로 전송되도록 통신 인터페이스부(32)를 제어한다.
메모리(31)에는 교차로(S)의 위치정보와, 각 차로(S1, S2, S3)의 위치정보가 기 설정되어 저장된다.
또한 메모리(31)에는 각 카메라(3011, 3012)의 통신 식별정보와, 각 카메라의 기 설정된 촬영영역의 위치정보가 저장된다.
또한 메모리(31)에는 각 라이다 센서(3021), (3022)의 통신 식별정보와, 각 라이다 센서의 기 설정된 감지영역의 위치정보가 저장된다.
또한 메모리(31)에는 각 카메라의 촬영으로 인해 획득된 영상과 통합 영상 생성부(37)에서 생성된 통합 영상이 임시 저장된다.
또한 메모리(31)에는 차량/교통정보 생성부(35)에서 생성된 차량 정보 및 교통정보가 임시 저장된다.
또한 메모리(31)에는 차량 접근정보 생성부(38)에서 생성된 차량 접근정보가 저장된다.
통신 인터페이스부(32)는 통합관제센터 서버(5) 등의 외부 서버와 데이터를 송수신한다.
도 11은 도 10의 영상/공간 정보 융합 처리부를 나타내는 블록도이고, 도 12는 도 11의 영상/공간 정보 융합 처리부를 설명하기 위한 개념도이다.
영상/공간정보 융합 처리부(33)는 도 11과 12에 도시된 바와 같이, 접근-영상 입력모듈(331)과, 딥러닝 기반 접근-영상 분석모듈(332), 차량 인식 및 객체 추출모듈(333), 영상-데이터블록 가공모듈(334), 포인트 점군 데이터 입력모듈(335), 클러스터링 모듈(336), 객체 추출모듈(337), 포인트-데이터블록 가공모듈(338), 캘리브레이션 처리모듈(339), 객체정보 생성모듈(340)로 이루어진다.
접근-영상 입력모듈(331)은 제1 카메라(3011)로부터 제1 접근-영상 또는 제2 카메라(3012)로부터 제2 접근-영상을 입력받는다.
딥러닝 기반 접근-영상 분석모듈(332)은 딥러닝(Deep learning) 기반의 차량인식 알고리즘을 이용하여, 접근-영상 입력모듈(331)을 통해 입력된 접근-영상을 분석하여, 접근-영상 내 차량을 감지 및 인식한다.
차량 인식 및 객체 추출모듈(333)은 딥러닝 기반 접근-영상 분석모듈(332)에서 검출된 분석데이터를 참조 및 활용하여, 접근-영상으로부터 객체(Object)를 추출한다.
영상-데이터블록 가공모듈(334)은 차량 인식 및 객체 추출모듈(333)에서 추출된 객체의 테두리에 인덱스된 영상-데이터블록이 표시되도록 접근-영상을 가공한다.
포인트 점군 데이터 입력모듈(335)은 라이다 센서부(302)로부터 포인트 점군(Point cloud) 데이터를 입력받는다.
클러스터링 모듈(336)은 포인트 점군 데이터 입력모듈(335)을 통해 입력된 포인트 점군(Point cloud) 데이터를 클러스터링(군집화, Clustering) 한다.
객체 추출모듈(337)은 클러스터링 모듈(336)에 의해 군집화된 데이터를 참조 및 활용하여, 접근-영상 내 차량인 객체를 추출한다.
포인트-데이터블록 가공모듈(338)은 객체 추출모듈(337)에 의해 추출된 객체의 테두리에 인덱스된 포인트-데이터블록이 표시되도록 그리드 맵을 가공한다.
캘리브레이션 처리모듈(339)은 동일 객체에 대한 영상-데이터 블록과 포인트-데이터블록을 매칭시키는 캘리브레이션 작업을 진행한다.
일례로, 캘리브레이션 처리모듈(339)은 시간과 위치를 기준으로, 동일 객체에 대한 데이터블록들을 매칭시킬 수 있다.
객체정보 생성모듈(340)은 캘리브레이션 처리모듈(339)에서 검출된 캘리브레이션 결과를 이용하여, 객체정보를 생성한다. 이때 객체정보는 객체의 위치 정보를 포함한다.
딥러닝 기반 차량인식 및 분류부(34)는 딥러닝 방식으로 학습된 AI알고리즘을 이용하여, 영상/공간정보 융합 처리부(33)에서 검출된 객체의 차량번호, 차종, 차폭 등을 인식한다.
이때 AI알고리즘을 이용하여 감지된 차량 객체의 차량번호, 차종, 차폭 등을 검출하는 기술 및 방법은 널리 공지된 기술이기 때문에 상세한 설명은 생략하기로 한다.
차량/교통정보 생성부(35)는 딥러닝 기반 차량인식 및 분류부(34)에서 검출된 객체의 궤적을 트래킹하여, 객체의 속도, 방향 등을 검출한 후, 객체 차량번호, 위치, 속도, 이동 방향 등을 포함하는 차량 정보를 생성하며, 생성된 차량 정보들을 가공 및 참조하여, 해당 교차로(S)의 교통정보를 생성한다.
이때 제어부(30)는 차량/교통정보 생성부(35)에서 차량정보 및 교통정보가 생성되면, 생성된 차량 정보 및 교통정보가 교통관제센터 서버(5)로 전송되도록 통신 인터페이스부(32)를 제어한다.
차량 접근정보 생성부(36)는 차량/교통정보 생성부(35)에서 생성된 차량 정보를 활용 및 참조하여, 차량의 접근-방향을 ‘우측’ 또는 ‘좌측’으로 결정하며, 1)현재 감지된 객체들의 접근-방향이 모두 ‘우측’이면, ‘우측-접근’이라는 차량 접근정보를 생성하고, 2)현재 감지된 객체들의 접근-방향이 모두 ‘좌측’이면, ‘좌측-접근’이라는 차량 접근정보를 생성하고, 3)현재 감지된 객체들의 접근-방향이 ‘우측’ 및 ‘좌측’을 포함하면, ‘양방향-접근’이라는 차량 접근정보를 생성하고, 4)현재 감지된 객체가 존재하지 않으면, ‘접근차량 미감지’라는 차량 접근정보를 생성한다.
도 13은 도 10의 통합 영상 생성부를 설명하기 위한 예시도이다.
통합 영상 생성부(39)는 도 13에 도시된 바와 같이, 제1 접근-차로(S1)의 영상과 제2 접근-차로(S2)의 영상을 좌우로 분할하여 배치되도록 영상들을 매칭시켜, 통합 영상을 생성한다. 이때 접근-차량 객체의 테두리에는 영상-데이터블록이 표시된다.
또한 통합 영상 생성부(39)는 영상 내 객체의 거리가, 기 설정된 임계값 이상이면, 해당 객체 영상을 확대(Zoom-In) 하여 확대 영상이 표시되도록 통합 영상을 가공한다.
또한 통합 영상 생성부(39)는 영상의 하부에, 차량 접근정보가 표시되도록 통합 영상을 가공한다.
디스플레이부(40)는 통합 영상 생성부(39)에서 생성된 통합 영상이 디스플레이 패널(303)을 통해 전시되도록 한다.
도 14는 도 8의 카메라부의 제2 실시예를 나타내는 블록도이다.
도 14의 제2 카메라부(301‘)는 전술하였던 도 8의 카메라부(301)와 동일하게 제1, 2 카메라(3011), (3012)들을 포함하되, 교차로(S)의 진입-차로(S3)를 촬영하여 진입-영상을 획득하는 제3 카메라(3013)를 더 포함한다.
이때 제3 카메라(3013)에 의한 진입-영상은 후술되는 도 15의 제2 컨트롤러(230)에 의해 진입-차로(S3)의 차량 감지 및 이동-방향 예측 등의 연산 처리에 활용되게 된다.
또한 제2 카메라부(301’)는 제3 카메라(3013)의 촬영에 의해 획득된 진입-영상을 후술되는 도 15의 제2 컨트롤러(230)로 출력한다.
도 15는 도 10의 컨트롤러의 제2 실시예를 나타내는 블록도이다.
도 15의 제2 컨트롤러(230)는 본 발명의 컨트롤러의 제2 실시예이고, 전술하였던 도 10의 컨트롤러(300)의 메모리(31)와, 통신 인터페이스부(32), 영상/공간정보 융합 처리부(33), 딥러닝 기반 차량인식 및 분류부(34), 차량/교통정보 생성부(35), 차량 접근정보 생성부(36)를 포함한다.
또한 제2 컨트롤러(230)는 제2 제어부(40)와, 진입-영상 분석 및 대기 차량 감지부(47), 진입-방향 검출부(48), 진입 가능 여부 분석부(49), 진입 유도정보 생성부(50), 제2 통합 영상 생성부(51), 제2 디스플레이부(52)를 더 포함한다.
제2 제어부(40)는 전술하였던 도 10의 제어부(30)와 동일한 동작을 실행하되, 제3 카메라(3013)로부터 진입-영상이 출력되면, 이를 진입-영상 분석 및 대기 차량 감지부(47)로 입력한다.
또한 제2 제어부(40)는 진입-영상 분석 및 대기 차량 감지부(47)에서 진입-차로(S3)의 대기 차량이 감지되면, 진입-방향 검출부(48)를 실행시킨다.
진입-영상 분석 및 대기 차량 감지부(47)는 제3 카메라(3013)로부터 출력된 진입-영상을 입력받으면, 입력된 진입-영상을 분석하여, 대기 차량을 감지 및 인식한다.
이때 제2 제어부(40)는 진입-영상 분석 및 대기 차량 감지부(47)에서 대기 차량이 감지되면 진입-방향 검출부(48)를 실행시킨다.
진입-방향 검출부(48)는 진입-영상 분석 및 대기 차량 감지부(47)에서 대기 차량이 감지될 때, 제2 제어부(40)의 제어에 따라 실행되며, 해당 진입-영상의 대기 차량의 방향지시등을 분석하여, 대기 차량의 진입-방향을 검출한다.
예를 들어, 진입-방향 검출부(48)는 대기 차량이 좌회전 방향지시등을 점등한 경우, 해당 대기 차량의 진입-방향을 ‘좌회전’으로 검출할 수 있고, 대기 차량이 우회전 방향지시등을 점등한 경우, 해당 대기 차량의 진입-방향을 ‘우회전’으로 검출할 수 있고, 대기 차량이 별도의 방향지시등을 점등하지 않은 경우, 해당 대기 차량의 진입-방향을 ‘양방향’으로 검출할 수 있다.
이때 진입-방향 검출부(48)에서 검출된 진입-방향 정보는 제2 제어부(40)의 제어에 따라, 진입 가능 여부 분석부(49)로 입력된다.
도 16은 도 15의 진입 가능 여부 분석부를 나타내는 블록도이다.
진입 가능 여부 분석부(49)는 도 16에 도시된 바와 같이, 데이터 입력모듈(491)과, 접근-방향 검출모듈(492), 상충 객체 검출모듈(493), 도착 경과시간(△T) 산출모듈(494), 비교모듈(495), 충돌예측 판단모듈(496), 대기 차량 진입/미진입 결정모듈(497)로 이루어진다.
데이터 입력모듈(491)은 차량/교통정보 생성부(35)에서 생성된 차량 정보와, 진입-방향 검출부(48)에서 검출된 대기 차량의 진입-방향 정보를 입력받는다.
접근-방향 검출모듈(492)은 데이터 입력모듈(491)을 통해 입력된 차량 정보의 위치 또는 이동 방향 정보를 참조하여, 접근-방향을 검출한다.
예를 들어, 접근-방향 검출모듈(492)은 접근-차량의 객체가 제2 접근-차로(S2)에 위치할 때, 해당 접근-차량의 접근-방향을 ‘좌측’으로 결정할 수 있고, 접근-차량의 객체의 이동 방향이 제1 교차로(S1)로부터 교차로(S)를 향하는 방향일 때, 해당 접근-차량의 접근-방향을 ‘우측’으로 결정할 수 있다.
상충 객체 검출모듈(493)은 데이터 입력모듈(491)을 통해 입력된 대기 차량의 진입-방향과, 접근-방향 검출모듈(492)에 의해 검출된 접근-차량의 접근-방향을 분석 및 비교하여, 접근-차량이 상충되는 객체인 상충 객체인지를 검출한다.
또한 상충 객체 검출모듈(493)은 대기 차량의 진입-방향이 ‘우회전’일때, 접근-방향이 ‘좌측’인 접근-차량을 상충 객체로 검출하고, 접근-방향이 ‘우측’인 접근-차량을 상충 객체가 아니라고 검출할 수 있다.
또한 상충 객체 검출모듈(493)은 대기 차량의 진입-방향이 ‘좌회전’일 때, 접근-방향이 ‘좌측’ 또는 ‘우측’인 접근-차량 모두를 상충 객체로 검출할 수 있다.
이때 제2 제어부(40)는 상충 객체 검출모듈(493)에서 상충 객체가 검출되지 않으면, 진입 가능 여부 분석부(49)의 동작을 종료한 후, 진입 유도정보 생성부(50)를 실행시키되, 상충 객체 검출모듈(493)에서 상충 객체가 검출되면, 도착 경과시간(△T) 산출모듈(494)을 실행시킨다.
도착 경과시간(△T) 산출모듈(494)은 상충 객체 검출모듈(493)에서 상충 객체가 검출될 때, 제2 제어부(40)의 제어에 따라 실행된다.
또한 도착 경과시간(△T) 산출모듈(494)은 데이터 입력모듈(35)을 통해 입력된 차량 정보의 위치 및 속도 정보를 활용하여, 교차로(S)까지의 거리(D)를 산출한 후, 거리(D)를 속도로 나누어, 해당 상충 객체가 현재 위치로부터 교차로(S)를 통과할 때까지의 경과시간인 도착 경과시간(△T)을 산출한다.
비교모듈(495)은 도착 경과시간(△T) 산출모듈(494)에서 산출된 도착 경과시간(△T)을, 기 설정된 설정값(TH, Threshold)과 비교한다.
이때 설정값(TH)은 대기 차량이 우회전 또는 좌회전하는데 필요한 주행시간의 최솟값을 의미한다.
충돌예측 판단모듈(496)은 비교모듈(495)에서, 도착 경과시간(△T)이 설정값(TH) 이상이면 충돌이 발생하지 않는다고 예측하고, 도착 경과시간(△T)이 설정값(TH) 미만이면 충돌이 발생한다고 예측한다.
대기 차량 진입/미진입 결정모듈(497)은 접근-방향 검출모듈(492) 및 충돌예측 판단모듈(496)에서 검출된 상충 객체의 접근-방향과 충돌예측 결과정보를 입력받으며, 상충 객체의 접근-방향과 충돌예측 결과정보를 분석한다.
또한 대기 차량 진입/미진입 결정모듈(497)은 상충 객체의 충돌예측 결과정보가 ‘충돌’이면, 대기-차량의 진입 금지를 나타내는 진입 금지 정보를 생성하며, 상충 객체의 충돌예측 결과정보가 ‘미충돌’이면, 대기-차량의 진입을 허용하는 진입 허용 정보를 생성한다.
진입 유도정보 생성부(50)는 진입 가능 여부 분석부(49)에서 진입 금지 정보가 생성되면, 대기 차량의 진입-방향의 진입을 금지하는 내용의 문구인 진입 유도정보를 생성한다.
또한 진입 유도정보 생성부(50)는 진입 가능 여부 분석부(49)에서 진입 허용 정보가 생성되면, 대기 차량이 진입-방향의 진입하여도 무방하다는 내용의 문구인 진입 유도정보를 생성한다.
제2 통합 영상 생성부(51)는 전술하였던 도 10의 통합 영상 생성부(37)와 동일한 통합 영상을 생성하되, 하부에 차량 접근정보 대신, 진입 유도정보 생성부(50)에서 생성된 진입 유도정보가 노출되도록 통합 영상을 가공한다.
도 17은 도 10의 컨트롤러의 제3 실시예를 나타내는 블록도이다.
도 17의 제3 컨트롤러(930)는 본 발명의 컨트롤러의 제3 실시예이고, 전술하였던 도 15의 제2 컨트롤러(300)의 메모리(31)와, 통신 인터페이스부(32), 영상/공간정보 융합 처리부(33), 딥러닝 기반 차량인식 및 분류부(34), 차량/교통정보 생성부(35), 차량 접근정보 생성부(36), 진입-영상 분석 및 대기 차량 감지부(47), 진입-방향 검출부(48), 진입 가능 여부 분석부(49), 진입 유도정보 생성부(50), 제2 통합 영상 생성부(51)를 포함한다.
또한 제3 컨트롤러(930)는 도 17에 도시된 바와 같이, 제3 제어부(931)와, 이동-데이터 생성부(951), 진입-방향 예측부(952), 제3 진입 가능 여부 분석부(953), 제3 진입 유도정보 생성부(954), 제3 디스플레이부(955)를 더 포함한다
제3 제어부(931)는 전술하였던 도 15의 제2 제어부(40)와 동일한 동작을 실행하되, 진입-방향 검출부(48)에서 진입-방향이 ‘양방향’으로 검출되면, 진입-방향 예측부(952)를 실행시킨다.
즉 본 발명은 대기 차량이 별도의 방향지시등을 점등하지 않은 경우, 진입-방향 예측부(952)에 의해 대기 차량의 진입-방향이 예측되도록 한다.
이동-데이터 생성부(951)는 대기 차량의 이동이 완료될 때 실행되며, 대기 차량의 궤적 정보를 참조하여, 대기 차량의 최종 이동-방향을 검출한 며, 대기 차량의 차량번호, 최종 이동-방향, 이동 시각 등을 매칭시켜 이동-데이터를 생성한다.
이때 이동-데이터 생성부(951)에서 생성된 이동-데이터는 제3 제어부(931)의 제어에 따라 메모리(31)에 저장된다.
도 18은 도 17의 진입-방향 예측부를 나타내는 블록도이다.
도 18의 진입-방향 예측부(952)는 진입-방향 검출부(48)에서 진입-방향이 ‘양방향’으로 검출될 때, 제3 제어부(931)의 제어에 따라 실행된다.
또한 진입-방향 예측부(952)는 도 18에 도시된 바와 같이, 이동-데이터 수집모듈(9521)과, 차량번호 입력모듈(9522), 제1 선별모듈(9523), 제2 선별모듈(9524), 이동-방향 기반 분류모듈(9525), 각 이동-방향별 점유율 산출모듈(9526), 비교모듈(9527), 최종 이동-방향 예측모듈(9528)로 이루어진다.
이동-데이터 수집모듈(9521)은 메모리(31)에 저장된 이동-데이터들을 수집한다.
차량번호 입력모듈(9522)은 차량/교통정보 생성부(35)로부터 대기 차량의 차량번호 정보를 입력받는다.
제1 선별모듈(9523)은 이동-데이터 수집모듈(9521)에 의해 수집된 이동-데이터들 중, 차량번호 입력모듈(9522)을 통해 입력된 차량번호의 이동-데이터들을 선별한다.
제2 선별모듈(9524)은 제1 선별모듈(9523)에 의해 선별된 대기 차량의 이동-데이터들의 이동 시각 정보를 참조하여, 현재 시각을 기준으로 임계 범위에 포함되는 이동 시각을 갖는 이동-데이터들을 선별하되, 현재 시각을 기준으로 임계 범위에 포함되는 이동 시간을 갖는 이동-데이터가 존재하지 않을 때, 임계 범위를 기 설정된 α배 만큼 확장시켜 이동-데이터들을 선별하고, 적어도 한 개 이상의 이동-데이터가 검출될 때까지 과정을 반복한다.
이때 제2 선별모듈(9524)에서, 해당 대기 차량의 이전 이동-데이터가 검출되지 않으면, 제3 제어부(931)는 최종 이동-방향 예측모듈(9528)을 실행시킨다.
이동-방향 기반 분류모듈(9525)은 제2 선별모듈(9524)에 의해 선별된 이동-데이터들을 최종 이동-방향을 기반으로 ‘우회전’ 또는 ‘좌회전’으로 분류시킨다.
각 이동-방향별 점유율 산출모듈(9526)은 이동-방향 기반 분류모듈(9525)에 의해 분류된 데이터들을 활용하여, 각 이동-방향의 점유율을 산출한다.
일례로, 이동-방향 기반 분류모듈(9525)에 의해 ‘우회전’이 1회이고 ‘좌회전’이 9회라고 가정할 때, 각 이동-방향별 점유율 산출모듈(9526)은 ‘좌회전’ 이동-방향의 점유율을 ‘90%’로 산출하되, ‘우회전’ 이동-방향의 점유율을 ‘10%’로 산출할 수 있다.
비교모듈(9527)은 각 이동-방향별 점유율 산출모듈(9526)에서 산출된 점유율들 중, 큰 값을 갖는 이동-방향의 점유율을 추출한 후, 추출된 이동-방향의 점유율을 기 설정된 임계값과 비교한다.
이때 임계값은 해당 대기 차량의 이동-방향을 예측할 수 있는 점유율의 최소값을 의미한다.
최종 이동-방향 예측모듈(9528)은 비교모듈(9527)에서, 추출된 이동-방향의 점유율이 임계값 이상이면, 추출된 이동-방향을 해당 대기 차량의 최종 이동-방향으로 결정한다.
또한 최종 이동-방향 예측모듈(9528)은 비교모듈(9527)에서, 추출된 이동-방향의 점유율이 임계값 미만이면, 해당 대기 차량의 최종 이동-방향을 ‘양방향으로 결정한다.
또한 최종 이동-방향 예측모듈(9528)은 제2 선별모듈(9524)에서, 해당 대기 차량의 이전 이동-데이터가 검출되지 않으면, 해당 대기 차량의 최종 이동-방향을 ‘양방향으로 결정한다.
제3 진입 가능 여부 분석부(953)는 진입-방향 예측부(952)에서 최종 진입-방향이 결정될 때 실행되며, 전술하였던 도 16의 진입 가능 여부 분석부(49)와 동일한 방법으로 해당 대기 차량의 진입 가능 여부를 분석한다.
제3 진입 유도정보 생성부(954)는 전술하였던 도 15의 진입 유도정보 생성부(50)와 동일한 방법으로 제3 진입 유도정보를 생성하고, 제3 디스플레이부(955)는 제3 진입 유도정보 생성부(954)에서 생성된 제3 진입 유도정보가 디스플레이 패널(303)을 통해 전시되도록 한다.
이와 같이 본 발명의 일실시예인 삼거리 차량 진입 안내 시스템(1)은 일측에 제1 접근-차로(S1)의 영상인 제1 접근-영상이 배치되되, 타측에 제2 접근-차로의 영상인 제2 접근-영상이 배치되는 통합 영상이, 진입-차로(S3)에 대향되게 설치되는 디스플레이 패널을 통해 전시됨으로써 접근-차로의 차량 접근에 대한 정보를 영상을 통해 제공하므로, 정보 전달의 효율성 및 효과를 극대화할 뿐만 아니라 시인성 및 가시성을 높여 교통사고를 효과적으로 방지할 수 있으며, 종래의 도로반사경이 낮은 시인성 및 가시성으로 인해 교통사고를 유발하는 문제점을 획기적으로 해결할 수 있게 된다.
또한 본 발명의 삼거리 차량 진입 안내 시스템(1)은 컨트롤러가 통합 영상 생성 시, 감지된 접근-차량의 객체의 테두리에 영상-데이터블록이 표시되도록 통합 영상을 가공함으로써 접근 차량에 대한 시인성 및 가시성을 더욱 개선하여, 교통사고를 더욱 효과적으로 방지할 수 있다.
또한 본 발명의 삼거리 차량 진입 안내 시스템(1)은 컨트롤러가 라이다 센서에 의한 라이다 신호를 분석하여 객체를 감지함과 동시에 AI알고리즘을 이용하여 접근-영상을 분석하여 객체를 감지하며, 두 개의 객체 정보를 캘리브레이션 처리한 후, 차량 접근정보를 생성하며, 통합 영상 생성 시, 하부에 차량 접근정보가 노출되도록 통합 영상을 가공함으로써 영상과 경고 문구를 통해, 대기 차량 운전자에게 안전한 교차로 진입을 안내 및 통제할 수 있게 된다.
또한 본 발명의 삼거리 차량 진입 안내 시스템(1)은 컨트롤러가 대기 차량 감지 시, 대기 차량의 이동-방향을 검출한 후, 검출된 이동-방향에 따라 교차로 진입이 가능한지 여부를 판단하여, 판단 결과를 나타내는 안내 문구가 통합 영상의 하부에 노출되도록 통합 영상을 가공함으로써 대기 차량의 이동하고자 하는 방향에 적합한 교차로 진입을 안내할 수 있으므로, 서비스 편의성 및 신뢰도를 높일 수 있게 된다.
또한 본 발명의 삼거리 차량 진입 안내 시스템(1)은 조도, 날씨, 우천 등으로 인해 시정거리가 열악한 환경이더라도, 접근-차로의 차량 접근에 대한 정보를 정확하게 제공할 수 있기 때문에 교통사고 예방 효과를 더욱 극대화할 수 있게 된다.
1:삼거리 차량 진입 안내 시스템 3:차량 진입 안내장치
5:교통관제센터 서버 10:통신망
30:제어부 31:메모리
32:통신 인터페이스부 33:영상/공간정보 융합 처리부
34:딥러닝 기반 차량인식 및 분류부 35:차량/교통정보 생성부
36:차량 접근정보 생성부 37:통합 영상 생성부
38:디스플레이부 40:제2 제어부
47:진입-영상 분석 및 대기 차량 감지부
48:진입-방향 검출부 49:진입 가능 여부 분석부
50:진입 유도정보 생성부 51:제2 통합 영상 생성부
52:제2 디스플레이부 231:제2 컨트롤러
300:컨트롤러 301:카메라부
302:라이다 센서부 303:디스플레이 패널
491:데이터 입력모듈 492:접근-방향 검출모듈
493:상충 객체 검출모듈 494:도착 경과시간(△T) 산출모듈
495:비교모듈 496:충돌예측 판단모듈
497:대기 차량 진입/미진입 결정모듈

Claims (5)

  1. 주도로와, 주도로에 연결되는 소도로의 교차 지점인 교차로(S)에 설치되는 차량 진입 안내장치에 있어서:
    상기 차량 진입 안내장치는
    디스플레이 패널;
    교차로(S)를 향해 접근하는 양측 주도로의 차로를 제1, 2 접근-차로(S1), (S2)라고 할 때, 제1 접근-차로(S1)를 촬영하여 제1 접근-영상을 획득하는 제1 카메라;
    제2 접근-차로(S2)를 촬영하여 제2 접근-영상을 획득하는 제2 카메라;
    교차로(S)를 향해 접근하는 소도로의 차로를 진입-차로(S3)라고 할 때, 진입-차로(S3)를 촬영하여 진입-영상을 획득하는 제3 카메라;
    상기 제1 카메라에 의해 획득된 제1 접근-영상과, 상기 제2 카메라에 의해 획득된 제2 접근-영상을 병합하여 통합 영상을 생성한 후, 상기 디스플레이 패널을 통해 전시하는 컨트롤러를 포함하고,
    상기 컨트롤러는
    메모리;
    상기 제1 카메라 또는 상기 제2 카메라로부터 출력된 제1 접근-영상 또는 제2 접근-영상을 분석하여 차량 객체를 인식함과 동시에 차량 객체의 위치를 포함하는 객체정보를 생성하는 영상/공간정보 융합 처리부;
    상기 영상/공간정보 융합 처리부에서 검출된 차량 객체의 궤적을 추적하여, 차량의 위치 및 속도를 포함하는 차량 정보를 생성하는 차량/교통정보 생성부;
    상기 차량/교통정보 생성부에서 생성된 차량 정보를 활용 및 참조하여, 차량의 접근-방향을 ‘우측’ 또는 ‘좌측’으로 결정하며, 1)현재 감지된 객체들의 접근-방향이 모두 ‘우측’이면, ‘우측-접근’이라는 차량 접근정보를 생성하고, 2)현재 감지된 객체들의 접근-방향이 모두 ‘좌측’이면, ‘좌측-접근’이라는 차량 접근정보를 생성하고, 3)현재 감지된 객체들의 접근-방향이 ‘우측’ 및 ‘좌측’을 포함하면, ‘양방향-접근’이라는 차량 접근정보를 생성하고, 4)현재 감지된 객체가 존재하지 않으면, ‘접근차량 미감지’라는 차량 접근정보를 생성하는 차량 접근정보 생성부;
    상기 제3 카메라로부터 입력된 진입-영상을 분석하여, 대기 차량을 감지하는 진입-영상 분석 및 대기 차량 감지부;
    상기 진입-영상 분석 및 대기 차량 감지부에서 감지된 대기 차량의 방향지시등을 분석하여, ‘좌회전’, ‘우회전’ 및 ‘양방향’ 중 어느 하나로 대기 차량의 진입-방향을 검출하는 진입-방향 검출부;
    상기 차량 접근정보 생성부에서 생성된 차량 접근정보의 접근-방향과, 상기 진입-방향 검출부에서 검출된 진입-방향을 활용하여, 대기 차량의 진입-방향이 ‘우회전’일 때, 접근-방향이 ‘좌측’인 접근-차량을 상충 객체로 결정하되, 대기 차량의 진입-방향이 ‘좌회전’일 때, 접근-방향이 ‘좌측’ 또는 ‘우측’인 접근-차량 모두를 상충 객체로 결정하는 진입 가능 여부 분석부;
    상기 진입 가능 여부 분석부에서 상충 객체가 존재하면, 대기 차량의 진입-방향의 진입을 금지하는 내용의 진입 유도정보를 생성하며, 상충 객체가 존재하지 않으면, 대기 차량의 진입-방향의 진입을 허용하는 내용의 진입 유도정보를 생성하는 진입 유도정보 생성부;
    대기 차량의 이동이 완료되면, 대기 차량의 궤적 정보를 참조하여, 대기 차량의 최종 이동-방향을 검출한 후, 대기 차량의 차량번호, 최종 이동-방향 및 이동 시각을 매칭시켜 이동-데이터를 생성한 후, 상기 메모리에 저장하는 이동-데이터 생성부;
    상기 진입-방향 검출부에서 진입-방향이 ‘양방향’이면, 대기 차량의 진입-방향을 예측하는 진입-방향 예측부;
    상기 진입-방향 예측부에서 대기 차량의 진입-방향이 예측되면, 상기 진입 가능 여부 분석부와 동일한 방법으로 대기 차량의 진입 가능 여부를 분석하는 제3 진입 가능 여부 분석부;
    상기 진입 유도정보 생성부와 동일한 방법으로 제3 진입 유도정보를 생성하는 제3 진입 유도정보 생성부;
    통합 영상을 생성하되, 하부에 상기 차량 접근정보 생성부에서 생성된 차량 접근정보에 대응하는 문구, 상기 진입 유도정보 생성부에서 생성된 진입 유도정보에 대응하는 문구 또는 상기 제3 진입 유도정보 생성부에서 생성된 제3 진입 유도정보가 노출되도록 통합 영상을 가공하는 통합 영상 생성부를 포함하고,
    상기 진입-방향 예측부는
    상기 메모리에 저장된 이동-데이터들을 수집하는 이동-데이터 수집모듈;
    상기 차량/교통정보 생성부로부터 대기 차량의 차량번호 정보를 입력받는 차량번호 입력모듈;
    상기 이동-데이터 수집모듈에 의해 수집된 이동-데이터들 중, 상기 차량번호 입력모듈을 통해 입력된 차량번호의 이동-데이터들을 선별하는 제1 선별모듈;
    상기 제1 선별모듈에 의해 선별된 대기 차량의 이동-데이터들의 이동 시각 정보를 참조하여, 현재 시각을 기준으로 임계 범위에 포함되는 이동 시각을 갖는 이동-데이터들을 선별하되, 현재 시각을 기준으로 임계 범위에 포함되는 이동 시간을 갖는 이동-데이터가 존재하지 않을 때, 임계 범위를 기 설정된 α배 만큼 확장시켜 이동-데이터들을 선별하고, 적어도 한 개 이상의 이동-데이터가 검출될 때까지 과정을 반복하는 제2 선별모듈;
    상기 제2 선별모듈에 의해 선별된 이동-데이터들을 최종 이동-방향을 기반으로 ‘우회전’ 또는 ‘좌회전’으로 분류시키는 이동-방향 기반 분류모듈;
    상기 이동-방향 기반 분류모듈에 의해 분류된 데이터들을 활용하여, 각 이동-방향의 점유율을 산출하는 각 이동-방향별 점유율 산출모듈;
    상기 각 이동-방향별 점유율 산출모듈에서 산출된 점유율들 중, 큰 값을 갖는 이동-방향의 점유율을 추출한 후, 추출된 이동-방향의 점유율을, 대기 차량의 이동-방향을 예측할 수 있는 점유율의 최솟값인 기 설정된 임계값과 비교하는 비교모듈;
    상기 비교모듈에서, 추출된 이동-방향의 점유율이 상기 임계값 이상이면, 추출된 이동-방향을 대기 차량의 최종 이동-방향으로 결정하며, 추출된 이동-방향의 점유율이 상기 임계값 미만이면, 대기 차량의 최종 이동-방향을 ‘양방향’으로 결정하며, 대기 차량의 이전 이동-데이터가 검출되지 않으면, 해당 대기 차량의 최종 이동-방향을 ‘양방향’으로 결정하는 최종 이동-방향 예측모듈을 포함하는 것을 특징으로 하는 차량 진입 안내장치.
  2. 제1항에 있어서, 상기 차량 진입 안내장치는
    제1 접근-차로(S1)로 라이다(LiDAR) 신호를 송출한 후 반사 신호를 수신받는 제1 라이다 센서와, 제2 접근-차로(S2)로 라이다(LiDAR) 신호를 송출한 후 반사 신호를 수신받는 제2 라이다 센서를 더 포함하고,
    상기 영상/공간정보 융합 처리부는
    상기 제1 라이다 센서 또는 상기 제2 라이다 센서로부터 출력된 포인트 점군(Point cloud) 데이터를 분석하여 차량 객체를 인식하며, 영상에 의한 차량 객체와 라이다 신호에 의한 차량 객체를 캘리브레이션 처리하여, 차량 객체의 위치를 포함하는 객체정보를 생성하는 것을 특징으로 하는 차량 진입 안내장치.
  3. 제2항에 있어서, 상기 영상/공간정보 융합 처리부는
    상기 제1 카메라 또는 상기 제2 카메라로부터 출력된 제1 접근-영상 또는 제2 접근-영상을 분석하여, 차량을 감지 및 인식한 후, 객체(Object)를 추출하는 차량 인식 및 객체 추출모듈;
    상기 차량 인식 및 객체 추출모듈에서 추출된 객체의 테두리에 인덱스된 영상-데이터블록이 표시되도록 접근-영상을 가공하는 영상-데이터블록 가공모듈;
    상기 제1 라이다 센서 또는 상기 제2 라이다 센서로부터 입력된 포인트 점군(Point cloud) 데이터를 클러스터링(군집화, Clustering) 하는 클러스터링 모듈;
    상기 클러스터링 모듈에 의해 군집화된 데이터를 참조 및 활용하여, 접근-영상 내 차량인 객체를 추출하는 객체 추출모듈;
    상기 객체 추출모듈에 의해 추출된 객체의 테두리에 인덱스된 포인트-데이터블록이 표시되도록 그리드 맵을 가공하는 포인트-데이터블록 가공모듈;
    동일 객체에 대한 영상-데이터 블록과 포인트-데이터블록을 매칭시키는 캘리브레이션 작업을 진행하는 캘리브레이션 처리모듈;
    상기 캘리브레이션 처리모듈에서 검출된 캘리브레이션 결과를 이용하여, 객체정보를 생성하는 객체정보 생성모듈을 포함하는 것을 특징으로 하는 차량 진입 안내장치.
  4. 삭제
  5. 제3항에 있어서, 상기 진입 가능 여부 분석부는
    상기 차량 접근정보 생성부에서 생성된 차량 접근정보와, 상기 진입-방향 검출부에서 검출된 대기 차량의 진입-방향 정보를 입력받는 데이터 입력모듈;
    상기 데이터 입력모듈을 통해 입력된 차량 접근정보와, 대기 차량의 진입-방향분석 및 비교하여, 대기 차량의 진입-방향이 ‘우회전’일 때, 접근-방향이 ‘좌측’인 접근-차량을 상충 객체로 검출하고, 대기 차량의 진입-방향이 ‘좌회전’일 때, 접근-방향이 ‘좌측’ 또는 ‘우측’인 접근-차량 모두를 상충 객체로 검출하는 상충 객체 검출모듈;
    상기 상충 객체 검출모듈에서 상충 객체가 검출될 때 실행되며, 상기 차량/교통정보 생성부에서 생성된 차량 정보의 위치 및 속도 정보를 활용하여, 교차로(S)까지의 거리(D)를 산출한 후, 거리(D)를 속도로 나누어, 해당 상충 객체가 현재 위치로부터 교차로(S)를 통과할 때까지의 경과시간인 도착 경과시간(△T)을 산출하는 도착 경과시간(△T) 산출모듈;
    상기 도착 경과시간(△T) 산출모듈에서 산출된 도착 경과시간(△T)을, 기 차량이 우회전 또는 좌회전하는데 필요한 주행시간의 최솟값인 기 설정된 설정값(TH, Threshold)과 비교하는 비교모듈;
    상기 비교모듈에서, 도착 경과시간(△T)이 설정값(TH) 이상이면 충돌이 발생하지 않는다고 예측하고, 도착 경과시간(△T)이 설정값(TH) 미만이면 충돌이 발생한다고 예측하는 충돌예측 판단모듈;
    상기 상충 객체 검출모듈 및 상기 충돌예측 판단모듈에서 검출된 상충 객체의 접근-방향과 충돌예측 결과정보를 입력받으며, 상충 객체의 충돌예측 결과정보가 ‘충돌’이면, 대기-차량의 진입 금지를 나타내는 진입 금지 정보를 생성하며, 상충 객체의 충돌예측 결과정보가 ‘미충돌’이면, 대기-차량의 진입을 허용하는 진입 허용 정보를 생성하는 대기 차량 진입/미진입 결정모듈을 포함하고,
    상기 진입 유도정보 생성부는
    상기 진입 가능 여부 분석부에서 진입 금지 정보가 생성되면, 진입-방향의 진입을 금지하는 내용의 진입 유도정보를 생성하며, 상기 진입 가능 여부 분석부에서 진입 허용 정보가 생성되면, 대기 차량의 진입-방향의 진입을 허용하는 내용의 진입 유도정보를 생성하는 것을 특징으로 하는 차량 진입 안내장치.
KR1020230102622A 2023-08-07 2023-08-07 교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템 KR102646041B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230102622A KR102646041B1 (ko) 2023-08-07 2023-08-07 교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230102622A KR102646041B1 (ko) 2023-08-07 2023-08-07 교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템

Publications (1)

Publication Number Publication Date
KR102646041B1 true KR102646041B1 (ko) 2024-03-11

Family

ID=90248858

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230102622A KR102646041B1 (ko) 2023-08-07 2023-08-07 교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템

Country Status (1)

Country Link
KR (1) KR102646041B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101899549B1 (ko) * 2017-12-27 2018-09-17 재단법인 경북아이티융합 산업기술원 카메라 및 라이다 센서를 이용한 장애물 인식 장치 및 그 방법
KR102351476B1 (ko) * 2020-07-20 2022-01-17 렉스젠(주) 객체 충돌 예측을 위한 장치, 시스템 및 방법
KR102428420B1 (ko) * 2020-12-16 2022-08-03 한국건설기술연구원 사각지대 안전을 위한 스마트 도로정보제공 시스템
KR20220150479A (ko) * 2021-05-03 2022-11-11 한국건설기술연구원 방범용 cctv를 이용한 도로상황 예측정보 제공장치 및 방법
KR20230048817A (ko) * 2021-10-05 2023-04-12 정선희 삼거리의 교통 상황 알림 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101899549B1 (ko) * 2017-12-27 2018-09-17 재단법인 경북아이티융합 산업기술원 카메라 및 라이다 센서를 이용한 장애물 인식 장치 및 그 방법
KR102351476B1 (ko) * 2020-07-20 2022-01-17 렉스젠(주) 객체 충돌 예측을 위한 장치, 시스템 및 방법
KR102428420B1 (ko) * 2020-12-16 2022-08-03 한국건설기술연구원 사각지대 안전을 위한 스마트 도로정보제공 시스템
KR20220150479A (ko) * 2021-05-03 2022-11-11 한국건설기술연구원 방범용 cctv를 이용한 도로상황 예측정보 제공장치 및 방법
KR20230048817A (ko) * 2021-10-05 2023-04-12 정선희 삼거리의 교통 상황 알림 장치

Similar Documents

Publication Publication Date Title
KR102189569B1 (ko) 다기능 스마트 객체인식 사고방지 표지 안내판 및 그것을 이용한 사고방지방법
US10077007B2 (en) Sidepod stereo camera system for an autonomous vehicle
EP1930863B1 (en) Detecting and recognizing traffic signs
US9524643B2 (en) Orientation sensitive traffic collision warning system
KR101967610B1 (ko) 다차로 차량속도 및 차량번호 인식이 가능한 다차로 모니터링 시스템
JP7119365B2 (ja) 運転行動データ生成装置、運転行動データベース
US11914041B2 (en) Detection device and detection system
US20200098270A1 (en) Method And Device For Providing An Environmental Image Of An Environment Of A Mobile Apparatus And Motor Vehicle With Such A Device
KR20160142182A (ko) Its 현장장비 통합 제어 장치 및 이를 포함하는 its 현장장비 통합 제어 시스템
KR102062589B1 (ko) 어린이 보호구역 스마트 통합안내판 및 이를 이용한 통합 감시시스템
KR102211552B1 (ko) 역주행 방지 방법 및 장치
CN102779430A (zh) 基于视觉的夜间后碰撞警告系统、控制器及其操作方法
KR102101956B1 (ko) 보행자 검지를 이용한 어린이보호구역 단속시스템
CN114945493A (zh) 协作式交通工具前灯引导
CN111252066A (zh) 紧急制动控制方法、装置、车辆及存储介质
US20210208282A1 (en) Detection device and detection system
KR20200059755A (ko) 라이다 센서 검증시험 모의장치
KR20220096359A (ko) Ai 디스플레이 장치 및 이를 이용한 충돌 방지시스템
KR20200058613A (ko) 관제시스템을 이용한 자율주행차량의 교차로 통과지원장치 및 방법
KR102526969B1 (ko) 스마트 반사경 장치
Zheng Developing a traffic safety diagnostics system for unmanned aerial vehicles usingdeep learning algorithms
KR102646041B1 (ko) 교통사고 방지 효과를 높인 삼거리 차량 진입 안내 시스템
KR20240005944A (ko) 박스 예측을 사용한 lidar 포인트 클라우드 세그먼트화 개선
KR20230052443A (ko) 스마트 반사경 장치
EP4060643B1 (en) Traffic signal recognition method and traffic signal recognition device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant