KR102472075B1 - 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법 - Google Patents

실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법 Download PDF

Info

Publication number
KR102472075B1
KR102472075B1 KR1020220086645A KR20220086645A KR102472075B1 KR 102472075 B1 KR102472075 B1 KR 102472075B1 KR 1020220086645 A KR1020220086645 A KR 1020220086645A KR 20220086645 A KR20220086645 A KR 20220086645A KR 102472075 B1 KR102472075 B1 KR 102472075B1
Authority
KR
South Korea
Prior art keywords
information
image data
unit
vehicle
unexpected situation
Prior art date
Application number
KR1020220086645A
Other languages
English (en)
Inventor
이재현
이가혜
전영민
김준기
문태웅
Original Assignee
주식회사 비츠에스앤지
한국비전기술(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비츠에스앤지, 한국비전기술(주) filed Critical 주식회사 비츠에스앤지
Priority to KR1020220086645A priority Critical patent/KR102472075B1/ko
Application granted granted Critical
Publication of KR102472075B1 publication Critical patent/KR102472075B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 시스템은 CCTV, 전광판 등의 구조물 등에 설치되어 도로의 안/밖을 촬영 및 레이다 센싱하는 복수의 CCTV; 상기 복수의 CCTV와 연동되어 상기 CCTV를 통해 촬영된 영상 데이터 및 레이다 신호를 수집 및 학습하여 차선 안/밖의 돌발상황을 자동분석 및 예측하는 분석예측서버; 및 상기 돌발상황의 종류를 학습한 학습결과를 상기 분석예측서버로 제공하는 AI 데이터 학습서버를 포함한다.

Description

실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법{System and method for supporting automatic detection service based on real-time road image and radar signal analysis results}
본 발명은 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법에 관한 것이다.
운전보조장치, 자율주행 기술 등의 발달로 인해 최근 자동차를 이용하는 운전자는 운전 과정에서 운전자 조작이 점차 감소하며 자동차가 점차 자동화, 무인화 되고 있는 추세이다.
무인 운전 또는 자율주행 기술은 운전자의 조작 없이 자동차가 스스로 주행 환경을 인식하며 목표지점까지 운행하게 되는 기술이며 스스로 위치를 파악하고 장애물을 인식할 수 있는 감지 시스템과 이에 따라 감속 및 가속, 조향 등의 명령을 내리는 제어장치, 명령에 따라 필요한 작동을 하는 액추에이터 등으로 구분할 수 있다.
자율주행 기술에서 자동차의 구동관련 장치인 조향, 가속, 감속 등을 제어하는 기계적 자동운행 기술은 일정 수준에 올라 완성도가 높아지고 있으나 주행환경 즉, 도로 내 발생하는 사고에 의한 급정지나 차선이탈, 역주행차량, 보행자(배회자), 낙하물 등과 같이 갑자기 발생하는 돌발상황에 대응하는 인지, 판단하는 기술은 상대적으로 부족한 실정으로 이를 보완하기 위해 도로 인프라에서 위험상황 정보를 수집하여 운전자와 관리자에게 제공하는 기술이 개발되고 있다.
대한민국 공개특허 제2011-0099992호(2011년09월09일 공개, 발명의 명칭 "실시간 교통상황 검 지 시스템") 대한민국 공개특허 제2011-0082870호(2011년07월20일 공개, 발명의 명칭 "실시간 교통정보 측 정·도로정보 안내장치 및 방법") 일본 공개특허 제2010-136031호(2010년06월17호 공개, 발명의 명칭 "감시장치") 일본 공개특허 제2010-086070호(2010년04월15일 공개, 발명의 명칭 "도로교통 정보 제공 시스 템 및 방법")
본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법을 제공하는 데 그 목적이 있다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템은 CCTV, 전광판 구조물 등에 설치되어 도로의 안/밖을 촬영 및 레이다 센싱하는 복수의 CCTV; 상기 복수의 CCTV와 연동되어 상기 CCTV를 통해 촬영된 영상 데이터 및 레이다 신호를 수집 및 학습하여 차선 안/밖의 돌발상황을 자동분석 및 예측하는 분석예측서버; 및 상기 돌발상황의 종류를 학습한 학습결과를 상기 분석예측서버로 제공하는 AI 데이터 학습서버를 포함하고, 상기 분석예측서버는 영상 데이터 및 레이다 신호를 기초로 기 설정된 도로의 주변환경 내에 객체(차량 제외)의 움직임을 감지하고, 상기 객체의 위치변화에 따른 진행방향, 속도를 분석하는 객체정보 분석부; 상기 영상 데이터 내의 차량을 인식한 후, 인식된 차량의 위치, 크기, 속도, 차선 변화를 분석하는 차량정보 분석부; 상기 객체정보 분석부 및 상기 차량정보 분석부에서 분석된 차량 및 객체를 기초로 각 영상 데이터 내에서 연속성을 갖는 객체 및 차량을 추적하고, 불규칙적 움직임 패턴을 갖는 객체 및 차량을 돌발상황 대상개체로 지정하는 돌발상황 대상개체 선정부; 상기 객체정보 분석부 및 상기 차량정보 분석부에서 분석된 차량 및 객체를 기초로 각 영상 데이터 내에서 차량 및/또는 객체 간의 충돌, 추돌, 차선이탈, 낙하물, 역주행차량, 보행자(배회자) 중 어느 하나의 돌발상황을 AI 데이터 학습서버로부터 제공된 기 학습된 AI모델을 근거로 돌발상황을 예측하고, 상기 영상 데이터 내의 객체 간, 차량 간, 객체 및/또는 차량간의 위치와 기 학습된 학습결과를 비교하여 돌발상황 유무를 검지하는 돌발상황 검지 및 예측부; 및 상기 영상 데이터 및 레이다 신호 상에서 객체 간, 차량 간, 객체 및/또는 차량 간의 돌발상황을 인식하면, 돌발상황 대상개체 선정부에서 지정한 객체 및/또는 차량이 일 시점부터 돌발상황이 발생된 시점까지의 영상 데이터 내에서 움직이는 행동 패턴 또는 움직임 패턴을 분석하는 움직임 패턴 분석부를 포함하고, 상기 객체정보 분석부는 영상 데이터를 컴퓨터 비젼 영상처리 기법을 적용하여 차선을 인식하고, 인식된 차선을 통해 차로(traffic path)를 검출하고, 상기 AI 데이터 학습서버는 상기 분석예측서버에서 지정된 돌발상황 대상개체가 돌발상황에 대한 직접인자 또는 간접인자 유무를 판단한 후, 직접인자일 경우, 기 설정된 시점부터 돌발상황이 발생한 시점까지의 상기 돌발상황 대상개체의 움직임 패턴을 학습하는 것을 특징으로 한다.
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
본 발명의 일 실시예에 따른 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법을 이용하면, 도로 내에서 발생하는 다양한 돌발상황에 대해 다양한 환경에서의 양질의 학습데이터를 취득하여 정확한 돌발상황 발생 정보를 취득할 수 있고, 이를 기초로 돌발상황을 예방하거나 또는 돌발상황에 따른 피해를 최소화시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템의 네트워크 구성도이다.
도 2는 도 1에 도시된 CCTV의 세부 구성도이다.
도 3은 도 1에 도시된 분석예측서버의 세부 구성도이다.
도 4는 본 발명의 일 실시예에 따른 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 방법을 설명한 흐름도이다.
도 5는 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도이다.
이하, 본 명세서의 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 명세서에 기재된 기술을 특정한 실시 형태에 대해 한정하는 것이 아니며, 본 명세서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 명세서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 명세서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 명세서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 명세서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다.
예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 명세서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 명세서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 명세서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 명세서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 명세서에서 정의된 용어일지라도 본 명세서의 실시예들을 배제하도록 해석될 수 없다.
이하, 첨부된 도면을 기초로 본 발명의 일 실시예에 따른 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법을 보다 상세하게 설명하도록 하다.
도 1은 본 발명의 일 실시예에 따른 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템의 네트워크 구성도이고, 도 2는 도 1에 도시된 CCTV의 세부 구성도이고, 도 3은 도 1에 도시된 분석예측서버의 세부 구성도이다.
먼저, 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 실시간 도로영상 분석에 기반한 돌발상황 자동검지 서비스를 지원하는 시스템(100)은 복수의 CCTV(200), 분석예측서버(300) 및 AI 데이터 학습서버(400)를 포함한다.
각 구성은 네트워크로 통신하면, 상기 네트워크는 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일예에는 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.
상기 CCTV(200)는 CCTV, 전광판 구조물 등에 설치되어 도로를 촬영하는 구성으로, 제1 촬영부(210), 제2 촬영부(220), 레이다 센서부(230), 데이터 수집부(240), 데이터 처리부(250) 및 통신부(250)를 포함한다.
상기 제1 촬영부(210)는 차량의 주행 방향을 촬영하는 구성이고, 제2 촬영부(220)는 상기 차량의 주행 반대방향을 요청시 선택적으로 촬영하는 구성이다. 제2 촬영부(220)는 CCTV(200)의 선택 구성일 수 있다.
상기 레이다 센서부(230)는 FMCW(Frequency Modulated Continuous Wave) 레이다 센서로 객체(사람, 차량 등)를 감지하여 레이다 센서 신호를 취득하는 구성일 수 있다.
데이터 수집부(240)는 제1 촬영부(210), 제2 촬영부(220)에서 촬영된 영상 데이터 및 레이다 센서부(230)에서 취득한 레이다 신호를 수집하는 구성일 수 있다.
상기 데이터 처리부(250)는 수집된 영상 데이터의 촬영구간에 감지된 객체좌표가 기록되도록 가공처리하고, 또한, 수집한 레이다 신호로부터 감지된 객체까지의 거리를 나타내는 레이다 센서 신호, 객체 속도를 나타내는 레이다 센서 신호, 객체에 대한 각도를 나타내는 레이다 센서 신호를 추출한 후, 감지된 객체까지의 거리를 나타내는 레이다 신호의 세기를 객체가 지정된 거리에 있을 때, 반복 측정되는 레이다 신호의 세기를 평준화하는 방식, 영상 데이터와 레이다 신호의 객체 감지 결과를 결합한 데이터로 교차 검증하는 방식으로, 감지된 객체 정보의 인지 정확도를 향상시키도록 처리하는 구성일 수 있다.
통신부(250)는 데이터 처리부(250)에서 처리된 데이터를 기 설정된 통신방식(유/무선 통신)으로 후술하는 분석예측서버(300)로 전송하는 구성일 수 있다.
여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.
한편, CCTV(200)는 데이터 처리부(250)의 처리결과에 따라 제1 촬영부(210) 및 제2 촬영부(220), 레이다 센서부(230)의 위치를 보정하기 위한 위치보정부(245)를 더 포함할 수 있다.
상기 위치보정부(245)는 외부 환경으로 인하여 제1 촬영부(210) 및 제2 촬영부(220), 레이다 센서부(230)의 방향각이 세팅값을 벗어날 경우, 자동으로 방향각을 보정하는 구성일 수 있다.
다음으로, 분석예측서버(300)는 상기 복수의 CCTV와 연동되어 상기 CCTV를 통해 촬영된 영상 데이터 및 레이다 신호를 수집 및 학습하여 차선 안/밖의 돌발상황을 자동분석 및 예측하는 구성일 수 있다.
보다 구체적으로, 분석예측서버(300)는 정보수집부(310), 정보분석부(320), 돌발상황 대상개체 선정부(330), 돌발상황 검지 및 예측부(340), 움직임 패턴 분석부(350)를 포함한다.
상기 정보 수집부(310)는 기 설정된 도로 주변에 위치하는 CCTV로부터 해당 도로를 촬영한 영상 데이터 및 해당 도로 주변의 객체를 감지한 레이다 신호를 수집하는 구성일 수 있다.
또한, 상기 정보 수집부(310)는 외부서버로부터 해당 CCTV가 위치한 지역의 환경정보(기상정보 등)을 수집하는 구성일 수 있다.
다음으로, 상기 정보분석부(320)는 정보수집부(310)에서 수집된 영상 데이터, 레이다 신호, 환경정보를 분석하는 구성으로, 객체정보 분석부(321), 환경정보 분석부(322) 및 차량정보 분석부(323)를 포함한다.
객체정보 분석부(321)는 영상 데이터 및 레이다 신호를 기초로 기 설정된 도로의 주변환경 내에 객체(차량 제외)의 움직임을 감지하고, 상기 객체의 위치변화에 따른 진행방향, 속도를 분석하는 구성일 수 있다.
또한, 객체정보 분석부(321)는 영상 데이터를 컴퓨터 비젼 영상처리 기법을 적용하여 차선을 인식하고, 인식된 차선을 통해 차로(traffic path)를 검출할 수 있다.
이때, 객체정보 분석부(321)는 영상 데이터에 허프변환 (Hough Transform) 방식, 역변환매핑 (IPM, Inverse Perspective Mapping) 방식, RANSAC line Fitting (RAndom SAmple Consensus) 방식, 베이지어 곡선 정합(Beizer Spline Fitting ) 방식 중 적어도 하나 이상의 알고리즘을 적용하여 차선을 인식할 수 있다. 그러나 이에 한정되는 것은 아니며 그 외의 다양한 방식이나 알고리즘을 이용하여 차선을 인식할 수 있음은 물론이다.
또한, 객체정보 분석부(321)는 영상 데이터 내의 노면 데이터를 이용하여 차선을 인식할 수도 있다.
한편, 소실점(vanishing point)은 물리공간에서 평행한 직선들이 영상에 투영되어 원근효과(perspective effect)에 의해 마치 한 점에서 만나는 것처럼 보이는 점이다. 그리고, 소실선(vanishing line)은 소실점들이 모여서 이루어진 직선이다. 평행한 평면에 속한 직선들의 소실점들은 일직선을 이룬다. 또한 어떤 평면에 대한 소실선(vanishing line)은 이 평면과 수평이고 카메라 원점을 지나는 평면이 이미지 평면과 만나서 생기는 교선이다.
즉, 지면 위의 한 직선을 이미지에 투영해 보면 직선을 무한히 확장하였을 경우 결국 소실선 상의 어느 한 점으로 수렴하게 됨을 쉽게 상상할 수 있다.
영상에서 소실선의 위치는 카메라의 평행이동과는 무관하며 오직 카메라의 자세(3D 회전)에만 영향을 받는다. 따라서 카메라로 촬영된 촬영 이미지에서 소실선의 위치를 알면 캘리브레이션을 하지 않고도 카메라의 팬(pan), 틸트(tilt), 롤(roll)을 알아낼 수 있다.
즉, 소실점/소실선을 이용한 카메라의 3D 자세측정이 가능하다.
그런데, 영상에서 소실점/소실선을 이용하면 이러한 외부 파라미터(extrinsic parameter) 뿐만 아니라 카메라의 내부 파라미터 추정도 가능하다. 즉, 카메라의 초점거리 및 주점의 추정이 가능하다.
다음으로, 환경정보 분석부(322)는 상기 영상 데이터 내의 환경정보를 분석하고, 수집된 환경정보로 분석된 환경정보를 보정하는 구성일 수 있다.
여기서, 환경정보는 해당 영상이 촬영된 시간 정보, 해당 영상 촬영 시점의 조도 정보(일출, 주간, 일몰, 야간 등) 및 기상(기후) 정보(맑음, 비, 눈, 안개, 결빙 등) 중 적어도 하나를 포함하는 정보일 수 있다.
또한, 환경정보는 지리적 정보를 포함할 수 있고, 여기서, 지리적 정보는 해당 영상이 촬영된 특정 지점에 대한 지역 정보(수도권, 충청권, 경상권, 호남권, 강원권 등), 촬영거리, 촬영높이, 도로 종류(고속도로, 일반도로, 지하도로 등) 중 적어도 하나를 포함할 있다.
차량정보 분석부(323)는 영상 데이터 내의 차량을 인식한 후, 인식된 차량의 위치, 크기, 속도, 차선 변화를 분석하는 구성일 수 있다.
여기서, 차량정보 분석부(323)는 CNN(Convolutional Neural Network)과 같은 AI 딥러닝 모델을 기반으로 영상 데이터에서 사전 정의된 객체 유형(차량)을 인지(감지, 분류)할 수 있다.
다음으로, 돌발상황 대상개체 선정부(330)는 정보분석부의 객체정보 분석부 및 차량정보 분석부에서 분석된 차량 및 객체를 기초로 각 영상 데이터 내에서 연속성을 갖는 객체 및 차량을 추적하고, 불규칙적 움직임 패턴을 갖는 객체 및 차량을 돌발상황 대상개체로 지정하는 구성일 수 있다.
다음으로, 돌발상황 검지 및 예측부(340)는 정보분석부에서 분석된 도로교통 정보에 따른 차량 및/또는 객체 간의 충돌, 추돌, 차선이탈, 역주행차량, 보행자(배회자), 낙하물 중 어느 하나의 돌발상황을 후술하는 AI 데이터 학습서버(400)로부터 기 학습된 AI모델을 근거로 돌발상황을 예측하는 구성일 수 있다. 또한, 영상 데이터 내의 객체 간, 차량 간, 객체 및/또는 차량간의 위치와 기 학습된 학습결과를 비교하여 돌발상황 유무를 검지하는 구성일 수 있다.
다음으로, 움직임 패턴 분석부(350)는 해당 도로를 촬영한 영상 데이터 및 해당 도로 주변의 객체를 감지한 레이다 신호 상에서 객체 간, 차량 간, 객체 및/또는 차량 간의 돌발상황을 인식하면, 돌발상황 대상개체 선정부(330)에서 지정한 객체 및/또는 차량이 일 시점부터 돌발상황이 발생된 시점까지의 영상 데이터 내에서 움직이는 행동 패턴 또는 움직임 패턴을 분석하는 구성일 수 있다.
다음으로, 상기 AI 데이터 학습서버(400)는 영상 데이터 내의 객체 간, 차량 간 또는 객체 및 차량 간이 돌발상황으로 인지되면, 상기 분석예측서버(300)에서 지정된 돌발상황 대상개체가 돌발상황에 대한 직접인자 또는 간접인자 유무를 판단한 후, 직접인자일 경우, 기 설정된 시점부터 돌발상황이 발생한 시점까지의 상기 돌발상황 대상개체의 움직임 패턴을 학습한 학습결과를 상기 분석예측서버(300)로 제공하는 구성일 수 있다.
도 4는 본 발명의 일 실시예에 따른 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 방법을 설명한 흐름도이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 방법(S700)은 CCTV, 전광판 구조물 등에 설치되어 도로 안/밖을 촬영 및 레이다 센싱 결과를 분석예측서버로 송출(S710)하면, 분석예측서버(300)에서 받은 영상 데이터 및 레이다 신호를 시간순으로 연결한 후, 영상 데이터 및 레이다 신호로부터 환경정보, 객체정보 및 차량정보를 추출(S720)한 후, 상기 영상 데이터 및 레이다 신호 내에서 연속성을 갖는 객체 및/또는 차량을 추적하고, 불규칙적 움직임 패턴을 갖는 객체 및/또는 차량을 돌발상황 대상개체로 지정(S730)한 후, 기 학습된 돌발상황 학습결과를 기초로 지정된 돌발상황 대상개체의 돌발상황을 예측(S740)한다.
이후, 분석예측서버(300)에서 돌발상황이 검지되면, 지정된 돌발상황 대상개체가 돌발상황에 대한 직접인자 또는 간접인자 유무를 판단한 후, 직접인자일 경우, 기 설정된 시점부터 돌발상황이 발생한 시점까지의 상기 돌발상황 대상개체의 움직임 패턴을 학습하고, 학습결과를 제공(S750)한다.
따라서, 본 발명의 일 실시예에 따른 실시간 도로영상 분석에 기반한 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법을 이용하면, 교통 혼잡과 일시적인 교통류 변동에 의한 돌발상황 오검지 문제점을 해결함으로써, 돌발상황을 신속하고 정확하게 검지할 수 있다는 이점이 있다.
도 5는 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.
컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다.
또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. 여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다. 또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. 여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티(entity)를 지칭하는 것이다.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위의 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 시스템
200: CCTV
210: 제1 촬영부
220: 제2 촬영부
230: 레이다 센서부
240: 데이터 수집부
250: 데이터 처리부
260: 통신부
300: 분석예측서버
310: 정보수집부
320: 정보분석부
330: 돌발상황 대상개체 선정부
340: 돌발상황 검지 및 예측부
350: 움직임 패턴 분석부
400: AI 데이터 학습서버

Claims (11)

  1. CCTV, 전광판 구조물 등에 설치되어 도로의 안/밖을 촬영 및 레이다 센싱하는 복수의 CCTV;
    상기 복수의 CCTV와 연동되어 상기 CCTV를 통해 촬영된 영상 데이터 및 레이다 신호를 수집 및 학습하여 차선 안/밖의 돌발상황을 자동분석 및 예측하는 분석예측서버; 및
    상기 돌발상황의 종류를 학습한 학습결과를 상기 분석예측서버로 제공하는 AI 데이터 학습서버를 포함하고,
    상기 분석예측서버는
    영상 데이터 및 레이다 신호를 기초로 기 설정된 도로의 주변환경 내에 객체(차량 제외)의 움직임을 감지하고, 상기 객체의 위치변화에 따른 진행방향, 속도를 분석하는 객체정보 분석부;
    상기 영상 데이터 내의 차량을 인식한 후, 인식된 차량의 위치, 크기, 속도, 차선 변화를 분석하는 차량정보 분석부;
    상기 객체정보 분석부 및 상기 차량정보 분석부에서 분석된 차량 및 객체를 기초로 각 영상 데이터 내에서 연속성을 갖는 객체 및 차량을 추적하고, 불규칙적 움직임 패턴을 갖는 객체 및 차량을 돌발상황 대상개체로 지정하는 돌발상황 대상개체 선정부;
    상기 객체정보 분석부 및 상기 차량정보 분석부에서 분석된 차량 및 객체를 기초로 각 영상 데이터 내에서 차량 및/또는 객체 간의 충돌, 추돌, 차선이탈, 낙하물, 역주행차량, 보행자(배회자) 중 어느 하나의 돌발상황을 AI 데이터 학습서버로부터 제공된 기 학습된 AI모델을 근거로 돌발상황을 예측하고, 상기 영상 데이터 내의 객체 간, 차량 간, 객체 및/또는 차량간의 위치와 기 학습된 학습결과를 비교하여 돌발상황 유무를 검지하는 돌발상황 검지 및 예측부; 및
    상기 영상 데이터 및 레이다 신호 상에서 객체 간, 차량 간, 객체 및/또는 차량 간의 돌발상황을 인식하면, 돌발상황 대상개체 선정부에서 지정한 객체 및/또는 차량이 일 시점부터 돌발상황이 발생된 시점까지의 영상 데이터 내에서 움직이는 행동 패턴 또는 움직임 패턴을 분석하는 움직임 패턴 분석부를 포함하고,
    상기 객체정보 분석부는 영상 데이터를 컴퓨터 비젼 영상처리 기법을 적용하여 차선을 인식하고, 인식된 차선을 통해 차로(traffic path)를 검출하고,
    상기 AI 데이터 학습서버는
    상기 분석예측서버에서 지정된 돌발상황 대상개체가 돌발상황에 대한 직접인자 또는 간접인자 유무를 판단한 후, 직접인자일 경우, 기 설정된 시점부터 돌발상황이 발생한 시점까지의 상기 돌발상황 대상개체의 움직임 패턴을 학습하는 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템.
  2. 제1항에 있어서,
    상기 복수의 CCTV 각각은
    차량의 주행 방향을 촬영하는 제1 촬영부;
    상기 차량의 주행 반대방향을 요청시 선택적으로 촬영하는 제2 촬영부;
    FMCW(Frequency Modulated Continuous Wave) 레이다 센서로 객체(사람, 차량 등)를 감지하여 레이다 센서 신호를 취득하는 레이다 센서부;
    상기 제1 촬영부, 제2 촬영부에서 촬영된 영상 데이터 및 레이다 센서부에서 취득한 레이다 신호를 수집하는 데이터 수집부; 및
    수집된 영상 데이터의 촬영구간에 감지된 객체좌표가 기록되도록 가공처리하고, 또한, 수집한 레이다 신호로부터 감지된 객체까지의 거리를 나타내는 레이다 센서 신호, 객체 속도를 나타내는 레이다 센서 신호, 객체에 대한 각도를 나타내는 레이다 센서 신호를 추출한 후, 감지된 객체까지의 거리를 나타내는 레이다 신호의 세기를 객체가 지정된 거리에 있을 때, 반복 측정되는 레이다 신호의 세기를 평준화하는 방식, 영상 데이터와 레이다 신호의 객체 감지 결과를 결합한 데이터로 교차 검증하는 방식으로, 감지된 객체 정보의 인지 정확도를 향상시키도록 처리하는 데이터 처리부를 포함하는 것을 특징으로 하는 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템.
  3. 제2항에 있어서,
    상기 데이터 처리부의 영상 처리결과에 따라 제1 촬영부 및 제2 촬영부, 레이다 센서부의 위치를 보정하기 위한 위치보정부를 더 포함하는 것을 특징으로 하는 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템.
  4. 삭제
  5. 제1항에 있어서,
    상기 분석예측서버는
    상기 영상 데이터 내의 환경정보를 분석하고, 수집된 환경정보로 분석된 환경정보를 보정하는 환경정보 분석부를 포함하고,
    상기 환경정보는 해당 영상이 촬영된 시간 정보, 해당 영상 촬영 시점의 조도 정보(일출, 주간, 일몰, 야간 등) 및 기상(기후) 정보(맑음, 비, 눈, 안개, 결빙 등) 중 적어도 하나를 포함하는 정보인 것을 특징으로 하는 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템.

  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
KR1020220086645A 2022-07-14 2022-07-14 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법 KR102472075B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220086645A KR102472075B1 (ko) 2022-07-14 2022-07-14 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220086645A KR102472075B1 (ko) 2022-07-14 2022-07-14 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR102472075B1 true KR102472075B1 (ko) 2022-11-30

Family

ID=84234407

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220086645A KR102472075B1 (ko) 2022-07-14 2022-07-14 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102472075B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116798237A (zh) * 2023-03-24 2023-09-22 浪潮智慧科技有限公司 一种交通流量监测方法及设备
CN117095540A (zh) * 2023-10-18 2023-11-21 四川数字交通科技股份有限公司 道路二次事故的预警方法、装置、电子设备及存储介质
KR102630455B1 (ko) * 2023-10-04 2024-01-29 (주)보고텍 객체 감지 수단을 이용한 스마트 vms 시스템
WO2024136305A1 (ko) * 2022-12-23 2024-06-27 김병준 센서 장치를 이용한 도로 발생 이벤트 알림 시스템

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086070A (ja) 2008-09-29 2010-04-15 Toshiba Corp 道路交通情報提供システム及び方法
JP2010136031A (ja) 2008-12-04 2010-06-17 Mitsubishi Electric Corp 監視装置
KR20110082870A (ko) 2010-01-12 2011-07-20 (주)기술과가치 실시간 교통정보 측정·도로정보 안내장치 및 방법
KR20110099992A (ko) 2010-03-03 2011-09-09 주식회사 토페스 실시간 교통상황 검지 시스템
KR20160062880A (ko) * 2014-11-26 2016-06-03 휴앤에스(주) 카메라 및 레이더를 이용한 교통정보 관리시스템
JP2018505422A (ja) * 2014-12-02 2018-02-22 ワング,ケビン,スンリン 事故回避方法及びシステム
KR102045222B1 (ko) * 2019-03-05 2019-12-02 사단법인 꿈드래장애인협회 데이터 융합을 통한 돌발상황 감시 제어 시스템
KR102196086B1 (ko) * 2020-09-18 2020-12-29 주식회사 아이티아이비전 카메라의 ptz 자율 자세보정 방법 및 이를 이용한 교통정보 시스템
KR102355431B1 (ko) * 2021-08-25 2022-02-08 한국건설기술연구원 Ai 기반 돌발상황 검지 방법 및 그 시스템

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086070A (ja) 2008-09-29 2010-04-15 Toshiba Corp 道路交通情報提供システム及び方法
JP2010136031A (ja) 2008-12-04 2010-06-17 Mitsubishi Electric Corp 監視装置
KR20110082870A (ko) 2010-01-12 2011-07-20 (주)기술과가치 실시간 교통정보 측정·도로정보 안내장치 및 방법
KR20110099992A (ko) 2010-03-03 2011-09-09 주식회사 토페스 실시간 교통상황 검지 시스템
KR20160062880A (ko) * 2014-11-26 2016-06-03 휴앤에스(주) 카메라 및 레이더를 이용한 교통정보 관리시스템
JP2018505422A (ja) * 2014-12-02 2018-02-22 ワング,ケビン,スンリン 事故回避方法及びシステム
KR102045222B1 (ko) * 2019-03-05 2019-12-02 사단법인 꿈드래장애인협회 데이터 융합을 통한 돌발상황 감시 제어 시스템
KR102196086B1 (ko) * 2020-09-18 2020-12-29 주식회사 아이티아이비전 카메라의 ptz 자율 자세보정 방법 및 이를 이용한 교통정보 시스템
KR102355431B1 (ko) * 2021-08-25 2022-02-08 한국건설기술연구원 Ai 기반 돌발상황 검지 방법 및 그 시스템

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024136305A1 (ko) * 2022-12-23 2024-06-27 김병준 센서 장치를 이용한 도로 발생 이벤트 알림 시스템
CN116798237A (zh) * 2023-03-24 2023-09-22 浪潮智慧科技有限公司 一种交通流量监测方法及设备
CN116798237B (zh) * 2023-03-24 2024-04-30 浪潮智慧科技有限公司 一种交通流量监测方法及设备
KR102630455B1 (ko) * 2023-10-04 2024-01-29 (주)보고텍 객체 감지 수단을 이용한 스마트 vms 시스템
CN117095540A (zh) * 2023-10-18 2023-11-21 四川数字交通科技股份有限公司 道路二次事故的预警方法、装置、电子设备及存储介质
CN117095540B (zh) * 2023-10-18 2024-01-23 四川数字交通科技股份有限公司 道路二次事故的预警方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
KR102472075B1 (ko) 실시간 도로영상 및 레이다 신호를 분석한 결과에 기초하여 돌발상황 자동검지 서비스를 지원하는 시스템 및 방법
US11042723B2 (en) Systems and methods for depth map sampling
CN106997688B (zh) 基于多传感器信息融合的停车场停车位检测方法
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
JP6682833B2 (ja) 物体認識アルゴリズムの機械学習のためのデータベース構築システム
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
CN112562314B (zh) 基于深度融合的路端感知方法、装置、路端设备和系统
JP2019175451A (ja) 交通状況のリアルタイム検出
JP7147420B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN111932901B (zh) 道路车辆跟踪检测设备、方法及存储介质
JP6819996B2 (ja) 交通信号認識方法および交通信号認識装置
WO2019129255A1 (zh) 一种目标跟踪方法及装置
US11841434B2 (en) Annotation cross-labeling for autonomous control systems
US10955857B2 (en) Stationary camera localization
CN110264495B (zh) 一种目标跟踪方法及装置
US11294387B2 (en) Systems and methods for training a vehicle to autonomously drive a route
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
KR101569919B1 (ko) 차량의 위치 추정 장치 및 방법
CN106203272B (zh) 确定可移动对象的移动的方法和装置
US11436839B2 (en) Systems and methods of detecting moving obstacles
EP3958016A1 (en) Stationary object detection
CN114694111A (zh) 车辆定位
KR101612822B1 (ko) 차선 인식 장치 및 그 방법
US10839522B2 (en) Adaptive data collecting and processing system and methods
CN113012215A (zh) 一种空间定位的方法、系统及设备

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant