KR102590358B1 - 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치 - Google Patents

교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치 Download PDF

Info

Publication number
KR102590358B1
KR102590358B1 KR1020230043176A KR20230043176A KR102590358B1 KR 102590358 B1 KR102590358 B1 KR 102590358B1 KR 1020230043176 A KR1020230043176 A KR 1020230043176A KR 20230043176 A KR20230043176 A KR 20230043176A KR 102590358 B1 KR102590358 B1 KR 102590358B1
Authority
KR
South Korea
Prior art keywords
information
traffic information
traffic
event
image data
Prior art date
Application number
KR1020230043176A
Other languages
English (en)
Inventor
김승원
서승규
이진경
Original Assignee
대보정보통신 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대보정보통신 주식회사 filed Critical 대보정보통신 주식회사
Priority to KR1020230043176A priority Critical patent/KR102590358B1/ko
Application granted granted Critical
Publication of KR102590358B1 publication Critical patent/KR102590358B1/ko

Links

Images

Classifications

    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치를 개시한다.
관심 영역의 영상 처리를 위한 교통 정보 시스템은, 복수의 지방청 교통 정보 센터로부터 수집된 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하는 교통 정보 처리 장치; 및 상기 교통 정보 처리 장치와 연동하고, 상기 교통 정보 처리 장치 간 관심 영역에 대한 영상 융합 처리를 수행하며, 상기 통합 교통 정보를 상황실 출력 모듈을 통해 출력하는 상황실 처리 장치를 포함할 수 있다.

Description

교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치{Method and Apparatus for Processing Image of Region of Interest in Traffic Information Center}
본 발명은 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
국가 교통 정보센터(National Traffic Information Center)는 국가 차원에서 교통 정보를 수집하고 분석하여 전국적인 교통체계의 안전성, 원활성, 효율성을 향상시키는 중요한 역할을 수행한다.
최근에는 전국 주요 도로에 차세대 지능형 교통 시스템(C-ITS: Cooperative-Intelligent Transport Systems)을 구축함에 따라 국가 교통 정보센터의 역할은 더 중요해 지고 있다.
국가 교통 정보센터는 교통정보 연계, 통합 및 대국민 서비스 제공, 특별교통수송대책 등에 대한 효율적인 대응 및 지원을 위해 운영된다. 특히, 국가 교통 정보센터는 각 기관에서 수집되는 교통정보 및 센터설비를 활용하여 교통 상황관리 및 긴급사고처리, 소통정보 제공 등 교통 소통과 관련된 운영을 수행한다.
다만, 현재의 국가 교통 정보센터는 다양한 기관으로부터 수집된 대량의 데이터를 통합하는데 한계가 있으며, 실시간성과 정확성을 보장하기 어렵다.
특히, 돌발 이벤트, 특정 경로 정보 등에 대한 관심 영역에 대해 교통이 매우 혼잡하거나 이례적인 교통 흐름에 대해서는 데이터 통합이 어려우며, 영상 데이터를 모두 수집하지 못하는 경우, 수집하지 못한 부분에 대한 교통의 흐름의 예측 정확도가 떨어지게 된다.
본 발명은 복수의 지방청 교통 정보 센터 및 유관 기관으로부터 교통 관련 정보를 수집하고, 수집된 교통 관련 정보를 통합 처리하여 통합 교통 정보를 생성하고, 통합 교통 정보에 대해 설정된 관심 영역에 대한 영상 데이터를 전달받은 영상 데이터에 누락된 부분 등의 오류가 발생하는 경우 이를 예측하여 오류 예측 데이터를 생성함에 따라 최종적으로 영상 데이터, 오류 예측 데이터를 융합한 융합 데이터를 생성하여 제공하는 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치를 제공하는 데 주된 목적이 있다.
본 발명의 일 측면에 의하면, 상기 목적을 달성하기 위한 국가 교통 정보 센터에서 관심 영역의 영상 처리를 위한 시스템에 있어서, 관심 영역의 영상 처리를 위한 교통 정보 시스템은, 복수의 지방청 교통 정보 센터로부터 수집된 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하는 교통 정보 처리 장치; 및 상기 교통 정보 처리 장치와 연동하고, 상기 교통 정보 처리 장치 간 관심 영역에 대한 영상 융합 처리를 수행하며, 상기 통합 교통 정보를 상황실 출력 모듈을 통해 출력하는 상황실 처리 장치를 포함할 수 있다.
또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 국가 교통 정보 센터에서 관심 영역의 영상 처리를 위한 방법에 있어서, 관심 영역의 영상 처리 방법은, 복수의 지방청 교통 정보 센터로부터 수집된 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하는 교통 정보 처리 단계; 및 상기 교통 정보 처리 장치와 연동하고, 상기 교통 정보 처리 장치 간 관심 영역에 대한 영상 융합 처리를 수행하며, 상기 통합 교통 정보를 상황실 출력 모듈을 통해 출력하는 상황실 처리 단계를 포함할 수 있다.
이상에서 설명한 바와 같이, 본 발명은 관심 영역에 대해 실시간성 및 정확성을 보장하는 교통 정보를 생성 및 제공할 수 있는 효과가 있다.
본 발명은 관심 영역에 대해 복수의 지방청으로부터 획득한 영상 데이터를 기반으로 교통 영상을 융합하여 생성된 융합 데이터를 통해 교통 관리를 정확하게 할 수 있는 효과가 있다.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.
도 1은 본 발명의 실시예에 따른 지능형 교통 시스템을 개략적으로 나타낸 블록 구성도이다.
도 2는 본 발명의 실시예에 따른 국가 교통 정보 센터의 교통 정보 시스템을 개략적으로 나타낸 블록 구성도이다.
도 3은 본 발명의 실시예에 따른 정보 관리 처리 모듈을 개략적으로 나타낸 블록 구성도이다.
도 4는 본 발명의 실시예에 따른 돌발 이벤트 처리부를 개략적으로 나타낸 블록 구성도이다.
도 5는 본 발명의 실시예에 따른 국가 교통 정보 센터의 하드웨어 구성을 나타낸 블록 구성도이다.
도 6은 본 발명의 실시예에 따른 교통 영상 융합 모듈을 개략적으로 나타낸 블록 구성도이다.
도 7는 본 발명의 실시예에 따른 관심 영역의 영상 처리 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 실시예에 따른 관심 영역에 대한 설정 동작을 설명하기 위한 예시도이다.
도 9는 본 발명의 실시예에 따른 예측 모델을 적용하여 오류 예측 데이터를 추출하는 예시도이다.
도 10은 본 발명의 실시예에 따른 오류 예측 데이터 생성을 설명하기 위한 예시도이다.
도 11은 본 발명의 실시예에 따른 분할 예측 데이터 생성을 설명하기 위한 예시도이다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. 이하에서는 도면들을 참조하여 본 발명에서 제안하는 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치에 대해 자세하게 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 지능형 교통 시스템을 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 지능형 교통 시스템(10)은 지방청 교통 정보 센터(20), 유관 기관 단말(30), 국가 교통 정보센터(40) 및 정보 제공 서버(50)를 포함한다. 도 1의 지능형 교통 시스템(10)은 일 실시예에 따른 것으로서, 도 1에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 지능형 교통 시스템(10)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.
지능형 교통 시스템(10)은 지능형교통체계(ITS: Intelligent Transport Systems)를 운용하는 시스템을 의미한다.
지능형 교통 시스템(10)은 교통수단 및 교통시설에 대하여 전자, 제어 및 통신 등 첨단 교통 기술과 교통 정보를 개발 및 활용함으로써 교통체계의 운영 및 관리를 과학화 및 자동화하고, 교통의 효율성과 안전성을 향상시키는 교통체계 시스템이다.
지방청 교통 정보 센터(Local Traffic Information Center, 20)는 지역적인 교통 정보를 수집하고 분석하여 지역 교통체계의 안전성, 원활성, 효율성을 향상시키는 기관으로서, 지방청에서 운영하는 교통 정보 제공 시스템을 의미한다.
지방청 교통 정보 센터(20)는 지역 교통 정보 수집, 지역 교통사고 대응, 지역 교통정체 대응, 지역 교통정책 수립 등을 수행한다.
지방청 교통 정보 센터(20)는 기 설정된 지역 내의 도로 센서 설비, CCTV 설비, 도로전광표지(VMS: Variable Message Sign) 설비, 대중 교통 설비 등을 관리한다.
지방청 교통 정보 센터(20)는 국가 교통 정보센터(40)와 연동하며, 지방청 교통 정보 센터(20) 및 국가 교통 정보센터(40)는 교통 정보 수집, 분석 등을 위해 서로 정보를 공유할 수 있다.
지방청 교통 정보 센터(20)는 기 설정된 지역 내에서 수집된 도로 교통 정보, CCTV 영상정보, 도로전광표지(VMS) 정보, 광역 대중교통정보 등에 대한 교통 관련 정보를 국가 교통 정보센터(40)로 전송할 수 있다.
또한, 지방청 교통 정보 센터(20)는 국가 교통 정보센터(40)로부터 수신된 지역 교통정책, 교통 대응 정보, 돌발 이벤트 대응 교통정보 등을 수신할 수 있으며, 수신된 정보에 따라 구축된 설비를 제어할 수 있다.
본 실시예에 따른 지방청 교통 정보 센터(20)는 제1 지방청 교통 정보 센터(22), 제2 지방청 교통 정보 센터(24), 제3 지방청 교통 정보 센터(26) 등을 포함할 수 있다. 예를 들어, 지방청 교통 정보 센터(20)는 서울청 교통 정보 센터, 대전청 교통 정보 센터, 원주청 교통 정보 센터, 익산청 교통 정보 센터, 부산청 교통 정보 센터 등을 포함할 수 있다.
복수의 지방청 교통 정보 센터(22, 24, 26) 각각은, 서로 다른 지역에 대한 교통 정보를 관리하며, 지역 각각에 대한 서로 다른 지역 각각의 도로 센서 설비, CCTV 설비, 도로전광표지(VMS: Variable Message Sign) 설비, 대중 교통 설비 등을 운용할 수 있다.
유관 기관 단말(30)은 국가 교통 정보센터(40)의 운용과 관계된 임무를 수행하는 기관 또는 기관에 구비된 단말을 의미한다.
유관 기관 단말(30)은 교통 관련 정보를 수집 및 저장할 수 있다
예를 들어, 유관 기관 단말(30)은 고속도로 관련 기관(예: 한국도로공사, 민자고속도로 등), 일반국도 관련 기관(예: 국토부 산하 지방청), 지방도 관련 기관, 시군도 관련 기관일 수 있으며, 경찰청, 기상청, 산림청, 민간 기업(예: 통신사, 차량 IT 기술 관련 기업 등) 등을 포함할 수 있다.
본 발명에서, 지방청 교통 정보 센터(20) 및 유관 기관 단말(30)은 서로 별도의 구성인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 지방청 교통 정보 센터(20) 및 유관 기관 단말(30)의 전체 또는 일부 구성은 서로 통합되거나, 직접적으로 연결된 구성일 수 있다.
국가 교통 정보센터(National Traffic Information Center, 40)는 국가 차원에서 교통 정보를 수집하고 분석하여 전국적인 교통체계의 안전성, 원활성, 효율성을 향상시키는 기관으로서, 정부에서 운영하는 교통 정보 제공 시스템을 의미한다.
국가 교통 정보센터(40)는 교통정보 연계, 통합 및 대국민 서비스 제공, 특별교통수송대책 등에 대한 효율적인 대응 및 지원을 위해 운영된다. 여기서, 국가 교통 정보센터(40)의 운영은 각 기관에서 수집하는 교통정보 및 센터설비를 활용하여 교통 상황관리 및 긴급사고처리, 소통정보 제공 등 교통 소통과 관련된 일체의 행위가 필요한 부분에 대한 운영을 의미한다. 국가 교통 정보센터(40)의 센터설비는 신속하고, 정확한 실시간 교통정보 제공을 위한 설비로서, 각 기관의 교통정보를 연계, 대국민 서비스 등에 활용되는 설비를 의미한다.
국가 교통 정보센터(40)는 교통 안전을 위한 다양한 정보를 수집하고, 분석하여 교통 정보를 제공한다.
국가 교통 정보센터(40)에서 제공하는 교통 서비스 정보에는 실시간 교통 정보, 경로 정보, 교통 혼잡 정보, 도로 교통 사고 정보, 고속도로 휴게소 및 톨게이트의 이용 상황, 돌발 이벤트 관련 정보 등이 포함될 수 있다.
예를 들어, 국가 교통 정보센터(40)는 교통 서비스 정보를 제공하여 운전자들이 교통 혼잡 구간과 교통 사고가 발생한 지역 등을 미리 파악하여 적절한 대처를 할 수 있도록 한다. 또한, 국가 교통 정보센터(40)는 교통 서비스 정보를 유관 기관 또는 기 설정된 소정의 외부 장치로 제공하여 돌발 이벤트 대응, 임무 수행 등에 활용될 수 있다. 또한, 국가 교통 정보센터(40)는 교통 서비스 정보를 교통 정책 수집기관, 연구기관 등에 제공하여, 교통 흐름 개선과 교통안전 확보를 위해 교통정책 수립, 연구 등에 활용될 수 있다.
교통 정보 시스템(42)은 국가 교통 정보센터(40) 내에 설치되어, 정보 수집, 정보 관리 처리, 정보 제공 처리, 정보 저장 등 국가 교통 정보센터(40)의 다양한 기능을 수행하는 장치를 의미한다.
본 실시예에 따른 교통 정보 시스템(42)은 교통 관련 정보를 수집하고, 수집된 교통 관련 정보를 통합 처리하여 통합 교통 정보를 생성한다.
또한, 교통 정보 시스템(42)은 생성된 통합 교통 정보를 기반으로 돌발 이벤트 처리를 수행하여 돌발 이벤트에 대한 이벤트 대응 교통 정보를 적어도 하나의 외부 장치로 전송할 수 있다. 여기서, 외부 장치는 정보 제공 서버(50)인 것이 바람직하나 반드시 이에 한정되는 것은 아니다.
정보 제공 서버(50)는 국가 교통 정보센터(40)의 교통 정보 시스템(42)으로부터 정보를 수신하고, 수신된 정보를 외부 장치로 전달하는 서버를 의미한다.
정보 제공 서버(50)는 국가 교통 정보센터(40)로부터 지역 교통정책, 교통 대응 정보, 돌발 이벤트 대응 교통정보, 실시간 교통 정보, 교통 상황 통계 정보 등을 수신하고, 수신된 정보를 연결된 외부 장치로 전달할 수 있다.
여기서, 정보 제공 서버(50)는 교통 정보 제공 서버(52), 유관 기관 서버(54), 연구 기관 서버(56) 등을 포함할 수 있다.
예를 들어, 교통 정보 제공 서버(52)는 대국민 도로 교통, 대중 교통, 환승 등에 대한 정보를 제공하는 서버로서, 인터넷 서비스, 현장안내 시스템(예: KIOSK, PDP) 서비스, 모바일 서비스, ARS 서비스 등을 제공하기 위한 외부 장치(예: 사용자 단말, 관리자 단말, 키오스크 단말 등)와 연동할 수 있다.
또한, 유관 기관 서버(54)는 유관 기관의 교통, 환승 등에 대한 정보를 제공하는 서버로서, 교통 정보, 소통정보, CCTV 영상 정보, 돌발 이벤트 대응 교통정보 등을 제공하기 위한 외부 장치 예컨대, 청와대(국가위기상황센터), 국가정보원, 행정안전부, 소방방재청, 군 관련 기관 등과 연동할 수 있다.
또한, 연구 기관 서버(56)는 교통 정책 기관의 통계 분석 등에 대한 정보를 제공하는 서버로서, 교통 분석 정보, 교통 통계 정보 등을 제공하기 위한 외부 장치 예컨대, 교통정책 수집 기관, 연구기관 등과 연동할 수 있다.
도 2는 본 발명의 실시예에 따른 국가 교통 정보 센터의 교통 정보 시스템을 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 교통 정보 시스템(42)은 교통 정보 처리 장치(44) 및 상황실 처리 장치(46)을 포함한다. 교통 정보 처리 장치(44)은 정보 수집 모듈(210), 정보 관리 처리 모듈(220), 정보 제공 처리 모듈(230) 및 정보 저장 모듈(240)을 포함한다. 또한, 상황실 처리 장치(46)는 교통 영상 융합 모듈(250) 및 상황실 출력 모듈(260)을 포함한다. 도 2의 교통 정보 시스템(42)은 일 실시예에 따른 것으로서, 도 2에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 교통 정보 시스템(42)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.
본 실시예에 따른 교통 정보 처리 장치(44)는 복수의 지방청 교통 정보 센터로부터 수집된 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성한다.
이하에서는 교통 정보 처리 장치(44)에 포함된 구성요소 각각에 대해 설명하도록 한다.
정보 수집 모듈(210)은 복수의 지방청 교통 정보 센터(20)로부터 교통 관련 정보를 수집한다.
정보 수집 모듈(210)은 복수의 지방청 교통 정보 센터(20) 각각으로부터 전송된 도로 교통 정보, CCTV 영상정보, 도로전광표지(VMS: Variable Message Sign) 정보 및 광역 대중교통정보 등을 포함하는 교통 관련 정보를 수집할 수 있다.
또한, 정보 수집 모듈(210)은 유관 기관 단말(30)로부터 교통 관련 정보를 수집할 수 있다. 여기서, 유관 기관 단말(30)은 고속도로 관련 기관(예: 한국도로공사, 민자고속도로 등), 일반국도 관련 기관(예: 국토부 산하 지방청), 지방도 관련 기관, 시군도 관련 기관일 수 있으며, 경찰청, 기상청, 산림청, 민간 기업(예: 통신사, 차량 IT 기술 관련 기업 등) 등을 포함할 수 있다.
정보 수집 모듈(210)은 유관 기관 단말(30)로부터 전송된 사고 정보, 기상 정보 등을 포함하는 교통 관련 정보를 수집할 수 있다.
한편, 정보 수집 모듈(210)은 복수의 지방청 교통 정보 센터(20) 각각으로부터 교통 관련 정보를 수신하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 별도의 중계 센터(예: 국도 통합 센터), 중계 장치(중계 서버, 빅데이터 서버, 연계 서버 등) 등을 경유하여 교통 관련 정보를 수신할 수도 있다.
정보 관리 처리 모듈(220)은 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하고, 통합 교통 정보를 기반으로 돌발 이벤트에 대한 이벤트 대응 교통 정보를 생성한다.
정보 관리 처리 모듈(220)에 대한 자세한 설명은 도 3 및 도 4에서 설명하도록 한다.
정보 제공 처리 모듈(230)은 이벤트 대응 교통 정보를 적어도 하나의 외부 장치로 전송하는 동작을 수행한다.
정보 제공 처리 모듈(230)은 이벤트 대응 교통 정보를 정보 제공 서버(50)로 전달하여 외부 장치로 전송될 수 있도록 한다.
정보 제공 처리 모듈(230)은 이벤트 대응 교통 정보를 정보 제공 서버(50)에 포함된 복수의 서버 중 적어도 하나의 서버로 전송할 수 있다.
한편, 정보 제공 처리 모듈(230)은 정보 제공 서버(50)으로부터 정보 요청 신호가 수신된 경우, 정보 요청 신호를 전송한 유관 기관과 연동하는 유관 기관 서버(54)로 이벤트 대응 교통 정보를 전송할 수도 있다.
한편, 정보 제공 처리 모듈(230)은 이벤트 대응 교통 정보의 돌발 이벤트의 종류에 따라 유관 기관을 선정하고, 선정된 유관 기관과 연동하는 유관 기관 서버(54)로 이벤트 대응 교통 정보를 전송할 수도 있다. 여기서, 정보 제공 처리 모듈(230)은 돌발 이벤트 종류 및 관련 기관에 대해 매칭된 테이블 또는 인공지능 기반의 추정 기법을 이용하여 유관 기관을 선정할 수 있다.
정보 저장 모듈(240)는 정보 관리 처리 모듈(220)의 처리 동작과 관련된 정보를 저장 및 관리하는 동작을 수행한다.
정보 저장 모듈(240)는 정보 관리 처리 모듈(220)로부터 교통 관련 정보, 통합 교통 정보, 이벤트 대응 교통 정보 등을 수신하여 저장한다.
한편, 정보 저장 모듈(240)는 정보 관리 처리 모듈(220)의 요청 신호가 존재하는 경우 기 저장된 정보를 불러와 제공할 수 있다.
정보 저장 모듈(240)는 데이터베이스 기반의 모듈로 구현될 수 있으나 반드시 이에 한정되는 것은 아니며, 정보를 저장 및 관리할 수 있다면 다양한 형태의 저장 모듈(예: 클라우드, 가상 메모리 등)로 구현될 수 있다.
본 실시예에 따른 상황실 처리 장치(46)는 교통 정보 처리 장치(44)와 연동하고, 교통 정보 처리 장치 간 장애 점검을 수행하며, 통합 교통 정보를 상황실 출력 모듈을 통해 출력한다.
이하에서는 상황실 처리 장치(46)에 포함된 구성요소 각각에 대해 설명하도록 한다.
교통 영상 융합 모듈(250)은 통합 교통 정보의 전체 또는 일부를 상황실 출력 모듈로 전달하여 출력되도록 하고, 통합 교통 정보를 기반으로 관심 영역을 설정하고, 설정된 관심 영역에 대한 영상 데이터 융합 처리를 수행한다.
교통 영상 융합 모듈(250) 에 대한 자세한 설명은 도 6에서 설명하도록 한다.
상황실 출력 모듈(260)은 적어도 하나의 상황실 출력부를 포함하고, 적어도 하나의 상황실 출력부 각각을 통해 통합 교통 정보를 출력한다.
적어도 하나의 상황실 출력부 각각은 모니터와 같이 영상 또는 이미지를 출력하는 출력 장치일 수 있으나 반드시 이에 한정되는 것은 아니다.
도 3은 본 발명의 실시예에 따른 정보 관리 처리 모듈을 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 정보 관리 처리 모듈(220)은 교통 정보 통합 처리부(310), 실시간 교통 정보 처리부(320) 및 돌발 이벤트 처리부(330)를 포함한다. 여기서, 정보 관리 처리 모듈(220)은 대중 교통 정보 처리부(340)를 추가로 포함할 수 있다. 도 3의 정보 관리 처리 모듈(220)은 일 실시예에 따른 것으로서, 도 3에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 정보 관리 처리 모듈(220)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.
정보 관리 처리 모듈(220)은 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하고, 통합 교통 정보를 기반으로 돌발 이벤트에 대한 이벤트 대응 교통 정보를 생성한다.
이하에서는 정보 관리 처리 모듈(220)에 포함된 구성요소 각각에 대해 설명하도록 한다.
교통 정보 통합 처리부(310)는 교통 관련 정보를 융합하고, 전국 및 광역 교통 정보를 전자 지도에 통합하여 통합 교통 정보를 생성한다.
교통 정보 통합 처리부(310)는 교통 관련 정보에 포함된 도로 교통 정보, CCTV 영상정보, 도로전광표지(VMS: Variable Message Sign) 정보 및 광역 대중교통정보를 동일 또는 유사 카테고리끼리 융합하고, 융합된 적어도 하나의 정보들을 전자 지도에 통합한다. 여기서, 통합 교통 정보를 생성하기 위한 정보의 융합은 정보의 결합, 합산, 필터링, 삭제, 수정 등을 포함하는 처리 동작일 수 있다. 또한, 전자 지도는 표준화된 전자 지도인 것이 바람직하나 반드시 이에 한정되는 것은 아니다.
교통 정보 통합 처리부(310)는 정보 결합 시, 중복 또는 기 설정된 필터링 기준에 해당하는 경우 필터링을 통해 정보를 삭제 및 가공할 수 있다.
한편, 교통 정보 통합 처리부(310)는 경찰청의 사고 정보 또는 기상청의 기상 정보가 추가로 획득된 경우, 교통 관련 정보와 함께 사고 정보, 기상 정보 등을 융합하여 통합 교통 정보를 생성할 수도 있다.
실시간 교통 정보 처리부(320)는 교통 관련 정보를 기반으로 분석된 실시간 교통 정보를 통합 교통 정보에 매칭하는 동작을 수행한다.
실시간 교통 정보 처리부(320)는 교통 관련 정보를 기반으로 도로 상의 교통량, 혼잡 정도 등을 분석한 실시간 교통 정보를 산출하고, 산출된 실시간 교통 정보를 통합 교통 정보에 반영할 수 있다.
실시간 교통 정보 처리부(320)는 전자 지도에 실시간 교통 정보를 추가 처리할 수 있으며, 숫자, 색상, 음영 등을 통해 도로 상의 교통량, 혼잡 정도 등을 표현할 수 있다.
돌발 이벤트 처리부(330)는 전자 지도 상에서 돌발 이벤트가 감지되면, 돌발 이벤트 관련 정보를 기반으로 돌발 이벤트를 판단하고, 판단 결과를 기반으로 교통 정보를 추출하여 돌발 이벤트 대응 교통정보를 생성한다.
돌발 이벤트 처리부(330)에 대한 자세한 설명은 도 4에서 설명하도록 한다.
한편, 정보 관리 처리 모듈(220)은 대중 교통 정보 처리부(340)를 추가로 포함할 수 있다.
대중 교통 정보 처리부(340)는 교통 관련 정보를 기반으로 대중 교통에 대한 노선 정보, 운행 정보, 환승 정보, 실시간 위치 정보 등을 포함하는 대중 교통 정보를 생성한다.
대중 교통 정보 처리부(340)는 생성된 대중 교통 정보를 정보 제공 처리 모듈(230)을 통해 교통 정보 제공 서버(52)로 전달할 수 있다.
한편, 대중 교통 정보 처리부(340)는 돌발 이벤트를 판단 결과 즉, 돌발 이벤트 판단 정보의 산출값에 따라 대중 교통 정보를 특정 대상 또는 특정 영역으로 제공할 수 있다. 여기서, 돌발 이벤트를 판단 결과 기반의 대중 교통 정보의 제공은 국민의 신속한 이동 및 대피 안내를 위한 정보 제공을 의미한다.
예를 들어, 대중 교통 정보 처리부(340)는 돌발 이벤트 판단 정보의 산출값이 기 설정된 정보 제공 임계값 이상인 경우, 돌발 이벤트가 발생한 위치를 기준으로 기 설정된 특정 영역(예: 반경 2 km 영역)에 대중 교통 정보를 브로트캐스팅(Broadcasting)하거나, 돌발 이벤트가 발생한 위치를 기준으로 기 설정된 특정 영역 내에 위치한 사용자 단말로 대중 교통 정보를 전송할 수 있다. 여기서, 특정 영역 내에 위치한 사용자 단말은 통신사 또는 경찰청 관련 기관과 연계하여 확인된 단말일 수 있다.
도 4는 본 발명의 실시예에 따른 돌발 이벤트 처리부를 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 돌발 이벤트 처리부(330)는 이벤트 감지부(402), 이벤트 정보 획득부(410), 이벤트 판단부(420), 연관 교통 정보 추출부(430) 및 이벤트 대응 교통정보 생성부(440)를 포함한다. 도 4의 돌발 이벤트 처리부(330)는 일 실시예에 따른 것으로서, 도 4에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 돌발 이벤트 처리부(330)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.
돌발 이벤트 처리부(330)는 전자 지도 상에서 돌발 이벤트가 감지되면, 돌발 이벤트 관련 정보를 기반으로 돌발 이벤트를 판단하고, 판단 결과를 기반으로 교통 정보를 추출하여 돌발 이벤트 대응 교통정보를 생성한다.
이하에서는 돌발 이벤트 처리부(330)에 포함된 구성요소 각각에 대해 설명하도록 한다.
이벤트 감지부(402)는 돌발 이벤트를 감지한다.
이벤트 감지부(402)는 외부 장치로부터 이벤트 발생 신호를 수신하거나, 통합 교통 정보를 기반으로 돌발 이벤트를 감지한다.
이벤트 감지부(402)는 외부 장치로부터 이벤트 발생 신호를 수신하여 돌발 이벤트를 감지할 수 있다. 여기서, 외부 장치는 돌발 이벤트를 감지하거나 제보를 통해 돌발 이벤트를 확인할 수 있는 유관 기관의 단말일 수 있으며, 예를 들어, 경찰청, 소방방재청 등과 연동하는 장치 또는 단말일 수 있다.
또한, 이벤트 감지부(402)는 통합 교통 정보를 기반으로 비정상적인 교통 정보(예: 급격한 교통 혼잡 변화, 기상정보 기반 교통 혼잡 등)를 기반으로 돌발 이벤트를 감지할 수 있다.
이벤트 정보 획득부(410)는 돌발 이벤트가 감지되면, 돌발 이벤트에 대한 돌발 이벤트 관련 정보를 획득한다.
이벤트 정보 획득부(410)는 돌발 이벤트에 대한 종류 정보, 발생 위치 정보 및 상황 심각도 정보 중 적어도 하나를 포함하는 돌발 이벤트 관련 정보를 획득할 수 있다. 여기서, 돌발 이벤트 관련 정보에 포함된 종류 정보는 산불, 기상이변, 대형 교통사고 등 돌발 이벤트의 종류에 대한 정보이고, 발생 위치 정보는 고속도로, 일반도로, 이면도로 등 돌발 이벤트가 발생한 위치(예: 좌표, 영역 등)에 대한 정보이며, 상황 심각도 정보는 돌발 이벤트에 대한 발생 범위, 사고 차량 수, 확산 속도 등의 기 설정된 기준조건을 기반으로 산출된 레벨 또는 등급에 대한 정보를 의미한다.
이벤트 정보 획득부(410)는 돌발 이벤트의 감지 위치와 관련된 지방청 교통 정보 센터(20), 유관 기관(경찰청, 소방방재청 등)으로부터 돌발 이벤트 관련 정보를 획득할 수 있다.
이벤트 판단부(420)는 돌발 이벤트 관련 정보에 근거하여 돌발 이벤트를 분류하고, 분류 결과에 따라 가중치를 부여하여 돌발 이벤트 판단 정보를 산출한다.
이벤트 판단부(420)는 돌발 이벤트 관련 정보에 포함된 종류 정보에 대한 제1 분류값, 발생 위치 정보에 대한 제2 분류값 및 상황 심각도 정보에 대한 제3 분류값을 도출한다. 이벤트 판단부(420)는 돌발 이벤트 관련 정보에 대한 기 설정된 분류 테이블을 기반으로 제1 분류값, 제2 분류값 및 제3 분류값을 도출할 수 있다.
이벤트 판단부(420)는 제1 분류값, 제2 분류값 및 제3 분류값 각각에 대해 서로 다른 가중치를 부여하여 돌발 이벤트 판단 정보를 산출한다. 여기서, 가중치는 돌발 이벤트 관련 정보에 따라 기 설정된 값일 수 있으나 반드시 이에 한정되는 것은 아니며, 돌발 이벤트의 종류, 발생 위치, 상황 심각도 등에 따라 적응적으로 변경되는 값일 수도 있다.
연관 교통 정보 추출부(430)는 돌발 이벤트와 연관된 이벤트 관련 교통정보를 추출한다.
구체적으로, 연관 교통 정보 추출부(430)는 돌발 이벤트에 대응하기 위한 이벤트 대응 기관의 출발지 정보를 획득하고, 출발지 정보를 기반으로 복수의 경로를 선정하고, 복수의 경로 각각에 대응하는 이벤트 관련 교통정보를 추출한다. 여기서, 이벤트 관련 교통정보는 돌발 이벤트와 관련된 경로에 대한 도로 정보, 교통량, 혼잡 정도, 돌발 이벤트 발생 위치까지의 거리, 돌발 이벤트 발생 위치 도착 시간 등을 포함할 수 있다. 이벤트 대응 기관은 돌발 이벤트와 관련된 유관 기관 중 적어도 하나일 수 있다.
예를 들어, 연관 교통 정보 추출부(430)는 돌발 이벤트가 산불 관련 이벤트인 경우, 소방방재청으로부터 돌발 이벤트에 대응 또는 지원을 위한 소방차의 출발지 정보를 획득하고, 출발지 정보를 기반으로 소방차가 돌발 이벤트의 발생 위치까지 도착할 수 있는 복수의 경로를 선정하고, 선정된 복수의 경로 각각에 대응하는 이벤트 관련 교통정보를 추출할 수 있다.
연관 교통 정보 추출부(430)는 복수의 출발지 정보 각각과 돌발 이벤트의 발생 위치 정보를 기반으로 복수의 후보 경로를 추출하고, 복수의 후보 경로 중 전체 또는 일부를 복수의 경로로 선정하여 이벤트 관련 교통정보를 추출할 수 있다.
연관 교통 정보 추출부(430)는 경로 필터링 조건에 근거하여 복수의 후보 경로의 전체 또는 일부를 복수의 경로로 선정할 수 있다. 여기서, 경로 필터링 조건은 후보 경로 내에 기 설정된 기준 도로폭 이하의 도로의 존재하는 후보 경로 제거, 동일 출발지 기준 3 개 이상의 후보 경로가 존재하는 경우 2 개의 후보 경로로 조정 등의 조건일 수 있다.
이벤트 대응 교통정보 생성부(440)는 돌발 이벤트 판단 정보 및 이벤트 관련 교통정보를 이용하여 최적의 돌발 이벤트 대응 교통정보를 생성한다.
이벤트 대응 교통정보 생성부(440)는 돌발 이벤트 판단 정보에 근거하여 돌발 이벤트 발생 위치에 대한 도착 시간 우선 조건, 최단 경로 우선 조건 및 최근접 도달 영역 우선 조건 중 적어도 하나의 우선 조건에 해당하는 이벤트 관련 교통정보를 결정하여 돌발 이벤트 대응 교통정보를 생성한다.
이벤트 대응 교통정보 생성부(440)는 돌발 이벤트 판단 정보를 기 설정된 임계치와 비교하여 적어도 하나의 우선 조건 중 하나의 우선 조건을 선정할 수 있다.
구체적으로, 이벤트 대응 교통정보 생성부(440)는 돌발 이벤트 판단 정보의 판단 결과값과 기 설정된 임계치를 비교하고, 판단 결과값과 임계치의 차이값이 포함된 범주에 대응하는 우선 조건을 선정할 수 있다. 여기서, 적어도 하나의 우선 조건 각각은 기 정의된 서로 다른 범주(차이값에 대한 범위)가 설정될 수 있다.
예를 들어, 이벤트 대응 교통정보 생성부(440)는 판단 결과값과 임계치의 차이값에 대응하는 범주가 설정된 “도착 시간 우선 조건”을 선정하고, “도착 시간 우선 조건”에 해당하는 이벤트 관련 교통정보를 결정하여 돌발 이벤트 대응 교통정보를 생성한다.
도 5는 본 발명의 실시예에 따른 국가 교통 정보 센터의 하드웨어 구성을 나타낸 블록 구성도이다.
본 실시예에 따른 교통 정보 시스템(42)은 입력부(510), 출력부(520), 프로세서(530), 신경망(540), 메모리(550) 및 데이터베이스(560)를 포함한다. 도 3의 교통 정보 시스템(42)은 일 실시예에 따른 것으로서, 도 3에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 교통 정보 시스템(42)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다. 한편, 교통 정보 시스템(42)은 컴퓨팅 장치로 구현될 수 있고, 교통 정보 시스템(42)에 포함된 각 구성요소들은 각각 별도의 소프트웨어 장치로 구현되거나, 소프트웨어가 결합된 별도의 하드웨어 장치로 구현될 수 있다.
입력부(510)는 교통 정보 관리 동작, 돌발 이벤트 처리 동작을 수행하기 위한 신호 또는 데이터를 입력하거나 획득하는 수단을 의미한다. 입력부(510)는 프로세서(530)와 연동하여 다양한 형태의 신호 또는 데이터를 입력하거나, 외부 장치와 연동하여 직접 데이터를 획득하여 프로세서(530)로 전달할 수도 있다. 여기서, 입력부(510)는 정보 수집 모듈(210)의 전체 또는 일부 수행 동작과 대응되는 동작을 수행할 수 있다.
출력부(520)는 프로세서(530)와 연동하여 통합 교통 정보, 이벤트 대응 교통 정보 등을 출력할 수 있다.
출력부(520)는 프로세서(530)에서 생성된 이벤트 대응 교통 정보를 정보 제공 서버(50)로 전달하여 외부 장치로 이벤트 대응 교통 정보가 제공될 수 있도록 한다. 여기서, 출력부(520)는 정보 제공 처리 모듈(230)의 전체 또는 일부 수행 동작과 대응되는 동작을 수행할 수 있다.
입력부(510) 및 출력부(520)는 입출력 인터페이스부(미도시)와 연결될 수 있다. 입출력 인터페이스부는, 입력부(510)에서 획득된 정보를 프로세서(530)에 전달하거나, 또는 프로세서(530)로부터의 제어 신호를 입력 받아, 실질적으로 입력부(510) 및 출력부(520)를 제어하기 위한 신호로 변환하도록 마련될 수 있다.
프로세서(530)는 메모리(550)에 포함된 적어도 하나의 명령어 또는 프로그램을 실행시키는 기능을 수행한다.
본 실시예에 따른 프로세서(530)는 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하고, 통합 교통 정보를 기반으로 돌발 이벤트에 대한 이벤트 대응 교통 정보를 생성하는 동작을 수행한다.
프로세서(530)는 정보 관리 처리 모듈(220)의 전체 또는 일부 수행 동작과 대응되는 동작을 수행할 수 있다.
프로세서(530)는 신경망(540)과 연동하여 이벤트 대응 교통 정보를 생성하는 동작을 처리할 수도 있다.
한편, 프로세서(530) 및 신경망(540)는 서로 다른 모듈인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 하나의 모듈로 결합되어 각각의 동작이 수행되도록 구현될 수도 있다.
신경망(540)은 인공지능(AI: Artificial Intelligence)를 기반으로 돌발 이벤트 판단, 분류값 산출, 가중치 부여 등과 관련된 신경망 처리를 수행한다.
신경망(540)은 입력 노드와, 중간 노드 및 출력 노드를 가지며, 각 노드를 연결하는 연결 가중치로서, 트레이닝 데이터를 통해 미리 학습이 완료된 결정 가중치에 의하여 특정된 구조를 갖는다. 신경망(540)의 출력값은, 확장 영역의 좌표값, 단위 블록 영역의 좌표값일 수 있으며, 확장 영역 또는 단위 블록 영역에 대한 특징값 행렬의 형태로 구현될 수 있다.
메모리(550)는 프로세서(530)에 의해 실행 가능한 적어도 하나의 명령어 또는 프로그램을 포함한다. 메모리(550)는 교통 정보 관리 동작, 돌발 이벤트 처리 동작 등을 위한 명령어 또는 프로그램을 포함할 수 있다. 또한, 메모리(550)는 신경망 학습 결과 및 신경망의 입력값 또는 출력값의 전처리를 위한 동작 등을 위한 명령어 또는 프로그램을 포함할 수 있다.
데이터베이스(560)는 데이터베이스 관리 프로그램(DBMS)을 이용하여 컴퓨터 시스템의 저장공간(하드디스크 또는 메모리)에 구현된 일반적인 데이터구조를 의미하는 것으로, 데이터의 검색(추출), 삭제, 편집, 추가 등을 자유롭게 행할 수 있는 데이터 저장형태를 뜻하는 것으로, 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), DB2와 같은 관계형 데이타베이스 관리 시스템(RDBMS)이나, 겜스톤(Gemston), 오리온(Orion), O2 등과 같은 객체 지향 데이타베이스 관리 시스템(OODBMS) 및 엑셀론(Excelon), 타미노(Tamino), 세카이주(Sekaiju) 등의 XML 전용 데이터베이스(XML Native Database)를 이용하여 본 발명의 일 실시예의 목적에 맞게 구현될 수 있고, 자신의 기능을 달성하기 위하여 적당한 필드(Field) 또는 엘리먼트들을 가지고 있다. 한편, 데이터베이스(560)는 클라우드, 가상 메모리 등으로 구현될 수도 있다.
본 실시예에 따른 데이터베이스(560)는 교통 관련 정보, 통합 교통 정보, 이벤트 대응 교통 정보 등을 저장 및 제공할 수 있다.
데이터베이스(560)는 교통 정보 시스템(42) 내에 구현되는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 별도의 데이터 저장장치로 구현될 수도 있다.
도 6은 본 발명의 실시예에 따른 교통 영상 융합 모듈을 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 교통 영상 융합 모듈(250)은 관심 영역 설정부(610), 영상 데이터 획득부(620), 영상 예측부(630) 및 융합 데이터 생성부(640)를 포함한다.
관심 영역 설정부(610)는 돌발 이벤트가 발생한 위치에 대한 관심 영역을 설정할 수 있다.
한편, 관심 영역 설정부(610)는 이벤트 관련 교통정보, 돌발 이벤트 대응 교통정보 등에 포함된 경로에 대해 관심 영역을 설정할 수 있다.
영상 데이터 획득부(620)는 적어도 하나의 지방청 교통정보 센터로부터 챠량의 이동을 나타내는 복수의 영상 데이터 및 복수의 영상 데이터가 촬영된 위치 정보 각각을 시계열적으로 전달 받는다.
영상 예측부(630)는 복수의 영상 데이터 중 누락된 부분을 판단하고, 복수의 영상 데이터 및 상기 위치 정보를 예측 모델에 적용하여 상기 누락된 부분에 따른 오류 예측 데이터를 추출한다.
융합 데이터 생성부(640)는 오류 예측 데이터 및 복수의 영상 데이터를 서로 융합하여 융합 데이터를 생성한다.
이하에서는 교통 영상 융합 모듈(250)에 대해 더 자세히 설명하도록 한다.
본 발명의 일 실시예에 따르면, 교통 영상 융합 모듈(250)는 영상 융합 명령어들을 실행하는 프로세서; 및 상기 영상 융합 명령어들을 저장하는 메모리를 포함하며, 반드시 이에 한정되는 것은 아니다.
교통 영상 융합 모듈(250)는 적어도 하나의 지방청 교통정보 센터로부터 챠량의 이동을 나타내는 복수의 영상 데이터 및 상기 복수의 영상 데이터가 촬영된 위치 정보 각각을 시계열적으로 전달받고, 복수의 영상 데이터 중 누락된 부분을 판단하고, 복수의 영상 데이터 및 상기 위치 정보를 예측 모델에 적용하여 누락된 부분에 따른 오류 예측 데이터를 추출하며, 오류 예측 데이터 및 복수의 영상 데이터를 서로 융합하여 융합 데이터를 생성할 수 있다.
교통 영상 융합 모듈(250)는 복수의 영상 데이터 및 위치 정보를 노드 및 링크로 이루어진 교통망과 대응되도록 매칭시켜 매칭 데이터를 생성하며, 생성된 매칭 데이터를 기반으로 예측 모델을 통해 오류 예측 데이터를 추출하고, 오류 예측 데이터를 위치 정보에 대응되는 영상 데이터 대신 사용할 수 있다.
오류 예측 데이터는 적어도 하나의 지방청 교통정보 센터로부터 전달받은 복수의 영상 데이터 중 기상 환경에 의한 영상 데이터의 확인 불가 상태에 따른 오류 또는 영상 데이터의 수집 오류에 의해 교통 정보 확인이 불가능한 경우에 생성될 수 있다.
교통 영상 융합 모듈(250)는 교통 정보 확인이 불가능한 경우 생성된 오류 예측 데이터 및 복수의 영상 데이터를 고려한 융합 데이터를 이용하여 교통 정보, 돌발 정보, 소요 시간을 제공하는 교통 상황을 예측할 수 있다.
교통 영상 융합 모듈(250)는 복수의 영상 데이터 중 오류에 따른 오류 영상 데이터 및 오류 영상 데이터의 위치 정보가 입력되면, 오류 영상 데이터와 가장 인접한 영상 데이터를 차량의 이동 방향 별로 추출하며, 추출된 인접한 영상 데이터를 예측 모델의 입력으로 하여 오류 예측 데이터를 생성할 수 있다.
예측 모델은 추출된 인접한 영상 데이터가 입력되면, 각각의 인접한 영상 데이터에서 움직이는 객체에 따른 특징을 추출하고, 특징 추출 여부를 확인하여 특징이 적어도 하나 추출되는 경우 추출된 특징들을 융합하여 추출 데이터를 생성하며, 생성된 추출 데이터를 기반으로 오류 예측 데이터를 생성할 수 있다.
교통 영상 융합 모듈(250)는 오류 영상 데이터의 기존 영상을 통해 움직이는 객체를 제외한 배경 데이터에 추출된 특징들을 융합한 추출 데이터를 서로 매칭시켜 오류 예측 데이터를 생성할 수 있다.
교통 영상 융합 모듈(250)는 오류 예측 데이터 및 복수의 영상 데이터가 융합된 전체적인 차량의 흐름을 나타내는 융합 데이터를 지방청 교통정보 센터 또는 정보 출력 서버에 제공할 수 있다.
교통 영상 융합 모듈(250)는 복수의 영상 데이터가 획득되는 노드를 연결하는 링크를 기 설정된 횟수로 분할하여 복수의 분할 구역을 생성하며, 생성된 각각의 분할 구역에 따른 교통 상황을 예측하도록 각각의 분할 구역에 따른 분할 예측 데이터를 더 생성할 수 있다.
교통 영상 융합 모듈(250)는 분할 예측 데이터를 더 고려한 융합 데이터를 이용하여 교통 정보, 돌발 정보, 소요 시간을 제공하는 교통 상황을 예측할 수 있다.
교통 영상 융합 모듈(250)는 복수의 영상 데이터 중 서로 인접하는 제1 영상 데이터 및 제2 영상 데이터 사이를 적어도 한번 분할하여 적어도 2개의 분할 구역을 생성하고, 분할된 각각의 분할 구역에서 차량의 이동 방향에 따른 진입 또는 진출되는 차량의 이동을 고려하여 각각의 분할 구역에 대한 분할 예측 데이터를 생성할 수 있다. 여기서, 제1 영상 데이터는 제1 진입 차량 및 제1 진출 차량을 포함하고, 제2 영상 데이터는 제2 진입 차량 및 제2 진출 차량을 포함할 수 있다.
교통 영상 융합 모듈(250)는 일정 시간 동안의 제1 진입 차량 및 제2 진출 차량과 제2 진입 차량 및 제1 진출 차량에 따른 각각의 차량의 속도, 차량의 개수 및 외부 환경을 고려하고, 진입 차량 및 진출 차량이 서로 인접한 분할 구역에 가중치를 더 부여하여 분할 예측 데이터를 생성할 수 있다.
분할 예측 데이터는 제1 진입 차량 및 제2 진입 차량을 기반으로 이동하는 차량을 나타내며, 분할 구역에서의 진출이 예측되거나, 또는 진출 차량을 통해 진출이 확인되는 경우 해당 차량이 제거될 수 있다.
교통 영상 융합 모듈(250)는 복수의 영상 데이터, 오류 예측 데이터 및 분할 예측 데이터 각각의 위치 정보 및 각각의 데이터에 따른 배경 또는 이동 차량을 기반으로 형성되는 적어도 하나 공유되는 특징을 기반으로 융합하여 융합 데이터를 생성할 수 있다.
융합 데이터는 복수의 영상 데이터를 기준으로 각각의 데이터 간의 크기를 도로의 형태에 맞춰 비율을 각각 조절하며, 복수의 영상 데이터와 인접한 위치 정보를 통해 배경 또는 이동 차량에 따른 공유되는 특징을 기반으로 융합될 수 있다.
도 7는 본 발명의 실시예에 따른 관심 영역의 영상 처리 방법을 설명하기 위한 순서도이다.
교통 정보 시스템(42)은 교통 관련 정보를 수집한다(S610). 교통 정보 시스템(42)은 복수의 지방청 교통 정보 센터(20) 각각으로부터 전송된 도로 교통 정보, CCTV 영상정보, 도로전광표지(VMS: Variable Message Sign) 정보 및 광역 대중교통정보 등을 포함하는 교통 관련 정보를 수집할 수 있다. 또한, 교통 정보 시스템(42)은 유관 기관 단말(30)로부터 전송된 사고 정보, 기상 정보 등을 포함하는 교통 관련 정보를 수집할 수 있다.
교통 정보 시스템(42)은 교통 관련 정보를 기반으로 통합 처리하여 통합 교통 정보를 생성한다(S620). 교통 정보 시스템(42)은 교통 관련 정보를 융합하고, 전국 및 광역 교통 정보를 전자 지도에 통합하여 통합 교통 정보를 생성한다.
교통 정보 시스템(42)은 통합 교통 정보를 기반으로 실시간 교통 정보를 매칭한다(S630). 교통 정보 시스템(42)은 교통 관련 정보를 기반으로 도로 상의 교통량, 혼잡 정도 등을 분석한 실시간 교통 정보를 산출하고, 산출된 실시간 교통 정보를 통합 교통 정보에 반영할 수 있다.
교통 정보 시스템(42)은 통합 교통 정보를 기반으로 관심 영역을 설정한다(S740).
교통 정보 시스템(42)은 관심 영역 설정부(610)는 돌발 이벤트가 발생한 위치에 대한 관심 영역을 설정할 수 있다. 한편, 교통 정보 시스템(42)은 이벤트 관련 교통정보, 돌발 이벤트 대응 교통정보 등에 포함된 경로에 대해 관심 영역을 설정할 수도 있다.
교통 정보 시스템(42)은 설정된 관심 영역에 대한 영상 데이터를 획득한다(S750).
교통 정보 시스템(42)은 적어도 하나의 지방청 교통정보 센터로부터 챠량의 이동을 나타내는 복수의 영상 데이터 및 복수의 영상 데이터가 촬영된 위치 정보 각각을 시계열적으로 전달 받는다.
교통 정보 시스템(42)은 영상 예측 처리를 통해 예측 데이터를 생성한다(S760).
교통 정보 시스템(42)은 복수의 영상 데이터 중 누락된 부분을 판단하고, 복수의 영상 데이터 및 상기 위치 정보를 예측 모델에 적용하여 상기 누락된 부분에 따른 오류 예측 데이터를 추출한다.
교통 정보 시스템(42)은 영상 데이터 및 예측 데이터를 융합하여 융합 데이터를 생성한다(S770).
교통 정보 시스템(42)은 오류 예측 데이터 및 복수의 영상 데이터를 서로 융합하여 융합 데이터를 생성한다.
교통 정보 시스템(42)은 융합 데이터의 전체 또는 일부를 상황실 출력 모듈에서 출력한다(S780).
도 7에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 7에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 7은 시계열적인 순서로 한정되는 것은 아니다.
도 7에 기재된 본 실시예에 따른 관심 영역의 영상 처리 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 관심 영역의 영상 처리 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.
도 8은 본 발명의 실시예에 따른 관심 영역에 대한 설정 동작을 설명하기 위한 예시도이다.
도 8을 참고하면, 교통 정보 시스템(42)은 돌발 이벤트 발생 위치(800)를 기준으로 제1 관심 영역(840)을 설정할 수 있다.
한편, 교통 정보 시스템(42)은 돌발 이벤트 발생 위치(800) 및 출발지 정보(810) 간의 경로에 대한 제2 관심 영역(830)을 설정할 수 있다.
도 9는 본 발명의 실시예에 따른 예측 모델을 적용하여 오류 예측 데이터를 추출하는 예시도이다.
도 9를 참고하면, 예측 모델(920)은 영상 데이터(910)가 입력될 수 있으며, 오류 예측 데이터(930)가 출력될 수 있다.
예측 모델(920)은 영상 데이터가 입력되면, 영상 데이터에서 움직이는 객체에 따른 특징을 추출하고, 특징 추출 여부를 확인하여 특징이 적어도 하나 추출되는 경우 추출된 특징들을 융합하여 추출 데이터를 생성하며, 생성된 추출 데이터를 기반으로 오류 예측 데이터를 생성할 수 있다. 이때, 추출되는 특징은 영상 데이터에서의 움직이는 차량일 수 있고, 복수의 움직이는 차량을 나타내는 특징을 추출하여 이를 융합한 추출 데이터를 생성할 수 있다.
예측 모델(920)은 오류에 따른 오류 영상 데이터와 가장 인접한 영상 데이터를 모두 이용하여 학습을 수행할 수 있으며, 학습 시 각각의 차량의 이동 속도와, 입력된 영상 데이터에 해당하는 도로의 규정 속도를 적용하여 오류에 따른 오류 영상 데이터를 예측한 오류 예측 데이터를 생성할 수 있다.
예측 모델(920)은 차량에 대한 진입을 나타내는 영상 데이터 및 진출을 나타내는 영상 데이터를 모두 사용함에 따라, 해당 차량에 대한 진입 진출 데이터를 학습하여 인접한 위치의 오류 영상 데이터에 따른 오류 예측 데이터를 생성할 수 있다.
예측 모델(920)은 상술한 차량을 나타내는 추출 데이터와, 각각의 차량의 이동 속도와, 입력된 영상 데이터에 해당하는 도로의 규정 속도를 통해 이를 통합한 오류 예측 데이터(930)를 추출할 수 있다.
이는 아래의 도 10 및 도 11를 참조하여 자세히 설명한다.
도 10은 본 발명의 실시예에 따른 오류 예측 데이터 생성을 설명하기 위한 예시도이다.
교통 정보 센터는 차량이 지나가는 차도에 설치된 복수의 CCTV를 통해 차량의 이동을 확인할 수 있는 영상 데이터가 생성되면 적어도 하나의 지방청 교통정보 센터를 통해 전달받을 수 있다.
도 10을 참고하면, 교통 정보 센터는 제1 촬영부(1010), 제2 촬영부(1020) 및 제3 촬영부(1030)를 통해 촬영된 제1 영상 데이터, 제2 영상 데이터 및 제3 영상 데이터 각각을 전달받을 수 있으며, 각각의 영상 데이터를 획득한 위정 정보 각각을 시계열 적으로 전달받을 수 있다.
교통 영상 융합 모듈(250)는 제1 영상 데이터, 제2 영상 데이터 및 제3 영상 데이터를 전달받으면 우선적으로 데이터 확인 과정을 수행할 수 있다. 예를 들어, 교통 영상 융합 모듈(250)는 1차적으로 영상 데이터들의 전송 완료 여부를 확인하고, 2착적으로 전송된 영상 데이터들의 촬영 상태를 확인할 수 있다.
구체적으로, 교통 영상 융합 모듈(250)는 1차적으로 각각의 위치 정보에 대응되는 영상 데이터들이 시계열적으로 전달되었는지를 확인할 수 있으며, 누락되어 전달되지 않은 것으로 판단되는 경우, 해당 지방청 교통정보 센터로 위치 정보에 대응되는 영상 데이터의 전달 오류 신호를 제공할 수 있다.
또한, 교통 영상 융합 모듈(250)는 2차적으로 전달받은 각각의 영상 데이터들이 별도의 물체 등에 의해 촬영이 제대로 이루어지지 않은 경우를 판단할 수 있으며, 촬영 상태에 문제가 있는 것으로 판단되는 경우 해당 지방청 교통정보 센터로 위치 정보에 대응되는 영상 데이터의 촬영 확인 신호를 제공할 수 있다. 이때, 촬영 상태에 문제가 있는 것으로 판단하는 것은 현재 전달받은 영상 데이터와 기존의 영상 데이터에서 차량을 제외한 배경 유사도를 비교하여 유사도가 임계치 이하인 경우, 촬영 상태에 문제가 있는 것으로 판단할 수 있다. 여기서, 이동하는 차량을 포함하는 영상 데이터가 입력되면 컨볼루션 필터링을 통해 차량을 추출하고, 추출된 차량을 영상 데이터에서 차감하여 생성된 영상을 서로 비교할 수 있다.
교통 영상 융합 모듈(250)는 우선적으로 전달받은 영상 데이터들은 교통정보 제공 서버에 제공하고, 데이터 확인 과정에 의해 영상 데이터들의 오류로 판단되는 경우에 오류 신호를 각각의 지방청 교통정보 센터로 전달하며, 유관 기관 서버, 유관 기관 단말에 전달 또는 교통 상황을 예측하여 제공하는 경우에는 오류 예측 데이터를 생성함에 따라 제공할 수 있으며, 이를 통해 교통 상황 예측에 정확도를 높일 수 있다.
예를 들어, 제2 촬영부(1020)를 통해 촬영된 제2 영상 데이터에 오류가 발생하는 경우, 제2 영상 데이터와 인접한 제1 영상 데이터 및 제3 영상 데이터를 이용하여 오류 예측 데이터를 생성할 수 있다. 교통 영상 융합 모듈(250)는 제1 영상 데이터에서 제3 영상 데이터로 이동하는 방향에 따른 차량의 진입 및 진출에 따른 평균 속도 및 해당 도로의 권장 속도를 이용하여 제2 영상 데이터에 대응하는 오류 예측 데이터를 생성할 수 있으며, 딥러닝을 통해 제1 영상 데이터에서 추출한 차량 특징들을 제2 영상 데이터에 대응하는 배경에 적용하여 오류 예측 데이터를 생성할 수 있다.
도 11은 본 발명의 실시예에 따른 분할 예측 데이터 생성을 설명하기 위한 예시도이다.
도 11을 참고하면, 교통 영상 융합 모듈(250)는 분할 예측 데이터를 더 생성할 수 있다. 구체적으로, 제2 촬영부(1020) 및 제3 촬영부(1030) 사이를 복수의 분할 영역으로 분할 수 있으며, 예를 들어, 제1 분할 영역(1110), 제2 분할 영역(1120) 및 제3 분할 영역(1130)이 형성되도록 영상 데이터가 획득되는 사이를 분할 할 수 있으며, 분할 횟수는 분할 길이를 고려하여 이루어질 수 있다. 또한, 분할 영역 길이는 각각의 영역이 모두 일정하거나, 촬영부에 가까운 분할 영역의 길이가 먼 분할 영역의 길이보다 길도록 분할될 수 있다.
제1 분할 영역(1110), 제2 분할 영역(1120) 및 제3 분할 영역(1130) 각각의 분할 예측 데이터는 제2 영상 데이터 및 제3 영상 데이터를 이용하여 이루어질 수 있다. 구체적으로, 교통 영상 융합 모듈(250)는 제2 영상 데이터 및 제3 영상 데이터를 통해 차량의 진입 또는 진출을 학습하며, 학습 시 차량의 진입 및 진출에 따른 평균 속도 및 해당 도로의 권장 속도를 더 고려하여 학습될 수 있다. 구체적으로, 제2 영상 데이터를 통해 진입한 차량이 제3 영상 데이터를 통해 진출하는 시간과 각각의 속도를 이용할 수 있으며, 이를 기반으로 그 사이 구간에서의 차량의 이동을 예측할 수 있다. 또한, 각각의 제2 영상 데이터에서의 진입 속도 및 제3 영상 데이터에서의 진출 속도를 각각 고려하여 각각 제1 분할 영역(1110) 및 제3 분할 영역(1130)에서의 차량의 이동 위치를 예측할 수 있다. 또한, 차량 밀집도를 더 고려할 수 있으며, 이때, 밀집도는 제2 영상 데이터 및 제3 영상 데이터 각각에서의 밀집도를 고려하여 차량 속도의 증가 또는 감소를 예측하여 각각의 분할 구역의 이동 차량을 예측할 수 있다.
제1 분할 영역(1110), 제2 분할 영역(1120) 및 제3 분할 영역(1130) 각각의 분할 예측 데이터는 각각의 영역이 인접하는 데이터와의 근접 거리 비율을 기반으로 차량의 진입 및 진출에 따른 평균 속도 및 해당 도로의 권장 속도에 따른 차량의 이동 가중치 비율을 설정할 수 있다.
제1 분할 영역(1110), 제2 분할 영역(1120) 및 제3 분할 영역(1130)은 적어도 하나의 지방청 교통정보 센터로부터 전달받은 도로 정보를 이용하여 차량 이동 영역이 제공될 수 있으며, 또는 제2 영상 데이터 및 제3 영상 데이터를 기반으로 확인 가능한 도로 정보를 이용하여 영역이 제공될 수 있다.
상술한 과정에서 예측된 분할 예측 데이터는 제1 분할 영역(1110), 제2 분할 영역(1120) 및 제3 분할 영역(1130) 각각 형성될 수 있다.
교통 영상 융합 모듈(250)는 제1 분할 영역(1110), 제2 분할 영역(1120) 및 제3 분할 영역(1130)에 따른 분할 예측 데이터와, 제2 영상 데이터 및 제3 영상 데이터와, 오류 예측 데이터를 모두 융합한 융합 데이터를 생성할 수 있다. 이때, 융합 데이터는 따른 분할 예측 데이터와, 제2 영상 데이터 및 제3 영상 데이터와, 오류 예측 데이터 각각에서 서로 연결되는 부분을 매칭시킨 후 융합시켜 생성될 수 있으며, 이때, 융합 기준은 영상 데이터로서, 영상 데이터의 비율에 맞춰 분할 예측 데이터와 오류 예측 데이터의 비율을 조절하며, 도로를 기준으로 연결되는 부분을 매칭시켜 융합시킬 수 있다.
이를 통해 교통 정보 센터는 융합 데이터를 이용하여 교통 정보, 돌발 정보, 소요 시간 등을 제공하는 교통 상황을 예측하여 제공할 수 있으며, 융합 데이터로 예측 정확도가 더 높아질 수 있으며, 기존의 제공 구간보다 더 좁은 구간에서의 교통 상황 예측이 가능해질 수 있다.
이상의 설명은 본 발명의 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 실시예들은 본 발명의 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 지능형 교통 시스템 20: 지방청 교통정보 센터
30: 유관 기관 단말 40: 국가 교통 정보 센터
42: 교통 정보 시스템 50: 정보 제공 서버
210: 정보 수집 모듈 220: 정보 관리 처리 모듈
230: 정보 제공 처리 모듈 240: 정보 저장 모듈
250: 교통 영상 융합 모듈 260: 상황실 출력 모듈

Claims (13)

  1. 국가 교통 정보 센터에서 관심 영역의 영상 처리를 위한 시스템에 있어서,
    복수의 지방청 교통 정보 센터로부터 수집된 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하는 교통 정보 처리 장치; 및
    상기 교통 정보 처리 장치와 연동하고, 상기 교통 정보 처리 장치 간 관심 영역에 대한 영상 융합 처리를 수행하며, 상기 통합 교통 정보를 상황실 출력 모듈을 통해 출력하는 상황실 처리 장치를 포함하되,
    상기 교통 정보 처리 장치는, 복수의 지방청 교통 정보 센터로부터 교통 관련 정보를 수집하는 정보 수집 모듈; 상기 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하는 정보 관리 처리 모듈; 및 상기 통합 교통 정보를 상기 상황실 처리 장치 또는 적어도 하나의 외부 장치로 전송하는 정보 제공 처리 모듈을 포함하며,
    상기 정보 관리 처리 모듈은, 상기 교통 관련 정보를 융합하고, 전국 및 광역 교통 정보를 전자 지도에 통합하여 통합 교통 정보를 생성하는 교통 정보 통합 처리부; 상기 교통 관련 정보를 기반으로 분석된 실시간 교통 정보를 상기 통합 교통 정보에 매칭하는 실시간 교통 정보 처리부; 및 상기 전자 지도 상에서 돌발 이벤트가 감지되면, 상기 돌발 이벤트 관련 정보를 기반으로 상기 돌발 이벤트를 판단하고, 판단 결과를 기반으로 교통 정보를 추출하여 돌발 이벤트 대응 교통정보를 생성하는 돌발 이벤트 처리부를 포함하되,
    상기 돌발 이벤트 처리부는, 외부 장치로부터 이벤트 발생 신호를 수신하거나, 상기 통합 교통 정보를 기반으로 상기 돌발 이벤트를 감지하는 이벤트 감지부; 상기 돌발 이벤트에 대한 돌발 이벤트 관련 정보를 획득하는 이벤트 정보 획득부; 돌발 이벤트 관련 정보에 근거하여 상기 돌발 이벤트를 분류하고, 분류 결과에 따라 가중치를 부여하여 돌발 이벤트 판단 정보를 산출하는 이벤트 판단부; 상기 돌발 이벤트에 대응하기 위한 이벤트 대응 기관의 출발지 정보를 획득하고, 상기 출발지 정보를 기반으로 복수의 경로를 선정하고, 상기 복수의 경로 각각에 대응하는 이벤트 관련 교통정보를 추출하는 연관 교통 정보 추출부를 포함하며,
    상기 연관 교통 정보 추출부는, 이벤트 대응 기관의 출발지 정보에서 상기 돌발 이벤트의 발생 위치까지의 복수의 후보 경로를 추출하고, 기 설정된 경로 필터링 조건에 근거하여 상기 복수의 후보 경로 중 기 설정된 기준 도로폭 이하의 도로를 포함하는 후보 경로를 제거하고, 동일 출발지 기준 3 개 이상의 후보 경로가 존재하는 경우 2 개의 후보 경로로 조정하여 선정된 상기 복수의 경로 각각에 대응하는 이벤트 관련 교통정보를 추출하되,
    상기 상황실 처리 장치는, 돌발 이벤트의 발생으로 인해 생성된 이벤트 관련 교통정보에 포함된 경로에 대해 관심 영역을 설정하고, 설정된 관심 영역에 대한 영상 데이터 융합 처리를 수행하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  2. 삭제
  3. 제1항에 있어서,
    상기 상황실 처리 장치는,
    상기 통합 교통 정보의 전체 또는 일부를 상황실 출력 모듈로 전달하여 출력되도록 하고, 상기 통합 교통 정보를 기반으로 관심 영역을 설정하고, 설정된 관심 영역에 대한 영상 데이터 융합 처리를 수행하는 교통 영상 융합 모듈; 및
    적어도 하나의 상황실 출력부를 포함하고, 상기 적어도 하나의 상황실 출력부 각각을 통해 상기 통합 교통 정보를 출력하는 상황실 출력 모듈
    을 포함하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  4. 제3항에 있어서,
    상기 교통 영상 융합 모듈은,
    돌발 이벤트가 발생한 위치에 대한 관심 영역을 설정하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  5. 삭제
  6. 제3항에 있어서,
    상기 교통 영상 융합 모듈은,
    적어도 하나의 지방청 교통정보 센터로부터 챠량의 이동을 나타내는 복수의 영상 데이터 및 상기 복수의 영상 데이터가 촬영된 위치 정보 각각을 시계열적으로 전달받고,
    상기 복수의 영상 데이터 중 누락된 부분을 판단하고, 상기 복수의 영상 데이터 및 상기 위치 정보를 예측 모델에 적용하여 상기 누락된 부분에 따른 오류 예측 데이터를 추출하며,
    상기 오류 예측 데이터 및 상기 복수의 영상 데이터를 서로 융합하여 융합 데이터를 생성하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  7. 제6항에 있어서,
    상기 교통 영상 융합 모듈은,
    상기 복수의 영상 데이터 및 상기 위치 정보를 노드 및 링크로 이루어진 교통망과 대응되도록 매칭시켜 매칭 데이터를 생성하며, 상기 생성된 매칭 데이터를 기반으로 상기 예측 모델을 통해 오류 예측 데이터를 추출하고,
    상기 오류 예측 데이터를 상기 위치 정보에 대응되는 상기 영상 데이터 대신 사용하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  8. 제7항에 있어서,
    상기 오류 예측 데이터는,
    상기 적어도 하나의 지방청 교통정보 센터로부터 전달받은 복수의 영상 데이터 중 기상 환경에 의한 영상 데이터의 확인 불가 상태에 따른 오류 또는 영상 데이터의 수집 오류에 의해 교통 정보 확인이 불가능한 경우에 생성되며,
    상기 교통 정보 확인이 불가능한 경우 생성된 오류 예측 데이터 및 상기 복수의 영상 데이터를 고려한 상기 융합 데이터를 이용하여 교통 정보, 돌발 정보, 소요 시간을 제공하는 교통 상황을 예측하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  9. 제8항에 있어서,
    상기 교통 영상 융합 모듈은,
    상기 복수의 영상 데이터 중 오류에 따른 오류 영상 데이터 및 상기 오류 영상 데이터의 위치 정보가 입력되면, 상기 오류 영상 데이터와 가장 인접한 영상 데이터를 차량의 이동 방향 별로 추출하며, 상기 추출된 인접한 영상 데이터를 상기 예측 모델의 입력으로 하여 상기 오류 예측 데이터를 생성하며,
    상기 예측 모델은 상기 추출된 인접한 영상 데이터가 입력되면, 상기 각각의 인접한 영상 데이터에서 움직이는 객체에 따른 특징을 추출하고, 상기 특징 추출 여부를 확인하여 상기 특징이 적어도 하나 추출되는 경우 상기 추출된 특징들을 융합하여 추출 데이터를 생성하며, 상기 생성된 추출 데이터를 기반으로 상기 오류 예측 데이터를 생성하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  10. 제9항에 있어서,
    상기 교통 영상 융합 모듈은,
    상기 오류 영상 데이터의 기존 영상을 통해 움직이는 객체를 제외한 배경 데이터에 상기 추출된 특징들을 융합한 추출 데이터를 서로 매칭시켜 상기 오류 예측 데이터를 생성하며,
    상기 오류 예측 데이터 및 상기 복수의 영상 데이터가 융합된 전체적인 차량의 흐름을 나타내는 상기 융합 데이터를 상기 지방청 교통정보 센터 또는 정보 출력 서버에 제공하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  11. 제8항에 있어서,
    상기 교통 영상 융합 모듈은,
    상기 복수의 영상 데이터가 획득되는 상기 노드를 연결하는 링크를 기 설정된 횟수로 분할하여 복수의 분할 구역을 생성하며, 상기 생성된 각각의 분할 구역에 따른 상기 교통 상황을 예측하도록 상기 각각의 분할 구역에 따른 분할 예측 데이터를 더 생성하며,
    분할 예측 데이터를 더 고려한 상기 융합 데이터를 이용하여 교통 정보, 돌발 정보, 소요 시간을 제공하는 상기 교통 상황을 예측하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  12. 제11항에 있어서,
    상기 교통 영상 융합 모듈은,
    상기 복수의 영상 데이터 중 서로 인접하는 제1 영상 데이터 및 제2 영상 데이터 사이를 적어도 한번 분할하여 적어도 2개의 분할 구역을 생성하고, 상기 분할된 각각의 분할 구역에서 차량의 이동 방향에 따른 진입 또는 진출되는 차량의 이동을 고려하여 각각의 분할 구역에 대한 분할 예측 데이터를 생성하며,
    상기 제1 영상 데이터는 제1 진입 차량 및 제1 진출 차량을 포함하고, 상기 제2 영상 데이터는 제2 진입 차량 및 제2 진출 차량을 포함하는 것을 특징으로 하는 관심 영역의 영상 처리를 위한 교통 정보 시스템.
  13. 국가 교통 정보 센터에서 관심 영역의 영상 처리를 위한 방법에 있어서,
    복수의 지방청 교통 정보 센터로부터 수집된 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하는 교통 정보 처리 단계; 및
    상기 교통 정보 처리 장치와 연동하고, 상기 교통 정보 처리 장치 간 관심 영역에 대한 영상 융합 처리를 수행하며, 상기 통합 교통 정보를 상황실 출력 모듈을 통해 출력하는 상황실 처리 단계를 포함하되,
    상기 교통 정보 처리 단계는, 복수의 지방청 교통 정보 센터로부터 교통 관련 정보를 수집하는 정보 수집 단계; 상기 교통 관련 정보를 기반으로 실시간 교통 정보가 매칭된 통합 교통 정보를 생성하는 정보 관리 처리 단계; 및 상기 통합 교통 정보를 상기 상황실 처리 장치 또는 적어도 하나의 외부 장치로 전송하는 정보 제공 처리 단계를 포함하며,
    상기 정보 관리 처리 단계는, 상기 교통 관련 정보를 융합하고, 전국 및 광역 교통 정보를 전자 지도에 통합하여 통합 교통 정보를 생성하는 교통 정보 통합 처리 단계; 상기 교통 관련 정보를 기반으로 분석된 실시간 교통 정보를 상기 통합 교통 정보에 매칭하는 실시간 교통 정보 처리 단계; 및 상기 전자 지도 상에서 돌발 이벤트가 감지되면, 상기 돌발 이벤트 관련 정보를 기반으로 상기 돌발 이벤트를 판단하고, 판단 결과를 기반으로 교통 정보를 추출하여 돌발 이벤트 대응 교통정보를 생성하는 돌발 이벤트 처리 단계를 포함하되,
    상기 돌발 이벤트 처리 단계는, 외부 장치로부터 이벤트 발생 신호를 수신하거나, 상기 통합 교통 정보를 기반으로 상기 돌발 이벤트를 감지하는 이벤트 감지 단계; 상기 돌발 이벤트에 대한 돌발 이벤트 관련 정보를 획득하는 이벤트 정보 획득 단계; 돌발 이벤트 관련 정보에 근거하여 상기 돌발 이벤트를 분류하고, 분류 결과에 따라 가중치를 부여하여 돌발 이벤트 판단 정보를 산출하는 이벤트 판단 단계; 상기 돌발 이벤트에 대응하기 위한 이벤트 대응 기관의 출발지 정보를 획득하고, 상기 출발지 정보를 기반으로 복수의 경로를 선정하고, 상기 복수의 경로 각각에 대응하는 이벤트 관련 교통정보를 추출하는 연관 교통 정보 추출 단계를 포함하며,
    상기 연관 교통 정보 추출 단계는, 이벤트 대응 기관의 출발지 정보에서 상기 돌발 이벤트의 발생 위치까지의 복수의 후보 경로를 추출하고, 기 설정된 경로 필터링 조건에 근거하여 상기 복수의 후보 경로 중 기 설정된 기준 도로폭 이하의 도로를 포함하는 후보 경로를 제거하고, 동일 출발지 기준 3 개 이상의 후보 경로가 존재하는 경우 2 개의 후보 경로로 조정하여 선정된 상기 복수의 경로 각각에 대응하는 이벤트 관련 교통정보를 추출하되,
    상기 상황실 처리 단계는, 돌발 이벤트의 발생으로 인해 생성된 이벤트 관련 교통정보에 포함된 경로에 대해 관심 영역을 설정하고, 설정된 관심 영역에 대한 영상 데이터 융합 처리를 수행하는 것을 특징으로 하는 관심 영역의 영상 처리 방법.
KR1020230043176A 2023-03-31 2023-03-31 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치 KR102590358B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230043176A KR102590358B1 (ko) 2023-03-31 2023-03-31 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230043176A KR102590358B1 (ko) 2023-03-31 2023-03-31 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치

Publications (1)

Publication Number Publication Date
KR102590358B1 true KR102590358B1 (ko) 2023-10-17

Family

ID=88557457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230043176A KR102590358B1 (ko) 2023-03-31 2023-03-31 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치

Country Status (1)

Country Link
KR (1) KR102590358B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243587A (ja) * 2000-02-25 2001-09-07 Toshiba Corp 道路交通管理システム
KR20020092107A (ko) * 2001-06-02 2002-12-11 엘지산전 주식회사 영상정보를 이용한 교통정보 추출 방법 및 장치
KR20140146917A (ko) * 2013-06-18 2014-12-29 주식회사 웨이브엠 교통정보 품질 검증 시스템
KR20200040501A (ko) * 2018-10-10 2020-04-20 주식회사 케이티 교통 정보 예측 방법, 장치 및 컴퓨터 프로그램

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243587A (ja) * 2000-02-25 2001-09-07 Toshiba Corp 道路交通管理システム
KR20020092107A (ko) * 2001-06-02 2002-12-11 엘지산전 주식회사 영상정보를 이용한 교통정보 추출 방법 및 장치
KR20140146917A (ko) * 2013-06-18 2014-12-29 주식회사 웨이브엠 교통정보 품질 검증 시스템
KR20200040501A (ko) * 2018-10-10 2020-04-20 주식회사 케이티 교통 정보 예측 방법, 장치 및 컴퓨터 프로그램

Similar Documents

Publication Publication Date Title
CN109145954B (zh) 一种基于多源时空数据的网约车出行安全评价方法及系统
Xie et al. Spatial analysis of highway incident durations in the context of Hurricane Sandy
US20150379355A1 (en) A surveillance system
CN116824859B (zh) 一种基于物联网的智慧交通大数据分析系统
CN112883936A (zh) 一种对车辆违规行为的检测方法及其系统
Wang et al. Realtime wide-area vehicle trajectory tracking using millimeter-wave radar sensors and the open TJRD TS dataset
CN115273480B (zh) 一种基于大数据分析的交通预警系统及其方法
CN113868492A (zh) 一种基于电警、卡口数据的可视化od分析方法及应用
Minnikhanov et al. Detection of traffic anomalies for a safety system of smart city
Alrassy et al. Driver behavior indices from large-scale fleet telematics data as surrogate safety measures
CN114771548A (zh) 用于高级驾驶辅助系统测试和验证的数据记录
KR102590358B1 (ko) 교통 정보 센터의 관심 영역의 영상 처리 방법 및 그를 위한 장치
Bäumler et al. ‘Generating representative test scenarios: The fuse for representativity (Fuse4Rep) process model for collecting and analysing traffic observation data
KR102590355B1 (ko) 교통 정보 센터의 교통 영상 융합 장치 및 방법
Abbas et al. Real-time traffic jam detection and congestion reduction using streaming graph analytics
KR102590356B1 (ko) 교통 정보 센터의 돌발 이벤트 처리 방법 및 그를 위한 장치
KR102573708B1 (ko) 교통 정보 센터의 상황판 제어 장치 및 방법
KR102590357B1 (ko) 교통 정보 센터의 교통 상황실 장애 처리 방법 및 그를 위한 장치
KR102593846B1 (ko) 교통 정보 센터의 교통 정보 연계 시스템 및 방법
KR102593847B1 (ko) 교통 정보 센터의 교통 영상정보 관리 시스템 및 방법
KR102591593B1 (ko) 교통 정보 센터의 상황판 출력 영역 제어 방법 및 그를 위한 장치
KR102594585B1 (ko) 교통 정보 센터의 네트워크 성능 저하 감지 방법 및 이를 위한 장치
KR102593845B1 (ko) 특정 상황에 대한 교통 정보 센터의 상황실 제어 방법 및 그를 위한 장치
KR102616571B1 (ko) 인공지능을 이용한 영상 분석 기반의 도로 교통정보 제공 방법 및 그를 위한 시스템
Lv et al. The University of Central Florida’s Smart and Safe Transportation Lab [Its Research Lab]

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant