KR102130966B1 - 교통상황 정보 제공 장치 및 방법 - Google Patents

교통상황 정보 제공 장치 및 방법 Download PDF

Info

Publication number
KR102130966B1
KR102130966B1 KR1020190143841A KR20190143841A KR102130966B1 KR 102130966 B1 KR102130966 B1 KR 102130966B1 KR 1020190143841 A KR1020190143841 A KR 1020190143841A KR 20190143841 A KR20190143841 A KR 20190143841A KR 102130966 B1 KR102130966 B1 KR 102130966B1
Authority
KR
South Korea
Prior art keywords
traffic
vehicle
information
image
lane
Prior art date
Application number
KR1020190143841A
Other languages
English (en)
Other versions
KR20200071655A (ko
Inventor
최태욱
이승열
우종민
정준현
Original Assignee
라온피플 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라온피플 주식회사 filed Critical 라온피플 주식회사
Publication of KR20200071655A publication Critical patent/KR20200071655A/ko
Application granted granted Critical
Publication of KR102130966B1 publication Critical patent/KR102130966B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • G06Q50/30
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 실시예에 따른 교통상황 정보 제공 장치는 카메라에 연결된 통신부, 및 카메라에 의해 촬영된 영상으로부터 영상 내 객체를 검출하고, 검출된 객체를 분석하여 교통상황 정보를 검출하고, 검출된 교통상황 정보를 사용자 인터페이스로 제공하는 제어부를 포함하되, 제어부는, 영상 내에서 차선을 검출하고, 차선 내의 차선 무늬를 이용하여 검출된 차선 각각의 이동 방향에 대한 교통상황 정보를 검출한다.

Description

교통상황 정보 제공 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING TRAFFIC SIGNAL}
본 명세서에서 개시되는 실시예들은 교통상황정보 제공 장치 및 방법에 관한 것이다. 보다 상세하게는, 차량의 교통 흐름에 따른 교통상황 정보를 검출하고, 검출된 교통상황 정보를 제공하는 교통상황 정보 제공 장치 및 방법에 관한 것이다.
최근에는 생활의 편리나 직업적인 이유로 차량을 구입하는 사람들이 증가함에 따라 도로에서 운행 중인 차량이 증가하고 있다. 이러한 차량의 증가로 인해 교통난이 증가하고 있으며, 도로환경, 운전자상황, 차량고장, 및 차량사고 등의 다양한 요인으로 인해 교통난이 발생될 수 있다.
관련하여 선행기술문헌인 한국공개특허 제10-2012-0084584호에서는 교통 정보를 제공하기 위해 차량에 설치된 단말을 이용하여 차량의 고속도로 입구와 출구에 있는 톨게이트를 사용하여 차량의 이동 시간을 측정하고, 측정된 차량 이동 시간에 따른 소요 시간 정보를 다른 차량에게 제공하는 교통정보 제공 장치를 기재한다.
선행기술문헌에서와 같이 교통정보를 획득하기 위해서는 차량 각각에 차량 단말을 구비하여야 하며, 톨게이트가 설치되지 않은 도심과 같은 지역에서는 교통상황에 대한 정보를 확인하기 어렵다.
선행기술문헌에서와 같이 차량에 설치된 단말을 이용해서는 차량의 이동 구간을 전제로 소요 시간만을 단순히 제공받기 때문에 다양한 교통상황에 대한 상세 정보를 실시간으로 제공받기 어려우며, 특정한 지점에서의 차선 간 차량 통행 상황, 교차로 통행 상황, 신호 상황, 및 차량의 이동 흐름 등과 같은 교통상황 정보를 제공받을 수 없는 문제점이 있었다.
따라서, 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서에서 개시되는 실시예들은 교통상황 정보를 실시간으로 제공할 수 있는 교통상황 정보 제공 장치 및 방법을 제시하는데 목적이 있다.
본 명세서에서 개시되는 실시예들은 도로 상에서의 정보를 실시간으로 상세하게 확인할 수 있는 교통상황 정보 제공 장치 및 방법을 제시하는데 목적이 있다.
본 명세서에서 개시되는 실시예들은 교통 법규를 위반한 차량에 대한 정보를 제공할 수 있는 교통상황 정보 제공 장치 및 방법을 제시하는 데 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 교통상황 정보 제공 장치는 카메라에 연결된 통신부, 및 상기 카메라에 의해 촬영된 영상으로부터 영상 내 객체를 검출하고, 검출된 객체를 분석하여 교통상황 정보를 검출하고, 검출된 교통상황 정보를 사용자 인터페이스로 제공하는 제어부를 포함하되, 상기 제어부는 상기 영상 내에서 차선을 검출하고, 상기 차선 내 차선 무늬를 이용하여 상기 검출된 차선 각각의 이동 방향에 대한 교통상황 정보를 검출한다.
다른 실시예에 따르면, 교통상황 정보 제공 장치에 의해 수행되는 교통상황 정보 제공 방법은, 카메라로부터 촬영된 영상을 수신하는 단계, 상기 영상 내 객체를 검출하고, 상기 객체를 분석하여 교통상황 정보를 검출하는 단계, 및 상기 교통상황 정보를 사용자 인터페이스를 통해 제공하는 단계를 포함하고, 상기 교통상황 정보를 검출하는 단계는, 상기 영상 내에서 차선을 검출하고, 상기 차선 내 차선 무늬를 이용하여 상기 검출된 차선 각각의 이동 방향을 확인하는 단계를 포함한다.
또 다른 실시예에 따르면, 교통상황 정보 제공 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체로서, 상기 교통상황 정보 제공 방법은 카메라로부터 촬영된 영상을 수신하는 단계, 상기 영상 내 객체를 검출하고, 상기 객체를 분석하여 교통상황 정보를 검출하는 단계, 및 상기 교통상황 정보를 사용자 인터페이스를 통해 제공하는 단계를 포함하고, 상기 교통상황 정보를 검출하는 단계는, 상기 영상 내에서 차선을 검출하고, 상기 차선 내 차선 무늬를 이용하여 상기 검출된 차선 각각의 이동 방향을 확인하는 단계를 포함한다.
또 다른 실시예에 따르면, 교통상황 정보 제공 장치에 의해 수행되며, 교통상황 정보 제공 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램으로서, 상기 교통상황 정보 제공 방법은 카메라로부터 촬영된 영상을 수신하는 단계, 상기 영상 내 객체를 검출하고, 상기 객체를 분석하여 교통상황 정보를 검출하는 단계, 및 상기 교통상황 정보를 사용자 인터페이스를 통해 제공하는 단계를 포함하고, 상기 교통상황 정보를 검출하는 단계는, 상기 영상 내에서 차선을 검출하고, 상기 차선 내 차선 무늬를 이용하여 상기 검출된 차선 각각의 이동 방향을 확인하는 단계를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 교통상황을 정확하게 반영하여 교통신호를 제어하는 교통상황 정보 제공 장치 및 방법을 제시할 수 있다.
본 발명의 과제 해결 수단 중 어느 하나에 의하면, 교통상황에 따라 원활한 차량의 이동을 지원할 수 있는 교통상황 정보 제공 장치 및 방법을 제시할 수 있다.
본 발명의 과제 해결 수단 중 어느 하나에 의하면, 교통상황을 실시간으로 반영하여 교통신호를 제어할 수 있는 교통상황 정보 제공 장치 및 방법을 제시할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 교통상황 정보 제공 시스템을 도시한 도면이다.
도 2는 일 실시예에 따른 교통상황 정보 제공 장치를 도시한 블록도이다.
도 3은 일 실시예에 따른 교통상황 정보 제공 장치의 동작을 도시한 순서도이다.
도 4는 일 실시예에 따른 카메라의 촬영 영상으로부터 객체를 검출하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 교통상황에 따른 교통상황 정보를 획득하기 위한 동작을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 도로를 촬영한 영상을 기준으로 교통상황 정보를 제공하는 사용자 인터페이스를 도시한 도면이다.
도 7은 도 6의 영상을 기준으로 획득된 교통상황 정보를 표시하는 사용자 인터페이스를 도시한 도면이다.
도 8은 일 실시예에 따른 교통상황 정보를 제공하는 사용자 인터페이스를 도시한 도면이다.
도9는 일 실시예에 따른 교통상황 정보를 제공하는 다른 사용자 인터페이스를 도시한 도면이다.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.
다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다.
'영상'은 카메라를 사용하여 도로를 촬영한 파일로서, 이미지 파일과 동영상 파일을 포함할 수 있다. 여기서, 영상은 2차원뿐만 아니라 3차원 영상을 포함할 수도 있다. 하기에서는 설명의 편의를 위하여 이미지 파일과 동영상 파일을 포함한 '영상'을 기준으로 설명하지만, 오디오 신호를 포함한 영상을 포함할 수도 있다.
'객체'는 도로를 촬영한 영상으로부터 추출될 수 있는 모든 정보를 포함할 수 잇다. 객체는 영상 내에서 검출될 수 있는 요소로서, 예를 들어 차선, 중앙분리대, 차선 무늬(차선 안내 표지), 도로표지판, 횡단보도, 인도, 신호등, 차량, 및 사람(보행자) 등을 포함할 수 있다.
도 1은 일 실시예에 따른 교통상황 정보 제공 시스템을 도시한 도면이다.
도 1을 참조하면, 교통상황 정보 제공 시스템(10)은 카메라(20), 사용자 단말(30) 및 교통상황 정보 제공 장치(100)를 포함할 수 있다.
교통상황 제보 제공 시스템(10)에 포함되는 구성은 네트워크를 통해 서로 통신할 수 있다. 이때, 네트워크(N)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet), Mobile WiMAX, HSDPA(High Speed Downlink Packet Access) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다. 또한, 교통상황 정보 제공 시스템(10)에 포함되는 구성은 네트워크를 이용하지 않고 전용선을 이용하여 직접 연결되거나 블루투스와 같은 근거리 무선 통신 방식 등을 이용하여 유/무선 통신을 할 수도 있다.
카메라(20)는 도로 내 또는 도로 주변에 설치되어 도로의 영상을 촬영할 수 있다. 예를 들어, 카메라(20)는 신호등과 같이 도로의 주변에 위치한 구조물에 결합되어 도로의 영상을 촬영할 수도 있다. 카메라(20)는 영상을 실시간으로 촬영할 수 있으며, 교통상황 정보 제공 장치(100)로 실시간으로 촬영된 영상을 전송할 수 있다. 카메라(20)는 엣지 디바이스(edge device)의 형태로 구현될 수 있으며, 엣지 디바이스로 구현 시 촬영된 영상 내에서 차선, 차선 무늬, 도로표지판, 신호등, 차량, 및 사람 등의 객체를 검출하고, 촬영 영상에 검출된 객체에 대한 정보를 포함시켜 교통상황 정보 제공 장치로 전송할 수도 있다.
사용자 단말(30)은 교통상황 정보를 필요로 하는 사용자와 인터렉션을 위한 전자단말기를 포함할 수 있다. 이때, 전자단말기는 사용자와의 인터랙션이 가능한 인터페이스를 포함할 수 있는 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant),GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.
사용자 단말(30)의 사용자는 도로를 관리하기 위한 관리자 또는 도로를 운행 중인 차량의 운전자를 포함하여 해당 도로의 교통상황에 대한 정보를 필요로 하는 사용자를 모두 포함할 수 있다.
교통상황 정보 제공 장치(100)는 카메라(20)와 사용자 단말(30)에 연결되어 데이터를 송수신할 수 있다. 여기서, 교통상황 정보 제공 장치(100)는 카메라(20)를 구성 요소로 내부에 포함할 수도 있다. 이와 달리, 교통상황 정보 제공 장치(100)는 카메라(20)에 포함되거나 사용자 단말(30)에 포함될 수 있어, 카메라(20) 또는 사용자 단말(30) 내부에서 기능이 구현되도록 할 수도 있다.
교통상황 정보 제공 장치(100)는 한 개의 카메라(20) 또는 한 개의 사용자 단말(30)에 연결된 구조를 설명의 편의를 위하여 예시적으로 설명하지만, 두 개 이상의 카메라 또는 두 개 이상의 사용자 단말에 연결될 수도 있다.
한편, 교통상황 정보 제공 장치(100)는 카메라(20)를 통해 촬영된 영상으로부터 도로 내의 객체를 인식할 수 있다. 교통상황 정보 제공 장치(100)는 인식된 도로 내 객체를 이용하여 도로의 상황을 파악하기 위한 교통상황을 분석할 수 있다. 여기서, 교통상황은 객체를 이용하여 분석된 정보로서, 도로 내의 차로, 차로 각각에 대한 진행방향, 교통신호, 차량수, 사람수 등의 교통신호를 제어하기 위한 다양한 정보를 모두 포함할 수 있다.
이러한, 교통상황 정보 제공 장치(100)는 실시간으로 촬영된 영상으로부터 교통상황 정보를 획득할 수 있어 차량 및 사람의 이동에 따른 교통상황의 변화를 실시간으로 측정할 수 있다.
교통상황 정보 제공 장치(100)는 교통상황 정보를 사용자 단말(30)의 사용자 인터페이스를 통해 표시할 수 있다. 이를 위해, 교통상황 정보 제공 장치(100)는 사용자 단말(30)로 교통상황 정보를 전송할 수 있다.
한편, 교통상황 정보 제공 장치(100)는 교통상황의 분석이 필요한 정보에 대해서는 교통상황을 분석하고, 분석된 교통상황 정보를 사용자 단말로 제공할 수도 있다.
도 2는 일 실시예에 따른 교통상황 정보 제공 장치를 도시한 블록도이다.
도 2를 참조하면, 교통상황 정보 제공 장치(100)는 입출력부(110), 통신부(120), 저장부(130), 및 제어부(140)를 포함할 수 있다.
입출력부(110)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 교통상황 정보 제공 장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(110)는 사용자 입력을 수신하는 조작 패널 및 화면을 표시하는 디스플레이 패널 등을 포함할 수 있다.
구체적으로, 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 사용자 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.
통신부(120)는 다른 디바이스 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(120)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.
통신부(120)는 유무선 통신을 지원할 수 있으며, 교통상황 정보 제공 장치(100)가 통신을 수행할 수 있도록 하는 각종 통신 기법이 가능하다. 이를 통해, 통신부(120)는 카메라(20) 또는 사용자 단말(30)과 통신할 수 있다. 예를 들어, 통신부(120)는 카메라(20)로부터 촬영된 영상을 수신하거나, 사용자 단말(30)로 교통상황 정보를 전송할 수 있다.
저장부(130)는 파일, 애플리케이션, 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 저장부(130)에 저장된 데이터는 후술될 제어부(140)에 의해 액세스되어 이용되거나, 또는 제어부(140)에 의해 새로운 데이터가 저장될 수 있다. 또한 저장부(130)는 제어부(140)에 의해 교통상황 정보를 획득 또는 분석할 수 있는 프로그램을 저장할 수 있다.
저장부(130)는 카메라로 촬영된 영상을 저장할 수 있다. 저장부(130)는 영상을 이용하여 분석된 교통상황 정보의 딥러닝을 수행하여 교통상황을 학습하기 위한 프로그램을 저장할 수도 있다.
한편, 제어부(140)는 교통신호 분석 장치(100)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(140)는 입출력부(110)를 통해 수신한 사용자 입력에 대응되는 동작을 수행하도록 교통상황 정보 제공 장치(100)에 포함된 다른 구성들을 제어할 수 있다.
제어부(140)는 카메라(20)로부터 수신된 영상으로부터, 차선, 중앙분리대, 차선 무늬, 도로표지판, 횡단보도, 인도, 신호등, 차량, 및 사람 등의 객체를 검출할 수 있다. 또한, 제어부(140)는 카메라(20)의 영상으로부터 영상을 촬영한 위치정보, 방향정보, 및 촬영시간 정보 등을 함께 획득할 수도 있다.
제어부(140)는 영상에서 검출된 객체를 분석하여 교통상황에 대한 정보를 획득할 수 있으며, 교통상황에 대한 정보를 획득하는 동작을 하기에서 설명한다.
예를 들어, 제어부(140)는 영상 내에서 검출된 차선을 분석하여 차로를 구분할 수 있다. 제어부(140)는 검출된 차선 각각에 대해서 차선 번호를 부여할 수 있으며, 중앙 차선(황색선)(또는 중앙분리대 등)을 검출하여 양방향 차로 각각을 구분하고, 구분된 차로 내지는 구분된 차로의 차선 번호 등을 구분할 수 있다.
제어부(140)는 영상에서 도로의 구분된 차선 내의 차선 무늬를 검출할 수 있다. 차선 무늬는 좌회전(좌측), 우회전(우측), 직진, 유턴 등의 차량의 진행방향을 안내하기 위해 도로 상에 표시된 표식을 나타낸다. 제어부(140)는 구분된 차로 내에서 차선 무늬를 검출하면, 구분된 차로 각각에 위치한 차량의 이동방향을 확인할 수 있다.
제어부(140)는 영상에서 차량수와 사람수를 검출할 수 있다. 제어부(140)는 차선 각각에 대해 차선 내에 위치한 차량수를 검출할 수 있다. 이를 통해, 제어부(140)는 차선 내에서 이동 중이거나 신호대기 중인 차량수를 확인할 수 있으며, 특정 방향으로 진행 예정인 차량수를 확인할 수 있다.
제어부(140)는 횡단보도와 인도를 검출하고, 횡단보도 내에서 이동 중이거나 횡단보도 주변의 인도에 위치한 사람수를 확인할 수 있다. 이를 통해, 제어부(140)는 횡단보도를 이용하여 이동 중이거나 횡단보도에서 보행자 신호를 대기 중인 사람수를 확인할 수 있다.
제어부(140)는 차선, 횡단보도, 및 인도 등에서 움직이는 객체, 즉 차량 또는 사람(보행자)을 검출할 수 있다. 제어부(140)는 인식된 객체 주변에 소정 크기의 도형, 예를 들면, 다각형, 원, 타원, 사다리꼴 등을 이용하여 표시할 수 있다. 예를 들어, 제어부(140)는 인식된 객체를 중심으로 소정 크기의 도형을 표시할 수 있다. 또한, 제어부(140)는 움직이는 객체의 일부에 적어도 하나의 점(dot)(또는 객체 내에 위치할 수 있는 크기의 작은 원, 작은 도형 등)을 위치시켜 표시할 수 있다. 예를 들어, 제어부(140)는 인식된 객체의 중점(무게중심), 객체 주변, 또는 객체 내 미리 설정된 위치(예를 들어, 차량의 경우 번호판, 후면부 중심, 및 차체의 일부에 위치, 사람의 경우 허리, 다리, 가슴, 신체의 일부 등) 등에 점을 위치시켜 표시할 수 있다.
이를 통해, 제어부(140)는 영상 내에서 복수의 객체가 중첩되더라도 도형뿐만 아니라 점을 함께 이용하기 때문에 영상 내에서 다른 객체와 겹쳐져 보이지 않는 객체, 즉 차량 또는 사람의 수를 정확히 확인할 수 있다.
또한, 제어부(140)는 객체의 이동 동선을 추적할 수 있으며, 선(또는 라인)을 이용하여 객체의 이동 동선을 표시할 수 있다. 한편, 선의 생성 시, 제어부(140)는 객체 내에 표시되는 점들을 연결하여 선을 생성할 수도 있다. 제어부(140)는 선이 표시되기 시작한 후 일정 시간이 경과하거나 일정 길이의 선이 생성될 때마다 선이 직선의 형태가 되도록 보정을 할 수 있다. 제어부(140)는 차량의 이동 동선에 따라 생성된 선에서 굴곡이 생기는 경우, 다양한 차량의 이동 동선이 서로 혼잡하게 되어 확인을 어렵게 할 수 있으므로, 직선의 형태로 보정하여 사용자에게 쉽게 인식이 가능하게 표시할 수 있다.
제어부(140)는 검출된 객체의 인식 또는 구분을 위해 검출된 객체(예를 들어, 차량 또는 보행자 등) 각각에 아이디를 부여할 수 있다. 예를 들어, 검출 순서에 따라 숫자를 아이디로 부여하거나, 검출 순서에 따라 알파벳을 아이디로 부여할 수 있다. 예를 들어, 제어부(140)는 영상 내에서 객체의 검출 순서에 따라 아이디 1, 아이디 2, 아이디 3 등의 순서로 숫자를 부여하거나, 아이디 A, 아이디 B, 아이디 C 등의 순서로 알파벳을 부여할 수 있다. 이때, 제어부(140)는 숫자 또는 알파벳이 무한히 증가하는 것을 방지하기 위해 소정 시간이 지나거나 소정 범위의 숫자(또는 알파벳)이 부여된 아이디의 차량이 검출되지 않으면 숫자 또는 알파벳을 초기화하거나 소정 범위 내에서 재설정되도록 할 수 있다. 또한, 제어부(140)는 객체의 종류에 따라 서로 구분된 아이디를 부여(예를 들어, 차량에는 숫자, 사람에는 알파벳)하거나, 일부 객체(예를 들어, 차량)에만 아이디를 부여하고, 나머지 객체(예를 들어, 사람)에는 아이디를 부여하지 않을 수도 있다.
한편, 제어부(140)는 차선을 기준으로 차선 내 위치한 차량의 검출 시, 차선 변경 등에 의해 복수의 차선에 걸쳐 위치한 차량이 존재할 수 있다. 이때, 제어부(140)는 차선을 점유한 차량의 면적을 기준으로 면적이 더 많은 면적을 차지하는 부분에 대응되는 차선에 위치하는 것으로 판단할 수 있다. 제어부(140)는 차량의 주변에 표시되는 도형의 면적을 기준으로 차량의 차선을 판단할 수도 있으며, 객체 상에 위치한 점이 배치되는 부분에 대응되는 차선을 해당 차량의 차선으로 판단할 수도 있다. 또한, 제어부(140)는 차량의 진행 방향을 기준으로 이동 예정인 차선을 예측하고, 이동 방향으로 예측된 차선을 해당 차량이 위치한 차선으로 판단할 수도 있다.
제어부(140)는 신호등을 검출하며, 신호등의 밝기 또는 색상 등을 함께 검출할 수 있다. 제어부(140)는 신호등의 밝기와 색상을 검출하면, 현재 신호등이 출력하고 있는 교통신호를 검출할 수 있다. 한편, 제어부(140)는 신호등 각각의 신호 제어기 등과 통신하는 경우, 영상을 이용하지 않고도, 직접 현재 교통신호 상태 내지는 교통신호 변경 주기 등의 정보를 획득할 수도 있다.
제어부(140)는 다양한 영상을 사용하여 딥러닝을 수행할 수 있다. 제어부(140)는 딥러닝을 위해 카메라에서 촬영된 영상을 사용할 수 있으며, 카메라를 통해 획득하지 않은 다른 다양한 영상을 사용할 수도 있다. 예를 들어, 제어부(140)는 딥러닝을 수행하여 차선 각각에 위치한 차량의 위치, 차량의 이동 방향, 신호 대기 중인 차량 수, 이동한 차량수 등의 교통상황 정보를 획득할 수 있으며, 횡단보도에 위치한 보행자수, 횡단보도에 대기 중인 보행자수, 보행자의 이동 방향 등의 교통상황 정보를 획득할 수도 있다. 또한, 제어부(140)는 딥러닝을 수행하여 신호등의 교통신호 또는 교통신호체계 등에 관련된 정보를 획득할 수도 있다.
한편, 제어부(140)는 실시간으로 차선 각각에 대한 차량수를 확인할 수 있다. 제어부(140)는 현재 차선 각각에 대한 차량수와 현재 해당 차선의 교통신호를 검출할 수 있고, 사용자 인터페이스를 통해 현재 교통신호와 차선 각각의 차량수에 대한 정보를 표시할 수 있다. 또한, 제어부(140)는 차선 각각에 대한 차량수에 대한 정보를 실시간으로 제공하거나 소정 시간 간격으로 구분하여 제공할 수도 있다. 예를 들어, 소정 시간 간격은 임의로 설정된 시간 간격일 수 있으며, 신호등의 교통신호 각각에 대응되는 시간 간격일 수도 있다.
제어부(140)는 해당 시간 간격에 대응되는 차선 각각의 차량수에 대한 정보를 사용자 단말(30)의 사용자 인터페이스를 통해 제공되도록 할 수 있다.
제어부(140)는 인도 또는 횡단보도에 위치한 사용자수를 확인하여, 보행자의 통행량 등을 검출할 수 있으며, 시간 별로 통행 방향에 따른 통행자의 수를 확인할 수도 있다.
제어부(140)는 차선 각각에 대한 차선 무늬(차선 안내 표지)를 검출하고, 차선무늬로부터 차선 내 위치한 차량의 이동 방향을 확인할 수 있다. 이를 통해, 제어부(140)는 영상 내 차선 각각에 위치한 차량의 이동 방향을 확인할 수 있다. 차선 각각은 미리 설정된 이동 방향이 소정 규칙에 의해 결정되어 있다. 이와 같이, 차선의 이동 방향과 차선에 위치한 차량의 이동 방향을 서로 비교하여 차량의 차선 위반 정보를 확인할 수 있다. 또한, 제어부(140)는 현재 신호를 확인하고, 현재 신호에 대응되는 차량의 이동 방향을 확인하여 신호의 위반 여부를 확인할 수 있다. 제어부(140)는 교통법규, 예를 들면, 차선위반, 신호위반, 및 주정차위반 등과 같은 위반 차량을 검출할 수 있고, 위반 차량에 대한 정보(예를 들면, 번호판, 위반영상, 위반영상의 촬영시간 등)을 획득할 수 있다.
제어부(140)는 위반 차량에 대한 정보를 검출하면, 위반 차량에 대한 정보를 사용자 단말(30) 또는 교통통제센터 등으로 제공할 수 있다.
또한, 제어부(140)는 횡단보도가 아닌 도로 등을 이용하여 횡단, 즉 무단횡단하는 사람을 검출할 수도 있다. 제어부(140)는 무단횡단하는 사람에 대한 정보를 사용자 단말로 제공하거나, 신호등 또는 교차로 등의 주변에 설치된 스피커 등을 통해 무단횡단을 경고하는 안내 메시지를 송출되도록 할 수도 있다.
도 3은 일 실시예에 따른 교통상황 정보 제공 장치의 동작을 도시한 순서도이다.
도 3을 참조하면, 교통상황 정보 제공 장치(100)는 카메라에 의해 촬영된 영상을 수신할 수 있다(S210). 교통상황 정보 제공 장치(100)는 카메라의 촬영 동작을 제어할 수도 있다. 예를 들어, 카메라 내부 또는 외부에 촬영 방향을 조절할 수 있는 구조물을 포함한 경우, 교통상황 정보 제공 장치(100)는 카메라 또는 카메라 구조물을 제어하여 카메라의 촬영방향, 촬영범위, 초점 등의 동작을 제어하여 원하는 도로의 영상을 획득할 수도 있다.
교통상황 정보 제공 장치(100)는 수신된 영상으로부터 객체를 검출할 수 있다(S220). 교통상황 정보 제공 장치(100)는 차선, 중앙분리대, 차선 무늬(차선 안내 표지), 도로표지판, 횡단보도, 인도, 신호등, 차량, 및 사람(보행자)과 같은 객체를 검출할 수 있으며, 상술한 정보 외에도 영상에서 검출 가능한 다른 구성요소에 대해서도 검출할 수 있다.
교통상황 정보 제공 장치(100)는 객체를 분석하여 교통상황 정보를 검출할 수 있다(S230). 교통상황 정보 제공 장치(100)는 차량수 또는 보행자수를 확인할 수 있으며, 진행방향 각각에 대응되는 차량수 또는 보행자수를 확인할 수 있다. 또한, 교통상황 정보 제공 장치(100)는 교통신호의 상태를 확인할 수 있다. 교통상황 정보 제공 장치(100)는 상술한 정보들 이외에도 다른 교통상황에 대한 정보를 획득할 수 있다.
교통상황 정보 제공 장치(100)는 교통상황에 대한 정보를 사용자 단말의 인터페이스를 통해 제공할 수 있다(S240). 교통상황 정보 제공 장치(100)는 교통상황에 대한 정보의 제공 시 현재 촬영 중인 영상을 함께 제공할 수 있다. 이때, 교통상황 정보 제공 장치(100)는 영상 내에서 검출된 객체에 대해 도형, 점, 및 선 등을 이용하여 표시할 수 있으며, 검출된 객체 각각에 대한 아이디를 객체 주변에서 함께 표시할 수도 있다. 교통상황 정보 제공 장치(100)는 현재 교통신호, 현재 차선 각각 내에 위치한 차량 수 등의 정보를 제공할 수 있다. 또한, 교통상황 정보 제공 장치(100)는 현재 시점을 기준으로 소정 시점 이전의 교통신호 각각에 대응되는 차선 내 차량수, 차선에서 이동한 차량수 등에 대한 정보를 제공할 수 있다.
교통상황 정보 제공 장치(100)는 교통법규를 위반하는 차량이 존재하는지 확인할 수 있다(S250). 예를 들어, 교통상황 정보 제공 장치(100)는 차선에 표시된 차량의 진행 방향을 기준으로 차량이 이동하는 이동 방향이 서로 상이하면, 위반차량으로 판단할 수 있다. 한편, 교통상황 정보 제공 장치(100)는 교통법규를 위반하는 차량뿐만 아니라 교통법규를 위반한 보행자를 검출할 수도 있다.
S250단계의 판단결과, 위반 차량이 검출되지 않으면, 교통상황 정보 제공 장치(100)는 S210단계로 진행하여 영상을 수신하고, 교통상황 정보를 계속하여 제공할 수 있다.
S250단계의 판단결과, 위반 차량이 검출되면, 교통상황 정보 제공 장치(100)는 S260단계로 진행한다.
교통상황 정보 제공 장치(100)는 위반 차량에 대한 정보를 사용자 단말 또는 관련 서버(예를 들어, 교통관제센터 등)로 제공하고, S210단계로 진행할 수 있다. 이때, 교통상황 정보 제공 장치(100)는 교통법규를 위반하는 차량에 대한 번호판, 위반영상, 위반영상의 촬영시간 등의 정보를 함께 제공할 수 있다.
도 4는 일 실시예에 따른 카메라의 촬영 영상으로부터 객체를 검출하는 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 교통상황 정보 제공 장치(100)는 카메라의 촬영 영상(300) 내에서 차선(311, 312)을 검출할 수 있다. 일반차선(311)은 동일한 진행방향에 대한 차로를 구분하기 위한 차선으로 예를 들어, 흰색이 사용될 수 있으며, 중앙차선(312)은 서로 다른 진행방향을 구분하기 위한 차선으로, 예를 들어, 노란색이 사용될 수 있다.
교통상황 정보 제공 장치(100)는 차선을 검출하여 1차로 내지 4차로로 구분할 수 있으며, 도면 내에서 숫자가 표기된 동그라미는 교통상황 정보 제공 장치(100)에 의해 인식된 차선을 나타낸다.
교통상황 정보 제공 장치(100)는 카메라의 촬영 영상 내에서 도로안내표지(321, 322, 323)를 검출할 수 있다. 예를 들어, 제 1 도로안내표지(321)는 좌회전방향과 유턴방향을 나타내고, 제 2 도로안내표지(322)는 직진방향을 나타내고, 제 3 도로안내표지(323)는 직진과 우측방향을 나타낸다. 교통상황 정보 제공 장치(100)는 구분된 차선 각각에 대한 진행방향을 확인할 수 있다.
교통상황 정보 제공 장치(100)는 신호등(330)을 검출할 수 있다. 이때, 교통상황 정보 제공 장치(100)는 신호등(330)으로부터 녹색으로 점등되는 직진신호(331), 적색과 녹색이 동시에 점등되는 좌회전신호(332), 황색으로 점등되는 주의신호(333), 붉은색으로 점등되는 정지신호(334)를 검출할 수 있다. 이와 달리, 교통상황 정보 제공 장치(100)는 직진신호와 좌회전신호가 모두 점등되는 동시신호를 검출하거나, 황색 또는 붉은색의 점멸 신호(깜빡이는 신호) 등을 검출할 수 있다.
교통상황 정보 제공 장치(100)는 횡단보도(340)를 검출할 수 있으며, 도로가 아닌 사람(보행자)(362)의 이동 경로인 인도(350)를 검출할 수도 있다.
또한, 교통상황 정보 제공 장치(100)는 차량(361)과 사람(362)을 검출할 수 있다. 여기서, 차량(361)과 사람(362)은 숫자를 카운트할 수 있으며, 영상 내 위치도 함께 검출할 수 있다.
도 5는 일 실시예에 따른 교통상황에 따른 교통상황 정보를 획득하기 위한 동작을 설명하기 위한 도면이다.
도 5를 참조하면, 교통상황 정보 제공 장치(100)는 제 1 방향(401)에 대해 구분된 차선들 각각에서 검출된 차량수를 확인할 수 있다. 예를 들어, 교통상황 정보 제공 장치(100)는 객체의 분석을 통해 교통상황에 대한 정보를 확인할 수 있다. 예를 들어, 교통상황 정보 제공 장치(100)는 좌회전방향의 제 1차선(411)에는 1대의 차량이 신호대기를 위해 진입 중임을 확인하고, 직진방향의 제 2차선(412) 및 3차선(413)에는 각각 5대의 차량이 신호대기 중임을 확인할 수 있다. 또한, 직진 및 우측방향의 제 4차선(414)에는 2대의 차량이 신호대기 중임을 확인할 수 있다.
도 6은 일 실시예에 따른 도로를 촬영한 영상을 기준으로 교통상황 정보를 제공하는 사용자 인터페이스를 도시한 도면이다. 또한, 도 7은 도 6의 영상을 기준으로 획득된 교통상황 정보를 표시하는 사용자 인터페이스를 도시한 도면이다.
도 6을 참조하면, 영상(500)은 도로를 촬영한 영상이다. 교통상황 정보 제공 장치(100)는 도로를 촬영한 영상(500) 내에서 다양한 객체를 인식할 수 있고, 차선과 차선 각각에 위치한 차선 무늬(예를 들어, 도로안내표지)를 기준으로 차량 또는 사람을 검출할 수 있다.
예를 들어, 교통상황 정보 제공 장치(100)는 영상(500) 내에서 차량(510)을 검출하면, 검출된 차량(510)의 주변에 미리 설정된 도형(예를 들어 사각형)(511)을 표시할 수 있다. 교통상황 정보 제공 장치(100)는 검출된 차량(510)의 일부 또는 주위에 점(512)을 표시할 수 있고, 점(512)을 이용하여 차량(510)의 이동 동선을 추적할 수 있다.
교통상황 정보 제공 장치(100)는 차량(510)에 표시된 점(512)을 추적하여 소정 길이의 선(513)을 형성할 수 있다. 교통상황 정보 제공 장치(100)는 선(513)을 통해 차량의 이동 방향과 현재 위치 등을 확인할 수 있고, 선(513)은 소정 시간이 경과하거나 소정 길이 이상이 되는 경우, 보정을 통해 직선의 형태로 보정을 할 수도 있다.
교통상황 정보 제공 장치(100)는 차량(510)의 주변에 차량에 부여된 아이디(514)인 '79'를 표시할 수도 있다.
교통상황 정보 제공 장치(100)는 영상(500) 내에서 사람(520)을 검출하면, 검출된 사람(520)의 주변에 미리 설정된 도형(예를 들어, 사각형)(521)을 표시할 수 있다. 교통상황 정보 제공 장치(100)는 검출된 사람(520)의 일부 또는 주위에 점(522)을 표시할 수 있다. 교통상황 정보 제공 장치(100)는 필요 시, 사람(520)의 동선을 별도의 라인을 사용하여 추적할 수도 있으나, 화면 내에서 다양한 객체 추적에 따른 연산량이 증가하고, 화면 내 과다한 정보의 표시하여 차량의 이동 동선과 구분이 어려울 수도 있으므로, 사람(520)의 동선은 라인을 사용하여 추적하지 않을 수도 있다. 한편, 교통상황 정보 제공 장치(100)는 사람(520)의 동선을 내부적으로만 점(522)을 사용하여 추적(예를 들어, 보행자의 동선 파악 등을 위해)하되, 화면에 표시하지 않을 수도 있다.
교통상황 정보 제공 장치(100)는 신호등(530)으로부터 현재 교통신호를 인식하여, 화면의 일측에 표시(531)할 수도 있다.
도 7을 참조하면, 교통상황 정보 제공 장치(100)는 영상(500)을 기준으로 차선 내에 대기중인 차량의 대기상황을 나타내는 제 1 정보(610)를 표시할 수 있으며, 교통상황 정보 제공 장치(100)는 소정 시간 동안 신호등의 교통신호 각각에 대한 차량의 이동상황을 나타내는 제 2 정보(620)를 표시할 수도 있다.
교통상황 정보 제공 장치(100)는 제 1 정보(610)와 제 2 정보(620)를 도 6의 영상(500)과 함께 표시하거나 구분하여 선택적으로 표시할 수도 있다.
예를 들어, 제 1 정보(610)는 현재 교통신호에 대한 정보, 소정 시간 동안 이동한 차량의 정보, 현재 교통신호의 시작 시간과 종료 시간, 각 차선 내에서 대기 중인 차량수 등의 정보를 포함할 수 있다.
제 1 정보(610)를 살펴보면, 교통상황 정보 제공 장치(100)는 1차선과 3차선에 대기 중인 차량수가 0이고, 2차선에 대기 중인 차량수가 2이고, 4차선에 대기 중인 차량수가 1임을 나타내는 정보를 출력할 수 있다.
예를 들어, 제 2 정보(620)는 교통신호 각각에 대응되는 시작시간과 종료시간, 각 차선 내에서 이동한 차량수의 정보를 포함할 수 있다. 여기서, 제 2 정보(620)는 통행 가능 부분(621)과 통행 불능 부분(622)을 구분하여 표시할 수 있다.
이를 통해, 교통상황 정보 제공 장치(100)는 통행 불능 부분(622)에서 이동한 차량이 검출되면, 교통신호 또는 차선 위반 등의 위반 정보를 검출할 수도 있다. 이때, 교통상황 정보 제공 장치(100)는 해당 차량의 번호판, 위반영상 및 위반영상의 촬영시간에 대한 정보를 검출할 수 있다.
도 8은 일 실시예에 따른 교통상황 정보를 제공하는 사용자 인터페이스를 도시한 도면이다.
도 8을 참조하면, 교통상황 정보(700)는 영상(710), 제 1 정보(720), 및 제 2 정보(730)를 포함할 수 있다.
교통상황 정보 제공 장치(100)는 영상(710)에서 인식된 객체와, 객체의 인식에 따른 도형, 점, 선 등을 표시하고 있으며, 신호등의 교통신호를 표시할 수 있다.
교통상황 정보 제공 장치(100)는 제 1 정보(720)를 이용하여 영상(710)을 기준으로 현재 교통신호인 정지신호를 표시할 수 있다. 또한, 교통상황 정보 제공 장치(100)는 제 1 정보(720)를 이용하여 1차선에 대기 중인 차량수가 0이고, 2차선과 3차선에 대기 중인 차량수가 2이고, 4차선에 대기 중인 차량수가 1인 정보를 표시할 수 있다.
교통상황 정보 제공 장치(100)는 제 2 정보(730)를 이용하여 교통신호 각각에 대응되는 시작시간과 종료시간, 각 차선 내에서 이동한 차량수의 정보를 포함할 수 있다.
도9는 일 실시예에 따른 교통상황 정보를 제공하는 다른 사용자 인터페이스를 도시한 도면이다.
도 9를 참조하면, 교통상황 정보(800)는 영상(810), 제 1 정보(820), 및 제 2 정보(830)를 포함할 수 있다.
교통상황 정보 제공 장치(100)는 영상(810)에서 인식된 객체와, 객체의 인식에 따른 도형, 점, 선 등을 표시하고 있으며, 신호등의 교통신호를 표시할 수 있다.
교통상황 정보 제공 장치(100)는 제 1 정보(820)를 이용하여 영상(810)을 기준으로 현재 교통신호인 정지신호를 표시할 수 있다. 또한, 교통상황 정보 제공 장치(100)는 제 1 정보(820)를 이용하여 1차선에 대기 중인 차량수가 1이고, 2차선, 3차선, 4차선에 대기 중인 차량수가 0 인 정보를 표시할 수 있다.
교통상황 정보 제공 장치(100)는 제 2 정보(830)를 이용하여 교통신호 각각에 대응되는 시작시간과 종료시간, 각 차선 내에서 이동한 차량수의 정보를 포함할 수 있다. 교통상황 정보 제공 장치(100)는 2차선에서 3(1+2)대의 차량, 3차선에서 7대의 차량, 및 4차선에서 2대의 차량이 직진방향으로 이동한 것을 확인할 수 있다.
여기서, 도시되지는 않았지만, 교통상황 정보 제공 장치(100)는 횡단보도 내 보행자의 수, 보행자의 이동 방향 별 보행자수, 인도의 보행자 수, 횡단보도에 대기 중인 보행자 수 등에 대한 정보를 사용자 인터페이스를 통해 표시할 수도 있다.
이를 통해, 제안된 실시예에 따른 교통상황 정보 제공 장치(100)는 도로를 촬영한 영상으로부터 획득된 정보를 실시간으로 표시하여 도로 상황에 대한 정보의 확인, 교통신호의 제어, 위반 차량의 단속, 교통신호 체계 개선, 도로 설계 또는 확충 등 다양하게 활용될 수 있다.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.
또한 본 발명의 일 실시예에 따르는 교통상황 정보 제공 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 본 발명의 일 실시예에 따르는 교통상황 정보 제공 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10: 교통상황 정보 제공 시스템 20: 카메라
30: 사용자 단말 100: 교통상황 정보 제공 장치
110: 입출력부 120: 통신부
130: 저장부 140: 제어부

Claims (19)

  1. 카메라에 연결된 통신부; 및
    상기 카메라에 의해 촬영된 영상으로부터 영상 내 객체를 검출하고, 검출된 객체를 분석하여 교통상황 정보를 검출하고, 검출된 교통상황 정보를 사용자 인터페이스로 제공하는 제어부를 포함하되,
    상기 제어부는,
    상기 영상 내에서 차선을 검출하고, 상기 차선 내 차선 무늬를 이용하여 상기 검출된 차선 각각의 이동 방향을 분석하며, 상기 영상 내 신호등을 검출하고, 상기 검출된 신호등의 색상 및 밝기를 분석하여 상기 신호등에서 출력되는 교통신호를 검출하며, 상기 차선 각각에서 이동하는 차량의 이동 방향을 확인하고, 상기 차량의 이동 방향을 상기 차선 무늬를 통해 검출한 차선 각각의 이동 방향 및 상기 신호등에서 출력되는 교통신호와 비교하여 위반 차량에 대한 정보를 포함하는 교통상황 정보를 검출하는 교통상황 정보 제공 장치.
  2. 제 1 항에 있어서,
    상기 제어부는,
    상기 차선 내 차량을 미리 설정된 도형과 점을 사용하여 인식하고, 상기 차량의 이동에 따른 차량의 동선을 미리 결정된 선을 이용하여 추적하는 교통상황 정보 제공 장치.
  3. 제 2 항에 있어서,
    상기 선은 소정 시간 또는 소정 길이 이상이 되면, 직선의 형태로 보정하는 교통상황 정보 제공 장치.
  4. 제 1 항에 있어서,
    상기 제어부는,
    상기 차선 각각 내에 위치한 차량수와 상기 차선 각각에서 이동한 차량수를 상기 사용자 인터페이스를 통해 소정 시간 간격으로 측정하여 제공하는 교통상황 정보 제공 장치.
  5. 제 4 항에 있어서,
    상기 소정 시간 간격은 상기 신호등에서 출력되는 교통신호 각각에 대응되는 시간인 교통상황 정보 제공 장치.
  6. 제 1 항에 있어서,
    상기 제어부는,
    상기 영상을 이용한 딥러닝을 수행하여 차선 각각에 위치한 차량의 위치를 검출하는 동작을 학습하고, 상기 학습된 정보를 사용하여 상기 차선 각각에 위치한 차량의 위치를 결정하는 교통상황 정보 제공 장치.
  7. 삭제
  8. 제 1 항에 있어서,
    상기 제어부는,
    상기 영상 내에서 횡단보도 또는 인도에 위치한 보행자수를 검출하고, 검출된 정보를 상기 사용자 인터페이스를 통해 제공하는 교통상황 정보 제공 장치.
  9. 제 1 항에 있어서,
    상기 제어부는,
    상기 영상 내의 차량 또는 사람 중 적어도 일부에 미리 설정된 순서의 아이디를 부여하는 교통상황 정보 제공 장치.
  10. 교통상황 정보 제공 장치에 의해 수행되는 교통상황 정보 제공 방법에 있어서,
    카메라로부터 촬영된 영상을 수신하는 단계;
    상기 영상 내 객체를 검출하고, 상기 객체를 분석하여 교통상황 정보를 검출하는 단계; 및
    상기 교통상황 정보를 사용자 인터페이스를 통해 제공하는 단계를 포함하고,
    상기 교통상황 정보를 검출하는 단계는,
    상기 영상 내에서 차선을 검출하고, 상기 차선 내 차선 무늬를 이용하여 상기 검출된 차선 각각의 이동 방향을 분석하며, 상기 영상 내 신호등을 검출하고, 상기 검출된 신호등의 색상 및 밝기를 분석하여 상기 신호등에서 출력되는 교통신호를 검출하며, 상기 차선 각각에서 이동하는 차량의 이동 방향을 확인하는 단계를 포함하고,
    상기 교통상황 정보를 사용자 인터페이스를 통해 제공하는 단계는,
    상기 차선 각각에서 이동하는 차량의 이동 방향을 확인하고, 차량의 이동 방향을 상기 차선 무늬를 통해 검출한 차선 각각의 이동 방향 및 상기 신호등에서 출력되는 교통신호와 비교하여 위반 차량을 검출하는 단계를 포함하는 교통상황 정보 제공 방법.
  11. 제 10 항에 있어서,
    상기 교통상황 정보를 검출하는 단계는,
    상기 차선 내 차량을 미리 설정된 도형과 점을 사용하여 인식하고, 상기 차량의 이동에 따른 차량의 동선을 미리 결정된 선을 이용하여 추적하는 단계를 더 포함하는 교통상황 정보 제공 방법.
  12. 제 10 항에 있어서,
    상기 사용자 인터페이스를 통해 제공하는 단계는,
    상기 차선 각각 내에 위치한 차량수와 상기 차선 각각에서 이동한 차량수를 상기 사용자 인터페이스를 통해 소정 시간 간격으로 측정하여 제공하는 단계를 포함하는 교통상황 정보 제공 방법.
  13. 제 12 항에 있어서,
    상기 소정 시간 간격은 상기 신호등에서 출력되는 교통신호 각각에 대응되는 시간인 교통상황 정보 제공 방법.
  14. 제 10 항에 있어서,
    상기 교통상황 정보를 검출하는 단계는,
    상기 영상을 이용한 딥러닝을 수행하여 차선 각각에 위치한 차량의 위치를 검출하는 동작을 학습하고, 상기 학습된 정보를 사용하여 상기 차선 각각에 위치한 차량의 위치를 결정하는 단계를 포함하는 교통상황 정보 제공 방법.
  15. 삭제
  16. 제 10 항에 있어서,
    상기 사용자 인터페이스를 통해 제공하는 단계는,
    상기 영상 내에서 횡단보도 또는 인도에 위치한 보행자수를 검출하고, 검출된 정보를 상기 사용자 인터페이스를 통해 제공하는 단계를 포함하는 교통상황 정보 제공 방법.
  17. 제 10 항에 있어서,
    상기 교통상황 정보를 검출하는 단계는,
    상기 영상 내의 차량 또는 사람 중 적어도 일부에 미리 설정된 순서의 아이디를 부여하는 단계를 더 포함하는 교통상황 정보 제공 방법.
  18. 제 10 항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
  19. 교통상황 정보 제공 장치에 의해 수행되며, 제 10 항에 기재된 방법을 수행하기 위해 기록 매체에 저장된 컴퓨터 프로그램.
KR1020190143841A 2018-12-11 2019-11-11 교통상황 정보 제공 장치 및 방법 KR102130966B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180159262 2018-12-11
KR20180159262 2018-12-11

Publications (2)

Publication Number Publication Date
KR20200071655A KR20200071655A (ko) 2020-06-19
KR102130966B1 true KR102130966B1 (ko) 2020-07-08

Family

ID=71137323

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190143841A KR102130966B1 (ko) 2018-12-11 2019-11-11 교통상황 정보 제공 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102130966B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220102088A (ko) * 2021-01-12 2022-07-19 주식회사 노타 Cctv카메라를 이용한 음주운전 차량 인식 방법 및 대응 시스템

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102561656B1 (ko) * 2021-05-12 2023-07-31 유에프엠시스템즈 주식회사 딥-러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템
KR102479932B1 (ko) * 2022-07-07 2022-12-22 재단법인차세대융합기술연구원 셀 단위 교통 정보를 생성하는 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696881B1 (ko) * 2016-01-06 2017-01-17 주식회사 씨티아이에스 교통 정보 분석 방법 및 장치
KR101889085B1 (ko) * 2017-12-07 2018-08-16 렉스젠(주) 차량 궤적을 이용한 통행 정보 생성 장치 및 그 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150042501A (ko) * 2013-10-11 2015-04-21 에스케이플래닛 주식회사 차선별 교통 정보를 이용한 경로 안내 서비스 방법, 이를 위한 장치 및 시스템
KR101811385B1 (ko) * 2015-06-30 2017-12-22 도로교통공단 트램 교차로 영상검지장치 및 방법
KR101995107B1 (ko) * 2017-03-23 2019-07-01 한국과학기술원 딥 러닝을 이용한 인공지능 기반 영상 감시 방법 및 시스템
KR102159965B1 (ko) * 2017-04-17 2020-09-25 주식회사 비트센싱 실시간 대규모 교통정보 수집방법 및 그 운용시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696881B1 (ko) * 2016-01-06 2017-01-17 주식회사 씨티아이에스 교통 정보 분석 방법 및 장치
KR101889085B1 (ko) * 2017-12-07 2018-08-16 렉스젠(주) 차량 궤적을 이용한 통행 정보 생성 장치 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220102088A (ko) * 2021-01-12 2022-07-19 주식회사 노타 Cctv카메라를 이용한 음주운전 차량 인식 방법 및 대응 시스템
KR102530654B1 (ko) * 2021-01-12 2023-05-10 주식회사 노타 Cctv카메라를 이용한 음주운전 차량 인식 방법 및 대응 시스템

Also Published As

Publication number Publication date
KR20200071655A (ko) 2020-06-19

Similar Documents

Publication Publication Date Title
US10753758B2 (en) Top-down refinement in lane marking navigation
US10685246B2 (en) Systems and methods for curb detection and pedestrian hazard assessment
EP3462377B1 (en) Method and apparatus for identifying driving lane
KR102130966B1 (ko) 교통상황 정보 제공 장치 및 방법
Siebert et al. Detecting motorcycle helmet use with deep learning
KR102652023B1 (ko) 실시간 교통 정보 제공 방법 및 장치
US11486727B2 (en) Map generation device, map generation method, and map generation computer program
US20200394393A1 (en) Gesture Control for Communication with an Autonomous Vehicle on the Basis of a Simple 2D Camera
You et al. Carsafe app: Alerting drowsy and distracted drivers using dual cameras on smartphones
CN113158820B (zh) 在导航中对车道限制和施工区域的识别和预测
US20180373943A1 (en) Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium
KR102145217B1 (ko) 교통신호 제어 장치 및 방법
JP2020518785A (ja) 車道の決定方法、装置及び記憶媒体
US20140314275A1 (en) Pedestrian Right of Way Monitoring and Reporting System and Method
Jain et al. Recognizing textures with mobile cameras for pedestrian safety applications
KR101210615B1 (ko) 불법유턴 차량 단속 시스템
Dinh et al. Development of a tracking-based system for automated traffic data collection for roundabouts
TWI451990B (zh) 車道定位系統、車道定位方法及路面標記
KR20180051422A (ko) 전자 장치 및 그 제어 방법
Chilukuri et al. Development of mobile application for VRUs using computer vision
KR101965875B1 (ko) 영상 분석을 기반으로 한 길 안내 방법 및 장치
Byzkrovnyi et al. Comparison of Object Detection Algorithms for the Task of Person Detection on Jetson TX2 NX Platform
CN109325447A (zh) 基于视频分析的非导向行驶检测方法
US11879744B2 (en) Inferring left-turn information from mobile crowdsensing
WO2023178510A1 (zh) 图像处理方法、装置和系统、可移动平台

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant