KR102226321B1 - System for Providing Smart Traffic Information - Google Patents
System for Providing Smart Traffic Information Download PDFInfo
- Publication number
- KR102226321B1 KR102226321B1 KR1020190039217A KR20190039217A KR102226321B1 KR 102226321 B1 KR102226321 B1 KR 102226321B1 KR 1020190039217 A KR1020190039217 A KR 1020190039217A KR 20190039217 A KR20190039217 A KR 20190039217A KR 102226321 B1 KR102226321 B1 KR 102226321B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- image data
- ambulance
- unit
- vehicle object
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G06K9/6267—
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096716—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
-
- G06K2209/23—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Abstract
스마트 교통 정보 제공 시스템은 스마트 도시의 교통 통제 메카니즘으로 비디오 카메라로 촬영된 차량 객체에서 구급차를 선별하여 해당 위치에 복수의 차량으로 우선순위 메시지를 전송하여 차량 이동을 미리 정지시킴으로써 효율적인 교통 주행과, 혼잡한 도심에서도 긴급 차량이 위험한 상황을 줄이면서 빠른 주행이 가능한 효과가 있다.The smart traffic information providing system is a traffic control mechanism of a smart city, selecting an ambulance from a vehicle object photographed with a video camera and transmitting a priority message to a plurality of vehicles at the corresponding location to stop vehicle movement in advance, thereby enabling efficient traffic driving and congestion. Even in an urban area, emergency vehicles can reduce dangerous situations while enabling fast driving.
Description
본 발명은 교통 정보 제공 시스템에 관한 것으로서, 특히 스마트 도시의 교통 통제 메카니즘으로 비디오 카메라로 촬영된 차량 객체에서 구급차를 선별하여 해당 위치에 복수의 차량으로 우선순위 메시지를 전송하여 차량 이동을 미리 정지시킴으로써 효율적인 교통 주행이 가능한 스마트 교통 정보 제공 시스템에 관한 것이다.The present invention relates to a system for providing traffic information, and in particular, by selecting an ambulance from a vehicle object photographed with a video camera as a traffic control mechanism in a smart city and transmitting a priority message to a plurality of vehicles at the corresponding location, vehicle movement is stopped in advance. It relates to a smart traffic information providing system capable of efficient traffic driving.
구급차들과 같은 긴급 차량들은 일반적으로 교통 신호에 반하여 교차로를 횡단하는 권리를 갖는다. 긴급 차량들은 과거에 전형적으로 호각들, 사이렌들 및 섬광등들에 의존하여 긴급 차량이 교차로를 횡단하려는 의도를 갖는 교차로에 진입하는 다른 운전자들에게 경고한다.Emergency vehicles, such as ambulances, generally have the right to cross an intersection against traffic signals. Emergency vehicles in the past typically rely on whistles, sirens and flashlights to warn other drivers entering an intersection where the emergency vehicle intends to cross the intersection.
그러나 대도시에서는 청각 손상, 에어컨, 오디오 시스템들 및 다른 주위 산만들로 인하여 종종 교차로에 진입하는 차량의 운전자가 진입하는 긴급 차량이 발사하는 경고를 알지 못하거나, 운전자가 다른 위치로 이동하려고 해도 이동할 수 있는 공간이 없어서 긴급 차량에 길을 양보할 수 없는 문제점이 있었다.However, in large cities, hearing impairment, air conditioning, audio systems, and other distractions often cause drivers of vehicles entering an intersection to be unaware of warnings issued by an incoming emergency vehicle, or are unable to move even if the driver attempts to move to another location. There was a problem in that there was no space to give way to an emergency vehicle.
긴급 차량이 병원 앰블런스인 경우, 환자의 목숨은 긴급 차량이 병원에 얼마나 빨리 도착하는지 여부에 달라 있다. 그러나 대도시의 경우, 갈수록 혼잡해지는 도로 상황이 나아지지 않으며, 긴급 차량이 위험한 상황을 줄이면서 빠른 주행이 점점 더 어려워지고 있는 것이 현실이다.If the emergency vehicle is a hospital ambulance, the patient's life depends on how quickly the emergency vehicle arrives at the hospital. However, in the case of a large city, the increasingly congested road situation does not improve, and it is a reality that fast driving is becoming more and more difficult as emergency vehicles reduce dangerous situations.
이와 같은 문제점을 해결하기 위하여, 본 발명은 스마트 도시의 교통 통제 메카니즘으로 비디오 카메라로 촬영된 차량 객체에서 구급차를 선별하여 해당 위치에 복수의 차량으로 우선순위 메시지를 전송하여 차량 이동을 미리 정지시킴으로써 효율적인 교통 주행이 가능한 스마트 교통 정보 제공 시스템을 제공하는데 그 목적이 있다.In order to solve such a problem, the present invention selects an ambulance from a vehicle object photographed with a video camera as a traffic control mechanism of a smart city and transmits a priority message to a plurality of vehicles at the corresponding location to stop vehicle movement in advance. Its purpose is to provide a smart traffic information providing system that enables traffic driving.
상기 목적을 달성하기 위한 본 발명의 특징에 따른 스마트 교통 정보 제공 시스템은,Smart traffic information providing system according to the features of the present invention for achieving the above object,
비디오 카메라부를 통해 도로의 차량을 촬영하여 영상 데이터를 생성하고, 상기 생성한 영상 데이터를 영상 처리하여 영상의 윤곽선을 나타내는 에지 영상을 생성하고, 생성된 에지 영상을 상기 비디오 카메라부로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출하는 연결서버; 및Generate image data by photographing a vehicle on the road through a video camera unit, image processing the generated image data to generate an edge image representing the outline of the image, and an original image obtained from the video camera unit A connection server for extracting image data related to the vehicle object by mapping it to data; And
상기 연결서버로부터 차량 객체와 관련된 영상 데이터를 수신하는 경우, 기저장된 구급차 영상 데이터의 각 셀의 제1 영상 특징과 상기 차량 객체의 영상 데이터의 각 셀의 제2 영상 특징을 비교하여 분류 결과를 생성하고, 상기 제1 영상 특징과 상기 제2 영상 특징이 동일하다는 분류 결과가 생성되면, 상기 차량 객체를 구급차로 판단하고, 구급차로 판단된 차량 객체 정보를 포함한 우선순위 제어 메시지를 생성하여 복수의 이동단말기로 전송하는 클라우드 서버를 포함한다.When receiving image data related to a vehicle object from the connection server, a classification result is generated by comparing a first image characteristic of each cell of the previously stored ambulance image data with a second image characteristic of each cell of the image data of the vehicle object. And, when a classification result indicating that the first image feature and the second image feature are the same is generated, the vehicle object is determined as an ambulance, and a priority control message including vehicle object information determined as an ambulance is generated to move a plurality of It includes a cloud server that transmits to the terminal.
상기 연결서버는 도로의 차량을 촬영하여 영상 데이터를 생성하는 비디오 카메라부와, 상기 비디오 카메라부로부터 입력된 영상 데이터인 RGB 데이터를 그레이 스케일(Gray Scale)의 영상 데이터로 변환하는 그레이 스케일 변환부와, 상기 그레이 스케일 변환부로부터 수신된 그레이 스케일의 영상 데이터에서 가우시안 블러 처리하여 노이즈를 제거하는 가우시안 필터부와, 상기 노이즈가 제거된 영상 데이터를 캐니 에지 검출기를 이용하여 에지 영상을 생성하는 에지 검출부와, 상기 에지 검출부로부터 생성된 에지 영상을 상기 비디오 카메라부로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출하는 맵핑부를 더 포함하는 것을 특징으로 한다.The connection server includes a video camera unit that photographs a vehicle on the road to generate image data, and a gray scale conversion unit that converts RGB data, which is image data input from the video camera unit, into gray scale image data. , A Gaussian filter unit that removes noise by performing Gaussian blur processing on the gray scale image data received from the gray scale conversion unit, and an edge detection unit that generates an edge image using the canny edge detector from the noise And a mapping unit for extracting image data related to the vehicle object by mapping the edge image generated by the edge detection unit to the original image data obtained from the video camera unit.
전술한 구성에 의하여, 본 발명은 복수의 차량으로 우선순위 메시지를 전송하여 차량 이동을 미리 정지시켜 효율적인 교통 주행과, 혼잡한 도심에서도 긴급 차량이 위험한 상황을 줄이면서 빠른 주행이 가능한 효과가 있다.According to the above-described configuration, according to the present invention, a priority message is transmitted to a plurality of vehicles to stop vehicle movement in advance, thereby enabling efficient traffic driving and rapid driving while reducing a dangerous situation even in a crowded city center.
도 1은 본 발명의 실시예에 따른 스마트 교통 정보 제공 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 연결서버의 내부 구성을 간략하게 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 연결서버에서 차량 객체를 추출하는 영상 프로세서를 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른 이동단말기에서 처리되는 교통 정보 서비스의 일례를 나타낸 도면이다.1 is a diagram showing the configuration of a smart traffic information providing system according to an embodiment of the present invention.
2 is a block diagram schematically showing an internal configuration of a connection server according to an embodiment of the present invention.
3 is a flowchart illustrating an image processor for extracting a vehicle object from a connection server according to an embodiment of the present invention.
4 is a diagram showing an example of a traffic information service processed in a mobile terminal according to an embodiment of the present invention.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.
도 1은 본 발명의 실시예에 따른 스마트 교통 정보 제공 시스템의 구성을 나타낸 도면이고, 도 2는 본 발명의 실시예에 따른 연결서버의 내부 구성을 간략하게 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 연결서버에서 차량 객체를 추출하는 영상 프로세서를 나타낸 흐름도이고, 도 4는 본 발명의 실시예에 따른 이동단말기에서 처리되는 교통 정보 서비스의 일례를 나타낸 도면이다.1 is a diagram showing the configuration of a system for providing smart traffic information according to an embodiment of the present invention, FIG. 2 is a block diagram schematically showing the internal configuration of a connection server according to an embodiment of the present invention, and FIG. Is a flowchart showing an image processor for extracting a vehicle object from a connection server according to an embodiment of the present invention, and FIG. 4 is a view showing an example of a traffic information service processed by a mobile terminal according to an embodiment of the present invention.
본 발명의 실시예에 따른 스마트 교통 정보 제공 시스템(100)은 하나 이상의 이동단말기(110), 연결서버(120) 및 클라우드 서버(130)를 포함한다.The smart traffic
하나 이상의 이동단말기(110)는 휴대폰, 스마트폰(Smart Phone), 노트북 컴퓨터(Laptop Computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이터(Navigator) 등이 포함될 수 있다.At least one
각각의 이동단말기(110)는 교통 정보 서비스를 제공하는 어플리케이션을 다운받아 저장할 수 있다.Each
각각의 이동단말기(110)는 차량에 장착되거나 구비되어 클라우드 서버(130)와 연결서버(120)와 네트워크 통신을 수행하며, 필요한 제어 메시지, 전송 메시지 및 응답 메시지를 송수신할 수 있다.Each
연결서버(120)는 차량을 촬영하기 위하여 신호등, 도로 일측에 위치한다.The
클라우드 서버(130)는 이동단말기(110)와 연결서버(120)의 데이터 송수신시 관련 메시지 종류, 메시지 프로토콜, 메시지 송신자, 수신자를 사물 인터넷 프로토콜인 MQTT(Message Queueing Telemetry Transport)에 의해 송수신한다.The
클라우드 서버(130)는 예를 들어 유선 또는 무선통신모듈을 포함하는 장치로서, 클라우드 환경에 접속하여 소정의 작업을 수행하는 장치일 수 있다.The
클라우드 서버(130)의 종류에는 제한이 없으며, 예를 들어, 일반적인 데스크탑 PC이거나 휴대가 가능하고 무선 인터넷 또는 휴대 인터넷을 통하여 클라우드 환경을 제공하고, 통신 가능한 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone: Personal Communications Services phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000) 등 이동 단말을 포함하고, 이외에도 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 스마트폰(Smart phone), 왑폰(WAP phone: Wireless application protocol phone), 모바일 게임기(mobile play-station)장치 또는, 랩탑 컴퓨터, 태블릿 컴퓨터, 네비게이션 시스템 등 일 수 있다.There is no limitation on the type of the
클라우드 서버(130)를 연결하는 네트워크는 유선 또는 무선 인터넷일 수도 있고, 이외에도 유선 공중망, 무선 이동 통신망, 또는 휴대 인터넷 등과 통합된 코어망일 수도 있고, TCP/IP 프로토콜 및 그 상위 계층에 존재하는 여러 서비스, 즉 HTTP(Hyper Text Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol) 등을 제공하는 개방형 컴퓨터 네트워크 구조를 의미할 수 있다.The network connecting the
클라우드 서버(130)의 환경은 복수의 클라우드 서비스를 제공하기 위한 물리적인 서버의 집합을 의미할 수 있으며, 물리적인 서버 상에서 구현된 복수의 가상머신이 제공되는 환경을 의미할 수도 있다.The environment of the
본 발명의 실시예에 따른 연결서버(120)는 영상 처리 프로세스로서 비디오 카메라부(121), 그레이 스케일 변환부(122), 가우시안 필터부(123), 노이즈 제거부(124), 바이너리 필터부(125), 에지 검출부(126), 맵핑부(127) 및 서버제어부(128)를 포함한다.The
비디오 카메라부(121)는 도로의 차량을 촬영하여 영상 데이터를 생성한다.The
그레이 스케일 변환부(122)는 비디오 카메라부(121)로부터 입력된 영상 데이터인 RGB 데이터를 그레이 스케일(Gray Scale)의 영상 데이터로 변환한다. 즉, 그레이 스케일 변환부(122)는 RGB 데이터의 평균값을 산출하여 그레이 스케일의 영상 데이터로 변환한다. 여기서, 그레이 스케일의 영상 데이터는 0 내지 255 계조로 표현된다.The gray
가우시안 필터부(123)는 그레이 스케일 변환부(122)로부터 수신된 그레이 스케일의 영상 데이터로부터 노이즈를 제거한다.The
가우시안 필터부(123)는 양방향필터(Bilateral Filter)의 기본 마스크 크기인 5 × 5 사이즈로 구성한다. 가우시안 블러 처리는 매 클럭마다 세로 한 줄에 해당하는 5픽셀(Pixel)씩 전송받아 초기에 총 5클럭에 걸쳐 마스크를 완성하고, 초기 5클럭의 딜레이 후에 이어지는 매 클럭마다 세로 5픽셀을 받아 실시간으로 마스크를 처리한다.The
노이즈 제거부(124)는 특정 방향으로 n개의 영역으로 나누어진 영상 데이터에서 라인별 화소값들의 평균값 및 상기 라인별 평균값들 간의 차이를 필터링하여 랜덤 노이즈 여부를 판단하고, 랜덤 노이즈의 발생 부분의 상기 화소값을 보정한 보정 화소값을 산출하여 랜덤 노이즈가 제거된 보정 영상을 생성한다.The noise removing unit 124 determines whether there is random noise by filtering the average value of pixel values for each line and the difference between the average values for each line in the image data divided into n areas in a specific direction, and determines whether there is random noise. A corrected pixel value obtained by correcting the pixel value is calculated to generate a corrected image from which random noise has been removed.
바이너리 필터부(125)는 노이즈 제거부(124)로부터 수신된 보정 영상에서 바이너리 필터를 이용하여 차량 영역 1, 차량 이외의 영역 0으로 하여 바이너리 이미지를 생성한다.The
에지 검출부(126)는 바이너리 필터부(125)에서 입력된 바이너리 이미지의 휘도 성분 데이터를 캐니 에지 검출기를 이용하여 명암 변화가 다른 지점보다 큰 지점을 ?O고, 그 지점을 추적하여 형성되는 선에 속한 점들을 추출하여 에지 영상을 생성한다.The
더욱 상세하게 설명하면, 에지 검출부(126)는 가우시안 필터를 휘도 영상에 마스킹 방식으로 적용하여 노이즈를 제거하고, 휘도 성분 데이터의 수평 및 수직 방향을 미분 계산하여 휘도 성분 데이터에서 가로 및 세로로 밝기값이 변하는 정도를 계산한다.In more detail, the
에지 검출부(126)는 선의 형태를 띠는 부분으로 밝기값의 변화가 심한 부분이 에지에 해당하고, 에지에 해당하는 점들이 방향성을 가지므로 에지의 세기 및 방향을 분석한 후, 기설정된 최대값이 아닌 약한 에지를 제거하며, 특정값을 기준으로 흑백으로 변화시켜 에지를 검출한다. 에지 검출부(126)는 검출된 에지를 포인트 형태의 구조인 윤곽선(Contour)으로 변환하고, 변환된 윤곽선을 이용하여 내부를 채워서 에지 영상을 생성한다. 여기서, 윤곽선은 에지 상호간이 폐궤도 형태로 형성된 객체의 경계선을 따르는 선을 말한다.The
맵핑부(127)는 에지 검출부(126)로부터 생성된 에지 영상을 비디오 카메라부(121)로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출한다.The
서버제어부(128)는 클라우드 서버(130)의 클라이언트 통신부(133)로부터 차량 객체 정보를 요청하는 제어 메시지를 수신하고, 맵핑부(127)에서 추출된 차량 객체와 관련된 영상 데이터를 포함한 응답 메시지를 생성하여 클라이언트 통신부(133)로 전송한다.The
클라우드 서버(130)는 인공 신경망 처리부(131), 제어부(132) 및 클라이언트 통신부(133)를 포함한다.The
클라이언트 통신부(133)는 이동단말기(110)로부터 구급차 객체 정보를 요청하는 제어 메시지를 수신하고, 인공 신경망 처리부(131)에서 처리된 구급차 객체 정보를 포함한 응답 메시지를 생성하여 이동단말기(110)로 전송한다.The
인공 신경망 처리부(131)는 구급차 영상 데이터를 분할한 복수의 셀의 각 영상 특징을 저장하고 있다.The artificial neural
인공 신경망 처리부(131)는 구급차 영상 데이터에서 각각 추출된 복수의 셀별로 영상 특징을 결합하고 구급차의 전체 영상 특징을 추출하여 데이터베이스(미도시)에 저장한다.The artificial neural
인공 신경망 처리부(131)는 구급차 영상 데이터의 특징 데이터를 딥 러닝 기법을 적용하여 학습하며, 학습 데이터로 활용한다.The artificial neural
신경망은 연결선으로 연결된 많은 수의 인공 뉴런들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 인식 모델이다.A neural network is a recognition model implemented in software or hardware that mimics the computational power of a biological system using a large number of artificial neurons connected by connecting lines.
신경망에서는 생물학적인 뉴런의 기능을 단순화시킨 인공 뉴런들이 이용되고, 인공 뉴런들은 연결 가중치(Connection Weight)를 가지는 연결선을 통해 상호 연결될 수 있다. 연결 가중치는 연결선이 갖는 특정한 값으로서 연결 강도라고도 나타낼 수 있다. 신경망은 인공 뉴런들을 통해 인간의 인지 작용이나 학습 과정을 수행할 수 있다. 인공 뉴런은 노드(Node)라고도 지칭할 수 있다.In a neural network, artificial neurons that simplify the function of biological neurons are used, and the artificial neurons can be interconnected through a connection line having a connection weight. The connection weight is a specific value of the connection line and can also be expressed as the connection strength. Neural networks can perform human cognitive processes or learning processes through artificial neurons. Artificial neurons may also be referred to as nodes.
신경망은 입력층(Input Layer), 히든층(Hidden Layer), 출력층(Output Layer)을 포함할 수 있다. 입력층은 학습을 수행하기 위한 입력을 수신하여 히든층에 전달할 수 있고, 출력층은 히든층의 노드들로부터 수신한 신호에 기초하여 신경망의 출력을 생성할 수 있다.The neural network may include an input layer, a hidden layer, and an output layer. The input layer may receive an input for performing learning and transmit it to the hidden layer, and the output layer may generate an output of the neural network based on signals received from nodes of the hidden layer.
히든층은 입력층과 출력층 사이에 위치하고, 입력층을 통해 전달된 학습 데이터를 예측하기 쉬운 값으로 변화시킬 수 있다. 입력층과 히든층에 포함된 노드들은 연결 가중치를 가지는 연결선을 통해 서로 연결되고, 히든층과 출력층에 포함된 노드들에서도 연결 가중치를 가지는 연결선을 통해 서로 연결될 수 있다.The hidden layer is located between the input layer and the output layer, and can change the learning data transmitted through the input layer into a value that is easy to predict. Nodes included in the input layer and the hidden layer are connected to each other through a connection line having a connection weight, and nodes included in the hidden layer and the output layer may be connected to each other through a connection line having a connection weight.
입력층, 히든층 및 출력층은 복수개의 노드들을 포함할 수 있다. 신경망은 복수개의 히든층들을 포함할 수 있다. 복수개의 히든층들을 포함하는 신경망을 깊은 신경망(Deep Neural Network)이라고 하고, 깊은 신경망을 학습시키는 것을 깊은 학습(Deep Learning)이라고 한다.The input layer, the hidden layer, and the output layer may include a plurality of nodes. The neural network may include a plurality of hidden layers. A neural network including a plurality of hidden layers is called a deep neural network, and learning a deep neural network is called deep learning.
인공 신경망 처리부(131)는 감독 학습(Supervised Learning)을 통해 신경망을 학습시킬 수 있다. 감독 학습이란 학습 데이터와 그에 대응하는 출력 데이터를 함께 신경망에 입력하고, 학습 데이터에 대응하는 출력 데이터가 출력되도록 연결선들의 연결 가중치를 업데이트하는 방법이다.The artificial neural
예를 들어, 인공 신경망 처리부(131)는 델타 규칙(Delta Rule)과 오류 역전파 학습(Backpropagation Learning) 등을 통해 인공 뉴런들 사이의 연결 가중치를 업데이트할 수 있다.For example, the artificial neural
오류 역전파 학습은 주어진 학습 데이터에 대해 전방 계산(Forward Computation)으로 오류를 추정한 후, 출력층에서 시작하여 히든층과 입력층 방향으로 역으로 전진하여 추정한 오류를 전파하고, 오류를 줄이는 방향으로 연결 가중치를 업데이트하는 방법이다. 신경망의 처리는 입력층 -> 히든층 -> 출력층의 방향으로 진행되지만, 오류 역전파 학습에서 연결 가중치의 업데이트 방향은 출력층 -> 히든층 -> 입력층의 방향으로 진행될 수 있다.In error backpropagation learning, after estimating the error by forward computation for the given training data, it starts at the output layer and advances in the direction of the hidden layer and the input layer, propagating the estimated error, and reducing the error. This is a method of updating the connection weight. The neural network processing proceeds in the direction of the input layer -> hidden layer -> output layer, but in error backpropagation learning, the update direction of the connection weight may proceed in the direction of the output layer -> hidden layer -> input layer.
인공 신경망 처리부(131)는 입력층, 히든층 및 출력층으로 구성되어 차량 객체 영상 데이터를 입력층에 입력시키고, 입력된 차량 객체 영상 데이터가 구급차와 일치하는지에 대한 분류 결과를 출력층으로 출력되도록 신경망을 학습시킬 수 있다.The artificial neural
인공 신경망 처리부(131)는 차량 객체 영상 데이터가 구급차 영상과 일치하는 경우 해당 차량 객체 영상 데이터의 특징값을 검출하고, 특징값을 이용하여 신경망을 학습시킬 수 있다. 다시 말해, 인공 신경망 처리부(131)는 차량 객체 영상 데이터로부터 특징 벡터들을 검출하고, 검출된 특징 벡터들을 이용하여 신경망을 학습시킬 수 있다.When the vehicle object image data matches the ambulance image, the artificial
제어부(132)는 클라이언트 통신부(133)로부터 차량 객체와 관련된 영상 데이터를 포함한 응답 메시지를 수신하는 경우, 응답 메시지에서 차량 객체와 관련된 영상 데이터를 추출하여 인공 신경망 처리부(131)로 전송한다.When receiving a response message including image data related to a vehicle object from the
인공 신경망 처리부(131)는 기저장된 구급차 영상 데이터의 각 셀의 제1 영상 특징과 차량 객체의 영상 데이터의 각 셀의 제2 영상 특징을 비교하여 분류 결과를 생성하여 제어부(132)로 전송한다.The artificial neural
제어부(132)는 인공 신경망 처리부(131)로부터 제1 영상 특징과 제2 영상 특징이 동일하다는 분류 결과를 수신하는 경우 차량 객체를 구급차로 판단할 수 있다.When receiving a classification result indicating that the first image feature and the second image feature are the same from the artificial neural
클라이언트 통신부(133)는 이동단말기(110)로부터 구급차 객체 정보를 요청하는 요청 메시지를 수신하면, 제어부(132)는 이동단말기의 요청 메시지에서 이동단말기 위치 정보를 분석하여 해당 위치 정보에서 구급차로 판단된 차량 객체 정보를 포함한 우선순위 제어 메시지를 생성하여 하나 이상의 이동단말기(110)로 전송한다.When the
여기서, 우선순위 제어 메시지는 구급차의 이동 시간을 얻을 수 있도록 C 방향에서 감지된 차량 객체, 감지 시간, 날짜 정보, 클라우드 서버 이름, 교통 중지 시간 정보를 포함할 수 있다.Here, the priority control message may include vehicle object detected in the C direction, detection time, date information, cloud server name, and traffic stop time information so as to obtain the moving time of the ambulance.
일례로 하기의 [표 1]과 같이 나타낼 수 있다.As an example, it can be represented as shown in [Table 1] below.
클라우드 서버(130)는 클라이언트 통신부(133)를 통해 구급차로 판단된 차량 객체 정보를 포함한 제어 메시지를 생성하여 복수의 이동단말기(110)로 전송할 수 있다,The
각각의 이동단말기(110)는 교통 정보 서비스를 제공하는 어플리케이션을 다운받아 활성화되어 있다고 가정한다.It is assumed that each
도 4에 도시된 바와 같이, 각각의 이동단말기(110)의 어플리케이션에서는 클라우드 서버(130)로부터 우선순위 제어 메시지를 수신하면, 교통 정보 서비스로 정지해야 할 교통 구간과, 구급차인 차량 객체가 이동하는 구간을 색깔을 다르게 하여 지도맵을 통해 디스플레이 상에 출력하도록 제어한다.4, in the application of each
이상에서 본 발명의 실시예는 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.In the above, embodiments of the present invention are not implemented only through an apparatus and/or a method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention, a recording medium in which the program is recorded, or the like. And, this implementation can be easily implemented by an expert in the technical field to which the present invention belongs from the description of the above-described embodiment.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
100: 교통 정보 제공 시스템
110: 이동단말기
120: 연결서버
130: 클라우드 서버100: traffic information provision system
110: mobile terminal
120: connection server
130: cloud server
Claims (6)
상기 연결서버로부터 수신한 차량 객체와 관련된 영상 데이터가 구급차 영상과 일치하는 경우, 상기 차량 객체와 관련된 영상 데이터를 구급차 영상 데이터로 하고, 상기 구급차 영상 데이터를 분할한 복수의 셀의 각 영상 특징을 저장하고, 상기 구급차 영상 데이터의 특징 데이터를 딥 러닝 기법을 적용하여 학습하며, 학습 데이터로 활용하고, 기저장된 구급차 영상 데이터의 각 셀의 제1 영상 특징과 상기 차량 객체의 영상 데이터의 각 셀의 제2 영상 특징을 비교하여 분류 결과를 생성하는 인공 신경망 처리부와, 상기 제1 영상 특징과 상기 제2 영상 특징이 동일하다는 분류 결과가 생성되면 상기 차량 객체를 구급차로 판단하고, 구급차로 판단된 차량 객체 정보를 포함한 우선순위 제어 메시지를 생성하여 복수의 이동단말기로 전송하는 제어부를 구비한 클라우드 서버를 포함하며,
상기 인공 신경망 처리부는 상기 구급차 영상 데이터를 분할한 복수의 셀의 각 영상 특징을 저장하고, 상기 구급차 영상 데이터의 특징 데이터를 딥 러닝 기법을 적용하여 학습하며, 학습 데이터로 활용하고,
상기 클라우드 서버는 상기 이동단말기로부터 구급차 객체 정보를 요청하는 요청 메시지를 수신하면, 상기 요청 메시지에서 이동단말기 위치 정보를 분석하여 해당 위치 정보에서 구급차로 판단된 차량 객체 정보를 포함한 우선순위 제어 메시지를 생성하여 상기 복수의 이동단말기로 전송하고,
상기 우선순위 제어 메시지는 구급차의 이동 시간을 얻을 수 있는 특정 방향에서 감지된 차량 객체, 감지 시간, 날짜 정보, 클라우드 서버 이름, 교통 중지 시간 정보를 포함하고,
상기 복수의 이동단말기는 교통 정보 서비스를 제공하는 어플리케이션이 실행되고, 상기 클라우드 서버로부터 우선순위 제어 메시지를 수신하면, 정지해야 할 교통 구간과, 구급차인 차량 객체가 이동하는 구간을 색깔을 다르게 하여 지도맵을 통해 디스플레이 상에 출력하도록 제어하고,
상기 연결서버는 도로의 차량을 촬영하여 영상 데이터를 생성하는 비디오 카메라부와, 상기 비디오 카메라부로부터 입력된 영상 데이터인 RGB 데이터를 그레이 스케일(Gray Scale)의 영상 데이터로 변환하는 그레이 스케일 변환부와, 상기 그레이 스케일 변환부로부터 수신된 그레이 스케일의 영상 데이터에서 가우시안 블러 처리하여 노이즈를 제거하는 가우시안 필터부와, 특정 방향으로 n개의 영역으로 나누어진 영상 데이터에서 라인별 화소값들의 평균값 및 상기 라인별 평균값들 간의 차이를 필터링하여 랜덤 노이즈 여부를 판단하고, 랜덤 노이즈의 발생 부분의 상기 화소값을 보정한 보정 화소값을 산출하여 랜덤 노이즈가 제거된 보정 영상을 생성하는 노이즈 제거부와, 상기 노이즈 제거부로부터 수신된 보정 영상에서 바이너리 필터를 이용하여 차량 영역 1, 차량 이외의 영역 0으로 하여 바이너리 이미지를 생성하는 바이너리 필터부와, 상기 바이너리 필터부에서 입력된 바이너리 이미지의 휘도 성분 데이터를 캐니 에지 검출기를 이용하여 명암 변화가 다른 지점보다 큰 지점을 ?O고, 그 지점을 추적하여 형성되는 선에 속한 점들을 추출하여 에지 영상을 생성하는 에지 검출부와, 상기 에지 검출부로부터 생성된 에지 영상을 상기 비디오 카메라부로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출하는 맵핑부를 더 포함하는 것을 특징으로 하는 스마트 교통 정보 제공 시스템.Generate image data by photographing a vehicle on the road through a video camera unit, image processing the generated image data to generate an edge image representing the outline of the image, and the generated edge image as an original image obtained from the video camera unit A connection server for extracting image data related to the vehicle object by mapping it to data; And
When the image data related to the vehicle object received from the connection server matches the ambulance image, the image data related to the vehicle object is used as ambulance image data, and each image characteristic of a plurality of cells obtained by dividing the ambulance image data is stored. And, the feature data of the ambulance image data is learned by applying a deep learning technique, and used as training data, the first image feature of each cell of the ambulance image data stored in advance and the first image feature of each cell of the image data of the vehicle object. 2 An artificial neural network processor that compares image features to generate a classification result, and when a classification result indicating that the first image feature and the second image feature are the same is generated, determines the vehicle object as an ambulance and determines the vehicle object as an ambulance It includes a cloud server having a control unit for generating a priority control message including information and transmitting it to a plurality of mobile terminals,
The artificial neural network processing unit stores image features of a plurality of cells obtained by dividing the ambulance image data, learns the feature data of the ambulance image data by applying a deep learning technique, and uses it as learning data,
When the cloud server receives a request message for requesting ambulance object information from the mobile terminal, it analyzes the location information of the mobile terminal in the request message and generates a priority control message including vehicle object information determined as an ambulance from the corresponding location information. And transmits it to the plurality of mobile terminals,
The priority control message includes vehicle object detected in a specific direction to obtain the moving time of the ambulance, detection time, date information, cloud server name, traffic stop time information,
In the plurality of mobile terminals, an application that provides a traffic information service is executed, and when a priority control message is received from the cloud server, the traffic section to be stopped and the section in which the vehicle object, which is an ambulance is moving, are changed in color to map Control to output on the display through the map,
The connection server includes a video camera unit that generates image data by photographing a vehicle on the road, and a gray scale conversion unit that converts RGB data, which is image data input from the video camera unit, into gray scale image data. , A Gaussian filter unit that removes noise by performing a Gaussian blur process on the gray scale image data received from the gray scale conversion unit, and an average value of pixel values for each line in the image data divided into n regions in a specific direction and the line A noise removal unit configured to filter the difference between the average values to determine whether there is random noise, calculate a corrected pixel value obtained by correcting the pixel value of the random noise generation portion to generate a corrected image from which the random noise is removed, and the noise suppressor In the correction image received from the rejection, a binary filter unit that generates a binary image using a binary filter as vehicle area 1 and non-vehicle area 0, and the luminance component data of the binary image input from the binary filter unit are canny edge detectors. Using ?O, a point having a greater change in contrast than other points, and extracting points belonging to a line formed by tracking the point to generate an edge image, and an edge image generated from the edge detector are converted into the video. The smart traffic information providing system, further comprising a mapping unit for extracting image data related to the vehicle object by mapping the original image data obtained from the camera unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190039217A KR102226321B1 (en) | 2019-04-03 | 2019-04-03 | System for Providing Smart Traffic Information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190039217A KR102226321B1 (en) | 2019-04-03 | 2019-04-03 | System for Providing Smart Traffic Information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200117297A KR20200117297A (en) | 2020-10-14 |
KR102226321B1 true KR102226321B1 (en) | 2021-03-11 |
Family
ID=72847105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190039217A KR102226321B1 (en) | 2019-04-03 | 2019-04-03 | System for Providing Smart Traffic Information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102226321B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102390016B1 (en) | 2020-12-02 | 2022-04-25 | 송창호 | Transport and logistics system for smart city |
KR102620639B1 (en) * | 2023-03-06 | 2024-01-04 | 한국건설기술연구원 | Speed hump driving system for selectively adjusting bump height and driving method thereof |
KR102644659B1 (en) * | 2023-08-29 | 2024-03-12 | 주식회사 델타엑스 | Road managing system and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172988A (en) * | 1998-12-04 | 2000-06-23 | Nec Corp | Emergency vehicle traveling notification system |
JP2002245588A (en) * | 2001-02-13 | 2002-08-30 | Toshiba Corp | Emergency vehicle priority passage support system |
WO2003009253A1 (en) | 2001-07-18 | 2003-01-30 | Fujitsu Limited | System and method for informing emergency vehicle |
KR101263158B1 (en) * | 2011-12-23 | 2013-05-10 | 주식회사 만도 | Method and apparatus for detecting vehicle |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150332589A1 (en) | 2014-05-15 | 2015-11-19 | Global Traffic Technologies, Llc | Managing transit signal priority (tsp) requests |
-
2019
- 2019-04-03 KR KR1020190039217A patent/KR102226321B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172988A (en) * | 1998-12-04 | 2000-06-23 | Nec Corp | Emergency vehicle traveling notification system |
JP2002245588A (en) * | 2001-02-13 | 2002-08-30 | Toshiba Corp | Emergency vehicle priority passage support system |
WO2003009253A1 (en) | 2001-07-18 | 2003-01-30 | Fujitsu Limited | System and method for informing emergency vehicle |
KR101263158B1 (en) * | 2011-12-23 | 2013-05-10 | 주식회사 만도 | Method and apparatus for detecting vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR20200117297A (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816589B (en) | Method and apparatus for generating cartoon style conversion model | |
KR102226321B1 (en) | System for Providing Smart Traffic Information | |
CN111369427B (en) | Image processing method, image processing device, readable medium and electronic equipment | |
CN111295689B (en) | Depth aware object counting | |
EP2568438A2 (en) | Image defogging method and system | |
CN111797983A (en) | Neural network construction method and device | |
CN111368685A (en) | Key point identification method and device, readable medium and electronic equipment | |
CN111402112A (en) | Image processing method, image processing device, electronic equipment and computer readable medium | |
WO2018145308A1 (en) | Filter reusing mechanism for constructing robust deep convolutional neural network | |
CN112465709B (en) | Image enhancement method, device, storage medium and equipment | |
CN111757100B (en) | Method and device for determining camera motion variation, electronic equipment and medium | |
CN112037142A (en) | Image denoising method and device, computer and readable storage medium | |
CN111402151A (en) | Image processing method, image processing device, electronic equipment and computer readable medium | |
CN110705511A (en) | Blurred image recognition method, device, equipment and storage medium | |
CN115393815A (en) | Road information generation method and device, electronic equipment and computer readable medium | |
CN111402159A (en) | Image processing method, image processing device, electronic equipment and computer readable medium | |
CN111724437A (en) | Visual positioning method and related device, equipment and storage medium | |
CN113902047B (en) | Image element matching method, device, equipment and storage medium | |
CN115908219A (en) | Face recognition method, device, equipment and storage medium | |
CN112597793B (en) | Method, device and equipment for identifying traffic light state and timer state | |
CN112597788B (en) | Target measuring method, target measuring device, electronic apparatus, and computer-readable medium | |
CN112669346B (en) | Pavement emergency determination method and device | |
CN111586295B (en) | Image generation method and device and electronic equipment | |
CN115115680A (en) | Image processing method, device, equipment and storage medium | |
CN114638846A (en) | Pickup pose information determination method, pickup pose information determination device, pickup pose information determination equipment and computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right |