KR102226321B1 - System for Providing Smart Traffic Information - Google Patents

System for Providing Smart Traffic Information Download PDF

Info

Publication number
KR102226321B1
KR102226321B1 KR1020190039217A KR20190039217A KR102226321B1 KR 102226321 B1 KR102226321 B1 KR 102226321B1 KR 1020190039217 A KR1020190039217 A KR 1020190039217A KR 20190039217 A KR20190039217 A KR 20190039217A KR 102226321 B1 KR102226321 B1 KR 102226321B1
Authority
KR
South Korea
Prior art keywords
image
image data
ambulance
unit
vehicle object
Prior art date
Application number
KR1020190039217A
Other languages
Korean (ko)
Other versions
KR20200117297A (en
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020190039217A priority Critical patent/KR102226321B1/en
Publication of KR20200117297A publication Critical patent/KR20200117297A/en
Application granted granted Critical
Publication of KR102226321B1 publication Critical patent/KR102226321B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • G06K2209/23
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

스마트 교통 정보 제공 시스템은 스마트 도시의 교통 통제 메카니즘으로 비디오 카메라로 촬영된 차량 객체에서 구급차를 선별하여 해당 위치에 복수의 차량으로 우선순위 메시지를 전송하여 차량 이동을 미리 정지시킴으로써 효율적인 교통 주행과, 혼잡한 도심에서도 긴급 차량이 위험한 상황을 줄이면서 빠른 주행이 가능한 효과가 있다.The smart traffic information providing system is a traffic control mechanism of a smart city, selecting an ambulance from a vehicle object photographed with a video camera and transmitting a priority message to a plurality of vehicles at the corresponding location to stop vehicle movement in advance, thereby enabling efficient traffic driving and congestion. Even in an urban area, emergency vehicles can reduce dangerous situations while enabling fast driving.

Description

스마트 교통 정보 제공 시스템{System for Providing Smart Traffic Information}Smart Traffic Information System {System for Providing Smart Traffic Information}

본 발명은 교통 정보 제공 시스템에 관한 것으로서, 특히 스마트 도시의 교통 통제 메카니즘으로 비디오 카메라로 촬영된 차량 객체에서 구급차를 선별하여 해당 위치에 복수의 차량으로 우선순위 메시지를 전송하여 차량 이동을 미리 정지시킴으로써 효율적인 교통 주행이 가능한 스마트 교통 정보 제공 시스템에 관한 것이다.The present invention relates to a system for providing traffic information, and in particular, by selecting an ambulance from a vehicle object photographed with a video camera as a traffic control mechanism in a smart city and transmitting a priority message to a plurality of vehicles at the corresponding location, vehicle movement is stopped in advance. It relates to a smart traffic information providing system capable of efficient traffic driving.

구급차들과 같은 긴급 차량들은 일반적으로 교통 신호에 반하여 교차로를 횡단하는 권리를 갖는다. 긴급 차량들은 과거에 전형적으로 호각들, 사이렌들 및 섬광등들에 의존하여 긴급 차량이 교차로를 횡단하려는 의도를 갖는 교차로에 진입하는 다른 운전자들에게 경고한다.Emergency vehicles, such as ambulances, generally have the right to cross an intersection against traffic signals. Emergency vehicles in the past typically rely on whistles, sirens and flashlights to warn other drivers entering an intersection where the emergency vehicle intends to cross the intersection.

그러나 대도시에서는 청각 손상, 에어컨, 오디오 시스템들 및 다른 주위 산만들로 인하여 종종 교차로에 진입하는 차량의 운전자가 진입하는 긴급 차량이 발사하는 경고를 알지 못하거나, 운전자가 다른 위치로 이동하려고 해도 이동할 수 있는 공간이 없어서 긴급 차량에 길을 양보할 수 없는 문제점이 있었다.However, in large cities, hearing impairment, air conditioning, audio systems, and other distractions often cause drivers of vehicles entering an intersection to be unaware of warnings issued by an incoming emergency vehicle, or are unable to move even if the driver attempts to move to another location. There was a problem in that there was no space to give way to an emergency vehicle.

긴급 차량이 병원 앰블런스인 경우, 환자의 목숨은 긴급 차량이 병원에 얼마나 빨리 도착하는지 여부에 달라 있다. 그러나 대도시의 경우, 갈수록 혼잡해지는 도로 상황이 나아지지 않으며, 긴급 차량이 위험한 상황을 줄이면서 빠른 주행이 점점 더 어려워지고 있는 것이 현실이다.If the emergency vehicle is a hospital ambulance, the patient's life depends on how quickly the emergency vehicle arrives at the hospital. However, in the case of a large city, the increasingly congested road situation does not improve, and it is a reality that fast driving is becoming more and more difficult as emergency vehicles reduce dangerous situations.

한국 공개특허번호 제10-2017-0002640호Korean Patent Application Publication No. 10-2017-0002640

이와 같은 문제점을 해결하기 위하여, 본 발명은 스마트 도시의 교통 통제 메카니즘으로 비디오 카메라로 촬영된 차량 객체에서 구급차를 선별하여 해당 위치에 복수의 차량으로 우선순위 메시지를 전송하여 차량 이동을 미리 정지시킴으로써 효율적인 교통 주행이 가능한 스마트 교통 정보 제공 시스템을 제공하는데 그 목적이 있다.In order to solve such a problem, the present invention selects an ambulance from a vehicle object photographed with a video camera as a traffic control mechanism of a smart city and transmits a priority message to a plurality of vehicles at the corresponding location to stop vehicle movement in advance. Its purpose is to provide a smart traffic information providing system that enables traffic driving.

상기 목적을 달성하기 위한 본 발명의 특징에 따른 스마트 교통 정보 제공 시스템은,Smart traffic information providing system according to the features of the present invention for achieving the above object,

비디오 카메라부를 통해 도로의 차량을 촬영하여 영상 데이터를 생성하고, 상기 생성한 영상 데이터를 영상 처리하여 영상의 윤곽선을 나타내는 에지 영상을 생성하고, 생성된 에지 영상을 상기 비디오 카메라부로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출하는 연결서버; 및Generate image data by photographing a vehicle on the road through a video camera unit, image processing the generated image data to generate an edge image representing the outline of the image, and an original image obtained from the video camera unit A connection server for extracting image data related to the vehicle object by mapping it to data; And

상기 연결서버로부터 차량 객체와 관련된 영상 데이터를 수신하는 경우, 기저장된 구급차 영상 데이터의 각 셀의 제1 영상 특징과 상기 차량 객체의 영상 데이터의 각 셀의 제2 영상 특징을 비교하여 분류 결과를 생성하고, 상기 제1 영상 특징과 상기 제2 영상 특징이 동일하다는 분류 결과가 생성되면, 상기 차량 객체를 구급차로 판단하고, 구급차로 판단된 차량 객체 정보를 포함한 우선순위 제어 메시지를 생성하여 복수의 이동단말기로 전송하는 클라우드 서버를 포함한다.When receiving image data related to a vehicle object from the connection server, a classification result is generated by comparing a first image characteristic of each cell of the previously stored ambulance image data with a second image characteristic of each cell of the image data of the vehicle object. And, when a classification result indicating that the first image feature and the second image feature are the same is generated, the vehicle object is determined as an ambulance, and a priority control message including vehicle object information determined as an ambulance is generated to move a plurality of It includes a cloud server that transmits to the terminal.

상기 연결서버는 도로의 차량을 촬영하여 영상 데이터를 생성하는 비디오 카메라부와, 상기 비디오 카메라부로부터 입력된 영상 데이터인 RGB 데이터를 그레이 스케일(Gray Scale)의 영상 데이터로 변환하는 그레이 스케일 변환부와, 상기 그레이 스케일 변환부로부터 수신된 그레이 스케일의 영상 데이터에서 가우시안 블러 처리하여 노이즈를 제거하는 가우시안 필터부와, 상기 노이즈가 제거된 영상 데이터를 캐니 에지 검출기를 이용하여 에지 영상을 생성하는 에지 검출부와, 상기 에지 검출부로부터 생성된 에지 영상을 상기 비디오 카메라부로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출하는 맵핑부를 더 포함하는 것을 특징으로 한다.The connection server includes a video camera unit that photographs a vehicle on the road to generate image data, and a gray scale conversion unit that converts RGB data, which is image data input from the video camera unit, into gray scale image data. , A Gaussian filter unit that removes noise by performing Gaussian blur processing on the gray scale image data received from the gray scale conversion unit, and an edge detection unit that generates an edge image using the canny edge detector from the noise And a mapping unit for extracting image data related to the vehicle object by mapping the edge image generated by the edge detection unit to the original image data obtained from the video camera unit.

전술한 구성에 의하여, 본 발명은 복수의 차량으로 우선순위 메시지를 전송하여 차량 이동을 미리 정지시켜 효율적인 교통 주행과, 혼잡한 도심에서도 긴급 차량이 위험한 상황을 줄이면서 빠른 주행이 가능한 효과가 있다.According to the above-described configuration, according to the present invention, a priority message is transmitted to a plurality of vehicles to stop vehicle movement in advance, thereby enabling efficient traffic driving and rapid driving while reducing a dangerous situation even in a crowded city center.

도 1은 본 발명의 실시예에 따른 스마트 교통 정보 제공 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 연결서버의 내부 구성을 간략하게 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 연결서버에서 차량 객체를 추출하는 영상 프로세서를 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른 이동단말기에서 처리되는 교통 정보 서비스의 일례를 나타낸 도면이다.
1 is a diagram showing the configuration of a smart traffic information providing system according to an embodiment of the present invention.
2 is a block diagram schematically showing an internal configuration of a connection server according to an embodiment of the present invention.
3 is a flowchart illustrating an image processor for extracting a vehicle object from a connection server according to an embodiment of the present invention.
4 is a diagram showing an example of a traffic information service processed in a mobile terminal according to an embodiment of the present invention.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

도 1은 본 발명의 실시예에 따른 스마트 교통 정보 제공 시스템의 구성을 나타낸 도면이고, 도 2는 본 발명의 실시예에 따른 연결서버의 내부 구성을 간략하게 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 연결서버에서 차량 객체를 추출하는 영상 프로세서를 나타낸 흐름도이고, 도 4는 본 발명의 실시예에 따른 이동단말기에서 처리되는 교통 정보 서비스의 일례를 나타낸 도면이다.1 is a diagram showing the configuration of a system for providing smart traffic information according to an embodiment of the present invention, FIG. 2 is a block diagram schematically showing the internal configuration of a connection server according to an embodiment of the present invention, and FIG. Is a flowchart showing an image processor for extracting a vehicle object from a connection server according to an embodiment of the present invention, and FIG. 4 is a view showing an example of a traffic information service processed by a mobile terminal according to an embodiment of the present invention.

본 발명의 실시예에 따른 스마트 교통 정보 제공 시스템(100)은 하나 이상의 이동단말기(110), 연결서버(120) 및 클라우드 서버(130)를 포함한다.The smart traffic information providing system 100 according to an embodiment of the present invention includes one or more mobile terminals 110, a connection server 120, and a cloud server 130.

하나 이상의 이동단말기(110)는 휴대폰, 스마트폰(Smart Phone), 노트북 컴퓨터(Laptop Computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이터(Navigator) 등이 포함될 수 있다.At least one mobile terminal 110 may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigator, and the like. have.

각각의 이동단말기(110)는 교통 정보 서비스를 제공하는 어플리케이션을 다운받아 저장할 수 있다.Each mobile terminal 110 may download and store an application providing a traffic information service.

각각의 이동단말기(110)는 차량에 장착되거나 구비되어 클라우드 서버(130)와 연결서버(120)와 네트워크 통신을 수행하며, 필요한 제어 메시지, 전송 메시지 및 응답 메시지를 송수신할 수 있다.Each mobile terminal 110 is mounted or provided in a vehicle to perform network communication with the cloud server 130 and the connection server 120, and can transmit and receive necessary control messages, transmission messages, and response messages.

연결서버(120)는 차량을 촬영하기 위하여 신호등, 도로 일측에 위치한다.The connection server 120 is located at one side of a traffic light and a road to photograph a vehicle.

클라우드 서버(130)는 이동단말기(110)와 연결서버(120)의 데이터 송수신시 관련 메시지 종류, 메시지 프로토콜, 메시지 송신자, 수신자를 사물 인터넷 프로토콜인 MQTT(Message Queueing Telemetry Transport)에 의해 송수신한다.The cloud server 130 transmits and receives related message types, message protocols, message senders, and receivers through the IoT protocol, MQTT (Message Queuing Telemetry Transport), when data is transmitted and received between the mobile terminal 110 and the connection server 120.

클라우드 서버(130)는 예를 들어 유선 또는 무선통신모듈을 포함하는 장치로서, 클라우드 환경에 접속하여 소정의 작업을 수행하는 장치일 수 있다.The cloud server 130 is, for example, a device including a wired or wireless communication module, and may be a device that accesses a cloud environment and performs a predetermined task.

클라우드 서버(130)의 종류에는 제한이 없으며, 예를 들어, 일반적인 데스크탑 PC이거나 휴대가 가능하고 무선 인터넷 또는 휴대 인터넷을 통하여 클라우드 환경을 제공하고, 통신 가능한 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone: Personal Communications Services phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000) 등 이동 단말을 포함하고, 이외에도 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 스마트폰(Smart phone), 왑폰(WAP phone: Wireless application protocol phone), 모바일 게임기(mobile play-station)장치 또는, 랩탑 컴퓨터, 태블릿 컴퓨터, 네비게이션 시스템 등 일 수 있다.There is no limitation on the type of the cloud server 130, for example, a general desktop PC or portable, providing a cloud environment through wireless Internet or mobile Internet, and communicating with a cellular phone, a PCS phone ( PCS phone: Includes mobile terminals such as Personal Communications Services phone), Synchronous/Asynchronous IMT-2000 (International Mobile Telecommunication-2000), and in addition, Palm Personal Computer (PDA), Personal Digital Assistant (PDA), Smart It may be a smart phone, a wireless application protocol phone (WAP phone), a mobile play-station device, or a laptop computer, a tablet computer, a navigation system, or the like.

클라우드 서버(130)를 연결하는 네트워크는 유선 또는 무선 인터넷일 수도 있고, 이외에도 유선 공중망, 무선 이동 통신망, 또는 휴대 인터넷 등과 통합된 코어망일 수도 있고, TCP/IP 프로토콜 및 그 상위 계층에 존재하는 여러 서비스, 즉 HTTP(Hyper Text Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol) 등을 제공하는 개방형 컴퓨터 네트워크 구조를 의미할 수 있다.The network connecting the cloud server 130 may be a wired or wireless Internet, or may be a core network integrated with a wired public network, a wireless mobile communication network, or a portable Internet, and the TCP/IP protocol and various services existing at the upper layer thereof. That is, it may mean an open computer network structure that provides HTTP (Hyper Text Transfer Protocol), Telnet, FTP (File Transfer Protocol), DNS (Domain Name System), SMTP (Simple Mail Transfer Protocol), and the like.

클라우드 서버(130)의 환경은 복수의 클라우드 서비스를 제공하기 위한 물리적인 서버의 집합을 의미할 수 있으며, 물리적인 서버 상에서 구현된 복수의 가상머신이 제공되는 환경을 의미할 수도 있다.The environment of the cloud server 130 may refer to a set of physical servers for providing a plurality of cloud services, and may refer to an environment in which a plurality of virtual machines implemented on a physical server are provided.

본 발명의 실시예에 따른 연결서버(120)는 영상 처리 프로세스로서 비디오 카메라부(121), 그레이 스케일 변환부(122), 가우시안 필터부(123), 노이즈 제거부(124), 바이너리 필터부(125), 에지 검출부(126), 맵핑부(127) 및 서버제어부(128)를 포함한다.The connection server 120 according to an embodiment of the present invention includes a video camera unit 121, a gray scale conversion unit 122, a Gaussian filter unit 123, a noise removing unit 124, and a binary filter unit ( 125), an edge detection unit 126, a mapping unit 127, and a server control unit 128.

비디오 카메라부(121)는 도로의 차량을 촬영하여 영상 데이터를 생성한다.The video camera unit 121 generates image data by photographing a vehicle on the road.

그레이 스케일 변환부(122)는 비디오 카메라부(121)로부터 입력된 영상 데이터인 RGB 데이터를 그레이 스케일(Gray Scale)의 영상 데이터로 변환한다. 즉, 그레이 스케일 변환부(122)는 RGB 데이터의 평균값을 산출하여 그레이 스케일의 영상 데이터로 변환한다. 여기서, 그레이 스케일의 영상 데이터는 0 내지 255 계조로 표현된다.The gray scale conversion unit 122 converts RGB data, which is image data input from the video camera unit 121, into gray scale image data. That is, the gray scale conversion unit 122 calculates an average value of RGB data and converts it into gray scale image data. Here, the gray scale image data is expressed in 0 to 255 gray scales.

가우시안 필터부(123)는 그레이 스케일 변환부(122)로부터 수신된 그레이 스케일의 영상 데이터로부터 노이즈를 제거한다.The Gaussian filter unit 123 removes noise from gray scale image data received from the gray scale conversion unit 122.

가우시안 필터부(123)는 양방향필터(Bilateral Filter)의 기본 마스크 크기인 5 × 5 사이즈로 구성한다. 가우시안 블러 처리는 매 클럭마다 세로 한 줄에 해당하는 5픽셀(Pixel)씩 전송받아 초기에 총 5클럭에 걸쳐 마스크를 완성하고, 초기 5클럭의 딜레이 후에 이어지는 매 클럭마다 세로 5픽셀을 받아 실시간으로 마스크를 처리한다.The Gaussian filter unit 123 is configured with a size of 5×5, which is a basic mask size of a bilateral filter. Gaussian blur processing receives 5 pixels corresponding to a vertical line at every clock, completes the mask over a total of 5 clocks, and receives 5 vertical pixels at each subsequent clock after an initial delay of 5 clocks. Process the mask.

노이즈 제거부(124)는 특정 방향으로 n개의 영역으로 나누어진 영상 데이터에서 라인별 화소값들의 평균값 및 상기 라인별 평균값들 간의 차이를 필터링하여 랜덤 노이즈 여부를 판단하고, 랜덤 노이즈의 발생 부분의 상기 화소값을 보정한 보정 화소값을 산출하여 랜덤 노이즈가 제거된 보정 영상을 생성한다.The noise removing unit 124 determines whether there is random noise by filtering the average value of pixel values for each line and the difference between the average values for each line in the image data divided into n areas in a specific direction, and determines whether there is random noise. A corrected pixel value obtained by correcting the pixel value is calculated to generate a corrected image from which random noise has been removed.

바이너리 필터부(125)는 노이즈 제거부(124)로부터 수신된 보정 영상에서 바이너리 필터를 이용하여 차량 영역 1, 차량 이외의 영역 0으로 하여 바이너리 이미지를 생성한다.The binary filter unit 125 generates a binary image using a binary filter in the corrected image received from the noise removing unit 124 as vehicle area 1 and non-vehicle area 0.

에지 검출부(126)는 바이너리 필터부(125)에서 입력된 바이너리 이미지의 휘도 성분 데이터를 캐니 에지 검출기를 이용하여 명암 변화가 다른 지점보다 큰 지점을 ?O고, 그 지점을 추적하여 형성되는 선에 속한 점들을 추출하여 에지 영상을 생성한다.The edge detection unit 126 uses the canny edge detector to determine the luminance component data of the binary image input from the binary filter unit 125 at a point where the contrast change is greater than that of other points, and traces the point to a line formed by tracking the point. An edge image is created by extracting the points that belong to it.

더욱 상세하게 설명하면, 에지 검출부(126)는 가우시안 필터를 휘도 영상에 마스킹 방식으로 적용하여 노이즈를 제거하고, 휘도 성분 데이터의 수평 및 수직 방향을 미분 계산하여 휘도 성분 데이터에서 가로 및 세로로 밝기값이 변하는 정도를 계산한다.In more detail, the edge detection unit 126 removes noise by applying a Gaussian filter to a luminance image in a masking method, and differentially calculates the horizontal and vertical directions of the luminance component data to calculate the horizontal and vertical brightness values from the luminance component data. Calculate the degree of this change.

에지 검출부(126)는 선의 형태를 띠는 부분으로 밝기값의 변화가 심한 부분이 에지에 해당하고, 에지에 해당하는 점들이 방향성을 가지므로 에지의 세기 및 방향을 분석한 후, 기설정된 최대값이 아닌 약한 에지를 제거하며, 특정값을 기준으로 흑백으로 변화시켜 에지를 검출한다. 에지 검출부(126)는 검출된 에지를 포인트 형태의 구조인 윤곽선(Contour)으로 변환하고, 변환된 윤곽선을 이용하여 내부를 채워서 에지 영상을 생성한다. 여기서, 윤곽선은 에지 상호간이 폐궤도 형태로 형성된 객체의 경계선을 따르는 선을 말한다.The edge detection unit 126 is a part in the form of a line, and the part with a large change in brightness value corresponds to the edge, and the points corresponding to the edge have directionality, so after analyzing the strength and direction of the edge, a preset maximum value The weak edge is removed, and the edge is detected by changing it to black and white based on a specific value. The edge detection unit 126 converts the detected edge into a contour, which is a structure in the form of a point, and fills the inside using the converted contour to generate an edge image. Here, the outline refers to a line along the boundary line of the object formed in the form of a closed orbit between edges.

맵핑부(127)는 에지 검출부(126)로부터 생성된 에지 영상을 비디오 카메라부(121)로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출한다.The mapping unit 127 maps the edge image generated by the edge detection unit 126 to the original image data obtained from the video camera unit 121 to extract image data related to the vehicle object.

서버제어부(128)는 클라우드 서버(130)의 클라이언트 통신부(133)로부터 차량 객체 정보를 요청하는 제어 메시지를 수신하고, 맵핑부(127)에서 추출된 차량 객체와 관련된 영상 데이터를 포함한 응답 메시지를 생성하여 클라이언트 통신부(133)로 전송한다.The server control unit 128 receives a control message requesting vehicle object information from the client communication unit 133 of the cloud server 130, and generates a response message including image data related to the vehicle object extracted from the mapping unit 127 Then, it is transmitted to the client communication unit 133.

클라우드 서버(130)는 인공 신경망 처리부(131), 제어부(132) 및 클라이언트 통신부(133)를 포함한다.The cloud server 130 includes an artificial neural network processing unit 131, a control unit 132 and a client communication unit 133.

클라이언트 통신부(133)는 이동단말기(110)로부터 구급차 객체 정보를 요청하는 제어 메시지를 수신하고, 인공 신경망 처리부(131)에서 처리된 구급차 객체 정보를 포함한 응답 메시지를 생성하여 이동단말기(110)로 전송한다.The client communication unit 133 receives a control message requesting ambulance object information from the mobile terminal 110, generates a response message including ambulance object information processed by the artificial neural network processing unit 131, and transmits it to the mobile terminal 110. do.

인공 신경망 처리부(131)는 구급차 영상 데이터를 분할한 복수의 셀의 각 영상 특징을 저장하고 있다.The artificial neural network processing unit 131 stores image features of a plurality of cells obtained by dividing ambulance image data.

인공 신경망 처리부(131)는 구급차 영상 데이터에서 각각 추출된 복수의 셀별로 영상 특징을 결합하고 구급차의 전체 영상 특징을 추출하여 데이터베이스(미도시)에 저장한다.The artificial neural network processing unit 131 combines image features for each of a plurality of cells each extracted from the ambulance image data, extracts all image features of the ambulance, and stores them in a database (not shown).

인공 신경망 처리부(131)는 구급차 영상 데이터의 특징 데이터를 딥 러닝 기법을 적용하여 학습하며, 학습 데이터로 활용한다.The artificial neural network processing unit 131 learns feature data of ambulance image data by applying a deep learning technique, and uses it as training data.

신경망은 연결선으로 연결된 많은 수의 인공 뉴런들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 인식 모델이다.A neural network is a recognition model implemented in software or hardware that mimics the computational power of a biological system using a large number of artificial neurons connected by connecting lines.

신경망에서는 생물학적인 뉴런의 기능을 단순화시킨 인공 뉴런들이 이용되고, 인공 뉴런들은 연결 가중치(Connection Weight)를 가지는 연결선을 통해 상호 연결될 수 있다. 연결 가중치는 연결선이 갖는 특정한 값으로서 연결 강도라고도 나타낼 수 있다. 신경망은 인공 뉴런들을 통해 인간의 인지 작용이나 학습 과정을 수행할 수 있다. 인공 뉴런은 노드(Node)라고도 지칭할 수 있다.In a neural network, artificial neurons that simplify the function of biological neurons are used, and the artificial neurons can be interconnected through a connection line having a connection weight. The connection weight is a specific value of the connection line and can also be expressed as the connection strength. Neural networks can perform human cognitive processes or learning processes through artificial neurons. Artificial neurons may also be referred to as nodes.

신경망은 입력층(Input Layer), 히든층(Hidden Layer), 출력층(Output Layer)을 포함할 수 있다. 입력층은 학습을 수행하기 위한 입력을 수신하여 히든층에 전달할 수 있고, 출력층은 히든층의 노드들로부터 수신한 신호에 기초하여 신경망의 출력을 생성할 수 있다.The neural network may include an input layer, a hidden layer, and an output layer. The input layer may receive an input for performing learning and transmit it to the hidden layer, and the output layer may generate an output of the neural network based on signals received from nodes of the hidden layer.

히든층은 입력층과 출력층 사이에 위치하고, 입력층을 통해 전달된 학습 데이터를 예측하기 쉬운 값으로 변화시킬 수 있다. 입력층과 히든층에 포함된 노드들은 연결 가중치를 가지는 연결선을 통해 서로 연결되고, 히든층과 출력층에 포함된 노드들에서도 연결 가중치를 가지는 연결선을 통해 서로 연결될 수 있다.The hidden layer is located between the input layer and the output layer, and can change the learning data transmitted through the input layer into a value that is easy to predict. Nodes included in the input layer and the hidden layer are connected to each other through a connection line having a connection weight, and nodes included in the hidden layer and the output layer may be connected to each other through a connection line having a connection weight.

입력층, 히든층 및 출력층은 복수개의 노드들을 포함할 수 있다. 신경망은 복수개의 히든층들을 포함할 수 있다. 복수개의 히든층들을 포함하는 신경망을 깊은 신경망(Deep Neural Network)이라고 하고, 깊은 신경망을 학습시키는 것을 깊은 학습(Deep Learning)이라고 한다.The input layer, the hidden layer, and the output layer may include a plurality of nodes. The neural network may include a plurality of hidden layers. A neural network including a plurality of hidden layers is called a deep neural network, and learning a deep neural network is called deep learning.

인공 신경망 처리부(131)는 감독 학습(Supervised Learning)을 통해 신경망을 학습시킬 수 있다. 감독 학습이란 학습 데이터와 그에 대응하는 출력 데이터를 함께 신경망에 입력하고, 학습 데이터에 대응하는 출력 데이터가 출력되도록 연결선들의 연결 가중치를 업데이트하는 방법이다.The artificial neural network processing unit 131 may train a neural network through supervised learning. Supervised learning is a method of inputting training data and output data corresponding thereto to a neural network, and updating connection weights of connection lines so that output data corresponding to the training data is output.

예를 들어, 인공 신경망 처리부(131)는 델타 규칙(Delta Rule)과 오류 역전파 학습(Backpropagation Learning) 등을 통해 인공 뉴런들 사이의 연결 가중치를 업데이트할 수 있다.For example, the artificial neural network processing unit 131 may update connection weights between artificial neurons through a delta rule and backpropagation learning.

오류 역전파 학습은 주어진 학습 데이터에 대해 전방 계산(Forward Computation)으로 오류를 추정한 후, 출력층에서 시작하여 히든층과 입력층 방향으로 역으로 전진하여 추정한 오류를 전파하고, 오류를 줄이는 방향으로 연결 가중치를 업데이트하는 방법이다. 신경망의 처리는 입력층 -> 히든층 -> 출력층의 방향으로 진행되지만, 오류 역전파 학습에서 연결 가중치의 업데이트 방향은 출력층 -> 히든층 -> 입력층의 방향으로 진행될 수 있다.In error backpropagation learning, after estimating the error by forward computation for the given training data, it starts at the output layer and advances in the direction of the hidden layer and the input layer, propagating the estimated error, and reducing the error. This is a method of updating the connection weight. The neural network processing proceeds in the direction of the input layer -> hidden layer -> output layer, but in error backpropagation learning, the update direction of the connection weight may proceed in the direction of the output layer -> hidden layer -> input layer.

인공 신경망 처리부(131)는 입력층, 히든층 및 출력층으로 구성되어 차량 객체 영상 데이터를 입력층에 입력시키고, 입력된 차량 객체 영상 데이터가 구급차와 일치하는지에 대한 분류 결과를 출력층으로 출력되도록 신경망을 학습시킬 수 있다.The artificial neural network processing unit 131 is composed of an input layer, a hidden layer, and an output layer to input vehicle object image data to the input layer, and to output the classification result of whether the input vehicle object image data matches the ambulance to the output layer. You can learn.

인공 신경망 처리부(131)는 차량 객체 영상 데이터가 구급차 영상과 일치하는 경우 해당 차량 객체 영상 데이터의 특징값을 검출하고, 특징값을 이용하여 신경망을 학습시킬 수 있다. 다시 말해, 인공 신경망 처리부(131)는 차량 객체 영상 데이터로부터 특징 벡터들을 검출하고, 검출된 특징 벡터들을 이용하여 신경망을 학습시킬 수 있다.When the vehicle object image data matches the ambulance image, the artificial neural network processor 131 may detect a feature value of the vehicle object image data and train the neural network using the feature value. In other words, the artificial neural network processing unit 131 may detect feature vectors from vehicle object image data and train the neural network using the detected feature vectors.

제어부(132)는 클라이언트 통신부(133)로부터 차량 객체와 관련된 영상 데이터를 포함한 응답 메시지를 수신하는 경우, 응답 메시지에서 차량 객체와 관련된 영상 데이터를 추출하여 인공 신경망 처리부(131)로 전송한다.When receiving a response message including image data related to a vehicle object from the client communication unit 133, the control unit 132 extracts image data related to the vehicle object from the response message and transmits it to the artificial neural network processing unit 131.

인공 신경망 처리부(131)는 기저장된 구급차 영상 데이터의 각 셀의 제1 영상 특징과 차량 객체의 영상 데이터의 각 셀의 제2 영상 특징을 비교하여 분류 결과를 생성하여 제어부(132)로 전송한다.The artificial neural network processing unit 131 generates a classification result by comparing the first image characteristic of each cell of the previously stored ambulance image data with the second image characteristic of each cell of the image data of the vehicle object, and transmits the classification result to the control unit 132.

제어부(132)는 인공 신경망 처리부(131)로부터 제1 영상 특징과 제2 영상 특징이 동일하다는 분류 결과를 수신하는 경우 차량 객체를 구급차로 판단할 수 있다.When receiving a classification result indicating that the first image feature and the second image feature are the same from the artificial neural network processing unit 131, the controller 132 may determine the vehicle object as an ambulance.

클라이언트 통신부(133)는 이동단말기(110)로부터 구급차 객체 정보를 요청하는 요청 메시지를 수신하면, 제어부(132)는 이동단말기의 요청 메시지에서 이동단말기 위치 정보를 분석하여 해당 위치 정보에서 구급차로 판단된 차량 객체 정보를 포함한 우선순위 제어 메시지를 생성하여 하나 이상의 이동단말기(110)로 전송한다.When the client communication unit 133 receives a request message for requesting ambulance object information from the mobile terminal 110, the control unit 132 analyzes the location information of the mobile terminal in the request message of the mobile terminal, A priority control message including vehicle object information is generated and transmitted to one or more mobile terminals 110.

여기서, 우선순위 제어 메시지는 구급차의 이동 시간을 얻을 수 있도록 C 방향에서 감지된 차량 객체, 감지 시간, 날짜 정보, 클라우드 서버 이름, 교통 중지 시간 정보를 포함할 수 있다.Here, the priority control message may include vehicle object detected in the C direction, detection time, date information, cloud server name, and traffic stop time information so as to obtain the moving time of the ambulance.

일례로 하기의 [표 1]과 같이 나타낼 수 있다.As an example, it can be represented as shown in [Table 1] below.

Figure 112019034456466-pat00001
Figure 112019034456466-pat00001

클라우드 서버(130)는 클라이언트 통신부(133)를 통해 구급차로 판단된 차량 객체 정보를 포함한 제어 메시지를 생성하여 복수의 이동단말기(110)로 전송할 수 있다,The cloud server 130 may generate a control message including vehicle object information determined as an ambulance through the client communication unit 133 and transmit it to the plurality of mobile terminals 110.

각각의 이동단말기(110)는 교통 정보 서비스를 제공하는 어플리케이션을 다운받아 활성화되어 있다고 가정한다.It is assumed that each mobile terminal 110 is activated by downloading an application providing a traffic information service.

도 4에 도시된 바와 같이, 각각의 이동단말기(110)의 어플리케이션에서는 클라우드 서버(130)로부터 우선순위 제어 메시지를 수신하면, 교통 정보 서비스로 정지해야 할 교통 구간과, 구급차인 차량 객체가 이동하는 구간을 색깔을 다르게 하여 지도맵을 통해 디스플레이 상에 출력하도록 제어한다.4, in the application of each mobile terminal 110, upon receiving a priority control message from the cloud server 130, the traffic section to be stopped by the traffic information service and the vehicle object, which is an ambulance, are moved. The section is controlled to be output on the display through a map map with different colors.

이상에서 본 발명의 실시예는 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.In the above, embodiments of the present invention are not implemented only through an apparatus and/or a method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention, a recording medium in which the program is recorded, or the like. And, this implementation can be easily implemented by an expert in the technical field to which the present invention belongs from the description of the above-described embodiment.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

100: 교통 정보 제공 시스템
110: 이동단말기
120: 연결서버
130: 클라우드 서버
100: traffic information provision system
110: mobile terminal
120: connection server
130: cloud server

Claims (6)

비디오 카메라부를 통해 도로의 차량을 촬영하여 영상 데이터를 생성하고, 상기 생성한 영상 데이터를 영상 처리하여 영상의 윤곽선을 나타내는 에지 영상을 생성하고, 생성된 에지 영상을 상기 비디오 카메라부로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출하는 연결서버; 및
상기 연결서버로부터 수신한 차량 객체와 관련된 영상 데이터가 구급차 영상과 일치하는 경우, 상기 차량 객체와 관련된 영상 데이터를 구급차 영상 데이터로 하고, 상기 구급차 영상 데이터를 분할한 복수의 셀의 각 영상 특징을 저장하고, 상기 구급차 영상 데이터의 특징 데이터를 딥 러닝 기법을 적용하여 학습하며, 학습 데이터로 활용하고, 기저장된 구급차 영상 데이터의 각 셀의 제1 영상 특징과 상기 차량 객체의 영상 데이터의 각 셀의 제2 영상 특징을 비교하여 분류 결과를 생성하는 인공 신경망 처리부와, 상기 제1 영상 특징과 상기 제2 영상 특징이 동일하다는 분류 결과가 생성되면 상기 차량 객체를 구급차로 판단하고, 구급차로 판단된 차량 객체 정보를 포함한 우선순위 제어 메시지를 생성하여 복수의 이동단말기로 전송하는 제어부를 구비한 클라우드 서버를 포함하며,
상기 인공 신경망 처리부는 상기 구급차 영상 데이터를 분할한 복수의 셀의 각 영상 특징을 저장하고, 상기 구급차 영상 데이터의 특징 데이터를 딥 러닝 기법을 적용하여 학습하며, 학습 데이터로 활용하고,
상기 클라우드 서버는 상기 이동단말기로부터 구급차 객체 정보를 요청하는 요청 메시지를 수신하면, 상기 요청 메시지에서 이동단말기 위치 정보를 분석하여 해당 위치 정보에서 구급차로 판단된 차량 객체 정보를 포함한 우선순위 제어 메시지를 생성하여 상기 복수의 이동단말기로 전송하고,
상기 우선순위 제어 메시지는 구급차의 이동 시간을 얻을 수 있는 특정 방향에서 감지된 차량 객체, 감지 시간, 날짜 정보, 클라우드 서버 이름, 교통 중지 시간 정보를 포함하고,
상기 복수의 이동단말기는 교통 정보 서비스를 제공하는 어플리케이션이 실행되고, 상기 클라우드 서버로부터 우선순위 제어 메시지를 수신하면, 정지해야 할 교통 구간과, 구급차인 차량 객체가 이동하는 구간을 색깔을 다르게 하여 지도맵을 통해 디스플레이 상에 출력하도록 제어하고,
상기 연결서버는 도로의 차량을 촬영하여 영상 데이터를 생성하는 비디오 카메라부와, 상기 비디오 카메라부로부터 입력된 영상 데이터인 RGB 데이터를 그레이 스케일(Gray Scale)의 영상 데이터로 변환하는 그레이 스케일 변환부와, 상기 그레이 스케일 변환부로부터 수신된 그레이 스케일의 영상 데이터에서 가우시안 블러 처리하여 노이즈를 제거하는 가우시안 필터부와, 특정 방향으로 n개의 영역으로 나누어진 영상 데이터에서 라인별 화소값들의 평균값 및 상기 라인별 평균값들 간의 차이를 필터링하여 랜덤 노이즈 여부를 판단하고, 랜덤 노이즈의 발생 부분의 상기 화소값을 보정한 보정 화소값을 산출하여 랜덤 노이즈가 제거된 보정 영상을 생성하는 노이즈 제거부와, 상기 노이즈 제거부로부터 수신된 보정 영상에서 바이너리 필터를 이용하여 차량 영역 1, 차량 이외의 영역 0으로 하여 바이너리 이미지를 생성하는 바이너리 필터부와, 상기 바이너리 필터부에서 입력된 바이너리 이미지의 휘도 성분 데이터를 캐니 에지 검출기를 이용하여 명암 변화가 다른 지점보다 큰 지점을 ?O고, 그 지점을 추적하여 형성되는 선에 속한 점들을 추출하여 에지 영상을 생성하는 에지 검출부와, 상기 에지 검출부로부터 생성된 에지 영상을 상기 비디오 카메라부로부터 획득된 원본 영상 데이터에 맵핑하여 차량 객체와 관련된 영상 데이터를 추출하는 맵핑부를 더 포함하는 것을 특징으로 하는 스마트 교통 정보 제공 시스템.
Generate image data by photographing a vehicle on the road through a video camera unit, image processing the generated image data to generate an edge image representing the outline of the image, and the generated edge image as an original image obtained from the video camera unit A connection server for extracting image data related to the vehicle object by mapping it to data; And
When the image data related to the vehicle object received from the connection server matches the ambulance image, the image data related to the vehicle object is used as ambulance image data, and each image characteristic of a plurality of cells obtained by dividing the ambulance image data is stored. And, the feature data of the ambulance image data is learned by applying a deep learning technique, and used as training data, the first image feature of each cell of the ambulance image data stored in advance and the first image feature of each cell of the image data of the vehicle object. 2 An artificial neural network processor that compares image features to generate a classification result, and when a classification result indicating that the first image feature and the second image feature are the same is generated, determines the vehicle object as an ambulance and determines the vehicle object as an ambulance It includes a cloud server having a control unit for generating a priority control message including information and transmitting it to a plurality of mobile terminals,
The artificial neural network processing unit stores image features of a plurality of cells obtained by dividing the ambulance image data, learns the feature data of the ambulance image data by applying a deep learning technique, and uses it as learning data,
When the cloud server receives a request message for requesting ambulance object information from the mobile terminal, it analyzes the location information of the mobile terminal in the request message and generates a priority control message including vehicle object information determined as an ambulance from the corresponding location information. And transmits it to the plurality of mobile terminals,
The priority control message includes vehicle object detected in a specific direction to obtain the moving time of the ambulance, detection time, date information, cloud server name, traffic stop time information,
In the plurality of mobile terminals, an application that provides a traffic information service is executed, and when a priority control message is received from the cloud server, the traffic section to be stopped and the section in which the vehicle object, which is an ambulance is moving, are changed in color to map Control to output on the display through the map,
The connection server includes a video camera unit that generates image data by photographing a vehicle on the road, and a gray scale conversion unit that converts RGB data, which is image data input from the video camera unit, into gray scale image data. , A Gaussian filter unit that removes noise by performing a Gaussian blur process on the gray scale image data received from the gray scale conversion unit, and an average value of pixel values for each line in the image data divided into n regions in a specific direction and the line A noise removal unit configured to filter the difference between the average values to determine whether there is random noise, calculate a corrected pixel value obtained by correcting the pixel value of the random noise generation portion to generate a corrected image from which the random noise is removed, and the noise suppressor In the correction image received from the rejection, a binary filter unit that generates a binary image using a binary filter as vehicle area 1 and non-vehicle area 0, and the luminance component data of the binary image input from the binary filter unit are canny edge detectors. Using ?O, a point having a greater change in contrast than other points, and extracting points belonging to a line formed by tracking the point to generate an edge image, and an edge image generated from the edge detector are converted into the video. The smart traffic information providing system, further comprising a mapping unit for extracting image data related to the vehicle object by mapping the original image data obtained from the camera unit.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190039217A 2019-04-03 2019-04-03 System for Providing Smart Traffic Information KR102226321B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190039217A KR102226321B1 (en) 2019-04-03 2019-04-03 System for Providing Smart Traffic Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190039217A KR102226321B1 (en) 2019-04-03 2019-04-03 System for Providing Smart Traffic Information

Publications (2)

Publication Number Publication Date
KR20200117297A KR20200117297A (en) 2020-10-14
KR102226321B1 true KR102226321B1 (en) 2021-03-11

Family

ID=72847105

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190039217A KR102226321B1 (en) 2019-04-03 2019-04-03 System for Providing Smart Traffic Information

Country Status (1)

Country Link
KR (1) KR102226321B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102390016B1 (en) 2020-12-02 2022-04-25 송창호 Transport and logistics system for smart city
KR102620639B1 (en) * 2023-03-06 2024-01-04 한국건설기술연구원 Speed hump driving system for selectively adjusting bump height and driving method thereof
KR102644659B1 (en) * 2023-08-29 2024-03-12 주식회사 델타엑스 Road managing system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172988A (en) * 1998-12-04 2000-06-23 Nec Corp Emergency vehicle traveling notification system
JP2002245588A (en) * 2001-02-13 2002-08-30 Toshiba Corp Emergency vehicle priority passage support system
WO2003009253A1 (en) 2001-07-18 2003-01-30 Fujitsu Limited System and method for informing emergency vehicle
KR101263158B1 (en) * 2011-12-23 2013-05-10 주식회사 만도 Method and apparatus for detecting vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150332589A1 (en) 2014-05-15 2015-11-19 Global Traffic Technologies, Llc Managing transit signal priority (tsp) requests

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172988A (en) * 1998-12-04 2000-06-23 Nec Corp Emergency vehicle traveling notification system
JP2002245588A (en) * 2001-02-13 2002-08-30 Toshiba Corp Emergency vehicle priority passage support system
WO2003009253A1 (en) 2001-07-18 2003-01-30 Fujitsu Limited System and method for informing emergency vehicle
KR101263158B1 (en) * 2011-12-23 2013-05-10 주식회사 만도 Method and apparatus for detecting vehicle

Also Published As

Publication number Publication date
KR20200117297A (en) 2020-10-14

Similar Documents

Publication Publication Date Title
CN109816589B (en) Method and apparatus for generating cartoon style conversion model
KR102226321B1 (en) System for Providing Smart Traffic Information
CN111369427B (en) Image processing method, image processing device, readable medium and electronic equipment
CN111295689B (en) Depth aware object counting
EP2568438A2 (en) Image defogging method and system
CN111797983A (en) Neural network construction method and device
CN111368685A (en) Key point identification method and device, readable medium and electronic equipment
CN111402112A (en) Image processing method, image processing device, electronic equipment and computer readable medium
WO2018145308A1 (en) Filter reusing mechanism for constructing robust deep convolutional neural network
CN112465709B (en) Image enhancement method, device, storage medium and equipment
CN111757100B (en) Method and device for determining camera motion variation, electronic equipment and medium
CN112037142A (en) Image denoising method and device, computer and readable storage medium
CN111402151A (en) Image processing method, image processing device, electronic equipment and computer readable medium
CN110705511A (en) Blurred image recognition method, device, equipment and storage medium
CN115393815A (en) Road information generation method and device, electronic equipment and computer readable medium
CN111402159A (en) Image processing method, image processing device, electronic equipment and computer readable medium
CN111724437A (en) Visual positioning method and related device, equipment and storage medium
CN113902047B (en) Image element matching method, device, equipment and storage medium
CN115908219A (en) Face recognition method, device, equipment and storage medium
CN112597793B (en) Method, device and equipment for identifying traffic light state and timer state
CN112597788B (en) Target measuring method, target measuring device, electronic apparatus, and computer-readable medium
CN112669346B (en) Pavement emergency determination method and device
CN111586295B (en) Image generation method and device and electronic equipment
CN115115680A (en) Image processing method, device, equipment and storage medium
CN114638846A (en) Pickup pose information determination method, pickup pose information determination device, pickup pose information determination equipment and computer readable medium

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right