KR102464898B1 - 차량과 관련된 영상 정보를 공유하는 방법 및 장치 - Google Patents

차량과 관련된 영상 정보를 공유하는 방법 및 장치 Download PDF

Info

Publication number
KR102464898B1
KR102464898B1 KR1020160000951A KR20160000951A KR102464898B1 KR 102464898 B1 KR102464898 B1 KR 102464898B1 KR 1020160000951 A KR1020160000951 A KR 1020160000951A KR 20160000951 A KR20160000951 A KR 20160000951A KR 102464898 B1 KR102464898 B1 KR 102464898B1
Authority
KR
South Korea
Prior art keywords
vehicle
terminal
image information
image
message
Prior art date
Application number
KR1020160000951A
Other languages
English (en)
Other versions
KR20170081920A (ko
Inventor
전해인
국중갑
강현정
나인학
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160000951A priority Critical patent/KR102464898B1/ko
Priority to PCT/KR2017/000137 priority patent/WO2017119737A1/ko
Priority to US16/068,307 priority patent/US10861326B2/en
Publication of KR20170081920A publication Critical patent/KR20170081920A/ko
Application granted granted Critical
Publication of KR102464898B1 publication Critical patent/KR102464898B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/04Systems for the transmission of one television signal, i.e. both picture and sound, by a single carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]

Abstract

본 발명은 차량과 관련된 영상 정보를 효율적으로 공유하는 방법 및 장치에 대한 것으로서, 본 발명의 실시 예에 따라 제1 차량과 통신 연결된 제1 단말이 제2 차량의 주행 영상을 공유하는 방법은, 상기 제1 차량의 시간 별 이동 경로를 저장하는 단계와, 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하는 단계와, 상기 제1 메시지를 수신한 경우, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하는 단계와, 상기 제2 차량의 상기 주행 영상 중 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 단계를 포함한다.

Description

차량과 관련된 영상 정보를 공유하는 방법 및 장치{METHOD AND APPARATUS FOR SHARING VIDEO INFORMATION ASSOCIATED WITH A VIHICLE}
본 발명은 차량 간 통신 기술에 대한 것으로서, 차량과 관련된 영상 정보를 공유하는 방법 및 장치에 대한 것이다.
통신 기술의 발전에 따라 도로에서 주행하는 차량 들간에 통신 네트워크를 구현할 수 있는 다양한 연구가 진행 중이다. 차량을 이용한 통신 기술의 일 예로 미합중국 교통당국에서 2016 년에 적용 예정인 V2V(Vehicle to Vehicle) 통신이 있다. 상기 V2V 통신은 무선 통신을 이용하여 차량들 간의 안전한 주행을 위한 차량 정보를 송수신할 수 있도록 제안된 통신 기술이다. 상기 차량 정보는 예를 들어 차량의 위치, 속도, 브레이크 상태, 차량 크기 등의 정보를 포함할 수 있으며, 주행 중인 인접한 차량 들은 주기적으로 상기 차량 정보를 포함하는 메시지를 교환하여 교통 사고를 예방하는데 활용할 수 있다.
한편 교통 사고가 발생된 차량의 경우, 그 차량 내 탑재된 블랙 박스 등의 주행 영상 기록 장치를 이용하여 교통 사고 발생 시 촬영된 영상 정보를 확인할 수 있다. 그러나 상기 블랙 박스 등을 통해 촬영된 영상만으로는 정확한 사고 원인 및 과실 유무의 판단에 어려움이 있다. 또한 사용자의 차량에 인접한 주변 차량의 블랙 박스를 통해 촬영된 영상 또한 사고 원인 및 과실 유무의 판단에 도움이 될 수 있으나, 상기 주변 차량은 교통 사고 직후 대부분 그 사고 현장을 벗어난 상태이므로 상기 주변 차량의 블랙 박스를 통해 촬영된 영상은 획득하기 어려운 것이 현실이다. 따라서 교통 사고 발생 시 사고 원인 파악을 위해 또는 각종 사고 발생 전에 사고 예방을 위해 사용자의 차량 주변에서 촬영된 영상을 보다 용이하게 획득하기 위한 방안이 요구된다.
본 발명은 차량과 관련된 영상 정보를 효율적으로 공유하는 방법 및 장치에 대한 것이다.
또한 본 발명은 차량들 간에 사고 차량과 관련된 영상 정보를 공유하는 방법 및 장치에 대한 것이다.
또한 본 발명은 차량들 간에 사고 예방을 위해 영상 정보를 공유하는 방법 및 장치에 대한 것이다.
본 발명의 실시 예에 따라, 제1 차량과 통신 연결된 제1 단말이 제2 차량의 주행 영상을 공유하는 방법은, 상기 제1 차량의 시간 별 이동 경로를 저장하는 단계와, 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하는 단계와, 상기 제1 메시지를 수신한 경우, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하는 단계와, 상기 제2 차량의 상기 주행 영상 중 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 단계를 포함한다.
또한 본 발명의 실시 예에 따라, 주변 차량의 주행 영상을 공유하는 단말은, 데이터를 송수신하는 송수신기와, 상기 단말과 통신 연결된 제1 차량의 시간 별 이동 경로를 저장하고, 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하며, 상기 제1 메시지를 수신한 경우, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하고, 상기 주변 차량인 제2 차량의 상기 주행 영상 중 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 것을 제어하는 제어기를 포함한다.
또한 본 발명의 실시 예에 따라, 제2 차량과 통신 연결된 제2 단말이 제1 차량과 통신 연결된 제1 단말과 주행 영상을 공유하는 방법은, 상기 제1 단말이 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신한 경우, 상기 제1 단말로부터 상기 제2 차량의 상기 주행 영상 중 상기 제1 차량의 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 수신하는 단계와, 상기 주행 영상 중 상기 제1 이동 경로를 기반으로 선택된 상기 영상 정보를 송신하는 단계를 포함한다.
또한 본 발명의 실시 예에 따라, 제1 차량과 통신 연결된 제1 단말과 주행 영상을 공유하는 제2 차량과 통신 연결된 단말은, 데이터를 송수신하는 송수신기와, 상기 제1 단말이 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신한 경우, 상기 제1 단말로부터 상기 제2 차량의 상기 주행 영상 중 상기 제1 차량의 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 수신하고, 상기 주행 영상 중 상기 제1 이동 경로를 기반으로 선택된 상기 영상 정보를 송신하는 것을 제어하는 제어부를 포함한다.
도 1은 본 발명의 실시 예에 따라 제1 차량과 관련된 영상 정보를 송수신하는 방법을 설명하기 위한 개념도,
도 2a는 발명의 실시 예에 따른 단말의 구성을 나타낸 블록도,
도 2b는 본 발명의 실시 예에 따라 차량 내 탑재되는 전자 장치의 구성을 나타낸 블록도,
도 3, 도 6 내지 도 14c는 본 발명의 다양한 실시 예들에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도,
도 4, 도 5a, 및 도 5b는 본 발명의 실시 예에 따라 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 방법을 설명하기 위한 도면들,
도 15는 본 발명의 실시 예에 따른 통합 영상을 설명하기 위한 도면.
하기에서 본 발명의 실시 예들을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
먼저 본 명세서에서 사용되는 용어들을 정의하기로 한다.
본 명세서에서 "제1 차량"은 도로 등에서 주행 중이거나 또는 정차 중에 교통 사고가 발생되었거나 혹은 주행 중이거나 또는 정차 중에 각종 차량 관련 사고의 발생이 예상되어 다른 사용자의 단말, 제2 차량, 외부 서버, 또는 CCTV(Closed Circuit Television) 등에게 상기 제1 차량과 관련된 영상 정보를 요청하는 사용자의 단말이 부착된 적어도 하나의 차량이고, "제2 차량"은 상기 제1 차량과 인접한 거리에서 주행 중 또는 정차 중에 상기 단말, 상기 제1 차량, 외부 서버, 또는 CCTV 등으로부터 상기 영상 정보의 요청을 수신한 경우, 상기 제2 차량에 의해 촬영된 주행 영상을 근거로 상기 제1 차량과 관련된 영상 정보를 제공하는 상기 다른 사용자의 단말이 부착된 적어도 하나의 주변 차량이다. 상기 단말의 기능이 차량 내에 구현된 경우, 상기 영상 정보의 요청과 제공은, 상기 제1 및 제2 차량을 통해 직접 수행될 수 있다. "단말"은 상기 제1 차량과 상기 제2 차량의 사용자가 이용하는 단말이며, 상기 단말은 후술할 본 발명의 실시 예들에 따라 무선 통신 또는 유선 통신을 통해 제1 차량과 관련된 영상 정보를 송수신하는 애플리케이션이 설치된 스마트 폰, 테블릿 PC, 패블릿, 노트북 컴퓨터, 랩 탑 컴퓨터 등의 각종 휴대 단말은 물론 차량에 탑재되어 차량 외부의 영상을 촬영할 수 있으며, 상기 애플리케이션이 설치될 수 있는 블랙 박스, 네비게이션, 차량 내 탑재된 전자 장치 등을 이용할 수 있다. 상기 "무선 통신"은 V2V(Vehicle to Vehicle) 통신, V2I(Vehicle to Infrastructure) 통신, V2P(Vehicle to Pedestrian) 통신, D2D(Device to Device) 통신, Wi-Fi 통신, 블루투스(Bluetooth), 저전력 블루투스(Bluetooth Low Energy: BLE), NFC(near field communication), 지그비(Zigbee), Z-웨이브, 적외선 통신(IrDA, infrared data association) 등 근거리 내에서 영상 정보의 송수신이 가능한 각종 근거로 무선 통신은 물론 LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), LTE-D2D, 또는 무선 차량 통신 기술인 LTE-V2X(Vehicle to Everything) 등 각종 셀룰러 무선 통신을 이용할 수 있다. 또한 상기 V2V 통신은 DSRC(Dedicated Short-Range Communications)와 같은 근거리 무선 통신 기술과, LTE-V2V와 같은 셀룰러 무선 통신 기술을 이용할 수 있다.
상기 "유선 통신"은 케이블을 이용한 통신을 이용할 수 있다. 일 예로 상기 케이블은 USB 케이블 등을 이용할 수 있다. "CCTV(Closed Circuit Television)"는 도로 상에 설치되어 차량의 주행 영상을 촬영할 수 있는 카메라와 상기 무선 통신을 이용할 수 있는 통신 인터페이스를 포함하는 폐쇄 회로 TV이다. 상기 CCTV는 상기 단말 또는 외부 서버와 영상 정보를 송수신할 수 있다. 그리고 "사고 메시지"는 교통 사고 또는 산사태, 낙석, 도로 상태 등 다양한 원인에 의한 차량의 물리적인 충돌(즉 사고 발생)을 감지하거나 또는 사고 발생 전에 차량의 위험 상황을 예상한 제1 차량이 상기 단말에게 상기 사고 발생 또는 위험 상황을 알리는 메시지이다.
또한 본 명세서에서 "이동 경로"는 상기 단말 또는 상기 단말과 통신 연결된 차량의 이동 경로이며, 상기 단말 또는 차량의 시간 별 위치 정보를 포함한다. 즉 상기 이동 경로는 특정 시간(어느 날짜, 어느 시간)에 상기 단말 또는 상기 단말과 통신 연결된 차량의 위치를 기록한 정보를 이용할 수 있다. 상기 시간 별 위치 정보는 상기 위치 정보를 상기 단말에서 카운트되는 시간 또는 상기 차량에서 카운트되는 시간 별로 기록한 것이다. 상기 시간 별 위치 정보는 미리 정해진 시간 간격(예를 들어, 몇 초 단위) 마다 기록하거나 또는 차량의 속도에 따라 상기 시간 별 위치 정보를 기록하는 시간 간격을 다르게 정할 수도 있다.(예를 들어, 차량의 속도가 기준 속도 보다 빠른 경우 그 기록 시간 간격을 더 짧게 하고, 차량의 속도가 기준 속도 보다 느린 경우 그 기록 시간 간격을 더 길게 할 수 있다.) 상기와 같이 차량의 시간 별 위치 정보를 기록하는 시간 간격은 다양한 방식으로 설정될 수 있다. 그리고 상기 시간 별 위치 정보는 차량의 시간 별 차선 정보를 더 포함할 수 있다.
또한 상기 위치 정보는 차량의 위도, 경도, 고도, 속도, GPS 정보, 주행 도로, 지도상 좌표 값, 주행 차선,주행 방향(heading) 등 상기 단말 또는 상기 단말과 통신 연결된 차량의 위치를 나타낼 수 있는 적어도 하나의 정보를 이용할 수 있다. 상기 위치 정보는 상기 예시한 정보 이외에도 차량을 위치를 나타낼 수 있는 다양한 정보를 이용할 수 있다. 상기 위치 정보는 상기 단말 또는 상기 차량에 탑재된 라이다(Lidar), 레이저(Radar), GPS(Global Positioning System) 모듈, 관성 센서인 IMU(Inertia Measurement Unit), 주행계(odometry),카메라 등을 이용하여 측정된 위치 정보 또는 측정된 정보를 바탕으로 인식된 위치 정보일 수 있다. 예를 들어 상기 위치 정보는 상기 Lidar 정보로 저장된 지도 내 표면 반사율을 비교하여 인식한 차량의 위치 정보를 이용할 수 있다. 또한 상기 위치 정보는 외부 서버로부터 수신한 정보를 이용할 "주행 영상"은 상기 차량의 상기 이동 경로에 대응되게 상기 단말 또는 상기 차량을 통해 촬영된 영상을 의미하고, "영상 정보"는 상기 제2 차량의 단말 또는 상기 CCTV를 통해 촬영된 상기 제1 차량과 관련된 영상 정보를 의미하며, 제1 차량과 상기 제2 차량 간의 거리, 상기 제1 차량에 대한 상기 제2 차량의 방향 등을 근거로 상기 제2 차량의 주행 영상 중에서 선택된 상기 제1 차량이 촬영된 영상 정보이다.
그리고 "통합 영상"은 다양한 시야각으로 상기 제1 차량과 관련된 영상 정보를 확인할 수 있도록 다수의 영상 정보들을 합성한 영상을 의미한다. 상기 다수의 영상 정보들은 예컨대, 시간 별, 위치 별 등으로 합성될 수 있다. 상기 통합 영상은 영상이 촬영된 시간 별, 위치 별 등으로 합성될 수 있으므로 상기 통합 영상을 이용하면, 다양한 시야각으로 차량과 관련된 영상 정보를 확인할 수 있다.
이하 설명될 본 발명의 실시 예들은 설명의 편의를 위해, 차량들 간의 교통 사고 발생 시 제1 차량과 관련된 영상 정보를 공유하는 방법 및 장치를 예시하여 설명될 것이다. 그러나 본 발명이 적용될 수 있는 상황은 교통 사고에 한정되지 않으며, 사고 발생 전에 위험 상황을 알리는 경우에도 동일한 방식으로 적용될 수 있다. 예를 들어 본 발명은 차량들 간의 안전한 주행을 위한 영상 정보의 공유 시에도 적용될 수 있다. 그리고 도로 상에 사고를 유발할 수 있는 물체를 회피하거나, 또는 산사태, 낙석 등의 발생 시 후속 차량의 위험을 방지하기 위한 경우에도 본 발명은 적용될 수 있다. 또한 차량은 물론 선박, 항공기 등 정해진 이동 경로에 따라 운항하는 각종 교통 수단에도 본 발명의 영상 정보 송수신 방법은 동일 또는 유사한 방식으로 적용될 수 있다.
도 1은 본 발명의 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 설명하기 위한 개념도이다.
도 1을 참조하면, 제1 차량(10)이 주행 중 다른 차량(20)과 충돌하여 교통 사고가 발행된 상황을 가정한다. 제1 차량(10)의 사고 영상을 촬영할 수 있는 인접 거리에는 제2 차량(30)이 주행 중임을 가정한다. 제1 차량(10)과 제2 차량(30)의 사용자의 단말은 각각 해당 차량의 상기 주행 영상을 촬영하여 저장하고, 해당 차량의 주행에 따른 상기 이동 경로를 기록하여 저장한다. 제1 차량(10)은 전술한 다양한 원인에 의한 사고 발생 시 제1 차량(10)의 전자 장치에 탑재된 충돌 센서를 통해 제1 차량(10)의 물리적인 충돌을 감지한다. 그러면 제1 차량(10)의 단말은 제1 차량(10)으로부터 사고 발생을 알리는 사고 메시지를 수신한다. 상기 제1 차량(10)의 단말은 무선 통신을 통해 제2 차량(30)에게 제1 차량(10)의 이동 경로와 관련된 영상 정보를 요청한다. 상기 영상 정보 요청을 수신한 제2 차량(30)의 단말은 제1 차량(10)과의 거리, 방향, 동일한 도로에 위치하는 지 여부 중 적어도 하나를 근거로 제2 차량(30)의 주행 영상 중 상기 제1 차량(10)의 이동 경로와 관련된 영상 정보를 선택하고, 그 선택 영상을 제1 차량(10)의 단말에게 무선 통신을 이용하여 전송한다. 상기 제2 차량(30)의 단말이 상기 제1 차량(10)의 이동 경로와 관련된 영상 정보를 선택하는데 있어서 상기 근거로 이용될 수 있는 정보(거리, 방향, 동일한 도로에 위치하는 지 여부 등)는 일 예를 나타낸 것이며, 다른 정보를 이용하는 것도 가능하다. 상기한 실시 예에 의하면, 제1 차량(10)은 교통 사고 발생 시 제2 차량(30)으로부터 용이하게 제1 차량(10)에 대한 영상 정보를 수신할 수 있다.
도 1의 실시 예는 설명의 편의상 제1 차량(10)이 제2 차량(30)에게 영상 정보를 요청하는 예를 설명한 것이며, 제2 차량(10)은 상기 다른 차량(20)에게도 영상 정보를 요청할 수 있다. 그리고 상기 다른 차량(20) 또한 동일한 방식으로 상기 제2 차량(30) 또는 상기 제1 차량(10)에게 영상 정보를 요청할 수 있음은 물론이다.
도 2a는 발명의 실시 예에 따른 단말의 구성을 나타낸 블록도로서, 상기 단말은 도 2a에 도시된 구성 요소들 중 적어도 하나를 포함하여 구현될 수 있다.
도 2a를 참조하면, 단말은 제어부(210), 셀룰러 이동 통신 모듈(220), 서브통신 모듈(230), 멀티미디어 모듈(240), 카메라 모듈(250), 위치 측정 모듈(260), 센서 모듈(270), 입/출력 모듈(280), 저장부(290), 및 디스플레이(295)를 포함한다. 셀룰러 통신 모듈(220)은 상세한 설명의 도입 부분에서 예시한 각종 셀룰러 통신을 위한 통신 인터페이스들 중 적어도 하나를 포함한다. 상기 근거리 통신 모듈(230)은 상세한 설명의 도입 부분에서 예시한 각종 근거리 통신을 위한 통신 인터페이스들 중 적어도 하나를 포함한다. 도 2a의 단말은 셀룰러 통신 모듈(220) 또는 근거리 통신 모듈(230)을 통해 주변 차량, CCTV 등의 도로 시설, 외부 서버 등과 통신을 수행하여 차량과 관련된 영상 정보를 송수신할 수 있으며, 음성 통화, 화상 통화, 단문(Short Messaging Service: SMS) 메시지 또는 멀티미디어(Multimedia Messaging Service: MMS) 메시지를 등의 메시지 통신을 수행할 수 있다. 또한 도 2a의 단말은 상기 셀룰러 통신 모듈(220) 또는 근거리 통신 모듈(230)를 통해 애플리케이션의 제어를 위한 각종 제어 정보 등의 작은 데이터(short data)를 포함한 무선 신호를 송/수신할 수 있다. 상기 애플리케이션은 후술할 실시 예들 중 적어도 하나의 방법에 따라 제1 차량과 관련된 상기 영상 정보를 송수신하는 동작을 수행하는 프로그램 코드들을 포함하여 구성된다. 상기 위치 측정 모듈(260)은 전술한 것처럼 차량의 이동 경로에 포함되는 시간 별 위치 정보의 측정을 위해 사용될 수 있는 라이다(Lidar), 레이더(Radar), GPS 모듈, IMU, 주행계(odometry),카메라 등 다양한 위치 측정 장치들 중 적어도 하나를 포함할 수 있다. 도 2a에서 멀티미디어 모듈(240)은 방송통신 모듈(240-1), 오디오재생 모듈(240-1) 및 동영상재생 모듈(240-3) 중 적어도 하나를 포함한다. 상기 카메라 모듈(250)은 적어도 하나의 카메라를 포함하고, 제어부(210)의 제어 하에 차량의 주행 영상을 촬영한다. 입/출력 모듈(280)은 각종 기능 수행을 위한 버튼(280-1), 마이크(280-2), 스피커(280-3), 진동모터(280-4), 커넥터(280-5), 및 키패드(280-6) 중 적어도 하나를 포함한다. 상기 커넥터(280-5)는 커넥티드 카를 위한 단말과 차량 간의 통신 인터페이스를 포함할 수 있다. 상기 제어부(210)는 CPU(210-1)와, 단말의 제어를 위한 제어 프로그램이 저장된 ROM(210-2) 및 외부로부터 입력되는 신호 또는 데이터를 일시 기억하거나, 단말에서 수행되는 작업을 위한 기억 영역으로 사용되는 RAM(210-3)을 포함하며, 단말의 다른 구성요소들을 제어한다.
또한 상기 제어부(210)는 상기 셀룰러 통신 모듈(220) 또는 근거리 통신 모듈(230)를 통해 무선 AP(access point)(도시되지 않음)가 설치된 장소에서 인터넷에 연결할 수 있다.
따라서 본 발명의 실시 예에 따른 영상 정보의 송수신 시 인터넷(또는 전용 망)과 연결된 클라우드 서버, 교통 관제 센터의 서버 등의 외부 서버를 이용할 수 있다. 상기 클라우드 서버는 차량(또는 그 차량과 관련된 단말)이 이용하는(가입한) 데이터 저장 서버를 이용할 수 있다. 상기 외부 서버는 또한 영상 정보의 해상도를 업 스케일링 또는 다운 스케일링하는 등의 영상 재생성 동작을 수행할 수 있다. 일 예로 상기 외부 서버는 단말 또는 CCTV를 통해 수신한 영상 정보를 고해상도 또는 저해상도의 영상으로 재생성하여 웹 상에서 제공하거나, 단말 또는 다른 서버에게 제공할 수 있다. 또한 상기 외부 서버는 수신한 적어도 하나의 영상 정보를 합성하여 통합 영상을 생성할 수 있으며, 촬영되는 차량의 영상이 정확하게 보일 수 있도록 영상 정보를 보정하는 기능을 탑재하여 구현될 수도 있다.
다시 도 2a의 설명으로 돌아가서, 디스플레이(295)는 제어부(210)의 제어 하에 제1 차량과 관련된 상기 영상 정보의 송수신을 위한 어플리케이션(이하, "차량 어플리케이션")을 포함한 다양한 어플리케이션(예, 통화, 데이터 전송, 방송, 카메라 등)의 정보를 표시할 수 있다. 상기 디스플레이(295)는 각 어플리케이션의 동작을 위한 사용자 인터페이스를 접촉 입력 방식으로 제공하는 터치스크린을 포함할 수 있다. 제어부(210)는 터치스크린 상에서 감지되는 사용자 제스처에 응답하여 터치스크린에 표시된 소프트 키가 선택되게 하거나 또는 소프트 키에 대응하는 해당 어플리케이션 또는 관련 기능을 실행할 수 있다. 상기 사용자 제스처는 손가락 또는 기구에 의한 터치, 인체에 의한 모션 인식 등을 포함한다. 상기 차량 어플리케이션은 ROM(210-2) 또는 저장부(290)에 설치되고, 상기 차량 어플리케이션이 실행된 경우, 사용자의 키 입력, 터치 입력, 또는 가속도 센서, 자이로 센서 등을 이용한 제스쳐 입력에 따라 상기 영상 정보의 송수신을 위한 사용자 인터페이스 화면을 제공할 수 있다.
상기 제어부(210)는 상기 차량 어플리케이션의 동작 루틴에 따라 주행 영상, 이동 경로, 제1 차량과 관련된 영상 정보, 다수의 영상 정보들을 합성한 통합 중 적어도 하나를 생성하는 동작을 제어하며, 상기 저장부(290)는 상기 생성된 주행 영상, 이동 경로, 제1 차량과 관련된 영상 정보, 통합 영상 중 적어도 하나의 영상 정보를 저장할 수 있다. 또한 상기 차량 애플리케이션을 이용하는 각 차량은 고유한 식별 정보를 이용하여 구별될 수 있다. 이 경우 적어도 하나의 제1 차량의 적어도 하나의 단말은 적어도 하나의 제2 차량의 적어도 하나의 단말과 상기 식별 정보를 이용하여 상기 적어도 하나의 제1 차량과 관련된 영상 정보를 송수신할 수 있다. 또한 도 2a의 단말은 후술할 실시 예들에 따라, 상기 영상 정보를 송수신하는 동작을 제어하는 제어기와 데이터를 송수신하는 송수신기를 포함하여 구현될 수 있다.
도 2b는 본 발명의 실시 예에 따라 차량 내 탑재되는 전자 장치의 구성을 나타낸 블록도이다.
도 2b를 참조하면, 상기 전자 장치는 차량의 주행과 관련하여 전반적인 제어를 수행하는 제어부(21), 차량에 대한 물리적인 충돌을 감지하는 충돌 센서(23), 및 도 2a의 단말과 상기 전자 장치 간의 무선 또는 유선 통신을 위한 통신부(25)를 포함한다. 상기 제어부(21)는 차량 내 탑재되는 ECU(Electronic control unit) 등에 구현될 수 있다. 상기 통신부(25)는 상세한 설명의 도입 부분에서 예시한 각종 무선 또는 유선 통신을 위한 적어도 하나의 통신 방식을 이용할 수 있다. 충돌 센서(23)는 차량의 물리적인 충돌을 감지한 경우, 제어부(21)에 그 충돌 발생을 통지한다. 이때 충돌 센서(23)는 차량의 가속도 값 또는 압력이 정해진 값 이상인 경우 그 충돌 발생을 통지할 수 있다. 상기 충돌 센서(23)는 차량의 가속도 값을 일정 주기로 읽어 미리 정해진 가속도 이상인 경우 그 충돌이 발생된 것으로 감지하는 가속도계 충돌 센서 또는 차량에 가해진 압력이 정해진 압력 이상인 경우 그 충돌이 발생된 것으로 감지하는 피에조 센서 등의 압력 센서를 이용할 수 있다. 도 2b에서 상기 충돌 센서(23)는 편의상 하나를 도시하였으나, 차량의 정면, 측면, 후면 등에 다수의 충돌 센서들이 설치될 수 있다. 그리고 다수의 충돌 센서가 설치되는 경우, 가속도계 충돌 센서와 압력 센서를 혼용하는 것도 가능하다. 도 2b에서 상기 제어부(21)는 충돌 센서(23)로부터 차량의 물리적인 충돌을 감지한 신호가 수신된 경우, 통신부(25)를 통해 상기한 사고 메시지를 송신하고, 도 2a의 단말은 도 2b의 전자 장치로부터 상기 사고 메시지를 수신한 경우, 교통 사고 등의 물리적인 충돌에 의한 사고가 발생된 것으로 판단하고, 영상 정보 송수신을 위해 제2 차량의 단말과 통신을 수행한다. 또한 상기 사고 메시지는 산사태, 낙석, 도로 상태 등 다양한 원인에 의한 차량의 위험 상황을 예상한 제어부(21)가 그 위험 상황을 단말에게 알리기 위해 이용될 수 있다. 이 경우 충돌 센서(23)로부터 차량의 물리적인 충돌의 감지가 없더라도 제어부(21)는 단말에게 그 위험 상황을 알리는 사고 메시지를 전송할 수 있다. 이를 위해 제어부(21)는 도로의 노면 상태(예컨대, 미끄러움, 진동 등), 카메라를 통한 산사태, 낙석 등이 확인된 경우, 물리적인 충돌이 발생되기 전에 그 위험 상황을 감지하는 기능을 포함할 수 있다.
도 3은 본 발명의 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다.
도 3의 예에서 제1 단말(31)은 제1 차량의 단말, 제2 단말(33)은 제2 차량의 단말이다. 제1 단말(31)은 주행 영상을 촬영 중임을 가정한다. 제1 단말(31)에서 주행 영상의 촬영은 선택적으로 수행될 수 있다. 도 3을 참조하면, 311 단계에서 제1 차량(31)의 주행에 따른 시간 별 이동 경로를 기록하여 저장한다. 상기 이동 경로는 상기 주행에 따른 시간 별 위치 정보를 포함한다. 따라서 상기 이동 경로는 해당 단말 또는 차량의 시간 별 위치 정보로 이해될 수 있다. 상기 시간 별 위치 정보는 전술한 것처럼 차량의 위도, 경도, 고도, 속도, GPS 정보, 주행 도로, 지도상 좌표 값, 주행 차선,주행 방향(heading) 등 상기 단말 또는 상기 단말과 통신 연결된 차량의 위치를 나타낼 수 있는 적어도 하나의 정보를 이용할 수 있다. 이와 같이 차량의 위치를 나타낼 수 있는 다양한 정보를 위치 정보로 이용하는 본 발명의 실시 예에 의하면, 예를 들어 동일한 도로에서 차선을 구분하여 차량의 위치를 확인할 수 있음은 물론 이차원 좌표 상으로는 동일한(또는 근접한) 위치에 있는 둘 이상의 도로들 중 어느 도로에 차량이 위치하는지를 확인할 수 있다. 또한 본 발명의 실시 예에 의하면, 정확한 위치 정보를 근거로 불필요한 영상 정보(예를 들어 일반 도로에서 사고가 발생하였다면, 이차원 좌표상 위치는 근접하지만 그 사고를 촬영할 수 없는 고가 도로 등에서 주행하는 차량이 촬영한 영상정보 등)는 제외하고, 필요한 영상 정보만을 송수신할 수 있다.
상기 이동 경로는 제1 단말(31)(또는 제1 차량)에 탑재된 위치 측정 모듈(260)을 이용하여 기록될 수 있다. 한편 331 단계에서 제2 단말(33) 또한 주행 영상을 촬영하고, 333 단계에서 주행에 따른 시간 별 이동 경로를 기록하여 저장한다. 상기 주행 영상의 촬영은 단말의 카메라를 이용하거나 또는 차량 내 블랙 박스를 이용할 수 있다. 차량 내 블랙 박스를 이용하는 경우, 단말의 차량 애플리케이션은 상기 블랙 박스와 통신하여 촬영된 주행 영상을 시간 별로 구분하여 수신하거나 또는 상기 블랙 박스로부터 촬영 시간이 같이 저장된 영상 정보를 수신하기 위한 프로그램 코드들을 포함한다.
이후 313 단계에서 제1 단말(31)은 제1 차량의 전자 장치로부터 상기한 사고 메시지를 수신한 경우, 315 단계에서 상기 저장된 이동 경로로부터 소정 시간 동안의 이동 경로를 선택한다. 상기 선택된 이동 경로는 예컨대, 사고 감지 이전부터 소정 시간 동안의 이동 경로에 해당된다. 317 단계에서 제1 단말(31)은 상기 선택된 이동 경로와 관련된 영상 정보를 요청하는 메시지(이하, "영상 정보 요청 메시지")를 무선 통신을 통해 전송한다. 사고 감지 이전부터 소정 시간 동안의 이동 경로에 대한 영상 정보를 송수신하는 경우, 제1 단말(31)과 제2 단말(33)은 해당 이동 경로에 대응되는 영상 정보만을 송수신할 수 있으므로 무선 채널의 혼잡도를 줄일 수 있으며, 불필요한 영상 정보의 송수신으로 인한 영상 분석에 투입되는 시간, 비용, 인력 등을 절감할 수 있다. 또한 이 경우 단말들 간에 송수신하는 영상 정보의 데이터 량을 줄일 수 있으므로 통신 비용을 절감할 수 있으며, 데이터 전송률의 한계로 인해 필요한 영상 정보를 모두 송수신하지 못할 가능성을 미연에 방지할 수 있다.상기 무선 통신은 전술한 것처럼 다양한 통신 방식을 이용할 수 있다. 상기 영상 정보 요청 메시지는 적어도 하나의 제2 차량이 수신할 수 있도록 방송 메시지 형태로 전송될 수 있다. 상기 영상 정보 요청 메시지는 제1 차량의 전자 장치가 사고 발생을 감지한 시간(예컨대, 제1 차량의 충돌 센서(23)가 물리적인 충돌을 감지하고, 그 감지 신호가 제어부(21)에 전달되어 제어부(21)가 사고를 감지한 시간)(이하, "사고 감지 시간"), 사고 지점, 상기 선택된 이동 경로, 사고 이전 시간 별 이동 경로, 그리고 제1 차량의 식별 정보 중 적어도 하나의 정보를 포함할 수 있다. 상기 사고 지점은 상기 사고 감지 시간에 대응되는 시간 별 이동 경로로부터 획득될 수 있다. 상기 선택된 이동 경로와, 상기 사고 이전 시간 별 이동 경로는 구분된 정보로 기술하였으나, 상기 선택된 이동 경로에 상기 사고 이전 시간 별 이동 경로가 포함될 수도 있다. 그리고 상기 사고 감지 시간은 일 예를 든 것이며, 사고 감지 시간이 상기한 예에 한정되는 것은 아니다. 예컨대, 상기 사고 감지 시간은 차량의 충돌 센서로부터 충돌이 감지된 후, 제1 단말(31)이 사고 메시지를 수신하기 까지 소요되는 시간을 고려하여 실제 사고 시간에 근접하도록 보정된 시간 등 다양한 형태로 설정될 수 있다. 그리고 본 발명이 차량의 위험 상황 예상에 적용되는 경우, 상기 사고 감지 시간은 차량의 전자 장치 또는 단말이 위험 상황을 예상한 경우, 그 예상이 이루어진 시간 등이 될 수 있다. 그리고 상기 제1 차량의 식별 정보는 차량 번호, 차량 소유자의 전화 번호, 또는 제1 차량의 전자 장치에 부여된 MAC(Medium Access Control) 주소 등 해당 차량을 고유하게 식별할 수 있는 다양한 정보를 이용할 수 있다. 또한 제1 단말의 식별 정보를 제1 차량의 식별 정보로 이용하는 것도 가능하다.
이후 상기 영상 정보 요청 메시지를 수신한 제2 단말(33)은 335 단계에서 상기 영상 정보 요청 메시지로부터 획득된 정보(예를 들어, 사고 감지 시간, 사고 지점, 선택된 이동 경로, 사고 이전 시간 별 이동 경로, 제1 차량의 식별 정보 중 적어도 하나의 정보)를 근거로, 제1 차량과 제2 차량 간의 거리, 상기 제2 차량을 기준으로 확인된 상기 제1 차량이 위치한 방향, 제1 차량과 제2 차량이 동일 도로에 위치하는지 여부 중 적어도 하나를 판단한다. 그리고 337, 339 단계에서 제2 단말(33)은 상기 판단 결과에 따라 상기 제2 차량의 주행 영상 중 제1 차량이 촬영된 것으로 선택된 영상 정보를 제1 단말(31)에게 전송한다. 321 단계에서 상기 선택된 영상 정보를 수신한 제1 단말(31)은 323 단계에서 제1 차량의 주행 영상과 상기 제2 차량으로부터 수신한 영상 정보를 합성하여 다양한 시야각으로 제1 차량의 사고 상황을 확인할 수 있는 통합 영상을 생성한다. 상기 323 단계의 동작은 생략될 수 있다. 상기 통합 영상의 생성 시, 합성되는 제1 차량의 주행 영상은 예컨대, 315 단계에서 선택된 이동 경로에 대응되는 주행 영상을 이용할 수 있다. 상기 통합 영상은 영상이 촬영된 시간 별, 위치 별 등으로 합성될 수 있다. 상기 통합 영상을 설명하기 위한 도 15의 일 예를 참조하면, 상기 통합 영상이 디스플레이되는 화면(1510) 상의 일 측에는 촬영된 위치 별 시야 각에 따라 구분된 적어도 하나의 영역(R1, R2, R3, R4)이 표시되고, 상기 위치 별 시야 각에 대응되는 적어도 하나의 영역(R1, R2, R3, R4) 중 원하는 영역을 선택할 수 있는 PIP(Picture Inside Picture) 화면(1530)이 촬영된 시간(T1)과 함께 제공될 수 있다. 그리고 상기 PIP 화면(1530) 상에서 터치 입력, 마우스, 스타일러스 펜 등을 통해 어떤 영역이 선택(S1)되면, 그 선택된 영역(S1)의 시야 각에서 촬영된 영상이 참조 부호 S2와 같이 디스플레이될 수 있다. 따라서 상기 통합 영상을 이용하면, 사고 상황 등을 다양한 시야 각으로 확인할 수 있으므로 사고 발생 원인 등을 보다 명확히 파악할 수 있다. 도 15의 화면 구성은 일 실시 예를 나타낸 것이며, 상기 통합 영상을 디스플레이하는 화면은 다양한 형태로 변형하여 제공될 수 있다. 예를 들어 상기 상기 위치 별 시야 각에 대응되는 영역을 선택하는 화면은 상기 PIP 화면(1530)이 대신 별도의 화면으로 제공될 수도 있다. 그리고 상기 위치 별 시야 각에 대응되는 영역을 다수 선택하는 경우, 그 선택에 따른 다수의 영상을 대비할 수 있도록 다수의 화면을 함께 출력하는 것도 가능하다.
도 3의 실시 예에서는 제1 단말(31)이 제1 차량으로부터 사고 메시지를 수신한 경우, 상기 영상 정보 요청 메시지를 전송하도록 하였으나, 다른 실시 예로 제1 차량의 주행 상태가 비정상이거나 또는 긴급 상태(즉 상기한 위험 상황)인 경우, 상기 313 단계에서 사고 메시지의 수신이 없더라도 상기 영상 정보 요청 메시지를 전송하도록 하는 것도 가능하다. 상기 위험 상황의 판단은 전술한 것처럼 제1 차량의 주행을 제어하는 전자 장치에서 수행될 수 있으며, 제1 단말(31)이 제1 차량의 전자 장치로부터 수신한 정보를 근거로 상기 위험 상황을 판단하는 것도 가능하다. 다른 예로 사고 메시지의 수신이 없더라도 제1 단말(31)의 애플리케이션을 통해 사용자의 키 입력이 있는 경우, 상기 영상 정보 요청 메시지를 전송하는 것도 가능하다.
도 4는 본 발명의 실시 예에 따라 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 방법을 나타낸 순서도로서, 이는 영상 정보 요청 메시지를 수신한 제2 차량의 제2 단말이 제1 차량과 제2 차량 간의 거리와, 제1 차량의 방향을 판단하여 영상 정보를 선택하는 방법을 나타낸 것이다. 도 4는 도 3의 335, 337 단계의 동작을 구체적으로 나타낸 것이다.
도 4를 참조하면, 401 단계에서 제1 단말(31)로부터 제1 차량에 대한 상기 영상 정보 요청 메시지를 수신한 제2 단말(33)은 403 단계에서 상기 수신한 영상 정보 요청 메시지로부터 제1 차량의 위치 정보를 추출한다. 상기 영상 정보 요청 메시지는 제1 차량의 이동 경로를 포함하며, 상기 이동 경로는 전술한 것처럼 제1 차량의 위치 정보를 포함한다. 그리고 상기 위치 정보는 제1 차량의 위도, 경도, 고도, 속도, GPS 정보, 주행 도로, 지도상 좌표 값, 주행 차선,주행 방향(heading) 등 차량의 위치를 나타낼 수 있는 적어도 하나의 정보를 이용할 수 있다. 따라서 제2 단말(33)은 제1 단말(31)로부터 수신한 영상 정보 요청 메시지로부터 제1 차량의 위치 정보를 추출할 수 있다.
그리고 405 단계에서 제2 단말(33)은 제1 차량의 위치 정보와 제2 차량의 위치 정보를 이용하여 제1 차량과 제2 차량 간의 시간 별 거리(d)를 계산한다. 일 예로 제1 차량의 GPS 정보와 제2 차량의 GPS 정보를 이용하면 제1 차량과 제2 차량 간의 거리(d)는 계산될 수 있다. 그리고 407 단계에서 제2 단말(33)은 상기 계산된 거리(d)가 아래 <수학식 1>의 조건을 만족하는지 여부를 판단한다.
<수학식 1>
거리(d) ≤ (f*h)/(20*p)
상기 <수학식 1>에서 변수들(f, d, h, q, p)의 정의와 의미는 도 5a에 도시된 내용과 같다. q=f*h/d의 관계를 가지며, 촬영된 영상의 픽셀 수 = q/p = (f*h/d)/p 이므로, 상기 <수학식 1>은 20 ≤ (f*h/d)/p의 조건(즉 픽셀 수가 20 픽셀 이상)을 만족하는지 여부를 판단하는 일 예를 나타낸 것이다. 상기 20 픽셀은 일 실시 예를 나타낸 것이며, 제1 차량과 관련된 영상 정보의 요구 화질에 따라 상기 조건을 만족하는 픽셀 수는 다른 값으로 설정될 수 있다.
도 5a의 거리(d)에서 카메라는 제2 차량의 카메라이다. 상기 407 단계에서 상기 계산된 거리(d)가 상기 <수학식 1>의 조건을 만족하는 경우, 이는 제2 단말(33)을 통해 촬영된 영상을 제1 차량과 관련된 영상 정보로 이용할 경우, 충분히 식별 가능한 상태임을 나타낸다.
409 단계에서 제2 단말(33)은 상기 제1 차량의 이동 경로에 포함된 제1 차량의 주행 방향(Heading) 정보를 근거로 제2 차량에 대한 제1 차량의 위치의 상대 각도를 계산한다. 도 5b를 참조하면, 제1 차량(51)의 상대 각도(505)는 제2 차량(53)의 주행 방향(D1)을 기준으로 상기 제1 차량의 주행 방향 정보를 근거로 계산될 수 있다. 411 단계에서 제2 단말(33)은 상기 상대 각도(505)를 근거로 제2 단말(33)의 카메라가 제1 차량을 촬영하였는지 여부를 판단할 수 있다. 상기 제2 단말(33)는 상기 상대 각도(505)가 카메라의 가능한 촬영 각도 범위 내에 있는 경우, 제1 차량이 촬영된 것으로 판단할 수 있다. 도 5b에서 참조 번호 501, 503은 각각 제2 단말(33)의 카메라에서 가능한 촬영 각도 범위의 일 예를 나타낸 것이며, 제2 단말(33)의 카메라가 주행 방향(D1)을 기준으로 정면 촬영 시 305 내지 360도(501), 0 내지 55 도(503)의 촬영 각도 범위를 갖는 경우이다. 즉 상기 상대 각도(505)가 상기 501 또는 503의 가능한 촬영 각도 범위 내에 있는 경우 제2 단말(33)은 제1 차량이 촬영된 것으로 판단할 수 있다. 이때 제1 차량이 촬영되었다면 제2 단말(33)은 어느 방향(정면, 좌/우 측면, 후면 등)의 카메라에서 제1 차량이 촬영되었는지를 또한 판단할 수 있다. 아래 <표 1>은 제2 단말(33)이 상기 상대 각도(505)를 근거로 제1 차량이 촬영되었는지 여부를 판단하는 일 예를 나타낸 것이다.
Figure 112016000810910-pat00001
상기 <표 1>에서 "I_Heading"은 상기 제1 차량의 주행 방향(Heading) 정보, "I_GPS"는 제2 차량의 GPS 정보, "Message_GPS"는 제1 차량의 GPS 정보를 의미하며, Camera_coverage는 카메라 사양에 따라 고정된 값을 사용하고, "거리 차"는 제1 차량과 제2 차량 간의 상기 계산된 거리(d)를 의미하며, "Message_location"은 상기 제2 차량의 주행 방향을 기준으로 상기 제1 차량이 위치한 상기 상대 각도를 의미한다.
상기 411 단계에서 제1 차량이 촬영된 것으로 판단된 경우, 413 단계에서 제2 단말(33)은 상기 제2 차량의 주행 영상 중 상기 영상 정보 요청 메시지로부터 획득된 제1 차량의 시간 별 이동 경로를 근거로 제1 차량과 관련된 영상 정보를 선택한다. 한편 상기 407 단계에서 상기 <수학식 1>의 조건을 만족하지 않거나, 또는 상기 411 단계에서 제1 차량이 촬영되지 않은 것으로 판단된 경우, 415 단계에서 제2 단말(33)은 제1 차량과 관련된 영상 정보의 송신 불능 상태로 판단하여, 제1 단말(31)에게 그 송신 불능을 알리는 메시지를 전송하거나 또는 별도의 메시지 전송 없이 영상 정보 송신을 위한 이후 동작을 수행하지 않고 종료할 수 있다.
상기한 도 4의 실시 예는 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 구체적인 방법의 일 예를 나타낸 것이며, 도 4의 405 단계 내지 411 단계, 415 단계 중 적어도 하나 이상의 단계를 생략하여 실시하는 것도 가능하다. 일 예로 상기 407,409,411,415 단계가 생략되고, 상기 405 단계만 수행하여, 계산된 거리가 소정 거리 이내인 시간 구간 동안 촬영된 영상만 선택할 수도 있다. 다른 예로 상기 409,411 단계가 생략되어 상기 405 단계에서 계산된 거리가 상기 407 단계의 상기 <수학식 1>의 조건을 만족하는 시간 구간 동안 촬영된 영상만 선택할 수도 있다. 또 다른 예로 상기 405, 407 단계가 생략될 수도 있다. 또 다른 예로 상기 407 단계가 생략되고, 상기 405 단계에서 계산된 거리가 소정 거리 이내이며, 상기 409, 411, 415 단계에 따라 촬영되었다고 판단된 시간 구간 동안 촬영된 영상만 선택할 수도 있다.
또 다른 예로 상기 405 단계 내지 411 단계와, 상기 415 단계를 모두 생략할 수도 있다. 이 경우 상기 403 단계에서 추출된 위치 정보를 근거로 촬영된 영상을 선택할 수 있다. 상기 추출된 위치 정보는 시간 별 위치 정보이므로 소정 시간 구간 동안 제1 차량의 이동 경로와 제2 차량의 이동 경로가 정해진 범위 내에서 근접 하다면, 상기 추출된 위치 정보를 근거로 상기 정해진 범위 내에서 촬영된 영상을 선택할 수 있다.
도 6은 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다.
도 6의 실시 예에서 제1 단말(61)은 제1 차량의 단말, 제2 단말(63)은 제2 차량의 단말, 그리고 서버(65)는 제2 단말(63)로부터 제1 차량과 관련된 영상 정보를 수신하는 클라우드 서버이다. 도 6의 실시 예에서 611 단계 내지 619 단계, 그리고 631 단계 내지 637 단계의 동작은 도 3의 실시 예에서 대응되는 단계들의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다.
도 6의 실시 예는 도 3의 실시 예와 연계하여 수행될 수 있다. 예를 들어 도 3의 실시 예에서 제2 단말이 주행 중인 상태이거나 또는 통신 환경이 영상 정보의 전송에 적합하지 않아 제1 단말로 영상 정보를 완전히 전송하지 못한 경우,도 6의 실시 예와 같이 639 단계에서 제2 단말(63)은 영상 정보의 관리를 위해 미리 지정된 서버(65)로 상기 제1 차량과 관련된 영상 정보를 전송할 수 있다. 선택적인 실시 예로 제1 단말(61)과 서버(65)의 양 자에게 각각 영상 정보를 전송하는 것도 가능하다. 이때 제1 단말(61)에게는 신속한 전송을 위해 낮은 또는 중간 해상도의 영상 정보를 전송하고, 서버(65)에게는 보다 정확한 사고 원인 파악을 위해 높은 해상도의 영상 정보를 전송하는 것도 가능하다. 또한 선택적인 실시 예로 제2 단말(63)은 제1 단말(61)에게 영상 정보를 성공적으로 전송하는 것과 상관 없이 서버(65)에게 바로 상기 제1 차량과 관련된 영상 정보를 전송할 수 있으며, 다른 예로 제2 단말(63)이 자신의 통신 환경을 고려하여 상기 제1 차량과 관련된 영상 정보를 전송하는 것도 가능하다. 일 예로 제2 단말(63)이 영상 정보 요청 메시지를 수신하였을 때 Wi-Fi 존에 위치하지 않은 경우, 영상 정보의 송신을 일시 대기하고, Wi-Fi 존으로 이동한 후에, 영상 정보를 송신하는 것도 가능하다.
그리고 651 단계에서 서버(65)는 제2 단말(63)로부터 제1 차량과 관련된 영상 정보를 수신하고, 도시되지는 않았으나 제1 단말(61) 또는 다른 주변 차량으로부터 수신한 적어도 하나의 영상 정보와 상기 639 단계에서 수신한 영상 정보를 합성한 통합 영상을 생성할 수 있다. 상기 653 단계의 동작은 생략될 수 있다. 도 6의 실시 예와 같이, 서버(65)로 영상 정보를 전송할 경우, 각 단말(61, 63)에 설치되는 상기한 차량 애플리케이션에는 상기 서버(65)와 접속을 위한 인증 정보, 상기 서버(65)의 주소 정보 등 영상 정보의 전송에 필요한 정보가 미리 설정될 수 있다. 선택적인 실시 예로 상기 617 단계에서 제1 단말(61)이 전송하는 영상 정보 요청 메시지는 상기 서버(65)의 주소 정보 등을 부가 정보로 포함할 수 있다.
도 7은 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다.
도 7의 실시 예에서 제1 단말(71)은 제1 차량의 단말, CCTV(73)는 도로 상에 설치되어 그 설치 지역에서 차량들의 주행 영상을 촬영할 수 있는 카메라와 상기한 무선 통신을 이용할 수 있는 통신부를 포함하는 폐쇄 회로 TV이다. 상기 CCTV는 상기 단말 또는 외부 서버와의 영상 정보 송수신을 제어하는 제어부와 상기 주행 영상 및/또는 상기 영상 정보를 저장할 수 있는 저장부를 포함할 수 있다. 그리고 서버(75)는 CCTV(73)로부터 제1 차량과 관련된 영상 정보를 수신하는 상기한 클라우드 서버로 구현될 수 있다.
도 7의 실시 예에서 711 단계 내지 717 단계의 동작은 도 3의 실시 예에서 대응되는 단계들의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다. 도 7의 실시 예는 719 단계에서 전송되는 상기 영상 정보 요청 메시지를 도 3의 예와 같이 제2 차량의 제2 단말이 아닌 CCTV(73)에서 수신한 경우를 나타낸 것이다.
한편 상기 CCTV(73)의 동작을 살펴보면, 731 단계, 733 단계에서 CCTV(73)는 그 설치 지역에서 주변 차량들의 주행 영상을 촬영하고, 그 주변 차량들의 시간 별 이동 경로를 구분하여 저장한다. 이후 상기 719 단계에서 CCTV(73)는 상기 영상 정보 요청 메시지를 수신하면, 735 단계에서 제1 단말(71)의 이동 경로가 CCTV(73)의 촬영 지역에 포함되는지 여부를 판단하여, 그 이동 경로가 촬영 지역에 포함된 경우, 737 단계에서 상기 저장된 주변 차량들의 주행 영상 중 제1 단말(71)의 이동 경로에 대응되는 영상 정보를 선택하고, 739 단계에서 그 선택된 영상 정보를 서버(75)로 전송한다. 이를 위해 상기 719 단계에서 상기 영상 정보 요청 메시지는 서버(75)의 주소 정보 등을 포함할 수 있다. 다른 실시 예로 상기 CCTV(73)에는 상기 서버(75)와 접속을 위한 인증 정보, 상기 서버(75)의 주소 정보 등 영상 정보의 전송에 필요한 정보가 미리 설정될 수도 있다. 그리고 751, 753 단계에서 서버(75)가 영상 정보를 수신하여 통합 영상을 생성하는 동작은 도 6의 실시 예에서 대응되는 단계들의 동작과 동일하다.
도 8은 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다.
도 8의 실시 예에서 제1 단말(81)은 제1 차량의 단말, 제1 서버(83)는 교통 관제 센터의 서버, CCTV(83)는 도로 상에 설치되어 그 설치 지역에서 주변 차량들의 주행 영상을 촬영할 수 있는 폐쇄 회로 TV로서, 도 8의 CCTV(85) 또한 도 7의 CCTV(73)와 같이 영상 정보를 전송할 수 있도록 구성된다. 다만 도 8의 실시 예에서 CCTV(85)는 제1 단말(81)이 아니라 교통 관제 센터의 제1 서버(83)로부터 영상 정보 요청 메시지를 수신한다. 그리고 제2 서버(87)는 상기 제1 서버(83)로부터 제1 차량과 관련된 영상 정보을 수신하는 상기한 클라우드 서버이다.
도 8의 실시 예에서 811 단계 내지 817 단계의 동작은 도 3의 실시 예에서 대응되는 단계들의 동작과 동일하며, 851 내지 853 단계의 동작은 도 7의 실시 예에서 대응되는 단계들의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다. 도 8의 실시 예는 819 단계에서 전송되는 상기 영상 정보 요청 메시지를 도 3의 예와 같이 제2 차량의 제2 단말이 아닌 제1 서버(83)에서 수신한 경우를 나타낸 것이다.
도 8의 821 단계에서 상기 영상 정보 요청 메시지를 수신한 제1 서버(83)는 제1 차량의 이동 경로를 근거로 해당 촬영 지역의 CCTV(85)를 선택하고, 823 단계에서 상기 영상 정보 요청 메시지에 포함된 사고 감지 시간을 확인한다. 이후 825 단계에서 제1 서버(83)는 선택된 CCTV(85)로 상기 영상 정보 요청 메시지를 전송하고, 855, 857, 827 단계에서 CCTV(85)로부터 선택된 제1 차량과 관련된 영상 정보는 교통 관제 센터의 제1 서버(83)를 경유하여 클라우드 서버인 제2 서버(87)로 전달된다. 그리고 871, 873 단계에서 제2 서버(87)가 영상 정보를 수신하여 통합 영상을 생성하는 동작은 도 6의 실시 예에서 대응되는 단계들의 동작과 동일하다.
도 9는 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다.
도 9의 실시 예에서 제1 단말(91)은 제1 차량의 단말, 제1 서버(93)은 교통 관제 센터의 서버, 제2 단말(95)은 제2 차량의 단말, 그리고 제2 서버(97)는 제1 차량과 관련된 영상 정보를 수신하는 상기한 클라우드 서버로서, 도 9의 실시 예에서 교통 관제 센터의 제1 서버(97)는 통신 접속된 차량들의 현재 위치 정보를 수집할 수 있다.
도 9의 실시 예에서 911 단계 내지 917 단계의 동작은 도 3의 실시 예에서 대응되는 단계들의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다. 도 9의 실시 예는 919 단계에서 전송되는 상기 영상 정보 요청 메시지를 도 3의 예와 같이 제2 차량의 제2 단말이 아닌 제1 서버(93)에서 수신하고, 상기 영상 정보 요청 메시지를 수신한 제1 서버(93)는 상기 931 단계에서 수집된 차량들의 현재 위치 정보를 근거로, 933 단계에서 제1 차량의 현재 위치에 근접한 제2 차량을 선택한다. 935 단계에서 제1 서버(93)는 선택된 제2 차량의 제2 단말(95)로 상기 영상 정보 요청 메시지를 전송한다. 그러면 955, 957 단계에서 상기 영상 정보 요청 메시지를 수신한 제2 단말(95)은 제1 차량과 관련된 영상 정보를 선택하여 제2 서버(97)로 전송한다. 도 9의 실시 예에서 설명되지 않은 나머지 단계들의 동작은 전술한 다른 실시 예들과 동일하므로 구체적인 설명은 생략하기로 한다.
도 10은 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다.
도 10의 실시 예에서 제1 단말(101)은 제1 차량의 단말, 제1 서버(103)는 교통 관제 센터의 서버, 제2 단말(105)은 제2 차량의 단말, 그리고 제2 서버(107)는 제1 차량과 관련된 영상 정보를 수신하는 상기한 클라우드 서버이다. 도 10의 실시 예에서 교통 관제 센터의 제1 서버(103)는 통신 접속된 차량들의 이동 경로를 모두 수집할 수 있다. 즉 상기 제1 서버(103)는 통신 접속된 제1 단말(101) 및 제2 단말(105) 모두로부터 각각 해당 차량의 이동 경로를 수신하여 저장할 수 있다.
도 10의 실시 예에서 1011 단계 내지 1017 단계의 동작은 도 3의 실시 예에서 대응되는 단계들의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다. 도 10의 실시 예는 1031 단계에서 상기 제1 서버(103)가 통신 접속된 차량들의 이동 경로를 모두 수신하여 저장하므로, 전술한 실시 예들과 같이 제1 차량의 제1 단말(101)이 자신의 이동 경로를 포함한 영상 정보 요청 메시지를 전송할 필요는 없다. 따라서 1019 단계에서 제1 단말(101)이 제1 서버(103)로 전송하는 영상 정보 요청 메시지에는 제1 차량의 이동 경로가 포함되지 않고, 전송될 수 있다. 상기 영상 정보 요청 메시지를 수신한 제1 서버(103)는 1033 단계에서 제1 차량의 이동 경로와 근접한 제2 차량을 선택한다. 이후 1035 단계에서 제1 서버(103)는 선택된 제2 차량의 제2 단말(105)로 상기 영상 정보 요청 메시지를 전송한다. 그러면 1055, 1057 단계에서 상기 영상 정보 요청 메시지를 수신한 제2 단말(105)은 제1 차량과 관련된 영상 정보를 선택하여 제2 서버(107)로 전송한다. 도 10의 실시 예에서 설명되지 않은 나머지 단계들의 동작은 전술한 다른 실시 예들과 동일하므로 구체적인 설명은 생략하기로 한다.
도 11은 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다.
도 11의 예에서 제1 차량(111)과 제2 차량(113)은 각각 제1 단말(31)과 제2 단말(33)의 기능을 동일하게 수행하는 차량 내 전자 장치를 포함한다. 따라서 도 11의 실시 예에서 1111 단계 내지 1121 단계의 동작과, 1131 단계 내지 1137 단계의 동작은 단말에서 수행되는 동작을 차량 내 전자 장치에 수행하는 점을 제외하고, 도 3의 실시 예에서 대응되는 단계들의 동작과 동일하다. 다만 도 11의 1113 단계에서는 제1 차량의 전자 장치가 직접 사고 발생을 감지하는 것이므로 도 3의 313 단계와 같은 사고 메시지의 송수신은 필요하지 않다.
도 12는 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다.
도 12의 예에서 제1 단말(121)은 제1 차량의 단말, 제2 단말(123)은 제2 차량의 단말이다. 도 12의 실시 예에서 1211 단계 내지 1223 단계의 동작과, 1231 단계 내지 1233 단계의 동작은 도 3의 실시 예에서 대응되는 동작과 기본적으로 동일하다. 다만 도 12의 실시 예의 경우, 1215 단계에서 제1 단말(121)이 생성하는 이동 경로, 즉 제1 차량의 시간 별 위치 정보는 제1 차량의 시간 별 차선 정보를 더 포함할 수 있다. 그리고 상기 이동 경로는 제1 차량의 소정 시간 동안의 사고 이전 이동 경로를 포함한다.
그리고 1235 단계에서 제2 단말(123)은 상기 1219 단계에서 수신한 제1 단말(121)의 시간 별 이동 경로에 대응되는 자신의 시간 별 이동 경로를 선택한다. 상기 1235 단계에서 선택된 제2 단말(123)의 이동 경로는 제2 차량의 소정 시간 동안의 시간 별 이전 이동 경로를 포함한다. 1239 단계에서 제2 단말(123)은 제1 차량의 시간 별 사고 이전 이동 경로와 상기 1235 단계에서 선택된 제2 차량(123)의 시간 별 이전 이동 경로에서 촬영 범위의 일치 여부를 판단한다. 그리고 그 촬영 범위가 일치하는 경우, 1239 단계에서 제2 단말(123)은 수신한 제1 차량의 이동 경로에 해당되는 촬영 영상을 상기 1231 단계에서 촬영된 주행 영상으로부터 추출한다. 상기 1235 단계 내지 1239 단계의 동작은 도 3의 실시 예에서 335, 337 단계의 동작에 대응된다. 따라서 상기 1235 단계 내지 1239 단계의 동작으로 대치될 수 있다. 이후 1241 단계에서 제2 단말(123)은 상기 1235 단계에서 선택된 제2 차량의 시간 별 이전 이동 경로에 대응되게 상기 추출된 영상 정보(또는 제2 차량의 전자 장치)로부터 노면 상태(예컨대, 낙석, 노면 미끄러움 등) 등의 특이 사항(이하, 이동 경로 특이 사항)을 감지한 경우, 그 이동 경로 특이 사항을 위치 정보와 대응되게 매핑하고, 1243 단계에서 그 이동 경로 특이 사항을 포함한 영상 정보를 제1 단말(121)로 전송한다. 선택적인 실시 예로 상기 이동 경로 특이 사항은 차선 별 특이 사항을 포함할 수 있다. 도 12의 실시 예에서 설명되지 않은 나머지 단계들의 동작은 전술한 다른 실시 예들과 동일하므로 구체적인 설명은 생략하기로 한다.
또한 상기 이동 경로 특이 사항 외에도 제2 단말(123)은 제1 차량의 차량 번호, 차량 색깔, 차량 크기 중 적어도 하나의 정보를 상기 영상 정보와 함께 단말(121)에게 전송할 수 있다.
도 13a 내지 도 13c는 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다. 도 13a, 도 13b, 및 도 13c는 도시의 편의상 분리하여 도시하였으나, 그 도면들은 하나의 실시 예를 나타내는 이어진 도면들로 이해될 수 있다.
도 13a 내지 도 13c의 예에서 제1 단말(131)은 제1 제1 차량의 단말, 제2 단말(133)은 제2 제1 차량의 단말, 그리고 제3 단말(135)은 제2 차량의 단말이다. 즉 도 13a 내지 도 13c의 실시 예는 제1 차량이 다수인 경우, 영상 정보를 공유하는 방법을 나타낸 것이다. 따라서 도 13a 내지 도 13c에서 제1 및 제2 단말들(131, 133)과 해당 차량들은 각각 앞선 실시 예들에서 제1 단말과 제1 차량에 대응되고, 제3 단말(135)과 그 차량은 각각 앞선 실시 예들에서 제2 단말과 제2 차량에 대응된다.
본 실시 예와 같이 제1 차량이 다수인 경우 제2 차량은 동시 다발적으로 다수의 제1 차량으로부터 영상 정보 요청 메시지를 수신하게 된다. 이 경우 무선 채널에 과부하를 초래할 수 있으므로 본 실시 예에서 제2 차량의 단말(즉 제3 단말(135))은 제1 차량의 단말들(즉 제1 단말(131), 제2 단말(133)) 중에서 사고 감지 시간이 가장 빠른 차량의 단말에게 영상 정보를 전송하는 방안을 제안한다.
도 13a에서 1311 단계 내지 1317 단계의 동작과, 1331 단계 내지 1337 단계의 동작은 도 3의 실시 예에서 대응되는 단계들의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다.
도 13a를 참조하면, 제1 단말(131)과 제2 단말(133)로부터 생성되는 영상 정보 요청 메시지는 각각 해당 차량의 사고 감지 시간, 사고 지점, 소정 시간 동안의 사고 이전 이동 경로, 그리고 해당 차량의 식별 정보 등을 포함할 수 있다. 1319, 1321, 1339 단계에서 제1 단말(131), 제2 단말(133), 그리고 제3 단말(135)은 각각 영상 정보 요청 메시지를 각각 송수신한다. 그러면 제1 단말(131)과 제2 단말(133)는 각각 1323 단계, 1341 단계에서 상대 단말로부터 수신한 영상 정보 요청 메시지에 포함된 사고 감지 시간과 자신의 사고 감지 시간을 비교한다. 본 실시 예에서는 제2 단말(133)의 사고 감지 시간이 더 빠른 것으로 가정한다. 따라서 1343 단계에서 제2 단말(133)은 상기 1341 단계의 비교 결과, 자신의 사고 감지 시간이 가장 빠른 경우 자신을 통합 영상 생성 주체로 판단한다. 또한 1325 단계에서 제1 단말(131)은 상기 1323 단계의 비교 결과, 자신의 사고 감지 시간이 느린 경우 영상 정보가 송신될 송신 지점(이하, "영상 정보 송신 지점")(즉 통합 영상 생성 주체)이 어느 단말인지 판단한다. 본 실시 예에서 제1 단말(131)은 영상 정보 송신 지점을 제2 단말(133)로 판단하고, 1327 단계에서 제2 단말(133)로 영상 정보를 송신한다. 이때 제2 단말(133)로 송신되는 영상 정보는 사고 이전 소정 시간 동안의 이동 경로에 해당되는 영상 정보를 추출하여 송신하거나 또는 추출된 영상 정보 중 일부 영상 정보를 송신하는 것도 가능하다.
한편 도 13b에서 1355 단계 내지 1361 단계의 동작은 도 12의 실시 예에서 1235 단계 내지 1241 단계의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다. 그리고 1363 단계에서 제2 차량의 제3 단말(1361) 또한 제1 단말(131)과 제2 단말(133)로부터 각각 수신한 영상 정보 요청 메시지들에 포함된 사고 감지 시간들을 각각 확인하고, 제2 단말(133)의 사고 감지 시간이 더 빠른 것으로 판단한다. 그리고 1363 단계에서 제3 단말(135) 또한 제2 단말(133)로 영상 정보를 전송한다. 상기 1363 단계에서 전송되는 영상 정보는 이동 경로 특이 사항을 포함한 영상 정보가 전송될 수 있다. 상기 이동 경로 특이 사항은 선택적으로 포함될 수 있다. 상기 이동 경로 특이 사항이 포함되지 않을 경우, 1361 단계는 생략될 수 있다.
한편 도 13c의 1345 단계에서 제2 단말(133)은 영상 정보를 수신하고, 1347 단계에서 자신이 촬영한 영상 정보와 제1 및 제3 단말(131, 133)로부터 수신한 영상 정보를 이용하여 통합 영상을 생성하고, 1349 단계에서 상기 통합 영상을 제1 단말(131)에게 전송한다. 도 13a 내지 도 13c의 실시 예에서 설명되지 않은 나머지 단계들의 동작은 전술한 다른 실시 예들과 동일하므로 구체적인 설명은 생략하기로 한다.
도 14a 및 도 14b는 본 발명의 다른 실시 예에 따라 제1 차량과 관련된 영상 정보를 공유하는 방법을 나타낸 흐름도이다. 도 14a 및 도 14b는 도시의 편의상 분리하여 도시하였으나, 그 도면들은 하나의 실시 예를 나타내는 이어진 도면들로 이해될 수 있다.
도 14a 및 도 14b의 예에서 제1 단말(141)은 제1 제1 차량의 단말, 제2 단말(143)은 제2 제1 차량의 단말, 그리고 제3 단말(145)은 제2 차량의 단말, 그리고 서버(147)는 제1 차량과 관련된 영상 정보을 수신하는 상기한 클라우드 서버이다. 즉 도 14a 및 도 14b의 실시 예는 제1 차량이 다수인 경우, 클라우드 서버를 이용하여 영상 정보를 공유하는 방법을 나타낸 것이다. 따라서 도 14a 및 도 14b에서 제1 및 제2 단말들(141, 143)과 해당 차량들은 각각 앞선 실시 예들에서 제1 단말과 제1 차량에 대응되고, 제3 단말(145)과 그 차량은 각각 앞선 실시 예들에서 제2 단말과 제2 차량에 대응된다. 도 14a에서 1411 단계 내지 1417 단계의 동작과, 1431 단계 내지 1437 단계의 동작은 도 3의 실시 예에서 대응되는 단계들의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다.
도 14a를 참조하면, 1419 단계, 1439 단계에서 제1 단말(141)과 제2 단말(143)은 각각 영상 정보 요청 메시지를 각각 전송한다. 이때 상기 영상 정보 요청 메시지는 사고 감지 시간과 서버(147)의 접근을 위한 주소 정보와 인증 정보 등을 포함할 수 있다. 또한 제1 단말(141)과 제2 단말(143)로부터 생성되는 영상 정보 요청 메시지는 각각 해당 차량의 사고 감지 시간, 사고 지점, 소정 시간 동안의 사고 이전 이동 경로, 그리고 해당 차량의 식별 정보 등을 포함할 수 있다. 또한 도시되지는 않았으나, 제1 단말(141)과 제2 단말(143)는 서로 간의 사고 감지 시간을 비교한다. 본 실시 예에서는 제2 단말(143)의 사고 감지 시간이 더 빠른 것으로 가정한다. 그리고 제2 차량의 제3 단말(145) 또한 제1 단말(141)과 제2 단말(143)로부터 각각 수신한 영상 정보 요청 메시지로부터 사고 감지 시간을 확인하고, 제2 단말(143)의 사고 감지 시간이 더 빠른 것으로 판단한다. 한편 1421 단계에서 제1 단말(141)은 영상 정보의 저장 지점을 서버(147)로 판단하고, 1423 단계에서 영상 정보의 저장 지점이 서버(147)인 것을 알리는 메시지를 방송(broadcasting)할 수 있다. 상기 1421 단계, 1423 단계의 동작은 생략될 수 있다. 한편 1455 내지 1459 단계에서 제3 단말(145)는 전송될 영상 정보를 선택하고, 송신 지점을 서버(147)로 판단하고, 1461 단계에서 서버(147)로 영상 정보를 송신한다. 도 14a 및 도 14b의 실시 예에서 설명되지 않은 나머지 단계들의 동작은 전술한 다른 실시 예들과 동일하므로 구체적인 설명은 생략하기로 한다.
한편 상기한 본 발명의 실시 예들은 도 11의 실시 예를 제외하고, 단말에서 수행되는 동작을 예시한 것이다. 그러나 해당 단말의 기능이 차량 내 전자 장치에 구현되는 경우, 본 발명의 실시 예들은 차량을 통해서도 동일한 방식으로 실시될 수 있다. 그리고 상기한 본 발명의 실시 예들은 개별적으로 실시될 수 있음은 물론 둘 이상의 실시 예들을 결합하여 실시하는 것도 가능하다.

Claims (20)

  1. 제1 차량과 통신 연결된 제1 단말이 제2 차량의 주행 영상을 공유하는 방법에 있어서,
    상기 제1 차량의 시간 별 이동 경로를 저장하는 단계;
    상기 제1 차량으로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하는 단계;
    상기 제1 메시지에 기반하여, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하고, 상기 제1 이동 경로에 대응하는 상기 제1 차량의 제1 주행 영상을 획득하는 단계;
    상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 단계;
    제2 단말로부터 상기 소정 시간의 적어도 일부 동안 상기 제1 이동 경로와 관련된 상기 영상 정보를 수신하는 단계; 및
    상기 제1 차량의 상기 제1 주행 영상 및 상기 제1 이동 경로와 관련된 상기 영상 정보를 이용하여 통합 영상을 생성하는 단계를 포함하고,
    상기 제2 단말로부터 상기 영상 정보를 수신하는 단계에서, 상기 영상 정보는 상기 제2 차량의 주행 영상에서 감지된 이동 경로 특이 사항을 포함하여 수신되는 방법.
  2. 제 1 항에 있어서,
    상기 이동 경로는 상기 제1 차량의 시간 별 위치 정보를 포함하며,
    상기 이동 경로는 사고 감지 시간 이전부터 상기 소정 시간 동안의 선택된 이동 경로이며,
    상기 위치 정보는 상기 제1 차량의 위도, 경도, 고도, 속도, GPS(Global Positioning System) 정보, 주행 도로, 지도상 좌표 값, 주행 차선,주행 방향 중 적어도 하나를 포함하는 방법.

  3. 제 1 항에 있어서,
    상기 제2 메시지는 상기 사고 발생이 감지된 사고 감지 시간, 사고 지점, 상기 제1 이동 경로, 상기 제1 차량의 식별 정보 중 적어도 하나의 정보를 포함하는 방법.
  4. 삭제
  5. 삭제
  6. 제 1 항에 있어서,
    상기 제1 이동 경로와 관련된 상기 영상 정보는 상기 제2 메시지를 수신한 상기 제2 차량의 상기 제2 단말, 또는 CCTV(Closed Circuit Television)에 의해 생성되고,
    상기 영상 정보는 외부 서버로 송신되는 방법.
  7. 주변 차량의 주행 영상을 공유하는 제1 단말에 있어서,
    데이터를 송수신하는 송수신기; 및
    상기 제1 단말과 통신 연결된 제1 차량의 시간 별 이동 경로를 저장하고, 상기 송수신기를 통해 상기 제1 차량으로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하며, 상기 제1 메시지에 기반하여, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하고, 상기 제1 이동 경로에 대응하는 상기 제1 차량의 제1 주행 영상을 획득하고, 상기 송수신기를 통해 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하고, 상기 송수신기를 통해 제2 단말로부터 상기 소정 시간의 적어도 일부 동안 상기 제1 이동 경로와 관련된 상기 영상 정보를 수신하고, 상기 제1 차량의 상기 제1 주행 영상 및 상기 제1 이동 경로와 관련된 상기 영상 정보를 이용하여 통합 영상을 생성하는 것을 제어하는 제어기를 포함하고, 상기 제2 단말로부터 수신되는 상기 영상 정보는 상기 제2 차량의 주행 영상에서 감지된 이동 경로 특이 사항을 포함하는 제1 단말.
  8. 제 7 항에 있어서,
    상기 제1 이동 경로는 상기 제1 차량의 시간 별 위치 정보를 포함하며,
    상기 제1 이동 경로는 사고 감지 시간 이전부터 상기 소정 시간 동안의 선택된 이동 경로이며,
    상기 위치 정보는 상기 제1 차량의 위도, 경도, 고도, 속도, GPS(Global Positioning System) 정보, 주행 도로, 지도상 좌표 값, 주행 차선, 주행 방향 중 적어도 하나를 포함하는 제1 단말.
  9. 제 7 항에 있어서,
    상기 제2 메시지는 상기 사고 발생이 감지된 사고 감지 시간, 사고 지점, 상기 제1 이동 경로, 상기 제1 차량의 식별 정보 중 적어도 하나의 정보를 포함하는 제1 단말.
  10. 삭제
  11. 삭제
  12. 제 7 항에 있어서,
    상기 제1 이동 경로와 관련된 상기 영상 정보는 상기 제2 메시지를 수신한 상기 제2 차량의 상기 제2 단말, 또는 CCTV(Closed Circuit Television)에 의해 생성되고,
    상기 영상 정보는 외부 서버로 송신되는 제1 단말.
  13. 제2 차량과 통신 연결된 제2 단말이 제1 차량과 통신 연결된 제1 단말과 주행 영상을 공유하는 방법에 있어서,
    상기 제1 단말이 상기 제1 차량으로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신한 경우, 상기 제1 단말로부터 상기 제1 차량의 소정 시간 동안 선택된 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 수신하는 단계; 및
    상기 제2 메시지에 기반하여, 상기 소정 시간의 적어도 일부 동안의 상기 제1 이동 경로에 관련된 상기 영상 정보를 송신하는 단계;
    상기 제1 이동 경로와 관련된 이동 경로 특이 사항을 감지하는 단계; 및
    상기 이동 경로 특이 사항이 포함된 상기 영상 정보를 송신하는 단계를 포함하고,
    상기 송신된 상기 영상 정보는, 상기 제1 차량의 상기 제1 이동 경로와 관련된 제1 주행 영상과 통합 영상을 생성하는데 이용되는 방법.
  14. 제 13 항에 있어서,
    상기 송신하는 단계는,
    상기 제2 메시지로부터 획득된 정보를 근거로, 상기 제1 차량과 상기 제2 차량 간의 상대 각도를 계산하는 단계; 및
    상기 계산된 상대 각도를 근거로 상기 제1 차량이 촬영되었는지 여부를 판단하는 단계를 더 포함하는 방법.
  15. 제 13 항에 있어서,
    상기 송신하는 단계는,
    상기 제1 차량과의 거리가 영상의 픽셀 수와 관련된 조건을 만족하는지 판단하는 단계; 및
    상기 조건을 만족하는 경우, 상기 선택된 제1 이동 경로와 관련된 영상 정보를 송신하는 과정을 더 포함하는 방법.
  16. 삭제
  17. 제1 차량과 통신 연결된 제1 단말과 주행 영상을 공유하는 제2 차량과 통신 연결된 단말에 있어서,
    데이터를 송수신하는 송수신기; 및
    상기 제1 단말이 상기 제1 차량으로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신한 경우, 상기 제1 단말로부터 상기 제1 차량의 소정 시간 동안 선택된 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 수신하고, 상기 제2 메시지에 기반하여, 상기 소정 시간의 적어도 일부 동안의 상기 제1 이동 경로에 관련된 상기 영상 정보를 송신하는 것을 제어하고, 상기 제1 이동 경로와 관련된 이동 경로 특이 사항을 감지하고, 상기 이동 경로 특이 사항이 포함된 상기 영상 정보를 송신하는 것을 제어하는 제어부를 포함하고, 상기 송신된 상기 영상 정보는 상기 제1 차량의 상기 제1 이동 경로와 관련된 제1 주행 영상과 통합 영상을 생성하는데 이용되는 것인 단말.
  18. 제 17 항에 있어서,
    상기 제어부는, 상기 제2 메시지로부터 획득된 정보를 근거로, 상기 제1 차량과 상기 제2 차량 간의 상대 각도를 계산하고, 상기 계산된 상대 각도를 근거로 상기 제1 차량이 촬영되었는지 여부를 판단하는 것을 더 제어하는 단말.
  19. 제 17 항에 있어서,
    상기 제어부는, 상기 제1 차량과의 거리가 영상의 픽셀 수와 관련된 조건을 만족하는지 판단하고, 상기 조건을 만족하는 경우, 상기 선택된 제1 이동 경로와 관련된 영상 정보를 송신하는 것을 더 제어하는 단말.
  20. 삭제
KR1020160000951A 2016-01-05 2016-01-05 차량과 관련된 영상 정보를 공유하는 방법 및 장치 KR102464898B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160000951A KR102464898B1 (ko) 2016-01-05 2016-01-05 차량과 관련된 영상 정보를 공유하는 방법 및 장치
PCT/KR2017/000137 WO2017119737A1 (ko) 2016-01-05 2017-01-05 통신 시스템에서 영상 정보를 공유하는 방법 및 장치
US16/068,307 US10861326B2 (en) 2016-01-05 2017-01-05 Method and device for sharing image information in communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160000951A KR102464898B1 (ko) 2016-01-05 2016-01-05 차량과 관련된 영상 정보를 공유하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20170081920A KR20170081920A (ko) 2017-07-13
KR102464898B1 true KR102464898B1 (ko) 2022-11-09

Family

ID=59273864

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160000951A KR102464898B1 (ko) 2016-01-05 2016-01-05 차량과 관련된 영상 정보를 공유하는 방법 및 장치

Country Status (3)

Country Link
US (1) US10861326B2 (ko)
KR (1) KR102464898B1 (ko)
WO (1) WO2017119737A1 (ko)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11201908B2 (en) * 2014-02-05 2021-12-14 Seon Design (Usa) Corp. Uploading data from mobile devices
DE102016217645B4 (de) * 2016-09-15 2023-01-19 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen von Information über eine voraussichtliche Fahrintention eines Fahrzeugs
CN109716400B (zh) * 2017-07-31 2021-08-10 Jvc 建伍株式会社 图像记录装置、图像记录方法和存储介质
KR101874352B1 (ko) * 2017-12-14 2018-07-06 최현수 효율적인 교통정보 전달을 위한 교통 전광판과 차내 단말 및 이를 포함하는 지능형 교통 시스템
CN109935106A (zh) * 2017-12-18 2019-06-25 成都配天智能技术有限公司 一种车辆信息交互方法、装置、车辆及存储介质
KR102394908B1 (ko) * 2017-12-21 2022-05-09 현대자동차주식회사 차량 및 차량의 제어방법
US10607484B2 (en) * 2017-12-28 2020-03-31 Intel Corporation Privacy-preserving distributed visual data processing
JP7247089B2 (ja) * 2018-01-22 2023-03-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 車両異常検知サーバ、車両異常検知システム及び車両異常検知方法
JP7118757B2 (ja) * 2018-01-22 2022-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ サーバ、プログラム、及び、方法
US10932127B2 (en) * 2018-02-19 2021-02-23 Fortinet, Inc. Evaluating trustworthiness of data transmitted via unencrypted wireless mobile communications
CN108492567A (zh) * 2018-04-24 2018-09-04 汪宇明 监控终端、道路交通预警方法及系统
WO2019213497A1 (en) 2018-05-03 2019-11-07 Scotty Labs Virtual vehicle control system
JP2019200478A (ja) * 2018-05-14 2019-11-21 トヨタ自動車株式会社 サーバ、車両撮影システム及び車両撮影方法
US10856120B2 (en) * 2018-06-19 2020-12-01 Blackberry Limited Providing inter-vehicle data communications for multimedia content
JP7218535B2 (ja) * 2018-10-12 2023-02-07 トヨタ自動車株式会社 交通違反車両識別システム及びサーバ
US10703386B2 (en) 2018-10-22 2020-07-07 Ebay Inc. Intervehicle communication and notification
US11126869B2 (en) * 2018-10-26 2021-09-21 Cartica Ai Ltd. Tracking after objects
US11170638B2 (en) * 2018-12-19 2021-11-09 International Business Machines Corporation Look ahead auto dashcam (LADCAM) for improved GPS navigation
WO2020171605A1 (ko) * 2019-02-19 2020-08-27 에스케이텔레콤 주식회사 주행 정보 제공 방법, 차량맵 제공 서버 및 방법
EP3788933A1 (en) * 2019-09-05 2021-03-10 BSH Hausgeräte GmbH Method for controlling a home appliance
KR102245850B1 (ko) * 2020-02-07 2021-04-28 동의대학교 산학협력단 블랙박스 영상을 이용한 통합 관제 서비스를 제공하는 장치 및 방법
DE102020105949A1 (de) * 2020-03-05 2021-09-09 Audi Aktiengesellschaft System zur Unfallschaden-Detektion und Kommunikation
US11538343B2 (en) 2020-03-23 2022-12-27 Toyota Motor North America, Inc. Automatic warning of atypical audio indicating a transport event
US11443624B2 (en) * 2020-03-23 2022-09-13 Toyota Motor North America, Inc. Automatic warning of navigating towards a dangerous area or event
US11657704B2 (en) * 2020-03-25 2023-05-23 Blackberry Limited Event data collections for accidents
JP2022045521A (ja) * 2020-09-09 2022-03-22 トヨタ自動車株式会社 情報管理システムおよびこれに用いられる携帯端末、画像管理サーバ
CN113326756B (zh) * 2021-05-25 2023-05-16 中国地质调查局武汉地质调查中心 一种基于岩体劣化特征的库岸潜在滑坡隐患识别方法
FR3131793A1 (fr) * 2022-01-12 2023-07-14 Renault S.A.S Système de visualisation du contexte d’un véhicule automobile, procédé et véhicule associés

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028711A (ja) * 2013-07-30 2015-02-12 富士重工業株式会社 車両の交通環境情報記録装置
JP2015179414A (ja) 2014-03-19 2015-10-08 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム及び撮影情報共有方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH081Y2 (ja) * 1988-07-15 1996-01-10 九州日立マクセル株式会社 ヘアードライヤ
US6720920B2 (en) * 1997-10-22 2004-04-13 Intelligent Technologies International Inc. Method and arrangement for communicating between vehicles
WO2003014671A1 (en) * 2001-08-10 2003-02-20 Aisin Aw Co., Ltd. Traffic information search method, traffic information search system, mobile body communication device, and network navigation center
KR20090040622A (ko) 2007-10-22 2009-04-27 한국전자통신연구원 차량 사고 정보 제공 방법 및 장치
KR101578721B1 (ko) * 2008-12-15 2015-12-21 엘지전자 주식회사 네비게이션 단말기 및 네비게이션 단말기의 경로안내방법
KR101537705B1 (ko) * 2009-03-30 2015-07-22 엘지전자 주식회사 차량 내비게이션 방법 및 그 장치
KR101451765B1 (ko) * 2011-03-02 2014-10-20 팅크웨어(주) 전자 기기 및 전자 기기의 제어 방법
JP6043470B2 (ja) * 2011-03-18 2016-12-14 矢崎エナジーシステム株式会社 記録装置
KR101451768B1 (ko) * 2011-03-21 2014-10-17 팅크웨어(주) 주행 영상 획득을 위한 전자 기기 및 전자 기기의 주행 영상 획득 방법 및 주행 영상 제공을 위한 서버 및 서버의 주행 영상 제공 방법
KR101302365B1 (ko) * 2011-09-15 2013-09-17 팅크웨어(주) 내비게이션 장치 및 그 제어 방법
KR101504316B1 (ko) * 2012-12-14 2015-03-19 리모택시코리아 주식회사 위치기반 사고 정보공유 방법
KR20140099787A (ko) * 2013-02-04 2014-08-13 인포뱅크 주식회사 차량간 통신시스템 및 그 방법
US9141112B1 (en) * 2013-10-16 2015-09-22 Allstate Insurance Company Caravan management
US10348888B1 (en) * 2018-08-03 2019-07-09 Motorola Solutions, Inc. Call management system for a command center utilizing call metadata

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028711A (ja) * 2013-07-30 2015-02-12 富士重工業株式会社 車両の交通環境情報記録装置
JP2015179414A (ja) 2014-03-19 2015-10-08 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム及び撮影情報共有方法

Also Published As

Publication number Publication date
US20190012908A1 (en) 2019-01-10
WO2017119737A1 (ko) 2017-07-13
KR20170081920A (ko) 2017-07-13
US10861326B2 (en) 2020-12-08

Similar Documents

Publication Publication Date Title
KR102464898B1 (ko) 차량과 관련된 영상 정보를 공유하는 방법 및 장치
US11869376B2 (en) Taking corrective action based upon telematics data broadcast from another vehicle
US10096249B2 (en) Method, apparatus and storage medium for providing collision alert
EP3288002A1 (en) Drive recorder
KR20180063789A (ko) 차량 운행 상태를 통합 관리하기 위한 방법 및 시스템
JP2009083815A (ja) ドライブレコーダ装置および事故解析シミュレーション装置
JP2014164316A (ja) 車載カメラを用いた情報提供システム
KR20160065724A (ko) 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
CN111243314A (zh) 信息提供系统、服务器、移动终端、非暂时性存储介质和信息提供方法
JP2019109707A (ja) 表示制御装置、表示制御方法および車両
KR20210056632A (ko) 메시지 기반의 영상 처리 방법 및 이를 구현하는 전자 장치
US20190213876A1 (en) Image distribution device, image distribution method, and storage medium storing image distribution program
KR20160065723A (ko) 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR102319383B1 (ko) 블랙박스 영상을 이용하여 교통 법규 위반 차량을 자동으로 신고하는 장치 및 방법
US20230048622A1 (en) Providing insurance discounts based upon usage of telematics data-based risk mitigation and prevention functionality
KR102276082B1 (ko) 내비게이션 장치, 블랙 박스 및 그들의 제어 방법
KR20150049544A (ko) 보행자 충돌 경보 및 고화질 영상 촬영 기능을 구비하는 차량용 블랙박스
JP7348724B2 (ja) 車載装置および表示方法
CN113838299A (zh) 用于查询车辆路况信息的方法和设备
KR102646657B1 (ko) 서버, 차량용 단말 및 이를 이용한 긴급 상황 알림 방법
WO2023145404A1 (ja) 車両用装置、情報統合方法
KR20150124055A (ko) 차량용 단말장치를 이용한 컨텐츠 공유 방법 및 그를 이용하는 장치
KR102418630B1 (ko) 사고 정보 수집 장치 및 그 제어 방법
KR101458362B1 (ko) 차량용 블랙박스 장치 및 그 운용 방법
JP2023134733A (ja) 情報処理装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)