WO2017119737A1 - 통신 시스템에서 영상 정보를 공유하는 방법 및 장치 - Google Patents
통신 시스템에서 영상 정보를 공유하는 방법 및 장치 Download PDFInfo
- Publication number
- WO2017119737A1 WO2017119737A1 PCT/KR2017/000137 KR2017000137W WO2017119737A1 WO 2017119737 A1 WO2017119737 A1 WO 2017119737A1 KR 2017000137 W KR2017000137 W KR 2017000137W WO 2017119737 A1 WO2017119737 A1 WO 2017119737A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- terminal
- image information
- driving
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/04—Systems for the transmission of one television signal, i.e. both picture and sound, by a single carrier
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/46—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/90—Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
Definitions
- the present invention relates to a method and apparatus for sharing image information in a communication system, and more particularly, to image information related to a vehicle in a communication system supporting a vehicle to vehicle (V2V) method. It is about a method and device for sharing.
- V2V vehicle to vehicle
- V2V communications which is scheduled for 2016 in the United States Transportation Authority.
- the V2V communication is a communication technology proposed to transmit and receive vehicle information for safe driving between vehicles using wireless communication.
- vehicle information may include, for example, information of a vehicle's position, speed, brake state, vehicle size, and the like, and adjacent vehicles that are driving are periodically used to prevent traffic accidents by exchanging messages including the vehicle information. Can be.
- One embodiment of the present invention proposes a method and apparatus for sharing image information in a communication system.
- an embodiment of the present invention proposes a method and apparatus for efficiently sharing image information related to a vehicle in a communication system supporting a V2V scheme.
- an embodiment of the present invention proposes a method and apparatus for sharing image information related to an accident vehicle between vehicles in a communication system supporting a V2V scheme.
- an embodiment of the present invention proposes a method and apparatus for sharing image information for preventing accidents between vehicles in a communication system supporting a V2V scheme.
- a method of sharing a driving image of a second vehicle by a first terminal connected to a communication with a first vehicle in a communication system includes: Storing a message; receiving a first message indicating an accident occurrence or a dangerous situation from an electronic device of the first vehicle; and when receiving the first message, a first message for a predetermined time from the stored moving path. Selecting a movement route, and transmitting a second message requesting image information related to the first movement route among the driving images of the second vehicle.
- the apparatus proposed in an embodiment of the present invention in the terminal sharing the driving image of the surrounding vehicle, the time-dependent movement path of the first vehicle communication is connected to the terminal, and stores the first vehicle Receiving a first message informing of an accident occurrence or a dangerous situation from an electronic device of the electronic device, and when receiving the first message, selecting a first moving path for a predetermined time from the stored moving path, At least one processor for transmitting a second message for requesting the image information associated with the first moving path of the driving image of the vehicle.
- the first terminal receives a first message indicating an accident occurrence or a dangerous situation from the electronic device of the first vehicle, the first terminal of the first vehicle of the driving image of the second vehicle from the first terminal;
- Receiving a second message requesting image information related to a first movement route, and transmitting the image information selected based on the first movement route among the driving images.
- the first terminal which is connected to the communication with the first vehicle, the terminal is connected to the communication with the second vehicle sharing the driving image, the first terminal is When receiving a first message indicating an accident occurrence or a dangerous situation from the electronic device of the first vehicle, image information related to the first moving path of the first vehicle among the driving images of the second vehicle from the first terminal.
- at least one processor configured to receive a second message requesting the second message and to transmit the image information selected based on the first movement path among the driving images.
- the terms “include” and “Comprise” and its derivatives mean unlimited inclusion;
- the term “or” is inclusive and means “and / or”;
- the phrases “associated with” and “associated therewith” and their derivatives include, be included within, and interconnected with ( interconnect with, contain, be contained within, connect to or with, connect to or with Possibility to be communicable with, cooperate with, interleave, juxtapose, be proximate to, Is large or be bound to or with, have, have a property of, etc .;
- controller means any device, system, or portion thereof that controls at least one operation, wherein the device is hardware, firmware or software, or some combination of at least two of the hardware, firmware or software.
- FIG. 1 is a view schematically showing an example of a method for transmitting and receiving image information associated with a first vehicle in a communication system according to an embodiment of the present invention
- FIG. 2a schematically illustrates an internal structure of a terminal in a communication system according to an embodiment of the present invention
- 2B schematically illustrates an internal structure of an electronic device mounted in a vehicle in a communication system according to an embodiment of the present disclosure
- 6 to 14C are schematic views illustrating examples of a method of sharing image information related to a first vehicle in a communication system according to various embodiments of the present disclosure
- 5A, and 5B schematically illustrate a method of selecting image information of a first vehicle by a second terminal of a second vehicle in a communication system according to an embodiment of the present disclosure
- 15 is a view schematically illustrating an integrated image according to an embodiment of the present invention.
- first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
- first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
- an electronic device may include a communication function.
- the electronic device may include a smart phone, a tablet personal computer (PC), a mobile phone, a video phone, and an e-book reader (e).
- -book reader desktop PC, laptop PC, netbook PC, personal digital assistant (PDA), portable Portable multimedia player (PMP, hereinafter referred to as 'PMP'), MP3 player, mobile medical device, camera, wearable device (e.g., head-mounted) Head-mounted device (HMD), for example referred to as 'HMD', electronic clothing, electronic bracelet, electronic necklace, electronic accessory, electronic tattoo, or smart watch ), Etc.
- the electronic device may be a smart home appliance having a communication function.
- the smart home appliance includes a television, a digital video disk (DVD) player, an audio, a refrigerator, an air conditioner, a vacuum cleaner, an oven, and micro-wave oven, a washer and dryer, and air purifier, set-top box (set-top box) and, TV box (For example, Samsung HomeSync TM, Apple TV TM , or Google TV TM) and game console (gaming console), electronic dictionary, camcorder, electronic photo frame, and so on.
- DVD digital video disk
- an electronic device may be a medical device (eg, magnetic resonance angiography (MRA) device) and magnetic resonance imaging.
- MRA magnetic resonance angiography
- MRI magnetic resonance angiography
- CT computed tomography
- EDR event data recorder
- FDR flight data (flight data).
- 'FER' a motor vehicle infotainment device
- a navigational electronic device e.g., a navigational navigation device, a gyroscope, Or a compass
- avionics device security device, industrial or consumer robot.
- an electronic device includes a furniture, a part of a building / structure, an electronic board, an electronic signature receiving device, a projector, and various measurement devices (eg, Water, electricity, gas or electromagnetic wave measuring devices) and the like.
- various measurement devices eg, Water, electricity, gas or electromagnetic wave measuring devices
- the electronic device may be a combination of devices as described above.
- the electronic device according to the preferred embodiments of the present invention is not limited to the device as described above.
- One embodiment of the present invention proposes a method and apparatus for sharing image information in a communication system.
- an embodiment of the present invention proposes a method and apparatus for efficiently sharing image information related to a vehicle in a communication system supporting a vehicle to vehicle (V2V) method (hereinafter, referred to as "V2V"). do.
- V2V vehicle to vehicle
- an embodiment of the present invention proposes a method and apparatus for sharing image information related to an accident vehicle between vehicles in a communication system supporting a V2V scheme.
- an embodiment of the present invention proposes a method and apparatus for sharing image information for preventing accidents between vehicles in a communication system supporting a V2V scheme.
- a terminal may be referred to as a user equipment (UE), a device, or a mobile station (MS). ), Mobile device, subscriber station, and the like.
- UE user equipment
- MS mobile station
- Mobile device subscriber station
- an apparatus and method proposed in an embodiment of the present invention include a long-term evolution (LTE) mobile communication system and a long-term evolution-advanced (long-term evolution).
- LTE-A long-term evolution
- LAA licensed-assisted access
- LAA licensed-assisted access
- HSDPA high speed downlink packet access
- HSUPA high speed uplink packet access
- HRPD High rate packet data (HRPD) of the mobile communication system and 3rd generation partnership project 2: 3GPP2 (hereinafter referred to as "3GPP2").
- EPS Institute of Electrical and Electronics Engineers
- Mobile IP mobile internet protocol
- DMB digital multimedia broadcasting
- DVP-H digital video broadcasting-handheld
- a variety of communication systems such as digital video broadcasting systems such as “IPTV” services, and moving picture experts group (MPEG) media transport (MPT) systems; Applicable to
- the “first vehicle” may be a vehicle accident while driving on a road or stopping, or various vehicle-related accidents are expected while driving or stopping.
- At least one vehicle to which a terminal of a user who requests image information related to the first vehicle is attached to a vehicle, an external server, or a closed circuit television (CCTV).
- CCTV closed circuit television
- the second vehicle receives a request for the image information from the terminal, the first vehicle, an external server, a CCTV, or the like while driving or stopping at a distance adjacent to the first vehicle, the second vehicle is used by the second vehicle.
- At least one neighboring vehicle to which the terminal of the other user who provides image information related to the first vehicle based on the photographed driving image is attached.
- Terminal is a terminal used by the user of the first vehicle and the second vehicle, the terminal is an application for transmitting and receiving image information associated with the first vehicle through wireless or wired communication according to embodiments of the present invention to be described later
- the various smart phones, tablet PCs, tablets, laptop computers, laptop computers, etc., which are installed in the vehicle, as well as mounted on the vehicle can take images from the outside of the vehicle, the black box, navigation, An electronic device mounted in a vehicle can be used.
- the “wireless communication” refers to V2V communication, vehicle to infrastructure (V2I) communication, vehicle to pedestrian (V2P) (V2P). Communication, Device to Device (D2D) (hereinafter referred to as “D2D”) Communication, Wi-Fi (hereinafter referred to as "Wi-Fi”) Communication, Bluetooth, Low Power Bluetooth (Bluetooth Low Energy: BLE, hereinafter referred to as "BLE”), near field communication (NFC: referred to as "NFC”), Zigbee, Z-wave, infrared communication (IrDA: LTE, LTE-A, CDMA, WCDMA, and universal mobile telephony communication systems, as well as various short-range wireless communication methods capable of transmitting and receiving image information within a short distance such as infrared data association, hereinafter referred to as " IrDA” (UMTS: universal mobile telecommunications system, this "WiBro”, WiBro (WiBro), Global System for Mobile Communications (GSM), Various cellular wireless communication methods such
- the V2V communication may use a near field communication method such as a dedicated short-range communication (DSRC) method and a cellular radio communication method such as LTE-V2V.
- a near field communication method such as a dedicated short-range communication (DSRC) method
- a cellular radio communication method such as LTE-V2V.
- the "wired communication" may use a communication using a cable.
- the cable may use a USB cable.
- CCTV is a closed circuit TV including a camera installed on a road and capable of capturing driving images of a vehicle, and a communication interface using the wireless communication.
- the CCTV may transmit and receive image information with the terminal or an external server.
- the "accident message” is a terminal that detects a physical collision (ie, accident) of the vehicle due to various causes such as a traffic accident or landslide, rockfall, road condition, or predicts a dangerous situation of the vehicle before the accident occurs. Is a message informing the occurrence of the accident or dangerous situation.
- the “movement path” is a movement path of the terminal or a vehicle connected to the terminal, and includes time-specific location information of the terminal or the vehicle. That is, the movement route may use information that records the location of the terminal or the vehicle connected to the terminal at a specific time (any date, any time).
- the location information for each time records the location information for each time counted by the terminal or time counted by the vehicle.
- the time-specific location information may be recorded at predetermined time intervals (for example, every few seconds) or may be determined differently at a time interval for recording the time-specific location information according to the speed of the vehicle. If the speed is faster than the reference speed, the recording time interval can be made shorter. If the speed of the vehicle is slower than the reference speed, the recording time interval can be made longer.
- the time interval can be set in various ways.
- the time-specific location information may further include time-specific lane information of the vehicle.
- the location information may indicate the location of the vehicle connected to the terminal or the terminal, such as latitude, longitude, altitude, speed, GPS information, driving road, coordinate values, driving lane, driving direction (heading) of the vehicle At least one piece of information can be used.
- the location information may use a variety of information that may indicate the location of the vehicle in addition to the above-described information.
- the location information is a lidar mounted on the terminal or the vehicle (Lidar, hereinafter referred to as "Lidar"), radar (hereinafter referred to as "Radar”), global positioning system (GPS) Location information measured using a module, an inertia measurement unit (IMU: IMU), an inertial sensor, an odometer, a camera, or the like.
- the position information may be recognized based on the measured information.
- the location information may use the location information of the vehicle recognized by comparing the surface reflectance in the map stored as the Lidar information.
- the location information "run image" to use the information received from the external server means the image taken through the terminal or the vehicle corresponding to the moving path of the vehicle
- image information is the second vehicle Means image information related to the first vehicle photographed through the terminal or the CCTV, and is based on a distance between the first vehicle and the second vehicle, the direction of the second vehicle with respect to the first vehicle, and the like. Image information of the first vehicle selected from driving images of two vehicles is photographed.
- the “integrated image” refers to an image obtained by synthesizing a plurality of pieces of image information so that image information related to the first vehicle may be identified at various viewing angles.
- the plurality of image information may be synthesized by, for example, time, location, and the like. Since the integrated image may be synthesized by time, position, etc. when the image is captured, the integrated image may identify image information related to a vehicle at various viewing angles.
- Embodiments of the present invention to be described below will be described by illustrating a method and apparatus for sharing image information related to a first vehicle when a traffic accident occurs between vehicles for convenience of description.
- the situation to which the present invention can be applied is not limited to a traffic accident, and may be applied in the same manner even when the dangerous situation is notified before the accident occurs.
- the present invention can be applied to sharing image information for safe driving between vehicles.
- the present invention can be applied to a case of avoiding an object that may cause an accident on a road or to prevent a risk of a subsequent vehicle in case of a landslide or a rockfall.
- the image information transmission and reception method of the present invention can be applied to the same or similar method to a vehicle, as well as a variety of transportation means that operate according to a predetermined movement path, such as ships, aircraft.
- FIG. 1 is a diagram schematically illustrating an example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- a traffic accident is issued when the first vehicle 10 collides with another vehicle 20 while driving. It is assumed that the second vehicle 30 is driving at an adjacent distance from which an accident image of the first vehicle 10 may be photographed. Terminals of the user of the first vehicle 10 and the second vehicle 30 respectively photograph and store the driving image of the vehicle, and record and store the movement route according to the driving of the vehicle.
- the first vehicle 10 detects a physical collision of the first vehicle 10 through a collision sensor mounted on the electronic device of the first vehicle 10 when an accident occurs due to the aforementioned various causes. Then, the terminal of the first vehicle 10 receives an accident message notifying the occurrence of the accident from the first vehicle 10.
- the terminal of the first vehicle 10 requests image information related to the movement path of the first vehicle 10 from the second vehicle 30 through wireless communication.
- the terminal of the second vehicle 30 that has received the image information request receives the driving image of the second vehicle 30 based on at least one of a distance, a direction, and whether the terminal is located on the same road as the first vehicle 10.
- Image information related to the movement path of the first vehicle 10 is selected, and the selected image is transmitted to the terminal of the first vehicle 10 through wireless communication.
- Information that can be used as the basis for the terminal of the second vehicle 30 to select the image information related to the movement route of the first vehicle 10 Is an example, and other information may be used.
- the first vehicle 10 may easily receive image information about the first vehicle 10 from the second vehicle 30 when a traffic accident occurs.
- FIG 1 illustrates an example in which the first vehicle 10 requests image information from the second vehicle 30 for convenience of description, and the second vehicle 10 also provides image information to the other vehicle 20. You can request The other vehicle 20 may also request image information from the second vehicle 30 or the first vehicle 10 in the same manner.
- FIG. 1 illustrates an example of a method of sharing image information related to a first vehicle in a communication system according to an embodiment of the present invention.
- a communication system according to an embodiment of the present invention will be described with reference to FIG. 2A.
- the internal structure of the terminal will be described.
- FIG. 2A is a diagram schematically illustrating an internal structure of a terminal in a communication system according to an embodiment of the present invention.
- the terminal includes a control unit 210, a cellular mobile communication module 220, a sub communication module 230, a multimedia module 240, a camera module 250, a position measurement module 260, and a sensor module ( 270, input / output module 280, storage 290, and display 295.
- the cellular communication module 220 includes at least one of various communication interfaces for cellular communication illustrated in the introduction of the detailed description.
- the short range communication module 230 includes at least one of communication interfaces for various short range communications illustrated in the introduction of the detailed description.
- the terminal illustrated in FIG. 2A may communicate with surrounding vehicles, road facilities such as CCTV, an external server, and the like through the cellular communication module 220 or the short-range communication module 230 to transmit and receive image information related to the vehicle.
- Messages such as voice calls, video calls, short messaging service (SMS), or multimedia messaging service (MMS, hereinafter referred to as "MMS") messages. Can communicate.
- SMS short messaging service
- MMS multimedia messaging service
- the terminal illustrated in FIG. 2A transmits / receives a radio signal including short data such as various control information for controlling an application through the cellular communication module 220 or the short range communication module 230. can do.
- the application is configured to include program codes for performing an operation of transmitting and receiving the image information associated with the first vehicle according to at least one method of embodiments to be described later.
- the position measuring module 260 may be a variety of Lidar, radar, GPS module, IMU, odometer, camera, etc., which may be used for measuring time-specific position information included in a moving path of a vehicle as described above. It may include at least one of the position measuring devices. In FIG.
- the multimedia module 240 includes at least one of the broadcast communication module 240-1, the audio play module 240-1, and the video play module 240-3.
- the camera module 250 includes at least one camera and captures a driving image of the vehicle under the control of the controller 210.
- the input / output module 280 may include a button 280-1, a microphone 280-2, a speaker 280-3, a vibration motor 280-4, a connector 280-5 for performing various functions, and It includes at least one of the keypad (280-6).
- the connector 280-5 may include a communication interface between the terminal for the connected car and the vehicle.
- the control unit 210 temporarily stores a CPU 210-1, a ROM 210-2 in which a control program for controlling a terminal is stored, and a signal or data input from the outside, or a memory for a task performed in the terminal.
- RAM 210-3 used as an area, and controls other components of the terminal.
- controller 210 may connect to the Internet at a place where a wireless access point (AP) (not shown) is installed through the cellular communication module 220 or the short-range communication module 230.
- AP wireless access point
- an external server such as a cloud server connected to the Internet (or a dedicated network) or a server of a traffic control center may be used.
- the cloud server may use a data storage server used (subscribed) by a vehicle (or a terminal associated with the vehicle).
- the external server may also perform an image regeneration operation such as upscaling or downscaling the resolution of the image information.
- the external server may reproduce the image information received through the terminal or CCTV as a high resolution or low resolution image and provide it on the web or provide the terminal or another server.
- the external server may generate an integrated image by synthesizing the received at least one image information, and may be implemented with a function of correcting the image information so that the image of the vehicle to be photographed can be accurately seen.
- the display 295 is controlled by various controllers (eg, "vehicle application”) for transmitting and receiving the image information related to the first vehicle (hereinafter, “vehicle application”) under the control of the controller 210.
- Information of data transmission, broadcasting, camera, etc.) can be displayed.
- the display 295 may include a touch screen that provides a user interface for operation of each application by a touch input method.
- the controller 210 may select a soft key displayed on the touch screen in response to a user gesture detected on the touch screen, or execute a corresponding application or a related function corresponding to the soft key.
- the user gesture includes a touch by a finger or an instrument, a motion recognition by a human body, and the like.
- the vehicle application is installed in the ROM 210-2 or the storage unit 290.
- the vehicle application is executed according to a user's key input, a touch input, or a gesture input using an acceleration sensor or a gyro sensor.
- a user interface screen for transmitting and receiving image information may be provided.
- the controller 210 controls an operation of generating at least one of a driving image, a movement route, image information related to a first vehicle, and a combination of a plurality of image information according to an operation routine of the vehicle application.
- 290 may store at least one image information of the generated driving image, movement route, image information related to the first vehicle, and integrated image.
- Each vehicle using the vehicle application can also be distinguished using unique identification information.
- at least one terminal of the at least one first vehicle may transmit and receive image information related to the at least one first vehicle by using the identification information with at least one terminal of the at least one second vehicle.
- the terminal of FIG. 2A may be implemented by including a controller for controlling the operation of transmitting and receiving the image information and a transceiver for transmitting and receiving data according to embodiments to be described later.
- FIG. 2A illustrates that the terminal includes the controller 210, the cellular mobile communication module 220, the sub communication module 230, the multimedia module 240, the camera module 250, the position measuring module 260, and the sensor module. 270, an input / output module 280, a storage unit 290, and a display 295 are illustrated as being implemented in separate units.
- the terminal includes the control unit 210 and cellular mobile communication.
- at least two of the display 295 and the display 295 may be integrated.
- the terminal may be implemented with at least one processor, of course. That is, the terminal may be implemented in a form including at least one of the modules shown in FIG. 2a.
- FIG. 2A illustrates an internal structure of a terminal in a communication system according to an embodiment of the present disclosure.
- an internal structure of an electronic device mounted in a vehicle in the communication system according to an embodiment of the present disclosure will be described with reference to FIG. 2B. This will be described.
- FIG. 2B is a diagram schematically illustrating an internal structure of an electronic device mounted in a vehicle in a communication system according to an embodiment of the present disclosure.
- the electronic device includes a controller 21 for performing overall control in relation to driving of the vehicle, a collision sensor 23 for detecting a physical collision with the vehicle, and the terminal and the electronic device of FIG. 2A.
- Communication unit 25 for wireless or wired communication between.
- the controller 21 may be implemented in an ECU (electronic control unit) mounted in a vehicle.
- the communication unit 25 may use at least one communication scheme for various wireless or wired communication illustrated in the introduction of the detailed description.
- the collision sensor 23 detects a physical collision of the vehicle, the collision sensor 23 notifies the controller 21 of the collision. In this case, the collision sensor 23 may notify the collision occurrence when the acceleration value or the pressure of the vehicle is greater than or equal to a predetermined value.
- the collision sensor 23 reads the acceleration value of the vehicle at a predetermined cycle and detects that the collision has occurred when the pressure applied to the vehicle or the accelerometer collision sensor that detects that the collision has occurred is more than the predetermined pressure. Pressure sensors, such as a sensor, can be used.
- FIG. 2B illustrates one of the collision sensors 23 for convenience, a plurality of collision sensors may be installed on the front, side, and rear of the vehicle.
- a plurality of collision sensors may be installed on the front, side, and rear of the vehicle.
- an accelerometer collision sensor and a pressure sensor when a plurality of collision sensors are installed, it is also possible to use an accelerometer collision sensor and a pressure sensor.
- FIG. 2B when a signal for detecting a physical collision of the vehicle is received from the collision sensor 23, the controller 21 transmits the above-mentioned accident message through the communication unit 25, and the terminal of FIG. 2A is illustrated in FIG. 2B.
- the accident message is received from the electronic device, it is determined that an accident has occurred due to a physical collision such as a traffic accident, and communicates with the terminal of the second vehicle to transmit and receive image information.
- the accident message may be used by the control unit 21 that predicts the dangerous situation of the vehicle due to various causes such as landslide, rockfall, road condition, etc. to notify the terminal of the dangerous situation.
- the controller 21 may transmit an accident message informing the terminal of the dangerous situation.
- the controller 21 may include a function of detecting a dangerous situation before a physical collision occurs when road surface conditions (eg, slippage, vibration, etc.), landslides, and rockfalls through a camera are identified. Can be.
- FIG 2A illustrates an example in which the electronic device is implemented as separate units such as the controller 21, the collision sensor 23, and the communication unit 25, the electronic device may include the controller 21. At least two of the collision sensor 23 and the communication unit 25 may be implemented in an integrated form.
- the electronic device may be implemented with at least one processor. That is, the electronic device may be implemented in a form including at least one of the modules illustrated in FIG. 2B.
- FIG. 2B an internal structure of an electronic device mounted in a vehicle in the communication system according to an embodiment of the present disclosure has been described.
- FIG. 3 the first vehicle and the first vehicle in the communication system according to an embodiment of the present disclosure will be described. Another example of a method of sharing related image information will be described.
- FIG. 3 is a diagram schematically illustrating another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- the first terminal 31 is a terminal of the first vehicle
- the second terminal 33 is a terminal of the second vehicle. It is assumed that the first terminal 31 is photographing the driving image. The photographing of the driving image may be selectively performed by the first terminal 31.
- a movement path for each time according to the driving of the first vehicle 31 is recorded and stored.
- the movement route includes time-specific location information according to the driving. Therefore, the movement path may be understood as time-specific location information of the corresponding terminal or vehicle.
- the location information for each time is the location of a vehicle connected to the terminal or the terminal such as latitude, longitude, altitude, speed, GPS information, driving road, coordinate value, driving lane, driving heading, etc.
- At least one piece of information may be used.
- location information for example, it is possible to identify the location of the vehicle by dividing the lanes on the same road as well as the same (or close to two-dimensional coordinates) It is possible to find out which of the two or more roads at the location the vehicle is located.
- unnecessary image information for example, if an accident occurs on a general road, a vehicle driving on an elevated road, which is close to a location in two-dimensional coordinates but cannot capture the accident, Except taken image information
- only necessary image information can be transmitted and received.
- the movement path may be recorded using the position measurement module 260 mounted on the first terminal 31 (or the first vehicle).
- the second terminal 33 also captures a driving image.
- the second terminal 33 records and stores a movement path for each time of travel.
- the photographing of the driving image may be performed using a camera of a terminal or a black box in a vehicle.
- the vehicle application of the terminal includes program codes for receiving a driving image classified by time and communicating with the black box by time or receiving image information stored with the shooting time from the black box. do.
- the first terminal 31 selects a movement route for a predetermined time from the stored movement route in operation 315.
- the selected moving path corresponds to, for example, the moving path for a predetermined time from before the accident detection.
- the first terminal 31 transmits a message for requesting image information related to the selected moving path (hereinafter, referred to as an "image information request message") through wireless communication.
- image information request message a message for requesting image information related to the selected moving path
- the congestion degree of the wireless channel it can reduce the time, cost, manpower, etc.
- the communication may use various communication methods as described above.
- the image information request message may be transmitted in the form of a broadcast message to be received by at least one second vehicle.
- the image information request message is a time when the electronic device of the first vehicle detects an accident (for example, the collision sensor 23 of the first vehicle detects a physical collision, and the detection signal is transmitted to the controller 21.
- Information of at least one of a time when the controller 21 detects an accident (hereinafter, "accident detection time"), an accident point, the selected movement route, a movement route for each time before the accident, and identification information of the first vehicle. can do.
- the accident point may be obtained from a time-specific movement path corresponding to the accident detection time.
- the selected moving path and the moving path for each time before the accident are described as separated information, the moving path for each time before the accident may be included in the selected moving path.
- the incident detection time is one example, and the incident detection time is not limited to the above example.
- the accident detection time may be in various forms such as a time corrected to approach an actual accident time in consideration of the time required for the first terminal 31 to receive an accident message after a collision is detected from the collision sensor of the vehicle. Can be set.
- the accident detection time may be a time when the prediction is made when the electronic device or the terminal of the vehicle anticipates a dangerous situation.
- the identification information of the first vehicle corresponds to a vehicle number, a telephone number of a vehicle owner, or an address of a medium access control (MAC) assigned to an electronic device of the first vehicle. Various information is available to uniquely identify the vehicle. It is also possible to use identification information of the first terminal as identification information of the first vehicle.
- the second terminal 33 After receiving the video information request message, the second terminal 33 receives information obtained from the video information request message in step 335 (for example, an accident detection time, an accident point, a selected movement path, and a movement path for each time before the accident). , At least one of identification information of the first vehicle), the distance between the first vehicle and the second vehicle, the direction in which the first vehicle identified based on the second vehicle is located, the first vehicle and the second vehicle It is determined whether at least one vehicle is located on the same road. In operation 337 and 339, the second terminal 33 transmits, to the first terminal 31, image information selected as the first vehicle is photographed from the driving image of the second vehicle according to the determination result.
- information obtained from the video information request message in step 335 for example, an accident detection time, an accident point, a selected movement path, and a movement path for each time before the accident.
- At least one of identification information of the first vehicle At least one of identification information of the first vehicle
- the distance between the first vehicle and the second vehicle the distance between the first vehicle and the second
- the first terminal 31 receiving the selected image information may determine the accident situation of the first vehicle by combining the driving image of the first vehicle and the image information received from the second vehicle in operation 323. To generate an integrated image. Operation of step 323 may be omitted.
- the driving image of the first vehicle to be synthesized may use, for example, a driving image corresponding to the movement route selected in step 315.
- the integrated image may be synthesized by time, location, etc. when the image is captured. Referring to the example of FIG. 15 for describing the integrated image, at least one area R1, R2, R3, which is divided according to a viewing angle for each photographed location, is located at one side on the screen 1510 on which the integrated image is displayed.
- FIG. 15 illustrates an embodiment, and the screen displaying the integrated image may be provided in various forms.
- the PIP screen 1530 may be provided as a separate screen instead of the screen for selecting an area corresponding to the viewing angle for each location.
- a plurality of screens may be output together to prepare a plurality of images according to the selection.
- the image information request message is transmitted.
- the driving state of the first vehicle is abnormal or an emergency state ( That is, in the case of the above-mentioned dangerous situation, it is also possible to transmit the video information request message even if no accident message is received in step 313.
- the determination of the dangerous situation may be performed by the electronic device controlling the driving of the first vehicle as described above, and the dangerous situation is determined based on the information received by the first terminal 31 from the electronic device of the first vehicle. It is also possible.
- the video information request message may be transmitted.
- FIG. 3 another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment of the present invention has been described.
- FIGS. 4 and 5A and 5B the present invention is described.
- a method of selecting image information of a first vehicle by a second terminal of a second vehicle in a communication system according to an exemplary embodiment will be described.
- FIG. 4 and 5A and 5B schematically illustrate a method of selecting image information of a first vehicle by a second terminal of a second vehicle in a communication system according to an exemplary embodiment of the present disclosure.
- the second terminal of the second vehicle illustrated in FIG. 4 selects image information of the first vehicle
- the second terminal of the second vehicle receiving the image information request message may be connected to the first vehicle. It should be noted that the method of selecting image information by determining the distance between the second vehicles and the direction of the first vehicle should be noted. In particular, it should be noted that FIG. 4 specifically illustrates operations of steps 335 and 337 of FIG. 3.
- the second terminal 33 that has received the video information request message for the first vehicle from the first terminal 31 receives the first vehicle from the received video information request message in step 403. Extract location information.
- the image information request message includes a movement route of the first vehicle, and the movement route includes location information of the first vehicle as described above.
- the location information may use at least one piece of information indicating the location of the vehicle, such as latitude, longitude, altitude, speed, GPS information, driving road, coordinate values on a map, driving lane, driving heading, etc. of the first vehicle. Can be. Therefore, the second terminal 33 may extract the location information of the first vehicle from the image information request message received from the first terminal 31.
- the second terminal 33 calculates a time-specific distance d between the first vehicle and the second vehicle using the location information of the first vehicle and the location information of the second vehicle. For example, when the GPS information of the first vehicle and the GPS information of the second vehicle are used, the distance d between the first vehicle and the second vehicle may be calculated. In operation 407, the second terminal 33 determines whether the calculated distance d satisfies the condition of Equation 1 below.
- the camera is the camera of the second vehicle.
- the calculated distance d in step 407 satisfies the condition of Equation 1, this is sufficient when using the image photographed through the second terminal 33 as image information associated with the first vehicle. Indicates an identifiable state.
- the second terminal 33 calculates a relative angle of the position of the first vehicle with respect to the second vehicle based on the driving direction information of the first vehicle included in the movement path of the first vehicle.
- the relative angle 505 of the first vehicle 51 may be calculated based on driving direction information of the first vehicle based on the driving direction D1 of the second vehicle 53.
- the second terminal 33 may determine whether the camera of the second terminal 33 has taken the first vehicle based on the relative angle 505. The second terminal 33 may determine that the first vehicle is photographed when the relative angle 505 is within a possible photographing angle range of the camera.
- reference numerals 501 and 503 denote examples of shooting angle ranges that are possible in the camera of the second terminal 33, respectively, when the camera of the second terminal 33 photographs the front side based on the driving direction D1.
- the photographing angle range is 305 to 360 degrees 501 and 0 to 55 degrees 503. That is, when the relative angle 505 is within the possible shooting angle range of the 501 or 503, the second terminal 33 may determine that the first vehicle is taken. In this case, if the first vehicle is photographed, the second terminal 33 may also determine whether the first vehicle is photographed by a camera in which direction (front, left / right side, rear, etc.). Table 1 below shows an example in which the second terminal 33 determines whether the first vehicle is photographed based on the relative angle 505.
- I_Heading refers to heading information of the first vehicle
- I_GPS refers to GPS information of the second vehicle
- Message_GPS refers to GPS information of the first vehicle
- Camera_coverage is a camera.
- distance difference means the calculated distance d between the first vehicle and the second vehicle
- Message_location means the first distance based on the driving direction of the second vehicle. 1 means the relative angle at which the vehicle is located.
- the second terminal 33 determines a time-based movement path of the first vehicle obtained from the image information request message among the driving images of the second vehicle. Select image information related to the first vehicle as a basis.
- the second terminal 33 is associated with the first vehicle. It may be determined that the image information cannot be transmitted, and the first terminal 31 may be terminated without transmitting a message indicating the transmission failure or without performing a subsequent operation for transmitting image information without transmitting a separate message.
- steps 407, 409, 411, and 415 may be omitted, and only step 405 may be performed to select only images captured during a time interval in which the calculated distance is within a predetermined distance.
- steps 409 and 411 may be omitted, and thus, only an image captured during a time interval in which the distance calculated in step 405 satisfies the condition of Equation 1 of step 407 may be selected.
- steps 405 and 407 may be omitted.
- step 407 may be omitted, and only an image captured during a time interval determined to be photographed according to steps 409, 411, and 415 may be selected as the distance calculated in step 405 is within a predetermined distance.
- steps 405 to 411 and step 415 may be omitted.
- the captured image may be selected based on the location information extracted in step 403. Since the extracted location information is time-specific location information, when the moving path of the first vehicle and the moving path of the second vehicle are close to each other within a predetermined range for a predetermined time interval, the captured location information is photographed within the predetermined range based on the extracted location information. Can be selected.
- FIG. 4 illustrates a method of selecting image information of the first vehicle by the second terminal of the second vehicle in the communication system according to an exemplary embodiment
- various modifications may be made to FIG. 4.
- steps described in FIG. 4 may overlap, occur in parallel, occur in a different order, or occur multiple times.
- FIG. 6 Another example of a method of sharing image information associated with a first vehicle in a communication system according to an embodiment of the present invention will be described.
- FIG. 6 is a diagram schematically illustrating another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- a first terminal 61 is a terminal of a first vehicle
- a second terminal 63 is a terminal of a second vehicle
- a server 65 is connected to a first vehicle from the second terminal 63.
- a cloud server that receives related video information.
- Steps 611 to 619 and steps 631 to 637 of the method for sharing image information associated with the first vehicle illustrated in FIG. 6 may be performed by sharing the image information associated with the first vehicle illustrated in FIG. 3. Since the operation is the same as the operations of steps 311 to 319, and steps 331 to 337, detailed description thereof will be omitted.
- the method of sharing image information related to the first vehicle illustrated in FIG. 6 may be related to the method of sharing image information related to the first vehicle illustrated in FIG. 3.
- the image information is completely transmitted to the first terminal because the second terminal is in a driving state or the communication environment is not suitable for transmitting the image information.
- the second terminal 63 transmits the first terminal to a predetermined server 65 for managing image information. Image information related to the vehicle may be transmitted.
- the second terminal 63 may directly transmit the image information related to the first vehicle to the server 65 regardless of whether the image information is successfully transmitted to the first terminal 61.
- the second terminal 63 may optionally transmit image information related to the first vehicle in consideration of its communication environment. For example, when the second terminal 63 is not located in the Wi-Fi zone when receiving the video information request message, the second terminal 63 temporarily waits for transmission of the video information, moves to the Wi-Fi zone, and then transmits the video information. It is also possible.
- the server 65 receives image information related to the first vehicle from the second terminal 63 and at least one image information received from the first terminal 61 or another nearby vehicle although not shown.
- an integrated image obtained by synthesizing the image information received may be generated. Operation of step 653 may be omitted.
- the vehicle application installed in each of the terminals 61 and 63 includes authentication information for connecting to the server 65 and the server 65. Information necessary for the transmission of the image information, such as the address information of the) may be set in advance.
- the image information request message transmitted by the first terminal 61 in step 617 may include address information of the server 65 as additional information.
- FIG. 6 illustrates another example of a method of sharing image information related to a first vehicle in a communication system according to an embodiment of the present invention.
- communication according to an embodiment of the present invention will be described with reference to FIG. 7.
- Another example of a method of sharing image information related to the first vehicle in the system will be described.
- FIG. 7 is a diagram schematically illustrating another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- the first terminal 71 is a terminal of the first vehicle, and the CCTV 73 is installed on a road to use the wireless communication with the camera capable of capturing driving images of the vehicles in the installation area. It is a closed circuit TV that includes a communication unit.
- the CCTV may include a controller for controlling transmission and reception of image information with the terminal or an external server and a storage unit capable of storing the driving image and / or the image information.
- the server 75 may be implemented as the cloud server that receives image information related to the first vehicle from the CCTV 73.
- Steps 711 to 717 in the method of sharing image information related to the first vehicle illustrated in FIG. 7 are performed in steps 311 to 317 in the method of sharing image information related to the first vehicle illustrated in FIG. 3. Since the operation is the same as the operation of the detailed description thereof will be omitted here.
- the image information request message transmitted in step 719 may be used as in the method of sharing image information associated with the first vehicle illustrated in FIG. 3. 2 shows a case where the signal is received by the CCTV 73 rather than the second terminal of the vehicle.
- step 733 CCTV (73) captures the driving image of the surrounding vehicles in the installation area, and stores the time-dependent movement path of the surrounding vehicles.
- the CCTV 73 determines whether the movement path of the first terminal 71 is included in the photographing area of the CCTV 73 in step 735, and the movement path. Is included in the photographing area, in operation 737, image information corresponding to the moving path of the first terminal 71 is selected from the stored images of the surrounding vehicles, and in operation 739, the selected image information is transferred to the server 75. send.
- the image information request message may include address information of the server 75 in step 719.
- information necessary for transmitting image information such as authentication information for accessing the server 75 and address information of the server 75, may be preset in the CCTV 73.
- the operation of receiving the image information and generating the integrated image by the server 75 may be performed in operations 651 and 653 of the method of sharing image information related to the first vehicle illustrated in FIG. 6. Since the same, detailed description thereof will be omitted here.
- FIG. 7 illustrates another example of a method of sharing image information associated with a first vehicle in a communication system according to an embodiment of the present disclosure.
- communication according to an embodiment of the present disclosure will be described with reference to FIG. 8.
- Another example of a method of sharing image information related to the first vehicle in the system will be described.
- FIG. 8 is a diagram schematically illustrating another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- a first terminal 81 is a terminal of a first vehicle
- a first server 83 is a server of a traffic control center
- a CCTV 83 is installed on a road to drive neighboring vehicles in the installation area.
- the CCTV 85 of FIG. 8 is also configured to transmit image information as in the CCTV 73 of FIG. 7.
- the CCTV 85 receives the image information request message from the first server 83 of the traffic control center, not the first terminal 81.
- the second server 87 is a cloud server that receives image information related to the first vehicle from the first server 83.
- operations 811 through 817 may include operations 311 through 317 of the method of sharing image information associated with the first vehicle illustrated in FIG. 3.
- the operations of steps 851 to 853 are the same as the operations of steps 731 and 733 in the method of sharing image information related to the first vehicle illustrated in FIG. Shall be.
- the image information request message transmitted in step 819 may be used as in the method of sharing image information associated with the first vehicle illustrated in FIG. 3. The case where the reception is received by the first server 83 instead of the second terminal of the two vehicles is illustrated.
- the first server 83 receiving the image information request message in step 821 of FIG. 8 selects the CCTV 85 of the photographing area based on the movement path of the first vehicle, and in step 823, the image information request message. Check the incident detection time included in the. Thereafter, in step 825, the first server 83 transmits the video information request message to the selected CCTV 85, and in step 855, 857, and 827, the video information related to the first vehicle selected from the CCTV 85 is transmitted to the traffic control center. The first server 83 is transferred to the second server 87 which is a cloud server.
- the operation of receiving the image information and generating the integrated image by the second server 87 may be performed in steps 651 and 653 of the method of sharing the image information related to the first vehicle illustrated in FIG. 6. Since the operation is the same as, detailed description thereof will be omitted here.
- FIG. 8 illustrates another example of a method of sharing image information associated with a first vehicle in a communication system according to an embodiment of the present invention.
- communication according to an embodiment of the present invention will be described with reference to FIG. 9.
- Another example of a method of sharing image information related to the first vehicle in the system will be described.
- FIG. 9 is a diagram schematically illustrating another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- a first terminal 91 is a terminal of a first vehicle
- a first server 93 is a server of a traffic control center
- a second terminal 95 is a terminal of a second vehicle
- a second server ( 97 is a cloud server that receives image information related to the first vehicle
- the first server 97 of the traffic control center communicates in a method of sharing image information related to the first vehicle shown in FIG. 9.
- the current location information of the connected vehicles can be collected.
- operations 911 to 917 may include operations 311 to 119 in the method of sharing image information associated with the first vehicle illustrated in FIG. 3. Since the operation is the same as the operation up to step 317, the detailed description thereof will be omitted.
- the image information request message transmitted in step 919.
- the first server 93 which is received by the first server 93 instead of the second terminal of the second vehicle and receives the image information request message, is based on the current location information of the vehicles collected in step 931.
- the second vehicle close to the current position of the first vehicle is selected.
- the first server 93 transmits the image information request message to the second terminal 95 of the selected second vehicle.
- the second terminal 95 receiving the image information request message selects the image information related to the first vehicle and transmits the image information to the second server 97. Operations of the remaining steps not described in the method of sharing image information related to the first vehicle illustrated in FIG. 9 are the same as those in other examples of the method of sharing image information related to the first vehicle described above. Will be omitted.
- FIG. 9 illustrates another example of a method of sharing image information associated with a first vehicle in a communication system according to an embodiment of the present invention.
- communication according to an embodiment of the present invention will be described with reference to FIG. 10.
- Another example of a method of sharing image information related to the first vehicle in the system will be described.
- FIG. 10 is a diagram schematically illustrating another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- a first terminal 101 is a terminal of a first vehicle
- a first server 103 is a server of a traffic control center
- a second terminal 105 is a terminal of a second vehicle
- a second server ( 107 is the cloud server for receiving image information related to the first vehicle.
- the first server 103 of the traffic control center may collect all the movement paths of vehicles connected to each other. That is, the first server 103 may receive and store the movement path of the vehicle from both the first terminal 101 and the second terminal 105 connected to each other.
- Steps 1011 to 1017 in the method of sharing image information related to the first vehicle illustrated in FIG. 10 are steps 311 to 317 in the method of sharing image information related to the first vehicle illustrated in FIG. 3. Since the operation is the same as the detailed description thereof will be omitted here.
- the first server 103 receives and stores all movement paths of vehicles connected to the communication.
- the first terminal 101 of the first vehicle determines its movement path. It is not necessary to transmit the included video information request message. Therefore, the image information request message transmitted from the first terminal 101 to the first server 103 in step 1019 does not include the movement path of the first vehicle and may be transmitted.
- the first server 103 receiving the image information request message selects a second vehicle that is close to a moving path of the first vehicle.
- the first server 103 transmits the image information request message to the second terminal 105 of the selected second vehicle.
- the second terminal 105 receiving the image information request message selects the image information related to the first vehicle and transmits the image information to the second server 107. Operations of the remaining steps not described in the method of sharing image information related to the first vehicle shown in FIG. 10 are the same as those in other examples of the method of sharing image information related to the first vehicle described above. Detailed description will be omitted.
- FIG. 10 illustrates another example of a method of sharing image information related to a first vehicle in a communication system according to an embodiment of the present invention.
- communication according to an embodiment of the present invention will be described with reference to FIG. 11.
- Another example of a method of sharing image information related to the first vehicle in the system will be described.
- FIG. 11 is a diagram schematically illustrating another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- the first vehicle 111 and the second vehicle 113 each include an in-vehicle electronic device that performs the same functions as the first terminal 31 and the second terminal 33. Therefore, in the method of sharing image information related to the first vehicle illustrated in FIG. 11, operations 1111 to 1121 and operations 1131 to 1137 perform an operation performed by the terminal on the in-vehicle electronic device. Except for the above, since the operations of steps 311 to 321 and the operations of steps 331 to 337 in the method of sharing image information related to the first vehicle illustrated in FIG. 3 are the same, detailed descriptions thereof will be omitted herein. do. However, in step 1113 of FIG. 11, since the electronic device of the first vehicle directly detects the occurrence of an accident, an operation of transmitting and receiving an accident message as described in step 313 of FIG. 3 is not necessary.
- FIG. 11 illustrates another example of a method of sharing image information related to a first vehicle in a communication system according to an embodiment of the present invention.
- communication according to an embodiment of the present invention will be described with reference to FIG. 12.
- Another example of a method of sharing image information related to the first vehicle in the system will be described.
- FIG. 12 is a diagram schematically illustrating another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- the first terminal 121 is a terminal of the first vehicle
- the second terminal 123 is a terminal of the second vehicle.
- the operations of steps 1211 to 1223 and the operations of steps 1231 to 1233 share the image information associated with the first vehicle illustrated in FIG. 3. Since operations of steps 311 to 323 and operations 331 to 333 of the method are basically the same, detailed descriptions thereof will be omitted herein.
- the movement path generated by the first terminal 121 in step 1215 that is, the positional information for each time of the first vehicle may correspond to the time of the first vehicle. Star lane information may be further included.
- the movement path includes a movement path before an accident during a predetermined time of the first vehicle.
- the second terminal 123 selects its own time-specific movement path corresponding to the time-specific movement path of the first terminal 121 received in operation 1219.
- the movement path of the second terminal 123 selected in step 1235 includes a previous movement path for each time period of the second vehicle.
- the second terminal 123 determines whether the photographing range is identical between the movement path before the accident of the first vehicle and the movement path of the second vehicle 123 selected in operation 1235. If the shooting ranges match, the second terminal 123 extracts the captured image corresponding to the movement path of the first vehicle from the driving image photographed in step 1231.
- the operations of steps 1235 to 1239 correspond to the operations of steps 335 and 337 described with reference to FIG. 3.
- the operation may be replaced with the operations of steps 1235 to 1239.
- the second terminal 123 may determine a road surface state (eg, a rockfall or the like) from the extracted image information (or the electronic device of the second vehicle) corresponding to the previous movement path for each time of the second vehicle selected in operation 1235.
- the movement path singularities are mapped corresponding to the location information, and in step 1243, image information including the movement path singularities is removed. 1 is transmitted to the terminal 121.
- the movement path specificity may include lane specificity.
- the second terminal 123 may transmit at least one information of a vehicle number, a vehicle color, and a vehicle size of the first vehicle to the terminal 121 together with the image information.
- FIGS. 13A to 13C illustrate another example of a method of sharing image information related to a first vehicle in a communication system according to an embodiment of the present invention.
- FIGS. 13A to 13C are diagrams schematically illustrating still another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- FIGS. 13A, 13B, and 13C first, FIGS. 13A, 13B, and 13C are separately illustrated for convenience of illustration, but the drawings may be understood as successive drawings showing an embodiment.
- the first terminal 131 is a terminal of the first first vehicle
- the second terminal 133 is a terminal of the second first vehicle
- the third terminal 135 is a terminal of the second vehicle. It is a terminal. That is, the embodiment of FIGS. 13A to 13C illustrate a method of sharing image information when there are a plurality of first vehicles. Accordingly, in FIGS. 13A to 13C, the first and second terminals 131 and 133 and corresponding vehicles respectively correspond to the first terminal and the first vehicle in the above embodiments, and the third terminal 135 and the vehicle are respectively In the above embodiments, the second terminal corresponds to the second vehicle.
- the second vehicle when there are a plurality of first vehicles, the second vehicle simultaneously receives the image information request message from the plurality of first vehicles.
- the terminal of the second vehicle ie, the third terminal 135) may be the terminals of the first vehicle (ie, the first terminal 131 and the second terminal 133).
- steps 1311 to 1317 and operations 1331 to 1337 may include image information related to the first vehicle illustrated in FIG. 3. Since the operations of steps 311 to 317 and the operations of steps 331 to 337 in the sharing method are the same, detailed description thereof will be omitted.
- the image information request message generated from the first terminal 131 and the second terminal 133 may correspond to an accident detection time, an accident point, a moving path before the accident for a predetermined time, and the corresponding vehicle, respectively. May include identification information and the like.
- the first terminal 131, the second terminal 133, and the third terminal 135 transmit and receive image information request messages, respectively. Then, the first terminal 131 and the second terminal 133 compares the incident detection time with the incident detection time included in the image information request message received from the counterpart terminal in steps 1323 and 1341, respectively. In the present embodiment, it is assumed that the incident detection time of the second terminal 133 is faster.
- step 1343 when the second terminal 133 detects that the accident detection time is the fastest as the comparison result of step 1341, the second terminal 133 determines itself as an integrated image generating agent.
- step 1325 when the first terminal 131 compares the result of step 1323, when the incident detection time is slow, the first terminal 131 transmits the image point to which image information is transmitted (hereinafter referred to as "image information transmission point") (i.e., an integrated image generating entity). It is determined which terminal it is.
- the first terminal 131 determines the image information transmission point as the second terminal 133, and transmits the image information to the second terminal 133 in step 1327.
- the image information transmitted to the second terminal 133 may extract and transmit image information corresponding to a moving path for a predetermined time before an accident, or may transmit some image information of the extracted image information.
- the third terminal 1361 of the second vehicle may also identify accident detection times included in the image information request messages received from the first terminal 131 and the second terminal 133, respectively, It is determined that the incident detection time of the terminal 133 is faster.
- the third terminal 135 also transmits image information to the second terminal 133.
- the image information transmitted in step 1363 may include image information including movement path specificities. The movement path specificity may be optionally included. If the movement path specificity is not included, step 1361 may be omitted.
- the second terminal 133 receives the image information, and integrates the image information captured by the second terminal 133 using the image information received from the first and third terminals 131 and 133 in operation 1347. An image is generated and the integrated image is transmitted to the first terminal 131 in step 1349.
- FIGS. 14A and 14B will be described with reference to FIGS. 14A and 14B.
- Another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment will be described.
- FIG. 14A and 14B schematically illustrate still another example of a method of sharing image information associated with a first vehicle in a communication system according to an exemplary embodiment.
- FIGS. 14A and 14B although FIGS. 14A and 14B are illustrated separately for convenience of illustration, the drawings may be understood as successive drawings illustrating an embodiment.
- the first terminal 141 is a terminal of the first first vehicle
- the second terminal 143 is a terminal of the second first vehicle
- the third terminal 145 is a terminal of the second vehicle.
- the terminal and the server 147 are the above-mentioned cloud server for receiving image information related to the first vehicle. That is, the embodiments of FIGS. 14A and 14B illustrate a method of sharing image information by using a cloud server when a plurality of first vehicles are provided. Accordingly, in FIGS. 14A and 14B, the first and second terminals 141 and 143 and corresponding vehicles respectively correspond to the first terminal and the first vehicle in the above embodiments, and the third terminal 145 and the vehicle are respectively In the above embodiments, the second terminal corresponds to the second vehicle.
- step 337 the operation of step 337 is the same, a detailed description thereof will be omitted.
- the first terminal 141 and the second terminal 143 respectively transmit a video information request message.
- the image information request message may include an accident detection time and address information and authentication information for accessing the server 147.
- the video information request message generated from the first terminal 141 and the second terminal 143 respectively, detects the accident detection time of the vehicle, the accident point, the movement route before the accident for a predetermined time, and identification information of the vehicle, etc. It may include.
- the first terminal 141 and the second terminal 143 compares the accident detection time between each other. In the present embodiment, it is assumed that the incident detection time of the second terminal 143 is faster.
- the third terminal 145 of the second vehicle also checks the incident detection time from the image information request messages received from the first terminal 141 and the second terminal 143, respectively, and detects the accident of the second terminal 143. I think the time is faster.
- the first terminal 141 may determine the storage point of the image information as the server 147, and broadcast a message indicating that the storage point of the image information is the server 147 in step 1423. . Operations of steps 1421 and 1423 may be omitted.
- the third terminal 145 selects image information to be transmitted, determines the transmission point as the server 147, and transmits the image information to the server 147 in operation 1461.
- Certain aspects of the present invention may also be embodied as computer readable code on a computer readable recording medium.
- a computer readable recording medium is any data storage device capable of storing data that can be read by a computer system. Examples of the computer readable recording medium include read-only memory (ROM), random-access memory (RAM), CD-ROMs, magnetic tapes, Floppy disks, optical data storage devices, and carrier waves (such as data transmission over the Internet).
- the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
- functional programs, code, and code segments for achieving the present invention can be easily interpreted by those skilled in the art to which the present invention is applied.
- any such software may be, for example, volatile or nonvolatile storage, such as a storage device such as a ROM, whether or not removable or rewritable, or a memory such as, for example, a RAM, a memory chip, a device or an integrated circuit. Or, for example, CD or DVD, magnetic disk or magnetic tape and the like can be stored in a storage medium that is optically or magnetically recordable and simultaneously readable by a machine (eg computer).
- a machine eg computer
- the method according to an embodiment of the present invention may be implemented by a computer or a portable terminal including a control unit and a memory, wherein the memory is suitable for storing a program or programs including instructions for implementing embodiments of the present invention. It will be appreciated that this is an example of a machine-readable storage medium.
- the present invention includes a program comprising code for implementing the apparatus or method described in any claim herein and a storage medium readable by a machine (such as a computer) storing such a program.
- a machine such as a computer
- such a program can be transferred electronically through any medium, such as a communication signal transmitted over a wired or wireless connection, and the invention suitably includes equivalents thereof.
- the apparatus may receive and store the program from a program providing apparatus connected by wire or wirelessly.
- the program providing apparatus includes a memory for storing a program including instructions for causing the program processing apparatus to perform a preset content protection method, information necessary for the content protection method, and wired or wireless communication with the graphic processing apparatus.
- a communication unit for performing and a control unit for automatically transmitting the program or the corresponding program to the request or the graphics processing unit.
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 통신 시스템에서 제1 차량과 통신이 연결되어 있는 제1 단말이 제2 차량의 주행 영상을 공유하는 방법에 있어서, 상기 제1 차량의 시간 별 이동 경로를 저장하는 단계와, 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하는 단계와, 상기 제1 메시지를 수신한 경우, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하는 단계와, 상기 제2 차량의 상기 주행 영상 중 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 단계를 포함한다.
Description
본 발명은 통신 시스템에서 영상 정보를 공유하는 방법 및 장치에 관한 것으로서, 특히 차량 대 차량(vehicle to vehicle: V2V, 이하 "V2V"라 칭하기로 한다) 방식을 지원하는 통신 시스템에서 차량과 관련된 영상 정보를 공유하는 방법 및 장치에 대한 것이다.
통신 기술의 발전에 따라 도로에서 주행하는 차량 들간에 통신 네트워크를 구현할 수 있는 다양한 연구가 진행 중이다. 차량을 이용한 통신 기술의 일 예로 미합중국 교통당국에서 2016 년에 적용 예정인 V2V 통신이 있다. 상기 V2V 통신은 무선 통신을 이용하여 차량들 간의 안전한 주행을 위한 차량 정보를 송수신할 수 있도록 제안된 통신 기술이다. 상기 차량 정보는 예를 들어 차량의 위치, 속도, 브레이크 상태, 차량 크기 등의 정보를 포함할 수 있으며, 주행 중인 인접한 차량 들은 주기적으로 상기 차량 정보를 포함하는 메시지를 교환하여 교통 사고를 예방하는데 활용할 수 있다.
한편 교통 사고가 발생된 차량의 경우, 그 차량 내 탑재된 블랙 박스 등의 주행 영상 기록 장치를 이용하여 교통 사고 발생 시 촬영된 영상 정보를 확인할 수 있다. 그러나 상기 블랙 박스 등을 통해 촬영된 영상만으로는 정확한 사고 원인 및 과실 유무의 판단에 어려움이 있다. 또한 사용자의 차량에 인접한 주변 차량의 블랙 박스를 통해 촬영된 영상 또한 사고 원인 및 과실 유무의 판단에 도움이 될 수 있으나, 상기 주변 차량은 교통 사고 직후 대부분 그 사고 현장을 벗어난 상태이므로 상기 주변 차량의 블랙 박스를 통해 촬영된 영상은 획득하기 어려운 것이 현실이다. 따라서 교통 사고 발생 시 사고 원인 파악을 위해 또는 각종 사고 발생 전에 사고 예방을 위해 사용자의 차량 주변에서 촬영된 영상을 보다 용이하게 획득하기 위한 방안이 요구된다.
한편, 상기와 같은 정보는 본 발명의 이해를 돕기 위한 백그라운드(background) 정보로서만 제시될 뿐이다. 상기 내용 중 어느 것이라도 본 발명에 관한 종래 기술로서 적용 가능할지 여부에 관해, 어떤 결정도 이루어지지 않았고, 또한 어떤 주장도 이루어지지 않는다.
본 발명의 일 실시예는 통신 시스템에서 영상 정보를 공유하는 방법 및 장치를 제안한다.
또한, 본 발명의 일 실시예는 V2V 방식을 지원하는 통신 시스템에서 차량과 관련된 영상 정보를 효율적으로 공유하는 방법 및 장치를 제안한다.
또한, 본 발명의 일 실시예는 V2V 방식을 지원하는 통신 시스템에서 차량들 간에 사고 차량과 관련된 영상 정보를 공유하는 방법 및 장치를 제안한다.
또한, 본 발명의 일 실시예는 V2V 방식을 지원하는 통신 시스템에서 차량들 간에 사고 예방을 위해 영상 정보를 공유하는 방법 및 장치를 제안한다.
본 발명의 일 실시 예에서 제안하는 방법은, 통신 시스템에서 제1 차량과 통신이 연결되어 있는 제1 단말이 제2 차량의 주행 영상을 공유하는 방법에 있어서, 상기 제1 차량의 시간 별 이동 경로를 저장하는 단계와, 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하는 단계와, 상기 제1 메시지를 수신한 경우, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하는 단계와, 상기 제2 차량의 상기 주행 영상 중 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 단계를 포함한다.
또한, 본 발명의 일 실시 예에서 제안하는 장치는, 주변 차량의 주행 영상을 공유하는 단말에 있어서, 상기 단말과 통신이 연결되어 있는 제1 차량의 시간 별 이동 경로를 저장하고, 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하며, 상기 제1 메시지를 수신한 경우, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하고, 상기 주변 차량인 제2 차량의 상기 주행 영상 중 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 적어도 하나의 프로세서를 포함한다.
또한, 본 발명의 일 실시 예에서 제안하는 다른 방법은, 통신 시스템에서 제2 차량과 통신이 연결되어 있는 제2 단말이 제1 차량과 통신이 연결되어 있는 제1 단말과 주행 영상을 공유하는 방법은, 상기 제1 단말이 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신한 경우, 상기 제1 단말로부터 상기 제2 차량의 상기 주행 영상 중 상기 제1 차량의 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 수신하는 단계와, 상기 주행 영상 중 상기 제1 이동 경로를 기반으로 선택된 상기 영상 정보를 송신하는 단계를 포함한다.
또한, 본 발명의 일 실시 예에서 제안하는 다른 장치는, 제1 차량과 통신이 연결되어 있는 제1 단말과 주행 영상을 공유하는 제2 차량과 통신이 연결되어 있는 단말은, 상기 제1 단말이 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신한 경우, 상기 제1 단말로부터 상기 제2 차량의 상기 주행 영상 중 상기 제1 차량의 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 수신하고, 상기 주행 영상 중 상기 제1 이동 경로를 기반으로 선택된 상기 영상 정보를 송신하는 적어도 하나의 프로세서를 포함한다.
본 발명의 다른 측면들과, 이득들 및 핵심적인 특징들은 부가 도면들과 함께 처리되고, 본 발명의 바람직한 실시예들을 개시하는, 하기의 구체적인 설명으로부터 해당 기술 분야의 당업자에게 자명할 것이다.
하기의 본 개시의 구체적인 설명 부분을 처리하기 전에, 이 특허 문서를 통해 사용되는 특정 단어들 및 구문들에 대한 정의들을 설정하는 것이 효과적일 수 있다: 상기 용어들 "포함하다(include)" 및 "포함하다(comprise)"와 그 파생어들은 한정없는 포함을 의미하며; 상기 용어 "혹은(or)"은 포괄적이고, "및/또는"을 의미하고; 상기 구문들 "~와 연관되는(associated with)" 및 "~와 연관되는(associated therewith)"과 그 파생어들은 포함하고(include), ~내에 포함되고(be included within), ~와 서로 연결되고(interconnect with), 포함하고(contain), ~내에 포함되고(be contained within), ~에 연결하거나 혹은 ~와 연결하고(connect to or with), ~에 연결하거나 혹은 ~와 연결하고(couple to or with), ~와 통신 가능하고(be communicable with), ~와 협조하고(cooperate with), 인터리빙하고(interleave), 병치하고(juxtapose), ~로 가장 근접하고(be proximate to), ~로 ~할 가능성이 크거나 혹은 ~와 ~할 가능성이 크고(be bound to or with), 가지고(have), 소유하고(have a property of) 등과 같은 내용을 의미하고; 상기 용어 "제어기"는 적어도 하나의 동작을 제어하는 임의의 디바이스, 시스템, 혹은 그 부분을 의미하고, 상기와 같은 디바이스는 하드웨어, 펌웨어 혹은 소프트웨어, 혹은 상기 하드웨어, 펌웨어 혹은 소프트웨어 중 적어도 2개의 몇몇 조합에서 구현될 수 있다. 어떤 특정 제어기와 연관되는 기능성이라도 집중화되거나 혹은 분산될 수 있으며, 국부적이거나 원격적일 수도 있다는 것에 주의해야만 할 것이다. 특정 단어들 및 구문들에 대한 정의들은 이 특허 문서에 걸쳐 제공되고, 해당 기술 분야의 당업자는 많은 경우, 대부분의 경우가 아니라고 해도, 상기와 같은 정의들이 종래 뿐만 아니라 상기와 같이 정의된 단어들 및 구문들의 미래의 사용들에도 적용된다는 것을 이해해야만 할 것이다.
본 발명의 특정한 바람직한 실시예들의 상기에서 설명한 바와 같은 또한 다른 측면들과, 특징들 및 이득들은 첨부 도면들과 함께 처리되는 하기의 설명으로부터 보다 명백하게 될 것이다:
도 1은 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 송수신하는 방법의 일 예를 개략적으로 도시한 도면,
도 2a는 본 발명의 일 실시 예에 따른 통신 시스템에서 단말의 내부 구조를 개략적으로 도시한 도면,
도 2b는 본 발명의 일 실시 예에 따른 통신 시스템에서 차량 내에 탑재되는 전자 장치의 내부 구조를 개략적으로 도시한 도면,
도 3, 도 6 내지 도 14c는 본 발명의 다양한 실시 예들에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 예들을 개략적으로 도시한 도면,
도 4, 도 5a, 및 도 5b는 본 발명의 일 실시 예에 따른 통신 시스템에서 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 방법을 개략적으로 도시한 도면,
도 15는 본 발명의 일 실시 예에 따른 통합 영상을 개략적으로 도시한 도면.
상기 도면들을 통해, 유사 참조 번호들은 동일한 혹은 유사한 엘리먼트들과, 특징들 및 구조들을 도시하기 위해 사용된다는 것에 유의해야만 한다.
첨부되는 도면들을 참조하는 하기의 상세한 설명은 청구항들 및 청구항들의 균등들로 정의되는 본 개시의 다양한 실시예들을 포괄적으로 이해하는데 있어 도움을 줄 것이다. 하기의 상세한 설명은 그 이해를 위해 다양한 특정 구체 사항들을 포함하지만, 이는 단순히 예로서만 간주될 것이다. 따라서, 해당 기술 분야의 당업자는 여기에서 설명되는 다양한 실시예들의 다양한 변경들 및 수정들이 본 개시의 범위 및 사상으로부터 벗어남이 없이 이루어질 수 있다는 것을 인식할 것이다. 또한, 공지의 기능들 및 구성들에 대한 설명은 명료성 및 간결성을 위해 생략될 수 있다.
하기의 상세한 설명 및 청구항들에서 사용되는 용어들 및 단어들은 문헌적 의미로 한정되는 것이 아니라, 단순히 발명자에 의한 본 개시의 명료하고 일관적인 이해를 가능하게 하도록 하기 위해 사용될 뿐이다. 따라서, 해당 기술 분야의 당업자들에게는 본 개시의 다양한 실시예들에 대한 하기의 상세한 설명은 단지 예시 목적만을 위해 제공되는 것이며, 첨부되는 청구항들 및 상기 청구항들의 균등들에 의해 정의되는 본 개시를 한정하기 위해 제공되는 것은 아니라는 것이 명백해야만 할 것이다.
또한, 본 명세서에서 명백하게 다른 내용을 지시하지 않는 "한"과, "상기"와 같은 단수 표현들은 복수 표현들을 포함한다는 것이 이해될 수 있을 것이다. 따라서, 일 예로, "컴포넌트 표면(component surface)"은 하나 혹은 그 이상의 컴포넌트 표현들을 포함한다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 이해되어야만 한다.
본 발명의 다양한 실시예들에 따르면, 전자 디바이스는 통신 기능을 포함할 수 있다. 일 예로, 전자 디바이스는 스마트 폰(smart phone)과, 태블릿(tablet) 개인용 컴퓨터(personal computer: PC, 이하 'PC'라 칭하기로 한다)와, 이동 전화기와, 화상 전화기와, 전자책 리더(e-book reader)와, 데스크 탑(desktop) PC와, 랩탑(laptop) PC와, 넷북(netbook) PC와, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라 칭하기로 한다)와, 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다)와, 엠피3 플레이어(mp3 player)와, 이동 의료 디바이스와, 카메라와, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다)와, 전자 의류와, 전자 팔찌와, 전자 목걸이와, 전자 앱세서리(appcessory)와, 전자 문신, 혹은 스마트 워치(smart watch) 등이 될 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 디바이스는 통신 기능을 가지는 스마트 가정용 기기(smart home appliance)가 될 수 있다. 일 예로, 상기 스마트 가정용 기기는 텔레비젼과, 디지털 비디오 디스크(digital video disk: DVD, 이하 'DVD'라 칭하기로 한다) 플레이어와, 오디오와, 냉장고와, 에어 컨디셔너와, 진공 청소기와, 오븐과, 마이크로웨이브 오븐과, 워셔와, 드라이어와, 공기 청정기와, 셋-탑 박스(set-top box)와, TV 박스 (일 예로, Samsung HomeSyncTM, Apple TVTM, 혹은 Google TVTM)와, 게임 콘솔(gaming console)과, 전자 사전과, 캠코더와, 전자 사진 프레임 등이 될 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 디바이스는 의료 기기(일 예로, 자기 공명 혈관 조영술(magnetic resonance angiography: MRA, 이하 'MRA'라 칭하기로 한다) 디바이스와, 자기 공명 화상법(magnetic resonance imaging: MRI, 이하 "MRI"라 칭하기로 한다)과, 컴퓨터 단층 촬영(computed tomography: CT, 이하 'CT'라 칭하기로 한다) 디바이스와, 촬상 디바이스, 혹은 초음파 디바이스)와, 네비게이션(navigation) 디바이스와, 전세계 위치 시스템(global positioning system: GPS, 이하 'GPS'라 칭하기로 한다) 수신기와, 사고 기록 장치(event data recorder: EDR, 이하 'EDR'이라 칭하기로 한다)와, 비행 기록 장치(flight data recorder: FDR, 이하 'FER'이라 칭하기로 한다)와, 자동차 인포테인먼트 디바이스(automotive infotainment device)와, 항해 전자 디바이스(일 예로, 항해 네비게이션 디바이스, 자이로스코프(gyroscope), 혹은 나침반)와, 항공 전자 디바이스와, 보안 디바이스와, 산업용 혹은 소비자용 로봇(robot) 등이 될 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 디바이스는 통신 기능을 포함하는, 가구와, 빌딩/구조의 일부와, 전자 보드와, 전자 서명 수신 디바이스와, 프로젝터와, 다양한 측정 디바이스들(일 예로, 물과, 전기와, 가스 혹은 전자기 파 측정 디바이스들) 등이 될 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 디바이스는 상기에서 설명한 바와 같은 디바이스들의 조합이 될 수 있다. 또한, 본 발명의 바람직한 실시예들에 따른 전자 디바이스는 상기에서 설명한 바와 같은 디바이스에 한정되는 것이 아니라는 것은 당업자에게 자명할 것이다.
본 발명의 일 실시예는 통신 시스템에서 영상 정보를 공유하는 방법 및 장치를 제안한다.
또한, 본 발명의 일 실시예는 차량 대 차량(vehicle to vehicle: V2V, 이하 "V2V"라 칭하기로 한다) 방식을 지원하는 통신 시스템에서 차량과 관련된 영상 정보를 효율적으로 공유하는 방법 및 장치를 제안한다.
또한, 본 발명의 일 실시예는 V2V 방식을 지원하는 통신 시스템에서 차량들 간에 사고 차량과 관련된 영상 정보를 공유하는 방법 및 장치를 제안한다.
또한, 본 발명의 일 실시예는 V2V 방식을 지원하는 통신 시스템에서 차량들 간에 사고 예방을 위해 영상 정보를 공유하는 방법 및 장치를 제안한다.
또한, 본 발명의 다양한 실시예들에 따르면, 단말은 사용자 단말기(user equipment: UE, 이하 "UE"라 칭하기로 한다), 디바이스, 이동 단말기(mobile station: MS, 이하 "MS"라 칭하기로 한다), 이동 디바이스, 가입자 단말기(subscriber station) 등과 같은 용어들과 혼용될 수 있다.
한편, 본 발명의 일 실시예에서 제안하는 장치 및 방법은 롱 텀 에볼루션 (long-term evolution: LTE, 이하 "LTE"라 칭하기로 한다) 이동 통신 시스템과, 롱 텀 에볼루션-어드밴스드 (long-term evolution-advanced: LTE-A, 이하 "LTE-A"라 칭하기로 한다) 이동 통신 시스템과, 인가-보조 억세스(licensed-assisted access: LAA, 이하 " LAA"라 칭하기로 한다)-LTE 이동 통신 시스템과, 고속 하향 링크 패킷 접속(high speed downlink packet access: HSDPA, 이하 "HSDPA"라 칭하기로 한다) 이동 통신 시스템과, 고속 상향 링크 패킷 접속(high speed uplink packet access: HSUPA, 이하 "HSUPA"라 칭하기로 한다) 이동 통신 시스템과, 3세대 프로젝트 파트너쉽 2(3rd generation partnership project 2: 3GPP2, 이하 "3GPP2"라 칭하기로 한다)의 고속 레이트 패킷 데이터(high rate packet data: HRPD, 이하 "HRPD"라 칭하기로 한다) 이동 통신 시스템과, 3GPP2의 광대역 코드 분할 다중 접속(wideband code division multiple access: WCDMA, 이하 "WCDMA"라 칭하기로 한다) 이동 통신 시스템과, 3GPP2의 코드 분할 다중 접속(code division multiple access: CDMA, 이하 "CDMA"라 칭하기로 한다) 이동 통신 시스템과, 국제 전기 전자 기술자 협회(institute of electrical and electronics engineers: IEEE, 이하 "IEEE"라 칭하기로 한다) 802.16m 통신 시스템과, IEEE 802.16e 통신 시스템과, 진화된 패킷 시스템(evolved packet system: EPS, 이하 "EPS"라 칭하기로 한다)과, 모바일 인터넷 프로토콜(mobile internet protocol: Mobile IP, 이하 "Mobile IP"라 칭하기로 한다) 시스템과, 디지털 멀티미디어 방송(digital multimedia broadcasting, 이하 "DMB"라 칭하기로 한다) 서비스와, 휴대용 디지털 비디오 방송(digital video broadcasting-handheld: DVP-H, 이하 "DVP-H"라 칭하기로 한다), 및 모바일/휴대용 진화된 텔레비젼 시스템 협회(advanced television systems committee-mobile/handheld: ATSC-M/H, 이하 "ATSC-M/H"라 칭하기로 한다) 서비스 등과 같은 모바일 방송 서비스와, 인터넷 프로토콜 텔레비젼(internet protocol television: IPTV, 이하 "IPTV"라 칭하기로 한다) 서비스와 같은 디지털 비디오 방송 시스템과, 엠펙 미디어 트랜스포트(moving picture experts group (MPEG) media transport: MMT, 이하 "MMT"라 칭하기로 한다) 시스템 등과 같은 다양한 통신 시스템들에 적용 가능하다.
먼저, 본 발명의 다양한 실시예들에서 사용되는 용어들에 대해서 설명하면 다음과 같다.
본 발명의 다양한 실시예들에서 "제1 차량"은 도로 등에서 주행 중이거나 또는 정차 중에 교통 사고가 발생되었거나 혹은 주행 중이거나 또는 정차 중에 각종 차량 관련 사고의 발생이 예상되어 다른 사용자의 단말, 제2 차량, 외부 서버, 또는 폐쇄 회로 텔레비젼(CCTV: Closed Circuit Television, 이하 "CCTV"라 칭하기로 한다) 등에게 상기 제1 차량과 관련된 영상 정보를 요청하는 사용자의 단말이 부착된 적어도 하나의 차량이고, "제2 차량"은 상기 제1 차량과 인접한 거리에서 주행 중 또는 정차 중에 상기 단말, 상기 제1 차량, 외부 서버, 또는 CCTV 등으로부터 상기 영상 정보의 요청을 수신한 경우, 상기 제2 차량에 의해 촬영된 주행 영상을 근거로 상기 제1 차량과 관련된 영상 정보를 제공하는 상기 다른 사용자의 단말이 부착된 적어도 하나의 주변 차량이다.
상기 단말의 기능이 차량 내에 구현된 경우, 상기 영상 정보의 요청과 제공은, 상기 제1 및 제2 차량을 통해 직접 수행될 수 있다. "단말"은 상기 제1 차량과 상기 제2 차량의 사용자가 이용하는 단말이며, 상기 단말은 후술할 본 발명의 실시 예들에 따라 무선 통신 또는 유선 통신을 통해 제1 차량과 관련된 영상 정보를 송수신하는 애플리케이션이 설치된 스마트 폰, 테블릿 PC, 패블릿, 노트북 컴퓨터, 랩 탑 컴퓨터 등의 각종 휴대 단말은 물론 차량에 탑재되어 차량 외부의 영상을 촬영할 수 있으며, 상기 애플리케이션이 설치될 수 있는 블랙 박스, 네비게이션, 차량 내 탑재된 전자 장치 등을 이용할 수 있다.
상기 "무선 통신"은 V2V 통신, 차량 대 인프라스트럭쳐(V2I: Vehicle to Infrastructure, 이하 "V2I"라 칭하기로 한다) 통신, 차량 대 보행자(V2P: Vehicle to Pedestrian, 이하 "V2P"라 칭하기로 한다) 통신, 디바이스 대 디바이스(D2D: Device to Device, 이하 "D2D"라 칭하기로 한다) 통신, 와이 파이(Wi-Fi, 이하 "Wi-Fi"라 칭하기로 한다) 통신, 블루투스(Bluetooth), 저전력 블루투스(Bluetooth Low Energy: BLE, 이하 "BLE"라 칭하기로 한다), 근거리 통신(NFC: near field communication, 이하 "NFC"라 칭하기로 한다), 지그비(Zigbee), Z-웨이브, 적외선 통신(IrDA: infrared data association, 이하 "IrDA"라 칭하기로 한다) 등과 같은 근거리 내에서 영상 정보의 송수신이 가능한 다양한 근거리 무선 통신 방식들은 물론 LTE 방식, LTE-A 방식, CDMA 방식, WCDMA 방식, 범용 이동 전화 통신 시스템(UMTS: universal mobile telecommunications system, 이하 "UMTS"라 칭하기로 한다) 방식, 와이브로(WiBro: Wireless Broadband, 이하 "WiBro"라 칭하기로 한다), 전세계 이동 통신(GSM: Global System for Mobile Communications, 이하 "GSM"이라 칭하기로 한다) 방식, LTE-D2D 방식, 또는 무선 차량 통신 방식인 LTE-V2X(Vehicle to Everything) 방식 등과 같은 각종 셀룰러 무선 통신 방식들을 이용할 수 있다.
또한 상기 V2V 통신은 전용 근거리 통신(DSRC: Dedicated Short-Range Communications, 이하 "DSRC"라 칭하기로 한다) 방식과 같은 근거리 무선 통신 방식과, LTE-V2V와 같은 셀룰러 무선 통신 방식을을 이용할 수 있다.
상기 "유선 통신"은 케이블을 이용한 통신을 이용할 수 있다. 일 예로 상기 케이블은 USB 케이블 등을 이용할 수 있다.
또한, "CCTV"는 도로 상에 설치되어 차량의 주행 영상을 촬영할 수 있는 카메라와 상기 무선 통신을 이용할 수 있는 통신 인터페이스를 포함하는 폐쇄 회로 TV이다. 상기 CCTV는 상기 단말 또는 외부 서버와 영상 정보를 송수신할 수 있다.
그리고 "사고 메시지"는 교통 사고 또는 산사태, 낙석, 도로 상태 등 다양한 원인에 의한 차량의 물리적인 충돌(즉 사고 발생)을 감지하거나 또는 사고 발생 전에 차량의 위험 상황을 예상한 제1 차량이 상기 단말에게 상기 사고 발생 또는 위험 상황을 알리는 메시지이다.
또한 본 발명의 다양한 실시예들에서 "이동 경로"는 상기 단말 또는 상기 단말과 통신 연결된 차량의 이동 경로이며, 상기 단말 또는 차량의 시간 별 위치 정보를 포함한다. 즉 상기 이동 경로는 특정 시간(어느 날짜, 어느 시간)에 상기 단말 또는 상기 단말과 통신 연결된 차량의 위치를 기록한 정보를 이용할 수 있다. 상기 시간 별 위치 정보는 상기 위치 정보를 상기 단말에서 카운트되는 시간 또는 상기 차량에서 카운트되는 시간 별로 기록한 것이다. 상기 시간 별 위치 정보는 미리 정해진 시간 간격(예를 들어, 몇 초 단위) 마다 기록하거나 또는 차량의 속도에 따라 상기 시간 별 위치 정보를 기록하는 시간 간격을 다르게 정할 수도 있다.(예를 들어, 차량의 속도가 기준 속도 보다 빠른 경우 그 기록 시간 간격을 더 짧게 하고, 차량의 속도가 기준 속도 보다 느린 경우 그 기록 시간 간격을 더 길게 할 수 있다.) 상기와 같이 차량의 시간 별 위치 정보를 기록하는 시간 간격은 다양한 방식으로 설정될 수 있다. 그리고 상기 시간 별 위치 정보는 차량의 시간 별 차선 정보를 더 포함할 수 있다.
또한 상기 위치 정보는 차량의 위도, 경도, 고도, 속도, GPS 정보, 주행 도로, 지도상 좌표 값, 주행 차선, 주행 방향(heading) 등 상기 단말 또는 상기 단말과 통신 연결된 차량의 위치를 나타낼 수 있는 적어도 하나의 정보를 이용할 수 있다. 상기 위치 정보는 상기 예시한 정보 이외에도 차량을 위치를 나타낼 수 있는 다양한 정보를 이용할 수 있다. 상기 위치 정보는 상기 단말 또는 상기 차량에 탑재된 라이다(Lidar, 이하 "Lidar"라 칭하기로 한다), 레이더(Radar, 이하 "Radar"라 칭하기로 한다), 전세계 위치 시스템(GPS: Global Positioning System, 이하 "GPS"라 칭하기로 한다) 모듈, 관성 센서인 관성 측정 유닛(IMU: Inertia Measurement Unit, 이하 "IMU"라 칭하기로 한다), 주행계(odometry), 카메라 등을 이용하여 측정된 위치 정보 또는 측정된 정보를 바탕으로 인식된 위치 정보일 수 있다.
예를 들어 상기 위치 정보는 상기 Lidar 정보로 저장된 지도 내 표면 반사율을 비교하여 인식한 차량의 위치 정보를 이용할 수 있다. 또한 상기 위치 정보는 외부 서버로부터 수신한 정보를 이용할 "주행 영상"은 상기 차량의 상기 이동 경로에 대응되게 상기 단말 또는 상기 차량을 통해 촬영된 영상을 의미하고, "영상 정보"는 상기 제2 차량의 단말 또는 상기 CCTV를 통해 촬영된 상기 제1 차량과 관련된 영상 정보를 의미하며, 제1 차량과 상기 제2 차량 간의 거리, 상기 제1 차량에 대한 상기 제2 차량의 방향 등을 근거로 상기 제2 차량의 주행 영상 중에서 선택된 상기 제1 차량이 촬영된 영상 정보이다.
그리고 "통합 영상"은 다양한 시야 각들에서 상기 제1 차량과 관련된 영상 정보를 확인할 수 있도록 다수의 영상 정보들을 합성한 영상을 의미한다. 상기 다수의 영상 정보들은 예컨대, 시간 별, 위치 별 등으로 합성될 수 있다. 상기 통합 영상은 영상이 촬영된 시간 별, 위치 별 등으로 합성될 수 있으므로 상기 통합 영상을 이용하면, 다양한 시야 각들에서 차량과 관련된 영상 정보를 확인할 수 있다.
이하 설명될 본 발명의 실시 예들은 설명의 편의를 위해, 차량들 간의 교통 사고 발생 시 제1 차량과 관련된 영상 정보를 공유하는 방법 및 장치를 예시하여 설명될 것이다. 그러나 본 발명이 적용될 수 있는 상황은 교통 사고에 한정되지 않으며, 사고 발생 전에 위험 상황을 알리는 경우에도 동일한 방식으로 적용될 수 있다. 예를 들어 본 발명은 차량들 간의 안전한 주행을 위한 영상 정보의 공유 시에도 적용될 수 있다. 그리고 도로 상에 사고를 유발할 수 있는 물체를 회피하거나, 또는 산사태, 낙석 등의 발생 시 후속 차량의 위험을 방지하기 위한 경우에도 본 발명은 적용될 수 있다. 또한 차량은 물론 선박, 항공기 등 정해진 이동 경로에 따라 운항하는 각종 교통 수단에도 본 발명의 영상 정보 송수신 방법은 동일 또는 유사한 방식으로 적용될 수 있다.
먼저, 도 1을 참조하여 본 발명의 일 실시예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 일 예에 대해서 설명하기로 한다.
도 1은 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 일 예를 개략적으로 도시한 도면이다.
도 1을 참조하면, 제1 차량(10)이 주행 중 다른 차량(20)과 충돌하여 교통 사고가 발행된 상황을 가정한다. 제1 차량(10)의 사고 영상을 촬영할 수 있는 인접 거리에는 제2 차량(30)이 주행 중임을 가정한다. 제1 차량(10)과 제2 차량(30)의 사용자의 단말은 각각 해당 차량의 상기 주행 영상을 촬영하여 저장하고, 해당 차량의 주행에 따른 상기 이동 경로를 기록하여 저장한다. 제1 차량(10)은 전술한 다양한 원인에 의한 사고 발생 시 제1 차량(10)의 전자 장치에 탑재된 충돌 센서를 통해 제1 차량(10)의 물리적인 충돌을 감지한다. 그러면 제1 차량(10)의 단말은 제1 차량(10)으로부터 사고 발생을 알리는 사고 메시지를 수신한다. 상기 제1 차량(10)의 단말은 무선 통신을 통해 제2 차량(30)에게 제1 차량(10)의 이동 경로와 관련된 영상 정보를 요청한다. 상기 영상 정보 요청을 수신한 제2 차량(30)의 단말은 제1 차량(10)과의 거리, 방향, 동일한 도로에 위치하는 지 여부 중 적어도 하나를 근거로 제2 차량(30)의 주행 영상 중 상기 제1 차량(10)의 이동 경로와 관련된 영상 정보를 선택하고, 그 선택 영상을 제1 차량(10)의 단말에게 무선 통신을 이용하여 전송한다. 상기 제2 차량(30)의 단말이 상기 제1 차량(10)의 이동 경로와 관련된 영상 정보를 선택하는데 있어서 상기 근거로 이용될 수 있는 정보(거리, 방향, 동일한 도로에 위치하는 지 여부 등)는 일 예를 나타낸 것이며, 다른 정보를 이용하는 것도 가능하다. 상기한 실시 예에 의하면, 제1 차량(10)은 교통 사고 발생 시 제2 차량(30)으로부터 용이하게 제1 차량(10)에 대한 영상 정보를 수신할 수 있다.
도 1의 실시 예는 설명의 편의상 제1 차량(10)이 제2 차량(30)에게 영상 정보를 요청하는 예를 설명한 것이며, 제2 차량(10)은 상기 다른 차량(20)에게도 영상 정보를 요청할 수 있다. 그리고 상기 다른 차량(20) 또한 동일한 방식으로 상기 제2 차량(30) 또는 상기 제1 차량(10)에게 영상 정보를 요청할 수 있음은 물론이다.
도 1에서는 본 발명의 일 실시예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 일 예에 대해서 설명하였으며, 다음으로 도 2a를 참조하여 본 발명의 일 실시예에 따른 통신 시스템에서 단말의 내부 구조에 대해서 설명하기로 한다.
도 2a는 본 발명의 일 실시 예에 따른 통신 시스템에서 단말의 내부 구조를 개략적으로 도시한 도면이다.
도 2a를 참조하면, 단말은 제어부(210), 셀룰러 이동 통신 모듈(220), 서브통신 모듈(230), 멀티미디어 모듈(240), 카메라 모듈(250), 위치 측정 모듈(260), 센서 모듈(270), 입/출력 모듈(280), 저장부(290), 및 디스플레이(295)를 포함한다. 셀룰러 통신 모듈(220)은 상세한 설명의 도입 부분에서 예시한 각종 셀룰러 통신을 위한 통신 인터페이스들 중 적어도 하나를 포함한다. 상기 근거리 통신 모듈(230)은 상세한 설명의 도입 부분에서 예시한 각종 근거리 통신을 위한 통신 인터페이스들 중 적어도 하나를 포함한다.
도 2a에 도시되어 있는 단말은 셀룰러 통신 모듈(220) 또는 근거리 통신 모듈(230)을 통해 주변 차량, CCTV 등의 도로 시설, 외부 서버 등과 통신을 수행하여 차량과 관련된 영상 정보를 송수신할 수 있으며, 음성 통화, 화상 통화, 숏 메시징 서비스(Short Messaging Service: SMS, 이하 "SMS"라 칭하기로 한다) 메시지 또는 멀티미디어 메시징 서비스(Multimedia Messaging Service: MMS, 이하 "MMS"라 칭하기로 한다) 메시지 등과 같은 메시지를 통신할 수 있다.
또한, 도 2a에 도시되어 있는 단말은 상기 셀룰러 통신 모듈(220) 또는 근거리 통신 모듈(230)를 통해 애플리케이션의 제어를 위한 각종 제어 정보 등의 작은 데이터(short data)를 포함한 무선 신호를 송/수신할 수 있다. 상기 애플리케이션은 후술할 실시 예들 중 적어도 하나의 방법에 따라 제1 차량과 관련된 상기 영상 정보를 송수신하는 동작을 수행하는 프로그램 코드들을 포함하여 구성된다. 상기 위치 측정 모듈(260)은 전술한 것처럼 차량의 이동 경로에 포함되는 시간 별 위치 정보의 측정을 위해 사용될 수 있는 Lidar, 레이더(Radar), GPS 모듈, IMU, 주행계(odometry),카메라 등 다양한 위치 측정 장치들 중 적어도 하나를 포함할 수 있다. 도 2a에서 멀티미디어 모듈(240)은 방송통신 모듈(240-1), 오디오재생 모듈(240-1) 및 동영상재생 모듈(240-3) 중 적어도 하나를 포함한다. 상기 카메라 모듈(250)은 적어도 하나의 카메라를 포함하고, 제어부(210)의 제어 하에 차량의 주행 영상을 촬영한다. 입/출력 모듈(280)은 각종 기능 수행을 위한 버튼(280-1), 마이크(280-2), 스피커(280-3), 진동모터(280-4), 커넥터(280-5), 및 키패드(280-6) 중 적어도 하나를 포함한다. 상기 커넥터(280-5)는 커넥티드 카를 위한 단말과 차량 간의 통신 인터페이스를 포함할 수 있다. 상기 제어부(210)는 CPU(210-1)와, 단말의 제어를 위한 제어 프로그램이 저장된 ROM(210-2) 및 외부로부터 입력되는 신호 또는 데이터를 일시 기억하거나, 단말에서 수행되는 작업을 위한 기억 영역으로 사용되는 RAM(210-3)을 포함하며, 단말의 다른 구성요소들을 제어한다.
또한 상기 제어부(210)는 상기 셀룰러 통신 모듈(220) 또는 근거리 통신 모듈(230)를 통해 무선 AP(access point)(도시되지 않음)가 설치된 장소에서 인터넷에 연결할 수 있다.
따라서 본 발명의 실시 예에 따른 영상 정보의 송수신 시 인터넷(또는 전용 망)과 연결된 클라우드 서버, 교통 관제 센터의 서버 등의 외부 서버를 이용할 수 있다. 상기 클라우드 서버는 차량(또는 그 차량과 관련된 단말)이 이용하는(가입한) 데이터 저장 서버를 이용할 수 있다. 상기 외부 서버는 또한 영상 정보의 해상도를 업 스케일링 또는 다운 스케일링하는 등의 영상 재생성 동작을 수행할 수 있다. 일 예로 상기 외부 서버는 단말 또는 CCTV를 통해 수신한 영상 정보를 고해상도 또는 저해상도의 영상으로 재생성하여 웹 상에서 제공하거나, 단말 또는 다른 서버에게 제공할 수 있다. 또한 상기 외부 서버는 수신한 적어도 하나의 영상 정보를 합성하여 통합 영상을 생성할 수 있으며, 촬영되는 차량의 영상이 정확하게 보일 수 있도록 영상 정보를 보정하는 기능을 탑재하여 구현될 수도 있다.
다시 도 2a의 설명으로 돌아가서, 디스플레이(295)는 제어부(210)의 제어 하에 제1 차량과 관련된 상기 영상 정보의 송수신을 위한 어플리케이션(이하, "차량 어플리케이션")을 포함한 다양한 어플리케이션(예, 통화, 데이터 전송, 방송, 카메라 등)의 정보를 표시할 수 있다. 상기 디스플레이(295)는 각 어플리케이션의 동작을 위한 사용자 인터페이스를 접촉 입력 방식으로 제공하는 터치스크린을 포함할 수 있다. 제어부(210)는 터치스크린 상에서 감지되는 사용자 제스처에 응답하여 터치스크린에 표시된 소프트 키가 선택되게 하거나 또는 소프트 키에 대응하는 해당 어플리케이션 또는 관련 기능을 실행할 수 있다. 상기 사용자 제스처는 손가락 또는 기구에 의한 터치, 인체에 의한 모션 인식 등을 포함한다. 상기 차량 어플리케이션은 ROM(210-2) 또는 저장부(290)에 설치되고, 상기 차량 어플리케이션이 실행된 경우, 사용자의 키 입력, 터치 입력, 또는 가속도 센서, 자이로 센서 등을 이용한 제스쳐 입력에 따라 상기 영상 정보의 송수신을 위한 사용자 인터페이스 화면을 제공할 수 있다.
상기 제어부(210)는 상기 차량 어플리케이션의 동작 루틴에 따라 주행 영상, 이동 경로, 제1 차량과 관련된 영상 정보, 다수의 영상 정보들을 합성한 통합 중 적어도 하나를 생성하는 동작을 제어하며, 상기 저장부(290)는 상기 생성된 주행 영상, 이동 경로, 제1 차량과 관련된 영상 정보, 통합 영상 중 적어도 하나의 영상 정보를 저장할 수 있다. 또한 상기 차량 애플리케이션을 이용하는 각 차량은 고유한 식별 정보를 이용하여 구별될 수 있다. 이 경우 적어도 하나의 제1 차량의 적어도 하나의 단말은 적어도 하나의 제2 차량의 적어도 하나의 단말과 상기 식별 정보를 이용하여 상기 적어도 하나의 제1 차량과 관련된 영상 정보를 송수신할 수 있다. 또한 도 2a의 단말은 후술할 실시 예들에 따라, 상기 영상 정보를 송수신하는 동작을 제어하는 제어기와 데이터를 송수신하는 송수신기를 포함하여 구현될 수 있다.
한편, 도 2a에는 상기 단말이 상기 제어부(210), 셀룰러 이동 통신 모듈(220), 서브통신 모듈(230), 멀티미디어 모듈(240), 카메라 모듈(250), 위치 측정 모듈(260), 센서 모듈(270), 입/출력 모듈(280), 저장부(290), 및 디스플레이(295)와 같이 별도의 유닛들로 구현된 경우가 도시되어 있으나, 상기 단말은 상기 제어부(210), 셀룰러 이동 통신 모듈(220), 서브통신 모듈(230), 멀티미디어 모듈(240), 카메라 모듈(250), 위치 측정 모듈(260), 센서 모듈(270), 입/출력 모듈(280), 저장부(290), 및 디스플레이(295) 중 적어도 두 개가 통합된 형태로 구현 가능함은 물론이다.
또한, 상기 단말은 적어도 1개의 프로세서로 구현될 수도 있음은 물론이다. 즉, 상기 단말은 도 2a에 도시되어 있는 모듈들 중 적어도 하나를 포함하는 형태로 구현될 수 있다.
도 2a에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 단말의 내부 구조에 대해서 설명하였으며, 다음으로 도 2b를 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 차량 내에 탑재되는 전자 장치의 내부 구조에 대해서 설명하기로 한다.
도 2b는 본 발명의 일 실시 예에 따른 통신 시스템에서 차량 내에 탑재되는 전자 장치의 내부 구조를 개략적으로 도시한 도면이다.
도 2b를 참조하면, 상기 전자 장치는 차량의 주행과 관련하여 전반적인 제어를 수행하는 제어부(21), 차량에 대한 물리적인 충돌을 감지하는 충돌 센서(23), 및 도 2a의 단말과 상기 전자 장치 간의 무선 또는 유선 통신을 위한 통신부(25)를 포함한다.
상기 제어부(21)는 차량 내 탑재되는 ECU(Electronic control unit) 등에 구현될 수 있다. 상기 통신부(25)는 상세한 설명의 도입 부분에서 예시한 각종 무선 또는 유선 통신을 위한 적어도 하나의 통신 방식을 이용할 수 있다. 충돌 센서(23)는 차량의 물리적인 충돌을 감지한 경우, 제어부(21)에 그 충돌 발생을 통지한다. 이때 충돌 센서(23)는 차량의 가속도 값 또는 압력이 정해진 값 이상인 경우 그 충돌 발생을 통지할 수 있다. 상기 충돌 센서(23)는 차량의 가속도 값을 일정 주기로 읽어 미리 정해진 가속도 이상인 경우 그 충돌이 발생된 것으로 감지하는 가속도계 충돌 센서 또는 차량에 가해진 압력이 정해진 압력 이상인 경우 그 충돌이 발생된 것으로 감지하는 피에조 센서 등의 압력 센서를 이용할 수 있다. 도 2b에서 상기 충돌 센서(23)는 편의상 하나를 도시하였으나, 차량의 정면, 측면, 후면 등에 다수의 충돌 센서들이 설치될 수 있다. 그리고 다수의 충돌 센서가 설치되는 경우, 가속도계 충돌 센서와 압력 센서를 혼용하는 것도 가능하다. 도 2b에서 상기 제어부(21)는 충돌 센서(23)로부터 차량의 물리적인 충돌을 감지한 신호가 수신된 경우, 통신부(25)를 통해 상기한 사고 메시지를 송신하고, 도 2a의 단말은 도 2b의 전자 장치로부터 상기 사고 메시지를 수신한 경우, 교통 사고 등의 물리적인 충돌에 의한 사고가 발생된 것으로 판단하고, 영상 정보 송수신을 위해 제2 차량의 단말과 통신을 수행한다. 또한 상기 사고 메시지는 산사태, 낙석, 도로 상태 등 다양한 원인에 의한 차량의 위험 상황을 예상한 제어부(21)가 그 위험 상황을 단말에게 알리기 위해 이용될 수 있다. 이 경우 충돌 센서(23)로부터 차량의 물리적인 충돌의 감지가 없더라도 제어부(21)는 단말에게 그 위험 상황을 알리는 사고 메시지를 전송할 수 있다. 이를 위해 제어부(21)는 도로의 노면 상태(예컨대, 미끄러움, 진동 등), 카메라를 통한 산사태, 낙석 등이 확인된 경우, 물리적인 충돌이 발생되기 전에 그 위험 상황을 감지하는 기능을 포함할 수 있다.
한편, 도 2a에는 상기 전자 장치가 상기 제어부(21), 충돌 센서(23), 및 통신부(25)와 같이 별도의 유닛들로 구현된 경우가 도시되어 있으나, 상기 전자 장치는 상기 제어부(21), 충돌 센서(23), 및 통신부(25) 중 적어도 두 개가 통합된 형태로 구현 가능함은 물론이다.
또한, 상기 전자 장치는 적어도 1개의 프로세서로 구현될 수도 있음은 물론이다. 즉, 상기 전자 장치는 도 2b에 도시되어 있는 모듈들 중 적어도 하나를 포함하는 형태로 구현될 수 있다.
도 2b에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 차량 내에 탑재되는 전자 장치의 내부 구조에 대해서 설명하였으며, 다음으로 도 3을 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 다른 예에 대해서 설명하기로 한다.
도 3은 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 다른 예를 개략적으로 도시한 도면이다.
도 3의 예에서 제1 단말(31)은 제1 차량의 단말, 제2 단말(33)은 제2 차량의 단말이다. 제1 단말(31)은 주행 영상을 촬영 중임을 가정한다. 제1 단말(31)에서 주행 영상의 촬영은 선택적으로 수행될 수 있다. 도 3을 참조하면, 311 단계에서 제1 차량(31)의 주행에 따른 시간 별 이동 경로를 기록하여 저장한다. 상기 이동 경로는 상기 주행에 따른 시간 별 위치 정보를 포함한다. 따라서 상기 이동 경로는 해당 단말 또는 차량의 시간 별 위치 정보로 이해될 수 있다. 상기 시간 별 위치 정보는 전술한 것처럼 차량의 위도, 경도, 고도, 속도, GPS 정보, 주행 도로, 지도상 좌표 값, 주행 차선,주행 방향(heading) 등 상기 단말 또는 상기 단말과 통신 연결된 차량의 위치를 나타낼 수 있는 적어도 하나의 정보를 이용할 수 있다. 이와 같이 차량의 위치를 나타낼 수 있는 다양한 정보를 위치 정보로 이용하는 본 발명의 실시 예에 의하면, 예를 들어 동일한 도로에서 차선을 구분하여 차량의 위치를 확인할 수 있음은 물론 이차원 좌표 상으로는 동일한(또는 근접한) 위치에 있는 둘 이상의 도로들 중 어느 도로에 차량이 위치하는지를 확인할 수 있다. 또한 본 발명의 실시 예에 의하면, 정확한 위치 정보를 근거로 불필요한 영상 정보(예를 들어 일반 도로에서 사고가 발생하였다면, 이차원 좌표상 위치는 근접하지만 그 사고를 촬영할 수 없는 고가 도로 등에서 주행하는 차량이 촬영한 영상정보 등)는 제외하고, 필요한 영상 정보만을 송수신할 수 있다.
상기 이동 경로는 제1 단말(31)(또는 제1 차량)에 탑재된 위치 측정 모듈(260)을 이용하여 기록될 수 있다. 한편 331 단계에서 제2 단말(33) 또한 주행 영상을 촬영하고, 333 단계에서 주행에 따른 시간 별 이동 경로를 기록하여 저장한다. 상기 주행 영상의 촬영은 단말의 카메라를 이용하거나 또는 차량 내 블랙 박스를 이용할 수 있다. 차량 내 블랙 박스를 이용하는 경우, 단말의 차량 애플리케이션은 상기 블랙 박스와 통신하여 촬영된 주행 영상을 시간 별로 구분하여 수신하거나 또는 상기 블랙 박스로부터 촬영 시간이 같이 저장된 영상 정보를 수신하기 위한 프로그램 코드들을 포함한다.
이후 313 단계에서 제1 단말(31)은 제1 차량의 전자 장치로부터 상기한 사고 메시지를 수신한 경우, 315 단계에서 상기 저장된 이동 경로로부터 소정 시간 동안의 이동 경로를 선택한다. 상기 선택된 이동 경로는 예컨대, 사고 감지 이전부터 소정 시간 동안의 이동 경로에 해당된다. 317 단계에서 제1 단말(31)은 상기 선택된 이동 경로와 관련된 영상 정보를 요청하는 메시지(이하, "영상 정보 요청 메시지")를 무선 통신을 통해 전송한다. 사고 감지 이전부터 소정 시간 동안의 이동 경로에 대한 영상 정보를 송수신하는 경우, 제1 단말(31)과 제2 단말(33)은 해당 이동 경로에 대응되는 영상 정보만을 송수신할 수 있으므로 무선 채널의 혼잡도를 줄일 수 있으며, 불필요한 영상 정보의 송수신으로 인한 영상 분석에 투입되는 시간, 비용, 인력 등을 절감할 수 있다. 또한 이 경우 단말들 간에 송수신하는 영상 정보의 데이터 량을 줄일 수 있으므로 통신 비용을 절감할 수 있으며, 데이터 전송률의 한계로 인해 필요한 영상 정보를 모두 송수신하지 못할 가능성을 미연에 방지할 수 있다.상기 무선 통신은 전술한 것처럼 다양한 통신 방식을 이용할 수 있다. 상기 영상 정보 요청 메시지는 적어도 하나의 제2 차량이 수신할 수 있도록 방송 메시지 형태로 전송될 수 있다. 상기 영상 정보 요청 메시지는 제1 차량의 전자 장치가 사고 발생을 감지한 시간(예컨대, 제1 차량의 충돌 센서(23)가 물리적인 충돌을 감지하고, 그 감지 신호가 제어부(21)에 전달되어 제어부(21)가 사고를 감지한 시간)(이하, "사고 감지 시간"), 사고 지점, 상기 선택된 이동 경로, 사고 이전 시간 별 이동 경로, 그리고 제1 차량의 식별 정보 중 적어도 하나의 정보를 포함할 수 있다. 상기 사고 지점은 상기 사고 감지 시간에 대응되는 시간 별 이동 경로로부터 획득될 수 있다. 상기 선택된 이동 경로와, 상기 사고 이전 시간 별 이동 경로는 구분된 정보로 기술하였으나, 상기 선택된 이동 경로에 상기 사고 이전 시간 별 이동 경로가 포함될 수도 있다. 그리고 상기 사고 감지 시간은 일 예를 든 것이며, 사고 감지 시간이 상기한 예에 한정되는 것은 아니다. 예컨대, 상기 사고 감지 시간은 차량의 충돌 센서로부터 충돌이 감지된 후, 제1 단말(31)이 사고 메시지를 수신하기 까지 소요되는 시간을 고려하여 실제 사고 시간에 근접하도록 보정된 시간 등 다양한 형태로 설정될 수 있다. 그리고 본 발명이 차량의 위험 상황 예상에 적용되는 경우, 상기 사고 감지 시간은 차량의 전자 장치 또는 단말이 위험 상황을 예상한 경우, 그 예상이 이루어진 시간 등이 될 수 있다. 그리고 상기 제1 차량의 식별 정보는 차량 번호, 차량 소유자의 전화 번호, 또는 제1 차량의 전자 장치에 부여된 매체 접속 제어(MAC: Medium Access Control, 이하 "MAC"이라 칭하기로 한다) 주소 등 해당 차량을 고유하게 식별할 수 있는 다양한 정보를 이용할 수 있다. 또한 제1 단말의 식별 정보를 제1 차량의 식별 정보로 이용하는 것도 가능하다.
이후 상기 영상 정보 요청 메시지를 수신한 제2 단말(33)은 335 단계에서 상기 영상 정보 요청 메시지로부터 획득된 정보(예를 들어, 사고 감지 시간, 사고 지점, 선택된 이동 경로, 사고 이전 시간 별 이동 경로, 제1 차량의 식별 정보 중 적어도 하나의 정보)를 근거로, 제1 차량과 제2 차량 간의 거리, 상기 제2 차량을 기준으로 확인된 상기 제1 차량이 위치한 방향, 제1 차량과 제2 차량이 동일 도로에 위치하는지 여부 중 적어도 하나를 판단한다. 그리고 337, 339 단계에서 제2 단말(33)은 상기 판단 결과에 따라 상기 제2 차량의 주행 영상 중 제1 차량이 촬영된 것으로 선택된 영상 정보를 제1 단말(31)에게 전송한다. 321 단계에서 상기 선택된 영상 정보를 수신한 제1 단말(31)은 323 단계에서 제1 차량의 주행 영상과 상기 제2 차량으로부터 수신한 영상 정보를 합성하여 다양한 시야각으로 제1 차량의 사고 상황을 확인할 수 있는 통합 영상을 생성한다. 상기 323 단계의 동작은 생략될 수 있다. 상기 통합 영상의 생성 시, 합성되는 제1 차량의 주행 영상은 예컨대, 315 단계에서 선택된 이동 경로에 대응되는 주행 영상을 이용할 수 있다. 상기 통합 영상은 영상이 촬영된 시간 별, 위치 별 등으로 합성될 수 있다. 상기 통합 영상을 설명하기 위한 도 15의 일 예를 참조하면, 상기 통합 영상이 디스플레이되는 화면(1510) 상의 일 측에는 촬영된 위치 별 시야 각에 따라 구분된 적어도 하나의 영역(R1, R2, R3, R4)이 표시되고, 상기 위치 별 시야 각에 대응되는 적어도 하나의 영역(R1, R2, R3, R4) 중 원하는 영역을 선택할 수 있는 PIP(Picture Inside Picture) 화면(1530)이 촬영된 시간(T1)과 함께 제공될 수 있다. 그리고 상기 PIP 화면(1530) 상에서 터치 입력, 마우스, 스타일러스 펜 등을 통해 어떤 영역이 선택(S1)되면, 그 선택된 영역(S1)의 시야 각에서 촬영된 영상이 참조 부호 S2와 같이 디스플레이될 수 있다. 따라서 상기 통합 영상을 이용하면, 사고 상황 등을 다양한 시야 각으로 확인할 수 있으므로 사고 발생 원인 등을 보다 명확히 파악할 수 있다. 도 15의 화면 구성은 일 실시 예를 나타낸 것이며, 상기 통합 영상을 디스플레이하는 화면은 다양한 형태로 변형하여 제공될 수 있다. 예를 들어 상기 상기 위치 별 시야 각에 대응되는 영역을 선택하는 화면은 상기 PIP 화면(1530)이 대신 별도의 화면으로 제공될 수도 있다. 그리고 상기 위치 별 시야 각에 대응되는 영역을 다수 선택하는 경우, 그 선택에 따른 다수의 영상을 대비할 수 있도록 다수의 화면을 함께 출력하는 것도 가능하다.
도 3의 실시 예에서는 제1 단말(31)이 제1 차량으로부터 사고 메시지를 수신한 경우, 상기 영상 정보 요청 메시지를 전송하도록 하였으나, 다른 실시 예로 제1 차량의 주행 상태가 비정상이거나 또는 긴급 상태(즉 상기한 위험 상황)인 경우, 상기 313 단계에서 사고 메시지의 수신이 없더라도 상기 영상 정보 요청 메시지를 전송하도록 하는 것도 가능하다. 상기 위험 상황의 판단은 전술한 것처럼 제1 차량의 주행을 제어하는 전자 장치에서 수행될 수 있으며, 제1 단말(31)이 제1 차량의 전자 장치로부터 수신한 정보를 근거로 상기 위험 상황을 판단하는 것도 가능하다. 다른 예로 사고 메시지의 수신이 없더라도 제1 단말(31)의 애플리케이션을 통해 사용자의 키 입력이 있는 경우, 상기 영상 정보 요청 메시지를 전송하는 것도 가능하다.
도 3에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 다른 예에 대해서 설명하였으며, 다음으로 도 4 및 도 5a 및 도 5b를 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 방법에 대해서 설명하기로 한다.
도 4 및 도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 통신 시스템에서 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 방법을 개략적으로 도시한 도면이다.
도 4를 참조하면, 도 4에 도시되어 있는 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 방법은 영상 정보 요청 메시지를 수신한 제2 차량의 제2 단말이 제1 차량과 제2 차량 간의 거리와, 제1 차량의 방향을 판단하여 영상 정보를 선택하는 방법을 나타낸 것임에 유의하여야만 할 것이다. 특히, 도 4는 도 3의 335, 337 단계의 동작을 구체적으로 나타낸 것임에 유의하여야만 할 것이다.
도 4를 참조하면, 401 단계에서 제1 단말(31)로부터 제1 차량에 대한 상기 영상 정보 요청 메시지를 수신한 제2 단말(33)은 403 단계에서 상기 수신한 영상 정보 요청 메시지로부터 제1 차량의 위치 정보를 추출한다. 상기 영상 정보 요청 메시지는 제1 차량의 이동 경로를 포함하며, 상기 이동 경로는 전술한 것처럼 제1 차량의 위치 정보를 포함한다. 그리고 상기 위치 정보는 제1 차량의 위도, 경도, 고도, 속도, GPS 정보, 주행 도로, 지도상 좌표 값, 주행 차선,주행 방향(heading) 등 차량의 위치를 나타낼 수 있는 적어도 하나의 정보를 이용할 수 있다. 따라서 제2 단말(33)은 제1 단말(31)로부터 수신한 영상 정보 요청 메시지로부터 제1 차량의 위치 정보를 추출할 수 있다.
그리고 405 단계에서 제2 단말(33)은 제1 차량의 위치 정보와 제2 차량의 위치 정보를 이용하여 제1 차량과 제2 차량 간의 시간 별 거리(d)를 계산한다. 일 예로 제1 차량의 GPS 정보와 제2 차량의 GPS 정보를 이용하면 제1 차량과 제2 차량 간의 거리(d)는 계산될 수 있다. 그리고 407 단계에서 제2 단말(33)은 상기 계산된 거리(d)가 아래 <수학식 1>의 조건을 만족하는지 여부를 판단한다.
<수학식 1>
상기 <수학식 1>에서 변수들(f, d, h, q, p)의 정의와 의미는 도 5a에 도시된 내용과 같다. q=f*h/d의 관계를 가지며, 촬영된 영상의 픽셀 수 = q/p = (f*h/d)/p 이므로, 상기 <수학식 1>은 의 조건(즉 픽셀 수가 20 픽셀 이상)을 만족하는지 여부를 판단하는 일 예를 나타낸 것이다. 상기 20 픽셀은 일 실시 예를 나타낸 것이며, 제1 차량과 관련된 영상 정보의 요구 화질에 따라 상기 조건을 만족하는 픽셀 수는 다른 값으로 설정될 수 있다.
도 5a의 거리(d)에서 카메라는 제2 차량의 카메라이다. 상기 407 단계에서 상기 계산된 거리(d)가 상기 <수학식 1>의 조건을 만족하는 경우, 이는 제2 단말(33)을 통해 촬영된 영상을 제1 차량과 관련된 영상 정보로 이용할 경우, 충분히 식별 가능한 상태임을 나타낸다.
409 단계에서 제2 단말(33)은 상기 제1 차량의 이동 경로에 포함된 제1 차량의 주행 방향(Heading) 정보를 근거로 제2 차량에 대한 제1 차량의 위치의 상대 각도를 계산한다. 도 5b를 참조하면, 제1 차량(51)의 상대 각도(505)는 제2 차량(53)의 주행 방향(D1)을 기준으로 상기 제1 차량의 주행 방향 정보를 근거로 계산될 수 있다. 411 단계에서 제2 단말(33)은 상기 상대 각도(505)를 근거로 제2 단말(33)의 카메라가 제1 차량을 촬영하였는지 여부를 판단할 수 있다. 상기 제2 단말(33)는 상기 상대 각도(505)가 카메라의 가능한 촬영 각도 범위 내에 있는 경우, 제1 차량이 촬영된 것으로 판단할 수 있다. 도 5b에서 참조 번호 501, 503은 각각 제2 단말(33)의 카메라에서 가능한 촬영 각도 범위의 일 예를 나타낸 것이며, 제2 단말(33)의 카메라가 주행 방향(D1)을 기준으로 정면 촬영 시 305 내지 360도(501), 0 내지 55 도(503)의 촬영 각도 범위를 갖는 경우이다. 즉 상기 상대 각도(505)가 상기 501 또는 503의 가능한 촬영 각도 범위 내에 있는 경우 제2 단말(33)은 제1 차량이 촬영된 것으로 판단할 수 있다. 이때 제1 차량이 촬영되었다면 제2 단말(33)은 어느 방향(정면, 좌/우 측면, 후면 등)의 카메라에서 제1 차량이 촬영되었는지를 또한 판단할 수 있다. 아래 <표 1>은 제2 단말(33)이 상기 상대 각도(505)를 근거로 제1 차량이 촬영되었는지 여부를 판단하는 일 예를 나타낸 것이다.
상기 <표 1>에서 "I_Heading"은 상기 제1 차량의 주행 방향(Heading) 정보, "I_GPS"는 제2 차량의 GPS 정보, "Message_GPS"는 제1 차량의 GPS 정보를 의미하며, Camera_coverage는 카메라 사양에 따라 고정된 값을 사용하고, "거리 차"는 제1 차량과 제2 차량 간의 상기 계산된 거리(d)를 의미하며, "Message_location"은 상기 제2 차량의 주행 방향을 기준으로 상기 제1 차량이 위치한 상기 상대 각도를 의미한다.
상기 411 단계에서 제1 차량이 촬영된 것으로 판단된 경우, 413 단계에서 제2 단말(33)은 상기 제2 차량의 주행 영상 중 상기 영상 정보 요청 메시지로부터 획득된 제1 차량의 시간 별 이동 경로를 근거로 제1 차량과 관련된 영상 정보를 선택한다. 한편 상기 407 단계에서 상기 <수학식 1>의 조건을 만족하지 않거나, 또는 상기 411 단계에서 제1 차량이 촬영되지 않은 것으로 판단된 경우, 415 단계에서 제2 단말(33)은 제1 차량과 관련된 영상 정보의 송신 불능 상태로 판단하여, 제1 단말(31)에게 그 송신 불능을 알리는 메시지를 전송하거나 또는 별도의 메시지 전송 없이 영상 정보 송신을 위한 이후 동작을 수행하지 않고 종료할 수 있다.
한편, 도 4의 405 단계 내지 411 단계, 415 단계 중 적어도 하나 이상의 단계를 생략하여 실시하는 것도 가능함은 물론이다.
일 예로 상기 407,409,411,415 단계가 생략되고, 상기 405 단계만 수행하여, 계산된 거리가 소정 거리 이내인 시간 구간 동안 촬영된 영상만 선택할 수도 있다. 다른 예로 상기 409,411 단계가 생략되어 상기 405 단계에서 계산된 거리가 상기 407 단계의 상기 <수학식 1>의 조건을 만족하는 시간 구간 동안 촬영된 영상만 선택할 수도 있다. 또 다른 예로 상기 405, 407 단계가 생략될 수도 있다. 또 다른 예로 상기 407 단계가 생략되고, 상기 405 단계에서 계산된 거리가 소정 거리 이내이며, 상기 409, 411, 415 단계에 따라 촬영되었다고 판단된 시간 구간 동안 촬영된 영상만 선택할 수도 있다.
또 다른 예로 상기 405 단계 내지 411 단계와, 상기 415 단계를 모두 생략할 수도 있다. 이 경우 상기 403 단계에서 추출된 위치 정보를 근거로 촬영된 영상을 선택할 수 있다. 상기 추출된 위치 정보는 시간 별 위치 정보이므로 소정 시간 구간 동안 제1 차량의 이동 경로와 제2 차량의 이동 경로가 정해진 범위 내에서 근접 하다면, 상기 추출된 위치 정보를 근거로 상기 정해진 범위 내에서 촬영된 영상을 선택할 수 있다.
한편, 도 4가 본 발명의 일 실시 예에 따른 통신 시스템에서 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 방법을 도시하고 있더라도, 다양한 변형들이 도 4에 대해 이루어질 수 있음은 물론이다. 일 예로, 도 4에는 연속적인 단계들이 도시되어 있지만, 도 4에서 설명한 단계들은 오버랩될 수 있고, 병렬로 발생할 수 있고, 다른 순서로 발생할 수 있거나, 혹은 다수 번 발생할 수 있음은 물론이다.
도 4 및 도 5a 및 도 5b에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제2 차량의 제2 단말이 제1 차량의 영상 정보를 선택하는 방법에 대해서 설명하였으며, 다음으로 도 6을 참조하여 본 발명의 일 실시예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 6은 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 6을 참조하면, 먼저 제1 단말(61)은 제1 차량의 단말, 제2 단말(63)은 제2 차량의 단말, 그리고 서버(65)는 제2 단말(63)로부터 제1 차량과 관련된 영상 정보를 수신하는 클라우드 서버이다.
도 6에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법의 611 단계 내지 619 단계, 그리고 631 단계 내지 637 단계의 동작은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법의 311 단계 내지 319 단계, 그리고 331 단계 내지 337단계의 동작과 동일하므로 여기서는 그 상세한 설명은 생략하기로 한다.
또한, 도 6에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법과 연관될 수 있다. 예를 들어 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 제2 단말이 주행 중인 상태이거나 또는 통신 환경이 영상 정보의 전송에 적합하지 않아 제1 단말로 영상 정보를 완전히 전송하지 못한 경우, 도 6에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서와 같이 639 단계에서 제2 단말(63)은 영상 정보의 관리를 위해 미리 지정된 서버(65)로 상기 제1 차량과 관련된 영상 정보를 전송할 수 있다.
또한, 선택적으로, 제1 단말(61)과 서버(65)의 양 자에게 각각 영상 정보를 전송하는 것도 가능하다. 이때 제1 단말(61)에게는 신속한 전송을 위해 낮은 또는 중간 해상도의 영상 정보를 전송하고, 서버(65)에게는 보다 정확한 사고 원인 파악을 위해 높은 해상도의 영상 정보를 전송하는 것도 가능하다.
또한, 선택적으로, 제2 단말(63)은 제1 단말(61)에게 영상 정보를 성공적으로 전송하는 것과 상관 없이 서버(65)에게 바로 상기 제1 차량과 관련된 영상 정보를 전송할 수 있다.
또한, 선택적으로 제2 단말(63)이 자신의 통신 환경을 고려하여 상기 제1 차량과 관련된 영상 정보를 전송하는 것도 가능하다. 일 예로 제2 단말(63)이 영상 정보 요청 메시지를 수신하였을 때 Wi-Fi 존에 위치하지 않은 경우, 영상 정보의 송신을 일시 대기하고, Wi-Fi 존으로 이동한 후에, 영상 정보를 송신하는 것도 가능하다.
그리고 651 단계에서 서버(65)는 제2 단말(63)로부터 제1 차량과 관련된 영상 정보를 수신하고, 도시되지는 않았으나 제1 단말(61) 또는 다른 주변 차량으로부터 수신한 적어도 하나의 영상 정보와 상기 639 단계에서 수신한 영상 정보를 합성한 통합 영상을 생성할 수 있다. 상기 653 단계의 동작은 생략될 수 있다. 도 6의 실시 예와 같이, 서버(65)로 영상 정보를 전송할 경우, 각 단말(61, 63)에 설치되는 상기한 차량 애플리케이션에는 상기 서버(65)와 접속을 위한 인증 정보, 상기 서버(65)의 주소 정보 등 영상 정보의 전송에 필요한 정보가 미리 설정될 수 있다. 선택적인 실시 예로 상기 617 단계에서 제1 단말(61)이 전송하는 영상 정보 요청 메시지는 상기 서버(65)의 주소 정보 등을 부가 정보로 포함할 수 있다.
도 6에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하였으며, 다음으로 도 7을 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 7은 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 7을 참조하면, 제1 단말(71)은 제1 차량의 단말, CCTV(73)는 도로 상에 설치되어 그 설치 지역에서 차량들의 주행 영상을 촬영할 수 있는 카메라와 상기한 무선 통신을 이용할 수 있는 통신부를 포함하는 폐쇄 회로 TV이다. 상기 CCTV는 상기 단말 또는 외부 서버와의 영상 정보 송수신을 제어하는 제어부와 상기 주행 영상 및/또는 상기 영상 정보를 저장할 수 있는 저장부를 포함할 수 있다. 그리고 서버(75)는 CCTV(73)로부터 제1 차량과 관련된 영상 정보를 수신하는 상기한 클라우드 서버로 구현될 수 있다.
도 7에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 711 단계 내지 717 단계의 동작은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서의 311단계 내지 317단계의 동작과 동작과 동일하므로 여기서는 그 상세한 설명은 생략하기로 한다. 도 7에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 719 단계에서 전송되는 상기 영상 정보 요청 메시지를 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서와 같이 제2 차량의 제2 단말이 아닌 CCTV(73)에서 수신한 경우를 나타낸 것이다.
한편 상기 CCTV(73)의 동작을 살펴보면, 731 단계, 733 단계에서 CCTV(73)는 그 설치 지역에서 주변 차량들의 주행 영상을 촬영하고, 그 주변 차량들의 시간 별 이동 경로를 구분하여 저장한다. 이후 상기 719 단계에서 CCTV(73)는 상기 영상 정보 요청 메시지를 수신하면, 735 단계에서 제1 단말(71)의 이동 경로가 CCTV(73)의 촬영 지역에 포함되는지 여부를 판단하여, 그 이동 경로가 촬영 지역에 포함된 경우, 737 단계에서 상기 저장된 주변 차량들의 주행 영상 중 제1 단말(71)의 이동 경로에 대응되는 영상 정보를 선택하고, 739 단계에서 그 선택된 영상 정보를 서버(75)로 전송한다. 이를 위해 상기 719 단계에서 상기 영상 정보 요청 메시지는 서버(75)의 주소 정보 등을 포함할 수 있다. 다른 실시 예로 상기 CCTV(73)에는 상기 서버(75)와 접속을 위한 인증 정보, 상기 서버(75)의 주소 정보 등 영상 정보의 전송에 필요한 정보가 미리 설정될 수도 있다. 그리고 751, 753 단계에서 서버(75)가 영상 정보를 수신하여 통합 영상을 생성하는 동작은 도 6에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서의 651, 653 단계에서의 동작과 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다.
도 7에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하였으며, 다음으로 도 8을 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 8은 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 8을 참조하면, 제1 단말(81)은 제1 차량의 단말, 제1 서버(83)는 교통 관제 센터의 서버, CCTV(83)는 도로 상에 설치되어 그 설치 지역에서 주변 차량들의 주행 영상을 촬영할 수 있는 폐쇄 회로 TV로서, 도 8의 CCTV(85) 또한 도 7의 CCTV(73)와 같이 영상 정보를 전송할 수 있도록 구성된다. 다만 도 8에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 CCTV(85)는 제1 단말(81)이 아니라 교통 관제 센터의 제1 서버(83)로부터 영상 정보 요청 메시지를 수신한다. 그리고 제2 서버(87)는 상기 제1 서버(83)로부터 제1 차량과 관련된 영상 정보를 수신하는 클라우드 서버이다.
도 8에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 811 단계 내지 817 단계의 동작은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서의 311단계 내지 317단계의 동작과 동일하며, 851 내지 853 단계의 동작은 도 7에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서의 731 단계 및 733단계에서의 동작과 동일하므로 여기서는 그 상세한 설명은 생략하기로 한다. 도 8에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서는 819 단계에서 전송되는 상기 영상 정보 요청 메시지를 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서와 같이 제2 차량의 제2 단말이 아닌 제1 서버(83)에서 수신한 경우를 나타낸 것이다.
도 8의 821 단계에서 상기 영상 정보 요청 메시지를 수신한 제1 서버(83)는 제1 차량의 이동 경로를 근거로 해당 촬영 지역의 CCTV(85)를 선택하고, 823 단계에서 상기 영상 정보 요청 메시지에 포함된 사고 감지 시간을 확인한다. 이후 825 단계에서 제1 서버(83)는 선택된 CCTV(85)로 상기 영상 정보 요청 메시지를 전송하고, 855, 857, 827 단계에서 CCTV(85)로부터 선택된 제1 차량과 관련된 영상 정보는 교통 관제 센터의 제1 서버(83)를 경유하여 클라우드 서버인 제2 서버(87)로 전달된다. 그리고 871, 873 단계에서 제2 서버(87)가 영상 정보를 수신하여 통합 영상을 생성하는 동작은 도 6에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서의 651 단계 및 653단계에서의 동작과 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다.
도 8에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하였으며, 다음으로 도 9를 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 9는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 9를 참조하면, 제1 단말(91)은 제1 차량의 단말, 제1 서버(93)은 교통 관제 센터의 서버, 제2 단말(95)은 제2 차량의 단말, 그리고 제2 서버(97)는 제1 차량과 관련된 영상 정보를 수신하는 클라우드 서버로서, 도 9에 도시되어 있는 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 교통 관제 센터의 제1 서버(97)는 통신 접속된 차량들의 현재 위치 정보를 수집할 수 있다.
도 9에 도시되어 있는 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 911 단계 내지 917 단계의 동작은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 311단계 내지 317단계까지의 동작과 동일하므로 여기서는 그 상세한 설명은 생략하기로 한다. 도 9에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 919 단계에서 전송되는 상기 영상 정보 요청 메시지를 도 3에 도시되어 있는 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서와 같이 제2 차량의 제2 단말이 아닌 제1 서버(93)에서 수신하고, 상기 영상 정보 요청 메시지를 수신한 제1 서버(93)는 상기 931 단계에서 수집된 차량들의 현재 위치 정보를 근거로, 933 단계에서 제1 차량의 현재 위치에 근접한 제2 차량을 선택한다. 935 단계에서 제1 서버(93)는 선택된 제2 차량의 제2 단말(95)로 상기 영상 정보 요청 메시지를 전송한다. 그러면 955, 957 단계에서 상기 영상 정보 요청 메시지를 수신한 제2 단말(95)은 제1 차량과 관련된 영상 정보를 선택하여 제2 서버(97)로 전송한다. 도 9에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 설명되지 않은 나머지 단계들의 동작은 전술한 제1 차량과 관련된 영상 정보를 공유하는 방법의 다른 예들에서의 동작과 동일하므로 구체적인 설명은 생략하기로 한다.
도 9에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하였으며, 다음으로 도 10을 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 10은 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 10을 참조하면, 제1 단말(101)은 제1 차량의 단말, 제1 서버(103)는 교통 관제 센터의 서버, 제2 단말(105)은 제2 차량의 단말, 그리고 제2 서버(107)는 제1 차량과 관련된 영상 정보를 수신하는 상기한 클라우드 서버이다. 도 10에서 교통 관제 센터의 제1 서버(103)는 통신 접속된 차량들의 이동 경로를 모두 수집할 수 있다. 즉 상기 제1 서버(103)는 통신 접속된 제1 단말(101) 및 제2 단말(105) 모두로부터 각각 해당 차량의 이동 경로를 수신하여 저장할 수 있다.
도 10에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 1011 단계 내지 1017 단계의 동작은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서의 311단계 내지 317단계의 동작과 동일하므로 여기서는 그 상세한 설명은 생략하기로 한다. 도 10에서는 1031 단계에서 상기 제1 서버(103)가 통신 접속된 차량들의 이동 경로를 모두 수신하여 저장하므로, 전술한 실시 예들과 같이 제1 차량의 제1 단말(101)이 자신의 이동 경로를 포함한 영상 정보 요청 메시지를 전송할 필요는 없다. 따라서 1019 단계에서 제1 단말(101)이 제1 서버(103)로 전송하는 영상 정보 요청 메시지에는 제1 차량의 이동 경로가 포함되지 않고, 전송될 수 있다. 상기 영상 정보 요청 메시지를 수신한 제1 서버(103)는 1033 단계에서 제1 차량의 이동 경로와 근접한 제2 차량을 선택한다. 이후 1035 단계에서 제1 서버(103)는 선택된 제2 차량의 제2 단말(105)로 상기 영상 정보 요청 메시지를 전송한다. 그러면 1055, 1057 단계에서 상기 영상 정보 요청 메시지를 수신한 제2 단말(105)은 제1 차량과 관련된 영상 정보를 선택하여 제2 서버(107)로 전송한다. 도 10에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 설명되지 않은 나머지 단계들의 동작은 전술한 제1 차량과 관련된 영상 정보를 공유하는 방법의 다른 예들에서의 동작과 동일하므로 여기서는 그 구체적인 설명은 생략하기로 한다.
도 10에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하였으며, 다음으로 도 11을 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 11은 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 11의 예에서 제1 차량(111)과 제2 차량(113)은 각각 제1 단말(31)과 제2 단말(33)의 기능을 동일하게 수행하는 차량 내 전자 장치를 포함한다. 따라서 도 11에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 1111 단계 내지 1121 단계의 동작과, 1131 단계 내지 1137 단계의 동작은 단말에서 수행되는 동작을 차량 내 전자 장치에 수행하는 점을 제외하고, 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서의 311단계 내지 321단계의 동작과, 331 단계 내지 337 단계의 동작과 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다. 다만 도 11의 1113 단계에서는 제1 차량의 전자 장치가 직접 사고 발생을 감지하는 것이므로 도 3의 313 단계에 설명한 바와 같은 사고 메시지의 송수신 동작은 필요하지 않다.
도 11에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하였으며, 다음으로 도 12를 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 12는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 12의 예에서 제1 단말(121)은 제1 차량의 단말, 제2 단말(123)은 제2 차량의 단말이다. 도 12에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 1211 단계 내지 1223 단계의 동작과, 1231 단계 내지 1233 단계의 동작은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법의 311 단계 내지 323 단계의 동작과, 331 단계 내지 333 단계의 동작과 기본적으로 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다. 다만 도 12에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서, 1215 단계에서 제1 단말(121)이 생성하는 이동 경로, 즉 제1 차량의 시간 별 위치 정보는 제1 차량의 시간 별 차선 정보를 더 포함할 수 있다. 그리고 상기 이동 경로는 제1 차량의 소정 시간 동안의 사고 이전 이동 경로를 포함한다.
그리고 1235 단계에서 제2 단말(123)은 상기 1219 단계에서 수신한 제1 단말(121)의 시간 별 이동 경로에 대응되는 자신의 시간 별 이동 경로를 선택한다. 상기 1235 단계에서 선택된 제2 단말(123)의 이동 경로는 제2 차량의 소정 시간 동안의 시간 별 이전 이동 경로를 포함한다. 1239 단계에서 제2 단말(123)은 제1 차량의 시간 별 사고 이전 이동 경로와 상기 1235 단계에서 선택된 제2 차량(123)의 시간 별 이전 이동 경로에서 촬영 범위의 일치 여부를 판단한다. 그리고 그 촬영 범위가 일치하는 경우, 1239 단계에서 제2 단말(123)은 수신한 제1 차량의 이동 경로에 해당되는 촬영 영상을 상기 1231 단계에서 촬영된 주행 영상으로부터 추출한다. 여기서, 상기 1235 단계 내지 1239 단계의 동작은 도 3에서 설명한 335, 337 단계의 동작에 대응된다. 따라서 상기 1235 단계 내지 1239 단계의 동작으로 대치될 수 있다. 이후 1241 단계에서 제2 단말(123)은 상기 1235 단계에서 선택된 제2 차량의 시간 별 이전 이동 경로에 대응되게 상기 추출된 영상 정보(또는 제2 차량의 전자 장치)로부터 노면 상태(예컨대, 낙석, 노면 미끄러움 등) 등의 특이 사항(이하, 이동 경로 특이 사항)을 감지한 경우, 그 이동 경로 특이 사항을 위치 정보와 대응되게 매핑하고, 1243 단계에서 그 이동 경로 특이 사항을 포함한 영상 정보를 제1 단말(121)로 전송한다. 선택적인 실시 예로 상기 이동 경로 특이 사항은 차선 별 특이 사항을 포함할 수 있다. 도 12에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 설명되지 않은 나머지 단계들의 동작은 제1 차량과 관련된 영상 정보를 공유하는 방법의 다른 예들에서의 대응되는 동작과 동일하므로 여기서는 그 구체적인 설명은 생략하기로 한다.
또한 상기 이동 경로 특이 사항 외에도 제2 단말(123)은 제1 차량의 차량 번호, 차량 색깔, 차량 크기 중 적어도 하나의 정보를 상기 영상 정보와 함께 단말(121)에게 전송할 수 있다.
도 12에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하였으며, 다음으로 도 13a 내지 도 13c를 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 13a 내지 도 13c는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 13a, 도 13b, 및 도 13c를 참조하면, 먼저 도 13a, 도 13b, 및 도 13c는 도시의 편의상 분리하여 도시하였으나, 그 도면들은 하나의 실시 예를 나타내는 이어진 도면들로 이해될 수 있다.
도 13a 내지 도 13c의 예에서 제1 단말(131)은 제1 제1 차량의 단말, 제2 단말(133)은 제2 제1 차량의 단말, 그리고 제3 단말(135)은 제2 차량의 단말이다. 즉 도 13a 내지 도 13c의 실시 예는 제1 차량이 다수인 경우, 영상 정보를 공유하는 방법을 나타낸 것이다. 따라서 도 13a 내지 도 13c에서 제1 및 제2 단말들(131, 133)과 해당 차량들은 각각 앞선 실시 예들에서 제1 단말과 제1 차량에 대응되고, 제3 단말(135)과 그 차량은 각각 앞선 실시 예들에서 제2 단말과 제2 차량에 대응된다.
본 실시 예와 같이 제1 차량이 다수인 경우 제2 차량은 동시 다발적으로 다수의 제1 차량으로부터 영상 정보 요청 메시지를 수신하게 된다. 이 경우 무선 채널에 과부하를 초래할 수 있으므로 본 실시 예에서 제2 차량의 단말(즉 제3 단말(135))은 제1 차량의 단말들(즉 제1 단말(131), 제2 단말(133)) 중에서 사고 감지 시간이 가장 빠른 차량의 단말에게 영상 정보를 전송하는 방안을 제안한다.
도 13a에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법 방법에서 1311 단계 내지 1317 단계의 동작과, 1331 단계 내지 1337 단계의 동작은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서의 311 단계 내지 317 단계의 동작과, 331 단계 내지 337 단계의 동작과 동일하므로 여기서는 그 상세한 설명은 생략하기로 한다.
도 13a를 참조하면, 제1 단말(131)과 제2 단말(133)로부터 생성되는 영상 정보 요청 메시지는 각각 해당 차량의 사고 감지 시간, 사고 지점, 소정 시간 동안의 사고 이전 이동 경로, 그리고 해당 차량의 식별 정보 등을 포함할 수 있다. 1319, 1321, 1339 단계에서 제1 단말(131), 제2 단말(133), 그리고 제3 단말(135)은 각각 영상 정보 요청 메시지를 각각 송수신한다. 그러면 제1 단말(131)과 제2 단말(133)는 각각 1323 단계, 1341 단계에서 상대 단말로부터 수신한 영상 정보 요청 메시지에 포함된 사고 감지 시간과 자신의 사고 감지 시간을 비교한다. 본 실시 예에서는 제2 단말(133)의 사고 감지 시간이 더 빠른 것으로 가정한다. 따라서 1343 단계에서 제2 단말(133)은 상기 1341 단계의 비교 결과, 자신의 사고 감지 시간이 가장 빠른 경우 자신을 통합 영상 생성 주체로 판단한다. 또한 1325 단계에서 제1 단말(131)은 상기 1323 단계의 비교 결과, 자신의 사고 감지 시간이 느린 경우 영상 정보가 송신될 송신 지점(이하, "영상 정보 송신 지점")(즉 통합 영상 생성 주체)이 어느 단말인지 판단한다. 본 실시 예에서 제1 단말(131)은 영상 정보 송신 지점을 제2 단말(133)로 판단하고, 1327 단계에서 제2 단말(133)로 영상 정보를 송신한다. 이때 제2 단말(133)로 송신되는 영상 정보는 사고 이전 소정 시간 동안의 이동 경로에 해당되는 영상 정보를 추출하여 송신하거나 또는 추출된 영상 정보 중 일부 영상 정보를 송신하는 것도 가능하다.
한편 도 13b에서 1355 단계 내지 1361 단계의 동작은 도 12에서 설명한 바와 같은 1235 단계 내지 1241 단계의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다. 그리고 1363 단계에서 제2 차량의 제3 단말(1361) 또한 제1 단말(131)과 제2 단말(133)로부터 각각 수신한 영상 정보 요청 메시지들에 포함된 사고 감지 시간들을 각각 확인하고, 제2 단말(133)의 사고 감지 시간이 더 빠른 것으로 판단한다. 그리고 1363 단계에서 제3 단말(135) 또한 제2 단말(133)로 영상 정보를 전송한다. 상기 1363 단계에서 전송되는 영상 정보는 이동 경로 특이 사항을 포함한 영상 정보가 전송될 수 있다. 상기 이동 경로 특이 사항은 선택적으로 포함될 수 있다. 상기 이동 경로 특이 사항이 포함되지 않을 경우, 1361 단계는 생략될 수 있다.
한편 도 13c의 1345 단계에서 제2 단말(133)은 영상 정보를 수신하고, 1347 단계에서 자신이 촬영한 영상 정보와 제1 및 제3 단말(131, 133)로부터 수신한 영상 정보를 이용하여 통합 영상을 생성하고, 1349 단계에서 상기 통합 영상을 제1 단말(131)에게 전송한다.
한편, 도 13a 내지 도 13c의 제1 차량과 관련된 영상 정보를 공유하는 방법에서 설명되지 않은 나머지 단계들의 동작은 전술한 제1 차량과 관련된 영상 정보를 공유하는 방법의 다른 예들에서 설명한 동작과 동일하므로 구체적인 설명은 생략하기로 한다.
도 13a 내지 도 13c에서는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하였으며, 다음으로 도 14a 및 도 14b를 참조하여 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예에 대해서 설명하기로 한다.
도 14a 및 도 14b는 본 발명의 일 실시 예에 따른 통신 시스템에서 제1 차량과 관련된 영상 정보를 공유하는 방법의 또 다른 예를 개략적으로 도시한 도면이다.
도 14a 및 도 14b을 참조하면, 도 14a 및 도 14b는 도시의 편의상 분리하여 도시하였으나, 그 도면들은 하나의 실시 예를 나타내는 이어진 도면들로 이해될 수 있다.
도 14a 및 도 14b의 예에서 제1 단말(141)은 제1 제1 차량의 단말, 제2 단말(143)은 제2 제1 차량의 단말, 그리고 제3 단말(145)은 제2 차량의 단말, 그리고 서버(147)는 제1 차량과 관련된 영상 정보을 수신하는 상기한 클라우드 서버이다. 즉 도 14a 및 도 14b의 실시 예는 제1 차량이 다수인 경우, 클라우드 서버를 이용하여 영상 정보를 공유하는 방법을 나타낸 것이다. 따라서 도 14a 및 도 14b에서 제1 및 제2 단말들(141, 143)과 해당 차량들은 각각 앞선 실시 예들에서 제1 단말과 제1 차량에 대응되고, 제3 단말(145)과 그 차량은 각각 앞선 실시 예들에서 제2 단말과 제2 차량에 대응된다. 도 14a에서 1411 단계 내지 1417 단계의 동작과, 1431 단계 내지 1437 단계의 동작은 도 3에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 311 단계 내지 317 단계의 동작과, 331 단계 내지 337 단계의 동작과 동일하므로 그 상세한 설명은 생략하기로 한다.
도 14a를 참조하면, 1419 단계, 1439 단계에서 제1 단말(141)과 제2 단말(143)은 각각 영상 정보 요청 메시지를 각각 전송한다. 이때 상기 영상 정보 요청 메시지는 사고 감지 시간과 서버(147)의 접근을 위한 주소 정보와 인증 정보 등을 포함할 수 있다. 또한 제1 단말(141)과 제2 단말(143)로부터 생성되는 영상 정보 요청 메시지는 각각 해당 차량의 사고 감지 시간, 사고 지점, 소정 시간 동안의 사고 이전 이동 경로, 그리고 해당 차량의 식별 정보 등을 포함할 수 있다. 또한 도시되지는 않았으나, 제1 단말(141)과 제2 단말(143)는 서로 간의 사고 감지 시간을 비교한다. 본 실시 예에서는 제2 단말(143)의 사고 감지 시간이 더 빠른 것으로 가정한다. 그리고 제2 차량의 제3 단말(145) 또한 제1 단말(141)과 제2 단말(143)로부터 각각 수신한 영상 정보 요청 메시지로부터 사고 감지 시간을 확인하고, 제2 단말(143)의 사고 감지 시간이 더 빠른 것으로 판단한다. 한편 1421 단계에서 제1 단말(141)은 영상 정보의 저장 지점을 서버(147)로 판단하고, 1423 단계에서 영상 정보의 저장 지점이 서버(147)인 것을 알리는 메시지를 방송(broadcasting)할 수 있다. 상기 1421 단계, 1423 단계의 동작은 생략될 수 있다. 한편 1455 내지 1459 단계에서 제3 단말(145)는 전송될 영상 정보를 선택하고, 송신 지점을 서버(147)로 판단하고, 1461 단계에서 서버(147)로 영상 정보를 송신한다.
도 14a 및 도 14b에 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법에서 설명되지 않은 나머지 단계들의 동작은 전술한 도시되어 있는 제1 차량과 관련된 영상 정보를 공유하는 방법의 다른 예들과 동일하므로 구체적인 설명은 생략하기로 한다.
본 발명의 특정 측면들은 또한 컴퓨터 리드 가능 기록 매체(computer readable recording medium)에서 컴퓨터 리드 가능 코드(computer readable code)로서 구현될 수 있다. 컴퓨터 리드 가능 기록 매체는 컴퓨터 시스템에 의해 리드될 수 있는 데이터를 저장할 수 있는 임의의 데이터 저장 디바이스이다. 상기 컴퓨터 리드 가능 기록 매체의 예들은 리드 온니 메모리(Read-Only Memory: ROM)와, 랜덤-접속 메모리(Random-Access Memory: RAM)와, CD-ROM들과, 마그네틱 테이프(magnetic tape)들과, 플로피 디스크(floppy disk)들과, 광 데이터 저장 디바이스들, 및 캐리어 웨이브(carrier wave)들(상기 인터넷을 통한 데이터 송신과 같은)을 포함할 수 있다. 상기 컴퓨터 리드 가능 기록 매체는 또한 네트워크 연결된 컴퓨터 시스템들을 통해 분산될 수 있고, 따라서 상기 컴퓨터 리드 가능 코드는 분산 방식으로 저장 및 실행된다. 또한, 본 발명을 성취하기 위한 기능적 프로그램들, 코드, 및 코드 세그먼트(segment)들은 본 발명이 적용되는 분야에서 숙련된 프로그래머들에 의해 쉽게 해석될 수 있다.
또한 본 발명의 일 실시예에 따른 장치 및 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 일 실시예에 따른 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다.
따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다
또한 본 발명의 일 실시예에 따른 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 프로그램 처리 장치가 기 설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 그래픽 처리 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 그래픽 처리 장치의 요청 또는 자동으로 해당 프로그램을 상기 송수신 장치로 전송하는 제어부를 포함할 수 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형할 수 있음은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
Claims (15)
- 통신 시스템에서 제1 차량과 통신이 연결되어 있는 제1 단말이 제2 차량의 주행 영상을 공유하는 방법에 있어서,상기 제1 차량의 시간 별 이동 경로를 저장하는 단계;상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하는 단계;상기 제1 메시지를 수신한 경우, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하는 단계; 및상기 제2 차량의 상기 주행 영상 중 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 단계를 포함하는 통신 시스템에서 제1 단말이 제2 차량의 주행 영상을 공유하는 방법.
- 통신 시스템에서 주변 차량의 주행 영상을 공유하는 단말에 있어서,상기 단말과 통신이 연결되어 있는 제1 차량의 시간 별 이동 경로를 저장하고, 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신하며, 상기 제1 메시지를 수신한 경우, 상기 저장된 이동 경로로부터 소정 시간 동안의 제1 이동 경로를 선택하고, 상기 주변 차량인 제2 차량의 상기 주행 영상 중 상기 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 송신하는 적어도 하나의 프로세서를 포함하는 통신 시스템에서 주변 차량의 주행 영상을 공유하는 단말.
- 상기 이동 경로는 상기 제1 차량의 시간 별 위치 정보를 포함하며,상기 이동 경로는 사고 감지 시간 이전부터 상기 소정 시간 동안의 선택된 이동 경로이며,상기 위치 정보는 상기 제1 차량의 위도, 경도, 고도, 속도, GPS(Global Positioning System) 정보, 주행 도로, 지도상 좌표 값, 주행 차선, 주행 방향 중 적어도 하나를 포함하는 제1항의 방법 혹은 제2항의 단말.
- 상기 제2 메시지는 상기 사고 발생이 감지된 사고 감지 시간, 사고 지점, 상기 제1 이동 경로, 상기 제1 차량의 식별 정보 중 적어도 하나의 정보를 포함하는 제1항의 방법 혹은 제2항의 단말.
- 제 1 항에 있어서,상기 제2 차량의 제2 단말이 상기 제2 메시지를 수신한 경우,상기 제2 단말로부터 상기 제1 이동 경로와 관련된 상기 영상 정보를 수신하는 단계를 더 포함하는 통신 시스템에서 제1 단말이 제2 차량의 주행 영상을 공유하는 방법.
- 제 5 항에 있어서,상기 영상 정보는 상기 제2 차량의 상기 주행 경로에서 감지된 이동 경로 특이 사항을 포함함을 특징으로 하는 통신 시스템에서 제1 단말이 제2 차량의 주행 영상을 공유하는 방법.
- 제 2 항에 있어서,상기 적어도 하나의 프로세서는, 상기 제2 차량의 제2 단말이 상기 제2 메시지를 수신한 경우, 상기 제2 단말로부터 상기 제1 이동 경로와 관련된 상기 영상 정보를 수신함을 특징으로 하는 통신 시스템에서 주변 차량의 주행 영상을 공유하는 단말.
- 제 7 항에 있어서,상기 제2 단말로부터 수신되는 상기 영상 정보는 상기 제2 차량의 상기 주행 경로에서 감지된 이동 경로 특이 사항을 포함하는 통신 시스템에서 주변 차량의 주행 영상을 공유하는 단말.
- 상기 제1 이동 경로와 관련된 상기 영상 정보는 상기 제2 메시지를 수신한 상기 제2 차량의 제2 단말, 또는 폐쇄 회로 텔레비젼(CCTV: Closed Circuit Television)에 의해 생성되고,상기 생성된 영상 정보는 외부 서버로 송신되는 제1항의 방법 혹은 제2항의 단말.
- 통신 시스템에서 제2 차량과 통신이 연결되어 있는 제2 단말이 제1 차량과 통신이 연결되어 있는 제1 단말과 주행 영상을 공유하는 방법에 있어서,상기 제1 단말이 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신한 경우, 상기 제1 단말로부터 상기 제2 차량의 상기 주행 영상 중 상기 제1 차량의 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 수신하는 단계; 및상기 주행 영상 중 상기 제1 이동 경로를 기반으로 선택된 상기 영상 정보를 송신하는 단계를 포함하는 통신 시스템에서 제2 단말이 제1 단말과 주행 영상을 공유하는 방법.
- 제 10 항에 있어서,상기 송신하는 단계는,상기 제2 메시지로부터 획득된 정보를 근거로, 상기 제1 차량과 상기 제2 차량 간의 상대 각도를 계산하는 단계; 및상기 계산된 상대 각도를 근거로 상기 제1 차량이 촬영되었는지 여부를 판단하는 단계를 포함하는 통신 시스템에서 제2 단말이 제1 단말과 주행 영상을 공유하는 방법.
- 제 10 항에 있어서,상기 송신하는 단계는:상기 제1 차량과의 거리가 영상의 픽셀 수와 관련된 조건을 만족하는 지 판단하는 단계; 및상기 조건을 만족하는 경우, 상기 선택된 영상 정보를 송신하는 과정을 포함하거나, 혹은상기 주행 경로에서 상기 제1 이동 경로와 관련된 이동 경로 특이 사항을 감지하는 단계; 및상기 이동 경로 특이 사항이 포함된 상기 영상 정보를 송신하는 단계를 포함하는 통신 시스템에서 제2 단말이 제1 단말과 주행 영상을 공유하는 방법.
- 통신 시스템에서 제1 차량과 통신이 연결된 제1 단말과 주행 영상을 공유하는 제2 차량과 통신이 연결된 단말에 있어서,상기 제1 단말이 상기 제1 차량의 전자 장치로부터 사고 발생 또는 위험 상황을 알리는 제1 메시지를 수신한 경우, 상기 제1 단말로부터 상기 제2 차량의 상기 주행 영상 중 상기 제1 차량의 제1 이동 경로와 관련된 영상 정보를 요청하는 제2 메시지를 수신하고, 상기 주행 영상 중 상기 제1 이동 경로를 기반으로 선택된 상기 영상 정보를 송신하는 적어도 하나의 프로세서를 포함하는 제1 단말과 주행 영상을 공유하는 단말.
- 제 13 항에 있어서,상기 적어도 하나의 프로세서는, 상기 제2 메시지로부터 획득된 정보를 근거로, 상기 제1 차량과 상기 제2 차량 간의 상대 각도를 계산하고, 상기 계산된 상대 각도를 근거로 상기 제1 차량이 촬영되었는지 여부를 판단함을 특징으로 하는 제1 단말과 주행 영상을 공유하는 단말.
- 제 13 항에 있어서,상기 적어도 하나의 프로세서는, 상기 제1 차량과의 거리가 영상의 픽셀 수와 관련된 조건을 만족하는 지 판단하고, 상기 조건을 만족하는 경우, 상기 선택된 영상 정보를 송신하거나, 혹은상기 주행 경로에서 상기 제1 이동 경로와 관련된 이동 경로 특이 사항을 감지하고, 상기 이동 경로 특이 사항이 포함된 상기 영상 정보를 송신함을 특징으로 하는 제1 단말과 주행 영상을 공유하는 단말.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/068,307 US10861326B2 (en) | 2016-01-05 | 2017-01-05 | Method and device for sharing image information in communication system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2016-0000951 | 2016-01-05 | ||
KR1020160000951A KR102464898B1 (ko) | 2016-01-05 | 2016-01-05 | 차량과 관련된 영상 정보를 공유하는 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017119737A1 true WO2017119737A1 (ko) | 2017-07-13 |
Family
ID=59273864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/000137 WO2017119737A1 (ko) | 2016-01-05 | 2017-01-05 | 통신 시스템에서 영상 정보를 공유하는 방법 및 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10861326B2 (ko) |
KR (1) | KR102464898B1 (ko) |
WO (1) | WO2017119737A1 (ko) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108492567A (zh) * | 2018-04-24 | 2018-09-04 | 汪宇明 | 监控终端、道路交通预警方法及系统 |
CN109935106A (zh) * | 2017-12-18 | 2019-06-25 | 成都配天智能技术有限公司 | 一种车辆信息交互方法、装置、车辆及存储介质 |
CN110463142A (zh) * | 2018-01-22 | 2019-11-15 | 松下电器(美国)知识产权公司 | 车辆异常检测服务器、车辆异常检测系统及车辆异常检测方法 |
CN110493561A (zh) * | 2018-05-14 | 2019-11-22 | 丰田自动车株式会社 | 服务器、车辆拍摄系统及车辆拍摄方法 |
CN111047870A (zh) * | 2018-10-12 | 2020-04-21 | 丰田自动车株式会社 | 交通违规车辆识别系统、服务器及存储有车辆控制程序的非易失性存储介质 |
CN113326756A (zh) * | 2021-05-25 | 2021-08-31 | 中国地质调查局武汉地质调查中心 | 一种基于岩体劣化特征的库岸潜在滑坡隐患识别方法 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11201908B2 (en) * | 2014-02-05 | 2021-12-14 | Seon Design (Usa) Corp. | Uploading data from mobile devices |
DE102016217645B4 (de) * | 2016-09-15 | 2023-01-19 | Volkswagen Aktiengesellschaft | Verfahren zum Bereitstellen von Information über eine voraussichtliche Fahrintention eines Fahrzeugs |
EP3664041B1 (en) * | 2017-07-31 | 2024-09-25 | JVCKENWOOD Corporation | Image recording device, image recording method, and image recording program |
KR101874352B1 (ko) * | 2017-12-14 | 2018-07-06 | 최현수 | 효율적인 교통정보 전달을 위한 교통 전광판과 차내 단말 및 이를 포함하는 지능형 교통 시스템 |
KR102394908B1 (ko) * | 2017-12-21 | 2022-05-09 | 현대자동차주식회사 | 차량 및 차량의 제어방법 |
US10607484B2 (en) * | 2017-12-28 | 2020-03-31 | Intel Corporation | Privacy-preserving distributed visual data processing |
JP7118757B2 (ja) * | 2018-01-22 | 2022-08-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | サーバ、プログラム、及び、方法 |
US10932127B2 (en) * | 2018-02-19 | 2021-02-23 | Fortinet, Inc. | Evaluating trustworthiness of data transmitted via unencrypted wireless mobile communications |
US11175654B2 (en) * | 2018-05-03 | 2021-11-16 | DoorDash, Inc. | Virtual vehicle control system |
US10856120B2 (en) | 2018-06-19 | 2020-12-01 | Blackberry Limited | Providing inter-vehicle data communications for multimedia content |
US10703386B2 (en) * | 2018-10-22 | 2020-07-07 | Ebay Inc. | Intervehicle communication and notification |
US11270132B2 (en) * | 2018-10-26 | 2022-03-08 | Cartica Ai Ltd | Vehicle to vehicle communication and signatures |
US11170638B2 (en) * | 2018-12-19 | 2021-11-09 | International Business Machines Corporation | Look ahead auto dashcam (LADCAM) for improved GPS navigation |
WO2020171605A1 (ko) * | 2019-02-19 | 2020-08-27 | 에스케이텔레콤 주식회사 | 주행 정보 제공 방법, 차량맵 제공 서버 및 방법 |
EP3788933A1 (en) * | 2019-09-05 | 2021-03-10 | BSH Hausgeräte GmbH | Method for controlling a home appliance |
KR102245850B1 (ko) * | 2020-02-07 | 2021-04-28 | 동의대학교 산학협력단 | 블랙박스 영상을 이용한 통합 관제 서비스를 제공하는 장치 및 방법 |
DE102020105949A1 (de) * | 2020-03-05 | 2021-09-09 | Audi Aktiengesellschaft | System zur Unfallschaden-Detektion und Kommunikation |
US11538343B2 (en) | 2020-03-23 | 2022-12-27 | Toyota Motor North America, Inc. | Automatic warning of atypical audio indicating a transport event |
US11443624B2 (en) * | 2020-03-23 | 2022-09-13 | Toyota Motor North America, Inc. | Automatic warning of navigating towards a dangerous area or event |
US11657704B2 (en) * | 2020-03-25 | 2023-05-23 | Blackberry Limited | Event data collections for accidents |
JP7508957B2 (ja) * | 2020-09-09 | 2024-07-02 | トヨタ自動車株式会社 | 情報管理システムおよびこれに用いられる携帯端末、画像管理サーバ |
FR3131793A1 (fr) * | 2022-01-12 | 2023-07-14 | Renault S.A.S | Système de visualisation du contexte d’un véhicule automobile, procédé et véhicule associés |
CN114501676A (zh) * | 2022-01-21 | 2022-05-13 | 维沃移动通信有限公司 | 对象分享方法、装置、电子设备和可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090105902A1 (en) * | 2007-10-22 | 2009-04-23 | Electronics And Telecommunications Research Institute | Method for providing vehicle accident information and apparatus therefor |
JP2012198599A (ja) * | 2011-03-18 | 2012-10-18 | Yazaki Corp | 記録装置 |
KR20140077630A (ko) * | 2012-12-14 | 2014-06-24 | 주식회사 헤븐리아이디어 | 위치기반 사고 정보공유 방법 |
KR20140099787A (ko) * | 2013-02-04 | 2014-08-13 | 인포뱅크 주식회사 | 차량간 통신시스템 및 그 방법 |
JP2015028711A (ja) * | 2013-07-30 | 2015-02-12 | 富士重工業株式会社 | 車両の交通環境情報記録装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH081Y2 (ja) * | 1988-07-15 | 1996-01-10 | 九州日立マクセル株式会社 | ヘアードライヤ |
US6720920B2 (en) * | 1997-10-22 | 2004-04-13 | Intelligent Technologies International Inc. | Method and arrangement for communicating between vehicles |
WO2003014671A1 (en) * | 2001-08-10 | 2003-02-20 | Aisin Aw Co., Ltd. | Traffic information search method, traffic information search system, mobile body communication device, and network navigation center |
KR101578721B1 (ko) * | 2008-12-15 | 2015-12-21 | 엘지전자 주식회사 | 네비게이션 단말기 및 네비게이션 단말기의 경로안내방법 |
KR101537705B1 (ko) * | 2009-03-30 | 2015-07-22 | 엘지전자 주식회사 | 차량 내비게이션 방법 및 그 장치 |
KR101451765B1 (ko) * | 2011-03-02 | 2014-10-20 | 팅크웨어(주) | 전자 기기 및 전자 기기의 제어 방법 |
KR101451768B1 (ko) * | 2011-03-21 | 2014-10-17 | 팅크웨어(주) | 주행 영상 획득을 위한 전자 기기 및 전자 기기의 주행 영상 획득 방법 및 주행 영상 제공을 위한 서버 및 서버의 주행 영상 제공 방법 |
KR101302365B1 (ko) * | 2011-09-15 | 2013-09-17 | 팅크웨어(주) | 내비게이션 장치 및 그 제어 방법 |
US9141112B1 (en) * | 2013-10-16 | 2015-09-22 | Allstate Insurance Company | Caravan management |
JP6296447B2 (ja) | 2014-03-19 | 2018-03-20 | 株式会社日本総合研究所 | 自動運転交通システムを利用した撮影情報共有システム、撮影情報管理装置及び撮影情報共有方法 |
US10348888B1 (en) * | 2018-08-03 | 2019-07-09 | Motorola Solutions, Inc. | Call management system for a command center utilizing call metadata |
-
2016
- 2016-01-05 KR KR1020160000951A patent/KR102464898B1/ko active IP Right Grant
-
2017
- 2017-01-05 US US16/068,307 patent/US10861326B2/en active Active
- 2017-01-05 WO PCT/KR2017/000137 patent/WO2017119737A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090105902A1 (en) * | 2007-10-22 | 2009-04-23 | Electronics And Telecommunications Research Institute | Method for providing vehicle accident information and apparatus therefor |
JP2012198599A (ja) * | 2011-03-18 | 2012-10-18 | Yazaki Corp | 記録装置 |
KR20140077630A (ko) * | 2012-12-14 | 2014-06-24 | 주식회사 헤븐리아이디어 | 위치기반 사고 정보공유 방법 |
KR20140099787A (ko) * | 2013-02-04 | 2014-08-13 | 인포뱅크 주식회사 | 차량간 통신시스템 및 그 방법 |
JP2015028711A (ja) * | 2013-07-30 | 2015-02-12 | 富士重工業株式会社 | 車両の交通環境情報記録装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109935106A (zh) * | 2017-12-18 | 2019-06-25 | 成都配天智能技术有限公司 | 一种车辆信息交互方法、装置、车辆及存储介质 |
CN110463142A (zh) * | 2018-01-22 | 2019-11-15 | 松下电器(美国)知识产权公司 | 车辆异常检测服务器、车辆异常检测系统及车辆异常检测方法 |
CN108492567A (zh) * | 2018-04-24 | 2018-09-04 | 汪宇明 | 监控终端、道路交通预警方法及系统 |
CN110493561A (zh) * | 2018-05-14 | 2019-11-22 | 丰田自动车株式会社 | 服务器、车辆拍摄系统及车辆拍摄方法 |
US11184586B2 (en) | 2018-05-14 | 2021-11-23 | Toyota Jidosha Kabushiki Kaisha | Server, vehicle image capturing system, and vehicle image capturing method |
CN111047870A (zh) * | 2018-10-12 | 2020-04-21 | 丰田自动车株式会社 | 交通违规车辆识别系统、服务器及存储有车辆控制程序的非易失性存储介质 |
CN113326756A (zh) * | 2021-05-25 | 2021-08-31 | 中国地质调查局武汉地质调查中心 | 一种基于岩体劣化特征的库岸潜在滑坡隐患识别方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102464898B1 (ko) | 2022-11-09 |
KR20170081920A (ko) | 2017-07-13 |
US20190012908A1 (en) | 2019-01-10 |
US10861326B2 (en) | 2020-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017119737A1 (ko) | 통신 시스템에서 영상 정보를 공유하는 방법 및 장치 | |
JP5889463B1 (ja) | 画像管理システム、サーバ、画像管理方法、サーバ制御方法、及びサーバプログラム | |
WO2011136456A1 (en) | Video display apparatus and method | |
WO2015122729A1 (en) | Method and apparatus for forecasting flow of traffic | |
EP4032079A1 (en) | Electronic device for processing v2x message and operating method thereof | |
CN110570687B (zh) | Agv的控制方法、装置及存储介质 | |
WO2011108836A2 (ko) | 서버, 내비게이션 시스템, 차량용 내비게이션 및 차량용 내비게이션의 영상 제공 방법 | |
WO2017217713A1 (en) | Method and apparatus for providing augmented reality services | |
JP2009083815A (ja) | ドライブレコーダ装置および事故解析シミュレーション装置 | |
US10846954B2 (en) | Method for monitoring vehicle and monitoring apparatus | |
US12022238B2 (en) | Information processing device and method for controlling image data thereof | |
CN110751854A (zh) | 汽车的停车指引方法、装置及存储介质 | |
WO2020159109A1 (en) | Method and electronic device for transmitting group message | |
WO2018016663A1 (ko) | V2p 충돌예방 시스템 및 그 방법 | |
EP3659302A1 (en) | Method for processing message and electronic device implementing the same | |
US11398151B2 (en) | Server, server control method, server control program, vehicle, vehicle control method, and vehicle control program | |
WO2012081787A1 (en) | Image processing apparatus of mobile terminal and method thereof | |
KR20210056632A (ko) | 메시지 기반의 영상 처리 방법 및 이를 구현하는 전자 장치 | |
US11943566B2 (en) | Communication system | |
US20200029009A1 (en) | System, image capturing apparatus, communication terminal, and computer-readable storage medium | |
US11070714B2 (en) | Information processing apparatus and information processing method | |
WO2018088703A1 (ko) | 운전 숙련도를 고려한 주차장 공유 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체 | |
WO2017003152A1 (en) | Apparatus and method for controlling object movement | |
WO2018143584A1 (ko) | 이미지를 촬영하고 표시하는 전자 장치 및 방법 | |
US11303815B2 (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17736109 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17736109 Country of ref document: EP Kind code of ref document: A1 |