WO2020196933A1 - Electronic device for vehicle and operation method of electronic device for vehicle - Google Patents

Electronic device for vehicle and operation method of electronic device for vehicle Download PDF

Info

Publication number
WO2020196933A1
WO2020196933A1 PCT/KR2019/003369 KR2019003369W WO2020196933A1 WO 2020196933 A1 WO2020196933 A1 WO 2020196933A1 KR 2019003369 W KR2019003369 W KR 2019003369W WO 2020196933 A1 WO2020196933 A1 WO 2020196933A1
Authority
WO
WIPO (PCT)
Prior art keywords
processor
vehicle
data
poi
image data
Prior art date
Application number
PCT/KR2019/003369
Other languages
French (fr)
Korean (ko)
Inventor
박현상
강태권
신동헌
윤용철
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/003369 priority Critical patent/WO2020196933A1/en
Publication of WO2020196933A1 publication Critical patent/WO2020196933A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences

Definitions

  • the present invention relates to an electronic device for a vehicle and a method of operating the electronic device for a vehicle.
  • a vehicle is a device that moves in a direction desired by a boarding user.
  • a typical example is a car.
  • Autonomous vehicle refers to a vehicle that can be driven automatically without human driving operation. Since the user does not need to drive in the autonomous vehicle, the autonomous vehicle can provide a variety of information to the user. Among various types of information, research is needed on a system that provides information that users need and can use.
  • an object of the present invention is to provide an electronic device for a vehicle that provides location-based POI information to a user.
  • Another object of the present invention is to provide an electronic device for a vehicle that provides location-based POI information to a user.
  • the electronic device for a vehicle acquires image data outside the vehicle, detects at least one object based on the image data, and detects a point of interest (POI) around the vehicle.
  • the processor matches the POI data with the object.
  • the present invention further comprises a memory; wherein the processor receives the image data from a camera provided in the vehicle, and receives the POI data from an external server using a communication device provided in the vehicle. Then, the image data and the POI data are separated and stored in the memory.
  • the processor when a first signal based on a first user input is received, the processor generates a control signal for reproducing an image based on image data synchronized with the POI data.
  • the processor generates a control signal for reproducing an image based on image data synchronized from a first point in time to a point in time at which the first signal is received, and the first point in time is the first signal It is defined as the time point before the preset time from the time of reception.
  • the processor generates data in which the image data and the POI data are synchronized in a segment unit of the preset time length.
  • the processor when the first signal is received while the first segment is being generated, the processor is based on a portion of a previously generated first segment and a second segment generated before the first segment. Generates a control signal for reproducing an image.
  • the processor when the second signal based on the second user input is received while the image is being reproduced, the processor generates a control signal for outputting detailed information on at least one POI. Generate.
  • the processor generates a control signal for displaying a POI list based on the POI data according to the reproduced image.
  • the processor generates a control signal for displaying the graphic object of the image in a state matched with an actual object corresponding to the graphic object.
  • a method of operating an electronic device for a vehicle may include: obtaining, by at least one processor, image data outside the vehicle; Detecting, by at least one processor, at least one object based on the image data; At least one processor, obtaining POI (Point of Interest) data around the vehicle; And synchronizing, by at least one processor, POI data with the image data based on a timestamp of the image data.
  • obtaining, by at least one processor, image data outside the vehicle Detecting, by at least one processor, at least one object based on the image data; At least one processor, obtaining POI (Point of Interest) data around the vehicle; And synchronizing, by at least one processor, POI data with the image data based on a timestamp of the image data.
  • POI Point of Interest
  • the synchronizing step includes, by at least one processor, matching the POI data with the object.
  • the obtaining of the image data may include: receiving, by at least one processor, the image data from a camera provided in a vehicle; And storing, by at least one processor, the image data in a memory, wherein the obtaining of the POI data comprises: at least one processor, by using a communication device provided in the vehicle, from an external server. Receiving POI data; And storing the POI data separately from the image data in the memory by at least one processor.
  • a control signal for reproducing an image based on the image data synchronized with the POI data includes more.
  • the generating may include: generating, by at least one processor, a control signal for reproducing an image based on image data synchronized from a first point in time to a point in time at which the first signal is received; And the first time point is defined as a time point before a preset time from the time point at which the first signal is received.
  • the generating may include generating, by at least one processor, data in which the image data and the POI data are synchronized in units of segments of the preset time length; Include.
  • the generating of the synchronized data includes, by at least one processor, when the first signal is received while the first segment is being generated, the first segment and the first And generating a control signal for reproducing an image based on a part of the second segment generated before the segment.
  • control for outputting detailed information on at least one POI Generating a signal further includes.
  • At least one processor generates a control signal for displaying a POI list based on the POI data according to the reproduced image.
  • the generating step includes, by at least one processor, generating a control signal for displaying the graphic object of the image in a state matched with an actual object.
  • POI data is stored separately from image data and synchronized according to the situation to be provided to the user, thereby having an advantageous effect on processing load management.
  • FIG. 1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a control block diagram of a vehicle according to an embodiment of the present invention.
  • 3 is a diagram referenced to describe an entire system according to an embodiment of the present invention.
  • FIG. 4 is a control block diagram of an electronic device for a vehicle according to an embodiment of the present invention.
  • FIG. 5 is a flow chart of an electronic device for a vehicle according to an embodiment of the present invention.
  • 6 to 11C are views referenced to explain the operation of the electronic device for a vehicle according to an embodiment of the present invention.
  • FIG. 1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
  • a vehicle 10 is defined as a means of transport running on a road or track.
  • the vehicle 10 is a concept including a car, a train, and a motorcycle.
  • the vehicle 10 may be a concept including both an internal combustion engine vehicle including an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, and an electric vehicle including an electric motor as a power source.
  • the vehicle 10 may be a shared vehicle.
  • the vehicle 10 may be an autonomous vehicle.
  • the electronic device 100 may be included in the vehicle 10.
  • the electronic device 100 may provide Point of Interest (POI) information to a user in augmented reality (AR).
  • POI Point of Interest
  • AR augmented reality
  • FIG. 2 is a control block diagram of a vehicle according to an embodiment of the present invention.
  • the vehicle 10 includes an electronic device 100 for a vehicle, a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, and a main ECU 240. ), a vehicle driving device 250, a driving system 260, a sensing unit 270, and a location data generating device 280.
  • the vehicle electronic device 100 may provide Point of Interest (POI) information to a user in augmented reality.
  • the vehicle electronic device 100 may synchronize image data and POI data, and reproduce an image based on the synchronized data. POI information may be included in the reproduced image.
  • the vehicle electronic device 100 may interact with a user.
  • the vehicle electronic device 100 may receive a signal based on a user input and may control an output according to the received signal.
  • the user interface device 200 is a device for communicating with the vehicle 10 and a user.
  • the user interface device 200 may receive a user input and provide information generated in the vehicle 10 to the user.
  • the vehicle 10 may implement a user interface (UI) or a user experience (UX) through the user interface device 200.
  • UI user interface
  • UX user experience
  • the object detection device 210 may detect an object outside the vehicle 10.
  • the object detection device 210 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detection device 210 may provide data on an object generated based on a sensing signal generated by a sensor to at least one electronic device included in the vehicle.
  • the communication device 220 may exchange signals with devices located outside the vehicle 10.
  • the communication device 220 may exchange signals with at least one of an infrastructure (eg, a server, a broadcasting station) and another vehicle.
  • the communication device 220 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the driving operation device 230 is a device that receives a user input for driving. In the case of the manual mode, the vehicle 10 may be driven based on a signal provided by the driving operation device 230.
  • the driving operation device 230 may include a steering input device (eg, a steering wheel), an acceleration input device (eg, an accelerator pedal), and a brake input device (eg, a brake pedal).
  • the main ECU 240 may control the overall operation of at least one electronic device provided in the vehicle 10.
  • the vehicle drive device 250 is a device that electrically controls driving of various devices in the vehicle 10.
  • the vehicle driving apparatus 250 may include a power train driving unit, a chassis driving unit, a door/window driving unit, a safety device driving unit, a lamp driving unit, and an air conditioning driving unit.
  • the power train driving unit may include a power source driving unit and a transmission driving unit.
  • the chassis driving unit may include a steering driving unit, a brake driving unit, and a suspension driving unit.
  • the safety device driving unit may include a safety belt driving unit for controlling the safety belt.
  • the ADAS 260 may control a movement of the vehicle 10 or generate a signal for outputting information to a user based on data on an object received by the object detection apparatus 210.
  • the ADAS 260 may provide the generated signal to at least one of the user interface device 200, the main ECU 240, and the vehicle driving device 250.
  • ADAS 260 includes an adaptive cruise control system (ACC), an automatic emergency braking system (AEB), a forward collision warning system (FCW), and a lane maintenance assistance system (LKA: Lane Keeping Assist), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control System (HBA: High) Beam Assist), Auto Parking System (APS), PD collision warning system, Traffic Sign Recognition (TSR), Traffic Sign Assist (TSA), At least one of a night vision system (NV: Night Vision), a driver status monitoring system (DSM), and a traffic jam assistance system (TJA) may be implemented.
  • ACC adaptive cruise control system
  • AEB automatic emergency braking system
  • FCW forward collision warning system
  • LKA Lane Keeping Assist
  • Lane Change Assist LCA
  • TFA Target Following Assist
  • BSD Blind Spot Detection
  • HBA High Beam Control System
  • APS Auto Parking System
  • the sensing unit 270 may sense the state of the vehicle.
  • the sensing unit 270 includes an inertial navigation unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle.
  • IMU inertial navigation unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • a tilt sensor a weight detection sensor
  • a heading sensor a position module
  • a vehicle At least one of forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, and brake pedal position sensor It may include.
  • the inertial navigation unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.
  • the sensing unit 270 may generate state data of the vehicle based on a signal generated by at least one sensor.
  • the sensing unit 270 includes vehicle attitude information, vehicle motion information, vehicle yaw information, vehicle roll information, vehicle pitch information, vehicle collision information, vehicle direction information, vehicle angle information, and vehicle speed.
  • the sensing unit 270 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further included.
  • the sensing unit 270 may generate vehicle state information based on the sensing data.
  • the vehicle status information may be information generated based on data sensed by various sensors provided inside the vehicle.
  • the vehicle status information includes vehicle attitude information, vehicle speed information, vehicle tilt information, vehicle weight information, vehicle direction information, vehicle battery information, vehicle fuel information, vehicle tire pressure information, It may include vehicle steering information, vehicle interior temperature information, vehicle interior humidity information, pedal position information, vehicle engine temperature information, and the like.
  • the sensing unit may include a tension sensor.
  • the tension sensor may generate a sensing signal based on a tension state of the seat belt.
  • the location data generating device 280 may generate location data of the vehicle 10.
  • the location data generating apparatus 280 may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS).
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the location data generating apparatus 280 may generate location data of the vehicle 10 based on a signal generated by at least one of GPS and DGPS.
  • the location data generating apparatus 280 may correct the location data based on at least one of an IMU (Inertial Measurement Unit) of the sensing unit 270 and a camera of the object detection apparatus 210.
  • IMU Inertial Measurement Unit
  • Vehicle 10 may include an internal communication system 50.
  • a plurality of electronic devices included in the vehicle 10 may exchange signals through the internal communication system 50.
  • the signal may contain data.
  • the internal communication system 50 may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
  • 3 is a diagram referenced to describe an entire system according to an embodiment of the present invention.
  • FIG. 4 is a control block diagram of an electronic device for a vehicle according to an embodiment of the present invention.
  • the system may include a vehicle 10, a mobile terminal 20, and an external device 30.
  • the vehicle 10 may exchange signals with the mobile terminal 20 and the external device 30 through at least one communication network.
  • the vehicle 10 is as described with reference to FIGS. 1 and 2.
  • the vehicle 10 may include an electronic device 100 for a vehicle.
  • the vehicle electronic device 100 may exchange signals with the mobile terminal 20 and the external device 30 through the communication device 220. Depending on the embodiment, the vehicle electronic device 100 may be connected to the communication device 220 via an Ethernet switch hub.
  • the processor 170 may exchange signals with the mobile terminal 20 through the interface unit 180 and the communication device 220.
  • the processor 170 may receive data from the mobile terminal 20 and transmit the data to the mobile terminal 20.
  • the processor 170 may exchange signals with the external device 30 through the interface unit 180 and the communication device 220.
  • the processor 170 may receive data from the external device 30 and transmit the data to the external device 30.
  • the vehicle electronic device 100 may include a memory 140, a processor 170, an interface unit 180, and a power supply unit 190.
  • the memory 140 is electrically connected to the processor 170.
  • the memory 140 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data.
  • the memory 140 may store data processed by the processor 170.
  • the memory 140 may be configured with at least one of ROM, RAM, EPROM, flash drive, and hard drive.
  • the memory 140 may store various data for overall operation of the electronic device 100, such as a program for processing or controlling the processor 170.
  • the memory 140 may be implemented integrally with the processor 170. Depending on the embodiment, the memory 140 may be classified as a sub-element of the processor 170.
  • the memory 140 may store image data received from a camera provided in the vehicle 10.
  • the memory 140 may store POI data received from the external server 34 using the communication device 220 provided in the vehicle 10.
  • the memory 140 may separately store image data and POI data.
  • the interface unit 180 may exchange signals with at least one electronic device provided in the vehicle 10 by wire or wirelessly.
  • the interface unit 280 includes an object detection device 210, a communication device 220, a driving operation device 230, a main ECU 140, a vehicle driving device 250, an ADAS 260, and a sensing unit 170. And it is possible to exchange a signal with at least one of the location data generating device 280 wired or wirelessly.
  • the interface unit 280 may be configured with at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.
  • the interface unit 180 may receive location data of the vehicle 10 from the location data generating device 280.
  • the interface unit 180 may receive driving speed data from the sensing unit 270.
  • the interface unit 180 may receive object data around the vehicle from the object detection device 210.
  • the power supply unit 190 may supply power to the electronic device 100.
  • the power supply unit 190 may receive power from a power source (eg, a battery) included in the vehicle 10 and supply power to each unit of the electronic device 100.
  • a power source eg, a battery
  • the processor 170 may be electrically connected to the memory, the interface unit 180, and the power supply unit 190 to exchange signals.
  • the processor 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
  • the processor 170 may include a POI application 110.
  • the POI application may be installed on the processor 170.
  • the POI application 110 may perform a POI-related operation described below.
  • the processor 170 may acquire image data outside the vehicle.
  • the processor 170 may receive image data from a camera provided in the vehicle 10.
  • the camera may be classified as a sub-element of the object detection device 210.
  • the camera may acquire an external image of the vehicle 10.
  • the camera may acquire front, rear, left and right images of the vehicle 10.
  • the camera may transmit the acquired image data to the processor 170.
  • the processor 170 may detect at least one object based on the image data.
  • the object may be a building, a store, a landmark, a tourist destination, a restaurant, a historical site, or the like that is a target of POI.
  • the processor 170 may acquire Point of Interest (POI) data around the vehicle.
  • the processor 170 may receive POI data from the external server 34 using the communication device 220 provided in the vehicle 10.
  • the processor 170 may transmit location information of the vehicle 10 to the external server 34.
  • the external server 34 may determine a POI located within a distance from the location of the vehicle 10 and provide data on the POI to the processor 170.
  • the processor 170 may separate and store image data and POI data in the memory 140.
  • POI data has a smaller amount of data than image data, and thus memory 140-based management is possible.
  • operations such as POI navigation or POI selection are possible.
  • the operation of putting the POI data as meta data in the image data is a processing load.
  • the processor 170 may synchronize POI data with image data based on a timestamp of the image data.
  • the processor 170 may synchronize the video data and the POI data based on a time stamp (eg, Video PTS) at the time of video playback.
  • the processor 170 may synchronize the image data and the POI data at all times while the vehicle 10 is running, and store them in the memory 140.
  • the processor 170 may match the POI data with an object detected based on the image data.
  • the processor 170 may receive a first signal based on a first user input. For example, the processor 170 may receive a signal generated by a user's manipulation of the touch module 211 through a USB hub. When a first signal based on a first user input is received, the processor 170 may generate a control signal for reproducing an image based on image data synchronized with POI data. The processor 170 may transmit a control signal to the display 214.
  • the processor 170 may generate a control signal for reproducing an image based on the synchronized image data from the first point in time to the first signal reception point.
  • the first time point may be defined as a time point before a preset time from the first signal reception time point.
  • the processor 170 may reproduce an image based on the synchronized image data 30 seconds before a time when a first user input is made.
  • the amount of the video to be played may be 30 seconds.
  • the processor 170 may generate data in which image data and POI data are synchronized in units of segments having a preset length of time.
  • the processor 170 may generate synchronization data in units of segments in real time and store them in the memory 140.
  • the processor 170 may delete the stored synchronization data in units of segments after a preset time.
  • the processor 170 controls to play back an image based on a part of a previously generated first segment and a second segment generated before the first segment Can generate signals.
  • the total sum of the playback times may be the preset length of time. For example, the total sum of playback times may be 30 seconds.
  • the processor 170 may receive a second signal based on a second user input while an image is being played back. For example, the processor 170 may receive a signal generated by a user's manipulation of the touch module 211 through a USB hub. The processor 170 may generate a control signal for outputting detailed information on at least one POI when a second signal based on a second user input is received while an image is being reproduced. The processor 170 may receive detailed information on the POI from the external server 34 using the communication device 220.
  • the processor 170 may generate a control signal for displaying a POI list based on the POI data according to a reproduced image.
  • the processor 170 may provide a control signal to the display 214.
  • the processor 170 may generate a control signal for displaying a POI list according to a reproduced image based on a relative positional relationship between the vehicle 10 and the POI.
  • the processor 170 may display POI information contained in the image as augmented reality.
  • the processor 170 may generate a control signal for displaying a graphic object of an image in a state matched with an actual object corresponding to the graphic object.
  • the processor 170 may provide a control signal to the display 214.
  • the processor 170 includes a signage client 121, a media player 122, a POI detector 123, a voice agent 123, and a fleet client 125 can do.
  • the signage client 121 may communicate with at least one external server in order to obtain signage content.
  • the media player 122 can play content.
  • the POI detector 123 may communicate with the POI server based on GPS information to exchange signals, information, and data with the POI server.
  • the POI detector may detect an object based on the image data.
  • the voice agent 124 may generate a control signal based on a user's voice command.
  • the fleet client 125 is connected to the control server and serves to transmit a control command to at least one electronic device (eg, object detection device, main ECU, driving system) included in the vehicle, By transmitting vehicle sensor data to the server, central control and control are possible.
  • the touch module 211, the camera 212, the microphone 213, and the display 214 may be classified as sub-components of the user interface device 200.
  • the electronic device 100 may include at least one printed circuit board (PCB).
  • PCB printed circuit board
  • the electronic device 110, the memory, the interface unit 180, the power supply unit, and the processor 170 may be electrically connected to a printed circuit board.
  • the mobile terminal 20 can exchange signals with the vehicle 10.
  • the mobile terminal 20 can exchange signals with the vehicle 10 through a short-range communication method (eg, Bluetooth).
  • a short-range communication method eg, Bluetooth
  • the external device 30 can be exchanged with the vehicle 10 using at least one communication network.
  • the external device 30 includes a fleet management server 31, a signage server 32, a big data server 33, and a point of interest (POI) server ( 34) may be included.
  • POI point of interest
  • the fleet management server 31 may control a vehicle and set a driving route through communication with the fleet client 125, and perform a vehicle providing service in connection with a reservation server.
  • the signage server 32 Through communication with the signage client 121, it is possible to provide signage content.
  • the big data server 33 may extract and provide big data based on the provided context information.
  • the POI server 34 provides POI information registered based on GPS information. For example, the POI server may provide shopping street information, representative product information, representative advertisement information, and link information.
  • FIG. 5 is a flow chart of an electronic device for a vehicle according to an embodiment of the present invention.
  • the processor 170 may acquire image data outside the vehicle (S510).
  • the at least one processor 170 receives image data from a camera provided in the vehicle 10, and the at least one processor 170 stores the image data in a memory ( 140).
  • the processor 170 may detect at least one object based on the image data (S515).
  • the processor 170 may transmit the vehicle location data to the external server 34 (S520).
  • the external server 34 may select a POI around the vehicle and provide POI data based on the location data of the vehicle.
  • the processor 170 may acquire POI data around the vehicle (S530).
  • the at least one processor 170 receives POI data from the external server 34 using the communication device 220 provided in the vehicle 10, and at least One processor 170 may include storing the POI data in the memory 140 by separating from the image data.
  • the processor 170 may synchronize the POI data with the image data based on the time stamp of the image data (S540).
  • the synchronizing step (S540) may include matching, by at least one processor, the POI data with the object detected in step S515.
  • the processor 170 may generate a control signal for reproducing an image based on image data synchronized with POI data (S560).
  • the generating step (S560) includes generating, by the at least one processor 170, a control signal for reproducing an image based on the image data synchronized from a first point in time to a first signal reception point (step S561). can do.
  • the first time point may be defined as a time point before a preset time from the time when the first signal is received.
  • the generating step (S561) may include generating, by the at least one processor 170, data in which the image data and the POI data are synchronized in a segment unit of a preset time length (step S562). have.
  • step S562 when the first signal is received while the first segment is being generated, by the at least one processor 170, the generated first segment and the generated before the first segment It may include generating a control signal for reproducing an image based on a part of the second segment.
  • the generating step (S560) may include generating, by at least one processor, a control signal for displaying a graphic object of an image in a state matched with an actual object corresponding to the graphic object.
  • the processor 170 may generate a control signal for displaying a POI list based on the POI data according to a reproduced image (S570).
  • the processor 170 may generate a control signal for outputting detailed information on at least one POI when a second signal based on a second user input is received (S580) while an image is being played back. (S590).
  • 6 to 11C are views referenced to explain the operation of the electronic device for a vehicle according to an embodiment of the present invention.
  • the processor 170 may acquire image data 610.
  • the processor 170 may receive image data 610 from a camera that photographs the exterior of the vehicle.
  • the processor 170 may detect at least one object based on the image data 610.
  • the processor 170 may obtain the POI data 620.
  • the processor 170 may transmit location data of the vehicle 10 to the external server 34 using the communication device 220.
  • the processor 170 may receive POI data 620 based on location data of the vehicle 10 from the external server 34 using the communication device 220.
  • the processor 170 may separate the image data 610 and the POI data 620 and store them in the memory 140.
  • the processor 170 may synchronize the POI data 620 with the image data 610.
  • the processor 170 may synchronize the POI data 620 with the detected object.
  • the processor 170 may generate data in which image data and POI data are synchronized in segment units of a preset time length (eg, 30 seconds). As illustrated in FIG. 7, the processor 170 may generate first segment data 710, second segment data 720, and third segment data 730. The processor 170 generates the second segment data 720 after generating the third segment data 730 according to the passage of time, and the first segment after generating the second segment data 720 Data 710 may be generated.
  • a preset time length eg, 30 seconds.
  • the processor 170 may include a portion of the first segment data 710 and the second segment data 720.
  • the video can be played based on a part.
  • the image may be reproduced for the predetermined length of time (eg, 30 seconds).
  • the processor 170 includes the first segment data 710 from the first segment data 710 generation start point to the first signal reception point and the second segment data 720 at a preset time length.
  • An image may be reproduced based on a part of the second segment data 720 that is excluded by a partial time length of the 710.
  • the external server 34 may receive vehicle location data from the vehicle 10.
  • the external server 34 may select POIs 810 and 820 located within a preset distance based on the location of the vehicle 10 from a plurality of POIs.
  • the external server 34 may generate POI data corresponding to the POI.
  • the external server 34 may provide POI data to the vehicle electronic device 100.
  • the POI detector 123 may request image data from the video player 910 (S910).
  • the video player 910 may be software or hardware that processes an image acquired from a camera.
  • the POI detector 123 may receive image data and a time stamp value from the video player 910 (S920).
  • the POI detector 123 may search for a POI list matching the time stamp from the POI record file 620 of the memory 140 (S930).
  • the POI detector 123 may reproduce an image based on the image data synchronized with the POI (S940).
  • the processor 170 may request detailed information on the corresponding POI from the POI server 34.
  • the processor 170 may receive detailed information on the POI from the POI server 34 (S970).
  • the processor 170 may display detailed information on the POI (S980).
  • a display 214 may be disposed in an area 1010 of a window of the vehicle 10.
  • the display 214 may be implemented as a transparent display.
  • the transparent display can display a predetermined screen while having a predetermined transparency.
  • Transparent display in order to have transparency, transparent display is transparent TFEL (Thin Film Elecroluminescent), transparent OLED (Organic Light-Emitting Diode), transparent LCD (Liquid Crystal Display), transmissive transparent display, transparent LED (Light Emitting Diode) display It may include at least one of. The transparency of the transparent display can be adjusted.
  • the processor 170 may provide a control signal for reproducing an image including POI information on the display 214.
  • the processor 170 may provide a control signal for displaying POI information on the display 214.
  • the display 214 may implement a touch screen by forming a mutual layer of the touch input unit and the layer.
  • a user may interact with an electronic device for a vehicle through a touch screen.
  • the processor 170 may be operated according to a signal generated based on a user input through a touch screen. For example, the user may perform a double tap input by tapping the touch screen twice in order to receive POI information.
  • the double tap input may be an example of the above-described first user input.
  • the touch screen may convert a user's double tap input into an electrical signal.
  • the electrical signal based on the double tap input may be the above-described first signal.
  • the processor 170 may receive the first signal and perform a predetermined operation according to the first signal.
  • the user may perform a touch input on the first POI displayed on the touch screen in order to receive detailed information of the POI.
  • the touch input for the first POI may be an example of the aforementioned second user input.
  • the touch screen may convert a user's touch input into an electrical signal.
  • the electrical signal based on the touch input may be the second signal described above.
  • the processor 170 may receive the second signal and perform a predetermined operation according to the second signal.
  • the processor 170 may play a video 1110 on a region of the display 214.
  • the reproduced image may be an image in which POI information is combined with an image outside the vehicle 10.
  • the processor 170 may display a POI list 1120 together with an image reproduced in one area of the display 214.
  • the processor 170 may match and display a POI graphic object in a reproduced image with a POI list. For example, the processor 170 may highlight the first graphic object 1111 corresponding to the first POI closest to the vehicle 10. In this case, the processor 170 may highlight the first POI item 1121 matching the first graphic object 1111 in the POI list.
  • the processor 170 converts the highlighted graphic object from the first graphic object 1111 to a second graphic object ( 1112).
  • the processor 170 may change the first POI item 1121 to be highlighted in the POI list to the second POI item 1122.
  • the second POI item 1122 may be an item matching the second graphic object.
  • the processor 170 may output detailed information 1150 on the first POI.
  • the processor 170 may output additional information. For example, the processor 170 may output a description of a product or an advertisement video.
  • the processor 170 may display the route 1130 of the vehicle 10 and the traffic condition information 1140 on one area of the display 213.
  • the present invention described above can be implemented as a computer-readable code in a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet).
  • the computer may include a processor or a control unit. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Abstract

The present invention relates to an electronic device for a vehicle, the electronic device including a processor that: acquires image data outside the vehicle; detects at least one object on the basis of the image data; acquires point of interest (POI) data around the vehicle; and synchronizes the POI data with the image data on the basis of a timestamp of the image data.

Description

차량용 전자 장치 및 차량용 전자 장치의 동작 방법Vehicle electronic device and operation method of vehicle electronic device
본 발명은 차량용 전자 장치 및 차량용 전자 장치의 동작 방법에 관한 것이다. The present invention relates to an electronic device for a vehicle and a method of operating the electronic device for a vehicle.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 자율 주행 차량은 인간의 운전 조작 없이 자동으로 주행할 수 있는 차량을 의미한다. 자율 주행 차량에서 사용자는 운전을 할 필요가 없기 때문에, 자율 주행 차량은, 사용자에게 다양한 정보를 제공할 수 있다. 여러 정보들 중에서 사용자가 필요로하고 이용 가능한 정보를 제공하는 시스템에 대한 연구가 필요하다.A vehicle is a device that moves in a direction desired by a boarding user. A typical example is a car. Autonomous vehicle refers to a vehicle that can be driven automatically without human driving operation. Since the user does not need to drive in the autonomous vehicle, the autonomous vehicle can provide a variety of information to the user. Among various types of information, research is needed on a system that provides information that users need and can use.
본 발명은 상기한 문제점을 해결하기 위하여, 위치 기반의 POI 정보를 사용자에게 제공하는 차량용 전자 장치를 제공하는데 목적이 있다.In order to solve the above problems, an object of the present invention is to provide an electronic device for a vehicle that provides location-based POI information to a user.
또한, 본 발명은, 위치 기반의 POI 정보를 사용자에게 제공하는 차량용 전자 장치를 제공하는데 목적이 있다.Another object of the present invention is to provide an electronic device for a vehicle that provides location-based POI information to a user.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량용 전자 장치는, 차량 외부의 영상 데이터를 획득하고, 상기 영상 데이터에 기초하여 적어도 하나의 오브젝트를 검출하고, 차량 주변의 POI(Point of Interest) 데이터를 획득하고, 상기 영상 데이터의 타임 스탬프(timestamp)에 기초하여, 상기 영상 데이터에 POI 데이터를 동기화(synchronize)하는 프로세서;를 포함한다.In order to achieve the above object, the electronic device for a vehicle according to an embodiment of the present invention acquires image data outside the vehicle, detects at least one object based on the image data, and detects a point of interest (POI) around the vehicle. ) A processor for obtaining data and synchronizing POI data with the image data based on a timestamp of the image data.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 POI 데이터를 상기 오브젝트와 매칭한다.According to an embodiment of the present invention, the processor matches the POI data with the object.
본 발명의 실시예에 따르면, 메모리;를 더 포함하고, 상기 프로세서는, 차량에 구비된 카메라로부터 상기 영상 데이터를 수신하고, 차량에 구비된 통신 장치를 이용하여, 외부 서버로부터 상기 POI 데이터를 수신하고, 상기 메모리에, 상기 영상 데이터 및 상기 POI 데이터를 분리하여 저장한다.According to an embodiment of the present invention, it further comprises a memory; wherein the processor receives the image data from a camera provided in the vehicle, and receives the POI data from an external server using a communication device provided in the vehicle. Then, the image data and the POI data are separated and stored in the memory.
본 발명의 실시예에 따르면, 상기 프로세서는, 제1 사용자 입력에 기초한 제1 신호가 수신되는 경우, 상기 POI 데이터가 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성한다.According to an embodiment of the present invention, when a first signal based on a first user input is received, the processor generates a control signal for reproducing an image based on image data synchronized with the POI data.
본 발명의 실시예에 따르면, 상기 프로세서는, 제1 시점부터 상기 제1 신호 수신 시점까지 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성하고, 상기 제1 시점은, 상기 제1 신호 수신 시점에서부터 기 설정된 시간 이전의 시점으로 정의된다.According to an embodiment of the present invention, the processor generates a control signal for reproducing an image based on image data synchronized from a first point in time to a point in time at which the first signal is received, and the first point in time is the first signal It is defined as the time point before the preset time from the time of reception.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 기 설정된 시간 길이의 세그먼트(segment) 단위로, 상기 영상 데이터와 상기 POI 데이터가 동기화된 데이터를 생성한다.According to an embodiment of the present invention, the processor generates data in which the image data and the POI data are synchronized in a segment unit of the preset time length.
본 발명의 실시예에 따르면, 상기 프로세서는, 제1 세그먼트가 생성되는 중에 상기 제1 신호가 수신되는 경우, 기 생성된 제1 세그먼트와 상기 제1 세그먼트 이전에 생성된 제2 세그먼트의 일부에 기초한 영상을 재생하기 위한 제어 신호를 생성한다.According to an embodiment of the present invention, when the first signal is received while the first segment is being generated, the processor is based on a portion of a previously generated first segment and a second segment generated before the first segment. Generates a control signal for reproducing an image.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 영상이 재생되는 상태에서, 제2 사용자 입력에 기초한 제2 신호가 수신되는 경우, 적어도 어느 하나의 POI에 대한 상세 정보를 출력하기 위한 제어 신호를 생성한다.According to an embodiment of the present invention, when the second signal based on the second user input is received while the image is being reproduced, the processor generates a control signal for outputting detailed information on at least one POI. Generate.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 POI 데이터에 기초한 POI 리스트를 상기 재생되는 영상에 맞춰 표시하기 위한 제어 신호를 생성한다.According to an embodiment of the present invention, the processor generates a control signal for displaying a POI list based on the POI data according to the reproduced image.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 영상의 그래픽 객체가, 상기 그래픽 객체와 대응되는 실제 오브젝트와 매칭된 상태로 표시하기 위한 제어 신호를 생성한다.According to an embodiment of the present invention, the processor generates a control signal for displaying the graphic object of the image in a state matched with an actual object corresponding to the graphic object.
본 발명의 실시예에 따른 차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서가, 차량 외부의 영상 데이터를 획득하는 단계; 적어도 하나의 프로세서가, 상기 영상 데이터에 기초하여 적어도 하나의 오브젝트를 검출하는 단계; 적어도 하나의 프로세서가, 차량 주변의 POI(Point of Interest) 데이터를 획득하는 단계; 및 적어도 하나의 프로세서가, 상기 영상 데이터의 타임 스탬프(timestamp)에 기초하여, 상기 영상 데이터에 POI 데이터를 동기화(synchronize)하는 단계;를 포함한다.A method of operating an electronic device for a vehicle according to an embodiment of the present invention may include: obtaining, by at least one processor, image data outside the vehicle; Detecting, by at least one processor, at least one object based on the image data; At least one processor, obtaining POI (Point of Interest) data around the vehicle; And synchronizing, by at least one processor, POI data with the image data based on a timestamp of the image data.
본 발명의 실시예에 따르면, 상기 동기화하는 단계는, 적어도 하나의 프로세서가, 상기 POI 데이터를 상기 오브젝트와 매칭하는 단계;를 포함한다.According to an embodiment of the present invention, the synchronizing step includes, by at least one processor, matching the POI data with the object.
본 발명의 실시예에 따르면, 상기 영상 데이터를 획득하는 단계는, 적어도 하나의 프로세서가, 차량에 구비된 카메라로부터 상기 영상 데이터를 수신하는 단계; 및 적어도 하나의 프로세서가, 상기 영상 데이터를 메모리에 저장하는 단계;를 포함하고, 상기 POI 데이터를 획득하는 단계는, 적어도 하나의 프로세서가, 차량에 구비된 통신 장치를 이용하여, 외부 서버로부터 상기 POI 데이터를 수신하는 단계; 및 적어도 하나의 프로세서가, 상기 메모리에, 상기 영상 데이터와 분리하여 상기 POI 데이터를 저장하는 단계;를 포함한다.According to an embodiment of the present invention, the obtaining of the image data may include: receiving, by at least one processor, the image data from a camera provided in a vehicle; And storing, by at least one processor, the image data in a memory, wherein the obtaining of the POI data comprises: at least one processor, by using a communication device provided in the vehicle, from an external server. Receiving POI data; And storing the POI data separately from the image data in the memory by at least one processor.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 제1 사용자 입력에 기초한 제1 신호가 수신되는 경우, 상기 POI 데이터가 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 단계;를 더 포함한다.According to an embodiment of the present invention, when a first signal based on a first user input is received by at least one processor, generating a control signal for reproducing an image based on the image data synchronized with the POI data; It includes more.
본 발명의 실시예에 따르면, 상기 생성하는 단계는, 적어도 하나의 프로세서가, 제1 시점부터 상기 제1 신호 수신 시점까지 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 단계;를 포함하고, 상기 제1 시점은, 상기 제1 신호 수신 시점에서부터 기 설정된 시간 이전의 시점으로 정의된다.According to an embodiment of the present invention, the generating may include: generating, by at least one processor, a control signal for reproducing an image based on image data synchronized from a first point in time to a point in time at which the first signal is received; And the first time point is defined as a time point before a preset time from the time point at which the first signal is received.
본 발명의 실시예에 따르면, 상기 생성하는 단계는, 적어도 하나의 프로세서가, 상기 기 설정된 시간길이의 세그먼트(segment) 단위로, 상기 영상 데이터와 상기 POI 데이터가 동기화된 데이터를 생성하는 단계;를 포함한다.According to an embodiment of the present invention, the generating may include generating, by at least one processor, data in which the image data and the POI data are synchronized in units of segments of the preset time length; Include.
본 발명의 실시예에 따르면, 상기 동기화된 데이터를 생성하는 단계는, 적어도 하나의 프로세서가, 제1 세그먼트가 생성되는 중에 상기 제1 신호가 수신되는 경우, 기 생성된 제1 세그먼트와 상기 제1 세그먼트 이전에 생성된 제2 세그먼트의 일부에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 단계;를 포함한다.According to an embodiment of the present invention, the generating of the synchronized data includes, by at least one processor, when the first signal is received while the first segment is being generated, the first segment and the first And generating a control signal for reproducing an image based on a part of the second segment generated before the segment.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 상기 영상이 재생되는 상태에서, 제2 사용자 입력에 기초한 제2 신호가 수신되는 경우, 적어도 어느 하나의 POI에 대한 상세 정보를 출력하기 위한 제어 신호를 생성하는 단계;를 더 포함한다.According to an embodiment of the present invention, when a second signal based on a second user input is received by at least one processor while the image is being played back, control for outputting detailed information on at least one POI Generating a signal; further includes.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 상기 POI 데이터에 기초한 POI 리스트를 상기 재생되는 영상에 맞춰 표시하기 위한 제어 신호를 생성하는 단계;를 더 포함한다.According to an embodiment of the present invention, at least one processor generates a control signal for displaying a POI list based on the POI data according to the reproduced image.
본 발명의 실시예에 따르면, 상기 생성하는 단계는, 적어도 하나의 프로세서가, 상기 영상의 그래픽 객체가 실제 오브젝트와 매칭된 상태로 표시하기 위한 제어 신호를 생성하는 단계;를 포함한다.According to an embodiment of the present invention, the generating step includes, by at least one processor, generating a control signal for displaying the graphic object of the image in a state matched with an actual object.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the present invention, there are one or more of the following effects.
첫째, 차량의 현재 위치에 기반하여 근처의 POI 정보를 제공함으로써 사용자가 해당 POI 정보를 바로 이용할 수 있는 효과가 있다.First, there is an effect that a user can immediately use the corresponding POI information by providing nearby POI information based on the current location of the vehicle.
둘째, POI 데이터를 영상 데이터와 별도로 저장하고, 상황에 따라 동기화하여 사용자에게 제공함으로써 프로세싱 부하 관리에 유리한 효과가 있다.Second, POI data is stored separately from image data and synchronized according to the situation to be provided to the user, thereby having an advantageous effect on processing load management.
셋째, 사용자 편의성이 증대되는 효과가 있다.Third, there is an effect of increasing user convenience.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.2 is a control block diagram of a vehicle according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 전체 시스템을 설명하는데 참조되는 도면이다.3 is a diagram referenced to describe an entire system according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 차량용 전자 장치의 제어 블럭도이다.4 is a control block diagram of an electronic device for a vehicle according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다.5 is a flow chart of an electronic device for a vehicle according to an embodiment of the present invention.
도 6 내지 도 11c는 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.6 to 11C are views referenced to explain the operation of the electronic device for a vehicle according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other. In addition, in describing the embodiments disclosed in the present specification, when it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all modifications included in the spirit and scope of the present invention , It should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various elements, but the elements are not limited by the terms. These terms are used only for the purpose of distinguishing one component from another component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(10)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. 차량(10)은, 공유형 차량일 수 있다. 차량(10)은 자율 주행 차량일 수 있다.Referring to FIG. 1, a vehicle 10 according to an embodiment of the present invention is defined as a means of transport running on a road or track. The vehicle 10 is a concept including a car, a train, and a motorcycle. The vehicle 10 may be a concept including both an internal combustion engine vehicle including an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, and an electric vehicle including an electric motor as a power source. The vehicle 10 may be a shared vehicle. The vehicle 10 may be an autonomous vehicle.
차량(10)에는 전자 장치(100)가 포함될 수 있다. 전자 장치(100)는, 사용자에게 POI(Point of Interest) 정보를 증강 현실(augmented reality, AR)로 제공할 수 있다. The electronic device 100 may be included in the vehicle 10. The electronic device 100 may provide Point of Interest (POI) information to a user in augmented reality (AR).
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.2 is a control block diagram of a vehicle according to an embodiment of the present invention.
도 2를 참조하면, 차량(10)은, 차량용 전자 장치(100), 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280)를 포함할 수 있다.Referring to FIG. 2, the vehicle 10 includes an electronic device 100 for a vehicle, a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, and a main ECU 240. ), a vehicle driving device 250, a driving system 260, a sensing unit 270, and a location data generating device 280.
차량용 전자 장치(100)는, 사용자에게 POI(Point of Interest) 정보를 증강 현실로 제공할 수 있다. 차량용 전자 장치(100)는, 영상 데이터와 POI 데이터를 동기화하고, 동기화된 데이터에 기초하여 영상을 재생할 수 있다. 재생되는 영상에는, POI 정보가 포함될 수 있다. 차량용 전자 장치(100)는, 사용자와 인터렉션할 수 있다. 차량용 전자 장치(100)는, 사용자 입력에 기초한 신호를 수신하고, 수신한 신호에 따라 출력을 제어할 수 있다.The vehicle electronic device 100 may provide Point of Interest (POI) information to a user in augmented reality. The vehicle electronic device 100 may synchronize image data and POI data, and reproduce an image based on the synchronized data. POI information may be included in the reproduced image. The vehicle electronic device 100 may interact with a user. The vehicle electronic device 100 may receive a signal based on a user input and may control an output according to the received signal.
사용자 인터페이스 장치(200)는, 차량(10)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(10)에서 생성된 정보를 제공할 수 있다. 차량(10)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다.The user interface device 200 is a device for communicating with the vehicle 10 and a user. The user interface device 200 may receive a user input and provide information generated in the vehicle 10 to the user. The vehicle 10 may implement a user interface (UI) or a user experience (UX) through the user interface device 200.
오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(210)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(210)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다. The object detection device 210 may detect an object outside the vehicle 10. The object detection device 210 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor. The object detection device 210 may provide data on an object generated based on a sensing signal generated by a sensor to at least one electronic device included in the vehicle.
통신 장치(220)는, 차량(10) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(220)는, 인프라(예를 들면, 서버, 방송국) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(220)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The communication device 220 may exchange signals with devices located outside the vehicle 10. The communication device 220 may exchange signals with at least one of an infrastructure (eg, a server, a broadcasting station) and another vehicle. The communication device 220 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
운전 조작 장치(230)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량(10)은, 운전 조작 장치(230)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(230)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.The driving operation device 230 is a device that receives a user input for driving. In the case of the manual mode, the vehicle 10 may be driven based on a signal provided by the driving operation device 230. The driving operation device 230 may include a steering input device (eg, a steering wheel), an acceleration input device (eg, an accelerator pedal), and a brake input device (eg, a brake pedal).
메인 ECU(240)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.The main ECU 240 may control the overall operation of at least one electronic device provided in the vehicle 10.
차량 구동 장치(250)는, 차량(10)내 각종 장치의 구동을 전기적으로 제어하는 장치이다. 차량 구동 장치(250)는, 파워 트레인 구동부, 샤시 구동부, 도어/윈도우 구동부, 안전 장치 구동부, 램프 구동부 및 공조 구동부를 포함할 수 있다. 파워 트레인 구동부는, 동력원 구동부 및 변속기 구동부를 포함할 수 있다. 샤시 구동부는, 조향 구동부, 브레이크 구동부 및 서스펜션 구동부를 포함할 수 있다. The vehicle drive device 250 is a device that electrically controls driving of various devices in the vehicle 10. The vehicle driving apparatus 250 may include a power train driving unit, a chassis driving unit, a door/window driving unit, a safety device driving unit, a lamp driving unit, and an air conditioning driving unit. The power train driving unit may include a power source driving unit and a transmission driving unit. The chassis driving unit may include a steering driving unit, a brake driving unit, and a suspension driving unit.
한편, 안전 장치 구동부는, 안전 벨트 제어를 위한 안전 벨트 구동부를 포함할 수 있다.Meanwhile, the safety device driving unit may include a safety belt driving unit for controlling the safety belt.
ADAS(260)는, 오브젝트 검출 장치(210)에서 수신한 오브젝트에 대한 데이터에 기초하여, 차량(10)의 움직임을 제어하거나, 사용자에게 정보를 출력하기 위한 신호를 생성할 수 있다. ADAS(260)는, 생성된 신호를, 사용자 인터페이스 장치(200), 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나에 제공할 수 있다.The ADAS 260 may control a movement of the vehicle 10 or generate a signal for outputting information to a user based on data on an object received by the object detection apparatus 210. The ADAS 260 may provide the generated signal to at least one of the user interface device 200, the main ECU 240, and the vehicle driving device 250.
ADAS(260)는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차선 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다. ADAS 260 includes an adaptive cruise control system (ACC), an automatic emergency braking system (AEB), a forward collision warning system (FCW), and a lane maintenance assistance system (LKA: Lane Keeping Assist), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control System (HBA: High) Beam Assist), Auto Parking System (APS), PD collision warning system, Traffic Sign Recognition (TSR), Traffic Sign Assist (TSA), At least one of a night vision system (NV: Night Vision), a driver status monitoring system (DSM), and a traffic jam assistance system (TJA) may be implemented.
센싱부(270)는, 차량의 상태를 센싱할 수 있다. 센싱부(270)는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서 및 브레이크 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다. The sensing unit 270 may sense the state of the vehicle. The sensing unit 270 includes an inertial navigation unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle. At least one of forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, and brake pedal position sensor It may include. Meanwhile, the inertial navigation unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.
센싱부(270)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 센싱부(270)는, 차량 자세 정보, 차량 모션 정보, 차량 요(yaw) 정보, 차량 롤(roll) 정보, 차량 피치(pitch) 정보, 차량 충돌 정보, 차량 방향 정보, 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.The sensing unit 270 may generate state data of the vehicle based on a signal generated by at least one sensor. The sensing unit 270 includes vehicle attitude information, vehicle motion information, vehicle yaw information, vehicle roll information, vehicle pitch information, vehicle collision information, vehicle direction information, vehicle angle information, and vehicle speed. Information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, battery information, fuel information, tire information, vehicle ramp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle exterior illuminance, accelerator pedal It is possible to acquire a sensing signal for the pressure applied to the brake pedal and the pressure applied to the brake pedal.
센싱부(270)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.In addition, the sensing unit 270 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further included.
센싱부(270)는, 센싱 데이터를 기초로, 차량 상태 정보를 생성할 수 있다. 차량 상태 정보는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.The sensing unit 270 may generate vehicle state information based on the sensing data. The vehicle status information may be information generated based on data sensed by various sensors provided inside the vehicle.
예를 들면, 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다.For example, the vehicle status information includes vehicle attitude information, vehicle speed information, vehicle tilt information, vehicle weight information, vehicle direction information, vehicle battery information, vehicle fuel information, vehicle tire pressure information, It may include vehicle steering information, vehicle interior temperature information, vehicle interior humidity information, pedal position information, vehicle engine temperature information, and the like.
한편, 센싱부는, 텐션 센서를 포함할 수 있다. 텐션 센서는, 안전 벨트의 텐션 상태에 기초하여 센싱 신호를 생성할 수 있다.Meanwhile, the sensing unit may include a tension sensor. The tension sensor may generate a sensing signal based on a tension state of the seat belt.
위치 데이터 생성 장치(280)는, 차량(10)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(280)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(280)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(10)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(280)는, 센싱부(270)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(210)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.The location data generating device 280 may generate location data of the vehicle 10. The location data generating apparatus 280 may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS). The location data generating apparatus 280 may generate location data of the vehicle 10 based on a signal generated by at least one of GPS and DGPS. According to an embodiment, the location data generating apparatus 280 may correct the location data based on at least one of an IMU (Inertial Measurement Unit) of the sensing unit 270 and a camera of the object detection apparatus 210.
차량(10)은, 내부 통신 시스템(50)을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템(50)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(50)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다. Vehicle 10 may include an internal communication system 50. A plurality of electronic devices included in the vehicle 10 may exchange signals through the internal communication system 50. The signal may contain data. The internal communication system 50 may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
도 3은 본 발명의 실시예에 따른 전체 시스템을 설명하는데 참조되는 도면이다.3 is a diagram referenced to describe an entire system according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 차량용 전자 장치의 제어 블럭도이다.4 is a control block diagram of an electronic device for a vehicle according to an embodiment of the present invention.
도 3 내지 도 4를 참조하면, 시스템은, 차량(10), 이동 단말기(20) 및 외부 장치(30)를 포함할 수 있다. 차량(10)은, 적어도 하나의 통신망을 통해, 이동 단말기(20) 및 외부 장치(30)와 신호를 교환할 수 있다.3 to 4, the system may include a vehicle 10, a mobile terminal 20, and an external device 30. The vehicle 10 may exchange signals with the mobile terminal 20 and the external device 30 through at least one communication network.
차량(10)은, 도 1 및 도 2를 참조하여 설명한 바와 같다. 차량(10)은, 차량용 전자 장치(100)를 포함할 수 있다. The vehicle 10 is as described with reference to FIGS. 1 and 2. The vehicle 10 may include an electronic device 100 for a vehicle.
차량용 전자 장치(100)는, 통신 장치(220)를 통해, 이동 단말기(20) 및 외부 장치(30)와 신호를 교환할 수 있다. 실시예에 따라, 차량용 전자 장치(100)는 이더넷 스위치 허브를 거쳐 통신 장치(220)에 연결될 수 있다. 프로세서(170)는, 인터페이스부(180) 및 통신 장치(220)를 통해, 이동 단말기(20)와 신호를 교환할 수 있다. 프로세서(170)는, 이동 단말기(20)로부터 데이터를 수신하고, 이동 단말기(20)에 데이터를 전송할 수 있다. 프로세서(170)는, 인터페이스부(180) 및 통신 장치(220)를 통해, 외부 장치(30)와 신호를 교환할 수 있다. 프로세서(170)는, 외부 장치(30)로부터 데이터를 수신하고, 외부 장치(30)에 데이터를 전송할 수 있다.The vehicle electronic device 100 may exchange signals with the mobile terminal 20 and the external device 30 through the communication device 220. Depending on the embodiment, the vehicle electronic device 100 may be connected to the communication device 220 via an Ethernet switch hub. The processor 170 may exchange signals with the mobile terminal 20 through the interface unit 180 and the communication device 220. The processor 170 may receive data from the mobile terminal 20 and transmit the data to the mobile terminal 20. The processor 170 may exchange signals with the external device 30 through the interface unit 180 and the communication device 220. The processor 170 may receive data from the external device 30 and transmit the data to the external device 30.
차량용 전자 장치(100)는, 메모리(140), 프로세서(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.The vehicle electronic device 100 may include a memory 140, a processor 170, an interface unit 180, and a power supply unit 190.
메모리(140)는, 프로세서(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(140)는, 프로세서(170)의 하위 구성으로 분류될 수 있다.The memory 140 is electrically connected to the processor 170. The memory 140 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data. The memory 140 may store data processed by the processor 170. In terms of hardware, the memory 140 may be configured with at least one of ROM, RAM, EPROM, flash drive, and hard drive. The memory 140 may store various data for overall operation of the electronic device 100, such as a program for processing or controlling the processor 170. The memory 140 may be implemented integrally with the processor 170. Depending on the embodiment, the memory 140 may be classified as a sub-element of the processor 170.
메모리(140)는, 차량(10)에 구비된 카메라로부터 수신된 영상 데이터를 저장할 수 있다. 메모리(140)는, 차량(10)에 구비된 통신 장치(220)를 이용하여 외부 서버(34)로부터 수신된 POI 데이터를 저장할 수 있다. 메모리(140)는, 영상 데이터 및 POI 데이터를 분리하여 저장할 수 있다.The memory 140 may store image data received from a camera provided in the vehicle 10. The memory 140 may store POI data received from the external server 34 using the communication device 220 provided in the vehicle 10. The memory 140 may separately store image data and POI data.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(140), 차량 구동 장치(250), ADAS(260), 센싱부(170) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.The interface unit 180 may exchange signals with at least one electronic device provided in the vehicle 10 by wire or wirelessly. The interface unit 280 includes an object detection device 210, a communication device 220, a driving operation device 230, a main ECU 140, a vehicle driving device 250, an ADAS 260, and a sensing unit 170. And it is possible to exchange a signal with at least one of the location data generating device 280 wired or wirelessly. The interface unit 280 may be configured with at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.
인터페이스부(180)는, 위치 데이터 생성 장치(280)로부터, 차량(10) 위치 데이터를 수시할 수 있다. 인터페이스부(180)는, 센싱부(270)로부터 주행 속도 데이터를 수신할 수 있다. 인터페이스부(180)는, 오브젝트 검출 장치(210)로부터, 차량 주변 오브젝트 데이터를 수신할 수 있다.The interface unit 180 may receive location data of the vehicle 10 from the location data generating device 280. The interface unit 180 may receive driving speed data from the sensing unit 270. The interface unit 180 may receive object data around the vehicle from the object detection device 210.
전원 공급부(190)는, 전자 장치(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 전자 장치(100)의 각 유닛에 전원을 공급할 수 있다. The power supply unit 190 may supply power to the electronic device 100. The power supply unit 190 may receive power from a power source (eg, a battery) included in the vehicle 10 and supply power to each unit of the electronic device 100.
프로세서(170)는, 메모리, 인터페이스부(180), 전원 공급부(190)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The processor 170 may be electrically connected to the memory, the interface unit 180, and the power supply unit 190 to exchange signals. The processor 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
프로세서(170)는, POI 애플리케이션(110)을 포함할 수 있다. POI 애플리케이션은, 프로세서(170)에 설치될 수 있다. POI 애플리케이션(110)은, 이하에서 설명되는 POI 관련한 동작을 수행할 수 있다.The processor 170 may include a POI application 110. The POI application may be installed on the processor 170. The POI application 110 may perform a POI-related operation described below.
프로세서(170)는, 차량 외부의 영상 데이터를 획득할 수 있다. 프로세서(170)는, 차량(10)에 구비된 카메라로부터 영상 데이터를 수신할 수 있다. 카메라는 오브젝트 검출 장치(210)의 하위 구성으로 분류될 수 있다. 카메라는, 차량(10)의 외부 영상을 획득할 수 있다. 카메라는, 차량(10)의 전방, 후방, 좌측방, 우측방 영상을 획득할 수 있다. 카메라는, 획득된 영상의 데이터를 프로세서(170)에 전송할 수 있다.The processor 170 may acquire image data outside the vehicle. The processor 170 may receive image data from a camera provided in the vehicle 10. The camera may be classified as a sub-element of the object detection device 210. The camera may acquire an external image of the vehicle 10. The camera may acquire front, rear, left and right images of the vehicle 10. The camera may transmit the acquired image data to the processor 170.
프로세서(170)는, 영상 데이터에 기초하여 적어도 하나의 오브젝트를 검출할 수 있다. 여기서, 오브젝트는, POI의 대상이 되는 건물, 상점, 랜드마크, 관광지, 식당, 유적지 등일 수 있다. The processor 170 may detect at least one object based on the image data. Here, the object may be a building, a store, a landmark, a tourist destination, a restaurant, a historical site, or the like that is a target of POI.
프로세서(170)는, 차량 주변의 POI(Point of Interest) 데이터를 획득할 수 있다. 프로세서(170)는, 차량(10)에 구비된 통신 장치(220)를 이용하여, 외부 서버(34)로부터 POI 데이터를 수신할 수 있다. 프로세서(170)는, 차량(10)의 위치 정보를 외부 서버(34)에 전송할 수 있다. 외부 서버(34)는, 차량(10)의 위치에서 거리 이내에 위치한 POI를 결정하고, POI에 대한 데이터를 프로세서(170)에 제공할 수 있다.The processor 170 may acquire Point of Interest (POI) data around the vehicle. The processor 170 may receive POI data from the external server 34 using the communication device 220 provided in the vehicle 10. The processor 170 may transmit location information of the vehicle 10 to the external server 34. The external server 34 may determine a POI located within a distance from the location of the vehicle 10 and provide data on the POI to the processor 170.
프로세서(170)는, 메모리(140)에 영상 데이터 및 POI 데이터를 분리하여 저장할 수 있다. POI 데이터는 영상 데이터에 비해 데이터량이 작아, 메모리(140) 기반의 관리가 가능하다. 사용자 입력에 기초한 신호가 수신되는 경우, POI 데이터와 영상 데이터가 분리되어 있기 때문에, POI 내비게이션 이나 POI 선택과 같은 동작이 가능하다. 또한, 하나의 화면에 담기는 POI 대상 객체의 개수에 대한 제한을 없앨 수 있는 장점도 있다. 또한 영상 데이터 내에 POI 데이터를 메타 데이터로 넣는 동작은 프로세싱 부하가 걸리는 작업이기도 하다.The processor 170 may separate and store image data and POI data in the memory 140. POI data has a smaller amount of data than image data, and thus memory 140-based management is possible. When a signal based on a user input is received, since POI data and image data are separated, operations such as POI navigation or POI selection are possible. In addition, there is an advantage in that it is possible to remove the limit on the number of POI target objects contained in one screen. In addition, the operation of putting the POI data as meta data in the image data is a processing load.
프로세서(170)는, 영상 데이터의 타임 스탬프(timestamp)에 기초하여, 영상 데이터에 POI 데이터를 동기화(synchronize)할 수 있다. 프로세서(170)는, 영상 재생시의 타임 스탬프(예를 들면, Video PTS)에 기초하여, 영상 데이터와 POI 데이터를 동기화할 수 있다. 프로세서(170)는, 차량(10)의 운행 중 상시로, 영상 데이터와 POI 데이터를 동기화하여 메모리(140)에 저장할 수 있다. 프로세서(170)는, POI 데이터를 영상 데이터에 기초하여 검출된 오브젝트와 매칭할 수 있다.The processor 170 may synchronize POI data with image data based on a timestamp of the image data. The processor 170 may synchronize the video data and the POI data based on a time stamp (eg, Video PTS) at the time of video playback. The processor 170 may synchronize the image data and the POI data at all times while the vehicle 10 is running, and store them in the memory 140. The processor 170 may match the POI data with an object detected based on the image data.
프로세서(170)는, 제1 사용자 입력에 기초한 제1 신호를 수신할 수 있다. 예를 들면, 프로세서(170)는, 사용자의 터치 모듈(211) 조작에 의해 생성되는 신호를 USB Hub를 거쳐 수신할 수 있다. 프로세서(170)는, 제1 사용자 입력에 기초한 제1 신호가 수신되는 경우, POI 데이터가 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성할 수 있다. 프로세서(170)는, 제어 신호를 디스플레이(214)에 전송할 수 있다.The processor 170 may receive a first signal based on a first user input. For example, the processor 170 may receive a signal generated by a user's manipulation of the touch module 211 through a USB hub. When a first signal based on a first user input is received, the processor 170 may generate a control signal for reproducing an image based on image data synchronized with POI data. The processor 170 may transmit a control signal to the display 214.
프로세서(170)는, 제1 시점부터 제1 신호 수신 시점까지 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성할 수 있다. 여기서, 제1 시점은, 제1 신호 수신 시점에서 기 설정된 시간 이전의 시점으로 정의될 수 있다. 예를 들면, 프로세서(170)는, 제1 사용자 입력이 이루어진 시점으로부터 30초 이전까지 동기화된 영상 데이터에 기초한 영상을 재생할 수 있다. 재생되는 영상의 분량은 30초일 수 있다.The processor 170 may generate a control signal for reproducing an image based on the synchronized image data from the first point in time to the first signal reception point. Here, the first time point may be defined as a time point before a preset time from the first signal reception time point. For example, the processor 170 may reproduce an image based on the synchronized image data 30 seconds before a time when a first user input is made. The amount of the video to be played may be 30 seconds.
프로세서(170)는, 기 설정된 시간 길이의 세그먼트(segment) 단위로, 영상 데이터와 POI 데이터가 동기화된 데이터를 생성할 수 있다. 프로세서(170)는, 실시간으로 세그먼트 단위의 동기화 데이터를 생성하고, 메모리(140)에 저장할 수 있다. 프로세서(170)는, 저장된 세그먼트 단위의 동기화 데이터는, 기 설정 시간 이후에 삭제할 수 있다. 프로세서(170)는, 제1 세그먼트가 생성되는 중에 상기 제1 신호가 수신되는 경우, 기 생성된 제1 세그먼트와 상기 제1 세그먼트 이전에 생성된 제2 세그먼트의 일부에 기초한 영상을 재생하기 위한 제어 신호를 생성할 수 있다. 이경우, 재생 시간의 총 합은 상술한 기 설정된 시간 길이일 수 있다. 예를 들면, 재생 시간의 총 합은 30초일 수 있다.The processor 170 may generate data in which image data and POI data are synchronized in units of segments having a preset length of time. The processor 170 may generate synchronization data in units of segments in real time and store them in the memory 140. The processor 170 may delete the stored synchronization data in units of segments after a preset time. When the first signal is received while the first segment is being generated, the processor 170 controls to play back an image based on a part of a previously generated first segment and a second segment generated before the first segment Can generate signals. In this case, the total sum of the playback times may be the preset length of time. For example, the total sum of playback times may be 30 seconds.
프로세서(170)는, 영상이 재생되는 상태에서, 제2 사용자 입력에 기초한 제2 신호를 수신할 수 있다. 예를 들면, 프로세서(170)는, 사용자의 터치 모듈(211) 조작에 의해 생성되는 신호를 USB Hub를 거쳐 수신할 수 있다. 프로세서(170)는, 영상이 재생되는 상태에서, 제2 사용자 입력에 기초한 제2 신호가 수신되는 경우, 적어도 하나의 POI에 대한 상세 정보를 출력하기 위한 제어 신호를 생성할 수 있다. 프로세서(170)는, 통신 장치(220)를 이용하여 POI에 대한 상세 정보를 외부 서버(34)로부터 수신할 수 있다.The processor 170 may receive a second signal based on a second user input while an image is being played back. For example, the processor 170 may receive a signal generated by a user's manipulation of the touch module 211 through a USB hub. The processor 170 may generate a control signal for outputting detailed information on at least one POI when a second signal based on a second user input is received while an image is being reproduced. The processor 170 may receive detailed information on the POI from the external server 34 using the communication device 220.
프로세서(170)는, POI 데이터에 기초한 POI 리스트를 재생되는 영상에 맞춰 표시하기 위한 제어 신호를 생성할 수 있다. 프로세서(170)는, 제어 신호를 디스플레이(214)에 제공할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)과 POI의 상대적인 위치 관계에 기초하여, POI 리스트를 재생되는 영상에 맞춰 표시하기 위한 제어 신호를 생성할 수 있다.The processor 170 may generate a control signal for displaying a POI list based on the POI data according to a reproduced image. The processor 170 may provide a control signal to the display 214. For example, the processor 170 may generate a control signal for displaying a POI list according to a reproduced image based on a relative positional relationship between the vehicle 10 and the POI.
프로세서(170)는, 영상에 담기는 POI 정보를 증강 현실로 표시할 수 있다. 프로세서(170)는, 영상의 그래픽 객체가, 상기 그래픽 객체와 대응되는 실제 오브젝트와 매칭된 상태로 표시하기 위한 제어 신호를 생성할 수 있다. 프로세서(170)는, 제어 신호를 디스플레이(214)에 제공할 수 있다. The processor 170 may display POI information contained in the image as augmented reality. The processor 170 may generate a control signal for displaying a graphic object of an image in a state matched with an actual object corresponding to the graphic object. The processor 170 may provide a control signal to the display 214.
프로세서(170)는, 사이니지 클라이언트(signage client)(121), 미디어 플레이어(122), POI 디텍터(123), 보이스 에이전트(voice agent)(123) 및 플릿 클라이언트(fleet client)(125)를 포함할 수 있다.The processor 170 includes a signage client 121, a media player 122, a POI detector 123, a voice agent 123, and a fleet client 125 can do.
사이니지 클라이언트(121)는, 사이니지 컨텐츠를 획득하기 위해, 적어도 하나의 외부 서버와 통신할 수 있다. 미디어 플레이어(media player)(122)는, 컨텐츠를 재생할 수 있다. POI 디텍터(point of interes detector)(123)는, GPS 정보를 기초로 POI 서버와 통신하여, POI 서버와 신호, 정보, 데이터를 교환할 수 있다. POI 디텍터는, 영상 데이터에 기초하여, 오브젝트를 검출할 수 있다. 보이스 에이전트(voice agent)(124)는, 사용자의 음성 명령에 기초하여 제어 신호를 생성할 수 있다. 플릿 클라이언트(fleet client)(125)는, 관제 서버와 연결되어 관제 명령을 차량에 포함되는 적어도 하나의 전자 장치(예를 들면, 오브젝트 검출 장치, 메인 ECU, 주행 시스템)에 전달하는 역할을 하며, 차량 센서 데이터를 서버로 전송함으로써 중앙 관제 및 Control을 가능하게 한다.The signage client 121 may communicate with at least one external server in order to obtain signage content. The media player 122 can play content. The POI detector 123 may communicate with the POI server based on GPS information to exchange signals, information, and data with the POI server. The POI detector may detect an object based on the image data. The voice agent 124 may generate a control signal based on a user's voice command. The fleet client 125 is connected to the control server and serves to transmit a control command to at least one electronic device (eg, object detection device, main ECU, driving system) included in the vehicle, By transmitting vehicle sensor data to the server, central control and control are possible.
한편, 터치 모듈(211), 카메라(212), 마이크(213) 및 디스플레이(214)는, 사용자 인터페이스 장치(200)의 하위 구성으로 분류될 수 있다.Meanwhile, the touch module 211, the camera 212, the microphone 213, and the display 214 may be classified as sub-components of the user interface device 200.
전자 장치(100)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 전자 장치(110), 메모리, 인터페이스부(180), 전원 공급부 및 프로세서(170)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.The electronic device 100 may include at least one printed circuit board (PCB). The electronic device 110, the memory, the interface unit 180, the power supply unit, and the processor 170 may be electrically connected to a printed circuit board.
이동 단말기(20)는, 차량(10)과 신호를 교환할 수 있다. 예를 들면, 이동 단말기(20)는, 근거리 통신 방식(예를 들면, 블루투스)를 통해, 차량(10)과 신호를 교환할 수 있다.The mobile terminal 20 can exchange signals with the vehicle 10. For example, the mobile terminal 20 can exchange signals with the vehicle 10 through a short-range communication method (eg, Bluetooth).
외부 장치(30)는, 적어도 하나의 통신망을 이용해, 차량(10)과 교환할 수 있다. 외부 장치(30)는, 플릿 매니지먼트 서버(Fleet Management Server)(31), 사이니지 서버(Signage Server)(32), 빅데이터 서버(Big Data Server)(33) 및 POI(Point of Interest) 서버(34)를 포함할 수 있다.The external device 30 can be exchanged with the vehicle 10 using at least one communication network. The external device 30 includes a fleet management server 31, a signage server 32, a big data server 33, and a point of interest (POI) server ( 34) may be included.
플릿 매니지먼트 서버(31)는, 플릿 클라이언트(125)와의 통신을 통해 차량 제어 및 주행 경로를 설정하며, 예약 서버와 연동하여 차량 제공 서비스를 수행할 수 있다 사이니지 서버(signage server)(32)는, 사이니지 클라이언트(121)과의 통신을 통해, 사이니지 컨텐츠를 제공할 수 있다. 빅 데이터 서버(big data server)(33)는, 제공되는 컨텍스트 정보에 기초하여, 빅데이타를 추출하여 제공할 수 있다. POI 서버(34)는, GPS 정보기반으로 등록된 POI 정보를 제공한다. 예를 들면, POI 서버는, 상가 정보, 대표 상품 정보, 대표 광고 정보, 링크 정보를 제공할 수 있다.The fleet management server 31 may control a vehicle and set a driving route through communication with the fleet client 125, and perform a vehicle providing service in connection with a reservation server. The signage server 32 , Through communication with the signage client 121, it is possible to provide signage content. The big data server 33 may extract and provide big data based on the provided context information. The POI server 34 provides POI information registered based on GPS information. For example, the POI server may provide shopping street information, representative product information, representative advertisement information, and link information.
도 5는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다.5 is a flow chart of an electronic device for a vehicle according to an embodiment of the present invention.
도 5를 참조하면, 프로세서(170)는, 차량 외부의 영상 데이터를 획득할 수 있다(S510). 영상 데이터를 획득하는 단계(S510)는, 적어도 하나의 프로세서(170)가, 차량(10)에 구비된 카메라로부터 영상 데이터를 수신하는 단계 및 적어도 하나의 프로세서(170)가, 영상 데이터를 메모리(140)에 저장하는 단계를 포함할 수 있다.Referring to FIG. 5, the processor 170 may acquire image data outside the vehicle (S510). In the step of obtaining image data (S510), the at least one processor 170 receives image data from a camera provided in the vehicle 10, and the at least one processor 170 stores the image data in a memory ( 140).
프로세서(170)는, 영상 데이터에 기초하여, 적어도 하나의 오브젝트를 검출할 수 있다(S515).The processor 170 may detect at least one object based on the image data (S515).
프로세서(170)는, 차량의 위치 데이터를 외부 서버(34)에 전송할 수 있다(S520). 외부 서버(34)는, 차량의 위치 데이터에 기초하여, 차량 주변의 POI를 선택하고, POI 데이터를 제공할 수 있다. 프로세서(170)는, 차량 주변의 POI 데이터를 획득할 수 있다(S530). POI 데이터를 획득하는 단계(S530)는, 적어도 하나의 프로세서(170)가, 차량(10)에 구비된 통신 장치(220)를 이용하여, 외부 서버(34)로부터 POI 데이터를 수신하는 단계 및 적어도 하나의 프로세서(170)가, 메모리(140)에 영상 데이터와 분리하여 POI 데이터를 저장하는 단계를 포함할 수 있다. The processor 170 may transmit the vehicle location data to the external server 34 (S520). The external server 34 may select a POI around the vehicle and provide POI data based on the location data of the vehicle. The processor 170 may acquire POI data around the vehicle (S530). In the step of obtaining POI data (S530), the at least one processor 170 receives POI data from the external server 34 using the communication device 220 provided in the vehicle 10, and at least One processor 170 may include storing the POI data in the memory 140 by separating from the image data.
프로세서(170)는, 영상 데이터의 타임 스탬프에 기초하여, 영상 데이터에 POI 데이터를 동기화할 수 있다(S540). 동기화 하는 단계(S540)는, 적어도 하나의 프로세서가, POI 데이터를 S515 단계에서 검출된 오브젝트와 매칭하는 단계를 포함할 수 있다.The processor 170 may synchronize the POI data with the image data based on the time stamp of the image data (S540). The synchronizing step (S540) may include matching, by at least one processor, the POI data with the object detected in step S515.
프로세서(170)는, 제1 사용자 입력에 기초한 제1 신호가 수신되는 경우(S550), POI 데이터가 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성할 수 있다(S560). 생성하는 단계(S560)는, 적어도 하나의 프로세서(170)가, 제1 시점부터 제1 신호 수신 시점까지 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 단계(S561 단계)를 포함할 수 있다. 여기서, 제1 시점은, 제1 신호 수신 시점에서부터 기 설정된 시간 이전의 시점으로 정의될 수 있다. 생성하는 단계(S561)는, 적어도 하나의 프로세서(170)가, 기 설정된 시간 길이의 세그먼트(segment) 단위로, 영상 데이터와 POI 데이터가 동기화된 데이터를 생성하는 단계(S562 단계)를 포함할 수 있다. 동기화된 데이터를 생성하는 단계(S562)는, 적어도 하나의 프로세서(170)가, 제1 세그먼트가 생성되는 중에 제1 신호가 수신되는 경우, 기 생성된 제1 세그먼트와 제1 세그먼트 이전에 생성된 제2 세그먼트의 일부에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 단계를 포함할 수 있다.When a first signal based on a first user input is received (S550), the processor 170 may generate a control signal for reproducing an image based on image data synchronized with POI data (S560). The generating step (S560) includes generating, by the at least one processor 170, a control signal for reproducing an image based on the image data synchronized from a first point in time to a first signal reception point (step S561). can do. Here, the first time point may be defined as a time point before a preset time from the time when the first signal is received. The generating step (S561) may include generating, by the at least one processor 170, data in which the image data and the POI data are synchronized in a segment unit of a preset time length (step S562). have. In the step of generating synchronized data (S562), when the first signal is received while the first segment is being generated, by the at least one processor 170, the generated first segment and the generated before the first segment It may include generating a control signal for reproducing an image based on a part of the second segment.
한편, 생성하는 단계(S560)는, 적어도 하나의 프로세서가, 영상의 그래픽 객체가 상기 그래픽 객체에 대응되는 실제 오브젝트와 매칭된 상태로 표시하기 위한 제어 신호를 생성하는 단계를 포함할할 수 있다.Meanwhile, the generating step (S560) may include generating, by at least one processor, a control signal for displaying a graphic object of an image in a state matched with an actual object corresponding to the graphic object.
프로세서(170)는, POI 데이터에 기초한 POI 리스트를 재생되는 영상에 맞춰 표시하기 위한 제어 신호를 생성할 수 있다(S570).The processor 170 may generate a control signal for displaying a POI list based on the POI data according to a reproduced image (S570).
프로세서(170)는, 영상이 재생되는 상태에서, 제2 사용자 입력에 기초한 제2 신호가 수신되는 경우(S580), 적어도 어느 하나의 POI에 대한 상세 정보를 출력하기 위한 제어 신호를 생성할 수 있다(S590).The processor 170 may generate a control signal for outputting detailed information on at least one POI when a second signal based on a second user input is received (S580) while an image is being played back. (S590).
도 6 내지 도 11c는 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.6 to 11C are views referenced to explain the operation of the electronic device for a vehicle according to an embodiment of the present invention.
도 6을 참조하면, 프로세서(170)는, 영상 데이터(610)를 획득할 수 있다. 프로세서(170)는, 차량의 외부를 촬영하는 카메라로부터 영상 데이터(610)를 수신할 수 있다. 프로세서(170)는, 영상 데이터(610)에 기초하여 적어도 하나의 오브젝트를 검출할 수 있다.Referring to FIG. 6, the processor 170 may acquire image data 610. The processor 170 may receive image data 610 from a camera that photographs the exterior of the vehicle. The processor 170 may detect at least one object based on the image data 610.
프로세서(170)는, POI 데이터(620)를 획득할 수 있다. 프로세서(170)는, 통신 장치(220)를 이용해, 차량(10)의 위치 데이터를 외부 서버(34)에 전송할 수 있다. 프로세서(170)는, 통신 장치(220)를 이용해, 외부 서버(34)로부터, 차량(10)의 위치 데이터에 기반한 POI 데이터(620)를 수신할 수 있다.The processor 170 may obtain the POI data 620. The processor 170 may transmit location data of the vehicle 10 to the external server 34 using the communication device 220. The processor 170 may receive POI data 620 based on location data of the vehicle 10 from the external server 34 using the communication device 220.
프로세서(170)는, 영상 데이터(610)와 POI 데이터(620)를 분리하여 메모리(140)에 저장할 수 있다.The processor 170 may separate the image data 610 and the POI data 620 and store them in the memory 140.
프로세서(170)는, 영상 데이터(610)에 POI 데이터(620)를 동기화할 수 있다. 프로세서(170)는, 검출된 오브젝트에 POI 데이터(620)를 매칭하여 동기화할 수 있다. The processor 170 may synchronize the POI data 620 with the image data 610. The processor 170 may synchronize the POI data 620 with the detected object.
도 7을 참조하면, 프로세서(170)는, 기 설정된 시간 길이(예를 들면, 30초)의 세그먼트 단위로 영상 데이터와 POI 데이터가 동기화된 데이터를 생성할 수 있다. 도 7에 예시된 바와 같이, 프로세서(170)는, 제1 세그먼트 데이터(710), 제2 세그먼트 데이터(720) 및 제3 세그먼트 데이터(730)를 생성할 수 있다. 프로세서(170)는, 시간의 흐름에 따라, 제3 세그먼트 데이터(730)를 생성한 이후에 제2 세그먼트 데이터(720)를 생성하고, 제2 세그먼트 데이터(720)를 생성한 이후에 제1 세그먼트 데이터(710)를 생성할 수 있다.Referring to FIG. 7, the processor 170 may generate data in which image data and POI data are synchronized in segment units of a preset time length (eg, 30 seconds). As illustrated in FIG. 7, the processor 170 may generate first segment data 710, second segment data 720, and third segment data 730. The processor 170 generates the second segment data 720 after generating the third segment data 730 according to the passage of time, and the first segment after generating the second segment data 720 Data 710 may be generated.
제1 세그먼트 데이터(710)를 생성하는 중에, 제1 사용자 입력에 기초한 제1 신호가 수신되는 경우, 프로세서(170)는, 제1 세그먼트 데이터(710)의 일부와 제2 세그먼트 데이터(720)의 일부에 기초하여 영상을 재생할 수 있다. 이경우, 영상은, 상기 기설정된 시간 길이(예를 들면, 30초)만큼 재생될 수 있다. 프로세서(170)는, 제1 세그먼트 데이터(710) 생성 시작 시점부터 제1 신호 수신 시점까지의 제1 세그먼트 데이터(710)와 제2 세그먼트 데이터(720)에서 기 설정된 시간 길이에서 제1 세그먼트 데이터(710)의 일부의 시간 길이만큼이 제외된 제2 세그먼트 데이터(720)의 일부에 기초하여, 영상을 재생할 수 있다. 제1 세그먼트(710) 및 제2 세그먼트(720)로 구분되지만, 제1 세그먼트(710)가 제2 세그먼트(720)에 연속되므로 영상은 끊임 없이 재생될 수 있다.While generating the first segment data 710, when a first signal based on a first user input is received, the processor 170 may include a portion of the first segment data 710 and the second segment data 720. The video can be played based on a part. In this case, the image may be reproduced for the predetermined length of time (eg, 30 seconds). The processor 170 includes the first segment data 710 from the first segment data 710 generation start point to the first signal reception point and the second segment data 720 at a preset time length. An image may be reproduced based on a part of the second segment data 720 that is excluded by a partial time length of the 710. Although divided into a first segment 710 and a second segment 720, since the first segment 710 is continuous to the second segment 720, the image can be continuously reproduced.
도 8을 참조하면, 외부 서버(34)는, 차량(10)으로부터 차량의 위치 데이터를 수신할 수 있다. 외부 서버(34)는, 복수의 POI에서, 차량(10)의 위치를 기준으로 기 설정 거리 이내에 위치하는 POI(810, 820)를 선택할 수 있다. 외부 서버(34)는, POI에 대응되는 POI 데이터를 생성할 수 있다. 외부 서버(34)는, POI 데이터를 차량용 전자 장치(100)에 제공할 수 있다.Referring to FIG. 8, the external server 34 may receive vehicle location data from the vehicle 10. The external server 34 may select POIs 810 and 820 located within a preset distance based on the location of the vehicle 10 from a plurality of POIs. The external server 34 may generate POI data corresponding to the POI. The external server 34 may provide POI data to the vehicle electronic device 100.
도 9를 참조하면, POI 디텍터(123)는, 비디오 플레이어(910)에 영상 데이터를 요청할 수 있다(S910). 비디오 플레이어(910)는, 카메라로부터 획득된 영상을 처리하는 소프트웨어 또는 하드웨어일 수 있다. POI 디텍터(123)는, 비디오 플레이어(910)로부터 영상 데이터 및 타임 스탬프 값을 수신할 수 있다(S920).Referring to FIG. 9, the POI detector 123 may request image data from the video player 910 (S910). The video player 910 may be software or hardware that processes an image acquired from a camera. The POI detector 123 may receive image data and a time stamp value from the video player 910 (S920).
POI 디텍터(123)는, 메모리(140)의 POI 레코드 파일(620)에서, 타임 스탬프에 매칭되는 POI 리스트를 검색할 수 있다(S930). The POI detector 123 may search for a POI list matching the time stamp from the POI record file 620 of the memory 140 (S930).
POI 디텍터(123)는, POI가 동기화된 영상 데이터에 기초하여, 영상을 재생할 수 있다(S940). 사용자 입력에 따라 특정 POI가 선택되는 경우(S950), 프로세서(170)는, POI 서버(34)에, 해당 POI에 대한 상세 정보를 요청할 수 있다. 프로세서(170)는, POI 서버(34)로부터, POI에 대한 상세 정보를 수신할 수 있다(S970). 프로세서(170)는, POI에 대한 상세 정보를 표시할 수 있다(S980).The POI detector 123 may reproduce an image based on the image data synchronized with the POI (S940). When a specific POI is selected according to a user input (S950), the processor 170 may request detailed information on the corresponding POI from the POI server 34. The processor 170 may receive detailed information on the POI from the POI server 34 (S970). The processor 170 may display detailed information on the POI (S980).
도 10a 내지 도 10b를 참조하면, 차량(10)의 윈도우의 일 영역(1010)에 디스플레이(214)가 배치될 수 있다. 디스플레이(214)는, 투명 디스플레이로 구현될 수 있다. 투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.10A to 10B, a display 214 may be disposed in an area 1010 of a window of the vehicle 10. The display 214 may be implemented as a transparent display. The transparent display can display a predetermined screen while having a predetermined transparency. Transparent display, in order to have transparency, transparent display is transparent TFEL (Thin Film Elecroluminescent), transparent OLED (Organic Light-Emitting Diode), transparent LCD (Liquid Crystal Display), transmissive transparent display, transparent LED (Light Emitting Diode) display It may include at least one of. The transparency of the transparent display can be adjusted.
프로세서(170)는, 디스플레이(214)에 POI 정보가 포함된 영상을 재생하기 위한 제어 신호를 제공할 수 있다. 프로세서(170)는, 차량(10)이 POI 지점에 근접한 경우, POI 정보를 디스플레이(214)에 표시하기 위한 제어 신호를 제공할 수 있다.The processor 170 may provide a control signal for reproducing an image including POI information on the display 214. When the vehicle 10 is close to the POI point, the processor 170 may provide a control signal for displaying POI information on the display 214.
디스플레이(214)는, 터치 입력부와 레이어를 상호 레이어를 형성하여, 터치 스크린을 구현할 수 있다. 사용자는, 터치 스크린을 통해, 차량용 전자 장치와 상호 작용할 수 있다. 프로세서(170)는, 터치 스크린을 통해, 사용자 입력에 기초하여 생성되는 신호에 따라 동작될 수 있다. 예를 들면, 사용자는, POI 정보를 제공 받기 위해, 터치 스크린을 두번 두드리는 더블 탭 입력을 할 수 있다. 터블 탭 입력은, 상술한 제1 사용자 입력의 일 예일 수 있다. 터치 스크린은, 사용자의 더블 탭 입력을 전기적 신호로 전환할 수 있다. 더블 탭 입력에 기초한 전기적 신호는, 상술한 제1 신호일 수 있다. 프로세서(170)는, 제1 신호를 수신하고, 제1 신호에 따라 정해진 동작을 수행할 수 있다. 예를 들면, 사용자는, POI의 상세 정보를 제공받기 위해, 터치 스크린에 표시된 제1 POI에 대한 터치 입력을 할 수 있다. 제1 POI에 대한 터치 입력은, 상술한 제2 사용자 입력의 일 예일 수 있다. 터치 스크린은, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 터치 입력에 기초한 전기적 신호는, 상술한 제2 신호일 수 있다. 프로세서(170)는, 제2 신호를 수신하고, 제2 신호에 따라 정해진 동작을 수행할 수 있다.The display 214 may implement a touch screen by forming a mutual layer of the touch input unit and the layer. A user may interact with an electronic device for a vehicle through a touch screen. The processor 170 may be operated according to a signal generated based on a user input through a touch screen. For example, the user may perform a double tap input by tapping the touch screen twice in order to receive POI information. The double tap input may be an example of the above-described first user input. The touch screen may convert a user's double tap input into an electrical signal. The electrical signal based on the double tap input may be the above-described first signal. The processor 170 may receive the first signal and perform a predetermined operation according to the first signal. For example, the user may perform a touch input on the first POI displayed on the touch screen in order to receive detailed information of the POI. The touch input for the first POI may be an example of the aforementioned second user input. The touch screen may convert a user's touch input into an electrical signal. The electrical signal based on the touch input may be the second signal described above. The processor 170 may receive the second signal and perform a predetermined operation according to the second signal.
도 11a 내지 도 11c를 참조하면, 프로세서(170)는, 디스플레이(214)의 일 영역에 동영상(1110)을 재생할 수 있다. 재생되는 영상은, 차량(10) 외부의 영상에 POI 정보가 결합된 영상일 수 있다. 프로세서(170)는, 디스플레이(214)의 일 영역에 재생되는 영상과 함께, POI 리스트(1120)를 표시할 수 있다. 프로세서(170)는, 재생되는 영상에서의 POI 그래픽 객체와 POI 리스트를 매칭하여 표시할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)과 가장 근접한 제1 POI에 대응되는 제1 그래픽 객체(1111)를 하이라이트 처리할 수 있다. 이경우, 프로세서(170)는, POI 리스트에서 제1 그래픽 객체(1111)에 매칭되는 제1 POI 항목(1121)를 하이라이트 처리할 수 있다.11A to 11C, the processor 170 may play a video 1110 on a region of the display 214. The reproduced image may be an image in which POI information is combined with an image outside the vehicle 10. The processor 170 may display a POI list 1120 together with an image reproduced in one area of the display 214. The processor 170 may match and display a POI graphic object in a reproduced image with a POI list. For example, the processor 170 may highlight the first graphic object 1111 corresponding to the first POI closest to the vehicle 10. In this case, the processor 170 may highlight the first POI item 1121 matching the first graphic object 1111 in the POI list.
차량(10)이 이동함에 따라, 가장 근접한 POI가 제1 POI에서 제2 POI로 변경되는 경우, 프로세서(170)는, 하이라이트 처리되는 그래픽 객체를 제1 그래픽 객체(1111)에서 제2 그래픽 객체(1112)로 변경할 수 있다. 이경우, 프로세서(170)는, POI리스트에서 하이라이트 처리되는 제1 POI 항목(1121)을 제2 POI 항목(1122)로 변경할 수 있다. 제2 POI 항목(1122)은, 제2 그래픽 객체에 매칭되는 항목일 수 있다.As the vehicle 10 moves, when the nearest POI is changed from the first POI to the second POI, the processor 170 converts the highlighted graphic object from the first graphic object 1111 to a second graphic object ( 1112). In this case, the processor 170 may change the first POI item 1121 to be highlighted in the POI list to the second POI item 1122. The second POI item 1122 may be an item matching the second graphic object.
사용자에 의해 제1 POI가 선택된 경우, 프로세서(170)는, 제1 POI에 대한 상세 정보(1150)를 출력할 수 있다. 상세 정보(1150)가 표시되는 상태에서, 추가 정보를 제공받기 위한 사용자 입력(1151 또는 1152에 대한 터치 입력)이 수신되는 경우, 프로세서(170)는, 추가 정보를 출력할 수 있다. 예를 들면, 프로세서(170)는, 제품에 대한 설명이나 광고 동영상 등을 출력할 수 있다. When the first POI is selected by the user, the processor 170 may output detailed information 1150 on the first POI. In a state in which detailed information 1150 is displayed, when a user input (touch input for 1151 or 1152) for receiving additional information is received, the processor 170 may output additional information. For example, the processor 170 may output a description of a product or an advertisement video.
한편, 프로세서(170)는, 디스플레이(213)의 일 영역에 차량(10)의 경로(1130) 및 교통 상황 정보(1140)를 표시할 수 있다.Meanwhile, the processor 170 may display the route 1130 of the vehicle 10 and the traffic condition information 1140 on one area of the display 213.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as a computer-readable code in a medium on which a program is recorded. The computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet). In addition, the computer may include a processor or a control unit. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
[부호의 설명][Explanation of code]
10 : 차량10: vehicle
100 : 차량용 전자 장치100: vehicle electronic device

Claims (20)

  1. 차량 외부의 영상 데이터를 획득하고, 상기 영상 데이터에 기초하여 적어도 하나의 오브젝트를 검출하고,Acquiring image data outside the vehicle, detecting at least one object based on the image data,
    차량 주변의 POI(Point of Interest) 데이터를 획득하고,Acquire Point of Interest (POI) data around the vehicle,
    상기 영상 데이터의 타임 스탬프(timestamp)에 기초하여, 상기 영상 데이터에 POI 데이터를 동기화(synchronize)하는 프로세서;를 포함하는 차량용 전자 장치.And a processor for synchronizing POI data with the image data based on a timestamp of the image data.
  2. 제 1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 POI 데이터를 상기 오브젝트와 매칭하는 차량용 전자 장치.An electronic device for a vehicle that matches the POI data with the object.
  3. 제 1항에 있어서,The method of claim 1,
    메모리;를 더 포함하고,And a memory;
    상기 프로세서는,The processor,
    차량에 구비된 카메라로부터 상기 영상 데이터를 수신하고,Receiving the image data from a camera provided in the vehicle,
    차량에 구비된 통신 장치를 이용하여, 외부 서버로부터 상기 POI 데이터를 수신하고,Using a communication device provided in the vehicle, receiving the POI data from an external server,
    상기 메모리에, 상기 영상 데이터 및 상기 POI 데이터를 분리하여 저장하는 차량용 전자 장치.The electronic device for a vehicle separately storing the image data and the POI data in the memory.
  4. 제 1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    제1 사용자 입력에 기초한 제1 신호가 수신되는 경우, 상기 POI 데이터가 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 차량용 전자 장치.When a first signal based on a first user input is received, a control signal for reproducing an image based on image data synchronized with the POI data is generated.
  5. 제 4항에 있어서,The method of claim 4,
    상기 프로세서는,The processor,
    제1 시점부터 상기 제1 신호 수신 시점까지 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성하고,Generating a control signal for reproducing an image based on the image data synchronized from a first point in time to a point in time at which the first signal is received,
    상기 제1 시점은, 상기 제1 신호 수신 시점에서부터 기 설정된 시간 이전의 시점으로 정의되는 차량용 전자 장치.The first time point is defined as a time point before a preset time from the time point when the first signal is received.
  6. 제 5항에 있어서,The method of claim 5,
    상기 프로세서는,The processor,
    상기 기 설정된 시간 길이의 세그먼트(segment) 단위로, 상기 영상 데이터와 상기 POI 데이터가 동기화된 데이터를 생성하는 차량용 전자 장치.An electronic device for a vehicle that generates data in which the image data and the POI data are synchronized in a segment unit of the preset time length.
  7. 제 6항에 있어서,The method of claim 6,
    상기 프로세서는,The processor,
    제1 세그먼트가 생성되는 중에 상기 제1 신호가 수신되는 경우, 기 생성된 제1 세그먼트와 상기 제1 세그먼트 이전에 생성된 제2 세그먼트의 일부에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 차량용 전자 장치.When the first signal is received while the first segment is being generated, a vehicle electronics that generates a control signal for reproducing an image based on a portion of a previously generated first segment and a second segment generated before the first segment Device.
  8. 제 4항에 있어서,The method of claim 4,
    상기 프로세서는,The processor,
    상기 영상이 재생되는 상태에서, 제2 사용자 입력에 기초한 제2 신호가 수신되는 경우, 적어도 어느 하나의 POI에 대한 상세 정보를 출력하기 위한 제어 신호를 생성하는 차량용 전자 장치.In a state in which the image is being reproduced, when a second signal based on a second user input is received, a control signal for outputting detailed information on at least one POI is generated.
  9. 제 4항에 있어서,The method of claim 4,
    상기 프로세서는,The processor,
    상기 POI 데이터에 기초한 POI 리스트를 상기 재생되는 영상에 맞춰 표시하기 위한 제어 신호를 생성하는 차량용 전자 장치.A vehicle electronic device that generates a control signal for displaying a POI list based on the POI data according to the reproduced image.
  10. 제 4항에 있어서,The method of claim 4,
    상기 프로세서는,The processor,
    상기 영상의 그래픽 객체가, 상기 그래픽 객체와 대응되는 실제 오브젝트와 매칭된 상태로 표시하기 위한 제어 신호를 생성하는 차량용 전자 장치.An electronic device for a vehicle that generates a control signal for displaying the graphic object of the image in a state matched with an actual object corresponding to the graphic object.
  11. 적어도 하나의 프로세서가, 차량 외부의 영상 데이터를 획득하는 단계;Obtaining, by at least one processor, image data outside the vehicle;
    적어도 하나의 프로세서가, 상기 영상 데이터에 기초하여 적어도 하나의 오브젝트를 검출하는 단계;Detecting, by at least one processor, at least one object based on the image data;
    적어도 하나의 프로세서가, 차량 주변의 POI(Point of Interest) 데이터를 획득하는 단계; 및At least one processor, obtaining POI (Point of Interest) data around the vehicle; And
    적어도 하나의 프로세서가, 상기 영상 데이터의 타임 스탬프(timestamp)에 기초하여, 상기 영상 데이터에 POI 데이터를 동기화(synchronize)하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.And synchronizing, by at least one processor, POI data with the image data based on a timestamp of the image data.
  12. 제 11항에 있어서,The method of claim 11,
    상기 동기화하는 단계는,The synchronizing step,
    적어도 하나의 프로세서가, 상기 POI 데이터를 상기 오브젝트와 매칭하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.And a step of matching the POI data with the object by at least one processor.
  13. 제 11항에 있어서,The method of claim 11,
    상기 영상 데이터를 획득하는 단계는,The step of obtaining the image data,
    적어도 하나의 프로세서가, 차량에 구비된 카메라로부터 상기 영상 데이터를 수신하는 단계; 및Receiving, by at least one processor, the image data from a camera provided in the vehicle; And
    적어도 하나의 프로세서가, 상기 영상 데이터를 메모리에 저장하는 단계;를 포함하고,Including, at least one processor, storing the image data in a memory,
    상기 POI 데이터를 획득하는 단계는,The step of obtaining the POI data,
    적어도 하나의 프로세서가, 차량에 구비된 통신 장치를 이용하여, 외부 서버로부터 상기 POI 데이터를 수신하는 단계; 및Receiving, by at least one processor, the POI data from an external server using a communication device provided in the vehicle; And
    적어도 하나의 프로세서가, 상기 메모리에, 상기 영상 데이터와 분리하여 상기 POI 데이터를 저장하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.And storing the POI data separately from the image data in the memory by at least one processor.
  14. 제 11항에 있어서,The method of claim 11,
    적어도 하나의 프로세서가, 제1 사용자 입력에 기초한 제1 신호가 수신되는 경우, 상기 POI 데이터가 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.Generating, by at least one processor, a control signal for reproducing an image based on the image data synchronized with the POI data, when a first signal based on a first user input is received; How it works.
  15. 제 14항에 있어서,The method of claim 14,
    상기 생성하는 단계는,The generating step,
    적어도 하나의 프로세서가, 제1 시점부터 상기 제1 신호 수신 시점까지 동기화된 영상 데이터에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 단계;를 포함하고,Generating, by at least one processor, a control signal for reproducing an image based on the image data synchronized from a first time point to a time point at which the first signal is received,
    상기 제1 시점은, 상기 제1 신호 수신 시점에서부터 기 설정된 시간 이전의 시점으로 정의되는 차량용 전자 장치의 동작 방법.The first time point is defined as a time point before a preset time from the time point when the first signal is received.
  16. 제 15항에 있어서,The method of claim 15,
    상기 생성하는 단계는,The generating step,
    적어도 하나의 프로세서가, 상기 기 설정된 시간길이의 세그먼트(segment) 단위로, 상기 영상 데이터와 상기 POI 데이터가 동기화된 데이터를 생성하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.And generating, by at least one processor, data in which the image data and the POI data are synchronized in units of segments of the preset time length.
  17. 제 16항에 있어서,The method of claim 16,
    상기 동기화된 데이터를 생성하는 단계는,The step of generating the synchronized data,
    적어도 하나의 프로세서가, 제1 세그먼트가 생성되는 중에 상기 제1 신호가 수신되는 경우, 기 생성된 제1 세그먼트와 상기 제1 세그먼트 이전에 생성된 제2 세그먼트의 일부에 기초한 영상을 재생하기 위한 제어 신호를 생성하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.At least one processor, when the first signal is received while the first segment is being generated, a control for reproducing an image based on a portion of a previously generated first segment and a second segment generated before the first segment Generating a signal; operating method of a vehicle electronic device comprising a.
  18. 제 14항에 있어서,The method of claim 14,
    적어도 하나의 프로세서가, 상기 영상이 재생되는 상태에서, 제2 사용자 입력에 기초한 제2 신호가 수신되는 경우, 적어도 어느 하나의 POI에 대한 상세 정보를 출력하기 위한 제어 신호를 생성하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.Generating, by at least one processor, a control signal for outputting detailed information on at least one POI when a second signal based on a second user input is received while the image is being played back; further Operating method of a vehicle electronic device including.
  19. 제 14항에 있어서,The method of claim 14,
    적어도 하나의 프로세서가, 상기 POI 데이터에 기초한 POI 리스트를 상기 재생되는 영상에 맞춰 표시하기 위한 제어 신호를 생성하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.Generating, by at least one processor, a control signal for displaying a POI list based on the POI data according to the reproduced image.
  20. 제 14항에 있어서,The method of claim 14,
    상기 생성하는 단계는,The generating step,
    적어도 하나의 프로세서가, 상기 영상의 그래픽 객체가 실제 오브젝트와 매칭된 상태로 표시하기 위한 제어 신호를 생성하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.Generating, by at least one processor, a control signal for displaying the graphic object of the image in a state matched with an actual object.
PCT/KR2019/003369 2019-03-22 2019-03-22 Electronic device for vehicle and operation method of electronic device for vehicle WO2020196933A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003369 WO2020196933A1 (en) 2019-03-22 2019-03-22 Electronic device for vehicle and operation method of electronic device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003369 WO2020196933A1 (en) 2019-03-22 2019-03-22 Electronic device for vehicle and operation method of electronic device for vehicle

Publications (1)

Publication Number Publication Date
WO2020196933A1 true WO2020196933A1 (en) 2020-10-01

Family

ID=72609476

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/003369 WO2020196933A1 (en) 2019-03-22 2019-03-22 Electronic device for vehicle and operation method of electronic device for vehicle

Country Status (1)

Country Link
WO (1) WO2020196933A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100002895A (en) * 2008-06-30 2010-01-07 (주)엠앤소프트 Address searching navigation system and address searching method
KR20100002850A (en) * 2008-06-30 2010-01-07 (주)엠앤소프트 Navigation and method for input information poi
KR20150064485A (en) * 2013-12-03 2015-06-11 주식회사 케이티 Method for providing video regarding poi, method for playing video regarding poi, computing device and computer-readable medium
US20150221341A1 (en) * 2014-01-31 2015-08-06 Audi Ag System and method for enhanced time-lapse video generation using panoramic imagery
KR20180026241A (en) * 2016-09-02 2018-03-12 엘지전자 주식회사 User interface apparatus for vehicle and Vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100002895A (en) * 2008-06-30 2010-01-07 (주)엠앤소프트 Address searching navigation system and address searching method
KR20100002850A (en) * 2008-06-30 2010-01-07 (주)엠앤소프트 Navigation and method for input information poi
KR20150064485A (en) * 2013-12-03 2015-06-11 주식회사 케이티 Method for providing video regarding poi, method for playing video regarding poi, computing device and computer-readable medium
US20150221341A1 (en) * 2014-01-31 2015-08-06 Audi Ag System and method for enhanced time-lapse video generation using panoramic imagery
KR20180026241A (en) * 2016-09-02 2018-03-12 엘지전자 주식회사 User interface apparatus for vehicle and Vehicle

Similar Documents

Publication Publication Date Title
WO2021002519A1 (en) Apparatus for providing advertisement for vehicle, and method for providing advertisement for vehicle
WO2017003013A1 (en) Apparatus for vehicle driving assistance, operation method therefor, and vehicle comprising same
WO2011108836A2 (en) Server, navigation system, vehicle navigation system, and method for providing images of vehicle navigation system
WO2020241955A1 (en) In-vehicle electronic device and method for operating in-vehicle electronic device
WO2020241954A1 (en) Vehicular electronic device and operation method of vehicular electronic device
JP2008500561A (en) MAP DATA CREATION DEVICE, MOBILE BODY HAVING THE SAME, AND MAP DATA CREATION METHOD
WO2021002517A1 (en) Shared vehicle management device and shared vehicle management method
WO2020096083A1 (en) In-vehicle electronic device, and method and system for operating in-vehicle electronic device
WO2016076463A1 (en) Control device and control method for flying bot
WO2015199339A1 (en) Head-up display system, head-up display device, and navigation information display method
WO2020241952A1 (en) Autonomous vehicle system and autonomus driving method for vehicle
WO2020222333A1 (en) In-vehicle electronic device and method for operating in-vehicle electronic device
WO2020241971A1 (en) Traffic accident management device and traffic accident management method
WO2020091119A1 (en) Electronic device for vehicle, and method and system for operating electronic device for vehicle
WO2020196933A1 (en) Electronic device for vehicle and operation method of electronic device for vehicle
WO2021045246A1 (en) Apparatus and method for providing extended function to vehicle
JP7127636B2 (en) Information processing device, information processing method and information processing program
WO2020145440A1 (en) Electronic device for vehicle and operation method of electronic device for vehicle
WO2020196931A1 (en) Vehicle electronic device and method for operating vehicle electronic device
WO2020196932A1 (en) Digital signage device and method for operating digital signage device
WO2020091120A1 (en) Electronic device for vehicle, operating method of electronic device for vehicle, and system
WO2020096081A1 (en) Electronic device for vehicle, and method and system for operation of electronic device for vehicle
WO2020091113A1 (en) Electronic device for vehicle, and operation method and system of electronic device for vehicle
WO2020196960A1 (en) Electronic device for vehicle and operating method of electronic device for vehicle
WO2020101046A1 (en) Electronic device of commercial vehicle, and method and system for operating electronic device of commercial vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19922176

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19922176

Country of ref document: EP

Kind code of ref document: A1