WO2012118320A2 - Electronic device and method for controlling electronic device - Google Patents

Electronic device and method for controlling electronic device Download PDF

Info

Publication number
WO2012118320A2
WO2012118320A2 PCT/KR2012/001491 KR2012001491W WO2012118320A2 WO 2012118320 A2 WO2012118320 A2 WO 2012118320A2 KR 2012001491 W KR2012001491 W KR 2012001491W WO 2012118320 A2 WO2012118320 A2 WO 2012118320A2
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
controller
electronic device
specific event
location
Prior art date
Application number
PCT/KR2012/001491
Other languages
French (fr)
Korean (ko)
Other versions
WO2012118320A3 (en
Inventor
조창빈
김진영
이해일
우승완
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Publication of WO2012118320A2 publication Critical patent/WO2012118320A2/en
Publication of WO2012118320A3 publication Critical patent/WO2012118320A3/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station

Definitions

  • An electronic device and a control method of the electronic device are described.
  • LBS location based services
  • Representative devices using such a location-based service may include a navigation device for a vehicle that provides a navigation service for locating a current location of a vehicle or guiding a movement route to a destination.
  • the technical problem to be solved by the present invention is to provide an electronic device and a control method of the electronic device for effectively providing information on the traffic flow on the road while preventing the distraction of the driving user.
  • an electronic device for realizing the above object, the position data module; A communication unit connecting with a server for collecting and providing contents of at least one electronic device; And a controller for acquiring a location of the vehicle through the location data module, automatically obtaining content related to the specific event and transmitting the acquired content to the server when a specific event occurs.
  • an electronic device comprising: a position data module; A communication unit connecting to a server supporting network formation; And obtaining a location of the vehicle through the location data module, forming a network with at least one other electronic device selected based on the location of the vehicle, and when a specific event occurs, the content acquired in relation to the specific event; And a control unit for transmitting to at least one other electronic device.
  • a method of controlling an electronic device including: connecting to a server that collects and provides contents of at least one electronic device; Obtaining a location of the vehicle; Automatically acquiring content related to the specific event when a specific event occurs; And transmitting the obtained content to the server.
  • a computer-readable recording medium records a program for performing any one of the above methods.
  • the navigation automatically determines the occurrence of an event related to traffic flow or safe driving, and when an event occurs, the user automatically transmits the acquired user content to a server providing traffic information, thereby real-time on the road. Assist in identifying the situation. Furthermore, the content generated by the navigation is transmitted to other electronic devices, so that other electronic devices can recognize the situation on the road in real time based on this.
  • FIGS. 1 and 2 are schematic diagrams of a system environment related to embodiments of the present invention.
  • FIG. 3 is a structural diagram illustrating an electronic device 100 according to embodiments of the present disclosure.
  • FIG. 4 is a structural diagram illustrating a server 300 related to embodiments of the present invention.
  • FIG. 5 is a flowchart illustrating a control method of the electronic device 100 according to a first embodiment of the present disclosure.
  • FIG. 6 is a flowchart illustrating an example of determining an event occurrence using map data in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 7 and 8 are flowcharts illustrating examples of determining an event occurrence by using traffic information received from the outside in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 9 illustrates an example in which the occurrence of an event is determined by using the notice information included in the traffic information in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 10 is a flowchart illustrating another example of determining occurrence of an event using traffic information received from the outside in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 11 illustrates an example of determining an event occurrence by comparing traffic information and a moving speed of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 12 is a flowchart illustrating still another example of determining occurrence of an event using traffic information received from the outside in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 13 illustrates another example of determining occurrence of an event by comparing traffic information and a moving speed of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
  • 14 to 16 are flowcharts illustrating examples of determining an event occurrence by using an acceleration of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 17 is a diagram illustrating a case in which an occurrence of an event is determined based on the acceleration of the vehicle in the electronic device 100 according to the first embodiment of the present invention.
  • FIG. 18 is a flowchart illustrating an example of determining an event occurrence based on an impact amount in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 19 illustrates an example of determining an event occurrence based on an impact amount in the electronic device 100 according to the first embodiment of the present disclosure.
  • 20 and 21 are flowcharts illustrating examples of determining an event occurrence based on a driving image of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 22 illustrates an example of a driving image of a vehicle in which the electronic device 100 according to the first embodiment of the present disclosure is mounted.
  • FIG. 23 is a flowchart illustrating an example of determining an event occurrence based on a moving speed of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 24 illustrates an example in which the occurrence of an event is determined by using data acquired from an electronic system 100 of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
  • 25 is a diagram illustrating an example of determining an event occurrence using data received from an external electronic device in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 26 illustrates an example of registering a specific key of an external electronic device as a shortcut key related to automatic content transmission in the electronic device 100 according to the first embodiment of the present disclosure.
  • FIG. 27 is a flowchart illustrating a control method of the navigation apparatus 100 according to the second embodiment of the present invention.
  • FIGS. 1 and 2 are schematic diagrams of a system environment related to embodiments of the present invention.
  • a system environment related to embodiments of the present disclosure may include a plurality of electronic devices 100 and 10, a communication network 200, and a server 300.
  • the plurality of electronic devices 100 and 10 may be fixed terminals or mobile terminals. Examples of the plurality of electronic devices 100 and 10 include navigation, smart phones, mobile phones, computers, laptop computers, digital broadcasting terminals, PDAs (Personal Digital Assistants), and PMPs. Portable Multimedia Player), Mobile Internet Device (MID), Tablet PC (Tablet PC), and the like.
  • PDAs Personal Digital Assistants
  • PMPs Portable Multimedia Player
  • MID Mobile Internet Device
  • Tablet PC Tablet PC
  • the plurality of electronic devices 100 and 10 will be referred to as a first electronic device 100, a second electronic device 10a, a third electronic device 10b, and a fourth electronic device 10c.
  • the first electronic device 100 is a navigation device
  • the second electronic device 10a, the third electronic device 10b, and the fourth electronic device 10c are illustrated in FIG. 1.
  • Various embodiments will be described assuming a smartphone, a tablet PC, and a notebook computer, respectively.
  • Each of the electronic devices 100 and 10 may communicate with other electronic devices by wireless or wired communication.
  • the manner in which the plurality of electronic devices 100 and 10 communicate with each other is not limited.
  • the technical spirit of this document may be applied to all wireless communication methods between existing electronic devices and all future communication methods.
  • the plurality of electronic devices 100 and 10 may communicate with each other by a communication method such as Universal Plug and Play (UPnP) or WiFi.
  • a communication method such as Universal Plug and Play (UPnP) or WiFi.
  • the plurality of electronic devices 100 and 10 may communicate with each other via the communication network 200 or by a short range communication method.
  • the communication network 200 include a mobile communication network, a wired internet, a wireless internet, a broadcasting network, and the like.
  • each of the electronic devices 100 and 10 may configure the network 400 with other electronic devices as shown in FIG. 2.
  • the plurality of electronic devices 100 and 10 included in the network 400 share content with each other.
  • the first electronic device 100 forms a network 400 with other electronic devices 10 through a relationship between the electronic devices, and contents with other electronic devices 10 included in the network 400. Can share.
  • the network 400 is a social network.
  • the technical spirit of the present disclosure is applicable to all networks configured similarly to social networks.
  • Social networks are formed by the structure of social relationships created by interdependent relationships between the nodes on the web.
  • Nodes included in the social network represent individual entities that exist in the network.
  • various embodiments will be described assuming that each node 100 and 10 constituting the network is an electronic device.
  • the technical spirit of the present disclosure may be applied to a case in which nodes constituting the network are other entities.
  • the nodes constituting the network may be users, buildings, roads, locations, servers, and the like. That is, the first electronic device 100 may configure a social network of at least one user, building, road, location, server, and the like.
  • the node included in the social network is a road, a building, a location, or the like
  • the first electronic device 100 may be an account created corresponding to each road, a building, a location, and the like.
  • the server 300 communicates with a plurality of electronic devices 100 and 10 through the communication network 200.
  • various contents may be acquired through communication with the plurality of electronic devices 100 and 10.
  • various contents may be transmitted to the plurality of electronic devices 100 and 10 through communication with the plurality of electronic devices 100 and 10.
  • the server 300 may also support formation of a network 400 composed of a plurality of electronic devices 100, 10.
  • FIG. 3 is a structural diagram showing a navigation 100 associated with embodiments of the present invention.
  • the navigation apparatus 100 includes a communication unit 110, an input unit 120, a sensing unit 130, an output unit 140, a storage unit 150, a power supply unit 160, and a control unit 170. can do.
  • the components shown in FIG. 3 are not essential, so the navigation 100 may be implemented to have more or fewer components.
  • the communication unit 110 may be one or more modules that enable communication between the navigation device 100 and the communication network 200 or between a network in which the navigation device 100 and the navigation device 100 are located or between the navigation device 100 and another electronic device 10. It may include.
  • the communication unit 100 may include a location data module 111, a wireless internet module 113, a broadcast transmission / reception module 115, a short range communication module 117, a wired communication module 119, and the like. .
  • the position data module 111 is a module for acquiring position data of the navigation apparatus 100.
  • a method of obtaining location data through a global navigation satellite system (GNSS) may be used.
  • GNSS refers to a navigation system that can calculate the position of a receiver terminal using radio signals received from satellites.
  • GNSS Global Positioning System
  • GLONASS Global Orbiting Navigational Satellite System
  • COMPASS Indian Regional Navigational Satellite System
  • IRNS Indian Regional Navigational Satellite System
  • QZSS Quasi ?? Zenith Satellite System
  • the location data module 111 of the navigation 100 may receive location data by receiving a GNSS signal serving in an area in which the navigation 100 is used. Then, the current position of the navigation apparatus 100 is continuously calculated in real time using the acquired position data. The current position of the navigation 100 may be obtained through map matching with respect to the position data acquired by the position data module 111 in order to improve accuracy.
  • the position data module 111 may calculate velocity information using the current position of the navigation apparatus 100 obtained in real time.
  • the wireless internet module 113 is a device that accesses the wireless Internet and acquires or transmits data.
  • the wireless Internet accessible through the wireless internet module 113 may be a wireless LAN (WLAN), a wireless broadband (WBRO), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), or the like.
  • the broadcast transmission / reception module 115 is an apparatus for receiving broadcast signals through various broadcast systems.
  • the broadcast system that can be received through the broadcast transmission / reception module 115 includes a digital multimedia broadcasting terrestrial (DMBT), a digital multimedia broadcasting satellite (DMBS), a media forward link only (MediaFLO), a digital video broadcast handheld (DVBH), and an ISDBT (Integrated Services Digital Broadcast Terrestrial).
  • the broadcast signal received through the broadcast transmission / reception module 115 may include traffic data, living data, and the like.
  • the short range communication module 117 refers to a module for short range communication.
  • Bluetooth Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the wired communication module 119 serves to provide an interface with other electronic devices connected to the navigation device 100.
  • the wired communication module 119 may be a USB module capable of communicating through a USB port.
  • the input unit 120 is a module that generates input data for controlling the operation of the navigation apparatus 100.
  • the input unit 120 may generate input data by converting a physical input from the outside into a specific electrical signal.
  • the input unit 120 may include a user input module 121, a microphone 123, a camera 125, and the like.
  • the user input module 121 receives a control input for controlling the operation of the navigation apparatus 100 from the user.
  • the user input module may include a key pad dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.
  • the user input module 121 may be implemented as a navigation manipulation key provided in a body of the navigation apparatus 100.
  • the microphone 123 is a device that receives a user's voice and an audio signal generated inside and outside the vehicle.
  • the microphone 123 may be implemented as a navigation microphone 195 provided in the body of the navigation apparatus 100.
  • the camera 125 is a device for acquiring images of the inside and outside of the vehicle.
  • the camera 125 may acquire a driving image of the vehicle.
  • the sensing unit 130 recognizes a current state of the navigation apparatus 100 and generates a sensing signal for controlling the operation of the navigation apparatus 100.
  • the sensing unit 130 may include a motion sensing module 131, an optical sensing module 133, and the like.
  • the motion sensing module 131 may detect the movement of the navigation apparatus 100 in the 3D space.
  • the motion sensing module 131 may include a geomagnetic sensor, an acceleration sensor, and the like.
  • the motion data obtained through the motion sensing module 131 may be combined with the position data obtained through the position data module 111 to calculate a more accurate trajectory of the vehicle to which the navigation apparatus 100 is attached.
  • the light sensing module 133 is a device that measures the ambient illumination of the navigation apparatus 100.
  • the brightness of the display unit 145 may be changed to correspond to the ambient brightness by using the illumination data acquired through the light sensing module 133.
  • the output unit 140 is a device in which the navigation unit 100 outputs data.
  • the output unit 140 may include a display module 141, an audio output module 143, and the like.
  • the display module 141 displays information processed by the navigation apparatus 100.
  • the display module 141 displays a user interface (UI) or a graphic user interface (GUI) related to the navigation service.
  • UI user interface
  • GUI graphic user interface
  • the display module 141 is a liquid crystal display, a thin film transistor liquid crystal display, an organic light emitting diode, a flexible display, or a 3D display. It may include at least one.
  • the display module 141 and a sensor for detecting a touch operation form a mutual layer structure (hereinafter, abbreviated as “touch screen”)
  • the display module 141 is an output device. It can also be used as an input device.
  • the touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display module 141 or capacitance generated at a specific portion of the display module 141 into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the corresponding signal (s) is sent to the touch controller.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 170.
  • the controller 170 may determine which area of the display module 141 is touched.
  • a proximity sensor may be disposed in the inner region of the navigation apparatus 100 surrounded by the touch screen or in the vicinity of the touch screen.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using mechanical force by using electromagnetic force or infrared rays.
  • Proximity sensors have a longer life and higher utilization than touch sensors.
  • the proximity sensor examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the touch screen When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer.
  • the touch screen touch sensor
  • the touch screen may be classified as a proximity sensor.
  • the audio output module 143 outputs audio data that can be recognized acoustically.
  • the audio output module 143 outputs an audio signal related to a function (eg, a path guidance function) performed in the navigation 100.
  • the audio output module 143 may include a receiver, a speaker, a buzzer, and the like.
  • the storage unit 150 may store a program for operating the navigation apparatus 100, and may temporarily store data (path information and images) input / output in relation to the navigation apparatus 100.
  • the storage unit 150 may be embedded in or detachable from the navigation apparatus 100, and may be a flash memory type, a hard disk type, or a multimedia card micro type.
  • Card type memory e.g. SD or XD memory
  • RAM random access memory
  • SRAM static random access memory
  • ROM read only memory
  • EEPROM electrically erasable programmable read only memory
  • It may include at least one type of storage medium of a programmable read only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk.
  • the navigation apparatus 100 may operate in association with a web storage that performs a storage function of the storage unit 150 on the Internet.
  • the power supply unit 160 receives external power and internal power to supply power required for operation of each component of the navigation device 100 or another device connected to the navigation device 100.
  • the controller 170 typically controls the overall operation of the navigation apparatus 100.
  • the controller 170 may output a control signal for controlling another device connected to the navigation apparatus 100.
  • FIG. 4 is a structural diagram illustrating a server 300 related to embodiments of the present invention.
  • the server 300 may include a communicator 310, a storage 320, and a controller 330.
  • the components shown in FIG. 4 are not essential, so the server 300 may be implemented with more or fewer components.
  • the communication unit 310 may be provided between the server 300 and the communication network 200, between the server 300 and another server, between the server 300 and other electronic devices 100 and 10, or between the server 300 and the network 400. It may include one or more modules that enable communication of.
  • the storage unit 320 may store a program for operating the server 300, and may temporarily store information input / output related to the server 300.
  • the electronic device 100 stores contents acquired through communication with the plurality of electronic devices 100 and 10.
  • the controller 330 typically controls the overall operation of the server 300.
  • the controller 330 connects to the plurality of electronic devices 100 and 10 through the communication network 200.
  • the user authentication process for the corresponding electronic device 100 and 10 is performed using the authentication information received from each of the electronic devices 100 and 10. do.
  • the controller 330 obtains user content, traffic information, and traffic-related contents through communication with the plurality of electronic devices 100 and 10, and stores them in the storage 320.
  • the user content is content generated by each of the electronic devices 100 and 10.
  • the controller 330 may obtain user contents from the plurality of electronic devices 100 and 10 connected through the communication unit 310.
  • the user content may include content such as text, an image (image, a video), and an audio obtained by each of the electronic devices 100 and 10.
  • the user content may further include a corresponding location.
  • the user content may include a location from which the corresponding image is obtained.
  • the location of the electronic device 100 or 10 that transmits user content to the server 300 may be included.
  • the user content may further include traffic information obtained by the corresponding electronic device 100, 10.
  • the traffic information obtained by the electronic devices 100 and 10 may be obtained based on the positions of the corresponding electronic devices 100 and 10, and may include a moving direction and a speed.
  • the traffic-related content is content for delivering information on traffic flow to a user.
  • the controller 330 may generate traffic-related content by using user contents corresponding to each location.
  • the traffic-related content may include user content received from the electronic devices 100 and 10.
  • the traffic-related content may further include a specific location obtained in relation to the corresponding user content.
  • the traffic-related content may include the locations of the electronic devices 100 and 10 that transmit corresponding user content to the server 300.
  • the location of each electronic device (100, 10) can be received directly from the electronic device (100, 10), or can be obtained from a base station existing on the communication network 200.
  • the traffic-related content may further include traffic information obtained based on the user content.
  • the controller 330 may analyze user content received from each of the electronic devices 100 and 10, obtain specific texts and images included in the user content, and generate traffic-related content based on the content. .
  • the controller 320 extracts specific text such as "Gangnam station” or "congestion” related to traffic flow from the user content. Traffic related content may be generated using this.
  • the controller 330 may generate traffic-related content. .
  • the traffic-related content may further include at least one traffic information generated by the server 300.
  • the controller 330 acquires the location of each electronic device 100, 10 through communication with the plurality of electronic devices 100, 10, and generates traffic information indicating the traffic flow.
  • traffic-related content may be generated using the generated traffic information. That is, the control unit 330 acquires a location for the electronic device 100, 10 transmitting user content for a predetermined time, and based on this, traffic such as a moving direction and a moving speed of the corresponding electronic device 100, 10. Obtain information. Then, the obtained traffic information is included in the traffic related content.
  • the traffic information generated by the server 300 may provide objective information related to the traffic flow, and thus, unlike the user content generated by the user, the traffic information may be delivered. Therefore, there is an effect of minimizing a problem that inaccurate information transmission may occur when providing traffic-related content using only user content in which the subject of the user is involved.
  • the traffic related content may further include traffic information obtained from an external server that provides traffic information.
  • traffic related content may be generated based on traffic information obtained from a traffic information providing server that provides traffic information through a broadcasting network.
  • Traffic information provided by an external traffic information providing server may include yugo information indicating various accidents and control situations occurring on the road. Control situations include road control situations by events, assemblies, and demonstrations, and road control situations caused by construction or disasters.
  • the controller 330 selects some of the traffic-related contents stored in the storage 320 based on at least one criterion. Traffic related contents are provided to the corresponding electronic devices 100 and 10.
  • At least one criterion for selecting traffic-related content may include a specific location. For example, when a request for providing traffic related content is requested from the electronic devices 100 and 10, the controller 330 may transmit traffic related content corresponding to a specific location to the corresponding electronic devices 100 and 10.
  • At least one criterion for selecting traffic-related content may include area information. For example, when a request for providing traffic-related content is requested from the electronic devices 100 and 10, the controller 330 may transmit traffic-related content corresponding to a specific area to the electronic devices 100 and 10.
  • At least one criterion for selecting traffic-related content may include time information. For example, when a request for providing traffic-related content is requested from the electronic devices 100 and 10, the controller 330 may transmit traffic-related content corresponding to a specific time to the corresponding electronic devices 100 and 10. For example, traffic-related contents acquired within a specific time or acquired after a specific time may be transmitted to the electronic devices 100 and 10.
  • At least one criterion for selecting traffic-related content may include direction information.
  • the controller 330 may transmit traffic related content corresponding to a specific direction to the electronic devices 100 and 10.
  • the control unit 330 may be located in a specific direction based on any one position, or the traffic-related content obtained through communication with the electronic device (100, 10) driving in a specific direction electronic device (100, 10) Can be sent to.
  • At least one criterion for selecting traffic-related content may be received directly from the electronic devices 100 and 10 requesting to provide traffic-related content or may be obtained based on the location of the electronic device 100 and 10.
  • the controller 330 also supports a social network 400 configuration between the plurality of electronic devices 100 and 10. For example, when at least one criterion for selecting another electronic device 10 constituting the social network 400 is received from the first electronic device 100, 10, the at least one electronic device 10 selected based on this is received. ) And the first electronic device 100 to configure the social network 400. At least one criterion for selecting the electronic device 10 included in the social network 400 is similar to at least one criterion for selecting traffic-related content, and may be obtained in a similar manner.
  • the controller 330 also supports reconfiguration of the corresponding network 400 based on a change in the position of each of the electronic devices 100 and 10 included in the social network 400.
  • the social network configured based on the current location of the first electronic device 100 may be reconfigured based on the changed location as the current location of the first electronic device 100 changes.
  • a new electronic device is added to the network 400, or an electronic device previously included in the network 400 is connected to the network ( 400).
  • the controller 330 generates traffic information based on the location of each of the electronic devices 100 and 10 included in the social network 400, and transmits the traffic information to each of the electronic devices 100 and 10 included in the network 400.
  • Can transmit For example, the controller 330 acquires a position for each electronic device 100, 10 included in the network 400 for a predetermined time, and based on this, the moving direction and movement of each electronic device 100, 10.
  • Obtain traffic information including speed and more. The obtained traffic information is transmitted to each of the electronic devices 100 and 10 included in the network 400.
  • Embodiments disclosed in this document may be implemented in the electronic device 100 described with reference to FIG. 3.
  • various embodiments will be described assuming the electronic device 100 as a navigation device.
  • the technical idea disclosed in this document is applicable to other kinds of electronic devices such as smart phones, tablet PCs, notebook computers, and the like.
  • the motion sensing module 131 of the sensing unit 130 may include a gyro sensor, an accelerometer, a magnetic sensor, a gravity sensor, and the like. In this, the motion sensing module 131, the navigation 100 obtains the movement of the vehicle.
  • the controller 170 obtains the acceleration, the amount of impact from the outside, etc., based on the movement of the navigation device 100 obtained through the sensing unit 170.
  • the controller 170 acquires a current position of the navigation apparatus 100.
  • the current location of the navigation device 100 may be used as the current location of the vehicle.
  • the controller 170 may acquire the current location of the vehicle by using the GPS signal acquired through the location data module 111. On the other hand, since there is some error in the received GPS signal, the controller 170 performs a software map matching process on the received GPS signal to match the current location of the vehicle to the road currently being driven. In addition, when the vehicle enters a shaded area where the GPS signal cannot be received, the controller 170 acquires steering direction and speed information of the vehicle by using the gyro sensor included in the sensing unit 130, and based on the current, The location can be determined.
  • controller 170 connects to the server 300 through the communication unit 110.
  • the controller 170 transmits the selected user content to the server 300 based on the user's control input.
  • the control input of the user may be received through the input unit 120 or may be received from an external electronic device connected through the communication unit 110.
  • the controller 170 may connect with at least one external electronic device through the short range communication module 117 of the communication unit 110 and receive a control input from the connected external electronic device.
  • External electronic devices connected through the short range communication module 117 may include a smart phone, a mobile phone, a notebook computer, a PDA, a tablet PC, and the like.
  • the controller 170 automatically obtains user content related to the generated event, and automatically transmits the obtained user content to the server 300.
  • the controller 170 may also transmit the current location of the vehicle to the server 300.
  • the controller 170 may transmit information related to the traffic flow, which is obtained based on the location of the vehicle, to the server 300.
  • the controller 170 may obtain traffic information based on the location of the vehicle, and may include a moving speed and a moving direction of the vehicle.
  • the controller 170 acquires a moving speed of the navigation apparatus 100 using the position data acquired through the position data module 111.
  • the moving speed of the navigation device 100 may be used as the moving speed of the vehicle.
  • the controller 170 may acquire the moving direction of the navigation apparatus 100 based on the position data acquired through the position data module 111 and the azimuth angle obtained by using the geomagnetic sensor included in the sensing unit 130. have.
  • the moving direction of the navigation device 100 may be used as the moving direction of the vehicle.
  • 5 is a flowchart illustrating a control method of the navigation apparatus 100 according to the first embodiment of the present invention.
  • 6 to 26 are diagrams for describing a method of controlling the navigation apparatus 100 according to the first embodiment of the present invention.
  • the controller 170 connects to the server 300 through the communication unit 110 (S101).
  • the controller 170 transmits authentication information to the server 300. If the user authentication succeeds by the server 300, the server 300 connects to the server 300.
  • the authentication information 300 may include user identification information such as an ID, device identification information of the navigation apparatus 100, a password, and the like.
  • the controller 170 may transmit the authentication information input through the input unit 120 to the server 300 to request user authentication.
  • the controller 170 may use the authentication information previously stored in the storage 150 to request user authentication.
  • the authentication information previously stored in the storage 150 may be authentication information registered by the user.
  • the controller 170 automatically obtains user content (S103). In addition, the user content and the current location of the vehicle is automatically transmitted to the server 300 (S104).
  • guide information indicating that the user content acquired by the navigation apparatus 100 is transmitted to the server 300 is displayed through the display module 141 (S105).
  • the navigation 100 detects an event in a state connected to the server 300, and describes a case of performing content transmission according to an event occurrence.
  • the technical idea disclosed in this document may be applied to a new connection to the server 300 whenever a specific event occurs and to disconnect from the server 300 when the transmission of the user content is completed.
  • step S102 described above the controller 170 may detect a specific event using the map data stored in the storage 150.
  • FIG. 6 is a flowchart illustrating an example of determining occurrence of an event using map data.
  • 7 is a diagram illustrating an example of determining an event occurrence using map data.
  • the controller 170 obtains a current position of the vehicle using the position data module 111 (S201).
  • the specific location where the event occurs may be an accident-prone region, a construction section, a drunk driving enforcement section, a traffic related content collection section, a habitual congestion section, and the like.
  • the map data includes a plurality of such specific locations, and the specific locations registered in the map data can be updated as the map data is updated.
  • the specific location where the event occurs may be a location registered by the user.
  • the user may register at least one location in the map data for automatically collecting and transmitting user content.
  • the user may register the location recognized as the habitual congestion section by experience in the map data, so that when the vehicle enters the location, the user may automatically obtain user content and transmit the content to the server 300.
  • FIG. 7 illustrates an example of determining occurrence of an event according to entry of a construction section of a vehicle using map data.
  • the navigation apparatus 100 may map the map data. Based on this, it may be determined that the vehicle 5 enters the construction section 7a.
  • the navigation 100 automatically obtains user content and transmits the content to the server 300.
  • the vehicle 5 may transmit an image of a driving road obtained when the vehicle 5 enters the construction section to the server 300.
  • the driving image of the vehicle acquired for a preset time after entering the construction section 7a may be transmitted to the server 300.
  • the driving image of the vehicle acquired while driving the construction section 7a may be transmitted to the server 300.
  • the navigation apparatus 100 may determine the entry of the construction section 7a of the vehicle 5 based on the map data similarly to the method of determining the entry of the construction section 7a of the vehicle 5. Referring back to FIG.
  • the controller 170 may determine whether a specific event has occurred based on traffic information received from the outside through the communication unit 110.
  • the controller 170 may connect to the server 300 or the broadcasting network through the communication unit 110 and receive traffic information from the connected server 300 or the broadcasting network.
  • the controller 170 receives traffic information from the server 300 or the broadcasting network in operation S301.
  • Traffic information received in step S301 may include yugo information.
  • the notice information is information generated by the server 300 using user content received from another electronic device 10, or obtained from another server that provides traffic information.
  • the information may be included in the traffic information.
  • the notice information may be Road Traffic Message (RTM) information included in the Transport Protocol Expert Group (TPEG) information.
  • the notice information is information indicating various accidents and control situations occurring on the road, and may include locations corresponding to various accident sections and control sections.
  • Control situations included in the notice information may include road control situations due to events, assemblies, demonstrations, and road control situations due to construction or disasters.
  • the controller 170 obtains a current position of the vehicle by using the position data module 111 (S302). In addition, based on the current position of the vehicle, it is determined whether the vehicle enters the position included in the yugo information (S303). When the vehicle enters the location included in the yugo information, it is determined that an event has occurred (S304).
  • FIG. 9 illustrates an example of determining an event occurrence using yug information included in traffic information.
  • the controller 170 receives traffic information from the outside.
  • the vehicle 5 equipped with the navigation (100) obtains information on the accident occurrence point (9a) occurred on the road on which the driving.
  • the controller 170 determines that an event has occurred when the vehicle 5 enters the accident occurrence point 9a.
  • the content is automatically obtained and transmitted to the server 300.
  • the vehicle 5 may transmit an image of a driving road obtained when the vehicle 5 enters the accident occurrence point 9a to the server 300.
  • the driving image of the vehicle acquired for a preset time after entering the accident occurrence point 9a may be transmitted to the server 300.
  • the controller 170 receives traffic information from the server 300 or a broadcasting network in operation S401.
  • Traffic information received in step S401 includes the average moving speed of the corresponding vehicle, for each section or location of the road.
  • the controller 170 acquires a moving speed of the vehicle (S402). Then, the average moving speed corresponding to the current position of the vehicle obtained from the traffic information is compared with the moving speed of the vehicle. It is determined that the change, and whether or not the event occurs (S404).
  • FIG. 11 illustrates an example of determining an event occurrence by comparing traffic information and a moving speed of a vehicle.
  • the average moving speed obtained from the traffic information is 80 km / h for a section in which the vehicle 5 equipped with the navigation 100 is traveling.
  • the current moving speed of the vehicle 5 is 15 km / h.
  • the controller 170 determines that an event has occurred since the difference between the average moving speed of 80 km / h obtained from the traffic information and the actual moving speed of 15 km / h of the vehicle 5 is greater than the preset 20 km / h. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
  • the actual moving speed of the vehicle 5 may be transmitted to the server 300.
  • the driving image of the vehicle acquired for a predetermined time may be transmitted to the server 300.
  • the controller 170 receives traffic information from the server 300 or a broadcasting network in operation S501.
  • Traffic information received in step S501 includes the average moving speed of the corresponding vehicle for each section or location of the road.
  • the traffic information may include information representing the traffic flow state of each section of the road.
  • the state information indicating the traffic flow of each section is information indicating the state of the traffic flow of the corresponding section such as congestion, slow motion, and smoothness.
  • the controller 170 receiving the traffic information obtains an average moving speed or traffic flow state information corresponding to the current location of the vehicle from the received traffic information. That is, the vehicle obtains an average moving speed or traffic flow state of the vehicle for the section in which the vehicle is currently running.
  • the controller 170 determines whether the vehicle has entered a congestion section in the traffic information based on the average moving speed or traffic flow state of the vehicles with respect to the section in which the vehicle is currently driving (S502).
  • FIG. 13 illustrates an example of determining occurrence of an event using yug information included in traffic information.
  • the controller 170 performs traffic flow such as congestion, slow motion, and smoothness for each section of a road on which the vehicle 5 equipped with the navigation device 100 is driven, based on traffic information received from the outside. Acquire.
  • the controller 170 determines entry of the congestion section of the vehicle 5 based on the obtained traffic flow. When the vehicle 5 enters the traffic jam section, it is determined that an event has occurred. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
  • the actual moving speed of the vehicle 5 may be transmitted to the server 300.
  • the driving image or the driving image acquired while the vehicle is traveling in the traffic jam section may be transmitted to the server 300.
  • the controller 170 may determine the occurrence of an event using a speed change of the vehicle, that is, an acceleration.
  • the acceleration of the vehicle may be obtained through the acceleration sensor in the sensing unit 130.
  • the acceleration of the vehicle may be obtained based on the change of the position data obtained through the position data module 111.
  • 14 to 16 are flowcharts illustrating examples of determining occurrence of an event using acceleration of a vehicle. 17 illustrates an example of determining an event occurrence based on the acceleration of the vehicle.
  • the controller 170 obtains the acceleration of the vehicle using the sensing unit 130 or the position data module 111 (S601).
  • the controller 170 determines that an event has occurred (S603). That is, when it is determined that the vehicle is rapidly decelerated / rapidly accelerated based on the acceleration of the vehicle, it is determined that an event related to traffic flow or safe driving such as a traffic jam, an accident, an obstacle, and the like occurs.
  • the control unit 170 when transmitting the content by recognizing the rapid deceleration / rapid acceleration of the vehicle as an event, the control unit 170 unnecessarily stores the contents even if the rapid deceleration / rapid acceleration in accordance with normal driving ( 300) happening. Accordingly, the controller 170 may detect an event occurrence by additionally using information other than the acceleration of the vehicle.
  • the controller 170 receives traffic information from a server 300 or a broadcasting network connected through the communication unit 110 (S701).
  • the traffic information includes the average moving speed of the corresponding vehicles for each section or location of the road.
  • the traffic information may include information representing the traffic flow state of each section of the road.
  • the controller 170 may obtain average moving speed or traffic flow state information corresponding to the current location of the vehicle from the received traffic information, and may determine whether the vehicle enters a congestion section on the traffic information.
  • the controller 170 obtains the acceleration of the vehicle (S702).
  • the vehicle falls rapidly, that is, when the acceleration of the vehicle is less than or equal to a preset value (S703), a traffic flow state corresponding to the current position of the vehicle is obtained from the traffic information.
  • the controller 170 obtains the average moving speed or traffic flow state information corresponding to the current position of the vehicle from the received traffic information, and determines the traffic flow state of the section in which the vehicle is driving based on this.
  • the controller 170 determines that an event has occurred (S704) when the current position of the vehicle corresponds to the congestion section on the traffic information while the vehicle is rapidly decelerated (S705).
  • the controller 170 acquires an acceleration of the vehicle (S801). In addition, when the vehicle falls rapidly, that is, when the acceleration of the vehicle is equal to or less than a preset value, based on the obtained acceleration of the vehicle (S802), the movement speed of the vehicle is acquired.
  • the controller 170 determines that an event has occurred when the moving speed of the vehicle is lower than or equal to a preset value in a state in which the vehicle is rapidly decelerated (S803).
  • FIG. 17 is a diagram illustrating a case in which event occurrence is determined based on the acceleration of the vehicle, and illustrates a change in the movement speed of the vehicle in a graph.
  • the moving speed of the vehicle equipped with the navigation device 100 rapidly decreases from t 1 to 20 km / h or less, and then maintains a speed of 20 km / h or less for a predetermined time. Therefore, the controller 170 maintains a movement speed of 20 km / h or less corresponding to the movement speed when the vehicle is at a standstill for the preset time t2 after the vehicle suddenly decelerates, and thus determines that the vehicle has entered a stall period.
  • the actual moving speed of the vehicle 5 may be transmitted to the server 300.
  • the driving image or the driving image acquired while the vehicle is traveling in the traffic jam section may be transmitted to the server 300.
  • the controller 170 may determine the occurrence of an event based on the amount of impact from the outside of the vehicle.
  • the impact amount from the outside may be obtained using an acceleration sensor, a gravity sensor, or the like included in the sensing unit 130.
  • 18 is a flowchart illustrating an example of determining an event occurrence based on an impact amount.
  • 19 is a diagram illustrating an example of determining an event occurrence based on an impact amount.
  • the controller 170 continuously acquires an external impact amount on the vehicle (S901).
  • the event occurs when the impact amount pattern changes rapidly, that is, when the amount of change in the impact amount is more than the predetermined value (S902) (S903). That is, when a lot of shocks occur in the vehicle due to road damage, obstacles, accidents, etc., it is determined as an event related to stable driving.
  • FIG. 19 illustrates an example of determining an event occurrence based on an impact amount.
  • FIG. 19A when the vehicle 5 equipped with the navigation 100 travels on a broken road, the amount of impact from the outside to the vehicle 5 is determined in FIG. 19B. As shown in the figure, it can be seen that there is a rapid change for a certain time t3. That is, it can be seen that the amplitude of the graph representing the impact amount changes suddenly for a predetermined period t3.
  • the controller 170 determines that an event has occurred. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
  • the driving image or the driving image of the vehicle acquired after the event is transmitted to the server 300.
  • the driving image or the driving image of the vehicle acquired before the preset time may be transmitted to the server 300 based on the time point at which the event occurs.
  • the controller 170 may determine the occurrence of an event based on the driving image of the vehicle.
  • the driving image of the vehicle may be obtained through at least one camera 125 included in the navigation 100.
  • the driving image of the vehicle may also be obtained from at least one external camera or the vehicle black box connected through the communication unit 110.
  • 20 and 21 are flowcharts illustrating examples of determining an event occurrence based on a driving image of a vehicle. 22 illustrates an example of determining an event occurrence based on a driving image of a vehicle.
  • the controller 170 acquires a driving image of the vehicle (S1001). In addition, based on image recognition of the driving image of the vehicle, objects included in the driving image are extracted.
  • the controller 170 determines that an event has occurred (S1003).
  • the controller 170 determines that an event has occurred when the driving image of the vehicle includes an object corresponding to an accident vehicle or an obstacle.
  • the controller 170 determines that an event occurs when an object corresponding to a special vehicle, such as an ambulance, is included in the driving image of the vehicle.
  • the controller 170 may determine whether a specific object is included in the driving image based on an outline, a color, and the like of each object extracted from the driving image.
  • the controller 170 acquires a driving image of a vehicle (S1101). In addition, based on image recognition of the driving image of the vehicle, objects included in the driving image are extracted.
  • the traffic flow state of the road is determined based on at least one object extracted from the driving image (S1102).
  • the traffic flow state corresponds to congestion (S1103), it is determined that an event has occurred (S1104).
  • the controller 170 may determine the traffic flow by using specific objects obtained from the driving image.
  • the controller 170 may detect other vehicles from the driving image, and determine whether the vehicle is congested based on the number of vehicles acquired from the driving image or the distance between the vehicles.
  • FIG. 22 is a diagram illustrating a case of determining an event occurrence by analyzing an object acquired from a driving image of a vehicle, and illustrates an example of a driving image of a vehicle equipped with the navigation 100.
  • the controller 170 analyzes the driving image 7 of the vehicle and extracts objects included in the image.
  • a specific object such as an accident vehicle OB1 or a wrecker vehicle OB1 for towing the accident vehicle, is obtained based on the types and shapes of the extracted objects based on the outlines and colors of the extracted objects. It is determined whether is included in the driving image 7 of the vehicle.
  • the controller 170 determines that an event has occurred. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
  • the driving image or the driving image of the vehicle may be transmitted to the server 300.
  • the controller 170 may determine the occurrence of an event based on the moving speed of the vehicle.
  • 23 is a flowchart illustrating an example of determining an event occurrence based on a moving speed of a vehicle.
  • the controller 170 acquires a moving speed of the vehicle (S1201).
  • the controller 170 determines that an event has occurred (S1203). That is, if the moving speed of the vehicle is less than or equal to the preset speed for a predetermined time, it is determined that the vehicle has entered the stall section.
  • the controller 170 may determine the occurrence of an event based on data received from the vehicle electrical system.
  • FIG. 24 illustrates an example of determining an event occurrence by using data acquired from a vehicle electrical system.
  • the controller 170 connects to a vehicle electrical system through a short-range communication or a wired communication method through the communication unit 110 (S1301).
  • the controller 170 determines that an event related to safe driving has occurred (S1303).
  • the controller 170 may determine an event occurrence based on data received from an external electronic device.
  • 25 illustrates an example of determining an event occurrence using data received from an external electronic device.
  • the controller 170 connects to an external electronic device through the communication unit 110 (S1401).
  • the controller 170 determines that an event has occurred (S1402).
  • Specific data corresponding to the event may be received as a specific key of the external electronic device is manipulated.
  • the specific key may be set by the user.
  • FIG. 26 illustrates an example of registering a specific key of an external electronic device as a shortcut key associated with automatic transmission of content.
  • the navigation apparatus 100 is connected to the external electronic device 10a in operation S1501.
  • the navigation apparatus 100 enters a mode for registering a specific key of the external electronic device as a shortcut key of an automatic content transmission menu based on a user's control input (S1502).
  • S1502 a user's control input
  • the navigation apparatus 100 converts the specific key into a shortcut key for automatic content transmission. Register.
  • the navigation apparatus 100 automatically acquires and transmits the content to the server 300 whenever specific key data is input from the external electronic device 100 connected through the communication unit 110.
  • the navigation 100 may automatically recognize an event related to traffic flow or safe driving. Accordingly, even without the operation of the user in operation, by automatically collecting the content in the location that needs to be collected and transmits to the server 300, there is an effect of minimizing the user's hassle. In addition, by collecting and transmitting information automatically without distracting the user, there is an effect of supporting the user to drive safely.
  • the controller 170 may acquire content using pre-stored text. If an event occurs in operation S102, the controller 170 selects one of a plurality of pre-stored texts based on the attribute of the generated event. In addition, the user content generated using the selected text is transmitted to the server 300.
  • the event attribute may include whether the event is related to any of traffic flow and safe driving.
  • the event attribute, the attribute of the location where the event occurred for example, the habitual congestion section, accident occurrence section, drinking crackdown section, control section, accident occurrence point, construction section, fog generation area and the like.
  • the event attribute may include a traffic flow state corresponding to the event, for example, congestion, slow motion, and the like.
  • the text corresponding to each attribute of the generated event may be set by the user.
  • a user may register a text of 'usual congestion section' with respect to the congestion congestion section registered in the map data. Then, when the controller 170 enters the location registered as the habitual congestion section in the map data, the controller 170 transmits the user content generated by using the text 'the habitual congestion section' to the server 300.
  • the controller 170 may generate user content using audio acquired through the microphone 123.
  • the controller 170 may generate user content using a driving image (image, video) of the vehicle.
  • the driving image of the vehicle may be obtained through at least one camera 125 included in the navigation 100.
  • the driving image of the vehicle may also be obtained from at least one external camera or the vehicle black box connected through the communication unit 110.
  • the controller 170 may include the driving image of the vehicle in the user content in the form of an image or a video.
  • the controller 170 obtains at least one image from the driving image of the vehicle, and transmits the user content generated by using the same to the server 300.
  • the controller 170 when an event occurs, the controller 170 obtains a driving image of the vehicle for a predetermined time in a video form, and transmits the user content generated by using the same to the server 300.
  • the controller 170 may generate the user content using the driving image of the vehicle acquired for a predetermined time after the event occurs.
  • the controller 170 may obtain the user content by using the driving image of the vehicle photographed for a predetermined time from a preset time on the basis of the time when the event occurs.
  • the time for acquiring the driving image of the vehicle for generating user content may vary depending on the event attribute.
  • the controller 170 may acquire a driving image of the vehicle until the vehicle enters and exits the corresponding area in the form of at least one image or video.
  • the controller 170 acquires a driving image until the vehicle enters and enters the habitual congestion section in at least one image or video form. can do.
  • the controller 170 may at least one image or only for a predetermined time based on the time point at which the event occurs.
  • a driving image in the form of a video can be obtained.
  • the time for acquiring the driving image of the vehicle for generating user content may vary depending on the subject acquiring the driving image.
  • the controller 170 may acquire not only the driving image currently acquired from the vehicle black box but also the previously obtained driving image. Accordingly, when a driving image before an event occurs is needed according to the generated event, the controller 170 may generate user content using the driving image of the vehicle acquired from a point in time before the event occurs. .
  • step S104 when the user content is transmitted to the server 300, the controller 170 may also transmit information such as a current position, a moving speed, and a moving direction of the vehicle.
  • step S105 when the transmission of the user content is completed, the controller 170 displays text, an icon, and the like for guiding the user to the screen through the display module 151.
  • this document is not limited thereto. The technical idea disclosed in this document may be applied to a case in which text, an icon, etc. for guiding the content are not displayed on the screen when the transmission of the user content is completed.
  • the motion sensing module 131 of the sensing unit 130 may include a gyro sensor, an acceleration sensor, a geomagnetic sensor, a gravity sensor, and the like. In this, the motion sensing module 131, the navigation 100 obtains the movement of the vehicle.
  • the controller 170 obtains the acceleration of the vehicle, the amount of impact from the outside, etc. based on the movement of the navigation device 100 obtained through the sensing unit 170.
  • the controller 170 obtains a current position of the vehicle. Since the method of acquiring the current position of the vehicle is the same as the method of acquiring the position disclosed in the first embodiment of the present invention described above, a detailed description thereof will be omitted.
  • controller 170 connects to the server 300 through the communication unit 110.
  • the communication unit 110 connects with another electronic device 10.
  • controller 170 configures the social network 400 with the other electronic device 10 through communication with the server 300.
  • the controller 170 transmits the selected user content to another electronic device 10 included in the social network 400 based on the user's control input.
  • the control input of the user may be received through the input unit 120 or may be received from an external electronic device connected through the communication unit 110.
  • the controller 170 may connect with at least one external electronic device through the short range communication module 117 of the communication unit 110 and receive a control input from the connected external electronic device.
  • External electronic devices connected through the short range communication module 117 may include a smart phone, a mobile phone, a notebook computer, a PDA, a tablet PC, and the like.
  • the controller 170 automatically obtains user content related to the generated event, and automatically transmits the obtained user content to another electronic device 10 included in the social network 400.
  • the controller 170 may also transmit the current location of the vehicle to the other electronic device 10 included in the social network 400.
  • the controller 170 may transmit the information related to the traffic flow, which is obtained based on the location of the vehicle, to another electronic device 10 included in the social network 400.
  • the traffic information obtained based on the location of the vehicle may include a moving speed of the vehicle, a moving direction, and the like.
  • FIG. 27 is a flowchart illustrating a control method of the navigation apparatus 100 according to the second embodiment of the present invention.
  • FIG. 28 is a diagram for describing a method of controlling the navigation apparatus 100 according to the second embodiment of the present invention.
  • the controller 170 connects to the server 300 through the communication network 200 (S1701).
  • the second embodiment of the present invention performs a user authentication process using authentication information when a user authentication process is required. If the user authentication succeeds, the server 300 is connected to the server 300.
  • the controller 170 requests the server 300 to configure a social network for sharing user content acquired on the road, based on a user's control input (S1702).
  • the controller 180 configures a social network with at least one electronic device 10 selected by the server 300 (S1703).
  • a case where a social network configuration is requested is described as an example.
  • the technical idea disclosed in this document may be applied to the case where the user connects to the server 300 when the social network configuration request is received from the user.
  • the controller 170 transmits the current location of the navigation apparatus 100, that is, the current location of the vehicle equipped with the navigation apparatus 100 to the server 300, thereby surrounding the current location based on the current location.
  • the server 300 requests a network configuration with the electronic devices 10 located at.
  • the controller 170 may also transmit a moving direction of the vehicle, a destination, a search radius, and the like together with the current location of the vehicle.
  • the server 300 may select the electronic devices 10 having the same moving direction as the moving direction of the vehicle to support the network configuration.
  • the server 300 may support the network configuration by selecting the electronic devices 10 located on the path on which the vehicle is moving.
  • the server 300 may support the network configuration by selecting the electronic devices 10 located within the radius based on the current location of the vehicle.
  • FIG. 28 illustrates an example of configuring a network based on a current location SP of a vehicle.
  • the server 300 requests a network configuration for sharing user content from the navigation device 100
  • the navigation device 100 is in a current location, that is, the current location of the vehicle in which the navigation device 100 is mounted.
  • the current location SP may be received from the navigation apparatus 100 or may be obtained from a base station included in the communication network 200.
  • the server 300 obtains a change in the position of the vehicle for a predetermined time, and obtains a moving direction of the vehicle based on the change.
  • the predetermined area A is set based on the current position and the moving direction of the vehicle.
  • other electronic devices T1 to T5 located in the set area A are selected, and the social network configuration of the selected electronic devices T1 to T5 and the navigation device 100 is supported.
  • the social network 400 configured at the request of the navigation apparatus 100 includes the electronic devices 10 selected based on the current location of the navigation apparatus 100 as described above. Therefore, it may be updated according to the current position of the navigation apparatus 100. While the network 400 is maintained, the server 300 continuously acquires the location of the navigation device 100 and continuously updates the electronic devices 10 included in the network 400 based on the location.
  • the server 300 continuously maintains the electronic devices 10 included in the network based on the change of the location of the other electronic devices 10 included in the network 400. Update with.
  • the electronic device 10 that does not satisfy the condition of the network configuration is excluded from the network, and the electronic device 10 that newly meets the standard may be included in the network 400.
  • the controller 170 automatically acquires user content (S1705).
  • the obtained user content is automatically transmitted to at least one electronic device included in the network 400 formed in step S1703 (S1706).
  • the guide information for guiding this is displayed on the screen through the display module 141 (S1707).
  • steps S1704 to S1707 are performed similarly to steps S102 to S105 disclosed in the above-described first embodiment of the present invention, and thus detailed description thereof will be omitted.
  • the navigation automatically determines an event related to the traffic flow or safe driving, and when the event occurs, by automatically transmitting the user content obtained to the server providing the traffic information, in the server It helps to understand the situation on the road in real time. Furthermore, the content generated by the navigation is transmitted to other electronic devices, so that other electronic devices can recognize the situation on the road in real time based on this.
  • Embodiments of the present invention include a computer readable medium containing program instructions for performing various computer-implemented operations.
  • This medium records a program for executing the navigation service method described so far.
  • the media may include, alone or in combination with the program instructions, data files, data structures, and the like. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CDs and DVDs, and ROMs.
  • Hardware devices configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are an electronic device and a method for providing traffic-related contents of the electronic device. According to the present invention, if a particular event occurs while driving a vehicle, the electronic device automatically obtains user contents related to road conditions, and automatically transmits the obtained user contents to a server.

Description

전자 기기 및 전자 기기의 제어 방법Electronic device and control method of electronic device
전자 기기 및 전자 기기의 제어 방법에 관한 것이다. An electronic device and a control method of the electronic device.
인터넷 망이 개방되고 위치데이터와 관련된 법률이 정비됨에 따라, 위치 기반 서비스(Location Based Service; LBS) 관련 산업이 활성화되고 있다. 이러한 위치 기반 서비스를 이용하는 대표적인 디바이스로는 차량 등의 현재위치를 측위 하거나 목적지까지의 이동 경로를 안내해주는 내비게이션 서비스를 제공하는 차량용 내비게이션(navigation device)을 들 수 있다. With the opening of the Internet network and the revision of laws relating to location data, the industry based on location based services (LBS) is being activated. Representative devices using such a location-based service may include a navigation device for a vehicle that provides a navigation service for locating a current location of a vehicle or guiding a movement route to a destination.
최근, 통신형 내비게이션의 보급이 활발해짐에 따라, 사용자가 일방적으로 교통 정보를 제공 받는 기존의 서비스 방식을 벗어나 사용자가 능동적으로 교통 정보 사용자 컨텐츠 생성에 참여하고, 사용자에 의해 생성된 교통 정보 사용자 컨텐츠를 다른 사용자와 공유하기 위한 연구들이 활발히 진행되고 있으며, 이를 위해 단말의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려되고 있다.Recently, with the spread of communication type navigation, the user actively participates in the generation of traffic information user content, and the traffic information user content generated by the user actively moves away from the existing service method in which the user is unilaterally provided with traffic information. Researches are being actively carried out for sharing with other users, and for this purpose, it is considered to improve the structural part and / or software part of the terminal.
본 발명에서 해결하려는 기술적 과제는, 운전 중인 사용자의 주의가 분산되는 것을 방지하면서 효과적으로 도로 위 교통 흐름에 대한 정보를 제공하기 위한 전자 기기 및 전자 기기의 제어 방법을 제공하는 것이다. The technical problem to be solved by the present invention is to provide an electronic device and a control method of the electronic device for effectively providing information on the traffic flow on the road while preventing the distraction of the driving user.
상기한 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자 기기는, 위치 데이터 모듈; 적어도 하나의 전자 기기의 컨텐츠들을 수집 및 제공하는 서버와, 연결하는 통신부; 및 상기 위치 데이터 모듈을 통해 차량의 위치를 획득하며, 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련된 컨텐츠를 자동으로 획득하여, 상기 획득한 컨텐츠를 상기 서버로 전송하는 제어부를 포함한다.As an aspect of the present invention for realizing the above object, an electronic device according to the present invention, the position data module; A communication unit connecting with a server for collecting and providing contents of at least one electronic device; And a controller for acquiring a location of the vehicle through the location data module, automatically obtaining content related to the specific event and transmitting the acquired content to the server when a specific event occurs.
상기한 과제를 실현하기 위한 본 발명의 다른 양상으로서 본 발명에 따른 전자 기기는, 위치 데이터 모듈; 네트워크 형성을 지원하는 서버와 연결하는 통신부; 및 상기 위치 데이터 모듈을 통해 차량의 위치를 획득하며, 상기 차량의 위치를 토대로 선택된 적어도 하나의 타 전자 기기와 네트워크를 형성하며, 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련하여 획득한 컨텐츠를 상기 적어도 하나의 타 전자 기기로 전송하는 제어부를 포함한다.As another aspect of the present invention for realizing the above object, an electronic device comprising: a position data module; A communication unit connecting to a server supporting network formation; And obtaining a location of the vehicle through the location data module, forming a network with at least one other electronic device selected based on the location of the vehicle, and when a specific event occurs, the content acquired in relation to the specific event; And a control unit for transmitting to at least one other electronic device.
상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자 기기의 제어 방법은, 적어도 하나의 전자 기기의 컨텐츠를 수집 및 제공하는 서버와 연결하는 단계; 차량의 위치를 획득하는 단계; 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련된 컨텐츠를 자동으로 획득하는 단계; 및 상기 획득한 컨텐츠를 상기 서버로 전송하는 단계 를 포함한다.According to an aspect of the present invention, there is provided a method of controlling an electronic device, the method including: connecting to a server that collects and provides contents of at least one electronic device; Obtaining a location of the vehicle; Automatically acquiring content related to the specific event when a specific event occurs; And transmitting the obtained content to the server.
상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 컴퓨터 판독 가능한 기록 매체는 상기한 방법 중 어느 하나를 수행하는 프로그램을 기록한다.As an aspect of the present invention for realizing the above object, a computer-readable recording medium according to the present invention records a program for performing any one of the above methods.
본 발명에 따르면, 내비게이션은 교통 흐름 또는 안전 운행과 관련된 이벤트 발생을 자동으로 판단하고, 이벤트가 발생되면, 자동으로 획득한 사용자 컨텐츠를 교통 정보를 제공하는 서버로 전송함으로써, 서버에서 실시간으로 도로 위 상황을 파악하는 것이 가능하도록 지원한다. 나아가, 내비게이션에 의해 생성된 컨텐츠는 다른 전자 기기들로 전송되어, 다른 전자 기기들에서 이를 토대로, 실시간으로 도로 위 상황을 파악하는 것이 가능하도록 지원한다.According to the present invention, the navigation automatically determines the occurrence of an event related to traffic flow or safe driving, and when an event occurs, the user automatically transmits the acquired user content to a server providing traffic information, thereby real-time on the road. Assist in identifying the situation. Furthermore, the content generated by the navigation is transmitted to other electronic devices, so that other electronic devices can recognize the situation on the road in real time based on this.
또한, 사용자가 운전 중에 별도의 조작을 할 필요 없이, 도로 상황과 관련된 컨텐츠를 수집하고 전송함으로써, 운전 중인 사용자의 주의를 분산시키지 않고 안전하게, 교통 흐름 파악에 필요한 정보들을 다른 사용자 또는 교통 정보를 제공하는 서버로 제공하는 것이 가능하다. In addition, by collecting and transmitting contents related to the road situation without the user having to perform a separate operation while driving, it is possible to provide other users or traffic information with information necessary to grasp traffic flow safely without distracting the user's attention. It is possible to provide to the server.
도 1 및 도 2는 본 발명의 실시 예들과 관련된 시스템 환경의 개략도를 도시한 도면들이다.1 and 2 are schematic diagrams of a system environment related to embodiments of the present invention.
도 3은 본 발명의 실시 예들과 관련된 전자 기기(100)를 도시한 구조도이다. 3 is a structural diagram illustrating an electronic device 100 according to embodiments of the present disclosure.
도 4는 본 발명의 실시 예들과 관련된 서버(300)를 도시한 구조도이다. 4 is a structural diagram illustrating a server 300 related to embodiments of the present invention.
도 5는 본 발명의 제1 실시 예에 따른 전자 기기(100)의 제어 방법을 도시한 흐름도이다.5 is a flowchart illustrating a control method of the electronic device 100 according to a first embodiment of the present disclosure.
도 6은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 지도 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다. 6 is a flowchart illustrating an example of determining an event occurrence using map data in the electronic device 100 according to the first embodiment of the present disclosure.
도 7 및 도 8은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 예들을 도시한 흐름도들이다. 7 and 8 are flowcharts illustrating examples of determining an event occurrence by using traffic information received from the outside in the electronic device 100 according to the first embodiment of the present disclosure.
도 9는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 교통 정보에 포함된 유고 정보를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.FIG. 9 illustrates an example in which the occurrence of an event is determined by using the notice information included in the traffic information in the electronic device 100 according to the first embodiment of the present disclosure.
도 10은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 다른 예를 도시한 흐름도이다. 10 is a flowchart illustrating another example of determining occurrence of an event using traffic information received from the outside in the electronic device 100 according to the first embodiment of the present disclosure.
도 11은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 교통 정보 및 차량의 이동 속도를 비교하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.FIG. 11 illustrates an example of determining an event occurrence by comparing traffic information and a moving speed of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
도 12는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 또 다른 예를 도시한 흐름도이다. 12 is a flowchart illustrating still another example of determining occurrence of an event using traffic information received from the outside in the electronic device 100 according to the first embodiment of the present disclosure.
도 13은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 교통 정보 및 차량의 이동 속도를 비교하여 이벤트 발생을 판단하는 다른 예를 도시한 것이다.FIG. 13 illustrates another example of determining occurrence of an event by comparing traffic information and a moving speed of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
도 14 내지 도 16은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 가속도를 이용하여 이벤트 발생을 판단하는 예들을 도시한 흐름도들이다. 14 to 16 are flowcharts illustrating examples of determining an event occurrence by using an acceleration of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
도 17은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 가속도를 토대로 이벤트 발생을 판단하는 경우를 설명하기 위한 도면으로서, 차량의 이동 속도 변화를 그래프로 도시한 것이다. FIG. 17 is a diagram illustrating a case in which an occurrence of an event is determined based on the acceleration of the vehicle in the electronic device 100 according to the first embodiment of the present invention.
도 18은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다. 18 is a flowchart illustrating an example of determining an event occurrence based on an impact amount in the electronic device 100 according to the first embodiment of the present disclosure.
도 19는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 것이다. 19 illustrates an example of determining an event occurrence based on an impact amount in the electronic device 100 according to the first embodiment of the present disclosure.
도 20 및 도 21은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 주행 영상을 토대로 이벤트 발생을 판단하는 예들을 도시한 흐름도이다. 20 and 21 are flowcharts illustrating examples of determining an event occurrence based on a driving image of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
도 22는 본 발명의 제1 실시 예에 따른 전자 기기(100)가 장착된 차량의 주행 영상의 일 예를 도시한 것이다. FIG. 22 illustrates an example of a driving image of a vehicle in which the electronic device 100 according to the first embodiment of the present disclosure is mounted.
도 23은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 이동 속도를 토대로 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다. FIG. 23 is a flowchart illustrating an example of determining an event occurrence based on a moving speed of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
도 24는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 전장 시스템으로부터 회득한 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다. FIG. 24 illustrates an example in which the occurrence of an event is determined by using data acquired from an electronic system 100 of a vehicle in the electronic device 100 according to the first embodiment of the present disclosure.
도 25는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부 전자 기기로부터 수신되는 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다. 25 is a diagram illustrating an example of determining an event occurrence using data received from an external electronic device in the electronic device 100 according to the first embodiment of the present disclosure.
도 26은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부 전자 기기의 특정 키를 컨텐츠 자동 전송과 관련된 단축 키로 등록하는 일 예를 도시한 것이다. FIG. 26 illustrates an example of registering a specific key of an external electronic device as a shortcut key related to automatic content transmission in the electronic device 100 according to the first embodiment of the present disclosure.
도 27은 본 발명의 제2 실시 예에 따른 내비게이션(100)의 제어 방법을 도시한 흐름도이다.27 is a flowchart illustrating a control method of the navigation apparatus 100 according to the second embodiment of the present invention.
도 28은 본 발명의 제2 실시 예에 따른 전자 기기(100)에서 소셜 네트워크를 구성하는 일 예를 도시한 것이다. 28 illustrates an example of configuring a social network in the electronic device 100 according to the second embodiment of the present disclosure.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는 바, 이하에서는 특정 실시 예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 일, 일 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, the present invention may be modified in various ways and may have various embodiments. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail. Like numbers refer to like elements throughout. In addition, when it is determined that the detailed description of the known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, numbers (eg, days, days, etc.) used in the description of the present specification are merely identification symbols for distinguishing one component from another component.
어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 또는 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the components used in the following description are given or mixed in consideration of ease of specification, and do not have distinct meanings or roles from each other.
이하, 첨부된 도면들을 참조하여 본 발명에 대하여 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described in detail with respect to the present invention.
도 1 및 도 2는 본 발명의 실시 예들과 관련된 시스템 환경의 개략도를 도시한 도면들이다.1 and 2 are schematic diagrams of a system environment related to embodiments of the present invention.
도 1을 참조하면, 본 발명의 실시 예들과 관련된 시스템 환경은, 복수의 전자 기기(100,10), 통신망(200) 및 서버(300)를 포함하여 구성될 수 있다. Referring to FIG. 1, a system environment related to embodiments of the present disclosure may include a plurality of electronic devices 100 and 10, a communication network 200, and a server 300.
복수의 전자 기기(100, 10)는, 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기(100, 10)의 예를 들면, 내비게이션(Navigation), 스마트 폰(smart phone), 휴대폰, 컴퓨터, 노트북 컴퓨터(laptop computer), 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), MID(Mobile Internet Device), 태블릿 PC(Tablet PC) 등이 있다. The plurality of electronic devices 100 and 10 may be fixed terminals or mobile terminals. Examples of the plurality of electronic devices 100 and 10 include navigation, smart phones, mobile phones, computers, laptop computers, digital broadcasting terminals, PDAs (Personal Digital Assistants), and PMPs. Portable Multimedia Player), Mobile Internet Device (MID), Tablet PC (Tablet PC), and the like.
아래에서는, 복수의 전자 기기(100, 10)를 제1 전자 기기(100), 제2 전자 기기(10a), 제3 전자 기기(10b) 및 제4 전자 기기(10c)로 호칭하기로 한다. 또한 본 문서에서는, 도 1에 도시된 바와 같이, 제1 전자 기기(100)를 내비게이션으로 가정하고, 제2 전자 기기(10a), 제3 전자 기기(10b) 및 제4 전자 기기(10c)를 각각 스마트 폰, 태블릿 PC, 노트북 컴퓨터로 가정하여 다양한 실시 예들을 설명하기로 한다.Hereinafter, the plurality of electronic devices 100 and 10 will be referred to as a first electronic device 100, a second electronic device 10a, a third electronic device 10b, and a fourth electronic device 10c. In addition, in this document, as shown in FIG. 1, it is assumed that the first electronic device 100 is a navigation device, and the second electronic device 10a, the third electronic device 10b, and the fourth electronic device 10c are illustrated in FIG. 1. Various embodiments will be described assuming a smartphone, a tablet PC, and a notebook computer, respectively.
각 전자 기기(100, 10)는 무선 또는 유선 통신 방식에 의해 다른 전자 기기와 서로 통신할 수 있다. 본 문서에서 복수의 전자 기기(100, 10)가 상호 통신하는 방식은 제한되지 않는다. 본 문서의 기술적 사상은, 현존하는 전자 기기 간의 모든 무선 통신 방식과 앞으로 등장할 모든 통신 방식에서 적용될 수 있다. Each of the electronic devices 100 and 10 may communicate with other electronic devices by wireless or wired communication. In this document, the manner in which the plurality of electronic devices 100 and 10 communicate with each other is not limited. The technical spirit of this document may be applied to all wireless communication methods between existing electronic devices and all future communication methods.
예를 들어, 복수의 전자 기기(100, 10)는, UPnP(Universal Plug and Play), WiFi 등의 통신 방식에 의해 상호 통신할 수 있다. 또한 예를 들어, 복수의 전자 기기(100, 10)는, 통신망(200)을 통하거나, 근거리 통신 방식에 의해서 상호 통신할 수 있다. 통신망(200)의 예를 들면, 이동통신망, 유선 인터넷(internet), 무선 인터넷, 방송망 등이 있다.For example, the plurality of electronic devices 100 and 10 may communicate with each other by a communication method such as Universal Plug and Play (UPnP) or WiFi. For example, the plurality of electronic devices 100 and 10 may communicate with each other via the communication network 200 or by a short range communication method. Examples of the communication network 200 include a mobile communication network, a wired internet, a wireless internet, a broadcasting network, and the like.
또한, 각 전자 기기(100, 10)는 도 2에 도시된 바와 같이, 다른 전자 기기와 네트워크(400)를 구성할 수 있다. 또한, 상기 네트워크(400)에 포함되는 복수의 전자 기기(100, 10)는 컨텐츠를 서로 공유한다. 도 2를 보면, 제1 전자 기기(100)는 전자 기기 간의 관계 맺기를 통해 다른 전자 기기(10)와의 네트워크(400)를 구성하고, 네트워크(400)에 포함된 다른 전자 기기(10)와 컨텐츠를 공유할 수 있다. In addition, each of the electronic devices 100 and 10 may configure the network 400 with other electronic devices as shown in FIG. 2. In addition, the plurality of electronic devices 100 and 10 included in the network 400 share content with each other. Referring to FIG. 2, the first electronic device 100 forms a network 400 with other electronic devices 10 through a relationship between the electronic devices, and contents with other electronic devices 10 included in the network 400. Can share.
본 문서에서는 상기 네트워크(400)를 소셜 네트워크(Social Network)로 가정하여 다양한 실시 예들을 설명한다. 그러나, 본 문서의 기술적 사상은, 소셜 네트워크와 유사하게 구성되는 모든 네트워크에 대해 적용이 가능하다. In this document, various embodiments will be described assuming that the network 400 is a social network. However, the technical spirit of the present disclosure is applicable to all networks configured similarly to social networks.
소셜 네트워크는 웹 상에서 각 노드들 간의 상호 의존적인 관계(tie)에 의해 만들어지는 사회적 관계 구조에 의해 형성된다. 소셜 네트워크 내에 포함되는 노드들은 네트워크 안에 존재하는 개별적인 주체들을 나타낸다. 본 문서에서는 네트워크를 구성하는 각 노드(100, 10)를 전자 기기로 가정하여 다양한 실시 예들을 설명한다. 그러나, 본 문서의 기술적 사상은, 네트워크를 구성하는 노드가 다른 엔티티(entity)인 경우에도 적용이 가능하다. Social networks are formed by the structure of social relationships created by interdependent relationships between the nodes on the web. Nodes included in the social network represent individual entities that exist in the network. In this document, various embodiments will be described assuming that each node 100 and 10 constituting the network is an electronic device. However, the technical spirit of the present disclosure may be applied to a case in which nodes constituting the network are other entities.
예를 들어, 네트워크를 구성하는 노드는 사용자, 건물, 도로, 위치, 서버 등이 될 수도 있다. 즉, 제1 전자 기기(100)는 적어도 하나의 사용자, 건물, 도로, 위치, 서버 등과 소셜 네트워크를 구성할 수 있다. 소셜 네트워크에 포함되는 노드가, 도로, 건물, 위치 등인 경우, 제1 전자 기기(100)는 각 도로, 건물, 위치 등에 대응하여 생성된 계정이 될 수 있다. For example, the nodes constituting the network may be users, buildings, roads, locations, servers, and the like. That is, the first electronic device 100 may configure a social network of at least one user, building, road, location, server, and the like. When the node included in the social network is a road, a building, a location, or the like, the first electronic device 100 may be an account created corresponding to each road, a building, a location, and the like.
다시, 도 1을 보면, 서버(300)는 통신망(200)을 통해 복수의 전자 기기(100, 10)와 통신한다. 또한, 복수의 전자 기기(100, 10)와의 통신을 통해 다양한 컨텐츠를 획득할 수 있다. 또한, 복수의 전자 기기(100, 10)와의 통신을 통해 다양한 컨텐츠를 복수의 전자 기기(100, 10)로 전송할 수도 있다. Referring back to FIG. 1, the server 300 communicates with a plurality of electronic devices 100 and 10 through the communication network 200. In addition, various contents may be acquired through communication with the plurality of electronic devices 100 and 10. In addition, various contents may be transmitted to the plurality of electronic devices 100 and 10 through communication with the plurality of electronic devices 100 and 10.
서버(300)는 또한, 복수의 전자 기기(100, 10)로 구성되는 네트워크(400)의 형성을 지원할 수 있다.The server 300 may also support formation of a network 400 composed of a plurality of electronic devices 100, 10.
이하, 제1 전자 기기(100)에 대하여 도면을 참조하여 보다 상세하게 설명한다. Hereinafter, the first electronic device 100 will be described in more detail with reference to the drawings.
본 문서에서는, 전자 기기(100)를 도 1에 도시된 바와 같이, 내비게이션으로 가정하여 다양한 실시 예들을 설명하기로 한다. 그러나, 본 문서에 개시되는 기술적 사상은 스마트 폰, 태블릿 PC, 노트북 컴퓨터 등 다양한 종류의 전자 기기에 적용이 가능하다. In this document, various embodiments will be described assuming the electronic device 100 as a navigation device, as shown in FIG. 1. However, the technical idea disclosed in this document may be applied to various kinds of electronic devices such as smart phones, tablet PCs, notebook computers, and the like.
도 3은 본 발명의 실시 예들과 관련된 내비게이션(100)을 도시한 구조도이다. 3 is a structural diagram showing a navigation 100 associated with embodiments of the present invention.
도 3을 참조하면, 내비게이션(100)은 통신부(110), 입력부(120), 센싱부(130), 출력부(140), 저장부(150), 전원부(160) 및 제어부(170)를 포함할 수 있다. 도 3에 도시된 구성요소들은 필수적인 것은 아니어서, 내비게이션(100)은 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖도록 구현될 수도 있다.Referring to FIG. 3, the navigation apparatus 100 includes a communication unit 110, an input unit 120, a sensing unit 130, an output unit 140, a storage unit 150, a power supply unit 160, and a control unit 170. can do. The components shown in FIG. 3 are not essential, so the navigation 100 may be implemented to have more or fewer components.
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
통신부(110)는 내비게이션(100)과 통신망(200) 사이 또는 내비게이션(100)과 내비게이션(100)이 위치한 네트워크 사이 또는 내비게이션(100)과 다른 전자 기기(10)와의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부(100)는, 위치 데이터 모듈(111), 무선 인터넷 모듈(113), 방송 송수신 모듈(115), 근거리 통신 모듈(117), 유선 통신 모듈(119) 등을 포함할 수 있다.The communication unit 110 may be one or more modules that enable communication between the navigation device 100 and the communication network 200 or between a network in which the navigation device 100 and the navigation device 100 are located or between the navigation device 100 and another electronic device 10. It may include. For example, the communication unit 100 may include a location data module 111, a wireless internet module 113, a broadcast transmission / reception module 115, a short range communication module 117, a wired communication module 119, and the like. .
위치 데이터 모듈(111)은 내비게이션(100)의 위치 데이터를 획득하기 위한 모듈이다. 위치 데이터 모듈(111)이 위치 데이터를 획득하는 방법으로는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 방법이 사용될 수 있다. The position data module 111 is a module for acquiring position data of the navigation apparatus 100. As the method of obtaining location data by the location data module 111, a method of obtaining location data through a global navigation satellite system (GNSS) may be used.
*GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi??Zenith Satellite System) 등 일 수 있다. * GNSS refers to a navigation system that can calculate the position of a receiver terminal using radio signals received from satellites. Specific examples of GNSS include Global Positioning System (GPS), Galileo, Global Orbiting Navigational Satellite System (GLONASS), COMPASS, Indian Regional Navigational Satellite System (IRNS), and Quasi ?? Zenith Satellite System (QZSS), depending on the operating entity. Can be.
본 발명의 실시 예들과 관련된 내비게이션(100)의 위치 데이터 모듈(111)은, 내비게이션(100)이 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 그리고, 획득되는 위치 데이터를 이용하여 내비게이션(100)의 현재 위치를 실시간으로 계속 산출한다. 내비게이션(100)의 현재 위치는 정확도 향상을 위해 위치 데이터 모듈(111)에서 획득되는 위치 데이터에 대한 맵 매칭을 통해 획득될 수도 있다.The location data module 111 of the navigation 100 according to the embodiments of the present invention may receive location data by receiving a GNSS signal serving in an area in which the navigation 100 is used. Then, the current position of the navigation apparatus 100 is continuously calculated in real time using the acquired position data. The current position of the navigation 100 may be obtained through map matching with respect to the position data acquired by the position data module 111 in order to improve accuracy.
또한, 위치 데이터 모듈(111)은 실시간으로 획득되는 내비게이션(100)의 현재 위치를 이용하여 속도 정보를 산출하기도 한다.In addition, the position data module 111 may calculate velocity information using the current position of the navigation apparatus 100 obtained in real time.
무선 인터넷 모듈(113)은 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷 모듈(113)을 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access) 등 일 수 있다.The wireless internet module 113 is a device that accesses the wireless Internet and acquires or transmits data. The wireless Internet accessible through the wireless internet module 113 may be a wireless LAN (WLAN), a wireless broadband (WBRO), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), or the like.
방송 송수신 모듈(115)은 각종 방송 시스템을 통하여 방송 신호를 수신하는 장치이다. 방송 송수신 모듈(115)을 통하여 수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신 모듈(115)을 통하여 수신되는 방송 신호에는 교통데이터, 생활데이터 등이 포함될 수 있다.The broadcast transmission / reception module 115 is an apparatus for receiving broadcast signals through various broadcast systems. The broadcast system that can be received through the broadcast transmission / reception module 115 includes a digital multimedia broadcasting terrestrial (DMBT), a digital multimedia broadcasting satellite (DMBS), a media forward link only (MediaFLO), a digital video broadcast handheld (DVBH), and an ISDBT ( Integrated Services Digital Broadcast Terrestrial). The broadcast signal received through the broadcast transmission / reception module 115 may include traffic data, living data, and the like.
근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 117 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
유선 통신 모듈(119)은 내비게이션(100)에 연결되는 다른 전자 기기와의 인터페이스를 제공하는 역할을 수행한다. 예를 들어, 유선 통신 모듈(119)은, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication module 119 serves to provide an interface with other electronic devices connected to the navigation device 100. For example, the wired communication module 119 may be a USB module capable of communicating through a USB port.
입력부(120)는 내비게이션(100)의 동작 제어를 위한 입력 데이터를 발생시키는 모듈로서, 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 입력부(120)는 사용자 입력 모듈(121), 마이크(123), 카메라(125) 등을 포함할 수 있다.The input unit 120 is a module that generates input data for controlling the operation of the navigation apparatus 100. The input unit 120 may generate input data by converting a physical input from the outside into a specific electrical signal. The input unit 120 may include a user input module 121, a microphone 123, a camera 125, and the like.
사용자 입력 모듈(121)은 사용자로부터 내비게이션(100)의 동작 제어를 위한 제어 입력을 수신한다. 사용자 입력 모듈은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 예를 들어, 사용자 입력 모듈(121)은 내비게이션(100)의 바디(body)에 마련된 내비게이션 조작키로 구현될 수 있다.The user input module 121 receives a control input for controlling the operation of the navigation apparatus 100 from the user. The user input module may include a key pad dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like. For example, the user input module 121 may be implemented as a navigation manipulation key provided in a body of the navigation apparatus 100.
마이크(123)는 사용자의 음성 및 차량의 내외부에서 발생한 오디오 신호를 수신하는 장치이다. 마이크(123)는 내비게이션(100)의 바디에 마련된 내비게이션 마이크(195)로 구현될 수 있다.The microphone 123 is a device that receives a user's voice and an audio signal generated inside and outside the vehicle. The microphone 123 may be implemented as a navigation microphone 195 provided in the body of the navigation apparatus 100.
카메라(125)는 차량의 내외부의 영상의 획득하는 장치이다. 예를 들어, 카메라(125)는 차량의 주행 영상을 획득할 수 있다. The camera 125 is a device for acquiring images of the inside and outside of the vehicle. For example, the camera 125 may acquire a driving image of the vehicle.
센싱부(130)는 내비게이션(100)의 현재 상태를 인지하여 내비게이션(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 센싱부(130)는 모션 센싱 모듈(131), 광 센싱 모듈(133) 등을 포함할 수 있다.The sensing unit 130 recognizes a current state of the navigation apparatus 100 and generates a sensing signal for controlling the operation of the navigation apparatus 100. The sensing unit 130 may include a motion sensing module 131, an optical sensing module 133, and the like.
모션 센싱 모듈(131)은 내비게이션(100)의 3차원 공간 상에서의 움직임을 감지할 수 있다. 모션 센싱 모듈(131)은, 지자기 센서, 가속도 센서 등을 포함할 수 있다. 모션 센싱 모듈(131)을 통하여 획득한 움직임 데이터를 위치 데이터 모듈(111)을 통하여 획득한 위치 데이터와 결합하여, 내비게이션(100)을 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The motion sensing module 131 may detect the movement of the navigation apparatus 100 in the 3D space. The motion sensing module 131 may include a geomagnetic sensor, an acceleration sensor, and the like. The motion data obtained through the motion sensing module 131 may be combined with the position data obtained through the position data module 111 to calculate a more accurate trajectory of the vehicle to which the navigation apparatus 100 is attached.
광 센싱 모듈(133)은 내비게이션(100)의 주변 조도(luminance)를 측정하는 장치이다. 광 센싱 모듈(133)을 통하여 획득한 조도 데이터를 이용하여, 디스플레이부(145)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The light sensing module 133 is a device that measures the ambient illumination of the navigation apparatus 100. The brightness of the display unit 145 may be changed to correspond to the ambient brightness by using the illumination data acquired through the light sensing module 133.
출력부(140)는 내비게이션(100)이 데이터를 출력하는 장치이다. 출력부(140)는 디스플레이 모듈(141), 오디오 출력 모듈(143) 등을 포함할 수 있다.The output unit 140 is a device in which the navigation unit 100 outputs data. The output unit 140 may include a display module 141, an audio output module 143, and the like.
디스플레이 모듈(141)은 내비게이션(100)에서 처리되는 정보를 표시한다. 예를 들어, 디스플레이 모듈(141)은 내비게이션 서비스와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. The display module 141 displays information processed by the navigation apparatus 100. For example, the display module 141 displays a user interface (UI) or a graphic user interface (GUI) related to the navigation service.
디스플레이 모듈(141)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistorliquid crystal display), 유기 발광 다이오드(organic lightemitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display module 141 is a liquid crystal display, a thin film transistor liquid crystal display, an organic light emitting diode, a flexible display, or a 3D display. It may include at least one.
디스플레이 모듈(141)과 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이 모듈(141)은 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display module 141 and a sensor for detecting a touch operation (hereinafter, referred to as a touch sensor) form a mutual layer structure (hereinafter, abbreviated as “touch screen”), the display module 141 is an output device. It can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
터치 센서는 디스플레이 모듈(141)의 특정 부위에 가해진 압력 또는 디스플레이 모듈(141)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display module 141 or capacitance generated at a specific portion of the display module 141 into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(170)로 전송한다. 이로써, 제어부(170)는 디스플레이 모듈(141)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 170. As a result, the controller 170 may determine which area of the display module 141 is touched.
도 3을 참조하면, 상기 터치스크린에 의해 감싸지는 내비게이션(100)의 내부 영역 또는 상기 터치 스크린의 근처에 근접센서가 배치될 수 있다. 상기 근접센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 3, a proximity sensor may be disposed in the inner region of the navigation apparatus 100 surrounded by the touch screen or in the vicinity of the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using mechanical force by using electromagnetic force or infrared rays. Proximity sensors have a longer life and higher utilization than touch sensors.
상기 근접센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접센서, 정전용량형 근접센서, 자기형 근접센서, 적외선 근접센서 등이 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접센서로 분류될 수도 있다.When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
오디오 출력 모듈(143)은 청각적으로 인식될 수 있는 오디오 데이터를 출력한다. 오디오 출력 모듈(143)은, 내비게이션(100)에서 수행되는 기능(예를 들어, 경로 안내 기능)과 관련된 오디오 신호를 출력한다. 이러한 오디오 출력 모듈(143)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 143 outputs audio data that can be recognized acoustically. The audio output module 143 outputs an audio signal related to a function (eg, a path guidance function) performed in the navigation 100. The audio output module 143 may include a receiver, a speaker, a buzzer, and the like.
저장부(150)는 내비게이션(100)의 동작을 위한 프로그램을 저장할 수 있고, 내비게이션(100)과 관련하여 입/출력되는 데이터(경로 정보, 영상)들을 임시 저장할 수도 있다. The storage unit 150 may store a program for operating the navigation apparatus 100, and may temporarily store data (path information and images) input / output in relation to the navigation apparatus 100.
저장부(150)는 내비게이션(100)의 내부에 내장되거나, 탈 부착이 가능하며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 내비게이션(100)은 인터넷(internet)상에서 상기 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The storage unit 150 may be embedded in or detachable from the navigation apparatus 100, and may be a flash memory type, a hard disk type, or a multimedia card micro type. Card type memory (e.g. SD or XD memory), random access memory (RAM), static random access memory (SRAM), read only memory (ROM), electrically erasable programmable read only memory (EEPROM), It may include at least one type of storage medium of a programmable read only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. The navigation apparatus 100 may operate in association with a web storage that performs a storage function of the storage unit 150 on the Internet.
전원부(160)는 외부의 전원, 내부의 전원을 인가받아 내비게이션(100)의 각 구성요소들 또는 내비게이션(100)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다. The power supply unit 160 receives external power and internal power to supply power required for operation of each component of the navigation device 100 or another device connected to the navigation device 100.
제어부(170)는 통상적으로 내비게이션(100)의 전반적인 동작을 제어한다. 나아가, 제어부(170)는 내비게이션(100)에 연결된 다른 디바이스를 제어하는 제어신호를 출력할 수도 있다. The controller 170 typically controls the overall operation of the navigation apparatus 100. In addition, the controller 170 may output a control signal for controlling another device connected to the navigation apparatus 100.
이하, 서버(300)에 대하여 도면을 참조하여 보다 상세하게 설명한다. Hereinafter, the server 300 will be described in more detail with reference to the drawings.
도 4는 본 발명의 실시 예들과 관련된 서버(300)를 도시한 구조도이다. 4 is a structural diagram illustrating a server 300 related to embodiments of the present invention.
도 4를 참조하면, 서버(300)는 통신부(310), 저장부(320) 및 제어부(330)를 포함할 수 있다. 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 서버(300)는 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖도록 구현될 수도 있다.Referring to FIG. 4, the server 300 may include a communicator 310, a storage 320, and a controller 330. The components shown in FIG. 4 are not essential, so the server 300 may be implemented with more or fewer components.
통신부(310)는 서버(300)와 통신망(200) 사이, 서버(300)와 다른 서버 사이, 서버(300)와 다른 전자 기기(100, 10) 사이 또는 서버(300)와 네트워크(400) 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The communication unit 310 may be provided between the server 300 and the communication network 200, between the server 300 and another server, between the server 300 and other electronic devices 100 and 10, or between the server 300 and the network 400. It may include one or more modules that enable communication of.
저장부(320)는 서버(300)의 동작을 위한 프로그램을 저장할 수 있고, 서버(300)와 관련하여 입/출력되는 정보들을 임시로 저장할 수도 있다. 또한, 복수의 전자 기기(100, 10)와의 통신을 통해 획득되는 컨텐츠들을 저장한다. The storage unit 320 may store a program for operating the server 300, and may temporarily store information input / output related to the server 300. In addition, the electronic device 100 stores contents acquired through communication with the plurality of electronic devices 100 and 10.
제어부(330)는 통상적으로 서버(300)의 전반적인 동작을 제어한다. The controller 330 typically controls the overall operation of the server 300.
*제어부(330)는 통신망(200)을 통해 복수의 전자 기기(100, 10)와 연결한다. 또한, 각 전자 기기(100, 10)에 대해 사용자 인증이 필요한 경우, 각 전자 기기(100, 10)로부터 수신되는 인증 정보를 이용하여 대응하는 전자 기기(100, 10)에 대한 사용자 인증 과정을 수행한다. The controller 330 connects to the plurality of electronic devices 100 and 10 through the communication network 200. In addition, when user authentication is required for each of the electronic devices 100 and 10, the user authentication process for the corresponding electronic device 100 and 10 is performed using the authentication information received from each of the electronic devices 100 and 10. do.
또한, 제어부(330)는 복수의 전자 기기(100, 10)와의 통신을 통해 사용자 컨텐츠, 교통 정보, 교통 관련 컨텐츠들을 획득하고, 이를 저장부(320)에 저장한다. In addition, the controller 330 obtains user content, traffic information, and traffic-related contents through communication with the plurality of electronic devices 100 and 10, and stores them in the storage 320.
상기 사용자 컨텐츠는 각 전자 기기(100, 10)에 의해 생성된 컨텐츠이다. 제어부(330)는 통신부(310)를 통해 연결되는 복수의 전자 기기(100, 10)로부터 사용자 컨텐츠들을 획득할 수 있다. The user content is content generated by each of the electronic devices 100 and 10. The controller 330 may obtain user contents from the plurality of electronic devices 100 and 10 connected through the communication unit 310.
또한, 사용자 컨텐츠는 각 전자 기기(100, 10)에 의해 획득된 텍스트, 영상(이미지, 동영상), 오디오 등의 컨텐츠를 포함할 수 있다. In addition, the user content may include content such as text, an image (image, a video), and an audio obtained by each of the electronic devices 100 and 10.
또한, 사용자 컨텐츠는 대응하는 위치를 추가로 포함할 수 있다. 예를 들어, 사용자 컨텐츠가 영상을 포함하는 경우, 사용자 컨텐츠는 해당 영상을 획득한 위치를 포함할 수 있다. 또한, 예를 들어, 사용자 컨텐츠를 서버(300)로 전송한 전자 기기(100, 10)의 위치를 포함할 수 있다. In addition, the user content may further include a corresponding location. For example, if the user content includes an image, the user content may include a location from which the corresponding image is obtained. Also, for example, the location of the electronic device 100 or 10 that transmits user content to the server 300 may be included.
사용자 컨텐츠는 또한, 대응하는 전자 기기(100, 10)에 의해 획득된 교통 정보를 추가로 포함할 수 있다. 전자 기기(100, 10)에 의해 획득되는 교통 정보는, 대응하는 전자 기기(100, 10)의 위치를 토대로 획득될 수 있으며, 이동 방향, 속도 등을 포함할 수 있다. The user content may further include traffic information obtained by the corresponding electronic device 100, 10. The traffic information obtained by the electronic devices 100 and 10 may be obtained based on the positions of the corresponding electronic devices 100 and 10, and may include a moving direction and a speed.
상기 교통 관련 컨텐츠는 사용자에게 교통 흐름에 대한 정보를 전달하기 위한 컨텐츠이다. 제어부(330)는 각각의 위치가 대응되어 있는 사용자 컨텐츠들을 이용하여 교통 관련 컨텐츠를 생성할 수 있다. The traffic-related content is content for delivering information on traffic flow to a user. The controller 330 may generate traffic-related content by using user contents corresponding to each location.
교통 관련 컨텐츠는 전자 기기(100, 10)로부터 수신되는 사용자 컨텐츠를 포함할 수 있다.The traffic-related content may include user content received from the electronic devices 100 and 10.
또한, 교통 관련 컨텐츠는, 대응하는 사용자 컨텐츠와 관련하여 획득되는 특정 위치를 추가로 포함할 수 있다. 예를 들어, 교통 관련 컨텐츠는, 대응하는 사용자 컨텐츠를 서버(300)로 전송한 전자 기기(100, 10)의 위치를 포함할 수 있다. 여기서, 각 전자 기기(100, 10)의 위치는 해당 전자 기기(100, 10)로부터 직접 수신하거나, 통신망(200) 상에 존재하는 기지국으로부터 획득할 수 있다. In addition, the traffic-related content may further include a specific location obtained in relation to the corresponding user content. For example, the traffic-related content may include the locations of the electronic devices 100 and 10 that transmit corresponding user content to the server 300. Here, the location of each electronic device (100, 10) can be received directly from the electronic device (100, 10), or can be obtained from a base station existing on the communication network 200.
또한, 교통 관련 컨텐츠는, 사용자 컨텐츠를 토대로 획득한 교통 정보를 추가로 포함할 수 있다. 예를 들어, 제어부(330)는 각 전자 기기(100, 10)로부터 수신되는 사용자 컨텐츠를 분석하여, 사용자 컨텐츠에 포함되는 특정 텍스트, 영상 등을 획득하고, 이를 토대로 교통 관련 컨텐츠를 생성할 수 있다. 일 예로, 사용자 컨텐츠가 "강남역 정체"와 같이, 교통 흐름과 관련된 텍스트를 포함하는 경우, 제어부(320)는 사용자 컨텐츠 중에서 교통 흐름과 관련된 "강남역", "정체"등의 특정 텍스트를 추출하고, 이를 이용하여 교통 관련 컨텐츠를 생성할 수 있다. 또한, 예를 들어, 제어부(330)는 사용자 컨텐츠가, 대응하는 전자 기기(100, 10)의 위치, 이동 방향, 속도 등의 교통 정보를 포함하는 경우, 이를 토대로 교통 관련 컨텐츠를 생성할 수도 있다. In addition, the traffic-related content may further include traffic information obtained based on the user content. For example, the controller 330 may analyze user content received from each of the electronic devices 100 and 10, obtain specific texts and images included in the user content, and generate traffic-related content based on the content. . For example, when the user content includes text related to traffic flow, such as "Gangnam station congestion", the controller 320 extracts specific text such as "Gangnam station" or "congestion" related to traffic flow from the user content. Traffic related content may be generated using this. For example, when the user content includes traffic information such as the location, the moving direction, and the speed of the corresponding electronic device 100, 10, the controller 330 may generate traffic-related content. .
또한, 교통 관련 컨텐츠는, 서버(300)에 의해 생성되는 적어도 하나의 교통 정보를 추가로 포함할 수 있다. 예를 들어, 제어부(330)는 복수의 전자 기기(100, 10)와의 통신을 통해 각 전자 기기(100, 10)의 위치를 획득하고, 이를 토대로 교통 흐름을 나타내는 교통 정보를 생성한다. 또한, 생성된 교통 정보를 이용하여 교통 관련 컨텐츠를 생성할 수 있다. 즉, 제어부(330)는 사용자 컨텐츠를 전송하는 전자 기기(100, 10)에 대해, 일정 시간 동안 위치를 획득하고, 이를 토대로 대응하는 전자 기기(100, 10)의 이동 방향, 이동 속도 등의 교통 정보를 획득한다. 그리고, 획득한 교통 정보를 교통 관련 컨텐츠에 포함시킨다. 이와 같이, 서버(300)에 의해 생성되는 교통 정보는 교통 흐름과 관련된 객관적인 정보를 제공할 수 있어, 사용자에 의해 생성된 사용자 컨텐츠와는 달리 객관적인 교통 흐름 정보를 전달할 수 있다. 따라서, 사용자의 주관이 개입된 사용자 컨텐츠만을 이용하여 교통 관련 컨텐츠 제공 시, 부정확한 정보 전달이 발생할 수 있는 문제점을 최소화하는 효과가 있다. In addition, the traffic-related content may further include at least one traffic information generated by the server 300. For example, the controller 330 acquires the location of each electronic device 100, 10 through communication with the plurality of electronic devices 100, 10, and generates traffic information indicating the traffic flow. In addition, traffic-related content may be generated using the generated traffic information. That is, the control unit 330 acquires a location for the electronic device 100, 10 transmitting user content for a predetermined time, and based on this, traffic such as a moving direction and a moving speed of the corresponding electronic device 100, 10. Obtain information. Then, the obtained traffic information is included in the traffic related content. As such, the traffic information generated by the server 300 may provide objective information related to the traffic flow, and thus, unlike the user content generated by the user, the traffic information may be delivered. Therefore, there is an effect of minimizing a problem that inaccurate information transmission may occur when providing traffic-related content using only user content in which the subject of the user is involved.
교통 관련 컨텐츠는 또한, 교통 정보를 제공하는 외부의 서버로부터 획득한 교통 정보를 추가로 포함할 수 있다. 예를 들어, 방송 망을 통해 교통 정보를 제공하는 교통 정보 제공 서버로부터 획득한 교통 정보를 토대로 교통 관련 컨텐츠를 생성할 수 있다. 외부의 교통 정보 제공 서버에서 제공하는 교통 정보는 도로 위에서 일어나는 각종 사고와 통제 상황을 알려주는 유고(有故)정보를 포함할 수 있다. 통제 상황은 행사, 집회, 시위 등에 의한 도로 통제 상황을 포함하며, 공사나 재해로 인한 도로 통제상황도 포함된다.The traffic related content may further include traffic information obtained from an external server that provides traffic information. For example, traffic related content may be generated based on traffic information obtained from a traffic information providing server that provides traffic information through a broadcasting network. Traffic information provided by an external traffic information providing server may include yugo information indicating various accidents and control situations occurring on the road. Control situations include road control situations by events, assemblies, and demonstrations, and road control situations caused by construction or disasters.
또한, 제어부(330)는 어느 하나의 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 적어도 하나의 기준을 토대로 저장부(320)에 저장된 교통 관련 컨텐츠들 중 일부를 선택하며, 선택된 교통 관련 컨텐츠들을 해당 전자 기기(100, 10)로 제공한다. In addition, when a request for providing traffic-related contents is requested from any one of the electronic devices 100 and 10, the controller 330 selects some of the traffic-related contents stored in the storage 320 based on at least one criterion. Traffic related contents are provided to the corresponding electronic devices 100 and 10.
교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 특정 위치를 포함할 수 있다. 예를 들어, 제어부(330)는 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 특정 위치에 대응하는 교통 관련 컨텐츠를 해당 전자 기기(100, 10)로 전송할 수 있다. At least one criterion for selecting traffic-related content may include a specific location. For example, when a request for providing traffic related content is requested from the electronic devices 100 and 10, the controller 330 may transmit traffic related content corresponding to a specific location to the corresponding electronic devices 100 and 10.
또한, 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 영역 정보를 포함할 수 있다. 예를 들어, 제어부(330)는 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 특정 영역에 대응하는 교통 관련 컨텐츠를 전자 기기(100, 10)로 전송할 수 있다. In addition, at least one criterion for selecting traffic-related content may include area information. For example, when a request for providing traffic-related content is requested from the electronic devices 100 and 10, the controller 330 may transmit traffic-related content corresponding to a specific area to the electronic devices 100 and 10.
또한, 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 시간 정보를 포함할 수 있다. 예를 들어, 제어부(330)는 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 특정 시간에 대응하는 교통 관련 컨텐츠를 해당 전자 기기(100, 10)로 전송할 수 있다. 일 예로, 특정 시간 내에 획득되거나, 특정 시간 이후에 획득되는 교통 관련 컨텐츠들을 전자 기기(100, 10)로 전송할 수 있다. In addition, at least one criterion for selecting traffic-related content may include time information. For example, when a request for providing traffic-related content is requested from the electronic devices 100 and 10, the controller 330 may transmit traffic-related content corresponding to a specific time to the corresponding electronic devices 100 and 10. For example, traffic-related contents acquired within a specific time or acquired after a specific time may be transmitted to the electronic devices 100 and 10.
또한, 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 방향 정보를 포함할 수 있다. 예를 들어, 제어부(330)는 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 특정 방향에 대응하는 교통 관련 컨텐츠를 전자 기기(100, 10)로 전송할 수 있다. 일 예로, 제어부(330)는 어느 하나의 위치를 기준으로 특정 방향에 위치하거나, 특정 방향으로 주행하는 전자 기기(100, 10)와의 통신을 통해 획득한 교통 관련 컨텐츠들을 전자 기기(100, 10)로 전송할 수 있다. In addition, at least one criterion for selecting traffic-related content may include direction information. For example, when a request for providing traffic related content is requested from the electronic devices 100 and 10, the controller 330 may transmit traffic related content corresponding to a specific direction to the electronic devices 100 and 10. For example, the control unit 330 may be located in a specific direction based on any one position, or the traffic-related content obtained through communication with the electronic device (100, 10) driving in a specific direction electronic device (100, 10) Can be sent to.
한편, 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 교통 관련 컨텐츠 제공을 요청한 전자 기기(100, 10)로부터 직접 수신하거나, 해당 전자 기기(100, 10)의 위치를 토대로 획득될 수 있다. On the other hand, at least one criterion for selecting traffic-related content may be received directly from the electronic devices 100 and 10 requesting to provide traffic-related content or may be obtained based on the location of the electronic device 100 and 10.
제어부(330)는 또한, 복수의 전자 기기(100, 10) 간의 소셜 네트워크(400) 구성을 지원한다. 예를 들어, 제1 전자 기기(100, 10)로부터 소셜 네트워크(400)를 구성하는 다른 전자 기기(10)를 선택하기 위한 적어도 하나의 기준이 수신되면, 이를 토대로 선택된 적어도 하나의 전자 기기(10)와 제1 전자 기기(100)가 소셜 네트워크(400)를 구성하도록 지원한다. 소셜 네트워크(400)에 포함되는 전자 기기(10)를 선택하는 적어도 하나의 기준은 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준과 유사하며, 유사한 방법으로 획득될 수 있다. The controller 330 also supports a social network 400 configuration between the plurality of electronic devices 100 and 10. For example, when at least one criterion for selecting another electronic device 10 constituting the social network 400 is received from the first electronic device 100, 10, the at least one electronic device 10 selected based on this is received. ) And the first electronic device 100 to configure the social network 400. At least one criterion for selecting the electronic device 10 included in the social network 400 is similar to at least one criterion for selecting traffic-related content, and may be obtained in a similar manner.
제어부(330)는 또한, 소셜 네트워크(400)에 포함된 각 전자 기기(100, 10)들의 위치 변화를 토대로 해당 네트워크(400)의 재구성을 지원한다. 예를 들어, 제1 전자 기기(100)의 현재 위치를 기준으로 구성된 소셜 네트워크는 제1 전자 기기(100)의 현재 위치가 변경됨에 따라, 변경된 위치를 토대로 재구성될 수 있다. 또한, 예를 들어, 네트워크(400)에 포함된 전자 기기(10)들의 위치 변화를 토대로, 새로운 전자 기기가 네트워크(400)에 추가되거나, 기존에 네트워크(400)에 포함된 전자 기기가 네트워크(400)에서 제외될 수도 있다. The controller 330 also supports reconfiguration of the corresponding network 400 based on a change in the position of each of the electronic devices 100 and 10 included in the social network 400. For example, the social network configured based on the current location of the first electronic device 100 may be reconfigured based on the changed location as the current location of the first electronic device 100 changes. For example, based on a change in the position of the electronic devices 10 included in the network 400, a new electronic device is added to the network 400, or an electronic device previously included in the network 400 is connected to the network ( 400).
또한, 제어부(330)는 소셜 네트워크(400)에 포함되는 각 전자 기기(100, 10)의 위치를 토대로 교통 정보를 생성하고, 이를 네트워크(400)에 포함된 각 전자 기기(100, 10)로 전송할 수 있다. 예를 들어, 제어부(330)는 네트워크(400)에 포함되는 각 전자 기기(100, 10)에 대해, 일정 시간 동안 위치를 획득하고, 이를 토대로 각 전자 기기(100, 10)의 이동 방향, 이동 속도 등을 포함하는 교통 정보를 획득한다. 그리고, 획득한 교통 정보를 네트워크(400)에 포함된 각 전자 기기(100, 10)로 전송한다. In addition, the controller 330 generates traffic information based on the location of each of the electronic devices 100 and 10 included in the social network 400, and transmits the traffic information to each of the electronic devices 100 and 10 included in the network 400. Can transmit For example, the controller 330 acquires a position for each electronic device 100, 10 included in the network 400 for a predetermined time, and based on this, the moving direction and movement of each electronic device 100, 10. Obtain traffic information, including speed and more. The obtained traffic information is transmitted to each of the electronic devices 100 and 10 included in the network 400.
이하, 필요한 도면들을 참조하여, 본 발명의 제1 실시 예에 따른 내비게이션(100)의 제어 방법 및 이를 구현하기 위한 내비게이션(100)의 동작을 좀 더 상세하게 설명하기로 한다. 본 문서에서 개시되는 실시 예들은 도 3을 참조하여 설명한 전자 기기(100)에서 구현될 수 있다. 본 문서에서는, 전자 기기(100)를 내비게이션으로 가정하여 다양한 실시 예들을 설명한다. 그러나, 본 문서에 개시되는 기술적 사상은, 스마트 폰, 태블릿 PC, 노트북 컴퓨터 등 다른 종류의 전자 기기에도 적용이 가능하다.Hereinafter, a method of controlling the navigation apparatus 100 according to the first embodiment of the present invention and an operation of the navigation apparatus 100 for implementing the same will be described in more detail with reference to necessary drawings. Embodiments disclosed in this document may be implemented in the electronic device 100 described with reference to FIG. 3. In this document, various embodiments will be described assuming the electronic device 100 as a navigation device. However, the technical idea disclosed in this document is applicable to other kinds of electronic devices such as smart phones, tablet PCs, notebook computers, and the like.
이하, 본 문서에서 개시되는 제1 실시 예의 구현을 위한 내비게이션(100)의 동작을 좀 더 상세하게 설명하기로 한다. Hereinafter, the operation of the navigation apparatus 100 for implementing the first embodiment disclosed in this document will be described in more detail.
센싱부(130)의 모션 센싱 모듈(131)은, 자이로 센서(Gyroscope), 가속도 센서(Accelerometer), 지자기 센서(Magnetic sensor), 중력 센서(GRAVITY SENSOR) 등을 포함할 수 있다. 이러한, 모션 센싱 모듈(131)은 내비게이션(100)이 차량의 움직임을 획득한다. The motion sensing module 131 of the sensing unit 130 may include a gyro sensor, an accelerometer, a magnetic sensor, a gravity sensor, and the like. In this, the motion sensing module 131, the navigation 100 obtains the movement of the vehicle.
상기 제어부(170)는 상기 센싱부(170)를 통해 획득되는 내비게이션(100)의 움직임을 토대로, 내비게이션(100)이 장착된 차량의 가속도, 외부로부터의 충격량 등을 획득한다. The controller 170 obtains the acceleration, the amount of impact from the outside, etc., based on the movement of the navigation device 100 obtained through the sensing unit 170.
또한, 제어부(170)는 내비게이션(100)의 현재 위치를 획득한다. 내비게이션(100)이 차량에 장착된 경우, 내비게이션(100)의 현재 위치는 차량의 현재 위치로 사용될 수 있다. In addition, the controller 170 acquires a current position of the navigation apparatus 100. When the navigation device 100 is mounted on a vehicle, the current location of the navigation device 100 may be used as the current location of the vehicle.
제어부(170)는 위치 데이터 모듈(111)을 통해 획득되는 GPS 신호를 이용하여 차량의 현재 위치를 획득할 수 있다. 한편, 수신되는 GPS 신호에는 어느 정도의 오차가 존재하므로, 제어부(170)는 수신되는 GPS 신호에 대해 소프트웨어적인 맵 매칭(map matching) 과정을 수행하여 차량의 현재 위치를 현재 주행 중인 도로로 매칭시키다. 또한, 제어부(170)는 차량이 GPS 신호가 수신 불가능한 음영 지역에 진입한 경우, 센싱부(130)에 포함된 자이로 센서를 이용하여 차량의 조향 방향과 속도 정보를 획득하고, 이를 토대로 차량의 현재 위치를 판단할 수 있다. The controller 170 may acquire the current location of the vehicle by using the GPS signal acquired through the location data module 111. On the other hand, since there is some error in the received GPS signal, the controller 170 performs a software map matching process on the received GPS signal to match the current location of the vehicle to the road currently being driven. In addition, when the vehicle enters a shaded area where the GPS signal cannot be received, the controller 170 acquires steering direction and speed information of the vehicle by using the gyro sensor included in the sensing unit 130, and based on the current, The location can be determined.
또한, 제어부(170)는 통신부(110)를 통해 서버(300)에 연결한다. In addition, the controller 170 connects to the server 300 through the communication unit 110.
또한, 제어부(170)는, 사용자의 제어 입력을 토대로, 선택된 사용자 컨텐츠를 서버(300)로 전송한다. 여기서, 사용자의 제어 입력은 입력부(120)를 통해 수신되거나, 통신부(110)를 통해 연결된 외부 전자 기기로부터 수신될 수 있다. 후자의 경우, 제어부(170)는 통신부(110)의 근거리 통신 모듈(117)을 통해 적어도 하나의 외부 전자 기기와 연결하고, 연결된 외부 전자 기기로부터 제어 입력을 수신할 수 있다. 근거리 통신 모듈(117)을 통해 연결되는 외부 전자 기기로는, 스마트 폰, 휴대폰, 노트북 컴퓨터, PDA, 태블릿 PC등이 포함될 수 있다. In addition, the controller 170 transmits the selected user content to the server 300 based on the user's control input. Here, the control input of the user may be received through the input unit 120 or may be received from an external electronic device connected through the communication unit 110. In the latter case, the controller 170 may connect with at least one external electronic device through the short range communication module 117 of the communication unit 110 and receive a control input from the connected external electronic device. External electronic devices connected through the short range communication module 117 may include a smart phone, a mobile phone, a notebook computer, a PDA, a tablet PC, and the like.
제어부(170)는 또한 특정 이벤트가 발생하면, 발생된 이벤트와 관련된 사용자 컨텐츠를 자동으로 획득하고, 획득한 사용자 컨텐츠를 서버(300)로 자동 전송한다. When a specific event occurs, the controller 170 automatically obtains user content related to the generated event, and automatically transmits the obtained user content to the server 300.
제어부(170)는 또한, 차량의 현재 위치를 서버(300)로 전송할 수도 있다. The controller 170 may also transmit the current location of the vehicle to the server 300.
또한, 제어부(170)는 차량의 위치를 토대로 획득되는, 교통 흐름과 관련된 정보를 서버(300)로 전송할 수도 있다. 제어부(170)는 차량의 위치를 토대로 획득되는 교통 정보는 차량의 이동 속도, 이동 방향 등을 포함할 수 있다. In addition, the controller 170 may transmit information related to the traffic flow, which is obtained based on the location of the vehicle, to the server 300. The controller 170 may obtain traffic information based on the location of the vehicle, and may include a moving speed and a moving direction of the vehicle.
제어부(170)는 위치 데이터 모듈(111)을 통해 획득되는 위치 데이터를 이용하여 내비게이션(100)의 이동 속도를 획득한다. 내비게이션(100)이 차량에 장착된 경우, 내비게이션(100)의 이동 속도는 차량의 이동 속도로 사용될 수 있다. The controller 170 acquires a moving speed of the navigation apparatus 100 using the position data acquired through the position data module 111. When the navigation device 100 is mounted on the vehicle, the moving speed of the navigation device 100 may be used as the moving speed of the vehicle.
또한, 제어부(170)는 위치 데이터 모듈(111)을 통해 획득되는 위치 데이터와 센싱부(130)에 포함된 지자기 센서를 이용하여 획득한 방위각 등을 토대로 내비게이션(100)의 이동 방향을 획득할 수 있다. 내비게이션(100)이 차량에 장착된 경우, 내비게이션(100)의 이동 방향은 차량의 이동 방향으로 사용될 수 있다. In addition, the controller 170 may acquire the moving direction of the navigation apparatus 100 based on the position data acquired through the position data module 111 and the azimuth angle obtained by using the geomagnetic sensor included in the sensing unit 130. have. When the navigation device 100 is mounted on the vehicle, the moving direction of the navigation device 100 may be used as the moving direction of the vehicle.
도 5는 본 발명의 제1 실시 예에 따른 내비게이션(100)의 제어 방법을 도시한 흐름도이다. 도 6 내지 도 26은 본 발명의 제1 실시 예에 따른 내비게이션(100)의 제어 방법을 설명하기 위한 도면들이다. 5 is a flowchart illustrating a control method of the navigation apparatus 100 according to the first embodiment of the present invention. 6 to 26 are diagrams for describing a method of controlling the navigation apparatus 100 according to the first embodiment of the present invention.
도 5를 참조하면, 제어부(170)는 통신부(110)를 통해 서버(300)와 연결한다(S101). Referring to FIG. 5, the controller 170 connects to the server 300 through the communication unit 110 (S101).
서버(300)와 연결하기 위해 사용자 인증 과정이 필요한 경우, 제어부(170)는 서버(300)로 인증 정보를 전송한다. 그리고, 서버(300)에 의해 사용자 인증이 성공하면, 서버(300)와 연결한다. When a user authentication process is required to connect with the server 300, the controller 170 transmits authentication information to the server 300. If the user authentication succeeds by the server 300, the server 300 connects to the server 300.
*인증 정보(300)는 아이디 등의 사용자 식별 정보, 내비게이션(100)의 장치 식별 정보, 비밀번호(password) 등을 포함할 수 있다. 제어부(170)는 사용자 인증을 요청하기 위해, 입력부(120)를 통해 입력되는 인증 정보를 서버(300)로 전송할 수 있다. 또한, 제어부(170)는 사용자 인증을 요청하기 위해, 저장부(150)에 기 저장된 인증 정보를 사용할 수도 있다. 저장부(150)에 기 저장된 인증 정보는 사용자에 의해 등록된 인증 정보일 수 있다. The authentication information 300 may include user identification information such as an ID, device identification information of the navigation apparatus 100, a password, and the like. The controller 170 may transmit the authentication information input through the input unit 120 to the server 300 to request user authentication. In addition, the controller 170 may use the authentication information previously stored in the storage 150 to request user authentication. The authentication information previously stored in the storage 150 may be authentication information registered by the user.
제어부(170)는 내비게이션(100)이 장착된 차량의 주행 중에 특정 이벤트가 발생하는 경우(S102), 자동으로 사용자 컨텐츠를 획득한다(S103). 또한, 획득한 사용자 컨텐츠와 차량의 현재 위치를 서버(300)로 자동으로 전송한다(S104). If a specific event occurs while driving the vehicle on which the navigation apparatus 100 is mounted (S102), the controller 170 automatically obtains user content (S103). In addition, the user content and the current location of the vehicle is automatically transmitted to the server 300 (S104).
그리고, 내비게이션(100)에서 획득한 사용자 컨텐츠를 서버(300)로 전송하였음을 안내하는 안내 정보를 디스플레이 모듈(141)을 통해 표시한다(S105).In addition, guide information indicating that the user content acquired by the navigation apparatus 100 is transmitted to the server 300 is displayed through the display module 141 (S105).
본 문서에서는 내비게이션(100)이 서버(300)에 연결된 상태에서 이벤트를 감지하고, 이벤트 발생에 따른 컨텐츠 전송을 수행하는 경우를 예로 들어 설명한다. 그러나, 본 문서에 개시되는 기술적 사상은, 특정 이벤트가 발생될 때마다, 서버(300)에 새로 연결하고, 사용자 컨텐츠의 전송이 완료되면 서버(300)와의 연결을 끊는 경우에도 적용이 가능하다.In this document, the navigation 100 detects an event in a state connected to the server 300, and describes a case of performing content transmission according to an event occurrence. However, the technical idea disclosed in this document may be applied to a new connection to the server 300 whenever a specific event occurs and to disconnect from the server 300 when the transmission of the user content is completed.
전술한 S102 단계에서, 제어부(170)는 저장부(150)에 저장된 지도 데이터를 이용하여 특정 이벤트를 감지할 수 있다. In step S102 described above, the controller 170 may detect a specific event using the map data stored in the storage 150.
도 6은 지도 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다. 또한, 도 7은 지도 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 도면이다. 6 is a flowchart illustrating an example of determining occurrence of an event using map data. 7 is a diagram illustrating an example of determining an event occurrence using map data.
도 6을 참조하면, 제어부(170)는 위치 데이터 모듈(111)을 이용하여 차량의 현재 위치를 획득한다(S201). Referring to FIG. 6, the controller 170 obtains a current position of the vehicle using the position data module 111 (S201).
또한, 차량의 현재 위치를 토대로, 지도 데이터에 등록된 특정 위치에 차량이 진입하였는지를 판단한다(S202). 그리고, 차량이 특정 위치에 진입하는 경우, 이벤트가 발생한 것으로 판단한다(S203). In addition, it is determined whether the vehicle has entered the specific location registered in the map data based on the current location of the vehicle (S202). When the vehicle enters a specific location, it is determined that an event has occurred (S203).
여기서, 이벤트가 발생하는 특정 위치는, 사고 다발 지역, 공사 구간, 음주 운전 단속 구간, 교통 관련 컨텐츠 수집 구간, 상습 정체(停滯) 구간 등이 될 수 있다. 지도 데이터는 이러한 복수의 특정 위치를 포함하며, 지도 데이터에 등록된 특정 위치들은 지도 데이터가 갱신됨에 따라 갱신이 가능하다. Here, the specific location where the event occurs may be an accident-prone region, a construction section, a drunk driving enforcement section, a traffic related content collection section, a habitual congestion section, and the like. The map data includes a plurality of such specific locations, and the specific locations registered in the map data can be updated as the map data is updated.
또한, 이벤트가 발생하는 특정 위치는, 사용자에 의해 등록된 위치일 수 있다. 사용자는 사용자 컨텐츠를 자동 수집 및 전송하기 위한 적어도 하나의 위치를 지도 데이터에 등록할 수 있다. 예를 들어, 사용자는, 경험에 의해 상습 정체 구간으로 인지된 위치를 지도 데이터에 등록함으로써, 차량이 해당 위치에 진입하면, 자동으로 사용자 컨텐츠를 획득하여 서버(300)로 전송하도록 설정할 수 있다. In addition, the specific location where the event occurs may be a location registered by the user. The user may register at least one location in the map data for automatically collecting and transmitting user content. For example, the user may register the location recognized as the habitual congestion section by experience in the map data, so that when the vehicle enters the location, the user may automatically obtain user content and transmit the content to the server 300.
도 7은 지도 데이터를 이용하여 차량의 공사 구간 진입에 따른 이벤트 발생을 판단하는 일 예를 도시한 것이다. 7 illustrates an example of determining occurrence of an event according to entry of a construction section of a vehicle using map data.
도 7을 참조하면, 내비게이션(100)이 장착된 차량이 주행 중인 도로 위에 공사 구간(7a)이 존재하고, 해당 공사 구간(7a)이 지도 데이터에 등록된 경우, 내비게이션(100)은 지도 데이터를 토대로 차량(5)이 공사 구간(7a)에 진입함을 판단할 수 있다. Referring to FIG. 7, when a construction section 7a exists on a road on which a vehicle equipped with the navigation apparatus 100 is traveling, and the corresponding construction section 7a is registered in map data, the navigation apparatus 100 may map the map data. Based on this, it may be determined that the vehicle 5 enters the construction section 7a.
또한, 내비게이션(100)은 차량(5)이 공사 구간(7a)에 진입하는 이벤트가 발생하면, 사용자 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다. In addition, when an event in which the vehicle 5 enters the construction section 7a occurs, the navigation 100 automatically obtains user content and transmits the content to the server 300.
예를 들어, 차량(5)이 공사 구간(7a)에 진입하면, 공사 구간에 진입 시 획득된 주행 중인 도로의 이미지를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량(5)이 공사 구간(7a)에 진입하면, 공사 구간(7a)에 진입한 이후 기 설정된시간 동안 획득한 차량의 주행 영상을 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량(5)이 공사 구간(7a)에 진입하면, 공사 구간(7a)을 주행 중에 획득한 차량의 주행 영상을 서버(300)로 전송할 수 있다. 내비게이션(100)은 차량(5)의 공사 구간(7a) 진입을 판단하는 방법과 유사하게 지도 데이터를 토대로 차량(5)의 공사 구간(7a) 진출을 판단할 수 있다. 다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 통신부(110)를 통해 외부로부터 수신되는 교통 정보를 토대로, 특정 이벤트의 발생 여부를 판단할 수 있다. 제어부(170)는 통신부(110)를 통해 서버(300) 또는 방송망에 연결하고, 연결된 서버(300) 또는 방송망으로부터 교통 정보를 수신할 수 있다. For example, when the vehicle 5 enters the construction section 7a, the vehicle 5 may transmit an image of a driving road obtained when the vehicle 5 enters the construction section to the server 300. In addition, for example, when the vehicle 5 enters the construction section 7a, the driving image of the vehicle acquired for a preset time after entering the construction section 7a may be transmitted to the server 300. For example, when the vehicle 5 enters the construction section 7a, the driving image of the vehicle acquired while driving the construction section 7a may be transmitted to the server 300. The navigation apparatus 100 may determine the entry of the construction section 7a of the vehicle 5 based on the map data similarly to the method of determining the entry of the construction section 7a of the vehicle 5. Referring back to FIG. 5, in step S102, the controller 170 may determine whether a specific event has occurred based on traffic information received from the outside through the communication unit 110. The controller 170 may connect to the server 300 or the broadcasting network through the communication unit 110 and receive traffic information from the connected server 300 or the broadcasting network.
도 8, 10 및 도 12는 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 예들을 도시한 흐름도들이다. 또한, 도 9, 도11 및 도 13은 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 예들을 도시한 것이다. 8, 10 and 12 are flowcharts illustrating examples of determining an event occurrence by using traffic information received from the outside. 9, 11, and 13 illustrate examples of determining an event occurrence by using traffic information received from the outside.
도 8을 참조하면, 제어부(170)는 서버(300) 또는 방송망으로부터 교통 정보를 수신한다(S301). S301 단계에서 수신되는 교통 정보는 유고 정보를 포함할 수 있다. Referring to FIG. 8, the controller 170 receives traffic information from the server 300 or the broadcasting network in operation S301. Traffic information received in step S301 may include yugo information.
서버(300)로부터 교통 정보를 수신하는 경우, 유고 정보는 다른 전자 기기(10)로부터 수신되는 사용자 컨텐츠를 이용하여 서버(300)에 의해 생성된 정보이거나, 교통 정보를 제공하는 다른 서버로부터 획득한 교통 정보에 포함된 유고 정보일 수 있다. 또한, 방송망으로부터 교통 정보를 수신하는 경우, 유고 정보는 티펙(Transport Protocol Expert Group; TPEG) 정보에 포함된 RTM(Road Traffic Message) 정보일 수 있다. When the traffic information is received from the server 300, the notice information is information generated by the server 300 using user content received from another electronic device 10, or obtained from another server that provides traffic information. The information may be included in the traffic information. In addition, when the traffic information is received from the broadcasting network, the notice information may be Road Traffic Message (RTM) information included in the Transport Protocol Expert Group (TPEG) information.
유고 정보는 도로 위에서 일어나는 각종 사고와 통제 상황을 알려주는 정보로서, 각종 사고 구간과 통제 구간에 해당하는 위치를 포함할 수 있다. 유고 정보에 포함되는 통제 상황은 행사, 집회, 시위 등에 의한 도로 통제 상황, 공사나 재해로 인한 도로 통제상황 등을 포함할 수 있다. The notice information is information indicating various accidents and control situations occurring on the road, and may include locations corresponding to various accident sections and control sections. Control situations included in the notice information may include road control situations due to events, assemblies, demonstrations, and road control situations due to construction or disasters.
다시, 도 8을 보면, 제어부(170)는 위치 데이터 모듈(111)을 이용하여 차량의 현재 위치를 획득한다(S302). 또한, 차량의 현재 위치를 토대로, 차량이 유고 정보에 포함된 위치에 진입하는지를 판단한다(S303). 그리고, 차량이 유고 정보에 포함된 위치에 진입하면, 이벤트가 발생한 것으로 판단한다(S304). Referring back to FIG. 8, the controller 170 obtains a current position of the vehicle by using the position data module 111 (S302). In addition, based on the current position of the vehicle, it is determined whether the vehicle enters the position included in the yugo information (S303). When the vehicle enters the location included in the yugo information, it is determined that an event has occurred (S304).
도 9는 교통 정보에 포함된 유고 정보를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다. 9 illustrates an example of determining an event occurrence using yug information included in traffic information.
도 9를 참조하면, 제어부(170)는 교통 정보를 외부로부터 수신한다. 또한, 교통 정보에 포함된 유고 정보를 토대로 내비게이션(100)이 장착된 차량(5)이 주행 중인 도로에서 발생한 사고 발생 지점(9a)에 대한 정보를 획득한다. 또한, 제어부(170)는 차량(5)이 사고 발생 지점(9a)에 진입하면, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.9, the controller 170 receives traffic information from the outside. In addition, on the basis of the yugo information included in the traffic information, the vehicle 5 equipped with the navigation (100) obtains information on the accident occurrence point (9a) occurred on the road on which the driving. In addition, the controller 170 determines that an event has occurred when the vehicle 5 enters the accident occurrence point 9a. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
예를 들어, 차량(5)이 사고 발생 지점(9a)에 진입하면, 사고 발생 지점(9a)에 진입 시 획득된 주행 중인 도로의 이미지를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량(5)이 사고 발생 지점(9a)에 진입하면, 사고 발생 지점(9a)에 진입한 이후 기 설정된 시간 동안 획득한 차량의 주행 영상을 서버(300)로 전송할 수 있다. For example, when the vehicle 5 enters the accident occurrence point 9a, the vehicle 5 may transmit an image of a driving road obtained when the vehicle 5 enters the accident occurrence point 9a to the server 300. For example, when the vehicle 5 enters the accident occurrence point 9a, the driving image of the vehicle acquired for a preset time after entering the accident occurrence point 9a may be transmitted to the server 300. .
도 10을 참조하면, 제어부(170)는 서버(300) 또는 방송망으로부터 교통 정보를 수신한다(S401). S401 단계에서 수신되는 교통 정보는 도로의 각 구간 또는 위치 별로, 대응하는 차량들의 평균 이동 속도를 포함한다. Referring to FIG. 10, the controller 170 receives traffic information from the server 300 or a broadcasting network in operation S401. Traffic information received in step S401 includes the average moving speed of the corresponding vehicle, for each section or location of the road.
또한, 제어부(170)는 차량의 이동 속도를 획득한다(S402). 그리고, 교통 정보로부터 획득한 차량의 현재 위치에 대응하는 평균 이동 속도와 차량의 이동 속도를 비교하여, 둘 사이의 차이가 기 설정된 값 이상이면(S403), 교통 정보에 오류가 발생하거나 교통 흐름이 변경된 것으로 판단하고, 이벤트 발생 여부를 판단한다(S404). In addition, the controller 170 acquires a moving speed of the vehicle (S402). Then, the average moving speed corresponding to the current position of the vehicle obtained from the traffic information is compared with the moving speed of the vehicle. It is determined that the change, and whether or not the event occurs (S404).
도 11은 교통 정보 및 차량의 이동 속도를 비교하여 이벤트 발생을 판단하는 일 예를 도시한 것이다. 11 illustrates an example of determining an event occurrence by comparing traffic information and a moving speed of a vehicle.
도 11을 참조하면, 외부로부터 수신되는 교통 정보에 따르면, 내비게이션(100)이 장착된 차량(5)이 주행 중인 구간에 대해, 교통 정보로부터 획득한 평균 이동 속도는 80Km/h이다. 한편, 차량(5)이 주행 중인 도로의 전방에서 사고가 발생함에 따라, 차량(5)의 현재 이동 속도는 15Km/h이다. Referring to FIG. 11, according to traffic information received from the outside, the average moving speed obtained from the traffic information is 80 km / h for a section in which the vehicle 5 equipped with the navigation 100 is traveling. On the other hand, as an accident occurs in front of the road on which the vehicle 5 is traveling, the current moving speed of the vehicle 5 is 15 km / h.
제어부(170)는 교통 정보로부터 획득한 평균 이동 속도 80Km/h와 차량(5)의 실제 이동 속도 15Km/h의 차이가 기 설정된 20Km/h 보다 크므로, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.The controller 170 determines that an event has occurred since the difference between the average moving speed of 80 km / h obtained from the traffic information and the actual moving speed of 15 km / h of the vehicle 5 is greater than the preset 20 km / h. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
예를 들어, 차량(5)의 실제 이동 속도를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 이벤트가 발생한 이후에 기 설정된 시간 동안 획득한 차량의 주행 영상을 서버(300)로 전송할 수 있다. For example, the actual moving speed of the vehicle 5 may be transmitted to the server 300. In addition, for example, after the event occurs, the driving image of the vehicle acquired for a predetermined time may be transmitted to the server 300.
도 12를 참조하면, 제어부(170)는 서버(300) 또는 방송망으로부터 교통 정보를 수신한다(S501). S501 단계에서 수신되는 교통 정보는 도로의 각 구간 또는 위치 별로, 대응하는 차량들의 평균 이동 속도를 포함한다. 또한, 교통 정보는 도로의 각 구간의 교통 흐름상태를 나타내는 정보를 포함할 수 있다. 여기서, 각 구간의 교통 흐름을 나타내는 상태 정보는, 정체, 서행, 원활 등 대응하는 구간의 교통 흐름이 어떤 상태인지를 나타내는 정보이다. Referring to FIG. 12, the controller 170 receives traffic information from the server 300 or a broadcasting network in operation S501. Traffic information received in step S501 includes the average moving speed of the corresponding vehicle for each section or location of the road. In addition, the traffic information may include information representing the traffic flow state of each section of the road. Here, the state information indicating the traffic flow of each section is information indicating the state of the traffic flow of the corresponding section such as congestion, slow motion, and smoothness.
교통 정보를 수신한 제어부(170)는, 수신되는 교통 정보로부터 차량의 현재 위치에 대응하는 평균 이동 속도 또는 교통 흐름 상태 정보를 획득한다. 즉, 차량이 현재 주행 중인 구간에 대한 차량들의 평균 이동 속도 또는 교통 흐름 상태를 획득한다. The controller 170 receiving the traffic information obtains an average moving speed or traffic flow state information corresponding to the current location of the vehicle from the received traffic information. That is, the vehicle obtains an average moving speed or traffic flow state of the vehicle for the section in which the vehicle is currently running.
또한, 제어부(170)는 차량이 현재 주행 중인 구간에 대한 차량들의 평균 이동 속도 또는 교통 흐름 상태를 토대로 차량이 교통 정보 상의 정체 구간에 진입하였는지를 판단한다(S502). In addition, the controller 170 determines whether the vehicle has entered a congestion section in the traffic information based on the average moving speed or traffic flow state of the vehicles with respect to the section in which the vehicle is currently driving (S502).
그리고, 차량이 교통 정보 상의 정체 구간에 진입한 것으로 판단되면, 차량의 이동 속도가 기 설정된 값 이하인지를 판단한다(S503). 또한, 차량의 이동 속도가 기 설정된 값 이하인 경우, 차량이 실제 정체 구간에 진입한 것으로 판단하고, 이벤트 발생을 인지한다(S504). If it is determined that the vehicle has entered the congestion section on the traffic information, it is determined whether the speed of the vehicle is less than or equal to the preset value (S503). In addition, when the moving speed of the vehicle is less than the predetermined value, it is determined that the vehicle has entered the actual congestion section, and recognizes the occurrence of the event (S504).
도 13은 교통 정보에 포함된 유고 정보를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다. FIG. 13 illustrates an example of determining occurrence of an event using yug information included in traffic information.
도 13을 참조하면, 제어부(170)는 외부로부터 수신되는 교통 정보를 토대로, 내비게이션(100)이 장착된 차량(5)이 주행 중인 도로의 각 구간에 대한 정체, 서행, 원활 등의 교통 흐름을 획득한다. Referring to FIG. 13, the controller 170 performs traffic flow such as congestion, slow motion, and smoothness for each section of a road on which the vehicle 5 equipped with the navigation device 100 is driven, based on traffic information received from the outside. Acquire.
또한, 제어부(170)는 획득한 교통 흐름을 토대로, 차량(5)의 정체 구간 진입을 판별한다. 그리고, 차량(5)이 정체 구간에 진입하면, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.In addition, the controller 170 determines entry of the congestion section of the vehicle 5 based on the obtained traffic flow. When the vehicle 5 enters the traffic jam section, it is determined that an event has occurred. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
예를 들어, 차량(5)의 실제 이동 속도를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량이 정체 구간을 주행 하는 동안 획득한 주행 이미지 또는 주행 영상을 서버(300)로 전송할 수 있다. For example, the actual moving speed of the vehicle 5 may be transmitted to the server 300. In addition, for example, the driving image or the driving image acquired while the vehicle is traveling in the traffic jam section may be transmitted to the server 300.
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 속도 변화 즉, 가속도를 이용하여 이벤트 발생을 판단할 수 있다. 차량의 가속도는 센싱부(130)에 가속도 센서를 통해 획득될 수 있다. 또한, 차량의 가속도는 위치 데이터 모듈(111)을 통해 획득되는 위치 데이터의 변화를 토대로 획득될 수 있다.Referring back to FIG. 5, in step S102 described above, the controller 170 may determine the occurrence of an event using a speed change of the vehicle, that is, an acceleration. The acceleration of the vehicle may be obtained through the acceleration sensor in the sensing unit 130. In addition, the acceleration of the vehicle may be obtained based on the change of the position data obtained through the position data module 111.
도 14 내지 도 16은 차량의 가속도를 이용하여 이벤트 발생을 판단하는 예들을 도시한 흐름도들이다. 또한, 도 17은 차량의 가속도를 토대로 이벤트 발생을 판단하는 일 예를 도시한 것이다. 14 to 16 are flowcharts illustrating examples of determining occurrence of an event using acceleration of a vehicle. 17 illustrates an example of determining an event occurrence based on the acceleration of the vehicle.
도 14를 참조하면, 제어부(170)는 센싱부(130) 또는 위치 데이터 모듈(111)을 이용하여 차량의 가속도를 획득한다(S601). Referring to FIG. 14, the controller 170 obtains the acceleration of the vehicle using the sensing unit 130 or the position data module 111 (S601).
또한, 제어부(170)는 차량의 가속도를 토대로 차량이 급 가속/급감속한 것으로 판단되면(S602), 이벤트가 발생한 것으로 판단한다(S603). 즉, 차량의 가속도를 토대로 차량이 급 감속/급 가속한 것으로 판단되면, 정체 구간 진입, 사고 발생, 장애물 등 교통 흐름 또는 안전 운전과 관련된 이벤트가 발생한 것으로 판단한다. In addition, if it is determined that the vehicle has suddenly accelerated / decelerated based on the acceleration of the vehicle (S602), the controller 170 determines that an event has occurred (S603). That is, when it is determined that the vehicle is rapidly decelerated / rapidly accelerated based on the acceleration of the vehicle, it is determined that an event related to traffic flow or safe driving such as a traffic jam, an accident, an obstacle, and the like occurs.
한편, 도 14에 도시된 바와 같이, 차량의 급 감속/급 가속을 이벤트로 인지하여 컨텐츠를 전송할 경우, 제어부(170)는 정상적인 운행에 따라 급 감속/급 가속하는 경우에도 불필요하게 컨텐츠들을 서버(300)로 전송하는 일이 발생한다. 이에 따라, 제어부(170)는 차량의 가속도 이외의 정보를 추가로 이용하여 이벤트 발생을 감지할 수도 있다. On the other hand, as shown in Figure 14, when transmitting the content by recognizing the rapid deceleration / rapid acceleration of the vehicle as an event, the control unit 170 unnecessarily stores the contents even if the rapid deceleration / rapid acceleration in accordance with normal driving ( 300) happening. Accordingly, the controller 170 may detect an event occurrence by additionally using information other than the acceleration of the vehicle.
도 15를 참조하면, 제어부(170)는 통신부(110)를 통해 연결되는 서버(300) 또는 방송망으로부터 교통 정보를 수신한다(S701). 교통 정보는 전술한 바와 마찬가지로, 도로의 각 구간 또는 위치 별로, 대응하는 차량들의 평균 이동 속도를 포함한다. 또한, 교통 정보는 도로의 각 구간의 교통 흐름상태를 나타내는 정보를 포함할 수 있다. Referring to FIG. 15, the controller 170 receives traffic information from a server 300 or a broadcasting network connected through the communication unit 110 (S701). As described above, the traffic information includes the average moving speed of the corresponding vehicles for each section or location of the road. In addition, the traffic information may include information representing the traffic flow state of each section of the road.
제어부(170)는, 수신되는 교통 정보로부터 차량의 현재 위치에 대응하는 평균 이동 속도 또는 교통 흐름 상태 정보를 획득하고, 이를 토대로 차량이 교통 정보 상의 정체 구간에 진입하는지 여부를 판단할 수 있다. The controller 170 may obtain average moving speed or traffic flow state information corresponding to the current location of the vehicle from the received traffic information, and may determine whether the vehicle enters a congestion section on the traffic information.
또한, 제어부(170)는 차량의 가속도를 획득한다(S702). 그리고, 획득한 차량의 가속도를 토대로, 차량이 급감 속하는 경우, 즉, 차량의 가속도가 기 설정된 값 이하인 경우(S703), 교통 정보로부터 차량의 현재 위치에 대응하는 교통 흐름 상태를 획득한다. In addition, the controller 170 obtains the acceleration of the vehicle (S702). When the vehicle falls rapidly, that is, when the acceleration of the vehicle is less than or equal to a preset value (S703), a traffic flow state corresponding to the current position of the vehicle is obtained from the traffic information.
즉, 제어부(170)는, 수신되는 교통 정보로부터 차량의 현재 위치에 대응하는 평균 이동 속도 또는 교통 흐름 상태 정보를 획득하고, 이를 토대로 차량이 주행 중인 구간의 교통 흐름 상태를 파악한다. That is, the controller 170 obtains the average moving speed or traffic flow state information corresponding to the current position of the vehicle from the received traffic information, and determines the traffic flow state of the section in which the vehicle is driving based on this.
제어부(170)는 차량이 급감속한 상태에서, 차량의 현재 위치가 교통 정보 상에서 정체 구간에 대응되는 경우(S704), 이벤트가 발생한 것으로 판단한다(S705), The controller 170 determines that an event has occurred (S704) when the current position of the vehicle corresponds to the congestion section on the traffic information while the vehicle is rapidly decelerated (S705).
즉, 차량이 실제 교통 흐름 상에서 정체 구간에 진입한 것으로 판단한다. That is, it is determined that the vehicle has entered a congestion section on the actual traffic flow.
도 16을 참조하면, 제어부(170)는 차량의 가속도를 획득한다(S801). 그리고, 획득한 차량의 가속도를 토대로, 차량이 급감 속하는 경우, 즉, 차량의 가속도가 기 설정된 값 이하인 경우(S802), 차량의 이동 속도를 획득한다. Referring to FIG. 16, the controller 170 acquires an acceleration of the vehicle (S801). In addition, when the vehicle falls rapidly, that is, when the acceleration of the vehicle is equal to or less than a preset value, based on the obtained acceleration of the vehicle (S802), the movement speed of the vehicle is acquired.
또한, 제어부(170)는 차량이 급감속한 상태에서, 일정 시간 동안 차량의 이동 속도가 기 설정된 값 이하인 경우(S803), 이벤트가 발생한 것으로 판단한다(S804), In addition, the controller 170 determines that an event has occurred when the moving speed of the vehicle is lower than or equal to a preset value in a state in which the vehicle is rapidly decelerated (S803).
즉, 차량이 실제 교통 흐름 상에서 정체 구간에 진입한 것으로 판단한다. That is, it is determined that the vehicle has entered a congestion section on the actual traffic flow.
도 17은 차량의 가속도를 토대로 이벤트 발생을 판단하는 경우를 설명하기 위한 도면으로서, 차량의 이동 속도 변화를 그래프로 도시한 것이다. FIG. 17 is a diagram illustrating a case in which event occurrence is determined based on the acceleration of the vehicle, and illustrates a change in the movement speed of the vehicle in a graph.
도 17을 참조하면, 내비게이션(100)이 장착된 차량의 이동 속도는 t1에서 20Km/h이하로 급감속하고, 이후 일정 시간 동안 20Km/h 이하의 속도를 유지한다. 따라서, 제어부(170)는 차량이 급감속한 이후에 기 설정된 시간(t2)동안 정체 시의 이동 속도에 대응되는 20Km/h 이하의 이동 속도를 유지하므로, 차량이 정체 구간에 진입한 것으로 판단한다. Referring to FIG. 17, the moving speed of the vehicle equipped with the navigation device 100 rapidly decreases from t 1 to 20 km / h or less, and then maintains a speed of 20 km / h or less for a predetermined time. Therefore, the controller 170 maintains a movement speed of 20 km / h or less corresponding to the movement speed when the vehicle is at a standstill for the preset time t2 after the vehicle suddenly decelerates, and thus determines that the vehicle has entered a stall period.
그리고, 차량(5)이 정체 구간에 진입한 것으로 판단되면, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.If it is determined that the vehicle 5 has entered the traffic jam section, it is determined that an event has occurred. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
예를 들어, 차량(5)의 실제 이동 속도를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량이 정체 구간을 주행 하는 동안 획득한 주행 이미지 또는 주행 영상을 서버(300)로 전송할 수 있다. For example, the actual moving speed of the vehicle 5 may be transmitted to the server 300. In addition, for example, the driving image or the driving image acquired while the vehicle is traveling in the traffic jam section may be transmitted to the server 300.
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 외부로부터의 충격량을 토대로 이벤트 발생을 판단할 수 있다. 외부로부터의 충격량은 센싱부(130)에 포함된 가속도 센서, 중력 센서 등을 이용하여 획득할 수 있다. Referring back to FIG. 5, in step S102 described above, the controller 170 may determine the occurrence of an event based on the amount of impact from the outside of the vehicle. The impact amount from the outside may be obtained using an acceleration sensor, a gravity sensor, or the like included in the sensing unit 130.
도 18은 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다. 또한, 도 19는 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 도면이다. 18 is a flowchart illustrating an example of determining an event occurrence based on an impact amount. 19 is a diagram illustrating an example of determining an event occurrence based on an impact amount.
도 18을 참조하면, 제어부(170)는 차량에 대한 외부 충격량을 지속적으로 획득한다(S901). Referring to FIG. 18, the controller 170 continuously acquires an external impact amount on the vehicle (S901).
그리고, 획득되는 충격량의 패턴을 분석하여, 충격량 패턴이 급격히 변화하는 경우, 즉, 충격량의 변화량이 기 설정된 값 이상인 경우(S902), 이벤트가 발생한 것으로 판단한다(S903). 즉, 도로 파손, 장애물, 사고 등으로 인해 차량에 충격이 많이 발생하면, 이를 안정 운행과 관련된 이벤트로 판단한다. Then, by analyzing the pattern of the impact amount obtained, it is determined that the event occurs when the impact amount pattern changes rapidly, that is, when the amount of change in the impact amount is more than the predetermined value (S902) (S903). That is, when a lot of shocks occur in the vehicle due to road damage, obstacles, accidents, etc., it is determined as an event related to stable driving.
도 19는 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 것이다. 19 illustrates an example of determining an event occurrence based on an impact amount.
도 19의 (a)에 도시된 바와 같이, 내비게이션(100)을 장착한 차량(5)이 파손된 도로를 주행하는 경우, 차량(5)에 대한 외부로부터의 충격량은 도 19의 (b)에 도시된 바와 같이, 일정 시간(t3) 동안 급격히 변화하는 것을 알 수 있다. 즉, 충격량을 나타내는 그래프의 진폭이 일정 구간(t3) 동안 급변함을 알 수 있다. As shown in FIG. 19A, when the vehicle 5 equipped with the navigation 100 travels on a broken road, the amount of impact from the outside to the vehicle 5 is determined in FIG. 19B. As shown in the figure, it can be seen that there is a rapid change for a certain time t3. That is, it can be seen that the amplitude of the graph representing the impact amount changes suddenly for a predetermined period t3.
도 19의 (b)에 도시된 바와 같이, 충격량이 급격히 변화하면, 제어부(170)는 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.As shown in (b) of FIG. 19, when the impact amount changes rapidly, the controller 170 determines that an event has occurred. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
예를 들어, 이벤트가 발생한 이후에 획득한 차량의 주행 이미지 또는 주행 영상을 서버(300)로 전송한다. 또한, 예를 들어, 이벤트가 발생한 시점을 기준으로 기 설정된 시간 이전에 획득된 차량의 주행 이미지 또는 주행 영상을 서버(300)로 전송할 수도 있다. 다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 주행 영상을 토대로 이벤트 발생을 판단할 수 있다. 차량의 주행 영상은 내비게이션(100)에 포함된 적어도 하나의 카메라(125)를 통해 획득할 수 있다. 차량의 주행 영상은 또한, 통신부(110)를 통해 연결되는 적어도 하나의 외부 카메라 또는 차량용 블랙박스로부터 획득할 수 있다. For example, the driving image or the driving image of the vehicle acquired after the event is transmitted to the server 300. In addition, for example, the driving image or the driving image of the vehicle acquired before the preset time may be transmitted to the server 300 based on the time point at which the event occurs. Referring back to FIG. 5, in step S102, the controller 170 may determine the occurrence of an event based on the driving image of the vehicle. The driving image of the vehicle may be obtained through at least one camera 125 included in the navigation 100. The driving image of the vehicle may also be obtained from at least one external camera or the vehicle black box connected through the communication unit 110.
도 20 및 도 21은 차량의 주행 영상을 토대로 이벤트 발생을 판단하는 예들을 도시한 흐름도이다. 또한, 도 22는 차량의 주행 영상을 토대로 이벤트 발생을 판단하는 일 예를 도시한 것이다. 20 and 21 are flowcharts illustrating examples of determining an event occurrence based on a driving image of a vehicle. 22 illustrates an example of determining an event occurrence based on a driving image of a vehicle.
도 20을 참조하면, 제어부(170)는 차량의 주행 영상을 획득한다(S1001). 또한, 차량의 주행 영상에 대한 영상 인식을 토대로, 주행 영상에 포함되는 객체들을 추출한다. Referring to FIG. 20, the controller 170 acquires a driving image of the vehicle (S1001). In addition, based on image recognition of the driving image of the vehicle, objects included in the driving image are extracted.
또한, 제어부(170)는 주행 영상에 특정 객체가 포함되는 경우(S1002), 이벤트가 발생한 것으로 판단하다(S1003). In addition, when a specific object is included in the driving image (S1002), the controller 170 determines that an event has occurred (S1003).
예를 들어, 제어부(170)는 차량의 주행 영상에 사고 차량, 장애물에 해당하는 객체가 포함되는 경우, 이벤트가 발생한 것으로 판단한다. For example, the controller 170 determines that an event has occurred when the driving image of the vehicle includes an object corresponding to an accident vehicle or an obstacle.
또한, 예를 들어, 제어부(170)는 차량의 주행 영상에 앰블런스와 같이 특수 차량에 해당하는 객체가 포함되는 경우, 이벤트가 발생한 것으로 판단한다. In addition, for example, the controller 170 determines that an event occurs when an object corresponding to a special vehicle, such as an ambulance, is included in the driving image of the vehicle.
한편, S1002 단계에서, 제어부(170)는 주행 영상으로부터 추출되는 각 객체의 외곽선, 색상 등을 토대로, 주행 영상에 특정 객체가 포함되었는지 여부를 판단할 수 있다. In operation S1002, the controller 170 may determine whether a specific object is included in the driving image based on an outline, a color, and the like of each object extracted from the driving image.
도 21을 참조하면, 제어부(170)는 차량의 주행 영상을 획득한다(S1101). 또한, 차량의 주행 영상에 대한 영상 인식을 토대로, 주행 영상에 포함되는 객체들을 추출한다.Referring to FIG. 21, the controller 170 acquires a driving image of a vehicle (S1101). In addition, based on image recognition of the driving image of the vehicle, objects included in the driving image are extracted.
또한, 주행 영상으로부터 추출되는 적어도 하나의 객체를 토대로, 도로의 교통 흐름 상태를 판단한다(S1102). 그리고, 교통 흐름 상태가 정체에 대응되는 경우(S1103), 이벤트가 발생한 것으로 판단한다(S1104).In addition, the traffic flow state of the road is determined based on at least one object extracted from the driving image (S1102). When the traffic flow state corresponds to congestion (S1103), it is determined that an event has occurred (S1104).
S1102 단계에서, 제어부(170)는 주행 영상으로부터 획득되는 특정 객체들을 이용하여 교통 흐름을 판단할 수 있다. In operation S1102, the controller 170 may determine the traffic flow by using specific objects obtained from the driving image.
예를 들어, 제어부(170)는 주행 영상으로부터 다른 차량들을 검출하고, 주행 영상으로부터 획득한 차량의 개수, 또는 차량간 간격을 토대로 정체 여부를 판별할 수 있다. For example, the controller 170 may detect other vehicles from the driving image, and determine whether the vehicle is congested based on the number of vehicles acquired from the driving image or the distance between the vehicles.
도 22는 차량의 주행 영상에서 획득되는 객체를 분석하여 이벤트 발생을 판단하는 경우를 설명하기 위한 도면으로서, 내비게이션(100)이 장착된 차량의 주행 영상의 일 예를 도시한 것이다. FIG. 22 is a diagram illustrating a case of determining an event occurrence by analyzing an object acquired from a driving image of a vehicle, and illustrates an example of a driving image of a vehicle equipped with the navigation 100.
도 22를 참조하면, 제어부(170)는 차량의 주행 영상(7)을 분석하여 영상 내 포함된 객체들을 추출한다. 그리고, 추출된 객체들의 외곽선, 색상 등을 토대로 추출된 객체들의 종류, 형태 등을 획득하고, 이를 토대로 사고 차량(OB1), 사고 차량을 견인하기 위한 렉커(wrecker) 차량(OB1) 등의 특정 객체가 차량의 주행 영상(7)에 포함되었는지 여부를 판단한다. Referring to FIG. 22, the controller 170 analyzes the driving image 7 of the vehicle and extracts objects included in the image. In addition, a specific object, such as an accident vehicle OB1 or a wrecker vehicle OB1 for towing the accident vehicle, is obtained based on the types and shapes of the extracted objects based on the outlines and colors of the extracted objects. It is determined whether is included in the driving image 7 of the vehicle.
또한, 제어부(170)는 차량의 주행 영상(7)에서 특정 객체(OB1, OB2)가 추출되면, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.In addition, when the specific objects OB1 and OB2 are extracted from the driving image 7 of the vehicle, the controller 170 determines that an event has occurred. In addition, since the event occurred, the content is automatically obtained and transmitted to the server 300.
예를 들어, 차량의 주행 이미지 또는 주행 영상을 서버(300)로 전송할 수 있다. For example, the driving image or the driving image of the vehicle may be transmitted to the server 300.
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 이동 속도를 토대로 이벤트 발생을 판단할 수 있다. Referring back to FIG. 5, in step S102 described above, the controller 170 may determine the occurrence of an event based on the moving speed of the vehicle.
도 23은 차량의 이동 속도를 토대로 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다. 23 is a flowchart illustrating an example of determining an event occurrence based on a moving speed of a vehicle.
도 23을 참조하면, 제어부(170)는 차량의 이동 속도를 획득한다(S1201). Referring to FIG. 23, the controller 170 acquires a moving speed of the vehicle (S1201).
또한, 제어부(170)는 차량의 이동 속도가 일정 시간 동안 기 설정된 값 이하인 경우(S1202), 이벤트가 발생한 것으로 판단한다(S1203). 즉, 차량의 이동 속도가 일정 시간 동안 기 설정된 속도 이하이면, 차량이 정체 구간에 진입한 것으로 판단한다. In addition, when the moving speed of the vehicle is less than or equal to a preset value for a predetermined time (S1202), the controller 170 determines that an event has occurred (S1203). That is, if the moving speed of the vehicle is less than or equal to the preset speed for a predetermined time, it is determined that the vehicle has entered the stall section.
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 전장 시스템으로부터 수신되는 데이터를 토대로 이벤트 발생을 판단할 수 있다. Referring back to FIG. 5, in step S102 described above, the controller 170 may determine the occurrence of an event based on data received from the vehicle electrical system.
도 24는 차량의 전장 시스템으로부터 회득한 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다. 24 illustrates an example of determining an event occurrence by using data acquired from a vehicle electrical system.
도 24를 참조하면, 제어부(170)는 상기 통신부(110)를 통해 근거리 통신 또는 유선 통신 방식으로 차량의 전장 시스템과 연결한다(S1301). Referring to FIG. 24, the controller 170 connects to a vehicle electrical system through a short-range communication or a wired communication method through the communication unit 110 (S1301).
또한, 제어부(170)는 전장 시스템으로부터 수신되는 데이터를 토대로, 차량의 브레이크 오작동이 발생한 것으로 판단되면(S1302), 안전 운행과 관련된 이벤트가 발생한 것으로 판단한다(S1303).In addition, if it is determined that the brake malfunction of the vehicle has occurred (S1302), the controller 170 determines that an event related to safe driving has occurred (S1303).
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 외부의 전자 기기로부터 수신되는 데이터를 토대로 이벤트 발생을 판단할 수 있다. Referring back to FIG. 5, in step S102 described above, the controller 170 may determine an event occurrence based on data received from an external electronic device.
도 25는 외부 전자 기기로부터 수신되는 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다. 25 illustrates an example of determining an event occurrence using data received from an external electronic device.
도 25를 참조하면, 제어부(170)는 통신부(110)를 통해 외부의 전자 기기와 연결한다(S1401). Referring to FIG. 25, the controller 170 connects to an external electronic device through the communication unit 110 (S1401).
또한, 제어부(170)는 연결된 외부 전자 기기로부터 특정 데이터가 수신되면(S1402), 이벤트가 발생한 것으로 판단한다(S1402). In addition, when specific data is received from the connected external electronic device (S1402), the controller 170 determines that an event has occurred (S1402).
이벤트에 대응되는 특정 데이터는 외부 전자 기기의 특정 키가 조작됨에 따라 수신될 수 있다. 상기 특정 키는 사용자에 의해 설정될 수 있다. Specific data corresponding to the event may be received as a specific key of the external electronic device is manipulated. The specific key may be set by the user.
도 26은 외부 전자 기기의 특정 키를 컨텐츠 자동 전송과 관련된 단축 키로 등록하는 일 예를 도시한 것이다. FIG. 26 illustrates an example of registering a specific key of an external electronic device as a shortcut key associated with automatic transmission of content.
도 26을 참조하면, 내비게이션(100)은 외부 전자 기기(10a)와 연결한다(S1501). 또한, 내비게이션(100)은 사용자의 제어 입력을 토대로, 외부 전자 기기의 특정 키를 컨텐츠 자동 전송 메뉴의 단축 키로 등록하기 위한 모드로 진입한다(S1502). 그리고, 이 모드에서, 외부 전자 기기(10a)의 특정 키가 조작됨에 따라, 외부 전자 기기(10a)로부터 특정 키 데이터가 수신되면, 내비게이션(100)은 상기 특정 키를 컨텐츠 자동 전송을 위한 단축 키로 등록한다. Referring to FIG. 26, the navigation apparatus 100 is connected to the external electronic device 10a in operation S1501. In addition, the navigation apparatus 100 enters a mode for registering a specific key of the external electronic device as a shortcut key of an automatic content transmission menu based on a user's control input (S1502). In this mode, as a specific key of the external electronic device 10a is operated, when specific key data is received from the external electronic device 10a, the navigation apparatus 100 converts the specific key into a shortcut key for automatic content transmission. Register.
이에 따라, 내비게이션(100)은 통신부(110)를 통해 연결되는 외부 전자 기기(100)로부터 특정 키 데이터가 입력될 때마다, 컨텐츠를 자동으로 획득하여 서버(300)로 전송한다. Accordingly, the navigation apparatus 100 automatically acquires and transmits the content to the server 300 whenever specific key data is input from the external electronic device 100 connected through the communication unit 110.
전술한 도 5 내지 도 26을 참조하면, 본 발명의 제1 실시 예에 따른 내비게이션(100)은 교통 흐름 또는 안전 운행과 관련된 이벤트를 자동으로 인지하는 것이 가능하다. 이에 따라, 운전 중인 사용자의 조작이 없이도, 정보 수집이 필요한 위치에서는 자동으로 컨텐츠를 수집하여 서버(300)로 전송함으로써, 사용자의 번거로움을 최소화하는 효과가 있다. 또한, 사용자의 주의를 분산시키는 일 없이 자동으로 정보를 컨텐츠를 수집하고 전송함으로써, 사용자가 안전 운전을 하도록 지원하는 효과가 있다. 5 to 26, the navigation 100 according to the first embodiment of the present invention may automatically recognize an event related to traffic flow or safe driving. Accordingly, even without the operation of the user in operation, by automatically collecting the content in the location that needs to be collected and transmits to the server 300, there is an effect of minimizing the user's hassle. In addition, by collecting and transmitting information automatically without distracting the user, there is an effect of supporting the user to drive safely.
다시, 도 5를 보면, S103 단계에서, 제어부(170)는 기 저장된 텍스트를 이용하여 컨텐츠를 획득할 수 있다. 제어부(170)는 S102 단계에서 이벤트가 발생하면, 발생된 이벤트의 속성을 토대로, 기 저장된 복수의 텍스트 중 어느 하나를 선택한다. 그리고, 선택된 텍스트를 이용하여 생성된 사용자 컨텐츠를 서버(300)로 전송한다. 이벤트 속성은, 해당 이벤트가 교통 흐름 및 안전 운행 중 어느 것과 관련된 이벤트인지를 포함할 수 있다. 또한, 이벤트 속성은, 해당 이벤트가 발생한 위치의 속성, 예를 들어, 상습 정체 구간, 사고 다발 구간, 음주 단속 구간, 통제 구간, 사고 발생 지점, 공사 구간, 안개 발생 지역 등을 포함한다. 또한, 이벤트 속성은, 해당 이벤트에 대응하는 교통 흐름 상태 예를 들어, 정체, 서행 등을 포함할 수 있다. Referring back to FIG. 5, in step S103, the controller 170 may acquire content using pre-stored text. If an event occurs in operation S102, the controller 170 selects one of a plurality of pre-stored texts based on the attribute of the generated event. In addition, the user content generated using the selected text is transmitted to the server 300. The event attribute may include whether the event is related to any of traffic flow and safe driving. In addition, the event attribute, the attribute of the location where the event occurred, for example, the habitual congestion section, accident occurrence section, drinking crackdown section, control section, accident occurrence point, construction section, fog generation area and the like. In addition, the event attribute may include a traffic flow state corresponding to the event, for example, congestion, slow motion, and the like.
한편, 발생된 이벤트의 속성 별로 대응되는 텍스트는 사용자에 의해 설정될 수 있다. 예를 들어, 사용자는 지도 데이터에 등록된 상습 정체 구간에 대해 '상습 정체 구간' 텍스트를 대응시켜 등록할 수 있다. 이후, 제어부(170)는 지도 데이터에 상습 정체 구간으로 등록된 위치에 진입하는 경우, '상습 정체 구간' 텍스트를 이용하여 생성된 사용자 컨텐츠를 서버(300)로 전송하게 된다. Meanwhile, the text corresponding to each attribute of the generated event may be set by the user. For example, a user may register a text of 'usual congestion section' with respect to the congestion congestion section registered in the map data. Then, when the controller 170 enters the location registered as the habitual congestion section in the map data, the controller 170 transmits the user content generated by using the text 'the habitual congestion section' to the server 300.
또한, S103 단계에서, 제어부(170)는 이벤트가 발생하면, 마이크(123)를 통해 획득되는 오디오를 이용하여 사용자 컨텐츠를 생성할 수 있다.In operation S103, when an event occurs, the controller 170 may generate user content using audio acquired through the microphone 123.
또한, S103 단계에서, 제어부(170)는 이벤트가 발생하면, 차량의 주행 영상(이미지, 동영상)을 이용하여 사용자 컨텐츠를 생성할 수 있다. 차량의 주행 영상은 내비게이션(100)에 포함된 적어도 하나의 카메라(125)를 통해 획득할 수 있다. 차량의 주행 영상은 또한, 통신부(110)를 통해 연결되는 적어도 하나의 외부 카메라 또는 차량용 블랙박스로부터 획득할 수 있다.In operation S103, when an event occurs, the controller 170 may generate user content using a driving image (image, video) of the vehicle. The driving image of the vehicle may be obtained through at least one camera 125 included in the navigation 100. The driving image of the vehicle may also be obtained from at least one external camera or the vehicle black box connected through the communication unit 110.
제어부(170)는 차량의 주행 영상을 이미지 또는 동영상 형태로 사용자 컨텐츠에 포함시킬 수 있다. The controller 170 may include the driving image of the vehicle in the user content in the form of an image or a video.
예를 들어, 제어부(170)는 이벤트가 발생하면, 차량의 주행 영상으로부터 적어도 하나의 이미지를 획득하고, 이를 이용하여 생성한 사용자 컨텐츠를 서버(300)로 전송한다. For example, when an event occurs, the controller 170 obtains at least one image from the driving image of the vehicle, and transmits the user content generated by using the same to the server 300.
예를 들어, 제어부(170)는 이벤트가 발생하면, 일정 시간 동안의 차량의 주행 영상을 동영상 형태로 획득하고, 이를 이용하여 생성한 사용자 컨텐츠를 서버(300)로 전송한다. 차량의 주행 영상을 이용하여 사용자 컨텐츠를 생성하는 경우, 제어부(170)는 이벤트가 발생한 이후에 일정 시간 동안 획득되는 차량의 주행 영상을 이용하여 사용자 컨텐츠를 생성할 수 있다. 또한, 제어부(170)는 이벤트가 발생한 시점을 기준으로 기 설정된 시간 이전부터 일정 시간 동안 촬영된 차량의 주행 영상을 이용하여 사용자 컨텐츠를 획득할 수도 있다. For example, when an event occurs, the controller 170 obtains a driving image of the vehicle for a predetermined time in a video form, and transmits the user content generated by using the same to the server 300. When generating the user content using the driving image of the vehicle, the controller 170 may generate the user content using the driving image of the vehicle acquired for a predetermined time after the event occurs. In addition, the controller 170 may obtain the user content by using the driving image of the vehicle photographed for a predetermined time from a preset time on the basis of the time when the event occurs.
사용자 컨텐츠 생성을 위해 차량의 주행 영상을 획득하는 시간은 이벤트 속성에 따라 달라질 수 있다. 이벤트 속성에 따라, 일정 영역 내에서의 차량의 주행 영상이 필요한 경우, 제어부(170)는 차량이 해당 영역에 진입하여 진출하기까지의 주행 영상을 적어도 하나의 이미지 또는 동영상 형태로 획득할 수 있다. The time for acquiring the driving image of the vehicle for generating user content may vary depending on the event attribute. According to an event attribute, when a driving image of a vehicle in a certain area is required, the controller 170 may acquire a driving image of the vehicle until the vehicle enters and exits the corresponding area in the form of at least one image or video.
예를 들어, 차량이 지도 데이터에 상습 정체 구간으로 등록된 구간에 진입하는 경우, 제어부(170)는 차량이 상습 정체 구간에 진입하여 진출하기까지의 주행 영상을 적어도 하나의 이미지 또는 동영상 형태로 획득할 수 있다. For example, when the vehicle enters a section registered as a habitual congestion section in the map data, the controller 170 acquires a driving image until the vehicle enters and enters the habitual congestion section in at least one image or video form. can do.
또한, 차량이 급감 속하는 경우와 같이 이벤트가 발생하는 순간을 기준으로 일정 시간 동안의 차량의 주행 영상이 필요한 경우, 제어부(170)는 이벤트가 발생한 시점을 기준으로 일정 시간 동안만 적어도 하나의 이미지 또는 동영상 형태의 주행 영상을 획득할 수 있다. In addition, when a driving image of the vehicle for a predetermined time is required based on the moment when the event occurs, such as when the vehicle suddenly falls, the controller 170 may at least one image or only for a predetermined time based on the time point at which the event occurs. A driving image in the form of a video can be obtained.
또한, 사용자 컨텐츠 생성을 위해 차량의 주행 영상을 획득하는 시간은 주행 영상을 획득하는 주체에 따라 달라질 수 있다. 차량의 주행 영상을 획득하는 주체가 차량용 블랙박스인 경우, 제어부(170)는 차량용 블랙박스로부터 현재 획득되는 주행 영상뿐만 아니라 이전에 획득한 주행 영상을 획득하는 것이 가능하다. 따라서, 발생된 이벤트에 따라, 이벤트가 발생하기 이전의 주행 영상이 필요한 경우, 제어부(170)는 이벤트가 발생한 시점으로부터 일정 시간 이전부터 획득된 차량의 주행 영상을 이용하여 사용자 컨텐츠를 생성할 수 있다. In addition, the time for acquiring the driving image of the vehicle for generating user content may vary depending on the subject acquiring the driving image. When the subject that acquires the driving image of the vehicle is the vehicle black box, the controller 170 may acquire not only the driving image currently acquired from the vehicle black box but also the previously obtained driving image. Accordingly, when a driving image before an event occurs is needed according to the generated event, the controller 170 may generate user content using the driving image of the vehicle acquired from a point in time before the event occurs. .
다시, 도 5를 보면, 전술한 S104 단계에서, 제어부(170)는 사용자 컨텐츠를 서버(300)로 전송 시, 차량의 현재 위치, 이동 속도, 이동 방향 등의 정보를 함께 전송할 수도 있다. Referring back to FIG. 5, in step S104, when the user content is transmitted to the server 300, the controller 170 may also transmit information such as a current position, a moving speed, and a moving direction of the vehicle.
또한, 전술한 S105 단계에서, 제어부(170)는 사용자 컨텐츠의 전송이 완료되면, 이를 사용자에게 안내하기 위한 텍스트, 아이콘 등을 디스플레이 모듈(151)을 통해 화면에 표시한다. 그러나, 본 문서는 이에 한정되지 않는다. 본 문서에 개시되는 기술적 사상은 사용자 컨텐츠의 전송이 완료되면, 이를 안내하는 텍스트, 아이콘 등을 화면에 표시하지 않는 경우에도 적용이 가능하다. In addition, in step S105, when the transmission of the user content is completed, the controller 170 displays text, an icon, and the like for guiding the user to the screen through the display module 151. However, this document is not limited thereto. The technical idea disclosed in this document may be applied to a case in which text, an icon, etc. for guiding the content are not displayed on the screen when the transmission of the user content is completed.
이하, 필요한 도면들을 참조하여, 본 발명의 제2 실시 예에 따른 내비게이션(100)의 제어 방법 및 이를 구현하기 위한 내비게이션(100)의 동작을 좀 더 상세하게 설명하기로 한다. 본 문서에서 개시되는 실시 예들은 도 3을 참조하여 설명한 전자 기기(100)에서 구현될 수 있다. Hereinafter, a method of controlling the navigation apparatus 100 according to the second embodiment of the present invention and an operation of the navigation apparatus 100 for implementing the same will be described in detail with reference to necessary drawings. Embodiments disclosed in this document may be implemented in the electronic device 100 described with reference to FIG. 3.
이하, 본 문서에서 개시되는 제2 실시 예의 구현을 위한 내비게이션(100)의 동작을 좀 더 상세하게 설명하기로 한다. Hereinafter, the operation of the navigation apparatus 100 for implementing the second embodiment disclosed in this document will be described in more detail.
센싱부(130)의 모션 센싱 모듈(131)은, 자이로 센서, 가속도 센서, 지자기 센서, 중력 센서 등을 포함할 수 있다. 이러한, 모션 센싱 모듈(131)은 내비게이션(100)이 차량의 움직임을 획득한다. The motion sensing module 131 of the sensing unit 130 may include a gyro sensor, an acceleration sensor, a geomagnetic sensor, a gravity sensor, and the like. In this, the motion sensing module 131, the navigation 100 obtains the movement of the vehicle.
상기 제어부(170)는 상기 센싱부(170)를 통해 획득되는 내비게이션(100)의 움직임을 토대로, 차량의 가속도, 외부로부터의 충격량 등을 획득한다. The controller 170 obtains the acceleration of the vehicle, the amount of impact from the outside, etc. based on the movement of the navigation device 100 obtained through the sensing unit 170.
또한, 제어부(170)는 차량의 현재 위치를 획득한다. 차량의 현재 위치를 획득하는 방법은 전술한 본 발명의 제1 실시 예에 개시된 위치 획득 방법과 동일하므로, 상세한 설명을 생략한다. In addition, the controller 170 obtains a current position of the vehicle. Since the method of acquiring the current position of the vehicle is the same as the method of acquiring the position disclosed in the first embodiment of the present invention described above, a detailed description thereof will be omitted.
또한, 제어부(170)는 통신부(110)를 통해 서버(300)에 연결한다. 또한, 통신부(110)를 통해 다른 전자 기기(10)와 연결한다. In addition, the controller 170 connects to the server 300 through the communication unit 110. In addition, the communication unit 110 connects with another electronic device 10.
또한, 제어부(170)는 서버(300)와의 통신을 통해, 다른 전자 기기(10)와 소셜 네트워크(400)를 구성한다. In addition, the controller 170 configures the social network 400 with the other electronic device 10 through communication with the server 300.
또한, 제어부(170)는, 사용자의 제어 입력을 토대로 선택된 사용자 컨텐츠를, 소셜 네트워크(400)에 포함된 다른 전자 기기(10)로 전송한다. 여기서, 사용자의 제어 입력은 입력부(120)를 통해 수신되거나, 통신부(110)를 통해 연결된 외부 전자 기기로부터 수신될 수 있다. 후자의 경우, 제어부(170)는 통신부(110)의 근거리 통신 모듈(117)을 통해 적어도 하나의 외부 전자 기기와 연결하고, 연결된 외부 전자 기기로부터 제어 입력을 수신할 수 있다. 근거리 통신 모듈(117)을 통해 연결되는 외부 전자 기기로는, 스마트 폰, 휴대폰, 노트북 컴퓨터, PDA, 태블릿 PC등이 포함될 수 있다. In addition, the controller 170 transmits the selected user content to another electronic device 10 included in the social network 400 based on the user's control input. Here, the control input of the user may be received through the input unit 120 or may be received from an external electronic device connected through the communication unit 110. In the latter case, the controller 170 may connect with at least one external electronic device through the short range communication module 117 of the communication unit 110 and receive a control input from the connected external electronic device. External electronic devices connected through the short range communication module 117 may include a smart phone, a mobile phone, a notebook computer, a PDA, a tablet PC, and the like.
제어부(170)는 또한 특정 이벤트가 발생하면, 발생된 이벤트와 관련된 사용자 컨텐츠를 자동으로 획득하고, 획득한 사용자 컨텐츠를 소셜 네트워크(400)에 포함된 다른 전자 기기(10)로 자동 전송한다. When a specific event occurs, the controller 170 automatically obtains user content related to the generated event, and automatically transmits the obtained user content to another electronic device 10 included in the social network 400.
제어부(170)는 또한, 차량의 현재 위치를 소셜 네트워크(400)에 포함된 다른 전자 기기(10)로 전송할 수도 있다. The controller 170 may also transmit the current location of the vehicle to the other electronic device 10 included in the social network 400.
또한, 제어부(170)는 차량의 위치를 토대로 획득되는, 교통 흐름과 관련된 정보를 소셜 네트워크(400)에 포함된 다른 전자 기기(10)로 전송할 수도 있다. 차량의 위치를 토대로 획득되는 교통 정보는 차량의 이동 속도, 이동 방향 등을 포함할 수 있다. In addition, the controller 170 may transmit the information related to the traffic flow, which is obtained based on the location of the vehicle, to another electronic device 10 included in the social network 400. The traffic information obtained based on the location of the vehicle may include a moving speed of the vehicle, a moving direction, and the like.
도 27은 본 발명의 제2 실시 예에 따른 내비게이션(100)의 제어 방법을 도시한 흐름도이다. 또한, 도 28은 본 발명의 제2 실시 예에 따른 내비게이션(100)의 제어 방법을 설명하기 위한 도면이다. 27 is a flowchart illustrating a control method of the navigation apparatus 100 according to the second embodiment of the present invention. In addition, FIG. 28 is a diagram for describing a method of controlling the navigation apparatus 100 according to the second embodiment of the present invention.
도 27을 참조하면, 제어부(170)는 통신망(200)을 통해 서버(300)와 연결한다(S1701). 본 발명의 제2 실시 예에서도 전술한 본 발명의 제1 실시 예와 마찬가지로, 사용자 인증 과정이 필요한 경우, 인증 정보를 이용하여 사용자 인증 과정을 수행한다. 그리고, 사용자 인증이 성공하면 서버(300)와 연결한다. Referring to FIG. 27, the controller 170 connects to the server 300 through the communication network 200 (S1701). Similarly to the first embodiment of the present invention, the second embodiment of the present invention performs a user authentication process using authentication information when a user authentication process is required. If the user authentication succeeds, the server 300 is connected to the server 300.
또한, 제어부(170)는 사용자의 제어 입력을 토대로, 도로 상에서 획득되는 사용자 컨텐츠를 공유하기 위한 소셜 네트워크의 구성을 서버(300)로 요청한다(S1702). 또한, 제어부(180)는 서버(300)에서 선택된 적어도 하나의 전자 기기(10)와 소셜 네트워크를 구성한다(S1703). 본 문서에서는 내비게이션(100)이 서버(300)에 연결된 이후에, 소셜 네트워크 구성을 요청하는 경우를 예로 들어 설명한다. 그러나, 본 문서에 개시되는 기술적 사상은, 사용자로부터 소셜 네트워크 구성 요청이 수신되면, 서버(300)에 연결하는 경우에도 적용이 가능하다. In addition, the controller 170 requests the server 300 to configure a social network for sharing user content acquired on the road, based on a user's control input (S1702). In addition, the controller 180 configures a social network with at least one electronic device 10 selected by the server 300 (S1703). In this document, after the navigation 100 is connected to the server 300, a case where a social network configuration is requested is described as an example. However, the technical idea disclosed in this document may be applied to the case where the user connects to the server 300 when the social network configuration request is received from the user.
S1702 단계에서, 제어부(170)는 네트워크 구성 요청 시, 내비게이션(100)의 현재위치, 즉, 내비게이션(100)이 장착된 차량의 현재 위치를 서버(300)로 전송함으로써, 현재 위치를 기준으로 주변에 위치하는 전자 기기(10)들과의 네트워크 구성을 서버(300)로 요청한다. In operation S1702, when the network configuration request is made, the controller 170 transmits the current location of the navigation apparatus 100, that is, the current location of the vehicle equipped with the navigation apparatus 100 to the server 300, thereby surrounding the current location based on the current location. The server 300 requests a network configuration with the electronic devices 10 located at.
제어부(170)는 또한, 차량의 현재 위치와 함께 차량의 이동 방향, 목적지, 검색 반경 등을 전송할 수도 있다. The controller 170 may also transmit a moving direction of the vehicle, a destination, a search radius, and the like together with the current location of the vehicle.
차량의 이동 방향을 서버(300)로 전송할 경우, 서버(300)는 차량의 이동 방향과 이동 방향이 일치하는 전자 기기(10)들을 선택하여 네트워크 구성을 지원할 수 있다. When the moving direction of the vehicle is transmitted to the server 300, the server 300 may select the electronic devices 10 having the same moving direction as the moving direction of the vehicle to support the network configuration.
*또한, 목적지를 서버(300)로 전송할 경우, 서버(300)는 차량이 이동 중인 경로 상에 위치하는 전자 기기(10)들을 선택하여 네트워크 구성을 지원할 수도 있다. In addition, when transmitting a destination to the server 300, the server 300 may support the network configuration by selecting the electronic devices 10 located on the path on which the vehicle is moving.
또한, 검색 반경을 서버(300)로 전송할 경우, 서버(300)는 차량의 현재 위치를 기준으로 해당 반경 내에 위치하는 전자 기기(10)들을 선택하여 네트워크 구성을 지원할 수 있다. In addition, when transmitting the search radius to the server 300, the server 300 may support the network configuration by selecting the electronic devices 10 located within the radius based on the current location of the vehicle.
도 28은 소셜 네트워크를 구성하는 일 예를 도시한 것이다. 28 illustrates an example of configuring a social network.
도 28은 차량의 현재 위치(SP)를 기준으로 네트워크를 구성하는 일 예를 도시한 것이다. 도 28을 참조하면, 서버(300)는 내비게이션(100)으로부터 사용자 컨텐츠 공유를 위한 네트워크 구성이 요청되면, 내비게이션(100)이 현재 위치, 즉, 내비게이션(100)이 장착된 차량의 현재 위치(SP)를 획득한다. 여기서, 현재 위치(SP)는 내비게이션(100)으로부터 수신할 수도 있고, 통신망(200)에 포함된 기지국으로부터 획득할 수도 있다. FIG. 28 illustrates an example of configuring a network based on a current location SP of a vehicle. Referring to FIG. 28, when the server 300 requests a network configuration for sharing user content from the navigation device 100, the navigation device 100 is in a current location, that is, the current location of the vehicle in which the navigation device 100 is mounted. ). Here, the current location SP may be received from the navigation apparatus 100 or may be obtained from a base station included in the communication network 200.
또한, 서버(300)는 차량의 위치 변화를 일정 시간 동안 획득하고, 이를 토대로 차량의 이동 방향을 획득한다. 또한, 차량의 현재 위치 및 이동 방향을 토대로, 일정 영역(A)을 설정한다. 그리고, 설정된 영역(A) 내에 위치하는 다른 전자 기기들(T1 ~ T5)을 선택하고, 선택된 전자 기기(T1 ~ T5)들과 내비게이션(100)과의 소셜 네트워크 구성을 지원한다. In addition, the server 300 obtains a change in the position of the vehicle for a predetermined time, and obtains a moving direction of the vehicle based on the change. In addition, the predetermined area A is set based on the current position and the moving direction of the vehicle. In addition, other electronic devices T1 to T5 located in the set area A are selected, and the social network configuration of the selected electronic devices T1 to T5 and the navigation device 100 is supported.
한편, 내비게이션(100)의 요청에 의해 구성된 소셜 네트워크(400)는, 전술한 바와 같이 내비게이션(100)의 현재 위치를 기준으로 선택된 전자 기기(10)들을 포함한다. 따라서, 내비게이션(100)의 현재 위치에 따라 갱신될 수 있다. 서버(300)는 네트워크(400)가 유지되는 동안, 내비게이션(100)의 위치를 지속적으로 획득하고, 이를 토대로 네트워크(400)에 포함되는 전자 기기들(10)을 지속적으로 갱신한다. Meanwhile, the social network 400 configured at the request of the navigation apparatus 100 includes the electronic devices 10 selected based on the current location of the navigation apparatus 100 as described above. Therefore, it may be updated according to the current position of the navigation apparatus 100. While the network 400 is maintained, the server 300 continuously acquires the location of the navigation device 100 and continuously updates the electronic devices 10 included in the network 400 based on the location.
또한, 서버(300)는 내비게이션(100)의 위치가 변하지 않더라도, 네트워크(400)에 포함되는 다른 전자 기기(10)들의 위치가 변경될 경우, 이를 토대로 네트워크에 포함되는 전자 기기(10)들을 지속적으로 갱신한다. 네트워크 구성의 기준이 되는 조건을 만족시키지 못하는 전자 기기(10)는 네트워크에서 제외하고, 새롭게 기준을 만족하는 전자 기기(10)는 네트워크(400)에 포함시킬 수 있다. In addition, even if the location of the navigation device 100 does not change, the server 300 continuously maintains the electronic devices 10 included in the network based on the change of the location of the other electronic devices 10 included in the network 400. Update with. The electronic device 10 that does not satisfy the condition of the network configuration is excluded from the network, and the electronic device 10 that newly meets the standard may be included in the network 400.
다시, 도 27을 보면, 제어부(170)는 내비게이션(100)이 장착된 차량의 주행 중에 특정 이벤트가 발생하는 경우(S1704), 자동으로 사용자 컨텐츠를 획득한다(S1705). 또한, 획득한 사용자 컨텐츠를 S1703 단계에서 형성된 네트워크(400)에 포함되는 적어도 하나의 전자 기기로 자동으로 전송한다(S1706). 그리고, 사용자 컨텐츠의 전송이 완료되면, 이를 안내하는 안내 정보를 디스플레이 모듈(141)을 통해 화면에 표시한다(S1707). Referring again to FIG. 27, when a specific event occurs while driving the vehicle on which the navigation apparatus 100 is installed (S1704), the controller 170 automatically acquires user content (S1705). In addition, the obtained user content is automatically transmitted to at least one electronic device included in the network 400 formed in step S1703 (S1706). When the transmission of the user content is completed, the guide information for guiding this is displayed on the screen through the display module 141 (S1707).
한편, 본 발명의 제2 실시 예에서, S1704 단계 내지 S1707 단계는, 전술한 본 발명의 제1 실시 예에 개시된 S102 내지 S105 단계와 유사하게 수행되므로 본 문서에서는 상세한 설명을 생략한다. Meanwhile, in the second embodiment of the present invention, steps S1704 to S1707 are performed similarly to steps S102 to S105 disclosed in the above-described first embodiment of the present invention, and thus detailed description thereof will be omitted.
전술한 본 발병의 실시 예들에 따르면, 내비게이션은 교통 흐름 또는 안전 운행과 관련된 이벤트를 자동으로 판단하고, 이벤트가 발생되면, 자동으로 획득한 사용자 컨텐츠를 교통 정보를 제공하는 서버로 전송함으로써, 서버에서 실시간으로 도로 위 상황을 파악하는 것이 가능하도록 지원한다. 나아가, 내비게이션에 의해 생성된 컨텐츠는 다른 전자 기기들로 전송되어, 다른 전자 기기들에서 이를 토대로, 실시간으로 도로 위 상황을 파악하는 것이 가능하도록 지원한다.According to the above-described embodiments of the onset, the navigation automatically determines an event related to the traffic flow or safe driving, and when the event occurs, by automatically transmitting the user content obtained to the server providing the traffic information, in the server It helps to understand the situation on the road in real time. Furthermore, the content generated by the navigation is transmitted to other electronic devices, so that other electronic devices can recognize the situation on the road in real time based on this.
또한, 사용자가 운전 중에 별도의 조작을 할 필요 없이, 도로 상황과 관련된 컨텐츠를 수집하고 전송함으로써, 운전 중인 사용자의 주의를 분산시키지 않고 안전하게, 교통 흐름 파악에 필요한 정보들을 다른 전자 기기 또는 교통 정보를 제공하는 서버로 제공하는 것이 가능하다. In addition, by collecting and transmitting contents related to the road situation without the need for the user to do any operation while driving, it is possible to safely and efficiently disseminate the information necessary for the traffic flow to other electronic devices or traffic information without distracting the user's attention. It is possible to provide to the server to provide.
본 발명의 실시 예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체(media)를 포함한다. 이 매체는 지금까지 설명한 내비게이션 서비스 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드 디스크(hard disk), 플로피 디스크(floppy disk) 및 자기 테이프(magnetic tape)와 같은 자기 매체(magnetic media), CD 및 DVD와 같은 광 기록 매체(optical recording media), 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the present invention include a computer readable medium containing program instructions for performing various computer-implemented operations. This medium records a program for executing the navigation service method described so far. The media may include, alone or in combination with the program instructions, data files, data structures, and the like. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CDs and DVDs, and ROMs. Hardware devices configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
본 발명은 기재된 실시 예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정 예 또는 변형 예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.It is apparent to those skilled in the art that the present invention is not limited to the described embodiments, and that various modifications and changes can be made without departing from the spirit and scope of the present invention. Therefore, such modifications or variations will have to be belong to the claims of the present invention.

Claims (43)

  1. 위치 데이터 모듈;Location data module;
    적어도 하나의 전자 기기의 컨텐츠들을 수집 및 제공하는 서버와, 연결하는 통신부; 및A communication unit connecting with a server for collecting and providing contents of at least one electronic device; And
    상기 위치 데이터 모듈을 통해 차량의 위치를 획득하며, 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련된 컨텐츠를 자동으로 획득하여, 상기 획득한 컨텐츠를 상기 서버로 전송하는 제어부A control unit for acquiring the location of the vehicle through the location data module and automatically obtaining content related to the specific event when a specific event occurs and transmitting the acquired content to the server.
    를 포함하는 전자 기기. Electronic device comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 상기 차량의 위치를 토대로, 상기 차량이 특정 위치에 진입하면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. The controller may determine that the specific event occurs when the vehicle enters a specific location based on the location of the vehicle.
  3. 제2항에 있어서,The method of claim 2,
    지도 데이터를 저장하는 저장부를 더 포함하고,Further comprising a storage for storing map data,
    상기 제어부는, 상기 지도 데이터를 이용하여 상기 특정 위치를 획득하는 것을 특징으로 하는 전자 기기. The controller is configured to obtain the specific location by using the map data.
  4. 제3항에 있어서,The method of claim 3,
    상기 특정 위치는 사고 다발 지역, 공사 구간, 음주 운전 단속 구간, 교통 정보 수집 구간 또는 상습 정체 구간에 대응하는 것을 특징으로 하는 전자 기기. The specific location corresponds to an accident-prone region, a construction section, a drunk driving enforcement section, a traffic information collection section, or a habitual congestion section.
  5. 제2항에 있어서,The method of claim 2,
    상기 특정 위치는 사용자에 의해 설정된 위치인 것을 특징으로 하는 전자 기기. The specific location is an electronic device, characterized in that the location set by the user.
  6. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 상기 통신부를 통해 교통 정보를 수신하며, 상기 수신되는 교통 정보와 상기 차량의 위치를 토대로 상기 특정 이벤트의 발생을 인지하는 것을 특징으로 하는 전자 기기. The controller receives the traffic information through the communication unit, and recognizes the occurrence of the specific event based on the received traffic information and the location of the vehicle.
  7. 제6항에 있어서,The method of claim 6,
    상기 제어부는, 상기 수신되는 교통 정보로부터 도로 위 통제 상황 및 사고 구간을 포함하는 유고(有故)정보를 획득하며, 상기 유고 정보에 대응하는 특정 위치에 진입하면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. The controller acquires yugo information including a road control situation and an accident section from the received traffic information, and determines that the particular event has occurred when entering a particular location corresponding to the yugo information. An electronic device, characterized in that.
  8. 제6항에 있어서,The method of claim 6,
    상기 제어부는, 상기 교통 정보로부터 상기 차량이 진입한 구간의 평균 이동 속도를 획득하고, 상기 차량의 이동 속도와 상기 평균 이동 속도 간의 차이가 기 설정된 값 이상이면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. The controller may be configured to obtain an average moving speed of the section in which the vehicle enters from the traffic information, and determine that the specific event has occurred when a difference between the moving speed of the vehicle and the average moving speed is equal to or greater than a preset value. An electronic device characterized by the above-mentioned.
  9. 제6항에 있어서,The method of claim 6,
    상기 제어부는, 상기 교통 정보로부터 상기 차량이 진입한 구간의 교통 흐름 상태를 획득하고, 상기 교통 흐름 상태가 정체(停滯)에 대응되고, 상기 차량의 이동 속도가 기 설정된 값 이하이면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. The control unit obtains a traffic flow state of a section into which the vehicle enters from the traffic information, and if the traffic flow state corresponds to a congestion and the moving speed of the vehicle is less than or equal to a preset value, the specific event. Electronic device characterized in that it is determined that the occurrence.
  10. 제6항에 있어서,The method of claim 6,
    상기 통신부는 상기 서버로부터 상기 교통 정보를 수신하는 것을 특징으로 하는 전자 기기. And the communication unit receives the traffic information from the server.
  11. 제6항에 있어서,The method of claim 6,
    상기 통신부는 방송망으로부터 상기 교통 정보를 수신하며, The communication unit receives the traffic information from a broadcasting network,
    상기 교통 정보는 티펙(Transport Protocol Expert Group; TPEG) 정보를 포함하는 것을 특징으로 하는 전자 기기. And wherein the traffic information includes Transport Protocol Expert Group (TPEG) information.
  12. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 상기 차량의 가속도를 토대로, 상기 특정 이벤트의 발생 여부를 판단하는 것을 특징으로 하는 전자 기기. The controller determines whether the specific event occurs based on the acceleration of the vehicle.
  13. 제12항에 있어서,The method of claim 12,
    상기 제어부는, 상기 차량의 가속도가 기 설정된 범위를 벗어나면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. The controller may determine that the specific event occurs when the acceleration of the vehicle is outside a preset range.
  14. 제12항에 있어서,The method of claim 12,
    상기 통신부는 외부로부터 교통 정보를 수신하며, The communication unit receives traffic information from the outside,
    상기 제어부는, 상기 차량의 가속도가 기 설정된 값 이하이면, 상기 교통 정보로부터 상기 차량이 현재 진입한 구간의 교통 흐름 상태를 획득하고, 상기 획득한 교통 흐름 상태가 정체에 대응되는 경우, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. If the acceleration of the vehicle is equal to or less than a preset value, the controller acquires a traffic flow state of a section in which the vehicle currently enters from the traffic information, and when the obtained traffic flow state corresponds to congestion, the specific event. Electronic device characterized in that it is determined that the occurrence.
  15. 제12항에 있어서,The method of claim 12,
    상기 제어부는, 상기 차량의 가속도가 제1 값 이하이면, 상기 차량의 이동 속도를 획득하고, 상기 차량의 이동 속도가 일정 시간동안 제2 값 이하를 유지하면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.If the acceleration of the vehicle is equal to or less than a first value, the controller acquires a moving speed of the vehicle, and determines that the specific event has occurred when the moving speed of the vehicle remains below a second value for a predetermined time. An electronic device characterized by the above-mentioned.
  16. 제12항에 있어서,The method of claim 12,
    가속도 센서를 더 포함하고, Further includes an acceleration sensor,
    상기 제어부는 상기 가속도 센서를 이용하여 상기 차량의 가속도를 획득하는 것을 특징으로 하는 전자 기기. And the control unit acquires the acceleration of the vehicle using the acceleration sensor.
  17. 제12항에 있어서,The method of claim 12,
    상기 제어부는, 상기 위치 데이터 모듈을 통해 획득되는 위치 데이터를 이용하여 상기 차량의 가속도를 획득하는 것을 특징으로 하는 전자 기기. The controller is configured to obtain the acceleration of the vehicle using the position data acquired through the position data module.
  18. 제1항에 있어서,The method of claim 1,
    외부로부터의 충격량을 획득하는 센싱부를 더 포함하고, Further comprising a sensing unit for obtaining the impact amount from the outside,
    상기 제어부는 상기 충격량을 토대로 상기 특정 이벤트의 발생 여부를 판단하는 것을 특징으로 하는 전자 기기. The controller determines whether the specific event occurs based on the shock amount.
  19. 제18항에 있어서,The method of claim 18,
    상기 제어부는, 상기 충격량의 변화량이 기 설정된 값 이상이면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. The controller determines that the specific event occurs when the amount of change in the amount of impact is equal to or greater than a preset value.
  20. 제1항에 있어서,The method of claim 1,
    상기 제어부는 상기 차량의 주행 영상을 획득하고, 상기 주행 영상을 분석하여 상기 특정 이벤트의 발생 여부를 판단하는 것을 특징으로 하는 전자 기기. The controller acquires a driving image of the vehicle and analyzes the driving image to determine whether the specific event has occurred.
  21. 제20항에 있어서,The method of claim 20,
    상기 제어부는, 상기 주행 영상 내에 특정 객체가 포함된 경우, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. The controller determines that the specific event occurs when a specific object is included in the driving image.
  22. 제20항에 있어서,The method of claim 20,
    상기 제어부는, 상기 주행 영상으로부터 추출되는 적어도 하나의 객체를 토대로 상기 차량이 주행 중인 도로의 교통 흐름 상태를 획득하고, 상기 획득한 교통 흐름 상태를 토대로 상기 특정 이벤트의 발생을 판단하는 것을 특징으로 하는 전자 기기. The controller may be configured to acquire a traffic flow state of a road on which the vehicle is driving based on at least one object extracted from the driving image, and determine occurrence of the specific event based on the obtained traffic flow state. Electronics.
  23. 제20항에 있어서,The method of claim 20,
    상기 차량의 주행 영상을 획득하는 적어도 하나의 카메라를 더 포함하는 전자 기기. And at least one camera for obtaining a driving image of the vehicle.
  24. 제20항에 있어서,The method of claim 20,
    상기 차량의 주행 영상은, 상기 통신부를 통해 연결되는 적어도 하나의 외부 카메라 또는 차량용 블랙박스로부터 수신되는 것을 특징으로 하는 전자 기기. The driving image of the vehicle is received from at least one external camera or a vehicle black box connected through the communication unit.
  25. 제1항에 있어서,The method of claim 1,
    상기 통신부는 외부 전자 기기와 연결하며, The communication unit is connected to an external electronic device,
    상기 제어부는, 상기 외부 전자 기기로부터 특정 키 데이터가 수신되면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기. The controller determines that the specific event has occurred when specific key data is received from the external electronic device.
  26. 제25항에 있어서,The method of claim 25,
    상기 특정 키 데이터는 상기 외부 전자 기기의 특정 키가 조작됨에 따라 수신되며, The specific key data is received as a specific key of the external electronic device is operated.
    상기 제어부는, 상기 외부 전자 기기와의 통신을 통해 상기 특정 키를 상기 컨텐츠의 자동 생성과 관련된 단축 키로 등록하는 것을 특징으로 하는 전자 기기. And the control unit registers the specific key as a shortcut key associated with automatic generation of the content through communication with the external electronic device.
  27. 제1항에 있어서,The method of claim 1,
    서로 다른 이벤트가 대응되어 있는 복수의 텍스트를 저장하는 저장부를 더 포함하고, The apparatus may further include a storage configured to store a plurality of texts corresponding to different events.
    상기 제어부는, 상기 특정 이벤트가 발생하면, 상기 복수의 텍스트 중 상기 특정 이벤트에 대응하는 텍스트를 이용하여 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기. The controller, when the specific event occurs, generates the content using text corresponding to the specific event among the plurality of texts.
  28. 제1항에 있어서,The method of claim 1,
    마이크를 더 포함하고, Further includes a microphone,
    상기 제어부는, 상기 특정 이벤트가 발생하면, 상기 마이크를 통해 입력되는 오디오를 이용하여 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기. The controller generates the content using the audio input through the microphone when the specific event occurs.
  29. 제1항에 있어서,The method of claim 1,
    상기 제어부는 상기 특정 이벤트가 발생하면, 상기 차량의 주행 영상을 획득하고, 상기 획득한 차량의 주행 영상을 이용하여 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기.The controller is configured to obtain a driving image of the vehicle when the specific event occurs, and generate the content using the acquired driving image of the vehicle.
  30. 제29항에 있어서,The method of claim 29,
    상기 제어부는, 상기 특정 이벤트가 발생하면, 기 설정된 시간 동안 상기 차량의 주행 영상을 획득하고, 상기 획득한 차량의 주행 영상을 토대로 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기. The controller, when the specific event occurs, obtains the driving image of the vehicle for a predetermined time, and generates the content based on the acquired driving image of the vehicle.
  31. 제29항에 있어서,The method of claim 29,
    상기 제어부는, 상기 특정 이벤트가 발생하면, 상기 특정 이벤트가 발생한 시점이전에 획득된 상기 차량의 주행 영상을 토대로 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기.The controller, when the specific event occurs, generates the content based on a driving image of the vehicle obtained before the time when the specific event occurs.
  32. 제1항에 있어서,The method of claim 1,
    디스플레이 모듈을 더 포함하고, Further comprising a display module,
    상기 제어부는, 상기 컨텐츠를 상기 서버로 전송하면, 상기 컨텐츠의 전송을 알리는 안내 정보를 상기 디스플레이 모듈을 통해 표시하는 것을 특징으로 하는 전자 기기. The controller, if the content is transmitted to the server, the electronic device, characterized in that to display the guide information for transmitting the content via the display module.
  33. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 인증 정보를 상기 서버로 전송하고, 상기 서버에 의해 상기 인증 정보를 이용한 사용자 인증이 완료되면, 상기 통신부를 통해 상기 서버에 연결하는 것을 특징으로 하는 전자 기기. The controller transmits authentication information to the server, and when the user authentication using the authentication information is completed by the server, the controller connects to the server through the communication unit.
  34. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 상기 위치 데이터 모듈을 통해 수신되는 위치 데이터에 대한 맵 매칭을 수행하여 상기 차량의 위치를 획득하는 것을 특징으로 하는 전자 기기. And the controller is configured to acquire a location of the vehicle by performing map matching on the location data received through the location data module.
  35. 위치 데이터 모듈;Location data module;
    네트워크 형성을 지원하는 서버와 연결하는 통신부; 및A communication unit connecting to a server supporting network formation; And
    상기 위치 데이터 모듈을 통해 차량의 위치를 획득하며, 상기 차량의 위치를 토대로 선택된 적어도 하나의 타 전자 기기와 네트워크를 형성하며, 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련하여 획득한 컨텐츠를 상기 적어도 하나의 타 전자 기기로 전송하는 제어부Acquires a location of the vehicle through the location data module, forms a network with at least one other electronic device selected based on the location of the vehicle, and, when a specific event occurs, acquires content acquired in connection with the specific event. Control unit for transmitting to one other electronic device
    를 포함하는 전자 기기. Electronic device comprising a.
  36. 제35항에 있어서, 36. The method of claim 35 wherein
    상기 네트워크는 복수의 전자 기기로 구성되며, 상기 복수의 전자 기기는 상기 복수의 전자 기기 각각의 위치를 토대로 갱신되는 것을 특징으로 하는 전자 기기. And said network is comprised of a plurality of electronic devices, said plurality of electronic devices being updated based on positions of each of said plurality of electronic devices.
  37. 적어도 하나의 전자 기기의 컨텐츠를 수집 및 제공하는 서버와 연결하는 단계;Connecting to a server that collects and provides content of at least one electronic device;
    차량의 위치를 획득하는 단계; Obtaining a location of the vehicle;
    특정 이벤트가 발생하면, 상기 특정 이벤트와 관련된 컨텐츠를 자동으로 획득하는 단계; 및Automatically acquiring content related to the specific event when a specific event occurs; And
    상기 획득한 컨텐츠를 상기 서버로 전송하는 단계Transmitting the obtained content to the server
    를 포함하는 전자 기기의 제어 방법. Control method of an electronic device comprising a.
  38. 제37항에 있어서, The method of claim 37,
    상기 차량의 위치를 토대로, 상기 차량이 특정 위치에 진입하면, 상기 특정 이벤트가 발생한 것으로 판단하는 단계를 더 포함하는 전자 기기의 제어 방법. And determining that the specific event has occurred when the vehicle enters a specific location based on the location of the vehicle.
  39. 제37항에 있어서,The method of claim 37,
    교통 정보를 수신하는 단계; 및Receiving traffic information; And
    상기 수신되는 교통 정보와 상기 차량의 위치를 토대로, 상기 특정 이벤트의 발생 여부를 판단하는 단계를 더 포함하는 전자 기기의 제어 방법. And determining whether or not the specific event occurs based on the received traffic information and the location of the vehicle.
  40. 제37항에 있어서, The method of claim 37,
    상기 차량의 가속도를 토대로 상기 특정 이벤트의 발생 여부를 판단하는 단계를 더 포함하는 전자 기기의 제어 방법. And determining whether the specific event occurs based on the acceleration of the vehicle.
  41. 제37항에 있어서,The method of claim 37,
    상기 차량에 대한 외부로부터의 충격량을 획득하는 단계; 및Acquiring an impact amount from the outside on the vehicle; And
    상기 충격량을 토대로 상기 특정 이벤트의 발생 여부를 판단하는 단계를 더 포함하는 전자 기기의 제어 방법. And determining whether the specific event has occurred based on the impact amount.
  42. 제37항에 있어서,The method of claim 37,
    상기 차량의 주행 영상을 획득하는 단계; 및Acquiring a driving image of the vehicle; And
    상기 주행 영상을 분석하여 상기 특정 이벤트의 발생 여부를 판단하는 단계를 더 포함하는 전자 기기의 제어 방법. And analyzing the driving image to determine whether the specific event has occurred.
  43. 제37항 내지 제42항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체. 43. A computer readable recording medium having recorded thereon a program for performing the method of any one of claims 37-42.
PCT/KR2012/001491 2011-03-02 2012-02-28 Electronic device and method for controlling electronic device WO2012118320A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110018546A KR101451765B1 (en) 2011-03-02 2011-03-02 Electronic device and control method of electronic device
KR10-2011-0018546 2011-03-02

Publications (2)

Publication Number Publication Date
WO2012118320A2 true WO2012118320A2 (en) 2012-09-07
WO2012118320A3 WO2012118320A3 (en) 2012-12-20

Family

ID=46758371

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/001491 WO2012118320A2 (en) 2011-03-02 2012-02-28 Electronic device and method for controlling electronic device

Country Status (2)

Country Link
KR (1) KR101451765B1 (en)
WO (1) WO2012118320A2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102219268B1 (en) * 2014-11-26 2021-02-24 한국전자통신연구원 Navigation System Cooperating Routes of Explorer and Controlling Method Thereof
WO2016130719A2 (en) * 2015-02-10 2016-08-18 Amnon Shashua Sparse map for autonomous vehicle navigation
KR102464898B1 (en) * 2016-01-05 2022-11-09 삼성전자주식회사 Method and apparatus for sharing video information associated with a vihicle
CN105679064A (en) * 2016-03-25 2016-06-15 北京新能源汽车股份有限公司 Vehicle-mounted terminal and system for road condition monitoring and automobile
KR102297801B1 (en) * 2019-12-11 2021-09-03 (주)케이웍스 System and Method for Detecting Dangerous Road Condition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050108393A (en) * 2003-03-14 2005-11-16 가부시키가이샤 나비타이무쟈판 Navigation device, navigation system, navigation method, and program
KR20090049956A (en) * 2007-11-14 2009-05-19 (주)컨버전스스퀘어 Terminal and method of displaying information of contents
KR100926681B1 (en) * 2007-08-29 2009-11-17 주식회사 아이리버 Navigation information provision system and method
JP2009276081A (en) * 2008-05-12 2009-11-26 Sony Corp Navigation device and information providing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090104299A (en) * 2008-03-31 2009-10-06 유종태 Vehicle Black Box
KR101019915B1 (en) 2010-03-05 2011-03-08 팅크웨어(주) Server, navigation system, navigation for vehicle and video providing method of navigation for vehicel

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050108393A (en) * 2003-03-14 2005-11-16 가부시키가이샤 나비타이무쟈판 Navigation device, navigation system, navigation method, and program
KR100926681B1 (en) * 2007-08-29 2009-11-17 주식회사 아이리버 Navigation information provision system and method
KR20090049956A (en) * 2007-11-14 2009-05-19 (주)컨버전스스퀘어 Terminal and method of displaying information of contents
JP2009276081A (en) * 2008-05-12 2009-11-26 Sony Corp Navigation device and information providing method

Also Published As

Publication number Publication date
KR20120099981A (en) 2012-09-12
WO2012118320A3 (en) 2012-12-20
KR101451765B1 (en) 2014-10-20

Similar Documents

Publication Publication Date Title
WO2019168297A1 (en) Method of providing detailed map data and system therefor
WO2014142502A2 (en) Navigation system with dynamic update mechanism and method of operation thereof
WO2017183920A1 (en) Control device for vehicle
WO2014189200A1 (en) Image display apparatus and operating method of image display apparatus
EP3679445A1 (en) Method of planning traveling path and electronic device therefor
WO2014027785A1 (en) Schedule management method, schedule management server, and mobile terminal using the method
WO2014038809A1 (en) Electronic device and method for controlling the same
WO2011055978A2 (en) User terminal, method for providing position and method for guiding route thereof
WO2012118320A2 (en) Electronic device and method for controlling electronic device
WO2012043982A2 (en) Mobile terminal and control method thereof
WO2014017764A1 (en) Information providing method, and device and system for same
WO2015119371A1 (en) Device and method for providing poi information using poi grouping
WO2016048103A1 (en) Device and method for providing content to user
WO2012020929A2 (en) Apparatus and method for displaying a point of interest
WO2016186355A1 (en) Display device and operation method therefor
WO2011093560A1 (en) Information display apparatus and method thereof
WO2019147018A1 (en) Method of receiving map and server apparatus therefor
WO2017095207A1 (en) User terminal and control method thereof
WO2021172642A1 (en) Artificial intelligence device for providing device control function based on interworking between devices and method therefor
WO2019066401A1 (en) Electronic device and geofence management method thereof
WO2016114437A1 (en) Mobile terminal and control method therefor
WO2020130485A1 (en) Electronic device and method for providing v2x service using same
WO2019107782A1 (en) System, server and method for information provision
WO2020138760A1 (en) Electronic device and control method thereof
WO2017183888A2 (en) Positioning method and apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12752100

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase in:

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 03.01.2014)

122 Ep: pct application non-entry in european phase

Ref document number: 12752100

Country of ref document: EP

Kind code of ref document: A2