KR20120107317A - Electronic deivice and method for obtaining drive video and server and method for providing dirve video - Google Patents

Electronic deivice and method for obtaining drive video and server and method for providing dirve video Download PDF

Info

Publication number
KR20120107317A
KR20120107317A KR1020110024945A KR20110024945A KR20120107317A KR 20120107317 A KR20120107317 A KR 20120107317A KR 1020110024945 A KR1020110024945 A KR 1020110024945A KR 20110024945 A KR20110024945 A KR 20110024945A KR 20120107317 A KR20120107317 A KR 20120107317A
Authority
KR
South Korea
Prior art keywords
electronic device
driving image
information
section
specific
Prior art date
Application number
KR1020110024945A
Other languages
Korean (ko)
Other versions
KR101451768B1 (en
Inventor
이해일
조창빈
김진영
우승완
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020110024945A priority Critical patent/KR101451768B1/en
Publication of KR20120107317A publication Critical patent/KR20120107317A/en
Application granted granted Critical
Publication of KR101451768B1 publication Critical patent/KR101451768B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D41/00Fittings for identifying vehicles in case of collision; Fittings for marking or recording collision areas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

PURPOSE: An electronic device and a method for obtaining a driving video, and a server and a method for providing the driving video are provided to automatically provide the driving video collected in the electronic device to another electronic device through a social network. CONSTITUTION: A navigation device records a driving video using an image acquisition module(S100). A specific event is generated(S110). The driving video taken in a specific section is stored in a storage(S120). Traffic information is transmitted to an external device using a social network service(S130). [Reference numerals] (AA) Start; (BB) End; (S100) Taking a photograph of a travelling image; (S110) Generating a predetermined event; (S120) Storing the travelling image taken in a specific section including an event generating point; (S130) Transmitting a traffic content including the travelling image and travelling image related information to an external device

Description

주행 영상 획득을 위한 전자 기기 및 전자 기기의 주행 영상 획득 방법 및 주행 영상 제공을 위한 서버 및 서버의 주행 영상 제공 방법{ELECTRONIC DEIVICE AND METHOD FOR OBTAINING DRIVE VIDEO AND SERVER AND METHOD FOR PROVIDING DIRVE VIDEO}ELECTRONIC DEIVICE AND METHOD FOR OBTAINING DRIVE VIDEO AND SERVER AND METHOD FOR PROVIDING DIRVE VIDEO}

본 발명은 소셜 네트워크(Social Network)를 통해서 정보를 수집하여 사용자에게 제공하기 위한 시스템에 관한 것이다. 상세하게는 이벤트 발생에 따라서 주행 영상을 자동으로 획득할 수 있는 전자 기기 및 전자 기기의 주행 영상 획득 방법, 그리고 자동으로 획득된 영상을 수집하여 다른 전자 기기로 제공할 수 있는 서버 및 서버의 주행 영상 제공 방법에 관한 것이다.The present invention relates to a system for collecting and providing information to a user through a social network. In detail, an electronic device capable of automatically acquiring a driving image according to an occurrence of an event, a driving image acquisition method of the electronic device, and a driving image of a server and a server capable of collecting and automatically providing the acquired image to another electronic device It is about a provision method.

인터넷 망이 개방되고 위치정보와 관련된 법률이 제정됨에 따라, 위치 기반 서비스(Location Based Service; LBS)의 산업이 활성화 되고 있다. 이러한 위치 기반 서비스의 하나로써, 단말기의 현재위치를 측위하고 이에 나아가 목적지까지의 이동 경로를 파악하여 안내해주는 내비게이션 장치 산업 또한 급격히 활성화되고 있는 상황이다. 이에 따라, 내비게이션 장치기에 대한 연구가 활발히 이루어지고 있는 실정이다.With the opening of the Internet network and the enactment of laws relating to location information, the industry of location based services (LBS) is being activated. As one of such location-based services, the navigation device industry, which locates and guides the current location of the terminal and moves to the destination, is also rapidly being activated. Accordingly, research on the navigation device is being actively conducted.

나아가, 무선 인터넷 통신 환경이 구축되며, 이러한 환경 하에서 보급되고 있는 각 종 무선 통신형 단말기를 통해 언제 어디서든지 손쉽게 다양한 정보에 억세스할 수 있게 되면서, 더욱 신속하게, 더욱 재미있게 정보를 수집하고 활용할 수 있는 방법에 대한 다양한 연구가 진행되고 있다.In addition, a wireless Internet communication environment is established, and various types of wireless communication terminals that are spread under such an environment can easily access various information anytime, anywhere, and can collect and utilize information more quickly and more fun. Various studies on the method are in progress.

내비게이션 장치기 분야에서도, 실시간 교통정보를 제공하기 위한 다양한 방법에 대한 연구가 이미 활발하게 진행되고 있으나, 이러한 정보들은 대부분 일정 시간이 지연된 후의 정보이거나, 내가 원하지 않는 지역에 대한 교통정보를 함께 수신해야 하는 점들 때문에, 정보 송수신의 신속성 내지는 정보 송수신의 효율성에 있어 문제점이 있었다.In the field of navigation devices, studies on various methods for providing real-time traffic information have been actively conducted. However, most of these information are information after a certain time delay or need to receive traffic information for areas I do not want. Due to the points, there is a problem in the speed of information transmission and reception or the efficiency of information transmission and reception.

본 발명이 이루고자 하는 기술적 과제는 이벤트 발생에 따라서 주행 영상을 자동으로 획특하여 소셜 네트워크로 전송할 수 있는 전자 기기 및 전자 기기의 주행 영상 획득 방법을 제공하는 것이다.An object of the present invention is to provide an electronic device capable of automatically capturing a driving image according to an occurrence of an event and transmitting the same to a social network, and a method of obtaining a driving image of the electronic device.

본 발명이 이루고자 하는 다른 기술적 과제는 소셜 네트워크를 통해서 수집되는 주행 영상을 전자 기기로 제공할 수 있는 서버 및 서버의 주행 영상 제공 방법을 제공하는 것에 있다.Another object of the present invention is to provide a server capable of providing a driving image collected through a social network to an electronic device and a driving image providing method of the server.

상기 기술적 과제를 해결하기 위한 본 발명의 실시예에 따른 전자 기기는 통신부, 카메라, 및 제어부를 포함할 수 있다. 상기 통신부는 외부와 네트워크를 형성할 수 있다. 상기 카메라는 주행 영상을 획득할 수 있다. 상기 제어부는 이벤트 발생한 경우, 상기 미리 설정된 이벤트의 발생 지점을 포함하는 특정 구간에서 획득된 주행 영상 및 상기 특정 구간에서 촬영된 주행 영상과 관련된 교통 콘텐츠를 외부 기기로 전송할 수 있다.An electronic device according to an embodiment of the present invention for solving the technical problem may include a communication unit, a camera, and a control unit. The communication unit may form a network with the outside. The camera may acquire a driving image. When an event occurs, the controller may transmit the driving image acquired in a specific section including the occurrence point of the preset event and the traffic content related to the driving image photographed in the specific section to an external device.

상기 기술적 과제를 해결하기 위한 본 발명의 실시예에 따른 서버는 통신부, 데이터베이스, 및 제어부를 포함할 수 있다. 상기 통신부는 복수의 제1 전자 기기 및 제2 전자 기기와 네트워크를 형성할 수 있다. 상기 데이터베이스는 상기 복수의 제1 전자 기기로부터 수신되는 주행 영상 및 상기 수신된 주행 영상과 관련된 정보를 저장할 수 있다. 상기 제어부는 상기 주행 영상 중, 상기 제2 전자 기기로부터 수신된 위치 기반의 검색 팩터에 부합되는 주행 영상을 검색하며, 상기 검색된 주행 영상 및 상기 검색된 주행 영상과 관련된 교통 콘텐츠를 상기 제2 전자 기기로 전송할 수 있다.The server according to an embodiment of the present invention for solving the technical problem may include a communication unit, a database, and a control unit. The communication unit may form a network with a plurality of first electronic devices and second electronic devices. The database may store driving images received from the plurality of first electronic devices and information related to the received driving images. The controller searches for a driving image corresponding to a location-based search factor received from the second electronic device, and transmits the searched driving image and traffic content related to the found driving image to the second electronic device. Can transmit

상기 기술적 과제를 해결하기 위한 전자 기기의 주행 영상 획득 방법은 외부와 네트워크를 형성하는 단계; 주행 영상을 획득하는 단계; 및 이벤트 발생할 경우, 상기 이벤트의 발생 지점을 포함하는 특정 구간에서 촬영된 주행 영상 및 상기 특정 구간에서 획득된 주행 영상과 관련된 교통 콘텐츠를 외부 기기로 전송하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a driving image acquisition method of an electronic device, the method including: forming a network with an outside; Obtaining a driving image; And when the event occurs, transmitting the driving image photographed in the specific section including the occurrence point of the event and the traffic content related to the driving image acquired in the specific section to an external device.

상기 기술적 과제를 해결하기 위한 서버의 주행 영상 제공 방법은 복수의 제1 전자 기기 및 제2 전자 기기와 네트워크를 형성하는 단계; 상기 복수의 제1 전자 기기로부터 수신되는 주행 영상 및 상기 수신된 주행 영상과 관련된 정보를 저장하는 단계; 상기 주행 영상 중, 상기 제2 전자 기기로부터 수신되는 위치 기반의 검색 팩터에 부합되는 주행 영상을 검색하는 단계; 및 상기 검색된 주행 영상 및 상기 검색된 주행 영상과 관련된 교통 콘텐츠를 상기 제2 전자 기기로 전송하는 단계를 포함할 수 있다.The driving image providing method of the server for solving the technical problem comprises the steps of forming a network with a plurality of first and second electronic devices; Storing driving images received from the plurality of first electronic devices and information related to the received driving images; Searching for a driving image corresponding to a location-based search factor received from the second electronic device, from the driving image; And transmitting the found driving image and traffic content related to the found driving image to the second electronic device.

상술한 본 발명의 실시예에 따른 전자 기기의 주행 영상 획득 방법은 컴퓨터로 읽을 수 있는 기록 매체에 저장된 상기 전자 기기의 주행 영상 획득 방법을 실행하기 위한 프로그램을 실행함으로써 구현될 수 있다. 또한, 상술한 본 발명의 실시예에 따른 서버의 주행 영상 제공 방법은 컴퓨터로 읽을 수 있는 기록 매체에 저장된 상기 서버의 주행 영상 제공 방법을 실행하기 위한 프로그램을 실행함으로써 구현될 수 있다.The driving image acquisition method of the electronic device according to the embodiment of the present invention described above may be implemented by executing a program for executing the driving image acquisition method of the electronic device stored in a computer-readable recording medium. In addition, the driving image providing method of the server according to the embodiment of the present invention described above may be implemented by executing a program for executing the driving image providing method of the server stored in a computer-readable recording medium.

본 발명에 의하면, 다음과 같은 효과가 있다.According to the present invention, the following effects are obtained.

본 발명의 실시예에 따른 전자 장치 및 전자 기기의 주행 영상 획득 방법에 따르면, 이벤트가 발생할 경우 상기 전자 기기에서 수집되는 주행 영상이 소셜 네트워크를 통하여 다른 전자 기기로 자동으로 제공될 수 있다.According to an electronic device and a driving image acquisition method of an electronic device according to an embodiment of the present disclosure, when an event occurs, the driving image collected by the electronic device may be automatically provided to another electronic device through a social network.

또한, 본 발명의 실시예에 따른 서버, 서버의 주행 영상 제공 방법에 따르면, 사용자는 다른 사용자들이 제공한 주행 영상 중에서 자신이 원하는 주행 영상을 맞춤형으로 제공받을 수 있다.In addition, according to the server and the driving image providing method of the server according to an embodiment of the present invention, the user may be tailored to the driving image desired by the user among the driving images provided by other users.

도 1은 본 발명의 실시 예들과 관련된 내비게이션 장치 시스템을 포함하는 통신망의 구성도이다.
도 2는 본 발명의 일 실시예에 의한 정보 제공 시스템을 설명하기 위한 구성도이다.
도 3은 본 발명의 일 실시예들과 관련되는 소셜 네트워크를 설명하기 위한 개념도이다.
도 4는 본 발명의 일 실시예에 관련된 내비게이션 장치의 구성을 도시한 블록 구성도이다.
도 5는 본 발명의 일 실시예에 관련된 서버의 구성을 도시한 블록 구성도이다.
도 6은 본 발명의 실시예에 따른 전자 기기의 주행 영상 획득 방법을 설명하기 위한 흐름도이다.
도 7a는 도 6에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 촬영된 주행 영상을 전송하는 과정을 나타낸다.
도 7b는 도 6에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 외부 기기로 제공된 주행 영상이, 상기 외부 기기에 표시된 것을 나타낸다.
도 8은 도 6에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 촬영된 주행 영상과 함께 SNS 네트워크로 전송되는 정보를 나타낸다.
도 9a는 본 발명의 다른 실시예에 따른 전자 기기의 주행 영상 획득 방법을 나타내는 흐름도이다.
도 9b는 도 9a에 도시된 전자 기기의 주행 영상 획득 방법의 일예를 나타내는 흐름도이다.
도 9c는 도 9a에 도시된 전자 기기의 주행 영상 획득 방법의 다른 예를 나타내는 흐름도이다.
도 10은 도 9a에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 과정을 나타내는 개념도이다.
도 11은 본 발명의 또 다른 실시예에 따른 전자 기기의 주행 영상 획득 방법을 나타내는 흐름도이다.
도 12는 도 11에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 과정을 나타내는 개념도이다.
도 13은 본 발명의 또 다른 실시예에 따른 전자 기기의 주행 영상 획득 방법을 나타내는 흐름도이다.
도 14는 도 13에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 일예를 나타내는 개념도이다.
도 15는 도 13에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 조건의 일예를 나타낸다.
도 16은 도 13에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 과정의 다른 예를 개념적으로 나타낸 것이다.
도 17은 본 발명의 또 다른 실시예에 따른 전자 기기의 주행 영상 획득 방법을 나타내는 흐름도이다.
도 18은 도 17에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 수행되는 영상 분석 결과의 예들을 나타낸다.
도 19는 본 발명의 실시예에 따른 서버의 주행 영상 제공 방법을 설명하기 위한 흐름도이다.
도 20은 본 발명의 다른 실시예에 따른 서버의 주행 영상 제공 방법을 나타내는 흐름도이다.
도 21은 도 20에 도시된 서버의 주행 영상 제공 방법의 수행 결과, 주행 영상이 전자 기기에 표시된 일예를 나타낸다.
도 22는 도 20에 도시된 서버의 주행 영상 제공 방법의 수행 결과, 주행 영상이 전자 기기에 표시된 다른 예를 나타낸다.
도 23은 도 20에 도시된 서버의 주행 영상 제공 방법의 수행 결과, 주행 영상이 전자 기기에 표시된 또 다른 예를 나타낸다.
도 24는 본 발명의 다른 실시예에 따른 서버의 주행 영상 제공 방법을 나타내는 흐름도이다.
도 25는 도 24에 도시된 서버의 주행 영상 제공 방법에서 주행 영상의 검색 조건을 설명하기 위한 도면이다.
도 26은 본 발명의 또 다른 실시예에 따른 서버의 주행 영상 제공 방법을 나타내는 흐름도이다.
도 27은 도 26에 도시된 서버의 주행 영상 제공 방법에서 주행 영상의 검색 조건을 설명하기 위한 도면이다.
1 is a block diagram of a communication network including a navigation device system according to embodiments of the present invention.
2 is a configuration diagram illustrating an information providing system according to an exemplary embodiment of the present invention.
3 is a conceptual diagram illustrating a social network related to one embodiment of the present invention.
4 is a block diagram showing the configuration of a navigation device according to an embodiment of the present invention.
5 is a block diagram showing the configuration of a server according to an embodiment of the present invention.
6 is a flowchart illustrating a driving image acquisition method of an electronic device according to an embodiment of the present invention.
FIG. 7A illustrates a process of transmitting a driving image photographed according to the driving image acquisition method of the electronic device illustrated in FIG. 6.
FIG. 7B illustrates that the driving image provided to the external device is displayed on the external device according to the driving image acquisition method of the electronic device shown in FIG. 6.
FIG. 8 illustrates information transmitted to an SNS network together with a driving image photographed according to the driving image acquisition method of the electronic device illustrated in FIG. 6.
9A is a flowchart illustrating a driving image acquisition method of an electronic device according to another embodiment of the present invention.
FIG. 9B is a flowchart illustrating an example of a driving image acquisition method of the electronic device illustrated in FIG. 9A.
FIG. 9C is a flowchart illustrating another example of a driving image acquisition method of the electronic device illustrated in FIG. 9A.
FIG. 10 is a conceptual diagram illustrating a process of acquiring a driving image according to the driving image obtaining method of the electronic device illustrated in FIG. 9A.
11 is a flowchart illustrating a driving image acquisition method of an electronic device according to another embodiment of the present invention.
FIG. 12 is a conceptual diagram illustrating a process of acquiring a driving image according to the driving image obtaining method of the electronic device illustrated in FIG. 11.
13 is a flowchart illustrating a driving image acquisition method of an electronic device according to another embodiment of the present invention.
FIG. 14 is a conceptual diagram illustrating an example in which a driving image is acquired according to the driving image obtaining method of the electronic device illustrated in FIG. 13.
FIG. 15 illustrates an example of a condition that a driving image is acquired according to the driving image acquisition method of the electronic device illustrated in FIG. 13.
FIG. 16 conceptually illustrates another example of a process of acquiring a driving image according to the driving image obtaining method of the electronic device illustrated in FIG. 13.
17 is a flowchart illustrating a method of acquiring a traveling image of an electronic device according to another embodiment of the present invention.
FIG. 18 illustrates examples of image analysis results performed according to the driving image acquisition method of the electronic device illustrated in FIG. 17.
19 is a flowchart illustrating a driving image providing method of a server according to an exemplary embodiment of the present invention.
20 is a flowchart illustrating a driving image providing method of a server according to another exemplary embodiment of the present invention.
FIG. 21 illustrates an example in which the driving image is displayed on the electronic device as a result of performing the driving image providing method of the server illustrated in FIG. 20.
FIG. 22 illustrates another example in which the driving image is displayed on the electronic device as a result of performing the driving image providing method of the server illustrated in FIG. 20.
FIG. 23 illustrates another example in which the driving image is displayed on the electronic device as a result of performing the driving image providing method of the server illustrated in FIG. 20.
24 is a flowchart illustrating a driving image providing method of a server according to another exemplary embodiment of the present invention.
FIG. 25 is a diagram for describing a search condition of a driving image in the driving image providing method of the server shown in FIG. 24.
26 is a flowchart illustrating a driving image providing method of a server according to another embodiment of the present invention.
FIG. 27 is a diagram for describing a search condition of a driving image in the driving image providing method of the server shown in FIG. 26.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는 바, 이하에서는 특정 실시 예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 일, 이 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. It is to be understood, however, that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. Like reference numerals designate like elements throughout the specification. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. In addition, the numbers (eg, one, this, etc.) used in the description process of the present specification are merely identification symbols for distinguishing one component from another component.

어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 또는 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffix "module" and " part "for constituent elements used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

최근 트위터(twitter)나 페이스북(facebook)과 같은 소셜 네트워크 서비스(Socisl Network Service)가 주목을 받고 있다. 소셜 네트워크 서비스들은 빠른 정보 파급효과를 지니고 있으며, 특히 소셜 네트워크 서비스들은 정보들이 특정한 인맥관계 또는 사회적 관계를 통해서 형성된 네트워크를 통해서 정보가 전달되는 것에 특징이 있다. 이러한 소셜 네트워크 서비스의 사용은 무선 데이터 통신망의 구축 및 스마트폰(smart phone)과 같은 무선 통신 단말들의 보급 확산과 함께 신속한 정보의 전달 및 여론 형성력 때문에, 사회의 각계 각층에서 정보의 공유를 위하여, 빠른 속도로 확산되고 있다.Recently, social network services such as twitter and facebook have attracted attention. Social network services have a rapid information ripple effect, and in particular, social network services are characterized in that information is transmitted through a network in which information is formed through a specific social or social relationship. The use of such social network services is fast for the sharing of information in all walks of society, due to the rapid delivery of information and public opinion formation with the establishment of wireless data communication networks and the spread of wireless communication terminals such as smart phones. It is spreading at a speed.

본 발명에 의해 개시되는 실시예들에 의하면, 현재 보급되어 있는 소셜 네트워크 서비스와 동일 또는 유사한 형태를 가지는 소셜 네트워크를 통하여 각종 교통정보, 관심정보 등을 수집하고, 이를 정보가 필요한 사용자(또는 사용자의 단말기)에 전송하여 줄 수 있게 될 것이다.According to the embodiments disclosed by the present invention, a variety of traffic information, interest information, etc. are collected through a social network having the same or similar form as a currently distributed social network service, and the user (or user's) who needs the information is collected. To the terminal).

이하에서는, 기존의 소셜 네트워크 서비스와 본 발명에 의해 구축되는 소셜 네트워크의 차이점을 명확히 하고, 그에 따라 수집된 정보가 어떻게 정보가 필요한 전자 기기로 정확하게 전송될 수 있는 지를 중심으로 본 발명에 대해 구체적으로 설명하기로 한다. 한편, 본 명세서에서 설명되는 전자 기기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등의 이동 단말기를 포함하는 각종 전자 기기가 포함될 수 있으나, 본 명세서에서는 내비게이션 장치을 통하여 본 발명의 기술적 사상을 구현한 실시예들을 살펴 본다.Hereinafter, the present invention will be clarified the difference between the existing social network service and the social network constructed by the present invention, and the present invention will be described in detail with regard to how the collected information can be accurately transmitted to an electronic device requiring information. Let's explain. Meanwhile, the electronic device described herein includes a mobile terminal such as a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, and the like. Various electronic devices may be included, but the present disclosure looks at embodiments implementing the technical idea of the present invention through a navigation device.

이하, 첨부된 도면들을 참조하여 본 발명에 대하여 상세히 설명하기로 한다Hereinafter, the present invention will be described in detail with reference to the accompanying drawings

도 1 및 도 2는 본 발명의 실시예들과 관련된 시스템 환경을 개락적으로 도시한 개략도이다.1 and 2 are schematic diagrams schematically showing a system environment related to embodiments of the present invention.

본 발명의 실시예들과 관련된 시스템 환경에는 다양한 엔터티(entity)들이 포함될 수 있다. 예를 들어, 내비게이션 장치(navigating electronic device, 100), 인공위성(20), 방송국(30), 각종 다양한 전자 기기(electronic device, 40,30,60,70), 서버(200) 및 네트워크(10) 등이 상기 환경에 포함될 수 있다.Various entities may be included in the system environment associated with embodiments of the present invention. For example, a navigation device 100, a satellite 20, a broadcast station 30, various electronic devices 40, 30, 60, 70, a server 200, and a network 10. And the like may be included in the environment.

내비게이션 장치(navigator, 100)는 내비게이션 장치의 현재 위치를 GPS신호 등에 기반하여 산출하고, 이에 기반하여 목적지까지 갈 수 있는 경로를 안내하는 등의 기능을 수행하는 전자 기기로써, 상기 네트워크(10)를 통해 상기 전자 기기(40,50,60,70)와 무선 또는 유선 방식에 의해 서로 통신할 수 있다. The navigation device 100 is an electronic device that calculates a current location of a navigation device based on a GPS signal and guides a route to a destination based on the GPS signal. The electronic devices 40, 50, 60, and 70 may communicate with each other by a wireless or wired method.

본 명세서에서 내비게이션 장치(100)와 복수의 전자 기기(40,50,60,70) 또는 서버(200)가 상호 통신하는 방식은 제한되지 않는다. 본 문서의 기술적 사상은, 현존하는 전자 기기 간의 모든 무선 통신 방식과 앞으로 등장할 모든 통신 방식에서 적용될 수 있다.In the present specification, a manner in which the navigation device 100 and the plurality of electronic devices 40, 50, 60, 70, or the server 200 communicate with each other is not limited. The technical spirit of this document may be applied to all wireless communication methods between existing electronic devices and all future communication methods.

한편, 본 발명에서 언급되는 내비게이션 장치(100)는 일반적으로 사용되는 차량용 내비게이션 장치를 의미할 수 있으나, 내비게이션 장치기능을 수행하기 위한 어플리케이션(application)이 설치되어 있는 스마트 폰(smart phone) 또는 태블릿 PC(tablet PC) 등과 같이 이동성(휴대성)이 뛰어남과 동시에 다양한 어플리케이션이 설치될 수 있는 고성능 휴대형 전자기기를 포함할 수 있다.Meanwhile, the navigation device 100 referred to in the present invention may mean a vehicle navigation device that is generally used, but a smart phone or a tablet PC having an application installed therein for performing a navigation device function is installed. It may include a high-performance portable electronic device such as (tablet PC) such as excellent mobility (portability) and at the same time can be installed a variety of applications.

한편, 내비게이션 장치(100)는 통신 기능을 가진 다른 전자 기기를 통하여 간접적으로 네트워크(10)에 접속할 수 있으며, 상기 네트워크(10)를 통해 다양한 전자 기기들, 예를 들어, 노트북(notebook, 40), 모바일 폰(mobile phone, 50), 폐쇄회로TV(70, 이하 CCTV(Closed Circuit Television)라 함) 및 서버(200) 등과 접속할 수 있다. 예를 들어, 스마트폰과 같은 전자기기에 의해 제공되는 테더링(tendering) 서비스 등을 이용하여 네트워크(10)에 접속할 수 있으며, 또는 무선으로 네트워크(10)에 접속하기 위한 동글 형태의 전자기기를 통하여 상기 네트워크(10)에 무선으로 접속할 수 있다.Meanwhile, the navigation device 100 may indirectly access the network 10 through another electronic device having a communication function, and various electronic devices, for example, a notebook 40 through the network 10. , A mobile phone 50, a closed circuit TV 70 (hereinafter referred to as a closed circuit television (CCTV)), a server 200, and the like. For example, a dongle type electronic device may be connected to the network 10 by using a tethering service provided by an electronic device such as a smartphone, or wirelessly connected to the network 10. It is possible to wirelessly connect to the network 10 through.

내비게이션 장치(100)는, 인공위성(20)으로부터 수신한 전파신호를 사용하여 현재의 위치를 산출할 수 있다. 각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 내비게이션 장치(100)는, 각각의 인공위성(20)에서 송신된 L밴드 주파수가 내비게이션 장치 시스템(100)에 도달하는데 까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.The navigation device 100 may calculate a current position using a radio wave signal received from the satellite 20. Each satellite 20 may transmit L band frequencies having different frequency bands. The navigation device 100 can calculate the current position based on the time it takes for the L-band frequency transmitted from each satellite 20 to reach the navigation device system 100.

방송국(30)은 상기 네트워크(10) 또는 방송채널을 통하여 각종 정보를 상기 내비게이션 장치(100), 상기 서버(200), 상기 전자 기기들(40,50,60,70)로 전송할 수 있다. 예를 들어, 내비게이션 장치(100)는 방송국(30) 등으로부터 전송되는 방송 콘텐츠를 수신하여 재생할 수 있으며, 이와 함께 전송되는 실시간 교통 정보를 수신할 수도 있다.The broadcasting station 30 may transmit various types of information to the navigation device 100, the server 200, and the electronic devices 40, 50, 60, and 70 through the network 10 or a broadcasting channel. For example, the navigation device 100 may receive and play broadcast content transmitted from the broadcasting station 30 or the like, and may also receive real-time traffic information transmitted with the broadcast content.

상기 노트북(40), 모바일 폰(50), CCTV(70) 등은 다양한 정보를 획득하고, 이를 상기 네트워크(200)를 통해 또는 직접 상기 내비게이션 장치(100)로 전송할 수 있다. 또는 상기 노트북(40), 모바일 폰(50), CCTV(70) 등에 의해 획득된 정보들은 상기 네트워크(200)를 통해 또는 직접 상기 서버(200)로 전송될 수 있다.The notebook 40, the mobile phone 50, the CCTV 70, and the like may acquire various information and transmit the information to the navigation device 100 through the network 200 or directly. Alternatively, the information obtained by the notebook 40, the mobile phone 50, the CCTV 70, or the like may be transmitted through the network 200 or directly to the server 200.

리모트 컨트롤러(60)는 내비게이션 장치(100)의 동작에 필요한 각종 사용자 입력 또는 명령들을 내비게이션 장치(100)로 전송할 수 있다. 이에 따라, 내비게이션 장치(100)는 수신된 사용자 입력 또는 명령들에 대응되는 동작을 수행할 수 있다.The remote controller 60 may transmit various user inputs or commands required for the operation of the navigation device 100 to the navigation device 100. Accordingly, the navigation device 100 may perform an operation corresponding to the received user input or commands.

한편, 본 발명의 일 실시예들에 관련된 시스템 환경에 의하면, 도 2에 도시된 바와 같이, 내비게이션 장치(100)를 포함한 상기 전자 기기들(40,50,60,70)은 정보를 획득하고 전송하는 전송측 전자 기기들로써 동작할 수 있으며, 또는 정보를 수신하고 표시하는 수신측 전자 기기들로써 동작할 수도 있다. 이하에서는, 내비게이션 장치(100)를 포함하는 각종 전자 기기들(40,50,60,70)이 전송측 전자 기기들로써 동작할 때는 제1 전자 기기(300)이라고 언급하고, 수신측 전자 기기들로써 동작할 때는 제2 전자 기기(100)이라고 언급하기로 한다.Meanwhile, according to a system environment related to one embodiment of the present invention, as shown in FIG. 2, the electronic devices 40, 50, 60, and 70 including the navigation device 100 acquire and transmit information. May operate as transmitting side electronic devices, or may act as receiving side electronic devices for receiving and displaying information. Hereinafter, various electronic devices 40, 50, 60, and 70 including the navigation device 100 are referred to as the first electronic device 300 when operating as the transmitting side electronic devices, and operate as the receiving side electronic devices. When referred to as a second electronic device (100).

도 2를 참조하면, 제1 전자 기기(300)는 네트워크(10)를 통해 서버(200) 또는 제2 전자 기기(100)로 정보를 전송할 수 있다. 상기 제1 전자 기기(300)는 도 1에 도시된 노트북(40), 모바일폰(50), CCTV(70) 또는 내비게이션 장치(100)일 수 있다. 상기 제1 전자 기기(300)는 텍스트 정보, 영상 정보, 음향 정보와 같은 다양한 타입의 정보들을 획득할 수 있으며, 획득된 정보는 상기 네트워크(10)를 통해 서버(200)로 전송될 수 있다.Referring to FIG. 2, the first electronic device 300 may transmit information to the server 200 or the second electronic device 100 through the network 10. The first electronic device 300 may be the notebook 40, the mobile phone 50, the CCTV 70, or the navigation device 100 shown in FIG. 1. The first electronic device 300 may obtain various types of information such as text information, image information, and sound information, and the obtained information may be transmitted to the server 200 through the network 10.

특히, 제1 전자 기기(300)로부터 제2 전자 기기(100)로 전송되는 정보는 교통 관련 정보, 특정 관심 위치(이하, POI(point of interest)함)에 대한 정보, 대화 정보(chatting information) 등을 포함할 수 있다.In particular, the information transmitted from the first electronic device 300 to the second electronic device 100 may include traffic related information, information on a specific point of interest (hereinafter referred to as POI), and chat information. And the like.

서버(200)는, 네트워크(10)에 접속하여, 제1 전자 기기(300)로부터 전송되는 정보를 검색, 수신, 분석할 수 있다. 수신된 정보는 상기 서버(200)에 저장될 수 있다.The server 200 may access the network 10 to search, receive, and analyze information transmitted from the first electronic device 300. The received information may be stored in the server 200.

한편, 서버(200)는, 상기 제1 전자 기기(300)의 위치를 계속하여 모니터링할 수 있다. 예를 들어, 상기 제1 전자 기기(300)가 복수인 경우, 상기 제1 전자 기기(300)로부터 위치 정보를 주기적으로 수신하고, 수신된 위치 정보에 기반하여 상기 제1 전자 기기(300)들의 위치를 계속하여 모니터링하고 있을 수 있다.Meanwhile, the server 200 may continuously monitor the location of the first electronic device 300. For example, when there are a plurality of first electronic devices 300, location information is periodically received from the first electronic device 300, and based on the received location information, You may be monitoring your location continuously.

한편, 서버(200)는, 상기 제1 전자 기기(300)의 위치를 모니터링하기 위하여, 상기 제1 전자 기기(300)로부터 위치 정보를 수신하되, 주기적으로 수신하는 대신, 특정 이벤트가 발생하였을 때 상기 제1 전자 기기(300)로부터 위치정보를 획득할 수도 있다.Meanwhile, in order to monitor the location of the first electronic device 300, the server 200 receives location information from the first electronic device 300, but instead of receiving it periodically, when a specific event occurs. Location information may be obtained from the first electronic device 300.

이때, 상기 위치 정보는 상기 서버(200)의 요청에 의해 전송될 수도 있다. 또는, 제1 전자 기기(300)가 미리 정해진 이벤트의 발생을 감지한 경우에, 상기 제1 전자 기기(300)는 서버(200)의 특별한 요청 없이, 상기 제1 전자 기기(300)의 위치 정보를 서버(200)로 전송할 수 있다.In this case, the location information may be transmitted at the request of the server 200. Alternatively, when the first electronic device 300 detects the occurrence of a predetermined event, the first electronic device 300 does not have a special request from the server 200, and the location information of the first electronic device 300 is provided. May be transmitted to the server 200.

서버(200)는, 상기 제2 전자 기기(100)의 위치도 함께 모니터링할 수 있다. 제2 전자 기기(100)의 위치를 모니터링하는 방법은 제1 전자 기기(300)의 위치를 모니터링 하는 방법과 동일하거나 유사하다.The server 200 may also monitor the location of the second electronic device 100. The method of monitoring the location of the second electronic device 100 is the same as or similar to the method of monitoring the location of the first electronic device 300.

제2 전자 기기(100)는, 상기 서버(200)에 조건 정보를 전송할 수 있으며, 서버(200)는 제2 전자 기기(100)로부터 수신된 조건정보를 고려하여, 조건에 부합하는 정보를 제2 전자 기기(100)로 전송할 수 있다. 이에 따라, 상기 제2 전자 기기(100)는 즉, 서버(200)는 제2 전자 기기(100)에 대한 맞춤형 정보를 구성하여 제2 전자 기기(100)로 전송할 수 있다. 제2 전자 기기(100)는, 바람직하게, 본 발명의 실시예에 따른 내비게이션 장치일 수 있다.The second electronic device 100 can transmit the condition information to the server 200 and the server 200 can receive the information conforming to the condition in consideration of the condition information received from the second electronic device 100 2 electronic device 100 according to the present invention. Accordingly, the second electronic device 100, that is, the server 200 may configure customized information about the second electronic device 100 and transmit it to the second electronic device 100. The second electronic device 100 may be a navigation device according to an embodiment of the present invention.

또한, 상기 제2 전자 기기(100)는 상기 서버(200)로 조건 정보 생성을 위한 팩터를 전송할 수 있다. 그러면, 상기 서버(200)는 수신되는 팩터에 기초하여 조건 정보를 생성하고, 생성된 조건 정보에 부합되는 정보를 검색하여 상기 제2 전자 기기(100)로 전송할 수도 있다.In addition, the second electronic device 100 may transmit a factor for generating condition information to the server 200. Then, the server 200 may generate condition information based on the received factor, search for information corresponding to the generated condition information, and transmit it to the second electronic device 100.

상기 네트워크(10)는 다양한 방식에 의해 구현될 수 있다. 예를 들어, 본 발명의 실시예들에 관련된 네트워크는 소셜 네트워크를 포함할 수 있다.The network 10 may be implemented in various ways. For example, a network related to embodiments of the present invention may include a social network.

이하에서는, 본 발명의 일 실시예들에 관련된 소셜 네트워크를 설명하기로 한다.Hereinafter, a social network related to one embodiment of the present invention will be described.

도 3은 본 발명의 일 실시예들과 관련되는 소셜 네트워크를 설명하기 위한 개념도이다.3 is a conceptual diagram illustrating a social network related to one embodiment of the present invention.

소셜 네트워크는, 웹 사이언스의 연구 분야 중 하나로, 웹 상에서 개인 또는 집단이 하나의 노드(node)가 되어 각 노드들 간의 상호의존적인 관계(tie)에 의해 만들어지는 사회적 관계 구조를 말한다. 이때, 모든 노드들은 네트워크 안에 존재하는 개별적인 주체들이고, 타이(tie)는 각 노드들 간의 관계를 뜻한다(이상, 출처는 위키백과).Social network is one of the fields of web science research, and refers to a structure of social relations in which an individual or a group becomes a node on the web and is formed by interdependent relationships between the nodes. In this case, all nodes are individual entities in the network, and a tie means a relationship between each node (the source is Wikipedia).

본 발명에 의한 소셜 네트워크는 제1 노드(node, A)를 중심으로 하여, 제1 노드(A)와 관계(relationship)를 가지는 하나 이상의 제2 노드들(B,C,D,E,F,G,H,I)을 포함하도록 구성될 수 있다.The social network according to the present invention has one or more second nodes B, C, D, E, F, having a relationship with the first node A, centering on the first node A. G, H, I).

상기 제1 및 제2 노드들(A,B,C,D,E,F,G,H,I)은 특정 위치, 특정 도로, 특정 건물, 특정 사용자, 특정 단말 등일 수 있다.The first and second nodes A, B, C, D, E, F, G, H, and I may be a specific location, a specific road, a specific building, a specific user, a specific terminal, or the like.

예를 들어, 상기 제1 노드(A)가 특정 사용자인 경우, 상기 사용자와 관계를 가지고 있는 다른 사용자 또는 단말들은 제2 노드로써 상기 특정 사용자와 함께 상기 소셜 네트워크(10)를 구성할 수 있다.For example, when the first node A is a specific user, other users or terminals having a relationship with the user may configure the social network 10 together with the specific user as a second node.

상기 제1 노드(A)가 특정 도로인 경우, 상기 특정 도로와 관계를 가지고 있는 다른 도로, 건물, 단말 또는 사용자들은 제2 노드로써, 상기 특정 도로와 함께 소셜 네트워크(10)를 구성할 수 있다.When the first node A is a specific road, other roads, buildings, terminals or users having a relationship with the specific road may constitute the social network 10 together with the specific road as a second node. .

상기 제1 노드(A)가 특정 건물인 경우, 상기 특정 건물과 관계를 가지고 있는 다른 건물, 도로, 단말 또는 사용자들은 제2 노드로써, 상기 특정 건물과 함께 소셜 네트워크(10)를 구성할 수 있다.When the first node A is a specific building, other buildings, roads, terminals or users having a relationship with the specific building may constitute the social network 10 together with the specific building as a second node. .

상기 제1 노드(A)가 특정 위치인 경우, 상기 특정 위치와 관계를 가지고 있는 다른 위치, 도로, 건물, 단말 또는 사용자들은 제2 노드로써, 상기 특정 위치와 함께 소셜 네트워크(10)를 구성할 수 있다.When the first node A is a specific location, other locations, roads, buildings, terminals, or users having a relationship with the specific location may constitute the social network 10 together with the specific location. Can be.

본 발명에 의한 소셜 네트워크(10)는 특정 노드를 중심으로 하여 형성되는 것이므로, 특정 노드에 따라 다양한 소셜 네트워크(10)가 구성될 수 있다. 예를 들어, 상기 특정 노드가 "남부순환도로", "스타타워", "강남역", "여의도" 등인 경우, 상기 각 특정 노드들을 중심으로 형성되는 정보 네트워크들(500)은 서로 다를 수 있다.Since the social network 10 according to the present invention is formed around a specific node, various social networks 10 may be configured according to a specific node. For example, when the specific node is "South Ring Road", "Star Tower", "Gangnam Station", "Yeouido", etc., the information networks 500 formed around the specific nodes may be different from each other.

이때, 각 정보 네트워크들(500)은 서로 일치하지 않을 수는 있으나, 하나의 정보 네트워크(10)에 포함되는 다른 노드들 중 일부는 다른 정보 네트워크(10)에도 포함될 수 있다. 예를 들어, "남부순환도로"라는 노드를 중심으로 형성된 네트워크(10)에 사용자A 및 사용자 B가 포함되어 있다고 가정할 때, "스타타워"라는 노드를 중심으로 형성된 네트워크(10)에 사용자 A 및 사용자C가 포함되어 있을 수 있다. 즉, 사용자A라는 노드는 "남부순환도로"를 중심으로 형성된 네트워크와 "스타타워"를 중심으로 형성된 네트워크에 모두 포함되어 있을 수 있다.In this case, the information networks 500 may not coincide with each other, but some of the other nodes included in one information network 10 may also be included in the other information network 10. For example, assuming that user A and user B are included in a network 10 formed around a node named "Southbound circulation road", user A is located in a network 10 formed around a node called "star tower". And User C may be included. In other words, the user A node may be included in both the network formed around the "South circulation road" and the network formed around the "star tower."

이때, 상기 노드들(A,B,C,D,E,F,G,H,I)은, 바람직하게는, 그에 대응되는 위치 속성을 가지고 있을 수 있다. 예를 들어, 상기 노드들이 특정 위치, 특정 도로 특정 건물 등인 경우, 상기 특정 위치, 특정 도로 및 특정 건물 등의 위치가 상기 노드에 대응되는 위치 속성일 수 있으며, 상기 노드들이 특정 사용자 또는 특정 단말기인 경우, 상기 특정 단말기 또는 상기 특정 사용자의 현재 위치가 상기 노드에 대응되는 위치속성일 수 있다.In this case, the nodes A, B, C, D, E, F, G, H, and I may preferably have location attributes corresponding thereto. For example, when the nodes are a specific location, a specific road specific building, etc., the location of the specific location, specific road, specific building, etc. may be location attributes corresponding to the node, and the nodes are specific users or specific terminals. In this case, the current location of the specific terminal or the specific user may be a location attribute corresponding to the node.

또한, 상기 제1 노드(A)는 정적 노드와 동적 노드로 구별될 수 있는데, 정적 노드는 상기 특정 위치, 특정 도로, 특정 건물 등과 같이 그에 대응되는 위치 속성이 변경되지 않는 노드를 의미하며, 동적 노드는 상기 특정 사용자 또는 상기 특정 전자기기와 같이 그에 대응되는 위치 속성이 시간이 지남에 따라 변경될 수 있는 노드를 의미한다.In addition, the first node A may be classified into a static node and a dynamic node. The static node refers to a node whose location property corresponding to the specific location, a specific road, a specific building, and the like is not changed. The node refers to a node whose location property corresponding to the specific user or the specific electronic device may change over time.

또한, 상기 제1 노드(A)와 상기 제2 노드들(B,C,D,E,F,G,H,I)은 모두 관계를 가지고 있지만, B,C,E,F,G,I 노드들은 상기 제1 노드(A)와 직접적으로 관계를 맺고 있으나, D,H 노드들은 상기 제1 노드(B)와 간접적으로 관계를 맺고 있다(도면에 노드와 노드 사이를 연결하는 선은 연결된 노드들이 직접적으로 관계를 맺고 있는 경우를 의미함). 예를 들어, 노드 D는, 노드 I 또는 노드 G를 통하여 상기 제1 노드(A)와 관계를 맺고 있으며, 노드 H는, 노드 B 또는 노드 F를 통하여 상기 제1 노드(A)와 관계를 맺고 있다.In addition, although the first node A and the second nodes B, C, D, E, F, G, H, and I all have a relationship, B, C, E, F, G, I Nodes are directly related to the first node A, but D and H nodes are indirectly related to the first node B (the line connecting the node and the node in the drawing is connected to the node). They have a direct relationship). For example, node D has a relationship with the first node A through node I or node G, and node H has a relationship with the first node A through node B or node F. have.

이때, 상기 B,C,E,F,G,I 노드들은 상기 제1 노드(A)와 1차 관계를 가지고 있다고 정의하며, 상기 D,H 노드들은 상기 제1 노드(A)와 2차 관계를 가지고 있다고 할 수 있다. 물론, 도면에 도시되어 있지는 않으나, 상기 B,C,E,F,G,I와는 아무런 관계를 맺고 있지 않으나, D,H 노드들 중 어느 하나와 관계를 맺고 있는 노드가 있는 경우, 이러한 노드는 상기 제1 노드(A)와 3차 관계를 가지고 있다고 할 수 있다.In this case, the B, C, E, F, G, I nodes are defined as having a primary relationship with the first node (A), the D, H nodes are a secondary relationship with the first node (A) It can be said to have. Of course, although not shown in the figure, if there is no relationship with any of the B, C, E, F, G, I, but has a relationship with any one of the D, H nodes, such a node It can be said that it has a tertiary relationship with the first node (A).

한편, 본 발명의 일 실시예에 의하면, 제1 노드(A)와 제2 노드들(B,C,D,E,F,G,H,I) 사이의 관계는 정적으로 유지될 수 있으나, 제1 노드(A)와 제2 노드들(B,C,D,E,F,G,H,I) 사이의 위치 관계 등에 따라 동적으로 변경될 수 있다. 다시 말해, B사용자(제2 노드)가 역삼역(제1 노드)을 관심 지역으로 설정한 경우, 제1 노드와 제2 노드 사이에는 B사용자의 의사에 의해 소정의 관계가 형성될 수 있다. 이와는 달리, C사용자의 단말기(제2 노드)가 강남역(제1 노드)와의 거리가 일정 범위 이내에 있는 경우, 상기 C사용자는, C사용자의 의사와 무관하게, 강남역(제2 노드)과 자연스럽게 관계를 형성할 수 있다.Meanwhile, according to an embodiment of the present invention, the relationship between the first node A and the second nodes B, C, D, E, F, G, H, and I may be kept static. According to the positional relationship between the first node A and the second nodes B, C, D, E, F, G, H, I, etc., it may be dynamically changed. In other words, when the user B (second node) sets the reverse three-zone (first node) as the region of interest, a predetermined relationship may be formed between the first node and the second node by the intention of the user B. On the contrary, when the terminal of the user C (second node) is within a certain range of the Gangnam station (first node), the user C naturally connects to the Gangnam station (second node) regardless of the user C's intention. Can be formed.

본 발명의 다른 실시예들에 의하면, 제1 노드는 제1 노드와 관련있는 특정 키워드를 그 속성으로 가질 수 있으며, 제2 노드를 통하여 생성되고 업로드되는 정보에 상기 특정 키워드가 포함되어 있으면, 제1 노드와 제2 노드 사이에 관계가 형성될 수 있다. 다시 말해, D사용자가 현재 남부 순환도로에 위치하고 있지는 않지만, 집에서 뉴스를 시청하던 중, 남부순환도로의 일부 구간에 화재로 인한 차량 정체가 발생한 사실을 접하게 된 경우, 집에서 "남부순환도로 a-b구간 화재로 인해 양방향 정체"라는 정보를 생성하여 업로드 한 경우, 제2 노드에 의해 업로드 된 "남부순환도로"라는 특정 키워드로 인해 남부순환도로(제1 노드)와 관계가 형성될 수도 있다.According to other embodiments of the present invention, the first node may have a specific keyword related to the first node as its attribute, and if the specific keyword is included in the information generated and uploaded through the second node, A relationship can be established between the first node and the second node. In other words, if user D is not currently located on the southern ring road, but is watching news at home and encounters a traffic jam due to a fire on some section of the southern ring road, he may say, In the case of generating and uploading information called “bidirectional congestion” due to a section fire, a relationship with a southern circulation road (first node) may be formed due to a specific keyword “southern circulation road” uploaded by the second node.

앞서 설명한 바와 같이, 제1 노드와 제2 노드 사이의 관계는, 정적으로 유지될 수 있을 뿐만 아니라, 서로 간의 위치관계, 키워드 관계 등에 따라 계속해서 변화되는 관계를 가짐으로써, 특정 노드를 중심으로 형성된 네트워크는 특정 노드와 매우 관련성이 높은 정보를 생성할 수 있게 된다.As described above, the relationship between the first node and the second node is not only maintained statically, but also has a relationship that continuously changes according to the positional relationship, keyword relationship, and the like, and is formed around a specific node. Networks can generate information that is very relevant to a particular node.

이와 같이, 기존의 소셜 네트워크는 사용자와 사용자 사이의 사회적 관계에 의해서 사용자와 사용자 사이의 요청에 의해서만 형성될 수 있는 반면, 본 발명에 의해 안출되는 소셜 네트워크는 이러한 관계 형성에 나아가서 각 노드들의 위치관계에 따라 관계가 형성될 수 있다. 이로써, 특정 지역에서 관심 대상이 될 수 있는 다양한 교통정보 내지는 특정 위치를 중심으로 다양한 엔터티(entity)들에 의해 생성되고 업로드 되는 각종 정보들이 소셜 네트워크를 형성할 수 있게 된다. 이러한 특징에 따라, 본 발명에 의한 소셜 네트워크는 그 구성하고 있는 노드들이 시간이 지남에 따라 계속하여 변경될 수 있다.As such, the existing social network can be formed only by the request between the user and the user by the social relationship between the user and the user, while the social network created by the present invention proceeds to the formation of the relationship and the positional relationship of each node. Depending on the relationship can be formed. As a result, various types of traffic information that may be of interest in a specific region or various types of information generated and uploaded by various entities around a specific location may form a social network. According to this feature, the social network according to the present invention can continuously change its constituent nodes over time.

본 발명의 일 실시예에 의하면, 앞서 설명한 바와 같이 소셜 네트워크(10)가 형성될 수 있고, 상기 소셜 네트워크(10)를 통해 상기 제2 전자 기기(100)은 각종 정보를 수신할 수 있게 된다. 그러나, 본 발명의 사상은 소셜 네트워크를 통해서 각종 전자 기기들이 통신하는 것에 국한되는 것은 아니다.According to an embodiment of the present invention, as described above, the social network 10 may be formed, and the second electronic device 100 may receive various information through the social network 10. However, the idea of the present invention is not limited to the communication of various electronic devices through a social network.

이상에서, 본 발명의 실시예들에 관련되는 시스템 환경에 대해서 구체적으로 설명하였다. 이하에서는, 본 발명의 실시예들에 관련되는 내비게이션 장치의 구성과 서버의 구성에 대해서 설명하기로 한다.In the above, the system environment related to the embodiments of the present invention has been described in detail. Hereinafter, a configuration of a navigation device and a configuration of a server according to embodiments of the present invention will be described.

먼저, 본 발명의 일 실시예에 관련된 내비게이션 장치의 구성을 설명하기로 한다.First, the configuration of a navigation device according to an embodiment of the present invention will be described.

도 4a는 본 발명의 일 실시예에 관련된 내비게이션 장치(100)의 개략적인 구성을 도시한 블록 구성도이다.4A is a block diagram illustrating a schematic configuration of a navigation device 100 according to an embodiment of the present invention.

도 4a를 참조하면, 내비게이션 장치(100)는 통신부(110), 입력부(120), 센싱부(130), 출력부(140), 저장부(150), 전원부(160) 및 제어부(170)를 포함할 수 있다. 도 4a에 도시된 구성요소들이 필수적인 것은 아니어서, 차량용 내비게이션 장치(100)는 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖도록 구현될 수도 있다.Referring to FIG. 4A, the navigation device 100 includes a communication unit 110, an input unit 120, a sensing unit 130, an output unit 140, a storage unit 150, a power supply unit 160, and a control unit 170. It may include. The components shown in FIG. 4A are not essential, so the vehicle navigation apparatus 100 may be implemented to have more or fewer components.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

통신부(110)는 내비게이션 장치(100)와 통신 시스템 사이, 또는 내비게이션 장치(100)와 내비게이션 장치(100)가 위치한 네트워크 사이, 또는 내비게이션 장치(100)와 다른 전자 기기 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부(100)는, 위치 데이터 모듈(111), 무선 인터넷 모듈(113), 방송 송수신 모듈(115), 근거리 통신 모듈(117), 유선 통신 모듈(119) 등을 포함할 수 있다.The communication unit 110 enables communication between the navigation device 100 and the communication system, or between the network in which the navigation device 100 and the navigation device 100 are located, or between the navigation device 100 and another electronic device. It may include more than one module. For example, the communication unit 100 may include a location data module 111, a wireless internet module 113, a broadcast transmission / reception module 115, a short range communication module 117, a wired communication module 119, and the like. .

위치 데이터 모듈(111)은 내비게이션 장치(100)의 위치 데이터를 확인하거나 얻기 위한 모듈이다. 위치 데이터 모듈(111)이 위치 데이터를 획득하는 방법으로는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 방법이 사용될 수 있다. GNSS는 인공위성(20)으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 실시 예들에 따른 내비게이션 장치(100)의 위치 데이터 모듈(111)은, 내비게이션 장치(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 위치 데이터 모듈(111)은 내비게이션 장치(100)의 현재 위치를 실시간으로 계속 산출하고, 이를 이용하여 속도 정보가 산출될 수도 있다.특히, 상기 위치 데이터 모듈(111)에 의해 획득되는 위치 데이터는 경도와 위도를 포함할 수 있다.The position data module 111 is a module for checking or obtaining position data of the navigation device 100. As the method of obtaining location data by the location data module 111, a method of obtaining location data through a global navigation satellite system (GNSS) may be used. GNSS refers to a navigation system that can calculate the position of the receiving terminal using the radio signal received from the satellite 20. Specific examples of GNSS include Global Positioning System (GPS), Galileo, Global Orbiting Navigational Satellite System (GLONASS), COMPASS, Indian Regional Navigational Satellite System (IRNS), and Quasi-Zenith Satellite System (QZSS), depending on the operating entity. Can be. The location data module 111 of the navigation device 100 according to embodiments of the present invention may receive location data by receiving a GNSS signal serving in an area in which the navigation device 100 is used. The position data module 111 may continuously calculate the current position of the navigation device 100 in real time and calculate speed information using the position data. In particular, the position data obtained by the position data module 111 may be longitude. And latitude.

무선 인터넷 모듈(113)은 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷 모듈(113)을 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave acess), HSDPA(High Speed Downlink Packet Acess) 등 일 수 있다.The wireless internet module 113 is a device that accesses the wireless Internet and acquires or transmits data. The wireless Internet accessible through the wireless internet module 113 may be a wireless LAN (WLAN), a wireless broadband (WBRO), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), or the like.

방송 송수신 모듈(115)은 각종 방송 시스템을 통하여 방송 신호를 수신하는 장치이다. 방송 송수신 모듈(115)을 통하여 수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Foeward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Tereestrial) 등일 수 있다. 방송 송수신 모듈(115)을 통하여 수신되는 방송 신호에는 교통데이터, 생활데이터 등이 포함될 수 있다.The broadcast transmission / reception module 115 is an apparatus for receiving broadcast signals through various broadcast systems. The broadcast system that can be received through the broadcast transmission / reception module 115 includes: Digital Multimedia Broadcasting Terrestrial (DMBT), Digital Multimedia Broadcasting Satellite (DMBS), Media Foeward Link Only (MediaFLO), Digital Video Broadcast Handheld (DVBH), and ISDBT ( Integrated Services Digital Broadcast Tereestrial). The broadcast signal received through the broadcast transmission / reception module 115 may include traffic data, living data, and the like.

근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 117 refers to a module for short-range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like can be used as the short distance communication technology.

유선 통신 모듈(119)은 내비게이션 장치(100)에 연결되는 다른 전자 기기와의 인터페이스를 제공하는 역할을 수행한다. 예를 들어, 유선 통신 모듈(119)은, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication module 119 serves to provide an interface with other electronic devices connected to the navigation device 100. For example, the wired communication module 119 may be a USB module capable of communicating through a USB port.

입력부(120)는 내비게이션 장치(100)의 동작 제어를 위한 입력 데이터를 발생시키는 모듈로서, 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 입력부(120)는 사용자 입력 모듈(121), 마이크(123) 및 영상 획득 모듈(125) 등을 포함할 수 있다.The input unit 120 is a module that generates input data for controlling the operation of the navigation device 100. The input unit 120 may convert the physical input from the outside into a specific electrical signal to generate the input data. The input unit 120 may include a user input module 121, a microphone 123, an image acquisition module 125, and the like.

사용자 입력 모듈(121)은 사용자로부터 내비게이션 장치(100)의 동작 제어를 위한 제어 입력을 수신한다. 사용자 입력 모듈은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input module 121 receives a control input for controlling the operation of the navigation device 100 from a user. The user input module may include a key pad dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.

마이크(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신하는 장치이다. The microphone 123 is a device that receives a user's voice and sound generated in and out of the vehicle.

영상 획득 모듈(125)은 차량의 내외부의 영상의 획득하는 장치이다. 예를 들어, 상기 영상 획득 모듈(125)은 카메라를 포함할 수 있다. 영상 획득 모듈(125)은 반드시 내비게이션 장치(100)에 포함되어야 하는 필수 구성요소는 아니다. 내비게이션 장치(100)는 필요에 따라, 차량 내외부의 영상을 획득할 수 있는 별도의 디바이스, 예를 들어, 차량용 블랙박스 등과 같은 카메라를 포함하는 다른 독립된 전자기기와 연동될 수 있으며, 이러한 전자기기를 통하여, 영상 획득 모듈(125)을 대신하여, 영상 정보를 획득할 수 있게 된다. 또한, 상기 영상 획득 모듈(125)은 상술한 차량용 블랙박스에 포함된 카메라를 의미할 수도 있다.The image acquisition module 125 is an apparatus for acquiring images of the inside and outside of the vehicle. For example, the image acquisition module 125 may include a camera. The image acquisition module 125 is not an essential component to be included in the navigation device 100. The navigation device 100 may be interlocked with another independent electronic device including a camera such as a separate device capable of acquiring an image inside and outside the vehicle, for example, a vehicle black box, if necessary. Through this, instead of the image acquisition module 125, it is possible to obtain image information. In addition, the image acquisition module 125 may refer to a camera included in the vehicle black box.

센싱부(130)는 내비게이션 장치(100)의 현재 상태를 감지하여 내비게이션 장치(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 센싱부(130)는 모션 센싱 모듈(131), 광 센싱 모듈(133) 등을 포함할 수 있다.The sensing unit 130 detects a current state of the navigation device 100 and generates a sensing signal for controlling the operation of the navigation device 100. The sensing unit 130 may include a motion sensing module 131, an optical sensing module 133, and the like.

모션 센싱 모듈(131)은 내비게이션 장치(100)의 3차원 공간 상에서의 움직임을 감지할 수 있다. 모션 센싱 모듈(131)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱 모듈(131)을 통하여 획득한 움직임 데이터를 위치 데이터 모듈(111)을 통하여 획득한 위치 데이터와 결합하여, 내비게이션 장치(100)을 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The motion sensing module 131 may detect the movement of the navigation device 100 in the 3D space. The motion sensing module 131 may include a three-axis geomagnetic sensor and a three-axis acceleration sensor. The motion data obtained through the motion sensing module 131 may be combined with the position data obtained through the position data module 111 to calculate a more accurate trajectory of the vehicle to which the navigation apparatus 100 is attached.

광 센싱 모듈(133)은 내비게이션 장치(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱 모듈(133)을 통하여 획득한 조도 데이터를 이용하여, 디스플레이부(145)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The light sensing module 133 is a device for measuring the ambient illuminance of the navigation device 100. The brightness of the display unit 145 may be changed to correspond to the ambient brightness by using the illumination data acquired through the light sensing module 133.

출력부(140)는 내비게이션 장치(100)이 데이터를 출력하는 장치이다. 출력부(140)는 디스플레이 모듈(141), 오디오 출력 모듈(143) 등을 포함할 수 있다.The output unit 140 is a device in which the navigation device 100 outputs data. The output unit 140 may include a display module 141, an audio output module 143, and the like.

디스플레이 모듈(141)은 내비게이션 장치(100)가 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 한편, 디스플레이 모듈(141)이 터치스크린인 경우라면, 데이터의 출력부(140)인 동시에 입력부(120)의 역할을 동시에 할 수 있음은 전술한 바와 같다. 또한, 상기 디스플레이 모듈(141)은 도 4a에 도시된 바와 달리, 출력부(140)에 포함되는 모듈이 아닌, 독립적인 디스플레이부(141)로 구현될 수도 있다.The display module 141 is a device that outputs data that can be visually recognized by the navigation device 100. Meanwhile, as described above, when the display module 141 is a touch screen, the display module 141 may simultaneously serve as the output unit 140 and the input unit 120. In addition, unlike the display module 141 illustrated in FIG. 4A, the display module 141 may be implemented as an independent display unit 141 instead of a module included in the output unit 140.

오디오 출력 모듈(143)은 청각적으로 인식될 수 있는 오디오 데이터를 출력한다. 오디오 출력 모듈(143)은, 내비게이션 장치(100)에서 수행되는 기능(예를 들어, 경로 안내 기능)과 관련된 오디오 신호를 출력한다. 이러한 오디오 출력 모듈(143)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 143 outputs audio data that can be recognized acoustically. The audio output module 143 outputs an audio signal related to a function (for example, a path guidance function) performed by the navigation device 100. The audio output module 143 may include a receiver, a speaker, a buzzer, and the like.

저장부(150)는 내비게이션 장치(100)의 동작을 위한 프로그램을 저장할 수 있고, 내비게이션 장치(100)와 관련하여 입/출력되는 데이터(경로 데이터, 영상 데이터)들을 임시 저장할 수도 있다. 또한, 저장부(150)는 경로 안내 서비스에 사용되는 지도(map) 데이터를 저장할 수도 있다. 저장부(150)는 내비게이션 장치(100)의 내부에 내장되거나, 탈부착이 가능하며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 내비게이션 장치(100)는 인터넷(internet)상에서 상기 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The storage unit 150 may store a program for the operation of the navigation device 100, and may temporarily store data (path data and image data) input / output in relation to the navigation device 100. In addition, the storage unit 150 may store map data used for the route guidance service. The storage unit 150 may be embedded in or detachable from the navigation device 100, and may be a flash memory type, a hard disk type, or a multimedia card micro type. Card type memory (e.g. SD or XD memory), random access memory (RAM), static random access memory (SRAM), readonly memory (ROM), electrically erasable programmable readonly memory (EEPROM), It may include at least one type of storage medium of a programmable read only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. The navigation device 100 may operate in association with a web storage that performs a storage function of the storage unit 150 on the Internet.

전원부(160)는 외부의 전원, 내부의 전원을 인가받아 내비게이션 장치(100)의 각 구성요소들 또는 내비게이션 장치(100)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다. The power supply unit 160 receives external power and internal power to supply power required for the operation of each component of the navigation device 100 or another device connected to the navigation device 100.

제어부(170)는 통상적으로 내비게이션 장치(100)의 전반적인 동작을 제어한다. 나아가, 제어부(170)는 내비게이션 장치(100)에 연결된 다른 디바이스를 제어하는 제어신호를 출력할 수도 있다. 상기 제어부(170)는 앞서 설명한 다른 모듈(즉, 통신부(110), 입력부(120), 센싱부(130), 출력부(140), 저장부(150), 전원부(160) 등)과 정보 및/또는 제어신호를 주고받기 위한 입출력부(즉, 인터페이스부)를 구비할 수 있다.The controller 170 typically controls the overall operation of the navigation device 100. In addition, the controller 170 may output a control signal for controlling another device connected to the navigation device 100. The controller 170 may include other modules (ie, the communication unit 110, the input unit 120, the sensing unit 130, the output unit 140, the storage unit 150, the power supply unit 160, etc.) and information described above. And / or an input / output unit (ie, an interface unit) for transmitting and receiving a control signal.

도 4b는 본 발명의 일 실시예에 따른 내비게이션 장치(100)의 일 구현 형태를 나타낸다. 도 4b를 참조하면, 입력부(120)의 구성 요소인 마이크(123), 영상 획득 모듈(125, 즉 카메라) 등은 별도의 장치(예컨대, 차량용 블랙박스)로 구현될 수 있음을 알 수 있다. 상기 차량용 블랙박스는 흡착판(127)에 의하여 차량에 장착될 수 있다.4B illustrates one implementation of a navigation device 100 in accordance with one embodiment of the present invention. Referring to FIG. 4B, it can be seen that the microphone 123, the image acquisition module 125, that is, the camera, which are components of the input unit 120, can be implemented as a separate device (for example, a vehicle black box). The vehicle black box may be mounted to the vehicle by the suction plate 127.

이때, 상기 블랙박스에 포함된 카메라(125)에 의하여 촬영된 주행 영상 및 마이크(123)를 통하여 녹음되는 음향 신호는 미리 설정된 무선 통신 방식에 따라 무선으로 내비게이션 장치(100) 본체로 전송될 수 있다. 도 4b에 도시된 바와 달리, 상기 촬영된 주행 영상 및 녹음된 음향 신호는 유선으로 상기 내비게이션 장치(100)의 본체로 전송될 수도 있다.In this case, the driving image photographed by the camera 125 included in the black box and the audio signal recorded through the microphone 123 may be wirelessly transmitted to the main body of the navigation apparatus 100 according to a preset wireless communication method. . Unlike FIG. 4B, the photographed driving image and the recorded sound signal may be transmitted to the main body of the navigation apparatus 100 by wire.

이어서, 본 발명의 실시예들에 관련된 서버의 구성에 대해 설명한다.Next, the configuration of the server according to the embodiments of the present invention will be described.

도 5는 본 발명의 실시예들에 관련된 서버의 구성을 도시한 블록 구성도이다.5 is a block diagram showing a configuration of a server according to embodiments of the present invention.

도 5를 참조하면, 서버(200)는 제2 통신부(210), 데이터베이스(230) 및 제2 제어부(220)를 포함할 수 있다. 도 5에 도시된 구성요소들이 필수적인 것은 아니어서, 서버(200)는 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖도록 구현될 수도 있다.Referring to FIG. 5, the server 200 may include a second communication unit 210, a database 230, and a second control unit 220. The components shown in FIG. 5 are not essential, so the server 200 may be implemented with more or fewer components.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

제2 통신부(210)는 서버(200)와 상기 네트워크(10)를 통해 통신할 수 있다. 예를 들어, 제2 통신부(210)는, 유/무선을 통하여 무선 통신을 할 수 있는 각종 통신 모듈들을 포함할 수 있다. 상기 통신부(210)는 전자 기기들로부터 복수의 정보를 포함하는 콘텐츠를 수신할 수 있다. 여기서, 상기 콘텐츠는 SNS(Social Network Service) 기반의 콘텐츠일 수 있다. 그러나 본 발명의 범위가 이에 한정되는 것은 아니다. 또한, 상기 통신부(210)는 복수의 정보를 포함하는 콘텐츠를 전자 기기들로 전송할 수도 있다.The second communication unit 210 may communicate with the server 200 through the network 10. For example, the second communication unit 210 may include various communication modules capable of wireless communication through wired / wireless communication. The communication unit 210 may receive content including a plurality of information from electronic devices. Herein, the content may be social network service (SNS) based content. However, the scope of the present invention is not limited thereto. In addition, the communication unit 210 may transmit the content including the plurality of information to the electronic devices.

데이터베이스(230)는 상기 네트워크(10)로부터 수집된 각종 정보들을 저장할 수 있다. 상기 데이터 베이스(230)는, 앞서 설명한 내비게이션 장치(100)의 저장부(150)와 같이, 다양한 타입의 저장매체에 의해 구현될 수 있다.The database 230 may store various information collected from the network 10. The database 230 may be implemented by various types of storage media, such as the storage unit 150 of the navigation device 100 described above.

제2 제어부(220)는 통상적으로 서버(200)의 전반적인 동작을 제어한다. 상기 제2 제어부(220)는, 위치정보 처리 모듈(221), 정보 수집 모듈(222), 조건 처리 모듈(224) 및 정보 전송 모듈(226)을 포함할 수 있다.The second controller 220 typically controls the overall operation of the server 200. The second controller 220 may include a location information processing module 221, an information collection module 222, a condition processing module 224, and an information transmission module 226.

상기 위치정보 처리모듈(221)은, 상기 제1 전자 기기(300) 및/또는 상기 제2 전자 기기(100)로부터 상기 제1 전자 기기(300) 및/또는 상기 제2 전자 기기(100)에 대응되는 위치정보를, 상기 제2 통신부(210)를 통하여, 수신하고, 상기 수신된 위치정보에 근거하여 필요한 정보를 산출할 수 있다.The location information processing module 221 may be connected to the first electronic device 300 and / or the second electronic device 100 from the first electronic device 300 and / or the second electronic device 100. Corresponding location information may be received through the second communication unit 210, and necessary information may be calculated based on the received location information.

상기 필요한 정보는 상기 제1 전자 기기(300) 및/또는 상기 제2 전자 기기(100)가 위치하는 구간 정보, 상기 제1 전자 기기(300) 및/또는 상기 제2 전자 기기(100)의 이동속도 정보, 상기 제1 전자 기기(300) 및/또는 상기 제2 전자 기기(100)의 이동방향 정보 등을 포함할 수 있다.The necessary information may include section information where the first electronic device 300 and / or the second electronic device 100 are located, and the movement of the first electronic device 300 and / or the second electronic device 100. Speed information, movement direction information of the first electronic device 300 and / or the second electronic device 100, and the like.

상기 위치 정보 처리 모듈(221)은, 상기 산출된 정보들을, 상기 제2 통신부(210)를 통하여, 상기 제1 전자 기기(300) 및/또는 상기 제2 전자 기기(100)로 전송할 수 있다.The location information processing module 221 may transmit the calculated information to the first electronic device 300 and / or the second electronic device 100 through the second communication unit 210.

상기 정보 수집 모듈(222)은, 상기 제2 통신부(210)를 통하여, 네트워크(10)로부터 필요한 정보들을 수집하는 기능을 수행한다. 여기서, 상기 정보들은 전자 기기들로부터 수신되는 복수의 정보를 포함하는 콘텐츠일 수 있다.The information collection module 222 collects necessary information from the network 10 through the second communication unit 210. Here, the information may be content including a plurality of pieces of information received from electronic devices.

한편, 상기 정보 수집 모듈(222)은, 상기 제2 통신부(210)를 통하여 수집된 정보들 중, 미리 정해진 조건에 부합하는지 판단하고, 상기 조건에 부합하지 않는 경우, 수집된 정보를 상기 데이터베이스(230)에 저장하지 않고 폐기하거나 또는 데이터베이스(230)에 일시적으로 저장하였다가 폐기하는 필터링 동작을 수행할 수 있다. 예를 들어, 수집된 정보들 중 동일한 구간 및/또는 위치에 대응되는 정보들(이하, 동일 구간 정보라 함)을 고려하여, 동일 구간 정보들로부터 획득되는 정보들의 평균값 및/또는 편차 등을 산출한 후, 미리 정해진 기준 범위를 벗어나는 정보는 상기 데이터베이스(230)에 저장하지 않고 필터링할 수 있다. 또한, 상기 정보 수집 모듈(222)은 수집된 정보를 미리 설정된 방법에 따라서 특정 포맷(format)의 정보로 가공하고, 가공된 정보를 상기 데이터베이스(230)에 저장할 수도 있다.On the other hand, the information collection module 222 determines, among the information collected through the second communication unit 210, meets a predetermined condition, and if it does not meet the condition, and collects the collected information in the database ( The filtering operation may be performed without discarding the data in 230 or temporarily storing the data in the database 230 and discarding the data. For example, in consideration of information corresponding to the same section and / or location among the collected information (hereinafter referred to as the same section information), an average value and / or deviation of information obtained from the same section information is calculated. Afterwards, information outside the predetermined reference range may be filtered without being stored in the database 230. In addition, the information collection module 222 may process the collected information into information of a specific format according to a preset method, and store the processed information in the database 230.

또한, 상기 제2 제어부(220)는, 수집된 정보에 평가 정보를 부여하는 동작을 수행할 수도 있다. 수집된 정보에 부여되는 평가 정보는 다양한 기준에 의해 산출될 수 있다.In addition, the second control unit 220 may perform an operation of providing evaluation information to the collected information. Evaluation information given to the collected information may be calculated by various criteria.

상기 조건 처리 모듈(224)은, 상기 제2 통신부(210)를 통하여, 상기 제2 전자 기기(100)로부터 수신된 조건 정보를 처리하는 기능을 수행한다. 여기서, 상기 조건 정보에는 전자 기기들로부터 수신되는 정보 검색에 필요한 검색 팩터(search factor)가 포함될 수 있다. 이하에서 구체적으로 설명하겠지만, 특히, 조건 처리 모듈(224)은, 상기 조건 정보에 기반하여, 상기 데이터베이스(230)에 저장되어 있는 정보들 중, 혹은 상기 네트워크(10) 상의 정보들로부터 조건에 부합하는 정보들을 검색할 수 있다. 예를 들어, 상기 조건 처리 모듈(224)은 상기 데이터 베이스(230)에 저장되어 있는 정보들 중 상기 조건 정보에 부합하는 정보들을 추출한다. 상기 조건 처리 모듈(224)에 의해 추출된 정보들은 상기 조건을 구성하는 내용에 따라 서로 달라질 수 있다. 전술한 바에 따라 추출된 정보들을, 본 명세서에서 동적 정보 그룹이라고 정의하기로 한다. 조건 처리 모듈(224)이 조건 정보에 기반하여 동적 정보 그룹을 생성하는 것에 대해서는, 후에 구체적으로 설명하기로 한다.The condition processing module 224 performs a function of processing condition information received from the second electronic device 100 through the second communication unit 210. Here, the condition information may include a search factor for searching for information received from electronic devices. As will be described in detail below, in particular, the condition processing module 224, based on the condition information, meets a condition from among information stored in the database 230 or from information on the network 10. You can search for information. For example, the condition processing module 224 extracts information corresponding to the condition information among the information stored in the database 230. The information extracted by the condition processing module 224 may be different from each other depending on the contents of the condition. The information extracted as described above will be defined herein as a dynamic information group. The condition processing module 224 generates the dynamic information group based on the condition information will be described in detail later.

상기 정보 전송 모듈(226)은, 상기 동적 정보 그룹을 참조하여, 소정의 정보를 상기 제2 전자 기기(100)로 전송하는 기능을 수행한다. 상기 정보 전송 모듈(226)은, 정보를 상기 제2 전자 기기(100)로 전송할 때, 만약 상기 제2 전자 기기(100)로 전송하여야 할 정보(동적 정보 그룹에 포함된 정보)의 양이 미리 정해진 기준을 초과하는 경우, 그 중 일부만 상기 제2 전자 기기(100)로 전송할 수 있다. 이때, 상기 정보 전송 모듈(226)은 다양한 기준에 기반하여 먼저 전송할 정보의 일부를 선택할 수 있다. 예를 들어, 상기 정보 전송 모듈(226)은, 상기 정보에 부여된 평가 정보 등을 고려하여 먼저 전송할 정보를 선택할 수 있다.The information transmission module 226 performs a function of transmitting predetermined information to the second electronic device 100 with reference to the dynamic information group. When the information transmitting module 226 transmits the information to the second electronic device 100, the amount of information (information included in the dynamic information group) to be transmitted to the second electronic device 100 is previously determined. If a predetermined criterion is exceeded, only a part of the reference may be transmitted to the second electronic device 100. In this case, the information transmission module 226 may first select a part of the information to be transmitted based on various criteria. For example, the information transmission module 226 may first select information to be transmitted in consideration of evaluation information provided to the information.

이하에서는, 전술한 시스템 환경 하에서 제1 전자 기기와 서버의 상호 작용에 의해 정보를 획득하고 수집하는 방법에 대해 설명하기로 한다. 설명의 편의를 위하여, 이하에서는, 도 2를 참조하여 설명한 제1 전자 기기(300) 및 제2 전자 기기(100)는 도 4를 참조하여 설명한 내비게이션 장치(100)에 의해 구현되는 것으로 설명하기로 한다. 나아가, 도 3을 참조하여 설명한 제1 노드 및 제2 노드에 대응되는 특정 전자기기가 있는 경우, 상기 특정 전자기기 또한 도 4를 참조하여 설명한 내비게이션 장치(100)에 의해 구현되는 것을 상정하여 설명하기로 한다. 그러나, 본 발명의 사상은 상기 제1 및 제2 전자 기기(300,100) 및/또는 상기 제1 노드 및 제2 노드들에 대응되는 전자기기가 상기 내비게이션 장치(100)에 의해 구현되는 것에 한정되는 것은 아니다.Hereinafter, a method of acquiring and collecting information by the interaction of the first electronic device and the server under the above-described system environment will be described. For convenience of description, hereinafter, the first electronic device 300 and the second electronic device 100 described with reference to FIG. 2 will be described as being implemented by the navigation device 100 described with reference to FIG. 4. do. Furthermore, when there are specific electronic devices corresponding to the first node and the second node described with reference to FIG. 3, it is assumed that the specific electronic device is also implemented by the navigation device 100 described with reference to FIG. 4. Shall be. However, the idea of the present invention is limited to that the electronic device corresponding to the first and second electronic devices 300 and 100 and / or the first and second nodes are implemented by the navigation device 100. no.

도 6은 본 발명의 실시예에 따른 전자 기기의 주행 영상 획득 방법을 설명하기 위한 흐름도이다. 이하, 도 2, 도 4a, 및 도 6을 참조하여 상기 전자 기기의 주행 영상 획득 방법을 설명한다.6 is a flowchart illustrating a driving image acquisition method of an electronic device according to an embodiment of the present invention. Hereinafter, a driving image acquisition method of the electronic device will be described with reference to FIGS. 2, 4A, and 6.

상기 내비게이션 장치(100)는 영상 획득 모듈(125)을 이용하여 주행 영상을 촬영한다(S100). 상기 영상 획득 모듈(125)은 카메라 모듈로 구현될 수 있다. 그러므로 이하에서는 상기 영상 획득 모듈(125)을 카메라로 칭하여 본 발명의 실시예들에 따른 전자 기기의 주행 영상 획득 방법을 살펴 본다. 상기 내비게이션 장치(100)의 제어부(170)는 미리 설정된 이벤트가 발생하면(S110), 상기 미리 설정된 이벤트 발생 지점을 포함하는 특정 구간을 설정하고, 상기 설정된 특정 구간에서 촬영된 주행 영상을 저장부(150)에 저장한다(S120). The navigation device 100 captures a driving image by using the image acquisition module 125 (S100). The image acquisition module 125 may be implemented as a camera module. Therefore, the following describes a driving image acquisition method of an electronic device according to embodiments of the present invention by referring to the image acquisition module 125 as a camera. When a preset event occurs (S110), the controller 170 of the navigation device 100 sets a specific section including the preset event occurrence point, and stores the driving image photographed in the set specific section. 150) (S120).

상기 제어부(170)는 상기 특정 구간에서 촬영된 주행 영상만을 저장할 수 있고, 상기 카메라(125)에 의하여 촬영된 주행 영상 전체를 상기 저장부(150)에 저장할 수도 있다. 또한, 상기 제어부(170)는 카메라(125)에 의하여 촬영된 주행 영상을 일정 시간 단위로 저장할 수도 있고, 주행이 시작된 시점부터 종료된 시점까지의 주행 영상을 하나의 파일로 저장할 수도 있다. 여기서, 미리 설정된 이벤트라 함은 교통 사고의 발생, 차량의 정체, 차량의 서행, 도로의 파손, 공사 구간의 진입 등 교통 관련 이벤트일 수 있다. 그러나 본 발명의 범위가 이에 한정되는 것은 아니다.The controller 170 may store only the driving image photographed in the specific section, and may store the entire driving image photographed by the camera 125 in the storage unit 150. In addition, the controller 170 may store the driving image photographed by the camera 125 by a predetermined time unit, or may store the driving image from the time point at which the driving starts to the end point as a file. Here, the predetermined event may be a traffic related event such as occurrence of a traffic accident, congestion of a vehicle, slowing of a vehicle, damage to a road, entry of a construction section, and the like. However, the scope of the present invention is not limited thereto.

참고로, 도 6에서는 상기 카메라(125)의 주행 영상 촬영이 상기 미리 설정된 이벤트가 발생하기 전부터 시작되는 것으로 도시되어 있으나, 상기 내비게이션 장치(100)는 상기 미리 설정된 이벤트가 발생된 이후부터 주행 영상의 촬영을 시작할 수도 있다.For reference, in FIG. 6, the driving image photographing of the camera 125 is started before the preset event occurs. However, the navigation device 100 displays the driving image after the preset event occurs. You can even start shooting.

그런 다음, 상기 제어부(170)는 상기 저장부(150)에 저장된 주행 영상 및 상기 주행 영상과 관련된 복수의 정보 중 적어도 하나를 포함하는 교통 콘텐츠를 외부 기기로, SNS(Social Network Servive) 네트워크를 통하여, 전송한다(S130). 여기서, 상기 주행 영상과 관련된 정보에는 상기 주행 영상의 촬영 위치에 관한 정보 및 촬영 시간이 포함될 수 있다. 또한, 상기 주행 영상과 관련된 정보에는 상기 내비게이션 장치(100) 사용자의 정보, 상기 사용자가 작성한 메시지, 상기 전자 기기의 이동 속도, 상기 전자 기기의 이동 방향 등이 포함될 수 있다. 그러나 본 발명의 범위가 이에 한정되는 것은 아니다.Thereafter, the controller 170 transmits the traffic content including at least one of a driving image stored in the storage unit 150 and a plurality of pieces of information related to the driving image to an external device through an SNS network. , And transmits (S130). Here, the information related to the driving image may include information regarding a shooting position of the driving image and a shooting time. In addition, the information related to the driving image may include information of the user of the navigation apparatus 100, a message written by the user, a moving speed of the electronic device, a moving direction of the electronic device, and the like. However, the scope of the present invention is not limited thereto.

그러면, 상기 주행 영상 및 상기 교통 콘텐츠를 수신한 SNS 네트워크의 서버는, 상기 외부 기기로부터, 상기 특정 구간과 관련된 위치 정보를 이용한 교통 콘텐츠정보에 대한 검색 요청을 수신하고, 상기 요청에 부합하는 주행 영상을 검색하고, 검색된 주행 영상 및 그와 관련된 교통 콘텐츠를 상기 외부 기기로 전송할 수 있다.Then, the server of the SNS network receiving the driving image and the traffic content receives a search request for the traffic content information using the location information associated with the specific section from the external device, and the driving image corresponding to the request. Search for and transmit the searched driving image and traffic content related thereto to the external device.

여기서, 상기 외부 기기로 전송되는 교통 콘텐츠에는 상기 주행 영상의 촬영 위치 및 촬영 시간에 관한 정보가 포함됨이 바람직하다. 또한, 상기 특정 구간과 관련된 교통 정보 검색이라 함은, 상기 외부 기기로부터 수신되는 상기 특정 구간과 관련된 위치 정보를 포함하는 검색 팩터(search factor)에 기초하여 생성되는 검색 조건에 대응되는 주행 영상 및 상기 주행 영상과 관련된 교통 콘텐츠를 검색하는 것을 의미한다.Here, the traffic content transmitted to the external device preferably includes information regarding a shooting location and a shooting time of the driving image. The traffic information search associated with the specific section may include a driving image corresponding to a search condition generated based on a search factor including location information related to the specific section received from the external device and the search image. Searching for traffic content related to the driving image.

상기 특정 구간과 관련된 검색 팩터라 함은, 상기 전자 기기의 위치, 상기 특정 구간에 포함되는 좌표값, 상기 특정 구간이 포함된 도로의 명칭, 상기 특정 구간 주변의 POI(Point Of Interest)의 명칭 등이 포함될 수 있다.The search factor related to the specific section may include a location of the electronic device, a coordinate value included in the specific section, a name of a road including the specific section, a name of a point of interest (POI) around the specific section, and the like. This may include.

이상에서 살펴본 바와 같이, 상기 내비게이션 장치(100)는, 결과적으로, 상기 저장부(150)에서 검색된 주행 영상 및 상기 주행 영상과 관련되는 교통 콘텐츠를, 소셜 네트워크를 통하여, 상기 특정 구간과 관련된 위치 정보를 이용하여 주행 영상의 제공을 요청한 외부 기기로 자동으로 전송할 수 있는 것이다.As described above, the navigation device 100, as a result, the location information associated with the specific section through the social network, the driving image and the traffic content associated with the driving image retrieved from the storage unit 150, as a result By using it can be automatically transmitted to the external device requesting the provision of the driving image.

도 7a는 도 6에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 촬영된 주행 영상을 전송하는 과정을 나타낸다. 도 7a를 참조하면, 내비게이션 장치(100)의 화면에는, 도 6에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 서버(200)에서 수집된 주행 영상 중, 상기 내비게이션 장치(100)로 전송된 주행 영상들이 표시될 수 있음을 알 수 있다. 참고로, 도 7a에 도시된 상기 내비게이션 장치(100)에 수신된 주행 영상들은 상기 내비게이션 장치(100)의 사용자가 선택한 "양재 대로"에 대한 주행 영상 검색 요청에 따라, 상기 서버(200)가 전송한 주행 영상들일 수 있다.FIG. 7A illustrates a process of transmitting a driving image photographed according to the driving image acquisition method of the electronic device illustrated in FIG. 6. Referring to FIG. 7A, a driving image transmitted to the navigation apparatus 100 among driving images collected by the server 200 according to the driving image acquisition method of the electronic device illustrated in FIG. 6 is displayed on the screen of the navigation apparatus 100. It can be seen that images can be displayed. For reference, the driving images received by the navigation apparatus 100 illustrated in FIG. 7A are transmitted by the server 200 in response to a driving image search request for the "good dressing" selected by the user of the navigation apparatus 100. It may be one driving image.

또한, 상기 내비게이션 장치(100)의 화면에는 카메라(125)를 이용하여 촬영된 주행 영상이 표시될 수 있음을 알 수 있다. 이때, 상기 내비게이션 장치(100)의 사용자는 화면에 표시된 전송 버튼(B)을 터치하여 상기 촬영된 주행 영상을 SNS 네트워크를 통하여 외부 기기로 전송할 수 있다.In addition, it may be understood that the driving image photographed using the camera 125 may be displayed on the screen of the navigation device 100. In this case, the user of the navigation device 100 may transmit the captured driving image to an external device through an SNS network by touching the transmission button B displayed on the screen.

이때, 상기 내비게이션 장치(100)는 미리 설정된 이벤트 발생이 감지되면 상기 촬영된 주행 영상을 자동으로 SNS 네트워크를 통하여 상기 외부 기기로 전송할 수도 있다. 상기 촬영된 주행 영상이 SNS 네트워크를 통하여 상기 외부 기기로 전송될 경우, 상기 내비게이션 장치(100)는 상기 주행 영상과 함께 복수의 정보를 상기 서버(200)로 전송할 수도 있다.In this case, when the occurrence of a preset event is detected, the navigation device 100 may automatically transmit the photographed driving image to the external device through an SNS network. When the photographed driving image is transmitted to the external device through an SNS network, the navigation device 100 may transmit a plurality of information to the server 200 together with the driving image.

도 7b는 도 6에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 외부 기기로 제공된 주행 영상이, 상기 외부 기기에 표시된 것을 나타낸다. 도 7b를 참조하면, 상기 외부 기기에는 상기 전자 기기에서 전송된 주행 영상이 표시될 뿐만 아니라, 상기 주행 영상과 관련된 복수의 정보가 함께 표시될 수 있음을 알 수 있다.FIG. 7B illustrates that the driving image provided to the external device is displayed on the external device according to the driving image acquisition method of the electronic device shown in FIG. 6. Referring to FIG. 7B, it may be appreciated that not only the driving image transmitted from the electronic device is displayed on the external device but also a plurality of information related to the driving image may be displayed together.

도 7b에 도시된 바와 같이, 상기 주행 영상과 관련된 복수의 정보에는 상기 주행 영상이 촬영된 위치 및 시간, 상기 주행 영상을 전송한 전자 기기의 사용자의 정보, 상기 전자 기기의 사용자가 작성한 메시지 등이 포함될 수 있음을 알 수 있다. 또한, 상기 외부 기기는 수신된 주행 영상 및 그와 관련된 정보를 사용자에게 제공함과 동시에, SNS 네트워크를 이용하여 문자 채팅, 음성 채팅 등의 부가 기능을 제공할 수 있음을 알 수 있다. 이러한 부가 기능은 본 발명의 실시예에 따른 전자 기기에서도 제공될 수 있다.As illustrated in FIG. 7B, the plurality of pieces of information related to the driving image may include a location and time at which the driving image is captured, information of a user of an electronic device transmitting the driving image, a message written by the user of the electronic device, and the like. It can be seen that it may be included. In addition, the external device may provide the user with the received driving image and related information, and may provide an additional function such as a text chat or a voice chat using an SNS network. Such additional functions may also be provided in an electronic device according to an embodiment of the present invention.

도 8은 도 6에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 촬영된 주행 영상과 함께 SNS 네트워크로 전송되는 정보를 나타낸다. 참고로, 도 8은 SNS의 일종인 트위터를 이용하여 상기 촬영된 주행 영상을 전송하는 경우, 상기 촬영된 영상과 함께 트위터 서버로 전송되는 정보를 나타낸다.FIG. 8 illustrates information transmitted to an SNS network together with a driving image photographed according to the driving image acquisition method of the electronic device illustrated in FIG. 6. For reference, FIG. 8 illustrates information transmitted to the twitter server together with the photographed image when the photographed driving image is transmitted using a tweeter which is a type of SNS.

도 8을 참조하면, 상기 트위터 서버로 전송되는 정보에는 상기 촬영된 영상을 전송한 사용자의 아이디와 상기 사용자가 설정한 아이콘 등의 사용자 정보, 상기 주행 영상이 촬영된 위치 정보(행정명), 상기 내비게이션 장치(100)의 식별 변호(i-code), 상기 내비게이션 장치(100)의 현재 속도 정보, 상기 트위터 서버에서 정보를 제공하는 웹사이트의 URL 등이 포함될 수 있음을 알 수 있다. 그러나, 이러한 정보는 본 발명의 일 실시예에 따라 상기 트위터 서버로 전송되는 정보의 일예일뿐이며, 본 발명의 범위가 이에 한정되는 것은 아니다.Referring to FIG. 8, the information transmitted to the twitter server includes user ID of the user who transmitted the photographed image, user information such as an icon set by the user, location information (administrative name) where the driving image is photographed, and It can be seen that the identification guard (i-code) of the navigation device 100, the current speed information of the navigation device 100, the URL of a website that provides information from the Twitter server, and the like. However, such information is only one example of information transmitted to the Twitter server according to an embodiment of the present invention, and the scope of the present invention is not limited thereto.

도 9a는 본 발명의 다른 실시예에 따른 전자 기기의 주행 영상 획득 방법을 나타내는 흐름도이다. 이하, 도 2, 도 4a, 및 도 9a를 참조하여 상기 전자 기기의 주행 영상 획득 방법을 설명한다.9A is a flowchart illustrating a driving image acquisition method of an electronic device according to another embodiment of the present invention. Hereinafter, a driving image acquisition method of the electronic device will be described with reference to FIGS. 2, 4A, and 9A.

먼저, 내비게이션 장치(100)의 제어부(170)는 저장부(150)에 지도를 미리 저장하며, 카메라(125)를 이용하여 주행 영상의 촬영을 시작한다(S200). 앞서 살펴본 바와 같이, 상기 제어부(170)는 상기 촬영된 주행 영상을 촬영 시작 시점부터 저장부(150)에 저장될 수도 있고, 특정 조건이 만족될 경우에만, 상기 촬영된 주행 영상을 상기 저장부(150)에 저장할 수도 있다. 또한, 상기 제어부(170)는 상기 내비게이션 장치(100)가 미리 설정된 구간에 진입한 이후에, 상기 카메라(125)를 이용하여 주행 영상의 촬영을 시작할 수도 있다.First, the controller 170 of the navigation device 100 stores the map in advance in the storage 150 and starts capturing the driving image using the camera 125 (S200). As described above, the controller 170 may store the photographed driving image in the storage unit 150 from a photographing start time, and when the specific condition is satisfied, the controller 170 stores the photographed driving image in the storage unit ( 150). In addition, the controller 170 may start capturing the driving image by using the camera 125 after the navigation apparatus 100 enters a preset section.

그런 다음, 상기 제어부(170)는 상기 내비게이션 장치(100)가 상기 미리 저장된 지도상의 미리 설정된 구간에 진입하는지를 판단한다(S210). 여기서, 상기 미리 설정된 구간은 사용자의 주의를 요하는 구간으로 상기 지도상에서 미리 설정된 구간일 수 있다.Then, the controller 170 determines whether the navigation device 100 enters a preset section on the pre-stored map (S210). Here, the predetermined period may be a period that requires attention of the user, and may be a predetermined period on the map.

예를 들면, 미리 정해진 구간에는 상기 미리 저장된 지도에서 사고 다발 지역으로 설정된 구간, 상습 정체 구간으로 설정된 구간, 공사 구간으로 설정된 구간, 위험 구간으로 설정된 구간, 안전 운행 구간, 기타 위험 구간으로 설정된 구간, CCTV(Closed Circuit TeleVision) 미설치 구간, 외부 장치로부터 촬영이 요청된 구간 등을 포함할 수 있다. 그러나 이는 본 발명의 구현 예에 따른 미리 설정된 구간의 예일뿐이며, 본 발명의 범위가 이에 한정되는 것은 아니다.For example, a predetermined section includes a section set as an accident-prone region, a section set as a habitual congestion section, a section set as a construction section, a section set as a dangerous section, a safe driving section, another section set as a dangerous section in the pre-stored map, It may include a section in which a closed circuit television (CCTV) is not installed and a section in which photography is requested from an external device. However, this is only an example of a preset section according to an embodiment of the present invention, and the scope of the present invention is not limited thereto.

한편, 위험 구간에는 사고 가능성이 높은 구간이라 할 수 있는 안개가 자주 끼는 구간, 노면이 미끄러운 구간, 낙석이 잦은 구간 등이 포함될 수 있다. 또한, 안전 운행 구간에는 학교 앞 서행 구간, 횡단 보도 근방의 서행 구간 등 다른 구간에 비하여 사용자의 주의를 더 요하는 구간이 포함될 수 있다.Meanwhile, the dangerous section may include a section frequently fogged, a road slippery section, a frequently rockfall section, and the like. In addition, the safe driving section may include a section requiring more attention of the user than other sections, such as a slowing section in front of the school, a slowing section near the crosswalk.

상기 내비게이션 장치(100)가 상기 지도상의 미리 설정된 구간으로 진입하면, 상기 제어부(170)는 미리 설정된 이벤트가 발생한 것으로 판단하여, 상기 미리 설정된 구간에 대하여 촬영된 주행 영상을 상기 저장부(150)에 저장한다(S220). 여기서, 앞서 살펴본, 상기 미리 설정된 이벤트의 발생 지점은 상기 미리 설정된 구간의 시작 지점을 의미하며, 상기 이벤트 발생 지점을 포함하는 특정 구간은 상기 지도상의 미리 설정된 구간을 의미한다.When the navigation device 100 enters the preset section on the map, the controller 170 determines that a preset event has occurred, and transmits the driving image photographed for the preset section to the storage unit 150. Save (S220). In this case, the occurrence point of the preset event refers to a start point of the preset section, and the specific section including the event occurrence point refers to a preset section on the map.

그런 다음, 상기 제어부(170)는 상기 특정 구간에서 촬영된 주행 영상 및 상기 주행 영상과 관련된 복수의 정보를 SNS 네트워크에 연결된 서버(200)로 전송한다(S230). 그러면, 상기 서버(200)는 상기 주행 영상 및 그와 관련된 복수의 정보중 적어도 하나를 포함하는 교통 콘텐츠를 외부 기기로 전송할 수 있고, 상기 외부 기기는 상기 주행 영상을 교통 콘텐츠에 포함된 정보 중 적어도 일부와 함께 화면에 표시할 수 있다.Then, the controller 170 transmits the driving image photographed in the specific section and a plurality of information related to the driving image to the server 200 connected to the SNS network (S230). Then, the server 200 may transmit traffic content including at least one of the driving image and a plurality of information related thereto to an external device, and the external device transmits the driving image to at least one of information included in the traffic content. Can be displayed on the screen with some.

도 9b는 도 9a에 도시된 전자 기기의 주행 영상 획득 방법의 일예를 나타내는 흐름도이다. 이하, 도 2, 도 4a, 도 9a, 및 도 9b를 참조하여 상기 전자 기기의 주행 영상 획득 방법을 설명한다.FIG. 9B is a flowchart illustrating an example of a driving image acquisition method of the electronic device illustrated in FIG. 9A. Hereinafter, a driving image acquisition method of the electronic device will be described with reference to FIGS. 2, 4A, 9A, and 9B.

먼저, 내비게이션 장치(100)의 제어부(170)는 저장부(150)에 지도를 미리 저장하며, 카메라(125)를 이용하여 주행 영상의 촬영을 시작한다(S200). 그런 다음, 상기 제어부(170)는 상기 내비게이션 장치(100)가 CCTV 미설치 구간에 진입하는지를 판단한다(S210').First, the controller 170 of the navigation device 100 stores the map in advance in the storage 150 and starts capturing the driving image using the camera 125 (S200). Then, the control unit 170 determines whether the navigation device 100 enters the CCTV installation section (S210 ').

상기 내비게이션 장치(100)가 상기 지도상의 CCTV 미설치 구간으로 진입하면, 상기 제어부(170)는 미리 설정된 이벤트가 발생한 것으로 판단하여, 상기 CCTV 미설치 구간에 대하여 촬영된 주행 영상을 상기 저장부(150)에 저장한다(S220'). 그런 다음, 상기 제어부(170)는 상기 CCTV 구간에서 촬영된 주행 영상 및 상기 주행 영상과 관련된 콘텐츠를 SNS 네트워크에 연결된 서버(200)와 같은 외부 기기로 전송한다(S230').When the navigation device 100 enters the CCTV non-installation section on the map, the controller 170 determines that a predetermined event has occurred, and stores the driving image photographed for the CCTV non-installation section to the storage unit 150. Save (S220 '). Then, the controller 170 transmits the driving image photographed in the CCTV section and the content related to the driving image to an external device such as a server 200 connected to an SNS network (S230 ′).

도 9b에 따르면, 상기 내비게이션 장치(100)는 CCTV 미설치 구간에 대한 주행 영상을 촬영하여 SNS 네트워크를 통하여 다른 사용자들과 공유할 수 있음을 알 수 있다. 그러면, 상기 내비게이션 장치(100)의 사용자와 소셜 네트워크를 형성하고 있는 다른 사용자들은 CCTV가 설치되지 않은 구간에서의 주행 영상을 실시간으로 제공받을 수 있다.According to FIG. 9B, it can be seen that the navigation device 100 can take a driving image of a section without CCTV and share it with other users through an SNS network. Then, other users who form a social network with the user of the navigation device 100 may be provided in real time the driving image in the section where the CCTV is not installed.

도 9c는 도 9a에 도시된 전자 기기의 주행 영상 획득 방법의 다른 예를 나타내는 흐름도이다. 이하, 도 2, 도 4a, 도 9a, 및 도 9c를 참조하여 상기 전자 기기의 주행 영상 획득 방법을 설명한다.FIG. 9C is a flowchart illustrating another example of a driving image acquisition method of the electronic device illustrated in FIG. 9A. Hereinafter, a driving image acquisition method of the electronic device will be described with reference to FIGS. 2, 4A, 9A, and 9C.

먼저, 내비게이션 장치(100)의 제어부(170)는 저장부(150)에 지도를 미리 저장하며, 카메라(125)를 이용하여 주행 영상의 촬영을 시작한다(S200). 그런 다음, 상기 제어부(170)는 상기 내비게이션 장치(100)가 다른 사용자가 주행 영상의 제공을 요청한 구간에 진입하는지를 판단한다(S210").First, the controller 170 of the navigation device 100 stores the map in advance in the storage 150 and starts capturing the driving image using the camera 125 (S200). Next, the controller 170 determines whether the navigation device 100 enters a section where another user requests to provide a driving image (S210 ″).

상기 내비게이션 장치(100)가 상기 구간으로 진입하면, 상기 제어부(170)는 미리 설정된 이벤트가 발생한 것으로 판단하여, 상기 구간에 대하여 촬영된 주행 영상을 상기 저장부(150)에 저장한다(S220"). 그런 다음, 상기 제어부(170)는 상기 구간에서 촬영된 주행 영상 및 상기 주행 영상과 관련된 교통 콘텐츠를 SNS 네트워크에 연결된 서버(200)와 같은 외부 기기로 전송한다(S230").When the navigation device 100 enters the section, the controller 170 determines that a preset event has occurred, and stores the driving image photographed for the section in the storage unit 150 (S220 "). Then, the controller 170 transmits the driving image photographed in the section and traffic content related to the driving image to an external device such as a server 200 connected to an SNS network (S230 ″).

도 9c에 따르면, 상기 내비게이션 장치(100)는 다른 사용자가 주행 영상을 요청한 구간에 대한 주행 영상을 촬영하여 SNS 네트워크를 통하여 다른 사용자에제 제공할 수 있음을 알 수 있다, 그러면, 상기 내비게이션 장치(100)의 사용자와 소셜 네트워크를 형성하고 있는 다른 사용자는 자신이 원하는 구간에 대한 주행 영상을 실시간으로 제공받을 수 있다.According to FIG. 9C, the navigation device 100 may capture a driving image of a section where another user requests a driving image and provide the same to another user through an SNS network. The other user who forms the social network with the user of 100) may be provided with the driving image of the section he / she wants in real time.

도 10은 도 9a에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 과정을 나타내는 개념도이다. 도 10을 참조하면, 내비게이션 장치(100)를 장착한 차량이 미리 저장된 지도상에서 미리 설정된 공사 구간으로 진입하는 경우, 상기 내비게이션 장치(100)의 제어부(170)는 촬영된 주행 영상을 저장하고, 공사 구간을 통과한 시점에 상기 공사 구간에 대하여 촬영한 주행 영상을 SNS 네트워크로 전송할 수 있음을 알 수 있다.FIG. 10 is a conceptual diagram illustrating a process of acquiring a driving image according to the driving image obtaining method of the electronic device illustrated in FIG. 9A. Referring to FIG. 10, when a vehicle equipped with the navigation device 100 enters a preset construction section on a pre-stored map, the controller 170 of the navigation device 100 stores the photographed driving image and constructs the construction. It can be seen that the driving image photographed for the construction section can be transmitted to the SNS network when the section passes.

그러나 상기 제어부(170)는, 도 10에 도시된 바와 달리, 상기 차량이 상기 미리 설정된 공사 구간에 진입한 시점부터 주행 영상의 촬영을 개시하고, 상기 공사 구간을 통과하면 주행 영상의 촬영을 중단한 다음, 상기 공사 구간에서 촬영된 주행 영상을 외부 기기로 전송할 수도 있다.However, unlike FIG. 10, the controller 170 starts capturing the driving image from the time when the vehicle enters the preset construction section, and stops photographing the driving image when the vehicle passes the construction section. Next, the driving image photographed in the construction section may be transmitted to an external device.

도 11은 본 발명의 또 다른 실시예에 따른 전자 기기의 주행 영상 획득 방법을 나타내는 흐름도이다. 이하, 도 2, 도 4a, 및 도 11을 참조하여 상기 전자 기기의 주행 영상 획득 방법을 설명한다.11 is a flowchart illustrating a driving image acquisition method of an electronic device according to another embodiment of the present invention. Hereinafter, a driving image acquisition method of the electronic device will be described with reference to FIGS. 2, 4A, and 11.

먼저, 내비게이션 장치(100)의 제어부(170)는 지도를 저장부(150)에 미리 저장한 다음, 카메라(125)를 이용하여 주행 영상을 촬영한다(S300). 상기 내비게이션 장치(100)는 통신부(110)를 통하여 형성된 통신망을 통하여 교통 정보를 수신한다. 예를 들면, 상기 내비게이션 장치(100)는 DMB망을 통하여 교통 정보를 수신할 수 있다. 또한, 상기 내비게이션 장치(100)는 이동 통신망을 통하여 교통 정보를 수신할 수도 있다. 그러나 본 발명의 범위가 이에 한정되는 것은 아니며, 상기 내비게이션 장치(100)는 상술한 통신망들 이외의 다양한 통신망을 통하여 교통 정보를 수신할 수도 있다.First, the controller 170 of the navigation device 100 stores the map in the storage 150 in advance, and then photographs the driving image using the camera 125 (S300). The navigation device 100 receives traffic information through a communication network formed through the communication unit 110. For example, the navigation device 100 may receive traffic information through a DMB network. In addition, the navigation device 100 may receive traffic information through a mobile communication network. However, the scope of the present invention is not limited thereto, and the navigation device 100 may receive traffic information through various communication networks other than the above-described communication networks.

교통 정보가 수신되면, 상기 제어부(170)는 상기 교통 정보에 기초하여 이벤트 발생 지점을 획득한다(S310). 이하, 상기 제어부(170)가 상기 교통 정보를 활용하여 미리 설정된 이벤트의 발생 지점을 획득하는 예들을 살펴 본다.When the traffic information is received, the controller 170 obtains an event occurrence point based on the traffic information (S310). Hereinafter, examples in which the controller 170 acquires a generation point of a preset event using the traffic information will be described.

상기 제어부(170)는, 상기 교통 정보에 사고 발생 지점에 관한 정보가 포함되어 있으면, 상기 사고 발생 지점을 미리 설정된 이벤트 발생 지점으로 획득할 수 있다. 또한, 상기 제어부(170)는 상기 교통 정보의 속성의 변경 지점을 상기 미리 설정된 이벤트의 발생 지점으로 획득할 수 있다. 여기서, 상기 교통 정보의 속성의 변경 지점의 대표적인 예로 도로의 교통 상황이 "원할"에서 "정체"로 갑자기 변화되는 지점이 포함될 수 있다.If the traffic information includes information on an accident occurrence point, the controller 170 may obtain the accident occurrence point as a preset event occurrence point. In addition, the controller 170 may obtain a change point of the property of the traffic information as a generation point of the preset event. Here, a representative example of the change point of the attribute of the traffic information may include a point where the traffic condition of the road suddenly changes from "want" to "stuck".

상기 미리 설정된 이벤트의 발생 지점이 획득되면, 상기 제어부(170)는 상기 이벤트의 발생 지점을 포함하는 특정 구간을 설정한다(S320), 예를 들면, 상기 제어부(170)는 상기 미리 설정된 이벤트의 발생 지점으로부터 일정 반경 이내의 구간을 상기 특정 구간으로 설정할 수 있다.When the occurrence point of the preset event is obtained, the controller 170 sets a specific section including the occurrence point of the event (S320), for example, the controller 170 generates the preset event. A section within a certain radius from the point may be set as the specific section.

그런 다음, 상기 제어부(170)는 상기 내비게이션 장치(100)가 상기 설정된 특정 구간에 진입하는지를 판단한다(S330). 상기 내비게이션 장치(100)가 상기 설정된 특정 구간에 진입하면, 상기 제어부(170)는 상기 특정 구간에서 촬영된 주행 영상을 저장하고(S340), 상기 저장된 주행 영상 및 상기 저장된 주행 영상과 관련된 정보 중 적어도 하나를 포함하는 교통 콘텐츠를 SNS 네트워크를 통하여 외부 기기로 전송한다(S350). 앞서 살펴본 바와 같이, 상기 제어부(170)는, 도 11에 도시된 바와 달리, 상기 내비게이션 장치(100)가 상기 특정 구간에 진입한 이후에 카메라(125)를 이용하여 주행 영상의 촬영을 시작할 수도 있다.Then, the controller 170 determines whether the navigation device 100 enters the set specific section (S330). When the navigation apparatus 100 enters the set specific section, the controller 170 stores the driving image photographed in the specific section (S340), and stores at least one of information related to the stored driving image and the stored driving image. Traffic content including one is transmitted to an external device through the SNS network (S350). As described above, the controller 170 may start capturing the driving image by using the camera 125 after the navigation apparatus 100 enters the specific section, unlike FIG. 11. .

도 12는 도 11에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 과정을 나타내는 개념도이다. 참고로, 도 12는 통신부(110)를 통하여 수신되는 교통 정보에 사고 발생 정보가 포함된 경우, 내비게이션 장치(100)에서 주행 영상을 촬영하여 자동으로 전송하는 과정을 나타낸다.FIG. 12 is a conceptual diagram illustrating a process of acquiring a driving image according to the driving image obtaining method of the electronic device illustrated in FIG. 11. For reference, FIG. 12 illustrates a process of automatically photographing and transmitting a driving image in the navigation apparatus 100 when the accident occurrence information is included in the traffic information received through the communication unit 110.

도 12를 참조하면, 상기 내비게이션 장치(100)를 장착한 차량이 주행 중 사고 발생 정보가 수신되면, 상기 내비게이션 장치(100)의 제어부(170)는 주행 영상 저장 구간인 특정 구간을 설정하고, 차량이 상기 특정 구간에 진입할 경우, 정체 발생의 원인이 되는 사고 현장을 포함하는 주행 영상의 촬영을 개시함을 알 수 있다.Referring to FIG. 12, when an accident occurrence information is received while a vehicle equipped with the navigation apparatus 100 is driving, the controller 170 of the navigation apparatus 100 sets a specific section that is a driving image storage section and the vehicle. When entering the specific section, it can be seen that the shooting of the driving image including the accident site that causes the congestion is started.

그런 다음, 상기 제어부(170)는 상기 특정 구간에서 촬영된 영상을 저장하고, 상기 내비게이션 장치(100)가 상기 특정 구간을 통과한 시점에 상기 공사 구간에 대하여 촬영한 주행 영상(즉, 사고 현장을 포함하는 정체 원인 영상)을 SNS 네트워크를 통하여 외부 기기로 전송할 수 있다. 그러나 상기 제어부(170)는, 도 12에 도시된 바와 달리, 상기 차량의 운행 중에도 주행 영상을 촬영하여 저장하고, 저장된 주행 영상 중에서 상기 특정 구간에 대한 주행 영상만을 상기 SNS 네트워크로 전송할 수도 있다.Thereafter, the controller 170 stores the image photographed in the specific section, and the driving image (i.e., the scene of the accident) photographed for the construction section at the time when the navigation device 100 passes the specific section. Congestion cause image) may be transmitted to an external device through an SNS network. However, unlike FIG. 12, the controller 170 may capture and store a driving image while driving the vehicle, and transmit only a driving image of the specific section from the stored driving image to the SNS network.

도 13은 본 발명의 또 다른 실시예에 따른 전자 기기의 주행 영상 획득 방법을 나타내는 흐름도이다. 이하, 도 2, 도 4a, 및 도 13을 참조하여 상기 전자 기기의 주행 영상 획득 방법을 설명한다.13 is a flowchart illustrating a driving image acquisition method of an electronic device according to another embodiment of the present invention. Hereinafter, a driving image acquisition method of the electronic device will be described with reference to FIGS. 2, 4A, and 13.

내비게이션 장치(100)의 제어부(170)는 지도를 저장부(150)에 미리 저장한 다음, 카메라(125)를 이용하여 주행 영상을 촬영하며(S400), 센싱부(130)를 이용하여 적어도 하나의 물리량을 감지한다(S410). 여기서, 상기 센싱부(130)에서 감지하는 물리량에는 상기 내비게이션 장치(100)가 장착된 물체에 가해지는 충격량, 상기 물체에서의 진동량, 상기 내비게이션 장치(100)의 가속도, 상기 내비게이션 장치(100)의 속도, 외부 온도, 외부 음향의 세기 등이 포함될 수 있다.The control unit 170 of the navigation device 100 stores the map in advance in the storage unit 150, and then photographs the driving image using the camera 125 (S400) and at least one using the sensing unit 130. The physical quantity of is sensed (S410). Here, the physical quantity detected by the sensing unit 130, the amount of impact applied to the object on which the navigation device 100 is mounted, the amount of vibration in the object, the acceleration of the navigation device 100, the navigation device 100 The speed, external temperature, and the intensity of the external sound may be included.

상기 적어도 하나의 물리량이 감지되면, 상기 제어부(170)는 상기 적어도 하나의 감지된 물리량을 분석하여 상기 적어도 하나의 물리량의 비정상적 패턴이 발생하였는지를 감지한다(S430). 상기 적어도 하나의 물리량의 비정상적 패턴이 발생하면, 상기 제어부(170)는 상기 적어도 하나의 물리량의 비정상적인 패턴의 발생 지점을 미리 설정된 이벤트의 발생 지점으로 획득하고, 상기 적어도 하나의 물리량의 비정상적 패턴의 발생 지점을 포함하는 특정 구간을 설정한다(S440).When the at least one physical quantity is detected, the controller 170 analyzes the at least one detected physical quantity to detect whether an abnormal pattern of the at least one physical quantity occurs (S430). When an abnormal pattern of the at least one physical quantity occurs, the controller 170 obtains a occurrence point of the abnormal pattern of the at least one physical quantity as a occurrence point of a preset event, and generates an abnormal pattern of the at least one physical quantity. A specific section including the point is set (S440).

그런 다음, 상기 제어부(170)는 상기 특정 구간에서 촬영된 주행 영상을 저장하고(S450), 상기 저장된 주행 영상 및 상기 저장된 주행 영상과 관련된 정보를 포함하는 교통 콘텐츠를 SNS 네트워크를 통하여 외부 기기로 전송한다(S460).Then, the controller 170 stores the driving image photographed in the specific section (S450), and transmits the traffic content including the stored driving image and the information related to the stored driving image to an external device through an SNS network. (S460).

도 14는 도 13에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 일예를 나타내는 개념도이다. 참고로, 도 14는 내비게이션 장치(100)가 장착된 물체에 가해지는 충격량이 정상적인 도로를 주행할 경우의 충격량 패턴과 다를 경우, 주행 영상을 자동으로 획득하는 과정을 나타낸다.FIG. 14 is a conceptual diagram illustrating an example in which a driving image is acquired according to the driving image obtaining method of the electronic device illustrated in FIG. 13. For reference, FIG. 14 illustrates a process of automatically obtaining a driving image when an impact amount applied to an object on which the navigation device 100 is mounted is different from an impact amount pattern when driving a normal road.

도 14를 참조하면, 상기 내비게이션 장치(100)가 장착된 차량이 도로를 주행하는 중 도로의 파손된 부분을 통과할 경우, 상기 제어부(170)는 상기 차량에 상하 진폭이 정상적인 도로 주행시의 상하 진폭보다 큰 충격량이 감지됨을 인지하고, 충격량의 상하 진폭이 정상적인 도로에서보다 큰 지점을 포함하는 특정 구간에서 촬영된 주행 영상을 저장함을 알 수 있다.Referring to FIG. 14, when a vehicle equipped with the navigation device 100 passes a damaged portion of a road while driving on a road, the controller 170 controls the vehicle to move up and down when the road is normal in amplitude. Recognizing that a larger impact amount is detected, it can be seen that the driving image photographed in a specific section including a point where the upper and lower amplitudes of the impact amount is larger than in a normal road is stored.

이때, 상기 제어부(170)는 촬영되는 주행 영상 전체 또는 주행 영상을 특정 구간 단위로 저장하고 있어야 한다. 왜냐하면, 도 9a 및 도 11에 도시된 전자 기기의 주행 영상 획득 방법에서는 주행 영상을 촬영하고 저장하는 구간이 지도상에 미리 설정되어 있거나, 교통 정보에 기초하여 미리 설정될 수 있으나, 도 13의 전자 기기의 주행 영상 획득 방법에 따를 경우, 도로 파손 구간에서의 비정상적 충격량 감지 지점을 포함하는 그 구간을 미리 설정하기 어렵기 때문이다.In this case, the controller 170 should store the entire driving image or the driving image photographed in a specific section unit. That is, in the driving image acquisition method of the electronic device illustrated in FIGS. 9A and 11, a section for capturing and storing the driving image may be preset on a map or may be preset based on traffic information. This is because it is difficult to pre-set the section including the abnormal impact amount detection point in the road damage section according to the driving image acquisition method of the device.

만약, 주행 영상이 특정 구간 단위로 저장된 후, 상기 특정 구간에 도로 파손 지점이 없는 경우, 상기 제어부(170)는 특정 구간 단위로 저장된 영상을 삭제함으로써 저장 공간의 활용 효율성을 높일 수 있다.If the driving image is stored in a specific section unit and there are no road breakage points in the specific section, the controller 170 may increase the utilization efficiency of the storage space by deleting the image stored in the specific section unit.

도 15는 도 13에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 조건의 일예를 나타낸다. 참고로, 도 15는 상기 내비게이션 장치(100)의 이동 속도가 급격히 가변되는 경우, 주행 영상을 자동으로 획득하기 위한 조건을 나타낸다.FIG. 15 illustrates an example of a condition that a driving image is acquired according to the driving image acquisition method of the electronic device illustrated in FIG. 13. For reference, FIG. 15 illustrates a condition for automatically acquiring a driving image when a moving speed of the navigation device 100 is rapidly changed.

도 15를 참조하면, 상기 내비게이션 장치(100)의 센싱부(130)에 의하여 감지된 내비게이션 장치(100)의 이동 속도가 급격히 감소되고, 상기 센싱부(130)에 의하여 감지된 상기 내비게이션 장치(100)의 가속도(즉, 상기 내비게이션 장치(100)에 가해지는 힘)가 급격히 감소됨을 알 수 있다. 이때, 상기 제어부(170)는 상기 센싱부(130)의 속도 및/또는 가속도 감지 결과에 기초하여, 미리 설정된 이벤트가 발생한 것을 인지하고, 상기 이동 속도가 급격히 감소되는 지점 및/또는 상기 가속도가 급격히 감소되는 지점을 포함하는 특정 구간을 설정하고, 그 구간에 대하여 촬영된 주행 영상을 저장할 수 있다.Referring to FIG. 15, the movement speed of the navigation device 100 sensed by the sensing unit 130 of the navigation device 100 is sharply reduced, and the navigation device 100 detected by the sensing unit 130. It can be seen that the acceleration (that is, the force applied to the navigation device 100) is abruptly reduced. In this case, the controller 170 recognizes that a predetermined event occurs based on the speed and / or acceleration detection result of the sensing unit 130, and the point where the movement speed is rapidly decreased and / or the acceleration is rapidly A specific section including a reduced point may be set, and a driving image photographed for the section may be stored.

도면에 도시되지는 않았으나, 상기 내비게이션 장치(100)의 제어부(170)는 센싱부(130)에 의하여 감지되는 외부 음향에 기초하여 미리 설정된 이벤트 발생 여부를 판단할 수도 있다. 예를 들면, 상기 제어부(170)는 외부 음향의 분석 결과 차량 충돌음이 인지되면, 주변에 사고가 발생한 것으로 인식하여, 주행 영상을 촬영할 수 있다.Although not shown in the drawing, the controller 170 of the navigation device 100 may determine whether a preset event occurs based on external sound detected by the sensing unit 130. For example, when a vehicle collision sound is recognized as a result of analysis of external sound, the controller 170 may recognize that an accident has occurred in the vicinity, and may photograph a driving image.

또한, 상기 내비게이션 장치(100)의 제어부(170)는 상기 센싱부(130)에 의하여 감지되는 외부 온도에 기초하여 상기 미리 설정된 이벤트의 발생 여부를 판단할 수 있다. 예컨대, 상기 제어부(170)는 감지된 외부 온도가 주행 중에 감지된 온도보다 특별히 높은 경우 주행 영상을 획득할 수 있다. 이때에는 차량 화재 발생 가능성, 주행 중인 도로 주변에서의 화재 발생 가능성 등이 높기 때문이다.In addition, the controller 170 of the navigation device 100 may determine whether the preset event is generated based on the external temperature detected by the sensing unit 130. For example, the controller 170 may obtain a driving image when the detected external temperature is particularly higher than the temperature detected while driving. In this case, the likelihood of a vehicle fire occurring or a fire occurring near a driving road is high.

도 16은 도 13에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 주행 영상이 획득되는 과정의 다른 예를 개념적으로 나타낸 것이다. 도 16을 참조하면, 내비게이션 장치(100)의 제어부(170)는 센싱부(130)을 이용하여 감지된 물리량인 상기 내비게이션 장치(100)가 장착된 차량의 속도를 감지한 결과, 특정 구간이 정체 구간으로 판단되고, 상기 내비게이션 장치(100)의 통신부(110)로부터 수신된 교통 정보에 따르더라도 상기 특정 구간이 정체 구간으로 판단될 경우, 상기 특정 구간에 대하여 촬영된 주행 영상을 저장하고, 상기 저장된 주행 영상을 SNS 네트워크를 통하여 외부 기기로 자동 전송할 수 있다.FIG. 16 conceptually illustrates another example of a process of acquiring a driving image according to the driving image obtaining method of the electronic device illustrated in FIG. 13. Referring to FIG. 16, the control unit 170 of the navigation device 100 detects a speed of a vehicle on which the navigation device 100, which is a physical quantity detected using the sensing unit 130, is congested. If it is determined that the section is determined to be a congestion section even though the traffic information received from the communication unit 110 of the navigation device 100 is determined as a section, the driving image photographed for the specific section is stored and the stored The driving video can be automatically transmitted to the external device through the SNS network.

즉, 상기 제어부(170)는 상기 내비게이션 장치(100)가 장착된 차량의 속도가 급격히 변하기 시작하는 특정 지점을 미리 설정된 이벤트 발생 지점으로 획득하고, 상기 차량의 속도가 급격히 증가하기 시작하는 특정 지점부터 상기 차량의 속도가 다시 증가하는 특정 지점까지를 주행 영상 촬영을 촬영하기 위한 특정 구간으로 설정한 것이다.That is, the controller 170 obtains a specific point at which the speed of the vehicle on which the navigation apparatus 100 is mounted starts to change rapidly as a preset event occurrence point, and starts from a specific point at which the speed of the vehicle starts to increase rapidly. The vehicle is set to a specific section for capturing driving images up to a specific point where the speed of the vehicle is increased again.

이상에서는, 도 16을 참조하여, 상기 제어부(170)가 상기 센싱부(130)에 의하여 센싱되는 이동 속도에 의하여 인지되는 교통 정보와 외부로부터 수신되는 교통 정보가 일치하는 경우, 주행 영상을 촬영하는 과정을 살펴 보았다. 그러나, 본 발명의 범위가 이에 한정되는 것은 아니며, 상기 제어부(170)는 상기 센싱부(130)에 의하여 감지되는 가속도, 충격량, 외부 온도, 외부 음향의 강도 등의 물리량에 기초하여 인지되는 교통 정보와 외부로부터 수신되는 교통 정보가 일치하는 경우에도 주행 영상을 획득할 수도 있다.In the above, referring to FIG. 16, when the controller 170 matches the traffic information recognized by the moving speed sensed by the sensing unit 130 and the traffic information received from the outside, the controller 170 may photograph the driving image. I looked at the process. However, the scope of the present invention is not limited thereto, and the control unit 170 may recognize traffic information based on physical quantities such as acceleration, impact amount, external temperature, and intensity of external sound detected by the sensing unit 130. The driving image may be acquired even when the traffic information received from the outside coincides with the driving information.

즉, 상기 제어부(170)는 상기 센싱부(130)에 의하여 감지된 적어도 하나의 물리량에 대한 비정상적인 패턴에 기초하여 감지되는 교통 정보와 상기 통신부(110)를 통하여 수신되는 교통 정보가 일치하는 경우, 상기 적어도 하나의 물리량에 대한 비정상적인 패턴의 감지 지점을 상기 미리 설정된 이벤트 발생 지점으로 획득하여 주행 영상을 획득할 수 있다.That is, when the traffic information detected through the communication unit 110 and the traffic information detected on the basis of the abnormal pattern for the at least one physical quantity detected by the sensing unit 130 is matched, A driving image may be obtained by acquiring a detection point of an abnormal pattern for the at least one physical quantity as the preset event occurrence point.

도 17은 본 발명의 또 다른 실시예에 따른 전자 기기의 주행 영상 획득 방법을 나타내는 흐름도이다. 이하, 도 2, 도 4a, 및 도 17을 참조하여 상기 전자 기기의 주행 영상 획득 방법을 설명한다.17 is a flowchart illustrating a driving image acquisition method of an electronic device according to another embodiment of the present invention. Hereinafter, a driving image acquisition method of the electronic device will be described with reference to FIGS. 2, 4A, and 17.

먼저, 내비게이션 장치(100)의 제어부(170)는 지도를 저장부(150)에 미리 저장한 다음, 카메라(125)를 이용하여 주행 영상을 촬영하며, 상기 주행 영상을 저장부(150)에 저장한다(S500). 그런 다음, 상기 제어부(170)는 상기 주행 영상을 분석하며, 상기 주행 영상의 분석 결과에 기초하여 미리 설정된 이벤트 발생 지점을 획득한다(S510). 이때, 상기 제어부(170)는 미리 설정된 이벤트가 발생하지 않은 특정 구간에 대한 주행 영상을 상기 저장부(150)에서 삭제함으로써 데이터 저장 효율성을 높일 수 있다.First, the control unit 170 of the navigation device 100 stores the map in advance in the storage unit 150, and then photographs the driving image using the camera 125, and stores the driving image in the storage unit 150. (S500). Next, the controller 170 analyzes the driving image and acquires a preset event occurrence point based on the analysis result of the driving image (S510). In this case, the controller 170 may increase the data storage efficiency by deleting the driving image of the specific section in which the preset event does not occur in the storage unit 150.

상기 미리 설정된 이벤트의 발생 지점이 획득되면, 상기 제어부(170)는 상기 이벤트의 발생 지점을 포함하는 특정 구간을 설정하고(S520), 상기 특정 구간에서 촬영된 주행 영상 및 상기 주행 영상과 관련된 정보, 즉, 교통 콘텐츠를 SNS 네트워크를 통하여 외부 기기로 전송한다(S530).When the occurrence point of the preset event is obtained, the controller 170 sets a specific section including the occurrence point of the event (S520), the driving image photographed in the specific section and information related to the driving image, That is, the traffic content is transmitted to the external device through the SNS network (S530).

도 18은 도 17에 도시된 전자 기기의 주행 영상 획득 방법에 따라서 수행되는 영상 분석 결과의 예들을 나타낸다. 도 18을 참조하면, 내비게이션 장치(100)의 제어부(170)는 주행 영상을 분석하여, 사고 발생, 야간의 차량 정체, 주간의 차량 정체 등의 이벤트 발생을 인지할 수 있다.FIG. 18 illustrates examples of image analysis results performed according to the driving image acquisition method of the electronic device illustrated in FIG. 17. Referring to FIG. 18, the controller 170 of the navigation apparatus 100 may analyze a driving image to recognize occurrence of an event such as an accident, a traffic jam at night, or a traffic jam at daytime.

예컨대, 상기 제어부(170)는, 도 18의 (a)에 도시된 바와 같이, 상기 주행 영상에서 정지하고 있는 차량의 전복 등을 인식하여 사고 발생 여부를 판단할 수 있다. 또한, 상기 제어부(170)는 도 18의 (b)에 도시된 바와 같이, 주행 영상에서 차량의 후미등 및/또는 브레이크등의 개수, 이동 속도를 판단하여 야간의 차량 정체 여부를 판단할 수 있다. 또한, 상기 제어부(170)는, 도 18의 (c)에 도시된 바와 같이, 주행 영상에서 차량의 외곽선을 인식하여 전방 도로상에 위치한 차량의 수, 이동 속도 등을 판단하여 주간의 차량 정체 여부를 판단할 수도 있다.For example, as illustrated in FIG. 18A, the controller 170 may recognize an overturn of the vehicle, which is stopped in the driving image, and determine whether an accident occurs. In addition, as illustrated in FIG. 18B, the controller 170 may determine whether the vehicle is at night by determining the number of tail lights and / or brake lights and the moving speed of the vehicle in the driving image. In addition, as shown in (c) of FIG. 18, the controller 170 recognizes the outline of the vehicle in the driving image, determines the number of vehicles located on the road ahead, the moving speed, and the like to determine whether the vehicle is congested during the day. You can also judge.

도 18에 도시된 영상 분석의 예는 본 발명의 실시예에 따른 내비게이션 장치(100)에서 수행될 수 있는 영상 분석의 일예들일 뿐이며, 본 발명의 범위가 이에 한정되는 것은 아니다. 예컨대, 상기 내비게이션 장치(100)는 주행 영상 분석을 통하여 도로상의 장애물 유무, 도로 파손 여부, 앞차와의 거리 등을 인지하여 이벤트 발생 여부를 판단할 수도 있다.The example of the image analysis illustrated in FIG. 18 is only one example of image analysis that may be performed in the navigation apparatus 100 according to an embodiment of the present invention, and the scope of the present invention is not limited thereto. For example, the navigation device 100 may determine whether an event occurs by recognizing the presence or absence of obstacles on the road, whether the road is damaged, or the distance to the vehicle in front of the driving image.

이상에서 살펴본 바와 같이, 본 발명의 실시예에 따른 내비게이션 장치(100)는 사용자의 조작 없이도, 주행 영상 촬영이 필요하다고 판단되는 특정 구간에서의 주행 영상을 자동으로 획득할 수 있다. 또한, 상기 내비게이션 장치(100)는 SNS 네트워크를 이용하여 획득된 주행 영상을 다른 사용자들과 용이하게 공유할 수 있다.As described above, the navigation device 100 according to an exemplary embodiment of the present invention may automatically acquire a driving image in a specific section determined to require driving image capture without a user's manipulation. In addition, the navigation device 100 can easily share the driving image obtained using the SNS network with other users.

도 19는 본 발명의 실시예에 따른 서버(200)의 주행 영상 제공 방법을 설명하기 위한 흐름도이다. 이하, 도 2, 도 5, 및 도 19를 참조하여 상기 서버(200)의 주행 영상 제공 방법을 설명한다.19 is a flowchart illustrating a driving image providing method of a server 200 according to an exemplary embodiment of the present invention. Hereinafter, a driving image providing method of the server 200 will be described with reference to FIGS. 2, 5, and 19.

먼저, 상기 서버(200)는 통신부(210)를 통하여 복수의 제1 전자 기기 및 제2 전자 기기와 네트워크를 형성한 다음, 복수의 제1 전자 기기들로부터 주행 영상 및 그와 관련된 복수의 정보를 통신부(210)수신하여 데이터베이스(230)에 저장한다(S600).First, the server 200 establishes a network with a plurality of first electronic devices and a second electronic device through the communication unit 210, and then provides a driving image and a plurality of pieces of information associated with the plurality of first electronic devices. The communication unit 210 receives and stores the data in the database 230 (S600).

여기서, 상기 복수의 제1 전자 기기들 및 제2 전자 기기와 상기 서버(200) 사이에 형성되는 네트워크는 SNS 네트워크일 수 있다. 또한, 상기 주행 영상과 관련된 정보에는 제1 전자 기기 사용자의 정보, 상기 제1 사용자가 작성한 메시지, 상기 주행 영상을 촬영한 위치, 상기 주행 영상의 촬영 시간, 상기 제1 전자 기기의 이동 방향 등이 포함될 수 있다.Here, the network formed between the plurality of first electronic devices and the second electronic device and the server 200 may be an SNS network. The information related to the driving image may include information of a first electronic device user, a message written by the first user, a location at which the driving image is captured, a shooting time of the driving image, a moving direction of the first electronic device, and the like. May be included.

그런 다음, 상기 서버(200)는 제2 전자 기기(100)로부터 위치 기반의 검색 팩터를 수신하고, 그에 기초하여 상기 데이터베이스(230)에 저장된 주행 영상을 검색하기 위한 검색 조건을 설정한다(S610). 상기 위치 기반의 검색 팩터는 상기 제2 전자 기기(100)의 위치, 상기 제2 전자 기기(100)의 사용자가 지정한 특정 위치, 특정 건물의 위치, 특정 도로, 특정 경로 중 하나일 수 있다. 그런 다음, 상기 서버(200)는 상기 데이터베이스(230)에 저장된 주행 영상 중 설정된 검색 조건에 부합하는 주행 영상을 검색하고(S620), 상기 검색된 주행 영상 및 그와 관련된 복수의 정보 중 적어도 하나를 포함하는 교통 콘텐츠를 상기 제2 전자 기기(100)로 전송한다(S630).Next, the server 200 receives a location-based search factor from the second electronic device 100 and sets a search condition for searching for a driving image stored in the database 230 based on the location factor (S610). . The location-based search factor may be one of a location of the second electronic device 100, a specific location specified by a user of the second electronic device 100, a location of a specific building, a specific road, and a specific path. Thereafter, the server 200 searches for a driving image meeting a search condition among driving images stored in the database 230 (S620), and includes at least one of the found driving image and a plurality of pieces of information related thereto. The traffic content is transmitted to the second electronic device 100 (S630).

이하, 상기 서버(200)에서 상기 제2 전자 기기(100)로부터 수신되는 검색 팩터에 기초하여 검색 조건을 설정하고, 그에 따라 주행 영상을 검색하는 구체적인 예들을 살펴본다.Hereinafter, a detailed example of setting a search condition based on a search factor received from the second electronic device 100 in the server 200 and searching for a driving image according to the present invention will be described.

예컨대, 상기 제2 전자 기기(100)로부터 상기 제2 전자 기기(100)의 위치가 검색 팩터로 수신되면, 상기 서버(200)는 상기 데이터베이스(230)에 저장된 주행 영상 중에서 상기 제2 전자 기기(100)의 위치를 기준으로 미리 설정된 반경 이내에서 촬영된 주행 영상을 검색하고, 상기 검색된 주행 영상 및 그와 관련된 복수의 정보 중 적어도 하나를 포함하는 교통 콘텐츠를 상기 제2 전자 기기(100)로 전송할 수 있다.For example, when the location of the second electronic device 100 is received as a search factor from the second electronic device 100, the server 200 may store the second electronic device (eg, the driving image stored in the database 230). Search for a driving image photographed within a preset radius based on the position of 100 and transmit traffic content including at least one of the searched driving image and a plurality of information related thereto to the second electronic device 100. Can be.

만약, 상기 제2 전자 기기(100)로부터 특정 도로가 검색 팩터로 수신되면, 상기 서버(200)는 상기 데이터베이스(230)에 저장된 주행 영상 중에서 상기 특정 도로상에서 촬영된 영상을 검색하고, 상기 검색된 주행 영상 및 그에 대한 복수의 정보 중 적어도 하나를 포함하는 교통 관련 콘텐츠를 상기 제2 전자 기기(100)로 전송할 수 있다.If a specific road is received as a search factor from the second electronic device 100, the server 200 searches for an image photographed on the specific road among the driving images stored in the database 230, and searches for the found driving. Traffic-related content including at least one of an image and a plurality of information thereof may be transmitted to the second electronic device 100.

또한, 상기 제2 전자 기기(100)로부터 특정 경로가 검색 팩터로 수신되면, 상기 서버(200)는 상기 특정 경로 상에서 촬영된 영상을 검색하고, 검색된 주행 영상 및 그와 관련된 복수의 정보 중 적어도 하나를 포함하는 교통 관련 콘텐츠를 상기 제2 전자 기기(100)로 전송할 수도 있다.In addition, when a specific path is received from the second electronic device 100 as a search factor, the server 200 searches for an image photographed on the specific path, and at least one of the searched driving image and a plurality of pieces of information related thereto. Traffic-related content including may be transmitted to the second electronic device 100.

또한, 상기 서버(200)는 상기 특정 경로 상의 상기 제2 전자 기기(100)의 위치로부터 미리 설정된 반경 이내에서 촬영된 주행 영상을 검색하여, 검색된 주행 영상 및 그와 관련된 복수의 정보 중 적어도 하나를 포함하는 교통 콘텐츠를 상기 제2 전자 기기(100)로 전송할 수도 있다. 다만, 상술한 예들은 본 발명의 일 구현 방법에 따른 것일 뿐, 본 발명의 범위가 이에 한정되는 것은 아니다.In addition, the server 200 searches for a driving image photographed within a preset radius from a position of the second electronic device 100 on the specific path, and searches for at least one of the found driving image and a plurality of pieces of information related thereto. Traffic content, including the content, may be transmitted to the second electronic device 100. However, the above-described examples are merely an implementation method of the present invention, and the scope of the present invention is not limited thereto.

도 20은 본 발명의 다른 실시예에 따른 서버의 주행 영상 제공 방법을 나타내는 흐름도이다. 이하, 도 2, 도 5, 및 도 20을 참조하여 상기 서버(200)의 주행 영상 제공 방법을 설명한다.20 is a flowchart illustrating a driving image providing method of a server according to another exemplary embodiment of the present invention. Hereinafter, a driving image providing method of the server 200 will be described with reference to FIGS. 2, 5, and 20.

먼저, 상기 서버(200)는 통신부(210)를 통하여 복수의 제1 전자 기기 및 제2 전자 기기와 네트워크를 형성한 다음, 복수의 제1 전자 기기들로부터 주행 영상 및 그와 관련된 복수의 정보를 통신부(210)를 통하여 수신하여 데이터베이스(230)에 저장한다(S700).First, the server 200 establishes a network with a plurality of first electronic devices and a second electronic device through the communication unit 210, and then provides a driving image and a plurality of pieces of information associated with the plurality of first electronic devices. Received through the communication unit 210 and stored in the database 230 (S700).

그런 다음, 상기 서버(200)는 제2 전자 기기(100)로부터 상기 제2 전자 기기(100)의 위치를 검색 팩터로 수신하고, 그에 기초하여 검색 반경을 설정한다(S710). 상기 제2 전자 기기(100)의 현재 위치와 그로부터의 검색 반경이 설정되면, 상기 데이터베이스(230)에 저장된 주행 영상 중 설정된 검색 반경 이내에서 촬영된 주행 영상을 검색하고(S720), 상기 검색된 주행 영상 및 그와 관련된 정보를 포함하는 교통 콘텐츠를 상기 제2 전자 기기(100)로 전송한다(S730).Then, the server 200 receives the location of the second electronic device 100 from the second electronic device 100 as a search factor and sets a search radius based on the search factor (S710). When the current location of the second electronic device 100 and the search radius therefrom are set, the driving image photographed within the set search radius among the driving images stored in the database 230 is searched (S720), and the searched driving image And transmits the traffic content including the information related thereto to the second electronic device 100 (S730).

도 21은 도 20에 도시된 서버의 주행 영상 제공 방법의 수행 결과, 주행 영상이 전자 기기에 표시된 일예를 나타낸다. 참고로, 도 21은 제2 전자 기기(100)에서 상기 제2 전자 기기(100)의 현재 위치를 검색 팩터로 전송하고, 서버(200)에서 상기 제2 전자 기기(100)의 현재 위치를 기준으로 특정 반경 이내에서 촬영된 주행 영상을 검색하여 상기 제2 전자 기기(100)로 전송한 경우, 상기 제2 전자 기기(100)의 화면을 나타낸다.FIG. 21 illustrates an example in which the driving image is displayed on the electronic device as a result of performing the driving image providing method of the server illustrated in FIG. 20. For reference, FIG. 21 transmits a current location of the second electronic device 100 as a search factor from the second electronic device 100 and refers to the current location of the second electronic device 100 in the server 200. When the driving image photographed within a certain radius is searched and transmitted to the second electronic device 100, the screen of the second electronic device 100 is displayed.

도 21을 참조하면, 상기 제2 전자 기기(100)에는 현재 제2 전자 기기(100)의 위치에서 반경 5 킬로미터 이내에서 촬영된 영상들, 반경 10 킬로미터 이내에서 촬영된 영상들, 반경 20 킬로미터 이내에서 촬영된 영상들이 표시될 수 있음을 알 수 있다.Referring to FIG. 21, the second electronic device 100 includes images photographed within a radius of 5 km, images captured within a radius of 10 km, and a radius of 20 km within a current position of the second electronic device 100. It can be seen that the images taken in the display can be displayed.

또한, 도 20 및 도 21에는 도시되지는 않았으나, 상기 서버(200)의 제어부(220)는 상기 제2 전자 기기(100)의 이동 속도가 증가함에 따라서, 상기 주행 영상의 검색 반경을 점점 증가시킬 수도 있다. 이는 상기 제2 전자 기기(100)의 이동 속도가 증가하면, 검색되는 주행 영상에 대한 접근 속도가 증가하기 때문에, 상기 제2 전자 기기(100)의 사용자에게 보다 넓은 범위에 대한 주행 영상을 제공하기 위함이다.Also, although not shown in FIGS. 20 and 21, the controller 220 of the server 200 may gradually increase the search radius of the driving image as the moving speed of the second electronic device 100 increases. It may be. This is because when the moving speed of the second electronic device 100 increases, an access speed for the searched driving image increases, thereby providing a driving image for a wider range to the user of the second electronic device 100. For sake.

도 20 및 도 21을 참조하여 살펴본 주행 영상 제공 방법과 달리, 상기 서버(200)는 상기 제2 전자 기기(100)로부터 완성된 검색 조건을 수신할 수도 있다. 그러면, 상기 서버(200)는 상기 완성된 검색 조건에 기초하여 주행 영상을 검색할 수 있다. 이때에는, 상기 제2 전자 기기(100)로부터 수신된 검색 팩터 자체가 서버(200)에서 수행되는 검색을 위한 조건에 해당된다. 예컨대, 상기 제2 전자 기기(100)는 상기 제2 전자 기기(100)의 현재 위치를 기준으로 특정 반경 이내에서 촬영된 주행 영상을 검색해 줄 것을 상기 서버(200)에 요청할 수 있다.Unlike the driving image providing method described with reference to FIGS. 20 and 21, the server 200 may receive a completed search condition from the second electronic device 100. Then, the server 200 may search the driving image based on the completed search condition. In this case, the search factor itself received from the second electronic device 100 corresponds to a condition for the search performed by the server 200. For example, the second electronic device 100 may request the server 200 to search for a driving image photographed within a specific radius based on the current location of the second electronic device 100.

도 22는 도 20에 도시된 서버의 주행 영상 제공 방법의 수행 결과, 주행 영상이 전자 기기에 표시된 다른 예를 나타낸다. 참고로, 도 22는 제2 전자 기기(100)에서 상기 제2 전자 기기(100)에서 설정된 특정 경로를 검색 팩터로 전송하고, 서버(200)에서 상기 특정 경로 상의 주요 지점에서 촬영된 주행 영상을 검색하여 상기 제2 전자 기기(100)로 전송한 경우, 상기 제2 전자 기기(100)에 표시된 영상이 표시된 것을 나타낸다.FIG. 22 illustrates another example in which the driving image is displayed on the electronic device as a result of performing the driving image providing method of the server illustrated in FIG. 20. For reference, FIG. 22 illustrates that the second electronic device 100 transmits a specific path set in the second electronic device 100 as a search factor, and the server 200 displays a driving image photographed at a main point on the specific path. When the search is transmitted to the second electronic device 100, the image displayed on the second electronic device 100 is displayed.

도 22를 참조하면, 상기 제2 전자 기기(100)에는 고속 도로에 대한 특정 경로 상의 주요 나들목, 휴게소 등의 주요 지점에서 촬영된 주행 영상이, 상기 주행영상이 촬영된 시간, 주요 지점의 명칭, 주요 지점까지의 거리 등과 함께 표시될 수 있음을 알 수 있다.Referring to FIG. 22, the second electronic device 100 includes a driving image photographed at a main point such as a main road, a rest area, and the like on a specific path of a freeway, a time at which the driving image is captured, a name of a main point, It can be seen that it can be displayed along with the distance to the main point.

도 23은 도 20에 도시된 서버의 주행 영상 제공 방법의 수행 결과, 주행 영상이 전자 기기에 표시된 또 다른 예를 나타낸다. 참고로, 도 23은 제2 전자 기기(100)에서 미리 설정된 주요 도로에서 촬영된 주행 영상의 제공을 요청한 경우, 서버(200)에서 그에 부합하는 주행 영상을 검색하여 제공한 경우, 상기 제2 전자 기기(100)의 화면을 나타낸다.FIG. 23 illustrates another example in which the driving image is displayed on the electronic device as a result of performing the driving image providing method of the server illustrated in FIG. 20. For reference, FIG. 23 illustrates a case in which the second electronic device 100 requests the provision of a driving image photographed on a predetermined main road, when the server 200 searches for and provides a driving image corresponding to the second electronic device 100. The screen of the device 100 is displayed.

도 23을 참조하면, 상기 제2 전자 기기(100)의 화면에는, 상기 미리 설정된 주요 도로가 표시되고, 주행 영상의 촬영 지점임을 나타내는 아이콘이 상기 주요 도로에 매핑되어 표시됨을 알 수 있다. 이때, 제2 전자 기기(100)의 사용자는 상기 아이콘을 터치함으로써 주행 영상을 제공받을 수 있다.Referring to FIG. 23, it may be seen that the preset main road is displayed on the screen of the second electronic device 100, and an icon representing a photographing point of the driving image is mapped and displayed on the main road. In this case, the user of the second electronic device 100 may receive a driving image by touching the icon.

도 24는 본 발명의 다른 실시예에 따른 서버의 주행 영상 제공 방법을 나타내는 흐름도이다. 이하, 도 2, 도 5, 및 도 20을 참조하여 상기 서버(200)의 주행 영상 제공 방법을 설명한다.24 is a flowchart illustrating a driving image providing method of a server according to another exemplary embodiment of the present invention. Hereinafter, a driving image providing method of the server 200 will be described with reference to FIGS. 2, 5, and 20.

먼저, 상기 서버(200)는 통신부(210)를 통하여 복수의 제1 전자 기기(300) 및 제2 전자 기기(100)와 네트워크를 형성한 다음, 복수의 제1 전자 기기들로부터 주행 영상 및 그와 관련된 복수의 정보를 통신부(210)수신하여 데이터베이스(230)에 저장한다(S800).First, the server 200 forms a network with the plurality of first electronic devices 300 and the second electronic device 100 through the communication unit 210, and then the driving image and the same from the plurality of first electronic devices. Receive a plurality of information related to the communication unit 210 and stores in the database 230 (S800).

그런 다음, 상기 서버(200)는 제2 전자 기기(100)로부터 검색 팩터 '전자 기기(200)에서 설정된 경로'를 수신한다. 그런 다음, 상기 서버(200)는 상기 검색 팩터에 기초하여 '제2 전자 기기에서 설정된 경로의 일부를 선행한 제1 전자 기기(300)로부터 전송된 주행 영상일 것'이라는 검색 조건을 설정한다(S810).Then, the server 200 receives a search factor 'path set in the electronic device 200' from the second electronic device 100. Then, the server 200 sets a search condition of 'it will be a driving image transmitted from the first electronic device 300 preceding a part of the route set in the second electronic device' based on the search factor. S810).

그러면, 상기 서버(200)는 데이터베이스(230)에 저장된 주행 영상 중에서, 상기 설정된 경로의 일부를 선행한 제1 전자 기기(300)로부터 전송된 주행 영상을 검색하고(S820), 상기 검색된 주행 영상 및 그와 관련된 복수의 정보 중 적어도 하나를 포함하는 교통 콘텐츠를 상기 제2 전자 기기(100)로 전송한다(S830).Then, the server 200 searches for the driving image transmitted from the first electronic device 300 preceding a part of the set route from the driving images stored in the database 230 (S820), and the searched driving image and Traffic content including at least one of a plurality of information related thereto is transmitted to the second electronic device 100 (S830).

도 25는 도 24에 도시된 서버의 주행 영상 제공 방법에서 주행 영상의 검색 조건을 설명하기 위한 도면이다. 도 25에서, 제1 경로(ROUTINE 1)는 제1 전자 기기(300)의 주행 경로를 나타내고, 제2 경로(ROUTINE 2)는 상기 제2 전자 기기(100)에서 설정된 경로를 나타낸다.FIG. 25 is a diagram for describing a search condition of a driving image in the driving image providing method of the server shown in FIG. 24. In FIG. 25, a first route ROUTINE 1 represents a driving route of the first electronic device 300, and a second route ROUTINE 2 represents a route set in the second electronic device 100.

즉, 상기 서버(200)는 상기 제1 전자 기기(300)가 상기 제2 전자 기기(100)에서 설정된 제2 경로(ROUTINE 2)에서 A 지점에서 B 지점까지의 구간을 선행한 경우, 상기 제1 전자 기기(300)에서 전송된 주행 영상을 검색하여 상기 제2 전자 기기(100)로 전송할 수 있다.That is, when the first electronic device 300 precedes the section from point A to point B in the second route ROUTINE 2 set in the second electronic device 100, 1 The driving image transmitted from the electronic device 300 may be searched and transmitted to the second electronic device 100.

그러면, 상기 제2 전자 기기(100)의 사용자는 상기 제1 전자 기기(300)의 주행 구간 중 A 지점에서 B 지점까지의 구간에 대한 주행 영상을 제공받아, 설정된 경로에 대한 주행 정보를 획득할 수 있다. 또한, 상기 제2 전자 기기(100)의 사용자는 상기 제1 전자 기기(300)로부터 B 지점부터 D 지점까지의 구간에 대한 주행 영상을 제공받을 수도 있다. 그러면, 상기 제2 전자 기기(100)의 사용자는 현재 제2 전자 기기(100)에서 설정된 경로 중 B 지점에서 C 지점까지의 구간을 우회할 것인지를 결정하는데 그 영상을 참조할 수 있다.Then, the user of the second electronic device 100 receives a driving image of a section from point A to point B of the driving section of the first electronic device 300 to obtain driving information on the set route. Can be. In addition, the user of the second electronic device 100 may be provided with a driving image for a section from point B to point D from the first electronic device 300. Then, the user of the second electronic device 100 may refer to the image to determine whether to bypass the section from point B to point C of the path currently set in the second electronic device 100.

도 26은 본 발명의 또 다른 실시예에 따른 서버의 주행 영상 제공 방법을 나타내는 흐름도이다. 이하, 도 2, 도 5, 및 도 26을 참조하여 상기 서버(200)의 주행 영상 제공 방법을 설명한다.26 is a flowchart illustrating a driving image providing method of a server according to another embodiment of the present invention. Hereinafter, a driving image providing method of the server 200 will be described with reference to FIGS. 2, 5, and 26.

먼저, 상기 서버(200)는 통신부(210)를 통하여 복수의 제1 전자 기기 및 제2 전자 기기와 네트워크를 형성한 다음, 복수의 제1 전자 기기들로부터 주행 영상 및 그에 대한 복수의 정보를 통신부(210)수신하여 데이터베이스(230)에 저장한다(S900).First, the server 200 establishes a network with a plurality of first electronic devices and a second electronic device through the communication unit 210, and then transmits a driving image and a plurality of information about the same from the plurality of first electronic devices. Received and stored in the database 230 (S900).

그런 다음, 상기 서버(200)는 제2 전자 기기(100)로부터 검색 팩터 '제2 전자 기기(200)에서 설정된 경로'를 수신한다(S910). 그런 다음, 상기 서버(200)는 상기 검색 팩터에 기초하여 “상기 설정된 경로 상의 제1 지점과 제2 지점 사이를 상기 설정된 경로와는 다른 경로로 이동한 제1 전자 기기(300)로부터 전송된 주행 영상일 것”이라는 검색 조건을 설정한다(S920). 즉, 상기 제1 전자 기기(300)의 이동 경로는 상기 설정된 경로 상의 제1 지점 및 제2 지점을 포함하나, 상기 제1 전자 기기(300)의 이동 경로에서 상기 제1 지점과 상기 제2 지점 사이의 구간은 상기 설정된 경로에 포함되지 않는다.Then, the server 200 receives a search factor 'path set in the second electronic device 200' from the second electronic device 100 (S910). Then, the server 200 based on the search factor “runs transmitted from the first electronic device 300 which moved between the first point and the second point on the set route to a different route than the set route. The search condition of “it will be an image” is set (S920). That is, the moving path of the first electronic device 300 includes a first point and a second point on the set path, but the first point and the second point in the moving path of the first electronic device 300. The interval between is not included in the set path.

그러면, 상기 서버(200)는 데이터베이스(230)에 저장된 주행 영상 중에서, 상기 검색 조건에 부합하는 주행 영상을 검색하고(S930), 상기 검색된 주행 영상 및 그와 관련된 복수의 정보 중 적어도 하나를 포함하는 교통 콘텐츠를 상기 제2 전자 기기(100)로 전송한다(S940).Then, the server 200 searches for a driving image meeting the search condition among the driving images stored in the database 230 (S930), and includes at least one of the searched driving images and a plurality of information related thereto. The traffic content is transmitted to the second electronic device 100 (S940).

도 27은 도 26에 도시된 서버의 주행 영상 제공 방법에서 주행 영상의 검색 조건을 설명하기 위한 도면이다. 도 27에서, 제1 경로(ROUTINE 1)는 제1 전자 기기(300)의 주행 경로를 나타내고, 제2 경로(ROUTINE 2)는 상기 제2 전자 기기(100)에서 설정된 경로를 나타낸다.FIG. 27 is a diagram for describing a search condition of a driving image in the driving image providing method of the server shown in FIG. 26. In FIG. 27, a first route ROUTINE 1 represents a driving route of the first electronic device 300, and a second route ROUTINE 2 represents a route set in the second electronic device 100.

즉, 상기 서버(200)는 상기 제1 전자 기기(300)가 상기 제2 전자 기기(100)에서 설정된 제2 경로(ROUTINE 2)에서 E 지점에서 F 지점까지의 구간을 이동한 경우, 상기 제1 전자 기기(300)에서 전송된 주행 영상을 검색하여 상기 제2 전자 기기(100)로 전송할 수 있다.That is, when the first electronic device 300 moves the section from the point E to the F point in the second path ROUTINE 2 set by the second electronic device 100, 1 The driving image transmitted from the electronic device 300 may be searched and transmitted to the second electronic device 100.

그러면, 상기 제2 전자 기기(100)의 사용자는 상기 제1 전자 기기(300)의 주행 구간 중 E 지점에서 F 지점까지의 구간에 대한 주행 영상을 제공받아, 설정된 경로에 대한 주행 정보를 획득할 수 있으며, 그에 기초하여, 기 설정된 경로를 통과할 것인지, 상기 제1 전자 기기(300)가 선행한 구간을 이용할 것인지를 선택할 수 있다.Then, the user of the second electronic device 100 receives a driving image of a section from the point E to the point F of the driving section of the first electronic device 300 to obtain driving information on the set route. The controller may select whether to pass a preset path or use the preceding section by the first electronic device 300.

또한, 상기 제2 전자 기기(100)의 사용자는 상기 제1 전자 기기(300)로부터 F 지점부터 G 지점까지의 구간에 대한 주행 영상을 제공받을 수도 있다. 그러면, 상기 제2 전자 기기(100)의 사용자는 현재 제2 전자 기기(100)에서 기 설정된 F 지점부터 H 지점까지의 구간을 우회하여 F 지점부터 G 지점까지의 구간을 이용할 것인지는 결정하는데 그 영상을 참조할 수 있다.In addition, the user of the second electronic device 100 may be provided with a driving image for a section from the F point to the G point from the first electronic device 300. Then, the user of the second electronic device 100 determines whether to use the section from the point F to the G point by bypassing the section from the point F to the point H currently set in the second electronic device 100. See.

이상에서 살펴본, 본 발명에 따른 서버의 동작 방법들 및 본 발명에 따른 전자 기기의 주행 영상 획득 방법들 각각은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.As described above, each of the server operating method and the driving image acquisition method of the electronic device according to the present invention may be implemented in a program form that can be executed by various computer means and recorded in a computer readable medium. have. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program recorded on the medium may be those specially designed and constructed for the present invention or may be those known to those skilled in the computer software.

컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of programs include high-level language code that can be executed by a computer using an interpreter or the like, as well as machine code as produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

10: 네트워크 20: 인공위성
30: 방송국 40, 50, 60, 70: 전자 기기들
100: 내비게이션 장치 110: 통신부
120: 입력부 130: 센싱부
140: 출력부 141: 디스플레이 모듈
142: 오디오 출력 모듈 150: 저장부
160: 전원부 170: 제어부
200: 서버 210: 통신부
220: 제어부 230: 데이터베이스
300: 제1 전자 기기 100: 제2 전자 기기
10: network 20: satellites
30: stations 40, 50, 60, 70: electronic devices
100: navigation device 110: communication unit
120: input unit 130: sensing unit
140: output unit 141: display module
142: audio output module 150: storage unit
160: power supply unit 170: control unit
200: server 210: communication unit
220: control unit 230: database
300: first electronic device 100: second electronic device

Claims (29)

외부와 네트워크를 형성하는 통신부;
주행 영상을 획득하는 카메라; 및
이벤트가 발생한 경우, 상기 이벤트의 발생 지점을 포함하는 특정 구간에서 획득된 주행 영상 및 상기 주행 영상과 관련된 교통 콘텐츠를 외부 기기로 전송하는 제어부를 포함하는 전자 기기.
Communication unit forming a network with the outside;
A camera for obtaining a driving image; And
And a controller configured to transmit a driving image acquired in a specific section including the occurrence point of the event and traffic content related to the driving image to an external device when an event occurs.
제1항에 있어서, 상기 전자 기기는,
상기 전자 기기와 상기 외부 기기 사이에 형성된 소셜 네트워크(social network)를 통하여 상기 주행 영상 및 상기 주행 영상과 관련된 교통 콘텐츠를 상기 외부 기기로 전송하는 것을 특징으로 하는 전자 기기.
The electronic apparatus according to claim 1,
And transmitting the driving image and traffic content related to the driving image to the external device through a social network formed between the electronic device and the external device.
제2항에 있어서, 상기 교통 콘텐츠는,
상기 전자 기기의 위치, 상기 특정 구간에 포함되는 좌표값, 상기 특정 구간이 포함된 도로의 명칭, 상기 특정 구간 주변의 POI(Point Of Interest)의 명칭 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 기기.
The method of claim 2, wherein the traffic content,
And at least one of a location of the electronic device, a coordinate value included in the specific section, a name of a road including the specific section, and a name of a point of interest (POI) around the specific section. .
제2항에 있어서, 상기 교통 콘텐츠는,
상기 주행 영상의 촬영 위치 및 상기 주행 영상의 촬영 시간과, 상기 전자 기기 사용자의 정보, 상기 사용자가 작성한 메시지, 상기 전자 기기의 이동 속도, 상기 전자 기기의 이동 방향 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 기기.
The method of claim 2, wherein the traffic content,
And at least one of a shooting position of the driving image and a shooting time of the driving image, information of the electronic device user, a message written by the user, a moving speed of the electronic device, and a moving direction of the electronic device. Electronic devices.
제2항에 있어서, 상기 전자 기기는,
지도를 저장하는 저장부를 더 포함하며,
상기 제어부는,
상기 전자 기기가 상기 지도상의 미리 설정된 구간에 진입하는 경우, 상기 이벤트 발생 지점을 획득하는 것을 특징으로 하는 전자 기기.
The method of claim 2, wherein the electronic device,
Further comprising a storage for storing a map,
The control unit,
And when the electronic device enters a preset section on the map, obtaining the event occurrence point.
제5항에 있어서, 상기 미리 설정된 구간은,
상기 저장된 지도에서 사고 다발 구간, 상습 정체 구간, 공사 구간, 안전 운행 구간, 위험 구간, CCTV(Closed Circuit TeleVision) 미설치 구간, 및 상기 외부 기기로부터 요청된 구간 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 기기.
The method of claim 5, wherein the predetermined section,
An electronic device comprising at least one of an accident occurrence section, a habitual congestion section, a construction section, a safe driving section, a dangerous section, a closed circuit television (CCTV) not installed section, and a section requested from the external device in the stored map; device.
제2항에 있어서, 상기 제어부는,
상기 통신부를 통하여 수신되는 교통 정보에 기초하여 이벤트 발생 지점을 획득하는 것을 특징으로 하는 전자 기기.
3. The apparatus of claim 2,
And an event occurrence point based on the traffic information received through the communication unit.
제7항에 있어서, 상기 제어부는,
상기 교통 정보에 포함된 사고 발생 지점 및 상기 교통 정보의 속성의 변경 지점을 상기 이벤트 발생 지점으로 획득하는 것을 특징으로 하는 전자 기기.
8. The apparatus of claim 7,
And an accident occurrence point included in the traffic information and a change point of the attribute of the traffic information as the event occurrence point.
제2항에 있어서, 상기 전자 기기는,
적어도 하나의 물리량을 감지하기 위한 센싱부를 더 포함하며,
상기 제어부는,
상기 센싱부에 의하여 감지되는 상기 적어도 하나의 물리량에 기초하여, 상기 이벤트의 발생 지점을 획득하는 것을 특징으로 하는 전자 기기.
The method of claim 2, wherein the electronic device,
Further comprising a sensing unit for sensing at least one physical quantity,
The control unit,
And an occurrence point of the event based on the at least one physical quantity sensed by the sensing unit.
제9항에 있어서, 상기 물리량은,
상기 전자 기기에 가해지는 충격량, 상기 전자 기기의 가속도, 상기 전자 기기의 속도, 외부 음향, 외부 온도 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 기기.
The method of claim 9, wherein the physical quantity is,
And at least one of an impact amount applied to the electronic device, an acceleration of the electronic device, a speed of the electronic device, external sound, and an external temperature.
제9항에 있어서, 상기 제어부는,
상기 물리량의 패턴을 분석하여 비정상적인 패턴이 감지될 경우, 상기 비정상적인 패턴이 감지된 지점을 상기 이벤트의 발생 지점으로 획득하는 것을 특징으로 하는 전자 기기.
10. The apparatus according to claim 9,
And analyzing a pattern of the physical quantity to obtain a spot where the abnormal pattern is detected as an occurrence point of the event when an abnormal pattern is detected.
제9항에 있어서, 상기 제어부는,
상기 물리량에 대한 비정상적인 패턴에 기초하여 인지되는 교통 정보와 상기 통신부를 통하여 수신되는 교통 정보가 일치하는 경우, 상기 물리량에 대한 비정상적인 패턴의 감지 지점을 상기 이벤트의 발생 지점으로 획득하는 것을 특징으로 하는 전자 기기.
10. The apparatus according to claim 9,
When the traffic information recognized based on the abnormal pattern of the physical quantity and the traffic information received through the communication unit coincide, a detection point of the abnormal pattern of the physical quantity is acquired as an occurrence point of the event. device.
제2항에 있어서, 상기 제어부는,
상기 주행 영상을 분석하고, 상기 주행 영상 분석 결과에 기초하여 이벤트의 발생 지점을 획득하는 것을 특징으로 하는 전자 기기.
3. The apparatus of claim 2,
And analyzing the driving image and acquiring an occurrence point of an event based on the driving image analysis result.
제13항에 있어서, 상기 제어부는,
상기 주행 영상 분석 결과, 교통 사고, 도로상의 장애물 감지, 차량 정체, 도로 파손 감지 중 적어도 하나가 감지된 지점을 상기 이벤트의 발생 지점으로 획득하는 것을 포함하는 것을 특징으로 하는 전자 기기.
The method of claim 13, wherein the control unit,
And obtaining, as the occurrence point of the event, a point where at least one of a traffic accident, an obstacle detection on a road, a vehicle congestion, and a road damage detection is detected as a result of the driving image analysis.
복수의 제1 전자 기기 및 제2 전자 기기와 네트워크를 형성하는 통신부;
상기 복수의 제1 전자 기기로부터 수신되는 주행 영상 및 상기 수신된 주행 영상과 관련된 정보를 저장하는 데이터베이스; 및
상기 주행 영상 중, 상기 제2 전자 기기로부터 수신된 위치 기반의 검색 팩터에 부합되는 주행 영상을 검색하며, 상기 검색된 주행 영상 및 상기 검색된 주행 영상과 관련된 교통 콘텐츠를 상기 제2 전자 기기로 전송하는 제어부를 포함하는 서버.
A communication unit forming a network with a plurality of first electronic devices and a second electronic device;
A database storing a driving image received from the plurality of first electronic devices and information related to the received driving image; And
A controller configured to search for a driving image corresponding to a location-based search factor received from the second electronic device, and to transmit the searched driving image and traffic content related to the searched driving image to the second electronic device; Server comprising.
제15항에 있어서, 상기 통신부는,
상기 복수의 제1 전자 기기 및 상기 제2 전자 기기와 소셜 네트워크를 형성하는 것을 특징으로 하는 서버.
The method of claim 15, wherein the communication unit,
And a social network with the plurality of first electronic devices and the second electronic device.
제16항에 있어서, 상기 교통 콘텐츠는,
상기 주행 영상의 촬영 위치 및 상기 주행 영상의 촬영 시간과, 제1 전자 기기 사용자의 정보, 상기 제1 전자 기기의 사용자가 작성한 메시지, 상기 제1 전자 기기의 이동 속도, 상기 제1 전자 기기의 이동 방향 중 적어도 하나를 포함하는 것을 특징으로 하는 서버.
The method of claim 16, wherein the traffic content,
Location of the driving image and shooting time of the driving image, information of a user of a first electronic device, a message written by a user of the first electronic device, a moving speed of the first electronic device, and a movement of the first electronic device And at least one of the directions.
제16항에 있어서, 상기 위치 기반의 검색 팩터는,
상기 제2 전자 기기의 위치, 상기 제2 전자 기기의 사용자가 지정한 특정 위치, 특정 건물의 위치, 특정 사용자의 위치, 특정 도로, 및 특정 경로 중 적어도 하나를 포함하는 것을 특징으로 하는 서버.
The method of claim 16, wherein the location-based search factor is:
And at least one of a location of the second electronic device, a specific location designated by a user of the second electronic device, a location of a specific building, a location of a specific user, a specific road, and a specific path.
제18항에 있어서, 상기 제어부는,
상기 주행 영상 중, 상기 제2 전자 기기의 현재 위치로부터 미리 설정된 범위 이내에서 전송된 주행 영상을 검색하는 것을 특징으로 하는 서버.
The method of claim 18, wherein the control unit,
And searching for a driving image transmitted within a preset range from a current position of the second electronic device among the driving images.
제18항에 있어서, 상기 제어부는,
상기 주행 영상 중, 상기 제2 전자 기기에서 설정된 경로 상의 현재 위치에서 상기 미리 설정된 거리 이내에서 전송된 주행 영상을 검색하는 것을 특징으로 하는 서버.
The method of claim 18, wherein the control unit,
The driving image of the server, characterized in that for searching for the driving image transmitted within the predetermined distance from the current position on the path set by the second electronic device.
제19항 또는 제20항에 있어서, 상기 제어부는,
상기 제2 전자 기기의 이동 속도가 증가함에 따라서, 상기 미리 설정된 거리를 증가시키는 것을 특징으로 하는 서버.
The method of claim 19 or 20, wherein the control unit,
And the predetermined distance is increased as the moving speed of the second electronic device increases.
제18항에 있어서, 상기 제어부는,
상기 주행 영상 중, 상기 제2 전자 기기에서 설정된 경로의 적어도 일부를 선행한 제1 전자 기기에서 전송된 주행 영상을 검색하는 것을 특징으로 하는 서버.
The method of claim 18, wherein the control unit,
The driving image transmitted from the first electronic device preceding at least a portion of the route set by the second electronic device is searched from the driving image.
제18항에 있어서, 상기 제어부는,
상기 주행 영상 중, 상기 제2 전자 기기에서 설정된 경로 상의 제1 지점 및 제2 지점을 포함하나, 상기 제1 지점과 상기 제2 지점 사이의 구간은 상기 설정된 경로에 포함되지 않는 경로를 이동한 제1 전자 기기에서 전송된 주행 영상을 검색하는 것을 특징으로 하는 서버.
The method of claim 18, wherein the control unit,
A first point and a second point on the route set by the second electronic device, wherein a section between the first point and the second point is moved along a route not included in the set route; A server, characterized in that for searching for a driving image transmitted from an electronic device.
외부와 네트워크를 형성하는 단계;
주행 영상을 획득하는 단계; 및
이벤트가 발생한 경우, 상기 이벤트의 발생 지점을 포함하는 특정 구간에서 획득된 주행 영상 및 상기 주행 영상과 관련된 교통 콘텐츠를 외부 기기로 전송하는 단계를 포함하는 전자 기기의 주행 영상 획득 방법.
Forming a network with the outside;
Obtaining a driving image; And
And transmitting the driving image acquired in the specific section including the occurrence point of the event and the traffic content related to the driving image to an external device when an event occurs.
제24항에 있어서, 상기 전자 기기는,
상기 전자 기기와 상기 외부 기기 사이에 형성된 소셜 네트워크(social network)를 통하여 상기 주행 영상 및 상기 주행 영상과 관련된 교통 콘텐츠를 상기 외부 기기로 전송하는 것을 특징으로 하는 전자 기기의 주행 영상 획득 방법.
The method of claim 24, wherein the electronic device,
And transmitting the driving image and the traffic content related to the driving image to the external device through a social network formed between the electronic device and the external device.
제25항에 있어서, 상기 교통 콘텐츠는,
상기 전자 기기의 위치, 상기 특정 구간에 포함되는 좌표값, 상기 특정 구간이 포함된 도로의 명칭, 상기 특정 구간 주변의 POI(Point Of Interest)의 명칭 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 기기의 주행 영상 획득 방법.
The method of claim 25, wherein the traffic content,
And at least one of a location of the electronic device, a coordinate value included in the specific section, a name of a road including the specific section, and a name of a point of interest (POI) around the specific section. Driving image acquisition method.
복수의 제1 전자 기기 및 제2 전자 기기와 네트워크를 형성하는 단계;
상기 복수의 제1 전자 기기로부터 수신되는 주행 영상 및 상기 수신된 주행 영상과 관련된 정보를 저장하는 단계;
상기 주행 영상 중, 상기 제2 전자 기기로부터 수신된 위치 기반의 검색 팩터에 부합되는 주행 영상을 검색하는 단계; 및
상기 검색된 주행 영상 및 상기 검색된 주행 영상과 관련된 교통 콘텐츠를 상기 제2 전자 기기로 전송하는 단계를 포함하는 서버의 주행 영상 제공 방법.
Forming a network with a plurality of first electronic devices and second electronic devices;
Storing driving images received from the plurality of first electronic devices and information related to the received driving images;
Searching for a driving image corresponding to a location-based search factor received from the second electronic device, from the driving image; And
And transmitting the found driving image and traffic content related to the found driving image to the second electronic device.
제27항에 있어서, 상기 복수의 제1 전자 기기 및 상기 제2 전자 기기와 네트워크를 형성하는 단계는,
상기 복수의 제1 전자 기기 및 상기 제2 전자 기기와 소셜 네트워크를 형성하는 단계를 포함하는 것을 특징으로 하는 서버의 주행 영상 제공 방법.
The method of claim 27, wherein forming a network with the plurality of first electronic devices and the second electronic device comprises:
And forming a social network with the plurality of first electronic devices and the second electronic device.
제27항에 있어서, 상기 위치 기반의 검색 팩터는,
상기 제2 전자 기기의 위치, 상기 제2 전자 기기의 사용자가 지정한 특정 위치, 특정 건물의 위치, 특정 사용자의 위치, 특정 도로, 및 특정 경로 중 적어도 하나를 포함하는 것을 특징으로 하는 서버의 주행 영상 제공 방법.
The method of claim 27, wherein the location-based search factor is:
The driving image of the server comprising at least one of a location of the second electronic device, a specific location designated by the user of the second electronic device, a location of a specific building, a location of a specific user, a specific road, and a specific route. How to Provide.
KR1020110024945A 2011-03-21 2011-03-21 Electronic deivice and method for obtaining drive video and server and method for providing dirve video KR101451768B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110024945A KR101451768B1 (en) 2011-03-21 2011-03-21 Electronic deivice and method for obtaining drive video and server and method for providing dirve video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110024945A KR101451768B1 (en) 2011-03-21 2011-03-21 Electronic deivice and method for obtaining drive video and server and method for providing dirve video

Publications (2)

Publication Number Publication Date
KR20120107317A true KR20120107317A (en) 2012-10-02
KR101451768B1 KR101451768B1 (en) 2014-10-17

Family

ID=47279332

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110024945A KR101451768B1 (en) 2011-03-21 2011-03-21 Electronic deivice and method for obtaining drive video and server and method for providing dirve video

Country Status (1)

Country Link
KR (1) KR101451768B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140128837A (en) * 2013-04-29 2014-11-06 팅크웨어(주) Image-processing Apparatus for Car and Method of Providing Information Using The Same
KR101487168B1 (en) * 2014-05-15 2015-02-09 아진산업(주) Safety Administration system for forklift trucks
KR20160086443A (en) * 2015-01-09 2016-07-20 오토아이티(주) Work management system for forklift trucks
KR20160118743A (en) * 2015-04-03 2016-10-12 주식회사 성우모바일 System for processing integrated images of the navigator and AVM camera on vehicle
KR20170081920A (en) * 2016-01-05 2017-07-13 삼성전자주식회사 Method and apparatus for sharing video information associated with a vihicle
WO2018124678A1 (en) * 2016-12-26 2018-07-05 Samsung Electronics Co., Ltd. Electronic device and operation method thereof
KR20190053624A (en) * 2017-11-10 2019-05-20 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle
KR20200023702A (en) * 2018-08-21 2020-03-06 삼성전자주식회사 Method of providing image to vehicle, and electronic device therefor
JP2020144009A (en) * 2019-03-06 2020-09-10 株式会社Jvcケンウッド Data acquisition device, data acquisition system, data acquisition method, and program
US11030467B2 (en) 2017-11-14 2021-06-08 Toyota Jidosha Kabushiki Kaisha Server device and in-vehicle device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210066599A (en) * 2019-11-28 2021-06-07 (주)디지파츠 Shared vehicle equipped with its own driving monitoring function and method and system for providing a vehicle sharing service using the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002166803A (en) 2000-11-30 2002-06-11 Canon Inc Vehicular communication system, vehicular communication device, vehicle, communication method, and computer readable storage medium
KR20090104299A (en) * 2008-03-31 2009-10-06 유종태 Vehicle Black Box
KR20090048291A (en) * 2008-05-30 2009-05-13 호진형 Vehicle driving information management system and method thereof
KR101019915B1 (en) 2010-03-05 2011-03-08 팅크웨어(주) Server, navigation system, navigation for vehicle and video providing method of navigation for vehicel

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140128837A (en) * 2013-04-29 2014-11-06 팅크웨어(주) Image-processing Apparatus for Car and Method of Providing Information Using The Same
KR101487168B1 (en) * 2014-05-15 2015-02-09 아진산업(주) Safety Administration system for forklift trucks
KR20160086443A (en) * 2015-01-09 2016-07-20 오토아이티(주) Work management system for forklift trucks
KR20160118743A (en) * 2015-04-03 2016-10-12 주식회사 성우모바일 System for processing integrated images of the navigator and AVM camera on vehicle
KR20170081920A (en) * 2016-01-05 2017-07-13 삼성전자주식회사 Method and apparatus for sharing video information associated with a vihicle
US10542309B2 (en) 2016-12-26 2020-01-21 Samsung Electronics Co., Ltd. Electronic device and operation method thereof
WO2018124678A1 (en) * 2016-12-26 2018-07-05 Samsung Electronics Co., Ltd. Electronic device and operation method thereof
KR20190053624A (en) * 2017-11-10 2019-05-20 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle
US11034363B2 (en) 2017-11-10 2021-06-15 Lg Electronics Inc. Vehicle control device mounted on vehicle and method for controlling the vehicle
US11030467B2 (en) 2017-11-14 2021-06-08 Toyota Jidosha Kabushiki Kaisha Server device and in-vehicle device
KR20200023702A (en) * 2018-08-21 2020-03-06 삼성전자주식회사 Method of providing image to vehicle, and electronic device therefor
JP2020144009A (en) * 2019-03-06 2020-09-10 株式会社Jvcケンウッド Data acquisition device, data acquisition system, data acquisition method, and program
JP7180457B2 (en) 2019-03-06 2022-11-30 株式会社Jvcケンウッド Data Acquisition Device, Data Acquisition System, Data Acquisition Method and Program

Also Published As

Publication number Publication date
KR101451768B1 (en) 2014-10-17

Similar Documents

Publication Publication Date Title
KR101451768B1 (en) Electronic deivice and method for obtaining drive video and server and method for providing dirve video
KR101101111B1 (en) Electronic device and the operating method thereof
KR101874072B1 (en) Server and method for providing information, and electrinic device and method for receiving information from server
KR101870284B1 (en) Electronic device, control method thereof and server communicating with electronic device
KR101953556B1 (en) Electronic device, control method thereof and server communicating with electronic device
KR101854663B1 (en) Server and method for providing information and electrinic device and method for receiving and using information from server
KR101440334B1 (en) Server for providing traffic information, electonic device and method for providing traffic information
KR101421613B1 (en) Electronic device, server, mehotd for controlling of the electronic device and method for providing of traffic information
KR102332165B1 (en) Server and method for providing information, and electrinic device for receiving information from server
KR101126516B1 (en) Electronic device and method for receiving information, recording medium recording program performing method of receiving information
KR102188008B1 (en) Electronic device, method and system for providing contents relate to traffic
KR102269223B1 (en) Server and method for providing information, and electrinic device for receiving information from server
KR101952341B1 (en) Electronic device, server and method for providing traffic information
KR101854665B1 (en) Electronic device, server, method and system for providing user contents
KR101117485B1 (en) Method, electronic device and recorded medium for generating traffic information
KR102313071B1 (en) Server and method for providing information, and electrinic device for receiving information from server
KR101989146B1 (en) Server and method for providing information, and electrinic device for receiving information from server
KR20120113904A (en) Server, electronic device and methods for supplying traffic information in the server and the electronic device
KR102337483B1 (en) Server and method for providing information, and electrinic device for receiving information from server
KR102057933B1 (en) Electronic device, server and method for providing traffic information
KR20120107671A (en) Electronic device, method and system for providing contents relate to traffic
KR101861355B1 (en) Traffic information providing method, electronic device, server and system for implementing the method
KR102247897B1 (en) Electronic device, method and system for providing contents relate to traffic
KR102117243B1 (en) Server and method for providing information, and electrinic device for receiving information from server
KR102072830B1 (en) Server, electronic device and methods for supplying traffic information in the server and the electronic device

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170927

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181010

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191007

Year of fee payment: 6