KR20120099981A - 전자 기기 및 전자 기기의 제어 방법 - Google Patents

전자 기기 및 전자 기기의 제어 방법 Download PDF

Info

Publication number
KR20120099981A
KR20120099981A KR1020110018546A KR20110018546A KR20120099981A KR 20120099981 A KR20120099981 A KR 20120099981A KR 1020110018546 A KR1020110018546 A KR 1020110018546A KR 20110018546 A KR20110018546 A KR 20110018546A KR 20120099981 A KR20120099981 A KR 20120099981A
Authority
KR
South Korea
Prior art keywords
vehicle
controller
electronic device
location
specific event
Prior art date
Application number
KR1020110018546A
Other languages
English (en)
Other versions
KR101451765B1 (ko
Inventor
조창빈
김진영
이해일
우승완
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020110018546A priority Critical patent/KR101451765B1/ko
Priority to PCT/KR2012/001491 priority patent/WO2012118320A2/ko
Publication of KR20120099981A publication Critical patent/KR20120099981A/ko
Application granted granted Critical
Publication of KR101451765B1 publication Critical patent/KR101451765B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

전자 기기 및 전자 기기의 교통 관련 컨텐츠 제공 방법이 개시된다.
본 발명에 따르면, 전자 기기는 차량이 주행 중에 특정 이벤트가 발생하면, 도로 상황과 관련된 사용자 컨텐츠를 자동으로 획득하고, 획득한 사용자 컨텐츠를 서버로 자동으로 전송한다.

Description

전자 기기 및 전자 기기의 제어 방법{ELECTRONIC DEVICE AND CONTROL METHOD OF ELECTRONIC DEVICE}
전자 기기 및 전자 기기의 제어 방법에 관한 것이다.
인터넷 망이 개방되고 위치데이터와 관련된 법률이 정비됨에 따라, 위치 기반 서비스(Location Based Service; LBS) 관련 산업이 활성화되고 있다. 이러한 위치 기반 서비스를 이용하는 대표적인 디바이스로는 차량 등의 현재위치를 측위 하거나 목적지까지의 이동 경로를 안내해주는 내비게이션 서비스를 제공하는 차량용 내비게이션(navigation device)을 들 수 있다.
최근, 통신형 내비게이션의 보급이 활발해짐에 따라, 사용자가 일방적으로 교통 정보를 제공 받는 기존의 서비스 방식을 벗어나 사용자가 능동적으로 교통 정보 사용자 컨텐츠 생성에 참여하고, 사용자에 의해 생성된 교통 정보 사용자 컨텐츠를 다른 사용자와 공유하기 위한 연구들이 활발히 진행되고 있으며, 이를 위해 단말의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려되고 있다.
본 발명에서 해결하려는 기술적 과제는, 운전 중인 사용자의 주의가 분산되는 것을 방지하면서 효과적으로 도로 위 교통 흐름에 대한 정보를 제공하기 위한 전자 기기 및 전자 기기의 제어 방법을 제공하는 것이다.
상기한 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자 기기는, 위치 데이터 모듈; 적어도 하나의 전자 기기의 컨텐츠들을 수집 및 제공하는 서버와, 연결하는 통신부; 및 상기 위치 데이터 모듈을 통해 차량의 위치를 획득하며, 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련된 컨텐츠를 자동으로 획득하여, 상기 획득한 컨텐츠를 상기 서버로 전송하는 제어부를 포함한다.
상기한 과제를 실현하기 위한 본 발명의 다른 양상으로서 본 발명에 따른 전자 기기는, 위치 데이터 모듈; 네트워크 형성을 지원하는 서버와 연결하는 통신부; 및 상기 위치 데이터 모듈을 통해 차량의 위치를 획득하며, 상기 차량의 위치를 토대로 선택된 적어도 하나의 타 전자 기기와 네트워크를 형성하며, 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련하여 획득한 컨텐츠를 상기 적어도 하나의 타 전자 기기로 전송하는 제어부를 포함한다.
상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자 기기의 제어 방법은, 적어도 하나의 전자 기기의 컨텐츠를 수집 및 제공하는 서버와 연결하는 단계; 차량의 위치를 획득하는 단계; 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련된 컨텐츠를 자동으로 획득하는 단계; 및 상기 획득한 컨텐츠를 상기 서버로 전송하는 단계 를 포함한다.
상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 컴퓨터 판독 가능한 기록 매체는 상기한 방법 중 어느 하나를 수행하는 프로그램을 기록한다.
본 발명에 따르면, 내비게이션은 교통 흐름 또는 안전 운행과 관련된 이벤트 발생을 자동으로 판단하고, 이벤트가 발생되면, 자동으로 획득한 사용자 컨텐츠를 교통 정보를 제공하는 서버로 전송함으로써, 서버에서 실시간으로 도로 위 상황을 파악하는 것이 가능하도록 지원한다. 나아가, 내비게이션에 의해 생성된 컨텐츠는 다른 전자 기기들로 전송되어, 다른 전자 기기들에서 이를 토대로, 실시간으로 도로 위 상황을 파악하는 것이 가능하도록 지원한다.
또한, 사용자가 운전 중에 별도의 조작을 할 필요 없이, 도로 상황과 관련된 컨텐츠를 수집하고 전송함으로써, 운전 중인 사용자의 주의를 분산시키지 않고 안전하게, 교통 흐름 파악에 필요한 정보들을 다른 사용자 또는 교통 정보를 제공하는 서버로 제공하는 것이 가능하다.
도 1 및 도 2는 본 발명의 실시 예들과 관련된 시스템 환경의 개략도를 도시한 도면들이다.
도 3은 본 발명의 실시 예들과 관련된 전자 기기(100)를 도시한 구조도이다.
도 4는 본 발명의 실시 예들과 관련된 서버(300)를 도시한 구조도이다.
도 5는 본 발명의 제1 실시 예에 따른 전자 기기(100)의 제어 방법을 도시한 흐름도이다.
도 6은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 지도 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다.
도 7 및 도 8은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 예들을 도시한 흐름도들이다.
도 9는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 교통 정보에 포함된 유고 정보를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 10은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 다른 예를 도시한 흐름도이다.
도 11은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 교통 정보 및 차량의 이동 속도를 비교하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 12는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 또 다른 예를 도시한 흐름도이다.
도 13은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 교통 정보 및 차량의 이동 속도를 비교하여 이벤트 발생을 판단하는 다른 예를 도시한 것이다.
도 14 내지 도 16은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 가속도를 이용하여 이벤트 발생을 판단하는 예들을 도시한 흐름도들이다.
도 17은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 가속도를 토대로 이벤트 발생을 판단하는 경우를 설명하기 위한 도면으로서, 차량의 이동 속도 변화를 그래프로 도시한 것이다.
도 18은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다.
도 19는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 20 및 도 21은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 주행 영상을 토대로 이벤트 발생을 판단하는 예들을 도시한 흐름도이다.
도 22는 본 발명의 제1 실시 예에 따른 전자 기기(100)가 장착된 차량의 주행 영상의 일 예를 도시한 것이다.
도 23은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 이동 속도를 토대로 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다.
도 24는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 차량의 전장 시스템으로부터 회득한 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 25는 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부 전자 기기로부터 수신되는 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 26은 본 발명의 제1 실시 예에 따른 전자 기기(100)에서 외부 전자 기기의 특정 키를 컨텐츠 자동 전송과 관련된 단축 키로 등록하는 일 예를 도시한 것이다.
도 27은 본 발명의 제2 실시 예에 따른 내비게이션(100)의 제어 방법을 도시한 흐름도이다.
도 28은 본 발명의 제2 실시 예에 따른 전자 기기(100)에서 소셜 네트워크를 구성하는 일 예를 도시한 것이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는 바, 이하에서는 특정 실시 예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 일, 일 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다
어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 또는 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하, 첨부된 도면들을 참조하여 본 발명에 대하여 상세히 설명하기로 한다.
도 1 및 도 2는 본 발명의 실시 예들과 관련된 시스템 환경의 개략도를 도시한 도면들이다.
도 1을 참조하면, 본 발명의 실시 예들과 관련된 시스템 환경은, 복수의 전자 기기(100,10), 통신망(200) 및 서버(300)를 포함하여 구성될 수 있다.
복수의 전자 기기(100, 10)는, 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기(100, 10)의 예를 들면, 내비게이션(Navigation), 스마트 폰(smart phone), 휴대폰, 컴퓨터, 노트북 컴퓨터(laptop computer), 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), MID(Mobile Internet Device), 태블릿 PC(Tablet PC) 등이 있다.
아래에서는, 복수의 전자 기기(100, 10)를 제1 전자 기기(100), 제2 전자 기기(10a), 제3 전자 기기(10b) 및 제4 전자 기기(10c)로 호칭하기로 한다. 또한 본 문서에서는, 도 1에 도시된 바와 같이, 제1 전자 기기(100)를 내비게이션으로 가정하고, 제2 전자 기기(10a), 제3 전자 기기(10b) 및 제4 전자 기기(10c)를 각각 스마트 폰, 태블릿 PC, 노트북 컴퓨터로 가정하여 다양한 실시 예들을 설명하기로 한다.
각 전자 기기(100, 10)는 무선 또는 유선 통신 방식에 의해 다른 전자 기기와 서로 통신할 수 있다. 본 문서에서 복수의 전자 기기(100, 10)가 상호 통신하는 방식은 제한되지 않는다. 본 문서의 기술적 사상은, 현존하는 전자 기기 간의 모든 무선 통신 방식과 앞으로 등장할 모든 통신 방식에서 적용될 수 있다.
예를 들어, 복수의 전자 기기(100, 10)는, UPnP(Universal Plug and Play), WiFi 등의 통신 방식에 의해 상호 통신할 수 있다. 또한 예를 들어, 복수의 전자 기기(100, 10)는, 통신망(200)을 통하거나, 근거리 통신 방식에 의해서 상호 통신할 수 있다. 통신망(200)의 예를 들면, 이동통신망, 유선 인터넷(internet), 무선 인터넷, 방송망 등이 있다.
또한, 각 전자 기기(100, 10)는 도 2에 도시된 바와 같이, 다른 전자 기기와 네트워크(400)를 구성할 수 있다. 또한, 상기 네트워크(400)에 포함되는 복수의 전자 기기(100, 10)는 컨텐츠를 서로 공유한다. 도 2를 보면, 제1 전자 기기(100)는 전자 기기 간의 관계 맺기를 통해 다른 전자 기기(10)와의 네트워크(400)를 구성하고, 네트워크(400)에 포함된 다른 전자 기기(10)와 컨텐츠를 공유할 수 있다.
본 문서에서는 상기 네트워크(400)를 소셜 네트워크(Social Network)로 가정하여 다양한 실시 예들을 설명한다. 그러나, 본 문서의 기술적 사상은, 소셜 네트워크와 유사하게 구성되는 모든 네트워크에 대해 적용이 가능하다.
소셜 네트워크는 웹 상에서 각 노드들 간의 상호 의존적인 관계(tie)에 의해 만들어지는 사회적 관계 구조에 의해 형성된다. 소셜 네트워크 내에 포함되는 노드들은 네트워크 안에 존재하는 개별적인 주체들을 나타낸다. 본 문서에서는 네트워크를 구성하는 각 노드(100, 10)를 전자 기기로 가정하여 다양한 실시 예들을 설명한다. 그러나, 본 문서의 기술적 사상은, 네트워크를 구성하는 노드가 다른 엔티티(entity)인 경우에도 적용이 가능하다.
예를 들어, 네트워크를 구성하는 노드는 사용자, 건물, 도로, 위치, 서버 등이 될 수도 있다. 즉, 제1 전자 기기(100)는 적어도 하나의 사용자, 건물, 도로, 위치, 서버 등과 소셜 네트워크를 구성할 수 있다. 소셜 네트워크에 포함되는 노드가, 도로, 건물, 위치 등인 경우, 제1 전자 기기(100)는 각 도로, 건물, 위치 등에 대응하여 생성된 계정이 될 수 있다.
다시, 도 1을 보면, 서버(300)는 통신망(200)을 통해 복수의 전자 기기(100, 10)와 통신한다. 또한, 복수의 전자 기기(100, 10)와의 통신을 통해 다양한 컨텐츠를 획득할 수 있다. 또한, 복수의 전자 기기(100, 10)와의 통신을 통해 다양한 컨텐츠를 복수의 전자 기기(100, 10)로 전송할 수도 있다.
서버(300)는 또한, 복수의 전자 기기(100, 10)로 구성되는 네트워크(400)의 형성을 지원할 수 있다.
이하, 제1 전자 기기(100)에 대하여 도면을 참조하여 보다 상세하게 설명한다.
본 문서에서는, 전자 기기(100)를 도 1에 도시된 바와 같이, 내비게이션으로 가정하여 다양한 실시 예들을 설명하기로 한다. 그러나, 본 문서에 개시되는 기술적 사상은 스마트 폰, 태블릿 PC, 노트북 컴퓨터 등 다양한 종류의 전자 기기에 적용이 가능하다.
도 3은 본 발명의 실시 예들과 관련된 내비게이션(100)을 도시한 구조도이다.
도 3을 참조하면, 내비게이션(100)은 통신부(110), 입력부(120), 센싱부(130), 출력부(140), 저장부(150), 전원부(160) 및 제어부(170)를 포함할 수 있다. 도 3에 도시된 구성요소들은 필수적인 것은 아니어서, 내비게이션(100)은 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖도록 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
통신부(110)는 내비게이션(100)과 통신망(200) 사이 또는 내비게이션(100)과 내비게이션(100)이 위치한 네트워크 사이 또는 내비게이션(100)과 다른 전자 기기(10)와의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부(100)는, 위치 데이터 모듈(111), 무선 인터넷 모듈(113), 방송 송수신 모듈(115), 근거리 통신 모듈(117), 유선 통신 모듈(119) 등을 포함할 수 있다.
위치 데이터 모듈(111)은 내비게이션(100)의 위치 데이터를 획득하기 위한 모듈이다. 위치 데이터 모듈(111)이 위치 데이터를 획득하는 방법으로는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 방법이 사용될 수 있다.
GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi??Zenith Satellite System) 등 일 수 있다.
본 발명의 실시 예들과 관련된 내비게이션(100)의 위치 데이터 모듈(111)은, 내비게이션(100)이 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 그리고, 획득되는 위치 데이터를 이용하여 내비게이션(100)의 현재 위치를 실시간으로 계속 산출한다. 내비게이션(100)의 현재 위치는 정확도 향상을 위해 위치 데이터 모듈(111)에서 획득되는 위치 데이터에 대한 맵 매칭을 통해 획득될 수도 있다.
또한, 위치 데이터 모듈(111)은 실시간으로 획득되는 내비게이션(100)의 현재 위치를 이용하여 속도 정보를 산출하기도 한다.
무선 인터넷 모듈(113)은 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷 모듈(113)을 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access) 등 일 수 있다.
방송 송수신 모듈(115)은 각종 방송 시스템을 통하여 방송 신호를 수신하는 장치이다. 방송 송수신 모듈(115)을 통하여 수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신 모듈(115)을 통하여 수신되는 방송 신호에는 교통데이터, 생활데이터 등이 포함될 수 있다.
근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
유선 통신 모듈(119)은 내비게이션(100)에 연결되는 다른 전자 기기와의 인터페이스를 제공하는 역할을 수행한다. 예를 들어, 유선 통신 모듈(119)은, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다.
입력부(120)는 내비게이션(100)의 동작 제어를 위한 입력 데이터를 발생시키는 모듈로서, 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 입력부(120)는 사용자 입력 모듈(121), 마이크(123), 카메라(125) 등을 포함할 수 있다.
사용자 입력 모듈(121)은 사용자로부터 내비게이션(100)의 동작 제어를 위한 제어 입력을 수신한다. 사용자 입력 모듈은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 예를 들어, 사용자 입력 모듈(121)은 내비게이션(100)의 바디(body)에 마련된 내비게이션 조작키로 구현될 수 있다.
마이크(123)는 사용자의 음성 및 차량의 내외부에서 발생한 오디오 신호를 수신하는 장치이다. 마이크(123)는 내비게이션(100)의 바디에 마련된 내비게이션 마이크(195)로 구현될 수 있다.
카메라(125)는 차량의 내외부의 영상의 획득하는 장치이다. 예를 들어, 카메라(125)는 차량의 주행 영상을 획득할 수 있다.
센싱부(130)는 내비게이션(100)의 현재 상태를 인지하여 내비게이션(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 센싱부(130)는 모션 센싱 모듈(131), 광 센싱 모듈(133) 등을 포함할 수 있다.
모션 센싱 모듈(131)은 내비게이션(100)의 3차원 공간 상에서의 움직임을 감지할 수 있다. 모션 센싱 모듈(131)은, 지자기 센서, 가속도 센서 등을 포함할 수 있다. 모션 센싱 모듈(131)을 통하여 획득한 움직임 데이터를 위치 데이터 모듈(111)을 통하여 획득한 위치 데이터와 결합하여, 내비게이션(100)을 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.
광 센싱 모듈(133)은 내비게이션(100)의 주변 조도(luminance)를 측정하는 장치이다. 광 센싱 모듈(133)을 통하여 획득한 조도 데이터를 이용하여, 디스플레이부(145)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.
출력부(140)는 내비게이션(100)이 데이터를 출력하는 장치이다. 출력부(140)는 디스플레이 모듈(141), 오디오 출력 모듈(143) 등을 포함할 수 있다.
디스플레이 모듈(141)은 내비게이션(100)에서 처리되는 정보를 표시한다. 예를 들어, 디스플레이 모듈(141)은 내비게이션 서비스와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다.
디스플레이 모듈(141)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistorliquid crystal display), 유기 발광 다이오드(organic lightemitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이 모듈(141)과 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이 모듈(141)은 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이 모듈(141)의 특정 부위에 가해진 압력 또는 디스플레이 모듈(141)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(170)로 전송한다. 이로써, 제어부(170)는 디스플레이 모듈(141)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
도 3을 참조하면, 상기 터치스크린에 의해 감싸지는 내비게이션(100)의 내부 영역 또는 상기 터치 스크린의 근처에 근접센서가 배치될 수 있다. 상기 근접센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접센서, 정전용량형 근접센서, 자기형 근접센서, 적외선 근접센서 등이 있다.
상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접센서로 분류될 수도 있다.
오디오 출력 모듈(143)은 청각적으로 인식될 수 있는 오디오 데이터를 출력한다. 오디오 출력 모듈(143)은, 내비게이션(100)에서 수행되는 기능(예를 들어, 경로 안내 기능)과 관련된 오디오 신호를 출력한다. 이러한 오디오 출력 모듈(143)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
저장부(150)는 내비게이션(100)의 동작을 위한 프로그램을 저장할 수 있고, 내비게이션(100)과 관련하여 입/출력되는 데이터(경로 정보, 영상)들을 임시 저장할 수도 있다.
저장부(150)는 내비게이션(100)의 내부에 내장되거나, 탈 부착이 가능하며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 내비게이션(100)은 인터넷(internet)상에서 상기 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
전원부(160)는 외부의 전원, 내부의 전원을 인가받아 내비게이션(100)의 각 구성요소들 또는 내비게이션(100)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다.
제어부(170)는 통상적으로 내비게이션(100)의 전반적인 동작을 제어한다. 나아가, 제어부(170)는 내비게이션(100)에 연결된 다른 디바이스를 제어하는 제어신호를 출력할 수도 있다.
이하, 서버(300)에 대하여 도면을 참조하여 보다 상세하게 설명한다.
도 4는 본 발명의 실시 예들과 관련된 서버(300)를 도시한 구조도이다.
도 4를 참조하면, 서버(300)는 통신부(310), 저장부(320) 및 제어부(330)를 포함할 수 있다. 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 서버(300)는 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖도록 구현될 수도 있다.
통신부(310)는 서버(300)와 통신망(200) 사이, 서버(300)와 다른 서버 사이, 서버(300)와 다른 전자 기기(100, 10) 사이 또는 서버(300)와 네트워크(400) 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
저장부(320)는 서버(300)의 동작을 위한 프로그램을 저장할 수 있고, 서버(300)와 관련하여 입/출력되는 정보들을 임시로 저장할 수도 있다. 또한, 복수의 전자 기기(100, 10)와의 통신을 통해 획득되는 컨텐츠들을 저장한다.
제어부(330)는 통상적으로 서버(300)의 전반적인 동작을 제어한다.
제어부(330)는 통신망(200)을 통해 복수의 전자 기기(100, 10)와 연결한다. 또한, 각 전자 기기(100, 10)에 대해 사용자 인증이 필요한 경우, 각 전자 기기(100, 10)로부터 수신되는 인증 정보를 이용하여 대응하는 전자 기기(100, 10)에 대한 사용자 인증 과정을 수행한다.
또한, 제어부(330)는 복수의 전자 기기(100, 10)와의 통신을 통해 사용자 컨텐츠, 교통 정보, 교통 관련 컨텐츠들을 획득하고, 이를 저장부(320)에 저장한다.
상기 사용자 컨텐츠는 각 전자 기기(100, 10)에 의해 생성된 컨텐츠이다. 제어부(330)는 통신부(310)를 통해 연결되는 복수의 전자 기기(100, 10)로부터 사용자 컨텐츠들을 획득할 수 있다.
또한, 사용자 컨텐츠는 각 전자 기기(100, 10)에 의해 획득된 텍스트, 영상(이미지, 동영상), 오디오 등의 컨텐츠를 포함할 수 있다.
또한, 사용자 컨텐츠는 대응하는 위치를 추가로 포함할 수 있다. 예를 들어, 사용자 컨텐츠가 영상을 포함하는 경우, 사용자 컨텐츠는 해당 영상을 획득한 위치를 포함할 수 있다. 또한, 예를 들어, 사용자 컨텐츠를 서버(300)로 전송한 전자 기기(100, 10)의 위치를 포함할 수 있다.
사용자 컨텐츠는 또한, 대응하는 전자 기기(100, 10)에 의해 획득된 교통 정보를 추가로 포함할 수 있다. 전자 기기(100, 10)에 의해 획득되는 교통 정보는, 대응하는 전자 기기(100, 10)의 위치를 토대로 획득될 수 있으며, 이동 방향, 속도 등을 포함할 수 있다.
상기 교통 관련 컨텐츠는 사용자에게 교통 흐름에 대한 정보를 전달하기 위한 컨텐츠이다. 제어부(330)는 각각의 위치가 대응되어 있는 사용자 컨텐츠들을 이용하여 교통 관련 컨텐츠를 생성할 수 있다.
교통 관련 컨텐츠는 전자 기기(100, 10)로부터 수신되는 사용자 컨텐츠를 포함할 수 있다.
또한, 교통 관련 컨텐츠는, 대응하는 사용자 컨텐츠와 관련하여 획득되는 특정 위치를 추가로 포함할 수 있다. 예를 들어, 교통 관련 컨텐츠는, 대응하는 사용자 컨텐츠를 서버(300)로 전송한 전자 기기(100, 10)의 위치를 포함할 수 있다. 여기서, 각 전자 기기(100, 10)의 위치는 해당 전자 기기(100, 10)로부터 직접 수신하거나, 통신망(200) 상에 존재하는 기지국으로부터 획득할 수 있다.
또한, 교통 관련 컨텐츠는, 사용자 컨텐츠를 토대로 획득한 교통 정보를 추가로 포함할 수 있다. 예를 들어, 제어부(330)는 각 전자 기기(100, 10)로부터 수신되는 사용자 컨텐츠를 분석하여, 사용자 컨텐츠에 포함되는 특정 텍스트, 영상 등을 획득하고, 이를 토대로 교통 관련 컨텐츠를 생성할 수 있다. 일 예로, 사용자 컨텐츠가 "강남역 정체"와 같이, 교통 흐름과 관련된 텍스트를 포함하는 경우, 제어부(320)는 사용자 컨텐츠 중에서 교통 흐름과 관련된 "강남역", "정체"등의 특정 텍스트를 추출하고, 이를 이용하여 교통 관련 컨텐츠를 생성할 수 있다. 또한, 예를 들어, 제어부(330)는 사용자 컨텐츠가, 대응하는 전자 기기(100, 10)의 위치, 이동 방향, 속도 등의 교통 정보를 포함하는 경우, 이를 토대로 교통 관련 컨텐츠를 생성할 수도 있다.
또한, 교통 관련 컨텐츠는, 서버(300)에 의해 생성되는 적어도 하나의 교통 정보를 추가로 포함할 수 있다. 예를 들어, 제어부(330)는 복수의 전자 기기(100, 10)와의 통신을 통해 각 전자 기기(100, 10)의 위치를 획득하고, 이를 토대로 교통 흐름을 나타내는 교통 정보를 생성한다. 또한, 생성된 교통 정보를 이용하여 교통 관련 컨텐츠를 생성할 수 있다. 즉, 제어부(330)는 사용자 컨텐츠를 전송하는 전자 기기(100, 10)에 대해, 일정 시간 동안 위치를 획득하고, 이를 토대로 대응하는 전자 기기(100, 10)의 이동 방향, 이동 속도 등의 교통 정보를 획득한다. 그리고, 획득한 교통 정보를 교통 관련 컨텐츠에 포함시킨다. 이와 같이, 서버(300)에 의해 생성되는 교통 정보는 교통 흐름과 관련된 객관적인 정보를 제공할 수 있어, 사용자에 의해 생성된 사용자 컨텐츠와는 달리 객관적인 교통 흐름 정보를 전달할 수 있다. 따라서, 사용자의 주관이 개입된 사용자 컨텐츠만을 이용하여 교통 관련 컨텐츠 제공 시, 부정확한 정보 전달이 발생할 수 있는 문제점을 최소화하는 효과가 있다.
교통 관련 컨텐츠는 또한, 교통 정보를 제공하는 외부의 서버로부터 획득한 교통 정보를 추가로 포함할 수 있다. 예를 들어, 방송 망을 통해 교통 정보를 제공하는 교통 정보 제공 서버로부터 획득한 교통 정보를 토대로 교통 관련 컨텐츠를 생성할 수 있다. 외부의 교통 정보 제공 서버에서 제공하는 교통 정보는 도로 위에서 일어나는 각종 사고와 통제 상황을 알려주는 유고(有故)정보를 포함할 수 있다. 통제 상황은 행사, 집회, 시위 등에 의한 도로 통제 상황을 포함하며, 공사나 재해로 인한 도로 통제상황도 포함된다.
또한, 제어부(330)는 어느 하나의 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 적어도 하나의 기준을 토대로 저장부(320)에 저장된 교통 관련 컨텐츠들 중 일부를 선택하며, 선택된 교통 관련 컨텐츠들을 해당 전자 기기(100, 10)로 제공한다.
교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 특정 위치를 포함할 수 있다. 예를 들어, 제어부(330)는 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 특정 위치에 대응하는 교통 관련 컨텐츠를 해당 전자 기기(100, 10)로 전송할 수 있다.
또한, 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 영역 정보를 포함할 수 있다. 예를 들어, 제어부(330)는 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 특정 영역에 대응하는 교통 관련 컨텐츠를 전자 기기(100, 10)로 전송할 수 있다.
또한, 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 시간 정보를 포함할 수 있다. 예를 들어, 제어부(330)는 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 특정 시간에 대응하는 교통 관련 컨텐츠를 해당 전자 기기(100, 10)로 전송할 수 있다. 일 예로, 특정 시간 내에 획득되거나, 특정 시간 이후에 획득되는 교통 관련 컨텐츠들을 전자 기기(100, 10)로 전송할 수 있다.
또한, 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 방향 정보를 포함할 수 있다. 예를 들어, 제어부(330)는 전자 기기(100, 10)로부터 교통 관련 컨텐츠 제공이 요청되면, 특정 방향에 대응하는 교통 관련 컨텐츠를 전자 기기(100, 10)로 전송할 수 있다. 일 예로, 제어부(330)는 어느 하나의 위치를 기준으로 특정 방향에 위치하거나, 특정 방향으로 주행하는 전자 기기(100, 10)와의 통신을 통해 획득한 교통 관련 컨텐츠들을 전자 기기(100, 10)로 전송할 수 있다.
한편, 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준은, 교통 관련 컨텐츠 제공을 요청한 전자 기기(100, 10)로부터 직접 수신하거나, 해당 전자 기기(100, 10)의 위치를 토대로 획득될 수 있다.
제어부(330)는 또한, 복수의 전자 기기(100, 10) 간의 소셜 네트워크(400) 구성을 지원한다. 예를 들어, 제1 전자 기기(100, 10)로부터 소셜 네트워크(400)를 구성하는 다른 전자 기기(10)를 선택하기 위한 적어도 하나의 기준이 수신되면, 이를 토대로 선택된 적어도 하나의 전자 기기(10)와 제1 전자 기기(100)가 소셜 네트워크(400)를 구성하도록 지원한다. 소셜 네트워크(400)에 포함되는 전자 기기(10)를 선택하는 적어도 하나의 기준은 교통 관련 컨텐츠를 선택하기 위한 적어도 하나의 기준과 유사하며, 유사한 방법으로 획득될 수 있다.
제어부(330)는 또한, 소셜 네트워크(400)에 포함된 각 전자 기기(100, 10)들의 위치 변화를 토대로 해당 네트워크(400)의 재구성을 지원한다. 예를 들어, 제1 전자 기기(100)의 현재 위치를 기준으로 구성된 소셜 네트워크는 제1 전자 기기(100)의 현재 위치가 변경됨에 따라, 변경된 위치를 토대로 재구성될 수 있다. 또한, 예를 들어, 네트워크(400)에 포함된 전자 기기(10)들의 위치 변화를 토대로, 새로운 전자 기기가 네트워크(400)에 추가되거나, 기존에 네트워크(400)에 포함된 전자 기기가 네트워크(400)에서 제외될 수도 있다.
또한, 제어부(330)는 소셜 네트워크(400)에 포함되는 각 전자 기기(100, 10)의 위치를 토대로 교통 정보를 생성하고, 이를 네트워크(400)에 포함된 각 전자 기기(100, 10)로 전송할 수 있다. 예를 들어, 제어부(330)는 네트워크(400)에 포함되는 각 전자 기기(100, 10)에 대해, 일정 시간 동안 위치를 획득하고, 이를 토대로 각 전자 기기(100, 10)의 이동 방향, 이동 속도 등을 포함하는 교통 정보를 획득한다. 그리고, 획득한 교통 정보를 네트워크(400)에 포함된 각 전자 기기(100, 10)로 전송한다.
이하, 필요한 도면들을 참조하여, 본 발명의 제1 실시 예에 따른 내비게이션(100)의 제어 방법 및 이를 구현하기 위한 내비게이션(100)의 동작을 좀 더 상세하게 설명하기로 한다. 본 문서에서 개시되는 실시 예들은 도 3을 참조하여 설명한 전자 기기(100)에서 구현될 수 있다. 본 문서에서는, 전자 기기(100)를 내비게이션으로 가정하여 다양한 실시 예들을 설명한다. 그러나, 본 문서에 개시되는 기술적 사상은, 스마트 폰, 태블릿 PC, 노트북 컴퓨터 등 다른 종류의 전자 기기에도 적용이 가능하다.
이하, 본 문서에서 개시되는 제1 실시 예의 구현을 위한 내비게이션(100)의 동작을 좀 더 상세하게 설명하기로 한다.
센싱부(130)의 모션 센싱 모듈(131)은, 자이로 센서(Gyroscope), 가속도 센서(Accelerometer), 지자기 센서(Magnetic sensor), 중력 센서(GRAVITY SENSOR) 등을 포함할 수 있다. 이러한, 모션 센싱 모듈(131)은 내비게이션(100)이 차량의 움직임을 획득한다.
상기 제어부(170)는 상기 센싱부(170)를 통해 획득되는 내비게이션(100)의 움직임을 토대로, 내비게이션(100)이 장착된 차량의 가속도, 외부로부터의 충격량 등을 획득한다.
또한, 제어부(170)는 내비게이션(100)의 현재 위치를 획득한다. 내비게이션(100)이 차량에 장착된 경우, 내비게이션(100)의 현재 위치는 차량의 현재 위치로 사용될 수 있다.
제어부(170)는 위치 데이터 모듈(111)을 통해 획득되는 GPS 신호를 이용하여 차량의 현재 위치를 획득할 수 있다. 한편, 수신되는 GPS 신호에는 어느 정도의 오차가 존재하므로, 제어부(170)는 수신되는 GPS 신호에 대해 소프트웨어적인 맵 매칭(map matching) 과정을 수행하여 차량의 현재 위치를 현재 주행 중인 도로로 매칭시키다. 또한, 제어부(170)는 차량이 GPS 신호가 수신 불가능한 음영 지역에 진입한 경우, 센싱부(130)에 포함된 자이로 센서를 이용하여 차량의 조향 방향과 속도 정보를 획득하고, 이를 토대로 차량의 현재 위치를 판단할 수 있다.
또한, 제어부(170)는 통신부(110)를 통해 서버(300)에 연결한다.
또한, 제어부(170)는, 사용자의 제어 입력을 토대로, 선택된 사용자 컨텐츠를 서버(300)로 전송한다. 여기서, 사용자의 제어 입력은 입력부(120)를 통해 수신되거나, 통신부(110)를 통해 연결된 외부 전자 기기로부터 수신될 수 있다. 후자의 경우, 제어부(170)는 통신부(110)의 근거리 통신 모듈(117)을 통해 적어도 하나의 외부 전자 기기와 연결하고, 연결된 외부 전자 기기로부터 제어 입력을 수신할 수 있다. 근거리 통신 모듈(117)을 통해 연결되는 외부 전자 기기로는, 스마트 폰, 휴대폰, 노트북 컴퓨터, PDA, 태블릿 PC등이 포함될 수 있다.
제어부(170)는 또한 특정 이벤트가 발생하면, 발생된 이벤트와 관련된 사용자 컨텐츠를 자동으로 획득하고, 획득한 사용자 컨텐츠를 서버(300)로 자동 전송한다.
제어부(170)는 또한, 차량의 현재 위치를 서버(300)로 전송할 수도 있다.
또한, 제어부(170)는 차량의 위치를 토대로 획득되는, 교통 흐름과 관련된 정보를 서버(300)로 전송할 수도 있다. 제어부(170)는 차량의 위치를 토대로 획득되는 교통 정보는 차량의 이동 속도, 이동 방향 등을 포함할 수 있다.
제어부(170)는 위치 데이터 모듈(111)을 통해 획득되는 위치 데이터를 이용하여 내비게이션(100)의 이동 속도를 획득한다. 내비게이션(100)이 차량에 장착된 경우, 내비게이션(100)의 이동 속도는 차량의 이동 속도로 사용될 수 있다.
또한, 제어부(170)는 위치 데이터 모듈(111)을 통해 획득되는 위치 데이터와 센싱부(130)에 포함된 지자기 센서를 이용하여 획득한 방위각 등을 토대로 내비게이션(100)의 이동 방향을 획득할 수 있다. 내비게이션(100)이 차량에 장착된 경우, 내비게이션(100)의 이동 방향은 차량의 이동 방향으로 사용될 수 있다.
도 5는 본 발명의 제1 실시 예에 따른 내비게이션(100)의 제어 방법을 도시한 흐름도이다. 도 6 내지 도 19는 본 발명의 제1 실시 예에 따른 내비게이션(100)의 제어 방법을 설명하기 위한 도면들이다.
도 5를 참조하면, 제어부(170)는 통신부(110)를 통해 서버(300)와 연결한다(S101).
서버(300)와 연결하기 위해 사용자 인증 과정이 필요한 경우, 제어부(170)는 서버(300)로 인증 정보를 전송한다. 그리고, 서버(300)에 의해 사용자 인증이 성공하면, 서버(300)와 연결한다.
인증 정보(300)는 아이디 등의 사용자 식별 정보, 내비게이션(100)의 장치 식별 정보, 비밀번호(password) 등을 포함할 수 있다. 제어부(170)는 사용자 인증을 요청하기 위해, 입력부(120)를 통해 입력되는 인증 정보를 서버(300)로 전송할 수 있다. 또한, 제어부(170)는 사용자 인증을 요청하기 위해, 저장부(150)에 기 저장된 인증 정보를 사용할 수도 있다. 저장부(150)에 기 저장된 인증 정보는 사용자에 의해 등록된 인증 정보일 수 있다.
제어부(170)는 내비게이션(100)이 장착된 차량의 주행 중에 특정 이벤트가 발생하는 경우(S102), 자동으로 사용자 컨텐츠를 획득한다(S103). 또한, 획득한 사용자 컨텐츠와 차량의 현재 위치를 서버(300)로 자동으로 전송한다(S104).
그리고, 내비게이션(100)에서 획득한 사용자 컨텐츠를 서버(300)로 전송하였음을 안내하는 안내 정보를 디스플레이 모듈(141)을 통해 표시한다(S105).
본 문서에서는 내비게이션(100)이 서버(300)에 연결된 상태에서 이벤트를 감지하고, 이벤트 발생에 따른 컨텐츠 전송을 수행하는 경우를 예로 들어 설명한다. 그러나, 본 문서에 개시되는 기술적 사상은, 특정 이벤트가 발생될 때마다, 서버(300)에 새로 연결하고, 사용자 컨텐츠의 전송이 완료되면 서버(300)와의 연결을 끊는 경우에도 적용이 가능하다.
전술한 S102 단계에서, 제어부(170)는 저장부(150)에 저장된 지도 데이터를 이용하여 특정 이벤트를 감지할 수 있다.
도 6은 지도 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다. 또한, 도 7은 지도 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 도면이다.
도 6을 참조하면, 제어부(170)는 위치 데이터 모듈(111)을 이용하여 차량의 현재 위치를 획득한다(S201).
또한, 차량의 현재 위치를 토대로, 지도 데이터에 등록된 특정 위치에 차량이 진입하였는지를 판단한다(S202). 그리고, 차량이 특정 위치에 진입하는 경우, 이벤트가 발생한 것으로 판단한다(S203).
여기서, 이벤트가 발생하는 특정 위치는, 사고 다발 지역, 공사 구간, 음주 운전 단속 구간, 교통 관련 컨텐츠 수집 구간, 상습 정체(停滯) 구간 등이 될 수 있다. 지도 데이터는 이러한 복수의 특정 위치를 포함하며, 지도 데이터에 등록된 특정 위치들은 지도 데이터가 갱신됨에 따라 갱신이 가능하다.
또한, 이벤트가 발생하는 특정 위치는, 사용자에 의해 등록된 위치일 수 있다. 사용자는 사용자 컨텐츠를 자동 수집 및 전송하기 위한 적어도 하나의 위치를 지도 데이터에 등록할 수 있다. 예를 들어, 사용자는, 경험에 의해 상습 정체 구간으로 인지된 위치를 지도 데이터에 등록함으로써, 차량이 해당 위치에 진입하면, 자동으로 사용자 컨텐츠를 획득하여 서버(300)로 전송하도록 설정할 수 있다.
도 7은 지도 데이터를 이용하여 차량의 공사 구간 진입에 따른 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 7을 참조하면, 내비게이션(100)이 장착된 차량이 주행 중인 도로 위에 공사 구간(7a)이 존재하고, 해당 공사 구간(7a)이 지도 데이터에 등록된 경우, 내비게이션(100)은 지도 데이터를 토대로 차량(5)이 공사 구간(7a)에 진입함을 판단할 수 있다.
또한, 내비게이션(100)은 차량(5)이 공사 구간(7a)에 진입하는 이벤트가 발생하면, 사용자 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.
예를 들어, 차량(5)이 공사 구간(7a)에 진입하면, 공사 구간에 진입 시 획득된 주행 중인 도로의 이미지를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량(5)이 공사 구간(7a)에 진입하면, 공사 구간(7a)에 진입한 이후 기 설정된시간 동안 획득한 차량의 주행 영상을 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량(5)이 공사 구간(7a)에 진입하면, 공사 구간(7a)을 주행 중에 획득한 차량의 주행 영상을 서버(300)로 전송할 수 있다. 내비게이션(100)은 차량(5)의 공사 구간(7a) 진입을 판단하는 방법과 유사하게 지도 데이터를 토대로 차량(5)의 공사 구간(7a) 진출을 판단할 수 있다. 다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 통신부(110)를 통해 외부로부터 수신되는 교통 정보를 토대로, 특정 이벤트의 발생 여부를 판단할 수 있다. 제어부(170)는 통신부(110)를 통해 서버(300) 또는 방송망에 연결하고, 연결된 서버(300) 또는 방송망으로부터 교통 정보를 수신할 수 있다.
도 8, 10 및 도 12는 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 예들을 도시한 흐름도들이다. 또한, 도 9, 도11 및 도 13은 외부로부터 수신되는 교통 정보를 이용하여 이벤트 발생을 판단하는 예들을 도시한 것이다.
도 8을 참조하면, 제어부(170)는 서버(300) 또는 방송망으로부터 교통 정보를 수신한다(S301). S301 단계에서 수신되는 교통 정보는 유고 정보를 포함할 수 있다.
서버(300)로부터 교통 정보를 수신하는 경우, 유고 정보는 다른 전자 기기(10)로부터 수신되는 사용자 컨텐츠를 이용하여 서버(300)에 의해 생성된 정보이거나, 교통 정보를 제공하는 다른 서버로부터 획득한 교통 정보에 포함된 유고 정보일 수 있다. 또한, 방송망으로부터 교통 정보를 수신하는 경우, 유고 정보는 티펙(Transport Protocol Expert Group; TPEG) 정보에 포함된 RTM(Road Traffic Message) 정보일 수 있다.
유고 정보는 도로 위에서 일어나는 각종 사고와 통제 상황을 알려주는 정보로서, 각종 사고 구간과 통제 구간에 해당하는 위치를 포함할 수 있다. 유고 정보에 포함되는 통제 상황은 행사, 집회, 시위 등에 의한 도로 통제 상황, 공사나 재해로 인한 도로 통제상황 등을 포함할 수 있다.
다시, 도 9을 보면, 제어부(170)는 위치 데이터 모듈(111)을 이용하여 차량의 현재 위치를 획득한다(S302). 또한, 차량의 현재 위치를 토대로, 차량이 유고 정보에 포함된 위치에 진입하는지를 판단한다(S303). 그리고, 차량이 유고 정보에 포함된 위치에 진입하면, 이벤트가 발생한 것으로 판단한다(S304).
도 9는 교통 정보에 포함된 유고 정보를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 9를 참조하면, 제어부(170)는 교통 정보를 외부로부터 수신한다. 또한, 교통 정보에 포함된 유고 정보를 토대로 내비게이션(100)이 장착된 차량(5)이 주행 중인 도로에서 발생한 사고 발생 지점(9a)에 대한 정보를 획득한다. 또한, 제어부(170)는 차량(5)이 사고 발생 지점(9a)에 진입하면, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.
예를 들어, 차량(5)이 사고 발생 지점(9a)에 진입하면, 사고 발생 지점(9a)에 진입 시 획득된 주행 중인 도로의 이미지를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량(5)이 사고 발생 지점(9a)에 진입하면, 사고 발생 지점(9a)에 진입한 이후 기 설정된 시간 동안 획득한 차량의 주행 영상을 서버(300)로 전송할 수 있다.
도 10을 참조하면, 제어부(170)는 서버(300) 또는 방송망으로부터 교통 정보를 수신한다(S401). S401 단계에서 수신되는 교통 정보는 도로의 각 구간 또는 위치 별로, 대응하는 차량들의 평균 이동 속도를 포함한다.
또한, 제어부(170)는 차량의 이동 속도를 획득한다(S402). 그리고, 교통 정보로부터 획득한 차량의 현재 위치에 대응하는 평균 이동 속도와 차량의 이동 속도를 비교하여, 둘 사이의 차이가 기 설정된 값 이상이면(S403), 교통 정보에 오류가 발생하거나 교통 흐름이 변경된 것으로 판단하고, 이벤트 발생 여부를 판단한다(S404).
도 11은 교통 정보 및 차량의 이동 속도를 비교하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 11을 참조하면, 외부로부터 수신되는 교통 정보에 따르면, 내비게이션(100)이 장착된 차량(5)이 주행 중인 구간에 대해, 교통 정보로부터 획득한 평균 이동 속도는 80Km/h이다. 한편, 차량(5)이 주행 중인 도로의 전방에서 사고가 발생함에 따라, 차량(5)의 현재 이동 속도는 15Km/h이다.
제어부(170)는 교통 정보로부터 획득한 평균 이동 속도 80Km/h와 차량(5)의 실제 이동 속도 15Km/h의 차이가 기 설정된 20Km/h 보다 크므로, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.
예를 들어, 차량(5)의 실제 이동 속도를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 이벤트가 발생한 이후에 기 설정된 시간 동안 획득한 차량의 주행 영상을 서버(300)로 전송할 수 있다.
도 12를 참조하면, 제어부(170)는 서버(300) 또는 방송망으로부터 교통 정보를 수신한다(S501). S501 단계에서 수신되는 교통 정보는 도로의 각 구간 또는 위치 별로, 대응하는 차량들의 평균 이동 속도를 포함한다. 또한, 교통 정보는 도로의 각 구간의 교통 흐름상태를 나타내는 정보를 포함할 수 있다. 여기서, 각 구간의 교통 흐름을 나타내는 상태 정보는, 정체, 서행, 원활 등 대응하는 구간의 교통 흐름이 어떤 상태인지를 나타내는 정보이다.
교통 정보를 수신한 제어부(170)는, 수신되는 교통 정보로부터 차량의 현재 위치에 대응하는 평균 이동 속도 또는 교통 흐름 상태 정보를 획득한다. 즉, 차량이 현재 주행 중인 구간에 대한 차량들의 평균 이동 속도 또는 교통 흐름 상태를 획득한다.
또한, 제어부(170)는 차량이 현재 주행 중인 구간에 대한 차량들의 평균 이동 속도 또는 교통 흐름 상태를 토대로 차량이 교통 정보 상의 정체 구간에 진입하였는지를 판단한다(S502).
그리고, 차량이 교통 정보 상의 정체 구간에 진입한 것으로 판단되면, 차량의 이동 속도가 기 설정된 값 이하인지를 판단한다(S503). 또한, 차량의 이동 속도가 기 설정된 값 이하인 경우, 차량이 실제 정체 구간에 진입한 것으로 판단하고, 이벤트 발생을 인지한다(S504).
도 13은 교통 정보에 포함된 유고 정보를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 13을 참조하면, 제어부(170)는 외부로부터 수신되는 교통 정보를 토대로, 내비게이션(100)이 장착된 차량(5)이 주행 중인 도로의 각 구간에 대한 정체, 서행, 원활 등의 교통 흐름을 획득한다.
또한, 제어부(170)는 획득한 교통 흐름을 토대로, 차량(5)의 정체 구간 진입을 판별한다. 그리고, 차량(5)이 정체 구간에 진입하면, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.
예를 들어, 차량(5)의 실제 이동 속도를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량이 정체 구간을 주행 하는 동안 획득한 주행 이미지 또는 주행 영상을 서버(300)로 전송할 수 있다.
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 속도 변화 즉, 가속도를 이용하여 이벤트 발생을 판단할 수 있다. 차량의 가속도는 센싱부(130)에 가속도 센서를 통해 획득될 수 있다. 또한, 차량의 가속도는 위치 데이터 모듈(111)을 통해 획득되는 위치 데이터의 변화를 토대로 획득될 수 있다.
도 14 내지 도 16은 차량의 가속도를 이용하여 이벤트 발생을 판단하는 예들을 도시한 흐름도들이다. 또한, 도 17은 차량의 가속도를 토대로 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 14를 참조하면, 제어부(170)는 센싱부(130) 또는 위치 데이터 모듈(111)을 이용하여 차량의 가속도를 획득한다(S601).
또한, 제어부(170)는 차량의 가속도를 토대로 차량이 급 가속/급감속한 것으로 판단되면(S602), 이벤트가 발생한 것으로 판단한다(S603). 즉, 차량의 가속도를 토대로 차량이 급 감속/급 가속한 것으로 판단되면, 정체 구간 진입, 사고 발생, 장애물 등 교통 흐름 또는 안전 운전과 관련된 이벤트가 발생한 것으로 판단한다.
한편, 도 14에 도시된 바와 같이, 차량의 급 감속/급 가속을 이벤트로 인지하여 컨텐츠를 전송할 경우, 제어부(170)는 정상적인 운행에 따라 급 감속/급 가속하는 경우에도 불필요하게 컨텐츠들을 서버(300)로 전송하는 일이 발생한다. 이에 따라, 제어부(170)는 차량의 가속도 이외의 정보를 추가로 이용하여 이벤트 발생을 감지할 수도 있다.
도 15를 참조하면, 제어부(170)는 통신부(110)를 통해 연결되는 서버(300) 또는 방송망으로부터 교통 정보를 수신한다(S701). 교통 정보는 전술한 바와 마찬가지로, 도로의 각 구간 또는 위치 별로, 대응하는 차량들의 평균 이동 속도를 포함한다. 또한, 교통 정보는 도로의 각 구간의 교통 흐름상태를 나타내는 정보를 포함할 수 있다.
제어부(170)는, 수신되는 교통 정보로부터 차량의 현재 위치에 대응하는 평균 이동 속도 또는 교통 흐름 상태 정보를 획득하고, 이를 토대로 차량이 교통 정보 상의 정체 구간에 진입하는지 여부를 판단할 수 있다.
또한, 제어부(170)는 차량의 가속도를 획득한다(S702). 그리고, 획득한 차량의 가속도를 토대로, 차량이 급감 속하는 경우, 즉, 차량의 가속도가 기 설정된 값 이하인 경우(S703), 교통 정보로부터 차량의 현재 위치에 대응하는 교통 흐름 상태를 획득한다.
즉, 제어부(170)는, 수신되는 교통 정보로부터 차량의 현재 위치에 대응하는 평균 이동 속도 또는 교통 흐름 상태 정보를 획득하고, 이를 토대로 차량이 주행 중인 구간의 교통 흐름 상태를 파악한다.
제어부(170)는 차량이 급감속한 상태에서, 차량의 현재 위치가 교통 정보 상에서 정체 구간에 대응되는 경우(S704), 이벤트가 발생한 것으로 판단한다(S705),
즉, 차량이 실제 교통 흐름 상에서 정체 구간에 진입한 것으로 판단한다.
도 16을 참조하면, 제어부(170)는 차량의 가속도를 획득한다(S801). 그리고, 획득한 차량의 가속도를 토대로, 차량이 급감 속하는 경우, 즉, 차량의 가속도가 기 설정된 값 이하인 경우(S802), 차량의 이동 속도를 획득한다.
또한, 제어부(170)는 차량이 급감속한 상태에서, 일정 시간 동안 차량의 이동 속도가 기 설정된 값 이하인 경우(S803), 이벤트가 발생한 것으로 판단한다(S804),
즉, 차량이 실제 교통 흐름 상에서 정체 구간에 진입한 것으로 판단한다.
도 17은 차량의 가속도를 토대로 이벤트 발생을 판단하는 경우를 설명하기 위한 도면으로서, 차량의 이동 속도 변화를 그래프로 도시한 것이다.
도 17을 참조하면, 내비게이션(100)이 장착된 차량의 이동 속도는 t1에서 20Km/h이하로 급감속하고, 이후 일정 시간 동안 20Km/h 이하의 속도를 유지한다. 따라서, 제어부(170)는 차량이 급감속한 이후에 기 설정된 시간(t2)동안 정체 시의 이동 속도에 대응되는 20Km/h 이하의 이동 속도를 유지하므로, 차량이 정체 구간에 진입한 것으로 판단한다.
그리고, 차량(5)이 정체 구간에 진입한 것으로 판단되면, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.
예를 들어, 차량(5)의 실제 이동 속도를 서버(300)로 전송할 수 있다. 또한, 예를 들어, 차량이 정체 구간을 주행 하는 동안 획득한 주행 이미지 또는 주행 영상을 서버(300)로 전송할 수 있다.
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 외부로부터의 충격량을 토대로 이벤트 발생을 판단할 수 있다. 외부로부터의 충격량은 센싱부(130)에 포함된 가속도 센서, 중력 센서 등을 이용하여 획득할 수 있다.
도 18은 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다. 또한, 도 19는 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 도면이다.
도 18을 참조하면, 제어부(170)는 차량에 대한 외부 충격량을 지속적으로 획득한다(S901).
그리고, 획득되는 충격량의 패턴을 분석하여, 충격량 패턴이 급격히 변화하는 경우, 즉, 충격량의 변화량이 기 설정된 값 이상인 경우(S902), 이벤트가 발생한 것으로 판단한다(S903). 즉, 도로 파손, 장애물, 사고 등으로 인해 차량에 충격이 많이 발생하면, 이를 안정 운행과 관련된 이벤트로 판단한다.
도 19는 충격량을 토대로 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 19의 (a)에 도시된 바와 같이, 내비게이션(100)을 장착한 차량(5)이 파손된 도로를 주행하는 경우, 차량(5)에 대한 외부로부터의 충격량은 도 19의 (b)에 도시된 바와 같이, 일정 시간(t3) 동안 급격히 변화하는 것을 알 수 있다. 즉, 충격량을 나타내는 그래프의 진폭이 일정 구간(t3) 동안 급변함을 알 수 있다.
도 19의 (b)에 도시된 바와 같이, 충격량이 급격히 변화하면, 제어부(170)는 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.
예를 들어, 이벤트가 발생한 이후에 획득한 차량의 주행 이미지 또는 주행 영상을 서버(300)로 전송한다. 또한, 예를 들어, 이벤트가 발생한 시점을 기준으로 기 설정된 시간 이전에 획득된 차량의 주행 이미지 또는 주행 영상을 서버(300)로 전송할 수도 있다. 다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 주행 영상을 토대로 이벤트 발생을 판단할 수 있다. 차량의 주행 영상은 내비게이션(100)에 포함된 적어도 하나의 카메라(125)를 통해 획득할 수 있다. 차량의 주행 영상은 또한, 통신부(110)를 통해 연결되는 적어도 하나의 외부 카메라 또는 차량용 블랙박스로부터 획득할 수 있다.
도 20 및 도 21은 차량의 주행 영상을 토대로 이벤트 발생을 판단하는 예들을 도시한 흐름도이다. 또한, 도 22는 차량의 주행 영상을 토대로 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 20을 참조하면, 제어부(170)는 차량의 주행 영상을 획득한다(S1001). 또한, 차량의 주행 영상에 대한 영상 인식을 토대로, 주행 영상에 포함되는 객체들을 추출한다.
또한, 제어부(170)는 주행 영상에 특정 객체가 포함되는 경우(S1002), 이벤트가 발생한 것으로 판단하다(S1003).
예를 들어, 제어부(170)는 차량의 주행 영상에 사고 차량, 장애물에 해당하는 객체가 포함되는 경우, 이벤트가 발생한 것으로 판단한다.
또한, 예를 들어, 제어부(170)는 차량의 주행 영상에 앰블런스와 같이 특수 차량에 해당하는 객체가 포함되는 경우, 이벤트가 발생한 것으로 판단한다.
한편, S1002 단계에서, 제어부(170)는 주행 영상으로부터 추출되는 각 객체의 외곽선, 색상 등을 토대로, 주행 영상에 특정 객체가 포함되었는지 여부를 판단할 수 있다.
도 21을 참조하면, 제어부(170)는 차량의 주행 영상을 획득한다(S1101). 또한, 차량의 주행 영상에 대한 영상 인식을 토대로, 주행 영상에 포함되는 객체들을 추출한다.
또한, 주행 영상으로부터 추출되는 적어도 하나의 객체를 토대로, 도로의 교통 흐름 상태를 판단한다(S1102). 그리고, 교통 흐름 상태가 정체에 대응되는 경우(S1103), 이벤트가 발생한 것으로 판단한다(S1104).
S1102 단계에서, 제어부(170)는 주행 영상으로부터 획득되는 특정 객체들을 이용하여 교통 흐름을 판단할 수 있다.
예를 들어, 제어부(170)는 주행 영상으로부터 다른 차량들을 검출하고, 주행 영상으로부터 획득한 차량의 개수, 또는 차량간 간격을 토대로 정체 여부를 판별할 수 있다.
도 22는 차량의 주행 영상에서 획득되는 객체를 분석하여 이벤트 발생을 판단하는 경우를 설명하기 위한 도면으로서, 내비게이션(100)이 장착된 차량의 주행 영상의 일 예를 도시한 것이다.
도 22를 참조하면, 제어부(170)는 차량의 주행 영상(7)을 분석하여 영상 내 포함된 객체들을 추출한다. 그리고, 추출된 객체들의 외곽선, 색상 등을 토대로 추출된 객체들의 종류, 형태 등을 획득하고, 이를 토대로 사고 차량(OB1), 사고 차량을 견인하기 위한 렉커(wrecker) 차량(OB1) 등의 특정 객체가 차량의 주행 영상(7)에 포함되었는지 여부를 판단한다.
또한, 제어부(170)는 차량의 주행 영상(7)에서 특정 객체(OB1, OB2)가 추출되면, 이벤트가 발생한 것으로 판단한다. 또한, 이벤트가 발생하였으므로, 컨텐츠를 자동으로 획득하고, 이를 서버(300)로 전송한다.
예를 들어, 차량의 주행 이미지 또는 주행 영상을 서버(300)로 전송할 수 있다.
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 이동 속도를 토대로 이벤트 발생을 판단할 수 있다.
도 27은 차량의 이동 속도를 토대로 이벤트 발생을 판단하는 일 예를 도시한 흐름도이다.
도 27을 참조하면, 제어부(170)는 차량의 이동 속도를 획득한다(S1201).
또한, 제어부(170)는 차량의 이동 속도가 일정 시간 동안 기 설정된 값 이하인 경우(S1202), 이벤트가 발생한 것으로 판단한다(S1203). 즉, 차량의 이동 속도가 일정 시간 동안 기 설정된 속도 이하이면, 차량이 정체 구간에 진입한 것으로 판단한다.
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 차량의 전장 시스템으로부터 수신되는 데이터를 토대로 이벤트 발생을 판단할 수 있다.
도 28은 차량의 전장 시스템으로부터 회득한 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 28을 참조하면, 제어부(170)는 상기 통신부(110)를 통해 근거리 통신 또는 유선 통신 방식으로 차량의 전장 시스템과 연결한다(S1301).
또한, 제어부(170)는 전장 시스템으로부터 수신되는 데이터를 토대로, 차량의 브레이크 오작동이 발생한 것으로 판단되면(S1302), 안전 운행과 관련된 이벤트가 발생한 것으로 판단한다(S1303).
다시, 도 5를 보면, 전술한 S102 단계에서, 제어부(170)는 외부의 전자 기기로부터 수신되는 데이터를 토대로 이벤트 발생을 판단할 수 있다.
도 29는 외부 전자 기기로부터 수신되는 데이터를 이용하여 이벤트 발생을 판단하는 일 예를 도시한 것이다.
도 29를 참조하면, 제어부(170)는 통신부(110)를 통해 외부의 전자 기기와 연결한다(S1401).
또한, 제어부(170)는 연결된 외부 전자 기기로부터 특정 데이터가 수신되면(S1402), 이벤트가 발생한 것으로 판단한다(S1402).
이벤트에 대응되는 특정 데이터는 외부 전자 기기의 특정 키가 조작됨에 따라 수신될 수 있다. 상기 특정 키는 사용자에 의해 설정될 수 있다.
도 30은 외부 전자 기기의 특정 키를 컨텐츠 자동 전송과 관련된 단축 키로 등록하는 일 예를 도시한 것이다.
도 30을 참조하면, 내비게이션(100)은 외부 전자 기기(10a)와 연결한다(S1501). 또한, 내비게이션(100)은 사용자의 제어 입력을 토대로, 외부 전자 기기의 특정 키를 컨텐츠 자동 전송 메뉴의 단축 키로 등록하기 위한 모드로 진입한다(S1502). 그리고, 이 모드에서, 외부 전자 기기(10a)의 특정 키가 조작됨에 따라, 외부 전자 기기(10a)로부터 특정 키 데이터가 수신되면, 내비게이션(100)은 상기 특정 키를 컨텐츠 자동 전송을 위한 단축 키로 등록한다.
이에 따라, 내비게이션(100)은 통신부(110)를 통해 연결되는 외부 전자 기기(100)로부터 특정 키 데이터가 입력될 때마다, 컨텐츠를 자동으로 획득하여 서버(300)로 전송한다.
전술한 도 6 내지 도 30을 참조하면, 본 발명의 제1 실시 예에 따른 내비게이션(100)은 교통 흐름 또는 안전 운행과 관련된 이벤트를 자동으로 인지하는 것이 가능하다. 이에 따라, 운전 중인 사용자의 조작이 없이도, 정보 수집이 필요한 위치에서는 자동으로 컨텐츠를 수집하여 서버(300)로 전송함으로써, 사용자의 번거로움을 최소화하는 효과가 있다. 또한, 사용자의 주의를 분산시키는 일 없이 자동으로 정보를 컨텐츠를 수집하고 전송함으로써, 사용자가 안전 운전을 하도록 지원하는 효과가 있다.
다시, 도 5를 보면, S103 단계에서, 제어부(170)는 기 저장된 텍스트를 이용하여 컨텐츠를 획득할 수 있다. 제어부(170)는 S102 단계에서 이벤트가 발생하면, 발생된 이벤트의 속성을 토대로, 기 저장된 복수의 텍스트 중 어느 하나를 선택한다. 그리고, 선택된 텍스트를 이용하여 생성된 사용자 컨텐츠를 서버(300)로 전송한다. 이벤트 속성은, 해당 이벤트가 교통 흐름 및 안전 운행 중 어느 것과 관련된 이벤트인지를 포함할 수 있다. 또한, 이벤트 속성은, 해당 이벤트가 발생한 위치의 속성, 예를 들어, 상습 정체 구간, 사고 다발 구간, 음주 단속 구간, 통제 구간, 사고 발생 지점, 공사 구간, 안개 발생 지역 등을 포함한다. 또한, 이벤트 속성은, 해당 이벤트에 대응하는 교통 흐름 상태 예를 들어, 정체, 서행 등을 포함할 수 있다.
한편, 발생된 이벤트의 속성 별로 대응되는 텍스트는 사용자에 의해 설정될 수 있다. 예를 들어, 사용자는 지도 데이터에 등록된 상습 정체 구간에 대해 '상습 정체 구간' 텍스트를 대응시켜 등록할 수 있다. 이후, 제어부(170)는 지도 데이터에 상습 정체 구간으로 등록된 위치에 진입하는 경우, '상습 정체 구간' 텍스트를 이용하여 생성된 사용자 컨텐츠를 서버(300)로 전송하게 된다.
또한, S103 단계에서, 제어부(170)는 이벤트가 발생하면, 마이크(123)를 통해 획득되는 오디오를 이용하여 사용자 컨텐츠를 생성할 수 있다.
또한, S103 단계에서, 제어부(170)는 이벤트가 발생하면, 차량의 주행 영상(이미지, 동영상)을 이용하여 사용자 컨텐츠를 생성할 수 있다. 차량의 주행 영상은 내비게이션(100)에 포함된 적어도 하나의 카메라(125)를 통해 획득할 수 있다. 차량의 주행 영상은 또한, 통신부(110)를 통해 연결되는 적어도 하나의 외부 카메라 또는 차량용 블랙박스로부터 획득할 수 있다.
제어부(170)는 차량의 주행 영상을 이미지 또는 동영상 형태로 사용자 컨텐츠에 포함시킬 수 있다.
예를 들어, 제어부(170)는 이벤트가 발생하면, 차량의 주행 영상으로부터 적어도 하나의 이미지를 획득하고, 이를 이용하여 생성한 사용자 컨텐츠를 서버(300)로 전송한다.
예를 들어, 제어부(170)는 이벤트가 발생하면, 일정 시간 동안의 차량의 주행 영상을 동영상 형태로 획득하고, 이를 이용하여 생성한 사용자 컨텐츠를 서버(300)로 전송한다. 차량의 주행 영상을 이용하여 사용자 컨텐츠를 생성하는 경우, 제어부(170)는 이벤트가 발생한 이후에 일정 시간 동안 획득되는 차량의 주행 영상을 이용하여 사용자 컨텐츠를 생성할 수 있다. 또한, 제어부(170)는 이벤트가 발생한 시점을 기준으로 기 설정된 시간 이전부터 일정 시간 동안 촬영된 차량의 주행 영상을 이용하여 사용자 컨텐츠를 획득할 수도 있다.
사용자 컨텐츠 생성을 위해 차량의 주행 영상을 획득하는 시간은 이벤트 속성에 따라 달라질 수 있다. 이벤트 속성에 따라, 일정 영역 내에서의 차량의 주행 영상이 필요한 경우, 제어부(170)는 차량이 해당 영역에 진입하여 진출하기까지의 주행 영상을 적어도 하나의 이미지 또는 동영상 형태로 획득할 수 있다.
예를 들어, 차량이 지도 데이터에 상습 정체 구간으로 등록된 구간에 진입하는 경우, 제어부(170)는 차량이 상습 정체 구간에 진입하여 진출하기까지의 주행 영상을 적어도 하나의 이미지 또는 동영상 형태로 획득할 수 있다.
또한, 차량이 급감 속하는 경우와 같이 이벤트가 발생하는 순간을 기준으로 일정 시간 동안의 차량의 주행 영상이 필요한 경우, 제어부(170)는 이벤트가 발생한 시점을 기준으로 일정 시간 동안만 적어도 하나의 이미지 또는 동영상 형태의 주행 영상을 획득할 수 있다.
또한, 사용자 컨텐츠 생성을 위해 차량의 주행 영상을 획득하는 시간은 주행 영상을 획득하는 주체에 따라 달라질 수 있다. 차량의 주행 영상을 획득하는 주체가 차량용 블랙박스인 경우, 제어부(170)는 차량용 블랙박스로부터 현재 획득되는 주행 영상뿐만 아니라 이전에 획득한 주행 영상을 획득하는 것이 가능하다. 따라서, 발생된 이벤트에 따라, 이벤트가 발생하기 이전의 주행 영상이 필요한 경우, 제어부(170)는 이벤트가 발생한 시점으로부터 일정 시간 이전부터 획득된 차량의 주행 영상을 이용하여 사용자 컨텐츠를 생성할 수 있다.
다시, 도 5를 보면, 전술한 S104 단계에서, 제어부(170)는 사용자 컨텐츠를 서버(300)로 전송 시, 차량의 현재 위치, 이동 속도, 이동 방향 등의 정보를 함께 전송할 수도 있다.
또한, 전술한 S105 단계에서, 제어부(170)는 사용자 컨텐츠의 전송이 완료되면, 이를 사용자에게 안내하기 위한 텍스트, 아이콘 등을 디스플레이 모듈(151)을 통해 화면에 표시한다. 그러나, 본 문서는 이에 한정되지 않는다. 본 문서에 개시되는 기술적 사상은 사용자 컨텐츠의 전송이 완료되면, 이를 안내하는 텍스트, 아이콘 등을 화면에 표시하지 않는 경우에도 적용이 가능하다.
이하, 필요한 도면들을 참조하여, 본 발명의 제2 실시 예에 따른 내비게이션(100)의 제어 방법 및 이를 구현하기 위한 내비게이션(100)의 동작을 좀 더 상세하게 설명하기로 한다. 본 문서에서 개시되는 실시 예들은 도 3을 참조하여 설명한 전자 기기(100)에서 구현될 수 있다.
이하, 본 문서에서 개시되는 제2 실시 예의 구현을 위한 내비게이션(100)의 동작을 좀 더 상세하게 설명하기로 한다.
센싱부(130)의 모션 센싱 모듈(131)은, 자이로 센서, 가속도 센서, 지자기 센서, 중력 센서 등을 포함할 수 있다. 이러한, 모션 센싱 모듈(131)은 내비게이션(100)이 차량의 움직임을 획득한다.
상기 제어부(170)는 상기 센싱부(170)를 통해 획득되는 내비게이션(100)의 움직임을 토대로, 차량의 가속도, 외부로부터의 충격량 등을 획득한다.
또한, 제어부(170)는 차량의 현재 위치를 획득한다. 차량의 현재 위치를 획득하는 방법은 전술한 본 발명의 제1 실시 예에 개시된 위치 획득 방법과 동일하므로, 상세한 설명을 생략한다.
또한, 제어부(170)는 통신부(110)를 통해 서버(300)에 연결한다. 또한, 통신부(110)를 통해 다른 전자 기기(10)와 연결한다.
또한, 제어부(170)는 서버(300)와의 통신을 통해, 다른 전자 기기(10)와 소셜 네트워크(400)를 구성한다.
또한, 제어부(170)는, 사용자의 제어 입력을 토대로 선택된 사용자 컨텐츠를, 소셜 네트워크(400)에 포함된 다른 전자 기기(10)로 전송한다. 여기서, 사용자의 제어 입력은 입력부(120)를 통해 수신되거나, 통신부(110)를 통해 연결된 외부 전자 기기로부터 수신될 수 있다. 후자의 경우, 제어부(170)는 통신부(110)의 근거리 통신 모듈(117)을 통해 적어도 하나의 외부 전자 기기와 연결하고, 연결된 외부 전자 기기로부터 제어 입력을 수신할 수 있다. 근거리 통신 모듈(117)을 통해 연결되는 외부 전자 기기로는, 스마트 폰, 휴대폰, 노트북 컴퓨터, PDA, 태블릿 PC등이 포함될 수 있다.
제어부(170)는 또한 특정 이벤트가 발생하면, 발생된 이벤트와 관련된 사용자 컨텐츠를 자동으로 획득하고, 획득한 사용자 컨텐츠를 소셜 네트워크(400)에 포함된 다른 전자 기기(10)로 자동 전송한다.
제어부(170)는 또한, 차량의 현재 위치를 소셜 네트워크(400)에 포함된 다른 전자 기기(10)로 전송할 수도 있다.
또한, 제어부(170)는 차량의 위치를 토대로 획득되는, 교통 흐름과 관련된 정보를 소셜 네트워크(400)에 포함된 다른 전자 기기(10)로 전송할 수도 있다. 차량의 위치를 토대로 획득되는 교통 정보는 차량의 이동 속도, 이동 방향 등을 포함할 수 있다.
도 31은 본 발명의 제2 실시 예에 따른 내비게이션(100)의 제어 방법을 도시한 흐름도이다. 또한, 도 32는 본 발명의 제2 실시 예에 따른 내비게이션(100)의 제어 방법을 설명하기 위한 도면들이다.
도 31을 참조하면, 제어부(170)는 통신망(200)을 통해 서버(300)와 연결한다(S1701). 본 발명의 제2 실시 예에서도 전술한 본 발명의 제1 실시 예와 마찬가지로, 사용자 인증 과정이 필요한 경우, 인증 정보를 이용하여 사용자 인증 과정을 수행한다. 그리고, 사용자 인증이 성공하면 서버(300)와 연결한다.
또한, 제어부(170)는 사용자의 제어 입력을 토대로, 도로 상에서 획득되는 사용자 컨텐츠를 공유하기 위한 소셜 네트워크의 구성을 서버(300)로 요청한다(S1702). 또한, 제어부(180)는 서버(300)에서 선택된 적어도 하나의 전자 기기(10)와 소셜 네트워크를 구성한다(S1703). 본 문서에서는 내비게이션(100)이 서버(300)에 연결된 이후에, 소셜 네트워크 구성을 요청하는 경우를 예로 들어 설명한다. 그러나, 본 문서에 개시되는 기술적 사상은, 사용자로부터 소셜 네트워크 구성 요청이 수신되면, 서버(300)에 연결하는 경우에도 적용이 가능하다.
S1702 단계에서, 제어부(170)는 네트워크 구성 요청 시, 내비게이션(100)의 현재위치, 즉, 내비게이션(100)이 장착된 차량의 현재 위치를 서버(300)로 전송함으로써, 현재 위치를 기준으로 주변에 위치하는 전자 기기(10)들과의 네트워크 구성을 서버(300)로 요청한다.
제어부(170)는 또한, 차량의 현재 위치와 함께 차량의 이동 방향, 목적지, 검색 반경 등을 전송할 수도 있다.
차량의 이동 방향을 서버(300)로 전송할 경우, 서버(300)는 차량의 이동 방향과 이동 방향이 일치하는 전자 기기(10)들을 선택하여 네트워크 구성을 지원할 수 있다.
또한, 목적지를 서버(300)로 전송할 경우, 서버(300)는 차량이 이동 중인 경로 상에 위치하는 전자 기기(10)들을 선택하여 네트워크 구성을 지원할 수도 있다.
또한, 검색 반경을 서버(300)로 전송할 경우, 서버(300)는 차량의 현재 위치를 기준으로 해당 반경 내에 위치하는 전자 기기(10)들을 선택하여 네트워크 구성을 지원할 수 있다.
도 32는 소셜 네트워크를 구성하는 일 예를 도시한 것이다.
도 32를 차량의 현재 위치(SP)를 기준으로 네트워크를 구성하는 일 예를 도시한 것이다. 도 32를 참조하면, 서버(300)는 내비게이션(100)으로부터 사용자 컨텐츠 공유를 위한 네트워크 구성이 요청되면, 내비게이션(100)이 현재 위치, 즉, 내비게이션(100)이 장착된 차량의 현재 위치(SP)를 획득한다. 여기서, 현재 위치(SP)는 내비게이션(100)으로부터 수신할 수도 있고, 통신망(200)에 포함된 기지국으로부터 획득할 수도 있다.
또한, 서버(300)는 차량의 위치 변화를 일정 시간 동안 획득하고, 이를 토대로 차량의 이동 방향을 획득한다. 또한, 차량의 현재 위치 및 이동 방향을 토대로, 일정 영역(A)을 설정한다. 그리고, 설정된 영역(A) 내에 위치하는 다른 전자 기기들(T1 ~ T5)을 선택하고, 선택된 전자 기기(T1 ~ T5)들과 내비게이션(100)과의 소셜 네트워크 구성을 지원한다.
한편, 내비게이션(100)의 요청에 의해 구성된 소셜 네트워크(400)는, 전술한 바와 같이 내비게이션(100)의 현재 위치를 기준으로 선택된 전자 기기(10)들을 포함한다. 따라서, 내비게이션(100)의 현재 위치에 따라 갱신될 수 있다. 서버(300)는 네트워크(400)가 유지되는 동안, 내비게이션(100)의 위치를 지속적으로 획득하고, 이를 토대로 네트워크(400)에 포함되는 전자 기기들(10)을 지속적으로 갱신한다.
또한, 서버(300)는 내비게이션(100)의 위치가 변하지 않더라도, 네트워크(400)에 포함되는 다른 전자 기기(10)들의 위치가 변경될 경우, 이를 토대로 네트워크에 포함되는 전자 기기(10)들을 지속적으로 갱신한다. 네트워크 구성의 기준이 되는 조건을 만족시키지 못하는 전자 기기(10)는 네트워크에서 제외하고, 새롭게 기준을 만족하는 전자 기기(10)는 네트워크(400)에 포함시킬 수 있다.
다시, 도 31을 보면, 제어부(170)는 내비게이션(100)이 장착된 차량의 주행 중에 특정 이벤트가 발생하는 경우(S1704), 자동으로 사용자 컨텐츠를 획득한다(S1705). 또한, 획득한 사용자 컨텐츠를 S1703 단계에서 형성된 네트워크(400)에 포함되는 적어도 하나의 전자 기기로 자동으로 전송한다(S1706). 그리고, 사용자 컨텐츠의 전송이 완료되면, 이를 안내하는 안내 정보를 디스플레이 모듈(141)을 통해 화면에 표시한다(S1707).
한편, 본 발명의 제2 실시 예에서, S1704 단계 내지 S1707 단계는, 전술한 본 발명의 제1 실시 예에 개시된 S102 내지 S105 단계와 유사하게 수행되므로 본 문서에서는 상세한 설명을 생략한다.
전술한 본 발병의 실시 예들에 따르면, 내비게이션은 교통 흐름 또는 안전 운행과 관련된 이벤트를 자동으로 판단하고, 이벤트가 발생되면, 자동으로 획득한 사용자 컨텐츠를 교통 정보를 제공하는 서버로 전송함으로써, 서버에서 실시간으로 도로 위 상황을 파악하는 것이 가능하도록 지원한다. 나아가, 내비게이션에 의해 생성된 컨텐츠는 다른 전자 기기들로 전송되어, 다른 전자 기기들에서 이를 토대로, 실시간으로 도로 위 상황을 파악하는 것이 가능하도록 지원한다.
또한, 사용자가 운전 중에 별도의 조작을 할 필요 없이, 도로 상황과 관련된 컨텐츠를 수집하고 전송함으로써, 운전 중인 사용자의 주의를 분산시키지 않고 안전하게, 교통 흐름 파악에 필요한 정보들을 다른 전자 기기 또는 교통 정보를 제공하는 서버로 제공하는 것이 가능하다.
본 발명의 실시 예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체(media)를 포함한다. 이 매체는 지금까지 설명한 내비게이션 서비스 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드 디스크(hard disk), 플로피 디스크(floppy disk) 및 자기 테이프(magnetic tape)와 같은 자기 매체(magnetic media), CD 및 DVD와 같은 광 기록 매체(optical recording media), 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다.
본 발명은 기재된 실시 예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정 예 또는 변형 예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.

Claims (43)

  1. 위치 데이터 모듈;
    적어도 하나의 전자 기기의 컨텐츠들을 수집 및 제공하는 서버와, 연결하는 통신부; 및
    상기 위치 데이터 모듈을 통해 차량의 위치를 획득하며, 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련된 컨텐츠를 자동으로 획득하여, 상기 획득한 컨텐츠를 상기 서버로 전송하는 제어부
    를 포함하는 전자 기기.
  2. 제1항에 있어서,
    상기 제어부는, 상기 차량의 위치를 토대로, 상기 차량이 특정 위치에 진입하면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  3. 제2항에 있어서,
    지도 데이터를 저장하는 저장부를 더 포함하고,
    상기 제어부는, 상기 지도 데이터를 이용하여 상기 특정 위치를 획득하는 것을 특징으로 하는 전자 기기.
  4. 제3항에 있어서,
    상기 특정 위치는 사고 다발 지역, 공사 구간, 음주 운전 단속 구간, 교통 정보 수집 구간 또는 상습 정체 구간에 대응하는 것을 특징으로 하는 전자 기기.
  5. 제2항에 있어서,
    상기 특정 위치는 사용자에 의해 설정된 위치인 것을 특징으로 하는 전자 기기.
  6. 제1항에 있어서,
    상기 제어부는, 상기 통신부를 통해 교통 정보를 수신하며, 상기 수신되는 교통 정보와 상기 차량의 위치를 토대로 상기 특정 이벤트의 발생을 인지하는 것을 특징으로 하는 전자 기기.
  7. 제6항에 있어서,
    상기 제어부는, 상기 수신되는 교통 정보로부터 도로 위 통제 상황 및 사고 구간을 포함하는 유고(有故)정보를 획득하며, 상기 유고 정보에 대응하는 특정 위치에 진입하면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  8. 제6항에 있어서,
    상기 제어부는, 상기 교통 정보로부터 상기 차량이 진입한 구간의 평균 이동 속도를 획득하고, 상기 차량의 이동 속도와 상기 평균 이동 속도 간의 차이가 기 설정된 값 이상이면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  9. 제6항에 있어서,
    상기 제어부는, 상기 교통 정보로부터 상기 차량이 진입한 구간의 교통 흐름 상태를 획득하고, 상기 교통 흐름 상태가 정체(停滯)에 대응되고, 상기 차량의 이동 속도가 기 설정된 값 이하이면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  10. 제6항에 있어서,
    상기 통신부는 상기 서버로부터 상기 교통 정보를 수신하는 것을 특징으로 하는 전자 기기.
  11. 제6항에 있어서,
    상기 통신부는 방송망으로부터 상기 교통 정보를 수신하며,
    상기 교통 정보는 티펙(Transport Protocol Expert Group; TPEG) 정보를 포함하는 것을 특징으로 하는 전자 기기.
  12. 제1항에 있어서,
    상기 제어부는, 상기 차량의 가속도를 토대로, 상기 특정 이벤트의 발생 여부를 판단하는 것을 특징으로 하는 전자 기기.
  13. 제12항에 있어서,
    상기 제어부는, 상기 차량의 가속도가 기 설정된 범위를 벗어나면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  14. 제12항에 있어서,
    상기 통신부는 외부로부터 교통 정보를 수신하며,
    상기 제어부는, 상기 차량의 가속도가 기 설정된 값 이하이면, 상기 교통 정보로부터 상기 차량이 현재 진입한 구간의 교통 흐름 상태를 획득하고, 상기 획득한 교통 흐름 상태가 정체에 대응되는 경우, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  15. 제12항에 있어서,
    상기 제어부는, 상기 차량의 가속도가 제1 값 이하이면, 상기 차량의 이동 속도를 획득하고, 상기 차량의 이동 속도가 일정 시간동안 제2 값 이하를 유지하면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  16. 제12항에 있어서,
    가속도 센서를 더 포함하고,
    상기 제어부는 상기 가속도 센서를 이용하여 상기 차량의 가속도를 획득하는 것을 특징으로 하는 전자 기기.
  17. 제12항에 있어서,
    상기 제어부는, 상기 위치 데이터 모듈을 통해 획득되는 위치 데이터를 이용하여 상기 차량의 가속도를 획득하는 것을 특징으로 하는 전자 기기.
  18. 제1항에 있어서,
    외부로부터의 충격량을 획득하는 센싱부를 더 포함하고,
    상기 제어부는 상기 충격량을 토대로 상기 특정 이벤트의 발생 여부를 판단하는 것을 특징으로 하는 전자 기기.
  19. 제18항에 있어서,
    상기 제어부는, 상기 충격량의 변화량이 기 설정된 값 이상이면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  20. 제1항에 있어서,
    상기 제어부는 상기 차량의 주행 영상을 획득하고, 상기 주행 영상을 분석하여 상기 특정 이벤트의 발생 여부를 판단하는 것을 특징으로 하는 전자 기기.
  21. 제20항에 있어서,
    상기 제어부는, 상기 주행 영상 내에 특정 객체가 포함된 경우, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  22. 제20항에 있어서,
    상기 제어부는, 상기 주행 영상으로부터 추출되는 적어도 하나의 객체를 토대로 상기 차량이 주행 중인 도로의 교통 흐름 상태를 획득하고, 상기 획득한 교통 흐름 상태를 토대로 상기 특정 이벤트의 발생을 판단하는 것을 특징으로 하는 전자 기기.
  23. 제20항에 있어서,
    상기 차량의 주행 영상을 획득하는 적어도 하나의 카메라를 더 포함하는 전자 기기.
  24. 제20항에 있어서,
    상기 차량의 주행 영상은, 상기 통신부를 통해 연결되는 적어도 하나의 외부 카메라 또는 차량용 블랙박스로부터 수신되는 것을 특징으로 하는 전자 기기.
  25. 제1항에 있어서,
    상기 통신부는 외부 전자 기기와 연결하며,
    상기 제어부는, 상기 외부 전자 기기로부터 특정 키 데이터가 수신되면, 상기 특정 이벤트가 발생한 것으로 판단하는 것을 특징으로 하는 전자 기기.
  26. 제25항에 있어서,
    상기 특정 키 데이터는 상기 외부 전자 기기의 특정 키가 조작됨에 따라 수신되며,
    상기 제어부는, 상기 외부 전자 기기와의 통신을 통해 상기 특정 키를 상기 컨텐츠의 자동 생성과 관련된 단축 키로 등록하는 것을 특징으로 하는 전자 기기.
  27. 제1항에 있어서,
    서로 다른 이벤트가 대응되어 있는 복수의 텍스트를 저장하는 저장부를 더 포함하고,
    상기 제어부는, 상기 특정 이벤트가 발생하면, 상기 복수의 텍스트 중 상기 특정 이벤트에 대응하는 텍스트를 이용하여 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기.
  28. 제1항에 있어서,
    마이크를 더 포함하고,
    상기 제어부는, 상기 특정 이벤트가 발생하면, 상기 마이크를 통해 입력되는 오디오를 이용하여 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기.
  29. 제1항에 있어서,
    상기 제어부는 상기 특정 이벤트가 발생하면, 상기 차량의 주행 영상을 획득하고, 상기 획득한 차량의 주행 영상을 이용하여 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기.
  30. 제29항에 있어서,
    상기 제어부는, 상기 특정 이벤트가 발생하면, 기 설정된 시간 동안 상기 차량의 주행 영상을 획득하고, 상기 획득한 차량의 주행 영상을 토대로 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기.
  31. 제29항에 있어서,
    상기 제어부는, 상기 특정 이벤트가 발생하면, 상기 특정 이벤트가 발생한 시점이전에 획득된 상기 차량의 주행 영상을 토대로 상기 컨텐츠를 생성하는 것을 특징으로 하는 전자 기기.
  32. 제1항에 있어서,
    디스플레이 모듈을 더 포함하고,
    상기 제어부는, 상기 컨텐츠를 상기 서버로 전송하면, 상기 컨텐츠의 전송을 알리는 안내 정보를 상기 디스플레이 모듈을 통해 표시하는 것을 특징으로 하는 전자 기기.
  33. 제1항에 있어서,
    상기 제어부는, 인증 정보를 상기 서버로 전송하고, 상기 서버에 의해 상기 인증 정보를 이용한 사용자 인증이 완료되면, 상기 통신부를 통해 상기 서버에 연결하는 것을 특징으로 하는 전자 기기.
  34. 제1항에 있어서,
    상기 제어부는, 상기 위치 데이터 모듈을 통해 수신되는 위치 데이터에 대한 맵 매칭을 수행하여 상기 차량의 위치를 획득하는 것을 특징으로 하는 전자 기기.
  35. 위치 데이터 모듈;
    네트워크 형성을 지원하는 서버와 연결하는 통신부; 및
    상기 위치 데이터 모듈을 통해 차량의 위치를 획득하며, 상기 차량의 위치를 토대로 선택된 적어도 하나의 타 전자 기기와 네트워크를 형성하며, 특정 이벤트가 발생하면, 상기 특정 이벤트와 관련하여 획득한 컨텐츠를 상기 적어도 하나의 타 전자 기기로 전송하는 제어부
    를 포함하는 전자 기기.
  36. 제35항에 있어서,
    상기 네트워크는 복수의 전자 기기로 구성되며, 상기 복수의 전자 기기는 상기 복수의 전자 기기 각각의 위치를 토대로 갱신되는 것을 특징으로 하는 전자 기기.
  37. 적어도 하나의 전자 기기의 컨텐츠를 수집 및 제공하는 서버와 연결하는 단계;
    차량의 위치를 획득하는 단계;
    특정 이벤트가 발생하면, 상기 특정 이벤트와 관련된 컨텐츠를 자동으로 획득하는 단계; 및
    상기 획득한 컨텐츠를 상기 서버로 전송하는 단계
    를 포함하는 전자 기기의 제어 방법.
  38. 제37항에 있어서,
    상기 차량의 위치를 토대로, 상기 차량이 특정 위치에 진입하면, 상기 특정 이벤트가 발생한 것으로 판단하는 단계를 더 포함하는 전자 기기의 제어 방법.
  39. 제37항에 있어서,
    교통 정보를 수신하는 단계; 및
    상기 수신되는 교통 정보와 상기 차량의 위치를 토대로, 상기 특정 이벤트의 발생 여부를 판단하는 단계를 더 포함하는 전자 기기의 제어 방법.
  40. 제37항에 있어서,
    상기 차량의 가속도를 토대로 상기 특정 이벤트의 발생 여부를 판단하는 단계를 더 포함하는 전자 기기의 제어 방법.
  41. 제37항에 있어서,
    상기 차량에 대한 외부로부터의 충격량을 획득하는 단계; 및
    상기 충격량을 토대로 상기 특정 이벤트의 발생 여부를 판단하는 단계를 더 포함하는 전자 기기의 제어 방법.
  42. 제37항에 있어서,
    상기 차량의 주행 영상을 획득하는 단계; 및
    상기 주행 영상을 분석하여 상기 특정 이벤트의 발생 여부를 판단하는 단계를 더 포함하는 전자 기기의 제어 방법.
  43. 제37항 내지 제42항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
KR1020110018546A 2011-03-02 2011-03-02 전자 기기 및 전자 기기의 제어 방법 KR101451765B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110018546A KR101451765B1 (ko) 2011-03-02 2011-03-02 전자 기기 및 전자 기기의 제어 방법
PCT/KR2012/001491 WO2012118320A2 (ko) 2011-03-02 2012-02-28 전자 기기 및 전자 기기의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110018546A KR101451765B1 (ko) 2011-03-02 2011-03-02 전자 기기 및 전자 기기의 제어 방법

Publications (2)

Publication Number Publication Date
KR20120099981A true KR20120099981A (ko) 2012-09-12
KR101451765B1 KR101451765B1 (ko) 2014-10-20

Family

ID=46758371

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110018546A KR101451765B1 (ko) 2011-03-02 2011-03-02 전자 기기 및 전자 기기의 제어 방법

Country Status (2)

Country Link
KR (1) KR101451765B1 (ko)
WO (1) WO2012118320A2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160063047A (ko) * 2014-11-26 2016-06-03 한국전자통신연구원 탐험 경로 협력형 내비게이션 시스템 및 그 제어 방법
KR20170081920A (ko) * 2016-01-05 2017-07-13 삼성전자주식회사 차량과 관련된 영상 정보를 공유하는 방법 및 장치
KR20200011612A (ko) * 2015-02-10 2020-02-03 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
KR20210074042A (ko) * 2019-12-11 2021-06-21 (주)케이웍스 사업용 차량을 이용하여 도로 위험정보를 탐지하는 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105679064A (zh) * 2016-03-25 2016-06-15 北京新能源汽车股份有限公司 用于路况监测的车载终端、系统及汽车

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050108393A (ko) * 2003-03-14 2005-11-16 가부시키가이샤 나비타이무쟈판 네비게이션 장치, 네비게이션 시스템, 네비게이션 방법, 및프로그램
KR100926681B1 (ko) * 2007-08-29 2009-11-17 주식회사 아이리버 네비게이션정보 제공 시스템 및 방법
KR100914868B1 (ko) * 2007-11-14 2009-09-02 (주)컨버전스스퀘어 컨텐츠 정보 표시 단말기 및 방법
KR20090104299A (ko) * 2008-03-31 2009-10-06 유종태 차량용 블랙박스
JP4543342B2 (ja) 2008-05-12 2010-09-15 ソニー株式会社 ナビゲーション装置及び情報提供方法
KR101019915B1 (ko) 2010-03-05 2011-03-08 팅크웨어(주) 서버, 내비게이션 시스템, 차량용 내비게이션 및 차량용 내비게이션의 영상 제공 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160063047A (ko) * 2014-11-26 2016-06-03 한국전자통신연구원 탐험 경로 협력형 내비게이션 시스템 및 그 제어 방법
KR20200011612A (ko) * 2015-02-10 2020-02-03 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
KR20170081920A (ko) * 2016-01-05 2017-07-13 삼성전자주식회사 차량과 관련된 영상 정보를 공유하는 방법 및 장치
KR20210074042A (ko) * 2019-12-11 2021-06-21 (주)케이웍스 사업용 차량을 이용하여 도로 위험정보를 탐지하는 방법 및 장치

Also Published As

Publication number Publication date
WO2012118320A2 (ko) 2012-09-07
KR101451765B1 (ko) 2014-10-20
WO2012118320A3 (ko) 2012-12-20

Similar Documents

Publication Publication Date Title
US11265283B2 (en) Electronic device, server, and control method and location information providing method for the electronic device
US10401188B2 (en) Method and apparatus for providing point of interest information
KR20190109625A (ko) 정밀 지도 데이터 제공 방법 및 이를 위한 시스템
WO2017042132A1 (en) Method and apparatus for providing locally relevant routing information
CN104380047B (zh) 导航系统
US11064322B2 (en) Method, apparatus, and system for detecting joint motion
KR101451765B1 (ko) 전자 기기 및 전자 기기의 제어 방법
US20210140787A1 (en) Method, apparatus, and system for detecting and classifying points of interest based on joint motion
US20210142187A1 (en) Method, apparatus, and system for providing social networking functions based on joint motion
JP2014236493A (ja) メッセージ報知システム、メッセージ送受信装置、プログラム、および記録媒体
US11107175B2 (en) Method, apparatus, and system for providing ride-sharing functions based on joint motion
KR101440334B1 (ko) 교통 정보 제공 서버, 전자 기기 및 교통 정보 제공 방법
KR20120109899A (ko) 전자 기기 및 전자 기기의 내비게이션 서비스 방법
KR101421613B1 (ko) 전자 기기, 서버, 전자 기기의 제어 방법 및 교통 정보 제공 방법
KR102048712B1 (ko) 전자 기기 및 전자 기기의 내비게이션 서비스 방법
KR101952341B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR101105145B1 (ko) 서버, 전자 기기 및 전자 기기의 교통 정보 제공 방법
KR101861355B1 (ko) 교통 정보 제공 방법 및 이를 수행하는 전자 기기, 서버 및 시스템
KR102057933B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR102219901B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR102328015B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR102335466B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR102305136B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR102362471B1 (ko) 전자 기기, 서버 및 교통 정보 제공 방법
KR20120107672A (ko) 전자 기기, 서버, 사용자 컨텐츠 제공 방법 및 시스템

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170927

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181010

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191007

Year of fee payment: 6