KR102220367B1 - Mobile terminal and method for controlling the same - Google Patents

Mobile terminal and method for controlling the same Download PDF

Info

Publication number
KR102220367B1
KR102220367B1 KR1020160079543A KR20160079543A KR102220367B1 KR 102220367 B1 KR102220367 B1 KR 102220367B1 KR 1020160079543 A KR1020160079543 A KR 1020160079543A KR 20160079543 A KR20160079543 A KR 20160079543A KR 102220367 B1 KR102220367 B1 KR 102220367B1
Authority
KR
South Korea
Prior art keywords
vehicle
mobile terminal
user
control device
information
Prior art date
Application number
KR1020160079543A
Other languages
Korean (ko)
Other versions
KR20160079749A (en
Inventor
마용범
장미화
서문길
이재걸
김형국
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160079543A priority Critical patent/KR102220367B1/en
Publication of KR20160079749A publication Critical patent/KR20160079749A/en
Application granted granted Critical
Publication of KR102220367B1 publication Critical patent/KR102220367B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W92/00Interfaces specially adapted for wireless communication networks
    • H04W92/16Interfaces between hierarchically similar devices
    • H04W92/18Interfaces between hierarchically similar devices between terminal devices

Abstract

본 명세서에서 개시된 기술적 과제는, 이동 단말기 또는 차량 제어 장치 중 어느 하나의 단말 장치에서 발생한 이벤트를 타 단말 장치와 공유하여, 차량의 주행 여부 또는 차량에 승차 여부와 무관하게, 각 단말 장치에서 동작하는 프로그램들 간에 연속성을 유지함으로써, 사용자에게 편의성을 증대시키는 이동 단말기 및 그 제어 방법에 관한 발명을 제공하는 데 있다.
본 명세서에 개시된 일 실시예는, 차량에 설치된 차량 제어 장치와 통신을 수행하는 이동 단말기에 있어서, 상기 차량 제어 장치 및 상기 이동 단말기 각각을 일 노드로 포함하는 네트워크를 형성하는 무선 통신부 및 적어도 하나의 노드에서 발생한 이벤트를 근거로, 상기 차량의 주행 여부 또는 사용자의 차량 승차 여부에 따라 상기 차량 제어 장치 또는 상기 이동 단말기가 상기 이벤트에 대응하는 동작을 수행하도록 하는 제어부를 포함하는 이동 단말기를 개시한다.
The technical problem disclosed in this specification is to share an event occurring in any one terminal device of a mobile terminal or a vehicle control device with other terminal devices, and operate in each terminal device, regardless of whether the vehicle is running or getting on the vehicle. It is to provide an invention related to a mobile terminal and a control method thereof that increase convenience to a user by maintaining continuity between programs.
An embodiment disclosed in the present specification is a mobile terminal that performs communication with a vehicle control device installed in a vehicle, the wireless communication unit forming a network including each of the vehicle control device and the mobile terminal as a node, and at least one Disclosed is a mobile terminal including a control unit for causing the vehicle control device or the mobile terminal to perform an operation corresponding to the event according to whether the vehicle is running or whether the user boards the vehicle based on an event occurring in a node.

Description

이동 단말기 및 그 제어 방법 {MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME}Mobile terminal and its control method {MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME}

본 명세서에 개시된 기술은, 이동 단말기에 관한 것으로, 좀 더 구체적으로 차량의 주행 여부 또는 사용자의 승차 여부에 따라 발생하는 이벤트를 차량에 설치된 차량 제어 장치와 이동 단말기 간에 서로 공유하는 이동 단말기 및 그 제어 방법에 관한 것이다.The technology disclosed in the present specification relates to a mobile terminal, and more specifically, a mobile terminal that shares an event that occurs depending on whether a vehicle is running or whether a user is riding a vehicle, and a control thereof. It's about how.

단말기(terminal)는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시, 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.Terminals can be divided into mobile/portable terminals and stationary terminals depending on whether or not they can move. Again, the mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry it.

이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.Such a terminal is implemented in the form of a multimedia player with complex functions such as taking photos or videos, playing music or video files, receiving games, and broadcasting as functions are diversified. have. Furthermore, in order to support and increase the function of the terminal, it may be considered to improve the structural and software parts of the terminal.

또한, 최근 사용자 편의성을 고려하여 다양한 형태의 이동 단말기가 개발되고 있다. 이 중 웨어러블 디바이스(Wearable device)는 사용자가 신체 또는 의류에 착용할 수 있는 각종 전자기기를 모두 포함한다. 이러한 웨어러블 디바이스는 예를 들어 스마트 워치(Smart Watch, 시계형 이동 단말기), 웨어러블 컴퓨터(Wearable Computer), 구글 글래스(google glass), 블루투스 헤드셋(Bluetooth Headset), 스마트 웨어(Smart wear) 등일 수 있다. In addition, various types of mobile terminals have recently been developed in consideration of user convenience. Among them, a wearable device includes all types of electronic devices that a user can wear on their body or clothing. Such a wearable device may be, for example, a smart watch (a watch-type mobile terminal), a wearable computer, a Google glass, a Bluetooth headset, and a smart wear.

이와 같은 웨어러블 디바이스는 그 다양한 기능에 따라 복합적인 기능을 갖춘 멀티미디어 기기 형태로 구현되고 있다. 예를 들어 스마트 워치의 경우 시계로서 제공되는 기본 기능 외에도, 구비된 카메라를 통해 정지 화상을 촬영하거나, 동영상을 녹화하는 기능 또는 본체에 형성된 디스플레이부를 통해 멀티미디어 컨텐츠를 재생할 수도 있다. 또는 다양한 이메일 플러그인등을 이용하여 무선 인터넷을 통한 메시지를 확인하거나 소셜 네트워크(Social Network)에 접속하도록 할 수도 있다. Such wearable devices are implemented in the form of multimedia devices with complex functions according to their various functions. For example, in the case of a smart watch, in addition to the basic function provided as a watch, a still image may be captured through an equipped camera, a video may be recorded, or multimedia content may be played back through a display unit formed on the main body. Alternatively, various email plug-ins can be used to check messages through the wireless Internet or to access a social network.

이러한 이동 단말기 또는 웨어러블 디바이스의 다양한 기능을 활용하여 사용자에게 더욱 편의를 제공할 수 있도록 하기 위한 연구가 활발하게 진행되고 있는 실정이다.Research is being actively conducted to provide more convenience to users by utilizing various functions of such a mobile terminal or wearable device.

특히, 차량의 운전 내지 동작과 관련하여 이러한 이동 단말기 또는 웨어러블 디바이스의 활용의 필요성이 점점 대두되고 있다.In particular, the necessity of utilizing such a mobile terminal or a wearable device is increasingly emerging in relation to the driving or operation of a vehicle.

본 명세서에서 개시된 기술적 과제는, 이동 단말기 또는 차량 제어 장치 중 어느 하나의 단말 장치에서 발생한 이벤트를 타 단말 장치와 공유하여, 차량의 주행 여부 또는 차량에 승차 여부와 무관하게, 각 단말 장치에서 동작하는 프로그램들 간에 연속성을 유지함으로써, 사용자에게 편의성을 증대시키는 이동 단말기 및 그 제어 방법에 관한 발명을 제공하는 데 있다.The technical problem disclosed in this specification is to share an event occurring in any one terminal device of a mobile terminal or a vehicle control device with other terminal devices, and operate in each terminal device, regardless of whether the vehicle is running or getting on the vehicle. It is to provide an invention related to a mobile terminal and a control method thereof that increase convenience to a user by maintaining continuity between programs.

본 명세서에 개시된 일 실시예는, 차량에 설치된 차량 제어 장치와 통신을 수행하는 이동 단말기에 있어서, 상기 차량 제어 장치 및 상기 이동 단말기 각각을 일 노드로 포함하는 네트워크를 형성하는 무선 통신부 및 적어도 하나의 노드에서 발생한 이벤트를 근거로, 상기 차량의 주행 여부, 또는 사용자의 차량 승차 혹은 하차 여부에 따라 상기 차량 제어 장치 또는 상기 이동 단말기가 상기 이벤트에 대응하는 동작을 수행하도록 하는 제어부를 포함하는 이동 단말기를 개시한다.An embodiment disclosed in the present specification is a mobile terminal that performs communication with a vehicle control device installed in a vehicle, the wireless communication unit forming a network including each of the vehicle control device and the mobile terminal as a node, and at least one A mobile terminal including a control unit for causing the vehicle control device or the mobile terminal to perform an operation corresponding to the event according to whether the vehicle is running or whether the user gets on or off the vehicle, based on an event occurring in a node. Start.

일 실시예에 따라, 상기 무선 통신부는, 상기 차량 제어 장치가 상기 이벤트에 대응하는 동작을 수행하도록, 상기 이벤트에 대응하는 데이터를 상기 차량 제어 장치로 전송하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the wireless communication unit discloses a mobile terminal, characterized in that the vehicle control device transmits data corresponding to the event to the vehicle control device so that the vehicle control device performs an operation corresponding to the event.

일 실시예에 따라, 상기 사용자 입력을 수신하기 위한 팝업창을 화면에 표시하는 출력부를 더 포함하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, a mobile terminal further comprises an output unit for displaying a pop-up window for receiving the user input on a screen.

일 실시예에 따라, 상기 출력부는, 상기 팝업창 내 적어도 하나의 그래픽 오브젝트를 화면에 표시하고, 상기 제어부는, 상기 그래픽 오브젝트에 대한 선택 입력에 따라, 상기 이벤트에 대응하는 동작을 수행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the output unit displays at least one graphic object in the pop-up window on a screen, and the control unit performs an operation corresponding to the event according to a selection input for the graphic object. Initiate a mobile terminal.

일 실시예에 따라, 상기 그래픽 오브젝트는, 상기 이벤트 발생 횟수를 상기 그래픽 오브젝트 상에 또는 상기 그래픽 오브젝트 주위에 표시하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the graphic object discloses a mobile terminal, characterized in that the number of occurrences of the event is displayed on or around the graphic object.

일 실시예에 따라, 상기 제어부는, 상기 이벤트에 대응하는 동작이 수행된 경우, 동작 수행 중 화면 일부에 상기 이벤트 발생 여부 또는 상기 이벤트 발생 횟수를 화면상에 표시하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the control unit initiates a mobile terminal, characterized in that, when an operation corresponding to the event is performed, whether the event occurs or the number of occurrences of the event is displayed on a part of the screen while the operation is being performed. do.

일 실시예에 따라, 상기 제어부는, 상기 이벤트에 대응하는 동작을 수행하는 프로그램을 실행하기 위한 명령을 입력받기 위해 화면에 출력되는 부분 또는 그 주위에, 상기 이벤트 발생 여부 또는 상기 이벤트 발생 횟수를 표시하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the control unit displays whether the event has occurred or the number of occurrences of the event in or around a portion displayed on the screen to receive a command for executing a program that performs an operation corresponding to the event. Disclosed is a mobile terminal, characterized in that.

일 실시예에 따라, 상기 이벤트가 발생한 경우, 빛, 진동 또는 소리 형태로 출력하는 출력부를 더 포함하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, when the event occurs, discloses a mobile terminal, characterized in that it further comprises an output unit for outputting in the form of light, vibration, or sound.

일 실시예에 따라, 상기 제어부는, 상기 차량의 시동 온(on)/오프(off) 상태, 상기 차량의 속도, 상기 차량 위치의 변경 여부 및 상기 차량 제어 장치와 사이 이동 단말기 간의 거리 중 어느 하나 또는 이들의 조합으로 상기 차량의 주행 여부 또는 사용자의 차량 승차 여부를 판단하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the control unit is configured to include any one of an on/off state of the vehicle, a speed of the vehicle, a change in the vehicle position, and a distance between the vehicle control device and a mobile terminal. Or a combination thereof discloses a mobile terminal, characterized in that it is determined whether the vehicle is running or whether the user rides the vehicle.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량의 위치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 사용자 입력에 따라 상기 차량의 위치를 출력하는 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, when the power is turned on within a predetermined distance from the location of the vehicle, the mobile terminal executes a program that outputs the location of the vehicle according to a user input. Start up the terminal.

일 실시예에 따라, 상기 차량의 위치는, 사용자의 차량 하차 이벤트 발생시, 상기 이동 단말기 또는 상기 차량 제어 장치가 인식한 현재 위치인 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, a mobile terminal is disclosed, wherein the location of the vehicle is a current location recognized by the mobile terminal or the vehicle control device when a vehicle disembarkation event of a user occurs.

일 실시예에 따라, 상기 차량의 위치를 출력하는 프로그램은, 상기 차량의 위치를 지도상에 출력하거나, 사용자 입력에 의해 설정된 사진을 출력하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the program for outputting the location of the vehicle discloses a mobile terminal, characterized in that the location of the vehicle is output on a map or a picture set by a user input is output.

일 실시예에 따라, 상기 차량의 위치를 출력하는 프로그램은, 상기 이동 단말기와 상기 차량 간의 거리 차이에 따라 진동의 진폭 또는 주파수를 달리하여 출력하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, a program for outputting the location of the vehicle discloses a mobile terminal, characterized in that the output is output by varying the amplitude or frequency of the vibration according to a distance difference between the mobile terminal and the vehicle.

일 실시예에 따라, 상기 차량의 위치를 출력하는 프로그램은, 상기 이동 단말기와 상기 차량 간의 거리 차이에 따라 음성을 달리하거나, 알림음의 진폭 또는 주파수를 달리하여 출력하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the program for outputting the location of the vehicle includes a mobile terminal that outputs a different voice according to a distance difference between the mobile terminal and the vehicle, or by varying the amplitude or frequency of a notification sound. Start.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량 제어 장치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 사용자 입력에 따라 상기 차량 제어 장치의 목적지를 설정하기 위한 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the mobile terminal executes a program for setting a destination of the vehicle control device according to a user input when the power is turned on within a predetermined distance from the vehicle control device. A mobile terminal is disclosed.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량 제어 장치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 사용자 입력에 따라 일정 관리 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the mobile terminal discloses a mobile terminal, characterized in that when the power is turned on within a certain distance from the vehicle control device, executes a schedule management program according to a user input.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량 제어 장치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 사용자 입력에 따라 상기 차량의 정보를 출력하는 것을 특징으로 이동 단말기를 개시한다.According to an embodiment, the mobile terminal, when the power is turned on within a predetermined distance from the vehicle control device, outputs the vehicle information according to a user input.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량 제어 장치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 사용자 입력에 따라 일정 관련 텍스트를 포함한 메시지를 출력하는 것을 특징으로 이동 단말기를 개시한다.According to an embodiment, when the power is turned on within a certain distance from the vehicle control device, the mobile terminal starts a mobile terminal, characterized in that it outputs a message including a schedule-related text according to a user input. do.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량 제어 장치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 사용자 입력에 따라 상기 차량에 대한 제어 명령을 전송하기 위한 프로그램을 실행하는 것을 특징으로 이동 단말기를 개시한다.According to an embodiment, when the power is turned on within a certain distance from the vehicle control device, the mobile terminal executes a program for transmitting a control command for the vehicle according to a user input. To start the mobile terminal.

일 실시예에 따라, 상기 차량에 대한 제어 명령은, 상기 차량 내부의 공조 제어, 상기 차량의 시동 온(on)/오프(off) 제어, 상기 차량의 도어 개폐 제어, 상기 차량의 창문 개폐 제어 및 상기 차량의 선루프 개폐 제어 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the control command for the vehicle includes air conditioning control inside the vehicle, starting on/off control of the vehicle, door opening/closing control of the vehicle, window opening/closing control of the vehicle, and Disclosed is a mobile terminal comprising at least one of controlling the opening and closing of the sunroof of the vehicle.

일 실시예에 따라, 상기 이동 단말기는, 사용자의 차량 승차 이벤트가 발생한 경우, 사용자 입력에 따라 상기 차량의 정보를 출력하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the mobile terminal discloses a mobile terminal, characterized in that when a user's vehicle riding event occurs, outputs the vehicle information according to a user input.

일 실시예에 따라, 상기 차량의 정보는, 상기 차량 내부의 공조 상태, 상기 차량 도어의 개폐 여부, 상기 차량 창문의 개폐 여부, 차량의 경보 상태, 도어의 개폐여부, 창문의 개폐 여부, 선루프의 개폐여부, 상기 차량의 배터리 충전 상태, 상기 차량의 주유 상태 및 타이어의 공기압 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the vehicle information includes: an air conditioning state inside the vehicle, whether the vehicle door is opened or closed, whether the vehicle window is opened or closed, an alarm state of the vehicle, whether a door is opened, whether a window is opened, a sunroof Disclosed is a mobile terminal comprising at least one of information on whether to open or close the vehicle, a state of charging a battery of the vehicle, a state of fueling the vehicle, and information on an air pressure of a tire.

일 실시예에 따라, 상기 이동 단말기는, 사용자의 차량 승차 이벤트가 발생한 경우, 사용자 입력에 따라 상기 차량에 대한 제어 명령을 전송하기 위한 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the mobile terminal discloses a mobile terminal, characterized in that when a user's vehicle ride event occurs, executes a program for transmitting a control command for the vehicle according to a user input.

일 실시예에 따라, 상기 이동 단말기는, 사용자의 차량 승차 이벤트가 발생한 경우, 사용자 입력에 따라 상기 차량 제어 장치에 목적지를 설정하기 위한 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the mobile terminal discloses a mobile terminal, characterized in that when a user's vehicle riding event occurs, the mobile terminal executes a program for setting a destination in the vehicle control device according to a user input.

일 실시예에 따라, 상기 목적지를 설정하기 위한 프로그램은, 상기 이동 단말기에 저장된 검색 로그를 근거로 일정 횟수 이상 검색된 장소명이거나, 일정 관리 프로그램에 일정 횟수 이상 등록된 장소이거나, 특정 장소명이 포함된 메시지가 일정 횟수 이상인 경우 상기 메시지에 포함된 장소를 상기 차량 제어 장치에 목적지로 설정하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the program for setting the destination is a place name that has been searched more than a certain number of times based on a search log stored in the mobile terminal, a place registered more than a certain number of times in a schedule management program, or a message including a specific place name When is more than a certain number of times, a place included in the message is set as a destination in the vehicle control device.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량이 주행 중 호 착신시, 착신을 거부하고 응답 메시지를 호 발신 대상에 전송한 경우, 차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 상기 호 발신 대상에 호를 발신하는 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the mobile terminal, when the vehicle receives a call while driving, rejects the call and transmits a response message to the call originating target, when a vehicle non-driving event or a user alighting event occurs, the user input Accordingly, a mobile terminal is disclosed, characterized in that the program for sending a call to the call originating target is executed.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량이 주행 중 일정 관련 텍스트를 포함한 메시지를 착신한 경우, 차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 일정 관리 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, when the vehicle receives a message including a schedule-related text while driving, the mobile terminal executes a schedule management program according to a user input when a vehicle non-driving event or a user alighting event occurs. Disclosed is a mobile terminal characterized by a feature.

일 실시예에 따라, 상기 이동 단말기는, 상기 차량이 주행 중 녹음을 한 경우, 차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 상기 녹음 파일을 관리할 수 있는 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, when the vehicle is recorded while driving, the mobile terminal executes a program capable of managing the recorded file according to a user input when a vehicle non-driving event or a user alighting event occurs. Disclosed is a mobile terminal characterized by a feature.

일 실시예에 따라, 상기 차량 제어 장치는, 기 설정된 목적지에 상기 차량의 미도착을 판단한 경우, 상기 이동 단말기는, 차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 현 위치로부터 상기 목적지까지 경로를 화면에 출력하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, when determining that the vehicle has not arrived at a preset destination, the mobile terminal, when a vehicle non-driving event or a user's disembarkation event occurs, the destination from the current location according to a user input. Disclosed is a mobile terminal, characterized in that to output a route to the screen.

일 실시예에 따라, 상기 차량 제어 장치는, 기 설정된 제1 목적지에 상기 차량의 도착을 판단한 이후, 제2 목적지가 설정되었고, 다시 상기 제2 목적지에 상기 차량의 도착을 판단한 경우, 상기 이동 단말기는, 차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 상기 제2 목적지로부터 상기 제1 목적지까지의 경로를 출력하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the vehicle control device, after determining the arrival of the vehicle to a preset first destination, is set to a second destination, and determines the arrival of the vehicle to the second destination again, the mobile terminal Discloses a mobile terminal, comprising outputting a route from the second destination to the first destination according to a user input when a vehicle non-driving event or a user alighting event occurs.

일 실시예에 따라, 상기 차량 제어 장치가, 기 설정된 목적지에 상기 차량의 도착을 판단한 경우, 상기 이동 단말기는, 차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 상기 목적지에 관련된 정보를 출력하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, when the vehicle control device determines the arrival of the vehicle to a preset destination, the mobile terminal outputs information related to the destination when a vehicle non-driving event or a user alighting event occurs. Disclosed is a mobile terminal characterized by a feature.

일 실시예에 따라, 상기 이동 단말기는, 상기 설정된 목적지명을 포함한 쿼리를 검색 서버에 전송하고, 사용자 입력에 따라 상기 검색 서버로부터 수신한 응답 데이터를 화면에 출력하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, the mobile terminal transmits a query including the set destination name to a search server, and outputs response data received from the search server on a screen according to a user input. do.

일 실시예에 따라, 상기 차량 제어 장치가, 기 설정된 목적지에 상기 차량의 도착을 판단한 경우, 상기 이동 단말기는, 주소록에 저장된 주소와 상기 차량 제어 장치에 설정된 목적지 간의 거리가 일정 거리 내에 속하는 경우, 사용자 입력에 따라 상기 주소록에 저장된 주소에 대응되는 연락처에 발신하도록 호 발신 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, when the vehicle control device determines the arrival of the vehicle to a preset destination, the mobile terminal, when the distance between the address stored in the address book and the destination set in the vehicle control device falls within a predetermined distance, Disclosed is a mobile terminal, comprising executing a call originating program to send a call to a contact corresponding to an address stored in the address book according to a user input.

*일 실시예에 따라, 상기 차량 제어 장치가, 기 설정된 목적지에 상기 차량의 도착을 판단한 경우, 상기 이동 단말기는, 기 저장된 메시지에 포함된 장소와 상기 차량 제어 장치에 설정된 목적지 간의 거리가 일정 거리 내에 속하는 경우, 사용자 입력에 따라 상기 장소와 함께 저장된 메시지 내 연락처 혹은 상기 메시지 발신처에 발신하도록 호 발신 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.* According to an embodiment, when the vehicle control device determines the arrival of the vehicle to a preset destination, the mobile terminal includes a distance between a place included in a pre-stored message and a destination set in the vehicle control device. In the case of belonging to within, a mobile terminal is disclosed, characterized in that the mobile terminal executes a call originating program to send to a contact within a message stored with the place or to the message originator according to a user input.

일 실시예에 따라, 상기 차량 제어 장치가, 기 설정된 목적지에 상기 차량의 도착을 판단한 경우, 상기 이동 단말기는, 일정 관리 프로그램에 저장된 장소와 상기 차량 제어 장치에 설정된 목적지 간의 거리가 일정 거리 내에 속하는 경우, 사용자 입력에 따라 상기 일정 관리 프로그램에 상기 장소와 함께 저장된 연락처에 발신하도록 호 발신 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.According to an embodiment, when the vehicle control device determines the arrival of the vehicle to a preset destination, the mobile terminal includes a distance between a place stored in a schedule management program and a destination set in the vehicle control device within a predetermined distance. In this case, disclosed is a mobile terminal, characterized in that the schedule management program executes a call originating program to send a call to a contact stored together with the place in the schedule management program according to a user input.

*일 실시예에 따라, 상기 차량 제어 장치가, 기 설정된 목적지에 상기 차량의 도착을 판단한 경우, 상기 이동 단말기는, 차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 사진 촬영 프로그램, 메모 프로그램 또는 녹음 프로그램을 실행하는 것을 특징으로 하는 이동 단말기를 개시한다.* According to an embodiment, when the vehicle control device determines the arrival of the vehicle to a preset destination, the mobile terminal, when a vehicle non-driving event or a user's alighting event occurs, a photo taking program according to a user input, Disclosed is a mobile terminal characterized by executing a memo program or a recorded program.

또한, 본 명세서에 개시된 일 실시예는, 이동 단말기와 통신을 수행하는 차량에 설치된 차량 제어 장치에 있어서, 상기 차량 제어 장치 및 상기 이동 단말기 각각을 일 노드로 포함하는 네트워크를 형성하는 통신부 및 적어도 하나의 노드에서 발생한 이벤트를 근거로, 상기 차량의 주행 여부 또는 사용자의 차량 승차 여부에 따라 상기 차량 제어 장치 또는 상기 이동 단말기가 상기 이벤트에 대응하는 동작을 수행하도록 하는 제어부를 포함하는 차량 제어 장치를 개시한다.In addition, an embodiment disclosed in the present specification, in a vehicle control device installed in a vehicle that performs communication with a mobile terminal, a communication unit forming a network including each of the vehicle control device and the mobile terminal as a node, and at least one Based on the event occurring at the node of, the vehicle control device or the mobile terminal initiates a vehicle control device including a control unit to perform an operation corresponding to the event according to whether the vehicle is running or whether the user rides the vehicle. do.

또한, 본 명세서에 개시된 일 실시예는, 상기 차량 제어 장치가 장착된 것을 특징으로 하는 차량을 개시한다.In addition, an embodiment disclosed in the present specification discloses a vehicle characterized in that the vehicle control device is mounted.

또한, 본 명세서에 개시된 일 실시예는, 차량에 설치된 차량 제어 장치와 통신을 수행하는 이동 단말기의 제어 방법에 있어서, 상기 차량 제어 장치 및 상기 이동 단말기 각각을 일 노드로 포함하는 네트워크를 형성하는 단계 및 상기 차량 제어 장치 또는 상기 이동 단말기가, 적어도 하나의 노드에서 발생한 이벤트를 근거로, 상기 차량의 주행 여부 또는 사용자의 차량 승차 여부에 따라 상기 이벤트에 대응하는 동작을 수행하는 단계를 포함하는 이동 단말기의 제어 방법을 개시한다.In addition, an embodiment disclosed in the present specification is a method for controlling a mobile terminal performing communication with a vehicle control device installed in a vehicle, the step of forming a network including each of the vehicle control device and the mobile terminal as a node. And performing, by the vehicle control device or the mobile terminal, an operation corresponding to the event according to whether the vehicle is running or whether a user boards a vehicle based on an event occurring in at least one node. Disclosed is a control method of.

본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법에 따르면, 차량에 설치된 차량 제어 장치로부터 상기 차량에 대한 차량 정보를 획득하고, 상기 획득된 차량 정보를 외부로 출력함으로써 사용자가 상기 차량 정보를 쉽고, 빠르며, 효율적으로 확인할 수 있고, 차량에 설치된 차량 제어 장치를 이용하여, 차량 탑승 전 차량에 대한 제어를 원격에서도 수행할 수 있는 장점이 있다.According to the mobile terminal or the control method thereof according to an embodiment disclosed in the present specification, the vehicle information is obtained by obtaining vehicle information for the vehicle from a vehicle control device installed in the vehicle and outputting the obtained vehicle information to the outside. There is an advantage in that it is possible to easily, quickly and efficiently check the data, and remotely control the vehicle before boarding the vehicle by using the vehicle control device installed in the vehicle.

또한, 본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법는, 상기 차량 제어 장치와 연동함으로써, 이동 단말기 또는 차량 제어 장치 중 어느 하나의 단말 장치에서 발생한 이벤트를 타 단말 장치와 공유할 수 있다.In addition, the mobile terminal or the control method thereof according to the exemplary embodiment disclosed in the present specification may share an event occurring in any one of the mobile terminal or the vehicle control device with another terminal device by interlocking with the vehicle control device. .

이에 따라, 차량의 주행 여부 또는 차량에 승차 여부와 무관하게, 각 단말 장치에서 동작하는 프로그램들 간에는 연속성을 유지함으로써, 사용자의 편의성을 증대할 수 있다.Accordingly, regardless of whether the vehicle is running or whether to board the vehicle, continuity between programs operating in each terminal device can be maintained, thereby increasing user convenience.

도 1은 본 명세서에 개시된 일 실시 예에 따른 이동 단말기를 나타내는 블록도이다.
도 2a및 도 2b는 본 발명에 따른 이동 단말기가 동작 가능한 통신 시스템의 개념도이다.
도 3a 및 도 3b는 본 발명의 일 실시 예에 따른 스마트 워치의 전면 및 후면을 도시한 도면이다.
도 4a 및 도 4b는 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기의 일 실시예를 나타낸 개념도이다.
도 5a는 본 발명과 관련된 이동 단말기의 일 예를 전면에서 바라본 사시도이다.
도 6a는 본 발명과 관련된 차량 제어 장치를 설명하기 위한 블록도이다.
도 6b는 본 발명과 관련된 차량 제어 장치와 연결되는 외부 기기들의 일 예를 보이고 있는 예시도이다.
도 7은 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치의 디스플레이부를 설명하기 위한 예시도이다.
도 8a는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.
도 8b는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.
도 8c는 본 명세서에 개시된 일 실시예에 따른 네비게이션 기능과 관련된 화면을 표시한 예시도이다.
도 9a는 본 명세서에서 개시된 일 실시예에 따라 차량 주행 중 이동 단말기에 호 착신 이벤트가 발생한 경우, 차량 제어 장치의 화면을 나타낸 예시도이다.
도 9b는 도 9a 중 차량 제어 장치의 일부 화면을 나타낸 예시도이다.
도 9c는 본 명세서에서 개시된 일 실시예에 따라 차량 주행 중 이동 단말기에 호 착신 이벤트가 발생한 경우, 이동 단말기가 상대방에 응답 메시지를 전송한 화면을 나타낸 예시도이다.
도 10a는 본 명세서에 개시된 일 실시예에 따른 팝업창을 화면에 표시한 이동 단말기의 예시도이다.
도 10b는 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 화면에 표시한 팝업창의 예시도이다.
도 10c는 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 화면에 표시된 아이콘 주위에 이벤트 발생 횟수를 표시한 예시도이다.
도 10d는 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 프로그램 실행 화면 일부에 이벤트 발생 여부를 표시한 예시도이다.
도 11a는 본 명세서에 개시된 일 실시에에 따른 차량의 위치를 출력하는 화면을 나타내는 제1 예시도이다.
도 11a는 본 명세서에 개시된 일 실시에에 따른 차량의 위치를 출력하는 화면을 나타내는 제2 예시도이다.
도 12는 본 명세서에 개시된 일 실시예에 따른 거리 알람의 다양한 출력 방식을 나타내는 예시도이다.
도 13a는 본 명세서에서 개시된 일 실시예에 따른 목적지 설정 화면을 나타내는 예시도이다.
도 13b는 본 명세서에서 개시된 일 실시예에 따른 일정 관리 프로그램이 실행된 화면을 나타내는 예시도이다.
도 13c는 본 명세서에서 개시된 일 실시예에 따른 일정 관련 텍스트를 포함한 메시지가 출력된 화면을 나타내는 예시도이다.
도 13d는 본 명세서에서 개시된 일 실시예에 따른 차량 정보를 출력하는 화면을 나타내는 예시도이다.
도 13e는 본 명세서에서 개시된 일 실시예에 따른 차량에 대한 제어 명령을 전송하기 위한 프로그램의 실행 화면을 나타내는 예시도이다.
도 13f는 본 명세서에서 개시된 일 실시예에 따른 녹음 프로그램의 실행 화면을 나타내는 예시도이다.
도 13g는 본 명세서에서 개시된 일 실시예에 따른 목적지까지의 경로를 출력한 화면을 나타내는 예시도이다.
도 13h는 본 명세서에서 개시된 일 실시예에 따른 목적지에 관련된 정보가 출력된 화면을 나타내는 예시도이다.
도 13i는 본 명세서에서 개시된 일 실시예에 따른 목적지 관련 연락처에 호 발신하기 위한 호 발신 프로그램의 실행 화면을 나타내는 예시도이다.
도 14는 본 명세서에 개시된 일 실시예에 따른 배터리 충전장치를 구비한 전기차량의 개략적인 구성도이다.
1 is a block diagram illustrating a mobile terminal according to an embodiment disclosed in the present specification.
2A and 2B are conceptual diagrams of a communication system capable of operating a mobile terminal according to the present invention.
3A and 3B are views showing the front and rear surfaces of a smart watch according to an embodiment of the present invention.
4A and 4B are conceptual diagrams illustrating an embodiment of a wearable glasses-type terminal according to an embodiment disclosed in the present specification.
5A is a front perspective view of an example of a mobile terminal according to the present invention.
6A is a block diagram illustrating a vehicle control apparatus related to the present invention.
6B is an exemplary view showing an example of external devices connected to the vehicle control device related to the present invention.
7 is an exemplary view illustrating a display unit of a vehicle control apparatus according to an exemplary embodiment disclosed in the present specification.
8A is a block diagram showing the configuration of a vehicle control apparatus according to another exemplary embodiment disclosed in the present specification.
8B is a block diagram showing the configuration of a vehicle control apparatus according to another embodiment disclosed in the present specification.
8C is an exemplary view showing a screen related to a navigation function according to an embodiment disclosed in the present specification.
9A is an exemplary diagram illustrating a screen of a vehicle control apparatus when a call reception event occurs in a mobile terminal while driving a vehicle according to an embodiment disclosed in the present specification.
9B is an exemplary view showing a partial screen of the vehicle control device in FIG. 9A.
9C is an exemplary diagram illustrating a screen in which a mobile terminal transmits a response message to a counterpart when a call reception event occurs in a mobile terminal while driving a vehicle according to an embodiment disclosed in the present specification.
10A is an exemplary diagram of a mobile terminal displaying a pop-up window on a screen according to an embodiment disclosed in the present specification.
10B is an exemplary diagram of a pop-up window displayed on a screen of a mobile terminal according to an embodiment disclosed in the present specification.
10C is an exemplary view showing the number of occurrences of an event around an icon displayed on a screen of a mobile terminal according to an exemplary embodiment disclosed in the present specification.
10D is an exemplary diagram showing whether an event occurs on a part of a program execution screen of a mobile terminal according to an embodiment disclosed in the present specification.
11A is a first exemplary diagram illustrating a screen for outputting a location of a vehicle according to an exemplary embodiment disclosed in the present specification.
11A is a second exemplary view showing a screen for outputting a location of a vehicle according to an exemplary embodiment disclosed in the present specification.
12 is an exemplary diagram illustrating various output methods of a distance alarm according to an embodiment disclosed in the present specification.
13A is an exemplary diagram illustrating a destination setting screen according to an embodiment disclosed in the present specification.
13B is an exemplary view showing a screen on which a schedule management program according to an embodiment disclosed in the present specification is executed.
13C is an exemplary diagram illustrating a screen on which a message including text related to a schedule is output according to an embodiment disclosed in the present specification.
13D is an exemplary diagram illustrating a screen for outputting vehicle information according to an exemplary embodiment disclosed in the present specification.
13E is an exemplary view showing an execution screen of a program for transmitting a control command for a vehicle according to an exemplary embodiment disclosed in the present specification.
13F is an exemplary view showing an execution screen of a recording program according to an embodiment disclosed in the present specification.
13G is an exemplary view showing a screen outputting a route to a destination according to an embodiment disclosed in the present specification.
13H is an exemplary diagram illustrating a screen on which information related to a destination is output according to an embodiment disclosed in the present specification.
13I is an exemplary view showing an execution screen of a call originating program for sending a call to a destination-related contact according to an embodiment disclosed in the present specification.
14 is a schematic configuration diagram of an electric vehicle including a battery charging device according to an embodiment disclosed in the present specification.

본 명세서에 개시된 기술은 이동 단말기 및 그 제어 방법에 적용될 수 있다. 특히, 본 명세서에 개시된 기술은 차량과 연계 또는 연동되는 웨어러블 디바이스 및 그 제어 방법에 적용될 수 있다.The techniques disclosed herein can be applied to a mobile terminal and a control method thereof. In particular, the technology disclosed in the present specification can be applied to a wearable device linked or interlocked with a vehicle and a control method thereof.

구체적으로, 본 명세서에 개시된 기술은, 차량에 설치된 차량 제어 장치와 통신을 수행하여, 상기 차량 제어 장치와 연계 또는 연동되어 동작하는 이동 단말기 및 그 제어 방법에 관한 것이다.Specifically, the technology disclosed in the present specification relates to a mobile terminal and a control method thereof that perform communication with a vehicle control device installed in a vehicle and operate in connection with or interlock with the vehicle control device.

특히, 본 명세서에 개시된 기술은, 목적지로의 진행 방향을 제공할 수 있고, 차량 네비게이션과도 연동 가능한 이동 단말기 및 그것의 제어 방법을 제공할 수 있다.In particular, the technology disclosed in the present specification can provide a moving direction to a destination, a mobile terminal capable of interlocking with vehicle navigation, and a control method thereof.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable device) 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.Mobile terminals described in this specification include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation systems, and slate PCs. , A tablet PC, an ultrabook, a wearable device, etc. may be included. However, it will be readily apparent to those skilled in the art that the configuration according to the embodiment described in the present specification may also be applied to a fixed terminal such as a digital TV or a desktop computer, except when applicable only to a mobile terminal.

본 명세서에서 설명되는 차량 제어 장치는, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기, 텔레비전(Television), 3D 텔레비전, A/V(Audio/Video) 시스템, 정보 제공 센터, 콜 센터(call center) 등과 같은 다양한 기기 또는 장치에 적용될 수 있다.The vehicle control apparatus described in this specification includes a telematics terminal, a navigation terminal, an audio video navigation (AVN) terminal, a television, a 3D television, an audio/video (A/V) system, and information provision. It can be applied to various devices or devices such as a center and a call center.

또한, 본 명세서에서 설명되는 차량 제어 장치는, 상기 차량에 유선 또는 무선으로 연결되는 이동 단말기의 형태로도 이루어질 수 있다. 이 경우, 상기 차량 제어 장치에는, 전술된 이동 단말기와 마찬가지로 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable device) 등이 포함될 수 있다.In addition, the vehicle control device described in the present specification may be formed in the form of a mobile terminal connected to the vehicle by wire or wirelessly. In this case, the vehicle control device includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistants (PDA), a portable multimedia player (PMP), and a navigation system, as in the mobile terminal described above. , A slate PC, a tablet PC, an ultrabook, a wearable device, and the like.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the technical terms used in this specification are used only to describe specific embodiments, and are intended to limit the spirit of the technology disclosed in the present specification. It should be noted that it is not. In addition, the technical terms used in the present specification should be interpreted in the meaning generally understood by those of ordinary skill in the field to which the technology disclosed in the present specification belongs, unless otherwise defined in the specification. It should not be construed in a comprehensive or excessively reduced sense. In addition, when a technical term used in the present specification is an incorrect technical term that does not accurately express the spirit of the technology disclosed in the present specification, it should be replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present specification should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the singular expression used in the present specification includes a plurality of expressions unless the context clearly indicates otherwise. In the present specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional elements or steps. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. In addition, terms including ordinal numbers such as first and second used herein may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar components are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the technology disclosed in the present specification, when it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in the present specification, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are for easy understanding of the spirit of the technology disclosed in the present specification, and should not be construed as limiting the spirit of the technology by the accompanying drawings.

이동 단말기Mobile terminal

이하에서는 도 1 내지 도 5B를 참조하여 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 구성 내지 형태에 대해 상술한다.Hereinafter, a configuration or form of a mobile terminal according to an embodiment disclosed in the present specification will be described in detail with reference to FIGS. 1 to 5B.

도 1은 본 명세서에 개시된 일 실시 예에 따른 이동 단말기(100)를 나타내는 블록도이다.1 is a block diagram illustrating a mobile terminal 100 according to an embodiment disclosed in the present specification.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 감지부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio/video (A/V) input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, and an interface. The unit 170, the control unit 180, and the power supply unit 190 may be included. Since the components shown in FIG. 1 are not essential, a mobile terminal having more components or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between the mobile terminal 100 and a wireless communication system or between the mobile terminal 100 and a network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. I can.

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast reception module 111 receives a broadcast signal and/or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and/or broadcast-related information, or a server that receives and transmits a previously-generated broadcast signal and/or broadcast-related information to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal in a form in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, it may exist in the form of an Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or an Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 includes, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcasting (DVB-H). -Handheld), ISDB-T (Integrated Services Digital Broadcast-Terrestrial), and other digital broadcasting systems can be used to receive digital broadcasting signals. Of course, the broadcast reception module 111 may be configured to be suitable for not only the digital broadcasting system described above, but also other broadcasting systems.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and/or broadcast related information received through the broadcast reception module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include a voice call signal, a video call signal, or various types of data according to transmission/reception of text/multimedia messages.

상기 이동통신 모듈(112)은 화상통화모드 및 음성통화모드를 구현하도록 이루어진다. 화상통화모드는 상대방의 영상을 보면서 통화하는 상태를 지칭하고, 음성통화모드는 상대방의 영상을 보지 않으면서 통화를 하는 상태를 지칭한다. 화상통화모드 및 음성통화모드를 구현하기 위하여 이동통신 모듈(112)은 음성 및 영상 중 적어도 하나를 송수신하도록 형성된다.The mobile communication module 112 is configured to implement a video call mode and a voice call mode. The video call mode refers to a state in which a call is made while viewing the video of the other party, and the voice call mode refers to a state in which a call is made without viewing the image of the other party. In order to implement the video call mode and the voice call mode, the mobile communication module 112 is formed to transmit and receive at least one of audio and video.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and may be built-in or external to the mobile terminal 100. Wireless Internet technologies include WLAN (Wireless LAN), WiFi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), etc. Can be used.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Short-range communication technologies include Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). I can.

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.The location information module 115 is a module for obtaining a location of a mobile terminal, and representative examples thereof include a GPS (Global Position System) module or a WiFi (Wireless Fidelity) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 여기에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라는(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A/V (Audio/Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes an image frame such as a still image or a video obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부 기기로 전송될 수 있다. 또한, 카메라(121)에서 획득되는 화상 프레임으로부터 사용자의 위치 정보 등이 산출될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to an external device through the wireless communication unit 110. In addition, location information of the user may be calculated from the image frame acquired by the camera 121. Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, or the like and processes it as electrical voice data. In the case of a call mode, the processed voice data may be converted into a format that can be transmitted to a mobile communication base station through the mobile communication module 112 and then output. Various noise removal algorithms may be implemented in the microphone 122 to remove noise generated in the process of receiving an external sound signal.

사용자 입력부(130)는 사용자로부터 인가되는 이동 단말기(100)의 동작을 제어하기 위한 제어명령에 따른 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.The user input unit 130 generates input data according to a control command for controlling the operation of the mobile terminal 100 applied by the user. The user input unit 130 may include a key pad, a dome switch, a touch pad (positive pressure/static power), a jog wheel, a jog switch, and the like.

감지부(또는 센싱부, 140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 감지 신호 (또는 센싱 신호)를 발생시킨다. 예를 들어 감지부(140)는 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 감지할 수 있다. 또한, 감지부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 감지할 수도 있다. The sensing unit (or sensing unit, 140) is the open/closed state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, and acceleration/deceleration of the mobile terminal 100. A sensing signal (or sensing signal) for controlling the operation of the mobile terminal 100 is generated by sensing the current state. For example, the sensing unit 140 may detect whether the slide phone is opened or closed when the mobile terminal 100 is in the form of a slide phone. In addition, the detection unit 140 may detect whether the power supply unit 190 supplies power or whether the interface unit 170 is coupled to an external device.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(153), 알람부(154) 및 햅틱 모듈(155) 등이 포함될 수 있다.The output unit 150 is for generating output related to visual, auditory, or tactile sense, and may include a display unit 151, an audio output module 153, an alarm unit 154, and a haptic module 155. have.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에 디스플레이부(151)는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, a user interface (UI) or a graphical user interface (GUI) related to a call is displayed. When the mobile terminal 100 is in a video call mode or a photographing mode, the display unit 151 displays a photographed or/and received image, a UI, or a GUI.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. display), a 3D display, and an e-ink display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디(body)의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be configured as a transparent type or a light-transmitting type so that the outside can be seen through them. This may be referred to as a transparent display, and a representative example of the transparent display is TOLED (Transparant OLED). The rear structure of the display unit 151 may also be configured as a light transmission type structure. With this structure, the user can see an object located behind the terminal body through an area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.Two or more display units 151 may exist depending on the implementation form of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display units may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces.

또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부(152)로서 구성될 수 있다.In addition, the display unit 151 may be configured as a three-dimensional display unit 152 that displays a three-dimensional image.

여기서, 입체영상은 3차원 입체영상(3-dimensional stereoscopic image)을 나타내며, 3차원 입체 영상(3-dimensional stereoscopic image)은 모니터나 스크린 상에서 사물이 위치한 점진적 깊이(depth)와 실체(reality)를 현실 공간과 동일하게 느낄 수 있도록 한 영상이다. 3차원 입체 영상은 양안시차(binocular disparity)를 이용하여 구현된다. 양안시차란 떨어져 있는 두 눈의 위치에 의하여 이루어지는 시차를 의미하는 것으로, 두 눈이 서로 다른 2차원 화상을 보고 그 화상들이 망막을 통하여 뇌로 전달되어 융합되면 입체 영상의 깊이 및 실제감을 느낄 수 있게 된다.Here, a three-dimensional image represents a three-dimensional stereoscopic image, and a three-dimensional stereoscopic image represents the gradual depth and reality where objects are located on a monitor or screen. This video is designed to feel the same as the space. The 3D stereoscopic image is implemented using binocular disparity. Binocular parallax refers to the parallax caused by the position of two eyes apart. When the two eyes see different two-dimensional images and the images are transferred to the brain through the retina and fused, the depth and reality of the stereoscopic image can be felt. .

상기 입체 디스플레이부(152)에는 스테레 스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. 가정용 텔레비전 수신기 등에 많이 이용되는 스테레오스코픽 방식에는 휘스톤 스테레오스코프 방식 등이 있다. A three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (no glasses method), and a projection method (holographic method) may be applied to the stereoscopic display unit 152. A stereoscopic method commonly used in home television receivers includes a Wheatstone stereoscope method.

상기 오토 스테레오스코픽 방식의 예로서, 패럴렉스 배리어(parallex barrier) 방식, 렌티큘러(lenticular) 방식, 집적영상(integral imaging) 방식, 스위츠블 렌즈(switchable lens) 등이 있다. 프로젝션 방식에는 반사형 홀로그래픽 방식, 투과형 홀로그래픽 방식 등이 있다.Examples of the auto stereoscopic method include a paralex barrier method, a lenticular method, an integrated imaging method, and a switchable lens. Projection methods include reflective holographic methods and transmissive holographic methods.

일반적으로 3차원 입체 영상은 좌 영상(좌안용 영상)과 우 영상(우안용 영상)으로 구성된다. 좌 영상과 우 영상이 3차원 입체 영상으로 합쳐지는 방식에 따라, 좌 영상과 우 영상을 한 프레임 내 상하로 배치하는 탑-다운(top-down) 방식, 좌 영상과 우 영상을 한 프레임 내 좌우로 배치하는 L-to-R(left-to-right, side by side) 방식, 좌 영상과 우 영상의 조각들을 타일 형태로 배치하는 체커 보드(checker board) 방식, 좌 영상과 우 영상을 열 단위 또는 행 단위로 번갈아 배치하는 인터레이스드(interlaced) 방식, 그리고 좌 영상과 우 영상을 시간 별로 번갈아 표시하는 시분할(time sequential, frame by frame) 방식 등으로 나뉜다.In general, a 3D stereoscopic image is composed of a left image (an image for the left eye) and a right image (an image for the right eye). Depending on how the left and right images are combined into a 3D stereoscopic image, a top-down method in which left and right images are arranged up and down in one frame, and left and right images are left and right within one frame. L-to-R (left-to-right, side by side) method, a checker board method in which pieces of left and right images are arranged in a tile form, and left and right images are arranged in columns Alternatively, it is divided into an interlaced method in which the image is alternately arranged in row units, and a time sequential (frame by frame) method in which the left image and the right image are alternately displayed by time.

또한, 3차원 썸네일 영상은 원본 영상 프레임의 좌 영상 및 우 영상으로부터 각각 좌 영상 썸네일 및 우 영상 썸네일을 생성하고, 이를 합쳐서 하나의 3차원 썸네일 영상을 생성할 수 있다. 일반적으로 썸네일(thumbnail)은 축소된 화상 또는 축소된 정지영상을 의미한다. 이렇게 생성된 좌 영상 썸네일과 우 영상 썸네일은 좌 영상과 우 영상의 시차에 대응하는 깊이감(depth)만큼 화면상에서 좌우 거리차를 두고 표시됨으로써 입체적인 공간감을 나타낼 수 있다.In addition, the 3D thumbnail image may generate a left image thumbnail and a right image thumbnail from the left image and the right image of the original image frame, respectively, and combine them to generate one 3D thumbnail image. In general, a thumbnail refers to a reduced image or a reduced still image. The left image thumbnail and the right image thumbnail generated in this way are displayed with a left and right distance difference on the screen as much as a depth corresponding to the parallax between the left image and the right image, thereby representing a three-dimensional sense of space.

3차원 입체영상의 구현에 필요한 좌 영상과 우 영상은 입체 처리부(미도시)에 의하여 입체 디스플레이부(152)에 표시될 수 있다. 입체 처리부는 3D 영상을 입력받아 이로부터 좌 영상과 우 영상을 추출하거나, 2D 영상을 입력받아 이를 좌 영상과 우 영상으로 전환하도록 이루어진다.The left image and the right image required for realizing a 3D stereoscopic image may be displayed on the stereoscopic display unit 152 by a stereoscopic processing unit (not shown). The 3D processing unit receives a 3D image and extracts a left image and a right image therefrom, or receives a 2D image and converts it into a left image and a right image.

한편, 디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.On the other hand, when the display unit 151 and a sensor for detecting a touch motion (hereinafter, referred to as'touch sensor') form a mutual layer structure (hereinafter, referred to as a'touch screen'), the display unit 151 outputs In addition to the device, it can also be used as an input device. The touch sensor may have, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 대상체가 터치 센서 상에 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or a capacitance generated at a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only a location and an area at which a touch object is touched on the touch sensor, but also a pressure at the time of a touch. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen, a stylus pen, or a pointer.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the touch sensor, a signal(s) corresponding thereto is transmitted to the touch controller. The touch controller processes the signal(s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can know whether an area of the display unit 151 is touched.

도 1을 참조하면, 상기 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 근접 센서(141)는 상기 센싱부(140)의 일 예로서 구비될 수 있다. 상기 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서(141)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner area of a mobile terminal surrounded by the touch screen or near the touch screen. The proximity sensor 141 may be provided as an example of the sensing unit 140. The proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity using the force of an electromagnetic field or infrared rays without mechanical contact. The proximity sensor 141 has a longer lifespan and higher utilization than a contact sensor.

상기 근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 전도성을 갖는 물체(이하, 포인터라 함)의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor 141 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor. When the touch screen is a capacitive type, it is configured to detect the proximity of the pointer by a change in an electric field according to the proximity of a conductive object (hereinafter referred to as a pointer). In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치 스크린상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치 스크린상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치 스크린상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치 될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the action of allowing the pointer to be recognized as being positioned on the touch screen by approaching the touch screen without contacting the pointer is referred to as "proximity touch", and the touch The act of actually touching the pointer on the screen is referred to as "contact touch". The position on the touch screen at which a pointer is used for proximity touch refers to a position at which the pointer vertically corresponds to the touch screen when the pointer is touched.

상기 근접센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor 141 detects a proximity touch and a proximity touch pattern (eg, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, etc.). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

입체 디스플레이부(152)와 터치 센서가 상호 레이어 구조를 이루는 경우(이하, '입체 터치스크린'이라 함)나, 입체 디스플레이부(152)와 터치 동작을 감지하는 3차원 센서가 서로 조합되는 경우에는 상기 입체 디스플레이부(152)는 3차원의 입력 장치로도 사용될 수 있다.When the three-dimensional display unit 152 and the touch sensor form a mutual layer structure (hereinafter, referred to as'three-dimensional touch screen'), or when the three-dimensional display unit 152 and a three-dimensional sensor for detecting a touch motion are combined with each other, The three-dimensional display unit 152 may also be used as a three-dimensional input device.

상기 3차원 센서의 예로서, 상기 센싱부(140)는 근접 센서(141), 입체 터치 센싱부(142), 초음파 센싱부(143), 카메라 센싱부(144)를 포함할 수 있다.As an example of the 3D sensor, the sensing unit 140 may include a proximity sensor 141, a three-dimensional touch sensing unit 142, an ultrasonic sensing unit 143, and a camera sensing unit 144.

근접센서(141)는 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 터치를 가하는 감지대상(예를 들어, 사용자의 손가락이나 스타일러스 펜)와 검출면과의 거리를 측정한다. 단말기는 이러한 거리를 이용하여 입체영상의 어느 부분이 터치되었는지를 인식하게 된다. 특히, 터치스크린이 정전식인 경우에는 상기 감지대상의 근접에 따른 전계의 변화로 상기 감지대상의 근접 정도를 검출하고, 이러한 근접 정도를 이용하여 3차원 상의 터치를 인식하도록 구성된다. The proximity sensor 141 measures a distance between a sensing target (eg, a user's finger or a stylus pen) to which a touch is applied without a mechanical contact by using an electromagnetic field or infrared rays and a detection surface. The terminal recognizes which part of the 3D image has been touched using this distance. In particular, when the touch screen is a capacitive type, it is configured to detect a proximity degree of the sensing object by a change in an electric field according to the proximity of the sensing object, and recognize a three-dimensional touch using the proximity degree.

입체 터치 센싱부(142)는 터치 스크린상에 가해지는 터치의 세기나 지속시간을 감지하도록 이루어진다. 예를 들어, 입체 터치 센싱부(142)는 터치를 가하는 압력을 감지하고, 가압력이 강하면 이를 단말기의 내부를 향하여 터치 스크린과 보다 멀리 위치한 객체에 대한 터치로 인식한다.The three-dimensional touch sensing unit 142 is configured to detect the intensity or duration of a touch applied to the touch screen. For example, the three-dimensional touch sensing unit 142 detects a pressure applying a touch, and when the pressing force is strong, it recognizes the touch as a touch on an object located farther from the touch screen toward the inside of the terminal.

초음파 센싱부(143)는 초음파를 이용하여, 감지대상의 위치정보를 인식하도록 이루어진다.The ultrasonic sensing unit 143 is configured to recognize the location information of the sensing target by using ultrasonic waves.

초음파 센싱부(143)는, 예를 들어 광 센서와 복수의 초음파 센서로 이루어질 수 있다. 광 센서는 광을 감지하도록 형성되며, 초음파 센서는 초음파를 감지하도록 형성된다. 광이 초음파보다 매우 빠르기 때문에, 광이 광 센서에 도달하는 시간은 초음파가 초음파 센서에 도달하는 시간보다 매우 빠르다. 따라서, 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치를 산출할 수 있게 된다.The ultrasonic sensing unit 143 may include, for example, an optical sensor and a plurality of ultrasonic sensors. The optical sensor is formed to detect light, and the ultrasonic sensor is formed to detect ultrasonic waves. Since the light is much faster than the ultrasonic wave, the time for the light to reach the optical sensor is much faster than the time for the ultrasonic wave to reach the ultrasonic sensor. Therefore, it is possible to calculate the position of the wave generator by using the time difference between the time when the ultrasonic wave arrives using light as a reference signal.

카메라 센싱부(144)는 카메라(121), 포토 센서, 레이저 센서 중 적어도 하나를 포함한다.The camera sensing unit 144 includes at least one of a camera 121, a photo sensor, and a laser sensor.

예를 들어, 카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지한다. 카메라에 의하여 촬영된 2차원 영상에 레이저 센서에 의하여 감지된 거리정보가 더해지면, 3차원 정보가 획득될 수 있다.For example, the camera 121 and the laser sensor are combined with each other to detect a touch of a sensing target for a 3D stereoscopic image. When distance information sensed by a laser sensor is added to a 2D image captured by a camera, 3D information may be obtained.

또 다른 예로서, 포토 센서가 디스플레이 소자에 적층될 수 있다. 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보를 획득하게 된다.As another example, a photosensor may be stacked on the display device. The photosensor is configured to scan a motion of a sensing object close to the touch screen. More specifically, the photo sensor scans the contents placed on the photo sensor by mounting a photo diode and a transistor (TR) in a row/column and using an electrical signal that changes according to the amount of light applied to the photo diode. That is, the photosensor calculates the coordinates of the object to be detected according to the amount of light change, and obtains position information of the object to be detected through this.

음향 출력 모듈(153)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(153)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(153)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output module 153 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, or a broadcast reception mode. The sound output module 153 also outputs sound signals related to functions (eg, call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. The sound output module 153 may include a receiver, a speaker, a buzzer, and the like.

알람부(154)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(154)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동을 이용하여, 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음향 출력 모듈(153)을 통해서도 출력될 수 있어서, 디스플레이부(151) 및 음향 출력 모듈(153)은 알람부(154)의 일부로 분류될 수도 있다.The alarm unit 154 outputs a signal for notifying the occurrence of an event in the mobile terminal 100. Examples of events occurring in the mobile terminal 100 include call signal reception, message reception, key signal input, and touch input. The alarm unit 154 may output a signal for notifying the occurrence of an event by using other forms, such as vibration, in addition to a video signal or an audio signal. The video signal or audio signal may also be output through the display unit 151 or the sound output module 153, so the display unit 151 and the sound output module 153 may be classified as part of the alarm unit 154. .

햅틱 모듈(haptic module)(155)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(155)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅택 모듈(155)이 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(155)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 155 generates various tactile effects that a user can feel. A typical example of the tactile effect generated by the haptic module 155 may be vibration. The intensity and pattern of the vibration generated by the haptic module 155 may be controlled by a user's selection or setting of a controller. For example, the haptic module 155 may synthesize and output different vibrations or sequentially output them.

햅틱 모듈(155)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 155 is designed to respond to stimuli such as a pin arrangement that moves vertically with respect to the contact skin surface, blowing force or suction force of air through the injection or inlet, grazing on the skin surface, contact of an electrode, and electrostatic force. It can generate various tactile effects, such as the effect by the effect and the effect by reproducing the feeling of cooling and warming using an endothermic or heat generating element.

햅틱 모듈(155)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(155)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 155 may not only deliver a tactile effect through direct contact, but may also be implemented so that a user can feel the tactile effect through muscle sensations such as a finger or an arm. Two or more haptic modules 155 may be provided depending on the configuration aspect of the mobile terminal 100.

*메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.* The memory 160 may store a program for the operation of the controller 180 and may temporarily store input/output data (eg, a phone book, a message, a still image, a video, etc.). The memory 160 may store data related to vibrations and sounds of various patterns output when a touch input on the touch screen is performed.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 160 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), and RAM. (random access memory; RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic It may include at least one type of storage medium among a disk and an optical disk. The mobile terminal 100 may be operated in connection with a web storage that performs a storage function of the memory 160 over the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(170)에 포함될 수 있다.The interface unit 170 serves as a passage for all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or receives power and transmits it to each component inside the mobile terminal 100, or transmits data inside the mobile terminal 100 to an external device. For example, a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module. , An audio input/output (I/O) port, a video input/output (I/O) port, an earphone port, and the like may be included in the interface unit 170.

한편, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(170)를 통하여 단말기(100)와 연결될 수 있다.Meanwhile, the identification module is a chip that stores various types of information for authenticating the right to use the mobile terminal 100, and includes a user identification module (UIM), a subscriber identity module (SIM), and universal user authentication. It may include a module (universal subscriber identity module; USIM). A device equipped with an identification module (hereinafter,'identification device') may be manufactured in the form of a smart card. Accordingly, the identification device may be connected to the terminal 100 through the interface unit 170.

또한, 상기 인터페이스부(170)는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.In addition, the interface unit 170 serves as a path through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or is input from the cradle by a user. It may be a path through which various command signals are transmitted to the mobile terminal 100. Various command signals or the power input from the cradle may be operated as signals for recognizing that the mobile terminal 100 is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 generally controls the overall operation of the mobile terminal 100. For example, it performs control and processing related to voice calls, data communication, and video calls. The controller 180 may also include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

또한, 상기 제어부(180)는 상기 터치 스크린상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. In addition, the controller 180 may perform a pattern recognition process capable of recognizing a handwriting input or a drawing input performed on the touch screen as characters and images, respectively.

또한, 상기 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행할 수 있다. 또한, 상기 제어부(180)는 상기 잠금 상태에서 상기 디스플레이부(151)를 통해 감지되는 터치 입력에 근거하여 상기 잠금 상태에서 표시되는 잠금화면을 제어할 수 있다.In addition, when the state of the mobile terminal satisfies a set condition, the controller 180 may execute a locked state limiting input of a user's control command for applications. In addition, the controller 180 may control a lock screen displayed in the locked state based on a touch input sensed through the display unit 151 in the locked state.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 to supply power necessary for the operation of each component.

여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium that can be read by a computer or a similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들은 제어부(180) 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs). , Processors, controllers, micro-controllers, microprocessors, and electric units for performing other functions may be used. In some cases, the embodiments described herein may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. According to software implementation, embodiments such as procedures and functions described in the present specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.

소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.The software code is a software application written in an appropriate programming language, and the software code can be implemented. The software code may be stored in the memory 160 and executed by the controller 180.

다음으로, 본 발명에 따른 이동 단말기(100)를 통해 실시 가능한 통신 시스템에 대하여 살펴본다.Next, a communication system that can be implemented through the mobile terminal 100 according to the present invention will be described.

도 2A 및 도 2B는 본 발명에 따른 이동 단말기(100)가 동작 가능한 통신 시스템의 개념도이다.2A and 2B are conceptual diagrams of a communication system capable of operating the mobile terminal 100 according to the present invention.

먼저, 도 2A를 살펴보면, 통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access, FDMA), 시분할 다중 접속(Time Division Multiple Access, TDMA), 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 범용 이동통신 시스템(Universal Mobile Telecommunications Systems, UMTS)(특히, LTE(Long Term Evolution)), 이동통신 글로벌 시스템(Global System for Mobile Communications, GSM) 등이 포함될 수 있다.First, referring to FIG. 2A, the communication system may use different air interfaces and/or physical layers. For example, the radio interfaces usable by the communication system include Frequency Division Multiple Access (FDMA), Time Division Multiple Access (TDMA), and Code Division Multiple Access (CDMA). ), Universal Mobile Telecommunications Systems (UMTS) (especially, Long Term Evolution (LTE)), Global System for Mobile Communications (GSM), and the like.

이하에서는, 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나, 본 발명은, CDMA 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 수 있음은 자명하다.Hereinafter, for convenience of description, the description will be limited to CDMA. However, it is apparent that the present invention can be applied to any communication system including a CDMA wireless communication system.

도 2A에 도시된 바와 같이, CDMA 무선 통신 시스템은, 적어도 하나의 단말기(100), 적어도 하나의 기지국(Base Station, BS)(270), 적어도 하나의 기지국 제어부(Base Station Controllers, BSCs)(275), 이동 스위칭 센터(Mobile Switching Center, MSC)(280)를 포함할 수 있다. MSC(280)는, 일반 전화 교환망(Public Switched Telephone Network, PSTN)(290) 및 BSCs(275)와 연결되도록 구성된다. BSCs(275)는, 백홀 라인(backhaul line)을 통하여, BS(270)와 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs(275)가 도 2A에 도시된 시스템에 포함될 수 있다.As shown in FIG. 2A, the CDMA wireless communication system includes at least one terminal 100, at least one base station (BS) 270, and at least one base station controllers (BSCs) 275 ), may include a Mobile Switching Center (MSC) 280. The MSC 280 is configured to be connected to a public switched telephone network (PSTN) 290 and BSCs 275. The BSCs 275 may be paired with the BS 270 to be connected through a backhaul line. The backhaul line may be provided according to at least one of E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL, or xDSL. Thus, multiple BSCs 275 may be included in the system shown in FIG. 2A.

복수의 BS(270) 각각은 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS(270)로부터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS(270)는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당은 각각 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 가질 수 있다.Each of the plurality of BSs 270 may include at least one sector, and each sector may include an omni-directional antenna or an antenna pointing in a specific direction radially from the BS 270. In addition, each sector may include two or more antennas of various types. Each BS 270 may be configured to support a plurality of frequency assignments, and each of the plurality of frequency assignments may have a specific spectrum (eg, 1.25 MHz, 5 MHz, etc.).

섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS(270)은 는, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem, BTSs)이라고 불릴수 있다. 이러한 경우, 하나의 BSC(275) 및 적어도 하나의 BS(270)를 합하여 “기지국”이라고 칭할 수 있다. 기지국은, 또한 "셀 사이트"를 나타낼 수도 있다. 또는, 특정 BS(270)에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다.The intersection of sector and frequency allocation can be referred to as a CDMA channel. BS 270 may be referred to as a base station transmission/reception subsystem (BTS). In this case, one BSC 275 and at least one BS 270 may be collectively referred to as a “base station”. The base station may also represent a "cell site". Alternatively, each of the plurality of sectors for a specific BS 270 may be referred to as a plurality of cell sites.

도 2A에 도시된 바와 같이, 방송 송신부(Broadcasting Transmitter, BT)(295)는, 시스템 내에서 동작하는 단말기들(100)에게 방송 신호를 송신한다. 도 1에 도시된 방송 수신 모듈(111)은, BT(295)에 의해 전송되는 방송 신호를 수신하기 위해 단말기(100) 내에 구비된다.As shown in Fig. 2A, a broadcasting transmitter (BT) 295 transmits a broadcast signal to terminals 100 operating in the system. The broadcast receiving module 111 shown in FIG. 1 is provided in the terminal 100 to receive a broadcast signal transmitted by the BT 295.

뿐만 아니라, 도 2A에서는, 위성 위치 확인 시스템(Global Positioning System, GPS)의 위성(300)을 도시한다. 상기 위성(300)은, 이동 단말기(100)의 위치를 파악하는 것을 돕는다. 도 2A에서는 두 개의 위성이 도시되어 있지만, 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 도 1에 도시된 위치정보 모듈(115)은, 원하는 위치 정보를 획득하기 위하여 도 2A에 도시된 위성(300)과 협력한다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 이동 단말기(100)의 위치가 추적될 수 있다. 또한, GPS 위성(300) 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 전송을 담당할 수도 있다.In addition, Fig. 2A shows a satellite 300 of a Global Positioning System (GPS). The satellite 300 helps to determine the location of the mobile terminal 100. Although two satellites are shown in Figure 2A, useful location information may be obtained by two or more satellites. The location information module 115 shown in FIG. 1 cooperates with the satellite 300 shown in FIG. 2A to obtain desired location information. Here, the location of the mobile terminal 100 may be tracked using not only GPS tracking technology but also all technologies capable of tracking the location. In addition, at least one of the GPS satellites 300 may selectively or additionally perform satellite DMB transmission.

무선 통신 시스템의 전형적인 동작 중, BS(270)는, 이동 단말기(100)로부터 역 링크 신호를 수신한다. 이때, 이동 단말기(100)는, 호를 연결 중이거나, 메시지를 송수신 중이거나 또는 다른 통신 동작을 수행하고 있다. 특정 기지국(270)에 의해 수신된 역 링크 신호들 각각은, 특정 기지국(270)에 의해 내에서 처리된다. 상기 처리 결과 생성된 데이터는, 연결된 BSC(275)로 송신된다. BSC(275)는, 기지국들(270) 간의 소프트 핸드오프(soft handoff)들의 조직화를 포함하여, 호 자원 할당 및 이동성 관리 기능을 제공한다. 또한, BSCs(275)는, 상기 수신된 데이터를 MSC(280)로 송신하고, MSC(280)는, PSTN(290)과의 연결을 위하여 추가적인 전송 서비스를 제공한다. 또한, 이와 유사하게 PSTN(290)은 MSC(280)와 연결되고, MSC(280)는 BSCs(275)와 연결되고, BSCs(275)는 이동 단말기(100)로 순 링크 신호가 전송되도록 BS(270)를 제어할 수 있다.During typical operation of the wireless communication system, BS 270 receives a reverse link signal from mobile terminal 100. At this time, the mobile terminal 100 is connecting a call, transmitting/receiving a message, or performing another communication operation. Each of the reverse link signals received by the specific base station 270 is processed within the specific base station 270. The data generated as a result of the processing is transmitted to the connected BSC 275. BSC 275 provides call resource allocation and mobility management functions, including organizing soft handoffs between base stations 270. Further, the BSCs 275 transmit the received data to the MSC 280, and the MSC 280 provides an additional transmission service for connection with the PSTN 290. In addition, similarly, the PSTN 290 is connected to the MSC 280, the MSC 280 is connected to the BSCs 275, and the BSCs 275 is the BS ( 270) can be controlled.

다음으로, 도 2B에서는 와이파이 위치추적 시스템(WPS: WiFi(Wireless Fidelity) Positioning System)을 이용하여, 이동 단말기의 위치정보를 획득하는 방법에 대하여 살펴본다.Next, in FIG. 2B, a method of acquiring location information of a mobile terminal using a Wi-Fi positioning system (WPS: Wireless Fidelity) will be described.

와이파이 위치추적 시스템(WPS: WiFi Positioning System, 300)은 이동 단말기(100)에 구비된 WiFi모듈 및 상기 WiFi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point, 320)를 이용하여, 이동 단말기(100)의 위치를 추적하는 기술로서, WiFi를 이용한 WLAN(Wireless Local Area Network)기반의 위치 측위 기술을 의미한다. The Wi-Fi positioning system (WPS: WiFi Positioning System, 300) moves by using a WiFi module provided in the mobile terminal 100 and a wireless access point (AP) 320 that transmits or receives a wireless signal with the WiFi module. As a technology for tracking the location of the terminal 100, it means a wireless local area network (WLAN)-based location positioning technology using WiFi.

와이파이 위치추적 시스템(300)은 와이파이 위치 측위 서버(310), 이동 단말기(100), 상기 이동 단말기(100)와 접속된 무선 AP(330), 임의의 무선 AP정보가 저장된 데이터 베이스(330)를 포함할 수 있다.The Wi-Fi location tracking system 300 includes a Wi-Fi location positioning server 310, a mobile terminal 100, a wireless AP 330 connected to the mobile terminal 100, and a database 330 storing random wireless AP information. Can include.

와이파이 위치 측위 서버(310)는 이동 단말기(100)의 위치정보 요청 메시지(또는 신호)에 근거하여, 이동 단말기(100)와 접속된 무선 AP(320)의 정보를 추출한다. 상기 이동 단말기(100)와 접속된 무선 AP(320)의 정보는 이동 단말기(100)를 통해 상기 와이파이 위치 측위 서버(310)로 전송되거나, 무선 AP(320)에서 와이파이 위치 측위 서버(310)로 전송될 수 있다.The Wi-Fi location server 310 extracts information on the wireless AP 320 connected to the mobile terminal 100 based on the location information request message (or signal) of the mobile terminal 100. The information on the wireless AP 320 connected to the mobile terminal 100 is transmitted to the Wi-Fi location server 310 through the mobile terminal 100, or from the wireless AP 320 to the Wi-Fi location server 310. Can be transmitted.

상기 이동 단말기(100)의 위치정보 요청 메시지에 근거하여, 추출되는 무선 AP의 정보는 MAC Address, SSID, RSSI, 채널정보, Privacy, Network Type, 신호세기(Signal Strength) 및 노이즈 세기(Noise Strength)중 적어도 하나일 수 있다.Based on the location information request message of the mobile terminal 100, the extracted wireless AP information is MAC Address, SSID, RSSI, channel information, Privacy, Network Type, Signal Strength, and Noise Strength. It may be at least one of.

와이파이 위치 측위 서버(310)는 위와 같이, 이동 단말기(100)와 접속된 무선 AP(320)의 정보를 수신하여, 미리 구축된 데이터베이스(330)에 포함된 정보와 상기 수신된 무선 AP(320) 정보를 비교하여, 상기 이동 단말기(100)의 위치정보를 추출(또는 분석)한다. As described above, the Wi-Fi location server 310 receives information on the wireless AP 320 connected to the mobile terminal 100, and includes information contained in a pre-built database 330 and the received wireless AP 320. By comparing the information, the location information of the mobile terminal 100 is extracted (or analyzed).

한편, 도 2B에서는 일 예로서, 이동 단말기(100)와 접속되어 있는 무선 AP를 제1, 제2 및 제3 무선 AP(320)로 도시하였다. 그러나, 이동 단말기(100)와 접속되는 무선 AP의 수는 이동 단말기(100)가 위치한 무선 통신환경에 따라 다양하게 변경될 수 있다. 와이파이 위치추척 시스템(300)은 이동 단말기(100)가 적어도 하나의 무선 AP와 접속되는 경우, 이동 단말기(100)의 위치를 추적하는 것이 가능하다. Meanwhile, in FIG. 2B, as an example, wireless APs connected to the mobile terminal 100 are illustrated as first, second, and third wireless APs 320. However, the number of wireless APs connected to the mobile terminal 100 may vary according to the wireless communication environment in which the mobile terminal 100 is located. The Wi-Fi location tracking system 300 can track the location of the mobile terminal 100 when the mobile terminal 100 is connected to at least one wireless AP.

다음으로, 임의의 무선 AP정보가 저장되어 있는 데이터 베이스(330)에 대하여 보다 구체적으로 살펴보면, 상기 데이터 베이스(330)에는 서로 다른 위치에 배치된 임의의 무선 AP들의 다양한 정보가 저장될 수 있다.Next, looking at the database 330 in which random wireless AP information is stored in more detail, the database 330 may store various information of random wireless APs arranged at different locations.

상기 데이터 베이스(300)에 저장되는 임의의 무선 AP들의 정보는 MAC Address, SSID, RSSI, 채널정보, Privacy, Network Type, 무선 AP의 위경도 좌표, 무선 AP가 위치한 건물명, 층수, 실내 상세 위치정보(GPS 좌표 이용가능), AP소유자의 주소, 전화번호 등의 정보일 수 있다.Information of arbitrary wireless APs stored in the database 300 includes MAC Address, SSID, RSSI, channel information, Privacy, Network Type, latitude and longitude coordinates of the wireless AP, building name where the wireless AP is located, the number of floors, and detailed indoor location information. (GPS coordinates are available), it may be information such as the AP owner's address and phone number.

이와 같이, 상기 데이터베이스(330)에는 임의의 무선 AP정보 및 상기 임의의 무선 AP에 대응되는 위치정보가 함께 저장되어 있으므로, 와이파이 위치 측위 서버(310)는 상기 데이터베이스(330)에서 이동 단말기(100)에 접속된 무선 AP(320)의 정보와 대응되는 무선 AP정보를 검색하고, 검색된 무선 AP정보에 매칭된 위치정보 추출함으로써, 이동 단말기(100)의 위치정보를 추출할 수 있다.In this way, since the database 330 stores information about a random wireless AP and location information corresponding to the random wireless AP, the Wi-Fi location server 310 is used in the database 330 to the mobile terminal 100 The location information of the mobile terminal 100 may be extracted by searching for wireless AP information corresponding to the information of the wireless AP 320 connected to and extracting the location information matched with the searched wireless AP information.

그리고, 이렇게 추출된 이동 단말기(100)의 위치정보는 상기 와이파이 위치 측위 서버(310)를 통해 이동 단말기(100)로 전송됨으로써, 이동 단말기(100)는 위치정보를 획득할 수 있다.In addition, the extracted location information of the mobile terminal 100 is transmitted to the mobile terminal 100 through the Wi-Fi location server 310, so that the mobile terminal 100 can obtain the location information.

이하에서는 도 3 내지 도 5B를 참조하여 본 명세서에 개시된 일 실시예에 따른 다양한 이동 단말기의 구현 형태에 대해 살펴본다.Hereinafter, implementation forms of various mobile terminals according to an exemplary embodiment disclosed in the present specification will be described with reference to FIGS. 3 to 5B.

도 3A 및 도 3B는 본 발명의 일 실시 예에 따른 스마트 워치의 전면 및 후면을 도시한 도면이다.3A and 3B are views showing the front and rear surfaces of a smart watch according to an embodiment of the present invention.

즉, 도 3A 및 도 3B는 상기 이동 단말기(100)가 웨어러블 디바이스의 형태 중 시계형 이동 단말기인 스마트 워치 형태를 구비한 경우를 나타낸다.That is, FIGS. 3A and 3B illustrate a case in which the mobile terminal 100 has a smart watch, which is a watch-type mobile terminal among the types of wearable devices.

개시된 스마트 워치(Smart Watch : 200)는 사각형 형태의 구조를 가지고 있다. 다만, 본 발명은 여기에 한정되지 않고, 다양한 구조, 즉 원형이나 삼각형과 같은 다양한 형태의 다각형 구조를 가지는 스마트 워치에도 적용이 가능함은 물론이다. The disclosed smart watch (Smart Watch: 200) has a rectangular structure. However, the present invention is not limited thereto, and can be applied to a smart watch having a variety of structures, that is, a polygonal structure of various shapes such as a circle or a triangle.

일 실시예에 따르면, 스마트 워치(200)는 밴드(230)와 본체(220)를 포함하여 구성된다. 본체(220)의 외관을 이루는 케이스는 프론트 케이스(210)와 리어 케이스(250)로 구분될 수 있다. 프론트 케이스(210)와 리어 케이스(250)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(210)와 리어 케이스(250) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수도 있다. 케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다. According to an embodiment, the smart watch 200 includes a band 230 and a body 220. Cases forming the exterior of the main body 220 may be divided into a front case 210 and a rear case 250. Various electronic components are embedded in the space formed between the front case 210 and the rear case 250. At least one intermediate case may be additionally disposed between the front case 210 and the rear case 250. The cases may be formed by injection of synthetic resin or may be formed to have a metal material such as stainless steel (STS) or titanium (Ti).

도 3A를 참조하면, 프론트 케이스(210)에는 디스플레이부(151), 카메라(121), 마이크(122)등이 배치될 수 있다. Referring to FIG. 3A, a display unit 151, a camera 121, a microphone 122, and the like may be disposed on the front case 210.

디스플레이부(151)는 프론트 케이스(210)의 주면의 대부분을 차지한다. 디스플레이부(151)의 양단부에는 카메라(121) 및 마이크(122)가 배치될 수 있다. The display unit 151 occupies most of the main surface of the front case 210. Camera 121 and microphone 122 may be disposed at both ends of the display unit 151.

한편, 디스플레이부(151)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다. Meanwhile, various types of visual information may be displayed on the display unit 151. These information may be displayed in the form of letters, numbers, symbols, graphics, or icons.

이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 아이콘 들 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '소프트키'라 불릴 수 있다. In order to input such information, at least one of the letters, numbers, symbols, graphics, and icons may be displayed in a certain arrangement, thereby being implemented in the form of a keypad. Such a keypad can be called a'soft key'.

디스플레이부(151)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다. The display unit 151 may operate as an entire area, or may be divided into a plurality of areas and operated. In the latter case, the plurality of regions may be configured to operate in association with each other.

또한 스마트 워치(200)의 본체(220)의 일 측면에는 유/무선 헤드셋 포트(미도시)과 유/무선 데이터 포트(미도시)가 배치될 수 있다. 상기 포트들은 인터페이스(170, 도 1 참조)의 일 예로서 구성된다. In addition, a wired/wireless headset port (not shown) and a wired/wireless data port (not shown) may be disposed on one side of the main body 220 of the smart watch 200. The ports are configured as an example of an interface 170 (see FIG. 1).

도 3B를 참조하면, 본체(220)의 후면, 다시 말해서 리어 케이스(250)에는 제1 센서(140a)가 배치될 수 있다. 제1 센서(140a)는 사용자의 피부 상태 또는 사용자의 생체 신호를 감지하기 위한 센서일 수 있다. 또한 실제 사용자의 손목 뒷부분의 피부와 접촉되는 밴드(230)의 적어도 일 영역에서는 사용자의 근육 움직임등을 감지할 수 있는 제2 센서(140b)가 배치될 수 있다. Referring to FIG. 3B, a first sensor 140a may be disposed on the rear surface of the main body 220, that is, on the rear case 250. The first sensor 140a may be a sensor for detecting a user's skin condition or a user's biometric signal. In addition, a second sensor 140b capable of detecting the user's muscle movement may be disposed in at least one area of the band 230 that is in contact with the skin of the back of the user's wrist.

본체(220)의 측면에는 방송신호 수신용 안테나가 추가적으로 배치될 수 있다. 방송 수신 모듈(111, 도 1 참조)의 일부를 이루는 안테나는 본체(220)에서 인출 가능하게 설치될 수 있다. An antenna for receiving broadcast signals may be additionally disposed on the side of the main body 220. An antenna forming a part of the broadcast receiving module 111 (refer to FIG. 1) may be installed to be retractable from the main body 220.

그리고 스마트 워치(200)의 본체(220)에는 음향 출력 모듈(미도시), 인터페이스등이 구비될 수 있다. 또한 프론트 케이스(210) 및 리어 케이스(250)의 측면에는 사용자 입력부(340)와 연결 포트 등이 배치될 수 있다.In addition, the main body 220 of the smart watch 200 may be provided with an audio output module (not shown) and an interface. In addition, a user input unit 340 and a connection port may be disposed on side surfaces of the front case 210 and the rear case 250.

사용자 입력부(240)는 스마트 위치(200)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 적어도 하나의 조작 유닛들(240a, 240b, 240c, 240d)을 포함할 수 있다. 조작 유닛들은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각적인 느낌을 가하면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. The user input unit 240 is manipulated to receive a command for controlling the operation of the smart location 200 and may include at least one manipulation unit 240a, 240b, 240c, and 240d. The operating units may also be collectively referred to as a manipulating portion, and any method may be employed as long as it is a tactile manner in which a user applies a tactile feeling.

복수의 조작 유닛들에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 시작, 종료, 스크롤 등과 같은 명령의 입력, 음향 출력부(152)에서 출력되는 음향의 크기 조절, 또는 디스플레이부(151)의 터치 인식 모드의 전환 등과 같은 명령을 입력받도록 형성될 수 있다. Content input by the plurality of operation units may be set in various ways. For example, it may be formed to receive a command such as input of a command such as start, end, scroll, etc., control of the volume of sound output from the sound output unit 152, or change of the touch recognition mode of the display unit 151. have.

연결 포트는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 스마트 워치(200) 내부의 각 구성 요소에 전달하거나, 스마트 워치(200) 내부의 데이터가 외부 기기로 전송되도록 한다. 연결 포트는, 인터페이스(170, 도 1 참조)의 일 예로서 구성될 수 있다. The connection port receives data from an external device, receives power and transmits it to each component inside the smart watch 200, or transmits data inside the smart watch 200 to an external device. The connection port may be configured as an example of the interface 170 (see FIG. 1).

스마트 워치(200)의 본체(220)에는 스마트 워치(200)에 전원을 공급하기 위한 전원 공급부(미도시)가 구비된다. 전원공급부는 본체(220)에 내장되는 형태로 구성될 수 있다.A power supply unit (not shown) for supplying power to the smart watch 200 is provided in the main body 220 of the smart watch 200. The power supply unit may be configured to be embedded in the main body 220.

도 4A 및 도 4B는 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기의 일 실시예를 나타낸 개념도이다. 4A and 4B are conceptual diagrams illustrating an embodiment of a wearable glasses-type terminal according to an embodiment disclosed in the present specification.

즉, 도 4A 및 도 4B는 상기 이동 단말기(100)가 웨어러블 디바이스의 형태 중 안경형 이동 단말기인 스마트 안경 형태를 구비한 경우를 나타낸다.That is, FIGS. 4A and 4B illustrate a case in which the mobile terminal 100 has a smart glasses type, which is a glasses type mobile terminal, among the types of wearable devices.

도 4A을 참조하면, 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 본체(100'), 디스플레이부(151) 및 제어부(180)를 포함한다. Referring to FIG. 4A, a wearable glasses-type terminal 200 ′ according to an exemplary embodiment disclosed herein includes a main body 100 ′, a display unit 151, and a controller 180.

또한 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 사용자 입력부, 음성인식부, 동작 감지부를 더 포함할 수 있다.In addition, the wearable glasses-type terminal 200 ′ according to an exemplary embodiment disclosed in the present specification may further include a user input unit, a voice recognition unit, and a motion detection unit.

본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 두부 장착형 디스플레이(head mounted display, HMD)로 구현될 수 있다. 구체적인 실시 예로, 스마트 안경(smart glasses)으로 구현될 수 있다. The wearable glasses-type terminal 200 ′ according to the exemplary embodiment disclosed in the present specification may be implemented as a head mounted display (HMD). As a specific example, it may be implemented with smart glasses.

본체(100')는 두부에 장착가능 하도록 형성된다. 예를 들면, 스마트 안경에서의 프레임과 다리 부분으로 구현될 수 있다. The body 100' is formed to be mountable on the head. For example, it can be implemented as a frame and a leg in smart glasses.

디스플레이부(151)는 본체(100')와 결합하여 양안에 대응되는 위치에 배치될 수 있다. 또한 상기 디스플레이부(151)는 광투과성을 가지며, 시각 정보를 출력할 수 있다. The display unit 151 may be disposed in a position corresponding to both eyes by being combined with the main body 100 ′. Also, the display unit 151 has light transmittance and may output visual information.

상기 시각 정보는 착용 가능한 안경형 단말기(200')에서 생성하거나 또는 외부 기기로부터 입력받은 가상의 객체를 의미한다. 예를 들면, 상기 가상의 객체는 어플리케이션이나 이에 대응하는 아이콘, 콘텐츠, 통화모드의 UI 등을 의미할 수 있다. 이는 제어부(180)에 의해 생성되거나 스마트 폰과 같은 이동 단말기로부터 입력받을 수 있다. 이때, 디스플레이부(151)는 광투과성을 갖기 때문에, 사용자는 상기 디스플레이부(151)를 통하여 외부 환경을 볼 수 있다.The visual information refers to a virtual object generated by the wearable glasses-type terminal 200 ′ or input from an external device. For example, the virtual object may mean an application, an icon corresponding thereto, content, a UI of a call mode, and the like. This may be generated by the controller 180 or may be input from a mobile terminal such as a smart phone. In this case, since the display unit 151 has light transmittance, the user can see the external environment through the display unit 151.

또한, 일 실시 예로, 디스플레이부(151)는 외부 환경이 보이는 동시에 상기 외부 환경을 구성하는 임의의 외부 물체에 대한 정보가 출력될 수 있다. 예를 들어, 외부 물체는 명함, 사람 또는 상호 통신이 가능한 외부기기일 수 있다. In addition, as an example, the display unit 151 may view the external environment and output information on an arbitrary external object constituting the external environment. For example, the external object may be a business card, a person, or an external device capable of mutual communication.

앞서 설명한 바와 같이, 제어부(180)는 착용 가능한 안경형 단말기(200')를 제어할 수 있다. 구체적으로, 제어부(180)는 디스플레이부(151)에 무선통신부(110)에서 감지한 외부기기의 정보를 출력시킬 수 있다. As described above, the controller 180 may control the wearable glasses-type terminal 200 ′. Specifically, the controller 180 may output information on an external device detected by the wireless communication unit 110 on the display unit 151.

예를 들어, 제어부(180)는 상기 감지된 외부기기의 위치를 식별할 수 있다. 이때, 상기 제어부(180)는 상기 감지된 외부기기가 사용자의 시야 내에 위치하는지 여부를 판단하고, 상기 판단 결과에 따라 상기 감지된 외부기기의 정보를 출력시킬지 여부를 결정할 수 있다.For example, the controller 180 may identify the detected location of the external device. In this case, the controller 180 may determine whether the sensed external device is located within the user's field of view, and determine whether to output the sensed external device information according to the determination result.

또한, 제어부(180)는 착용 가능한 안경형 단말기(200')의 본체(100')에 장착되거나, 본체(100')와 일체로 형성될 수 있다. 또 다른 실시 예로, 본체(100')와 떨어져 배치될 수 있다.In addition, the controller 180 may be mounted on the body 100 ′ of the wearable glasses-type terminal 200 ′ or may be integrally formed with the body 100 ′. In another embodiment, it may be disposed apart from the main body 100 ′.

카메라(121)는 좌안 및 우안 디스플레이부(151) 중 적어도 하나의 전면에 배치될 수 있다. 또는, 프레임(100') 한쪽 또는 양쪽에 배치되어 착용자의 시야 이외의 공간도 촬영할 수 있다.The camera 121 may be disposed in front of at least one of the left and right eye display units 151. Alternatively, it is disposed on one or both sides of the frame 100 ′ so that a space other than the wearer's field of view may be photographed.

사용자 입력부(130)는 프레임(110') 한쪽 또는 양쪽에 별도의 터치 패널로 구현될 수 있다. 또는, 물리적인 키로 구현될 수 있다. 예를 들면, 전원의 ON/OFF 스위치가 프레임(110')의 한쪽에 구현될 수 있다.The user input unit 130 may be implemented as a separate touch panel on one or both sides of the frame 110 ′. Alternatively, it can be implemented with a physical key. For example, a power ON/OFF switch may be implemented on one side of the frame 110'.

또 다른 실시 예로, 본체(100')와 연결된 별도의 외부 기기 장치로 구현될 수 있다. 이에 따라, 사용자는 별도의 외부 기기 장치에 특정 명령을 입력할 수 있다. 또는, 디스플레이부(151)가 터치 스크린으로 구현되어 사용자로부터의 제어 명령을 직접 입력받을 수 있다.In another embodiment, it may be implemented as a separate external device device connected to the main body 100 ′. Accordingly, the user can input a specific command to a separate external device. Alternatively, the display unit 151 may be implemented as a touch screen to directly receive a control command from a user.

또 다른 실시 예로, 사용자의 음성 명령을 인식하는 모듈로 구현될 수 있다. 이를 통해, 사용자는 음성을 통하여 본체(100')에 특정 명령을 입력할 수 있다.In another embodiment, it may be implemented as a module that recognizes a user's voice command. Through this, the user can input a specific command to the main body 100' through voice.

한편, 착용 가능한 안경형 단말기의 일 실시 예로서, 스마트 안경(smart glasses)이 출시되고 있다. 착용 가능한 장치(Wearable device)로 구현된 스마트 안경은 기존의 이동 단말기에서 실행되던 기능을 간편하게 실행할 수 있다. Meanwhile, as an embodiment of a wearable glasses-type terminal, smart glasses are being released. Smart glasses implemented as a wearable device can easily execute functions that have been executed in existing mobile terminals.

상기 스마트 안경의 디스플레이부(151)는 디스플레이부(151)를 통해 보이는 외부 환경과 출력된 시각 정보를 함께 표시(Augmented Reality)할 수 있다. 이를 통해 사용자는 외부 환경을 구성하는 임의의 객체에 대한 정보를 보다 쉽게 파악할 수 있다.The display unit 151 of the smart glasses may simultaneously display an external environment and output visual information viewed through the display unit 151 (Augmented Reality). Through this, the user can more easily grasp information on arbitrary objects constituting the external environment.

또한 상기 스마트 안경은 스마트 안경들끼리 혹은, 스마트 안경과 통신이 가능한 외부 기기와 무선 통신을 수행할 수 있다. 이때, 상기 외부기기와 관련된 정보가 디스플레이부(151)에 출력될 수 있다.In addition, the smart glasses may perform wireless communication between smart glasses or an external device capable of communicating with the smart glasses. In this case, information related to the external device may be output on the display unit 151.

도 4B는 본 명세서에 개시된 일 실시예에 따른 눈 근접 디스플레이가 장착될 수 있는 웨어러블 디바이스를 나타낸다.4B illustrates a wearable device to which an eye proximity display according to an embodiment disclosed herein may be mounted.

도 4B를 참조하면, 도시된 웨어러블 디바이스는 글래스형 단말기(200'')로, 글래스형 단말기(200'')는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)을 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. 본 도면에서는, 프레임부가 서로 다른 재질의 제1 프레임(201'')과 제2 프레임(202'')을 포함하는 것을 예시하고 있다.Referring to FIG. 4B, the illustrated wearable device is a glass-type terminal 200 ″, and the glass-type terminal 200 ″ is configured to be worn on the head of the human body, and a frame part (case, housing, etc.) for this It can be provided. The frame portion may be formed of a flexible material to facilitate wearing. In this drawing, it is illustrated that the frame portion includes a first frame 201 ″ and a second frame 202 ″ made of different materials.

프레임부는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부에는 제어 모듈(280''), 음향 출력 모듈(252'') 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 디스플레이부(251'')가 착탈 가능하게 장착될 수 있다.The frame portion is supported on the head and provides a space in which various parts are mounted. As shown, electronic components such as a control module 280 ″ and an audio output module 252 ″ may be mounted on the frame part. In addition, a display unit 251 ″ covering at least one of the left eye and the right eye may be detachably mounted on the frame unit.

제어 모듈(280'')은 글래스형 단말기(200'')에 구비되는 각종 전자부품을 제어하도록 이루어진다. 제어 모듈(280'')은 앞서 설명한 제어부(180, 도 1 참조)에 대응되는 구성으로 이해될 수 있다. 본 도면에서는, 제어 모듈(280'')이 일측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어 모듈(280'')의 위치는 이에 한정되지 않는다.The control module 280 ″ is configured to control various electronic components provided in the glass-type terminal 200 ″. The control module 280 ″ may be understood as a configuration corresponding to the control unit 180 (see FIG. 1) described above. In this drawing, it is illustrated that the control module 280 ″ is installed on the frame on one side of the head. However, the location of the control module 280 ″ is not limited thereto.

디스플레이부(251'')는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 글래스형 단말기(200)를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(251)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다.The display unit 251 ″ may be implemented in the form of a head mounted display (HMD). The HMD type refers to a display method that is mounted on the head and displays an image directly in front of the user's eyes. When the user wears the glass terminal 200, the display unit 251 may be disposed to correspond to at least one of the left eye and the right eye so that an image can be directly provided in front of the user's eyes.

디스플레이부(251'')는 사용자의 눈으로 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 디스플레이부(251)는 투광성으로 형성될 수 있다.The display unit 251 ″ may project an image to the user's eyes. In addition, the display unit 251 may be formed to be light-transmitting so that the user can see the projected image and the general field of view (a range that the user sees through the eyes) together.

이처럼, 디스플레이부(251'')를 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보여질 수 있다. 이동 단말기(100)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.In this way, the image output through the display unit 251 ″ may be viewed by overlapping with the general field of view. The mobile terminal 100 may provide an Augmented Reality (AR) that displays a single image by superimposing a virtual image on a real image or a background by using the characteristics of the display.

카메라(221'')는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 카메라(221'')가 눈에 인접하여 위치하므로, 카메라(221'')는 사용자가 바라보는 장면을 영상으로 획득할 수 있다.The camera 221 ″ is disposed adjacent to at least one of the left eye and the right eye, and is formed to capture a front image. Since the camera 221 ″ is located adjacent to the eye, the camera 221 ″ may acquire a scene viewed by the user as an image.

본 도면에서는, 카메라(221'')가 제어 모듈(280'')에 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 카메라(221'')는 상기 프레임부에 설치될 수도 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.In this drawing, it is illustrated that the camera 221 ″ is provided in the control module 280 ″, but is not limited thereto. The camera 221 ″ may be installed on the frame, or may be provided in plural to obtain a three-dimensional image.

글래스형 단말기(200'')는 제어명령을 입력 받기 위하여 조작되는 사용자 입력부(223a'', 223b'')를 구비할 수 있다. 사용자 입력부(223a'', 223b'')는 터치, 푸시 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 본 도면에서는, 프레임부와 제어 모듈(280'')에 각각 푸시 및 터치 입력 방식의 사용자 입력부(223a'', 223b'')가 구비된 것을 예시하고 있다.The glass-type terminal 200 ″ may include user input units 223a ″ and 223b ″ which are operated to receive a control command. The user input units 223a'' and 223b'' may be employed in any manner as long as they are in a tactile manner, such as touch or push. In this drawing, it is illustrated that the frame unit and the control module 280 ″ are provided with user input units 223a ″ and 223b ″ of push and touch input methods, respectively.

또한, 글래스 타입의 이동 단말기(200'')에는 사운드를 입력받아 전기적인 음성 데이터로 처리하는 마이크(미도시) 및 음향을 출력하는 음향 출력 모듈(252'')이 구비될 수 있다. 음향 출력 모듈(252)은 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력 모듈(252'')이 골전도 방식으로 구현되는 경우, 사용자가 글래스형 단말기(200'')를 착용시, 음향 출력 모듈(252'')은 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다.In addition, the glass-type mobile terminal 200 ″ may be provided with a microphone (not shown) for receiving sound and processing it as electrical voice data, and an sound output module 252 ″ for outputting sound. The sound output module 252 may be configured to transmit sound through a general sound output method or a bone conduction method. When the sound output module 252'' is implemented in a bone conduction method, when the user wears the glass-type terminal 200'', the sound output module 252'' is in close contact with the head and vibrates the skull for sound Will be delivered.

이하, 도 5A 및 도 5B를 참조하여, 상기 도 1에서 살펴본 본 명세서에 개시된 일 실시 예에 따른 이동 단말기 또는 이동 단말기의 구성요소들이 배치된 이동 단말기 또는 이동 단말기의 구조를 살펴본다.Hereinafter, with reference to FIGS. 5A and 5B, a structure of a mobile terminal or a mobile terminal in which components of the mobile terminal according to an embodiment disclosed in the present specification are arranged will be described.

도 5A는 본 발명과 관련된 이동 단말기(100)의 일 예를 전면에서 바라본 사시도이다.5A is a front perspective view of an example of a mobile terminal 100 related to the present invention.

개시된 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 와치 타입, 클립 타입, 안경 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용될 수 있다.The disclosed mobile terminal 100 has a bar-shaped terminal body. However, the present invention is not limited thereto, and can be applied to various structures such as a watch type, a clip type, a glasses type, or a folder type in which two or more bodies are relatively movably coupled, a flip type, a slide type, a swing type, and a swivel type. have.

바디는 외관을 이루는 케이스(프레임, 하우징, 커버 등)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수 있으며, 배터리(191)를 덮는 배터리 커버(103)가 리어 케이스(102)에 착탈 가능하게 구성될 수도 있다.The body includes a case (frame, housing, cover, etc.) forming the exterior. In this embodiment, the case may be divided into a front case 101 and a rear case 102. Various electronic components are embedded in the space formed between the front case 101 and the rear case 102. At least one intermediate case may be additionally disposed between the front case 101 and the rear case 102, and the battery cover 103 covering the battery 191 may be configured to be detachably attached to the rear case 102. have.

케이스들은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.The cases may be formed by injection of synthetic resin or may be formed of a metal such as stainless steel (STS), aluminum (Al), titanium (Ti), or the like.

단말기 바디의 전면에는 디스플레이부(151), 제1음향출력모듈(153a), 제1카메라(121a), 제1조작유닛(131) 등이 배치되며, 측면에는 마이크(122), 인터페이스부(170), 제2조작유닛(132) 등이 구비될 수 있다.A display unit 151, a first sound output module 153a, a first camera 121a, and a first operation unit 131 are disposed on the front of the terminal body, and a microphone 122 and an interface unit 170 are disposed on the side surfaces. ), a second operation unit 132, and the like may be provided.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)하도록 이루어진다. 디스플레이부(151)는 정보를 시각적으로 표현하는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 is configured to display (output) information processed by the mobile terminal 100. The display unit 151 is a liquid crystal display (LCD) that visually expresses information, a thin film transistor-liquid crystal display (TFT LCD), and an organic light-emitting diode (OLED). ), a flexible display, a 3D display, and an e-ink display.

상기 디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있게 터치감지수단을 포함할 수 있다. 디스플레이부(151) 상의 어느 한 곳에 대하여 터치가 이루어지면 터치감지수단은 이를 감지하고 그 터치된 위치에 대응하는 내용이 입력되게 구성될 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display unit 151 may include a touch sensing means to receive a control command by a touch method. When a touch is made to any one place on the display unit 151, the touch sensing means may be configured to sense this and input a content corresponding to the touched position. Content input by the touch method may be letters or numbers, or menu items that can be indicated or designated in various modes.

터치감지수단은 디스플레이부(151)에서 출력되는 시각 정보가 보일 수 있도록 투광성으로 형성되며, 밝은 곳에서 터치스크린의 시인성(visibility)을 높이기 위한 구조가 포함될 수 있다. 도 5A에 의하면, 디스플레이부(151)는 프론트 케이스(101)의 전면(front surface)의 대부분을 차지한다.The touch sensing means is formed to be light-transmitting so that visual information output from the display unit 151 can be seen, and may include a structure for enhancing visibility of the touch screen in a bright place. Referring to FIG. 5A, the display unit 151 occupies most of the front surface of the front case 101.

디스플레이부(151)의 양단부 중 일 단부에 인접한 영역에는 제1음향출력모듈(153a)과 제1카메라(121a)가 배치되고, 다른 단부에 인접한 영역에는 제1조작유닛(131)과 마이크(122)가 배치된다. 제2조작유닛(132, 도 5B 참조), 인터페이스부(170) 등은 단말기 바디의 측면에 배치될 수 있다.A first sound output module 153a and a first camera 121a are disposed in an area adjacent to one end of both ends of the display unit 151, and a first operation unit 131 and a microphone 122 are disposed in an area adjacent to the other end. ) Is placed. The second manipulation unit 132 (refer to FIG. 5B) and the interface unit 170 may be disposed on the side of the terminal body.

제1음향출력모듈(153a)은 통화음을 사용자의 귀에 전달시키는 리시버(receiver) 또는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output module 153a may be implemented in the form of a receiver that transmits a call sound to a user's ear or a loud speaker that outputs various alarm sounds or multimedia reproduction sounds.

제1음향출력모듈(153a)로부터 발생되는 사운드는 구조물 간의 조립틈을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나, 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니며, 상기 사운드의 방출을 위한 홀이 윈도우에 형성될 수 있다.The sound generated from the first acoustic output module 153a may be configured to be emitted along an assembly gap between structures. In this case, the externally formed hole for sound output is not visible or hidden, so that the appearance of the mobile terminal 100 may be more simple. However, the present invention is not limited thereto, and a hole for emitting the sound may be formed in the window.

제1카메라(121a)는 화상통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The first camera 121a processes an image frame such as a still image or a moving picture obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit 151.

사용자 입력부(130)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 제1 및 제2조작유닛(131, 132)을 포함할 수 있다. 제1 및 제2조작유닛(131, 132)은 조작부(manipulating portion)로도 통칭될 수 있으며, 터치, 푸쉬, 스크롤 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The user input unit 130 is manipulated to receive a command for controlling the operation of the mobile terminal 100 and may include first and second manipulation units 131 and 132. The first and second operation units 131 and 132 may be collectively referred to as a manipulating portion, and any method may be employed as long as the user operates while having a tactile feeling such as touch, push, and scroll. Can be.

본 도면에서는 제1 조작유닛(131)이 터치키(touch key)인 것을 기준으로 예시하나, 본 발명은 이에 한정되는 것은 아니다. 예를 들어 제1 조작유닛(131)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In the present drawing, the first operation unit 131 is illustrated based on a touch key, but the present invention is not limited thereto. For example, the first operation unit 131 may be a push key (mechanical key), or may be configured as a combination of a touch key and a push key.

제1 및/또는 제2조작유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1조작유닛(131)은 메뉴, 홈키, 취소, 검색 등과 같은 명령을 입력 받고, 제2조작유닛(132)은 제1음향출력모듈(153a)에서 출력되는 음향의 크기 조절 또는 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다. Contents input by the first and/or second manipulation units 131 and 132 may be set in various ways. For example, the first manipulation unit 131 receives commands such as menu, home key, cancel, search, etc., and the second manipulation unit 132 adjusts the size of the sound output from the first sound output module 153a or A command such as switching to the touch recognition mode of the display unit 151 may be input.

마이크(122)는 사용자의 음성, 기타 소리 등을 입력받도록 형성된다. 마이크(122)는 복수의 개소에 구비되어 스테레오 음향을 입력받도록 구성될 수 있다.The microphone 122 is formed to receive a user's voice and other sounds. The microphone 122 may be provided at a plurality of locations and configured to receive stereo sound.

인터페이스부(170)는 이동 단말기(100)가 외부기기와 데이터 교환 등을 할 수 있게 하는 통로가 된다. 예를 들어, 인터페이스부(170)는 유선 또는 무선으로 이어폰과 연결하기 위한 접속단자, 근거리 통신을 위한 포트{예를 들어 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등}, 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급 단자들 중 적어도 하나일 수 있다. 이러한 인터페이스부(170)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수 있다.The interface unit 170 serves as a passage through which the mobile terminal 100 can exchange data with an external device. For example, the interface unit 170 includes a connection terminal for connecting to an earphone wired or wirelessly, a port for short-range communication (e.g., an infrared port, a Bluetooth port), a wireless LAN port. LAN Port), etc.), or at least one of power supply terminals for supplying power to the mobile terminal 100. The interface unit 170 may be implemented in the form of a socket for accommodating an external card such as a Subscriber Identification Module (SIM) or a User Identity Module (UIM), or a memory card for storing information.

도 5B는 도 5A에 도시된 이동 단말기(100)의 후면 사시도이다.5B is a rear perspective view of the mobile terminal 100 shown in FIG. 5A.

도 5B를 참조하면, 단말기 바디의 후면, 다시 말해서 리어 케이스(102)에는 제2카메라(121b)가 추가로 장착될 수 있다. 제2카메라(121b)는 제1카메라(121a, 도 5A 참조)와 실질적으로 반대되는 촬영 방향을 가지며, 제1카메라(121a)와 서로 다른 화소를 가지는 카메라일 수 있다.Referring to FIG. 5B, a second camera 121b may be additionally mounted on the rear surface of the terminal body, that is, the rear case 102. The second camera 121b may be a camera having a photographing direction substantially opposite to that of the first camera 121a (refer to FIG. 5A) and having different pixels from the first camera 121a.

예를 들어, 제1카메라(121a)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 제2카메라(121b)는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 제1 및 제2카메라(121a, 121b)는 회전 또는 팝업(pop-up) 가능하게 단말기 바디에 설치될 수도 있다.For example, the first camera 121a has a low pixel so that it is not unreasonable to photograph the user's face and transmit it to the other party in the case of a video call, and the second camera 121b photographs a general subject and does not immediately transmit it. In many cases, it is desirable to have high pixels. The first and second cameras 121a and 121b may be installed on the terminal body to enable rotation or pop-up.

제2카메라(121b)에 인접하게는 플래시(123)와 거울(124)이 추가로 배치된다. 플래시(123)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향해 빛을 비추게 된다. 거울(124)은 사용자가 제2카메라(121b)를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.A flash 123 and a mirror 124 are additionally disposed adjacent to the second camera 121b. The flash 123 illuminates light toward the subject when photographing the subject with the second camera 121b. The mirror 124 enables the user's own face to be reflected when the user wants to take a picture (self-photographed) using the second camera 121b.

단말기 바디의 후면에는 제2음향출력모듈(153b)이 추가로 배치될 수도 있다. 제2음향출력모듈(153b)은 제1음향출력모듈(153a, 도 5A 참조)과 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.A second sound output module 153b may be additionally disposed on the rear surface of the terminal body. The second sound output module 153b may implement a stereo function together with the first sound output module 153a (refer to FIG. 5A), and may be used to implement a speakerphone mode during a call.

단말기 바디의 측면에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(미도시)가 추가적으로 배치될 수 있다. 방송수신모듈(111, 도 1 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 설치될 수 있다.An antenna for receiving broadcast signals (not shown) may be additionally disposed on the side of the terminal body in addition to an antenna for a call. An antenna forming a part of the broadcast receiving module 111 (refer to FIG. 1) may be installed to be retractable from the terminal body.

단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원공급부(190, 도 1 참조)가 구비된다. 전원공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다. 본 도면에서는 배터리 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하는 것을 예시하고 있다.The terminal body is provided with a power supply unit 190 (see FIG. 1) for supplying power to the mobile terminal 100. The power supply unit 190 may include a battery 191 that is built into the terminal body or configured to be detachable from the outside of the terminal body. In this drawing, it is illustrated that the battery cover 103 is coupled to the rear case 102 to cover the battery 191 to limit the separation of the battery 191 and protect the battery 191 from external shocks and foreign substances. .

본 명세서에 개시된 이동 단말기 또는 웨어러블 디바이스에 대한 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.It is obvious to those skilled in the art that the technology for a mobile terminal or a wearable device disclosed in the present specification may be embodied in other specific forms without departing from the technical spirit disclosed in the present specification.

차량 제어 장치Vehicle control device

이하에서는 도 6A 내지 도 8C를 참조하여 본 명세서에 개시된 차량 제어 장치 및 상기 차량 제어 장치에 의해 수행될 수 있는 네비게이션 기능에 대해 상술한다.Hereinafter, a vehicle control device disclosed in the present specification and a navigation function that can be performed by the vehicle control device will be described in detail with reference to FIGS. 6A to 8C.

도 6A는 본 발명과 관련된 차량 제어 장치를 설명하기 위한 블록도이다.6A is a block diagram illustrating a vehicle control apparatus related to the present invention.

도 6B는 본 발명과 관련된 차량 제어 장치와 연결되는 외부 기기들의 일 예를 보이고 있는 예시도이다.6B is an exemplary view showing an example of external devices connected to the vehicle control device related to the present invention.

도 6A 및 도 6B를 참조하면, 도 6A는 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치를 설명하기 위한 블록도이고, 도 6B는 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치와 연결 가능한 외부 기기들의 예를 보이고 있는 예시도이다.6A and 6B, FIG. 6A is a block diagram for describing a vehicle control device according to an embodiment disclosed in the present specification, and FIG. 6B is a connectable vehicle control apparatus according to an embodiment disclosed herein. This is an example diagram showing examples of external devices.

우선, 도 6A에서 도시한 바와 같이 본 명세서에 개시된 일 실시 예에 따른 차량 제어 장치(400)는, 제어부(410) 및, 제어부(410)와 연결되는 감지부(430), 차량 구동부(420), 메모리(440)를 포함하여 구성될 수 있으며, 출력부(450)를 더 포함할 수 있다. 그리고 상기 차량 제어 장치(400)는, 차량의 외관을 이루는 외부 프레임과 윈도우 및 사용자가 탑승 가능하도록 형성되는 내부 프레임을 포함하는 차량의 바디(body)부에 형성될 수 있다. 여기서, 도 6A에 도시된 구성요소들은 본 발명과 관련된 차량 제어 장치(400)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 차량 제어 장치(400)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. First, as shown in FIG. 6A, the vehicle control device 400 according to an embodiment disclosed in the present specification includes a control unit 410, a sensing unit 430 connected to the control unit 410, and a vehicle driving unit 420. , The memory 440 may be included, and an output unit 450 may be further included. In addition, the vehicle control device 400 may be formed in a body portion of a vehicle including an outer frame and a window forming the exterior of the vehicle, and an inner frame formed to allow a user to ride. Here, the components shown in FIG. 6A are not essential in implementing the vehicle control device 400 related to the present invention, so that the vehicle control device 400 described in the present specification is more or less than the components listed above. , Or may have fewer components.

감지부(430)는 차량 제어 장치(400) 내 정보, 차량 제어 장치(400)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 감지부(430)는 근접센서(432, proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 차량 제어 장치(400)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 430 may include one or more sensors for sensing at least one of information in the vehicle control device 400, information on an environment surrounding the vehicle control device 400, and user information. For example, the detection unit 430 may include a proximity sensor 432, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor. G-sensor), gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), finger scan sensor, ultrasonic sensor, light Sensors (optical sensors), environmental sensors (e.g., barometers, hygrometers, thermometers, radiation sensors, heat sensors, gas sensors, etc.), chemical sensors (e.g., electronic nose, healthcare sensors, biometric sensors) And the like) may be included. Meanwhile, the vehicle control apparatus 400 disclosed in this specification may combine and utilize information sensed by at least two or more of these sensors.

한편, 감지부(430)는 근거리 통신 모듈(431)을 더 포함할 수 있다. 근거리 통신 모듈(431)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(431)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 차량 제어 장치(400)와 외부 기기(170, 도 6B 참조) 사이의 무선 통신을 지원할 수 있다. Meanwhile, the sensing unit 430 may further include a short-range communication module 431. The short range communication module 431 is for short range communication, and includes Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. Near field communication may be supported by using at least one of (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies. The short-range communication module 431 may support wireless communication between the vehicle control device 400 and an external device 170 (refer to FIG. 6B) through wireless area networks.

상기 외부 기기는 전술된 이동 단말기(100)일 수 있다. 특히, 상기 외부 기기는 전술된 이동 단말기의 일 형태인 웨어러블 디바이스(200, 200')일 수 있다.The external device may be the mobile terminal 100 described above. In particular, the external device may be a wearable device 200 or 200 ′, which is a type of the mobile terminal described above.

차량 구동부(420)는 차량의 잠금 상태를 해제하거나 또는 차량의 상태를 잠금 상태로 전환할 수 있다. 여기서 차량의 잠금 상태라는 것은, 차량의 기능이 전체 또는 일부의 기능이 제한되거나 또는 시동이 걸리지 않거나 도어가 열리지 않도록 하는 상태일 수 있다. 이와 반대로, 상기 잠금 상태가 해제되는 상태라는 것은, 차량의 운전석 또는 보조석의 도어(door)나, 뒷좌석의 도어들 중 적어도 하나 또는 트렁크(trunk)가 열리도록 하거나, 상기 차량의 모든 기능, 즉 시동이 걸릴 수 있도록 하거나 네비게이션 기능이나 환기 기능 등의 다양한 기능들이 사용가능한 상태가 되도록 하는 것을 의미할 수 있다. The vehicle driving unit 420 may unlock the vehicle or switch the vehicle to the locked state. Here, the locked state of the vehicle may be a state in which all or part of the function of the vehicle is limited, the engine is not started, or the door is not opened. Conversely, the state in which the locked state is released means that the door of the driver's seat or the passenger seat of the vehicle, at least one of the doors of the rear seat or the trunk (trunk) is opened, or all functions of the vehicle, i.e., starting This may mean making it possible to take it or making various functions such as a navigation function or a ventilation function available.

또한 차량 구동부(420)는 차량의 각종 설정을 변경하거나 기능이 자동으로 수행되도록 할 수 있다. 예를 들어 차량 구동부(420)는, 차량의 각 구성부, 예를 들어 앞좌석의 운전석이나 보조석의 윈도우(Window)가 열린 정도, 또는 사이드 미러(Side Mirror)의 각도 등을 상기 제어부(410)의 제어에 따라 제어할 수 있으며, 운전석 또는 보조석 및 뒷자석들 중 적어도 하나의 시트 높이 또는 시트의 수평 위치(예를 들어 시트 사이의 간격)가 조정되도록 할 수 있다. 뿐만 아니라 차량 구동부(120)는 운전석의 핸들의 설정, 즉 핸들의 높이나 핸들의 감도등이 제어부(410)의 제어에 따라 설정되도록 할 수도 있다. 또한 차량 구동부(420)는, 제어부(410)의 제어에 따라 차량의 기어(gear)가 자동 변속 모드 또는 수동 변속 모드로 동작하도록 할 수도 있으며, 하이브리드(hybrid) 차량의 경우, 내연 기관 엔진을 사용하는 모드 또는 전기 모터를 사용하는 모드 중 어느 하나의 모드가 우선적으로 선택되도록 할 수도 있다. In addition, the vehicle driving unit 420 may change various settings of the vehicle or allow functions to be automatically performed. For example, the vehicle driving unit 420 may determine the degree to which each component of the vehicle, for example, a window of a driver's seat or an assistant seat in the front seat, or an angle of a side mirror, and the like. It can be controlled according to the control of the driver's seat or the seat height of at least one of the auxiliary seats and rear seats, or the horizontal position of the seat (for example, the gap between the seats) can be adjusted. In addition, the vehicle driving unit 120 may set the steering wheel of the driver's seat, that is, the height of the steering wheel or the sensitivity of the steering wheel according to the control of the controller 410. In addition, the vehicle driving unit 420 may allow the vehicle's gear to operate in an automatic transmission mode or a manual transmission mode according to the control of the controller 410, and in the case of a hybrid vehicle, an internal combustion engine engine is used. It is also possible to preferentially select one of the mode to use or the mode to use the electric motor.

또한 차량 구동부(420)는 이러한 차량의 물리적인 설정 상태뿐만 아니라 소프트웨어적인 설정 역시 상기 제어부(410)의 제어에 따라 변경되도록 할 수도 있다. 예를 들어 차량 구동부(420)는 제어부(410)의 제어에 따라 기 설정된 음악 리스트가 표시되도록 하거나, 또는 상기 기 설정된 리스트 상의 음악 중 어느 하나가 자동으로 재생되도록 할 수도 있다. 또는 차량 구동부(420)는 기 설정된 특정 목적지를 자동으로 설정하고, 구비된 네비게이션(navigation)을 통해 상기 특정 목적지까지의 경로가 자동으로 표시되도록 할 수도 있다. 또는 차량 구동부(420)는 차량의 크루즈 컨트롤(Cruise control) 시에, 상기 제어부(410)의 제어에 따라 차량간 거리 또는 차량 속도가 자동으로 설정되도록 할 수도 있다. In addition, the vehicle driving unit 420 may change the physical setting state of the vehicle as well as the software setting according to the control of the controller 410. For example, the vehicle driving unit 420 may display a preset music list according to the control of the control unit 410, or may automatically play any one of the music on the preset list. Alternatively, the vehicle driving unit 420 may automatically set a preset specific destination, and automatically display a route to the specific destination through provided navigation. Alternatively, the vehicle driving unit 420 may automatically set the vehicle distance or vehicle speed according to the control of the control unit 410 during cruise control of the vehicle.

이를 위해 차량 구동부(420)는, 적어도 하나의 서로 다른 하부 구동부들을 가질 수 있으며, 이러한 하부 구동부들은 각각 차량의 물리적인 설정 상태 또는 소프트웨어적인 설정 상태를 변경할 수 있다. 이하 차량의 물리적인 설정 상태를 변경하는 하부 구동부를 제1 구동부(421)라고 칭하기로 하고, 차량의 소프트웨어적인 설정 상태를 변경하는 하부 구동부를 제2 구동부(422)라고 칭하기로 한다. To this end, the vehicle driving unit 420 may have at least one different lower driving units, and each of these lower driving units may change a physical setting state of the vehicle or a software setting state. Hereinafter, the lower driving unit that changes the physical setting state of the vehicle will be referred to as a first driving unit 421, and the lower driving unit that changes the software setting state of the vehicle will be referred to as a second driving unit 422.

여기서 상기 제1 구동부(421)는 차량의 물리적인 설정을 변경하기 위하여, 차량의 외부 프레임이나 내부 프레임을 변경할 수 있는 다른 구성요소들을 포함할 수 있다. 예를 들어 상기 제1 구동부(421)는 시트의 높이나 등받이의 각도를 조정하기 위한 물리적인 구동부 등을 더 포함할 수 있으며, 핸들의 높이를 높이거나 낮추기 위한 코일이나 스프링 등의 탄성 부재나 압력 부재를 포함하는 핸들 높이 조정부 등을 더 포함할 수 있다.Here, the first driving unit 421 may include other components capable of changing an outer frame or an inner frame of the vehicle in order to change the physical setting of the vehicle. For example, the first driving unit 421 may further include a physical driving unit for adjusting the height of the seat or the angle of the backrest, and an elastic member such as a coil or spring or a pressure member for raising or lowering the height of the handle It may further include a handle height adjustment unit including a.

한편 상기 제2 구동부(422)는 적어도 하나 이상의 응용 프로그램이나 애플리케이션 등으로 구현될 수 있다. 예를 들어 상기 제2 구동부(122)는 네비게이션을 구동하기 위한 응용 프로그램 중 어느 하나 또는 기 저장된 미디어 데이터(예를 들어 MP3 등)등을 재생하기 위한 응용 프로그램을 포함하는 형태로 구현될 수 있으며, 이러한 응용 프로그램 또는 애플리케이션들은 차량의 구동 제어를 위한 것들 중 어느 하나가 될 수도 있다. Meanwhile, the second driver 422 may be implemented as at least one or more application programs or applications. For example, the second driving unit 122 may be implemented in a form including any one of application programs for driving navigation or an application program for playing pre-stored media data (eg, MP3, etc.), These applications or applications may be any of those for driving control of the vehicle.

출력부(450)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(451), 음향 출력부(452), 햅팁 모듈(453), 광 출력부(454) 중 적어도 하나를 포함할 수 있다. 각종 화상 정보를 표시하는 디스플레이부(451)는, 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치스크린은, 차량 제어 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(423)로써 기능함과 동시에, 차량 제어 장치(400)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 450 is for generating output related to visual, auditory or tactile sense, and includes at least one of the display unit 451, the sound output unit 452, the hap tip module 453, and the light output unit 454 can do. The display unit 451 displaying various types of image information may form a layered structure with a touch sensor or be formed integrally with the touch sensor, thereby implementing a touch screen. Such a touch screen may function as a user input unit 423 that provides an input interface between the vehicle control device 100 and a user, and may provide an output interface between the vehicle control device 400 and a user.

이러한 터치스크린은, 차량의 다양한 부분에 구현될 수 있다. 예를 들어 상기 터치스크린은, 차량의 윈드 쉴드 글래스(Wind Shield Glass)의 전체 또는 일부에 구현될 수 있으며, 외부면(차량의 외부에 노출되는 면) 또는 내부면(차량의 내부를 향하는 면) 중 어디에서라도 구현될 수 있다. 또한 상기 터치스크린은 운전석 옆면의 윈도우나 보조석 옆면의 윈도우 또는 차량 뒷좌석의 윈도우의 외부면 또는 내부면에 구현될 수도 있다. 또는 상기 터치스크린은 차량의 사이드 미러나, 차량의 선루프(sunroof)에도 구현될 수 있다. Such a touch screen may be implemented in various parts of a vehicle. For example, the touch screen may be implemented on all or part of a vehicle's windshield glass, and an external surface (a surface exposed to the outside of the vehicle) or an internal surface (a surface facing the interior of the vehicle) It can be implemented in either. In addition, the touch screen may be implemented on a window on a side of a driver's seat, a window on a side of an assistant seat, or on an outer or inner surface of a window on a rear seat of a vehicle. Alternatively, the touch screen may be implemented in a vehicle's side mirror or a vehicle's sunroof.

또한 이러한 터치스크린은 차량의 윈도우나 선루프와 같은 글래스(galss) 부분뿐만 아니라, 차량의 외부 프레임 또는 내부 프레임에도 구현될 수 있다. 예를 들어 상기 터치스크린은 A-필라(Pillar), B-필라, C-필라와 같이, 윈드 쉴드 글래스와 윈도우 사이, 또는 윈도우나 윈도우 사이와 같은 차량의 외부 프레임의 표면에 구현될 수도 있다. 또는 차량 도어의 외부 표면의 적어도 일부(예를 들어 차량 도어의 손잡이 부분 근처)에 구현될 수도 있다. 뿐만 아니라 상기 터치스크린은 차량 내부의 기어(Gear) 박스(box) 덮개 표면이나, 콘솔(Console) 박스의 덮개 부분에 형성될 수도 있다. 또한 상기 터치스크린은, 적어도 하나 이상, 차량의 서로 다른 부분에 복수개가 형성될 수도 있음은 물론이다. In addition, such a touch screen may be implemented in a glass portion such as a window or a sunroof of a vehicle, as well as an external frame or an internal frame of the vehicle. For example, the touch screen may be implemented on the surface of an outer frame of a vehicle, such as between a windshield glass and a window, or between a window or a window, such as an A-pillar, B-pillar, and C-pillar. Alternatively, it may be implemented on at least a portion of the exterior surface of the vehicle door (eg, near the handle portion of the vehicle door). In addition, the touch screen may be formed on a cover surface of a gear box inside a vehicle or a cover portion of a console box. In addition, it goes without saying that at least one or more touch screens may be formed in a plurality of different parts of the vehicle.

메모리(440)는 차량 제어 장치(400)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(440)는 차량 제어 장치(400)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 차량 제어 장치(400)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 차량 제어 장치(400)의 기본적인 기능(예를 들어, 시동 기능, 네비게이션 기능, 차량 잠금 및 잠금 해제 기능)을 위하여 출고 당시부터 차량 제어 장치(400)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(440)에 저장되고, 차량 제어 장치(400) 상에 설치되어, 제어부(410)에 의하여 상기 차량 제어 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 440 stores data supporting various functions of the vehicle control device 400. The memory 440 may store a plurality of application programs or applications driven by the vehicle control device 400, data for operation of the vehicle control device 400, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs exist on the vehicle control device 400 from the time of shipment for basic functions of the vehicle control device 400 (eg, a starting function, a navigation function, and a vehicle locking and unlocking function). I can. Meanwhile, the application program may be stored in the memory 440, installed on the vehicle control device 400, and driven by the controller 410 to perform an operation (or function) of the vehicle control device.

일 실시예에 따르면, 상기 응용 프로그램은 네비게이션 기능을 수행하는 네비게이션 프로그램일 수 있다.According to an embodiment, the application program may be a navigation program that performs a navigation function.

뿐만 아니라 메모리(440)는 적어도 한 명 이상의 사용자에 관련된 정보들을 저장할 수 있다. 여기서 사용자 관련 정보라는 것은, 해당 사용자의 인증 정보 및 해당 사용자가 직접 설정하거나 또는 사용자의 생체 정보에 근거하여 적합하게 설정된 각종 차량의 설정 상태에 대한 정보일 수 있다. 예를 들어 특정 사용자가 직접 설정한 차량의 내부 온도나 습도, 또는 사용자의 운전 습관에 따른 설정 정보 등이 될 수 있다. 또는 해당 사용자의 주행 경로 기록 등이 이러한 정보가 될 수도 있다. 또한 인증 정보는, 사용자가 미리 설정한 패스워드(password)나, 패턴(pattern)에 관한 정보일 수도 있으며, 또는 지문이나 홍채 인식 정보와 같은 사용자의 생체 정보에 근거한 정보일 수도 있다. 또는 상기 인증 정보는 사용자의 제스처(gesture)에 관련된 정보일 수도 있다. In addition, the memory 440 may store information related to at least one or more users. Here, the user-related information may be information on the authentication information of the corresponding user and the setting states of various vehicles that are directly set by the user or appropriately set based on the user's biometric information. For example, it may be an internal temperature or humidity of a vehicle directly set by a specific user, or setting information according to a user's driving habit. Alternatively, such information may be a record of the user's driving route. In addition, the authentication information may be information about a password or pattern previously set by the user, or may be information based on the user's biometric information such as fingerprint or iris recognition information. Alternatively, the authentication information may be information related to a user's gesture.

일 실시예에 따르면, 상기 사용자의 생체 정보는 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 획득되는 것일 수 있다.According to an embodiment, the user's biometric information may be obtained by the mobile terminal 100 or the wearable device 200 or 200 ′.

이 경우, 상기 웨어러블 디바이스는, 차량에 설치된 차량 제어 장치와 통신을 수행하는 통신부 및 상기 특정 신체 부위(예를 들어, 손목 부위)로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부를 더 포함할 수 있다.In this case, the wearable device further includes a communication unit that performs communication with a vehicle control device installed in the vehicle, and a biometric information acquisition unit that acquires biometric information for the user from the specific body part (eg, wrist part). I can.

여기서, 상기 통신부는 상기 획득된 사용자의 생체 정보를 상기 차량 제어 장치(400)로 전송할 수 있고, 상기 저장부(440)는 상기 사용자의 생체 정보를 저장할 수 있다.Here, the communication unit may transmit the acquired biometric information of the user to the vehicle control device 400, and the storage unit 440 may store the user's biometric information.

상기 생체 정보는, 상기 사용자에 대한 심박수, 체지방, 혈압, 혈당, 얼굴 모양, 지문, 뇌파 및 홍채에 대한 정보 중 적어도 하나인 것일 수 있다.The biometric information may be at least one of information about the user's heart rate, body fat, blood pressure, blood sugar, face shape, fingerprint, brain waves, and iris.

또한, 메모리(440)는 제어부(410)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 사용자 인증 정보, 운전 환경 설정 정보)을 임시 저장할 수도 있다. 상기 메모리(440)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.Further, the memory 440 may store a program for the operation of the controller 410 and may temporarily store input/output data (eg, user authentication information, driving environment setting information). The memory 440 may store data on vibrations and sounds of various patterns output when a touch input on the touch screen is performed.

이러한 메모리(440)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광 디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량 제어 장치(400)는 인터넷(internet)상에서 상기 메모리(440)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 440 is a flash memory type, a hard disk type, a solid state disk type, an SDD type, a multimedia card micro type. type), card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable (EEPROM) read-only memory), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk. The vehicle control device 400 may be operated in connection with a web storage that performs a storage function of the memory 440 over the Internet.

한편, 제어부(410)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 차량 제어 장치(400)의 전반적인 동작을 제어한다. 제어부(410)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(440)에 저장된 응용 프로그램을 구동함으로써, 차량의 구동을 제어할 수 있다. 또한, 제어부(410)는 메모리(440)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(410)는 상기 응용 프로그램의 구동을 위하여, 차량 제어 장치(400)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.Meanwhile, the controller 410 controls the general operation of the vehicle control device 400 in addition to the operation related to the application program. The controller 410 may control the driving of the vehicle by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 440. In addition, the controller 410 may control at least some of the constituent elements discussed with FIG. 1A in order to drive the application program stored in the memory 440. Further, the control unit 410 may operate by combining at least two or more of the components included in the vehicle control apparatus 400 to drive the application program.

한편, 제어부(410)는 사용자로부터 인증 정보를 입력받을 수 있으며, 입력된 인증 정보에 근거하여 상기 사용자가 인증된 사용자인지 여부를 판단할 수 있다. 여기서 상기 인증 정보는, 사용자의 지문이나, 기 설정된 패턴의 인식 정보일 수 있다. 또는 상기 인증 정보는, 사용자의 홍채 인식 정보 또는 사용자의 특정한 제스처와 관련된 정보일 수 있다. 예를 들어 제어부(410)는 사용자에 의해 차량의 외부 또는 내부의 표면 일부분에 가해지는 복수의 두드림(예를 들어 탭(Tab) 또는 노크(Knock))의 패턴을 인식한 정보, 또는 차량의 외부 또는 내부의 일부분의 표면, 운전석 또는 보조석의 윈도우 및 윈드 쉴드 글래스 등에 형성된 터치스크린 영역을 통해 입력될 수 있는 지문 인식 정보를 상기 인증 정보로서 입력받을 수 있다. 또는 제어부(410)는 감지부(430)에 구비된 포토 센서나 카메라 등을 이용하여 차량의 내부 또는 외부에서 이루어지는 사용자의 제스처를 인식하거나, 또는 사용자의 홍채 정보를 인식할 수도 있다. Meanwhile, the controller 410 may receive authentication information from a user, and may determine whether the user is an authenticated user based on the input authentication information. Here, the authentication information may be a user's fingerprint or recognition information of a preset pattern. Alternatively, the authentication information may be information related to a user's iris recognition or a user's specific gesture. For example, the controller 410 may be configured to recognize a pattern of a plurality of tapping (for example, a tab or a knock) applied to a part of the surface of the vehicle outside or inside the vehicle, or the outside of the vehicle. Alternatively, fingerprint identification information that can be inputted through a touch screen area formed on a surface of a portion of the interior, a window of a driver's seat or an auxiliary seat, and a windshield glass may be input as the authentication information. Alternatively, the controller 410 may recognize a user's gesture made inside or outside the vehicle using a photo sensor or a camera provided in the sensing unit 430, or may recognize the user's iris information.

그리고 제어부(410)는, 인증된 사용자에 한하여 차량의 잠금 상태가 해제되도록 할 수 있다. 따라서 상기 차량 제어 장치(400)는. 사용자가 키를 사용하지 않고서도, 차량의 도어를 오픈하거나, 트렁크 등을 열수 있도록 할 수 있다. 또는 기 설정된 사용자의 인증 정보를 이용하여 차량의 시동이 걸리도록 할 수도 있다. 또는 이와 반대로 차량의 상태를 잠금 상태로 전환되도록 할 수도 있다. 즉, 제어부(410)는 인증된 사용자의 선택에 근거하여 인증된 사용자의 인증 정보가 다시 입력될 때까지 차량의 잠금 상태가 유지되도록 할 수도 있다. 한편 제어부(410)는 차량의 잠금이 해제된 상태에서 차량의 외부를 통해 사용자의 인증 정보가 입력되면, 이에 근거하여 차량의 상태를 잠금 상태로 전환할 수 있다. 그리고 차량이 잠금 상태로 전환된 상태에서 다시 한번 동일한 인증 정보가 입력되면 차량을 다시 잠금 해제 상태로 전환되도록 할 수도 있다. In addition, the controller 410 may allow only the authenticated user to release the locked state of the vehicle. Therefore, the vehicle control device 400. It is possible to allow the user to open the door of the vehicle or open the trunk without using the key. Alternatively, the vehicle may be started using the preset user's authentication information. Alternatively, on the contrary, the state of the vehicle may be changed to a locked state. That is, the controller 410 may maintain the locked state of the vehicle until authentication information of the authenticated user is input again based on the selection of the authenticated user. Meanwhile, when the user's authentication information is input through the outside of the vehicle while the vehicle is unlocked, the controller 410 may switch the vehicle state to the locked state based on this. In addition, when the same authentication information is input once again while the vehicle is switched to the locked state, the vehicle may be switched to the unlocked state again.

제어부(410)는 이러한 사용자의 인증 정보를 입력받기 위해 차량의 일부에 터치스크린이 형성되도록 할 수 있다. 제어부(410)는 상기 형성된 터치스크린을 통해 사용자의 지문 정보를 입력받거나 패턴 정보를 입력받을 수 있으며, 또는 기 설정된 패스워드를 입력받을 수도 있다. 이를 위해 제어부(410)는 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(410)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 차량 제어 장치(400) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.The controller 410 may allow a touch screen to be formed on a part of the vehicle to receive such user authentication information. The controller 410 may receive user's fingerprint information or pattern information through the formed touch screen, or may receive a preset password. To this end, the controller 410 may perform a pattern recognition process capable of recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively. Further, the controller 410 may control any one or a combination of a plurality of components described above in order to implement various embodiments described below on the vehicle control apparatus 400 according to the present invention.

또한 제어부(410)는, 상기 차량의 일부분에 형성된 터치스크린에서 각종 화상 정보가 표시되도록 할 수도 있다. 예를 들어 제어부(410)는 사용자의 인증을 위한 지문 입력 영역 또는 패턴 입력을 위한 그래픽 객체들이 상기 터치스크린 상에 표시되도록 할 수 있으며, 사용자의 인증 결과 또는 현재 인증된 사용자와 관련된 정보 등이 표시되도록 할 수도 있다. Also, the controller 410 may display various image information on a touch screen formed on a part of the vehicle. For example, the control unit 410 may display a fingerprint input area for user authentication or graphic objects for pattern input on the touch screen, and display the user's authentication result or information related to the currently authenticated user. You can do it.

그리고, 제어부(410)는 인증된 사용자의 경우, 해당 사용자에 대응되는 사용자 관련 정보를 이용하여 차량의 설정 상태가 변경되도록 할 수 있다. 예를 들어 제어부(410)는 제1 구동부(421)를 제어하여, 상기 인증된 사용자의 정보에 근거하여 운전석 등의 시트 높이나 등받이의 각도 등을 조절할 수 있으며, 차량 내부의 온도나 습도를 조절할 수도 있다. 또는 제어부(410)는 상기 인증된 사용자에 대응되는 정보에 근거하여 운전석 및 보조석 윈도우의 열림 정도, 또는 사이드 미러의 각도 등을 조절할 수 있으며, 또는 핸들의 높이 등을 조절할 수도 있다. In addition, in the case of an authenticated user, the controller 410 may change the setting state of the vehicle using user-related information corresponding to the user. For example, the control unit 410 may control the first driving unit 421 to adjust the height of the seat of the driver's seat or the angle of the backrest based on the authenticated user's information, and may adjust the temperature or humidity inside the vehicle. have. Alternatively, the controller 410 may adjust the degree of opening of the driver's seat and the passenger's seat window, the angle of the side mirror, etc., based on the information corresponding to the authenticated user, or the height of the handle.

뿐만 아니라, 제어부(410)는 차량의 각종 동작 모드가 인증된 사용자에 따라 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 핸들의 파워 스티어링(Power steering) 장치의 동작 모드를 변경하여 인증된 사용자가 선호하는 어느 하나의 동작 모드(예를 들어 노말(normal) 모드 또는 스포츠(sports) 모드)가 선택되도록 할 수도 있다. 또는 제어부(110)는 기어의 변속 방식에 있어서 수동 변속 방식 또는 자동 변속 방식 중 사용자가 선호하는 어느 하나의 방식으로 기어 변속 방식이 설정되도록 할 수도 있다. In addition, the control unit 410 may change various operation modes of the vehicle according to the authenticated user. For example, the control unit 410 changes the operation mode of the power steering device of the steering wheel to change the operation mode of the authenticated user to one operation mode (for example, a normal mode or a sports mode). May be selected. Alternatively, the control unit 110 may set the gear shifting method to one of a manual shifting method or an automatic shifting method that the user prefers.

또한 제어부(410)는 이러한 물리적인 설정 변경뿐만 아니라 소프트웨어적인 설정 변경을 수행할 수도 있다. 예를 들어 제어부(410)는, 인증된 사용자가 차량에 탑승한 경우, 해당 사용자가 선호하는 음악 또는 현재 인증된 사용자가 청취하던 음악 리스트를 자동으로 선택할 수 있다. 또는 제어부(410)는 현재 인증된 사용자가 주로 청취하는 라디오 방송국의 채널이 자동으로 선택되도록 할 수도 있다. In addition, the controller 410 may perform not only such physical setting change but also software setting change. For example, when an authenticated user boards a vehicle, the controller 410 may automatically select music preferred by the user or a music list currently listened to by the authenticated user. Alternatively, the control unit 410 may automatically select a channel of a radio station that the currently authenticated user mainly listens to.

또한 제어부(410)는 인증된 사용자가 차량에 탑승한 시각에 근거하여 다양한 차량의 설정이 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 인증된 사용자가 차량에 탑승한, 즉 사용자가 인증된 시각 및 인증된 사용자의 주행 기록에 근거하여, 해당 사용자가 해당 시각에 주로 향하는 목적지를 분석할 수 있다. 즉, 주로 사용자가 저녁 8시 사이에서 9시 사이에 퇴근하여 "집"으로 향하는 주행 습관을 가지고 있는 경우, 제어부(410)는 이러한 사용자의 주행 기록에 근거하여, 저녁 8시 부터 9시 사이에 사용자가 차량에 탑승하는 경우, 목적지를 "집"으로 자동 설정하고 해당 경로를 기 구비된 네비게이션의 디스플레이부에 표시할 수도 있다. In addition, the controller 410 may change various vehicle settings based on the time when the authenticated user boards the vehicle. For example, the control unit 410 may analyze a destination that the user mainly heads to at the time based on the authenticated time and the authenticated user's driving record when the authenticated user boards the vehicle. That is, if the user mainly has a driving habit of going home from work between 8 pm and 9 pm, the control unit 410 is based on the driving record of the user, between 8 pm and 9 pm. When the user boards the vehicle, the destination may be automatically set to "home" and the corresponding route may be displayed on the display unit of the already equipped navigation system.

이처럼 본 발명의 실시 예와 관련된 차량 제어 장치(400)의 제어부(410)는 사용자가 인증 정보를 이용하여 차량을 제어할 수 있도록 함으로써 사용자가 보다 쉽고 편하게 차량에 탑승하고 차량을 이용할 수 있도록 한다. 뿐만 아니라 본 발명의 실시 예에 따른 차량 제어 장치(400)의 제어부(410)는, 사용자가 인증되면, 인증된 사용자에 근거하여 차량의 각종 환경 설정을 조정함으로써, 사용자가 선호하는 운전 환경이 자동으로 제공되어 질 수 있도록 한다. As described above, the control unit 410 of the vehicle control apparatus 400 according to the exemplary embodiment of the present invention enables the user to control the vehicle using authentication information, so that the user can board the vehicle and use the vehicle more easily and conveniently. In addition, the control unit 410 of the vehicle control device 400 according to an embodiment of the present invention, when a user is authenticated, adjusts various environment settings of the vehicle based on the authenticated user, so that the user's preferred driving environment is automatically adjusted. So that it can be provided.

또한, 사용자가 차량에 탑승하지 않았을 때뿐만 아니라, 사용자가 차량에 탑승한 경우에도, 제어부(410)는 사용자의 선택에 근거하여 상기 차량의 물리적인 설정 변경 또는 소프트웨어적인 설정 변경이 손쉽게 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 차량의 내부, 즉 예를 들어 콘솔 박스나 기어 박스 또는 운전석이나 보조석의 윈도우에 가해지는 복수의 두드림(탭(Tab))에 근거하여 적어도 하나의 상기 물리적인 설정 변경 또는 소프트웨어적인 설정 변경이 이루어지도록 할 수도 있다. 일 예로, 사용자가 차량의 핸들 부분에 복수의 탭을 가하는 경우, 제어부(410)는 이를 인식하여 핸들의 높이가 조정되도록 하거나 또는 파워 스티어링 장치의 동작 모드를 다른 모드로 변경되도록 할 수도 있다. In addition, not only when the user is not in the vehicle, but also when the user is in the vehicle, the control unit 410 makes it easy to change the physical setting of the vehicle or change the software setting based on the user's selection. May be. For example, the control unit 410 changes at least one physical setting based on a plurality of taps (Tabs) applied to the interior of the vehicle, for example, a console box, a gear box, or a window of a driver's seat or an assistant seat. Alternatively, you can change the settings in software. As an example, when a user applies a plurality of tabs to a steering wheel portion of a vehicle, the controller 410 may recognize this and adjust the height of the steering wheel or change an operation mode of the power steering device to another mode.

한편, 제어부(410)는 이러한 복수의 탭 뿐만 아니라, 사용자의 제스처에 근거하여서도 상기한 물리적 또는 소프트웨어적인 설정 상태가 변경되도록 할 수 있다. 예를 들어 제어부(410)는 차량 내부에 구비된 카메라나 포토 센서 또는 레이저 센서나 적외선 센서를 이용하여 차량에 탑승한 운전자 또는 보조자의 움직임을 감지할 수 있다. 그리고 운전자 또는 보조자의 움직임에 근거하여 특정 기능이 수행되거나 현재 설정된 상태가 조정되도록 할 수도 있다. 일 예로 만약 보조석에 앉은 탑승자가, 보조석 윈도우 근처에서 손을 위에서 아래로 내리는 제스처를 취하는 경우, 상기 보조석 윈도우는 탑승자의 상기 제스처에 근거하여 그 열림 정도가 조정될 수 있다. 또는 제어부(410)는 운전석 또는 탑승자의 제스처에 근거하여 특정 제스처(예를 들어 손가락을 튕기거나 박수를 치는 제스처)가 감지되는 경우, 기 설정된 특정 음악 데이터가 재생되도록 할 수도 있다. Meanwhile, the controller 410 may change the physical or software setting state based on a user's gesture as well as the plurality of taps. For example, the controller 410 may detect a movement of a driver or assistant in the vehicle using a camera, a photo sensor, a laser sensor, or an infrared sensor provided in the vehicle. In addition, a specific function may be performed or a currently set state may be adjusted based on the movement of the driver or assistant. For example, if an occupant seated in the passenger seat makes a gesture of lowering his hand from the top to the bottom near the passenger seat window, the degree of opening of the passenger seat window may be adjusted based on the gesture of the occupant. Alternatively, when a specific gesture (for example, a gesture of flicking a finger or clapping) is detected based on a gesture of a driver's seat or a passenger, the control unit 410 may play preset specific music data.

한편, 상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 차량 제어 장치(400)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 차량 제어 장치(400)의 동작, 제어, 또는 제어방법은 상기 메모리(440)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 차량 제어 장치(400) 상에서 구현될 수 있다. Meanwhile, at least some of the respective components may operate in cooperation with each other to implement the operation, control, or control method of the vehicle control apparatus 400 according to various embodiments described below. In addition, the operation, control, or control method of the vehicle control device 400 may be implemented on the vehicle control device 400 by driving at least one application program stored in the memory 440.

이하에서는, 위에서 살펴본 차량 제어 장치(400)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 6A를 참조하여 보다 구체적으로 살펴본다.Hereinafter, before looking at various embodiments implemented through the vehicle control apparatus 400 described above, the above-listed components will be described in more detail with reference to FIG. 6A.

감지부(430)는 차량 제어 장치 내 정보, 차량 제어 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(410)는 이러한 센싱 신호에 기초하여, 차량 제어 장치(400)의 구동 또는 동작을 제어하거나, 차량 제어 장치(400)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 감지부(430)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.The sensing unit 430 senses at least one of information in the vehicle control device, surrounding environment information surrounding the vehicle control device, and user information, and generates a sensing signal corresponding thereto. The controller 410 may control the driving or operation of the vehicle control device 400 or perform data processing, functions, or operations related to an application program installed in the vehicle control device 400 based on such a sensing signal. Representative sensors among various sensors that may be included in the sensing unit 430 will be described in more detail.

먼저, 근접 센서(432)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(432)는 차량 내부 또는 외부의 각 영역 또는 상기 터치스크린의 근처에 배치될 수 있다. First, the proximity sensor 432 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity by using the force of an electromagnetic field or infrared rays without mechanical contact. The proximity sensor 432 may be disposed in each area inside or outside the vehicle or near the touch screen.

근접 센서(432)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치스크린이 정전식인 경우에, 근접 센서(432)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the proximity sensor 432 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, an infrared proximity sensor, and the like. When the touch screen is a capacitive type, the proximity sensor 432 may be configured to detect the proximity of the object by a change in the electric field according to the proximity of the conductive object. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.

한편, 설명의 편의를 위해, 터치스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(432)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(410)는 위와 같이, 근접 센서(432)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치스크린 상에 출력시킬 수 있다. 나아가, 제어부(410)는, 터치스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 차량 제어 장치(400)를 제어할 수도 있다.On the other hand, for convenience of explanation, the action of allowing an object to be recognized as being positioned on the touch screen without contacting an object on the touch screen is referred to as "proximity touch", and the touch The act of actually touching an object on the screen is referred to as "contact touch". A position at which an object is touched in proximity on the touch screen means a position at which the object is vertically corresponding to the touch screen when the object is touched in proximity. The proximity sensor 432 may detect a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, etc.). have. Meanwhile, as above, the control unit 410 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern sensed through the proximity sensor 432, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Further, the controller 410 may control the vehicle control device 400 to process different operations or data (or information) according to whether the touch to the same point on the touch screen is a proximity touch or a touch touch. have.

터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러가지 터치방식 중 적어도 하나를 이용하여 터치스크린(또는 디스플레이부(451))에 가해지는 터치(또는 터치 입력)를 감지한다.The touch sensor detects a touch (or touch input) applied to the touch screen (or the display unit 451) by using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. do.

일 예로서, 터치 센서는, 터치스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. As an example, the touch sensor may be configured to convert a change in pressure applied to a specific portion of the touch screen or a capacitance generated in a specific portion into an electrical input signal. The touch sensor may be configured to detect a location, area, pressure when touched, capacitance when touched, etc. of a touch object applied to the touch screen on the touch sensor. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen, a stylus pen, or a pointer.

이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(410)로 전송한다. 이로써, 제어부(110)는 디스플레이부(451)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(410)와 별도의 구성요소일 수 있고, 제어부(410) 자체일 수 있다. In this way, when there is a touch input to the touch sensor, the signal(s) corresponding thereto is transmitted to the touch controller. The touch controller processes the signal(s) and then transmits the corresponding data to the controller 410. As a result, the control unit 110 can know which area of the display unit 451 has been touched. Here, the touch controller may be a separate component from the controller 410 or may be the controller 410 itself.

한편, 제어부(410)는, 터치스크린(또는 터치스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 차량 제어 장치(400)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the controller 410 may perform different controls or perform the same control according to the type of the touch object by touching the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different controls or the same control according to the type of the touch object may be determined according to the current operating state of the vehicle control device 400 or an application program being executed.

한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.Meanwhile, the touch sensor and the proximity sensor described above are independently or in combination, and a short (or tap) touch, a long touch, a multi touch, and a drag touch on the touch screen. ), flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. You can sense the touch.

초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(410)는 광센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.The ultrasonic sensor may recognize location information of a sensing target by using ultrasonic waves. Meanwhile, the control unit 410 may calculate the location of the wave generating source through information sensed from the optical sensor and the plurality of ultrasonic sensors. The location of the wave generator may be calculated by using a property that the light is much faster than the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time that the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generator may be calculated using a time difference between a time when the ultrasonic wave arrives using light as a reference signal.

한편, 감지부(430)는 사용자의 제스처를 인식하기 위해, 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함할 수 있다. Meanwhile, the sensing unit 430 may include at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor to recognize a user's gesture.

카메라(421)와 레이저 센서는 서로 조합되어, 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The camera 421 and the laser sensor are combined with each other to detect a touch of a sensing target. The photosensor may be stacked on the display device, and the photosensor is configured to scan a motion of a sensing object close to the touch screen. More specifically, the photo sensor scans the contents placed on the photo sensor by mounting a photo diode and a transistor (TR) in a row/column and using an electrical signal that changes according to the amount of light applied to the photo diode. That is, the photosensor calculates the coordinates of the sensing object according to the amount of light change, and through this, position information of the sensing object may be obtained.

디스플레이부(451)는 상술한 바와 같이 사용자의 인증 정보 입력과 관련된 다양한 화상 정보를 표시할 수 있다. 예를 들어 디스플레이부(451)는 터치스크린이 형성된 차량의 일부 영역에서, 사용자의 지문을 입력받기 위한 영역을 표시하는 그래픽 객체나, 패턴 정보를 입력받기 위한 그래픽 객체를 표시할 수 있다. 또는 디스플레이부(451)는 사용자 인증이 완료된 경우 사용자 인증 결과 및 현재 인증된 사용자와 관련된 정보를 표시할 수도 있다. 이러한 화상 정보들은 차량의 윈드 쉴드 글래스의 적어도 일부나 운전석 또는 보조석의 윈도우 등에 표시될 수 있으며, 이에 따라 본 발명의 실시 예에 따른 차량 제어 장치(400)가 구비되는 차량의 윈도우 또는 윈드 쉴드 글래스의 적어도 일부는, 사용자의 터치 입력을 감지할 수 있도록 전극 설계될 수 있다. As described above, the display unit 451 may display various image information related to the user's input of authentication information. For example, the display unit 451 may display a graphic object displaying an area for receiving a user's fingerprint or a graphic object for receiving pattern information in a partial area of a vehicle on which a touch screen is formed. Alternatively, when user authentication is completed, the display unit 451 may display a user authentication result and information related to a currently authenticated user. Such image information may be displayed on at least a part of the windshield glass of the vehicle or the window of the driver's seat or the passenger seat, and thus, the window of the vehicle or the windshield glass provided with the vehicle control device 400 according to an embodiment of the present invention. At least some of the electrodes may be designed to detect a user's touch input.

또한 이러한 디스플레이부(451)는, 상기 윈드 쉴드 글래스 및 윈도우의 외부면 뿐만 아니라 내부면에도 형성될 수 있다. 그리고 이처럼 내부면에 형성되는 디스플레이부(451)는 차량 제어 장치(400)에서 처리되는 정보를 표시(출력)할 수도 있다. 예를 들어, 상기 내부면에 형성되는 디스플레이부(451)에 표시되는 화면 정보는, 차량 제어 장치(400)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보일 수 있다. In addition, the display unit 451 may be formed not only on the outer surface of the windshield glass and the window, but also on the inner surface. In addition, the display unit 451 formed on the inner surface may display (output) information processed by the vehicle control apparatus 400. For example, the screen information displayed on the display unit 451 formed on the inner surface is information on the execution screen of an application program driven by the vehicle control device 400, or a UI (User Interface) according to the execution screen information. , May be GUI (Graphic User Interface) information.

또한 상기 디스플레이부(451)는 상기 감지부(130)에 포함되어 구현될 수도 있다. 이러한 경우, 상기 디스플레이부(451)는 상기 감지부(430)의 감지 결과 및, 사용자 인증 정보의 매칭 결과 또는 상기 사용자의 고유 인증 정보의 일부(예를 들어 사용자의 이름 등)를 표시할 수도 있다. In addition, the display unit 451 may be implemented by being included in the sensing unit 130. In this case, the display unit 451 may display a detection result of the detection unit 430, a matching result of user authentication information, or a part of the user's unique authentication information (for example, a user's name, etc.). .

음향 출력부(452)는 메모리(440)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 차량 제어 장치(400)에서 수행되는 기능(예를 들어, 사용자 인증 확인음, 사용자 인증 안내음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(452)에는 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output unit 452 may output audio data stored in the memory 440. The sound output unit 152 also outputs an sound signal related to a function (eg, a user authentication confirmation sound, a user authentication guide sound, etc.) performed by the vehicle control device 400. The sound output unit 452 may include a speaker, a buzzer, and the like.

한편, 본 명세서에 개시된 실시 예에 따른 차량 제어 장치(400)의 출력부(450)는 햅틱 모듈(haptic module)(453)을 포함할 수 있다. 햅틱 모듈(453)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(453)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 제어부(410)는 차량의 외부 프레임이나 내부 프레임 또는 글래스 형태의 윈도우등에 구현된 터치스크린에 사용자의 터치 입력이 감지되는 경우 상기 햅틱 모듈(453)을 이용하여 촉각 정보가 출력되도록 할 수 있고, 이에 따라 사용자는, 촉각 정보를 이용하여 자신이 입력한 인증 정보가 올바르게 입력되었는지 여부를 확인할 수도 있다. Meanwhile, the output unit 450 of the vehicle control device 400 according to the exemplary embodiment disclosed in the present specification may include a haptic module 453. The haptic module 453 generates various tactile effects that a user can feel. A typical example of the tactile effect generated by the haptic module 453 may be vibration. When a user's touch input is sensed on a touch screen implemented in an external frame, an internal frame, or a glass-shaped window of the vehicle, the controller 410 may output tactile information using the haptic module 453. Accordingly, the user may check whether the authentication information inputted by the user is correctly input using the tactile information.

이러한 햅틱 모듈(453)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(453)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The intensity and pattern of the vibration generated by the haptic module 453 may be controlled by a user's selection or setting of a controller. For example, the haptic module 453 may synthesize and output different vibrations or sequentially output them.

햅틱 모듈(453)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 453 is used for stimuli such as an arrangement of pins vertically moving with respect to the contact skin surface, blowing force or suction force of air through the injection or inlet, grazing against the skin surface, contact of electrodes, and electrostatic force. It can generate various tactile effects, such as the effect by the effect and the effect by reproducing the feeling of cooling and warming using an endothermic or heat generating element.

햅틱 모듈(453)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(453)은 차량 제어 장치(400)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 453 may not only deliver a tactile effect through direct contact, but may also be implemented so that a user can feel the tactile effect through muscle sensations such as a finger or an arm. Two or more haptic modules 453 may be provided depending on the configuration aspect of the vehicle control device 400.

한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. Meanwhile, hereinafter, various embodiments may be implemented in a recording medium that can be read by a computer or a similar device using, for example, software, hardware, or a combination thereof.

한편, 본 명세서에 개시된 실시 예에 따른 차량 제어 장치(400)의 감지부(430)는 상기 바디부에 장착되어 사용자 신체의 일부와 접촉하도록 이루어지는 본체 및, 사용자가 상기 본체를 두드리는 탭(tab) 또는 탭 제스처(tab gesture)를 감지하기 위한 탭 감지부(433)를 더 구비할 수 있다. 여기서 상기 차량 제어 장치(400)의 탭 감지부(433)에서 감지되는 탭은 사용자의 인증 정보를 입력하기 위한 수단으로, 또는 사용자가 차량에 탑승한 경우 차량 제어 장치(400)의 각종 기능을 제어하기 위한 수단으로 사용될 수 있다. 그리고 이러한 탭은, 손가락 등의 탭 대상체로 차량 제어 장치(400) 본체 또는 물체를 가볍게 치는 동작, 또는 탭 대상체를 차량 제어 장치(400) 본체 또는 물체에 가볍게 접촉시키는 동작으로 이해되어 질 수 있다. 여기서 상기 감지부(430)의 본체는, 차량의 외부 프레임과 내부 프레임 및 윈도우나 윈드 쉴드 글래스를 포함하는 차량의 바디(body)부에 형성될 수 있다.Meanwhile, the sensing unit 430 of the vehicle control apparatus 400 according to the exemplary embodiment disclosed in the present specification includes a main body mounted on the body to contact a part of the user's body, and a tab through which the user taps the main body. Alternatively, a tap detection unit 433 for detecting a tap gesture may be further provided. Here, the tap detected by the tap detection unit 433 of the vehicle control device 400 is a means for inputting user's authentication information, or controls various functions of the vehicle control device 400 when the user boards the vehicle. It can be used as a means to do. In addition, such a tap may be understood as an operation of lightly tapping the main body of the vehicle control apparatus 400 or an object with a tap object such as a finger, or an operation of lightly touching the main body or an object of the vehicle control apparatus 400 with the tab object. Here, the body of the sensing unit 430 may be formed on a body of a vehicle including an outer frame and an inner frame of the vehicle, and a window or windshield glass.

한편, 이러한 탭을 인가하는 탭 대상체는, 차량 제어 장치(400) 본체 또는 물체에 외력을 가할 수 있는 사물일 수 있으며, 예를 들어, 손가락, 스타일러스 펜(stylus pen), 펜(pen), 포인터, 주먹 등이 될 수 있다. 한편, 상기 탭 대상체는, 반드시 본 발명에 따른 차량 제어 장치(400)에 터치입력을 가할 수 있는 사물에 제한되지 않고, 차량 제어 장치(400) 본체 또는 물체에 외력을 가할 수 있는 사물이기만 하면 그 종류가 무관하다. Meanwhile, the tap object to which such a tap is applied may be a body of the vehicle control device 400 or an object capable of applying an external force to an object, for example, a finger, a stylus pen, a pen, or a pointer. , Fists, etc. On the other hand, the tap object is not necessarily limited to an object that can apply a touch input to the vehicle control device 400 according to the present invention, and as long as it is an object that can apply an external force to the body of the vehicle control device 400 or an object, The kind is irrelevant.

한편, 상기 탭 제스처가 가해지는 물체는, 차량 제어 장치(400) 본체 및 차량 제어 장치(400) 위에 놓여진 물체 중 적어도 하나를 포함할 수 있다. Meanwhile, the object to which the tap gesture is applied may include at least one of a main body of the vehicle control device 400 and an object placed on the vehicle control device 400.

한편, 상기 탭 또는 탭 제스처는 탭 감지부(433)에 포함된 가속도 센서 및 터치 센서 중 적어도 하나에 의하여 감지될 수 있다. 여기에서 가속도 센서는, 차량 제어 장치(400) 본체의 가속도, 진동, 충격 등의 동적 힘을 측정하는 것이 가능한 센서이다.Meanwhile, the tap or tap gesture may be detected by at least one of an acceleration sensor and a touch sensor included in the tap detection unit 433. Here, the acceleration sensor is a sensor capable of measuring dynamic forces such as acceleration, vibration, and impact of the vehicle control device 400 body.

즉, 가속도 센서는 탭 제스처에 의해 발생하는 차량 제어 장치(400) 본체의 진동(또는 움직임)을 감지하여, 물체에 대하여 탭이 가해졌는지를 감지할 수 있다. 따라서 상기 가속도 센서는, 차량 제어 장치(400) 본체에 대한 탭을 감지하거나, 차량 제어 장치(400) 본체에 움직임 또는 진동이 발생했는지를 감지할 수 있을 만큼 차량 제어 장치(400) 본체와 가깝게 위치하는 물체가 탭되는 것을 감지할 수 있다.That is, the acceleration sensor may detect vibration (or movement) of the main body of the vehicle control apparatus 400 generated by a tap gesture, and detect whether a tap is applied to an object. Therefore, the acceleration sensor is positioned close to the main body of the vehicle control apparatus 400 so as to detect a tap on the main body of the vehicle control apparatus 400 or detect whether movement or vibration has occurred in the main body of the vehicle control apparatus 400. It can detect that an object is tapped.

이와 같이, 가속도 센서는 차량 제어 장치(400) 본체에 움직임 또는 진동이 감지하는 것이 가능하기만 하면, 상기 탭이 차량 제어 장치(400) 본체에 인가되는 경우뿐만 아니라, 상기 본체를 벗어난 지점에 인가되는 경우에도 상기 탭을 감지할 수 있다.In this way, the acceleration sensor is applied to a point outside the main body as long as it is possible to detect motion or vibration in the main body of the vehicle control device 400, as long as the tab is applied to the main body of the vehicle control device 400. Even if it is, the tap can be detected.

본 발명에 따른 차량 제어 장치(100)에서는, 차량 제어 장치(400) 본체에 대한 탭을 감지하기 위하여, 가속도 센서 및 터치 센서 중 어느 하나만을 사용하거나, 가속도 센서 및 터치 센서를 순차적으로 사용하거나, 또는 가속도 센서 및 터치 센서를 동시에 사용할 수 있다. 한편, 탭을 감지하기 위하여, 가속도 센서만을 사용하는 모드는, 제1 모드, 터치 센서를 사용하는 모드는 제2 모드로 명명될 수 있고, 가속도 센서 및 터치 센서를 모두 활용(동시에 또는 순차적으로 사용 가능)하는 모드는 제3 모드 또는 하이브리드(hybrid) 모드로 명명될 수 있다.In the vehicle control apparatus 100 according to the present invention, in order to detect a tap on the vehicle control apparatus 400 body, only one of an acceleration sensor and a touch sensor is used, an acceleration sensor and a touch sensor are sequentially used, or Alternatively, an acceleration sensor and a touch sensor can be used at the same time. On the other hand, in order to detect a tap, a mode using only the acceleration sensor may be called a first mode, and a mode using a touch sensor may be called a second mode, and both the acceleration sensor and the touch sensor are used (simultaneously or sequentially). Possible) mode may be referred to as a third mode or a hybrid mode.

한편, 터치 센서를 통해 탭을 감지하는 경우, 탭이 감지되는 위치를 보다 정확하게 파악하는 것이 가능할 수 있다.Meanwhile, when a tap is sensed through a touch sensor, it may be possible to more accurately identify a position at which the tap is sensed.

한편, 일 실시예에 따른 차량 제어 장치(400)에서는, 가속도 센서 또는 터치 센서를 통해 상기 탭을 감지하기 위하여, 차량 제어 장치(400)의 디스플레이부(451)가 비활성화 상태에서도 최소한의 전류 또는 전력이 소모되는 특정 모드로 동작할 수 있다. 이러한 특정 모드는 "도즈 모드(또는 Doze mode)"라고 명명 될 수 있다. Meanwhile, in the vehicle control device 400 according to an embodiment, in order to detect the tap through an acceleration sensor or a touch sensor, the display unit 451 of the vehicle control device 400 is You can operate in a specific mode where it is consumed. This specific mode may be referred to as "doze mode".

예를 들어, 도즈 모드는, 터치 센서와 디스플레이부(451)가 상호 레이어 구조를 이루는 터치스크린 구조에서, 상기 디스플레이부(451)에서 화면을 출력하기 위한 발광소자가 오프(off)되고, 상기 터치 센서는 온(on) 상태를 유지하는 상태일 수 있다. 또는 상기 도즈 모드는, 상기 디스플레이부(451)가 오프되고, 상기 가속도 센서가 온 된 상태를 유지하는 모드일 수 있다. 또는 상기 도즈 모드는 상기 디스플레이부(451)가 오프되고, 상기 터치 센서 및 가속도 센서가 모두 온 된 상태를 유지하는 모드일 수 있다.For example, in the doze mode, in a touch screen structure in which a touch sensor and a display unit 451 form a mutual layer structure, a light emitting device for outputting a screen from the display unit 451 is turned off, and the touch The sensor may be in a state that maintains an on state. Alternatively, the dose mode may be a mode in which the display unit 451 is turned off and the acceleration sensor is kept on. Alternatively, the dose mode may be a mode in which the display unit 451 is turned off and both the touch sensor and the acceleration sensor are kept on.

따라서, 상기 도즈 모드 상태, 즉, 디스플레이부(451)가 오프된 상태(디스플레이부(451)가 비활성된 상태)에서, 사용자가 차량의 일부분에 형성된 터치스크린 상의 적어도 일 지점 또는 상기 차량 제어 장치(400) 본체의 특정 지점에 상기 탭을 가하는 경우, 온(on) 되어 있는 터치 센서 또는 가속도 센서 중 적어도 하나를 통해 사용자로부터 상기 탭이 가해졌음을 감지할 수 있다. Accordingly, in the doze mode state, that is, in a state in which the display unit 451 is turned off (the display unit 451 is inactive), the user at least one point on the touch screen formed on a part of the vehicle or the vehicle control device ( 400) When the tap is applied to a specific point of the body, it may be sensed that the tap has been applied by the user through at least one of an on touch sensor or an acceleration sensor.

또한 제어부(410)는, 사용자의 인증 정보를 입력하기 위한 수단으로서의 탭 또는 차량 제어 장치(400)의 기능을 제어하기 위한 수단으로서의 탭과 단순하게 외부의 임의의 물체가 충돌한 것을 구분하기 위해, 상기 차량의 일부에 형성된 터치스크린에 적어도 두 번 이상의 탭이 기준 시간 이내에 가해지는 경우에 한하여, 사용자의 인증 정보의 입력 또는 차량 제어 장치(400)의 제어를 목적으로 하는 "탭"이 감지되었다고 판단할 수 있다. 예를 들어, 제어부(410)는, 탭 감지부(433)의 감지 결과, 상기 차량의 일부분에 형성된 터치스크린에 한 번의 탭이 가해진 것으로 판단되는 경우, 상기 한 번의 탭을 사용자의 인증 정보를 입력받기 위한 것이 아니라 단지 외부의 임의의 물체 또는 인체가 충돌한 것으로 인식할 수도 있다. In addition, the control unit 410, in order to distinguish between a tap as a means for inputting user's authentication information or a tap as a means for controlling the function of the vehicle control device 400 and a simple collision of an external object, It is determined that a "tap" for the purpose of inputting user's authentication information or controlling the vehicle control device 400 is detected only when at least two taps are applied to the touch screen formed on a part of the vehicle within the reference time. can do. For example, when it is determined that a single tap has been applied to a touch screen formed on a part of the vehicle as a result of detection by the tap detection unit 433, the control unit 410 inputs the authentication information of the user through the single tap. It is not intended to be received, but may be recognized as a collision of an external object or human body.

따라서 제어부(410)는 탭 감지부(433)에 의해, 기준시간 이내에 연속적으로 가해지는 적어도 두 번 이상(또는 복수 번)의 탭이 감지된 경우에 한하여, 사용자의 인증 정보를 입력하기 위한 수단 또는 차량 제어 장치(400)의 기능을 제어하기 위한 수단으로서의 '탭'이 감지되었다고 판단할 수 있다. Therefore, the control unit 410 is a means for inputting user's authentication information only when at least two or more (or multiple) taps continuously applied within the reference time are detected by the tap detection unit 433 or It may be determined that a'tap' as a means for controlling the function of the vehicle control device 400 is detected.

즉, 탭 제스처들은 적어도 두 번 이상의 탭 제스처가 기준시간 이내에 연속적으로 감지되는 것을 의미할 수 있다. 따라서 이하에서는, "탭"이 감지되었다고 함은, 실질적으로 복수 회 차량 제어 장치(400)의 본체에 사용자의 손가락 또는 터치펜등의 물체가 두드려지는 것이 감지되었음을 의미할 수 있다.That is, tap gestures may mean that at least two tap gestures are continuously detected within a reference time. Therefore, in the following, when the "tap" is sensed, it may mean that an object such as a user's finger or a touch pen is actually tapped on the main body of the vehicle control apparatus 400 a plurality of times.

나아가, 제어부(410)는 상기 탭이, 상기 기준시간 이내에 감지되는 것뿐만이 아니라, 상기 탭이 사용자의 각각 다른 손가락에 의해 감지된 것인지 하나의 손가락에서 감지된 것인지 여부를 판단할 수도 있다. 예를 들어 제어부(410)는 차량의 기 설정된 일부 영역, 즉 차량의 윈도우나 윈드 쉴드 글래스의 일부 영역이나 A, B, C 필라 또는 차량의 선루프, 또는 차량 도어의 일부분이나, 차량 내부의 콘솔 박스나 기어 박스 등에서 상기 탭들이 감지된 경우, 상기 탭들이 가해진 부분에서 감지되는 지문을 이용하여 상기 탭들이 하나의 손가락을 통해 이루어진 것인지 또는 각각 다른 손가락을 통해 이루어진 것인지를 감지할 수 있다. 또는 제어부(410)는 탭 감지부(433)에 구비된 터치 센서 또는 가속도 센서 중 적어도 하나를 통해 상기 디스플레이부(451) 상에서 상기 탭들이 감지된 위치 또는 상기 탭들로 인해 발생된 가속도를 인식하여 상기 탭들이 하나의 손가락을 통해 이루어진 것인지 또는 각각 다른 손가락을 통해 이루어진 것인지를 감지할 수 있다.Furthermore, the controller 410 may determine whether the tap is detected not only within the reference time, but also whether the tap is detected by different fingers of the user or by one finger. For example, the control unit 410 may include a predetermined area of the vehicle, that is, a partial area of a window or windshield glass of a vehicle, a pillar A, B, C, or a sunroof of a vehicle, or a portion of a vehicle door, or a console inside the vehicle. When the tabs are detected in a box or a gear box, it is possible to detect whether the tabs are formed through one finger or through different fingers, using a fingerprint detected at a portion to which the tabs are applied. Alternatively, the control unit 410 recognizes the position at which the taps are sensed on the display unit 451 through at least one of a touch sensor or an acceleration sensor provided in the tap detection unit 433 or an acceleration generated by the taps, It is possible to detect whether the taps are made through one finger or each other.

더욱이 제어부(410)는 탭이 가해진 각도 및 거리, 또는 상기 지문이 인식된 방향등을 더 고려하여, 사용자가 상기 탭들을 한 손 또는 한 손가락을 통해 입력한 것인지 또는 양손 또는 적어도 두 개의 손가락을 통해 입력한 것인지 여부를 판단할 수 있다. Furthermore, the control unit 410 further considers the angle and distance to which the tap was applied, or the direction in which the fingerprint was recognized, and whether the user inputs the taps through one hand or one finger, or through both hands or at least two fingers. It is possible to determine whether it has been entered or not.

한편, 상기 탭들은 기준시간 내에서 연속적으로 감지되는 복수 회의 두드림을 의미할 수 있다. 여기에서, 기준시간은 매우 짧은 시간일 수 있으며, 예를 들어, 300ms 내지 2s 이내의 시간일 수 있다. Meanwhile, the taps may mean tapping a plurality of times continuously detected within a reference time. Here, the reference time may be a very short time, for example, it may be within 300 ms to 2 s.

이를 위하여, 탭 감지부(433)에 위해 차량 제어 장치(400) 본체가 처음 두드려진 것이 감지되면, 탭 감지부(433)는 상기 처음 두드림이 감지된 시간으로부터 기준시간 이내에 상기 처음 두드림에 이어 다음번 두드림이 있는지를 감지할 수 있다. 그리고 기준 시간 이내에 상기 다음 번 두드림이 감지되는 경우, 상기 탭 감지부(433) 또는 제어부(410)는 본 발명의 실시 예에 따라 사용자의 인증 정보의 입력 또는 차량 제어 장치(400)의 특정 기능을 제어하기 위한 탭이 감지된 것으로 판단할 수 있다. 이처럼 제어부(410)는, 제1 탭이 감지된 후, 소정 시간 이내에 제2 탭이 감지된 경우에만, "유효한 탭"으로 인식함으로써, 사용자가 인증 정보를 입력하기 위하여 또는 차량 제어 장치(400)를 제어하기 위하여 탭을 가한 것인지, 아니면 단지 사용자의 실수 또는 의도되지 않은 물체가 차량 외부 또는 내부에 충돌한 것인지를 구분할 수 있다.To this end, when the tap detection unit 433 detects that the main body of the vehicle control device 400 is first tapped, the tap detection unit 433 is the next time after the first tapping within a reference time from the time when the first tapping is detected. You can detect whether there is a tapping. And when the next tapping is detected within the reference time, the tap detection unit 433 or the control unit 410 performs input of user authentication information or a specific function of the vehicle control device 400 according to an embodiment of the present invention. It may be determined that a tap for controlling is detected. As described above, the control unit 410 recognizes as a "valid tap" only when the second tap is detected within a predetermined time after the first tap is detected, so that the user can input authentication information or the vehicle control device 400 It is possible to discriminate whether a tap is applied to control or if a user's mistake or an unintended object collides outside or inside the vehicle.

상기 "유효한 탭"이 인식되도록 하는 방법은 여러 가지가 있을 수 있다. 예를 들어, 제어부(410)는 제1 기준 횟수만큼 또는 제1 기준 횟수 이상 두드리는 제1 탭이 감지된 후, 소정 시간 이내에 상기 본체를 제2 기준 횟수만큼 또는 제2 기준 횟수 이상 두드리는 제2 탭이 감지되는 것을 상기 '유효한 탭'으로 인식할 수도 있다. 여기에서, 상기 제1 기준 횟수와 상기 제2 기준 횟수의 수는 서로 같거나 다를 수도 있다. 예를 들어, 상기 제1 기준 횟수는 1회일 수 있고, 상기 제2 기준 횟수는 2회일 수 있다. 또 다른 예로, 상기 제1 기준 횟수 및 제2 기준 횟수는 모두 1회일 수 있다.There may be several ways to make the "valid tab" recognized. For example, the control unit 410 detects a first tap tapping a first reference number or more than a first reference number, and then tapping the body by a second reference number or more than a second reference number within a predetermined time. This detection may be recognized as the'valid tap'. Here, the number of the first reference number and the second reference number may be the same or different from each other. For example, the first reference number of times may be one, and the second reference number of times may be two. As another example, both the first reference number and the second reference number may be once.

또한 제어부(410)는, 상기 탭이 "소정의 영역" 내에서 가하진 경우에 한하여, 상기 "탭"들이 감지되었다고 판단할 수 있다. 즉 제어부(410)는, 차량 제어 장치(400) 본체가 처음 두드려진 것이 감지되면, 상기 처음 두드림이 감지된 지점으로부터 소정의 영역을 산출할 수 있다. 그리고 제어부(410)는 상기 처음 두드림이 감지된 시간으로부터 상기 기준시간 이내에 상기 "소정의 영역"에 상기 처음 두드림에 이어 상기 제1 또는 제2 기준 횟수만큼, 또는 제1 또는 제2 기준 횟수 이상 두드림이 감지되는 경우 상기 제1 탭 또는 제2 탭이 가해진 것으로 판단할 수 있다. Also, the controller 410 may determine that the "taps" have been detected only when the tap is applied within the "prescribed area". That is, when it is detected that the main body of the vehicle control device 400 is first tapped, the controller 410 may calculate a predetermined area from the point where the first tapping is detected. And the control unit 410 taps the first or second reference number of times, or more than the first or second reference number of times following the first tapping on the "prescribed area" within the reference time from the time when the first tapping is detected. When this is detected, it may be determined that the first tap or the second tap has been applied.

한편, 상술한 기준시간 및 소정의 영역은 실시 예에 따라 다양하게 변형될 수 있음은 물론이다. Meanwhile, it goes without saying that the above-described reference time and predetermined area may be variously modified according to exemplary embodiments.

한편 상기 제1 탭 및 제 2 탭은 기준 시간 및 소정의 영역 뿐만 아니라, 각 탭이 감지된 위치에 따라 별개의 탭으로 감지될 수도 있음은 물론이다. 즉, 제어부(410)는 제1 탭이 감지된 위치에서 일정 거리 이상 이격된 위치에서 제 2 탭이 감지되는 경우, 상기 제1 탭 및 제2 탭이 가해진 것으로 판단할 수 있다. 그리고 이처럼 감지된 위치에 근거하여 상기 제1 탭 및 제2 탭을 인식하는 경우, 상기 제1 탭 및 제2 탭은 동시에 감지될 수도 있다. On the other hand, it goes without saying that the first tap and the second tap may be detected as separate taps according to a position at which each tap is sensed, as well as a reference time and a predetermined region. That is, when the second tap is detected at a position spaced apart from the position where the first tap is sensed by a predetermined distance or more, the controller 410 may determine that the first tap and the second tap are applied. In addition, when the first and second tabs are recognized based on the sensed positions, the first and second tabs may be simultaneously sensed.

또한 상기 제1 탭 및 제2 탭이 복수의 터치, 즉 복수의 두드림으로 구성되는 경우에는, 상기 제1 탭 및 제2 탭을 각각 구성하는 복수의 터치들 역시 동시에 감지될 수 있음은 물론이다. 예를 들어 상기 제1 탭을 구성하는 최초의 터치가 감지됨과 동시에, 상기 제1 탭의 최초의 터치가 감지된 위치로부터 일정 거리 이상 이격된 위치에, 상기 제2 탭을 구성하는 최초의 터치가 감지되는 경우, 제어부(110)는 상기 제1 탭 및 제2 탭을 구성하는 최초의 터치를 각각 감지할 수 있다. 그리고 제어부(410)는 각 위치에서 감지되는 추가적인 터치 입력을 감지하고, 상기 각 위치에서 제1 기준 횟수 또는 제2 기준 횟수 이상의 터치가 감지되는 경우, 상기 제1 탭 및 제2 탭이 가해진 것으로 판단할 수 있다. In addition, when the first tab and the second tab are composed of a plurality of touches, that is, a plurality of taps, a plurality of touches constituting each of the first and second tabs may also be sensed simultaneously. For example, at the same time that the first touch constituting the first tab is sensed, the first touch constituting the second tab is at a position spaced apart by a predetermined distance or more from the position where the first touch of the first tab is sensed. When detected, the controller 110 may detect the first touch constituting the first and second tabs, respectively. Further, the controller 410 detects an additional touch input sensed at each location, and when a touch greater than or equal to the first reference number or the second reference number is sensed at each location, it is determined that the first tap and the second tap have been applied. can do.

한편, 차량 제어 장치(400) 본체에 대한 탭이, 탭 감지부(133)로부터 복수 회 감지되면 상기 제어부(410)는 상기 복수 회 감지된 탭에 근거하여, 사용자의 인증 뿐만 아니라 차량 제어 장치(400)에서 실행 가능한 기능 중 적어도 하나가 제어되도록 할 수 있다. 여기에서, 상기 차량 제어 장치(400) 상에서 실행 가능한 기능은, 차량 제어 장치(400)에서 실행되거나 구동되는 것이 가능한 모든 종류의 기능을 의미할 수 있다. 여기서 상기 실행 가능한 기능 중 하나는, 차량 제어 장치(400)에 설치된 애플리케이션일 수 있다. 그리고 "임의의 기능이 실행된다"고 함은, "임의의 응용 프로그램이 상기 차량 제어 장치(400)에서 실행 또는 구동"되는것을 의미할 수 있다. 예를 들어 제어부(410)는 콘솔 박스에서 감지되는 사용자의 복수의 탭에 근거하여 음악 파일을 재생하거나 또는 기 설정된 목적지까지의 경로가 자동으로 설정되도록 네비게이션을 제어 할 수 있다.On the other hand, when a tap on the main body of the vehicle control device 400 is detected multiple times by the tap detection unit 133, the controller 410 not only authenticates the user but also authenticates the vehicle control device ( At least one of the functions executable in 400) may be controlled. Here, the functions executable on the vehicle control apparatus 400 may mean all types of functions that can be executed or driven by the vehicle control apparatus 400. Here, one of the executable functions may be an application installed in the vehicle control device 400. And "an arbitrary function is executed" may mean that "an arbitrary application program is executed or driven in the vehicle control device 400". For example, the controller 410 may play a music file based on a plurality of taps of a user detected in a console box or control a navigation so that a route to a preset destination is automatically set.

또 다른 예로서, 차량 제어 장치(400)에서 실행 가능한 기능은, 차량 제어 장치(400)의 기본적인 구동을 위하여 필요한 기능일 수 있다. 예를 들어, 기본적인 구동을 위하여 필요한 기능은, 차량에 구비된 에어컨이나 온풍기를 온/오프하는 기능일 수 있고, 차량에 시동을 걸거나, 차량을 잠금 상태에서 잠금 해제상태에서 전환하거나, 반대로 해제 상태에서 잠금 상태로 전환하는 기능 등이 존재할 수 있다. 또는 차량의 크루즈 컨트롤 기능을 온(on) 시키거나 또는 오프(off)하는 기능일 수 있다. As another example, a function executable in the vehicle control device 400 may be a function required for basic driving of the vehicle control device 400. For example, a function necessary for basic driving may be a function of turning on/off an air conditioner or a hot air fan provided in the vehicle, starting the vehicle, switching the vehicle from the locked state to the unlocked state, or vice versa. There may be a function of switching from a state to a locked state. Alternatively, the cruise control function of the vehicle may be turned on or off.

한편, 제어부(410)는 사용자의 인증 정보를 입력받는 위치를 사용자의 탭이 감지된 본체 또는 터치스크린 상의 지점에 근거하여 형성할 수 있다. 예를 들어 제어부(410)는 처음 사용자의 탭이 가해진 지점을 중심으로, 패턴 정보를 입력받기 위한 영역이 형성되도록 하거나, 또는 사용자의 생체 정보, 즉 예를 들어 지문 등을 입력받기 위한 영역이 형성되도록 할 수 있다. 이러한 경우, 사용자가 매번 본체 또는 터치스크린 상의 다른 지점에 탭을 가하는 경우라고 할지라도, 사용자의 패턴 정보 또는 생체 인증 정보가 입력되는 지점은 매번 달라질 수 있다. 이에 따라 사용자는 인증 정보의 노출을 최소화할 수 있으며, 따라서 차량의 도난 등의 위협으로부터 보다 안전해질 수 있다. Meanwhile, the control unit 410 may form a location at which the user's authentication information is input based on a location on the body or a touch screen where the user's tap is sensed. For example, the control unit 410 forms an area for receiving pattern information, or an area for receiving user's biometric information, i.e., a fingerprint, etc., based on the point where the user's tap is first applied. You can do it. In this case, even if the user applies a tap to a different point on the main body or the touch screen every time, the point at which the user's pattern information or biometric authentication information is input may be changed each time. Accordingly, the user can minimize the exposure of authentication information, and thus can be more secure from threats such as theft of a vehicle.

뿐만 아니라 이러한 사용자 인증 정보는 사용자의 선택에 근거하여 기 설정된 외부기기를 경유하여 차량 제어 장치(400)에 입력될 수도 있음은 물론이다. 즉, 예를 들어 감지부(430)는 근거리 통신 모듈(431)을 이용하여 차량 외부의 기 설정된 외부 기기와 연결될 수 있으며, 이러한 외부 기기를 통해 입력되는 사용자의 인증 정보는, 상기 근거리 통신 모듈(431)을 통해 감지부(430)로 인가되고, 제어부(410)에 의해 인증될 수도 있다.In addition, it goes without saying that such user authentication information may be input to the vehicle control apparatus 400 through a preset external device based on a user's selection. That is, for example, the sensing unit 430 may be connected to a preset external device outside the vehicle using the short-range communication module 431, and the authentication information of the user input through such an external device is the short-range communication module ( It is applied to the sensing unit 430 through 431 and may be authenticated by the control unit 410.

상기 차량 제어 장치(400)는 차량으로부터 차량 정보를 획득할 수 있다.The vehicle control device 400 may obtain vehicle information from a vehicle.

일 실시예에 따르면, 상기 차량 정보는 전술된 감지부(430)을 통해 획득될 수 있다.According to an embodiment, the vehicle information may be obtained through the above-described sensing unit 430.

또 다른 실시예에 따르면, 상기 차량 제어 장치(400)는 상기 차량 정보를 획득하는 차량 정보 획득부(460)를 별도로 구비할 수 있다.According to another embodiment, the vehicle control device 400 may separately include a vehicle information acquisition unit 460 that acquires the vehicle information.

여기서, 상기 차량 정보는, 상기 차량에 대한 공조 기능, 도어(본네트, 트렁크 및 주유구 등을 포함)의 개폐 여부, 창문의 개폐 여부, 선루프의 개폐 여부, 상기 차량의 배터리 충전 상태, 상기 차량의 주차 위치, 상기 차량에 구비된 네비게이션 기능, 차량의 도난 상태 및 상기 차량의 주유 상태 중 적어도 하나와 관련된 정보인 것일 수 있다.Here, the vehicle information includes: an air conditioning function for the vehicle, whether a door (including a bonnet, a trunk and a gasoline) is opened or closed, a window is opened, a sunroof is opened, a battery charging state of the vehicle, and the vehicle is It may be information related to at least one of a parking position, a navigation function provided in the vehicle, a stolen state of the vehicle, and a fueling state of the vehicle.

또한, 상기 차량 정보는, 상기 차량의 운전 속도, 운전 가속도, 현재까지의 운행 거리, 급가속 횟수 및 급제동 횟수 중 적어도 하나와 관련된 정보를 더 포함할 수 있다.In addition, the vehicle information may further include information related to at least one of a driving speed of the vehicle, a driving acceleration, a driving distance to the present, a number of sudden accelerations, and a number of sudden braking.

이를 위해, 상기 차량 정보 획득부(460)는 상기 차량에 구비된 다양한 센서와 통신을 수행할 수 있다.To this end, the vehicle information acquisition unit 460 may perform communication with various sensors provided in the vehicle.

예를 들어, 상기 차량 정보 획득부(460)는 상기 차량에 설치되고, 상기 차량의 가속도를 측정하는 가속도 센서와 통신을 수행하여 상기 차량에 대한 가속도 정보를 수집할 수 있다.For example, the vehicle information acquisition unit 460 may collect acceleration information on the vehicle by performing communication with an acceleration sensor installed in the vehicle and measuring acceleration of the vehicle.

또한, 예를 들어, 상기 차량 정보 획득부(460)는, 상기 차량에 구비된 블랙 박스와 통신을 수행하여, 차량 사고 발생 시, 사고 영상을 획득할 수 있다. 이 경우, 상기 메모리(440)는 상기 사고 영상을 저장할 수 있다.In addition, for example, the vehicle information acquisition unit 460 may perform communication with a black box provided in the vehicle to obtain an accident image when a vehicle accident occurs. In this case, the memory 440 may store the accident image.

도 6B는 이처럼 기 설정된 외부 기기가 본 발명의 실시 예에 따른 차량 제어 장치에 연결되는 예를 도시한 것이다.6B illustrates an example in which a preset external device is connected to the vehicle control device according to an embodiment of the present invention.

도 6B를 참조하여 살펴보면, 상기 기 설정된 외부 기기(170)는, 사용자의 스마트 폰(smart phone : 171)이나 스마트 키(smart key : 172) 등의 이동 단말기일 수 있다. 이러한 경우, 제어부(110)는 상기 외부 기기(170)의 고유 정보를 인식하여, 상기 외부 기기(170)가 일정 거리 이내로 근접한 경우 자동으로 특정 사용자가 인식되도록 할 수 있다. 그리고, 제어부(410)는 사용자가 상기 외부 기기(170)를 통해 입력하는 인증 정보를 수신할 수 있으며, 외부 기기(170)에서 입력된 인증 정보는 외부 기기(170)에 구비된 통신 모듈과, 감지부(430)의 근거리 통신 모듈(431)을 통해 차량 제어 장치(400)로 전달될 수 있다. Referring to FIG. 6B, the preset external device 170 may be a mobile terminal such as a user's smart phone 171 or a smart key 172. In this case, the controller 110 may recognize the unique information of the external device 170 and automatically recognize a specific user when the external device 170 approaches within a certain distance. In addition, the control unit 410 may receive authentication information input by the user through the external device 170, and the authentication information input from the external device 170 includes a communication module provided in the external device 170, It may be transmitted to the vehicle control device 400 through the short-range communication module 431 of the sensing unit 430.

한편, 이러한 인증 정보는 상기 사용자의 생체 정보일 수 있다.Meanwhile, such authentication information may be biometric information of the user.

일 실시예에 따르면, 상기 생체 정보는, 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 획득되는 것일 수 있다.According to an embodiment, the biometric information may be obtained by the mobile terminal 100 or the wearable device 200 or 200 ′.

여기서, 상기 생체 정보는, 상기 사용자에 대한 심박수, 체지방, 혈압, 혈당, 얼굴 모양, 지문, 뇌파 및 홍채에 대한 정보 중 적어도 하나인 것일 수 있다.Here, the biometric information may be at least one of information about the user's heart rate, body fat, blood pressure, blood sugar, face shape, fingerprint, brain waves, and iris.

예를 들어, 상기 인증 정보는, 사용자의 심박수, 지문이나 홍채 인식 정보 또는 기 설정된 패스워드나 패턴 정보일 수 있다. 또한 이러한 인증 정보는 특정한 사용자의 제스처에 관련된 정보일 수도 있다. For example, the authentication information may be a user's heart rate, fingerprint or iris recognition information, or preset password or pattern information. Also, such authentication information may be information related to a gesture of a specific user.

상기 사용자에 대한 인증은 복수 개의 생체 정보 또는 복수 개의 인증 정보를 근거로 이루어질 수 있다.Authentication of the user may be performed based on a plurality of biometric information or a plurality of authentication information.

예를 들어, 상기 사용자에 대한 인증은, 상기 사용자의 심박수 및 상기 사용자의 제스처를 모두 확인하여 이루어질 수 있다.For example, authentication for the user may be performed by confirming both the user's heart rate and the user's gesture.

이를 위해 상기 외부 기기(170)는 사용자로부터 인증 정보를 입력받기 위한 구성, 즉, 일 실시 예에 따른 차량 제어 장치(400)의 감지부(430)에 구비된 센서 중 적어도 일부 또는 그 외의 다른 부가적인 센서들과 동일, 유사하거나 대응되는 구성을 더 포함할 수 있다.To this end, the external device 170 is configured to receive authentication information from a user, that is, at least some of the sensors provided in the sensing unit 430 of the vehicle control device 400 according to an embodiment or other additional It may further include the same, similar or corresponding configuration to the typical sensors.

예를 들어 상기 스마트 키(172) 또는 스마트 폰(171)과 같은 외부 기기(170)에는, 사용자가 패턴 정보를 입력할 수 있는 터치스크린 또는 상기 차량 제어 장치(400)의 감지부(430)에 구비된 탭 감지부(433)와 동일, 유사 또는 그에 대응되는 감지부가 구비될 수 있다. 또한 상기 외부 기기(170)에는, 사용자의 지문을 인식하기 위한 지문 인식부가 더 구비될 수도 있다. 뿐만 아니라 상기 외부 기기(170)에는 사용자의 제스처를 인식하기 위한 관성 센서, 자이로 센서, 또는 가속도 센서 등을 더 구비할 수도 있음은 물론이다. For example, in the external device 170 such as the smart key 172 or the smart phone 171, a touch screen through which a user can input pattern information or the sensing unit 430 of the vehicle control device 400 The same, similar, or corresponding to the tap detection unit 433 may be provided. Further, the external device 170 may further include a fingerprint recognition unit for recognizing a user's fingerprint. In addition, it goes without saying that the external device 170 may further include an inertial sensor, a gyro sensor, or an acceleration sensor for recognizing a user's gesture.

또한, 예를 들어, 시계형 이동 단말기인 스마트 워치(173)의 경우에는, 사용자의 심박수를 획득할 수 있는 센서를 포함할 수 있고, 또한 안경형 이동 단말기인 스마트 안경(174)의 경우에는, 사용자의 홍채를 인식하기 위한 홍채 인식 카메라를 포함할 수 있다.In addition, for example, in the case of the smart watch 173 as a watch-type mobile terminal, a sensor capable of acquiring the user's heart rate may be included. In the case of the smart glasses 174 as a glasses-type mobile terminal, the user It may include an iris recognition camera to recognize the iris of.

이러한 경우 사용자는 상기 외부 기기(170)를 통해 지문, 기 설정된 패턴 정보, 홍채 인식 정보 중 적어도 하나를 이용하여 자신의 인증 정보를 입력할 수 있다. 또는 사용자는 상기 외부 기기(170)를 착용한 채로 특정한 제스처를 취함으로써 자신의 인증 정보가 외부 기기(170)에 입력되도록 할 수도 있다. 이러한 경우 상기 외부 기기(170)의 제어부(110)는 사용자의 제스처에 따라 상기 외부 기기(170)의 위치 변경에 대한 정보, 즉 가속도 측정값이나 중력 변화량, 또는 관성의 변화량을 측정한 값을 이용하여 상기 사용자의 제스처를 인식하고 이를 인증 정보로 활용할 수 있다. 또는 상기 외부 기기(170)는 카메라 등을 통해 입력되는 사용자의 영상을 이용하여 위치가 변경되었음을 인식하고, 변경된 값을 측정할 수도 있다. In this case, the user may input his/her authentication information through the external device 170 by using at least one of a fingerprint, preset pattern information, and iris recognition information. Alternatively, the user may make his/her authentication information input to the external device 170 by making a specific gesture while wearing the external device 170. In this case, the control unit 110 of the external device 170 uses information on the position change of the external device 170 according to the user's gesture, that is, a measurement value of acceleration, a change in gravity, or a change in inertia. Thus, the user's gesture can be recognized and used as authentication information. Alternatively, the external device 170 may recognize that the location has changed using the user's image input through a camera or the like, and measure the changed value.

한편, 이처럼 외부 기기(170)를 통해 인증 정보가 입력되면, 차량 제어 장치(400)의 제어부(410)는 상기 입력된 인증 정보를 이용하여 차량의 구동을 제어할 수 있다. 예를 들어 제어부(410)는 상기 인증 정보에 따라 현재 사용자를 인식하고, 차량의 잠금 상태를 해제 및 상기 인식된 사용자에 대응되는 차량 내부 환경이 설정되도록 할 수도 있다. 또는 제어부(410)는 현재 차량의 상태가 잠금 해제 상태이며, 시동이 종료된 상태에서 다시 한번 상기 인증 정보가 입력되는 경우, 차량의 잠금 해제 상태를 잠금 상태로 변환되도록 할 수도 있다. Meanwhile, when authentication information is input through the external device 170 as described above, the control unit 410 of the vehicle control device 400 may control the driving of the vehicle using the input authentication information. For example, the control unit 410 may recognize a current user according to the authentication information, unlock a vehicle, and set a vehicle interior environment corresponding to the recognized user. Alternatively, the controller 410 may convert the unlocked state of the vehicle into a locked state when the current vehicle state is an unlocked state, and the authentication information is once again input when the ignition is terminated.

한편, 이처럼 상기 외부 기기(170)를 통해 입력된 사용자의 인증 정보를 이용하여 바로 차량의 구동이 제어되도록 할 수도 있으나, 제어부(410)는 한 번의 인증 과정을 사용자에게 더 요구할 수도 있다. 이러한 경우, 제어부(410)는 상기 외부 기기(170)가 일정 거리 이내로 근접하거나 또는 상기 외부 기기(170)를 통해 인증 정보가 입력되는 경우, 차량의 상태를 웨이크 업(wake up) 상태로 전환하고, 상기 인증된 사용자로부터 입력되는 인증 정보에 따라 차량을 구동할 준비를 수행할 수 있다. 그리고 웨이크 업 상태로 전환된 상태에서 사용자가 차량의 외부 또는 내부의 기 설정된 영역(예를 들어 운전석 또는 보조석의 윈도우나, A, B, C 필라 등)에 다시 한번 인증 정보를 입력하는 경우, 이를 입력받아 사용자를 인증하고, 그에 따라 차량이 구동되도록 할 수 있다. Meanwhile, as described above, the driving of the vehicle may be directly controlled using the user's authentication information input through the external device 170, but the controller 410 may further request the user to perform one more authentication process. In this case, when the external device 170 approaches within a certain distance or when authentication information is input through the external device 170, the control unit 410 switches the vehicle state to a wake-up state, and , Preparation to drive the vehicle may be performed according to authentication information input from the authenticated user. And when the user enters the authentication information once again in a preset area outside or inside the vehicle (for example, the window of the driver's seat or the assistant seat, or the A, B, C pillar, etc.) in the wake-up state, this The user can be authenticated by receiving input, and the vehicle can be driven accordingly.

또한, 상술한 설명에서는 단지 한번의 인증 절차가 더 수행되는 것을 예로 들어 설명하였으나, 얼마든지 더 많은 인증 절차가 수행될 수 있음은 물론이다. 또한 상술한 설명에서는 외부 기기(170)를 통해 사용자의 인증 정보가 입력되는 경우에 복수의 인증 절차를 수행하는 것을 설명하였으나, 이러한 복수의 인증 절차는 사용자가 직접 차량의 일부분에 형성된 터치스크린 영역에 자신의 인증 정보를 입력하는 경우에도 마찬가지로 적용될 수도 있음은 물론이다. In addition, in the above description, it has been described as an example that only one more authentication procedure is performed, but it goes without saying that any number of more authentication procedures may be performed. In addition, in the above description, it has been described that a plurality of authentication procedures are performed when user authentication information is input through the external device 170, but such a plurality of authentication procedures are performed by the user directly in a touch screen area formed on a part of the vehicle. Of course, the same can be applied to the case of entering your own authentication information.

도 7은 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치의 디스플레이부를 설명하기 위한 예시도이다.7 is an exemplary view illustrating a display unit of a vehicle control apparatus according to an exemplary embodiment disclosed in the present specification.

도 7은 상기 차량 제어 장치(400)가 차량의 헤드 유닛(Head Unit)의 형태로 구현된 경우를 나타낸다. 7 shows a case in which the vehicle control device 400 is implemented in the form of a head unit of a vehicle.

상기 차량 제어 장치(400)는 복수의 디스플레이부(D100 ~ D102)를 포함할 수 있다.The vehicle control device 400 may include a plurality of display units D100 to D102.

예컨대, 도 7에 도시되어 있는 바와 같이, 상기 차량 제어 장치(400)는 운전석 앞쪽에 하나의 제1 디스플레이부(D100), 각 뒷좌석 앞쪽에 두 개의 제2 디스플레이부(D101, D102)를 포함할 수 있다.For example, as shown in FIG. 7, the vehicle control device 400 may include a first display unit D100 in front of the driver's seat and two second display units D101 and D102 in front of each rear seat. I can.

이때, 일반적으로는, 상기 제1 디스플레이부(D100)만이 주행 규제의 제한을 받는다.In this case, generally, only the first display unit D100 is restricted by the driving regulation.

따라서, 상기 제1 디스플레이부(D100)만 차량용 컨텐츠 표시 방법의 제한을 받고, 상기 제2 디스플레이부(D101, D102)는 상기 제한 없이 전체 컨텐츠를 표시할 수 있다.Accordingly, only the first display unit D100 is limited by the vehicle content display method, and the second display units D101 and D102 may display the entire content without the limitation.

도 8A는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.8A is a block diagram showing the configuration of a vehicle control apparatus according to another embodiment disclosed in the present specification.

도 8A는 상기 차량 제어 장치(400)가 영상표시기기, 차량의 헤드 유닛 또는 텔레메틱스 단말기의 형태로 구현된 경우를 나타낼 수 있다.FIG. 8A shows a case where the vehicle control device 400 is implemented in the form of an image display device, a vehicle head unit, or a telematics terminal.

도 8A에 도시한 바와 같이, 차량 제어 장치(400')는 차량 제어 장치(400')의 전반적인 동작을 제어하는 제어부(예를 들면, 중앙 처리 장치, CPU)(412')와, 제어부(412')의 처리 및 제어를 위한 프로그램과 입/출력되는 데이터들을 저장하는 메모리(413')와, 각종 키 신호를 제어하는 키 제어부(411')와, LCD(liquid crystal display)를 제어하는 LCD 제어부(414')를 내장한 메인 보드(410')를 포함한다.As shown in Fig. 8A, the vehicle control device 400 ′ includes a control unit (eg, a central processing unit, CPU) 412 ′ that controls the overall operation of the vehicle control device 400 ′, and a control unit 412 A memory 413' for storing programs for processing and controlling') and input/output data, a key control unit 411' for controlling various key signals, and an LCD control unit for controlling a liquid crystal display (LCD) It includes a main board 410' with a built-in 414'.

상기 메모리(413')는 길 안내 정보를 디지털 지도상에 표시하기 위한 지도 정보(지도 데이터)를 저장할 수 있다. 또한, 상기 메모리(413')는 차량이 현재 주행하는 도로 상황에 따른 교통 정보를 입력할 수 있도록 하는 교통 정보 수집 제어 알고리즘 및 상기 알고리즘의 제어를 위한 정보를 저장할 수 있다.The memory 413' may store map information (map data) for displaying road guidance information on a digital map. In addition, the memory 413 ′ may store a traffic information collection control algorithm that enables the vehicle to input traffic information according to a current road condition and information for controlling the algorithm.

상기 메인 보드(410')는 고유의 기기번호가 부여되어 차량에 내장된 CDMA(code division multiple access) 모듈(406'), 차량의 위치 안내, 출발지부터 목적지까지의 주행 경로 추적 등을 위한 GPS 신호를 수신하거나 사용자에 의해서 수집된 교통정보를 GPS(Global Positioning System) 신호로 송신하는 GPS 모듈(207), CD(compact disk)에 기록된 신호를 재생하기 위한 CD 데크(CD Deck)(408'), 자이로 센서(gyro sensor)(409') 등을 포함할 수 있다. 상기 CDMA 모듈(406'), GPS 모듈(407')은 안테나(404', 405')를 통해서 신호를 송수신할 수 있다.The main board 410 ′ is assigned a unique device number and a code division multiple access (CDMA) module 406 ′ built into the vehicle, a GPS signal for guiding the location of the vehicle, and tracking the driving route from the departure point to the destination. GPS module 207 for receiving signals or transmitting traffic information collected by a user as a Global Positioning System (GPS) signal, and a CD Deck 408' for reproducing signals recorded on a compact disk (CD) , May include a gyro sensor 409'. The CDMA module 406 ′ and the GPS module 407 ′ may transmit and receive signals through antennas 404 ′ and 405 ′.

또한, 방송 수신 모듈(422')은 상기 메인 보드(410')에 연결되고, 안테나(423')를 통해서 방송 신호를 수신할 수 있다. 상기 메인보드(410')에는 인터페이스 보드(430')를 통해서 상기 LCD 제어부(414')의 제어를 받는 표시부(LCD)(401')와, 키 제어부(411')의 제어를 받는 프론트 보드(402')와 차량의 내부 및/또는 외부를 촬영하는 카메라(427')가 연결될 수 있다. 상기 표시부(401')는, 각종 비디오 신호, 문자 신호를 표시하고, 상기 프론트 보드(402')는 각종 키 신호 입력을 위한 버튼을 구비하고, 사용자 선택이 이루어진 버튼에 해당하는 키 신호를 메인 보드(410')에 제공한다. 또한, 상기 표시부(401')는 근접 센서 및 터치 센서(터치 스크린)을 포함한다.In addition, the broadcast reception module 422 ′ may be connected to the main board 410 ′ and may receive a broadcast signal through an antenna 423 ′. The main board 410 ′ includes a display unit (LCD) 401 ′ controlled by the LCD control unit 414 ′ through an interface board 430 ′ and a front board controlled by a key control unit 411 ′. 402') and a camera 427' that photographs the inside and/or outside of the vehicle may be connected. The display unit 401 ′ displays various video signals and character signals, and the front board 402 ′ includes buttons for inputting various key signals, and provides a key signal corresponding to a button selected by a user on a main board. Provided to (410'). In addition, the display unit 401' includes a proximity sensor and a touch sensor (touch screen).

상기 프론트 보드(402')는 교통정보를 직접 입력하기 위한 메뉴 키를 구비하며, 상기 메뉴 키는 키 제어부(411')의 제어를 받도록 구성될 수 있다.The front board 402 ′ includes a menu key for directly inputting traffic information, and the menu key may be configured to be controlled by a key controller 411 ′.

상기 오디오 보드(417')는 상기 메인 보드(410')와 연결되고, 각종 오디오 신호를 처리한다. 상기 오디오 보드(417')는 오디오 보드(417')의 제어를 위한 마이크로컴퓨터(419'), 라디오 신호를 수신하는 튜너(418'), 상기 마이크로컴퓨터(419')에 전원을 공급하는 전원부(416'), 각종 음성 신호를 처리하는 신호 처리부(415')로 구성된다.The audio board 417' is connected to the main board 410' and processes various audio signals. The audio board 417' includes a microcomputer 419' for controlling the audio board 417', a tuner 418' for receiving radio signals, and a power supply for supplying power to the microcomputer 419'. 416') and a signal processing unit 415' that processes various audio signals.

또한, 상기 오디오 보드(417')는 라디오 신호를 수신하기 위한 라디오 안테나(420')와, 오디오 테이프를 재생하기 위한 테이프 데크(421')로 구성된다. 상기 오디오 보드(417')는 상기 오디오 보드(417')에서 신호 처리된 음성 신호를 출력하기 위한 음성 출력부(예를 들면, 앰프)(426')를 더 포함할 수도 있다.In addition, the audio board 417' includes a radio antenna 420' for receiving a radio signal and a tape deck 421' for reproducing an audio tape. The audio board 417 ′ may further include an audio output unit (eg, an amplifier) 426 ′ for outputting an audio signal processed by the audio board 417 ′.

상기 음성 출력부(앰프)(426')는 차량 인터페이스(424')에 연결된다. 즉, 상기 오디오 보드(417')와 메인 보드(410')는 상기 차량 인터페이스(424')에 연결된다. 상기 차량 인터페이스(424')는 음성 신호를 입력하는 핸즈프리(425a'), 탑승자 안전을 위한 에어백(425b'), 차량의 속도를 검출하기 위한 속도 센서(425c') 등이 연결될 수도 있다. 상기 속도 센서(425c')는 차량 속도를 산출하고, 그 산출된 차량 속도 정보를 상기 중앙 처리 장치(412')에 제공한다.The audio output unit (amplifier) 426' is connected to a vehicle interface 424'. That is, the audio board 417' and the main board 410' are connected to the vehicle interface 424'. The vehicle interface 424' may be connected to a hands-free 425a' for inputting a voice signal, an airbag 425b' for occupant safety, a speed sensor 425c' for detecting a vehicle speed, and the like. The speed sensor 425c' calculates a vehicle speed, and provides the calculated vehicle speed information to the central processing unit 412'.

*상기 차량 제어 장치(400')에 적용된 내비게이션 세션(400_1')은, 지도 데이터 및 차량 현재 위치 정보를 근거로 길 안내 정보를 발생하고, 그 발생된 길 안내 정보를 사용자에게 통지한다.* The navigation session 400_1' applied to the vehicle control device 400' generates road guide information based on map data and current vehicle location information, and notifies the user of the generated road guide information.

상기 표시부(401')는 근접 센서를 통해 표시창 내에서 근접 터치를 감지한다. 예를 들면, 상기 표시부(401')는 포인터(예를 들면, 손가락 또는 스타일러스 팬(stylus pen))가 근접 터치될 때 그 근접 터치의 위치를 검출하고, 그 검출된 위치에 대응하는 위치 정보를 상기 제어부(412')에 출력한다.The display unit 401' detects a proximity touch in a display window through a proximity sensor. For example, the display unit 401' detects the position of the proximity touch when a pointer (for example, a finger or a stylus pen) is touched, and stores position information corresponding to the detected position. Output to the control unit 412'.

음성 인식 장치(또는 음성 인식 모듈)(401_1')는 사용자에 의해 발성된 음성을 인식하고, 그 인식된 음성 신호에 따라 해당 기능을 수행한다.The voice recognition device (or voice recognition module) 401_1' recognizes a voice uttered by a user and performs a corresponding function according to the recognized voice signal.

상기 차량 제어 장치(400')에 적용된 내비게이션 세션(session)(400_1')은, 지도 데이터 상에 주행 경로를 표시하고, 상기 이동 단말기(100)의 위치가 상기 주행 경로에 포함된 사각지대로부터 미리 설정된 거리 이내일 때 무선 통신(예를 들면,근거리 무선 통신망)을 통해 주변 차량에 장착된 단말기(예를 들면, 차량 내비게이션 장치) 및/또는 주변 보행자가 휴대하고 있는 이동 단말기와 자동으로 무선 네트워크를 형성함으로써 상기 주변 차량에 장착된 단말기로부터 그 주변 차량의 위치 정보를 수신하고, 주변 보행자가 휴대하고 있는 이동 단말기로부터 상기 주변 보행자의 위치 정보를 수신한다.A navigation session 400_1 ′ applied to the vehicle control device 400 ′ displays a driving route on map data, and the location of the mobile terminal 100 is preset from a blind spot included in the driving route. When within a set distance, a wireless network is automatically established with a terminal mounted on a nearby vehicle (for example, a vehicle navigation device) and/or a mobile terminal carried by a nearby pedestrian through wireless communication (for example, a short-range wireless communication network). By forming, location information of the surrounding vehicle is received from a terminal mounted on the surrounding vehicle, and location information of the surrounding pedestrian is received from a mobile terminal carried by the surrounding pedestrian.

한편, 메인 보드(410')는 인터페이스부(430')에 연결될 수 있으며, 인터페이스부(430')는 외부장치 인터페이스부(431') 및 네트워크 인터페이스부(432')를 포함한다.Meanwhile, the main board 410' may be connected to the interface unit 430', and the interface unit 430' includes an external device interface unit 431' and a network interface unit 432'.

외부장치 인터페이스부(431')는 외부 장치와 차량 제어 장치(400')를 접속할 수 있다. 이를 위해, 외부장치 인터페이스부(431')는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.The external device interface unit 431 ′ may connect the external device and the vehicle control device 400 ′. To this end, the external device interface unit 431 ′ may include an A/V input/output unit (not shown) or a wireless communication unit (not shown).

외부장치 인터페이스부(431')는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(231)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 차량 제어 장치(400')의 제어부(412')로 전달한다. 또한, 제어부(412')에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(431')는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.The external device interface unit 431 ′ may be connected to an external device such as a digital versatile disk (DVD), a Blu ray, a game device, a camera, a camcorder, a computer (laptop), and the like by wire/wireless. The external device interface unit 231 transmits a video, audio, or data signal input from the outside through a connected external device to the control unit 412 ′ of the vehicle control device 400 ′. Also, an image, audio, or data signal processed by the controller 412' may be output to a connected external device. To this end, the external device interface unit 431 ′ may include an A/V input/output unit (not shown) or a wireless communication unit (not shown).

A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 차량 제어 장치(400')로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.The A/V input/output unit includes a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog), so that video and audio signals from an external device can be input to the vehicle control device 400'. A Digital Visual Interface (DVI) terminal, a High Definition Multimedia Interface (HDMI) terminal, an RGB terminal, a D-SUB terminal, and the like may be included.

무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 차량 제어 장치(400')는 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA (Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.The wireless communication unit may perform short-range wireless communication with another electronic device. The vehicle control device 400 ′ includes, for example, Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, Digital Living Network (DLNA). Alliance) and other electronic devices may be connected to the network according to communication standards.

또한, 외부장치 인터페이스부(431')는, 다양한 셋탑 박스와 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.In addition, the external device interface unit 431 ′ may be connected through at least one of various set-top boxes and various terminals to perform input/output operations with the set-top box.

한편, 외부장치 인터페이스부(431')는, 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(412') 또는 메모리(413')로 전달할 수 있다.Meanwhile, the external device interface unit 431 ′ may receive an application or an application list in an adjacent external device and transmit it to the controller 412 ′ or the memory 413 ′.

네트워크 인터페이스부(432')는, 차량 제어 장치(400')를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(432')는, 유선 네트워크와의 접속을 위해, 예를 들어 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, 예를 들어 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.The network interface unit 432' provides an interface for connecting the vehicle control device 400' with a wired/wireless network including an Internet network. The network interface unit 432 ′ may be provided with, for example, an Ethernet terminal for connection with a wired network, and for connection with a wireless network, for example, a WLAN (Wireless LAN) (Wi -Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) communication standards, etc. may be used.

네트워크 인터페이스부(432')는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. 특히, 차량 제어 장치(400')에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 차량 제어 장치(400')에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.The network interface unit 432 ′ may transmit or receive data with other users or other electronic devices through a connected network or another network linked to the connected network. Particularly, some content data stored in the vehicle control device 400 ′ may be transmitted to another user registered in advance in the vehicle control device 400 ′ or a selected user or a selected electronic device among other electronic devices.

한편, 네트워크 인터페이스부(432')는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.Meanwhile, the network interface unit 432' may access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through a network, the server and data can be transmitted or received. In addition, content or data provided by a content provider or a network operator may be received. That is, content such as movies, advertisements, games, VODs, broadcast signals, and related information provided from a content provider or a network provider may be received through a network. In addition, it is possible to receive update information and an update file of the firmware provided by the network operator. It can also transmit data to the Internet or content provider or network operator.

또한, 네트워크 인터페이스부(432')는, 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.In addition, the network interface unit 432 ′ may select and receive a desired application from among applications open to the public through a network.

도 8B는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.8B is a block diagram showing the configuration of a vehicle control apparatus according to another embodiment disclosed in the present specification.

도 8B는 상기 차량 제어 장치(400)를 차량 네비게이션 장치의 기능에 중점을 두어 나타낸 구성도이다.8B is a block diagram showing the vehicle control device 400 with an emphasis on functions of the vehicle navigation device.

상기 차량 제어 장치(400'')가 차량 네비게이션 장치로 구현되는 경우, 상기 차량 제어 장치(400'')는 차량에서의 설치 형태에 따라 인데시 타입(In Dash Type)과 온데시 타입(OnDash Type)으로 구분된다. 인데시 타입의 내비게이션(차량 내비게이션) 장치는 차량의 데시 보드(Dash Board) 내에 할당된 일정 공간에 삽입되어 고정적으로 장착되는 형태이다. 온데시 타입의 내비게이션(차량 내비게이션) 장치는 차량의 데시보드 위에 거치되거나 또는 그 근처에 일정한 지지대를 이용하여 설치되는 형태로서 탈착이 가능하므로 차량으로부터 분리되어 휴대할 수 있다.When the vehicle control device 400 ″ is implemented as a vehicle navigation device, the vehicle control device 400 ″ is an In Dash Type and an OnDash Type according to an installation type in the vehicle. ). The in-dash type navigation (vehicle navigation) device is a type that is fixedly mounted by being inserted into a certain space allocated in a dash board of a vehicle. The on-desi type navigation (vehicle navigation) device is mounted on the dashboard of the vehicle or is installed near the dashboard using a certain support, and can be detached from the vehicle and carried.

본 실시예들에 따른 차량 제어 장치(400'')는 이러한 인데시 타입과 온데시 타입의 내비게이션(차량 내비게이션) 장치를 포함하며, 이외에도 차량 내에서 GPS(Global Positioning System) 위성으로부터 전송되는 항법 메시지를 수신하는 GPS 수신기와 연동하여 내비게이션 기능을 수행할 수 있는 각종 휴대용 단말기(Portable Terminal)와 같은 교통정보의 수신 및/또는 처리가 가능한 정보 처리 장치를 모두 포함한다.The vehicle control device 400 ″ according to the present embodiments includes such an in-dash type and an on-dash type navigation (vehicle navigation) device, and in addition, a navigation message transmitted from a GPS (Global Positioning System) satellite in the vehicle. It includes all information processing devices capable of receiving and/or processing traffic information, such as various portable terminals capable of performing a navigation function in conjunction with a GPS receiver that receives a signal.

도 8B에 도시한 바와 같이, 상기 차량 제어 장치(400'')는, 위성으로부터 수신되는 GPS(global positioning system) 신호를 수신하고, 상기 수신된 GPS 신호를 근거로 내비게이션 장치(이동 통신 단말기(100)와 동일한 위치인 것으로 간주함)의 제1 차량 위치 데이터를 발생하는 GPS 모듈(401'')과, 차량의 주행 방향 및 상기 차량의 속도를 근거로 제2 차량 위치 데이터를 발생하는 DR(Dead-Reckoning) 센서(402'')와, 지도 데이터 및 다양한 정보를 저장하는 저장부(또는 메모리)(404'')와, 상기 제1 차량 위치 데이터 및 상기 제2 차량 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 발생된 차량 추정 위치와 상기 저장부(404'')에 저장된 지도 데이터 내의 링크(지도 정합 링크 또는 지도 정합 도로)를 정합(matching)하고, 상기 정합된 지도 정보(지도 정합 결과)를 출력하는 지도 정합부(403'')와, 무선 통신망(500'')을 통해 정보 제공 센터 및/또는 주변 차량으로부터 실시간 교통 정보를 수신하고, 교통 신호등 정보를 수신하고, 전화 통신을 수행하는 통신부(408'')와, 상기 정합된 지도 정보(지도 정합 결과)를 근거로 길 안내 정보를 발생하는 제어부(407'')와, 상기 길 안내 정보에 포함된 길 안내 지도(관심지 정보 포함) 및 상기 교통 신호등 정보를 표시하는 표시부(405'')와, 상기 길 안내 정보에 포함된 길 안내 음성 정보(길 안내 음성 메시지) 및 상기 교통 신호등 정보에 대응하는 음성 신호를 출력하는 음성 출력부(406'')를 포함할 수 있다.As shown in Fig. 8B, the vehicle control device 400 ″ receives a global positioning system (GPS) signal received from a satellite, and a navigation device (mobile communication terminal 100) based on the received GPS signal. ), the GPS module 401'' that generates the first vehicle location data of (regarded as the same location as), and the DR (Dead) that generates second vehicle location data based on the driving direction of the vehicle and the speed of the vehicle. -Reckoning) vehicle estimation based on the sensor 402'', a storage unit (or memory) 404'' for storing map data and various information, and the first vehicle location data and the second vehicle location data A location is generated, the generated vehicle estimated location is matched with a link (map matching link or map matching road) in the map data stored in the storage unit 404 ″, and the matched map information (map matching A map matching unit 403'' that outputs a result) and real-time traffic information from the information providing center and/or surrounding vehicles through the wireless communication network 500'', traffic light information, and telephone communication. A communication unit 408 ″ to perform, a control unit 407 ″ for generating road guidance information based on the matched map information (map matching result), and a road guidance map included in the Information) and a display unit 405 ″ for displaying the traffic light information, and a voice for outputting road guidance audio information (road guidance voice message) included in the road guidance information and an audio signal corresponding to the traffic light information It may include an output unit 406 ″.

여기서, 상기 통신부(408'')는 블루투스 모듈을 갖는 핸즈프리를 더 포함하며, 안테나를 통해 TPEG 포맷의 교통정보를 포함하는 방송신호를 방송국으로부터 수신할 수도 있다. 상기 방송신호는 지상파 또는 위성 디지털 멀티미디어 방송(DMB), 디지털 오디오 방송(DAB), 디지털 비디오 방송(DVB-T, DVB-H) 등 각종 규격에 따른 비디오와 오디오 데이터 뿐만 아니라, 교통정보(TPEG) 서비스, BIFS(Binary Format for Scene) 데이터 서비스에 따른 교통정보 및 각종 부가 데이터와 같은 부가 정보를 포함한다. 또한, 상기 통신부(408'')는 교통정보가 제공되는 신호 대역을 동조하고 동조된 신호를 복조하여 TPEG 디코더(제어부(407)에 포함됨)로 출력한다.Here, the communication unit 408 ″ may further include a hands-free having a Bluetooth module, and may receive a broadcast signal including traffic information in TPEG format from a broadcasting station through an antenna. The broadcast signal includes video and audio data according to various standards such as terrestrial or satellite digital multimedia broadcasting (DMB), digital audio broadcasting (DAB), and digital video broadcasting (DVB-T, DVB-H), as well as traffic information (TPEG). It includes additional information such as traffic information and various additional data according to service, BIFS (Binary Format for Scene) data service. In addition, the communication unit 408 ″ synchronizes a signal band provided with traffic information, demodulates the tuned signal, and outputs it to a TPEG decoder (included in the control unit 407).

상기 TPEG 디코더는 TPEG 포맷의 교통정보를 복호화하여, 교통정보에 포함된 신호등 정보를 비롯한 각종 정보를 제어부(407'')에 제공한다.The TPEG decoder decodes traffic information in the TPEG format and provides various information including traffic light information included in the traffic information to the controller 407 ″.

상기 길 안내 정보는, 지도 데이터뿐만 아니라, 차선 정보, 주행 제한 속도 정보, 턴바이턴 정보, 교통 안전 정보, 교통 안내 정보, 차량 정보, 길 찾기 정보 등의 주행과 관련된 각종 정보를 포함할 수 있다. The road guidance information may include not only map data, but also various information related to driving such as lane information, driving speed limit information, turn-by-turn information, traffic safety information, traffic guidance information, vehicle information, and directions information. .

상기 GPS 모듈(401'')를 통해 수신되는 신호는, IEEE(Institute of Electrical and Electronics Engineers)에서 제안한 무선 LAN 및 일부 적외선 통신 등을 포함하는 무선 LAN에 대한 무선 네트워크의 표준 규격인 802.11과, 블루투스, UWB, 지그비 등을 포함하는 무선 PAN(Personal Area Network)에 대한 표준 규격인 802.15과, 도시 광대역 네트워크(Fixed Wireless Access : FWA) 등을 포함하는 무선 MAN(Metropolitan Area Network)(Broadband Wireless Access : BWA)에 대한 표준 규격인 802.16과, 와이브로(Wibro), 와이맥스(WiMAX) 등을 포함하는 무선MAN(MBWA : Mobile Broadband Wireless Access)에 대한 모바일 인터넷에 대한 표준 규격인 802.20 등의 무선 통신 방식을 이용하여 단말기의 위치 정보를 상기 차량 제어 장치(400'')에 제공하도록 구성할 수도 있다.The signal received through the GPS module 401'' is 802.11, which is a standard standard of a wireless network for a wireless LAN including a wireless LAN and some infrared communication proposed by the Institute of Electrical and Electronics Engineers (IEEE), and Bluetooth. 802.15, which is a standard standard for wireless personal area networks (PANs) including UWB, ZigBee, etc., and wireless metropolitan area network (MAN) (Broadband Wireless Access: BWA) ), and 802.20, which is a standard standard for mobile Internet, for wireless MAN (MBWA: Mobile Broadband Wireless Access) including Wibro and WiMAX, etc. It may be configured to provide location information of the terminal to the vehicle control device 400 ″.

상기 차량 제어 장치(400'')에 입력부를 더 포함될 수 있으며, 상기 입력부는, 사용자가 원하는 기능을 선택하거나 정보를 입력받으며, 키패드, 터치스크린, 조그셔틀, 마이크 등의 다양한 장치가 사용될 수 있다.An input unit may be further included in the vehicle control device 400 ″, and the input unit may select a desired function or input information, and various devices such as a keypad, a touch screen, a jog shuttle, and a microphone may be used. .

상기 지도 정합부(403'')는, 상기 제1 위치 데이터 및 상기 제2 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 저장부(404'')로부터 주행 경로에 대응하는 지도 데이터를 독출한다.The map matching unit 403 ″ generates an estimated vehicle location based on the first location data and the second location data, and reads map data corresponding to a driving route from the storage unit 404 ″. do.

상기 지도 정합부(403'')는, 상기 차량 추정 위치와 상기 지도 데이터에 포함된 링크(도로)를 정합(matching)하고, 상기 정합된 지도 정보(지도 정합 결과)를 상기 제어부(407'')에 출력한다. 예를 들면, 상기 지도 정합부(403'')는 상기 제1 위치 데이터 및 상기 제2 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 발생된 차량 추정 위치와 상기 저장부(404'')에 저장된 지도 데이터 내의 링크들을 링크 순번에 따라 정합하고, 상기 정합된 지도 정보(지도 정합 결과)를 제어부(407'')에 출력한다. 상기 지도 정합부(403'')는 상기 정합된 지도 정보(지도 정합 결과)에 포함된 단층 도로 또는 복층 도로 등과 같은 도로 속성 정보를 상기 제어부(407'')에 출력할 수도 있다. 또한, 상기 지도 정합부(403'')의 기능은 상기 제어부(407'')에서 구현될 수도 있다.The map matching unit 403 ″ matches the estimated vehicle location with a link (road) included in the map data, and sends the matched map information (map matching result) to the control unit 407 ″. ). For example, the map matching unit 403 ″ generates a vehicle estimated position based on the first position data and the second position data, and the generated vehicle estimated position and the storage unit 404 ″ The links in the map data stored in the map data are matched according to the link order, and the matched map information (map matching result) is output to the controller 407 ″. The map matching unit 403 ″ may output road attribute information such as a single-story road or a multi-story road included in the matched map information (map matching result) to the control unit 407 ″. In addition, the function of the map matching unit 403 ″ may be implemented in the control unit 407 ″.

상기 저장부(404'')는, 지도 데이터를 저장한다. 이때, 상기 저장되는 지도 데이터는, 도분초 단위(DMS 단위 : Degree/Minute/Second)로 위도 및 경도를 표시하는 지리 좌표(Geographic Coordinate 또는, 경위도 좌표)를 포함한다. 여기서, 상기 저장되는 지도 데이터는 상기 지리 좌표 이외에도 UTM(Universal Transverse Mercator) 좌표, UPS(Universal Polar System) 좌표, TM(Transverse Mercator) 좌표 등을 사용할 수도 있다.The storage unit 404'' stores map data. At this time, the stored map data includes geographic coordinates (Geographic Coordinates or long-latitude coordinates) indicating latitude and longitude in units of degrees, minutes, and seconds (DMS unit: Degree/Minute/Second). Here, the stored map data may use Universal Transverse Mercator (UTM) coordinates, Universal Polar System (UPS) coordinates, Transverse Mercator (TM) coordinates, etc. in addition to the geographic coordinates.

상기 저장부(404'')는, 각종 메뉴 화면, 관심 지점(POI: Point Of Interest, 이하 'POI' 라 한다), 지도 데이터의 특정 위치에 따른 기능 특성 정보 등의 각종 정보를 저장한다.The storage unit 404'' stores various types of information such as various menu screens, points of interest (POI: Point Of Interest, hereinafter referred to as'POI'), and functional characteristic information according to a specific location of map data.

상기 저장부(404'')는, 다양한 사용자 인터페이스(User Interface: UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장한다.The storage unit 404 ″ stores various user interfaces (UIs) and/or graphical user interfaces (GUIs).

상기 저장부(404'')는, 상기 네비게이션 장치(400)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.The storage unit 404'' stores data and programs necessary for the navigation device 400 to operate.

상기 저장부(404'')는, 상기 입력부를 통해 사용자로부터 입력된 목적지 정보를 저장한다. 이때, 상기 목적지 정보는 목적지, 또는 출발지와 목적지 중 어느 하나일 수 있다.The storage unit 404 ″ stores destination information input from a user through the input unit. In this case, the destination information may be a destination, or any one of a departure point and a destination.

상기 표시부(405'')는, 상기 제어부(407)에 의해 발생된 길 안내 정보에 포함된 화상 정보(또는, 길 안내 지도)를 표시한다. 여기서, 상기 표시부(405)는, 터치 센서(터치 스크린) 및 근접 센서를 포함한다. 또한, 상기 길 안내 정보에는, 지도 데이터뿐만 아니라, 차선 정보, 주행 제한 속도 정보, 턴바이턴(TBT) 정보, 교통 안전 정보, 교통 안내 정보, 차량 정보, 길 찾기 정보 등의 주행과 관련된 각종 정보가 포함될 수 있다.The display unit 405 ″ displays image information (or a road guide map) included in the road guide information generated by the control unit 407. Here, the display unit 405 includes a touch sensor (touch screen) and a proximity sensor. In addition, the road guidance information includes not only map data, but also various information related to driving such as lane information, driving speed limit information, turn-by-turn (TBT) information, traffic safety information, traffic guidance information, vehicle information, and directions information. May be included.

상기 표시부(405'')는, 상기 화상 정보를 표시할 때, 상기 저장부(404)에 포함된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면과 길 안내 정보 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(405'')에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터(지도 데이터나 각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다.When displaying the image information, the display unit 405'' displays various contents such as various menu screens and directions information by using a user interface and/or a graphic user interface included in the storage unit 404 can do. Here, the content displayed on the display unit 405 ″ includes various text or image data (including map data or various information data) and a menu screen including data such as icons, list menus, and combo boxes.

상기 음성 출력부(406'')는, 상기 제어부(407)에 의해 발생된 길 안내 정보에 포함된 음성 정보(또는, 상기 길 안내 정보에 대한 음성 메시지)를 출력한다. 여기서, 상기 음성 출력부(406'')는, 앰프 또는 스피커가 될 수도 있다.The audio output unit 406 ″ outputs audio information (or a voice message for the road guidance information) included in the road guidance information generated by the control unit 407. Here, the audio output unit 406 ″ may be an amplifier or speaker.

상기 제어부(407'')는, 상기 정합된 지도 정보를 근거로 길 안내 정보를 발생하고, 상기 발생된 길 안내 정보를 상기 표시부(405'') 및 음성 출력부(406'')에 출력한다. 이때, 상기 표시부(405'')는 상기 길 안내 정보를 표시한다.The control unit 407'' generates road guidance information based on the matched map information, and outputs the generated road guidance information to the display unit 405 ″ and the audio output unit 406 ″. . At this time, the display unit 405 ″ displays the road guide information.

상기 제어부(407''), 상기 정보 제공 센터 및/또는 주변 차량에 장착된 단말기(차량 내비게이션 장치)로부터 실시간 교통 정보를 수신하여 길 안내 정보를 발생한다.Real-time traffic information is received from the control unit 407 ″, the information providing center and/or a terminal (vehicle navigation device) mounted on a nearby vehicle to generate road guidance information.

상기 제어부(407'')는, 콜 센터와 통신부(408'')를 통해 연결되어, 전화 통화를 수행하거나, 상기 차량 제어 장치(400'')와 상기 콜센터 간의 정보를 송신/수신할 수 있다. 여기서, 상기 통신부(408'')는 근거리 무선 통신 방식을 사용하는 블루투스 기능을 갖는 핸즈프리 모듈을 더 포함한다.The control unit 407 ″ may be connected to a call center through a communication unit 408 ″ to perform a phone call or transmit/receive information between the vehicle control device 400 ″ and the call center. . Here, the communication unit 408 ″ further includes a hands-free module having a Bluetooth function using a short-range wireless communication method.

상기 제어부(407'')는 사용자에 의해 POI 검색 메뉴가 선택되면, 현재 위치로부터 목적지까지의 경로 상에 위치한 POI를 검색하고, 그 검색된 POI를 상기 표시부(405'')에 표시한다. 이때, 상기 제어부(407'')는 상기 경로 상에 위치한 POI(경로를 변경(재탐색)하지 않아도 되는 지점, 예를 들면, 주행 도로의 좌측 또는 우측에 위치한 POI) 및/또는 상기 경로의 주변에 위치한 POI(경로를 변경하여야 하는 지점, 예를 들면, 주변 POI를 경유하기 위해 미리 설정된 경로를 변경하여야 하는 지점)를 검색하고, 그 검색된 POI를 상기 표시부(405'')에 표시한다. When the POI search menu is selected by the user, the control unit 407 ″ searches for a POI located on a path from a current location to a destination, and displays the searched POI on the display unit 405 ″. At this time, the control unit 407'' is a POI located on the route (a point where it is not necessary to change (research) a route, for example, a POI located on the left or right of the driving road) and/or the periphery of the route. A POI located at (a point at which a route should be changed, for example, a point at which a preset route should be changed in order to pass through a surrounding POI) is searched, and the retrieved POI is displayed on the display unit 405 ″.

도 8C는 본 명세서에 개시된 일 실시예에 따른 네비게이션 기능과 관련된 화면을 표시한 예시도이다.8C is an exemplary view showing a screen related to a navigation function according to an embodiment disclosed in the present specification.

도 8C에 도시된 화면은 상기 이동 단말기(100), 상기 웨어러블 디바이스(200, 200') 또는 상기 차량 제어 장치(400, 400', 400'')에 의해 표시되는 화면일 수 있다.The screen shown in FIG. 8C may be a screen displayed by the mobile terminal 100, the wearable devices 200 and 200 ′, or the vehicle control apparatus 400, 400 ′ and 400 ″.

상기 이동 단말기(100)가 사용자가 휴대 가능한 형태의 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 웨어러블 디바이스등의 형태로 구현된 경우, 도 8C에 도시된 구성요소 중 일부만이 표시되거나, 도 8C에 표시된 도시된 구성요소들 모두가 표시되지 않을 수 있다.The mobile terminal 100 is a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a wearable device, etc. When implemented in the form of, only some of the components shown in FIG. 8C may be displayed, or all of the components shown in FIG. 8C may not be displayed.

도 8C에 도시된 바와 같이, 상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 화면의 일 영역에 표시된 지도의 방위를 표시하는 아이콘(I1)을 표시할 수 있다. 상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 특정 방향(예를 들어 지구의 진북방향), 이동체의 진행방향, 목적지가 위치하는 방향 등이 화면의 상방향에 고정되어 표시되도록 지도를 표시할 수 있다.As shown in FIG. 8C, the display unit that provides a screen related to the navigation function may display an icon I1 indicating the orientation of the map displayed in one area of the screen. The display unit providing a screen related to the navigation function may display a map such that a specific direction (for example, a true north direction of the earth), a moving object's moving direction, a direction in which a destination is located, and the like are fixed and displayed in the upper direction of the screen.

상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 화면의 일 영역에 상기 음향출력모듈(162)의 활성화 여부 및 볼륨설정을 나타내는 아이콘(I2)을 표시할 수 있다. 사용자는 상기 아이콘(I2)에 터치입력을 가하는 방법으로 상기 음향출력모듈(162)을 활성화 또는 비활성화시키거나 그 볼륨을 조절할 수 있다.The display unit providing a screen related to the navigation function may display an icon I2 indicating whether or not the sound output module 162 is activated and a volume setting in one area of the screen. The user can activate or deactivate the sound output module 162 or adjust its volume by applying a touch input to the icon I2.

상기 디스플레이부는 화면의 일 영역에 TPEG(Transport Portal Experts Group)을 이용한 경로탐색 기능의 활성화 여부를 나타내는 아이콘(I3)을 표시할 수 있다. TPEG(Transport Portal Experts Group)은 본래 1997년에 유럽 방송 연합(European Broadcasting Union)에 의하여 설립된 교통정보 프로토콜 제정을 위한 그룹을 의미하나, 네비게이션 시스템에서는 실시간 교통상황 정보를 이용한 경로안내 기능으로 널리 알려져 있다.The display unit may display an icon I3 indicating whether or not a route search function using a Transport Portal Experts Group (TPG) is activated on one area of the screen. TPEG (Transport Portal Experts Group) refers to a group originally established by the European Broadcasting Union in 1997 to establish a traffic information protocol, but in a navigation system, it is widely known for its route guidance function using real-time traffic information. have.

상기 디스플레이부는 화면의 일 영역에 상기 지도 데이터의 축척(scale)을 표시하는 아이콘(I4)을 표시할 수 있다.The display unit may display an icon I4 indicating a scale of the map data on one area of the screen.

상기 디스플레이부는 화면의 일 영역에 현재시간을 표시하는 아이콘(I5)을 표시할 수 있다. 또한 디스플레이부(161)는 화면의 일 영역에 기 설정된 목적지에 도달하는 예상시간을 표시하는 아이콘(I6)을 표시할 수 있다. 이외에도, 기 설정된 목적지까지 도달하는데 예상되는 소요시간을 표시하는 아이콘이 표시될 수 있다.The display unit may display an icon I5 indicating the current time on one area of the screen. In addition, the display unit 161 may display an icon I6 indicating an expected time of reaching a predetermined destination on a region of the screen. In addition, an icon indicating the estimated time required to reach a preset destination may be displayed.

상기 디스플레이부는 화면의 일 영역에 기 설정된 목적지까지 남은 거리를 표시하는 아이콘(I7)을 표시할 수 있다. The display unit may display an icon I7 indicating a remaining distance to a preset destination on one area of the screen.

상기 디스플레이부는 화면의 일 영역에 표시된 지도를 확대하느 아이콘(I8) 또는 축소하는 아이콘(I8')을 표시할 수 있다.The display unit may display an icon I8 for enlarging the map displayed on an area of the screen or an icon I8 ′ for reducing the map.

상기 디스플레이부는 화면의 일 영역에 상기 이동체의 위치 및 진행방향을 표시하는 아이콘(I9)을 표시할 수 있다. 지도상에 현재 이동체의 위치에 해당하는 지점에 상기 아이콘(I9)을 표시할 수 있다. 또한 이동체의 진행방향은 상기 아이콘(I9)에서 화살표의 꼭지점방향 등으로 표시할 수 있다.The display unit may display an icon I9 indicating the location and the moving direction of the moving object on one area of the screen. The icon I9 may be displayed on the map at a point corresponding to the current location of the moving object. In addition, the moving direction of the moving object may be indicated by the direction of the vertex of the arrow in the icon I9.

상기 디스플레이부는 화면의 일 영역에 이동체가 위치한 지역의 지명을 표시하는 아이콘(I10)을 표시할 수 있다.The display unit may display an icon I10 indicating a place name of an area in which the moving object is located in one area of the screen.

상기 디스플레이부는 화면의 일 영역에 상기 이동체가 진행하는 길이 차도인 경우, 차도의 차선구성을 나타내는 아이콘(I11)을 표시할 수 있다.The display unit may display an icon I11 indicating a lane structure of the roadway when the moving object is a roadway along one area of the screen.

상기 디스플레이부는 상기 기 설정된 목적지(I12, 도8 참조)까지 도달하는데 필요한 경로를 표시할 수 있다. 상기 경로는 이동체의 목적지가 설정되지 않은경우 표시되지 않을 수 있다.The display unit may display a route required to reach the preset destination (I12, see FIG. 8). The route may not be displayed when the destination of the moving object is not set.

전술된 차량 제어 장치(400, 400', 400'')에 의해 수행되는 모든 기능(예를 들어, 네비게이션 기능)은, 상기 차량 제어 장치(400)과 유선 또는 무선으로 연결된 이동 단말기(100) 또는 웨어러블 디바이스(200, 200')에 의해 모두 수행될 수 있다.All functions (e.g., navigation functions) performed by the vehicle control devices 400, 400', 400'' described above are mobile terminal 100 connected to the vehicle control device 400 by wire or wirelessly, or Both can be performed by the wearable devices 200 and 200 ′.

또는, 상기 차량 제어 장치(400, 400', 400'') 및 상기 이동 단말기(100)이 서로 연동 또는 연계하여 상기 모든 기능을 수행할 수 있다.Alternatively, the vehicle control device 400, 400 ′, 400 ″ and the mobile terminal 100 may perform all the above functions by interlocking or linking with each other.

이를 위해, 이동 단말기(100) 또는 웨어러블 디바이스(200)는 상기 차량 제어 장치(400)에 포함된 구성 요소와 동일, 유사하거나 대응되는 구성요소를 포함할 수 있다.To this end, the mobile terminal 100 or the wearable device 200 may include components that are the same as, similar to, or correspond to components included in the vehicle control apparatus 400.

예를 들어, 상기 차량 제어 장치(400)에 포함된 가속도 센서의 역할을 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 구비된 가속도 센서가 할 수 있다.For example, an acceleration sensor included in the mobile terminal 100 or the wearable devices 200 and 200 ′ may serve as an acceleration sensor included in the vehicle control apparatus 400.

일 실시예에 따르면, 상기 차량 제어 장치(400, 400', 400'') 및 상기 이동 단말기(100) 간의 연동 또는 연계를 위해 VNC(Virtual Network Computing, 가상 네트워크 컴퓨팅) 방식이 적용될 수 있다.According to an embodiment, a VNC (Virtual Network Computing) method may be applied to link or link the vehicle control device 400, 400', 400' and the mobile terminal 100.

VNC(Virtual Network Computing, 가상 네트워크 컴퓨팅)는 컴퓨터 환경에서 RFB 프로토콜을 이용하여 원격으로 다른 컴퓨터(또는 다른 단말)를 제어하는 그래픽 데스크톱 공유 시스템을 의미할 수 있다.VNC (Virtual Network Computing) may refer to a graphic desktop sharing system that remotely controls another computer (or other terminal) using an RFB protocol in a computer environment.

상기 VNC는 자판, 마우스 또는 터치 이벤트를 한 단말에서 다른 단말로 전송시켜서 네트워크를 거쳐 그래픽 화면을 갱신하는 방식을 제공할 수 있다.The VNC may provide a method of updating a graphic screen through a network by transmitting a keyboard, mouse, or touch event from one terminal to another terminal.

또한, 전술된 차량 제어 장치(400, 400', 400'')에 의해 수행되는 모든 기능은, 상기 차량 제어 장치(400, 400', 400'')와 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200') 나누어서 수행될 수 있다.In addition, all functions performed by the vehicle control device 400, 400', 400'' described above are the vehicle control device 400, 400', 400'' and the mobile terminal 100 or the wearable device. It can be performed by dividing (200, 200').

즉, 전술된 차량 제어 장치(400, 400', 400'')에 의해 수행되는 모든 기능 중 특정 기능이 수행될 때, 상기 특정 기능 중 일부 기능은 상기 차량 제어 장치(400, 400', 400'')에 의해 수행되고, 나머지 기능은 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 수행될 수 있다.That is, when a specific function among all functions performed by the above-described vehicle control devices 400, 400', 400' is performed, some of the specific functions are the vehicle control devices 400, 400', 400' '), and the remaining functions may be performed by the mobile terminal 100 or the wearable devices 200 and 200'.

예를 들어, 상기 차량에 대한 공조 기능의 경우, 차량 내에 구비된 공기 조화기에 대한 설정 온도에 대한 입력은 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 수행되고, 상기 입력된 설정 온도로 상기 공기 조화기를 제어하는 역할은 상기 차량 제어 장치(400)에 의해 수행될 수 있다.For example, in the case of the air conditioning function for the vehicle, the input of the set temperature for the air conditioner provided in the vehicle is performed by the mobile terminal 100 or the wearable device 200, 200', and the input The role of controlling the air conditioner to a set temperature may be performed by the vehicle control device 400.

본 명세서에 개시된 차량 제어 장치에 대한 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.It is obvious to those skilled in the art that the technology for the vehicle control apparatus disclosed in the present specification may be embodied in other specific forms without departing from the technical spirit disclosed in the present specification.

이하에서는, 도 9 내지 도 21을 참조하여, 본 명세서에 개시된 일 실시예에 따라 차량 제어 장치와 연동하는 이동 단말기에 대해 자세히 상술한다.Hereinafter, a mobile terminal interworking with a vehicle control apparatus according to an embodiment disclosed in the present specification will be described in detail with reference to FIGS. 9 to 21.

차량 제어 장치와 연동하는 이동 단말기Mobile terminal interlocking with vehicle control device

이하에서는 본 명세서에 개시된 일 실시예에 따라 차량 제어 장치와 연동하는 이동 단말기에 대하여 상술하되, 전술한 내용과 중복되는 내용은 그에 갈음하고, 자세한 설명은 생략하기로 한다.Hereinafter, a mobile terminal interworking with a vehicle control device will be described in detail according to an exemplary embodiment disclosed in the present specification, but the content overlapping with the above will be replaced therewith, and a detailed description will be omitted.

본 명세서 개시된 일 실시예에 따른 이동 단말기는, 무선 통신부(110) 및 제어부(180)를 포함한다.A mobile terminal according to an embodiment disclosed in the present specification includes a wireless communication unit 110 and a control unit 180.

도 1에 도시한 바와 같이, 이동 단말기(100)에 포함된 무선 통신부(110)는 차량 제어 장치(400, 400', 400'')와 통신을 수행하는 수단으로서, 일반적으로 이동 단말기(100)를 일 노드(node)로 포함하는 네트워크에 포함된 타 노드와 무선 통신을 수행하기 위한 적어도 하나의 모듈을 포함할 수 있다.As shown in FIG. 1, the wireless communication unit 110 included in the mobile terminal 100 is a means for communicating with the vehicle control devices 400, 400', 400', and generally, the mobile terminal 100 It may include at least one module for performing wireless communication with another node included in the network including as one node.

이에 따라, 이동 단말기(100)는, 무선 통신부(110)를 이용하여 차량 제어 장치(400, 400', 400'')와 일 네트워크를 형성한다.Accordingly, the mobile terminal 100 forms a network with the vehicle control devices 400, 400', 400' using the wireless communication unit 110.

이동 단말기(100)와 차량 제어 장치(400, 400', 400'') 간에 형성되는 네트워크는, 노드들의 연결 형태, 노드들 간의 연결 거리, 사용되는 통신 프로토콜 등을 불문한다.A network formed between the mobile terminal 100 and the vehicle control devices 400, 400', 400'' is irrespective of a connection type of nodes, a connection distance between nodes, a communication protocol used, and the like.

제어부(180)는 이동 단말기(100)의 전반을 제어하는 수단으로서, 적어도 하나의 노드에서 발생한 이벤트를 근거로, 차량의 주행 여부 또는 사용자의 차량 승차 여부에 따라 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')가 자동으로 혹은 사용자 입력을 수신하여, 상기 이벤트에 대응하는 동작을 수행하도록 한다.The controller 180 is a means for controlling the overall of the mobile terminal 100, and based on an event occurring in at least one node, the mobile terminal 100 or a vehicle control device according to whether the vehicle is running or whether the user rides the vehicle. (400, 400', 400'') automatically or receives a user input to perform an action corresponding to the event.

이벤트가 발생한 단말기는 물론, 이벤트가 발생하지 않은 단말기도 이벤트가 발생한 단말기와 상호 연동하여, 상기 이벤트에 따른 동작을 수행함으로써, 사용자의 편의를 도모한다.A terminal in which an event has occurred, as well as a terminal in which the event has not occurred, interwork with the terminal in which the event has occurred and perform an operation according to the event, thereby facilitating user convenience.

구체적으로, 이동 단말기(100)와 차량 제어 장치(400, 400', 400'')는, 상기 이동 단말기(100)와 차량 제어 장치(400, 400', 400'') 중 어느 하나에서 발생한 이벤트를 다른 하나와 공유하여, 상기 차량의 주행 여부 또는 사용자의 차량 승차 여부를 기준으로, 사용자의 편의를 도모하기 위한 새로운 프로그램을 실행하거나 사용자의 안전을 고려하여 수행하지 못했던 프로그램을 재실행할 수 있다.Specifically, the mobile terminal 100 and the vehicle control device 400, 400', 400'' are events that occur in any one of the mobile terminal 100 and the vehicle control device 400, 400', 400'' By sharing with the other, it is possible to execute a new program for the user's convenience or re-execute a program that was not executed in consideration of the user's safety based on whether the vehicle is running or whether the user rides the vehicle.

일 예로, 차량의 주행 중 이동 단말기(100)에서 호 착신 이벤트가 발생한 경우, 이동 단말기(100)는 상기 호 착신을 거부하고, 상기 호 발신처에 "지금 응답할 수 없습니다."라는 응답 메시지를 전송한 이후에, 차량이 비주행 중이거나 사용자가 차량에서 하차하면, 이동 단말기(100)가 착신을 거부한 상대방에 호 발신할 수 있도록 사용자에게 알림으로써, 사용자로부터 호 발신 프로그램의 실행을 유도할 수 있다.For example, when a call reception event occurs in the mobile terminal 100 while the vehicle is driving, the mobile terminal 100 rejects the call reception and transmits a response message stating "You cannot respond now" to the call originator. After that, when the vehicle is not running or the user gets out of the vehicle, the mobile terminal 100 notifies the user to send a call to the other party who has rejected the call, thereby inducing the execution of the call originating program from the user. have.

여기서, 차량의 주행 여부는, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')가 판단할 수 있으며, 차량의 시동 온(on)/오프(off) 상태, 차량의 속도, 차량 위치의 변경 여부 및 차량 제어 장치와 이동 단말기 간의 거리 중 어느 하나 또는 이들의 조합에 의해 판단할 수 있고, 상기 차량의 주행 여부 판단을 위해 복수의 조건을 종합적으로 고려하여, 판단하는 것이 바람직하다.Here, whether the vehicle is running can be determined by the mobile terminal 100 or the vehicle control device 400, 400', 400', and the vehicle's starting on/off state, the vehicle's speed , Whether or not the vehicle location is changed, and the distance between the vehicle control device and the mobile terminal can be determined by any one or a combination thereof, and it is preferable to comprehensively consider a plurality of conditions to determine whether the vehicle is running. Do.

일 예로, 차량 제어 장치(400, 400', 400'')는 직접적으로 차량의 시동 상태, 차량의 이동 속도, 가속도 또는 위치의 변경 여부를 센싱하여, 차량의 주행 여부를 판단하거나, 혹은 이동 단말기(100)와 차량 제어 장치 간의 거리 차이가 0이나 소정 거리보다 작은 경우, 이동 단말기(100)는 이동 단말기(100)의 이동 속도, 가속도 또는 위치의 변경 여부를 판단하여, 상기 차량의 주행 여부를 간접적으로 판단할 수도 있다.As an example, the vehicle control device 400, 400', 400'' directly senses whether the vehicle is started, the vehicle's moving speed, acceleration, or position is changed to determine whether the vehicle is running, or When the distance difference between 100 and the vehicle control device is 0 or less than a predetermined distance, the mobile terminal 100 determines whether the moving speed, acceleration, or position of the mobile terminal 100 is changed, and determines whether the vehicle is traveling. You can also judge indirectly.

또한, 사용자의 차량 승차 여부는, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')가 판단할 수 있으며, 차량 제어 장치(400, 400', 400'')의 외부 입력 수신 여부, 도어(door)의 개폐 여부, 좌석에 설치된 압력 감지 센서에 의한 감지 여부, 차량의 시동 온(on)/오프(off) 상태, 차량의 속도, 차량 위치의 변경 여부 및 차량 제어 장치와 이동 단말기 간의 거리 중 어느 하나 또는 이들의 조합에 의해 판단할 수 있고, 상기 사용자의 차량 승차 여부를 판단을 위해 복수의 조건을 종합적으로 고려하여, 판단하는 것이 바람직하다.In addition, whether the user boards the vehicle can be determined by the mobile terminal 100 or the vehicle control device 400, 400', 400', and external input of the vehicle control device 400, 400', 400' Receiving or not, whether the door is opened or closed, whether it is detected by a pressure sensor installed in the seat, the vehicle start on/off state, the vehicle speed, whether the vehicle position is changed, and the vehicle control device and It may be determined by any one of the distances between the mobile terminals or a combination thereof, and it is preferable to comprehensively consider a plurality of conditions to determine whether or not the user rides the vehicle.

일 예로, 차량 제어 장치(400, 400', 400'')는 사용자 조작이 입력된 경우, 사용자는 현재 차량에 승차 중인 것으로 판단할 수 있고, 또한 좌석에 설치된 압력 감지 센서가 기준값 이상의 압력을 감지한 경우에도 사용자가 현재 차량에 승자 중인 것으로 판단할 수 있으며, 차량의 속도 혹은 차량의 위치가 변경되는 경우에도 사용자가 현재 차량에 승차 중인 것으로 판단할 수 있다.For example, when a user manipulation is input, the vehicle control device 400, 400', 400'' can determine that the user is currently riding the vehicle, and a pressure sensor installed in the seat detects a pressure above the reference value. Even in one case, it may be determined that the user is currently winning the vehicle, and even when the speed of the vehicle or the location of the vehicle changes, it may be determined that the user is currently riding the vehicle.

차량의 주행 여부 또는 사용자의 차량 승차 여부에 대한 판단 근거에 대한 일 예는 상기와 같이 들 수 있으나, 이에 한정하지 않고, 기타 공지된 방법에 의해 판단될 수 있음은 물론이다.An example of the basis for determining whether the vehicle is running or whether the user rides the vehicle may be mentioned as described above, but is not limited thereto and may be determined by other known methods.

또한, 본 명세서 개시된 일 실시예에 따라, 이동 단말기(100) 및/또는 차량 제어 장치(400, 400', 400'')에 발생하는 이벤트는 상기 이동 단말기(100) 및/또는 차량 제어 장치(400, 400', 400'')에 의해 감지되는 것으로, 대기 상태에서 루틴하지 않게, 수신되는 외부 입력이나 통신부를 통해 수신되는 외부 신호, 또는 센서 등에 의해 감지된 값이 일정 임계값 이상인 경우 등을 의미할 수 있다.In addition, according to an embodiment disclosed herein, an event occurring in the mobile terminal 100 and/or the vehicle control device 400, 400', 400'' is the mobile terminal 100 and/or the vehicle control device ( 400, 400', 400''), so that it is not routine in the standby state, when the external signal received through the external input or communication unit, or the value detected by the sensor is above a certain threshold, etc. It can mean.

구체적으로, 본 명세서에 개시된 일 실시예에 따른 이동 단말기(100) 및/또는 차량 제어 장치(400, 400', 400'')에서 발생하는 이벤트는, 호 착신 이벤트, 메시지 수신 이벤트, 사용자와 차량 간의 거리가 일정 거리 이내에 근접한 차량 근접 이벤트, 사용자가 차량에 승차하였을 경우 차량 승차 이벤트, 차량이 주정차인 상태인 차량 비주행 이벤트, 사용자가 차량으로부터 하차하였을 경우 차량 하차 이벤트 등이나 이에 한정하지 않는다.Specifically, events occurring in the mobile terminal 100 and/or the vehicle control device 400, 400 ′, 400 ″ according to the exemplary embodiment disclosed in the present specification include a call reception event, a message reception event, a user and a vehicle A vehicle proximity event in which the distance between the vehicle is close within a certain distance, a vehicle ride event when the user boards the vehicle, a vehicle non-driving event when the vehicle is parked or stopped, a vehicle alighting event when the user gets off the vehicle, etc.

한편, 본 명세서에서 개시된 일 실시예에 따라, 이동 단말기(100)는 상기 호 발신 프로그램, 길안내 프로그램 또는 메모 프로그램 실행에 대한 사용자 입력을 유도하기 위한 팝업창을 화면에 표시하는 출력부(150)를 더 포함할 수 있다.Meanwhile, according to an embodiment disclosed in the present specification, the mobile terminal 100 includes an output unit 150 that displays a pop-up window for inducing a user input for executing the call originating program, directions program, or memo program on the screen. It may contain more.

이때, 상기와 같이 이벤트 발생에 따른 동작을 수행하기 위한 사용자 입력을 받기 위해, 이동 단말기(100)에서 실행되는 운영체제 화면에 아이콘의 형태로 혹은 위젯(widget) 형태로 화면에 표시될 수 있으나, 이동 단말기(100)의 운영체제 화면 전환과 무관하게 위치를 고정시키고, 타 아이콘 등과의 간섭을 방지하며, 사용자가 임의로 그 위치를 변경할 수 있도록 하기 위해, 팝업창 형태로 화면에 표시하는 것이 바람직하다.In this case, in order to receive a user input for performing an action according to the occurrence of an event as described above, it may be displayed on the screen in the form of an icon or in the form of a widget on the operating system screen executed in the mobile terminal 100, but the movement In order to fix the location regardless of the operating system screen change of the terminal 100, to prevent interference with other icons, and to allow the user to arbitrarily change the location, it is preferable to display it on the screen in the form of a pop-up window.

도 10A는 본 명세서에 개시된 일 실시예에 따른 팝업창을 화면에 표시한 이동 단말기의 예시도이다.10A is an exemplary diagram of a mobile terminal displaying a pop-up window on a screen according to an embodiment disclosed in the present specification.

도 10A에 도시한 바와 같이, 이동 단말기(100)와 차량 제어 장치(400, 400', 400'') 중 어느 하나의 노드에서 발생한 이벤트에 대응하는 데이터를 수신한 이동 단말기(100)는 상기 데이터에 대응하는 동작을 수행하기 전에, 상기 동작 수행 여부에 대한 사용자 입력을 받기 위해, 이동 단말기(100)는 화면 일부에 사용자 입력을 받는 팝업창(W)을 표시할 수 있다.As shown in FIG. 10A, the mobile terminal 100 receiving data corresponding to an event occurring in any one of the mobile terminal 100 and the vehicle control device 400, 400', 400' Before performing an operation corresponding to, in order to receive a user input on whether to perform the operation, the mobile terminal 100 may display a pop-up window W for receiving a user input on a part of the screen.

팝업창(W)은, 외곽 형상이 다각형, 원, 타원 등일 수 있으나, 바람직하게는 팝업창(W)이 타 노드인 차량 제어 장치(400, 400', 400'')와 관련된 것임을 사용자가 한눈에 인식할 수 있도록, 상기 차량 제어 장치(400, 400', 400'')에 대응되는 형상, 일 예로 차량 형상인 것이 바람직하다(도 10B 참조).The pop-up window W may have a polygon, a circle, an ellipse, etc., but preferably, the user at a glance recognizes that the pop-up window W is related to the vehicle control device 400, 400 ′, 400 ″, which is another node. In order to be able to do so, it is preferable that the shape corresponding to the vehicle control devices 400, 400', 400", for example, a vehicle shape (see FIG. 10B).

팝업창(W)은 전술한 바와 같이, 사용자의 입력 또는 사용자의 설정에 의해, 위치가 변경될 수 있다.As described above, the location of the pop-up window W may be changed by a user's input or a user's setting.

한편, 팝업창(W)은 도 10A 및 10b에 도시한 바와 같이, 이벤트 발생에 따라 그에 대응하는 동작을 수행하도록 사용자 입력을 받는 버튼 형태의 적어도 하나의 그래픽 오브젝트(WB)를 포함하여, 화면에 표시할 수 있다.On the other hand, the pop-up window (W) includes at least one graphic object (WB) in the form of a button that receives a user input to perform an action corresponding to the occurrence of an event, as shown in FIGS. 10A and 10B, and is displayed on the screen. can do.

이때, 사용자로부터 적어도 하나의 그래픽 오브젝트(WB)에 대한 선택 입력을 수신한 경우, 그에 대응하는 동작, 일 예로, 특정 프로그램을 실행할 수 있다.In this case, when a selection input for at least one graphic object WB is received from a user, an operation corresponding thereto, for example, a specific program may be executed.

일 예로, 도 10A에 도시한 바와 같이, 상기 팝업창(W) 내 3개의 그래픽 오브젝트는, 순차적으로 위에서 아래로, 지도 관련 프로그램을 실행하기 위한 입력을 받는 제1 그래픽 오브젝트, 호 착발신 프로그램을 실행하기 위한 입력을 받는 제2 그래픽 오브젝트 및 메모 프로그램을 실행하기 위한 입력을 받는 제3 그래픽 오브젝트일 수 있다.As an example, as shown in FIG. 10A, the three graphic objects in the pop-up window W are sequentially from top to bottom, receiving inputs for executing a map-related program, and executing a call incoming/outgoing program. It may be a second graphic object for receiving an input for and a third graphic object for receiving an input for executing a memo program.

그래픽 오브젝트(WB)의 개수 혹은 이와 연계된 프로그램은 사용자에 의해 설정될 수 있다.The number of graphic objects WB or a program associated therewith may be set by the user.

또한, 그래픽 오브젝트(WB)에 연계된 프로그램은 사용자가 자주 사용하는 프로그램으로 제어부가 설정할 수 있으나, 바람직하게는 제어부가 차량의 주행 또는 승하차 여부를 기준으로 특정 시간 범위 내에 사용자가 자주 사용하는 프로그램으로 설정할 수 있다.In addition, the program linked to the graphic object (WB) can be set by the control unit as a program frequently used by the user, but preferably the control unit is a program frequently used by the user within a specific time range based on whether the vehicle is running or getting on or off. Can be set.

이때, 제어부가 설정하는 그래픽 오브젝트(WB)에 연계된 프로그램은 기 설정된 실행 횟수를 기준으로 그 이상 실행한 프로그램일 수 있으며, 그 개수는 특별히 제한하지 않는다.At this time, the program linked to the graphic object WB set by the control unit may be a program that has been executed more than the preset number of executions, and the number is not particularly limited.

한편, 상기 그래픽 오브젝트(WB) 상 또는 상기 그래픽 오브젝트(WB) 주변에는, 그래픽 오브젝트(WB)에 대응하는 이벤트 발생 여부 및/또는 발생 횟수를 표시하는 인디케이터(WI)를 표시할 수 있다.Meanwhile, on the graphic object WB or around the graphic object WB, an indicator WI indicating whether an event corresponding to the graphic object WB has occurred and/or the number of occurrences may be displayed.

일 예로, 도 10A에 도시한 바와 같이, 지도 관련 프로그램을 실행하기 위한 입력을 받는 제1 그래픽 오브젝트의 우상단에는 "1"의 표시를 할 수 있다. 구체적으로, 사용자가 하차한 위치가 목적지 위치와 상이하여, 차량 제어 장치(400, 400', 400'')에서 이벤트가 1회 발생하였으며, 이동 단말기(100)가 사용자로부터 상기 제1 그래픽 오브젝트를 선택하는 입력을 받으면, 이동 단말기(100)는 사용자가 하차한 위치에서 목적지까지 길안내를 제공하는 프로그램을 수행할 수 있다.For example, as shown in FIG. 10A, a "1" may be displayed on the upper right of the first graphic object receiving an input for executing a map-related program. Specifically, since the location where the user alighted was different from the destination location, an event occurred once in the vehicle control device (400, 400', 400'), and the mobile terminal 100 received the first graphic object from the user. Upon receiving the selected input, the mobile terminal 100 may execute a program that provides directions from the location where the user alighted to the destination.

또 다른 실시예에 따라, 이벤트 발생 여부 및/또는 발생 횟수를 표시하는 인디케이터를 프로그램 아이콘 상 또는 프로그램 아이콘 주변에 표시할 수 있다. 여기서, 프로그램 아이콘은 상기 이벤트에 대응하는 동작을 수행하는 프로그램에 대한 실행 명령을 입력받기 위해 화면에 출력되는 그래픽 오브젝트일 수 있다.According to another embodiment, an indicator indicating whether an event has occurred and/or the number of occurrences may be displayed on or around the program icon. Here, the program icon may be a graphic object displayed on a screen to receive an execution command for a program that performs an operation corresponding to the event.

도 10C는 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 화면에 표시된 아이콘 주위에 이벤트 발생 횟수를 표시한 예시도이다.10C is an exemplary diagram showing the number of occurrences of an event around an icon displayed on a screen of a mobile terminal according to an embodiment disclosed in the present specification.

도 10C에 도시한 바와 같이, 이벤트 발생 여부 및/또는 발생 횟수를 표시하는 인디케이터(AI)는 프로그램 아이콘(IC) 부근에 표시할 수 있다.As illustrated in FIG. 10C, an indicator AI indicating whether an event has occurred and/or the number of occurrences may be displayed near the program icon IC.

즉, 이벤트 발생시 이에 대응하는 동작을 수행하기 위한 선택 입력은 상기 그래픽 오브젝트(WB) 뿐만 아니라, 상기 그래픽 오브젝트(WB)와 동일, 유사한 프로그램을 실행하는 명령을 입력받는 아이콘(IC) 상에 또는 그 주위에, 상기 인디케이터(AI)를 표시할 수 있다.That is, when an event occurs, the selection input for performing an operation corresponding thereto is the same as the graphic object WB, as well as the graphic object WB, on or on the icon IC receiving a command for executing a similar program. Around, the indicator AI may be displayed.

일 예로, 차량의 주행 중 이동 단말기(100)에서 호 착신 이벤트가 1회 발생하였고, 차량이 비주행 중이거나 사용자가 차량에서 하차하면, 이동 단말기(100)가 착신을 거부한 상대방에 호 발신할 수 있도록, 호 착발신 프로그램의 실행 명령을 입력받는 그래픽 오브젝트(WB) 이외에 상기 호 착발신 프로그램의 아이콘(IC) 우상단에 "1"을 표시할 수 있다.For example, when a call reception event occurs once in the mobile terminal 100 while the vehicle is driving, and the vehicle is not driving or the user gets out of the vehicle, the mobile terminal 100 will send a call to the other party who rejected the call. For this, in addition to the graphic object WB receiving an execution command of the call destination program, “1” may be displayed in the upper right corner of the icon IC of the call destination program.

또 다른 실시예에 따라, 적어도 하나의 노드에서 발생한 이벤트에 대응하는 동작을 수행하는 경우, 동작 수행 중 화면 일부에 상기 이벤트 발생 여부 또는 상기 이벤트 발생 횟수를 화면상에 표시할 수 있다.According to another embodiment, when an operation corresponding to an event occurring in at least one node is performed, whether the event occurs or the number of occurrences of the event may be displayed on a part of a screen during operation.

도 10D는 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 프로그램 실행 화면 일부에 이벤트 발생 여부를 표시한 예시도이다.10D is an exemplary diagram showing whether an event occurs on a part of a program execution screen of a mobile terminal according to an embodiment disclosed in the present specification.

사용자 입력을 근거로 프로그램이 실행된 경우, 실행된 프로그램 화면상에 이벤트 발생 여부 또는 이벤트 발생 횟수를 표시할 수 있다. 이때, 실행된 프로그램은 이벤트 발생과 관련된 프로그램임은 물론이다.When a program is executed based on a user input, whether an event has occurred or the number of occurrences of the event can be displayed on the executed program screen. At this time, it goes without saying that the executed program is a program related to event occurrence.

일 예로, 도 10D에 도시한 바와 같이, 호 착발신 프로그램이 실행된 경우, 차량의 주행 중 이동 단말기(100)에서 호 착신 이벤트가 1회 발생한 경우, 상기 호 착발신 프로그램 실행 화면 내 일부분에 이벤트 발생 여부를 표시할 수 있다. 이때, 이벤트 발생 횟수는 숫자 또는 발생한 이벤트가 있음을 나타내는 "차량" 형상의 아이콘(CI)을 상기 이벤트 발생 횟수만큼 반복하여 화면에 표시할 수 있다.For example, as shown in FIG. 10D, when a call incoming/outgoing program is executed, when a call incoming event occurs once in the mobile terminal 100 while the vehicle is driving, whether an event occurs in a part of the execution screen of the call incoming/outgoing program Can be displayed. In this case, the number of occurrences of the event may be displayed on the screen by repeating a number or a “vehicle”-shaped icon CI indicating that there is an event that has occurred.

여기서, 이벤트 발생 여부를 표시하는 아이콘(CI)은, 이동 단말기(100) 혹은 차량 제어 장치(400, 400', 400'')에서 발생한 이벤트에 대응하는 데이터로부터 추출한 정보에 따라 그 위치가 정해질 수 있다.Here, the icon CI indicating whether an event has occurred is determined according to information extracted from data corresponding to the event occurring in the mobile terminal 100 or the vehicle control device 400, 400', 400'. I can.

일 예로, 차량의 주행 중 이동 단말기(100)에서 호 착신 이벤트가 발생하였고, 이에 대응하는 데이터로부터 호 발신처가 "우리 딸"임을 추출하여, 추출한 정보에 따라, 호 착발신 프로그램을 나타낸 화면 중 호 착발신 리스트 중 "우리 딸"에 해당하는 영역에 상기 "차량" 형상의 아이콘을 표시하는 것이 바람직하다.As an example, a call incoming event occurred in the mobile terminal 100 while the vehicle was driving, and the call originating destination was extracted from the data corresponding to this, and according to the extracted information, the call incoming and outgoing of the screen showing the call incoming and outgoing program It is preferable to display the "vehicle"-shaped icon in the area corresponding to "my daughter" in the list.

한편, 출력부(150)는, 상기 이벤트가 발생한 경우, 빛, 진동 또는 소리 형태로 출력할 수 있다.Meanwhile, when the event occurs, the output unit 150 may output light, vibration, or sound.

일 예로, 디스플레이부(151)를 통해 특정 화면을 출력하여, 사용자에게 시각적으로 이벤트가 발생하였음을 알리거나, 혹은 발광 수단(미도시)을 통해 특정 색상이나 특정 색상을 소정 간격으로 점멸하는 등으로 사용자에게 시각적으로 이벤트가 발생하였음을 알리거나, 혹은 알람부(154)나 음향 출력부(153)를 통해 특정 색상진동이나 소리를 출력하여, 사용자에게 촉각적으로 또는 청각적으로 이벤트가 발생하였음을 알릴 수 있다.For example, by outputting a specific screen through the display unit 151, visually notifying the user that an event has occurred, or flashing a specific color or a specific color at predetermined intervals through a light emitting means (not shown). Notifying the user that an event has occurred visually, or by outputting a specific color vibration or sound through the alarm unit 154 or the sound output unit 153 to indicate that the event has occurred tactilely or aurally to the user. I can tell.

이동 단말기와 차량 제어 장치 간 Between mobile terminal and vehicle control device 연동되는Interlocked 구체적인 Concrete 실시예Example

이하에서는 본 명세서에서 개시된 일 실시예에 따른 이동 단말기와 차량 제어 장치 간 연동되는 구체적인 실시예를 살펴본다.Hereinafter, a specific embodiment of interworking between a mobile terminal and a vehicle control device according to an embodiment disclosed in the present specification will be described.

차량 승차 전 - 제1 Before boarding the vehicle-1st 실시예Example

이동 단말기(100)는 차량의 위치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 즉, 차량 근접 이벤트가 발생한 경우, 사용자 입력에 따라 차량의 위치를 출력할 수 있다.The mobile terminal 100 may output the location of the vehicle according to a user input when the power is turned on within a certain distance from the location of the vehicle, that is, when a vehicle proximity event occurs.

이동 단말기(100)의 제어부(180)는 차량 위치와의 거리를 산출하기 위해, 차량 제어 장치(400, 400', 400'')와의 거리를 산출할 수 있다.The controller 180 of the mobile terminal 100 may calculate the distance to the vehicle control devices 400, 400', 400' in order to calculate the distance to the vehicle location.

이때, 상기 제어부(180)가 차량 제어 장치(400, 400', 400'')와의 거리를 산출하는 일 방법은 사용자가 차량 하차시 이동 단말기(100)가 인식한 위치와 현재 이동 단말기(100)의 위치를 이용하여, 이동 단말기(100)와 차량 간의 거리 차이를 산출할 수 있다. 이는 사용자가 차량 하차시 차량이 주행되지 않은 것을 가정한 것으로, 차량이 견인되거나 이동 단말기(100)를 휴대하지 않은 자에 의한 차량 운행이 있은 경우에는 부정확할 수 있으나, 이동 단말기(100)와 차량 간의 거리 산출이 용이하고, 연산량이 많지 않은 이점이 있다.In this case, one method of calculating the distance from the vehicle control device 400, 400', 400'' by the controller 180 is the location recognized by the mobile terminal 100 when the user gets off the vehicle and the current mobile terminal 100 The distance difference between the mobile terminal 100 and the vehicle can be calculated using the location of. This is assuming that the vehicle is not driven when the user gets off the vehicle, and it may be inaccurate when the vehicle is towed or when the vehicle is driven by a person who does not carry the mobile terminal 100, but the mobile terminal 100 and the vehicle There is an advantage that it is easy to calculate the distance between the two and the amount of calculation is not large.

이와 달리, 이동 단말기(100)와 차량 간의 거리를 산출하기 위해, 이동 단말기(100)와 차량 제어 장치(400, 400', 400'') 각각의 현재 위치를 이용하여, 두 위치 사이의 거리를 산출하거나, 이동 단말기(100)와 차량 제어 장치(400, 400', 400'') 간에 송수신되는 무선 신호의 세기 등을 근거로 거리를 산출할 수 있으나, 이에 한정하지 않으며, 두 단말기 간의 거리를 산출하는 공지의 방법이 모두 적용될 수 있다. In contrast, in order to calculate the distance between the mobile terminal 100 and the vehicle, the distance between the two positions is determined by using the current positions of the mobile terminal 100 and the vehicle control devices 400, 400', 400' Alternatively, the distance may be calculated based on the strength of the wireless signal transmitted and received between the mobile terminal 100 and the vehicle control device 400, 400', 400', but is not limited thereto, and the distance between the two terminals is All known methods of calculation can be applied.

한편, 이동 단말기(100)를 휴대한 사용자가 차량을 향해 이동함으로써, 이동 단말기(100)가 차량 제어 장치(400, 400', 400'')를 중심으로 일정 거리 이내에 위치한 경우, 이동 단말기(100)가 전원이 온(on) 상태라면, 프로그램 실행에 의해 차량의 위치를 출력할 수 있다.Meanwhile, when a user carrying the mobile terminal 100 moves toward a vehicle and the mobile terminal 100 is located within a certain distance around the vehicle control devices 400, 400', 400', the mobile terminal 100 If) is the power on (on) state, the position of the vehicle can be output by executing the program.

*구체적으로, 이동 단말기(100)와 차량 제어 장치(400, 400', 400'') 간의 거리가 일정 거리 이내에서, 이동 단말기(100)가 온(on) 상태인 경우에는, 도 10A와 같은 팝업창(W) 내에 차량의 위치를 출력하는 프로그램에 대응하는 그래픽 오브젝트(WB) 주위에 "1"을 표시하는 인디케이터(WI)가 표시될 수 있고, 사용자 입력에 따라 상기 그래픽 오브젝트(WB)를 선택하는 입력이 수신된 경우, 이동 단말기(100)는 차량의 위치를 화면에 출력할 수 있다.*Specifically, when the distance between the mobile terminal 100 and the vehicle control devices 400, 400', 400'' is within a certain distance, and the mobile terminal 100 is in the on state, as shown in FIG. 10A In the pop-up window W, an indicator WI indicating “1” may be displayed around the graphic object WB corresponding to the program that outputs the position of the vehicle, and the graphic object WB is selected according to a user input. When an input to be received is received, the mobile terminal 100 may output the location of the vehicle on the screen.

일 예로, 도 11A에 도시한 바와 같이, 상기 차량의 위치를 출력하는 프로그램 실행에 의해, 차량의 위치를 지도 상에 출력할 수 있다.For example, as shown in FIG. 11A, by executing a program that outputs the location of the vehicle, the location of the vehicle may be output on a map.

보다 바람직하게는, 사용자의 현재 위치를 상기 차량의 위치와 함께 표시하되, 현재 위치로부터 차량 위치까지의 최단 및/또는 최적 경로를 산출하고, 사용자가 상기 경로에 따라 현재 위치에서 차량 위치까지 이동할 수 있도록 길안내를 수행할 수 있다.More preferably, the current location of the user is displayed together with the location of the vehicle, but the shortest and/or optimal route from the current location to the vehicle location is calculated, and the user can move from the current location to the vehicle location according to the route. So that you can follow directions.

또한, 이동 단말기 본체가 향한 방향에 따라 상기 차량 위치까지 도달하기 위한 주행 방향을 실시간으로 산출하고, 산출된 주행 방향을 화살표로 턴-바이-턴(TBT: Turn By Turn) 방식으로 화면에 표시하는 것이 바람직하다.In addition, the driving direction for reaching the vehicle position is calculated in real time according to the direction the mobile terminal body is facing, and the calculated driving direction is displayed on the screen in a turn-by-turn (TBT) method. It is desirable.

이때, 턴-바이-턴 방식으로 차량 위치까지 주행 방향을 화살표로 표시할 때, 웨어러블 디바이스 화면에 출력하는 것이 바람직하다.In this case, when displaying the driving direction to the vehicle position in a turn-by-turn manner with an arrow, it is preferable to output it on the screen of the wearable device.

또한, 사용자가 현재 위치로부터 차량 위치까지 이동 거리 또는 도보 속도에 따른 예측 이동 시간 등을 산출하여, 화면에 표시하는 것이 바람직하다.In addition, it is preferable that the user calculates the travel distance from the current position to the vehicle position or the predicted travel time according to the walking speed and displays it on the screen.

한편, 또 다른 실시예에 따라, 차량의 위치를 사용자 입력에 의해 설정된 사진 또는 메모를 출력할 수 있다.Meanwhile, according to another embodiment, a picture or memo set by a user input for the location of the vehicle may be output.

도 11B에 도시한 바와 같이, 사용자가 차량 하차 후 차량 혹은 그 주변에 대한 사진을 촬영한 경우, 차량의 위치를 출력하는 프로그램은 상기 촬영된 사진을 출력할 수 있다.As shown in FIG. 11B, when a user takes a picture of the vehicle or its surroundings after getting off the vehicle, a program for outputting the location of the vehicle may output the photographed picture.

차량의 위치를 정확하게 인식할 수 없는 지하 주차장에 차량이 주정차된 경우, 사용자에 의해 설정된 사진을 화면에 출력함으로써, 사용자가 현재 차량의 위치로 이동할 수 있는 단서를 제공할 수 있다.When the vehicle is parked and stopped in an underground parking lot where the location of the vehicle cannot be accurately recognized, a picture set by the user is displayed on the screen, thereby providing a clue that the user can move to the current vehicle location.

한편, 상기 차량의 위치를 출력하는 프로그램이 샐행되었을 때, 이동 단말기(100)가 상기 차량과의 거리 차이에 따라 진동의 크기 또는 주기를 달리하여 출력할 수 있다.On the other hand, when a program for outputting the location of the vehicle is executed, the mobile terminal 100 may output by varying the magnitude or period of the vibration according to the difference in distance from the vehicle.

도 12는 본 명세서에 개시된 일 실시예에 따른 거리 알람의 다양한 출력 방식을 나타내는 예시도이다.12 is an exemplary diagram illustrating various output methods of a distance alarm according to an embodiment disclosed in the present specification.

일 예로, 도 12에 도시한 바와 같이, 상기 이동 단말기(100)는 기본 진폭 및 기본 주파수를 가지는 진동 형태의 거리 알람(AS10)을 기준으로, 산출된 이동 단말기(100)와 차량 간의 거리 차이가 작아짐에 따라 진동의 주파수를 증가시킨 거리 알람(AS20)을 출력하거나, 진동의 진폭을 증가시킨 거리 알람(AS30)을 외부로 출력할 수 있다.As an example, as shown in FIG. 12, the mobile terminal 100 has a distance difference between the mobile terminal 100 and the vehicle calculated based on the vibration type distance alarm AS10 having a basic amplitude and a fundamental frequency. As it becomes smaller, a distance alarm AS20 in which the frequency of vibration is increased may be output, or a distance alarm AS30 in which the amplitude of vibration is increased may be output to the outside.

또한, 상기 이동 단말기(200)는, 기본 진폭 및 기본 주파수를 가지는 진동 형태의 거리 알람(AS10)을 기준으로, 상기 산출된 거리 차이가 작아짐에 따라 진동의 주파수 또는 진폭이 시간에 따라 가변하는 거리 알람(AS40)을 외부로 출력할 수 있다.In addition, the mobile terminal 200 is a distance in which the frequency or amplitude of the vibration varies with time as the calculated distance difference decreases, based on the vibration-type distance alarm AS10 having a basic amplitude and a fundamental frequency. Alarm (AS40) can be output to the outside.

전술한 바와 같이, 이동 단말기(100)와 차량 간의 거리 차이에 따라 진동의 주파수 또는 진폭을 달리하여 출력할 수 있으나, 또 다른 실시예에 따라, 알림음의 진폭 또는 주파수를 달리하여 출력할 수 있다.As described above, the frequency or amplitude of the vibration may be differently output according to the distance difference between the mobile terminal 100 and the vehicle, but according to another embodiment, the amplitude or frequency of the notification sound may be differently output. .

또한, 또 다른 실시예에 따라, 이동 단말기(100)와 차량 간의 거리 차이에 따라 기 저장된 음성 중 일 음성을 선택(일 예로, "10m 남았습니다")하여 출력할 수 있다.In addition, according to another embodiment, according to the distance difference between the mobile terminal 100 and the vehicle, one of the previously stored voices may be selected (for example, "10m remaining") and output.

차량 승차 전 - 제2 Before boarding the vehicle-2nd 실시예Example

이동 단말기(100)는 차량의 위치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 즉, 차량 근접 이벤트가 발생한 경우, 사용자 입력에 따라 차량 제어 장치(400, 400', 400'')의 목적지를 설정하기 위한 프로그램을 실행할 수 있다.When the mobile terminal 100 is powered on within a certain distance from the location of the vehicle, that is, when a vehicle proximity event occurs, the vehicle control device 400, 400', 400'' according to a user input You can run a program to set the destination of the device.

도 13A는 본 명세서에서 개시된 일 실시예에 따른 목적지 설정 화면을 나타내는 예시도이다.13A is an exemplary diagram illustrating a destination setting screen according to an embodiment disclosed in the present specification.

이동 단말기(100)는 이벤트 발생시 차량 제어 장치(400, 400', 400'')에 목적지를 설정하기 위한 프로그램을 실행할 수 있으며, 상기 목적지 설정 프로그램은 목적지를 설정하기 위해, 주소 또는 명칭을 검색하기 위한 입력창을 화면에 표시할 수 있다. 또한, 이동 단말기(100)는 음성을 인식하여 목적지를 검색할 수 있다.When an event occurs, the mobile terminal 100 can execute a program for setting a destination on the vehicle control devices 400, 400', 400'', and the destination setting program searches for an address or name to set a destination. You can display the input window for the screen. In addition, the mobile terminal 100 may search for a destination by recognizing a voice.

한편, 자주 검색한 목적지, 사용자에 의해 저장된 목적지, 최근 목적지 등을 도 13A(a)에 도시한 바와 같이, 리스트 형태로 표시할 수 있으며, 사용자는 리스트 중 어느 하나를 선택하고, 선택된 목적지를 무선 통신부(110)를 통해 차량 제어 장치(400, 400', 400'')로 전송함으로써, 차량 제어 장치(400, 400', 400'')에 목적지로 설정할 수 있다.Meanwhile, frequently searched destinations, destinations stored by the user, and recent destinations can be displayed in the form of a list as shown in Fig. 13A(a), and the user selects any one of the lists and selects the selected destination by wireless. By transmitting to the vehicle control device 400, 400 ′, 400 ″ through the communication unit 110, the vehicle control device 400, 400 ′, 400 ″ can be set as a destination.

이때, 이동 단말기(100)가 차량 제어 장치(400, 400', 400'')에 전송하는 데이터는 목적지 이외에 경유지 혹은 경로 지점을 포함한 경로 정보를 포함할 수 있다.In this case, the data transmitted by the mobile terminal 100 to the vehicle control devices 400, 400 ′, 400 ″ may include route information including a stopover point or route point in addition to the destination.

사용자에 의해 목적지를 선택한 경우, 이동 단말기(100)는 선택된 목적지 또는 경유지 혹은 경로 지점을 확인할 수 있도록, 도 13A(b)에 도시한 바와 같이, 지도 상에 표시할 수 있다.When a destination is selected by the user, the mobile terminal 100 may display the selected destination, transit point, or route point on a map, as shown in FIG. 13A(b).

이때, 화면 일부에 현재 차량의 위치로부터 목적지까지의 최단 혹은 최적 거리 및/또는 소요 시간 등을 화면에 출력할 수 있고, 사용자는 "목적지 설정"을 선택 입력하여, 선택된 목적지를 차량 제어 장치(400, 400', 400'')에 설정할 수 있다.In this case, the shortest or optimal distance and/or the required time from the current vehicle location to the destination may be output on a part of the screen, and the user selects “set destination” to input the selected destination to the vehicle control device 400 , 400', 400'').

*또 다른 실시예에 따라, 이동 단말기(100)는 차량 제어 장치(400, 400', 400'')에 목적지를 설정하기 위한 프로그램을 실행하고, 도 13A에 도시한 바와 같이 목적지 리스트를 화면에 출력할 수 있다.* According to another embodiment, the mobile terminal 100 executes a program for setting a destination on the vehicle control devices 400, 400', 400', and displays a destination list on the screen as shown in FIG. 13A. Can be printed.

이때, 화면에 출력되는 목적지 리스트는, 이동 단말기(100)의 메모리(160)에 저장된 검색 로그(log)를 근거로 일정 횟수 이상 검색된 장소명이거나, 일정 관리 프로그램에 일정 횟수 이상 등록된 장소이거나, 특정 장소명이 포함된 메시지가 일정 횟수인 그 장소를 포함할 수 있다.At this time, the destination list displayed on the screen is the name of a place searched more than a certain number of times based on the search log stored in the memory 160 of the mobile terminal 100, a place registered more than a certain number of times in the schedule management program, or The message including the place name may include the place of a certain number of times.

구체적으로, 이동 단말기(100)에 포함된 적어도 하나의 검색 프로그램은 사용자로부터 검색 요청을 받은 쿼리(query)를 메모리(160)에 적어도 하나 저장할 수 있다.Specifically, at least one search program included in the mobile terminal 100 may store at least one query in which a search request is received from a user in the memory 160.

제어부(180)는 메모리(160)에 저장된 적어도 하나의 쿼리를 근거로 사용자가 검색을 요청한 장소명이 일정 횟수 이상인 장소명을 선택하여, 목적지 리스트에 출력할 수 있다.Based on at least one query stored in the memory 160, the controller 180 may select a place name whose search request by the user is equal to or greater than a certain number of times and output it to the destination list.

여기서, 쿼리에 장소명이 포함되어 있는지 여부는, 이동 단말기(100)의 메모리(160) 혹은 차량 제어 장치(400, 400', 400'')에 저장된 장소명과 비교하거나, 무선 통신부(110)를 통해 연결된 네비게이션 업체 서버에서 제공하는 장소명과 비교하여, 판단할 수 있다.Here, whether the place name is included in the query is compared with the place name stored in the memory 160 of the mobile terminal 100 or the vehicle control device 400, 400', 400'', or through the wireless communication unit 110 It can be determined by comparing it with the place name provided by the connected navigation company server.

또 다른 실시예에 따라, 이동 단말기(100)는 일정 관리 프로그램에 저장되어 있는 장소 중 일정 횟수 이상인 장소를 선택하여, 목적지 리스트에 출력할 수 있다.According to another embodiment, the mobile terminal 100 may select a place that is more than a certain number of places stored in the schedule management program and output it to the destination list.

또한, 또 다른 실시예에 따라, 특정 장소명이 포함된 메시지가 일정 횟수 이상인 경우, 상기 특정 장소명을 목적지 리스트에 출력할 수 있다.In addition, according to another embodiment, when the message including the specific place name is more than a certain number of times, the specific place name may be output to the destination list.

이동 단말기(100)의 제어부(180)는 메시지에 포함된 텍스트(text)로부터 시간 및/또는 장소명 등을 추출하고, 메모리(160)에 저장된 메시지 중 특정 장소명을 포함한 메시지의 수를 근거로, 일정 횟수 이상인 장소명이 상기 목적지 리스트에 노출되도록 할 수 있다.The controller 180 of the mobile terminal 100 extracts the time and/or place name from text included in the message, and based on the number of messages including a specific place name among the messages stored in the memory 160, a schedule Place names that are more than the number of times may be exposed to the destination list.

차량 승차 전 - 제3 Before boarding the vehicle-3rd 실시예Example

이동 단말기(100)는 차량의 위치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 즉, 차량 근접 이벤트가 발생한 경우, 사용자 입력에 따라 일정 관리 프로그램을 실행할 수 있다.The mobile terminal 100 may execute a schedule management program according to a user input when the power is turned on within a predetermined distance from the location of the vehicle, that is, when a vehicle proximity event occurs.

도 13B는 본 명세서에서 개시된 일 실시예에 따른 일정 관리 프로그램이 실행된 화면을 나타내는 예시도이다.13B is an exemplary view showing a screen on which a schedule management program according to an embodiment disclosed in the present specification is executed.

도 13B에 도시한 바와 같이, 이동 단말기(100)가 이벤트 발생시 일정 관리 프로그램을 실행함으로써, 사용자가 오늘 해야할 일들을 저장한 일정 혹은 메모를 화면에 출력하여, 사용자에게 이동해야할 목적지를 인지시킴은 물론, 사용자가 목적지 프로그램을 통해 차량 제어 장치(400, 400', 400'')에 목적지를 설정할 수 있도록 할 수 있다.As shown in Fig. 13B, by executing a schedule management program when an event occurs, the mobile terminal 100 outputs a schedule or memo in which the user's to-dos are stored on the screen to recognize the destination to which the user is to be moved. , It is possible for a user to set a destination on the vehicle control device 400, 400', 400' through the destination program.

일 실시예에 따라, 이동 단말기(100)가 일정 관리 프로그램을 실행하여, 메모리(160)에 저장된 시간에 따른 장소명을 화면에 출력할 수 있고, 사용자로부터 상기 장소명에 대한 선택 입력을 받음으로써, 선택된 장소명을 상기 목적지 설정 프로그램에 전달할 수 있다.According to an embodiment, the mobile terminal 100 executes a schedule management program to output the place name according to the time stored in the memory 160 on the screen, and receives a selection input for the place name from the user, The place name can be transmitted to the destination setting program.

이에 따라, 상기 목적지 설정 프로그램은 도 13A(a) 혹은 (b)에 목적지를 화면에 출력하고, 사용자 입력에 따라 차량 제어 장치(400, 400', 400'')에 목적지를 설정할 수 있다.Accordingly, the destination setting program may output a destination on the screen in FIG. 13A(a) or (b), and set the destination in the vehicle control devices 400, 400', 400'' according to a user input.

차량 승차 전 - 제4 Before boarding the vehicle-4th 실시예Example

이동 단말기(100)는 차량의 위치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 즉, 차량 근접 이벤트가 발생한 경우, 사용자 입력에 따라 일정 관련 텍스트를 포함한 메시지를 출력할 수 있다.The mobile terminal 100 may output a message including a schedule-related text according to a user input when the power is turned on within a certain distance from the location of the vehicle, that is, when a vehicle proximity event occurs.

도 13C는 본 명세서에서 개시된 일 실시예에 따른 일정 관련 텍스트를 포함한 메시지가 출력된 화면을 나타내는 예시도이다.13C is an exemplary view showing a screen on which a message including text related to a schedule is output according to an embodiment disclosed in the present specification.

도 13C에 도시한 바와 같이, 이동 단말기(100)는 이벤트 발생시 메시지 프로그램을 실행함으로써, 메모리(160)에 저장된 메시지를 출력할 수 있다.As shown in FIG. 13C, the mobile terminal 100 can output a message stored in the memory 160 by executing a message program when an event occurs.

화면에 출력되는 메시지는 단순한 메시지 이외에, 일정 관련 텍스트를 포함한 메시지로서, 제어부(180)는 메시지의 텍스트로부터 시간 및/또는 장소명 등을 인식하고, 도 13C에 도시한 바와 같이, 인식한 시간과 장소명을 사용자 선택 입력을 받을 수 있도록 하이퍼 링크(hyperlink) 형태로 출력할 수 있다.The message displayed on the screen is a message including schedule-related text in addition to a simple message, and the controller 180 recognizes the time and/or place name from the text of the message, and as shown in FIG. 13C, the recognized time and place name Can be output in the form of a hyperlink to receive user selection input.

사용자로부터 시간 및 장소명 중 어느 하나에 대한 선택 입력을 받은 이동 단말기(100)는 메시지에 포함된 시간, 장소명 및 메시지 발신처 중 적어도 하나를 일정 관리 프로그램에 전달하여, 해당 시간, 장소명 및 메시지 발신처를 일정 관리 프로그램에 등록할 수 있도록 할 수 있다.The mobile terminal 100 receiving a selection input for any one of the time and place name from the user transmits at least one of the time, place name, and message sender included in the message to the schedule management program, and schedules the time, place name, and message sender. You can make it possible to enroll in a management program.

또 다른 실시예에 따라, 사용자로부터 장소명에 대한 선택 입력을 받은 이동 단말기(100)는 상기 장소명을 목적지 설정 프로그램에 전달하여, 해당 장소명을 차량 제어 장치(400, 400', 400'')가 목적지로 설정하도록 할 수 있다.According to another embodiment, the mobile terminal 100 receiving a selection input for a place name from a user transmits the place name to a destination setting program, and transmits the place name to the vehicle control device 400, 400 ′, 400 ″. Can be set to

또 다른 실시예에 따라, 사용자 입력에 따라 상기 메시지 발신처를 호 발신 프로그램에 전달하여, 이동 단말기(100)가 메시지 발신처에 호 발신할 수 있도록 할 수 있다.According to another embodiment, the message sender can be transmitted to a call originating program according to a user input, so that the mobile terminal 100 can make a call to the message originating destination.

차량 승차 전 - 제5 Before boarding the vehicle-5th 실시예Example

이동 단말기(100)는 차량의 위치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 즉, 차량 근접 이벤트가 발생한 경우, 사용자 입력에 따라 차량의 정보를 출력하는 화면을 출력할 수 있다.The mobile terminal 100 may output a screen for outputting vehicle information according to a user input when the power is turned on within a certain distance from the location of the vehicle, that is, when a vehicle proximity event occurs.

도 13D는 본 명세서에서 개시된 일 실시예에 따른 차량 정보를 출력하는 화면을 나타내는 예시도이다.13D is an exemplary view showing a screen for outputting vehicle information according to an exemplary embodiment disclosed in the present specification.

도 13D에 도시한 바와 같이, 이동 단말기(100)는 무선 통신부(110)를 통해 차량 제어 장치(400, 400', 400'')에 의해 수집된 차량 정보를 수신하여, 수신된 차량 정보를 화면에 출력할 수 있다.13D, the mobile terminal 100 receives vehicle information collected by the vehicle control devices 400, 400', 400' through the wireless communication unit 110, and displays the received vehicle information on a screen. Can be printed on.

이때, 차량 제어 장치(400, 400', 400'')는 차량 정보 획득부(460)를 통하여 수집한 차량 정보는, 차량 내부의 공조 상태(온도, 습도, 풍량 등), 차량 도어(본네트, 트렁크, 주유구 등 포함)의 개폐여부, 창문의 개폐 여부, 선루프의 개폐 여부, 차량의 배터리 충전 상태, 차량의 주유 상태, 차량의 경보 상태 및 타이어의 공기압 정보 중 적어도 하나와 관련된 정보인 것일 수 있다.At this time, the vehicle control devices 400, 400', 400'' collect vehicle information through the vehicle information acquisition unit 460, such as the air conditioning conditions inside the vehicle (temperature, humidity, air volume, etc.), vehicle doors (bonnet, It may be information related to at least one of open/closed/open/closed windows, open/closed windows, open/closed sunroof, vehicle battery charge status, vehicle fueling status, vehicle alarm status, and tire pressure information. have.

일 예로, 도 13D에 도시한 바와 같이, 이동 단말기(100)는 차량의 정보 중 차량에 포함된 배터리의 상태("60% 남음") 및 차량 도어 상태("문 열림!!")를 화면에 표시할 수 있다.As an example, as shown in FIG. 13D, the mobile terminal 100 displays the status of the battery included in the vehicle ("60% remaining") and the vehicle door status ("door open!!") of the vehicle information on the screen. Can be displayed.

또 다른 실시예에 따라, 이동 단말기(100)는 차량의 위치와 일정 거리 내에서 전원이 온(on) 상태인 경우, 즉, 차량 근접 이벤트가 발생한 경우, 사용자 입력에 따라 차량에 대한 제어 명령을 전송하기 위한 프로그램을 실행할 수 있다.According to another embodiment, when the power is turned on within a certain distance from the location of the vehicle, that is, when a vehicle proximity event occurs, the mobile terminal 100 issues a control command for the vehicle according to a user input. You can run the program to send.

도 13E는 본 명세서에서 개시된 일 실시예에 따른 차량에 대한 제어 명령을 전송하기 위한 프로그램의 실행 화면을 나타내는 예시도이다.13E is an exemplary view showing an execution screen of a program for transmitting a control command for a vehicle according to an embodiment disclosed in the present specification.

도 13E에 도시한 바와 같이, 이동 단말기(100)는 무선 통신부(110)를 통해 차량 제어 장치(400, 400', 400'')에 의해 차량에 대한 제어 명령을 전송하고, 제어 명령에 따라 차량 제어 장치(400, 400', 400'')는 차량을 제어할 수 있다.13E, the mobile terminal 100 transmits a control command for the vehicle through the vehicle control device 400, 400', 400'' through the wireless communication unit 110, and transmits the vehicle control command according to the control command. The control devices 400, 400' and 400' may control the vehicle.

이때, 이동 단말기(100)가 차량 제어 장치(400, 400', 400'')에 전송하는 제어 명령은, 차량의 내부의 공조 제어, 차량의 시동 온(on)/오프(off) 제어, 차량의 도어 개폐 제어, 차량의 창문 개폐 제어 및 차량의 썬루프 개폐 제어 중 적어도 하나를 포함할 수 있다.At this time, the control commands transmitted from the mobile terminal 100 to the vehicle control devices 400, 400', 400'' are air conditioning control inside the vehicle, start-up on/off control of the vehicle, and the vehicle It may include at least one of door opening/closing control, window opening/closing control of the vehicle, and sunroof opening/closing control of the vehicle.

일 예로, 도 13E에 도시한 바와 같이, 이동 단말기(100)는 "UP" 및 "DOWN"에 대한 사용자 선택 입력을 통하여 차량 내 온도를 높이거나 낮추는 공조 제어 명령을 생성하여, 차량 제어 장치(400, 400', 400'')로 전송할 수 있다.As an example, as shown in FIG. 13E, the mobile terminal 100 generates an air conditioning control command to increase or decrease the temperature in the vehicle through user selection inputs for "UP" and "DOWN", and the vehicle control device 400 , 400', 400'').

이에 따라, 차량 제어 장치(400, 400', 400'')는 상기 공조 제어 명령에 따라 내부 온도를 18도를 유지하도록 차량의 내부 온도를 제어할 수 있다.Accordingly, the vehicle control apparatus 400, 400', 400'' may control the internal temperature of the vehicle to maintain the internal temperature of 18 degrees according to the air conditioning control command.

차량 승차 후 - 제1 After boarding the vehicle-1st 실시예Example

이동 단말기(100)는 사용자가 차량에 승차한 경우, 즉, 차량 승차 이벤트가 발생한 경우, 사용자 입력에 따라 차량의 정보를 출력할 수 있다.The mobile terminal 100 may output vehicle information according to a user input when a user boards a vehicle, that is, when a vehicle ride event occurs.

이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')는 전술한 바와 같이, 사용자의 차량 탑승 여부를 판단할 수 있고, 사용자의 차량 탑승 이벤트가 발생한 경우, 이동 단말기(100)는 차량의 정보를 출력할 수 있다.As described above, the mobile terminal 100 or the vehicle control device 400, 400 ′, 400 ″ can determine whether the user is boarding a vehicle, and when a vehicle boarding event of the user occurs, the mobile terminal 100 Can output vehicle information.

상기 [차량 승차 전 - 제5 실시예]에서 상술한 바와 같이, 이동 단말기(100)는 무선 통신부(110)를 통해 차량 제어 장치(400, 400', 400'')에 의해 수집된 차량 정보를 수신하여, 수신된 차량 정보를 화면에 출력할 수 있다.As described above in the [Before boarding the vehicle-Fifth embodiment], the mobile terminal 100 transmits vehicle information collected by the vehicle control device 400, 400', 400' through the wireless communication unit 110. Upon receiving, the received vehicle information may be displayed on a screen.

이때, 차량 제어 장치(400, 400', 400'')는 차량 정보 획득부(46)를 통하여 수집한 차량 정보는, 차량 내부의 공조 상태(온도, 습도, 풍량 등), 차량 도어(본네트, 트렁크, 주유구 등 포함)의 개폐여부, 창문의 개폐 여부, 선루프의 개폐 여부, 차량의 배터리 충전 상태, 차량의 주유 상태, 차량의 경보 상태 및 타이어의 공기압 정보 중 적어도 하나와 관련된 정보인 것일 수 있다.At this time, the vehicle control devices 400, 400', 400'' collect vehicle information through the vehicle information acquisition unit 46, including the air conditioning conditions inside the vehicle (temperature, humidity, air volume, etc.), vehicle doors (bonnet, It may be information related to at least one of open/closed/open/closed windows, open/closed windows, open/closed sunroof, vehicle battery charge status, vehicle fueling status, vehicle alarm status, and tire pressure information. have.

사용자는 차량 탑승 후에도 차량의 상태를 확인할 수 있고, 이에 따라, 차량의 이상 여부를 판단할 수 있다.The user can check the state of the vehicle even after boarding the vehicle, and accordingly, determine whether the vehicle is abnormal.

이동 단말기(100)가 상기와 같은 차량의 상태를 근거로 이상 여부를 판단하고, 차량에 이상이 있음을 판단한 경우에는, 이동 단말기(100)는 빛, 소리 또는 진동 등으로 외부로 출력하여, 차량 운행시 발생할 수 있는 사고에 사용자가 미리 대처할 수 있는 효과가 있다.When the mobile terminal 100 determines whether there is an abnormality based on the state of the vehicle as described above and determines that there is an abnormality in the vehicle, the mobile terminal 100 outputs light, sound, or vibration to the outside, There is an effect that users can cope with accidents that may occur during driving.

또 다른 실시예에 따라, 사용자가 차량에 승차한 경우, 즉, 차량 승차 이벤트가 발생한 경우, 이동 단말기(100)는 사용자 입력에 따라 차량에 대한 제어 명령을 전송하기 위한 프로그램을 실행할 수 있다.According to another embodiment, when a user boards a vehicle, that is, when a vehicle boarding event occurs, the mobile terminal 100 may execute a program for transmitting a control command for the vehicle according to a user input.

상기 [차량 승차 전 - 제5 실시예]에서 상술한 바와 같이, 이동 단말기(100)는 무선 통신부(110)를 통해 차량 제어 장치(400, 400', 400'')에 의해 차량에 대한 제어 명령을 전송하고, 제어 명령에 따라 차량 제어 장치(400, 400', 400'')는 차량을 제어할 수 있다.As described above in [Before boarding the vehicle-Fifth embodiment], the mobile terminal 100 controls the vehicle by the vehicle control device 400, 400', 400' through the wireless communication unit 110 And, according to the control command, the vehicle control devices 400, 400 ′, 400 ″ may control the vehicle.

이때, 이동 단말기(100)가 차량 제어 장치(400, 400', 400'')에 전송하는 제어 명령은, 차량의 내부의 공조 제어, 차량의 시동 온(on)/오프(off) 제어, 차량의 도어 개폐 제어, 차량의 창문 개폐 제어 및 차량의 썬루프 개폐 제어 중 적어도 하나를 포함할 수 있다.At this time, the control commands transmitted from the mobile terminal 100 to the vehicle control devices 400, 400', 400'' are air conditioning control inside the vehicle, start-up on/off control of the vehicle, and the vehicle It may include at least one of door opening/closing control, window opening/closing control of the vehicle, and sunroof opening/closing control of the vehicle.

차량 승차 후 - 제2 After boarding the vehicle-2nd 실시예Example

이동 단말기(100)는 사용자가 차량에 승차한 경우, 즉, 차량 승차 이벤트가 발생한 경우, 사용자 입력에 따라 차량 제어 장치(400, 400', 400'')의 목적지를 설정하기 위한 프로그램을 실행할 수 있다.The mobile terminal 100 can execute a program for setting a destination of the vehicle control device 400, 400', 400'' according to a user input when a user boards a vehicle, that is, when a vehicle ride event occurs. have.

간단하게는, 이동 단말기(100)가 문자나 음성 형태로 사용자로부터 목적지를 검색하기 위한 입력을 받고, 사용자에 의해 선택된 목적지를 차량 제어 장치(400, 400', 400'')에 전송하여, 차량 제어 장치(400, 400', 400'')가 수신한 데이터를 근거로 목적지를 설정할 수 있다. 물론, 상기 목적지는 경유지 혹은 경로 지점을 포함한 경로 정보를 포함할 수 있다.Briefly, the mobile terminal 100 receives an input for searching for a destination in text or voice form from the user, transmits the destination selected by the user to the vehicle control device 400, 400', 400', and The destination may be set based on the data received by the control devices 400, 400', and 400'. Of course, the destination may include route information including a waypoint or route point.

그러나, 사용자가 차량에 승차한 경우, 사용자는 차량 제어 장치(400, 400', 400'')를 직접 조작하여, 목적지 또는 경로 지점을 설정할 수 있기 때문에, 이동 단말기(100)를 통하여 차량 제어 장치(400, 400', 400'')에 목적지를 설정하는 것은 큰 이점이 없을 수 있다.However, when the user boards the vehicle, the user can directly manipulate the vehicle control devices 400, 400 ′, 400 ″ to set the destination or route point, and thus the vehicle control device through the mobile terminal 100 Setting a destination at (400, 400', 400'') may not have a major advantage.

하지만, 이동 단말기(100)를 통하여, 차량 제어 장치(400, 400', 400'')에 목적지를 설정하는 경우, 사용자는 차량 승차 전 이동 단말기(100)를 통해 겪었던 경험(experience)을 차량 제어 장치(400, 400', 400'')에 인식할 수 있다.However, when a destination is set in the vehicle control device 400, 400', 400'' through the mobile terminal 100, the user controls the vehicle through the experience experienced through the mobile terminal 100 before boarding the vehicle. It can be recognized by the devices 400, 400', 400''.

상기 [차량 승차 전 - 제2 실시예] 내지 [차량 승차 전 - 제4 실시예]에서 상술한 바와 같이, 차량 승차 이전에 사용자가 이동 단말기(100)에 포함된 적어도 하나의 검색 프로그램을 통해 검색을 요청한 쿼리(query), 일정 관리 프로그램에 저장된 항목 또는 메시지에 포함된 텍스트(text)로부터 이동 단말기(100)는 장소명 등을 추출하고, 추출한 내용을 차량 제어 장치(400, 400', 400'')에 전송할 수 있다. 이에 따라, 차량 제어 장치(400, 400', 400'')가 이동 단말기(100)로부터 수신한 데이터를 근거로 목적지를 설정할 수 있다.As described above in [before boarding the vehicle-second embodiment] to [before boarding the vehicle-fourth embodiment], before boarding the vehicle, the user searches through at least one search program included in the mobile terminal 100 The mobile terminal 100 extracts the place name, etc. from the query requesting the request, the item stored in the schedule management program, or the text included in the message, and uses the extracted content into the vehicle control device 400, 400', 400'' ). Accordingly, the vehicle control apparatus 400, 400', 400'' may set a destination based on data received from the mobile terminal 100.

일 예로, 도 13A에 도시한 바와 같이, 사용자가 이동 단말기(100)를 사용한 로그(log)를 근거로 이동 단말기(100)는 목적지를 화면에 출력하고, 사용자로부터 단순히 목적지 목록 중 하나를 선택하는 입력을 받음으로써, 차량 제어 장치(400, 400', 400'')에 목적지를 편리하게 설정할 수 있다.As an example, as shown in FIG. 13A, the mobile terminal 100 outputs a destination on the screen based on a log using the mobile terminal 100, and simply selects one of the destination list from the user. By receiving an input, a destination can be conveniently set in the vehicle control devices 400, 400', 400'.

차량 주행 - 제1 Vehicle Driving-First 실시예Example

이동 단말기(100)는 차량이 주행 중 호 착신시, 즉, 호 착신 이벤트가 발생한 경우, 착신을 거부하고 자동 응답 메시지를 호 발신 대상에 전송할 수 있다.When the mobile terminal 100 receives a call while the vehicle is driving, that is, when a call reception event occurs, the mobile terminal 100 may reject the call and transmit an automatic response message to the call originating target.

이후, 차량이 비주행시 또는 사용자가 차량 하차시, 사용자 입력에 따라 상기 호 발신 대상에 발신하는 프로그램을 실행할 수 있다.Thereafter, when the vehicle is not driving or when the user gets off the vehicle, a program that is transmitted to the call originating target according to a user input may be executed.

이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')는 전술한 바와 같이, 차량의 주행 여부를 판단할 수 있고, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')는 차량의 주행 여부 상태를 공유할 수 있다.As described above, the mobile terminal 100 or the vehicle control device 400, 400', 400' may determine whether the vehicle is running, and the mobile terminal 100 or the vehicle control device 400, 400', 400'') can share the driving status of the vehicle.

이때, 차량 주행 중 이동 단말기(100)에 호 착신 이벤트가 발생한 경우, 이동 단말기(100)는 호 착신시 착신을 거부하고, 자동으로 상대방에 응답 메시지를 전송할 수 있다.In this case, when a call reception event occurs in the mobile terminal 100 while the vehicle is driving, the mobile terminal 100 rejects the call when the call is received and may automatically transmit a response message to the other party.

도 9C는 본 명세서에서 개시된 일 실시예에 따라 차량 주행 중 이동 단말기에 호 착신 이벤트가 발생한 경우, 이동 단말기가 상대방에 응답 메시지를 전송한 화면을 나타낸 예시도이다.9C is an exemplary view illustrating a screen in which a mobile terminal transmits a response message to a counterpart when a call reception event occurs in a mobile terminal while driving a vehicle according to an embodiment disclosed in the present specification.

일 예로, 차량 주행 중 이동 단말기(100)에 "우리 딸"로부터 호 착신 이벤트가 발생한 경우, 이동 단말기(100)는 호 착신을 거부하고, 도 9C에 도시한 바와 같이, 호 발신 상대방인 "우리 딸"(010-xxxx-xxxx)에 현재 호 착신이 불가능하는 내용의 메시지 "운전중입니다. 나중에 연락주세요."를 전송한다.For example, when a call reception event occurs from "my daughter" in the mobile terminal 100 while driving the vehicle, the mobile terminal 100 rejects the call reception, and as shown in FIG. "Daughter" (010-xxxx-xxxx) sends a message "You are driving. Please contact me later."

한편, 이동 단말기(100)와 차량 제어 장치(400, 400', 400'')는 각각의 노드에서 발생한 이벤트를 공유하므로, 이동 단말기(100)에서 호 착신 이벤트가 발생한 경우, 이동 단말기(100)가 호 착신을 거부함과 동시에, 차량 제어 장치(400, 400', 400'')는 도 9B에 도시한 바와 같이, 이동 단말기(100)를 통해 호 발신 상대방인 "우리 딸"(010-xxxx-xxxx)에 전송할 메시지를 입력받을 수 있다.On the other hand, since the mobile terminal 100 and the vehicle control device 400, 400', 400'' share an event occurring in each node, when a call reception event occurs in the mobile terminal 100, the mobile terminal 100 A. At the same time as rejecting the incoming call, the vehicle control device (400, 400', 400 ``), as shown in Fig. 9B, the call originating party "my daughter" (010-xxxx) through the mobile terminal 100. -xxxx) can be entered.

현재 차량이 운전 중이므로, 바람직하게는 차량 제어 장치(400, 400', 400'')가 사용자로부터 입력받은 음성을 인식하고, 인식한 내용을 근거로 텍스트(text)를 작성하여, 이동 단말기(100)에 전송하고, 이동 단말기(100)는 수신한 텍스트를 근거로 메시지를 작성하여, 호 발신 상대방에 작성된 메시지를 전송할 수 있다.Since the vehicle is currently driving, preferably, the vehicle control device 400, 400', 400'' recognizes the voice input from the user, writes text based on the recognized content, and thus, the mobile terminal 100 ), and the mobile terminal 100 may create a message based on the received text and transmit the created message to the calling party.

이후, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')에 차량의 비주행 이벤트 또는 사용자의 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 사용자 입력에 따라 상기 호 발신 대상에 호를 발신하는 프로그램을 실행할 수 있다.Thereafter, when a vehicle non-driving event or a user's vehicle disembarkation event occurs in the mobile terminal 100 or the vehicle control device 400, 400', 400'', the mobile terminal 100 sends the call according to the user input. You can run a program that sends a call to the target.

일 예로, 차량 주행 중 이동 단말기(100)에 호 착신 이벤트가 발생한 경우, 이동 단말기(100)가 호 착신 거부 및 응답 메시지 전송을 수행함은 전술한 바와 같고, 도 10A에 도시한 바와 같이, 호 발신 프로그램에 대응하는 그래픽 오브젝트를 포함한 팝업창(W)을 화면에 출력할 수 있다.For example, when a call reception event occurs in the mobile terminal 100 while driving a vehicle, the mobile terminal 100 performs call rejection and response message transmission as described above, and as shown in FIG. A pop-up window W including a graphic object corresponding to the program may be displayed on the screen.

또한, 그래픽 오브젝트 주변 및/또는 호 발신 프로그램에 대한 실행 명령을 수신하는 아이콘 주변에는 차량 주행 중 이동 단말기(100)에 호 착신 이벤트가 발생한 횟수를 숫자로 표시할 수 있다.In addition, around the graphic object and/or around the icon receiving an execution command for the call originating program, the number of times the call reception event occurs in the mobile terminal 100 while the vehicle is driving may be displayed as a number.

이때, 상기 그래픽 오브젝트 또는 호 발신 프로그램을 선택하는 사용자 입력을 수신한 경우, 이동 단말기(100)는 도 10D와 같은 호 발신 프로그램을 실행하여, 사용자로부터 선택 입력을 받은 대상에 대하여 호 발신 동작을 수행한다.At this time, when receiving a user input for selecting the graphic object or a call originating program, the mobile terminal 100 executes the call originating program as shown in FIG. 10D to perform a call originating operation on the target receiving the selection input from the user. do.

이때, 호 발신 프로그램 화면에서는, 실행된 프로그램 화면상에 상기 이벤트 발생 여부 또는 상기 이벤트 발생 횟수를 화면상에 표시할 수 있다.At this time, in the call originating program screen, whether the event has occurred or the number of occurrences of the event may be displayed on the screen of the executed program.

일 예로, 도 10D에 도시한 바와 같이, 호 착발신 프로그램이 실행된 경우, 차량의 주행 중 이동 단말기(100)에서 호 착신 이벤트가 1회 발생한 경우, 상기 호 착발신 프로그램 실행 화면 내 일부분에 이벤트 발생 여부를 표시할 수 있다. 이때, 이벤트 발생 횟수는 숫자 또는 발생한 이벤트가 있음을 나타내는 "차량" 형상의 아이콘을 상기 이벤트 발생 횟수만큼 반복하여 화면에 표시할 수 있다.For example, as shown in FIG. 10D, when a call incoming/outgoing program is executed, when a call incoming event occurs once in the mobile terminal 100 while the vehicle is driving, whether an event occurs in a part of the execution screen of the call incoming/outgoing program Can be displayed. In this case, the number of occurrences of the event may be displayed on the screen by repeating a number or a "vehicle"-shaped icon indicating that there is an event that has occurred.

여기서, 이벤트 발생 여부를 표시하는 아이콘은, 이동 단말기(100) 혹은 차량 제어 장치(400, 400', 400'')에서 발생한 이벤트에 대응하는 데이터로부터 추출한 정보에 따라 그 위치가 정해질 수 있다.Here, the location of the icon indicating whether an event has occurred may be determined according to information extracted from data corresponding to an event occurring in the mobile terminal 100 or the vehicle control device 400, 400', 400'.

일 예로, 차량의 주행 중 이동 단말기(100)에서 호 착신 이벤트가 발생하였고, 이에 대응하는 데이터로부터 호 발신처가 "우리 딸"임을 추출하여, 추출한 정보에 따라, 호 착발신 프로그램을 나타낸 화면 중 호 착발신 리스트 중 "우리 딸"에 해당하는 영역에 상기 "차량" 형상의 아이콘을 표시하는 것이 바람직하다.As an example, a call incoming event occurred in the mobile terminal 100 while the vehicle was driving, and the call originating destination was extracted from the data corresponding to this, and according to the extracted information, the call incoming and outgoing of the screen showing the call incoming and outgoing program It is preferable to display the "vehicle"-shaped icon in the area corresponding to "my daughter" in the list.

차량 주행 - 제2 Vehicle Driving-Second 실시예Example

이동 단말기(100)는 차량이 주행 중 일정 관련 텍스트를 포함한 메시지를 착신한 경우, 차량이 비주행시 또는 사용자가 차량 하차시, 사용자 입력에 따라 일정 관리 프로그램을 실행할 수 있다.When the mobile terminal 100 receives a message including a schedule-related text while the vehicle is driving, the mobile terminal 100 may execute a schedule management program according to a user input when the vehicle is not driving or when the user gets off the vehicle.

이동 단말기(100)가 차량 주행 중 도 13C에 도시한 바와 같이, 시간("12:00") 및/또는 장소명("가산디지털단지역")을 포함한 일정 관련 텍스트가 있는 메시지를 수신하였고, 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 일정 관리 프로그램을 실행할 수 있다.While the mobile terminal 100 is driving a vehicle, as shown in FIG. 13C, a message having a schedule-related text including a time (“12:00”) and/or a place name (“Gasan Digital Complex Area”) is received, and the vehicle When a non-driving event or a vehicle getting off event occurs, the mobile terminal 100 may execute a schedule management program.

이동 단말기(100)의 제어부(180)는 상기 메시지로부터 일정 관련 텍스트를 추출하여, 이동 단말기(100)에 설치된 일정 관리 프로그램에 등록할 수 있다.The controller 180 of the mobile terminal 100 may extract a schedule-related text from the message and register it in a schedule management program installed in the mobile terminal 100.

다만, 메시지로부터 추출한 일정 관련 텍스트가 날짜, 시간 및 장소명 중 적어도 하나가 누락되거나, 인식할 수 없는 텍스트를 포함한 경우에는, 사용자에 의한 수정이 요구되므로, 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생하였을 때, 사용자 입력에 따라 이동 단말기(100)는 일정 관리 프로그램을 실행하는 것이 바람직하다.However, if the schedule-related text extracted from the message contains at least one of the date, time, and place name, or contains unrecognizable text, correction by the user is required, so a vehicle non-driving event or a vehicle alighting event may have occurred. At this time, it is preferable that the mobile terminal 100 executes a schedule management program according to a user input.

차량 주행 - 제3 Vehicle Driving-3rd 실시예Example

이동 단말기(100)는 차량이 주행 중 녹음을 한 경우, 차량이 비주행시 또는 사용자가 차량 하차시, 사용자 입력에 따라 녹음 파일을 관리할 수 있는 프로그램을 실행할 수 있다.The mobile terminal 100 may execute a program capable of managing a recording file according to a user input when the vehicle is recorded while the vehicle is driving, when the vehicle is not driving or when the user gets off the vehicle.

차량 주행 중 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')는 사용자로부터 음성 또는 텍스트를 입력받고(차량 주행 중이므로, 바람직하게는 음성), 저장할 수 있다.While the vehicle is driving, the mobile terminal 100 or the vehicle control device 400, 400 ′, 400 ″ may receive a voice or text input from the user (since the vehicle is driving, preferably voice) and store it.

이후, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')에서 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 녹음 파일을 관리할 수 있는 프로그램을 실행할 수 있다.Thereafter, when a vehicle non-driving event or vehicle alighting event occurs in the mobile terminal 100 or the vehicle control device 400, 400', 400'', the mobile terminal 100 executes a program capable of managing the recorded file. I can.

일 예로, 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 도 10A에 도시한 바와 같이, 이동 단말기(100)는 녹음 프로그램(혹은 메모 프로그램)에 대응하는 그래픽 오브젝트를 포함한 팝업창(W)을 화면에 출력할 수 있다.For example, when a vehicle non-driving event or a vehicle disembarkation event occurs, the mobile terminal 100 displays a pop-up window W including a graphic object corresponding to a recording program (or memo program) on the screen, as shown in FIG. 10A. Can be printed.

또한, 그래픽 오브젝트 주변 및/또는 녹음 프로그램(혹은 메모 프로그램)에 대한 실행 명령을 수신하는 아이콘 주변에는 차량 주행 중 저장한 녹음(혹은 메모)의 횟수를 숫자로 표시할 수 있다.In addition, the number of recordings (or memos) stored while driving the vehicle may be displayed as a number around the graphic object and/or around the icon receiving an execution command for the recording program (or memo program).

이때, 상기 그래픽 오브젝트 또는 녹음 프로그램(혹은 메모 프로그램)을 선택하는 사용자 입력을 수신한 경우, 이동 단말기(100)는 도 13F와 같은 녹음 파일 관리 프로그램을 실행하여, 차량 주행 중 녹음(혹은 메모)한 파일을 재생하거나, 추가 녹음(혹은 메모), 수정 또는 삭제할 수 있다.At this time, when receiving a user input for selecting the graphic object or recording program (or memo program), the mobile terminal 100 executes the recording file management program as shown in FIG. 13F to record (or memo) while driving the vehicle. You can play files, record additional (or memo), edit or delete files.

이때, 도시하지 않았으나, 녹음 관리 프로그램 화면에서는, 실행된 프로그램 화면상에 상기 이벤트 발생 여부 또는 상기 이벤트 발생 횟수를 화면상에 표시할 수 있다.In this case, although not shown, in the recording management program screen, whether the event has occurred or the number of occurrences of the event may be displayed on the screen of the executed program.

일 예로, 녹음 관리 프로그램이 실행된 경우, 차량의 주행 중 저장한 녹음(혹은 메모)의 발생한 경우, 상기 녹음 관리 프로그램 실행 화면 내 일부분에 이벤트 발생 여부를 표시할 수 있다. 이때, 이벤트 발생 횟수는 숫자 또는 발생한 이벤트가 있음을 나타내는 "차량" 형상의 아이콘을 상기 이벤트 발생 횟수만큼 반복하여 화면에 표시할 수 있다.For example, when a recording management program is executed, when a recorded recording (or memo) occurs while the vehicle is driving, whether or not an event has occurred may be displayed on a part of the recording management program execution screen. In this case, the number of occurrences of the event may be displayed on the screen by repeating a number or a "vehicle"-shaped icon indicating that there is an event that has occurred.

차량 주행 - 제4 Vehicle Driving-Part 4 실시예Example

차량 제어 장치(400, 400', 400'')가 설정된 목적지에 차량의 미도착을 판단하였으나, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')에 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 사용자 입력에 따라 현 위치로부터 상기 목적지까지의 경로를 출력할 수 있다.Although the vehicle control device 400, 400', 400'' has determined that the vehicle has not arrived at the set destination, a vehicle non-driving event or a vehicle is sent to the mobile terminal 100 or the vehicle control device 400, 400', 400''. When an alighting event occurs, the mobile terminal 100 may output a route from the current location to the destination according to a user input.

일 예로, 주행하는 차량이 목적지에 도착하지 않았으나, 사용자가 차량에서 하차할 수 있다.For example, the vehicle to be driven has not reached the destination, but the user may get off the vehicle.

이에 따라, 사용자는 차량에서 하차한 위치로부터 목적지까지 도보로 이동할 수 있도록, 현 위치로부터 목적지까지의 경로를 화면에 출력할 수 있다.Accordingly, the user can output the route from the current location to the destination on the screen so that the user can walk from the location where they got off the vehicle to the destination.

이동 단말기(100)의 무선 통신부(110)는 차량 제어 장치(400, 400', 400'')로부터 설정된 목적지를 전송받고, 제어부(180)가 차량의 현재 위치로부터 전송받은 목적지까지의 최단 및/또는 최적 경로를 산출하여, 사용자가 상기 경로에 따라 현재 위치에서 차량 위치까지 이동할 수 있도록 길안내를 수행하도록 상기 경로를 출력부(150)를 통해 화면에 출력할 수 있다.The wireless communication unit 110 of the mobile terminal 100 receives the destination set from the vehicle control device 400, 400', 400', and the controller 180 receives the shortest and/or the received destination from the current position of the vehicle. Alternatively, by calculating an optimal route, the route may be output on a screen through the output unit 150 so as to guide the user from the current location to the vehicle location according to the route.

도 13G(a)에 도시한 바와 같이, 현 위치(T2)로부터 목적지(T1)까지의 경로를 지도상에 출력할 수 있고, 또한, 이동 단말기 본체가 향한 방향에 따라 상기 차량 위치까지 도달하기 위한 주행 방향을 실시간으로 산출하고, 산출된 주행 방향을 화살표로 턴-바이-턴(TBT: Turn By Turn) 방식으로 화면에 표시하는 것이 바람직하다.As shown in Fig. 13G(a), the route from the current location T2 to the destination T1 can be output on the map, and the vehicle is used to reach the vehicle location according to the direction the mobile terminal body is facing. It is desirable to calculate the driving direction in real time and display the calculated driving direction on the screen in a turn-by-turn (TBT) method with arrows.

이때, 턴-바이-턴 방식으로 차량 위치까지 주행 방향을 화살표로 표시할 때, 웨어러블 디바이스 화면에 출력하는 것이 바람직하다.In this case, when displaying the driving direction to the vehicle position in a turn-by-turn manner with an arrow, it is preferable to output it on the screen of the wearable device.

또한, 사용자가 현재 위치로부터 차량 위치까지 이동 거리 또는 도보 속도에 따른 예측 이동 시간 등을 산출하여, 화면에 표시하는 것이 바람직하다.In addition, it is preferable that the user calculates the travel distance from the current position to the vehicle position or the predicted travel time according to the walking speed and displays it on the screen.

또 다른 실시예에 따라, 차량 제어 장치(400, 400', 400'')가 현재 차량이 제1 목적지(T1)에 도착하였음을 판단한 이후, 제2 목적지(T2)가 설정되었고, 다시 차량이 제2 목적지(T2)에 도착하였음을 판단한 경우, 이동 단말기(100)는 차량이 비주행시 또는 사용자가 차량 하차시, 사용자 입력에 따라 상기 제2 목적지로부터 상기 제1 목적지까지의 경로를 출력할 수 있다.According to another embodiment, after the vehicle control device 400, 400', 400'' determines that the current vehicle has arrived at the first destination T1, the second destination T2 is set, and the vehicle is When it is determined that the vehicle has arrived at the second destination T2, the mobile terminal 100 can output the route from the second destination to the first destination according to a user input when the vehicle is not driving or when the user gets off the vehicle. have.

일 예로, 주행하는 차량이 제1 목적지에 도착하였으나, 상기 제1 목적지에 주차 가능한 공간이 존재하지 않은 경우, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')를 통한 사용자 입력에 의해 주변 주차장을 제2 목적지(T2)로 설정할 수 있다.For example, when a driving vehicle arrives at a first destination, but no parking space exists at the first destination, the user through the mobile terminal 100 or the vehicle control device 400, 400', 400' The surrounding parking lot may be set as the second destination T2 by input.

이에 따라, 사용자는 재설정된 제2 목적지(T2)로부터 최초 설정된 제1 목적지(T1)까지 이동할 수 있도록, 제2 목적지(T2)로부터 제1 목적지(T1)까지의 경로를 화면에 출력할 수 있다.Accordingly, the user may output a route from the second destination T2 to the first destination T1 on the screen so that the user can move from the reset second destination T2 to the initially set first destination T1. .

이동 단말기(100)의 무선 통신부(110)는 차량 제어 장치(400, 400', 400'')로부터 설정된 제1 및 제2 목적지를 전송받고, 제어부(180)가 제2 목적지로부터 제1 목적지까지의 최단 및/또는 최적 경로를 산출하여, 사용자가 상기 경로에 따라 현재 위치에서 차량 위치까지 이동할 수 있도록 길안내를 수행하도록 상기 경로를 출력부(150)를 통해 화면에 출력할 수 있다.The wireless communication unit 110 of the mobile terminal 100 receives the set first and second destinations from the vehicle control devices 400, 400 ′, 400 ″, and the controller 180 sends the second destination to the first destination. By calculating the shortest and/or optimal route of, the route may be output on the screen through the output unit 150 so that the user can navigate from the current location to the vehicle location according to the route.

도 13G(a)에 도시한 바와 같이, 현 위치로부터 목적지까지의 경로를 지도상에 출력할 수 있고, 도 13G(b)에 도시한 바와 같이, 턴-바이-턴(TBT: Turn By Turn) 방식으로 화면에 표시할 수 있다.As shown in Fig. 13G(a), the route from the current location to the destination can be output on the map, and as shown in Fig. 13G(b), turn-by-turn (TBT) Can be displayed on the screen in a way.

차량 vehicle 비주행Non-driving 또는 사용자 하차 - 제1 Or user alight-1st 실시예Example

차량 제어 장치(400, 400', 400'')가 설정된 목적지에 차량의 도착을 판단하고, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')에 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 차량 제어 장치(400, 400', 400'')에 설정된 목적지에 관련된 정보를 출력할 수 있다.The vehicle control device (400, 400', 400``) determines the arrival of the vehicle to the set destination, and the vehicle non-driving event or vehicle to the mobile terminal 100 or the vehicle control device (400, 400', 400'') When the getting off event occurs, the mobile terminal 100 may output information related to a destination set in the vehicle control devices 400, 400', 400'.

이동 단말기(100)는 차량 제어 장치(400, 400', 400'')로부터 목적지명을 무선 통신부(110)를 통해 전달받거나, 사용자에 의해 기 선택된(설정된) 목적지를 근거로 목적지에 관련된 정보를 출력할 수 있다.The mobile terminal 100 receives the destination name from the vehicle control device 400, 400', 400'' through the wireless communication unit 110, or receives information related to the destination based on the destination previously selected (set) by the user. Can be printed.

일 실시예에 따라, 이동 단말기(100)의 메모리(160)는 장소명, 주소 또는 위치 등에 대한 관련 정보를 저장할 수 있다.According to an embodiment, the memory 160 of the mobile terminal 100 may store related information about a place name, address, or location.

이에 따라, 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)의 제어부(180)는 차량 제어 장치(400, 400', 400'')에 설정된 목적지를 키워드로 하여, 메모리(160)에 저장된 목적지와 관련 정보를 검색하고, 검색한 결과를 화면에 출력할 수 있다.Accordingly, when a vehicle non-driving event or a vehicle disembarkation event occurs, the controller 180 of the mobile terminal 100 uses the destination set in the vehicle control device 400, 400', 400'' as a keyword, and the memory 160 ), you can search for destinations and related information, and display the search results on the screen.

일 예로, 메모리(160)에 저장된 목적지와 관련된 정보는 상기 목적지가 포함된 지도, 상기 목적지에 위치한 화장실 위치, 주차장 위치, 출입구 위치, 식당 위치 등일 수 있고, 상기 목적지가 식당인 경우, 식당의 운영 시간, 식당의 메뉴, 식당의 연락처 등일 수 있다.As an example, information related to a destination stored in the memory 160 may be a map including the destination, a toilet location at the destination, a parking lot location, an entrance location, a restaurant location, etc. If the destination is a restaurant, operation of the restaurant It could be the time, the menu of the restaurant, the contact information of the restaurant, etc.

또 다른 실시예에 따라, 이동 단말기(100)는 차량 제어 장치(400, 400', 400'')에 설정된 목적지명을 포함한 쿼리를 검색 서버(검색 서비스 운영 업체가 제공)(미도시)에 전송하고, 사용자 입력에 따라, 상기 검색 서버로부터 수신한 응답 데이터를 화면에 출력할 수 있다.According to another embodiment, the mobile terminal 100 transmits a query including a destination name set in the vehicle control device 400, 400', 400' to a search server (provided by a search service operator) (not shown). And, according to a user input, response data received from the search server may be displayed on a screen.

일 예로, 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 위치와 관련된 그래픽 오브젝트를 포함한 팝업창(W)을 화면에 출력할 수 있다.For example, when a vehicle non-driving event or a vehicle alighting event occurs, a pop-up window W including a graphic object related to a location may be output on the screen.

또한, 그래픽 오브젝트 주변 및/또는 위치와 관련된 프로그램에 대한 실행 명령을 수신하는 아이콘 주변에는 사용자로부터 확인이 요구되는 이벤트 횟수를 숫자로 표시할 수 있다.In addition, around the graphic object and/or around the icon for receiving an execution command for a program related to a location, the number of events requiring confirmation from the user may be displayed as a number.

이때, 상기 그래픽 오브젝트를 선택하는 사용자 입력을 수신한 경우, 이동 단말기(100)는 위치와 관련된 프로그램을 실행하여, 도 13H와 같은 목적지에 관련된 정보가 나타낸 화면을 출력할 수 있다.In this case, when receiving a user input for selecting the graphic object, the mobile terminal 100 may execute a program related to a location and output a screen showing information related to a destination as shown in FIG. 13H.

이와 달리, 상기 그래픽 오브젝트를 선택하는 사용자 입력을 수신한 경우, 이동 단말기(100)는 검색 프로그램에 상기 목적지명을 인자(parameter)로 전달하여, 검색 프로그램을 이용하여 검색 서버로부터 수신한 응답 데이터를 수신하여, 화면에 출력할 수 있다. 도 13H에 도시한 바와 같이, 웹페이지 형태로 출력할 수 있다.In contrast, when receiving a user input for selecting the graphic object, the mobile terminal 100 transmits the destination name to a search program as a parameter, and uses a search program to retrieve response data received from the search server. It can be received and displayed on the screen. As shown in Fig. 13H, it can be output in the form of a web page.

이와 같이, 차량 비주행 이벤트 또는 차량 하차 이벤트 발생시, 이동 단말기(100)가 목적지에 관련된 정보를 화면에 출력함으로써, 사용자에게 목적지에 대한 정보를 제공할 수 있고, 이에 따라 사용자는 목적지에 대한 지도, 목적지에 설치된 각종 시설물의 위치 등을 알 수 있으며, 목적지에 대응하는 홈페이지를 방문할 수 있으며, 목적지의 연락처를 이용하여 호 발신 프로그램을 통해 전화를 걸 수 있다.In this way, when a vehicle non-driving event or a vehicle disembarkation event occurs, the mobile terminal 100 may provide information on the destination to the user by outputting information related to the destination on the screen. Accordingly, the user can provide a map of the destination, You can know the location of various facilities installed at the destination, visit the homepage corresponding to the destination, and make a call through the call outgoing program using the destination's contact information.

차량 vehicle 비주행Non-driving 또는 사용자 하차 - 제2 Or user alight-2nd 실시예Example

차량 제어 장치(400, 400', 400'')가 설정된 목적지에 차량의 도착을 판단하고, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')에 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 주소록에 저장된 주소가 상기 차량 제어 장치(400, 400', 400'')에 설정된 목적지와 일정 범위 내에 속하는 경우, 사용자 입력에 따라 상기 주소록에 저장된 주소에 대응되는 연락처에 발신하도록 호 발신 프로그램을 실행할 수 있다.The vehicle control device (400, 400', 400``) determines the arrival of the vehicle to the set destination, and the vehicle non-driving event or vehicle to the mobile terminal 100 or the vehicle control device (400, 400', 400'') When the disembarkation event occurs, the mobile terminal 100, when the address stored in the address book falls within a certain range and the destination set in the vehicle control device 400, 400', 400', the address stored in the address book according to a user input You can run a call originating program to call out to a contact corresponding to.

또 다른 실시예에 따라, 차량 제어 장치(400, 400', 400'')가 설정된 목적지에 차량의 도착을 판단하고, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')에 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 기 저장된 메시지에 포함된 장소가 차량 제어 장치(400, 400', 400'')에 설정된 목적지와 일정 범위 내에 속하는 경우, 사용자 입력에 따라 상기 장소와 함께 저장된 메시지 내 연락처 혹은 상기 메시지 발신처에 발신하도록 호 발신 프로그램을 실행할 수 있다.According to another embodiment, the vehicle control device 400, 400', 400'' determines the arrival of the vehicle to the set destination, and the mobile terminal 100 or the vehicle control device 400, 400', 400'' When a vehicle non-driving event or a vehicle disembarkation event occurs, the mobile terminal 100 includes a destination and a predetermined range set in the vehicle control device 400, 400', 400' when the place included in the previously stored message falls within a certain range, A call sending program may be executed to send to a contact in a message stored with the place or to a sender of the message according to a user input.

또 다른 실시예에 따라, 차량 제어 장치(400, 400', 400'')가 설정된 목적지에 차량의 도착을 판단하고, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')에 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 일정 관리 프로그램에 저장된 장소가 차량 제어 장치(400, 400', 400'')에 설정된 목적지와 일정 범위 내에 속하는 경우, 사용자 입력에 따라 상기 일정 관리 프로그램에 상기 장소와 함께 저장된 연락처에 발신하도록 호 발신 프로그램을 실행할 수 있다.According to another embodiment, the vehicle control device 400, 400', 400'' determines the arrival of the vehicle to the set destination, and the mobile terminal 100 or the vehicle control device 400, 400', 400'' When a vehicle non-driving event or a vehicle disembarkation event occurs, the mobile terminal 100, when the place stored in the schedule management program falls within a predetermined range and a destination set in the vehicle control device 400, 400', 400', the user Depending on the input, a call outgoing program may be executed in the schedule management program to send to a contact stored along with the place.

즉, 차량이 차량 제어 장치(400, 400', 400'')에 설정된 목적지에 도착한 경우, 이동 단말기(100)는 목적지와 관련된 특정 사람, 집, 점포 등에 호 발신할 수 있도록, 호 발신 프로그램을 실행하는 것이 바람직하다.That is, when the vehicle arrives at the destination set in the vehicle control device (400, 400', 400'), the mobile terminal 100 provides a call originating program so that a call can be sent to a specific person, house, or store related to the destination. It is desirable to do it.

이때, 이동 단말기(100)가 호 발신 프로그램을 실행하여, 호 발신 대상을 도 13I에 도시한 바와 같이, 리스트 형태로 출력할 수 있다.At this time, the mobile terminal 100 may execute the call originating program and output the call originating target in the form of a list, as shown in FIG. 13I.

호 발신 대상은 전술한 바와 같이, 주소록에 저장된 연락처, 메시지에 저장되거나 메시지를 발신한 연락처 또는 일정 관리 프로그램에 저장된 연락처일 수 있다.As described above, the call destination may be a contact stored in an address book, a contact stored in a message, or a contact sent from a message, or a contact stored in a schedule management program.

구체적으로, 이동 단말기(100)는 차량 비주행 이벤트 또는 차량 하차 이벤트의 발생에 따라, 차량 제어 장치(400, 400', 400'')로부터 수신하거나 기 사용자에 의해 선택(또는 설정)된 목적지를 근거로, 메모리(160)에 저장된 주소록, 메시지, 일정 관리 프로그램에 저장된 내용을 검색하여, 상기 목적지와 관련된 연락처를 추출하고, 사용자 입력에 따라 추출된 연락처에 호 발신 프로그램을 통하여 전화를 거는 것이 바람직하다.Specifically, the mobile terminal 100 selects a destination selected (or set) by a user or received from the vehicle control device 400, 400', 400' according to the occurrence of a vehicle non-driving event or a vehicle getting off event. As a basis, it is preferable to search the address book, message, and contents stored in the schedule management program stored in the memory 160, extract the contact related to the destination, and make a call to the extracted contact according to the user input through a call outgoing program. Do.

즉, 이동 단말기(100)의 제어부(180)는 상기 목적지를 근거로, 주소록에 저장된 주소와 상기 목적지 사이의 거리를 산출하고, 상기 산출된 거리가 일정 거리 이내에 속하는 경우, 상기 일정 거리 이내에 속하는 상기 주소에 대응하는 연락처에 발신하도록 호 발신 프로그램을 실행할 수 있다.That is, the controller 180 of the mobile terminal 100 calculates the distance between the address stored in the address book and the destination based on the destination, and when the calculated distance falls within a predetermined distance, the You can run a call originating program to call out to a contact corresponding to the address.

또한, 이동 단말기(100)의 제어부(180)는 상기 목적지를 근거로, 일정 관련 텍스트를 포함한 메시지로부터 장소 또는 주소를 추출하고, 추출된 장소 또는 주소와 상기 목적지 사이의 거리를 산출한다. 이렇게 산출된 거리가 일정 거리 이내에 속하는 경우, 상기 장소 또는 주소가 추출된 메시지 내 포함된 연락처 혹은 상기 장소 또는 주소가 추출된 메시지를 발신한 연락처에 발신하도록 호 발신 프로그램을 실행할 수 있다.Further, the controller 180 of the mobile terminal 100 extracts a place or address from a message including a schedule-related text based on the destination, and calculates a distance between the extracted place or address and the destination. When the calculated distance falls within a certain distance, a call originating program may be executed to send the contact included in the message from which the place or address is extracted or the message from which the place or address is extracted to the sender.

또한, 이동 단말기(100)의 제어부(180)는 상기 목적지를 근거로, 일정 관리 프로그램에 저장된 장소 또는 주소를 추출하고, 추출된 장소 또는 주소와 상기 목적지 사이의 거리를 산출한다. 이렇게 산출된 거리가 일정 거리 이내에 속하는 경우, 상기 장소 또는 주소가 추출된 사항과 함께 저장된 연락처에 발신하도록 호 발신 프로그램을 실행할 수 있다.Further, the controller 180 of the mobile terminal 100 extracts a place or address stored in the schedule management program based on the destination, and calculates a distance between the extracted place or address and the destination. When the calculated distance falls within a predetermined distance, a call originating program may be executed to send the location or address to a contact stored together with the extracted information.

도 13I에 도시한 바와 같이, 호 발신 프로그램은 상기 주소록, 메시지, 일정 관리 프로그램과 연동하여, 이동 단말기(100)는 목적지와 관련된 연락처를 리스트 형식으로 화면에 출력하고, 사용자에 의해 선택된 연락처에 대하여, 호 발신할 수 있다.As shown in Fig. 13I, the call originating program interlocks with the address book, message, and schedule management program, and the mobile terminal 100 outputs the contact information related to the destination in a list format on the screen, and the contact selected by the user , Call can be made.

차량 vehicle 비주행Non-driving 또는 사용자 하차 - 제3 Or user alight-3rd 실시예Example

차량 제어 장치(400, 400', 400'')가 설정된 목적지에 차량의 도착을 판단하고, 이동 단말기(100) 또는 차량 제어 장치(400, 400', 400'')에 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 이동 단말기(100)는 사용자 입력에 따라 사진 촬영 프로그램, 메모 프로그램 또는 녹음 프로그램을 실행할 수 있다.The vehicle control device (400, 400', 400``) determines the arrival of the vehicle to the set destination, and the vehicle non-driving event or vehicle to the mobile terminal 100 or the vehicle control device (400, 400', 400'') When the getting off event occurs, the mobile terminal 100 may execute a photo taking program, a memo program, or a recording program according to a user input.

사용자는 차량에서 하차시, 차량의 주정차 위치를 기록하기 위해, 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생하였을 때, 사용자 입력에 따라 프로그램을 실행하여, 사진을 촬영하거나 메모를 작성하거나 녹음을 할 수 있도록 하는 것이 바람직하다.When getting out of the vehicle, the user can take a picture, write a memo, or record by executing a program according to the user input when a vehicle non-driving event or vehicle alighting event occurs in order to record the parking position of the vehicle. It is desirable to do so.

일 예로, 차량 비주행 이벤트 또는 차량 하차 이벤트가 발생한 경우, 도 10A에 도시한 바와 같이, 이동 단말기(100)는 사진, 메모 또는 녹음이 가능한 기록용 프로그램에 대응하는 그래픽 오브젝트를 포함한 팝업창(W)을 화면에 출력할 수 있다.For example, when a vehicle non-driving event or a vehicle disembarkation event occurs, as shown in FIG. 10A, the mobile terminal 100 includes a pop-up window (W) including a graphic object corresponding to a picture, a memo, or a recording program that can be recorded. Can be displayed on the screen.

또한, 그래픽 오브젝트 주변 및/또는 상기 기록용 프로그램에 대한 실행 명령을 수신하는 아이콘 주변에는 사용자의 확인이 요구되는 이벤트의 발생 횟수를 숫자로 표시할 수 있다.In addition, around the graphic object and/or around an icon receiving an execution command for the recording program, the number of occurrences of an event requiring confirmation by the user may be displayed as a number.

이때, 상기 그래픽 오브젝트 또는 기록용 프로그램을 선택하는 사용자 입력을 수신한 경우, 일 예로, 이동 단말기(100)는 도 13F와 같은 녹음 파일 관리 프로그램을 실행하여, 녹음을 하거나, 도 11B와 같은 사진을 촬영할 수 있는 프로그램을 실행할 수 있다.At this time, when receiving a user input for selecting the graphic object or a recording program, for example, the mobile terminal 100 executes a recording file management program as shown in FIG. 13F to record or take a picture as shown in FIG. 11B. You can run a program that can shoot.

본 명세서에 개시된 기술이 적용 가능한 차량Vehicles to which the technology disclosed in this specification is applicable

이하에서는 도 14를 참조하여 본 명세서에 개시된 기술이 적용 가능한 차량에 대해 설명한다.Hereinafter, a vehicle to which the technology disclosed in the present specification is applicable will be described with reference to FIG. 14.

도 14에서는 전기차량에 대해 기술하지만, 본 명세서에 개시된 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 한도에서 다른 종류의 차량(예를 들어, 가솔린 엔진, 디젤 엔진 또는 LPG 엔진을 구비한 차량)에도 적용 가능함이 본 기술분야에 당업자에게 자명하다.In FIG. 14, an electric vehicle is described, but the technology disclosed in this specification is also applied to other types of vehicles (eg, a gasoline engine, a diesel engine, or a vehicle equipped with an LPG engine) without departing from the technical spirit disclosed in the present specification. Applicability is apparent to those skilled in the art.

도 14는 본 명세서에 개시된 일 실시예에 따른 배터리 충전장치를 구비한 전기차량의 개략적인 구성도이다.14 is a schematic configuration diagram of an electric vehicle including a battery charging device according to an embodiment disclosed in the present specification.

도 14에 도시된 바와 같이, 본 발명의 일 실시예에 따른 배터리 충전장치를 구비한 전기차량(600)은, 차량바디(610)와, 상기 차량바디(610)에 구비되는 배터리(625)와, 상기 차량바디(610)에 구비되고 외부 전원과 연결되어 상기 배터리(625)를 충전시키는 배터리 충전장치(640)를 포함하여 구성될 수 있다. As shown in FIG. 14, an electric vehicle 600 equipped with a battery charging device according to an embodiment of the present invention includes a vehicle body 610, a battery 625 provided in the vehicle body 610, and , A battery charging device 640 provided in the vehicle body 610 and connected to an external power source to charge the battery 625.

상기 차량바디(610)의 상부영역에는 도면에는 도시하지 아니하였으나 운전자 또는 승객이 탑승하는 탑승공간이 구비될 수 있다. 예를 들면, 상기 차량바디(610)는 내부에 탑승공간이 형성되는 캐빈(cabin)(미도시)이 구비될 수 있다. Although not shown in the drawing, a boarding space for a driver or a passenger may be provided in the upper area of the vehicle body 610. For example, the vehicle body 610 may include a cabin (not shown) in which a boarding space is formed.

상기 차량바디(610)는 주행이 가능하게 복수의 휠(615)을 구비하여 구성될 수 있다. 상기 차량바디(610)와 상기 각 휠(615) 사이에는 현가장치(620)가 각각 구비될 수 있다. 이에 의해, 상기 차량바디(610)의 노면 주행 시 발생하는 진동 및 충격이 완화될 수 있다. The vehicle body 610 may be configured with a plurality of wheels 615 to enable driving. A suspension device 620 may be provided between the vehicle body 610 and each wheel 615. As a result, vibrations and shocks generated when the vehicle body 610 is traveling on a road surface may be alleviated.

상기 휠(615)은 상기 차량바디(610)의 전, 후 양 측에 각각 배치될 수 있다.The wheel 615 may be disposed on both sides of the vehicle body 610 before and after, respectively.

상기 차량바디(610)에는 전원 공급을 위한 배터리(625)가 구비될 수 있다.A battery 625 for supplying power may be provided in the vehicle body 610.

상기 배터리(625)는 충전이 가능하게 2차 전지로 구성될 수 있다.The battery 625 may be configured as a secondary battery to enable charging.

상기 차량바디(610)의 일 측에는 상기 휠(615)에 구동력을 제공하는 전동기(630)가 마련될 수 있다. An electric motor 630 that provides driving force to the wheel 615 may be provided on one side of the vehicle body 610.

상기 차량바디(610)에는 상기 전동기(630)에 구동 전원을 제공하는 인버터장치(635)가 구비될 수 있다. 상기 인버터장치(635)는 상기 배터리(625) 및 상기 전동기(630)에 각각 연결될 수 있다. The vehicle body 610 may be provided with an inverter device 635 that provides driving power to the electric motor 630. The inverter device 635 may be connected to the battery 625 and the electric motor 630, respectively.

상기 인버터장치(635)는 상기 배터리(125)에 연결되어 직류 전원을 공급받고, 직류 전원을 상기 전동기(630)의 구동에 적합한 전원으로 변환하여 상기 전동기(130)에 제공할 수 있다.The inverter device 635 is connected to the battery 125 to receive DC power, and converts DC power to power suitable for driving the electric motor 630 and provides it to the electric motor 130.

상기 차량바디(610)에는 상기 배터리(625)를 충전할 수 있게 배터리 충전장치(640)가 구비될 수 있다. 상기 배터리 충전장치(640)는 외부 상용 전원(AC)과 연결되어 상용 전원을 상기 배터리(625)의 충전에 적합한 전원으로 변환하여 상기 배터리(625)에 제공하는 충전회로(660)를 구비하여 구성될 수 있다. 여기서, 상기 충전회로(660)는, 구체적으로 도시하지 아니하였으나, 상용 전원과 연결되어 상용 전원이 입력되는 상용전원입력부, 상기 상용전원입력부를 통해 입력된 상용 전원을 직류로 변환하는 정류부 및 평활부, 변환된 직류 전원을 상기 배터리(625)의 충전에 적합한 전원으로 변환하여 출력하는 전력변환부를 포함하여 구성될 수 있다.A battery charging device 640 may be provided in the vehicle body 610 to charge the battery 625. The battery charging device 640 is configured with a charging circuit 660 connected to an external commercial power source (AC) to convert commercial power into power suitable for charging the battery 625 and provide it to the battery 625 Can be. Here, the charging circuit 660, although not shown in detail, is a commercial power input unit that is connected to a commercial power to input commercial power, a rectifier and smoothing unit that converts the commercial power input through the commercial power input into DC , A power converter converting the converted DC power into power suitable for charging the battery 625 and outputting it.

본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.The scope of the present invention is not limited to the embodiments disclosed herein, and the present invention can be modified, changed, or improved in various forms within the scope of the spirit and claims of the present invention.

100: 이동 단말기 110: 무선 통신부
160: 메모리 180: 제어부
400, 400', 400'': 차량 제어 장치
100: mobile terminal 110: wireless communication unit
160: memory 180: control unit
400, 400', 400'': vehicle control unit

Claims (21)

디스플레이부;
무선 통신부; 및
상기 무선 통신부를 통해 수신되는 정보를 이용하여 사용자의 차량 승차 여부를 판단하며,
상기 무선 통신부를 통해 이벤트가 발생하는 경우, 상기 차량 승차 여부에 따라 상기 이벤트에 대응하는 서로 다른 기능을 실행하는 제어부를 포함하며,
상기 제어부는,
상기 사용자가 차량 내부에 위치하고 있으면 상기 이벤트에 대응하는 제1기능을 실행하고, 상기 사용자가 차량 외부에 위치하고 있으면 상기 이벤트에 대응하는 제2기능을 실행하며,
상기 제1기능을 실행한 경우, 상기 사용자가 차량에서 하차하는 것에 응답하여, 상기 제1기능의 실행을 유지하기 위해 상기 제1기능의 실행을 안내하는 그래픽 객체가 표시되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 이동 단말기.
A display unit;
Wireless communication unit; And
Using the information received through the wireless communication unit to determine whether the user boards the vehicle,
When an event occurs through the wireless communication unit, it includes a control unit for executing different functions corresponding to the event according to whether the vehicle is boarded, and
The control unit,
When the user is located inside the vehicle, a first function corresponding to the event is executed, and when the user is located outside the vehicle, a second function corresponding to the event is executed,
When executing the first function, in response to the user getting off the vehicle, controlling the display unit to display a graphic object guiding the execution of the first function to maintain execution of the first function Mobile terminal characterized by.
제 1 항에 있어서,
상기 무선 통신부는,
상기 차량에 설치된 차량 제어 장치와 통신을 수행하며, 상기 차량 제어 장치가 상기 이벤트에 대응하는 동작을 수행하도록, 상기 이벤트에 대응하는 데이터를 상기 차량 제어 장치로 전송하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The wireless communication unit,
And transmitting data corresponding to the event to the vehicle control device so that the vehicle control device performs communication with a vehicle control device installed in the vehicle, and the vehicle control device performs an operation corresponding to the event.
제 1 항에 있어서,
사용자 입력을 수신하기 위한 팝업창을 화면에 표시하는 출력부;
를 더 포함하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
An output unit that displays a pop-up window for receiving a user input on the screen;
A mobile terminal further comprising a.
제 3 항에 있어서,
상기 출력부는,
상기 팝업창 내 적어도 하나의 그래픽 오브젝트를 화면에 표시하고,
상기 제어부는,
상기 그래픽 오브젝트에 대한 선택 입력에 따라, 상기 이벤트에 대응하는 동작을 수행하는 것을 특징으로 하는 이동 단말기.
The method of claim 3,
The output unit,
At least one graphic object in the pop-up window is displayed on the screen,
The control unit,
And performing an operation corresponding to the event according to a selection input for the graphic object.
제 4 항에 있어서,
상기 그래픽 오브젝트는,
이벤트 발생 횟수를 상기 그래픽 오브젝트 상에 또는 상기 그래픽 오브젝트 주위에 표시하는 것을 특징으로 하는 이동 단말기.
The method of claim 4,
The graphic object,
A mobile terminal, characterized in that the number of occurrences of an event is displayed on the graphic object or around the graphic object.
제 1 항에 있어서,
상기 이동 단말기는,
사용자의 차량 승차 이벤트가 발생한 경우, 사용자 입력에 따라 상기 차량의 정보를 출력하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The mobile terminal,
When a user's vehicle riding event occurs, the mobile terminal outputs information on the vehicle according to a user input.
제 1 항에 있어서,
상기 이동 단말기는,
사용자의 차량 승차 이벤트가 발생한 경우, 사용자 입력에 따라 상기 차량에 대한 제어 명령을 전송하기 위한 프로그램을 실행하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The mobile terminal,
A mobile terminal, comprising executing a program for transmitting a control command for the vehicle according to a user input when a user's vehicle riding event occurs.
제 2 항에 있어서,
상기 이동 단말기는,
사용자의 차량 승차 이벤트가 발생한 경우, 사용자 입력에 따라 상기 차량 제어 장치에 목적지를 설정하기 위한 프로그램을 실행하는 것을 특징으로 하는 이동 단말기.
The method of claim 2,
The mobile terminal,
A mobile terminal, characterized in that when a user's vehicle riding event occurs, a program for setting a destination in the vehicle control device is executed according to a user input.
제 1 항에 있어서,
상기 이동 단말기는,
상기 차량이 주행 중 호 착신시, 착신을 거부하고 응답 메시지를 호 발신 대상에 전송한 경우,
차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 상기 호 발신 대상에 호를 발신하는 프로그램을 실행하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The mobile terminal,
When the vehicle receives a call while driving, when the call is rejected and a response message is transmitted to the call originating target,
A mobile terminal, comprising executing a program for sending a call to the call originating target according to a user input when a vehicle non-driving event or a user alighting event occurs.
제 1 항에 있어서,
상기 이동 단말기는,
상기 차량이 주행 중 일정 관련 텍스트를 포함한 메시지를 착신한 경우,
차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 일정 관리 프로그램을 실행하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The mobile terminal,
When the vehicle receives a message including a schedule-related text while driving,
A mobile terminal, characterized in that when a vehicle non-driving event or a user's getting off event occurs, a schedule management program is executed according to a user input.
제 1 항에 있어서,
상기 이동 단말기는,
상기 차량이 주행 중 녹음을 한 경우,
차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 녹음 파일을 관리할 수 있는 프로그램을 실행하는 것을 특징으로 하는 이동 단말기.
The method of claim 1,
The mobile terminal,
If the vehicle was recorded while driving,
A mobile terminal, characterized in that when a vehicle non-driving event or a user's getting off event occurs, a program capable of managing a recorded file according to a user input is executed.
제 2 항에 있어서,
상기 차량 제어 장치는,
기 설정된 목적지에 상기 차량의 미도착을 판단한 경우, 상기 이동 단말기는, 차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 현 위치로부터 상기 목적지까지 경로를 화면에 출력하는 것을 특징으로 하는 이동 단말기.
The method of claim 2,
The vehicle control device,
When it is determined that the vehicle has not arrived at a preset destination, the mobile terminal outputs a route from the current location to the destination on a screen according to a user input when a vehicle non-driving event or a user's disembarkation event occurs. terminal.
제 2 항에 있어서,
상기 차량 제어 장치는,
기 설정된 제1 목적지에 상기 차량의 도착을 판단한 이후, 제2 목적지가 설정되었고, 다시 상기 제2 목적지에 상기 차량의 도착을 판단한 경우,
상기 이동 단말기는,
차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 사용자 입력에 따라 상기 제2 목적지로부터 상기 제1 목적지까지의 경로를 출력하는 것을 특징으로 하는 이동 단말기.
The method of claim 2,
The vehicle control device,
After determining the arrival of the vehicle to a preset first destination, when a second destination is set and it is determined that the vehicle arrives at the second destination again,
The mobile terminal,
A mobile terminal, comprising outputting a route from the second destination to the first destination according to a user input when a vehicle non-driving event or a user alighting event occurs.
제 2 항에 있어서,
상기 차량 제어 장치가,
기 설정된 목적지에 상기 차량의 도착을 판단한 경우,
상기 이동 단말기는,
차량의 비주행 이벤트 또는 사용자의 하차 이벤트 발생시, 상기 목적지에 관련된 정보를 출력하는 것을 특징으로 하는 이동 단말기.
The method of claim 2,
The vehicle control device,
When determining the arrival of the vehicle to a preset destination,
The mobile terminal,
A mobile terminal comprising outputting information related to the destination when a vehicle non-driving event or a user's getting off event occurs.
제 2 항에 있어서,
상기 차량 제어 장치가,
기 설정된 목적지에 상기 차량의 도착을 판단한 경우,
상기 이동 단말기는,
일정 관리 프로그램에 저장된 장소와 상기 차량 제어 장치에 설정된 목적지 간의 거리가 일정 거리 내에 속하는 경우, 사용자 입력에 따라 상기 일정 관리 프로그램에 상기 장소와 함께 저장된 연락처에 발신하도록 호 발신 프로그램을 실행하는 것을 특징으로 하는 이동 단말기.
The method of claim 2,
The vehicle control device,
When determining the arrival of the vehicle to a preset destination,
The mobile terminal,
When the distance between the place stored in the schedule management program and the destination set in the vehicle control device falls within a certain distance, a call originating program is executed to call the contact information stored together with the place in the schedule management program according to a user input. Mobile terminal.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020160079543A 2016-06-24 2016-06-24 Mobile terminal and method for controlling the same KR102220367B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160079543A KR102220367B1 (en) 2016-06-24 2016-06-24 Mobile terminal and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160079543A KR102220367B1 (en) 2016-06-24 2016-06-24 Mobile terminal and method for controlling the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140066308A Division KR20150137799A (en) 2014-05-30 2014-05-30 Mobile terminal and method for controlling the same

Publications (2)

Publication Number Publication Date
KR20160079749A KR20160079749A (en) 2016-07-06
KR102220367B1 true KR102220367B1 (en) 2021-02-25

Family

ID=56502574

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160079543A KR102220367B1 (en) 2016-06-24 2016-06-24 Mobile terminal and method for controlling the same

Country Status (1)

Country Link
KR (1) KR102220367B1 (en)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"주차 시동까지 안방서 원격조정 ... 앞차량 사고정보도 실시간 전달", 헤럴드 경제, 2013.1.28.*

Also Published As

Publication number Publication date
KR20160079749A (en) 2016-07-06

Similar Documents

Publication Publication Date Title
US9800717B2 (en) Mobile terminal and method for controlling the same
US9530265B2 (en) Mobile terminal and vehicle control
US9869556B2 (en) Mobile terminal and control method therefor
KR101659027B1 (en) Mobile terminal and apparatus for controlling a vehicle
US20200213835A1 (en) Mobile terminal
CN110099836B (en) Vehicle and method of controlling display therein
KR102215815B1 (en) Mobile terminal and method for controlling the same
US20180137266A1 (en) Mobile terminal and method for controlling same
KR102536865B1 (en) Electronic device and method for controlling the same
EP3247170B1 (en) Mobile terminal
KR101698102B1 (en) Apparatus for controlling vehicle and method for controlling the same
KR101578741B1 (en) Mobile terminal and method for controlling the same
KR101659033B1 (en) Mobile terminal and method for controlling the same
US9829337B2 (en) Mobile terminal and method for controlling the same
KR101602265B1 (en) Mobile terminal and method for controlling the same
KR102220367B1 (en) Mobile terminal and method for controlling the same
US11568758B2 (en) Terminal
KR20160023755A (en) Mobile terminal and method for controlling the same
KR102059607B1 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2020101001602; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20200619

Effective date: 20210119

GRNO Decision to grant (after opposition)