KR20180068028A - Navigation apparatus and method for setting destination thereof - Google Patents

Navigation apparatus and method for setting destination thereof Download PDF

Info

Publication number
KR20180068028A
KR20180068028A KR1020160169578A KR20160169578A KR20180068028A KR 20180068028 A KR20180068028 A KR 20180068028A KR 1020160169578 A KR1020160169578 A KR 1020160169578A KR 20160169578 A KR20160169578 A KR 20160169578A KR 20180068028 A KR20180068028 A KR 20180068028A
Authority
KR
South Korea
Prior art keywords
destination
point
touch gesture
setting
processor
Prior art date
Application number
KR1020160169578A
Other languages
Korean (ko)
Inventor
양현승
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160169578A priority Critical patent/KR20180068028A/en
Publication of KR20180068028A publication Critical patent/KR20180068028A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

The present invention relates to a navigation apparatus, and a method for setting a destination thereof. The navigation apparatus according to the present invention comprises: an operating system having a touch pad; and a processor. The processor searches for a desired point on a map according to operation of the operating system, detects a touch gesture input to the touch pad, and sets a searched point as the destination according to the sensed touch gesture.

Description

내비게이션 장치 및 그의 목적지 설정 방법{NAVIGATION APPARATUS AND METHOD FOR SETTING DESTINATION THEREOF}≪ Desc / Clms Page number 1 > NAVIGATION APPARATUS AND METHOD FOR SETTING DESTINATION THEREOF

본 발명은 터치 패드(touch pad)를 지원하는 조작계를 이용하여 목적지를 설정하는 내비게이션 장치 및 그의 목적지 설정 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a navigation device for setting a destination using an operating system that supports a touch pad and a destination setting method thereof.

내비게이션 장치는 차량의 현재 위치에서 목적지까지의 경로를 탐색하여 길 안내를 수행하는 장치이다. 이러한 내비게이션 장치에서 목적지 또는 경유지를 설정하기 위해서는, 사용자가 차량 내 마련된 조작계를 조작하여 지도를 스크롤하여 원하는 지점을 선택한 후, 메뉴를 선택하여 목적지 설정 또는 경유지 설정과 같은 메뉴를 선택해야 선택된 지점을 목적지 또는 경유지로 설정할 수 있다.A navigation device is a device that searches for a route from a current location of a vehicle to a destination and performs route guidance. In order to set a destination or waypoint in such a navigation device, a user operates an operating system provided in the vehicle to scroll the map to select a desired point, and then selects a menu to select a menu such as a destination setting or a waypoint setting, Or a way point.

이러한 종래의 내비게이션 장치는 목적지 또는 경유지 설정을 위해 여러 단계의 사용자 입력을 요구하여 사용상의 불편의 초래한다.Such a conventional navigation device requires user input at various stages in order to set a destination or a waypoint, resulting in inconvenience in use.

US 20120032899 A1US 20120032899 A1

본 발명은 터치 패드를 지원하는 조작계를 이용하여 목적지를 설정하는 내비게이션 장치 및 그의 목적지 설정 방법을 제공하고자 한다.The present invention provides a navigation device for setting a destination using an operating system that supports a touch pad and a destination setting method thereof.

상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 내비게이션 장치는, 터치 패드를 구비한 조작계, 및 상기 조작계의 조작에 따라 지도에서 원하는 지점을 검색한 후, 상기 터치 패드에 입력되는 터치 제스처를 감지하고, 감지한 터치 제스처에 따라 검색된 지점을 목적지로 설정하는 처리기를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a navigation device comprising: an operating system having a touch pad; a search unit for searching a desired point on a map according to an operation of the operating system; And a processor for detecting the gesture and setting the searched point as a destination according to the sensed touch gesture.

상기 터치 제스처는, 한붓그리기 방식으로 입력되는 명령어의 이니셜인 것을 특징으로 한다.The touch gesture is an initial of a command input by a single-brush drawing method.

상기 처리기는, 상기 감지한 터치 제스처에 정의된 명령이 경유지 설정이면, 상기 검색된 지점을 경유지로 설정하는 것을 특징으로 한다.The processor sets the searched point as a stopping point if a command defined in the sensed touch gesture is a stopover setting.

상기 처리기는, 상기 감지한 터치 제스처에 기등록된 지점을 목적지로 설정하는 것을 특징으로 한다.The processor sets a point previously registered in the sensed touch gesture as a destination.

본 발명의 일 실시예에 따른 내비게이션 장치의 목적지 설정 방법은 지도 상에서 원하는 지점을 검색하는 단계, 상기 원하는 지점을 검색한 후, 터치 제스처를 검출하는 단계, 및 검출된 터치 제스처에 따라 검색된 지점을 목적지로 설정하는 단계를 포함하는 것을 특징으로 한다.A destination setting method of a navigation device according to an embodiment of the present invention includes searching a desired point on a map, searching for a desired point, detecting a touch gesture, and detecting a point searched according to the detected touch gesture And a step of setting the value of the parameter.

상기 터치 제스처는, 한붓그리기 방식으로 입력되는 명령어의 이니셜인 것을 특징으로 한다.The touch gesture is an initial of a command input by a single-brush drawing method.

상기 목적지로 설정하는 단계는, 상기 검출된 터치 제스처에 정의된 명령이 목적지 설정 명령이면 상기 검색된 지점을 목적지로 설정하는 것을 특징으로 한다.The step of setting the destination may set the searched point as a destination if the command defined in the detected touch gesture is a destination setting command.

상기 목적지로 설정하는 단계에서, 상기 검출된 터치 제스처에 정의된 명령이 경유지 설정 명령이면, 상기 검색된 지점을 경유지로 설정하는 것을 특징으로 한다.In the step of setting to the destination, if the command defined in the detected touch gesture is a stop route setting command, the searched location is set as a stop route.

상기 목적지로 설정하는 단계에서, 상기 검출된 터치 제스처에 기등록된 지점을 목적지로 설정하는 것을 특징으로 한다.And a step of setting the destination as a destination, the point previously registered in the detected touch gesture is set as a destination.

본 발명은 터치 패드를 지원하는 조작계를 이용하여 목적지를 손쉽게 설정할 수 있도록 하여 사용자의 편의성을 개선할 수 있다.The present invention can easily set a destination using an operating system that supports a touch pad, thereby improving user convenience.

도 1은 본 발명의 일 실시예에 따른 내비게이션 장치의 블록구성도.
도 2는 도 1에 도시된 조작계를 도시한 측면도.
도 3은 본 발명의 일 실시예에 따른 내비게이션 장치의 목적지 설정 방법을 도시한 흐름도.
도 4a 내지 4c는 본 발명에 따른 목적지 설정 과정을 설명하기 위한 예시도.
1 is a block diagram of a navigation device according to an embodiment of the present invention;
2 is a side view showing the operating system shown in Fig. 1;
3 is a flowchart showing a destination setting method of a navigation device according to an embodiment of the present invention;
4A to 4C are exemplary diagrams for explaining a destination setting process according to the present invention;

본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.The terms "comprises", "comprising", "having", and the like are used herein to mean that a component can be implanted unless otherwise specifically stated, Quot; element ".

또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Also, the terms " part, "" module, " and" module ", as used herein, refer to a unit that processes at least one function or operation and may be implemented as hardware or software or a combination of hardware and software . It is also to be understood that the articles "a", "an", "an" and "the" Can be used.

이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 내비게이션 장치의 블록구성도이고, 도 2는 도 1에 도시된 조작계를 도시한 측면도이다. 여기서, 내비게이션 장치는 차량에 장착되는 AVN(Audio Video Navigation) 장치로 구현될 수 있다.FIG. 1 is a block diagram of a navigation apparatus according to an embodiment of the present invention, and FIG. 2 is a side view illustrating an operation system shown in FIG. Here, the navigation device may be implemented as an AVN (Audio Video Navigation) device mounted on a vehicle.

도 1에 도시된 바와 같이, 본 발명에 따른 내비게이션 장치는 조작계(110), GPS(Global Positioning System) 수신기(120), 메모리(130), 디스플레이(140), 오디오 출력기(150) 및 처리기(160)를 포함한다.1, a navigation device according to the present invention includes an operating system 110, a Global Positioning System (GPS) receiver 120, a memory 130, a display 140, an audio output device 150, and a processor 160 ).

조작계(110)는 사용자의 조작에 따른 신호를 발생시킨다. 조작계(110)는 도 2에 도시된 바와 같이 노브(knob) 형태로 제작된다. 조작계(110)는 다이얼 회전 또는 조이스틱 방식을 통한 메뉴 이동, 메뉴 선택 또는 커서 이동 등을 제어한다. 조작계(110)의 주변에는 특정 기능이 정의된 기능키(FK)들이 구비될 수 있다. 예를 들어, 기능키는 메뉴키, 홈키, 통화키 및 목적지 설정키 등을 포함할 수 있다.The operating system 110 generates a signal corresponding to the operation of the user. The manipulation system 110 is manufactured in the form of a knob as shown in FIG. The operating system 110 controls menu rotation, menu selection, cursor movement, and the like through dial rotation or joystick method. Function keys (FK) having a specific function defined may be provided around the operation system 110. For example, the function key may include a menu key, a home key, a communication key, and a destination setting key.

터치 패드(touch pad)(111)는 조작계(110)의 상부(top)에 배치된다. 터치 패드(111)는 사용자의 터치 동작을 감지하는 센서로, 터치 필름 또는 터치 시트 등의 형태로 구현될 수 있다.A touch pad 111 is disposed at the top of the operation system 110. The touch pad 111 is a sensor for sensing a user's touch operation, and may be implemented in the form of a touch film or a touch sheet.

터치 패드(111)은 터치 패드(111) 상의 일 지점에 가해지는 압력 또는 정전 용량 등의 변화를 전기신호로 변환한다. 터치 패드(111)은 터치 지점의 위치(좌표) 및 면적뿐만 아니라, 터치 시의 압력도 검출할 수 있도록 구성될 수 있다.The touch pad 111 converts a change in pressure or capacitance applied to one point on the touch pad 111 into an electrical signal. The touch pad 111 can be configured to detect not only the position (coordinate) and the area of the touch point but also the pressure at the time of touch.

터치 패드(111)는 터치 입력에 대응하는 신호(들)를 터치 제어기로 출력한다. 터치 제어기는 터치 패드(111)로부터 입력되는 전기신호(들)를 처리하여 터치 지점의 좌표 데이터(좌표값)을 처리기(160)로 전송한다. 따라서, 처리기(160)는 터치 패드(111)의 어느 지점이 터치 되었지를 알 수 있다.The touch pad 111 outputs the signal (s) corresponding to the touch input to the touch controller. The touch controller processes the electric signal (s) input from the touch pad 111 and transmits the coordinate data (coordinate value) of the touch point to the processor 160. Accordingly, the processor 160 can recognize which point of the touch pad 111 is touched.

GPS 수신기(120)는 내비게이션 장치의 현재 위치를 측정한다. 즉, GPS 수신기(120)는 내비게이션 장치가 장착된 차량의 현재 위치를 측정한다. GPS 수신기(120)은 3개 이상의 GPS 위성으로부터 송신되는 신호를 이용하여 차량의 현재 위치를 산출한다. GPS 수신기(120)은 위성에서 신호를 송신한 시간과 GPS 수신기(120)에서 신호를 수신한 시간의 시간차를 이용하여 위성과 GPS 수신기(120) 간의 거리를 산출한다. GPS 수신기(120)은 산출된 위성과 GPS 수신기(120) 간의 거리 및 송신된 신호에 포함된 위성의 위치 정보를 이용하여 차량의 현재위치를 산출한다. 이때, GPS 수신기(120)은 삼각측량법을 이용한다.The GPS receiver 120 measures the current position of the navigation device. That is, the GPS receiver 120 measures the current position of the vehicle equipped with the navigation device. The GPS receiver 120 calculates the current position of the vehicle using signals transmitted from three or more GPS satellites. The GPS receiver 120 calculates the distance between the satellite and the GPS receiver 120 using the time difference between the time when the signal was transmitted from the satellite and the time when the signal was received from the GPS receiver 120. The GPS receiver 120 calculates the current position of the vehicle using the distance between the calculated satellite and the GPS receiver 120 and the position information of the satellite included in the transmitted signal. At this time, the GPS receiver 120 uses a triangulation method.

메모리(130)는 처리기(160)의 동작을 위한 프로그램을 저장할 수 있다. 메모리(130)는 지도 데이터(정밀 지도), 기등록된 지점 정보(위치 좌표), 안내 음성메시지 및 경고음 등을 저장할 수도 있다. 메모리(130)는 플래시 메모리(flash memory), 하드디스크(hard disk), SD 카드(Secure Digital Card), 램(Random Access Memory, RAM), 롬(Read Only Memory, ROM), 및 웹 스토리지(web storage) 등의 저장매체 중 어느 하나 이상의 저장매체로 구현될 수 있다.The memory 130 may store a program for operation of the processor 160. The memory 130 may store map data (precise map), pre-registered point information (position coordinates), a guidance voice message, a warning sound, and the like. The memory 130 may be a flash memory, a hard disk, an SD card (Secure Digital Card), a random access memory (RAM), a read only memory (ROM) storage medium, or the like.

디스플레이(140)는 내비게이션 장치에서 처리되는 정보를 표시한다. 예를 들어, 디스플레이(140)는 내비게이션 장치의 조작과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface), 지도, 도로 정보, 유교 정보 또는 경고 메시지 등을 표시한다.The display 140 displays information processed in the navigation device. For example, the display 140 displays a UI (User Interface) or a GUI (Graphic User Interface), a map, a road information, a Confucian information, or a warning message related to the operation of the navigation device.

디스플레이(140)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 투명디스플레이 및 HUD(Head Up Display) 중 어느 하나의 형태로 구현될 수 있다.The display 140 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display ), A three-dimensional display (3D display), a transparent display, and a head up display (HUD).

오디오 출력기(150)는 메모리(130)에 저장된 오디오 데이터를 출력한다. 예컨대, 오디오 출력기(150)는 길안내 음성메시지, 경고 음성메시지 및/또는 경고음 등을 출력한다. 오디오 출력기(150)는 리시버(receiver), 스피커(speaker), 및/또는 버저(buzzer) 등을 포함할 수 있다.The audio output device 150 outputs the audio data stored in the memory 130. [ For example, the audio output device 150 outputs a route guidance voice message, a warning voice message, and / or a warning sound. The audio output device 150 may include a receiver, a speaker, and / or a buzzer.

처리기(160)는 GPS 수신기(120)와 메모리(130)에 저장된 지도 데이터(정밀지도)를 이용하여 목적지까지의 길안내 및/또는 도로정보 등을 제공할 수 있다.The processor 160 may provide route guidance and / or road information to the destination using the map data (precision map) stored in the GPS receiver 120 and the memory 130.

처리기(160)는 지도 상에서 원하는 지점을 검색한다. 예를 들어, 처리기(160)는 조작계(110)의 조작에 따라 지도를 스크롤하여 원하는 지점에 커서를 위치하도록 한다. 또는, 처리기(160)는 터치 패드(111)의 중심을 기준으로 어느 한 방향의 일 지점에 롱 터치(long touch)가 감지되면 지도를 스크롤하여 원하는 지점에 커서를 위치시킨다.The processor 160 searches for a desired point on the map. For example, the processor 160 scrolls the map according to the operation of the operating system 110 and places the cursor at a desired point. Alternatively, the processor 160 scrolls the map when a long touch is detected at one point in one direction with respect to the center of the touch pad 111, and positions the cursor at a desired point.

처리기(160)는 원하는 지점을 검색한 후, 터치 패드(111)를 통해 사용자에 의해 입력되는 터치 제스처(touch gesture)를 검출(감지)한다. 각 터치 제스처에는 [표 1]과 같이 명령이 정의된다. 즉, 터치 제스처는 한붓그리기 방식으로 입력되는 명령어의 이니셜이다.The processor 160 searches for a desired point and then detects (detects) a touch gesture input by the user through the touch pad 111. [ For each touch gesture, commands are defined as in [Table 1]. That is, the touch gesture is the initial of a command input by a single-stroke drawing method.

Figure pat00001
Figure pat00001

처리기(160)는 검출된 터치 제스처에 대응하는 명령을 실행한다. 처리기(160)는 터치 제스처로 'D' 또는 'G'가 입력되면 검색된 지점을 목적지로 설정한다. 한편, 처리기(160)는 검출된 터치 제스처가 'W'이면 검색된 지점을 경유지로 설정한다.The processor 160 executes a command corresponding to the detected touch gesture. The processor 160 sets the searched point as a destination when 'D' or 'G' is input as a touch gesture. If the detected gesture is 'W', the processor 160 sets the searched point as a transit point.

처리기(160)는 검출된 터치 제스처가 'h'이면 '우리집'으로 기등록된 지점을 목적지로 설정한다. 또는, 처리기(160)는 검출된 터치 제스처가 'O'이면 '사무실'로 기등록된 지점을 목적지로 설정한다.The processor 160 sets a point registered as 'my home' as a destination when the detected touch gesture is 'h'. Alternatively, the processor 160 sets a point that is previously registered as 'office' as a destination if the detected touch gesture is 'O'.

도 3은 본 발명의 일 실시예에 따른 내비게이션 장치의 목적지 설정 방법을 도시한 흐름도이고, 도 4a 내지 4c는 본 발명에 따른 목적지 설정 과정을 설명하기 위한 예시도이다.FIG. 3 is a flowchart illustrating a method of setting a destination of a navigation device according to an embodiment of the present invention, and FIGS. 4A to 4C are exemplary diagrams illustrating a destination setting process according to the present invention.

처리기(160)는 조작계(110)를 통한 사용자의 입력에 따라 지도 상에서 원하는 지점을 검색한다(S110). 사용자가 터치 패드(111)의 중심을 기준으로 어느 한 방향으로 일정 거리 떨어진 일 지점을 롱 터치하면, 처리기(160)를 이를 감지하여 디스플레이(140)에 표시되는 지도를 스크롤하여 원하는 지점에 커서를 위치시킨다. 예를 들어, 도 4a에 도시된 바와 같이, 터치 패드(111)의 일측방의 일 지점에 롱 터치(T)가 입력되면, 처리기(160)는 롱 터치(T)가 감지된 방향으로 지도를 스크롤하여 커서(C)가 원하는 지점에 위치하게 한다.The processor 160 searches for a desired point on the map according to the input of the user through the operating system 110 (S110). When the user touches a point at a certain distance in a certain direction in the direction of the center of the touch pad 111, the processor 160 senses the long touch, scrolls the map displayed on the display 140, . For example, as shown in FIG. 4A, when the long touch T is input to one side of one side of the touch pad 111, the processor 160 displays the map in the direction in which the long touch T is sensed Scroll to position the cursor (C) at the desired point.

처리기(160)는 원하는 지점을 검색한 후, 터치 패드(111) 상에 입력되는 터치 제스처를 검출한다(S120). 처리기(160)는 한붓그리기 방식으로 터치 제스처가 입력되면 터치 패드(111)로부터 출력되는 터치 지점의 좌표 데이터들을 분석하여 터치 제스처를 인식한다.The processor 160 searches for a desired point and detects a touch gesture input on the touch pad 111 (S120). The processor 160 recognizes the touch gesture by analyzing the coordinate data of the touch point output from the touch pad 111 when the touch gesture is input by the single-brush drawing method.

처리기(160)는 검출된 터치 제스처가 목적지 설정 명령 또는 경유지 설정 명령인지를 확인한다(S130). 처리기(160)는 검출된 터치 제스처가 'D', 'G' 또는 'W'인지를 확인한다.The processor 160 confirms whether the detected touch gesture is a destination setting command or a route setting command (S130). The processor 160 confirms whether the detected touch gesture is 'D', 'G', or 'W'.

처리기(160)는 검출된 터치 제스처가 목적지 설정 명령 또는 경유지 설정 명령이면, 검색된 지점을 목적지 또는 경유지로 설정한다(S140). 처리기(160)는 검출된 터치 제스처가 'D' 또는 'G' 이면 검색된 지점을 목적지로 설정한다. 예컨대, 도 4b에서와 같이 터치 패드(111) 상에 터치 제스처로 'D'가 입력되면 처리기(160)는 커서(C)가 위치하는 지점을 목적지로 설정한다.If the detected touch gesture is a destination setting command or a route setting command, the processor 160 sets the searched location as a destination or a destination (S140). The processor 160 sets the detected point as a destination if the detected touch gesture is 'D' or 'G'. For example, when 'D' is input as a touch gesture on the touch pad 111 as shown in FIG. 4B, the processor 160 sets a point where the cursor C is positioned as a destination.

본 실시예에서는 터치 제스처의 입력이 완료되면 검색된 지점을 바로 목적지로 설정하는 것을 설명하고 있으나, 이에 한정되지 않고, 목적지 결정을 재확인하도록 구현할 수도 있다.In this embodiment, when the input of the touch gesture is completed, the searched point is directly set as the destination. However, the present invention is not limited to this, and the destination determination may be reconfirmed.

예를 들어, 처리기(160)는 터치 제스처의 입력이 완료되면, 도 4c에서와 같이 팝업 메뉴를 표시한다. 이후, 사용자가 메뉴 중 목적지 설정 또는 경유지 추가를 선택하면, 처리기(160)는 검색된 지점을 목적지로 최종 설정하도록 하거나 또는 경유지로 추가한다.For example, when the input of the touch gesture is completed, the processor 160 displays a pop-up menu as shown in FIG. 4C. Thereafter, when the user selects the destination setting or the waypoint addition among the menus, the processor 160 allows the searched point to be finally set as a destination or added as a waypoint.

처리기(160)는 검출된 터치 제스처가 목적지 설정 명령 또는 경유지 설정 명령이 아니면, 검출된 터치 제스처에 대응하는(맵핑되는) 기등록된 지점을 목적지로 설정한다(S150). 예를 들어, 처리기(160)는 검출된 터치 제스처가 'h'이면 '우리집'으로 기등록된 지점을 목적지로 설정한다. 또는, 처리기(160)는 검출된 터치 제스처가 'O'이면 '사무실'로 기등록된 지점을 목적지로 설정한다.If the detected touch gesture is not the destination setting command or the route setting command, the processor 160 sets a previously registered point corresponding to the detected touch gesture as a destination (S150). For example, when the detected touch gesture is 'h', the processor 160 sets a point registered as 'my home' as a destination. Alternatively, the processor 160 sets a point that is previously registered as 'office' as a destination if the detected touch gesture is 'O'.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention.

110: 조작계
111: 터치 패드
120: GPS 수신기
130: 메모리
140: 디스플레이
150: 오디오 출력기
160: 처리기
110: Operation system
111: Touchpad
120: GPS receiver
130: memory
140: Display
150: Audio output
160: Processor

Claims (9)

터치 패드를 구비한 조작계, 및
상기 조작계의 조작에 따라 지도에서 원하는 지점을 검색한 후, 상기 터치 패드에 입력되는 터치 제스처를 감지하고, 감지한 터치 제스처에 따라 검색된 지점을 목적지로 설정하는 처리기를 포함하는 것을 특징으로 하는 내비게이션 장치.
An operating system having a touch pad, and
And a processor for searching a desired point on the map according to an operation of the operating system, detecting a touch gesture input to the touch pad, and setting a searched point as a destination according to the sensed touch gesture. .
제1항에 있어서,
상기 터치 제스처는,
한붓그리기 방식으로 입력되는 명령어의 이니셜인 것을 특징으로 하는 내비게이션 장치.
The method according to claim 1,
The touch gesture includes:
Wherein the navigation device is an initial of a command input by a single-brush drawing method.
제1항에 있어서,
상기 처리기는,
상기 감지한 터치 제스처에 정의된 명령이 경유지 설정이면, 상기 검색된 지점을 경유지로 설정하는 것을 특징으로 하는 내비게이션 장치.
The method according to claim 1,
The processor includes:
Wherein the controller sets the searched point as a stopping point if the command defined in the detected touch gesture is a stopover setting.
제1항에 있어서,
상기 처리기는,
상기 감지한 터치 제스처에 기등록된 지점을 목적지로 설정하는 것을 특징으로 하는 내비게이션 장치.
The method according to claim 1,
The processor includes:
And sets a point previously registered in the detected touch gesture as a destination.
지도 상에서 원하는 지점을 검색하는 단계,
상기 원하는 지점을 검색한 후, 터치 제스처를 검출하는 단계, 및
검출된 터치 제스처에 따라 검색된 지점을 목적지로 설정하는 단계를 포함하는 것을 특징으로 하는 내비게이션의 목적지 설정 방법.
Searching for a desired point on the map,
Detecting the desired point, and then detecting a touch gesture; and
And setting the detected point as a destination according to the detected touch gesture.
제5항에 있어서,
상기 터치 제스처는,
한붓그리기 방식으로 입력되는 명령어의 이니셜인 것을 특징으로 하는 내비게이션 장치의 목적지 설정 방법.
6. The method of claim 5,
The touch gesture includes:
And the initialization of the command input by the single-brush drawing method.
제5항에 있어서,
상기 목적지로 설정하는 단계는,
상기 검출된 터치 제스처에 정의된 명령이 목적지 설정 명령이면 상기 검색된 지점을 목적지로 설정하는 것을 특징으로 하는 내비게이션 장치의 목적지 설정 방법.
6. The method of claim 5,
The step of setting the destination includes:
And setting the searched point as a destination if the command defined in the detected touch gesture is a destination setting command.
제5항에 있어서,
상기 목적지로 설정하는 단계에서,
상기 검출된 터치 제스처에 정의된 명령이 경유지 설정 명령이면, 상기 검색된 지점을 경유지로 설정하는 것을 특징으로 하는 내비게이션 장치의 목적지 설정 방법.
6. The method of claim 5,
In the setting of the destination,
And if the command defined in the detected touch gesture is a waypoint setting command, sets the searched point as a waypoint.
제5항에 있어서,
상기 목적지로 설정하는 단계에서,
상기 검출된 터치 제스처에 기등록된 지점을 목적지로 설정하는 것을 특징으로 하는 내비게이션 장치의 목적지 설정 방법.
6. The method of claim 5,
In the setting of the destination,
And setting a point previously registered in the detected touch gesture as a destination.
KR1020160169578A 2016-12-13 2016-12-13 Navigation apparatus and method for setting destination thereof KR20180068028A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160169578A KR20180068028A (en) 2016-12-13 2016-12-13 Navigation apparatus and method for setting destination thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160169578A KR20180068028A (en) 2016-12-13 2016-12-13 Navigation apparatus and method for setting destination thereof

Publications (1)

Publication Number Publication Date
KR20180068028A true KR20180068028A (en) 2018-06-21

Family

ID=62806751

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160169578A KR20180068028A (en) 2016-12-13 2016-12-13 Navigation apparatus and method for setting destination thereof

Country Status (1)

Country Link
KR (1) KR20180068028A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120032899A1 (en) 2009-02-09 2012-02-09 Volkswagen Ag Method for operating a motor vehicle having a touch screen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120032899A1 (en) 2009-02-09 2012-02-09 Volkswagen Ag Method for operating a motor vehicle having a touch screen

Similar Documents

Publication Publication Date Title
JP4645179B2 (en) Vehicle navigation device
EP2770500B1 (en) Method for providing a voice-speech service and mobile terminal implementing the same
KR101999119B1 (en) Method using pen input device and terminal thereof
EP2306154A2 (en) Navigation device and program
US20150066360A1 (en) Dashboard display navigation
CN108733303B (en) Touch input method and apparatus of portable terminal
US10936188B2 (en) In-vehicle device, display area splitting method, program, and information control device
US9030472B2 (en) Map display manipulation apparatus
CN101231564A (en) Apparatus and method for improvement of usability of touch screen
JP6429886B2 (en) Touch control system and touch control method
KR102429485B1 (en) User interface apparatus and method
EP2642369A1 (en) Haptic operation input system
US9195322B2 (en) Input apparatus and input controlling method thereof
WO2014136380A1 (en) Touch panel operation device and method for determining operation event on touch panel operation device
JP2011232270A (en) Navigation device and help presentation method thereof
KR20150001130A (en) Method for processing user input and apparatus for the same
CN110940339A (en) Navigation method and electronic equipment
JP6009583B2 (en) Electronics
JP5700253B2 (en) Operation input system
KR20140077000A (en) Touch panel and dizitizer pen position sensing method for dizitizer pen the same
US9823780B2 (en) Touch operation detection apparatus
KR20120026329A (en) Operating method of navigation apparatus using optical sensor
KR20180068028A (en) Navigation apparatus and method for setting destination thereof
JP5457015B2 (en) Navigation device and scroll display method
KR102452540B1 (en) Vehicle terminal and method for controlling operation thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application