KR101195896B1 - operating method of navigation apparatus using optical sensor - Google Patents

operating method of navigation apparatus using optical sensor Download PDF

Info

Publication number
KR101195896B1
KR101195896B1 KR1020100088484A KR20100088484A KR101195896B1 KR 101195896 B1 KR101195896 B1 KR 101195896B1 KR 1020100088484 A KR1020100088484 A KR 1020100088484A KR 20100088484 A KR20100088484 A KR 20100088484A KR 101195896 B1 KR101195896 B1 KR 101195896B1
Authority
KR
South Korea
Prior art keywords
input
optical sensor
initial input
late
function
Prior art date
Application number
KR1020100088484A
Other languages
Korean (ko)
Other versions
KR20120026329A (en
Inventor
정현석
Original Assignee
나비스오토모티브시스템즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나비스오토모티브시스템즈 주식회사 filed Critical 나비스오토모티브시스템즈 주식회사
Priority to KR1020100088484A priority Critical patent/KR101195896B1/en
Publication of KR20120026329A publication Critical patent/KR20120026329A/en
Application granted granted Critical
Publication of KR101195896B1 publication Critical patent/KR101195896B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • G06Q50/40
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096877Systems involving transmission of navigation instructions to the vehicle where the input to the navigation device is provided by a suitable I/O arrangement

Abstract

운전자의 안전성과 편의성을 향상시키기 위해서, 본 발명은 네비게이션 장치의 디스플레이부 외곽에 배치되되 고유마크가 각각 부여된 복수개의 광센서의 센싱영역에 동작개체의 진입을 통한 초기입력 여부를 검출하는 제1단계; 상기 초기입력이 센싱된 광센서 이외의 다른 광센서로의 후발입력이 검출되는지 여부를 순차적으로 판단하는 제2단계; 상기 초기입력의 시점으로부터 기설정된 시간의 도과 여부를 판단하는 제3단계; 상기 초기입력의 시점으로부터 상기 기설정된 시간이 도과된 경우, 상기 기설정된 시간 내에 입력된 상기 초기입력 및 후발입력의 순차적인 조합을 기설정된 동작데이터와 비교하고, 매칭되는 동작데이터의 기능을 수행하는 제4단계를 포함하여 이루어지는 네비게이션 장치의 광센서를 이용한 동작방법을 제공한다. In order to improve the safety and convenience of the driver, the present invention is disposed on the outside of the display unit of the navigation device, the first detecting whether the initial input through the entry of the operating object to the sensing area of the plurality of optical sensors, each of which is given a unique mark step; A second step of sequentially determining whether a late input to an optical sensor other than the optical sensor on which the initial input is sensed is detected; A third step of determining whether a predetermined time has passed from a time point of the initial input; When the predetermined time has elapsed from the time point of the initial input, comparing a sequential combination of the initial input and the late input input input within the preset time with preset motion data and performing a function of matching motion data. It provides a method of operation using an optical sensor of a navigation device comprising a fourth step.

Description

네비게이션 장치의 광센서를 이용한 동작방법{operating method of navigation apparatus using optical sensor} Operating method of navigation apparatus using optical sensor

본 발명은 네비게이션 장치의 동작방법에 관한 것으로서, 보다 상세하게는 네비게이션 장치의 광센서를 이용하여 광신호에 의한 동작을 수행하는 방법에 관한 것이다. The present invention relates to a method of operating a navigation device, and more particularly, to a method of performing an operation by an optical signal using an optical sensor of a navigation device.

일반적으로, 선박, 항공기, 자동차 등 각종 이동체들에는 해당 이동체의 현재 위치와 이동 속도를 확인하거나 이동 경로를 결정하기 위한 위성항법장치(Global Positioning System, GPS)가 탑재되어 있는 네비게이션 장치(Navigation System)가 이용되고 있다. 이러한 네비게이션 장치는 복수 개의 인공위성으로부터 위도, 경도, 고도 등을 나타내는 전파를 수신하여 차량의 현재 위치를 연산한 후 현재 위치가 포함된 지도 정보를 운전자에게 출력시켜 준다. In general, navigation systems in which various types of moving objects such as ships, aircrafts, automobiles, etc. are equipped with a global positioning system (GPS) for checking the current position and moving speed of the moving object or determining a moving path. Is being used. The navigation device receives radio waves representing latitude, longitude, altitude, etc. from a plurality of satellites, calculates the current position of the vehicle, and then outputs map information including the current position to the driver.

또한, 상기 네비게이션 장치는 차량의 진행 방향, 목적지까지의 거리, 차량의 현재 이동 속도 등을 출력하여 주는 등 운전에 필요한 각종 정보를 사용자에게 제공한다. 더욱이, 네비게이션 장치는 상기 수신기를 이용하여 지구상에 떠있는 GPS 위성으로부터 소정의 데이터를 수신하고, 상기 수신된 데이터에 기초하여 자신의 위치를 계산한다. In addition, the navigation device provides the user with various information necessary for driving, such as outputting the driving direction of the vehicle, the distance to the destination, the current moving speed of the vehicle, and the like. Moreover, the navigation device receives the predetermined data from the GPS satellite floating on the earth using the receiver, and calculates its position based on the received data.

구체적으로, 지구상에는 다수의 GPS 위성이 떠 있는데, 차량 등의 운송 장치는 지구상의 어느 지역에 있던지 3개의 GPS 위성으로부터 GPS 신호를 수신할 수 있고, 상기 3개의 GPS 위성으로부터 수신된 GPS 신호에 기초하여 자신의 위치를 계산할 수 있게 되는 것이다. 따라서, 상기 네비게이션 장치는 이렇게 계산된 자신의 위치정보(위도 및 경도 정보)에 기초하여 다양한 주행 정보를 상기 차량 등의 운송 장치에 제공한다. Specifically, a plurality of GPS satellites are floating on the earth, and a vehicle, such as a vehicle, may receive GPS signals from three GPS satellites in any region of the earth, and are based on the GPS signals received from the three GPS satellites. Will be able to calculate their position. Therefore, the navigation device provides various driving information to a transportation device such as the vehicle based on its position information (latitude and longitude information) calculated in this way.

그리고, 상기 네비게이션 장치는 기존에는 항공기나 선박 등 대형 이동체의 위치 계산과 항법에 주로 이용되었으나, 최근에는 자동차 등에도 널리 이용되고 있다. 더욱이, 상기 네비게이션 장치는 운송 장치의 현재 위치, 운송 장치의 현재 위치에서부터 목적지까지의 경로 정보, 상기 위치정보 및 도로 정보와 관련된 지도 정보, 교통 상황 정보 등 매우 다양한 정보를 사용자에게 제공한다. In the past, the navigation device was mainly used for calculating and navigating the position of a large moving object such as an aircraft or a ship. In addition, the navigation device provides the user with a wide variety of information, such as the current location of the transport device, route information from the current location of the transport device to the destination, map information related to the location information and road information, and traffic condition information.

상세히, 이러한 내비게이션 장치는 차량에 탑재된 방위 센서와 거리 센서에 의해 차량의 주행 궤적을 구하여 차량의 현재 위치를 구한 다음, 차량의 주행 궤적과 디지털 수치 지도상의 도로 형상을 비교하고 통과 도로를 판정하여 디지털 수치 지도상에 차량의 위치를 맵 매칭시키고, 맵 매칭시킨 차량의 위치를 모니터와 같은 화면에 출력해 주는 시스템이다. In detail, the navigation device obtains the driving trajectory of the vehicle by using the orientation sensor and the distance sensor mounted on the vehicle to obtain the current position of the vehicle, and then compares the driving trajectory of the vehicle with the road shape on the digital numerical map and determines the passing road. It is a system that maps the location of the vehicle on the digital numerical map and outputs the location of the map-matched vehicle on a screen such as a monitor.

그러나, 상술한 종래의 기술에서는 네비게이션 장치에는 다음과 같은 문제점이 있었다. However, in the above-described prior art, the navigation apparatus has the following problems.

첫째, 사용자가 네비게이션 장치에 출력명령을 입력할 때에는 네비게이션 장치의 외관에 구비된 버튼 등의 입력장치를 이용하거나, LCD(Liquid Crystal Display: 액정표시장치) 등과 같은 화상표시 패널 디스플레이와 일체화되어 구비된 입력장치를 통해 정전, 저항 및 가압방식 등의 터치입력을 이용한다. 이로 인해, 사용자가 운전 중에는 네비게이션 장치의 특정부분을 직접 입력하여 주의력이 감소되어 안전운전이 방해받는 심각한 문제점이 있었다. First, when a user inputs an output command to a navigation device, the user may use an input device such as a button provided on the exterior of the navigation device or may be integrated with an image display panel display such as an LCD (Liquid Crystal Display). Through input devices, touch inputs such as electrostatic, resistance, and pressure methods are used. As a result, while the user is driving, there is a serious problem that the attention is reduced by directly inputting a specific portion of the navigation device, which prevents safe driving.

둘째, 종래의 네비게이션 장치에 출력명령의 입력은 버튼이 실수로 눌러지거나 터치입력시 터치입력 영역의 정확한 곳을 터치하지 못하는 경우가 있었다. 따라서, 잘못 입력된 출력 명령을 사용자가 확인하고 다시 입력해야하는 사용상의 번거로움이 있었다. Second, the input of an output command to a conventional navigation device may inadvertently press a button or fail to touch an accurate location of a touch input area during a touch input. Therefore, there was a hassle in using the user to check and retype the wrong input command.

셋째, 이러한 문제점을 해결하기 위하여 광센서를 이용한 네비게이션 장치가 개발되었지만, 전원의 연결 및 차단을 제어하는 등의 간단한 동작만을 수행할 수 있으며, 사용자가 광센서에 직접 접촉해야 명령이 입력되는 등의 사용상의 불편함이 있었다. Third, although a navigation device using an optical sensor has been developed to solve this problem, it can only perform a simple operation such as controlling the connection and disconnection of a power source, and a user must directly contact the optical sensor to input a command. There was inconvenience in use.

상기와 같은 문제점을 해결하기 위하여, 본 발명은 네비게이션 장치에 광센서를 구비하고 광신호를 이용한 동작명령을 입력하여 제품의 기능성이 향상되는 네비게이션 장치의 광센서를 이용한 동작방법을 제공하는 것을 해결과제로 한다. In order to solve the above problems, the present invention is to provide an operation method using the optical sensor of the navigation device having an optical sensor in the navigation device and inputs an operation command using the optical signal to improve the functionality of the product. Shall be.

상기의 과제를 해결하기 위해서, 본 발명은 네비게이션 장치의 디스플레이부 외곽에 배치되되 고유마크가 각각 부여된 복수개의 광센서의 센싱영역에 동작개체의 진입을 통한 초기입력 여부를 검출하는 제1단계; 상기 초기입력이 센싱된 광센서 이외의 다른 광센서로의 후발입력이 검출되는지 여부를 순차적으로 판단하는 제2단계; 상기 초기입력의 시점으로부터 기설정된 시간의 도과 여부를 판단하는 제3단계; 및 상기 초기입력의 시점으로부터 상기 기설정된 시간이 도과된 경우, 상기 기설정된 시간 내에 입력된 상기 초기입력 및 후발입력의 순차적인 조합을 기설정된 동작데이터와 비교하고, 매칭되는 동작데이터의 기능을 수행하는 제4단계를 포함하여 이루어지는 네비게이션 장치의 광센서를 이용한 동작방법을 제공한다. In order to solve the above problems, the present invention includes a first step of detecting whether the initial input through the entry of the operating object to the sensing area of the plurality of optical sensors disposed on the outside of the display unit of the navigation device, each of which is given a unique mark; A second step of sequentially determining whether a late input to an optical sensor other than the optical sensor on which the initial input is sensed is detected; A third step of determining whether a predetermined time has passed from a time point of the initial input; And when the predetermined time has elapsed from the time point of the initial input, compares a sequential combination of the initial input and the late input input input within the preset time with preset motion data and performs a function of matching motion data. It provides an operating method using the optical sensor of the navigation device comprising a fourth step.

여기서, 상기 제4단계는, 상기 초기입력 및 후발입력의 순차적인 조합과 매칭되는 상기 동작데이터의 기능이 출력신호로 변환되어 디스플레이부를 통해 출력되는 단계를 포함하여 이루어짐이 바람직하다. In this case, the fourth step may include converting a function of the operation data, which is matched with a sequential combination of the initial input and the late input, into an output signal and outputting the output signal through the display unit.

또한, 상기 제 4단계는, 상기 초기입력에 따른 후발입력의 순차적인 조합이 기설정된 동작데이터에 매칭되지 않는 경우, 상기 초기입력에 따른 후발입력이 검출되는지 여부를 다시 판단하는 단계를 포함하여 이루어짐이 바람직하다. In addition, the fourth step may include re-determining whether or not the late entry input according to the initial input is detected when the sequential combination of the late entry input according to the initial input does not match predetermined motion data. This is preferred.

그리고, 상기 초기입력에 따른 후발입력이 기설정된 시간 내에 검출되지 않으면, 상기 초기입력에 매칭되는 기설정된 동작데이터의 기능이 수행됨이 바람직하다. If the late input according to the initial input is not detected within a predetermined time, it is preferable that a function of predetermined operation data matching the initial input is performed.

아울러, 상기 초기입력 시에, 상기 동작개체가 상기 센싱영역에 진입해 있는 시간에 따라 기설정된 동작데이터의 기능이 다르게 수행됨이 바람직하다. In addition, it is preferable that a function of predetermined operation data is differently performed according to the time when the operation object enters the sensing area at the initial input.

여기서, 상기 초기입력에 따른 후발입력은 복수번으로 이루어질 수 있으며, 상기 초기입력 및 후발입력의 순차적인 조합에 따른 상기 기설정된 동작데이터가 매칭될 시 상기 매칭되는 동작데이터의 기능이 수행됨이 바람직하다. Here, the late input according to the initial input may be made a plurality of times, and when the preset motion data according to the sequential combination of the initial input and the late input is matched, the function of the matching motion data is preferably performed. .

또한, 상기 동작데이터는 검색 기능에서의 입력 중에 경로표시 상태로 디스플레이부의 출력을 변환시키는 출력변환기능을 포함하되, 상기 초기입력 및 후발입력의 순차적인 조합이 상기 출력변환기능에 매칭되면, 상기 검색 기능의 입력 중인 데이터를 저장하는 단계와, 차량의 현재 위치에 따른 경로표시를 위한 데이터를 추출하는 단계와, 상기 경로표시를 위한 데이터를 출력신호로 변환하여 출력하는 단계를 포함하여 이루어짐이 바람직하다. In addition, the operation data includes an output conversion function for converting the output of the display unit to the path display state during the input from the search function, and if the sequential combination of the initial input and the late input input matches the output conversion function, the search. It is preferable to include the step of storing the data being input of the function, extracting the data for the path display according to the current position of the vehicle, and converting the data for the path display to the output signal and outputs the output signal. .

한편, 네비게이션 장치의 디스플레이부 외곽에 배치되되, 센싱영역에서의 동작개체의 움직임을 감지하고 광신호를 출력하는 발광부와, 상기 동작개체로부터 반사되는 광신호를 수신하는 수광부를 포함하여 이루어지는 광센서; 상기 동작개체가 감지된 광신호의 초기입력 및 기설정된 시간 동안 후발입력의 검출 여부를 판단하고, 상기 광센서에 따른 입력에 응답하여 기설정된 동작데이터를 처리하는 동작처리부; 상기 초기입력 및 후발입력이 검출된 광센서 고유마크의 순차적인 조합에 따른 기설정된 동작데이터가 저장되는 동작데이터저장부; 및 상기 동작처리부에 의한 상기 초기입력 및 후발입력의 순차적인 조합에 따른 상기 동작데이터저장부에 저장된 동작데이터의 기능을 수행하여 출력하는 디스플레이부를 포함하여 이루어지는 네비게이션 장치를 제공한다. On the other hand, an optical sensor disposed outside the display unit of the navigation device, including a light emitting unit for detecting the movement of the operating object in the sensing area and outputting an optical signal, and a light receiving unit for receiving the optical signal reflected from the operating object ; An operation processor configured to determine whether an initial input of the optical signal detected by the operation object is detected and a late entry input for a predetermined time, and process predetermined operation data in response to the input by the optical sensor; An operation data storage unit for storing predetermined operation data according to a sequential combination of the optical sensor's unique marks from which the initial input and the late input are detected; And a display unit configured to perform a function of the operation data stored in the operation data storage unit according to a sequential combination of the initial input and the late input input by the operation processor.

상기의 해결 수단을 통해서, 본 발명의 네비게이션 장치의 광센서를 이용한 동작방법은 다음과 같은 효과를 제공한다. Through the above solution, the operation method using the optical sensor of the navigation device of the present invention provides the following effects.

첫째, 본 발명의 네비게이션 장치의 광센서를 이용한 동작방법은 입력수단으로의 직접적인 터치방식이 아닌 광신호를 이용한 간접적인 터치로도 명령을 입력할 수 있는 고급화된 기술을 제공한다. 이를 통해, 사용자가 운전 중에 간편한 동작으로 네비게이션 장치를 작동할 수 있으므로 주의력 감소를 줄여 운전 시의 안전성을 현저히 향상시킬 수 있다. First, the operation method using the optical sensor of the navigation device of the present invention provides an advanced technology that can input a command by an indirect touch using an optical signal rather than a direct touch to the input means. In this way, the user can operate the navigation device with a simple operation while driving, thereby reducing the attention reduction and significantly improving safety when driving.

둘째, 본 발명의 네비게이션 장치의 광센서를 이용한 동작방법은 복수개의 광센서를 이용하여 상기 광센서가 기설정된 동작데이터에 매칭되도록 연동하여 동작 명령을 수행한다. 그러므로, 상기 네비게이션 장치의 조작 중 명령이 실수로 입력이 되더라도 원하지 않는 출력이 되지 않아 제품의 기능성이 현저히 향상될 수 있다. Second, the operation method using the optical sensor of the navigation device of the present invention performs an operation command by interlocking the optical sensor to match the predetermined operation data by using a plurality of optical sensors. Therefore, even if a command is accidentally inputted during the operation of the navigation device, an undesired output is not produced, and thus the functionality of the product can be remarkably improved.

셋째, 본 발명의 네비게이션 장치의 광센서를 이용한 동작방법은 사용자의 간단한 동작으로도 명령의 입력이 가능하다. 따라서, 사용자의 흥미 유발과 함께 사용상의 편의성이 현저히 향상될 수 있다. Third, the operation method using the optical sensor of the navigation device of the present invention can input a command even with a simple operation of the user. Therefore, the ease of use can be significantly improved along with the interest of the user.

도 1의 본 발명의 바람직한 실시예에 따른 네비게이션 장치를 나타낸 블럭도.
도 2는 본 발명의 일실시예에 따른 광센서가 구비된 네비게이션 장치를 나타낸 개략도.
도 3은 본 발명의 일실시예에 따른 네비게이션 장치의 광센서를 이용한 동작방법을 나타낸 흐름도.
도 4는 본 발명의 다른 실시예에 따른 네비게이션 장치의 광센서를 이용한 동작방법을 나타낸 흐름도.
도 5는 본 발명의 일실시예에 따른 네비게이션 장치의 광센서를 이용한 동작방법의 기설정된 동작데이터를 나타낸 표.
도 6은 본 발명의 일실시예에 따른 네비게이션 장치의 출력변환기능을 나타낸 흐름도.
1 is a block diagram showing a navigation apparatus according to a preferred embodiment of the present invention.
Figure 2 is a schematic diagram showing a navigation device equipped with an optical sensor according to an embodiment of the present invention.
3 is a flowchart illustrating an operation method using an optical sensor of a navigation device according to an embodiment of the present invention.
4 is a flowchart illustrating an operation method using an optical sensor of a navigation device according to another embodiment of the present invention.
5 is a table showing preset operation data of an operation method using an optical sensor of a navigation device according to an embodiment of the present invention.
6 is a flowchart illustrating an output conversion function of a navigation device according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 네비게이션 장치의 광센서를 이용한 동작방법을 상세히 설명한다. Hereinafter, an operation method using an optical sensor of a navigation device according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

여기서, 후술하는 광센서에 의한 동작방법은 휴대폰, PDA 등의 각종 장치에 이용될 수 있다. 다만, 이하에서는 설명의 편의상 네비게이션 장치의 광센서를 이용한 동작방법으로 한정하여 설명하도록 한다. Here, the operation method by the optical sensor to be described later can be used in various devices such as a mobile phone, PDA. However, hereinafter, the description will be limited to the operation method using the optical sensor of the navigation device for convenience of description.

도 1은 본 발명의 바람직한 실시예에 따른 네비게이션 장치를 나타낸 블럭도이다. 1 is a block diagram showing a navigation device according to a preferred embodiment of the present invention.

도 1에서 보는 바와 같이, 본 발명에 적용되는 네비게이션 장치(10)는 GPS 수신부(11), 디스플레이부(13), 키입력부(15), 음성출력부(17), 광센서(19), 동작처리부(25), 동작데이터저장부(27) 및 제어부(29)를 포함하여 이루어진다. As shown in FIG. 1, the navigation device 10 applied to the present invention includes a GPS receiver 11, a display unit 13, a key input unit 15, a voice output unit 17, an optical sensor 19, and an operation. It comprises a processing unit 25, operation data storage unit 27 and the control unit 29.

여기서, 상기 네비게이션 장치(10)는 사용자의 현재 위치를 알려주거나 혹은 목적지까지 길을 안내해주는 장치를 말한다. 이러한 상기 네비게이션 장치(10)는 크게 상기 GPS 수신부(11)를 통하여 들어온 정보를 사용하는 방식과 이동 통신회사에서 곳곳에 설치되어 있는 중계기를 통하여 현재 위치를 산출하여 서비스하는 방식으로 구분될 수 있으며, 대부분 상기 GPS 수신부(11)를 이용하는 방식을 택하고 있다. 따라서, 상기 네비게이션 장치(10)가 차량에 장착됨으로써 사용자는 상기 차량의 현재 위치정보 및 목적지에 대한 상세정보 등의 다양한 정보를 제공받을 수 있다. Here, the navigation device 10 refers to a device that informs the user's current location or guides the way to a destination. The navigation device 10 may be classified into a method of using information received through the GPS receiver 11 and a method of calculating and serving a current location through repeaters installed throughout the mobile communication company. In most cases, a method using the GPS receiver 11 is adopted. Therefore, as the navigation device 10 is mounted on the vehicle, the user may receive various information such as current location information of the vehicle and detailed information about a destination.

상세히, 상기 GPS 수신부(11)는 다수의 GPS 위성으로부터 위치정보를 수신받아, 상기 위치정보들로부터 상기 네비게이션 장치(10)가 장착된 차량의 위치를 검출할 수 있다. 즉, 상기 GPS 수신부(11)를 통하여 들어온 정보는 위도와 경도를 캘리브레이션(calibration) 해놓은 지도와 대입시켜 사용자는 지도를 통해서 아주 쉽게 현재의 위치를 파악할 수 있다.In detail, the GPS receiver 11 may receive location information from a plurality of GPS satellites and detect a location of a vehicle equipped with the navigation device 10 from the location information. That is, the information input through the GPS receiver 11 is substituted with a map calibrated with latitude and longitude so that the user can easily identify the current position through the map.

따라서, 상기 GPS 위성이 송신한 GPS 신호를 예를 들어, 3개 이상의 GPS 위성에서 신호를 받는다면 삼각 측량에 의한 방법에 의해서 상기 차량의 현재 위치를 파악할 수 있다. 그리고, 상기 GPS 수신부(11)는 다수의 GPS 위성들로부터 송신되는 각각의 위치정보를 수신받아 상기 차량의 위치가 상기 디스플레이부(13) 상에 나타난다.  Therefore, if a GPS signal transmitted by the GPS satellite is received by, for example, three or more GPS satellites, the current position of the vehicle may be determined by a triangulation method. In addition, the GPS receiver 11 receives respective position information transmitted from a plurality of GPS satellites, and the position of the vehicle is displayed on the display unit 13.

또한, 상기 디스플레이부(13)는 차량의 위치, 도로 및 배경 등이 지도형식으로 출력되어 사용자의 시각적인 확인이 가능하도록 구비되며, 상기 키입력부(15)와 일체화된 터치패드로 구성되어 그래픽 인터페이스 수단을 제공할 수 있다. 상세히, 상기 네비게이션 장치(10)의 검색을 위한 검색환경이 상기 디스플레이부(13)를 통해 그래픽 화면으로 제공되며, 상기 그래픽 화면의 특정위치를 스타일러스 펜이나 손가락 등으로 직접 터치하는 방식으로 사용자 명령이 입력될 수 있다. In addition, the display unit 13 is provided such that the position of the vehicle, the road and the background are output in a map form to enable the user to visually check, and the graphic interface is composed of a touch pad integrated with the key input unit 15. Means can be provided. In detail, a search environment for searching the navigation device 10 is provided as a graphic screen through the display unit 13, and a user command is directly touched with a stylus pen or a finger on a specific position of the graphic screen. Can be entered.

더욱이, 상기 네비게이션 장치(10)에는 상기 음성출력부(17)가 더 구비됨이 바람직하다. 이로써, 상기 차량의 주행 중의 상황, 검색의 결과 내용 및 각종 정보의 입력 과정이 상기 음성출력부(17)를 통해 효과음 및 멘트로 사용자에게 제공될 수 있다. In addition, it is preferable that the audio output unit 17 is further provided in the navigation device 10. As a result, a situation in which the vehicle is being driven, a search result content, and a process of inputting various types of information may be provided to the user through the voice output unit 17 as sound effects and comments.

한편, 상기 광센서(19)는 상기 디스플레이부(13) 외곽에 복수개로 배치되되, 각각의 광센서(19)는 고유마크가 부여되어 광센서(19) 동작 시 상기 각각의 광센서(19)는 초기입력 및 후발입력의 순차적인 조합으로 입력됨이 바람직하다. 아울러, 상기 광센서(19)는 포토센서로 구비될 수 있지만 감도에 따라 PSD 센서로도 사용 가능하다. On the other hand, the optical sensor 19 is disposed in a plurality of the outer portion of the display unit 13, each optical sensor 19 is given a unique mark so that each of the optical sensor 19 when operating the optical sensor 19 Is preferably input in a sequential combination of initial input and late input. In addition, the optical sensor 19 may be provided as a photosensor, but may be used as a PSD sensor depending on sensitivity.

또한, 상기 광센서(19)는 발광부(21) 및 수광부(23)를 포함하여 이루어진다. 여기서, 상기 발광부(21)는 상기 광센서(19)의 센싱영역에서의 동작개체의 움직임을 감지하고 광신호를 출력하며, 상기 수광부(23)는 상기 동작개체로부터 반사되는 광신호를 수신함이 바람직하다. In addition, the optical sensor 19 includes a light emitting unit 21 and a light receiving unit 23. Here, the light emitting unit 21 detects the movement of the operating object in the sensing area of the optical sensor 19 and outputs an optical signal, and the light receiving unit 23 receives the optical signal reflected from the operating object. desirable.

상세히, 상기 광센서(19)의 발광부(21)에서 나온 상기 광신호가 상기 센싱영역의 동작개체에 반사되어 상기 수광부(23)에 입력이 되면 상기 광센서(19)에서 상기 동작개체의 움직임을 감지할 수 있다. 또한, 상기 광센서(19)는 상기 발광부(21) 및 수광부(23)로 따로 이루어짐이 바람직하지만, 필요감도 및 인식거리 등을 고려하여 PSD 센서 등과 같은 하나의 모듈로 이루어질 수도 있다. In detail, when the optical signal emitted from the light emitting unit 21 of the optical sensor 19 is reflected by the operating object of the sensing area and input to the light receiving unit 23, the movement of the operating object is performed by the optical sensor 19. It can be detected. In addition, the light sensor 19 is preferably made of the light emitting unit 21 and the light receiving unit 23, but may be made of a single module such as a PSD sensor in consideration of the required sensitivity and recognition distance.

한편, 상기 동작처리부(25)는 상기 동작개체가 감지된 광신호의 초기입력 및 후발입력의 검출여부를 판단하고, 상기 복수개의 광센서(19)에 따른 입력에 응답하여 기설정된 동작데이터와 비교 판단하여 처리한다. 즉, 상기 복수개의 광센서(19)에서 검출된 입력의 순차적인 조합을 판단하여 상기 기설정된 동작데이터와 매칭되는지 여부를 비교 판단하고 매칭되는 동작데이터의 기능을 수행할 수 있게 한다. On the other hand, the operation processor 25 determines whether to detect the initial input and the late input of the optical signal detected by the operation object, and compared with the predetermined operation data in response to the input by the plurality of optical sensors 19 Determining and processing That is, by determining the sequential combination of the inputs detected by the plurality of optical sensors 19 to compare and determine whether the match with the predetermined operation data and to perform a function of the matching operation data.

여기서, 상기 동작데이터는 상기 초기입력 및 후발입력이 검출된 광센서(19)의 고유마크의 순차적인 조합에 따라 상기 동작데이터저장부(27)에 저장된다. 즉, 상기 동작데이터저장부(27)에 저장되어 있는 상기 동작데이터는 상기 고유마크가 부여된 복수개의 광센서(19)에서 검출된 초기입력 및 후발입력의 순차적인 조합에 따라 수행될 기능이 기설정되어 상기 초기입력 및 후발입력이 검출되면 상기 입력과 매칭되는 기능을 수행한다. Here, the operation data is stored in the operation data storage unit 27 according to a sequential combination of the unique marks of the optical sensor 19 in which the initial input and the late input are detected. That is, the operation data stored in the operation data storage unit 27 is a function to be performed according to the sequential combination of the initial input and the late input input detected by the plurality of optical sensors 19 to which the unique mark is assigned. When the initial input and the late input are detected, a function matching the input is performed.

그리고, 상기 네비게이션 장치(10)에는 전술한 상기 GPS 수신부(11), 디스플레이부(13), 키입력부(15), 음성출력부(17), 광센서(19), 동작처리부(25) 및 동작데이터저장부(27)를 제어하는 제어부(29)가 구비됨이 바람직하다. The navigation device 10 includes the GPS receiver 11, the display unit 13, the key input unit 15, the voice output unit 17, the optical sensor 19, the operation processor 25, and the operation. Preferably, a control unit 29 for controlling the data storage unit 27 is provided.

따라서, 본 발명의 네비게이션 장치는, 상기 복수개의 광센서(19)를 통해 명령을 입력하고 상기 명령에 따른 동작데이터의 기능이 수행되어 상기 디스플레이부(13)로 출력된다. 이를 통해, 입력수단으로의 직접적인 터치방식이 아닌 광신호를 이용한 간접터치 방식으로도 명령을 입력할 수 있어 사용자가 운전 중에 간편한 동작으로도 네비게이션 장치(10)를 작동할 수 있으므로 주의력 감소를 줄여 운전 시의 안전성 및 편의성이 현저히 향상될 수 있다. Accordingly, the navigation device of the present invention inputs a command through the plurality of optical sensors 19 and performs a function of operation data according to the command and is output to the display unit 13. Through this, a command can be input by an indirect touch method using an optical signal instead of a direct touch method to an input means, so that the user can operate the navigation device 10 with a simple operation while driving, thus reducing the attention reduction. City safety and convenience can be significantly improved.

한편, 상기 네비게이션 장치(10)의 디스플레이부(13) 외곽에 배치된 복수개의 광센서(19)는 도 2를 참조하여 설명하면 다음과 같다. Meanwhile, the plurality of light sensors 19 disposed outside the display unit 13 of the navigation device 10 will be described with reference to FIG. 2.

도 2는 본 발명의 일실시예에 따른 광센서가 구비된 네비게이션 장치를 나타낸 개략도이다. 2 is a schematic diagram showing a navigation device equipped with an optical sensor according to an embodiment of the present invention.

도 2에서 보는 바와 같이, 상기 광센서는 상기 네비게이션 장치(10)의 외부에 구비된 상기 디스플레이부(13)의 외곽에 복수개 구비됨이 바람직하다. 여기서, 본 발명은 설명의 편의에 의해 제1광센서(1), 제2광센서(2), 제3광센서(3) 및 제4광센서(4)로 된 4개의 광센서가 상기 디스플레이부(13) 외곽의 상하좌우에 구비된 상기 네비게이션 장치(10)를 예를 들어 설명하지만, 상기 광센서의 위치 및 개수는 필요에 의해 변형되어 구비될 수 있다. As shown in FIG. 2, it is preferable that a plurality of optical sensors are provided on the outside of the display unit 13 provided outside the navigation device 10. In the present invention, for convenience of description, four optical sensors including the first optical sensor 1, the second optical sensor 2, the third optical sensor 3, and the fourth optical sensor 4 are displayed on the display. Although the navigation device 10 provided on the upper, lower, left, and right sides of the outer part 13 is described as an example, the position and the number of the optical sensors may be modified and provided as necessary.

또한, 상기 광센서의 센싱영역은 다른 광센서의 센싱영역을 침해하지 않는 한도 내로 이루어지며, 상기 광센서의 광신호가 상기 동작개체를 인식할 수 있는 인식거리로 이해함이 바람직하다. In addition, the sensing area of the optical sensor is made within the limit that does not interfere with the sensing area of the other optical sensor, it is preferable that the optical signal of the optical sensor can be understood as a recognition distance to recognize the operating object.

그리고, 상기 광센서를 이용한 네비게이션 장치(10)의 동작방법은 도 1 내지 도 3을 참조하여 설명하면 다음과 같다. In addition, the operation method of the navigation device 10 using the optical sensor will be described with reference to FIGS. 1 to 3.

도 3은 본 발명의 일실시예에 따른 네비게이션 장치의 광센서를 이용한 동작방법을 나타낸 흐름도이다. 3 is a flowchart illustrating an operation method using an optical sensor of a navigation device according to an embodiment of the present invention.

도 1 내지 도 3에서 보는 바와 같이, 상기 네비게이션 장치(10)의 전원이 연결되면 상기 디스플레이부(13) 외곽에 배치된 고유마크가 각각 부여된 복수개의 광센서의 데이터는 초기화되어 대기상태가 된다(s100). As shown in FIGS. 1 to 3, when the power of the navigation device 10 is connected, data of a plurality of optical sensors, each of which has been assigned a unique mark arranged outside the display unit 13, is initialized to a standby state. (s100).

그리고, 상기 광센서의 센싱영역에 동작개체의 진입을 통한 움직임의 감지 여부를 판단한다(s110). 즉, 상기 광센서의 발광부(21)에서 출력된 광신호가 상기 동작개체로부터 반사되어 상기 광센서의 수광부(23)에 수신되면 상기 동작개체의 움직임 감지 여부를 판단할 수 있다. 한편, 상기 센싱영역이란, 상기 광센서의 광신호가 상기 동작개체를 감지할 수 있는 인식거리를 나타내는 것으로 이해할 수 있다. In operation S110, it is determined whether the motion is detected through the entry of the operating object into the sensing area of the optical sensor. That is, when the optical signal output from the light emitting unit 21 of the optical sensor is reflected from the operating object and received by the light receiving unit 23 of the optical sensor, it may be determined whether the movement of the operating object is detected. On the other hand, the sensing area, it can be understood that the optical signal of the optical sensor represents the recognition distance for detecting the operation object.

아울러, 상기 동작개체의 움직임이 감지되지 않으면 상기 광센서는 대기상태를 유지하고 상기 동작개체의 움직임이 감지되면 상기 동작처리부(25)에 의해 초기입력이 검출된다(s120). In addition, when the movement of the operation object is not detected, the optical sensor maintains a standby state, and when the movement of the operation object is detected, an initial input is detected by the operation processor 25 (S120).

또한, 상기 초기 입력이 검출되면, 상기 초기입력이 검출된 광센서 이외의 다른 광센서의 센싱영역에 상기 동작개체의 진입을 통한 움직임의 감지 여부를 판단한다(s130). In addition, when the initial input is detected, it is determined whether the motion is detected through the entry of the operating object in the sensing area of the optical sensor other than the optical sensor in which the initial input is detected (S130).

여기서, 상기 초기입력의 시점으로부터 기설정된 시간 내에 상기 초기입력이 검출된 광센서 이외의 다른 광센서의 센싱영역에서 상기 동작개체의 움직임이 감지되지 않으면, 복수개의 광센서의 데이터는 초기화되어 대기상태가 된다. 그리고, 상기 초기입력의 시점으로부터 기설정된 시간 내에 상기 초기입력이 검출된 광센서 이외의 다른 광센서의 센싱영역에서 상기 동작개체의 움직임이 감지되면, 상기 동작처리부(25)에 의해 후발입력이 검출된다(s140). Here, when the movement of the operating object is not detected in the sensing area of the optical sensor other than the optical sensor in which the initial input is detected within a predetermined time from the time of the initial input, the data of the plurality of optical sensors is initialized to the standby state. Becomes When the motion of the operating object is detected in the sensing region of the optical sensor other than the optical sensor in which the initial input is detected within a predetermined time from the time of the initial input, the late processing input is detected by the operation processor 25. (S140).

아울러, 상기 입력된 초기입력 및 후발입력은 상기 동작처리부(25)에 의해 상기 동작데이터저장부(27)에 저장되어 있는 상기 동작데이터와의 매칭을 비교한다(s150). In addition, the input initial input and the late input input compare the matching with the operation data stored in the operation data storage unit 27 by the operation processing unit 25 (S150).

그리고, 상기 조합 및 동작데이터의 매칭 여부가 판단된다(s160). 상세히, 상기 초기입력 및 후발입력의 순차적인 조합을 상기 동작데이터저장부(27)에 기설정되어 저장된 상기 조합에 해당되는 동작데이터와 매칭 여부가 판단된다. In operation S160, it is determined whether the combination and the operation data match. In detail, it is determined whether the sequential combination of the initial input and the late input is matched with the operation data corresponding to the combination stored in advance in the operation data storage unit 27.

여기서, 상기 초기입력 및 후발입력의 순차적 조합이 기설정된 동작데이터와 매칭되지 않는 경우, 상기 초기입력이 검출된 광센서 이외의 다른 광센서의 센싱영역에서 상기 동작개체의 움직임을 감지하여 상기 동작처리부(25)에 의해 후발입력이 다시 검출된다. In this case, when the sequential combination of the initial input and the late input is not matched with predetermined motion data, the motion processor detects the movement of the motion object in the sensing area of the optical sensor other than the optical sensor from which the initial input is detected. The late input is detected again by (25).

그리고, 상기 초기입력 및 후발입력의 순차적인 조합이 기설정된 동작데이터와 매칭되는 경우, 상기 매칭된 동작데이터의 기능이 수행되어(s170) 상기 제어부(29)에 의해 출력신호로 변환되어 디스플레이부(13)를 통해 출력된다. When the sequential combination of the initial input and the late input is matched with the preset motion data, the function of the matched motion data is performed (s170) and is converted into an output signal by the control unit 29 to display the display unit ( 13) is output.

한편, 본 발명에 따른 네비게이션 장치의 광센서를 이용한 동작방법의 다른 실시예는 도 1 및 도 4를 참조하여 설명하면 다음과 같다. Meanwhile, another embodiment of an operation method using an optical sensor of a navigation device according to the present invention will be described with reference to FIGS. 1 and 4.

도 4은 본 발명의 다른 실시예에 따른 네비게이션 장치의 광센서를 이용한 동작방법을 나타낸 흐름도이다. 4 is a flowchart illustrating an operation method using an optical sensor of a navigation device according to another embodiment of the present invention.

도 1 및 도 4에서 보는 바와 같이, 상기 네비게이션 장치(10)의 전원이 연결되면 상기 디스플레이부(13) 외곽에 배치된 고유마크가 각각 부여된 복수개의 광센서의 데이터는 초기화되어 대기상태가 된다(s200). As shown in FIG. 1 and FIG. 4, when the power of the navigation device 10 is connected, data of a plurality of optical sensors, each of which is assigned a unique mark arranged outside the display unit 13, is initialized to a standby state. (s200).

그리고, 상기 광센서의 센싱영역에 동작개체의 진입을 통한 움직임의 감지 여부를 판단한다(s210). 즉, 상기 광센서의 발광부(21)에서 출력된 광신호가 상기 동작개체로부터 반사되어 상기 광센서의 수광부(23)에 수신되면 상기 동작개체의 움직임 감지 여부를 판단할 수 있다. In operation S210, it is determined whether the motion is detected through the entry of the operating object into the sensing area of the optical sensor. That is, when the optical signal output from the light emitting unit 21 of the optical sensor is reflected from the operating object and received by the light receiving unit 23 of the optical sensor, it may be determined whether the movement of the operating object is detected.

아울러, 상기 동작개체의 움직임이 감지되지 않으면 상기 광센서는 대기상태를 유지하고, 상기 동작개체의 움직임이 감지되면 상기 동작처리부(25)에 의해 초기입력이 검출된다(s220). In addition, when the movement of the operation object is not detected, the optical sensor maintains a standby state, and when the movement of the operation object is detected, the initial input is detected by the operation processor 25 (S220).

또한, 상기 초기 입력이 검출되면, 상기 초기입력이 검출된 광센서 이외의 다른 광센서의 센싱영역에 상기 동작개체의 진입을 통한 움직임의 감지 여부를 판단한다(s230). In addition, when the initial input is detected, it is determined whether the motion is detected through the entry of the operating object in the sensing area of the optical sensor other than the optical sensor in which the initial input is detected (S230).

여기서, 상기 초기입력의 시점으로부터 기설정된 시간 내에 상기 초기입력이 검출된 광센서 이외의 다른 광센서의 센싱영역에서 상기 동작개체의 움직임이 감지되지 않으면, 상기 초기입력으로만 매칭되는 동작데이터를 검출하고(s240), 상기 매칭된 동작데이터의 기능이 수행된다(s250). Here, when the movement of the operating object is not detected in the sensing area of the optical sensor other than the optical sensor in which the initial input is detected within a predetermined time from the time of the initial input, the operation data matching only the initial input is detected. In operation S240, the function of the matched operation data is performed in operation S250.

상세히, 상기 동작데이터는 광센서의 초기입력 및 상기 초기입력에 따른 후발입력의 조합에 따라 해당 입력에 매칭되는 기능이 기설정되어 상기 동작데이터저장부(27)에 저장되어 있다. 따라서, 상기 초기입력에 따른 후발입력이 기설정된 시간 내에 검출되지 않으면 상기 동작데이터저장부(27)에 저장되어 있는 상기 초기입력에 매칭되는 동작데이터의 기능이 수행될 수 있다. In detail, the operation data is stored in the operation data storage unit 27 by presetting a function matching the corresponding input according to the combination of the initial input of the optical sensor and the late input input according to the initial input. Therefore, if the late input according to the initial input is not detected within a predetermined time, the function of the operation data matching the initial input stored in the operation data storage unit 27 may be performed.

여기서, 상기 초기입력에 매칭되는 동작데이터의 기능이 수행될 때, 상기 동작개체가 상기 광센서의 센싱영역에 진입해 있는 시간에 따라 상기 동작데이터의 기능이 다르게 기설정되어 수행될 수도 있다. 즉, 상기 동작개체가 상기 센싱영역에 진입해 있는 시간을 기설정하여 상기 동작개체의 진입 시간대별로 다른 기능이 수행될 수 있다. Here, when the function of the motion data matched to the initial input is performed, the function of the motion data may be differently set according to the time when the motion object enters the sensing area of the optical sensor. That is, a different function may be performed for each entry time of the operation object by presetting a time when the operation object enters the sensing region.

상세히, 상기 광센서의 센싱영역에 상기 동작개체의 움직임이 감지되고, 다른 광센서의 센싱영역의 감지신호가 없이 상기 동작개체의 움직임이 기설정된 시간 동안 계속 감지되면 그에 매칭되는 상기 동작데이터의 기능이 수행될 수 있다. 또한, 상기 광센서에서 상기 동작개체의 움직임이 감지되고, 기설정된 시간 동안 다른 광센서에 상기 동작개체의 움직임이 감지되지 않으면 상기 초기입력에 매칭되는 상기 동작데이터의 기능이 수행될 수 있다. In detail, the motion of the operation object is detected in the sensing area of the optical sensor, and if the motion of the operating object is continuously detected for a predetermined time without a sensing signal of the sensing area of another optical sensor, the function of the motion data matched thereto. This can be done. In addition, when the motion of the operating object is detected by the optical sensor, and the motion of the operating object is not detected by another optical sensor for a preset time, the function of the motion data matched to the initial input may be performed.

예컨데, 상기 동작개체가 운전석에 가장 가까운 제3광센서(3)에서 1초를 초과하여 감지되면 상기 네비게이션 장치(10)의 전원의 연결 및 차단 명령이 될 수 있고, 1초 이하로 감지되면 상기 네비게이션 장치(10)의 음성출력부(17)가 음소거 되는 기능이 기설정될 수 있다. For example, when the operation object is detected for more than 1 second in the third optical sensor 3 closest to the driver's seat, it may be a command for connecting and disconnecting the power of the navigation device 10. A function of muting the voice output unit 17 of the navigation device 10 may be preset.

한편, 상기 초기입력의 시점으로부터 기설정된 시간 내에 상기 초기입력이 검출된 광센서 이외의 다른 광센서의 센싱영역에서 상기 동작개체의 움직임이 감지되면, 상기 동작처리부(25)에 의해 후발입력이 검출된다(s260). On the other hand, when the movement of the operating object is detected in the sensing region of the optical sensor other than the optical sensor for which the initial input is detected within a predetermined time from the time of the initial input, the late processing input is detected by the operation processor 25. (S260).

아울러, 상기 입력된 초기입력 및 후발입력은 상기 동작처리부(25)에 의해 상기 동작데이터저장부(27)에 저장되어 있는 상기 동작데이터와의 매칭을 비교한다(s270). In addition, the input initial input and the late input are compared with the operation data stored in the operation data storage unit 27 by the operation processor 25 (s270).

그리고, 상기 조합 및 동작데이터의 매칭 여부가 판단된다(s280). 상세히, 상기 초기입력 및 후발입력의 순차적인 조합을 상기 동작데이터저장부(27)에 기설정되어 저장된 상기 조합에 해당되는 동작데이터와 매칭 여부가 판단된다. In operation S280, it is determined whether the combination and the operation data match. In detail, it is determined whether the sequential combination of the initial input and the late input is matched with the operation data corresponding to the combination stored in advance in the operation data storage unit 27.

여기서, 상기 초기입력 및 후발입력의 순차적 조합이 기설정된 동작데이터와 매칭되지 않는 경우, 상기 초기입력에 따른 상기 초기입력이 검출된 광센서 이외의 다른 광센서의 센싱영역에서 상기 동작개체의 움직임을 감지하여 상기 동작처리부(25)에 의해 후발입력이 다시 검출된다. Here, when the sequential combination of the initial input and the late input is not matched with predetermined motion data, the motion of the operation object is detected in the sensing area of the optical sensor other than the optical sensor in which the initial input according to the initial input is detected. By sensing, the late input is detected again by the operation processor 25.

그리고, 상기 초기입력 및 후발입력의 순차적인 조합이 기설정된 동작데이터와 매칭되는 경우, 상기 매칭된 동작데이터의 기능이 수행되어(s250) 상기 제어부(29)에 의해 출력신호로 변환되어 디스플레이부(13)를 통해 출력된다. When the sequential combination of the initial input and the late input is matched with the preset motion data, the function of the matched motion data is performed (s250) and is converted into an output signal by the controller 29 to display the display unit ( 13) is output.

한편, 상기 초기입력에 따른 후발입력은 복수번으로도 이루어질 수 있다. 구체적으로, 상기 초기입력과 최종입력 사이에 검출된 후발입력의 순차적인 조합에 해당하는 상기 동작데이터가 상기 동작데이터저장부(27)에 기설정되어 저장되어 있으면, 상기 초기입력, 후발입력 및 최종입력의 조합과 상기 기설정된 동작데이터가 매칭되면 상기 동작데이터의 기능이 수행될 수 있다. On the other hand, the late input according to the initial input may be made a plurality of times. Specifically, if the operation data corresponding to the sequential combination of the late input input detected between the initial input and the last input is preset and stored in the operation data storage unit 27, the initial input, late input and final input. If a combination of inputs and the predetermined motion data match, the function of the motion data may be performed.

이렇게, 상기 초기입력, 후발입력 및 최종입력의 조합과 매칭된 상기 동작데이터는 상기 제어부(29)에 의해 출력신호로 변화되어 상기 디스플레이부(13)에 출력됨이 바람직하다. As such, the operation data matched with the combination of the initial input, the late input input, and the final input may be converted into an output signal by the controller 29 and output to the display unit 13.

한편, 본 발명에 따른 네비게이션 장치(10)의 광센서를 이용한 동작방법의 일실시예를 도 2 및 도 5를 참조하여 설명하면 다음과 같다. Meanwhile, an embodiment of an operation method using an optical sensor of the navigation device 10 according to the present invention will be described with reference to FIGS. 2 and 5.

도 5는 본 발명의 일실시예에 따른 네비게이션 장치의 광센서를 이용한 동작방법의 기설정된 동작데이터를 나타낸 표이다. 5 is a table showing preset operation data of an operation method using an optical sensor of a navigation device according to an embodiment of the present invention.

여기서, 본 발명은 설명의 편의에 의해 상기 초기입력 및 후발입력이 두번의 조합으로 이루어진 상기 동작데이터를 예를 들어 설명하지만, 상기 초기입력에 따른 상기 후발입력이 복수번으로 이루어진 순차적인 조합으로 상기 동작데이터가 기설정될 수 있으며, 상기 후발입력이 없이 상기 초기입력으로도 상기 동작데이터가 기설정될 수 있다. 그리고, 상기 동작데이터의 기설정된 기능은 본 발명의 일실시예에 따른 기능에 한정하는 것이 아니며 편의에 따라 기능이 다르게 설정될 수도 있다. Here, the present invention will be described by way of example for the operation data consisting of the combination of the initial input and the late input is two times, for convenience of description, the late input according to the initial input is a sequential combination consisting of a plurality of times The operation data may be preset, and the operation data may be preset as the initial input without the late input. The predetermined function of the operation data is not limited to the function according to an embodiment of the present invention, and the function may be set differently for convenience.

한편, 도 2 및 도 5에서 보는 바와 같이, 상기 초기입력 및 후발입력의 순차적인 조합에 매칭되는 상기 동작데이터는 상기 동작데이터저장부(도 1의 27)에 기설정되어 저장됨이 바람직하다. 한편, 상기 네비게이션 장치(10)에 이용되는 상기 광센서는 DMB 기능에도 적용할 수 있으며, 설명의 편의상 차량용 네비게이션 장치(10)에 내설된 DMB 기능으로 한정하여 설명하도록 한다. On the other hand, as shown in Figures 2 and 5, the operation data matching the sequential combination of the initial input and the late input is preferably stored in the operation data storage unit (27 of FIG. 1). On the other hand, the optical sensor used in the navigation device 10 can be applied to the DMB function, for convenience of description to be limited to the DMB function in the vehicle navigation device 10 described.

여기서, 상기 초기입력이 검출된 제1광센서(1)와 후발입력이 검출된 제3광센서(3)의 순차적인 조합은 상기 네비게이션 장치(10)에서 지도확대 기능을 갖는 상기 동작데이터로 기설정되어 상기 디스플레이부(13)로 출력될 수 있다. 또한, 상기 디스플레이부(13)에 상기 DMB 기능이 서비스 중일 때는 음량을 줄이는 기능을 갖는 상기 동작데이터로 기설정되어 상기 음성출력부(도 1의 17)로 출력될 수 있다. In this case, the sequential combination of the first optical sensor 1 in which the initial input is detected and the third optical sensor 3 in which the late input is detected may be written as the operation data having a map enlargement function in the navigation device 10. It may be set and output to the display unit 13. In addition, when the DMB function is in service to the display unit 13, the display unit 13 may be preset as the operation data having a function of reducing the volume and output to the voice output unit 17 of FIG. 1.

즉, 상기 동작개체가 제1광센서(1)에서 제3광센서(3)에 직접적인 터치가 필요없이 소정의 거리를 두고 슬라이딩 이동으로 각각의 광센서의 센싱영역에 진입할 수 있다. 이를 통해, 네비게이션 서비스 중일 때는 디스플레이부(13) 상의 지도가 확대되고, 상기 DMB 서비스 중일 때는 상기 음성출력부(도 1의 17)에서 출력되는 음량을 낮출 수 있다. That is, the operation object may enter the sensing area of each optical sensor by sliding movement over a predetermined distance without requiring a direct touch from the first optical sensor 1 to the third optical sensor 3. As a result, the map on the display 13 may be enlarged when the navigation service is in progress, and the volume output from the voice output unit 17 of FIG. 1 may be lowered when the DMB service is in use.

여기서, 상기 동작개체는 사용자의 손가락을 사용함이 바람직하지만, 상황 및 편의에 따라 별도의 도구 등을 사용할 수도 있다. Here, the operation object is preferably to use the user's finger, it may be used a separate tool or the like depending on the situation and convenience.

또한, 상기 제3광센서(3)에서 초기입력이 검출되고 상기 제1광센서(1)에서 후발입력이 검출되면, 상기 초기입력 및 후발입력의 조합에 매칭되는 상기 동작데이터는 상기 네비게이션 서비스에서 지도축소 기능 및 상기 DMB 서비스에서는 음량을 높이는 기능이 기설정되어 출력될 수 있다. In addition, when the initial input is detected by the third optical sensor 3 and the late input is detected by the first optical sensor 1, the operation data matching the combination of the initial input and the late input is transmitted in the navigation service. In the map reduction function and the DMB service, a function of increasing the volume may be preset and output.

그리고, 제2광센서(2) 및 제4광센서(4)에 의한 순차적인 조합은 상기 네비게이션 서비스의 경로표시 및 상기 DMB 서비스의 다음 채널요청의 기능이 상기 동작데이터에 기설정될 수 있다. 아울러, 제4광센서(4) 및 제2광센서(2)에 의한 순차적인 조합은 상기 네비게이션 서비스의 경로취소 및 상기 DMB 서비스의 이전 채널요청의 기능이 상기 동작데이터에 기설정되어 상기 디스플레이부(13)에서 출력될 수 있다. In the sequential combination by the second optical sensor 2 and the fourth optical sensor 4, the function of the path indication of the navigation service and the next channel request of the DMB service may be preset in the operation data. In addition, the sequential combination of the fourth optical sensor 4 and the second optical sensor 2 may be configured such that the path cancellation of the navigation service and the previous channel request of the DMB service are preset in the operation data. It can be output at (13).

한편, 상기 동작데이터는 검색 기능에서의 입력 중에 경로표시 상태로 디스플레이부(13)의 출력을 변환시키는 출력변환기능을 포함하여 이루어짐이 바람직한데, 상기 출력변환기능을 도 6을 참조하여 설명하면 다음과 같다. On the other hand, the operation data is preferably made to include an output conversion function for converting the output of the display unit 13 to the path display state during input in the search function, the output conversion function will be described with reference to FIG. Is the same as

도 6은 본 발명의 일실시예에 따른 네비게이션 장치의 출력변환기능을 나타낸 흐름도이다. 6 is a flowchart illustrating an output conversion function of a navigation device according to an embodiment of the present invention.

도 6에서 보는 바와 같이, 상기 동작데이터는 상기 초기입력 및 후발입력의 순차적인 조합이 상기 출력변환기능에 매칭되면, 상기 검색 기능의 입력 중인 데이터를 저장하는 단계와, 차량의 현재 위치에 따른 경로표시를 위한 데이터를 추출하는 단계와, 상기 경로표시를 위한 데이터를 출력신호로 변환하여 출력하는 단계를 포함하여 이루어짐이 바람직하다. As shown in FIG. 6, when the sequential combination of the initial input and the late input is matched with the output conversion function, the operation data includes storing data being input of the search function and a path according to the current position of the vehicle. And extracting data for display and converting the data for path display into an output signal.

상세히, 검색 기능의 입력 중에, 상기 광센서를 통해 초기입력 및 후발입력이 검출되면(s300), 상기 초기입력 및 후발입력의 조합에 따른 동작데이터가 매칭되는지 비교하고(s310), 상기 출력변환기능의 동작데이터와의 매칭 여부를 판단한다(s320). In detail, when an initial input and a late input are detected through the optical sensor during the input of the search function (s300), the operation data according to the combination of the initial input and the late input is matched (s310), and the output conversion function It is determined whether the match with the operation data of (S320).

여기서, 상기 초기입력 및 후발입력의 순차적인 조합이 상기 출력변환기능의 동작데이터와 매칭되지 않으면, 상기 초기입력 및 후발입력의 순차적인 조합에 매칭되는 다른 동작데이터가 있는지 판단한다(s330). 그리고, 상기 초기입력 및 후발입력의 조합에 매칭되는 상기 다른 동작데이터가 추출되지 않으면 입력 대기 상태가 되고, 상기 초기입력 및 후발입력의 조합에 매칭되는 상기 다른 동작데이터가 추출되면 상기 초기입력 및 후발입력의 조합에 매칭되는 동작데이터의 기능이 수행된다(s340). Here, if the sequential combination of the initial input and the sequential input does not match the motion data of the output conversion function, it is determined whether there is other motion data matching the sequential combination of the initial input and the sequential input (s330). If the other motion data matching the combination of the initial input and the late input is not extracted, an input wait state is entered, and when the other motion data matching the combination of the initial input and the late input is extracted, the initial input and the late step are extracted. The function of the operation data matched with the combination of the input is performed (S340).

한편, 상기 초기입력 및 후발입력의 순차적인 조합이 상기 출력변환기능의 동작데이터와 매칭되면, 상기 검색 기능의 입력 중인 데이터가 저장된다(s350). 여기서, 상기 저장된 입력 데이터는 다음번의 경로표시 상태 중에 상기 광센서에 의한 입력의 복원조합에 매칭된 상기 동작데이터의 기능으로 인하여 복원된다. 따라서, 상기 복원된 입력 데이터에 의하여 이전의 검색 기능에서 입력 중이던 상태와 연결되어 입력할 수 있다. On the other hand, if the sequential combination of the initial input and the late input is matched with the operation data of the output conversion function, the data being input of the search function is stored (S350). Here, the stored input data is restored due to the function of the operation data matched to the restoration combination of the input by the optical sensor during the next path display state. Accordingly, the restored input data may be input in connection with a state inputted by a previous search function.

그리고, 상기 검색 기능의 입력 중인 데이터가 저장되면, 차량의 현재 위치에 따른 경로안내 데이터가 추출되어 출력신호로 변환되어(s360), 상기 경로표시 상태가 디스플레이부를 통해 출력된다(s370). When the data being input of the search function is stored, the route guide data according to the current position of the vehicle is extracted and converted into an output signal (S360), and the route display state is output through the display unit (S370).

예를 들어, 신호대기 상태에서 원하는 경로를 찾기 위해 경로정보를 검색 중에 신호대기가 끝나 급출발을 해야하는 상황이 있다. 이때, 운전자는 상기 네비게이션 장치(10)의 디스플레이부(13)에 경로정보 검색창을 띄워놓은 채 운전을 하게 되고 운전 중 무리하게 경로안내 기능을 출력하려 버튼을 터치하려는 시도 중에 사고가 일어날 가능성이 높아진다. For example, there is a situation in which signal waiting is to be started immediately after searching route information to find a desired path in the signal waiting state. In this case, the driver may drive while leaving the route information search window on the display unit 13 of the navigation device 10, and there is a possibility that an accident occurs while attempting to touch a button to output the route guidance function forcibly during driving. Increases.

이로 인한 상기 사고를 방지하기 위하여, 상기 동작데이터는 경로정보 검색 중에 급출발 상황에서도 경로표시 상태의 출력을 위한 변환조합의 예컨데, 제1광센서(도 2의 1)에서 제2광센서(도 2의 2)로의 순차적인 입력으로 운전을 위한 경로표시 상태가 출력됨이 바람직하다. 여기서, 경로정보 검색 중이던 입력 데이터는 저장되어 상기 운전자가 복원조합의 예컨데, 제2광센서(도 2의 2)에서 제1광센서(도 2의 1)로의 순차적인 입력으로 상기 입력 중이던 경로정보 검색 기능이 상기 디스플레이부(13)로 출력됨이 바람직하다. In order to prevent the accident caused by this, the operation data is an example of a conversion combination for outputting the path display state even in a sudden start situation during the route information search, for example, the second light sensor (FIG. 2) from the first light sensor (1 in FIG. 2). It is preferable that the path display state for operation is output by the sequential input to 2). Here, the input data that was being searched for the route information is stored so that the driver is a restoration combination, for example, the sequential input from the second light sensor (2 of FIG. 2) to the first light sensor (1 of FIG. 2). Preferably, the search function is output to the display unit 13.

결론적으로, 본 발명에 따른 네비게이션 장치의 광센서를 이용한 동작방법은 명령을 입력하는 방식이 직접적인 터치가 아닌 광신호를 이용한 간접적인 터치방식이 이용되므로, 사용자가 운전 중에 네비게이션 장치를 작동할 때 주의력이 감소되는 것을 방지하여 운전 시의 안전성을 현저히 향상시킬 수 있다. 또한, 기설정된 동작데이터의 다양한 메뉴에 따라 사용자의 편의에 맞는 동작의 수행이 가능하여 사용상의 편의성이 현저히 향상될 수 있다. In conclusion, the operation method using the optical sensor of the navigation device according to the present invention uses an indirect touch method using an optical signal rather than a direct touch input method, attention when the user operates the navigation device while driving This reduction can be prevented and the safety during operation can be significantly improved. In addition, according to various menus of the preset operation data, it is possible to perform an operation suited to the user's convenience, and the convenience of use may be significantly improved.

이상 설명한 바와 같이, 본 발명은 상술한 각 실시예에 한정되는 것은 아니며, 본 발명의 청구항에서 청구하는 범위를 벗어남 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 변형 실시되는 것은 가능하며, 이러한 변형 실시는 본 발명의 범위에 속한다. As described above, the present invention is not limited to the above-described embodiments, but may be modified and implemented by those skilled in the art without departing from the scope of the claims of the present invention. Such modifications are within the scope of the present invention.

1: 제1광센서 2: 제2광센서
3: 제3광센서 4: 제4광센서
10: 네비게이션 장치 11: GPS 수신부
13: 디스플레이부 15: 키입력부
17: 음성출력부 19: 광센서
21: 발광부 23: 수광부
25: 동작처리부 27: 동작데이터저장부
29: 제어부
1: first optical sensor 2: second optical sensor
3: third optical sensor 4: fourth optical sensor
10: navigation device 11: GPS receiver
13: display unit 15: key input unit
17: audio output unit 19: light sensor
21: light emitting portion 23: light receiving portion
25: operation processing unit 27: operation data storage unit
29: control unit

Claims (8)

네비게이션 장치의 디스플레이부 외곽에 배치되되 고유마크가 각각 부여된 복수개의 광센서의 센싱영역에 동작개체의 진입을 통한 초기입력 여부를 검출하는 제1단계;
상기 초기입력이 센싱된 광센서 이외의 다른 광센서로의 후발입력이 검출되는지 여부를 순차적으로 판단하는 제2단계;
상기 초기입력의 시점으로부터 기설정된 시간의 도과 여부를 판단하는 제3단계; 및
상기 초기입력의 시점으로부터 상기 기설정된 시간이 도과된 경우, 상기 기설정된 시간 내에 입력된 상기 초기입력 및 후발입력의 순차적인 조합을 기설정된 동작데이터와 비교하고, 매칭되는 동작데이터의 기능을 수행하는 제4단계를 포함하여 이루어지는 네비게이션 장치의 광센서를 이용한 동작방법.
A first step of detecting whether an initial input is made through entry of an operation object into sensing areas of a plurality of optical sensors disposed on the display unit of the navigation device and each of which is assigned a unique mark;
A second step of sequentially determining whether a late input to an optical sensor other than the optical sensor on which the initial input is sensed is detected;
A third step of determining whether a predetermined time has passed from a time point of the initial input; And
When the predetermined time has elapsed from the time point of the initial input, comparing a sequential combination of the initial input and the late input input input within the preset time with preset motion data and performing a function of matching motion data. An operation method using an optical sensor of a navigation device comprising a fourth step.
제 1 항에 있어서,
상기 제4단계는,
상기 초기입력 및 후발입력의 순차적인 조합과 매칭되는 상기 동작데이터의 기능이 출력신호로 변환되어 디스플레이부를 통해 출력되는 단계를 포함하여 이루어짐을 특징으로 하는 네비게이션 장치의 광센서를 이용한 동작방법.
The method of claim 1,
In the fourth step,
And converting a function of the operation data matched with the sequential combination of the initial input and the late input into an output signal and outputting the output signal through a display unit.
제 1 항에 있어서,
상기 제 4단계는,
상기 초기입력에 따른 후발입력의 순차적인 조합이 기설정된 동작데이터에 매칭되지 않는 경우, 상기 초기입력에 따른 후발입력이 검출되는지 여부를 다시 판단하는 단계를 포함하여 이루어짐을 특징으로 하는 네비게이션 장치의 광센서를 이용한 동작방법.
The method of claim 1,
The fourth step,
And re-determining whether or not a lag input according to the initial input is detected when the sequential combination of the lag input according to the initial input does not match predetermined motion data. Operation method using sensor.
제 3 항에 있어서,
상기 초기입력에 따른 후발입력이 기설정된 시간 내에 검출되지 않으면, 상기 초기입력에 매칭되는 기설정된 동작데이터의 기능이 수행됨을 특징으로 하는 네비게이션 장치의 광센서를 이용한 동작방법.
The method of claim 3, wherein
And if the late input according to the initial input is not detected within a preset time, a function of predetermined motion data matching the initial input is performed.
제 4 항에 있어서,
상기 초기입력 시에, 상기 동작개체가 상기 센싱영역에 진입해 있는 시간에 따라 기설정된 동작데이터의 기능이 다르게 수행됨을 특징으로 하는 네비게이션 장치의 광센서를 이용한 동작방법.
The method of claim 4, wherein
At the initial input, the operation method using the optical sensor of the navigation device, characterized in that the function of the predetermined operation data is performed differently according to the time when the operation object enters the sensing area.
제 1 항에 있어서,
상기 초기입력에 따른 후발입력은 복수번으로 이루어질 수 있으며, 상기 초기입력 및 후발입력의 순차적인 조합에 따른 상기 기설정된 동작데이터가 매칭될 시 상기 매칭되는 동작데이터의 기능이 수행됨을 특징으로 하는 네비게이션 장치의 광센서를 이용한 동작방법.
The method of claim 1,
The late entry input according to the initial input may be performed a plurality of times, and when the predetermined operation data according to the sequential combination of the initial input and the late entry input is matched, the function of the matching operation data is performed. Operation method using the optical sensor of the device.
제 1 항에 있어서,
상기 동작데이터는 검색 기능에서의 입력 중에 경로표시 상태로 디스플레이부의 출력을 변환시키는 출력변환기능을 포함하되,
상기 초기입력 및 후발입력의 순차적인 조합이 상기 출력변환기능에 매칭되면,
상기 검색 기능의 입력 중인 데이터를 저장하는 단계와,
차량의 현재 위치에 따른 경로표시를 위한 데이터를 추출하는 단계와,
상기 경로표시를 위한 데이터를 출력신호로 변환하여 출력하는 단계를 포함하여 이루어짐을 특징으로 하는 네비게이션 장치의 광센서를 이용한 동작방법.
The method of claim 1,
The operation data includes an output conversion function for converting the output of the display unit to the path display state during input from the search function,
If the sequential combination of the initial input and the late input is matched with the output conversion function,
Storing data being input of the search function;
Extracting data for displaying a route according to a current position of the vehicle;
And converting the data for displaying the route into an output signal and outputting the converted data.
네비게이션 장치의 디스플레이부 외곽에 배치되되, 센싱영역에서의 동작개체의 움직임을 감지하고 광신호를 출력하는 발광부와, 상기 동작개체로부터 반사되는 광신호를 수신하는 수광부를 포함하여 이루어지는 광센서;
상기 동작개체가 감지된 광신호의 초기입력 및 기설정된 시간 동안 후발입력의 검출 여부를 판단하고, 상기 광센서에 따른 입력에 응답하여 기설정된 동작데이터를 처리하는 동작처리부;
상기 초기입력 및 후발입력이 검출된 광센서 고유마크의 순차적인 조합에 따른 기설정된 동작데이터가 저장되는 동작데이터저장부; 및
상기 동작처리부에 의한 상기 초기입력 및 후발입력의 순차적인 조합에 따른 상기 동작데이터저장부에 저장된 동작데이터의 기능을 수행하여 출력하는 디스플레이부를 포함하여 이루어지는 네비게이션 장치.
An optical sensor disposed outside the display unit of the navigation device, the light sensor including a light emitting unit for detecting a movement of an operating object in a sensing area and outputting an optical signal, and a light receiving unit receiving an optical signal reflected from the operating object;
An operation processor configured to determine whether an initial input of the optical signal detected by the operation object is detected and a late entry input for a predetermined time, and process predetermined operation data in response to the input by the optical sensor;
An operation data storage unit for storing predetermined operation data according to a sequential combination of the optical sensor's unique marks from which the initial input and the late input are detected; And
And a display unit configured to perform a function of the operation data stored in the operation data storage unit according to a sequential combination of the initial input and the late input input by the operation processing unit.
KR1020100088484A 2010-09-09 2010-09-09 operating method of navigation apparatus using optical sensor KR101195896B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100088484A KR101195896B1 (en) 2010-09-09 2010-09-09 operating method of navigation apparatus using optical sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100088484A KR101195896B1 (en) 2010-09-09 2010-09-09 operating method of navigation apparatus using optical sensor

Publications (2)

Publication Number Publication Date
KR20120026329A KR20120026329A (en) 2012-03-19
KR101195896B1 true KR101195896B1 (en) 2012-11-05

Family

ID=46132253

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100088484A KR101195896B1 (en) 2010-09-09 2010-09-09 operating method of navigation apparatus using optical sensor

Country Status (1)

Country Link
KR (1) KR101195896B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809925B1 (en) * 2016-04-25 2017-12-20 엘지전자 주식회사 Display apparatus for Vehicle and Vehicle
KR101847617B1 (en) * 2015-07-21 2018-04-10 엘지전자 주식회사 Display apparatus for vehicle and Vehicle

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101494810B1 (en) * 2012-12-05 2015-02-23 주식회사 에이치엠에스 System, method and computer readable recording medium for controlling a navigation by the recognition of a gesture according to the variation of near and far
KR101631962B1 (en) * 2014-02-10 2016-06-20 엘지전자 주식회사 Footrest of vehicle and control method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050033512A1 (en) 2003-08-05 2005-02-10 Research In Motion Limited Mobile device with on-screen optical navigation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050033512A1 (en) 2003-08-05 2005-02-10 Research In Motion Limited Mobile device with on-screen optical navigation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101847617B1 (en) * 2015-07-21 2018-04-10 엘지전자 주식회사 Display apparatus for vehicle and Vehicle
KR101809925B1 (en) * 2016-04-25 2017-12-20 엘지전자 주식회사 Display apparatus for Vehicle and Vehicle
US10203766B2 (en) 2016-04-25 2019-02-12 Lg Electronics Inc. Display apparatus for vehicle

Also Published As

Publication number Publication date
KR20120026329A (en) 2012-03-19

Similar Documents

Publication Publication Date Title
US8677287B2 (en) Display input device and navigation device
US7804399B2 (en) Display apparatus
US10866107B2 (en) Navigation system
CN101936740A (en) Navigation method of three-dimensional electronic map and device thereof
KR20060118234A (en) Method for guiding summary routes in navigation system
EP2128646B1 (en) Radar monitoring device
KR20140043948A (en) A navigation apparatus and method for displaying thereof
KR101195896B1 (en) operating method of navigation apparatus using optical sensor
US20120041678A1 (en) Position information detecting apparatus, position information detecting method, position information detecting program and storage medium
US20180253200A1 (en) Electronic apparatus
US9971475B2 (en) Electronic apparatus
JP2007071666A (en) Vehicle-mounted navigation apparatus
JP2009145158A (en) Vehicle navigation apparatus
KR101073455B1 (en) Route guidance method of navigation system
JP2015175818A (en) navigation device
JP3801033B2 (en) Car navigation system
KR20000013568A (en) Navigation system displaying photograph image of target point
KR19990039447A (en) Vehicle Navigation System for Three Dimensional Display
US20040034468A1 (en) Navigation device and system and method for trasmitting facility information
JP7215184B2 (en) ROUTE GUIDANCE CONTROL DEVICE, ROUTE GUIDANCE CONTROL METHOD, AND PROGRAM
US20150345953A1 (en) Electronic device and storage medium
KR20110124859A (en) Route guidance method of navigation system
JP2005308460A (en) Vehicle recovery system
JP2010008144A (en) Guide display device, guide display method, and program
JP2008082962A (en) System for determining running route of emergency vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151006

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160822

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170901

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180927

Year of fee payment: 7