KR20120134374A - Method for controlling 3d mode of navigation map using movement sensing device and apparatus therefof - Google Patents

Method for controlling 3d mode of navigation map using movement sensing device and apparatus therefof Download PDF

Info

Publication number
KR20120134374A
KR20120134374A KR1020110053237A KR20110053237A KR20120134374A KR 20120134374 A KR20120134374 A KR 20120134374A KR 1020110053237 A KR1020110053237 A KR 1020110053237A KR 20110053237 A KR20110053237 A KR 20110053237A KR 20120134374 A KR20120134374 A KR 20120134374A
Authority
KR
South Korea
Prior art keywords
navigation map
user
sensing device
swipe
display unit
Prior art date
Application number
KR1020110053237A
Other languages
Korean (ko)
Inventor
안건준
박승용
서종철
주윤선
주효민
조유숙
조성미
Original Assignee
크루셜텍 (주)
크루셜소프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 크루셜텍 (주), 크루셜소프트 주식회사 filed Critical 크루셜텍 (주)
Priority to KR1020110053237A priority Critical patent/KR20120134374A/en
Publication of KR20120134374A publication Critical patent/KR20120134374A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096877Systems involving transmission of navigation instructions to the vehicle where the input to the navigation device is provided by a suitable I/O arrangement
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: A 3D mode control method of a navigation map using a motion sensing device and a device thereof are provided to operate a motion sensing device of a terminal in which a 3D navigation map is loaded, thereby simply changing a view angle of a 3D map. CONSTITUTION: A 3D mode control method of a navigation map using a motion sensing device comprises a display unit(12), a motion sensing device, and a control unit. The display unit displays a 3D navigation map. The motion sensing device senses the finger movement of a user. The control unit detects the swipe displacement of user fingers based on swipe sensing signals when the swipe sensing signals are input by the motion sensing device. The control unit changes a view angle of the 3D navigation map being displayed through the display unit by corresponding to the detected swipe displacement.

Description

움직임 감지장치를 이용한 내비게이션 맵의 3D 모드 제어 방법 및 장치{METHOD FOR CONTROLLING 3D MODE OF NAVIGATION MAP USING MOVEMENT SENSING DEVICE AND APPARATUS THEREFOF}METHOD FOR CONTROLLING 3D MODE OF NAVIGATION MAP USING MOVEMENT SENSING DEVICE AND APPARATUS THEREFOF}

본 발명은 움직임 감지장치를 이용한 내비게이션 맵의 3D 모드 제어 방법 및 장치에 관한 것이다. 보다 상세하게는, 3D 내비게이션 맵을 탑재한 단말에서 사용자가 움직임 감지장치를 조작하여 3D 맵의 뷰(Veiw) 각도를 간편하게 변경할 수 있는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for controlling a 3D mode of a navigation map using a motion detection device. More specifically, the present invention relates to a method and apparatus for allowing a user to easily change a view angle of a 3D map by operating a motion sensing device in a terminal equipped with a 3D navigation map.

일반적으로, 전자통신 기술의 발전을 통해 다양한 전자기기들이 만들어지고 있으며, 이러한 기기들은 점차 사용자의 조작 편의성과 더불어 디자인의 수려함을 강조하는 추세에 있다. 이러한 추세에 따라 강조되는 것은 키보드 혹은 키패드로 대표되던 입력장치에서 표시부과 같은 입력장치로의 변화이다.In general, various electronic devices are being made through the development of electronic communication technology, and these devices are increasingly emphasizing the user's ease of operation and the beautifulness of the design. Highlighted by this trend is the change from an input device represented by a keyboard or keypad to an input device such as a display.

특히, 스마트폰(Smart phone), 태블릿 PC(Tablet PC), PMP(Portable Multimedia Player), 휴대폰 등의 휴대 단말의 경우, 직관적인 사용자 입력, 사용자 편의성, 및 사용자의 심미감을 위해 부가적인 하드웨어적인 키보드, 키패드, 버튼 등을 최소화하고 표시부과 같은 사용자 입력장치를 메인 입력장치로 많이 채용하고 있는 추세이다.In particular, in the case of a mobile terminal such as a smart phone, a tablet PC, a portable multimedia player, and a mobile phone, an additional hardware keyboard is provided for intuitive user input, user convenience, and user aesthetics. Minimizing the number of keypads, buttons, etc., the user input device such as the display unit is being adopted as a main input device.

터치 스크린은 스크린에 센서를 내장하고, 손이나 스타일러스 펜(Stylus pen)을 사용하여 터치 스크린 상의 특정 오브젝트를 '터치'하면 센서가 이를 감지하는 방식에 의하여 사용자 입력이 이루어지는 입력장치이다.The touch screen is an input device in which a sensor is embedded in a screen, and a user input is made by a method in which a sensor detects this by touching a specific object on the touch screen using a hand or a stylus pen.

한편, 휴대용 전자 기기의 다양한 기능들이 하나의 휴대 단말에 집적화되고, 스마트폰과 같이 인터넷과 통신 정보검색 등의 컴퓨터 기능을 지원하는 지능형의 고성능 휴대 단말이 급속도로 보편화 됨에 따라 휴대 단말의 작동 모드에 따라 다양한 특정 컨텐츠 또는 프로그램 등과 관련된 세부적인 데이터들을 보다 쉽고 빠르게 이용, 확인, 접근, 및 제어할 수 있는 입력 방식이 요구되고 있다.Meanwhile, various functions of portable electronic devices are integrated into one portable terminal, and intelligent high-performance portable terminals that support computer functions such as the Internet and communication information retrieval such as smart phones are rapidly becoming common. Accordingly, there is a demand for an input method capable of using, checking, accessing, and controlling detailed data related to various specific contents or programs more easily and quickly.

그러나, 터치 스크린과 같은 사용자 입력장치를 메인 입력장치로 채용하는 휴대 단말의 경우, 다양한 작동 모드에 대응되는 사용자 입력 인터페이스를 다양한 방식으로 사용자에게 제공하고, 이에 대응하는 입력을 사용자가 직관적으로 수행할 수 있도록 한다는 점에서 이점이 있지만, 다양한 컨텐츠 또는 파일 등과 관련된 세부적인 데이터들을 사용자가 보다 쉽고 빠르게 이용, 확인, 접근, 및 제어할 수 있도록 하는 효과적인 방안을 제시하고 있지 못하고 있다.However, in the case of a mobile terminal employing a user input device such as a touch screen as a main input device, a user input interface corresponding to various operation modes may be provided to the user in various ways, and the user may intuitively perform the corresponding input. Although there is an advantage in that it is possible, detailed methods related to various contents or files, etc. are not presenting an effective way for a user to more easily and quickly use, view, access, and control.

이러한 이유로, 최근에는 이러한 터치 스크린과 포인팅 디바이스가 하나의 단말기에 장착되는 추세에 있다.For this reason, in recent years, such a touch screen and a pointing device have tended to be mounted in one terminal.

여기서, 포인팅 디바이스는 포인팅 디바이스로서 사용자가 포인팅 디바이스의 접촉면 상에서 손가락을 움직이면 손가락 움직임 방향에 따라 커서(또는 포인터)가 화면 상에서 이동한다. 이러한 포인팅 디바이스는 손가락의 움직임을 감지하기 위해 적외선, 레이저, 전기장 센서, 캐피시터, 또는 서미스터 등을 이용할 수 있다.Here, the pointing device is a pointing device and when a user moves a finger on the contact surface of the pointing device, the cursor (or pointer) moves on the screen according to the direction of finger movement. Such pointing devices may use infrared rays, lasers, electric field sensors, capacitors, thermistors, or the like to detect finger movements.

본 발명의 목적은 3D 내비게이션 맵을 탑재한 단말에서 사용자가 포인팅 디바이스를 조작하여 3D 맵의 뷰(Veiw) 각도를 간편하게 변경할 수 있도록 하는 것이다.An object of the present invention is to allow a user to easily change the view angle of a 3D map by operating a pointing device in a terminal equipped with a 3D navigation map.

본 발명의 내비게이션 맵의 3D 모드 제어 장치는, 움직임 감지장치를 이용하여 내비게이션 맵의 3D 모드를 제어하는 장치에 관한 것으로서, 3D 내비게이션 맵을 표시하는 표시부; 사용자의 손가락 움직임을 감지하는 움직임 감지장치; 및 상기 움직임 감지장치로부터 스와이프감지신호가 입력되면, 상기 스와이프감지신호에 근거하여 사용자 손가락의 스와이프 변위를 검출하고, 검출된 스와이프 변위에 대응하여 상기 표시부를 통해 표시되는 3D 내비게이션 맵의 뷰(Veiw) 각도를 변경하는 제어부를 구비하는 것을 특징으로 한다.An apparatus for controlling a 3D mode of a navigation map according to an embodiment of the present invention is directed to an apparatus for controlling a 3D mode of a navigation map using a motion sensing device, comprising: a display unit displaying a 3D navigation map; A movement detecting device for detecting a user's finger movement; And when a swipe detection signal is input from the motion detection device, a swipe displacement of a user's finger is detected based on the swipe detection signal, and the 3D navigation map is displayed through the display unit in response to the detected swipe displacement. And a controller for changing the view angle.

본 발명의 실시예에 따르면, 3D 내비게이션 맵을 탑재한 단말에서 사용자가 움직임 감지장치를 조작하여 3D 맵의 뷰(Veiw) 각도를 간편하게 변경할 수 있는 효과가 있다.According to an embodiment of the present invention, in the terminal equipped with the 3D navigation map, the user can easily change the view angle of the 3D map by operating the motion sensing device.

도 1은 본 발명의 실시예에 따른 휴대 단말의 사시도이다.
도 2는 도 1의 휴대 단말의 구성을 설명하기 위한 블럭도이다.
도 3 및 도 4는 본 발명에 따른 3D 모드 제어 장치를 설명하기 위한 예시도이다.
1 is a perspective view of a mobile terminal according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating the configuration of the portable terminal of FIG. 1.
3 and 4 are exemplary diagrams for explaining the 3D mode control apparatus according to the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성 요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
Throughout the specification, when a part is said to 'include' a certain component, it means that it can further include other components, except to exclude other components unless otherwise stated.

본 발명의 실시예에 따른 휴대 단말은 각 기능요소들이 연계되어 실행 가능한 내비게이션 맵을 통해 사용자에게 위치 정보를 제공하는 단말로서, 바람직하게는 내비게이션 단말, 스마트폰, 태블릿 PC, 이동 전화기, 개인 정보 단말 등과 같은 휴대 단말 및 그에 대한 응용에도 적용될 수 있음은 자명할 것이다.
A mobile terminal according to an embodiment of the present invention is a terminal for providing location information to a user through a navigation map which can be linked to each functional element, and preferably, a navigation terminal, a smartphone, a tablet PC, a mobile phone, a personal information terminal. It will be apparent that the present invention can be applied to a portable terminal and the application thereof.

이하, 도면을 참조로 하여 본 발명의 실시예에 따른 움직임 감지장치를 이용한 내비게이션 맵의 3D 모드 제어 방법 및 장치에 대하여 설명하기로 한다.
Hereinafter, a method and apparatus for controlling a 3D mode of a navigation map using a motion detection apparatus according to an embodiment of the present invention will be described with reference to the drawings.

도 1은 본 발명의 실시예에 따른 휴대 단말의 사시도이다. 도 2는 도 1의 휴대 단말의 구성을 설명하기 위한 블럭도이다. 그리고, 도 3 및 도 4는 본 발명에 따른 3D 모드 제어 장치를 설명하기 위한 예시도이다. 여기서, 도 2에서 참조부호 11은 휴대 단말의 하우징, 참조부호 12는 표시부의 화면, 참조부호 100은 포인팅 디바이스(움직임 감지장치)를 지칭한다.1 is a perspective view of a mobile terminal according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating the configuration of the portable terminal of FIG. 1. 3 and 4 are exemplary diagrams for describing the 3D mode control apparatus according to the present invention. Here, in FIG. 2, reference numeral 11 denotes a housing of a portable terminal, reference numeral 12 denotes a screen of a display unit, and reference numeral 100 denotes a pointing device (motion sensing device).

도 1 및 도 2를 참조하면, 본 발명에 따른 휴대 단말(10)은 움직임 감지장치(100), 표시부(110), 메모리(130), 통신부(140), 오디오 처리부(150), 및 제어부(160)를 구비한다.1 and 2, the mobile terminal 10 according to the present invention includes a motion detecting apparatus 100, a display unit 110, a memory 130, a communication unit 140, an audio processor 150, and a controller ( 160).

표시부(110)는 휴대 단말(10)에서 이루어지는 일련의 동작상태, 동작결과 및 다수의 정보를 표시하도록 제어부(160)의 제어를 받는다. 예를 들어, 2D 또는 3D 내비게이션 맵을 기반으로 사용자에게 위치 정보를 제공하는 화면을 출력한다. 그리고, 표시부(110)는 사용자에게 2D 또는 3D 내비게이션 서비스를 제공하기 위한 메뉴, 사용자가 입력한 사용자 데이터, 기능 설정 정보 및 사용자에게 위치 정보를 시각적으로 제공한다.The display unit 110 is controlled by the controller 160 to display a series of operation states, operation results, and a plurality of pieces of information made in the portable terminal 10. For example, a screen that provides location information to a user based on a 2D or 3D navigation map is output. The display unit 110 visually provides a menu for providing a 2D or 3D navigation service to the user, user data input by the user, function setting information, and location information to the user.

표시부(110)는 터치 패널(도시생략)과 결합되어 형성될 수 있으며, 표시부(12) 상에서의 사용자 터치 동작에 따른 입력 신호를 감지하여 제어부(160)에 전달할 수 있다. 즉, 표시부(110)는 화면(12) 상의 특정 위치에 사용자 손가락이 접촉되면, 접촉된 위치에 대응하는 위치좌표를 제어부(160)에 전달할 수 있다.The display unit 110 may be combined with a touch panel (not shown), and may detect an input signal according to a user's touch operation on the display unit 12 and transmit the detected input signal to the controller 160. That is, when the user's finger touches a specific position on the screen 12, the display unit 110 may transmit the position coordinates corresponding to the touched position to the controller 160.

표시부(110)는 LCD, OLED, LED 등의 디스플레이 장치로 구성될 수 있다. 또한, 표시부(110)는 화면(12) 상에서의 사용자의 터치 위치, 터치 강도, 터치 방향 등에 따른 입력 신호를 감지할 수 있으며, 전류 감지 방식, 압력 감지 방식 등 다양한 형태로 구현이 가능하다.The display unit 110 may be configured as a display device such as an LCD, an OLED, and an LED. In addition, the display unit 110 may detect an input signal according to a user's touch position, touch intensity, and touch direction on the screen 12, and may be implemented in various forms such as a current sensing method and a pressure sensing method.

메모리(130)는 본 발명의 실시예에 따른 기능 동작에 필요한 응용 프로그램을 저장한다. 이러한 메모리(130)는 프로그램 영역과 데이터 영역을 포함한다. 프로그램 영역은 휴대 단말을 부팅하는 운영체제(OS: Operating System) 및 기능요소들 사이에 연계되고, 사용자의 움직임 감지장치(100) 조작에 대응하여 표시부(110)를 통해 표시되는 3D 내비게이션 맵의 뷰(Veiw) 각도를 변경시키는 프로그램이 저장된다. 그리고 데이터 영역은 휴대 단말(10)의 사용에 따라 발생하는 데이터가 저장되는 영역으로서, 각 서비스 항목별 기능요소들의 데이터와 실행 2D 및 3D 내비게이션 맵이 저장된다.The memory 130 stores an application program for operating a function according to an embodiment of the present invention. The memory 130 includes a program area and a data area. The program area is linked between an operating system (OS) and functional elements for booting the mobile terminal, and is a view of the 3D navigation map displayed through the display unit 110 in response to a user's manipulation of the motion detection apparatus 100 ( Save the program that changes the angle. The data area is an area in which data generated according to the use of the mobile terminal 10 is stored, and data of functional elements for each service item and execution 2D and 3D navigation maps are stored.

통신부(140)는 복수의 GPS 위성에서 보내는 GPS 신호를 수신해 제어부(160)에 전달하고, 제어부(160)는 GPS 위성들로부터 수신된 GPS 신호를 이용하여 휴대 단말(10)의 현재 위치를 산출한다. 또한, 통신부(140)는 휴대 단말(10)과 기지국 사이의 통신 채널을 형성하고, 필요한 신호를 송수신하는 일련의 통신을 담당한다.The communicator 140 receives GPS signals from a plurality of GPS satellites and transmits them to the controller 160, and the controller 160 calculates a current position of the mobile terminal 10 using the GPS signals received from the GPS satellites. do. In addition, the communication unit 140 forms a communication channel between the mobile terminal 10 and the base station, and is responsible for a series of communication for transmitting and receiving necessary signals.

제어부(160)는 휴대 단말(10)의 전반적인 동작 및 내부 블록들 사이의 신호 흐름을 제어한다. 특히, 제어부(160)는 네비게이션 맵을 표시부(110)를 통해 표시한 상태에서, 움직임 감지장치(100)로부터 사용자 손가락 움직임에 따른 움직임감지신호가 입력되는 지를 판단하고, 입력 신호에 따라 그에 대응하는 본 발명에 따른 기능이 실행되도록 처리한다.The controller 160 controls the overall operation of the mobile terminal 10 and the signal flow between the internal blocks. In particular, in a state where the navigation map is displayed through the display unit 110, the controller 160 determines whether a motion detection signal corresponding to a user's finger movement is input from the motion detection apparatus 100, and correspondingly according to the input signal. Process to execute the function according to the invention.

여기서, 움직임감지신호는 사용자 손가락의 누름 움직임(Press gesture)에 따른 누름감지신호와 사용자 손가락의 스와이프 움직임(Swipe gesture)에 따른 스와이프감지신호를 포함한다. 그리고, 상기한 누름감지신호는 움직임 감지장치(100)의 하드웨어적인 클릭에 의해 발생하는 신호(즉, Dome click 신호)이거나 움직임 감지장치(100)의 소프트웨어적인 클릭에 의해 발생하는 신호(즉, Long term press 신호)가 될 수 있다.Here, the motion detection signal includes a push detection signal according to a press gesture of a user finger and a swipe detection signal according to a swipe gesture of the user finger. The push detection signal may be a signal generated by a hardware click of the motion detection apparatus 100 (ie, a Dome click signal) or a signal generated by a software click of the motion detection apparatus 100 (ie, a long click). term press signal).

보다 상세하게는, 제어부(160)는, 2D 네비게이션 맵을 화면(12)에 표시한 상태에서(도 3 참조), 움직임 감지장치(100)로부터 움직임감지신호가 입력되면, 화면(12)에 표시되는 네비게이션 맵을 2D 표시 모드에서 3D 표시 모드로 변경한다(도 4 참조). In more detail, the controller 160 displays the 2D navigation map on the screen 12 (see FIG. 3) and displays the motion detection signal on the screen 12 when a motion detection signal is input from the motion detection apparatus 100. The navigation map is changed from the 2D display mode to the 3D display mode (see FIG. 4).

그리고, 제어부(160)는 3D 네비게이션 맵을 화면(12)에 표시한 상태에서, 움직임 감지장치(100)로부터 스와이프감지신호가 입력되는 지를 판단한다. 제어부(160)는 움직임 감지장치(100)로부터 스와이프감지신호가 입력되면, 스와이프감지신호에 근거하여 사용자 손가락의 스와이프 변위를 검출한다. 그리고, 제어부(160)는 검출된 스와이프 변위에 따라, 검출된 스와이프 변위에 대응하여 화면(110)에 표시되는 3D 내비게이션 맵의 뷰(Veiw) 각도를 변경시킨다. 예를 들어, 90˚> 75˚> 60˚> 45˚> 30˚ > 15˚> 0˚ 순으로 뷰 각도를 변경시킬 수 있다.In addition, the controller 160 determines whether the swipe detection signal is input from the motion detection apparatus 100 while the 3D navigation map is displayed on the screen 12. When the swipe detection signal is input from the motion detection apparatus 100, the controller 160 detects a swipe displacement of the user's finger based on the swipe detection signal. The controller 160 changes the view angle of the 3D navigation map displayed on the screen 110 in response to the detected swipe displacement. For example, you can change the viewing angle in the following order: 90˚> 75˚> 60˚> 45˚> 30˚> 15˚> 0˚.

본 발명에 따른 움직임 감지장치(100)는 피사체(손가락)의 움직임을 감지하고, 그에 대응하는 움직임감지신호를 제어부(160)에 전달한다. 이러한 움직임 감지장치(100)는 터치패드, 표시부, 트랙볼, 스크롤 휠, 또는 적외선(IR), 레이저(laser), 전기장(electric field), 캐피시터(capacitaor), 또는 서미스터(thermistor)를 이용하여 피사체의 움직임을 감지하는 모바일 포인팅 디바이스 등을 포함하는 형태로 다양하게 구현될 수 있다. The motion detection apparatus 100 according to the present invention detects a movement of a subject (finger) and transmits a motion detection signal corresponding thereto to the controller 160. The motion detection apparatus 100 may use a touch pad, a display unit, a trackball, a scroll wheel, or an infrared (IR) laser, a laser, an electric field, a capacitor, or a thermistor. It may be implemented in various forms including a mobile pointing device for detecting a movement.

여기서, 피사체는 손가락과 같은 사용자의 신체 부위로 이해되는 것이 일반적이나 굳이 신체가 아니라도 움직임 감지장치(100)가 움직임을 파악 가능하게 할 수 있는 다른 대체 가능한 모든 물체가 될 수 있다.Here, the subject may be generally understood to be a user's body part such as a finger, but may be any other replaceable object that enables the motion detecting apparatus 100 to detect movement even if it is not the body.

한편, 본 발명에 적용되는 움직임 감지장치(100)는 표시부(110)의 화면 상의 커서(Cursor) 또는 포인터(Pointer)를 피사체의 움직임을 통해 생성 및 이동시켜 PC(Personal Computer)에서와 동일한 포인팅 기술을 구현한다. 예를 들어, 움직임 감지장치(100) 위에 손가락(피사체)을 올린 후 손가락을 움직이면 움직인 방향에 따라 화면 상의 커서(또는 포인터)가 이동한다. 이때, 움직임 감지장치(100)는 피사체의 물리적 접촉을 감지하거나 또는 피사체에 반사되는 광을 감지할 수 있으며, 그에 따른 움직임감지신호를 생성할 수 있다.
Meanwhile, the motion detecting apparatus 100 applied to the present invention generates and moves a cursor or a pointer on the screen of the display unit 110 through the movement of a subject, thereby pointing to the same pointing technology as in a personal computer (PC). Implement For example, if a user moves a finger after raising a finger (subject) on the motion detection apparatus 100, the cursor (or pointer) on the screen moves according to the moving direction. In this case, the motion detection apparatus 100 may detect physical contact of the subject or light reflected by the subject, and generate a motion detection signal accordingly.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specification. Although specific terms have been employed herein, they are used for purposes of illustration only and are not intended to limit the scope of the invention as defined in the claims or the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

10: 휴대 단말 100: 포인팅 디바이스
110: 표시부 130: 메모리
140: 통신부 160: 제어부
10: portable terminal 100: pointing device
110: display unit 130: memory
140: communication unit 160: control unit

Claims (1)

움직임 감지장치를 이용하여 내비게이션 맵의 3D 모드를 제어하는 장치에 관한 것으로서,
3D 내비게이션 맵을 표시하는 표시부;
사용자의 손가락 움직임을 감지하는 움직임 감지장치; 및
상기 움직임 감지장치로부터 스와이프감지신호가 입력되면, 상기 스와이프감지신호에 근거하여 사용자 손가락의 스와이프 변위를 검출하고, 검출된 스와이프 변위에 대응하여 상기 표시부를 통해 표시되는 3D 내비게이션 맵의 뷰(Veiw) 각도를 변경하는 제어부를 구비하는 것을 특징으로 하는, 움직임 감지장치를 이용한 내비게이션 맵의 3D 모드 제어 장치.
A device for controlling a 3D mode of a navigation map using a motion detection device,
A display unit displaying a 3D navigation map;
A movement detecting device for detecting a user's finger movement; And
When a swipe detection signal is input from the motion detection device, a swipe displacement of a user's finger is detected based on the swipe detection signal, and a view of the 3D navigation map displayed through the display unit in response to the detected swipe displacement. (Veiw) 3D mode control device of the navigation map, characterized in that it comprises a control unit for changing the angle.
KR1020110053237A 2011-06-02 2011-06-02 Method for controlling 3d mode of navigation map using movement sensing device and apparatus therefof KR20120134374A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110053237A KR20120134374A (en) 2011-06-02 2011-06-02 Method for controlling 3d mode of navigation map using movement sensing device and apparatus therefof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110053237A KR20120134374A (en) 2011-06-02 2011-06-02 Method for controlling 3d mode of navigation map using movement sensing device and apparatus therefof

Publications (1)

Publication Number Publication Date
KR20120134374A true KR20120134374A (en) 2012-12-12

Family

ID=47902580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110053237A KR20120134374A (en) 2011-06-02 2011-06-02 Method for controlling 3d mode of navigation map using movement sensing device and apparatus therefof

Country Status (1)

Country Link
KR (1) KR20120134374A (en)

Similar Documents

Publication Publication Date Title
JP5759660B2 (en) Portable information terminal having touch screen and input method
US8466934B2 (en) Touchscreen interface
AU2010235941B2 (en) Interpreting touch contacts on a touch surface
KR101999119B1 (en) Method using pen input device and terminal thereof
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
US20120019488A1 (en) Stylus for a touchscreen display
US20120068946A1 (en) Touch display device and control method thereof
US20130257761A1 (en) Method for operating an electronic device
GB2517284A (en) Operation input device and input operation processing method
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
JP2013114645A (en) Small information device
KR20200019426A (en) Inferface method of smart touch pad and device therefor
KR20150122021A (en) A method for adjusting moving direction of displaying object and a terminal thereof
KR101961786B1 (en) Method and apparatus for providing function of mouse using terminal including touch screen
US20180253213A1 (en) Intelligent Interaction Method, Device, and System
KR20160000534U (en) Smartphone having touch pad
KR20120135126A (en) Method for controlling augmented reality using pointing device and apparatus therefof
KR20120134374A (en) Method for controlling 3d mode of navigation map using movement sensing device and apparatus therefof
KR101165388B1 (en) Method for controlling screen using different kind of input devices and terminal unit thereof
KR20120134399A (en) Method for providing schedule information using movement sensing device and apparatus therefof
KR20120118542A (en) Method for sorting and displayng user related twitter message and apparatus therefof
KR20120134469A (en) Method for displayng photo album image of mobile termianl using movement sensing device and apparatus therefof
KR20120134485A (en) Method for searching index list using movement sensing device and apparatus therefof
AU2015271962B2 (en) Interpreting touch contacts on a touch surface
KR101888902B1 (en) Method for displayng photo album of mobile termianl using movement sensing device and apparatus therefof

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination