KR101219292B1 - 표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법 - Google Patents

표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법 Download PDF

Info

Publication number
KR101219292B1
KR101219292B1 KR1020100057044A KR20100057044A KR101219292B1 KR 101219292 B1 KR101219292 B1 KR 101219292B1 KR 1020100057044 A KR1020100057044 A KR 1020100057044A KR 20100057044 A KR20100057044 A KR 20100057044A KR 101219292 B1 KR101219292 B1 KR 101219292B1
Authority
KR
South Korea
Prior art keywords
handheld device
command
view frame
movement
user
Prior art date
Application number
KR1020100057044A
Other languages
English (en)
Other versions
KR20110137050A (ko
Inventor
정학영
Original Assignee
(주)마이크로인피니티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)마이크로인피니티 filed Critical (주)마이크로인피니티
Priority to KR1020100057044A priority Critical patent/KR101219292B1/ko
Publication of KR20110137050A publication Critical patent/KR20110137050A/ko
Application granted granted Critical
Publication of KR101219292B1 publication Critical patent/KR101219292B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 사용자 명령 입력 기술에 관한 것으로, 보다 상세하게는, 자이로스코프나 가속도계 등의 관성 센서를 구비한 핸드 헬드 기기에서 사용자의 명령을 직관적으로 입력하는 장치 및 방법에 관한 것이다. 본 발명에 따른 핸드 헬드 기기는, 상기 핸드 헬드 기기에 내장되어 상기 핸드 헬드 기기의 움직임에 대응되는 센서 신호를 출력하는 관성 센서와, 상기 센서 신호에 따라 상기 핸드 헬드 기기의 움직임 방향을 해석하고, 소정의 객체에 대하여 상기 움직임 방향으로 상기 핸드 헬드 기기의 뷰 프레임을 이동시키는 명령을 생성하는 제어부와, 상기 명령에 따라 상기 이동된 뷰 프레임에 대응되는 상기 객체의 영역을 표시하는 표시부를 포함한다.

Description

표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법 {Hand-held device including a display and method for navigating objects on the display}
본 발명은 사용자 명령 입력 기술에 관한 것으로, 보다 상세하게는, 자이로스코프나 가속도계 등의 관성 센서를 구비한 핸드 헬드 기기에서 사용자의 명령을 직관적으로 입력하는 장치 및 방법에 관한 것이다.
컴퓨터 과학 분야가 발달함에 따라, 사용자들이 컴퓨터 기기에 정보를 입력할 수 있게 해주는 다양한 기기들이 개발되었다. 상기 기기들 중 한 그룹은 사용자 명령 입력 기기라고 불린다. 사용자가 이러한 기기의 컴포넌트들을 조작함에 따라, 사용자 명령 입력 기기의 이동에 대응하는 위치 데이터가 생성된다. 그리고, 이러한 위치 데이터는 디스플레이 상에 나타나는 포인터 이미지의 움직임, 화면 자체의 움직임 또는 다양한 종류의 사용자 명령을 실행할 수 있도록 변환된다. 따라서, 사용자 명령 입력 기기를 움직임으로써, 사용자는 디스플레이 상에 표시되는 객체들을 편리하게 제어할 수 있다. 그 후 사용자는 추가적으로 상기 사용자 명령 입력 기기의 특정 버튼을 누름에 의하여 추가적인 명령을 전달할 수도 있다.
일반적인 개인용 컴퓨터의 사용자들은 자신의 컴퓨터를 구동하기 위한 운영체제(OS: Operating System)로서 마이크로소프트 사의 윈도우(Windows)를 사용하고 있다. 이는 기존의 DOS(Disk Operating System) 체제에서 지원하지 못하는 편리한 마우스 기능 및 다양한 그래픽 기능에 기인하는데, 사용자들은 윈도우를 통해 특정 명령을 입력할 시, 일일이 키보드로 입력하지 않고도 마우스의 드래그나 스크롤, 클릭 등을 통해 간편하게 명령을 입력할 수 있다.
한편, 이와는 대조적으로 휴대폰, 휴대용 게임기, PMP(portable multimedia player) 등과 같은 핸드 헬드 기기는 개인용 컴퓨터에서 사용되는 키보드나 마우스를 사용할 수 없으며, 상대적으로 작은 크기의 디스플레이가 제공된다. 즉, 개인용 컴퓨터와 달리 사용자가 상기 장치의 조작을 위하여 특정한 위치에 고정되어 있는 것도 아니고, 거실과 같은 개방된 공간에서 조작이 필요하기 때문에 키보드나 마우스와 같이 주로 평면에 고정되어 사용되는 입력 수단을 이용하기가 어려우며, 상대적으로 작은 디스플레이가 제공되기 때문에 화면 상의 다양한 객체의 조작에도 한계를 지닌다.
이러한 문제점을 고려하여, 최근에는 자이로스코프, 가속도계 등의 움직임 센서를 탑재한 3차원 사용자 명령 입력 기기 내지 핸드 헬드 기기들이 개발되고 있다. 사용자는 핸드 헬드 기기를 움직임으로써 이에 대응되는 디스플레이상의 포인터 이미지를 원하는 방향과 속도로 움직일 수 있고, 상기 핸드 헬드 기기 상에 구비된 특정 버튼을 누름으로써 원하는 객체를 선택하고 실행할 수 있게 된다.
그러나, 기존의 마우스 등과 같이 고정된 2차원 평면에서의 동작을 통하여 사용자 명령을 입력하는 기술과 대비할 때, 3차원 공간상에서 임의의 동작을 통하여 특정의 명령을 수행하는 경우에는 특히, 사용자의 명령 입력이 얼마나 직관적으로 이루어질 수 있는지, 그리고, 사용자가 원하는 명령을 얼마나 편리하게 전달할 있는가는 매우 중요한 문제이다.
본 발명은 상기한 필요성을 감안하여 창안된 것으로, 관성 센서를 구비한 핸드 헬드 기기의 사용자가 사용자의 의도에 따라 디스플레이 상에 표시된 객체를 직관적으로 편리하게 제어할 수 있는 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른, 적어도 하나의 표시부를 구비하고 사용자의 명령을 입력받아 상기 표시부 상에 적어도 일부가 표시되는 객체를 탐색할 수 있는 핸드 헬드 기기에 있어서, 상기 핸드 헬드 기기에 내장되어 상기 핸드 헬드 기기의 움직임에 대응되는 센서 신호를 출력하는 관성 센서; 상기 센서 신호에 따라 상기 핸드 헬드 기기의 움직임 방향을 해석하고, 상기 객체에 대하여 상기 움직임 방향으로 상기 핸드 헬드 기기의 뷰 프레임을 이동시키는 명령을 생성하는 제어부; 및 상기 명령에 따라 상기 이동된 뷰 프레임에 대응되는 상기 객체의 영역을 표시하는 표시부를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른, 사용자의 명령을 입력받아 상기 표시부 상에 적어도 일부가 표시되는 객체를 탐색하는 방법에 있어서, 관성 센서로부터 상기 핸드 헬드 기기에 내장되어 상기 핸드 헬드 기기의 움직임에 대응되는 센서 신호를 입력 받는 단계; 상기 센서 신호에 따라 상기 핸드 헬드 기기의 움직임 방향을 해석하는 단계; 상기 객체에 대하여 상기 움직임 방향으로 상기 핸드 헬드 기기의 뷰 프레임을 이동시키는 명령을 생성하는 단계; 및 상기 명령에 따라 상기 이동된 뷰 프레임에 대응되는 상기 객체의 영역을 표시하는 단계를 포함한다.
본 발명에 따르면 핸드 헬드 기기의 사용자는 특별히 사용법을 익히지 않더라도, 상기 핸드 헬드 기기의 디스플레이되는 객체를 간단한 조작에 의하여 직관적으로 제어할 수 있으며, 이에 따라 상기 핸드 헬드 기기에 대한 사용상 편의성을 증진하는 효과가 있다.
도 1은 종래의 기술에 따른 제어 대상 탐색 방법의 일 예를 도시하는 도면이다.
도 2는 종래의 기술에 따른 제어 대상 탐색 방법의 또 다른 예를 도시하는 도면이다.
도 3a 및 3b는 본 발명의 실시예들에 따른 관성 센서를 구비한 핸드 헬드 기기의 외형을 보여주는 도면들이다.
도 4는 본 발명의 객체 탐색 방법에 관한 기본 개념을 보여주는 도면이다.
도 5a 내지 도 5d는 본 발명의 일 실시예에 따른 포인터의 형상을 표시한 도면들이다.
도 6 및 7은 본 발명의 일실시예에 따라 뷰 프레임을 이동하여 객체인 온라인 지도 중에서 사용자가 원하는 부분을 선택하여 명령을 실행하는 구체적인 예를 보여주는 도면들이다.
도 8은 본 발명의 일 실시예에 따른 핸드 헬드 기기의 구성을 도시하는 블록도이다.
도 9는 가속도의 이중적분으로 구해지는 변위를 기준으로 뷰 프레임을 제어하는 실시예를 설명하는 도면이다.
도 10은 가속도를 기준으로 뷰 프레임을 제어하는 실시예를 설명하는 도면이다.
도 11은 2차원적 움직임에 수직인 방향의 움직임을 포함한 3차원적인 움직임이 적용된 실시예를 보여주는 도면이다.
도 12는 EPG에 적용된 본 발명의 실시예를 보여주는 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명은 특히, 핸드 헬드 기기의 디스플레이 크기에 비하여 상대적으로 큰 영역을 갖는 화면상의 객체(object)를 탐색(navigation)하고 제어하기 위하여 주로 사용될 수 있다. 예를 들면, 상기 제어 대상의 예로는 온라인 지도, 게임 상의 가상 공간, 하나의 화면으로 표시될 수 없는 이미지(배경 이미지 등), 하나의 화면으로 표시될 수 없는 다수의 메뉴 항목들(예: EPG(electronic program guide), 바탕화면과 같이 메뉴 또는 선택 객체가 있는 화면을 예로 들 수 있다. 따라서, 사용자가 이러한 제어 대상과 관련된 명령을 입력하기 위해서는, 상기 제어 대상이 차지하는 전체 영역을 편리하게 탐색할 수 있도록 하는 것이 관건이라고 볼 수 있다.
도 1은 종래의 기술에 따른 제어 대상 탐색 방법의 일 예를 도시하는 도면이다. 여기서, 디스플레이되는 뷰 프레임(view frame)(10)은 상대적으로 큰 객체를 탐색하기 위하여 이동될 수 있도록 구성된다. 사용자가 마우스를 움직이더라도, 초기에는 뷰 프레임(10)은 이동하지 않고 뷰 프레임(10) 내에 포함되는 포인터(12)가 이동을 한다. 포인터(12)가 계속 이동을 하여, 뷰 프레임(10)의 가장자리에 닿게 되면, 그 때부터는 상기 가장자리의 방향으로 상기 뷰 프레임(10)이 이동하게 된다(예를 들어, 좌측 가장자리에 닿는 경우 뷰 프레임(10)은 좌측 방향으로 이동함). 이러한 방식은 통상 윈도우 패닝(window panning)이라고 알려져 있는 기술로, 디스플레이의 해상도가 지원하는 화면 크기보다 바탕 화면의 크기가 더 큰 경우에 적용되고 있다.
도 2는 종래의 기술에 따른 제어 대상 탐색 방법의 다른 예를 도시하는 도면이다. 이러한 기술은 주로 온라인 지도를 탐색하는 용도로 현재 많이 사용되고 있다. 사용자가 마우스를 움직이면 뷰 프레임(20) 내의 포인터(22)도 이에 따라 움직이게 된다. 그런데, 사용자가 만약 객체(뷰 프레임(20)에 그 일부만 표시되어 있음) 내에서 뷰 프레임을 이동시키고자 한다면, 사용자는 마우스의 버튼을 클릭한 상태에서 포인터(22)를 다른 위치(24)로 이동시키면 된다. 이 경우에 객체 내에 포함된 모든 물체, 예를 들어, 온라인 지도에 포함된 건물(26)도 상기 포인터의 이동에 따라 대응되는 위치(28)로 이동하게 된다.
이상의 도 1 및 2에 설명된 종래의 기술들은, 기본적으로 뷰 프레임의 이동과 포인터의 이동이 2원화되어 있다. 특히, 도 2의 종래 기술은 화면상의 객체를 사용자가 잡아서 드래그한다는 개념과 연결되어 있다. 그러나, 자이로스코프나 가속도계 등과 같이, 3차원 모션 센서 내지 관성 센서를 구비한 핸드 헬드 기기에서 화면 상의 객체를 탐색하기 위해서는 보다 직관적이면서도 조작이 용이한 사용자 인터페이스를 제공할 필요가 있다.
도 3a 및 3b는 본 발명의 실시예들에 따른 관성 센서를 구비한 핸드 헬드 기기의 외형을 보여주는 도면들이다. 도 3a의 핸드 헬드 기기(100a)는 중앙에 디스플레이(표시부, 30)를 구비하고 좌우에 양손으로 파지할 수 있는 부분(36, 38)이 구비되며, 상기 부분(36, 38)의 부근에는 엄지 손가락으로 특정 명령을 전달할 수 있는 키들(버튼들)(32, 34)이 구비되어 있다. 상기 디스플레이의 영역 내에 표시되는 실제 화상을 본 발명에서는 "뷰 프레임"(view frame)이라고 명명하기로 한다.
한편, 도 3b의 실시예에 따르면, 핸드 헬드 기기(100b)는 휴대 폰 등과 같이 한 손으로 파지할 수 있는 부분(35)과 그 부근에 엄지 손가락으로 특정 명령을 전달할 수 있는 키들(39)이 구비되어 있다. 핸드 헬드 기기(100b)는 대략 중앙 및 상단 부분에 걸친 영역에 구비된 디스플레이(30)를 더 포함한다. 핸드 헬드 기기들(100a, 100b)은 내부에 자이로스코프, 가속도계 등과 같은 관성 센서 내지 3차원 모션 센서 구비하고 있다.
도 4는 본 발명의 객체 탐색 방법에 관한 기본 개념을 보여주는 도면이다. 하나의 객체(40)는 도 4에 도시된 바와 같이, 뷰 프레임(50)에 비하여 훨씬 클 수 있다. 따라서, 뷰 프레임(50)을 움직여서 전체의 객체(40)를 탐색할 수 있도록 하여야 한다. 이 때, 본 발명에 따르면, 사용자에게 가장 직관적인 제어를 제공하기 위하여 관성 센서에 의하여 감지된 핸드 헬드 기기의 움직임 방향으로 뷰 프레임(50)이 이동하는 개념을 사용한다. 즉, 마치 카메라의 무빙 워크에 의하여 다양한 위치의 영상을 촬영하듯이, 사용자는 단순히 핸드 헬드 기기를, 객체에 대해 탐색하고자 하는 방향으로 이동시킴으로써 원하는 객체의 부분을 탐색할 수 있는 것이다. 이는 사용자에게 매우 친근하고 직관적인 감각을 제공한다.
한편, 본 발명에서는 뷰 프레임의 이동과, 상기 뷰 프레임 내의 포인터의 이동이 일원화되어 있다. 즉, 종래의 기술들과 같이, 뷰 프레임에 대하여 포인터가 상대적인 움직임을 갖는 것과는 달리, 뷰 프레임에 대하여 포인터는 상대적으로 고정되어 있도록 할 수 있다. 이와 같이 하면, 사용자는 핸드 헬드 기기를 움직임에 의하여 객체의 전체 영역을 탐색할 수 있음과 동시에, 상기 객체의 특정 부분에 포인터가 위치하도록 한 후, 버튼 누름 등에 의한 사용자 명령 입력을 통하여 상기 특정 부분에 상응하는 명령이 실행되도록 할 수 있는 것이다. 따라서, 포인터가 아니라 뷰 프레임 자체를 움직이기 위해서는 버튼을 누른 상태에서 드래그하거나, 뷰 프레임의 가장자리까지 포인터를 이동시켜야 하는 복잡한 조작이 요구되지 않는다.
도 5a 내지 도 5d는 본 발명의 일 실시예에 따른 포인터의 형상을 표시한 도면들이다. 도 5a에서 포인터(55)는 뷰 프레임(50)의 중앙에 위치하며 고정되어 있는 화살표 모양의 포인터이다. 이러한 포인터는 단순한 원형 점 형상(도 5b의 56)이나, 카메라의 포커스 형상(도 5c의 57) 등으로 다양하게 구현될 수 있으며, 도 5d에서와 같이 포인터(55)의 위치를 가이드 하기 위한 격자(58)가 더 구비되어 있을 수도 있다. 이상에서와 같이, 본 발명의 일 실시예에 있어서 포인터는 뷰 프레임의 중앙에 위치하지만, 이에 한하지 않고 뷰 프레임에 대하여 상대적으로 고정된 위치라면 중앙 이외의 위치이어도 무방하다.
도 6 및 7은 본 발명의 일실시예에 따라 뷰 프레임을 이동하여 객체인 온라인 지도(60) 중에서 사용자가 원하는 부분을 선택하여 명령을 실행하는 구체적인 예를 보여주는 도면들이다.
도 6을 참조하면, 사용자는 뷰 프레임을 초기 위치(50a)에 위치하고 있을 때, "대한민국"에 관한 정보를 얻고 싶으면 핸드 헬드 기기를 화살표 방향(좌하측 방향)으로 이동시킴으로써, 뷰 프레임(50b)의 포인터(55)가 "대한민국"의 가리키도록 한다. 그 후, 사용자는 상기 핸드 헬드 기기의 특정 키를 누름에 의하여 "대한민국"에 관한 정보를 얻을 수 있다.
도 6에서의 과정은 실제로, 사용자의 관점에서는 도 7과 같이 나타날 것이다. 최초의 위치에서 뷰 프레임은 아메리카 대륙 쪽을 보여주고 있다가, 사용자가 핸드 헬드 기기를 도 6의 화살표 방향으로 이동시킴에 따라, 뷰 프레임은 태평양을 거쳐서 "대한민국"으로 옮아가게 되는 것이다. 포인터가 "대한민국"을 가리키는 상태에서 특정 버튼을 누르게 되면 선택된 객체의 부분과 관련된 명령(도 7의 하단부와 같은 대한민국에 관한 정보 표시)이 실행된다. 이와 같이, 사용자의 동작에 의하여 뷰 프레임이 이동함에도 불구하고 포인터는 상기 뷰 프레임에 대하여 일정한 위치(예: 중앙부)에 고정되어 있음을 알 수 있다.
도 8은 본 발명의 일 실시예에 따른 핸드 헬드 기기(100)의 구성을 도시하는 블록도이다. 적어도 하나의 표시부를 구비하고 사용자의 명령을 입력받아 상기 표시부 상에 적어도 일부가 표시되는 객체를 탐색할 수 있는, 핸드 헬드 기기(100)는 관성 센서(110), A/D 변환기(120), 제어부(130), 데이터 저장부(140), 키 입력부(150) 및 표시부(160)를 포함하여 구성될 수 있다.
관성 센서(110)는 상기 핸드 헬드 기기에 내장되어 상기 핸드 헬드 기기의 움직임에 대응되는 센서 신호를 출력한다. 상기 관성 센서(110)는 3차원 공간상에서 움직임을 감지하는 센서로서, 가속도계나 자이로스코프, 또는 이들의 조합이 사용될 수 있다. 상기 가속도계로는 압전형 타입(piezodlectric type)이나 동전형(moving coil type) 타입, 기타의 타입 등이 이용될 수 있으며, 상기 자이로스코프로는 기계식, 유체식, 광학식, 압전식 등 다양한 유형이 사용될 수 있다.
A/D 변환기(120)는 상기 관성 센서(110)로부터 출력되는 아날로그 출력을 샘플링하여 디지털화 한다. 이 때, 상기 샘플링된 출력값은 원시 단위(raw unit)으로부터 특정 단위(예: 가속도계의 경우 중력 가속도 단위)로 변환된다. 추가적으로 도 8에는 미도시되어 있지만, 관성 센서의 누적 오차를 보정하기 위한 캘이브레이션부가 더 구비될 수도 있다.
제어부(130)는 상기 센서 신호(관성 센서(110)의 직접 출력 또는 A/D 변환기(120)의 출력)에 따라 상기 핸드 헬드 기기의 움직임 방향을 해석하고, 상기 객체에 대하여 상기 움직임 방향으로 상기 핸드 헬드 기기의 뷰 프레임(view frame)을 이동시키는 명령을 생성한다. 상기 객체는 온라인 지도, 게임 상의 가상 공간, 뷰 프레임을 초과하는 이미지, 또는 다수의 메뉴 항목들 중 어느 하나일 수 있다.
데이터 저장부(140)는 상기 객체에 관한 데이터를 저장하고 있다가 제어부(130)의 요청에 의하여 필요한 데이터(즉, 뷰 프레임 내에 포함되는 객체의 일부에 관한 데이터)를 제어부(130)에 제공한다.
표시부(160)는 상기 명령에 따라 상기 이동된 뷰 프레임에 대응되는 상기 객체의 영역을 표시한다. 상기 표시부(160)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode), PDP(Plasma Display Panel), DLP(Digital Light Processing) 등 여하한 방식의 물리적 표시 장치를 포함할 수 있다.
키 입력부(150)는 사용자의 키 입력을 감지하여 키 입력 신호를 제어부(130)에 제공한다. 키 입력부(150)는 전술한 키들 또는 버튼들(32, 34, 39)을 포함할 수 있다. 한편, 표시부(160)는 상기 뷰 프레임의 내부의 일 지점(예: 중앙부)에 소정의 포인터(55, 56, 57 등)를 표시하며, 제어부(130)는 상기 키 입력 신호가 제공되면 상기 객체 중에서 상기 포인터의 위치에 해당되는 명령을 수행한다.
지금까지 도 8의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.
이상에서 설명한 바와 같이, 핸드 헬드 기기(100)의 움직임과 뷰 프레임의 움직임은 서로 대응되는 관계(예: 비례 관계)에 있을 수 있지만, 그것이 반드시 동일한 스케일을 가질 필요는 없다. 따라서, 적절한 스케일 인자에 의하여 핸드 헬드 기기(100)의 움직임에 대한 뷰 프레임의 움직임의 민감도(sensitivity)를 조절할 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 실제로 핸드 헬드 기기(100)의 움직임은 작게(92의 길이) 나타나지만, 이에 따른 뷰 프레임(50a, 50b)의 움직임은 크게(91의 길이) 나타나도록 할 필요가 있다. 특히, 뷰 프레임(50a, 50b)에 비하여, 객체(60)의 크기가 클수록 이러한 스케일 인자도 따라서 커지도록 하는 것이 바람직할 것이다.
도 9의 실시예는 가속도의 이중적분으로 구해지는 변위를 기준으로 뷰 프레임을 제어하는 것을 설명하였으나, 도 10에 도시된 바와 같이 가속도를 기준으로 뷰 프레임을 제어하는 것도 생각할 수 있다. 최초에 사용자가 핸드 헬드 기기(100)를 움직여서 좌측으로 소정의 임계치(제1 임계치)를 넘는 가속도(93)가 발생하면 사용자가 계속하여 핸드 헬드 기기(100)를 좌측으로 움직이지 않더라도 뷰 프레임은 좌측으로(94의 방향) 연속적으로 이동한다. 그 후, 포인터가 원하는 위치에 도달하여 사용자가 역 방향(우측 방향)으로 소정의 임계치(제2 임계치) 이상의 가속도(95)를 발생시키게 되면 뷰 프레임은 그 자리에서 정지한다. 그 후, 사용자가 우측 방향으로 다시 상기 제1 임계치를 넘는 가속도(96)를 발생시키면 상기 뷰 프레임은 우측으로(97의 방향) 연속적으로 이동하게 된다. 여기서, 상기 제1 임계치는 상기 제2 임계치보다 같거나 더 크도록 설정하는 것이 바람직하다. 요약하면, 도 10의 실시예는 핸드 헬드 기기(100)의 움직임 방향이 감지되면 상기 움직임 방향과 반대 방향의 움직임이 감지될 때까지 상기 움직임 방향으로 뷰 프레임을 이동시킨다는 것이다.
이상에서는 객체에 대한 뷰 프레임의 2차원적 움직임(2개의 직교하는 좌표축으로 이루어진 영역 내에서의 움직임)만을 설명하였으나, 상기 2차원적 움직임에 수직인 방향의 움직임을 포함한 3차원적인 움직임이 이루어지도록 할 수도 있는데, 도 11은 이에 관한 구체적인 예를 보여준다. 상기 2차원적 움직임이 객체의 영역(x, y 축에 의하여 정의되는 영역) 내에서의 수평 및 수직 이동에 해당한다면, 상기 영역과 수직인 방향으로의 움직임은 사용자의 직관을 기준으로 볼 때, 상기 객체의 줌인(zoom-in) 및 줌아웃(zoom-out) 에 해당한다. 즉, 사용자가 핸드 헬드 기기(100)를 뷰 프레임의 깊이 방향(Z 방향)으로 움직이면 객체에 대한 줌인 명령이 실행되고, 그 반대 방향으로 움직이면 줌아웃 명령이 실행되는 것이다. 이러한 줌인 및 줌아웃은 전술한 평면 상에서의 이동과 더불어 사용자의 직관의 범주 내에 속하므로 사용자의 조작성 향상에 추가적인 도움을 줄 수 있다.
한편, 본원 발명은 EPG(전자 프로그램 가이드)와 같은 다수의 선택 항목을 포함하는 객체에 적용될 수도 있다. 도 12를 참조하면, 사용자는 뷰 프레임(50)의 최초의 위치에서 좌상으로 이동하여 채널 "MBC" 중에서 "MBC 뉴스"에 포인터(55)를 위치시킨 후, 핸드 헬드 기기(100)의 특정 키를 눌러서 상기 "MBC 뉴스"에 해당하는 컨텐츠를 시청할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
50: 뷰 프레임 55: 포인터
60, 70: 객체 100: 핸드 헬드 기기
110: 관성 센서 120: A/D 변환기
130: 제어부 140: 데이터 저장부
150: 키 입력부 160: 표시부

Claims (14)

  1. 적어도 하나의 표시부를 구비하고 사용자의 명령을 입력받아 상기 표시부 상에 적어도 일부가 표시되는 객체를 탐색할 수 있는 핸드 헬드 기기에 있어서,
    상기 핸드 헬드 기기에 내장되어 상기 핸드 헬드 기기의 움직임에 대응되는 센서 신호를 출력하는 관성 센서;
    상기 센서 신호에 따라 상기 핸드 헬드 기기의 움직임 방향을 해석하고, 상기 객체에 대하여 상기 움직임 방향으로 상기 핸드 헬드 기기의 뷰 프레임(view frame)을 이동시키는 명령을 생성하는 제어부;
    상기 명령에 따라 상기 이동된 뷰 프레임에 대응되는 상기 객체의 영역을 표시하고 상기 뷰 프레임의 내부의 일 지점에 포인터를 표시하는 표시부; 및
    사용자의 키 입력을 감지하여 키 입력 신호를 상기 제어부에 제공하는 키 입력부
    를 포함하고,
    상기 제어부는 상기 키 입력 신호가 제공되면 상기 객체 중에서 상기 포인터의 위치에 해당되는 명령을 수행하는, 핸드 헬드 기기.
  2. 제1항에 있어서, 상기 관성 센서는
    가속도계, 자이로스코프 또는 상기 가속도계와 상기 자이로스코프의 조합인, 핸드 헬드 기기.
  3. 제1항에 있어서,
    상기 센서 신호의 크기와 상기 뷰가 이동되는 크기는 소정의 스케일 인자를 매개로 비례하는, 핸드 헬드 기기.
  4. 제1항에 있어서, 상기 객체는
    메뉴 또는 선택 객체를 포함하는 바탕화면, 온라인 지도, 게임 상의 가상 공간, 이미지 또는 다수의 메뉴 항목들 중 어느 하나인, 핸드 헬드 기기.
  5. 삭제
  6. 제1항에 있어서, 상기 포인터는
    상기 뷰 프레임이 이동되더라도 상기 뷰 프레임에 대하여 일정한 위치에 고정되어 있는, 핸드 핼드 기기.
  7. 제6항에 있어서, 상기 일정한 위치는
    상기 뷰 프레임의 중심 위치인, 핸드 헬드 기기.
  8. 제1항에 있어서, 상기 움직임 방향은
    상기 핸드 헬드 기기를 파지하는 공간상에 고정된 3개의 좌표축 중에서 적어도 2개의 좌표축이 형성하는 2차원 영역 내에 속하는, 핸드 헬드 기기.
  9. 제8항에 있어서, 상기 움직임 방향이
    상기 2차원 영역과 실질적으로 수직인 경우에는 상기 제어부는 상기 객체에 대한 줌인 또는 줌아웃 명령을 수행하는, 핸드 헬드 기기.
  10. 제1항에 있어서, 상기 제어부는
    상기 움직임 방향이 감지되면 상기 움직임 방향과 반대 방향의 움직임이 감지될 때까지 상기 움직임 방향으로 뷰 프레임을 이동시키는 명령을 생성하는, 핸드 헬드 기기.
  11. 적어도 하나의 표시부를 구비하는 핸드 헬드 기기에서, 사용자의 명령을 입력받아 상기 표시부 상에 적어도 일부가 표시되는 객체를 탐색하는 방법에 있어서,
    관성 센서로부터 상기 핸드 헬드 기기에 내장되어 상기 핸드 헬드 기기의 움직임에 대응되는 센서 신호를 입력 받는 단계;
    상기 센서 신호에 따라 상기 핸드 헬드 기기의 움직임 방향을 해석하는 단계;
    상기 객체에 대하여 상기 움직임 방향으로 상기 핸드 헬드 기기의 뷰 프레임을 이동시키는 명령을 생성하는 단계;
    상기 명령에 따라 상기 이동된 뷰 프레임에 대응되는 상기 객체의 영역을 표시하고 상기 뷰 프레임의 내부의 일 지점에 포인터를 표시하는 단계; 및
    사용자의 키 입력이 감지되면 상기 객체 중에서 상기 포인터의 위치에 해당되는 명령을 수행하는 단계를 포함하는 방법.
  12. 삭제
  13. 삭제
  14. 삭제
KR1020100057044A 2010-06-16 2010-06-16 표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법 KR101219292B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100057044A KR101219292B1 (ko) 2010-06-16 2010-06-16 표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100057044A KR101219292B1 (ko) 2010-06-16 2010-06-16 표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법

Publications (2)

Publication Number Publication Date
KR20110137050A KR20110137050A (ko) 2011-12-22
KR101219292B1 true KR101219292B1 (ko) 2013-01-18

Family

ID=45503476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100057044A KR101219292B1 (ko) 2010-06-16 2010-06-16 표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법

Country Status (1)

Country Link
KR (1) KR101219292B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191642A (ja) 2002-12-11 2004-07-08 Fuji Photo Film Co Ltd 画像表示装置
JP2007207228A (ja) 2006-02-01 2007-08-16 Memsic Inc 携帯装置用のエアーライティング及び動き検知入力
KR100853605B1 (ko) 2004-03-23 2008-08-22 후지쯔 가부시끼가이샤 핸드헬드 장치에서의 경사 및 평행 이동 운동 성분들의구별
KR20090113801A (ko) * 2009-06-02 2009-11-02 엘지전자 주식회사 움직임 센서를 장착한 이동 단말기 및 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191642A (ja) 2002-12-11 2004-07-08 Fuji Photo Film Co Ltd 画像表示装置
KR100853605B1 (ko) 2004-03-23 2008-08-22 후지쯔 가부시끼가이샤 핸드헬드 장치에서의 경사 및 평행 이동 운동 성분들의구별
JP2007207228A (ja) 2006-02-01 2007-08-16 Memsic Inc 携帯装置用のエアーライティング及び動き検知入力
KR20090113801A (ko) * 2009-06-02 2009-11-02 엘지전자 주식회사 움직임 센서를 장착한 이동 단말기 및 제어 방법

Also Published As

Publication number Publication date
KR20110137050A (ko) 2011-12-22

Similar Documents

Publication Publication Date Title
US10852913B2 (en) Remote hover touch system and method
US9007299B2 (en) Motion control used as controlling device
US9519350B2 (en) Interface controlling apparatus and method using force
RU2505848C2 (ru) Виртуальная тактильная панель
KR101892630B1 (ko) 터치 디스플레이 장치 및 그 디스플레이 방법
EP2676178B1 (en) Breath-sensitive digital interface
US8370772B2 (en) Touchpad controlling method and touch device using such method
US20110227947A1 (en) Multi-Touch User Interface Interaction
JP5659586B2 (ja) 表示制御装置および表示制御方法、表示制御プログラム、記録媒体
US9086741B2 (en) User input device
EP2538309A2 (en) Remote control with motion sensitive devices
US20120208639A1 (en) Remote control with motion sensitive devices
US20140145955A1 (en) Smart air mouse
US20130246955A1 (en) Visual feedback for highlight-driven gesture user interfaces
US20060061550A1 (en) Display size emulation system
KR20190039521A (ko) 호버를 사용한 디바이스 조작
KR20130030727A (ko) 힘을 이용한 인터페이스 제어 장치 및 방법
KR20160097410A (ko) 동작 인식을 통한 비접촉식 입력 인터페이스 제공 방법 및 그 장치
EP2538308A2 (en) Motion-based control of a controllled device
WO2014178039A1 (en) Scrolling electronic documents with a smartphone
JP2011081447A (ja) 情報処理方法及び情報処理装置
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
KR101219292B1 (ko) 표시부를 구비한 핸드 헬드 기기 및 상기 표시부에 표시되는 객체를 탐색하는 방법
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
KR101602167B1 (ko) 손목 움직임 기반 가상현실 메뉴 제어 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151001

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160923

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190926

Year of fee payment: 8