KR101383840B1 - 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법 - Google Patents

리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법 Download PDF

Info

Publication number
KR101383840B1
KR101383840B1 KR1020110120339A KR20110120339A KR101383840B1 KR 101383840 B1 KR101383840 B1 KR 101383840B1 KR 1020110120339 A KR1020110120339 A KR 1020110120339A KR 20110120339 A KR20110120339 A KR 20110120339A KR 101383840 B1 KR101383840 B1 KR 101383840B1
Authority
KR
South Korea
Prior art keywords
zoom
user
input unit
remote controller
touch
Prior art date
Application number
KR1020110120339A
Other languages
English (en)
Other versions
KR20130054759A (ko
Inventor
송병륜
최낙의
Original Assignee
도시바삼성스토리지테크놀러지코리아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 도시바삼성스토리지테크놀러지코리아 주식회사 filed Critical 도시바삼성스토리지테크놀러지코리아 주식회사
Priority to KR1020110120339A priority Critical patent/KR101383840B1/ko
Priority to US13/670,619 priority patent/US20130127731A1/en
Priority to CN2012104654354A priority patent/CN103218149A/zh
Publication of KR20130054759A publication Critical patent/KR20130054759A/ko
Application granted granted Critical
Publication of KR101383840B1 publication Critical patent/KR101383840B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Selective Calling Equipment (AREA)
  • Details Of Television Systems (AREA)

Abstract

리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법이 개시된다. 개시된 리모트 컨트롤러는 전자기기를 제어하는 것으로서, 사용자의 방향 조작을 입력받는 방향 입력부와, 사용자의 방향 조작에 의해 선택된 객체를 확인하는 확인 버튼과, 사용자의 줌 조작을 입력받는 줌 입력부를 포함하는 입력부; 입력부에 입력되는 조작에 대응되는 제어명령을 생성하는 것으로, 줌 입력부에 입력되는 사용자의 줌 조작에 따라 줌-아웃 명령 혹은 줌-인 명령을 생성하는 제어명령 생성부; 및 제어명령 생성부로부터의 제어명령을 전자기기로 전송하는 컨트롤러측 통신부;를 포함한다.

Description

리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법{Remote controller, system and method for controlling by using the remote controller}
본 개시는 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법에 관한 것으로, 보다 상세하게는 사용자의 사용 태양을 반영한 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법에 관한 것이다.
리모트 컨트롤러(remote control)는 텔레비전, 라디오, 오디오와 같은 전자기기의 원격 운영에 쓰이는 장치이다. 통상적인 리모트 컨트롤러에는 몇가지 기능키들(예를 들어, 채널숫자, 볼륨키, 전원키 등)이 마련되어, 기능키들을 조작함으로써 전자기기를 제어한다.
최근 블루레이 플레이어나, 멀티미디어 플레이어, 셋톱박스 등와 같은 전자기기에 인터넷, 게임, 소셜네트워킹서비스와 같은 스마트 기능이나 그밖의 여러 복합 기능이 탑재되면서, 이러한 전자기기를 제어하는 리모트 컨트롤러에 다양한 입력이 가능할 것을 요구받고 있다. 이에 따라, 일부 리모트 컨트롤러의 경우, 다양한 입력을 위하여 좀 더 많은 키버튼을 추가하는 방식, 키버튼의 밀도를 증가시키는 방식, 키버튼의 기능을 오버로딩하는 방식, 또는 복잡한 메뉴 시스템을 사용하는 방식 등을 채용하여 왔다. 그런데, 이러한 종래의 리모트 컨트롤러의 사용자 인터페이스는 리모트 컨트롤러의 좁은 공간에 너무 많은 키버튼을 사용하거나 사용자가 암기해야만 하는 복잡한 키 입력 순서와 메뉴체계에 의존하게 된다.
사용자의 사용 태양을 반영하여, 사용자로 하여금 전자기기와 용이하게 상호 작용할 수 있게 하는 사용자 인터페이스를 제공하면서 제조 비용을 저감시킬 수 있는 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법을 제공하자고 한다.
본 발명의 한 측면에 따르는 리모트 컨트롤러는 전자기기를 제어하는 것으로서, 사용자의 방향 조작을 입력받는 방향 입력부와, 사용자의 방향 조작에 의해 선택된 객체를 확인하는 확인 버튼과, 사용자의 줌 조작을 입력받는 줌 입력부를 포함하는 입력부; 입력부에 입력되는 조작에 대응되는 제어명령을 생성하는 것으로, 줌 입력부에 입력되는 사용자의 줌 조작에 따라 줌-인 명령 혹은 줌-아웃 명령을 생성하는 제어명령 생성부; 및 제어명령 생성부로부터의 제어명령을 전자기기로 전송하는 컨트롤러측 통신부;를 포함한다.
방향 입력부는 모션 센서를 포함하며, 사용자의 방향 조작은 리모트 컨트롤러 자체의 움직임으로 이루어질 수 있다.
제어명령 생성부는 모션 센서에 의해 검출된 리모트 컨트롤러의 움직임에 상응하여 전자기기의 디스플레이부에 표시되는 지시자를 움직이게 하는 제어 명령을 생성할 수 있다.
확인 버튼은 사용자의 누름 조작을 입력받으며, 제어명령 생성부는 확인 버튼에서 입력된 사용자의 누름 조작에 대응하여 전자기기의 디스플레이부에 표시된 객체를 활성화 혹은 실행시키는 명령을 생성할 수 있다.
확인 버튼은 리모트 컨트롤러의 전면의 상단 또는 중상단에 배치될 수 있다. 또한, 줌 입력부는 확인 버튼의 하단에 인접하게 배치될 수 있다. 이때, 줌 입력부는 직사각형 혹은 부채꼴 형상의 터치 패드일 수 있다. 또는 줌 입력부는 직선 또는 호 형상의 복수의 터치센서들을 포함할 수 있다. 복수의 터치센서들은 등간격 혹은 서로 다른 간격으로 이격되어 배열될 수 있다.
줌 입력부는 확인 버튼의 둘레에 배치되는 방향키들로 이루어질 수도 있다. 이 경우, 방향키들은 방향 입력부의 기능을 함께 수행할 수도 있다.
줌 입력부는 사용자의 터치의 방향을 검출하며, 제어명령 생성부는 줌 입력부에서 검출되는 사용자의 터치의 방향이 상방으로 향할 때 줌-아웃 명령을 생성하고, 줌 입력부에서 검출되는 사용자의 터치의 방향이 하방으로 향할 때 줌-인 명령을 생성할 수 있다. 초기 설정의 변경을 통해 제어명령 생성부에서 생성되는 줌-아웃 명령과 줌-인 명령을 뒤바꿀 수도 있다.
줌 입력부는 사용자의 터치의 속도 또는 사용자의 터치 범위를 검출하며, 제어명령 생성부는 줌 입력부에서 검출되는 사용자의 터치의 속도 또는 사용자의 터치 범위에 대응되는 크기로 줌-인 또는 줌-아웃 명령을 생성할 수도 있다.
본 발명의 다른 측면에 따르는 제어 시스템은 리모트 컨트롤러 및 리모트 컨트롤러의 조작에 의해 줌-아웃 혹은 줌-인되는 객체를 표시하는 디스플레이부를 구비한 전자기기를 포함하는 것으로서, 리모트 컨트롤러는 사용자의 방향 조작을 입력받는 방향 입력부와, 사용자의 방향 조작에 의해 선택된 객체를 확인하는 확인 버튼과, 사용자의 줌 조작을 입력받는 줌 입력부를 포함하는 입력부; 입력부에 입력되는 조작에 대응되는 제어명령을 생성하는 것으로, 줌 입력부에 입력되는 사용자의 줌 조작에 따라 줌-아웃 명령 혹은 줌-인 명령을 생성하는 제어명령 생성부; 및 제어명령 생성부로부터의 제어명령을 전자기기로 전송하는 컨트롤러측 통신부;를 포함한다.
본 발명의 또 다른 측면에 따르는 리모트 컨트롤러를 이용하여 전자기기를 제어하는 방법은 전자기기의 디스플레이부에 객체들을 표시하는 단계; 리모트 컨트롤러를 조작하여 객체들 중 어느 하나의 객체를 선택하는 단계; 및 사용자의 줌 조작을 입력받아 선택된 객체를 줌-인 또는 줌-아웃하는 제어명령을 발생하는 단계;를 포함한다.
사용자의 줌 조작은, 사용자가 한 손으로 리모트 컨트롤러를 쥔 상태에서 엄지손가락을 움직일 때 리모트 컨트롤러의 전면에 마련된 줌 입력부에 터치하는 조작일 수 있다.
줌 입력부에서 검출되는 사용자의 터치의 방향이 상방으로 향할 때 줌-아웃 명령을 생성하고, 줌 입력부에서 검출되는 사용자의 터치의 방향이 하방으로 향할 때 줌-인 명령을 생성할 수 있다. 이때, 초기 설정의 변경을 통해 제어명령 생성부에서 생성되는 줌-아웃 명령과 줌-인 명령을 뒤바꿀 수도 있다.
본 발명의 또 다른 측면에 따르는 리모트 컨트롤러를 이용한 전자기기의 제어 방법은 사용자의 터치의 속도 또는 사용자의 터치 범위를 검출하는 단계; 및 사용자의 터치의 속도 또는 사용자의 터치 범위에 대응되는 크기로 줌-인 또는 줌-아웃 명령을 생성하는 단계;를 더 포함할 수 있다.
개시된 실시예에 의한 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법은 스크린에 표시되는 객체의 줌-아웃 및 줌-인을 직관적이고 용이하게 제어할 수 있게 한다.
도 1은 일 실시예에 따른 제어 시스템을 개략적으로 도시한다.
도 2는 도 1의 제어 시스템의 개략적인 블록도를 도시한다.
도 3은 도 1의 제어 시스템에 사용되는 리모트 컨트롤러의 일 예를 개략적으로 도시한다.
도 4는 도 1의 제어 시스템에서 리모트 컨트롤러의 확인 조작의 일 예를 도시한다.
도 5는 도 1의 제어 시스템에서 리모트 컨트롤러의 줌-아웃 및 줌-인 조작의 일 예를 도시한다.
도 6은 도 5의 리모트 컨트롤러의 조작에서, 사용자의 오른손 조작의 일 예를 도시한다.
도 7은 도 5의 리모트 컨트롤러의 조작에서, 사용자의 왼손 조작의 일 예를 도시한다.
도 8은 도 1의 제어 시스템에서 제어방법의 일 예를 설명하는 흐름도이다.
도 9는 도 1의 제어 시스템에서 제어방법의 다른 예를 설명하는 흐름도이다.
도 10은 도 1의 제어 시스템에서 제어방법의 또 다른 예를 설명하는 흐름도이다.
도 11은 도 1의 제어 시스템에 사용되는 리모트 컨트롤러의 다른 예를 개략적으로 도시한다.
도 12는 도 1의 제어 시스템에 사용되는 리모트 컨트롤러의 또 다른 예를 개략적으로 도시한다.
도 13은 도 1의 제어 시스템에 사용되는 리모트 컨트롤러의 또 다른 예를 개략적으로 도시한다.
도 14는 도 1의 제어 시스템에 사용되는 리모트 컨트롤러의 또 다른 예를 개략적으로 도시한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 각 구성요소의 크기나 두께는 설명의 명료성을 위하여 과장되어 있을 수 있다.
도 1은 일 실시예에 따른 제어 시스템을 개략적으로 도시하며, 도 2는 도 1의 제어 시스템의 개략적인 블록도를 도시한다. 도 3은 도 1의 제어 시스템에 사용되는 리모트 컨트롤러의 일 예를 개략적으로 도시한다.
도 1 내지 도 3을 참조하면, 본 실시예의 제어 시스템(100)은 전자기기(110)과 이를 제어하는 리모트 컨트롤러(120)를 포함한다.
도 1 내지 도 3을 참조하면, 전자기기(110)는 디스플레이부(111), 외부로부터 데이터를 입력받는 데이터 입력부(112), 입력되는 데이터를 처리하는 신호처리부(113), 리모트 컨트롤러(120)와 통신하는 호스트 통신부(114), 및 제어부(115)을 포함할 수 있다. 이러한 전자기기(110)는 스마트 텔레비전일 수 있다. 또는 전자기기(110)는 블루레이 플레이어, 멀티미디어 플레이어, 셋톱박스, 퍼스널 컴퓨터, 게임콘솔 등과 같은 기기에 디스플레이부(111)가 외장 또는 내장되어 있는 멀티미디어 장치일 수도 있다.
디스플레이부(111)는 액정패널, 유기발광패널 등과 같은 화상패널을 포함하며, 컨텐츠를 표시하거나 그래픽 사용자 인터페이스를 표시한다.
데이터 입력부(112)는 디스플레이부(111)에서 디스플레이되는 컨텐츠 등의 데이터를 입력받는 인터페이스로서 범용 직렬 버스(Universal Serial Bus, USB), 파타(Parallel Advanced Technology Attachment, PATA) 또는 사타(Serial Advanced Technology Attachment, SATA), 플래쉬 미디어(Flash Media), 이더넷(Ethernet), 와이파이(Wi-Fi), 블루투스(Bluetooth)) 중 적어도 하나를 포함할 수 있다. 경우에 따라서는, 전자기기(110)는 광디스크드라이브와 같은 정보저장장치(미도시)를 구비하여 이를 통해 데이터를 입력받을 수도 있다.
신호처리부(113)는 전자기기(110)의 운영체계에 기반한 사용자 인터페이스를 제공하고 데이터 입력부(112)를 통해 입력된 데이터를 디코딩할 수 있다. 가령, 신호처리부(113)는 사진, 동영상, 지도, 또는 텍스트와 같은 콘텐츠나 각종 어플리케이션 아이콘들(application icons)을 디스플레이부(111)에 표시하고 사용자의 선택에 의해 실행가능하도록 하는 그래픽 사용자 인터페이스(Graphic User Interface; GUI)를 제공할 수 있다.
호스트 통신부(114)는 리모트 컨트롤러(120)로부터 제어명령을 수신한다. 호스트 통신부(114)로는 적외선 통신 모듈, 전파 통신 모듈, 광학식 통신 모듈 등의 공지의 통신 모듈이 사용될 수 있다. 가령, 적외선 통신 표준인 IrDA (Infrared Data Association) 프로토콜을 만족하는 적외선 통신 모듈이 호스트 통신부(114)로 사용될 수 있을 것이다. 또 다른 예로, 2.4GHz 주파수를 이용한 통신 모듈이나 블루투스(Bluetooth)를 이용한 통신 모듈이 호스트 통신부(114)로 사용될 수도 있을 것이다.
제어부(115)는 호스트 통신부(114)를 통해 수신된 제어명령에 따라 전자기기(110)의 각 요소, 즉 디스플레이부(111), 데이터 입력부(112), 신호처리부(114), 호스트 통신부(114) 등을 제어한다.
리모트 컨트롤러(120)는 입력부(121), 제어신호 생성부(122), 및 컨트롤러측 통신부(123)를 포함할 수 있다. 리모트 컨트롤러(120)의 외형은 본 실시예를 제한하지 않는다. 가령, 리모트 컨트롤러(120)의 외형은 도 1에 도시되듯이 단순한 바(bar) 형상이거나, 혹은 유선형 형상일 수 있다.
입력부(121)는 방향 입력부(1211)와, 확인 버튼(1212)과, 줌(zoom) 입력부(1213)를 포함한다.
방향 입력부(1211)는 2축 또는 3축 관성 센서와 같은 리모트 컨트롤러(120)의 움직임을 감지하는 모션 센서일 수 있다. 이러한 방향 입력부(1211)의 모션 센서는 리모트 컨트롤러(120)의 내부에 내장되어 있을 수 있다. 방향 입력부(1211)는 전자기기(110)의 디스플레이부(110)에 표시된 객체들 중 어느 한 객체(도 4의 131)를 가르키는 사용자의 방향 조작을 입력받는다.
확인 버튼(1212)는 사용자의 누름과 같은 확인 조작을 입력받아 전자기기의 디스플레이부에 표시된 객체(131)를 확인하는 제어신호를 발생한다. 확인 버튼(1212)은 기계식 키 버튼 혹은 터치 센서일 수 있다. 확인 버튼(1212)는 사용자가 리모트 컨트롤러(120)를 한 손으로 잡았을 때, 엄지 손가락이 자연스럽게 위치하는 지점에 배치될 수 있다(도 6 또는 도 7 참조). 가령, 확인 버튼(1212)은 리모트 컨트롤러(120)의 전면의 상단 또는 중상단에 배치될 수 있다. 확인 버튼(1212)이 이와 같이 리모트 컨트롤러(120)의 전면의 상단 또는 중상단에 배치됨에 따라, 사용자가 리모트 컨트롤러(120)를 한손 파지한 경우, 자연스럽게 펼쳐진 엄지손가락의 끝단이 확인 버튼(1212)에 위치하게 된다.
줌 입력부(1213)는 사용자의 줌(zoom) 조작을 입력받아 전자기기(110)의 디스플레이부(111)에 표시된 객체를 줌-인 또는 줌-아웃하는 제어신호를 발생한다. 줌 입력부(1213)는 도 3에 도시되듯이 확인 버튼(1212)의 하단에 위치하는 직사각형 형상의 터치 패드일 수 있다. 터치 패드는 손가락으로 대는 것으로 마우스 포인터의 조작을 하는 공지된 포인팅 장치의 하나이다. 이러한 터치 패드는 예를 들어, 두 층으로 이루어진 도선이, 한 층에는 횡 방향으로, 다른 층에는 종 방향으로 뻗어, 격자형으로 겹쳐져있고, 두 층의 사이는 부도체로 채워진 매트릭스 구조를 가질 수 있다. 본 실시예의 줌 입력부(1213)로는 고가의 멀티 터치 패드뿐만 아니라 저가의 싱글 터치 패드가 사용될 수 있다. 이러한 터치 패드 타입의 줌 입력부(1213)는 사용자의 손가락의 터치를 감지할 뿐만 아니라, 사용자 손가락의 움직임이 상방을 향하는지 혹은 하방을 향하는지도 검출할 수 있다.
필요에 따라서는 줌 입력부(1213)는 사용자 손가락의 움직임 범위(즉, 사용자 손가락이 줌 입력부(1213)의 터치된 영역)까지 검출할 수 있다. 또는 필요에 따라서는 줌 입력부(1213)는 사용자 손가락의 움직임의 속도를 검출할 수도 있다. 즉, 줌 입력부(1213)는 사용자 손가락의 터치 감지에 대해 공간분해능 또는 시간분해능을 가질 수도 있다. 전술한 터치 패드가 이러한 공간분해능이나 시간분해능을 가진다는 점은 당업자에게 잘 알려져 있다.
입력부(121)는 사용자의 사용빈도가 높은 키들을 추가적으로 더 구비할 수 있다. 가령, 전자기기(110)의 전원을 온-오프하는 전원키(1214)가 리무트 컨트롤러(120)의 전면 상단의 귀퉁이에 마련될 수 있다. 또한, 메인 사용자 인터페이스로 되돌아가도록 하는 홈(home) 버튼(1215a)이나, 바로 직전의 사용자 인터페이스로 돌아가게 하는 백(back) 버튼(1215b) 등을 포함하는 기능키(1215)을 포함할 수 있다. 이러한 기능키(1215)는 사용자의 손가락의 움직임을 고려하여 줌 입력부(1213)의 하단에 배치될 수 있다. 나아가 전자기기(110)가 블루레이 플레이어나 멀티미디어 플레이어인 경우, 되돌아가기(reward) 버튼(1216a), 플레이 버튼(1216b), 앞으로가기(forward) 버튼(1216c)와 같은 플레이어 전용키(1216)를 추가적으로 구비할 수도 있을 것이다. 이러한 플레이어 전용키(1216)은 예를 들어, 리모트 컨트롤러(120)의 전면의 최하단에 배치될 수 있을 것이다. 상기와 같은 전원키(1214)나, 기능키(1215)나, 플레이어 전용키(1216)는 예시일 뿐이며, 본 발명을 한정하는 것은 아니다.
제어신호 생성부(122)는 입력부(121)에서 발생되는 신호들에 대응되는 제어명령을 생성한다.
컨트롤러측 통신부(123)는 제어명령 생성부(122)에서 생성된 제어명령을 전자기기(110)로 전송한다. 컨트롤러측 통신부(123)는 호스트 통신부(114)와 상응하는 것으로서, 적외선 통신 모듈, 전파 통신 모듈, 광학식 통신 모듈 등의 공지의 통신 모듈이 사용될 수 있다.
다음으로 본 실시예의 제어 시스템(100)의 제어 방법을 설명한다.
도 4는 도 1의 제어 시스템(100)에서 리모트 컨트롤러(120)의 확인 조작의 일 예를 도시한다.
도 4를 참조하면, 전자기기(110)의 디스플레이부(111)에는 객체(131)가 표시되어 있다. 객체(131)는 사진, 동영상, 지도, 또는 텍스트와 같은 콘텐츠 혹은 그래픽 사용자 인터페이스를 구성하는 어플리케이션 아이콘일 수 있다. 또한, 디스플레이부(111)에는 사용자의 방향 조작에 따라 움직이는 지시자(132)가 표시된다. 전술한 바와 같이 리모트 컨트롤러(120) 내부에는 방향 입력부(1211)가 내장되어 있어, 리모트 컨트롤러(120)의 움직임(133)을 검출할 수 있다. 제어명령 생성부(122)는 리모트 컨트롤러(120)의 움직임(133)에 대응되는 제어명령을 생성하고, 컨트롤러측 통신부(123)는 생성된 제어명령을 전자기기(110)로 전달한다. 전자기기(110)의 제어부(115)는 전달된 제어명령에 기초하여 디스플레이부(111)에 표시되는 지시자(132)의 움직임(134)을 구현한다. 즉, 사용자는 리모트 컨트롤러(120) 자체를 움직임(133)으로서 지시자(132)를 움직여 선택하고자 하는 객체(131)를 가르킬 수 있게 되므로, 사용자의 시각과 시용자의 촉각을 일치시킨 상태로 전자기기(110)를 제어할 수 있다.
사용자는 리모트 컨트롤러(120)의 확인 버튼(1212)을 엄지 손가락으로 누름으로써 지시자(132)가 가르키는 객체(131)를 확인할 수 있다. 이때, 확인이라 함은 해당 객체(131)의 활성화 혹은 해당 객체(131)의 실행일 수 있다. 객체(131)의 활성화라 함은 해당 객체(131)가 실행될 준비 상태에 놓이는 것을 의미한다. 객체(131)를 표시하는 색상이 반전되거나 약간 확대됨으로써 활성화상태를 표시할 수 있다. 한편, 실행이라 함은 해당 객체(131)가 콘텐츠인 경우 콘텐츠를 플레이하는 것을 의미하며 해당 캑체(131)가 어플레이케이션 아이콘인 경우 어플리케이션의 실행을 의미한다.
도 4를 참조하여 설명한 리모트 컨트롤러(120)의 조작은 객체(131)를 선택하는데 그치며, 선택된 객체(131)를 줌-인 또는 줌-아웃하는 명령을 입력하기에 다소 곤란하다. 이에 본 실시예의 제어 시스템(100)은 도 5 내지 도 11을 참조하는 예들에서와 같이 선택된 객체(131)를 줌-인 또는 줌-아웃하는 조작을 가능하게 한다.
도 5는 도 1의 제어 시스템(100)에서 리모트 컨트롤러(120)의 조작의 다른 예를 도시하며. 도 6은 도 5의 리모트 컨트롤러의 조작에서, 사용자의 손가락의 움직임의 구체적인 모습을 도시한다.
도 5 및 6을 참조하면, 본 실시예의 리모트 컨트롤러(120)는 사용자가 오른손(RH)으로 리모트 컨트롤러(120)를 잡은 상태에서 왼손의 관여없이 오른손(RH)만으로 해당 객체(131)를 줌-인 또는 줌-아웃(137)하는 조작할 수 있게 한다. 가령, 사용자는 오른손(RH)으로 리모트 컨트롤러(120)를 잡은 상태에서 오른손(RH)의 엄지 손가락을 상부로 밀어올리는 동작(135a)으로써 해당 객체(131)를 줌-아웃하는 조작을 할 수 있다. 또한, 사용자는 오른손(RH)으로 리모트 컨트롤러(120)를 잡은 상태에서 오른손(RH)의 엄지 손가락을 하부로 당기는 동작(135b)으로써 해당 객체(131)를 줌-인하는 조작을 할 수 있다.
엄지 손가락의 밀어올리는 동작(135a) 또는 당기는 동작(135b)에 있어서, 엄지 손가락이 줌 입력부(1213)에 맞닿는 터치 부분은 호 형상으로 곡선을 따라 움직이는 것이 자연스러울 것이다. 따라서, 제어명령 생성부(122)는 줌 입력부(1213)에서 검출되는 엄지 손가락의 움직임의 방향뿐만 아니라 엄지손가락의 터치 부분이 그리는 궤적(이하, 터치 궤적)이 소정 곡률로 곡선을 이루는 것인지 여부를 판단하여, 줌 입력부(1213)에 입력되는 신호가 줌-인 혹은 줌-아웃의 신호인지를 판단할 수도 있다. 즉, 제어명령 생성부(122)는 줌 입력부(1213)에서 검출되는 터치 궤적이 소정 곡률보다 작게 되면, 비정상적인 입력으로 간주하여 줌-인 혹은 줌-아웃의 신호를 생성하지 않을 수 있을 것이다. 경우에 따라서는 제어명령 생성부(122)는 줌 입력부(1213)에서 검출되는 터치 궤적이 소정 곡률보다 큰 경우에도 비정상적인 입력으로 간주하여 줌-인 혹은 줌-아웃의 신호를 생성하지 않을 수 있을 것이다.
도 7은 도 5의 리모트 컨트롤러(120)의 조작에서, 사용자가 왼손(LH)으로 리모트 컨트롤러(120)를 잡은 상태에서 오른손의 관여없이 왼손(LH)의 엄지손가락의 움직임(135')만으로 해당 객체(131)를 줌-인 또는 줌-아웃하는 조작하는 경우를 도시한다. 즉, 사용자는 왼손(LH)의 엄지 손가락을 상부로 밀어올리는 동작(135'a)으로써 해당 객체(131)를 줌-아웃하거나 왼손(LH)의 엄지 손가락을 하부로 당기는 동작(135'b)으로써 해당 객체(131)를 줌-인하는 조작을 할 수 있다.
종래의 사용자 인터페이스의 일 예에서는 사용자가 리모트 컨트롤러로 해당 객체(131)를 줌-아웃 혹은 줌-인하기 위해서 다단계의 메뉴를 선택하는 번거로움이 있었다. 종래의 사용자 인터페이스의 다른 예에서는 사용자가 터치 스크린에 손가락 두 개를 대고 펼치는 동작을 취하여 줌-아웃 조작을 하거나 역으로 손가락 두 개를 오므리는 동작을 취하여 줌-인 조작을 하였는데, 이러한 방식을 리모트 컨트롤러에 적용하게 되면 리모트 컨트롤러의 제조비용이 상승하게 될 뿐만 아니라, 한손 조작이 매우 곤란하다. 종래의 사용자 인터페이스의 또 다른 예에서는 스크롤 버튼(scroll button)이 마련되어 사용자가 스크롤 버튼을 조작하여 줌-인 또는 줌-아웃 조작을 하였는데, 이러한 스크롤 버튼은 스마트폰등에서 제공되는 그래픽 사용자 인터페이스와는 상이하므로, 동일한 사용자 환경을 원하는 사용자에게 불편함을 주게 된다.
본 실시예의 리모트 컨트롤러(120)는 줌 입력부(1213)를 통하여 객체(131)의 줌-인 또는 줌-아웃 조작을 매우 직관적으로 가능하게 하며, 스마트폰등에서 제공되는 그래픽 사용자 인터페이스를 그대로 이용할 수 있어, 동일한 사용자 환경을 원하는 사용자에게 사용자 편의성을 증대시킬 수 있다.
도 8은 도 1의 제어 시스템(100)에서 제어방법의 일 예를 설명하는 흐름도이다.
전자기기(110)는 객체(131)를 디스플레이부(111)에 표시한다.
사용자는 리모트 컨트롤러(120)를 움직여 디스플레이부(111)에 표시되는 지시자(132)를 움직인다. 지시자(132)를 줌-아웃 혹은 줌-인하고자 하는 객체(131)에 놓음으로서 해당 객체(131)를 선택한다(S110). 경우에 따라서는 사용자는 리모트 컨트롤러(120)의 확인 버튼(1212)을 눌러 지사자(132)가 가르키는 객체(131)를 활성화시킬 수도 있다.
다음으로 사용자는 엄지 손가락을 줌 입력부(1213)상에 터치된 상태로 스쳐 지나가게 한다. 줌 입력부(1213)는 사용자의 엄지 손가락 움직임(즉, 엄지 손가락의 터치 및 움직이는 방향)을 검출하고, 사용자의 엄지 손가락 움직임에 대응되는 신호를 제어명령 생성부(122)로 전달한다(S120).
제어명령 생성부(122)는 사용자의 엄지 손가락 움직임이 상방인지 혹은 하방인지를 판단하고, 사용자의 엄지 손가락 움직임의 방향에 따라 줌-아웃 명령 혹은 줌-인 명령을 생성한다(S130). 사용자의 엄지 손가락 움직임의 방향에 따른 줌-아웃 명령 혹은 줌-인 명령의 결정은 미리 정해진 설정에 의해 결정될 수 있다. 가령, 제어명령 생성부(122)는, 사용자의 엄지 손가락 움직임이 상방으로 판단되는 경우에는 지시자(132)가 가르키는 객체(131)를 줌-아웃시키는 줌-아웃 명령을 생성하고, 사용자의 엄지 손가락 움직임이 하방으로 판단되는 경우에는 지시자(132)가 가르키는 객체(131)를 줌-인시키는 줌-인 명령을 생성한다. 이러한 줌-아웃 명령 혹은 줌-인 명령은 사용자의 선택에 의해 설정을 바꿈으로써 뒤바뀔 수도 있다.
제어명령 생성부(122)에서 생성된 줌-아웃 명령 혹은 줌-인 명령은 전자기기(110)로 전달되어 디스플레이부(111)에서 지사자(132)가 가르키는 객체(131)를 줌-아웃하거나 혹은 줌-인한다(S140).
한편, 상기와 같은 객체(131)의 줌-아웃 혹은 줌-인 조작에 있어서, 객체(131)의 줌-아웃 혹은 줌-인되는 정도의 결정은 엄지 손가락이 줌 입력부(1213)를 스쳐 지나가는 횟수로 결정될 수 있다. 가령, 엄지 손가락이 줌 입력부(1213)를 일회 스쳐 지나갈 때, 객체(131)의 줌-아웃 혹은 줌-인을 기설정된 크기로 일 회 실행할 수 있을 것이다. 엄지 손가락이 줌 입력부(1213)를 다수 회 스쳐 지나가면, 객체(131)의 줌-아웃 혹은 줌-인의 실행이 기설정된 크기로 다수 회 반복되면 이루어질 수 있다.
도 9는 도 1의 제어 시스템(100)에서 제어방법의 다른 예를 설명하는 흐름도이다.
도 9를 참조하면, 사용자는 리모트 컨트롤러(120)를 움직여 객체(131)를 선택한다(S210). 줌 입력부(1213)는 엄지 손가락의 움직임을 검출함(S220)과 동시에 엄지 손가락 움직임의 범위도 검출한다(S230). 제어명령 생성부(122)는 줌 입력부(1213)에서 검출된 엄지 손가락의 움직임의 범위에 대응되는 줌-아웃 혹은 줌-인의 크기를 결정한다(S240). 엄지 손가락의 움직임의 범위에 대응되는 줌-아웃 혹은 줌-인의 크기의 관계는 기설정되어 미도시된 메모리에 룩업테이블(lookup table)로 저장되어 있을 수 있다. 아울러, 제어명령 생성부(122)는 줌 입력부(1213)에서 검출된 엄지 손가락의 움직임 방향에 대응되는 줌-아웃 명령 혹은 줌-인 명령을 생성한다(S250). 제어명령 생성부(122)에서 생성된 줌-아웃 명령 혹은 줌-인 명령은 전자기기(110)로 전달되어 디스플레이부(111)에 표시된 객체(131)를 사용자가 선택한 크기로 줌-아웃하거나 혹은 줌-인한다(S260). 디스플레이부(111)는 객체(131)의 줌-아웃 혹은 줌-인을 사용자의 터치와 실시간으로 연동되게 실행하여, 사용자가 줌 입력부(1213)를 엄지손가락으로 터치를 할 때 손가락 터치의 범위를 직관적으로 결정하게 할 수도 있다.
도 10은 도 1의 제어 시스템(100)에서 제어방법의 또 다른 예를 설명하는 흐름도이다.
도 10을 참조하면, 사용자는 리모트 컨트롤러(120)를 움직여 객체(131)를 선택한다(S310). 줌 입력부(1213)는 엄지 손가락의 움직임을 검출함(S320)과 동시에 엄지 손가락 움직임의 속도도 검출한다(S330). 제어명령 생성부(122)는 줌 입력부(1213)에서 검출된 엄지 손가락의 움직임의 속도에 대응되는 줌-아웃 혹은 줌-인의 크기를 결정한다(S340). 가령, 사용자의 엄지 손가락의 움직임의 속도가 빠른 경우 객체(131)의 줌-아웃/줌-인의 크기를 크다고 판단하고, 사용자의 엄지 손가락의 움직임의 속도가 느린 경우 객체(131)의 줌-아웃/줌-인의 크기를 작다고 판단할 수 있다. 엄지 손가락의 움직임의 속도에 대응되는 줌-아웃 혹은 줌-인의 크기의 관계는 기설정되어 미도시된 메모리에 룩업테이블로 저장되어 있을 수 있다. 아울러, 제어명령 생성부(122)는 줌 입력부(1213)에서 검출된 엄지 손가락의 움직임 방향에 대응되는 줌-아웃 명령 혹은 줌-인 명령을 생성한다(S350). 제어명령 생성부(122)에서 생성된 줌-아웃 명령 혹은 줌-인 명령은 전자기기(110)로 전달되어 디스플레이부(111)에 표시된 객체(131)를 사용자가 선택한 크기로 줌-아웃하거나 혹은 줌-인한다(S360). 객체(131)의 줌-아웃 혹은 줌-인을 사용자의 터치와 실시간으로 연동되게 실행하여, 사용자가 줌 입력부(1213)를 엄지손가락으로 터치를 할 때 손가락의 움직임 속도를 직관적으로 결정하게 할 수도 있다.
전술한 실시예에서 리모트 컨트롤러(120)의 줌 입력부(122)는 직사각형 형태의 터치 패드를 예로 들어 설명하고 있으나, 이에 한정되지 않는다.
도 11은 도 1의 제어 시스템(100)에 사용될 수 있는 리모트 컨트롤러의 다른 예를 개략적으로 도시한다.
도 11을 참조하면, 본 실시예의 리모트 컨트롤러(220)는 입력부(221)의 줌 입력부(2213)가 부채꼴 형상의 터치 패드라는 점을 제외하고는 전술한 실시예와 실질적으로 동일하다. 사용자가 리모트 컨트롤러(220)를 쥔 상태로 엄지손가락을 줌 입력부(2213)에 터치하게 되면, 엄지손가락의 관절을 중심으로 호 형상을 그리게 될 것이다. 이러한 사용자의 사용 태양을 반영하여 줌 입력부(2213)를 부채꼴 형상으로 형성할 수 있다.
도 12는 도 1의 제어 시스템에 사용되는 리모트 컨트롤러의 또 다른 예를 개략적으로 도시한다.
도 12를 참조하면, 본 실시예의 리모트 컨트롤러(320)는 입력부(321)의 줌 입력부(3213)가 3개의 터치 센서(3213a, 3213b, 3213c)로 이루어진다는 점을 제외하고는 전술한 실시예와 실질적으로 동일하다. 3개의 터치 센서들(3213a, 3213b, 3213c)은 길다란 직선 형상으로 확인 버튼(3213)의 하단부에 소정의 간격으로 서로 평행하게 이격된채 배열된다. 3개의 터치 센서들(3213a, 3213b, 3213c)은 등간격으로 이격되거나 혹은 서로 다른 간격으로 이격될 수 있다. 이와 같은 줌 입력부(3213)의 형상은 기하학적인 배치 구조를 가져 심미적인 특징까지도 가진다. 터치 센서들(3213a, 3213b, 3213c)로는 예를 들어, 정전기 타입의 터치 센서, 정전용량 타입의 터치 센서 등과 같은 공지의 터치 센서가 채용될 수 있다. 한편, 사용자의 터치는 각 터치 센서(3213a, 3213b, 3213c)에서 검출되는 저항, 커패시턴스, 리액턴스와 같은 임피던스의 크기나 변화를 통해 검출될 수 있다
본 실시예는 줌 입력부(3213)가 3개의 터치 센서(3213a, 3213b, 3213c)로 이루어진 경우를 예로 들고 있으나, 이에 한정되지 아니하며, 2개 또는 4개 이상의 터치 센서들로 이루어질 수도 있다.
다음으로 본 실시예의 리모트 컨트롤러(320)의 동작을 설명한다.
사용자가 리모트 컨트롤러(320)를 한손으로 잡은 상태에서 엄지 손가락을 줌 입력부(4313)상에서 움직이면, 3개의 터치 센서(3213a, 3213b, 3213c)는 순차적으로 접촉신호를 발생하게 될 것이다. 이때, 3개의 터치 센서(3213a, 3213b, 3213c)의 접촉신호의 발생순서에 따라서 엄지 손가락의 움직임이 상방으로 향하는지(도 6의 135a 참조) 또는 엄지 손가락의 움직임이 하방으로 향하는지(도 6의 135b 참조)를 판단할 수 있다.
한편, 접촉신호가 발생되는 터치 센서의 숫자로서 터치되는 영역을 검출할 수 있다. 또는 3개의 터치 센서(3213a, 3213b, 3213c)에서 발생되는 접촉신호의 간격을 통해 엄지 손가락의 움직임의 속도를 검출할 수 있다. 도 9 내지 도 10에서 설명한 바와 같이, 이러한 터치되는 영역이나 손가락 움직임의 속도는 줌-인 혹은 줌-아웃하는 정도를 결정하는데 사용될 수 있다.
도 13은 도 1의 제어 시스템(100)에 사용되는 리모트 컨트롤러의 또 다른 예를 개략적으로 도시한다.
도 13을 참조하면, 본 실시예의 리모트 컨트롤러(420)는 입력부(421)의 줌 입력부(4213)기 터치 센서들(4213a, 4213b, 4213c)로 이루어진다는 점을 제외하고는 전술한 실시예와 실질적으로 동일하다. 터치 센서들(4213a, 4213b, 4213c)은 각각 호(arc) 형상을 가지며, 등간격으로 혹은 서로 다른 간격으로 이격되어 배열될 수 있다. 터치 센서들(4213a, 4213b, 4213c)로는 예를 들어, 정전기 타입의 터치 센서, 정전용량 타입의 터치 센서 등과 같은 공지의 터치 센서가 채용될 수 있다. 이와 같은 줌 입력부(4213)의 형상은 기하학적인 배치 구조를 가져 심미적인 특징까지도 가진다.
도 14는 도 1의 제어 시스템(100)에 사용되는 리모트 컨트롤러의 또 다른 예를 개략적으로 도시한다.
도 14를 참조하면, 본 실시예의 리모트 컨트롤러(520)는 입력부(521)의 줌 입력부(5213)은 확인 버튼(1212)의 둘레에 마련된 방향키들(5213a, 5213b, 5213c, 5213d)로 이루어진다. 이러한 방향키들(5213a, 5213b, 5213c, 5213d)로는 예를 들어, 정전기 타입의 터치 센서, 정전용량 타입의 터치 센서 등과 같은 공지의 터치 센서가 채용될 수 있다.
사용자가 리모트 컨트롤러(520)를 한 손으로 쥔 상태에서 엄지손가락을 확인 버튼(1212)을 중심으로 하측에서 상측으로 움직이게 되면, 엄지손가락은 하측 방향키(5213c)를 먼저 터치하고 상측 방향키(5213a)를 터치하게 될 것이다. 오른손 파지에 있어서 오른손의 엄지손가락의 움직임을 고려할 때, 엄지손가락의 상방향 움직임은 엄지손가락은 하측 방향키(5213c)를 먼저 터치하고 우측 방향키(5213d)를 터치하는 것으로 나타날 수도 있을 것이다. 한편, 오른손 파지에 있어서 오른손의 엄지손가락의 움직임을 고려할 때, 엄지손가락의 하방향 움직임은 예를 들어, 상측 방향키(5213a)를 먼저 터치하고 하측 방향키(5213c)를 터치하거나 혹은 우측 방향키(5213d)를 먼저 터치하고 하측 방향키(5213c)를 터치하는 것으로 나타날 수 있다. 왼손 파지의 경우, 좌우 대칭적인 움직임이 나타날 것이다.
상기와 같은 엄지손가락의 상방향 움직임은 예를 들어, 객체(도 4의 131)의 줌-아웃 명령에 대응되고, 반대로 엄지손가락의 하방향 움직임은 예를 들어, 객체(131)의 줌-인 명령에 대응될 수 있을 것이다. 초기 설정에 따라서는 줌-아웃 명령과 줌-인 명령이 뒤바뀔 수 있음은 물론이다.
본 실시예의 경우, 줌 입력부(5213)가 방향키들(5213a, 5213b, 5213c, 5213d)로 이루어져 있으므로, 디스플레이부(111)에 표시되는 지사자(132)의 움직임은 방향키들(5213a, 5213b, 5213c, 5213d)을 통해 조작될 수 있다. 따라서, 본 실시예의 경우, 방향 입력부(1211)는 생략될 수 있다.
전술한 본 발명인 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법은 이해를 돕기 위하여 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.
100 : 제어 시스템 110 : 전자기기
111 : 디스플레이부 112 : 데이터 입력부
113 : 신호처리부 114 : 호스트 통신부
115 : 제어부
120, 220, 320, 420, 520 : 리모트 컨트롤러
121, 221, 321, 421, 521 : 입력부 1211 : 방향 입력부
1212 : 확인 버튼
1213, 2213, 3213, 4213, 5213 : 줌 입력부
1215 : 기능키 1216 : 플레이어 전용키
122 : 제어신호 생성부 123 : 컨트롤러측 통신부
131 : 객체 132 : 지시자
RH : 오른손 LH : 왼손

Claims (20)

  1. 전자기기를 제어하는 리모트 컨트롤러에 있어서,
    사용자의 방향 조작을 입력받는 방향 입력부와, 상기 사용자의 방향 조작에 의해 선택된 객체를 확인하는 확인 버튼과, 사용자의 줌 조작을 입력받는 줌 입력부를 포함하는 입력부;
    상기 입력부에 입력되는 조작에 대응되는 제어명령을 생성하는 것으로, 상기 줌 입력부에 입력되는 사용자의 줌 조작에 따라 줌-아웃 명령 혹은 줌-인 명령을 생성하는 제어명령 생성부; 및
    상기 제어명령 생성부로부터의 제어명령을 전자기기로 전송하는 컨트롤러측 통신부;를 포함하며,
    상기 확인 버튼은 상기 리모트 컨트롤러의 전면의 상단 또는 중상단에 배치되며,
    상기 줌 입력부는 상기 확인 버튼의 하단에 인접하게 배치되며,
    상기 줌 입력부는 직선 또는 호 형상의 복수의 터치센서들을 포함하며,
    상기 복수의 터치센서들은 등간격 혹은 서로 다른 간격으로 이격되어 배열되어, 상기 복수의 터치센서들에 순차적인 접촉이 발생하게 되면, 상기 복수의 터치센서들의 접촉들의 발생순서에 따라 사용자의 터치의 방향을 검출하며,
    상기 제어명령 생성부는 상기 사용자의 상기 복수의 터치센서들에 대한 터치의 방향에 따라 줌-아웃 명령 혹은 줌-인 명령을 생성하는 것을 특징으로 하는 리모트 컨트롤러.
  2. 제1 항에 있어서,
    상기 방향 입력부는 모션 센서를 포함하며, 사용자의 방향 조작은 리모트 컨트롤러 자체의 움직임으로 이루어지는 것을 특징으로 하는 리모트 컨트롤러.
  3. 제2 항에 있어서,
    상기 제어명령 생성부는 상기 모션 센서에 의해 검출된 리모트 컨트롤러의 움직임에 상응하여 전자기기의 디스플레이부에 표시되는 지시자를 움직이게 하는 제어 명령을 생성하는 것을 특징으로 하는 리모트 컨트롤러.
  4. 제1 항에 있어서,
    상기 확인 버튼은 사용자의 누름 조작을 입력받으며,
    상기 제어명령 생성부는 상기 확인 버튼에서 입력된 사용자의 누름 조작에 대응하여 전자기기의 디스플레이부에 표시된 객체를 활성화 혹은 실행시키는 명령을 생성하는 것을 특징으로 하는 리모트 컨트롤러.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 전자기기를 제어하는 리모트 컨트롤러에 있어서,
    사용자의 방향 조작을 입력받는 방향 입력부와, 상기 사용자의 방향 조작에 의해 선택된 객체를 확인하는 확인 버튼과, 사용자의 줌 조작을 입력받는 줌 입력부를 포함하는 입력부;
    상기 입력부에 입력되는 조작에 대응되는 제어명령을 생성하는 것으로, 상기 줌 입력부에 입력되는 사용자의 줌 조작에 따라 줌-아웃 명령 혹은 줌-인 명령을 생성하는 제어명령 생성부; 및
    상기 제어명령 생성부로부터의 제어명령을 전자기기로 전송하는 컨트롤러측 통신부;를 포함하며,
    상기 줌 입력부는 상기 확인 버튼의 둘레에 배치되는 방향키들로 이루어지며,
    상기 방향키들은 터치 센서들이며,
    상기 줌 입력부는, 상기 복수의 방향키들에 순차적인 접촉이 발생하게 되면, 상기 복수의 방향키들의 접촉들의 발생순서에 따라 사용자의 터치의 방향을 검출하며,
    상기 제어명령 생성부는 상기 사용자의 상기 복수의 방향키들에 대한 터치의 방향에 따라 줌-아웃 명령 혹은 줌-인 명령을 생성하는 것을 특징으로 하는 리모트 컨트롤러.
  11. 제10 항에 있어서,
    상기 방향키들은 상기 방향 입력부의 기능을 함께 수행하는 것을 특징으로 하는 리모트 컨트롤러.
  12. 제1 항에 있어서,
    상기 제어명령 생성부는 상기 줌 입력부에서 검출되는 사용자의 터치의 방향이 상방으로 향할 때 줌-아웃 명령을 생성하고, 상기 줌 입력부에서 검출되는 사용자의 터치의 방향이 하방으로 향할 때 줌-인 명령을 생성하는 것을 특징으로 하는 리모트 컨트롤러.
  13. 제12 항에 있어서,
    초기 설정의 변경을 통해 상기 제어명령 생성부에서 생성되는 줌-아웃 명령과 줌-인 명령을 뒤바꾸는 것을 특징으로 하는 리모트 컨트롤러.
  14. 제12 항에 있어서,
    상기 줌 입력부는 사용자의 터치의 속도 또는 사용자의 터치 범위를 검출하며,
    상기 제어명령 생성부는 상기 줌 입력부에서 검출되는 사용자의 터치의 속도 또는 사용자의 터치 범위에 대응되는 크기로 줌-인 또는 줌-아웃 명령을 생성하는 리모트 컨트롤러.
  15. 제1 항 내지 제4 항, 및 제10 항 내지 제14 항 중 어느 한 항의 리모트 컨트롤러; 및
    상기 리모트 컨트롤러의 조작에 의해 줌-아웃 혹은 줌-인되는 객체를 표시하는 디스플레이부를 구비한 전자기기;를 포함하는 것을 특징으로 하는 제어 시스템.
  16. 리모트 컨트롤러를 이용하여 전자기기를 제어하는 방법에 있어서,
    전자기기의 디스플레이부에 객체들을 표시하는 단계;
    상기 리모트 컨트롤러를 조작하여 상기 객체들 중 어느 하나의 객체를 선택하는 단계; 및
    사용자의 줌 조작을 입력받아 상기 선택된 객체를 줌-인 또는 줌-아웃하는 제어명령을 발생하는 단계;를 포함하며,
    상기 사용자의 줌 조작을 입력받는 줌 입력부는 사용자의 의해 선택된 객체를 확인하는 확인 버튼의 둘레에 배치되는 방향키들로 이루어지며, 상기 방향키들은 터치 센서들이며,
    상기 선택된 객체를 줌-인 또는 줌-아웃하는 제어명령은 사용자의 터치에 의해 상기 방향키들에 발생되는 순차적인 접촉신호들의 발생순서에 따라 결정되는 것을 특징으로 하는 리모트 컨트롤러를 이용한 전자 기기의 제어 방법.
  17. 제16 항에 있어서,
    상기 사용자의 줌 조작은, 사용자가 한 손으로 상기 리모트 컨트롤러를 쥔 상태에서 엄지손가락을 움직일 때 상기 리모트 컨트롤러의 전면에 마련된 줌 입력부에 터치하는 조작인 것을 특징으로 하는 리모트 컨트롤러를 이용한 전자 기기의 제어 방법.
  18. 제17 항에 있어서,
    상기 줌 입력부에서 검출되는 사용자의 터치의 방향이 상방으로 향할 때 줌-아웃 명령을 생성하고, 상기 줌 입력부에서 검출되는 사용자의 터치의 방향이 하방으로 향할 때 줌-인 명령을 생성하는 것을 특징으로 하는 리모트 컨트롤러를 이용한 전자 기기의 제어 방법.
  19. 제18 항에 있어서,
    초기 설정의 변경을 통해 상기 제어명령 생성부에서 생성되는 줌-아웃 명령과 줌-인 명령을 뒤바꾸는 것을 특징으로 하는 리모트 컨트롤러를 이용한 전자 기기의 제어 방법.
  20. 제17 항에 있어서,
    사용자의 터치의 속도 또는 사용자의 터치 범위를 검출하는 단계; 및
    상기 사용자의 터치의 속도 또는 사용자의 터치 범위에 대응되는 크기로 줌-인 또는 줌-아웃 명령을 생성하는 단계;를 더 포함하는 리모트 컨트롤러를 이용한 전자 기기의 제어 방법.
KR1020110120339A 2011-11-17 2011-11-17 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법 KR101383840B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020110120339A KR101383840B1 (ko) 2011-11-17 2011-11-17 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법
US13/670,619 US20130127731A1 (en) 2011-11-17 2012-11-07 Remote controller, and system and method using the same
CN2012104654354A CN103218149A (zh) 2011-11-17 2012-11-16 遥控器、利用该遥控器的系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110120339A KR101383840B1 (ko) 2011-11-17 2011-11-17 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법

Publications (2)

Publication Number Publication Date
KR20130054759A KR20130054759A (ko) 2013-05-27
KR101383840B1 true KR101383840B1 (ko) 2014-04-14

Family

ID=48426284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110120339A KR101383840B1 (ko) 2011-11-17 2011-11-17 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법

Country Status (3)

Country Link
US (1) US20130127731A1 (ko)
KR (1) KR101383840B1 (ko)
CN (1) CN103218149A (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009517949A (ja) * 2005-11-30 2009-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 汎用リモコン装置の設定
KR101754318B1 (ko) 2012-02-06 2017-07-06 핫헤드 게임즈 인크. 가상 경쟁 그룹 관리 시스템 및 방법
US9195369B2 (en) 2012-02-06 2015-11-24 Hothead Games, Inc. Virtual opening of boxes and packs of cards
CN104754385A (zh) * 2013-12-30 2015-07-01 精伦电子股份有限公司 一种光学触摸智能遥控装置
KR102161677B1 (ko) 2014-01-03 2020-10-05 삼성전자주식회사 원격 제어 장치 및 그의 제어 방법
KR102337216B1 (ko) 2015-01-05 2021-12-08 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
KR101711582B1 (ko) * 2016-01-21 2017-03-13 유운오 사용자의 핑거 제스쳐 인식이 가능한 콘트롤러
US9919213B2 (en) * 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
US10852913B2 (en) * 2016-06-21 2020-12-01 Samsung Electronics Co., Ltd. Remote hover touch system and method
US10004991B2 (en) 2016-06-28 2018-06-26 Hothead Games Inc. Systems and methods for customized camera views in virtualized environments
US10010791B2 (en) 2016-06-28 2018-07-03 Hothead Games Inc. Systems and methods for customized camera views and customizable objects in virtualized environments
CN109343923B (zh) * 2018-09-20 2023-04-07 聚好看科技股份有限公司 一种智能电视机的用户界面焦点框缩放方法及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090095202A (ko) * 2008-03-05 2009-09-09 비경시스템주식회사 와이브로 폰을 이용한 원격 모니터링 시스템 및 방법
KR20100006847A (ko) * 2008-07-10 2010-01-22 삼성전자주식회사 움직임과 사용자의 조작을 이용하는 입력장치 및 이에적용되는 입력방법
KR100990833B1 (ko) * 2010-01-28 2010-11-04 김준 터치 장치 제어방법, 이를 이용하는 터치 장치
KR20110037761A (ko) * 2009-10-07 2011-04-13 삼성전자주식회사 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010030667A1 (en) * 2000-04-10 2001-10-18 Kelts Brett R. Interactive display interface for information objects
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US6943811B2 (en) * 2002-03-22 2005-09-13 David J. Matthews Apparatus and method of managing data objects
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7511710B2 (en) * 2002-11-25 2009-03-31 Microsoft Corporation Three-dimensional program guide
US8046705B2 (en) * 2003-05-08 2011-10-25 Hillcrest Laboratories, Inc. Systems and methods for resolution consistent semantic zooming
US20050102634A1 (en) * 2003-11-10 2005-05-12 Sloo David H. Understandable navigation of an information array
EP1538536A1 (en) * 2003-12-05 2005-06-08 Sony International (Europe) GmbH Visualization and control techniques for multimedia digital content
JP2008527540A (ja) * 2005-01-05 2008-07-24 ヒルクレスト・ラボラトリーズ・インコーポレイテッド ユーザインターフェイス用の分散ソフトウェア構成
US8935630B2 (en) * 2005-05-04 2015-01-13 Hillcrest Laboratories, Inc. Methods and systems for scrolling and pointing in user interfaces
WO2007043222A1 (ja) * 2005-10-07 2007-04-19 Matsushita Electric Industrial Co., Ltd. 入力装置及びそれを備えた携帯端末
US20070109324A1 (en) * 2005-11-16 2007-05-17 Qian Lin Interactive viewing of video
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
WO2007114343A1 (ja) * 2006-03-31 2007-10-11 Pioneer Corporation 表示処理装置、表示処理方法及び表示処理プログラム
JP4240080B2 (ja) * 2006-07-24 2009-03-18 ソニー株式会社 映像表示装置、映像表示方法及び映像表示システム
US20080063389A1 (en) * 2006-09-13 2008-03-13 General Instrument Corporation Tracking a Focus Point by a Remote Camera
US8291346B2 (en) * 2006-11-07 2012-10-16 Apple Inc. 3D remote control system employing absolute and relative position detection
WO2008131544A1 (en) * 2007-04-26 2008-11-06 University Of Manitoba Pressure augmented mouse
US7860676B2 (en) * 2007-06-28 2010-12-28 Hillcrest Laboratories, Inc. Real-time dynamic tracking of bias
US8154520B2 (en) * 2008-03-31 2012-04-10 Research In Motion Limited Handheld electronic communication device transitionable between compact and expanded configurations
KR100908099B1 (ko) * 2008-06-03 2009-07-16 엘지전자 주식회사 Dtv, 3d포인팅 디바이스 및 dtv의 기능 실행 방법
US8466879B2 (en) * 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
US8294047B2 (en) * 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
US8963844B2 (en) * 2009-02-26 2015-02-24 Tara Chand Singhal Apparatus and method for touch screen user interface for handheld electronic devices part I
JP2010278509A (ja) * 2009-05-26 2010-12-09 Elmo Co Ltd 資料提示装置
JP2011077863A (ja) * 2009-09-30 2011-04-14 Sony Corp 遠隔操作装置、遠隔操作システム、遠隔操作方法およびプログラム
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
KR101709470B1 (ko) * 2010-09-02 2017-02-23 엘지전자 주식회사 영상표시기기 및 그 동작 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090095202A (ko) * 2008-03-05 2009-09-09 비경시스템주식회사 와이브로 폰을 이용한 원격 모니터링 시스템 및 방법
KR20100006847A (ko) * 2008-07-10 2010-01-22 삼성전자주식회사 움직임과 사용자의 조작을 이용하는 입력장치 및 이에적용되는 입력방법
KR20110037761A (ko) * 2009-10-07 2011-04-13 삼성전자주식회사 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
KR100990833B1 (ko) * 2010-01-28 2010-11-04 김준 터치 장치 제어방법, 이를 이용하는 터치 장치

Also Published As

Publication number Publication date
KR20130054759A (ko) 2013-05-27
CN103218149A (zh) 2013-07-24
US20130127731A1 (en) 2013-05-23

Similar Documents

Publication Publication Date Title
KR101383840B1 (ko) 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법
KR100801089B1 (ko) 터치 및 드래그를 이용하여 제어 가능한 모바일 장치 및 그조작 방법
CN105122176B (zh) 用于管理在电子设备上显示的内容的系统和方法
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
EP2973482B1 (en) Systems, methods, and media for providing an enhanced remote control having multiple modes
US20160202778A1 (en) Keyboard and Touchpad Areas
KR100980741B1 (ko) 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
US20110157055A1 (en) Portable electronic device and method of controlling a portable electronic device
KR101352329B1 (ko) 리모트 컨트롤러를 이용하여 사용자 인터페이스를 제공하는 장치 및 방법
WO2009035212A1 (en) Mobile device equipped with touch screen
WO2012104288A1 (en) A device having a multipoint sensing surface
EP2400380A2 (en) Display apparatus and control method thereof
US20140215398A1 (en) Interface scanning for disabled users
KR101515454B1 (ko) 듀얼 터치패드를 구비하는 리모콘 및 그를 이용한 제어 방법
JP5374564B2 (ja) 描画装置、描画制御方法、及び描画制御プログラム
TW201523420A (zh) 資訊處理裝置、資訊處理方法及電腦程式
KR20110134810A (ko) 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
EP2339436A2 (en) Display apparatus and touch sensing method
WO2016183912A1 (zh) 菜单布局方法及装置
KR101436585B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
US10338692B1 (en) Dual touchpad system
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
JP7030529B2 (ja) 電子機器、情報処理方法、プログラム及び記憶媒体
TW201516826A (zh) 電子裝置及其應用程式圖示移動方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee