KR102219908B1 - 공존하는 멀티 모드 조절 메커니즘을 갖춘 디스플레이 시스템과 그 작동 방법 - Google Patents

공존하는 멀티 모드 조절 메커니즘을 갖춘 디스플레이 시스템과 그 작동 방법 Download PDF

Info

Publication number
KR102219908B1
KR102219908B1 KR1020140001501A KR20140001501A KR102219908B1 KR 102219908 B1 KR102219908 B1 KR 102219908B1 KR 1020140001501 A KR1020140001501 A KR 1020140001501A KR 20140001501 A KR20140001501 A KR 20140001501A KR 102219908 B1 KR102219908 B1 KR 102219908B1
Authority
KR
South Korea
Prior art keywords
movement
finger
control
display system
command
Prior art date
Application number
KR1020140001501A
Other languages
English (en)
Other versions
KR20140089317A (ko
Inventor
안톤 트레스쿠노브
휴유창
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20140089317A publication Critical patent/KR20140089317A/ko
Application granted granted Critical
Publication of KR102219908B1 publication Critical patent/KR102219908B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

디스플레이 시스템은 트랙패드상 손가락의 움직임을 감지하기 위하여 손가락3D 움직임을 감지하도록 구성된 사용자 인터페이스, 사용자 인터페이스와 연결되고, 장치 조절을 위하여 손가락 움직임만을 기초로 방향 모드와 좌표 모드 양 쪽을 위한 제어를 처리하도록 구성된 제어 유닛을 포함한다. 디스플레이 시스템은 또한 손가락 움직임만을 기초로 방향 모드와 좌표에 대한 제어를 수신하도록 구성된 통신 유닛, 그리고 통신 유닛과 연결되고, 장치 조절을 위한 제어로부터 방향 명령, 위치 명령 또는 그들의 조합을 추출하도록 구성된 제어 유닛을 포함한다.

Description

공존하는 멀티 모드 조절 메커니즘을 갖춘 디스플레이 시스템과 그 작동 방법{DISPLAY SYSTEM WITH concurrent mult-mode control MECHANISM AND METHOD OF OPERATION THEREOF}
본 발명의 실시예는 일반적으로 디스플레이 시스템, 보다 구체적으로 디스플레이 시스템의 조절을 위한 시스템에 관한 것이다.
현대 소비재와 산업 전자 제품들, 특히 도식 디스플레이 시스템(graphical display system), 텔레비전, 프로젝터, 휴대 전화, PDA 그리고 복합기와 같은 장치들은 현대의 삶의 질을 향상시키는 기능들을 지원하고 있다. 이러한 기기들을 조절하는 것은 장치뿐 아니라 장치 상 실행되는 어플리케이션에 따라 다양하다. 이러한 변화는 시장과 제품 발전을 통하여 발생하거나 기능의 차이를 통하여 발생한다. 종래 기술에 대한 연구 개발은 무수히 많은 다른 방향으로 이루어질 수 있다.
이렇게 공존하는 멀티 모드 조절 메커니즘을 갖춘 디스플레이 시스템에 대한 수요는 여전히 존재한다. 지속적으로 증가하는 상업 경쟁의 압박이라는 측면에서, 증가하는 소비자의 요구와 함께 시장에서 의미 있는 제품 차별화의 기회는 줄어들고 있고, 이러한 문제에 대한 답을 찾는 것은 더욱 어렵다. 또한, 원가 절감의 필요, 효율과 퍼포먼스(performance)의 개선, 그리고 경쟁력 강화를 위해서 이러한 문제에 대한 해결책 모색의 필요성은 훨씬 더 급박해 졌다.
이러한 문제들에 대한 해결책은 오랫동안 모색되어 왔지만 선행 개발은 어떠한 해결책도 가르치거나 제시하지 않았고, 이러한 문제에 대한 해결책은 당업자로부터 오랫동안 회피되어 왔다.
일반적으로 디스플레이 시스템(100), 보다 구체적으로 디스플레이 시스템(100)의 조절을 위한 시스템을 구현하고자 한다.
본 발명의 실시예는 트랙패드에 접촉을 감지하기 위하여 손가락의 움직임을 감지하도록 구성된 사용자인터페이스, 사용자 인터페이스와 연결되고 장치 조절을 위하여 손가락의 움직임만을 기초로 방향 모드와 좌표 모드로 제어를 수행하도록 구성된 디스플레이 시스템을 제공한다.
본 발명의 일 실시예는 오직 손가락의 움직임만을 기초로 방향 모드와 좌표모드를 위한 제어을 수신하도록 구성된 통신 유닛, 그리고 통신 유닛과 연결되고, 장치를 조절하기 위하여 제어로부터 방향 명령, 위치 명령 또는 그들의 조합을 추출하도록 구성된 조절 유닛을 포함하는 디스플레이 시스템을 제공한다.
본 발명의 실시예는 트랙패드 상 접촉을 감지하기 위하여 손가락의 움직임을 감지하는 단계, 장치 조절을 위하여 손가락의 움직임만을 기초로 방향 모드와 좌표 모드로 제어를 수행하는 단계를 포함하는 디스플레이 시스템의 작동 방법을 제공한다.
본 발명의 일 실시예는 오직 손가락의 움직임만을 기초로 방향 모드와 좌표모드를 위한 제어를 수신하는 단계, 그리고 장치를 조절하기 위하여 방향 명령, 위치 명령 또는 그들의 조합을 추출하는 단계를 포함하는 디스플레이 시스템의 작동 방법을 제공한다.
상기 발명의 어떤 실시예들은 전술한 실시예에 추가되는 혹은 전술한 실시예를 대체하는 다른 단계나 구성요소를 가진다. 그 단계나 구성요소들은 다음의 상세한 설명을 읽고 첨부된 도면을 참조함으로써 당업자들에게 명백해 질 것이다.
도1은 본 발명의 일 실시예에 따른 공존하는 멀티 모드 조절 메커니즘을 갖춘 디스플레이 시스템(100)을 도시한다.
도2는 방향 모드(110)에서 제2 장치(106)의 디스플레이 예시를 상세하게 도시한다.
도3은 좌표 모드(112)에서 제3 장치(108)의 디스플레이 예시를 상세하게 도시한다.
도4는 방향 명령(114)을 제공하는 제1 장치(102)의 예시를 도시한다.
도5는 디스플레이 시스템(100)의 블록 다이어그램의 예시를 도시한다.
도6은 본 발명의 일 실시예에 따른 디스플레이 시스템(100)의 작동 방법에 대한 흐름도를 도시한다.
본 발명의 일 실시예는 방향 명령(114)을 위한 방향 모드(110)와, 최종 소비자가 쉽게 사용할 수 있도록 좌표 식별을 위하여 위치 명령(132)을 위한 좌표 모드(112)를 동시에 지원하는 디스플레이 시스템(100) 또는 제1 장치(102), 제2 장치(106) 또는 제3 장치(108)를 제공한다. 방향 모드(110) 지원은 서로 다른 시스템들이 서로 다른 장치들 사이에서 끊김 없이 정보처리 상호 운용을 할 수 있도록 지원한다. 동시 지원은 또한 어플리케이션이 어플리케이션과 사용자를 위하여 가장 효율적이고 유용한 것을 기초로 방향 명령(114)과 위치 명령(132)을 이용하도록 해준다.
본 발명의 일 실시예는 방향 모드(110)와 좌표 모드(112)를 위하여 각각 손가락의 움직임에 대한 제1 터치를 기초로 그리드(grid)와 셀들(402)을 구성함으로써 방향 명령(114)과 위치 명령(132)을 제공하는 동적 메커니즘을 갖춘 디스플레이 시스템(100)을 제공한다.
본 발명의 일 실시예는 각 셀의 주위에 도4의 버퍼 존(406)(buffer zone)을 둠으로써 흔들림 없고 커서(116)가 끊김 없는 이동을 할 수 있는 디스플레이 시스템(100)을 제공한다. 움직임의 입상은 또한 버퍼 존(406)의 사이즈를 조절함으로써 작게 혹은 크게 최적화 될 수 있다.
본 발명의 일 실시예는 손가락의 움직임을, 손가락 움직임(140)이 한 셀의 내부에서 일어났는지 복수의 셀에서 걸쳐 일어났는지 양 상황에 대한 플릭 임계치(412)(flick threshold) 또는 접촉 길이 임계치(416)의 비교를 기초로 방향 명령(114)이나 좌표 명령으로 변환하는 디스플레이 시스템(100)을 제공한다.
다음의 실시예들은 충분히 자세하게 설명되므로 당업자는 본 발명을 실시하고 사용할 수 있을 것이다. 다른 실시예들도 본 공개를 기초로 분명해질 것이고, 시스템적, 프로세스적 또는 기계적 변화가 본 발명의 실시예 범위 내에서 이루어 질 수 있다.
다음의 설명에서는 수많은 구체적인 설명이 본 발명의 전체적인 이해를 돕기 위하여 제공될 것이다. 그러나 이러한 구체적 설명 없이도 발명이 실시될 수 있음은 명백하다. 본 발명의 실시예를 이해하기 힘들게 하지 않기 위하여, 주지의 서큇(circuits), 시스템 컨피그레이션(system configurations), 그리고 과정 단계는 자세히 공개되지 않는다.
시스템의 실시예들을 도시하는 도면은 간이도표이고, 특히 어떤 치수는 표현의 명확성을 위하여 비율에 따라 제공(scale)되지 않으며, 도면에서 과장되어 도시된다. 이와 유사하게, 비록 설명의 용이를 위하여 도면의 도시는 일반적으로 비슷한 방향을 보여주지만, 도면에서의 묘사는 대부분의 경우에 임의적이다. 일반적으로 상기 발명은 어떤 방향에서도 작동될 수 있다. 실시예들은 설명의 편의를 위하여 제1 실시예, 제2 실시예 등으로 번호가 매겨졌을 뿐, 본 발명의 실시가 이들로 한정되지는 않는다.
여기서 인용된 "모듈"이라는 용어는 본 발명에서 그 용어가 사용된 문장에 따라 소프트웨어, 하드웨어 또는 그들의 조합을 포함할 수 있다. 예를 들어, 소프트웨어는 기계어, 펌웨어, 임베디드 코드(embedded code) 그리고 응용 소프트웨어일 수 있다. 또한 하드웨어는 전기회로망, 프로세서, 컴퓨터, 집적회로, 집적회로코어, 압력 센서, 관성 센서, 미소 전자 기계 시스템(MEMS), 수동 장치 또는 그들의 조합일 수 있다.
이제 도1을 보면, 도1은 본 발명의 제1 실시예에 따른 공존하는 멀티모드 조절 메커니즘을 갖춘 디스플레이 시스템(100)을 도시한다. 디스플레이 시스템(100)은 디스플레이를 가진 장치와 같은 제2 장치(106)에 연결된 조절 장치와 같은 제1 장치(102), 디스플레이를 가지는 다른 장치와 같은 제3 장치(108)를 포함할 수 있다.
제1 장치(102)는 제2 장치(106) 및 제3 장치(108) 또는 그들의 조합과 유무선 네트워크와 같은 통신망(104)으로 통신할 수 있다. 제1 장치(102)는 직간접적으로 통신망(104)과 연결되어 제2 장치(106), 제3 장치(108) 또는 그들의 조합과 통신하거나 또는 독자적인 장비로 남을 수 있다.
제1 장치(102)의 예시는 클라이언트 장치, 리모트 컨트롤, 트랙패드(138) 기반의 리모트 컨트롤 장치, 스마트폰, PDA, 컴퓨터 테블릿 또는 데스크탑 컴퓨터를 포함할 수 있다. 제2 장치(106)의 예시는 텔레비전, 테블릿, 모니터, 컴퓨팅 장치, 엔터테인먼트 시스템 또는 스마트폰을 포함할 수 있다. 제3 장치(108)의 예시는 또한 텔레비전, 테블릿, 모니터, 컴퓨팅 장치, 엔터테인먼트 시스템 또는 스마트폰을 포함할 수 있다.
제2 장치(106)와 제3 장치(108)는 다를 수도 있지만 여기서는 설명을 위하여 모두 도1에 텔레비전으로 도시되었다. 예를 들어, 제2 장치(106)와 제3 장치(108)는 하나가 텔레비전이고 다른 하나가 큰 디스플레이를 가진 랩 탑 컴퓨터인 것과 같이 다른 형식의 장치일 수 있다. 또한 제2 장치(106)와 제3 장치(108)는 둘 다 텔레비전인 것과 같이 동일한 형태일 수 있지만 디스플레이를 가지는 다른 형식의 장치일 수도 있다.
도1에 도시된 예시에서, 제2 장치(106)는 방향 모드(110)(110)에서의 작동을 도시하고 제3 장치(108)는 좌표 모드(112)에서의 작동을 도시한다. 제2 장치(106)와 제3 장치(108)는 좌표 모드(112)와 방향 모드(110)에서 작동할 수 있고 각각 좌표 모드(112)와 방향 모드(110)를 지원할 수 있다.
방향 모드(110)는 액셔너블 아이템(118)들 사이의 커서(116) 포지셔닝을 위하여 방향 명령(114)을 기초로 하는 작동 모드로 방향 모드(110)는 액셔너블 아이템(118)들 사이의 커서(116) 포지셔닝을 위하여 방향 명령(114)을 기초로 하는 작동 모드로 정의될 수 있다. 액셔너블 아이템(118)들은 단순한 커서(116)의 움직임 이상의 기능을 제공하는 장치의 디스플레이로 묘사된 디스플레이 아이템으로 정의될 수 있다. 그 기능은 활성화 혹은 예를 들어, 현재 사용불가와 같이“그레이드 아웃”으로 묘사될 수 있는 비활성화일 수 있다. 예를 들어, 액셔너블 아이템(118)들은 어플리케이션이나 위젯 아이콘과 결합된 기능을 실행하기 위한 웹사이트나 위젯 아이콘에 대한 웹 실행을 위한 URL 링크 일 수 있다. 액셔너블 아이템(118)들은 현재 아이템(120)과 다음 아이템(122)을 포함할 수 있다.
방향 명령(114)은 커서(116)를 현재 아이템(120)으로부터 위, 아래, 왼쪽, 오른쪽으로 움직이는 명령이다. 현재 아이템(120)은 커서(116)가 위치하고 있는 액셔너블 아이템(118) 중의 하나이다. 위, 아래 또는 왼쪽, 오른쪽 방향은 만약 가능하다면 원위치를 기초로, 현재 아이템(120)으로부터 다음 아이템(122)으로의 방향 벡터일 수 있다. 다음 아이템(122)은 커서(116)가 현재 위치로부터 방향 명령(114)을 기초로 움직일 수 있는 액셔너블 아이템(118) 중의 하나이다.
예를 들어, 위쪽 방향은 제2 장치(106)의 정상이거나 혹은 제3 장치(108)의 정상일 수 있는데, 정상은 바닥 쪽 디스플레이 면이나 제2 장치(106)나 제3 장치(108)의 가장 가까운 쪽 디스플레이 면을 말한다. 아래 방향은 위쪽 방향의 180도 방향 혹은 반대 방향일 수 있다. Y축(124)은 위, 아래 방향을 포함하는 것으로 정의된다.
오른쪽 방향은 텔레비전 보듯이, 제2 장치(106)나 제3 장치(108)를 마주했을 때, 오른 손 방향일 수 있다. 왼쪽 방향은 오른쪽 방향의 180도 방향 또는 반대 방향일 수 있다. X축(126)은 오른쪽과 왼쪽 방향을 포함한다. 위, 아래 방향은 왼쪽, 오른쪽 방향에 수직일 수 있다.
방향 모드(110)는 다른 방향 명령(114)을 제공하거나 다르게 작동할 수도 있지만, 설명을 위하여 여기서 방향 모드(110)는 위, 아래, 왼쪽, 오른쪽의 4가지 방향 명령(114)을 가지고, 한 명령은 180도 반대 방향의 다른 방향 명령(114)과 직각인 다른 두 명령을 가지는 것으로 설명된다. 예를 들어, 방향 모드(110)는 대각 방향으로 다른 형태의 방향 명령(114)을 제공할 수 있고, 그것은 X축(126)과 Y축(124) 사이에 방향 벡터일 수 있다.
대각 방향 명령(114)은 X축(126)이나 Y축(124)으로부터 45도이거나 또는 X축(126) 이나 Y축(124)과 평행하지 않은 소정의 각도인 다른 값일 수 있다. 방향 모드(110)는 위, 아래, 왼쪽, 오른쪽의 방향 명령(114)을 기초로 현재 아이템(120)으로부터 X축(126)이나 Y축(124)에 평행하지 않은 위치로 정해질 수 있는 커서(116) 움직임에 따라 다르게 작동할 수 있다. 이는 도2에서 더 설명될 것이다.
좌표 모드(112)는 좌표 위치(130) 사이의 커서(116) 포지셔닝을 위한 좌표 식별(128)을 기초로 한 작동 모드로 정의된다. 좌표 모드(112)는 커서(116)의 좌표 기반 네비게이션을 가능하게 한다. 좌표는 디스플레이 상에서 액셔너블 아이템(118)들의 좌표 위치(130)로 한정되지 않는다. 커서(116)는 현재 좌표 위치(134)로부터 현재 좌표 위치(134)에 독립적인 다음 좌표 위치(136)로 위치 명령(132)에 따라 위치할 수 있는데, 다음 좌표 위치(136) 또는 그들의 조합은 액셔너블 아이템(118)들 중 하나 상에 있다.
예를 들어, 위치 명령(132)을 사용하는 좌표 모드(112)는 X축(126)과 Y축(124)을 사용하여 좌표위치를 위한 좌표 식별(128)용 데카르트 좌표 체계를 제공할 수 있다. 좌표 식별(128)은 디스플레이 상의 한 픽셀로 표현되거나 디스플레이 상의 많은 픽셀을 위한 증가로 표현될 수 있다. 각 좌표 위치(130)는 좌표 식별(128)에 1:1로 대응하거나 좌표 식별(128)의 증가로 대응할 수 있다.
도1에 대한 설명으로 돌아가, 도1은 사용자 작동 제1 장치(102)를 묘사하는데, 제1 장치(102)는 디스플레이 장치로 묘사된 제2 장치(106)와 제3 장치(108)를 위한 트랙패드(138) 기반의 원격 제어일 수 있다. 제1 장치(102)는 트랙패드(138)를 포함할 수 있다. 트랙패드(138)는 제1 장치(102)와 접촉 인터페이스를 제공하여 원격 장치 제어를 수행한다. 트랙패드(138)는 트랙패드(138)를 접촉하는 동안 손가락의 움직임을 감지할 수 있다. 손가락의 움직임은 트랙패드(138) 상의 손가락의 접촉 또는 물건이다.
제1 장치(102)는 손가락의 움직임을 처리하여 제2 장치(106), 제3 장치(108) 또는 그들의 조합을 제어할 수 있다. 제어는 원격 장치 작동을 위한 정보를 제공한다. 이번 예에서 원격 장치는 제2 장치(106) 또는 제3 장치(108)이다.
제어는 방향 모드(110), 좌표 모드(112) 또는 그들의 조합을 위한 것일 수 있다. 제어는 방향 모드(110)에서 작동하는 제2 장치(106)를 위하여 방향 명령(114)으로 변환될 수 있다. 제어는 또한 좌표 모드(112)에서 작동하는 제3 장치(108)를 위하여 위치 명령(132)으로 변환될 수도 있다.
비록 다른 장치가 방향 모드(110)와 좌표 모드(112)를 위하여 손가락 움직임(140)을 처리할 수도 있지만 설명을 위하여 여기서는 제1 장치(102)가 방향 모드(110)와 좌표 모드(112)를 위하여 제어를 생성하는 손가락 움직임(140)을 처리하는 것으로 설명된다. 예를 들어, 제어는 손가락의 움직임에 대한 정보를 제2 장치(106), 제3 장치(108) 또는 그들의 조합으로 제공할 수 있는데, 손가락의 움직임은 제2 장치(106) 또는 제3 장치(108)에서 방향 모드(110), 좌표 모드(112) 또는 그들의 조합으로 처리될 수 있다.
제어는 방향 명령(114)과 위치 명령(132)으로 변환될 수 있고, 방향 명령(114)과 위치 명령(132)은 모두 동시에 제2 장치(106)와 제3 장치(108)로 전송될 수 있다. 제1 장치(102), 제2 장치(106), 제3 장치(108)는 제어를 방향 명령(114)과 위치 명령(132)으로 변환할 수 있다.
예를 들어, 변환은 하드웨어 또는 몇몇 미들웨어에서 일어날 수 있다. 변환은 제1 장치(102), 제2 장치(106), 제3 장치(108)의 각 모드를 위하여 떨어져있는 원격 제어 장치(보이지 않는)나 떨어져있는 제어 섹션 없이 수행된다. 변환은 방향 모드(110)와 좌표 모드(112) 사이에 수동적인 스위칭 없이 수행된다. 변환은 사용자가 제1 장치(102)에서 방향 모드(110)와 좌표 모드(112) 사이에 다른 모드가 존재하는 지, 또는 제2 장치(106)나 제3 장치(108)에서 어떤 모드가 작동 중인지를 알지 못하게 수행된다.
구체적인 예로, 본 발명의 실시예는 제1 장치(102)로 묘사된 트랙패드(138) 기반의 원격 제어를 가능하게 하여 방향 명령(114) 기반(하이라이트된 오브젝트) 그리고 좌표 기반의(커서(116)) 네비게이션 메커니즘 어셈블리를 모두 수행할 수 있다. 본 발명의 실시예는 제1 장치(102)로 묘사된 트랙패드(138) 기반의 원격 제어, 전송 명령 또는 제2 장치(106)와 제3 장치(108)로 묘사된 텔레비전에 대한 제어를 포함할 수 있다. 텔레비전은 그래피컬 유저 인터페이스(graphical user interface, GUI)를 갖춘 디스플레이 장치일 때, GUI는 다양한 형태를 가질 수 있는데, TV 가이드 혹은 다른 아이템의 리스트와 같은 그리드 형태 인터페이스(grid-like interface), 또는 웹 페이지 링크와 같은 폼 파싱 인터랙션 요소(form parse interaction elements)를 포함하는 인터페이스, 또는, 앵그리 버드 게임과 같은 계속적인 입력을 요구하는 인터페이스 조직의 다른 형태를 가질 수 있다.
제1 장치(102)나, 제2 장치(106)와 제3 장치(108)로 묘사된 TV로 묘사된 손가락 움직임(140)으로부터 방향 명령(114)을 추출하는 임베디드 알고리즘과 원격 소프트웨어가 있을 수 있다. 손가락 움직임(140)은 또한 위치 명령(132)으로부터 좌표 식별(128)을 추출하는데 사용될 수 있다. 간단한 형태로 제어는 터치 패드의 표면에 현재 손가락 위치를 기초로 할 수 있다. 방향 명령(114)과 위치 명령(132)은 둘 다 실행되고 있는 어플리케이션이 어떤 타입의 명령을 사용할 지를 정하는 TV로 보내질 수 있다.
제2 장치(106)나 제3 장치(108)에서 실행되는 어플리케이션은 방향 명령(114)에 따를 수 있고 버튼 기반의 원격 제어(나타나지 않음)와 호환성을 유지할 수 있다. 어플리케이션은 위치 명령(132)과 좌표 인식의 유용성을 이용하여 사용자 경험을 풍부하게 할 수 있다. 그렇지 않으면 위치 명령(132)으로부터 방향 명령(114)을 추출하는 소프트웨어 층은 TV 내부에 위치하여 원격 제어로부터 추출되어 온 방향 명령(114)과 위치 명령(132)을 어플리케이션으로 전송할 수 있다.
디스플레이 시스템(100)이나 제1 장치(102), 제2 장치(106) 또는 제3 장치(108)가 동시에 방향 명령(114)을 위한 방향 모드(110) 그리고 최종 소비자에게 쉬운 사용을 제공하는 좌표 식별(128)용 위치 명령(132)을 위한 좌표 모드(112)를 지원할 수 있다고 밝혀졌다. 방향 모드(110)에 대한 지원은 다른 장치들 사이에 끊김 없는 상호 운용을 제공하는 다른 시스템에 대한 지원을 제공한다. 동시 지원은 또한 어플리케이션과 사용자에게 가장 효율적이고 유용한 것이 무엇인지를 기초로 어플리케이션이 방향 명령(114)과 위치 명령(132) 둘 다를 이용할 수 있게 한다.
비록 디스플레이 시스템(100)은 다른 타입의 장치 또는 다른 수의 장치를 포함할 수도 있지만, 설명을 위하여 여기서는 디스플레이 시스템(100)이 디스플레이 장치로 제2 장치(106)와 제3 장치(108)를 가지는 것으로 설명된다. 예를 들어, 제1 장치(102)는 이미지 프리젠팅이나 멀티미디어 프리젠테이션을 위한 장치일 수 있다. 멀티미디어 프리젠테이션은 소리, 스트리밍 이미지의 배열 또는 비디오 피드 또는 그들의 조합을 포함하는 프리젠테이션일 수 있다.
비록 디스플레이 시스템(100)이 제1 장치(102)와 제2 장치(106), 제3 장치(108) 그리고 통신망(104) 사이에 다른 파티션을 가질 수도 있지만 설명을 위하여 여기서는 디스플레이 시스템(100)이 제1 장치(102), 제2 장치(106), 제3장치를 통신망(104)의 끝 점으로 가지는 것으로 도시한다.
예를 들어, 제1 장치(102), 제2 장치(106), 제3 장치(108) 또는 그들의 조합은 또한 통신망(104)의 일부로서 기능할 수 있다.
또한 비록 통신망(104)은 확장되어 다양한 네트워크를 표현할 수 있지만 설명을 위하여 여기서는 제1 장치(102)와 제2 장치(106), 제3 장치(108) 사이의 무선 통신을 도시하였다. 예를 들어, 통신망(104)은 무선 통신, 유선 통신, 광, 초음파 또는 그들의 조합을 포함할 수 있다. 위성 통신, 이동 통신, 블루투스, IrDA(Infrared Data Association standard), 와이파이 그리고 와이맥스(worldwide interoperability for microwave access)는 통신망(104)에 포함될 수 있는 무선 통신의 예이다. 이더넷, DSL(digital subscriber line), FTTH(fiber to the home), POTS(plain old telephone service)는 통신망(104)에 포함될 수 있는 유선 통신의 예이다. 또한 통신망(104)은 수많은 망 접속 형태(network topologies)와 거리를 횡단할 수 있다. 예를 들어, 통신망(104)은 직접 연결, PAN(personal area network), LAN(local area network), MAN(metropolitan area network), WAN(wide area network) 또는 그들의 조합을 포함할 수 있다.
디스플레이 시스템(100)은 예를 들어 기능/모듈 또는 순서로 설명되었다. 디스플레이 시스템(100)은 기능/모듈을 다르게 분할하거나 기능/모듈을 다르게 순서 지을 수 있다. 예를 들어, 방향 모드(110)나 좌표 모드(112)의 변환은 제1 장치(102), 제2 장치(106), 제3 장치(108) 사이에 분산될 수 있다. 또한 변환 과정은 동적으로 재할당되어 각 장치뿐 아니라 디스플레이 시스템(100)의 전반적인 시스템 요구라는 제한에 따라 제1 장치(102), 제2 장치(106), 제3 장치(108) 또는 그들의 조합에 의해 수행될 수 있다.
디스플레이 시스템(100)의 동작으로부터 동시에 끊김 없이 방향 모드(110)와 좌표 모드(112)를 작동하는 물리적 변환은 디스플레이 시스템(100)에서 실행되고 있는 어플리케이션이 정확하게 작동하거나 심지어 한 장소에서 다른 장소로 디스플레이 시스템(100)의 사용자가 이동하는 것을 돕는 위치 정보 제공을 포함하여 작동하는 것과 같은 물리적 세계에서의 움직임을 야기한다. 물리적 세계에서의 움직임은 장치 형태의 변화나 다른 형태의 사용된 장치 또는 디스플레이 시스템(100)에서 수행되는 어플리케이션을 가짐으로써 방향 모드(110)나 좌표 모드(112)와 상호작용하고 함께 동작하는 어플리케이션의 변화를 야기한다.
이제 도2를 살펴보면, 도2에서는 도1의 방향 모드(110)에서 제2 장치(106)의 예시 디스플레이에 대한 상세도를 도시한다. 이 예시에서 액셔너블 아이템(118)들은 제2 장치(106)의 디스플레이 상에서 그리드 컨피겨레이션(grid configuration)으로 도시된다.
액셔너블 아이템(118)들 중 하나는 커서(116)가 현재 가리키고 있는 하이라이트 된 현재 아이템(120)으로 묘사되었다. 도1의 방향 명령(114)은 커서(116)의 위치를 현재 아이템(120)으로부터 다음 아이템(122)으로 움직이는데 사용될 수 있다. 방향 모드(110)는 커서(116)의 위치를 액셔너블 아이템(118)들 사이가 아닌 액셔너블 아이템(118) 중 하나로 이동하여 하이라이트 하도록 제한한다. 다른 말로, 커서(116)의 위치는 액셔너블 아이템(118)들 사이에 있는 제2 장치(106)의 일부 디스플레이를 하이라이트 할 수는 없다.
비록 제2 장치(106)에 디스플레이 된 액셔너블 아이템(118)들이 또 다른 것일 수 있지만 설명을 위하여 여기서는 제2 장치(106)가 각 액셔너블 아이템(118)들의 면적이 동일하거나 다른 것과 유사한 균일한 그리드 배열 컨피겨레이션(uniform grid array configuration)에 있는 것으로 도시하였다. 예를 들어, 액셔너블 아이템(118)들은 형태, 길이, 넓이 그리고 기능면에서 다양할 수 있을 뿐 아니라 균일한 그리드가 아닌 다른 컨피겨레이션에 위치할 수도 있다.
예를 들어, 액셔너블 아이템(118)들은 제2 장치(106)에서 실행되는 어플리케이션의 필요와 디자인을 기초로 하는 그리드 아닌 컨피켜레이션(non-grid configuration)으로 배열될 수 도 있다. 액셔너블 아이템(118)들은 제2 장치(106)의 디스플레이 상에서 다른 하나로부터 수평뿐 아니라 수직으로 상쇄(offset)될 수 있다. 이러한 예시에서 위, 아래, 왼쪽, 오른쪽의 방향 명령(114)은 필수적으로 벡터 내의 커서(116)를 움직이거나, 현재 아이템(120)으로부터 X축(126) 혹은 Y축(124)에 평행한 다음 아이템(122)을 하이라이트 하는 것은 아니다. 다음 아이템(122)은 X축(126)이나 Y축(124)에 평행하는 현재 아이템(120)의 면적과 겹치는 다음 아이템(122)을 위한 일부 아이콘이나 시각적인 표현을 가질 수 있다. 다음 아이템(122)은 위, 아래, 왼쪽, 오른쪽으로 움직임 벡터를 따라 현재 아이템(120)과 가장 가까운 다음 액셔너블 아이템(118)일 수 있다. 다음 가장 가까운 것은 방향 명령(114)당 선택된 움직임 벡터를 따라 현재 아이템(120)으로부터 최소한의 거리만큼 떨어진 거리 척도(distance metric)로 측정될 수 있다.
이제 도3을 보면, 도3에서는 도1의 좌표 모드(112)에 있는 제3 장치(108)의 디스플레이 예시에 대한 상세도를 도시한다. 이러한 예시에서 제3 장치(108)는 지도를 보여주는 것으로 묘사된다. 지도는 고속도로, 거리 그리고 상점이나 공원과 같은 관심 지역을 묘사할 수 있다.
커서(116)는 관심 지역의 하나에 대하여 도1의 좌표 식별을 위하여 위치할 수 있다. 관심 지역은 관심 지역이 위치에 대한 정보를 제공하거나 관심 지역과 관련된 다른 기능을 제공할 수 있기 때문에 액셔너블 아이템(118)일 수 있다. 커서(116)는 또한 좌표 식별을 위하여 위치하거나 지도의 비액셔너블 부분에 대한 좌표 위치(130)를 위하여 위치할 수 있다.
지도의 비액셔너블 부분의 예시는 지도가 좌표 식별에 대한 물리적 좌표를 제외한 어떠한 정보도 제공하지 않는 거리 사이에 있는 도1의 좌표 위치(130)일 수 있다. 물리적 좌표의 예시는 GPS 경위도 정보이다.
이제 도4를 살펴보면, 도4에서는 도1의 방향 명령(114)을 제공하는 제1 장치(102)의 예시를 도시한다. 예를 들어, 디스플레이 시스템(100)이나 더 구체적인 예로 제1 장치(102)는 다음과 같이 손가락 움직임(140)으로부터 방향 명령(114)을 추출할 수 있다.
일단 사용자가 손가락을 제1 장치(102)에 있는 도1의 트랙패드(138)에 대면 제1 장치(102)는 균등한 셀의 그리드(uniform grid of cells)를 생성하고 생성된 그리드는 제1 터치와 커서(116) 주변에 집중된다. 커서(116)는 처음에 제1 터치가 감지된 셀 중의 하나인 셀 중심에 위치할 수 있다. 셀의 사이즈와 입상은 무한하거나 더 구체적으로 각 셀의 사이즈와 셀의 수는 오직 터치를 위한 하드웨어와 손가락의 움직임 민감도뿐 아니라 제1 장치(102), 제2 장치(106), 제3 장치(108) 또는 그들의 조합과의 전력 처리와 같은 하드웨어 성능에 의하여 제한될 수 있다.
커서(116)가 셀들(402) 사이에 있을 때 스위칭 백(back)과 포스(forth)를 피하기 위하여, 셀들(402)은 해체되어 셀들(402) 사이에 혹은 셀들(402)의 경계를 따라 버퍼 존(406)(buffer zones )이 존재할 수 있다. 버퍼 존(406)은 커서(116)의 움직임을 보기 전에 손가락에 의한 너무 많은 움직임을 요구하지 않도록 매우 좁을 수 있다. 다른 한편, 커서(116)의 위치에 대한 빠른 흔들림을 최소화하기 위하여, 버퍼 존(406)의 사이즈는 트랙패드(138)가 작은 움직임에 덜 민감하도록 증가될 수 있다.
커서(116)는 크게 다음과 같은 예외를 제외하고는 트랙패드(138) 상의 손가락을 따라 움직인다. 예를 들어, 날카로운 각도의 사선 움직임은 진압될 수 있고 스피드에 따라 손가락을 빨리 움직이면 커서(116)도 가속되는 등 손가락의 움직임으로부터 커서(116)의 움직임으로 맵핑 될 수 있다.
다른 사람이 사용하는 경향이 있는 다른 상호작용 패턴을 지원하기 위하여(예를 들어, flick vs track) 디스플레이 시스템(100)은 약간 일관성이 없는 행동 모델을 사용한다. 첫째, 비록 손가락의 움직임이 커서(116)를 다음 셀로 움직일 만큼 충분하지 않더라도 충분히 빠르면 이러한 움직임도 방향 명령(114)을 야기하여 플릭(flick) 제스춰(gesture)를 야기한다. 또한 짧은 제스춰를 사용하는 경향이 있는 사람들과 트랙패드(138) 경험이 한정된 초보자를 지원하기 위하여 최초 몇몇 위치 업데이트, 손가락 움직임(140)의 가속의 경우 진압될 수 있다.
예를 들어, 플릭 제스춰를 위한 빠른 움직임은 플릭 임계치(412) 이상의 손가락 움직임(140)의 가속을 기초로 정해질 수 있어서 만일 손가락 움직임(140)의 가속이 임계치와 같거나 임계치를 초과하면 손가락 움직임(140)은 방향 명령(114)을 야기할 수 있다. 만일 가속이 플릭 임계치(412) 이하이면 손가락 움직임(140)은 방향 명령(114)을 야기하지 않는다.
더 예를 들면, 플릭 임계치(412)는 방향 명령(114)을 야기하기 위하여 사용되거나 만족되어야 할 필요는 없다. 손가락을 트랙패드(138)에서 떼기에 앞선 가속 시간이나 움직임의 시간은 방향 명령(114)의 발령을 야기할 수 있다. 만약 움직임이나 접촉 길이(414)가 접촉 시간 임계치를 만족하거나 그 이상이면, 방향 명령(114)은 가속의 규모와 관계없이 발령될 수 있고, 만일 손가락을 트랙패드(138)에서 떼기 전에 손가락의 움직임에 대한 가속이 남아있는 경우에도 마찬가지다. 만약, 접촉 길이(414)가 접촉 길이 임계치(416)보다 작다면 방향 명령(114)은 발령되지 않는다.
비록 그리드 컨피켜레이션은 다를 수도 있지만, 설명을 위하여 여기서는 도4에 도시된 그리드가 셀이 동일한 사이즈이고 버퍼 존(406)도 서로 동일한 사이즈인 균일한 그리드로 도시되었다. 예를 들어, 셀의 사이즈는 어플리케이션에 따라 다양할 수 있는데 그리드에서 일부의 셀이 다른 부분의 셀보다 작아 셀의 사이즈와 위에서 설명된 버퍼 존(406)을 기초로 손가락의 움직임에 대한 다른 민감도를 지원할 수 있다. 또 다른 예시로는, 제2 장치(106) 상에서 제어되는 어플리케이션을 기초로 반응성을 지원하기 위하여 셀이 모두 동일한 사이즈일 수 있는 반면 버퍼 존(406)은 트랙패드(138) 상에서 서로 다를 수 있다.
이제 도5를 살펴보면, 도5에서는 디스플레이 시스템(100)의 블록 다이어그램을 도시한다. 디스플레이 시스템(100)은 도1의 제1 장치(102), 통신망(104), 제2 장치(106) 그리고 제3 장치(108)를 포함할 수 있다. 제1 장치(102)는 통신망(104) 상의 제1 장치 전송기(508)에 있는 정보를 제2 장치(106)와 제3 장치(108)로 전송할 수 있다. 도1의 제어는 제1 장치 전송기(508)로 전송될 수 있다. 제2 장치(106)는 통신망(104) 상의 제2 장치 전송기(510)에 있는 정보를 제1 장치(102)로 전송할 수 있다.
간결하고 명확한 설명을 위하여, 제3 장치(108)의 예시 블록 다이어그램은 이 도에서 자세히 도시하거나 논의하지 않는다. 제3 장치(108)는 제2 장치(106)와 같거나 유사한 블록 다이어그램을 포함하고, 통신망(104) 상의 제1 장치(102)와 자신의 전송기 또는 제1 장치 전송기(508)나 제2 장치 전송기(510) 또는 그들의 조합과 통신한다.
본 발명의 이 실시예에서의 설명의 간결성을 위하여, 제1 장치(102)는 제어 장치로 설명되고, 제2 장치(106)는 디스플레이 장치로 설명될 것이다. 본 발명의 실시예는 이러한 장치들의 형태로 한정되지 않는다. 위의 선택은 본 발명의 일 실시예에 따른 예시일 뿐이다.
제1 장치(102)는 제1 제어 유닛(512)(512), 제1 저장 유닛(514), 제1 통신 유닛(516), 제1 사용자인터페이스를 포함할 수 있다. 제1 제어 유닛(512)(512)은 제1 제어 인터페이스(522)를 포함할 수 있다. 제1 제어 유닛(512)(512)은 제1 소프트웨어(526)를 실행하여 디스플레이 시스템(100)의 정보를 제공할 수 있다.
제1 제어 유닛(512)(512)은 수많은 다른 방식으로 실행될 수 있다. 예를 들어, 제1 제어 유닛(512)(512)은 프로세서, ASIC(application specific integrated circuit), 임베디드 프로세서, 마이크로프로세서, 하드웨어 조절 로직(hardware control logic), FSM(hardware finite state machine), DSP(digital signal processor) 또는 그들의 조합일 수 있다. 제1 제어 인터페이스(522)는 제1 제어 유닛(512)(512)과 제1 장치(102)의 다른 기능 유닛들 사이의 통신을 위하여 사용될 수 있다. 제1 제어 인터페이스(522)는 또한 제1 장치(102) 외부와의 통신을 위하여 사용될 수도 있다.
제1 제어 인터페이스(522)는 다른 기능 유닛이나 외부 소스로부터 정보를 수신할 수 있고 다른 기능 유닛이나 외부 목적지로 정보를 전송할 수 있다. 외부 소스 및 외부 목적지는 제1 장치(102) 외부의 소스와 목적지를 말한다.
제1 제어 인터페이스(522)는 다른 방식으로 실행될 수 있고 기능 유닛이나 외부 유닛이 제1 제어 인터페이스(522)와 인터페이스 되는 것에 따라 다른 실행을 포함할 수 있다. 예를 들어, 제1 제어 인터페이스(522)는 압력 센서, 관성 센서, MEMS(microelectromechanical system), 광학 회로, 도파로, 무선 회로, 유선 회로 또는 그들의 조합으로 실행될 수 있다.
제1 저장 유닛(514)은 제1 소프트웨어(526)를 저장할 수 있다. 제1 저장 유닛(514)은 또한 인커밍 이미지를 대표하는 이미지, 사전에 발표된 이미지를 대표하는 이미지, 사운드 파일 또는 그들의 조합과 같은 관련 정보를 저장할 수 있다.
제1 저장 유닛(514)은 휘발성 메모리, 비휘발성 메모리, 내부 메모리, 외부 메모리 또는 그들의 조합일 수 있다. 예를 들어, 제1 저장 유닛(514)은 NVRAM(non-volatile random access memory), 플래쉬 메모리, 디스크 저장과 같은 비휘발성 저장 장치이거나 또는 SRAM(static random access memory)과 같은 휘발성 저장 장치일 수도 있다.
제1 저장 유닛(514)은 제1 저장 인터페이스를 포함할 수 있다. 제1 저장 인터페이스는 제1 장치(102)에 있는 다른 기능 유닛들 사이의 통신을 위하여 사용될 수 있다. 제1 저장 인터페이스는 또한 제1 장치(102) 외부와의 통신을 위하여 사용될 수도 있다.
제1 저장 인터페이스는 다른 기능 유닛이나 외부 소스로부터 정보를 수신하거나 다른 기능 유닛이나 외부 목적지로 정보를 송신할 수 있다. 외부 소스와 외부 목적지는 제1 장치(102) 외부의 소스나 목적지를 말한다.
제1 저장 인터페이스는 제1 저장 유닛(514)과 인터페이스 되는 기능 유닛이나 외부 유닛에 따라 다른 실행을 포함할 수 있다. 제1 저장 인터페이스는 제1 제어 인터페이스(522)의 실행과 유사한 테크놀로지와 테크닉으로 실행될 수 있다.
제1 통신 유닛(516)은 제1 장치(102)와의 외부 통신을 가능하게 할 수 있다. 예를 들어, 제1 통신 유닛(516)은 제1 장치(102)가 주변 장치나 데스크 탑 컴퓨터와 같은 도1의 제2 장치(106), 부가 장치, 통신망(104)과 통신하는 것을 허락할 수 있다.
제1 통신 유닛(516)은 또한 제1 장치(102)가 통신망(104)의 끝 점이나 터미널 유닛으로 한정되지 않고 통신망(104)의 일부로 기능하게 해주는 통신허브로 기능할 수 있다. 제1 통신 유닛(516)은 통신망(104)과 교신을 위하여 마이크로일렉트로닉스(microelectronics), 안테나와 같은 능동적이고 수동적인 컴포넌트들을 포함할 수 있다.
제1 통신 유닛(516)은 제1 통신 인터페이스를 포함할 수 있다. 제1 통신 인터페이스는 제1 통신 유닛(516)과 제1 장치(102)의 다른 기능 유닛과의 통신을 위하여 사용될 수 있다. 제1 통신 인터페이스는 다른 기능 유닛으로부터 정보를 수신할 수 있고, 다른 기능 유닛으로 정보를 송신할 수 있다.
제1 통신 인터페이스는 제1 통신 유닛(516)과 인터페이스 되는 기능 유닛에 따라 다른 실행을 포함할 수 있다. 제1 통신 인터페이스는 제1 제어 인터페이스(522)의 실행과 유사한 테크놀로지나 테크닉으로 실행될 수 있다.
제1 사용자 인터페이스(518)는 사용자(도시되지 않음)가 제1 장치(102)와 인터페이스하고 교신하도록 해 준다. 제1 사용자 인터페이스(518)는 입력 장치와 출력 장치를 포함할 수 있다. 제1 사용자 인터페이스(518)의 입력 장치 예시는 도1의 트랙패드(138), 키패드, 터치패드, 소프트키, 키보드, 마이크, 원격 신호 수신기 또는 그들의 조합을 포함하여 데이터와 통신 입력을 제공 할 수 있다. 예를 들어, 트랙패드(138)는 또한 터치패드일 수 있다.
제1 사용자 인터페이스(518)는 제1 디스플레이 인터페이스(530)를 포함할 수 있다. 제1 디스플레이 인터페이스(530)는 디스플레이, 프로젝터, 비디오 스트린, 스피커 또는 그들의 조합을 포함할 수 있다.
제1 조절 유닛은 제1 사용자 인터페이스(518)를 작동하여 디스플레이 시스템(100)에 의해 생성된 정보를 디스플레이할 수 있다. 제1 제어 유닛(512)(512)은 또한 제1 통신 유닛(516)을 통하여 통신망(104)과 교신을 위한 제1 소프트웨어(526)를 실행할 수 있다.
제2 장치(106)는 제1 장치(102)를 가진 멀티 장치 실시에서 본 발명의 일 실시예를 실행하도록 최적화될 수 있다. 제2 장치(106)는 제1 장치(102)와 비교하여 한층 더 높은 퍼포먼스 처리 능력을 제공할 수 있다. 제2 장치(106)는 제2 제어 유닛(534), 제2 통신 유닛(536), 제2 사용자 인터페이스(538)를 포함할 수 있다.
제1 제어 유닛(512)(512), 제2 제어 유닛(534) 또는 그들의 조합은 도1의 손가락 움직임(140)을 감지할 수 있고, 도1의 제어, 방향 모드(110), 좌표 모드(112) 또는 그들의 조합을 생성하기 위하여 손가락 움직임(140)을 처리하거나 변환할 수 있다.
제1 제어 유닛(512)(512), 제2 제어 유닛(534) 또는 그들의 조합은 또한 도1의 방향 명령(114), 위치 명령(132) 또는 그들의 조합을 제어로부터 추출할 수 있다. 제1 제어 유닛(512)(512), 제2 제어 유닛(534) 또는 그들의 조합은 또한 도1의 좌표 식별, 좌표 위치(130) 또는 그들의 조합을 계산하거나 추출할 수 있다.
제1 조절 유닛, 제2 조절 유닛 또는 그들의 조합은 도4의 테1 터치를 기초로 도4의 그리드와 셀을 생성할 수 있다. 제1 제어 유닛(512)(512), 제2 제어 유닛(534) 또는 그들의 조합은 손가락 움직임(140)을 도4의 플릭 임계치(412), 접촉 길이 임계치(416) 또는 그들의 조합과 비교할 수 있다.
제2 사용자 인터페이스(538)는 사용자(도시되지 않음)가 제2 장치(106)와 인터페이스하고 교신할 수 있게 해 준다. 제2 사용자 인터페이스(538)는 입력 장치와 출력 장치를 포함할 수 있다. 제2 사용자 인터페이스(538) 입력 장치의 예시는 키패드, 터치패드, 소프트키, 키보드, 마이크 또는 그들의 조합을 포함하여 데이터와 통신 입력을 제공할 수 있다. 제2 사용자 인터페이스(538) 출력 장치의 예시는 제2 디스플레이 인터페이스(540)를 포함할 수 있다. 제2 디스플레이 인터페이스(540)는 디스플레이, 프로젝터, 비디오스크린, 스피커 또는 그들의 조합을 포함할 수 있다.
제2 제어 유닛(534)은 제2 소프트웨어(542)를 실행하여 디스플레이 시스템(100)의 제2 장치(106)에 지능을 제공할 수 있다. 제2 소프트웨어(542)는 제1 소프트웨어(526)와 결합하여 작동할 수 있다. 제2 제어 유닛(534)은 제1 제어 유닛(512)(512)과 비교하여 부가적인 퍼포먼스를 제공할 수 있다.
제2 제어 유닛(534)은 제2 사용자 인터페이스(538)를 작동하여 정보를 디스플레이할 수 있다. 제2 제어 유닛(534)은 또한 통신망(104)에 있는 제1 장치(102)와 통신하기 위하여 제2 통신 유닛(536)을 작동하는 것을 포함하여 디스플레이 시스템(100)의 다른 기능을 위하여 제2 소프트웨어(542)를 실행할 수 있다.
제2 제어 유닛(534)은 많은 다른 방식으로 실행될 수 있다. 예를 들어, 제2 제어 유닛(534)은 프로세서, 임베디드 프로세서, 마이크로 프로세서, 하드웨어 제어 로직, FSM(hardware finite state machine), DSP(digital signal processor) 또는 그들의 조합일 수 있다.
제2 제어 유닛(534)은 제2 제어 인터페이스(544)를 포함할 수 있다. 제2 제어 인터페이스(544)는 제2 제어 유닛(534)과 제2 장치(106)에 있는 다른 기능 유닛과의 통신을 위하여 사용될 수 있다. 제2 제어 인터페이스(544)는 또한 제2 장치(106) 외부 통신을 위하여 사용될 수도 있다.
제2 제어 인터페이스(544)는 다른 기능 유닛이나 외부 소스로부터 정보를 수신할 수 있고, 다른 기능 유닛이나 외부 목적지로 정보를 송신할 수 있다. 외부 소스와 외부 목적지는 제2 장치(106) 외부의 소스와 목적지를 말한다.
제2 제어 인터페이스(544)는 다른 방식으로 실행될 수 있고, 기능 유닛이나 외부 유닛이 제2 제어 인터페이스(544)와 인터페이스 되는 것에 따라 다른 실행을 포함할 수 있다. 예를 들어, 제2 제어 인터페이스(544)는 압력 센서, 관성 센서, MEMS(microelectromechanical system), 광학 회로, 도파관(waveguides), 무선 회로, 유선 회로 또는 그들의 조합과 함께 실행될 수 있다.
제2 저장 유닛(546)은 제2 소프트웨어(542)를 저장할 수 있다. 제2 저장 유닛(546)은 또한 인커밍 이미지를 대표하는 데이터, 사전에 발표된 이미지를 대표하는 데이터, 사운드 파일 또는 그들의 조합과 같은 정보를 저장할 수 있다. 제2 저장 유닛(546)은 규모를 가지고 제1 저장 유닛(514)을 지원하기 위하여 추가 저장 공간을 제공할 수 있다.
제2 저장 유닛(546)은 여러 저장 요소의 분포일 수 있지만 설명을 위하여 여기서는 단일 요소로 도시되었다. 또한 디스플레이 시스템(100)도 다른 컨피겨레이션의 제2 저장 유닛(546)을 가질 수 있지만, 설명을 위하여 단일 구조 저장 시스템인 제2 저장 유닛(546)을 가진 것으로 도시되었다. 예를 들어, 제2 저장 유닛(546)은 다른 레벨의 캐싱, 매인 메모리, 회전담체(rotating media), 오프라인 저장장치를 포함하는 메모리 구조 시스템을 형성하는 다른 저장 기술로 형성 될 수 있다.
제2 저장 유닛(546)은 NVRAM(non-volatile random access memory), 플래쉬 메모리, 디스크 저장과 같은 비휘발성 저장 장치이거나 또는 SRAM(static random access memory)과 같은 휘발성 저장 장치일 수도 있다.
제2 저장 유닛(546)은 제2 저장 인터페이스(548)를 포함할 수 있다. 제2 저장 인터페이스(548)는 제2 장치(106)에 있는 다른 기능 유닛들 사이의 통신을 위하여 사용될 수 있다. 제2 저장 인터페이스(548)는 또한 제2 장치(106) 외부와의 통신을 위하여 사용될 수도 있다.
제2 저장 인터페이스(548)는 다른 기능 유닛이나 외부 소스로부터 정보를 수신하거나 다른 기능 유닛이나 제2 장치(106) 외부 목적지로 정보를 송신할 수 있다.
제2 저장 인터페이스(548)는 기능 유닛이나 외부 유닛이 제2 저장 유닛(546)과 인터페이스 되는 것에 따라 다른 실행을 포함할 수 있다. 제2 저장 인터페이스(548)는 제2 제어 인터페이스(544)의 실행과 유사한 테크놀로지와 테크닉으로 실행될 수 있다.
제2 통신 유닛(536)은 제2 장치(106)와의 외부 통신을 가능하게 할 수 있다. 예를 들어, 제2 통신 유닛(536)은 제2 장치(106)가 통신망(104)을 통하여 제1 장치(102)와 통신하도록 할 수 있다.
제2 통신 유닛(536)은 또한 제2 장치(106)가 통신망(104)의 끝 점이나 터미널 유닛으로만 한정되지 않고 통신망(104)의 일부로 기능할 수 있도록 하는 통신 허브로 기능할 수 있다. 제2 통신 유닛(536)은 통신망(104)과 교신하기 위한 마이크로일렉트로닉스나 안테나와 같은 능동적, 수동적 컴포넌트들을 포함할 수 있다.
제2 통신 유닛(536)은 제2 통신 인터페이스(550)를 포함할 수 있다. 제2 통신 인터페이스(550)는 제2 통신 유닛(536)과 제2 장치(106)의 다른 기능 유닛과의 사이에 통신을 위하여 사용될 수 있다. 제2 통신 인터페이스(550)는 다른 기능 유닛으로부터 정보를 수신할 수 있고, 다른 기능 유닛으로 정보를 송신할 수 있다.
제2 통신 인터페이스(550)는 제2 통신 유닛(536)과 인터페이스 되는 기능 유닛에 따라 다른 실행을 포함할 수 있다. 제2 통신 인터페이스(550)는 제2 제어 인터페이스(544)의 실행과 유사한 테크놀로지와 테크닉을 실행할 수 있다.
제1 통신 유닛(516)은 통신망(104)과 연결되어 제1 장치 전송기(508)에 있는 제2 장치(106)로 정보를 송신할 수 있다. 제2 장치(106)는 제2 통신 유닛(536)에서 통신망(104)의 제1 장치 전송기(508)로부터 온 정보를 수신할 수 있다.
제2 통신 유닛(536)은 통신망(104)과 연결되어 제2 장치 전송기(510)에 있는 제1 장치(102)로 정보를 송신할 수 있다. 제1 장치(102)는 제1 통신 유닛(516)에서 통신망(104)의 제2 장치 전송기(510)로부터 온 정보를 수신할 수 있다. 디스플레이 시스템(100)은 제1 제어 유닛(512)(512), 제2 제어 유닛(534) 또는 그들의 조합에 의하여 실행될 수 있다. 비록 제2 장치(106)가 다른 파티션을 가질 수도 있지만 설명을 위하여 여기서는 제2 장치(106)가 제2 사용자 인터페이스(538), 제2 저장 유닛(546), 제2 제어 유닛(534) 그리고 제2 통신 유닛(536)을 갖는 파티션으로 도시되었다. 예를 들어, 제2 소프트웨어(542)는 몇몇 또는 모든 기능이 제2 제어 유닛(534)과 제2 통신 유닛(536)에 있는 것과 같이 다르게 파티션 될 수도 있다. 또한 제2 장치(106)는 명확성을 위하여 도5에 도시되지 않은 다른 기능 유닛을 포함할 수 있다.
디스플레이 시스템(100)은 제1 장치(102), 제2 장치(106) 그리고 제3 장치(108)의 작동으로 설명될 수 있다. 제1 장치(102), 제2 장치(106), 제3 장치(108) 또는 그들의 조합은 디스플레이 시스템(100)의 앞에 설명된 미들웨어의 어떠한 기능도 작동할 수 있다. 예를 들어, 미들웨어는 제1 소프트웨어(526), 제2 소프트웨어(542) 또는 그들의 조합에 포함될 수 있다.
상세한 설명에서 설명된 기능, 모듈, 미들웨어 또는 그들의 조합은 도5의 제1 제어 유닛(512)(512)이나 제2 제어 유닛(534)에 있는 하드웨어 실행 또는 하드웨어 가속기(hardware accelerators)일 수 있다. 기능, 모듈, 미들웨어 또는 그들의 조합은 또한 제1 장치(102)나 제2 장치(106) 내부에 있지만 제1 제어 유닛(512)(512)이나 제2 제어 유닛(534)의 외부에 있는 하드웨어 실행 또는 하드웨어 가속기(hardware accelerators)일 수 있다
간결하게 하기 위하여, 도5는 제1 장치(102)와 제2 장치(106)만을 도시하였다. 도1에 있는 제3 장치(108)는 또한 제2 장치(106)를 위하여 설명되고 도시된 것과 유사한 하드웨어 블록을 가질 수 있다. 제2 장치(106)를 위한 예시 블록 다이어그램은 도5에서 복사될 수 있고 대응하는 구성요소들은 제3 장치(108)를 위하여 다시 이름 지어지고, 다시 넘버링 될 수 있다.
이제 도6을 살펴보면, 도6에서는 본 발명의 일 실시예에 따른 디스플레이 시스템(100)의 작동 방법에 대한 흐름도를 도시하였다. 방법은 602 블록에서 트랙패드(138) 상 접촉을 감지하기 위한 손가락 움직임(140) 감지 단계, 604 블록에서 장치 제어를 위하여 손가락 움직임(140)만을 기초로 방향 모드(110)와 좌표 모드(112)에 대한 제어를 처리하는 단계를 포함한다.
방법은 또한 606 블록에서 손가락 움직임(140)만을 기초로 방향 모드(110)와 좌표 모드(112)를 위한 제어 수신 단계, 608 블록에서 장치 제어를 위하여 제어로부터 방향 명령(114), 위치 명령(132) 또는 그들의 조합을 추출하는 단계를 포함한다.
디스플레이 시스템(100)은 동적인 메커니즘을 제공하여 도4의 손가락 움직임(140)에 대한 도4의 제1 터치를 기초로 도 4의 그리드와 셀을 형성함으로써 방향 모드(110)와 좌표 모드(112)를 위한 도1의 방향 명령(114)과 위치 명령(132) 둘 모두를 제공한다.
디스플레이 시스템(100)은 도4의 각 셀 주위에 도4의 버퍼 존(406)을 둠으로써 흔들림도1의 없이 커서(116)의 끊김 없는 움직임을 제공한다. 움직임의 입상은 또한 버퍼 존(406)의 규모에 따라 작거나 크게 최적화될 수 있다.
디스플레이 시스템(100)은 손가락 움직임(140)을 도1의 방향 명령(114)이나 도4의 플릭 임계치(412)나 도4의 접촉 길이 임계치(416)와의 비교를 기초로 한 위치 명령(132)으로 변환해 주는데, 양 쪽 상황에서 손가락 움직임(140)은 셀 중의 하나의 내부에서 혹은 여러 개의 셀에 걸쳐서 이루어진다.
결과적 방법, 과정, 기계, 장치, 제품 및/또는 시스템은 쉽고, 비용이 절감되며, 복잡하기 않고, 다용도로 쓰이며 정확하고 민감하며 효율적이고, 이미 알려진 구성요소를 이용하여 실행될 수 있으며, 능률적이고, 경제적인 제조, 어플리케이션, 이용이 가능하다. 본 발명 실시예의 다른 중요한 특징은 원가 절감, 시스템 간소화, 퍼포먼스 증가라는 시대적 요청에 잘 부합한다는 것이다.
본 발명 실시예의 이러한 특징 및 다른 가치 있는 특징들은 최소한 다음 단계로의 기술 발전을 의미한다.
발명이 바람직한 실시예와 함께 설명되는 동안에 많은 특징, 수정, 변수가 전술의 설명으로 당업자에게 명백해 졌을 것이다. 따라서, 그러한 대체, 수정, 변화는 청구 범위에 포함된다. 발명의 상세한 설명 및 첨부된 도면에서 설명되고 도시된 모든 것들은 범위를 한정하기 위한 것이 아니라 설명을 위한 것으로 이해된다.

Claims (20)

  1. 트랙패드(trackpad) 상 손가락 움직임의 감지를 위하여 손가락 움직임을 감지 하도록 구성된 사용자 인터페이스; 및
    상기 사용자 인터페이스와 연결되고, 상기 손가락의 움직임과 버퍼 존(buffer zone)을 가지는 각 셀들을 기초로 상기 각 셀들의 그리드를 구성하고, 장치 제어를 위하여 손가락의 움직임만을 기초로 방향 모드와 좌표 모드 양 쪽의 제어를 모두 처리하도록 구성된 제어 유닛을 포함하고,
    상기 각 셀들의 그리드는 상기 손가락의 움직임을 커서의 움직임으로 매핑하기 위한 것이고, 상기 버퍼 존은 상기 각 셀들의 사이에 위치하고, 커서의 흔들림을 최소화하기 위하여 사이즈가 동적으로 조절되는 디스플레이 시스템.
  2. 제1항에 있어서,
    상기 제어 유닛은 상기 제어로부터 방향 명령과 위치 명령을 제공하도록 구성된 것을 특징으로 하는 디스플레이 시스템.
  3. 제1항에 있어서,
    상기 사용자 인터페이스는 상기 손가락 움직임의 제1 터치를 감지하도록 구성되고;
    제어 유닛은 상기 제1 터치를 기초로 셀들의 그리드(grid)를 구성하도록 구성된 것을 특징으로 하는 디스플레이 시스템.
  4. 제1항에 있어서,
    상기 제어 유닛은
    상기 셀들 중의 하나의 내부에서 상기 손가락 움직임으로 플릭 제스춰(flick gesture)를 결정하고,
    플릭 임계치를 만족하거나 초과하는 상기 플릭 제스춰를 기초로 방향 명령을 발령하는 것을 포함하는 상기 제어를 처리하는 것을 특징으로 하는 디스플레이 시스템.
  5. 제1항에 있어서,
    상기 제어 유닛은
    상기 손가락 움직임으로 플릭 제스춰를 결정하고; 그리고
    접촉 길이 임계치(contact length threshold)를 만족하거나 초과하는 상기 손가락 움직임의 접촉 길이를 기초로 방향 명령을 발령하는 것을 포함하는 상기 제어를 처리하는 것을 특징으로 하는 디스플레이 시스템.
  6. 삭제
  7. 손가락의 움직임만을 기초로 방향 모드와 좌표 모드 양 쪽에 대한 제어를 수신하도록 구성된 통신 유닛; 및
    상기 통신 유닛과 연결되고, 상기 손가락의 움직임과 버퍼 존(buffer zone)을 가지는 각 셀들을 기초로 상기 각 셀들의 그리드를 구성하고, 장치 조절을 위하여 상기 제어로부터 방향 명령, 위치 명령 또는 그들의 조합을 추출하도록 구성된 제어 유닛;을 포함하고,
    상기 각 셀들의 그리드는 상기 손가락의 움직임을 커서의 움직임으로 매핑하기 위한 것이고, 상기 버퍼 존은 상기 각 셀들의 사이에 위치하고, 커서의 흔들림을 최소화하기 위하여 사이즈가 동적으로 조절되는 디스플레이 시스템.
  8. 제7항에 있어서,
    상기 제어 유닛은 상기 방향 명령을 기초로 액셔너블 아이템(actionable item)을 작동하도록 구성된 디스플레이 시스템.
  9. 제7항에 있어서,
    상기 제어 유닛은 상기 위치 명령을 기초로 커서를 좌표 위치로 이동하도록 구성된 디스플레이 시스템.
  10. 제7항에 있어서,
    상기 제어 유닛은 상기 위치 명령을 기초로 커서를 액셔너블 아이템과 관계 없는 좌표 위치로 이동시키도록 구성된 디스플레이 시스템.
  11. 트랙패드(trackpad) 상 손가락의 움직임을 감지하기 위하여 손가락의 움직임을 감지하는 단계;
    상기 손가락의 움직임과 버퍼 존(buffer zone)을 가지는 각 셀들을 기초로 상기 각 셀들의 그리드를 구성하는 단계; 및
    장치 조절을 위하여 손가락의 움직임 만을 기초로 방향 모드와 좌표 모드 양쪽을 위한 제어를 처리하는 단계를 포함하고,
    상기 각 셀들의 그리드는 상기 손가락의 움직임을 커서의 움직임으로 매핑하기 위한 것이고, 상기 버퍼 존은 상기 각 셀들의 사이에 위치하고, 커서의 흔들림을 최소화하기 위하여 사이즈가 동적으로 조절되는 디스플레이 시스템의 작동 방법.
  12. 제11항에 있어서,
    방향 명령 과 위치 명령을 제공하는 것을 각각 포함하는 상기 방향 모드와 상기 좌표 모드를 위하여 상기 제어를 처리하는 단계를 포함하는 것을 특징으로 하는 디스플레이 시스템의 작동 방법.
  13. 제11항에 있어서,
    상기 손가락 움직임에 대한 감지는 제1 터치 감지를 포함하고;
    상기 제1 터치를 기초로 셀들의 그리드를 형성하는 것을 더 포함하는 것을 특징으로 하는 디스플레이 시스템의 작동 방법.
  14. 제11항에 있어서,
    상기 셀들 중 하나의 내부에서 상기 손가락 움직임으로 플릭 제스춰(flick gesture)를 결정하는 단계를 더 포함하고;
    상기 방향 모드와 상기 좌표 모드를 위한 상기 제어 처리 단계는 상기 플릭 제스춰가 플릭 임계치를 만족하거나 초과하는지를 기초로 방향 명령을 발령하는 것을 포함하는 것을 특징으로 하는 디스플레이 시스템의 작동 방법.
  15. 제11항에 있어서,
    상기 손가락 움직임으로 플릭 제스춰를 결정하는 단계를 더 포함하고; 그리고
    상기 방향 모드와 상기 좌표 모드를 위한 상기 제어 처리 단계는 접촉 길이임계치(contact length threshold)를 만족하거나 초과하는 상기 손가락 움직임의 접촉 길이를 기초로 방향 명령을 발령을 포함하는 것을 특징으로 하는 디스플레이 시스템의 작동 방법.
  16. 삭제
  17. 손가락 움직임만을 기초로 방향 모드와 좌표 모드 양 쪽을 위한 제어를 수신하는 단계; 및
    상기 손가락의 움직임과 버퍼 존(buffer zone)을 가지는 각 셀들을 기초로 상기 각 셀들의 그리드를 구성하고, 장치 조절을 위하여 상기 제어로부터 방향 명령, 위치 명령 또는 그들의 조합을 추출하는 단계;를 포함하고,
    상기 각 셀들의 그리드는 상기 손가락의 움직임을 커서의 움직임으로 매핑하기 위한 것이고, 상기 버퍼 존은 상기 각 셀들의 사이에 위치하고, 커서의 흔들림을 최소화하기 위하여 사이즈가 동적으로 조절되는 디스플레이 시스템의 작동 방법.
  18. 제17항에 있어서,
    상기 방향 명령을 기초로 액셔너블 아이템(actionable item)을 작동하는 단계를 더 포함하는 디스플레이 시스템의 작동 방법.
  19. 제17항에 있어서,
    상기 위치 명령을 기초로 커서를 좌표 위치로 이동시키는 단계를 더 포함하는 디스플레이 시스템의 작동 방법.
  20. 제17항에 있어서,
    상기 위치 명령을 기초로 커서를 액셔너블 아이템과 관계 없는 좌표 위치로이동시키는 단계를 더 포함하는 디스플레이 시스템의 작동 방법.
KR1020140001501A 2013-01-04 2014-01-06 공존하는 멀티 모드 조절 메커니즘을 갖춘 디스플레이 시스템과 그 작동 방법 KR102219908B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361749246P 2013-01-04 2013-01-04
US61/749,246 2013-01-04
US13/914,268 US10175874B2 (en) 2013-01-04 2013-06-10 Display system with concurrent multi-mode control mechanism and method of operation thereof
US13/914,268 2013-06-10

Publications (2)

Publication Number Publication Date
KR20140089317A KR20140089317A (ko) 2014-07-14
KR102219908B1 true KR102219908B1 (ko) 2021-02-24

Family

ID=49886784

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140001501A KR102219908B1 (ko) 2013-01-04 2014-01-06 공존하는 멀티 모드 조절 메커니즘을 갖춘 디스플레이 시스템과 그 작동 방법

Country Status (5)

Country Link
US (1) US10175874B2 (ko)
EP (1) EP2752756A3 (ko)
KR (1) KR102219908B1 (ko)
CN (1) CN103914251B (ko)
WO (1) WO2014107021A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160165220A1 (en) * 2014-12-08 2016-06-09 Seiko Epson Corporation Display apparatus and method of controlling display apparatus
CN105743949A (zh) * 2014-12-11 2016-07-06 厦门雅迅网络股份有限公司 一种两个设备间的双屏同步的方法
US10023210B2 (en) * 2015-02-06 2018-07-17 Laird Technologies, Inc. Devices, systems, and methods related to tracking location of operator control units for locomotives
CN113900576A (zh) * 2021-11-03 2022-01-07 杭州逗酷软件科技有限公司 交互方法、装置、电子设备以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052425A1 (en) * 2003-08-18 2005-03-10 Zadesky Stephen Paul Movable touch pad with added functionality
US20090109183A1 (en) * 2007-10-30 2009-04-30 Bose Corporation Remote Control of a Display
US20110163981A1 (en) * 2010-01-04 2011-07-07 Sony Corporation Manipulation direction judgment device, remote manipulation system, manipulation direction judgment method and program

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956019A (en) 1993-09-28 1999-09-21 The Boeing Company Touch-pad cursor control device
EP1528460A1 (en) 2003-10-30 2005-05-04 GIRAUD, Pierre Method and system for generating cursor control data in relation to a users input action
US7265748B2 (en) * 2003-12-11 2007-09-04 Nokia Corporation Method and device for detecting touch pad input
JP2005208991A (ja) * 2004-01-23 2005-08-04 Canon Inc 位置情報出力装置及び信号処理方法
TW200723077A (en) * 2005-12-14 2007-06-16 Elan Microelectronics Corp Movement detection method for multiple objects on a capacitive touchpad
KR101433969B1 (ko) 2006-07-10 2014-08-26 마이크로소프트 코포레이션 그래픽 사용자 인터페이스를 생성하는 데이터 처리 장치, 네비게이트 방법, 컴퓨터 구현 방법, 기계 판독가능 매체, 및 무선 데이터 처리 장치
US8760400B2 (en) * 2007-09-07 2014-06-24 Apple Inc. Gui applications for use with 3D remote controller
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
KR20100062077A (ko) * 2008-12-01 2010-06-10 삼성전자주식회사 사용자 인터페이스를 향상시키기 위한 사용자 인터페이스 제공방법 및 이를 이용한 멀티미디어 기기
JP5370754B2 (ja) 2009-06-30 2013-12-18 ソニー株式会社 入力装置および入力方法
CA2771918C (en) * 2009-08-25 2015-06-09 Google Inc. Direct manipulation gestures
US20110169750A1 (en) * 2010-01-14 2011-07-14 Continental Automotive Systems, Inc. Multi-touchpad multi-touch user interface
WO2011145330A1 (ja) * 2010-05-18 2011-11-24 パナソニック株式会社 座標決定装置、座標決定方法及び座標決定プログラム
KR101695818B1 (ko) 2010-07-28 2017-01-13 엘지전자 주식회사 이동 단말기 및 이것의 가상 키 패드 제어 방법
WO2012135373A2 (en) * 2011-04-01 2012-10-04 Analog Devices, Inc. A dedicated user interface controller for feedback responses
KR101898979B1 (ko) * 2012-02-16 2018-09-17 삼성디스플레이 주식회사 터치 패널의 구동 방법, 터치 패널 및 디스플레이 장치
US20130265243A1 (en) * 2012-04-10 2013-10-10 Motorola Mobility, Inc. Adaptive power adjustment for a touchscreen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052425A1 (en) * 2003-08-18 2005-03-10 Zadesky Stephen Paul Movable touch pad with added functionality
US20090109183A1 (en) * 2007-10-30 2009-04-30 Bose Corporation Remote Control of a Display
US20110163981A1 (en) * 2010-01-04 2011-07-07 Sony Corporation Manipulation direction judgment device, remote manipulation system, manipulation direction judgment method and program

Also Published As

Publication number Publication date
EP2752756A3 (en) 2017-10-25
EP2752756A2 (en) 2014-07-09
WO2014107021A1 (en) 2014-07-10
CN103914251A (zh) 2014-07-09
CN103914251B (zh) 2019-07-26
US10175874B2 (en) 2019-01-08
KR20140089317A (ko) 2014-07-14
US20140191984A1 (en) 2014-07-10

Similar Documents

Publication Publication Date Title
US10585553B2 (en) Display device and method of controlling the same
CN102238282B (zh) 能够提供多层游戏的移动终端及其操作方法
US11538443B2 (en) Electronic device for providing augmented reality user interface and operating method thereof
US9541417B2 (en) Panning for three-dimensional maps
KR20170046675A (ko) 경로 중단이 감소된 내비게이션 검색 결과의 제공 기법
US8938558B2 (en) Modifying functionality based on distances between devices
BR102014006171A2 (pt) Dispositivo eletrônico e método para controlar exibição de tela usando temperatura e umidade
CN105518643A (zh) 多显示方法、存储介质和电子装置
KR102219908B1 (ko) 공존하는 멀티 모드 조절 메커니즘을 갖춘 디스플레이 시스템과 그 작동 방법
US11209930B2 (en) Method of controlling device using various input types and device for performing the method
KR102354695B1 (ko) 컨텐츠 작성 시스템 상의 가이드
US20200272308A1 (en) Shake Event Detection System
WO2021197262A1 (zh) 显示方法及电子设备
KR20170053702A (ko) 요청된 센서 특성에 기초한 자동 센서 선택
WO2020238357A1 (zh) 图标显示方法及终端设备
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
US10719147B2 (en) Display apparatus and control method thereof
US10365757B2 (en) Selecting first digital input behavior based on a second input
KR20170007966A (ko) 측면 터치 조합을 이용한 스마트 디바이스 조작 방법 및 장치
US20140215373A1 (en) Computing system with content access mechanism and method of operation thereof
KR102125100B1 (ko) 웨어러블 디바이스의 제어 방법 및 그 장치
KR102197886B1 (ko) 웨어러블 디바이스의 제어 방법 및 그 장치
KR101507595B1 (ko) 제스처를 이용한 기능 실행 방법 및 이를 위한 휴대용 전자 장치
KR20240033613A (ko) 플렉서블 디스플레이를 갖는 전자 장치 및 그의 파지 상태에 기반한 제어 객체 제공 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant