KR20130124502A - 사용자 인터페이스의 내비게이션 시스템 및 방법 - Google Patents

사용자 인터페이스의 내비게이션 시스템 및 방법 Download PDF

Info

Publication number
KR20130124502A
KR20130124502A KR1020137011292A KR20137011292A KR20130124502A KR 20130124502 A KR20130124502 A KR 20130124502A KR 1020137011292 A KR1020137011292 A KR 1020137011292A KR 20137011292 A KR20137011292 A KR 20137011292A KR 20130124502 A KR20130124502 A KR 20130124502A
Authority
KR
South Korea
Prior art keywords
vector information
user interface
orientation
neighbor
vector
Prior art date
Application number
KR1020137011292A
Other languages
English (en)
Inventor
마크 리로이 워커
크리스토퍼 스티번 번스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20130124502A publication Critical patent/KR20130124502A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42212Specific keyboard arrangements
    • H04N21/42213Specific keyboard arrangements for facilitating data entry
    • H04N21/42214Specific keyboard arrangements for facilitating data entry using alphanumerical characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

개시된 방법 및 시스템은 벡터 기반인 사용자 인터페이스의 내비게이션에 관한 것이다. 벡터 기반의 내비게이션은 직교 방향 내비게이션(상/하/좌/우)의 효율성을 포인터 기반(예컨대, 마우스/터치 패드) 내비게이션의 신축성과 결합시킨다. 사용자 인터페이스 요소가 2D(또는 3D) 공간에서 임의로 배열될 수 있고 현재 활성 UI 요소로부터 벡터 관계에 관하여 묘사될 수 있다. 트랙볼, 터치 패드, 또는 자이로스코픽 리모트와 같은 제어 장치로부터 오는 방향 표시가 UI 요소들 사이의 내비게이션에 영향을 주기 위해 벡터 이동으로 변환될 수 있다.

Description

사용자 인터페이스의 내비게이션 시스템 및 방법{SYSTEM AND METHOD FOR NAVIGATION IN A USER INTERFACE}
종래의 관련 출원
본 출원은 미국 가특허 출원 제61/388,975호(출원일: 2010년 10월 1일)의 우선권을 청구하며, 이 기초출원은 그 전체 내용이 본 명세서에 참조 문헌으로 병합된다.
기술 분야
본 발명은 사용자 인터페이스의 분야에 관한 것이다. 더욱 구체적으로는, 본 발명은 포인터 기반 리모트(pointer-based remotes)를 사용하여 직교(orthogonal)(상/하/좌/우) 내비게이션용으로 설계된 사용자 인터페이스의 내비게이션에 관한 것이다.
TV 사용자 인터페이스용과 같은 기존의 사용자 인터페이스 내비게이션 스킴(schemes)은 D-패드(방향성 패드) 입력, 또는 더욱 최근에는, 자이로(gyro)나 다른 유형의 리모트 컨트롤을 이용한 포인터 기반 내비게이션을 이용한다. D-패드 입력은 종종 비효율적인 내비게이션을 야기하는 수평 및/또는 수직 내비게이션을 지원하도록 사용자 인터페이스의 설계를 제한한다. 포인터 기반 내비게이션은 사용자 인터페이스 요소 배치의 제한을 제거하지만, 원하는 아이템을 강조하기 위해 스크린 실제 부분(real-estate)를 가로지르도록, UI가 화살표나 포인터와 같은 표시기를 사용하게 하며 - 이것이 비효율적일 수도 있는 빈 스크린 영역을 가로지르게 할 수도 있다.
개시된 실시형태들은 사용자 내비게이션을 위한 시스템 및 방법에 관한 것으로, 더욱 구체적으로는, 벡터 기반인 내비게이션 방법 및 시스템에 관한 것이다. 벡터 기반 내비게이션은 직교 방향 내비게이션(상/하/좌/우)의 효율성을 포인터 기반(예컨대, 마우스/터치 패드) 내비게이션의 신축성과 결합시킨다. 사용자 인터페이스 요소가 2D(또는 3D) 공간에서 임의로 배열될 수 있고 현재 활성 UI 요소로부터 벡터 관계에 관하여 묘사될 수 있다. 트랙볼, 터치 패드, 또는 자이로스코픽 리모트(gyroscopic remote)와 같은 제어 장치로부터 오는 방향 표시(directional gestures)가 UI 요소들 사이의 내비게이션에 영향을 주기 위해 벡터 이동으로 변환될 수 있다.
일 양태에 따르면, 사용자 인터페이스를 내비게이트하기 위한 방법이 제공된다. 그 방법은 상기 사용자 인터페이스의 적어도 하나의 요소 및 적어도 하나의 이웃(neighbor)의 배향(orientation)을 벡터 정보로 표현하는 단계, 상기 사용자 인터페이스를 내비게이트하기 위한 이동 정보 입력을 수신하는 단계, 상기 이동 정보를 벡터 정보로 변환하는 단계, 및 상기 수신된 이동 정보로부터 변환된 상기 벡터 정보를 상기 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보에 맵핑시키는 단계를 포함한다.
다른 실시형태에 따르면, 사용자 인터페이스의 내비게이션을 가능하게 하는 시스템이 제공된다. 그 시스템은 전자 장치를 포함한다. 전자 장치는 출력 인터페이스, 입력 인터페이스, 프로세서 및 저장장치를 포함한다. 출력 인터페이스는 사용자 인터페이스를 출력하도록 구성된다. 입력 인터페이스는 사용자 인터페이스를 내비게이트하기 위한 이동 정보를 수신하도록 구성된다. 프로세서는 사용자 인터페이스의 적어도 하나의 요소 및 그 이웃의 배향을 표현하고, 수신된 이동 정보를 벡터 정보로 변환하며; 상기 수신된 이동 정보로부터 변환된 상기 벡터 정보를 상기 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보에 맵핑시키도록 구성된다. 저장장치는 벡터 정보를 저장하도록 구성된다.
도 1a는 일 실시형태에 따르는 별개의 부품들을 갖는 시스템의 일 실시형태를 도시한 도면;
도 1b는 다른 부품들이 일 실시형태에 따라 하나의 유닛으로 병합되는 시스템의 일 실시형태를 도시한 도면;
도 2는 일 실시형태에 따르는 시스템의 요소들을 도시한 블록도;
도 3은 일 실시형태에 따르는 방법론을 예시하는 흐름도;
도 4는 일 실시형태에 따라 하나의 요소 및 그 이웃의 배향을 표현하는 데 사용되는 벡터 정보의 그래픽도;
도 5는 일 실시형태에 따라 하나의 요소 및 다수의 이웃의 배향을 표현하는 데 사용되는 벡터 정보의 그래픽도;
도 6은 일 실시형태에 따라 요소들 및 그 이웃의 배향이 어떻게 사용자 인터페이스용의 벡터 정보로 표현될 수 있는지의 도면;
도 7은 일 실시형태에 따라 요소들 및 그 이웃의 배향이 어떻게 사용자 인터페이스용의 벡터 정보로 표현될 수 있는지의 다른 도면;
도 8은 일 실시형태에 따르는 방법론을 예시하는 흐름도;
도 9는 요소 및 다수의 이웃의 배향을 표현하는 데 사용될 수 있는 벡터 정보가 어떻게 일 실시형태에 따라 다른 요소들 사이에서 내비게이트하는 데 사용되는지의 그래픽도.
본 명세서에 개시된 방법론, 시스템 및 교시내용은 온-스크린 사용자 인터페이스를 내비게이트하기 위해 포인터 기반 제어 장치로부터 명령을 수신할 수 있는 전자 장치에서 구현될 수 있다. 그러한 전자 장치의 예는 이하로 제한되는 것은 아니지만, 이하를 포함한다: 퍼스널 컴퓨터, 셋톱 박스, 텔레비전, 미디어 플레이어, 게이밍 장치, 테스트 장비 등.
도 1a는 본 명세서에 기재된 기능이 채용될 수 있는 하나의 시스템(100)을 도시한다. 이 실시예에서는, 3개의 주요 부품: 제어 장치(105), 전자 장치(110) 및 디스플레이(120)가 존재한다. 이 실시형태에서, 미디어 플레이어(110)는 제어 장치(105) 및 디스플레이(120)에 접속되도록 설계된 미디어 플레이어 또는 퍼스널 컴퓨터와 같은 셋톱 박스이다. 제어 장치는 마우스, 트랙볼, 터치 패드, 또는 자이로스코픽 리모트(gyroscopic remote)와 같은 포인터 기반 제어 장치이다. 제어 장치(105)는 USB나 네트워크 케이블과 같은 유선 접속, 또는 적외선(IR), 무선 주파수(RF), 블루투스(BT)나 무선 네트워킹 프로토콜(WiFi)과 같은 무선 접속을 통해 전자 장치(110)에 접속된다. 디스플레이(120)는 음극선관(CRT), 플라즈마, 액정 디스플레이(LCD), 유기 발광 다이오드(OLED) 등과 같은 사용자 인터페이스를 디스플레이할 수 있는 어떠한 디스플레이일 수 있다. 전자 장치(110)와 디스플레이(120) 간의 접속은 동축(coaxial), RCA, VGA, 디스플레이포트(DisplayPort), DVI, HDMI 또는 다른 유형의 접속일 수 있다.
도 1a의 실시형태에서, 제어 장치(105), 전자 장치 및 디스플레이(110)는 별개의 장치로 도시되어 있지만, 많은 실시형태에서는, 이들 부품 중 하나 이상이 결합될 수도 있다. 이것의 일 실시예는 도 1b에서 볼 수 있다. 도 1b는 제어 장치(105) 및 디스플레이(120)를 포함하는 전자 장치(110)를 도시한다. 그러한 전자 장치의 실시예들은 이하로 제한되지는 않지만 이하를 포함한다: 랩톱, 퍼스널 미디어 플레이어, 이북 리더(ebook reader), 퍼스널 게이밍 시스템, 테스트 장비 등.
도 2는 일 실시형태에 따르는 전자 장치(110)의 요소들을 도시한 블록도이다. 이 실시형태에서, 미디어 플레이어(110)는 프로세서(200), 저장장치(210), 입력 인터페이스(220) 및 출력 인터페이스(230)를 포함한다. 몇몇 실시형태에서, 가전 장치는 입력 인터페이스(240) 및 네트워크 인터페이스(250)를 더 포함할 수 있다. 이들 요소의 각각은 이하 더욱 상세히 설명할 것이다.
프로세서(200)는 전자 장치(110)의 동작을 제어한다. 프로세서(200)는 전자 장치(110)를 동작시킬 뿐만 아니라 벡터 내비게이션의 기능을 제공하는 소프트웨어를 구동시킨다. 프로세서(200)는 저장장치(210), 입력 인터페이스(220) 및 출력 인터페이스(230)에, 그리고, 몇몇 실시형태에서는, 네트워크 인터페이스(240)에 접속되고, 이들 요소 간에 정보의 전송 및 처리를 조종한다. 프로세서(200)는 범용 프로세서 또는 특정 기능에 전용의 프로세서일 수 있다. 특정 실시형태에서는, 다수의 프로세서가 존재할 수 있다.
저장장치(210)는 전자 장치(110)에 의해 사용되는 소프트웨어 및 다른 정보가 저장되는 장소이다. 저장장치(210)는 휘발성 메모리(RAM), 비휘발성 메모리(EEPROM), 자성(magnetic) 미디어(하드 드라이브), 광학 미디어(CD/DVD-Rom), 또는 플래시 기반 저장장치를 포함할 수 있다. 특정 실시형태에서는, 저장장치(210)는 일반적으로 메모리뿐만 아니라 하드 드라이브와 같은 대용량 저장장치를 포함한다.
입력 인터페이스(220)는 사용자가 전자 장치(110)와 상호 작용할 수 있게 한다. 입력 인터페이스(220)는 제어 장치(105)와 같이, 정보를 입력하는 데 사용될 수 있는 여러 가지 장치와의 인터페이스를 조종한다.
출력 인터페이스(230)는 디스플레이(120) 상에 출력하기 위한 정확한 포맷으로 미디어를 제공하도록 구성된다. 적절한 포맷은 출력될 컨텐츠용의 코덱(codec)뿐만 아니라 외부 비디오 디스플레이 장치나 오디오 장치 또는 몇몇 실시형태에서는 온보드(onboard) 디스플레이나 스피커에 접속하는 데 사용되는 커넥터 유형을 포함할 수 있다. 출력 인터페이스(230)는 또한, 개시한 벡터 내비게이션 기능을 사용하여 내비게이트되는 그래픽 및 메뉴를 제공할 수도 있다.
임의의 다른 실시형태에서, 전자 장치(110)는 도 1b에 도시된 바와 같이 제어 장치(105) 및 디스플레이(120)를 포함할 수도 있다. 도 2에 도시된 실시예에서, 제어 장치(105)는 입력 인터페이스(220)에 접속되고 디스플레이(120)는 출력 인터페이스(230)에 접속된다.
임의의 다른 실시형태에서, 전자 장치(110)는 또한 네트워크 인터페이스(240)를 포함한다. 네트워크 인터페이스(240)는 네트워크를 거쳐 다른 장치들과 전자 장치(110)의 통신을 조종한다. 적절한 네트워크의 실시예는 이더넷 또는 MoCa(multimedia over coaxial) 네트워크를 포함한다. 다른 유형의 적절한 홈 네트워크가 이 개시물의 이점을 고려해볼 때 당업자에게는 명백해질 것이다.
도 2에 제시된 요소들은 예시적인 것임을 이해해야 한다. 전자 장치(110)는 임의의 수의 요소들을 포함할 수 있고, 어떤 요소들은 다른 요소들의 기능의 일부 또는 전부를 제공할 수 있다. 예를 들면, 입력 인터페이스(220) 및 출력 인터페이스(230)의 대부분의 기능은 프로세서(200)나 다수의 범용 또는 전용 프로세서에 의해 실행될 수 있다. 유사하게, 네트워크는 연결하여, 출력 인터페이스(230)나 입력 인터페이스(220)에서 분리하여 구현될 수 있다. 다른 가능한 구현이 이 개시물의 이점을 고려해볼 때 당업자에게는 명백해질 것이다.
도 3은 벡터 내비게이션을 사용하여 사용자 인터페이스의 내비게이션을 위한 방법(300)을 도시하는 흐름도이다. 가장 기본적으로는, 상기 방법은 4개의 단계를 포함한다. 제1 단계는 사용자 인터페이스의 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 벡터 정보로 표현하는 것이다(단계 310). 사용자 인터페이스를 내비게이트하기 위한 이동 정보 입력이 그 후 수신된다(단계 320). 이동 정보는 벡터 정보로 변환된다(단계 330). 마지막으로, 수신된 이동 정보로부터 변환된 벡터 정보가 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보에 맵핑된다. 임의의 실시형태에서, 상기 방법은 사용자 인터페이스를 디스플레이하는 단계(단계 305) 및 적어도 하나의 요소 및 적어도 하나의 이웃의 배향에 맵핑되는 수신된 이동 정보를 반영하도록 디스플레이된 사용자 인터페이스를 갱신하는 단계(단계 350)를 더 포함할 수 있다. 이들 단계의 각각은 이하 더욱 상세히 설명할 것이다.
사용자 인터페이스를 디스플레이하는 것(단계 305)은 프로세서(200)가 사용자 인터페이스를 생성하는 것, 출력 인터페이스(230)가 사용자 인터페이스를 디스플레이하는 디스플레이(120)에 사용자 인터페이스를 출력하는 것을 수반한다. 일 실시형태에서, 사용자 인터페이스는 직교 방식(상/하/좌/우)으로 방향 패드(D-패드: Direction pad)를 사용하여 내비게이트되도록 설계된 그래픽 사용자 인터페이스이다. 그러한 사용자 인터페이스의 예들은 이하로 제한되는 것은 아니지만, 이하를 포함한다: 전자 프로그램 가이드(EPG), 설정 및 구성 메뉴, 온 스크린 키보드 등. 그러한 디스플레이에서, 인터페이스의 활성 요소는 일반적으로 그 활성 요소의 활성 상태를 나타내도록 및 사용자 인터페이스를 내비게이트하기 위해 사용자에게 기준 위치를 제공하도록 강조된다. 전통적으로, 사용자는 활성 요소를 이전의 활성 요소의 위, 아래, 좌, 우에 있는 이웃 요소로 변경하기 위해 상/하/좌/우 명령 입력을 제공하도록 D-패드를 사용할 것이다. 본 명세서에 개시된 방법 및 교시내용은 사용자가 온 스크린 포인터 표시기를 필요로 하지 않지만 상술한 강조된 활성 요소 표시기를 사용하여 D-패드 대신에 포인트 기반 제어 장치를 사용하여 이러한 유형의 사용자 인터페이스를 내비게이트할 수 있게 한다.
벡터 내비게이션이 이것을 달성하기 위해 사용된다. 벡터 내비게이션으로, 사용자 인터페이스 내의 요소들 및 그 이웃의 배향이 벡터 정보로 표현된다(단계 310). 이것의 일 실시예는 도 4에서 볼 수 있다.
도 4는 요소(410) 및 그 이웃(420)의 배향을 표현하기 위해 사용된 벡터 정보의 그래픽도(400)이다. 이 실시예에서, 사용자 인터페이스 요소(410)는 사용자 인터페이스 내의 활성 요소이다. 활성 요소(410)의 이웃 요소와의 배향 및 관계를 표현하는, 정의하는, 또는 그렇지 않으면 설명하는 벡터 정보(400)는 각도(Ø)(430) 및 크기(440) 성분을 포함한다. 유사한 방식으로, 다른 이웃의 배향 및 관계도 벡터 정보로 표현, 정의 또는 그렇지 않은 설명될 수 있다. 이것의 일 실시예는 도 5에서 볼 수 있다.
도 5는 요소(410) 및 다수의 이웃(420, 430)의 배향을 표현하기 위해 사용된 벡터 정보의 그래픽도(500)이다. 다수의 이웃(420, 430) 사이의 식별 및 선택 시에 시스템의 견고성을 증가시키기 위해, 수용각(acceptance angle)(510, 520)이 사용될 수 있다. 수용각(510, 502)은 특별한 이웃으로 선택하거나 변경할 수용 가능한 명령을 "윈도우(window)"에 제공한다. 예를 들면, 도 5에는, 2개의 이웃(420 및 430)이 존재한다. 쇄선(―·―)(530)은 이웃(420 및 430)을 이등분하는 각도를 묘사한다. 쇄선(530) 아래의 원호(510)는 이웃(420)에 대한 수용각을 나타내는 한편, 쇄선(530) 위의 원호(520)는 이웃(430)에 대한 수용각을 나타낸다. 도 5의 실시예에서, 수용각(510 및 520)은 이등분하는 각도(530)로부터 45°로 설정된다. 따라서, 수신된 명령이 원호(510)로 나타내는 45° 수용각 내에 있는 각도를 포함하는 벡터 정보를 가지면, 이웃(420)이 선택되어 새로운 활성 요소가 만들어질 것이다. 그러나, 수신된 명령이 원호(520)로 나타내는 45° 수용각 내에 있는 각도를 포함하는 벡터 정보를 가지면, 이웃(430)이 선택되어 새로운 활성 요소가 만들어질 것이다.
요소들 및 그 이웃들의 배향이 사용자 인터페이스용 벡터 정보로 어떻게 표현될 수 있는지의 추가의 실시예들은 도 6 및 도 7에서 볼 수 있다.
도 6에서, 요소들이 메뉴 스크린 내에 배치될 수도 있으므로, 요소들은 사용자 인터페이스(600)의 주변 주위에 위치 결정된다. 이 실시예에서, 요소(610a)는 자신이 활성 요소인 것을 나타내어 강조된다. 각 요소(610a-610n)의 상부에는 점선(…) 및 파선(---)으로 나타내는 수용각을 갖는 화살표(→)로 나타내는 다른 이웃 요소들에 대한 벡터 관계(620a-620n)의 묘사가 중첩되어 있다.
도 7에서, 요소들은 사용자 인터페이스(700)내의 온 스크린 키보드 내에 위치 결정된다. 이 실시예에서, "T" 키를 나타내는 요소는 자신이 활성 요소인 것을 나타내어 강조된다. 각 요소(키들)의 상부에는 점선(…) 및 파선(---)으로 나타내는 다른 이웃 요소들(키들)에 대한 벡터 관계의 묘사가 중첩되어 있다.
유사한 방식으로, 크기 임계 정보(도시 생략)가 사용될 수도 있다. 즉, 벡터 정보의 크기 성분에 대한 임계값이 설정된다. 이 값은 특별한 이웃을 선택하기 위해 충족되어야 하는 최소(또는 최대 또는 양자의) 값이다. 이것이 포인터 기반 제어 장치에 의해 제공되는 비의도적, 돌발적, 우발적, 또는 비고의적인 입력에 의해 야기되는 이웃의 선택을 제거한다. 이것은 또한, 활성 요소로부터 동일한 벡터 각도를 따라 배향 또는 위치를 갖는 다수의 이웃들 간에 선택을 위한 식별을 가능하게 한다.
도 3을 다시 참조하면, 사용자 인터페이스를 네비게이트하기 위한 이동 정보 입력이 수신되어(단계 320) 도 4에 관하여 상기 논의된 바와 같은 각도 및 크기 성분을 포함하는 벡터 정보로 변환된다(단계 330). 도 1a, 도 1b 및 도 2에 관하여 상기 논의된 바와 같이, 이동 정보는 제어 장치로부터 수신된다. 일 실시형태에 따르면, 제어 장치는 마우스, 트랙볼, 또는 터치패드와 같은 포인터 기반 제어 장치이다. 전통적으로, 그러한 포인터 기반 제어 장치는 스크린 상에서의 포인터의 이동으로 변환되는 수직 및 수평 이동 정보(예컨대, 방향, 거리 및 속도)를 제공한다. 본 명세서에 개시된 기술을 사용하여, 이 이동 정보가 공지된 기술을 사용하여 상기 논의된 바와 유사한 벡터 정보(각도 및 크기)로 변환된다.
이동 입력 정보가 벡터 정보로 변환되면, 그 정보는 활성 요소 및 그 이웃(들)의 배향을 표현하는 벡터 정보에 맵핑될 수 있다(단계 340). 이것의 일 실시예는 도 8에서 볼 수 있다.
도 8은 활성 요소 및 그 이웃(들)의 배향을 표현하는 벡터 정보에 변환된 벡터 정보를 맵핑시키는 일 실시형태의 플로우 차트(800)를 도시한다. 제1 단계는 활성 요소를 결정하는 것이다(단계 810). 변환된 벡터 정보는 그 후, 활성 요소의 하나 이상의 이웃의 배향을 표현하는 벡터 정보와 비교된다(단계 820). 이웃에 대한 기준이 충족되면, 이웃은 새로운 활성 요소로 만들어진다(단계 840). 이들 단계의 각각은 이하 더욱 상세히 논의될 것이다.
활성 요소를 결정할 때(단계 810), 다른 요소로 내비게이트하기 위한 기준점이 확립된다. 예를 들면, 도 5∼도 7에서, 각 요소는 자신의 이웃에 대한 자신의 배향/관계를 정의하는 관련 벡터 정보를 갖는다. 따라서, 어떤 요소를 이동시킬지를 알기 위해서는, 이동되어 오고 있는 요소를 알아야 한다.
활성 요소가 확립되면(단계 810), 변환된 벡터 정보가 활성 요소 및 그 이웃(들)의 배향을 표현하는 벡터 정보와 비교될 수 있다(단계 820). 도 8의 실시예에서, 이것은 변환된 벡터 정보의 각도가 이웃의 수용각 이내에 있는지(단계 825) 및 변환된 벡터의 크기가 이웃의 크기 임계를 충족시키는지(단계 830)를 결정하는 것을 수반한다. 특정 실시형태에서, 이 프로세스는 기준을 충족시키는 이웃이 발견될 때까지 다수의 이웃에 대해 반복될 수 있다.
이웃에 대한 벡터 정보 기준이 충족되면, 이웃은 새로운 활성 요소로 만들어진다(단계 840). 이것은 새로운 활성 요소를 강조하거나 그렇지 않으면 표시함으로써(도 3의 단계 350) 디스플레이된 사용자 인터페이스에 반영될 수 있다. 이 프로세스는 그 후 수신되는 새로운 이동 명령마다 반복될 수도 있다. 이것이 어떻게 작동하는지의 일 실시예는 도 9에서 볼 수 있다.
도 9는 요소(910) 및 다수의 이웃(920, 930, 940 및 950)의 배향을 표현하는 데 사용되는 벡터 정보의 그래픽도(900)이다. 이 실시예에서, 각도 성분만이 평가되고 있고 수신된 이동 명령의 변환된 벡터 정보의 크기가 크기 임계 요건을 충족한다고 가정한다. 여기에서, 변환된 벡터 정보의 각도 값이 수용각 "a" 범위(960) 내에 있으면, 요소 "C"(930)가 내비게이트되어 새로운 활성 요소로 될 것이다. 변환된 벡터 정보의 각도 값이 수용각 "b" 범위(970) 내에 있으면, 요소 "E"(950)가 내비게이트되어 새로운 활성 요소로 될 것이다. 변환된 벡터 정보의 각도 값이 수용각 "c" 범위(980) 내에 있으면, 요소 "B"(920)가 내비게이트되어 새로운 활성 요소로 될 것이다. 변환된 벡터 정보의 각도 값이 수용각 "d" 범위(990) 내에 있으면, 내비게이트되는 요소가 없고 요소 "A"가 활성 요소로 남게 될 것이다. 변환된 벡터 정보의 각도 값이 수용각 "e" 범위(1000) 내에 있으면, 요소 "D"(940)가 내비게이트되어 새로운 활성 요소로 될 것이다.
상기에 나타내는 실시예는 전자 장치에 초점을 맞추고 있지만, 본 발명은 본 명세서에 기재된 방법들의 실시를 가능하게 하는 모든 특징들을 포함하고 컴퓨터 시스템에 로드될 때 이들 방법을 실행할 수 있는 컴퓨터 프로그램 제품에서 구현될 수도 있음을 이해해야 한다. 본 문맥에서의 컴퓨터 프로그램 또는 애플리케이션은 이하 a) 다른 언어, 코드 또는 표기법으로의 변환; b) 상이한 물리적 형태로 재생 중 어느 하나 또는 양자의 직후 또는 후에 정보 처리 능력을 갖는 시스템이 특정 기능을 실행하게 하도록 의도된 명령의 세트의 임의의 언어, 코드 또는 표기법으로의 임의의 표현을 의미한다.
또한, 상기 설명은 실시예로서만 의도되고, 후속하는 청구의 범위에 나타내는 것을 제외하고 어떤 방식으로 본 발명을 제한하도록 의도된 것은 아니다.

Claims (14)

  1. 사용자 인터페이스를 내비게이트하기(navigating) 위한 방법으로서,
    상기 사용자 인터페이스의 적어도 하나의 요소 및 적어도 하나의 이웃(neighbor)의 배향(orientation)을 벡터 정보로 표현하는 단계;
    상기 사용자 인터페이스를 내비게이트하기 위한 이동 정보 입력을 수신하는 단계;
    상기 이동 정보를 벡터 정보로 변환하는 단계; 및
    수신된 상기 이동 정보로부터 변환된 상기 벡터 정보를 상기 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보에 맵핑시키는 단계를 포함하는 방법.
  2. 제1항에 있어서, 사용자가 사이에서 내비게이트하기 위한 다수의 요소를 포함하는 사용자 인터페이스를 디스플레이하는 단계를 더 포함하는 방법.
  3. 제2항에 있어서, 상기 적어도 하나의 요소 및 적어도 하나의 이웃의 배향에 맵핑되는 상기 수신된 이동 정보를 반영하도록 상기 디스플레이된 사용자 인터페이스를 갱신하는 단계를 더 포함하는 방법.
  4. 제1항에 있어서, 상기 벡터 정보는 각도 및 크기 성분을 포함하는 것인 방법.
  5. 제4항에 있어서, 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 표현하는 상기 벡터 정보는 수용각(acceptance angle) 및 크기 임계를 더 포함하는 것인 방법.
  6. 제1항에 있어서, 상기 이동 정보 입력은 포인터 기반 제어 장치로부터 수신되는 것인 방법.
  7. 제1항에 있어서, 상기 다수의 요소 및 그 이웃들의 배향이 표현되는 것인 방법.
  8. 제1항에 있어서, 상기 수신된 이동 정보로부터 변환된 상기 벡터 정보를 상기 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보에 맵핑시키는 단계는:
    상기 사용자 인터페이스의 활성 요소를 결정하는 단계;
    상기 변환된 벡터 정보의 각도 성분이 상기 활성 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보의 수용각 내에 있는지를 결정하는 단계; 및
    상기 변환된 벡터 정보의 크기 성분이 상기 활성 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보의 크기 임계를 충족하는지를 결정하는 단계를 포함하고,
    상기 변환된 벡터 정보의 각도 및 크기 성분이 상기 수용각 및 크기 임계 내에 있는 경우, 이웃을 새로운 활성 요소로 만드는 것인 방법.
  9. 전자 장치를 포함하는 사용자 인터페이스의 내비게이션을 가능하게 하는 시스템으로서,
    사용자 인터페이스를 출력하도록 구성된 출력 인터페이스;
    상기 사용자 인터페이스를 내비게이트하기 위한 이동 정보를 수신하도록 구성된 입력 인터페이스;
    상기 사용자 인터페이스의 적어도 하나의 요소 및 그 이웃의 배향을 벡터 정보로 표현하고, 수신된 상기 이동 정보를 벡터 정보로 변환하며, 상기 수신된 이동 정보로부터 변환된 상기 벡터 정보를 상기 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보에 맵핑시키도록 구성된 프로세서; 및
    상기 벡터 정보를 저장하도록 구성된 저장장치를 포함하는 시스템.
  10. 제9항에 있어서, 상기 출력 인터페이스에 의해 출력된 상기 사용자 인터페이스를 디스플레이하기 위한 디스플레이를 더 포함하는 것인 시스템.
  11. 제10항에 있어서, 상기 디스플레이는 상기 전자 장치의 일부인 것인 시스템.
  12. 제9항에 있어서, 상기 입력 인터페이스에 의해 수신될 상기 이동 정보를 생성하도록 구성된 제어 장치를 더 포함하는 시스템.
  13. 제12항에 있어서, 상기 제어 장치는 상기 전자 장치의 일부인 것인 시스템.
  14. 컴퓨터 판독 가능 프로그램을 갖는 컴퓨터 사용 가능 매체를 포함하는 컴퓨터 프로그램 제품으로서, 상기 컴퓨터 판독 가능 프로그램은, 컴퓨터에서 실행될 때, 해당 컴퓨터로 하여금
    상기 사용자 인터페이스의 적어도 하나의 요소 및 그 이웃의 배향을 벡터 정보로 표현하는 단계;
    상기 사용자 인터페이스를 내비게이트하기 위한 이동 정보 입력을 수신하는 단계;
    상기 이동 정보를 벡터 정보로 변환하는 단계; 및
    수신된 상기 이동 정보로부터 변환된 상기 벡터 정보를 상기 적어도 하나의 요소 및 적어도 하나의 이웃의 배향을 표현하는 벡터 정보에 맵핑시키는 단계
    를 포함하는 방법 단계들을 실행하게 하는 컴퓨터 프로그램 제품.
KR1020137011292A 2010-10-01 2011-09-30 사용자 인터페이스의 내비게이션 시스템 및 방법 KR20130124502A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US38897510P 2010-10-01 2010-10-01
US61/388,975 2010-10-01
PCT/US2011/054115 WO2012044877A1 (en) 2010-10-01 2011-09-30 System and method for navigation in a user interfface

Publications (1)

Publication Number Publication Date
KR20130124502A true KR20130124502A (ko) 2013-11-14

Family

ID=45893528

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137011292A KR20130124502A (ko) 2010-10-01 2011-09-30 사용자 인터페이스의 내비게이션 시스템 및 방법

Country Status (6)

Country Link
US (1) US10705625B2 (ko)
EP (1) EP2622451B1 (ko)
JP (2) JP2013539140A (ko)
KR (1) KR20130124502A (ko)
CN (1) CN103180811A (ko)
WO (1) WO2012044877A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3210984B1 (en) * 2011-01-11 2019-06-19 Sunovion Pharmaceuticals Inc. Heteroaryl compounds and methods of use thereof
US20130067366A1 (en) * 2011-09-14 2013-03-14 Microsoft Corporation Establishing content navigation direction based on directional user gestures
CN103345248B (zh) * 2013-06-28 2015-12-09 深圳市江波龙电子有限公司 一种双路运动设备的控制方法、装置及系统
US10089000B2 (en) 2016-06-03 2018-10-02 Microsoft Technology Licensing, Llc Auto targeting assistance for input devices
CN108093283A (zh) * 2017-12-29 2018-05-29 王小艳 一种机顶盒3d翻滚图形界面的实现方法
CN109091454B (zh) * 2018-08-24 2021-01-01 四川志邦生物科技有限公司 一种氯氰碘柳胺钠注射液的制备方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298023A (ja) 1992-04-20 1993-11-12 Matsushita Electric Ind Co Ltd アイコン選択方法
JPH08314637A (ja) 1995-05-22 1996-11-29 Matsushita Electric Ind Co Ltd 映像表示装置
KR100327209B1 (ko) * 1998-05-12 2002-04-17 윤종용 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법
US6614455B1 (en) * 1999-09-27 2003-09-02 Koninklijke Philips Electronics N.V. Directional navigation within a graphical user interface
ITRM20010032A1 (it) * 2001-01-24 2002-07-24 Fabrizio Giacomelli Metodo di spostamento di un puntatore grafico su un'area di lavoro diuno schermo di un elaboratore.
US20030106057A1 (en) * 2001-12-05 2003-06-05 Predictive Networks, Inc. Television navigation program guide
AUPR963001A0 (en) 2001-12-19 2002-01-24 Canon Kabushiki Kaisha Selecting moving objects on a system
US8566751B2 (en) 2005-01-24 2013-10-22 International Business Machines Corporation GUI pointer automatic position vectoring
US7616191B2 (en) * 2005-04-18 2009-11-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Electronic device and method for simplifying text entry using a soft keyboard
US20070061749A1 (en) * 2005-08-29 2007-03-15 Microsoft Corporation Virtual focus for contextual discovery
TW200832205A (en) * 2006-10-11 2008-08-01 Koninkl Philips Electronics Nv Method and a system for navigating between buttons displayed on a user interface
US20080104058A1 (en) 2006-11-01 2008-05-01 United Video Properties, Inc. Presenting media guidance search results based on relevancy
US20090037813A1 (en) 2007-07-31 2009-02-05 Palo Alto Research Center Incorporated Space-constrained marking menus for mobile devices
KR101182286B1 (ko) 2007-09-19 2012-09-14 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
US8615720B2 (en) * 2007-11-28 2013-12-24 Blackberry Limited Handheld electronic device and associated method employing a graphical user interface to output on a display virtually stacked groups of selectable objects
JPWO2009128148A1 (ja) 2008-04-16 2011-08-04 パイオニア株式会社 運転者用遠隔操作装置
JP5219152B2 (ja) 2008-04-21 2013-06-26 株式会社ワコム 操作入力装置、操作入力装置で使用するラジアルメニュー、ラジアルコントロールメニューを用いて変数の値を設定する方法、及びコンピュータシステム
US8286080B2 (en) * 2008-07-24 2012-10-09 Cisco Technology, Inc. User navigation via vectors dynamically mapped to distinct media attributes
JP2011054049A (ja) * 2009-09-03 2011-03-17 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US8531461B2 (en) * 2009-09-29 2013-09-10 Blackberry Limited Portable electronic device and method of controlling same
JP2011154543A (ja) 2010-01-27 2011-08-11 Kyocera Corp 電子機器、入力方法および入力プログラム

Also Published As

Publication number Publication date
EP2622451A1 (en) 2013-08-07
EP2622451A4 (en) 2016-08-31
JP2017079058A (ja) 2017-04-27
WO2012044877A1 (en) 2012-04-05
US10705625B2 (en) 2020-07-07
US20130191788A1 (en) 2013-07-25
EP2622451B1 (en) 2021-06-09
CN103180811A (zh) 2013-06-26
JP2013539140A (ja) 2013-10-17

Similar Documents

Publication Publication Date Title
US11687214B2 (en) Method and apparatus for changing screen in electronic device
US10856033B2 (en) User terminal apparatus, display apparatus, user interface providing method and controlling method thereof
JP2017079058A (ja) ユーザーインターフェースにおけるナビゲーションのためのシステムおよび方法
US9223416B2 (en) Display apparatus, remote controlling apparatus and control method thereof
US9100614B2 (en) Graphical interface navigation based on image element proximity
US20130314396A1 (en) Image display apparatus and method for operating the same
US9811303B2 (en) Display apparatus, multi display system including the same, and control method thereof
US20110202838A1 (en) Apparatus and method for providing user interface
KR100980741B1 (ko) 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
KR20140077015A (ko) 디스플레이 장치, 원격 제어 장치 및 그들의 사용자 인터페이스 제공 방법
US20150193138A1 (en) Systems and Methods for Touch-Screen-Based Remote Interaction with a Graphical User Interface
CN105763921B (zh) 图像显示设备和方法
KR20170124811A (ko) 영상 표시 장치 및 그 동작방법
KR20130131122A (ko) 휴대용 전자 기기를 이용한 3차원 가상 커서 제어 방법
CN108024127A (zh) 图像显示装置、移动设备及其操作方法
KR20110134810A (ko) 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
US20170017304A1 (en) Display apparatus and control method thereof
EP3056974B1 (en) Display apparatus and method
KR20150026255A (ko) 디스플레이 장치 및 그 제어 방법
US9400568B2 (en) Method for operating image display apparatus
KR102407191B1 (ko) 영상 표시 장치 및 영상 표시 방법
KR101515912B1 (ko) 이미지 공유가 가능한 사용자 단말기 및 이의 제어 방법
KR20170076475A (ko) 영상 표시 장치 및 영상 표시 방법
JP5779683B2 (ja) 外部機器、制御方法、表示システム、表示装置、およびテレビジョン受像機
KR20130092244A (ko) 무선으로 수신된 상대 좌표를 응용 프로그램의 입력 값으로 변환하는 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
N231 Notification of change of applicant
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101004003; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20180927

Effective date: 20191106

WITB Written withdrawal of application