KR20110020642A - 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법 - Google Patents

사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법 Download PDF

Info

Publication number
KR20110020642A
KR20110020642A KR1020090078364A KR20090078364A KR20110020642A KR 20110020642 A KR20110020642 A KR 20110020642A KR 1020090078364 A KR1020090078364 A KR 1020090078364A KR 20090078364 A KR20090078364 A KR 20090078364A KR 20110020642 A KR20110020642 A KR 20110020642A
Authority
KR
South Korea
Prior art keywords
user
contact
item
information
function
Prior art date
Application number
KR1020090078364A
Other languages
English (en)
Inventor
고성욱
김재환
조성일
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090078364A priority Critical patent/KR20110020642A/ko
Priority to US12/768,373 priority patent/US9170726B2/en
Priority to EP10161507.8A priority patent/EP2290515A3/en
Publication of KR20110020642A publication Critical patent/KR20110020642A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Abstract

본 발명에서는, 인터페이스 제어 방법 및 장치가 제공된다. 본 인터페이스 제어방법은 근접 센서와 터치 패드 방식을 기반으로 하여 사용자 인터페이스를 제어할 수 있는 인터페이스 제어 방법으로, 디스플레이 상에 하나 이상의 아이템을 보여주고 사용자 접근을 인식하여 접근된 아이템을 파악하며 상기 파악된 아이템 관련 정보를 제공하고 사용자 접촉을 인식하여 사용자 접촉에 해당하는 기능을 수행하게 된다. 이에 의해, 사용성 높은 GUI 방법 및 장치를 제공할 수 있게 된다.
GUI, GUI 아이템, 근접센서, 터치, 동작인식

Description

사용자 접근을 인식하여 반응하는 GUI제공 장치 및 방법{Apparatus and method for providing GUI interacting according to recognized user approach}
본 발명은 인터페이스 제어 방법 및 장치에 관한 것으로서, 더욱 상세하게는 근접 센서와 터치 패드 방식을 기반으로 하여 사용자 인터페이스를 제어할 수 있는 인터페이스 제어 방법 및 장치에 관한 것이다.
최근, TV, 전자 칠판, LFD(Large Format Display), Table Top 등의 디스플레이 장치는 터치 스크린을 구비하고 있다. 이러한 터치 스크린 위에 터치하면 그 지점에 해당하는 이미지나 아이콘이 선택되거나 실행된다. 그런데, 이럴 경우 다수의 아이템이 있을 때, 사용자는 모든 아이템을 터치하여 실행시킨 후에야 각각의 아이템에 대한 정보를 얻을 수 있고 어떤 아이템이 어떤 터치를 통해 동작하는지 파악할 수 있다. 이는 사용자에게 많은 동작을 요구하여 사용성을 떨어뜨리는 문제가 있다.
본 발명은 상기와 같은 문제점을 해결하기 위한 발명으로, 터치 스크린에 나타난 아이템들 중 사용자가 접근한 아이템에 대한 정보를 사용자에게 제공할 수 있 는 GUI 제공 방법 및 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명에 따른, GUI제공 방법은, 하나 이상의 아이템을 표시하는 단계; 사용자의 접근을 인식하고, 상기 사용자가 접근한 아이템을 파악하는 단계; 상기 파악된 아이템 관련 정보를 제공하는 단계; 상기 사용자의 접촉을 인식하는 단계; 및 상기 사용자의 접촉에 해당하는 기능을 수행하는 단계;를 포함한다.
그리고, 상기 파악된 아이템 관련 정보를 제공하는 단계는, 상기 사용자가 접근한 아이템에 대하여, 상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 제공하는 단계;를 더 포함하는 것이 바람직하다.
또한, 상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 제공하는 단계는, 상기 사용자가 접근한 아이템에 대하여, 상기 사용자의 접촉으로 수행 가능한 기능에 대한 정보를 제공할 수 있다.
그리고, 상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 제공하는 단계는, 상기 사용자의 접촉으로 수행 가능한 기능을 명령하기 위한 동작의 형태에 해당하는 기호로 제공하는 것이 바람직하다.
또한, 상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 제공하는 단계는, 상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 애니메이션 형식으로 제공할 수 있다.
그리고, 기 설정된 시간 내에 상기 사용자의 접촉이 인식되지 않으면, 상기 파악된 아이템 관련 정보를 제공하는 단계에서 제공한 상기 아이템 관련 정보를 사 라지게 하는 단계;를 더 포함하는 것이 바람직하다.
또한, 상기 파악된 아이템 관련 정보를 제공하는 단계는, 상기 사용자의 접근 거리에 따라서, 상기 아이템 관련 정보의 크기를 가변하는 단계;를 더 포함할 수 있다.
그리고, 상기 사용자의 접촉을 인식하는 단계는, 상기 사용자의 접촉에 해당하는 사용자 명령을 인식하는 단계;를 포함하고, 상기 사용자의 접촉에 해당하는 기능을 수행하는 단계는, 인식된 사용자 명령에 해당하는 기능을 수행하는 단계;를 더 포함하는 것이 바람직하다.
또한, 상기 사용자 명령을 인식하는 단계는, 상기 사용자의 접촉을 통해 상기 사용자의 접촉 궤적을 파악하는 단계; 및 상기 파악된 접촉 궤적에 부합하는 기능에 대한 명령을 파악하는 단계;를 더 포함하는 것이 바람직하다.
그리고, 상기 사용자의 접촉에 해당하는 기능을 수행하는 단계는, 인식된 사용자 명령에 해당하는 동작을 상기 파악된 아이템에 대하여 수행하는 단계;를 더 포함할 수 있다.
또한, 상기 사용자의 접근 및 상기 사용자의 접촉은, 상기 사용자의 신체 또는 상기 사용자가 사용하는 물체 중 적어도 하나에 의한 접근 및 접촉인 것이 바람직하다.
한편, 본 발명에 따른, 디스플레이 장치는, 하나 이상의 아이템을 표시하는 디스플레이부; 사용자의 접근을 감지하는 근접 센서부; 상기 사용자의 접촉을 인식하는 터치 센서부; 및 상기 근접 센서부에 의해 감지된 접근된 지점을 파악하여 해 당 지점의 아이템을 판단하고, 상기 판단된 아이템 관련 정보를 상기 디스플레이부에 표시하며, 상기 터치 센서부에 의해 인식된 상기 사용자의 접촉에 해당하는 기능을 수행하는 제어부;를 포함한다.
그리고, 상기 제어부는, 상기 사용자의 접촉으로 작동하는 기능에 대한 정보와 상기 사용자의 접촉 입력 방법에 대한 정보를 상기 아이템 관련 정보로 제공하는 것이 바람직하다.
또한, 상기 제어부는, 기 설정된 시간 내에 접촉이 없을 경우 상기 아이템 관련 정보가 사라지도록 상기 디스플레이부를 제어할 수 있다.
그리고, 상기 제어부는, 상기 접근된 거리에 따라서 상기 아이템 관련 정보의 크기가 가변되도록 상기 디스플레이부를 제어하는 것이 바람직하다.
또한, 상기 제어부는, 상기 터치 센서부를 통해 상기 사용자의 접촉이 인식되면 상기 아이템 관련 정보가 사라지도록 상기 디스플레이부를 제어할 수 있다.
그리고, 상기 제어부는, 상기 접근된 아이템에 대하여 수행 가능한 기능에 대한 정보가 제공되도록 상기 디스플레이부를 제어하는 것이 바람직하다.
또한, 상기 제어부는, 상기 사용자의 접촉으로 명령 가능한 기능에 대한 동작의 형태에 해당하는 기호가 제공되도록 상기 디스플레이부를 제어할 수 있다.
그리고, 상기 접근된 아이템 관련 정보를 제공하는 제어부는, 상기 사용자의 접촉으로 명령 가능한 기능에 대한 정보가 애니메이션 형식으로 제공되도록 상기 디스플레이부를 제어하는 것이 바람직하다.
또한, 상기 터치 센서부는, 상기 사용자의 접촉에 대한 정보를 제어부에 전 달하고, 상기 제어부는, 상기 터치 센서부로부터 전달받은 상기 사용자의 접촉에 대한 정보를 통해 상기 사용자의 터치 움직임을 판단하고, 상기 사용자의 터치 움직임이 상기 판단된 아이템이 수행 가능한 기능을 위한 명령일 경우 상기 판단된 아이템에 대하여 상기 명령을 수행할 수 있다.
이상 설명한 바와 같이, 본 발명에 따르면, 사용자가 아이템을 직접 접촉하기 전에 아이템의 정보를 미리 알 수 있게 됨으로써, 사용자 조작횟수를 줄이면서 오조작, 오동작의 문제를 방지하고 이를 통해 사용성 높은 GUI를 제공할 수 있게 된다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 인터페이스 제어 장치의 구성을 보여 주는 도면이다. 도면을 참조하면, 본 발명의 실시예에 따른 인터페이스 제어 장치(100)는 터치센서부(110), 근접센서부(120), 제어부(130), 메모리부(140), 영상처리부(150), 디스플레이부(160)를 포함한다.
터치센서부(110)는 외부로부터 디스플레이부(160) 상의 터치를 감지하는 구성으로 일반적으로 터치스크린은 손가락, 손바닥 등의 접촉에 의해 위치를 인식하는데, 저항식, 정전용량식, 적외선 방식 등이 적용될 수 있다. 정전용량식에 따르면, 터치를 감지하는 센서들을 가로 세로로 교차시키고 가로 세로에 간격을 주어 전압을 인가하고 센서에는 전하가 유도되어 전류가 흐르게 된다. 사람의 손은 전하를 끌어 가는 역할을 수행하므로, 손가락이 교차점에 접촉되면, 손실된 전하만큼 전류가 감소하게 되므로, 이에 딸라 접촉 지점을 인식할 수 있다. 이때 센서에 흐르는 전류는 접촉 정도에 따라 변화하는 데, 예를 들어, 인체에 의해 전하가 손실되지 않는 경우에, 이 전류는 최댓값이 되며, 접촉 정도 또는 접근 정도에 따라, 이 전류의 값은 약간 씩 줄어든다. 즉, 전류의 양의 변화를 측정하면 인체가 접촉되는 압력까지 측정할 수 있는 것이다. 이때, 센서의 전압을 일정 레벨 이상으로 올려 주면, 센서에 접촉하기 전 일정 이내 거리로 접근한 상태도 감지할 수 있다. 이와 같은 방법을 통해 근접센서부(120)가 구현될 수도 있고 또 다른 방법으로는 열, 빛, 전파, 초음파, 적외선 등을 감지하는 근접센서를 이용하여 구현될 수도 있다.
메모리부(140)는 사용자가 제어하고자 하는 아이템 각각에 대하여 다수의 수행 가능한 동작과 각 동작에 대하여 실행 명령을 주기 위한 하기 위한 제스쳐 정보, 그리고 근접센서부(120)로부터 사용자 접근 신호를 받았을 때 접근된 객체에 대한 정보를 제공하기 위한 각 객체의 정보가 저장되어 있을 수 있다.
영상처리부(150)는 사용자가 제어하고자 하는 아이템과 아이템에 대한 정보를 디스플레이부(160)에 표시하도록 영상신호를 전송한다.
디스플레이부(160)는 영상처리부(150)에서 영상신호를 받아 화면에 표시한다. 디스플레이부(160)는 LCD, PDP, Projection, Project, DLP, OLED 등의 방식으로 구현될 수 있다.
제어부(130)는, 제1 실시예에 따르면, 하나 이상의 아이템을 표시하도록 영상처리부(150)를 제어하고 근접센서부(120)을 통해 사용자 접근 정보를 수신하면 접근 정보를 통해 사용자가 접근한 아이템을 파악한다.
그리고, 터치센서부(110)를 통해 사용자 터치를 감지하면, 제어부(130)는사용자 터치 정보를 인식하여 메모리부(140)에 저장된 터치정보와 그에 대한 명령테이블을 통해 터치정보에 해당하는 명령을 파악하고 해당하는 명령을 수행한다. 예를 들면, 멀티터치 시 한점에서 반대 방향으로 서로 다른 터치지점이 이동한다면 터치센서부(110)에서 이와 같은 터치정보를 제어부(130)에 전달하고, 제어부(130)는 터치센서부(110)를 통해 받은 터치정보로 메모리부(140)의 터치정보에 대한 명령어 테이블을 참조하여 해당 아이템에 대하여 확대하여 디스플레이하는 명령으로 파악한다. 그리고, 제어부(130)는 디스플레이부(160)를 제어하여 해당 아이템의 확대된 영상을 디스플레이하게 된다. 확대 뿐 아니라 아이템을 회전시켜 보여 주는 동작도 정의 될 수 있다. 예를 들어, 터치지점이 터치를 유지한 상태에서 원형으로 이동시, 제어부(130)는 이와 같은 터치지점 이동 정보를 터치센서부(110)를 통해 받아 이를 메모리부(140)의 터치정보에 대한 명령어 테이블을 참조하여 회전명령으로 인식하고 해당 아이템이 회전되어 디스플레이 되도록 디스플레이부(160)를 제어하게 된다. 상기 실시예에 대한 구체적인 내용은, 도 2 내지 도 7 과 함께 후술하고자 한다.
디스플레이부(160)는 제어부(130)의 제어에 따라 화면상에 영상을 출력하는 장치이다.
도 2는 사용자 접근을 통해 아이템의 정보를 제공하는 실시예를 나타내는 도면으로, 화면(200)에 다수의 아이템(210, 220, 230)이 표시되고 사용자가 다수의 아이템(210, 220, 230) 중 하나에 접근시 근접센서부(120)를 통해 제어부(130)가 접근된 아이템을 파악하여 해당 아이템에 대한 정보(240)를 표시하게 된다.
아이템에 대한 정보(240)는, 아이템의 위치정보, Title, 파일명, 파일 타입, 아이템에 대하여 수행 가능한 기능에 대한 정보, 각 기능을 수행하기 위한 사용자 명령 정보 등이 될 수 있다.
도3은 도2에서 나타난 아이템의 정보에 대한 실시예를 나타내는 도면으로, 아이템이 이미지일 경우 도면에서와 같이 확대, 축소, 회전동작이 가능할 수 있다. 이와 같은 동작은 사용자의 바깥쪽을 향하는 양쪽 화살표(310)방향으로 터치 입력을 받아 확대(340)명령을 아이템에 대하여 하는 것이 될 수 있고, 안쪽을 향하는 양쪽 화살표(320)방향의 터치입력에 대하여 축소(350)명령을 아이템에 대하여 수행하는 것이 될 수 있다. 뿐만 아니라, 원형 화살표 (330)방향의 터치 입력으로 아이템에 대하여 회전(360)동작을 수행할 수도 있다.
도4는 본 발명의 다른 실시예에 따른 인터페이스 제어 방법의 순서를 나타내는 도면이다. 도 4를 참조하면, 우선 디스플레이부(160)는 제어부(130)의 제어에 의해 다수의 아이템을 화면에 표시한다(S410).
여기서 데이터는 이미지, 또는 텍스트를 포함하는 화면으로서, 데이터의 일부는 화면에 표시되고 그 나머지는 화면에 표시되지 않을 수 있다. 예를 들어, 데이터의 윗 부분이 화면에 표시되고, 아래 부분은 화면에 표시되지 않고 숨겨져 있을 수 있다.
외부 물체 또는 신체가 접근되면(S420-Y), 근접센서부(120)에서 접근 지점을 검출한다. 제어부(130)는 근접센서부(120)에서 수신한 접근 지점 정보를 통해 화면에 표시된 아이템 중에 접근된 아이템을 판단한다(S430).
제어부(130)가 접근된 아이템을 파악하면 접근된 아이템에 대한 정보를 보여 주기 위하여 메모리부(140)에서 해당 아이템에 대한 동작정보를 읽어 와 표시한다(S440).
그리고 화면에 대한 접촉(터치 동작)이 인식되면(S450-Y), 터치센서부(110)는 접촉(터치 동작)으로 이루어진 움직임 정보를 제어부(130)에 전달하고, 제어부(130)는 움직임 정보를 통해 해당 움직임 정보에 부합하는 명령을 수행한다(S460).
도5는 본 발명의 다른 실시예에 따른 인터페이스 제어 방법의 순서를 나타내는 도면이다. 도 5를 참조하면, 우선 디스플레이부(160)는 제어부(130)의 제어에 따라 다수의 아이템을 화면에 표시한다(S510). 여기서 데이터는 이미지, 또는 텍스트를 포함하는 화면으로서, 데이터의 일부는 화면에 표시되고 그 나머지는 화면에 표시되지 않을 수 있다. 예를 들어, 데이터의 윗 부분이 화면에 표시되고, 아래 부분은 화면에 표시되지 않고 숨겨져 있을 수 있다.
외부 물체 또는 신체가 접근되면(S520-Y), 근접센서부(120)에서 접근 지점을 검출한다. 제어부(130)는 근접센서부(120)에서 수신한 접근 지점 정보를 통해 화면에 표시된 아이템 중에 접근된 아이템을 판단한다(S530).
제어부(130)가 접근된 아이템을 파악하면 접근된 아이템에 대한 정보를 보여 주기 위하여 메모리부(140)에서 해당 아이템에 대한 동작정보를 읽어 와 표시한 다(S540).
그리고 화면에 접촉이 이루어지지 않은 이후 소정시간이 경과하면(S550-Y), 사용자가 해당 아이템에 대하여 추가 사용자 입력을 하지 않을 것으로 판단하고 해당 아이템에 대한 동작정보를 화면에서 지운다(S560).
지금까지, 본 발명에 대해 바람직한 실시예들을 들어 상세히 설명하였다.
위 실시예들에 언급한 아이템에 대한 정보는 문자 또는 화살표 등의 기호 외에 다른 방식, 예를 들면 애니메이션 형식으로 제공하는 것도 가능하다.
뿐만 아니라, 아이템 관련 정보가, 사용자의 접근 거리에 따라 크기가 가변되도록 구현하는 것도 가능함은 물론이다.
한편, 접촉(터치)을 통해 입력되는 사용자 명령을 인식하기 위해, 제어부(130)는 사용자의 접촉 궤적을 파악하고, 파악된 접촉 궤적에 부합하는 기능에 대한 명령을 사용자가 입력한 명령으로 인식할 수 있다.
그리고, 위 실시예에서는 기 설정된 시간 동안 사용자 접촉이 인식되지 않는 경우에 아이템 관련 정보가 사라지는 것으로 구현하였다. 이에 더하여, 사용자의 접촉이 인식된 후에도, 아이템 관련 정보가 사라지도록 구현하는 것이 가능하다.
또한, 인터페이스 제어 장치는 어느 장치로 구현하여도 무방하다. TV와 같은 거치형 디스플레이 장치는 물론, 모바일 폰, PMP, MP3 플레이어와 같은 휴대용 장치의 경우에도 본 발명이 적용될 수 있다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지 식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
도 1은 본 발명이 적용 가능한 전자장치의 일 예를 도시한 도면
도 2는 터치 LCD 화면의 아이템 중 하나에 사용자가 접근했을 때 아이템 근처에 아이템의 정보가 표시되는 GUI의 일 예를 도시한 도면
도 3은 사용자 접근을 감지하여 아이템 근처에 표시되는 아이템의 동작정보를 도시한 도면
도 4 및 도 5는 본 발명의 바람직한 실시예에 따른 GUI제공 방법의 설명에 제공되는 흐름도이다.

Claims (20)

  1. 하나 이상의 아이템을 표시하는 단계;
    사용자의 접근을 인식하고, 상기 사용자가 접근한 아이템을 파악하는 단계;
    상기 파악된 아이템 관련 정보를 제공하는 단계;
    상기 사용자의 접촉을 인식하는 단계; 및
    상기 사용자의 접촉에 해당하는 기능을 수행하는 단계;
    를 포함하는 것을 특징으로 하는 GUI제공 방법.
  2. 제 1항에 있어서,
    상기 파악된 아이템 관련 정보를 제공하는 단계는
    상기 사용자가 접근한 아이템에 대하여, 상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 제공하는 단계;
    를 더 포함하는 것을 특징으로 하는 GUI제공 방법.
  3. 제 2항에 있어서,
    상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 제공하는 단계는
    상기 사용자가 접근한 아이템에 대하여, 상기 사용자의 접촉으로 수행 가능한 기능에 대한 정보를 제공하는 것을 특징으로 하는 GUI제공 방법.
  4. 제 3항에 있어서,
    상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 제공하는 단계는
    상기 사용자의 접촉으로 수행 가능한 기능을 명령하기 위한 동작의 형태에 해당하는 기호로 제공하는 것을 특징으로 하는 GUI제공 방법.
  5. 제 2항에 있어서,
    상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 제공하는 단계는
    상기 사용자의 접촉으로 작동하는 기능에 대한 정보를 애니메이션 형식으로 제공하는 것을 특징으로 하는 GUI제공 방법.
  6. 제 1항에 있어서,
    기 설정된 시간 내에 상기 사용자의 접촉이 인식되지 않으면, 상기 파악된 아이템 관련 정보를 제공하는 단계에서 제공한 상기 아이템 관련 정보를 사라지게 하는 단계;
    를 더 포함하는 것을 특징으로 하는 GUI제공 방법.
  7. 제 1항에 있어서,
    상기 파악된 아이템 관련 정보를 제공하는 단계는
    상기 사용자의 접근 거리에 따라서, 상기 아이템 관련 정보의 크기를 가변하는 단계;
    를 더 포함하는 것을 특징으로 하는 GUI제공 방법.
  8. 제 1항에 있어서,
    상기 사용자의 접촉을 인식하는 단계는
    상기 사용자의 접촉에 해당하는 사용자 명령을 인식하는 단계;를 포함하고,
    상기 사용자의 접촉에 해당하는 기능을 수행하는 단계는,
    인식된 사용자 명령에 해당하는 기능을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 GUI제공 방법.
  9. 제 8항에 있어서,
    상기 사용자 명령을 인식하는 단계는
    상기 사용자의 접촉을 통해 상기 사용자의 접촉 궤적을 파악하는 단계; 및
    상기 파악된 접촉 궤적에 부합하는 기능에 대한 명령을 파악하는 단계;
    를 더 포함하는 것을 특징으로 하는 GUI제공 방법.
  10. 제 8항에 있어서,
    상기 사용자의 접촉에 해당하는 기능을 수행하는 단계는
    인식된 사용자 명령에 해당하는 동작을 상기 파악된 아이템에 대하여 수행하는 단계;
    를 더 포함하는 것을 특징으로 하는 GUI제공 방법.
  11. 제 1항에 있어서,
    상기 사용자의 접근 및 상기 사용자의 접촉은
    상기 사용자의 신체 또는 상기 사용자가 사용하는 물체 중 적어도 하나에 의한 접근 및 접촉인 것을 특징으로 하는 GUI제공 방법.
  12. 하나 이상의 아이템을 표시 하는 디스플레이부;
    사용자의 접근을 감지하는 근접 센서부;
    상기 사용자의 접촉을 인식하는 터치 센서부; 및
    상기 근접 센서부에 의해 감지된 접근된 지점을 파악하여 해당 지점의 아이템을 판단하고, 상기 판단된 아이템 관련 정보를 상기 디스플레이부에 표시 하며, 상기 터치 센서부에 의해 인식된 상기 사용자의 접촉에 해당하는 기능을 수행하는 제어부;
    를 포함하는 것을 특징으로 하는 디스플레이 장치.
  13. 제 12항에 있어서,
    상기 제어부는
    상기 사용자의 접촉으로 작동하는 기능에 대한 정보와 상기 사용자의 접촉 입력 방법에 대한 정보를 상기 아이템 관련 정보로 제공하는 것을 특징으로 하는 디스플레이 장치.
  14. 제 12항에 있어서,
    상기 제어부는
    기 설정된 시간 내에 접촉이 없을 경우 상기 아이템 관련 정보가 사라지도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  15. 제 12항에 있어서,
    상기 제어부는
    상기 접근된 거리에 따라서 상기 아이템 관련 정보의 크기가 가변되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  16. 제 12항에 있어서,
    상기 제어부는
    상기 터치 센서부를 통해 상기 사용자의 접촉이 인식되면 상기 아이템 관련 정보가 사라지도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  17. 제 12항에 있어서,
    상기 제어부는
    상기 접근된 아이템에 대하여 수행 가능한 기능에 대한 정보가 제공되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  18. 제 12항에 있어서,
    상기 제어부는
    상기 사용자의 접촉으로 명령 가능한 기능에 대한 동작의 형태에 해당하는 기호가 제공되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  19. 제 12항에 있어서,
    상기 접근된 아이템 관련 정보를 제공하는 제어부는
    상기 사용자의 접촉으로 명령 가능한 기능에 대한 정보가 애니메이션 형식으로 제공되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  20. 제 12항에 있어서,
    상기 터치 센서부는
    상기 사용자의 접촉에 대한 정보를 제어부에 전달하고,
    상기 제어부는
    상기 터치 센서부로부터 전달받은 상기 사용자의 접촉에 대한 정보를 통해 상기 사용자의 터치 움직임을 판단하고, 상기 사용자의 터치 움직임이 상기 판단된 아이템이 수행 가능한 기능을 위한 명령일 경우 상기 판단된 아이템에 대하여 상기 명령을 수행하는 것을 특징으로 하는 디스플레이 장치.
KR1020090078364A 2009-08-24 2009-08-24 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법 KR20110020642A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020090078364A KR20110020642A (ko) 2009-08-24 2009-08-24 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법
US12/768,373 US9170726B2 (en) 2009-08-24 2010-04-27 Apparatus and method for providing GUI interacting according to recognized user approach
EP10161507.8A EP2290515A3 (en) 2009-08-24 2010-04-29 Apparatus and method for providing GUI-interacting according to recognized user approach

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090078364A KR20110020642A (ko) 2009-08-24 2009-08-24 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20110020642A true KR20110020642A (ko) 2011-03-03

Family

ID=43216490

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090078364A KR20110020642A (ko) 2009-08-24 2009-08-24 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법

Country Status (3)

Country Link
US (1) US9170726B2 (ko)
EP (1) EP2290515A3 (ko)
KR (1) KR20110020642A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101332998B1 (ko) * 2011-10-24 2013-11-25 유종현 손과 팔 동작 제어 장치

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8134539B2 (en) * 2009-03-30 2012-03-13 Eastman Kodak Company Digital picture frame having near-touch and true-touch
US8730190B2 (en) * 2011-01-13 2014-05-20 Qualcomm Incorporated Detect motion generated from gestures used to execute functionality associated with a computer system
JPWO2012124279A1 (ja) * 2011-03-15 2014-07-17 パナソニック株式会社 入力装置
US20130019201A1 (en) * 2011-07-11 2013-01-17 Microsoft Corporation Menu Configuration
JP5460679B2 (ja) * 2011-11-28 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法、およびコンテンツファイルのデータ構造
JP5102412B1 (ja) 2011-12-27 2012-12-19 パナソニック株式会社 情報端末、情報端末の制御方法、及び、プログラム
KR20150115365A (ko) * 2014-04-04 2015-10-14 삼성전자주식회사 전자장치에서 사용자 입력에 대응한 사용자 인터페이스 제공 방법 및 장치
CN104216611B (zh) * 2014-07-04 2018-11-16 北京搜狗科技发展有限公司 一种智能穿戴设备和智能穿戴设备的显示驱动方法
WO2016157951A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 表示制御装置、表示制御方法および記録媒体

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5119079A (en) * 1990-09-17 1992-06-02 Xerox Corporation Touch screen user interface with expanding touch locations for a reprographic machine
US7482943B2 (en) 1991-05-31 2009-01-27 Koninklijke Philips Electronics N.V. Device with a human-machine interface
DE69230419T2 (de) 1991-05-31 2000-07-20 Koninkl Philips Electronics Nv Gerät mit einer Mensch-Maschine-Schnittstelle
US5565888A (en) * 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
US5956035A (en) * 1997-05-15 1999-09-21 Sony Corporation Menu selection with menu stem and submenu size enlargement
JPH1186016A (ja) * 1997-09-09 1999-03-30 Canon Inc 情報処理方法及び装置及びその記憶媒体
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US6211856B1 (en) * 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
JP2003005912A (ja) * 2001-06-20 2003-01-10 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
KR20040038013A (ko) 2002-10-31 2004-05-08 에스케이텔레텍주식회사 이동통신단말기에 있어서 에이젠트 제공 장치 및 그 방법
US7158123B2 (en) * 2003-01-31 2007-01-02 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
WO2004111816A2 (en) * 2003-06-13 2004-12-23 University Of Lancaster User interface
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20080094367A1 (en) * 2004-08-02 2008-04-24 Koninklijke Philips Electronics, N.V. Pressure-Controlled Navigating in a Touch Screen
US7454717B2 (en) * 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
CA2939806A1 (en) 2006-11-02 2008-05-08 Genentech, Inc. Humanized anti-factor d antibodies and uses thereof
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP2008282092A (ja) * 2007-05-08 2008-11-20 Canon Inc ジェスチャーコマンドを覚えながら操作できる情報処理装置
KR20080104858A (ko) 2007-05-29 2008-12-03 삼성전자주식회사 터치 스크린 기반의 제스쳐 정보 제공 방법 및 장치, 그장치를 포함하는 정보 단말 기기
KR20090017828A (ko) 2007-08-16 2009-02-19 엘지전자 주식회사 인터페이스 제어 방법 및 인터페이스 제어 장치
US8219936B2 (en) 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
JP2009116583A (ja) 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
JP2009116769A (ja) * 2007-11-09 2009-05-28 Sony Corp 入力装置、入力装置の制御方法、及びプログラム
US8933892B2 (en) * 2007-11-19 2015-01-13 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
US8413075B2 (en) * 2008-01-04 2013-04-02 Apple Inc. Gesture movies
KR101486345B1 (ko) * 2008-03-21 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
US20110022307A1 (en) * 2009-07-27 2011-01-27 Htc Corporation Method for operating navigation frame, navigation apparatus and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101332998B1 (ko) * 2011-10-24 2013-11-25 유종현 손과 팔 동작 제어 장치

Also Published As

Publication number Publication date
EP2290515A3 (en) 2014-06-18
EP2290515A2 (en) 2011-03-02
US9170726B2 (en) 2015-10-27
US20110043463A1 (en) 2011-02-24

Similar Documents

Publication Publication Date Title
KR20110020642A (ko) 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법
US10353570B1 (en) Thumb touch interface
EP2652580B1 (en) Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
EP2652579B1 (en) Detecting gestures involving movement of a computing device
TWI552040B (zh) 多區域觸控板
US20140306899A1 (en) Multidirectional swipe key for virtual keyboard
KR20140035870A (ko) 스마트 에어 마우스
KR102228335B1 (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법
KR101601268B1 (ko) 휴대용 단말기 및 그 사용자 인터페이스 제어 방법
TW201816581A (zh) 介面控制方法和電子裝置
KR20120023867A (ko) 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서 컨텐츠 표시 방법
KR20100095951A (ko) 휴대 전자기기 및 그것의 제어방법
KR20140055880A (ko) 가상 화면 제어 방법 및 장치
KR101294201B1 (ko) 휴대형 장치 및 그 조작 방법
US11216121B2 (en) Smart touch pad device
KR101403079B1 (ko) 터치스크린에서 화면 줌 방법 및 이를 이용한 단말기
KR101692848B1 (ko) 호버링을 이용하는 가상 터치패드 조작방법 및 이를 수행하는 단말기
US20170228148A1 (en) Method of operating interface of touchscreen with single finger
KR101165387B1 (ko) 터치 스크린 및 포인팅 디바이스가 구비된 단말장치의 화면 제어 방법
KR20240011834A (ko) 핸드헬드 디바이스용 후면 사용자 인터페이스
EP4348410A1 (en) One-handed operation of a device user interface
CN115914701A (zh) 功能选择方法、装置、电子设备及存储介质
JP2013250828A (ja) 入力装置
KR20120134374A (ko) 움직임 감지장치를 이용한 내비게이션 맵의 3d 모드 제어 방법 및 장치
KR20160072446A (ko) 포인터에 의한 실행명령 입력방법 및 그 방법을 이용한 멀티미디어 기기

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application