KR20070036075A - 3-d 터치 상호작용에서의 터치-다운 피드-포워드 - Google Patents

3-d 터치 상호작용에서의 터치-다운 피드-포워드 Download PDF

Info

Publication number
KR20070036075A
KR20070036075A KR1020067027280A KR20067027280A KR20070036075A KR 20070036075 A KR20070036075 A KR 20070036075A KR 1020067027280 A KR1020067027280 A KR 1020067027280A KR 20067027280 A KR20067027280 A KR 20067027280A KR 20070036075 A KR20070036075 A KR 20070036075A
Authority
KR
South Korea
Prior art keywords
distance
user
finger
zooming
display screen
Prior art date
Application number
KR1020067027280A
Other languages
English (en)
Inventor
제라드 홀렘만스
휘 브이. 클레인아웃
제티 씨. 엠. 훈아웃
샌더 비.에프. 밴 데 비테벤
빈센트 피. 부일
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20070036075A publication Critical patent/KR20070036075A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Liquid Crystal (AREA)

Abstract

디스플레이 스크린으로부터 사용자의 손가락이 있는 거리를 기초로 해서 줌화가 제어되는 3-D 디스플레이 디바이스가 디스플레이 스크린에 대해 사용자의 손가락의 검출된 X/Y 위치에서 사용자의 손가락의 가상 드롭 셰도우를 생성한다. 이 가상 드롭 셰도우는 디스플레이 이미지의 줌의 중심을 나타낸다. 또한, 드롭 셰도우의 크기 및 어두운 정도가 디스플레이 스크린으로부터 사용자의 손가락이 있는 거리에 대해 변한다.

Description

3-D 터치 상호작용에서의 터치-다운 피드-포워드{TOUCH-DOWN FEED-FORWARD IN 3-D TOUCH INTERACTION}
본 발명은 디스플레이 디바이스에 관한 것이며, 더욱 구체적으로는, 3-D 터치 상호작용형 디스플레이 디바이스에 디스플레이된 이미지를 줌화하는 것과 관계있다.
예컨대, 전기 용량성 감지를 사용해서 X, Y, 및 Z 좌표 스크린에 대해 사용자의 손가락이 있는 곳을 측정할 수 있는 3-D 가상 터치 스크린 디스플레이 디바이스가 알려져 있다. 이러한 유형의 디스플레이 디바이스에서, X 및 Y 좌표의 의미는 직관적으로, 디스플레이 스크린에 대해 사용자의 손가락의 수평 및 수직 위치를 언급하는 것으로 알려져 있다. 그러나, Z 좌표에 대해서는 의미가 제공될 필요가 있다. 매우 자주, 이 의미는 디스플레이 디바이스의 스크린 상에 디스플레이된 이미지의 줌 인자이다.
디스플레이되고 있는 것에 대해 줌인 할 때, 디스플레이된 이미지의 일부가 디스플레이된 이미지의 나머지 부분의 크기를 증가시키기 위한 공간을 만들기 위해 스크린을 "드롭 오프"한다. 사용자의 손가락이 디스플레이 스크린으로부터 상당한 거리에 있을 때, 사용자는 자신이 끝낼 곳 즉, 원래 이미지의 어느 부분이 줌화로 인해 확대될 지를 예측하기가 어렵다. X 및/또는 Y 방향에서의 작은 변화가 이미지의 어떤 부분이 확대될지 그리고 대응해서, 어떤 부분이 결과적으로 디스플레이되지 않을지에 있어서 상당한 차이를 만들 것이다.
X 및/또는 Y 방향의 효과의 감소는 이미지의 원하는 부분의 부적절한 확대를 야기하는 최대 줌 인자가 감소되어야 하거나, 사용자가 원래 이미지의 원하는 확대된 부분에 도달하도록 왼쪽, 오른쪽, 위, 그리고 아래로 스크롤링/패닝(panning)으로 재구성해야 한다는 것을 의미한다. 양 결과는 줌화를 제어하기 위해 즉, 패닝/스크롤링으로 재구성해야 할 필요없이 디스플레이상에 더 맞추기 위해 Z 좌표를 사용해서 추구되는 효과에 대해 직접 작용한다.
본 발명의 목적은 디스플레이되는 이미지의 어떤 부분이 줌인 되는지에 대한 피드백, 및 또한 줌 인자 표시를 사용자에게 제공하는 것이다.
본 목적은 상기 디스플레이 디바이스 상에 디스플레이되는 이미지를 선택적으로 줌화할 수 있는 3-D 디스플레이 디바이스에서 달성되는데, 상기 2-D 디스플레이 디바이스는 사용자의 손가락이 디스플레이 디바이스의 디스플레이 스크린으로부터 떨어져 있는 거리를 검출하는 수단으로서, 상기 거리가 제1 미리결정된 임계 거리 내에 있을 때 검출 신호를 생성하는, 검출 수단; 상기 디스플레이 스크린에 대해 상기 사용자의 손가락의 위치를 결정하는 수단; 상기 검출 신호에 응답해서 상기 결정된 위치에서 상기 디스플레이 스크린 상에 가상 셰도우를 디스플레이하는 수단으로서, 상기 가상 셰도우는 상기 사용자의 손가락이 상기 제1 미리결정된 임계 거리에 있을 때 미리결정된 초기 크기를 갖는, 디스플레이 수단; 상기 검출 신호에 응답해서 상기 이미지의 줌화를 개시하는 수단으로서, 상기 줌화는 상기 결정된 위치를 중심으로 이루어지고, 상기 줌화의 양은 상기 검출된 거리에 역으로 의존하는, 줌화 개시 수단; 및 상기 검출된 거리에 대해 가상 셰도우의 크기를 변화시키는 수단을 포함한다.
이 목적은 상기 디스플레이 디바이스에 디스플레이되는 이미지를 선택적으로 줌화하는 방법으로 더 달성되는데, 상기 2-D 디스플레이 디바이스는 사용자의 손가락이 디스플레이 디바이스의 디스플레이 스크린으로부터 떨어져 있는 거리를 검출하고, 상기 거리가 제1 미리결정된 임계 거리 내에 있을 때 검출 신호를 생성하는 단계; 상기 디스플레이 스크린에 대해 상기 사용자의 손가락의 위치를 결정하는 단계; 상기 검출 신호에 응답해서 상기 결정된 위치에서 상기 디스플레이 스크린 상에 가상 드롭 셰도우를 디스플레이하는 단계로서, 상기 가상 드롭 셰도우는 상기 사용자의 손가락이 상기 제1 미리결정된 임계 거리에 있을 때 미리결정된 초기 크기를 갖는, 디스플레이 단계; 상기 검출 신호에 응답해서 상기 이미지의 줌화를 개시하는 단계로서, 상기 줌화는 상기 결정된 위치에 집중되며, 상기 줌화의 양은 상기 검출된 거리에 역으로 의존하는, 줌화 개시 단계; 및 상기 검출된 거리에 대해 가상 셰도우의 크기를 변화시키는 단계를 포함한다.
본 발명에 따른 디스플레이 디바이스 및 방법에서, 사용자의 손가락의 가상 드롭 셰도우가 디스플레이 스크린 상에 유도된다. 디스플레이 스크린 상의 드롭 셰도우의 위치는 디스플레이된 이미지의 어떠한 부분이 확대될지를 나타내고 드롭 셰도우의 크기 및/또는 어두운 정도는 디스플레이 스크린에 대한 사용자의 손가락의 거리를 나타내는데, 이는 사용자에게 여전히 이용가능한 줌도(degree of zooming)에 대응한다.
여전히 이용가능한 줌도 및 줌의 중심 위치를 나타냄으로써, 사용자는 사용자가 동일한 방식으로 줌을 유지할 때, 디스플레이된 이미지의 어느 부분이 스크린을 드롭 오프하는지를 나타내는 개선된 피드-포워드를 얻는다. 사용자는 이후 줌의 중심이 지금까지 목표로부터 벗어나 있는지를 더 쉽게 볼 것이며, 스크린으로 가기 위한 거리가 여전히 제공되는 경우, 목표 영역은 스크린을 드롭 오프할 것이며, 이에 따라 디스플레이 스크린을 향해 사용자의 손가락의 트라젝토리(trajectory)의 이른 적응으로 사용자를 이끈다.
이러한 피드포워드 기법을 사용해서, 사용자는 디스플레이 스크린에 대한 접근법에서의 처음 궤도를 일찍 적응하는 법을 습득할 수 있어, 전체적으로 줌인될 때 목표 영역이 디스플레이되도록 하기 위한 재시도 횟수를 최소화한다.
위의 그리고 추가적인 목적 및 이점을 염두에 두고 후술하는 바와 같이, 본 발명이 첨부 도면을 참조해서 설명될 것이다.
도 1a는 안에 병합된 전기 용량성 센서 어레이를 구비하는 디스플레이 디바이스의 블록도.
도 1b는 도 1a의 센서 어레이의 검출 라인을 도시하는 도면.
도 2는 디스플레이 스크린의 표면으로부터 확장하는 검출 구역을 도시하는 도면.
도 3a 내지 도 3c는 디스플레이 스크린으로부터의 다양한 거리에서 사용자의 손가락에 대응하는 디스플레이 스크린 상에 형성된 다양한 크기의 가상 셰도우를 도시하는 도면.
본 발명은 3-D 디스플레이 즉, 디스플레이 스크린의 표면에 대해 포인터, 스타일러스 또는 사용자의 손가락의 수평 및 수직 위치뿐만 아니라 디스플레이 스크린의 표면으로부터의 포인터, 스타일러스 또는 사용자의 손가락의 거리를 검출할 수 있는 디스플레이를 이용한다. 예컨대, 적외선 감지, 전기 용량 감지 등을 사용하는 다양한 알려진 3-D 디스플레이가 존재한다. 3-D 디스플레이의 일 유형이 본 명세서에 참고문헌으로 병합되는 미국 특허 출원 공개 번호(US2002/0000977 A1)에 개시되어 있다.
도 1a에 도시된 바와 같이, 디스플레이 스크린(10) 위에는 전기적 전도성 투명 전도체 격자가 중첩되어 있는데, 이 격자 내에서 수평 전도체(12)가 수직 전도체(14)와 전기적으로 절연되어 있다. 연결 블록(18.1 및 18.2)에 연결된 전압원(16)이 수평 및 수직 전도체(12 및 14) 양단에 상이한 전압을 인가한다. 이러한 배열은 도 1b에 도시된 바와 같이 디스플레이 스크린(10)의 표면으로부터 멀리 확장하는 검출 필드(20)를 전개하며, 수평 및 수직 전도체(12 및 14)가 커패시터 플레이트로서 작용한다.
예컨대, 사용자의 손가락이 검출 필드(20)에 진입할 때, 전도체(12)와 전도 체(14) 사이의 전기 용량이 영향을 받으며 수직 전도체(14)에 연결된 X-축 검출기(22)와 수평 전도체(12)에 연결된 Y-축 검출기(24)에 의해 검출된다. 검출기 신호 프로세서(26)가 X 및 Y 검출기(22 및 24)로부터 출력 신호를 수신하고 X, Y 좌표 신호 및 X 거리 신호를 생성한다. X 및 Y 좌표 신호와 Z 거리 신호는 커서 및 줌 제어기(28)에 인가되는데, 이 제어기는 이후 제어 신호를 온-스크린 디스플레이(OSD) 제어기(30)에 인가한다.
또한, 도 1a에 도시된 바와 같이, 이미지 신호원(32)은 이미지 신호를 이미지 신호 프로세서(34)에 공급하는데, 이 프로세서는 또한 줌 제어 신호를 커서 및 줌 제어기(28)로부터 수신한다. 비디오 스위치(36)가 OSD 제어기(30) 및 이미지 신호 프로세서(34)로부터 출력 신호를 수신해서 복합 출력 신호를 디스플레이 제어기(38)에 공급하는데, 이 제어기(38)는 이후 비디오 신호를 디스플레이 스크린(10)에 인가한다.
도 2에 도시된 바와 같이, 커서 및 줌 제어기(28)는 Z 방향(이중-헤드 화살표(40))으로 디스플레이 스크린(10)의 표면으로부터 확장하는 구역(A)을 확립한다. 구역(A)은 사용자의 손가락(42)이 임계 거리(44)를 통과할 때, 사용자의 손가락(42)이 검출되고, 제1 실시예에서, 커서 및 줌 제어기(28)는 도 3a에 도시된 바와 같이, 사용자의 손가락의 가상 드롭 셰도우(46)를 디스플레이한다. 가상 드롭 셰도우(46)는 크기, 색, 어두운 정도 및 텍스쳐(texture)를 포함하는 미리결정된 초기 파라미터를 갖고 있다. 사용자의 손가락(42)을 X 및/또는 Y 방향으로 이동시킴으로써, 사용자는 이후 가상 드롭 셰도우(46)를 줌을 위한 이미지의 중심을 형성 하는 디스플레이된 이미지의 적당한 부분으로 이동시킨다. 이후, 사용자가 자신의 손가락(42)을 디스플레이 스크린(10)에 더 가깝게 이동시킴에 따라, 가상 드롭 셰도우(46)는 최대 줌화가 달성되어 가상 드롭 셰도우(46)가 사용자의 손가락(42)과 실질적으로 동일한 크기일 때까지 예컨대, 크기가 감소된다. 이는 사용자의 손가락(42)이 디스플레이 스크린(10)에 접근할수록 점진적으로 더 크게 도시되어 있는 반면, 가상 드롭 셰도우(46)는 대응해서 더 작게 도시되어 있는 도 3a 내지 도 3c에 예시되어 있다. 대안적으로, 가상 드롭 셰도우(46)의 크기를 변화시키는 것을 대신해서, 또는 이에 덧붙여서, 커서 및 줌 제어기(28)가 가상 드롭 셰도우(46)의 색, 어두운 정도 또는 텍스쳐를 변화시킬 수 있다.
대안적인 실시예에서, 도 2에 도시된 바와 같이, 커서 및 줌 제어기(28)가 제2 임계 거리(48)를 디스플레이 스크린(10)과 가까운 거리에서 확립한다. 사용자의 손가락(42)이 이 임계를 통과하는 경우, 줌화가 종료되고 가상 드롭 셰도우(46)가 디스플레이 스크린(10)으로부터 제거된다.
본 발명이 특정 실시예를 참조해서 설명되었으나, 다양한 변형예가 첨부된 청구항에 개시된 바와 같은 본 발명의 사상 및 범위를 벗어나지 않고 재구성될 것이라는 점이 이해될 것이다. 이로써 명세서 및 도면은 예시적인 방식으로 고려되어야 하며 첨부된 청구항의 범위를 제한하도록 의도되지 않는다.
첨부된 청구항을 해석하는데 있어서, 다음이 이해되어야 한다:
a) "포함하는" 이라는 단어는 소정의 청구항에 나열된 요소나 단계 이외의 요소 또는 단계의 존재를 배제하지 않는다;
b) 단수 요소는 복수의 이러한 요소의 존재를 배제하지 않는다;
c) 청구항 내의 임의의 참조 부호는 청구범위를 제한하지 않는다;
d) 수 개의 "수단"은 스트럭쳐 또는 기능부로 구현된 소프트웨어 또는 하드웨어의 동일한 항목으로 나타낼 수 있다;
e) 개시된 요소 중 임의의 요소는 하드웨어 부분(예컨대, 이산의 그리고 집적된 전자 회로를 포함함), 소프트웨어 부분(예컨대, 컴퓨터 프로그램), 및 이들의 임의의 조합으로 구성될 수 있다;
f) 하드웨어 부분은 아날로그 부분과 디지털 부분 중 하나 또는 둘 모두로 구성될 수 있다;
g) 개시된 디바이스 중 임의의 디바이스 또는 이 디바이스의 부분은 특별히 달리 기술되지 않는 경우, 함께 조합될 수 있거나 추가 부분으로 분리될 수 있다; 그리고
h) 단계 중 어떠한 특정 시퀀스도 특별히 나타나지 않는 경우 요구되지 않도록 의도된다.
본 발명은 디스플레이 디바이스에 이용가능하며, 더욱 구체적으로는, 3-D 터치 상호작용형 디스플레이 디바이스에 디스플레이된 이미지를 줌화하는 것에 이용가능하다.

Claims (12)

  1. 3-D 디스플레이 디바이스이되, 상기 디스플레이 디바이스 상에 디스플레이되는 이미지를 선택적으로 줌화할 수 있는, 3-D 디스플레이 디바이스로서,
    사용자의 손가락(42)이 디스플레이 디바이스의 디스플레이 스크린(10)으로부터 떨어져 있는 거리(Z)를 검출하는 수단(22, 24, 26)으로서, 상기 거리가 제1 미리결정된 임계 거리(36) 내에 있을 때 검출 신호를 생성하는, 검출 수단(22, 24, 26);
    상기 디스플레이 스크린(10)에 대해 상기 사용자의 손가락(42)의 위치를 결정하는 수단(22, 24, 26);
    상기 검출 신호에 응답해서 상기 결정된 위치에서 상기 디스플레이 스크린(10) 상에 가상 드롭 셰도우(46)를 디스플레이하는 수단(28, 30, 36, 38)으로서, 상기 가상 셰도우(46)는 상기 사용자의 손가락(42)이 상기 제1 미리결정된 임계 거리(36)에 있을 때 미리결정된 초기 파라미터를 갖는, 디스플레이 수단(28, 30, 36, 38);
    상기 검출 신호에 응답해서 상기 이미지의 줌화를 개시하는 수단(28, 34)으로서, 상기 줌화는 상기 결정된 위치를 중심으로 이루어지고, 상기 줌화의 양은 상기 검출된 거리(Z)에 역으로 의존하는, 줌화 개시 수단(28, 34); 및
    상기 검출된 거리(Z)에 대해 가상 드롭 셰도우(46)의 상기 미리결정된 초기 파라미터 중 적어도 하나를 변화시키는 수단(28)
    을 포함하는, 3-D 디스플레이 디바이스.
  2. 제1 항에 있어서,
    상기 검출 수단(22, 24, 26)은 상기 사용자의 손가락(42)이 제2 미리결정된 임계 거리(48)를 통과할 때, 상기 검출 신호를 생성하는 것을 멈추며, 상기 제2 미리결정된 임계 거리(48)는 상기 제1 미리결정된 임계 거리(36)보다 상기 디스플레이 스크린(10)에 더 가까운, 3-D 디스플레이 디바이스.
  3. 제1 항에 있어서,
    상기 미리결정된 초기 파라미터는 크기, 색, 어두운 정도 및 텍스처(texture)를 포함하는, 3-D 디스플레이 디바이스.
  4. 제3 항에 있어서,
    상기 변화 수단(28)은 상기 검출된 거리에 대해 상기 가상 드롭 셰도우의 크기를 감소시키는, 3-D 디스플레이 디바이스.
  5. 제3 항에 있어서,
    상기 변화 수단(28)은 상기 검출된 거리에 대해 상기 가상 드롭 셰도우의 어두운 정도를 변화시키는, 3-D 디스플레이 디바이스.
  6. 제3 항에 있어서,
    상기 변화 수단(28)은 상기 검출된 거리에 대해 상기 가상 드롭 셰도우의 색을 변화시키는, 3-D 디스플레이 디바이스.
  7. 상기 디스플레이 디바이스에 디스플레이되는 이미지를 선택적으로 줌화하는 방법으로서,
    사용자의 손가락(42)이 디스플레이 디바이스의 디스플레이 스크린(10)으로부터 떨어져 있는 거리(Z)를 검출하고(22, 24, 26), 상기 거리가 제1 미리결정된 임계 거리(36) 내에 있을 때 검출 신호를 생성하는 단계;
    상기 디스플레이 스크린(10)에 대해 상기 사용자의 손가락(42)의 위치를 결정하는 단계(22, 24, 26);
    상기 검출 신호에 응답해서 상기 결정된 위치에서 상기 디스플레이 스크린(10) 상에 가상 드롭 셰도우(46)를 디스플레이하는 단계(28, 30, 36, 38)로서, 상기 가상 드롭 셰도우(46)는 상기 사용자의 손가락(42)이 상기 제1 미리결정된 임계 거리(36)에 있을 때 미리결정된 초기 파라미터를 갖는, 디스플레이 단계(28, 30, 36, 38);
    상기 검출 신호에 응답해서 상기 이미지의 줌화를 개시하는 단계(28, 34)로서, 상기 줌화는 상기 결정된 위치에 집중되며, 상기 줌화의 양은 상기 검출된 거리(Z)에 역으로 의존하는, 줌화 개시 단계(28, 34); 및
    상기 검출된 거리에 대해 가상 드롭 셰도우의 상기 미리결정된 초기 파라미 터 중 적어도 하나를 변화시키는 단계(28)
    를 포함하는, 디스플레이 디바이스에 디스플레이되는 이미지를 선택적으로 줌화하는 방법.
  8. 제7 항에 있어서,
    상기 검출 단계에서, 상기 사용자의 손가락(42)이 제2 미리결정된 임계 거리(48)를 통과할 때, 상기 검출 신호의 생성이 멈춰지며, 상기 제2 미리결정된 임계 거리(48)는 상기 제1 미리결정된 임계 거리(36)보다 상기 디스플레이 스크린(10)에 더 가까운, 디스플레이 디바이스에 디스플레이되는 이미지를 선택적으로 줌화하는 방법.
  9. 제7 항에 있어서,
    상기 미리결정된 초기 파라미터는 크기, 색, 어두운 정도 및 텍스처(texture)를 포함하는, 디스플레이 디바이스에 디스플레이되는 이미지를 선택적으로 줌화하는 방법.
  10. 제9 항에 있어서,
    상기 변화 단계는 상기 검출된 거리에 대해 상기 가상 드롭 셰도우의 크기를 감소시키는, 디스플레이 디바이스에 디스플레이되는 이미지를 선택적으로 줌화하는 방법.
  11. 제9 항에 있어서,
    상기 변화 단계는 상기 검출된 거리에 대해 상기 가상 드롭 셰도우의 어두운 정도를 변화시키는, 디스플레이 디바이스에 디스플레이되는 이미지를 선택적으로 줌화하는 방법.
  12. 제9 항에 있어서,
    상기 변화 단계는 상기 검출된 거리에 대해 상기 가상 드롭 셰도우의 색을 변화시키는, 디스플레이 디바이스에 디스플레이되는 이미지를 선택적으로 줌화하는 방법.
KR1020067027280A 2004-06-29 2005-06-24 3-d 터치 상호작용에서의 터치-다운 피드-포워드 KR20070036075A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US58397004P 2004-06-29 2004-06-29
US60/583,970 2004-06-29
US64608605P 2005-01-21 2005-01-21
US60/646,086 2005-01-21

Publications (1)

Publication Number Publication Date
KR20070036075A true KR20070036075A (ko) 2007-04-02

Family

ID=35466537

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067027280A KR20070036075A (ko) 2004-06-29 2005-06-24 3-d 터치 상호작용에서의 터치-다운 피드-포워드

Country Status (5)

Country Link
US (1) US20080288895A1 (ko)
EP (1) EP1769328A2 (ko)
JP (1) JP2008505379A (ko)
KR (1) KR20070036075A (ko)
WO (1) WO2006003586A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452765B1 (ko) * 2008-05-16 2014-10-21 엘지전자 주식회사 근접 터치를 이용한 이동통신 단말기 및 그 정보 입력방법
US10782816B2 (en) 2008-08-01 2020-09-22 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8473869B2 (en) * 2004-11-16 2013-06-25 Koninklijke Philips Electronics N.V. Touchless manipulation of images for regional enhancement
JP2006345209A (ja) * 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7612786B2 (en) 2006-02-10 2009-11-03 Microsoft Corporation Variable orientation input mode
US8930834B2 (en) 2006-03-20 2015-01-06 Microsoft Corporation Variable orientation user interface
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US7552402B2 (en) 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
JP2008065730A (ja) * 2006-09-11 2008-03-21 Nec Corp 携帯通信端末装置、携帯通信端末装置における座標入力方法および座標入力装置
US8284165B2 (en) 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
DE102006057924A1 (de) * 2006-12-08 2008-06-12 Volkswagen Ag Verfahren und Vorrichtung zum Steuern der Anzeige von Informationen in zwei Bereichen auf einer Anzeigefläche in einem Verkehrsmittel
KR100891100B1 (ko) * 2007-07-27 2009-03-31 삼성전자주식회사 펜형 광마우스의 이동 궤적 추정 장치 및 방법
DE202007017303U1 (de) * 2007-08-20 2008-04-10 Ident Technology Ag Computermaus
DE102007039669A1 (de) * 2007-08-22 2009-02-26 Navigon Ag Anzeigeeinrichtung mit Bildfläche
US8219936B2 (en) 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
EP2065795A1 (en) * 2007-11-30 2009-06-03 Koninklijke KPN N.V. Auto zoom display system and method
CN101533320B (zh) * 2008-03-10 2012-04-25 神基科技股份有限公司 触控显示装置区域影像的近接放大显示方法及其装置
EP2104024B1 (en) * 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
KR101506488B1 (ko) * 2008-04-04 2015-03-27 엘지전자 주식회사 근접센서를 이용하는 휴대 단말기 및 그 제어방법
US8363019B2 (en) * 2008-05-26 2013-01-29 Lg Electronics Inc. Mobile terminal using proximity sensor and method of controlling the mobile terminal
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8443302B2 (en) 2008-07-01 2013-05-14 Honeywell International Inc. Systems and methods of touchless interaction
DE102008051051A1 (de) * 2008-09-03 2010-03-04 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von Information in einem Fahrzeug
US8237666B2 (en) 2008-10-10 2012-08-07 At&T Intellectual Property I, L.P. Augmented I/O for limited form factor user-interfaces
US8253713B2 (en) 2008-10-23 2012-08-28 At&T Intellectual Property I, L.P. Tracking approaching or hovering objects for user-interfaces
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
US8669944B2 (en) * 2008-12-15 2014-03-11 Sony Corporation Touch sensitive displays with layers of sensor plates providing capacitance based proximity sensing and related touch panels
WO2010083820A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur ausführung einer eingabe mittels einer auf einem bildschirm dargestellten, virtuellen tastatur
US8373669B2 (en) * 2009-07-21 2013-02-12 Cisco Technology, Inc. Gradual proximity touch screen
KR101622216B1 (ko) * 2009-07-23 2016-05-18 엘지전자 주식회사 이동 단말기 및 이것의 입력 제어 방법
WO2011011008A1 (en) * 2009-07-23 2011-01-27 Hewlett-Packard Development Company, L.P. Display with an optical sensor
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
EP2483761A4 (en) * 2009-09-08 2014-08-27 Qualcomm Inc TOUCH SCREEN WITH Z SPEED IMPROVEMENT
WO2011054546A1 (en) * 2009-11-04 2011-05-12 Tele Atlas B. V. Map corrections via human machine interface
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
KR101114750B1 (ko) * 2010-01-29 2012-03-05 주식회사 팬택 다차원 영상을 이용한 사용자 인터페이스 장치
US20110219340A1 (en) * 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
EP2395413B1 (en) * 2010-06-09 2018-10-03 The Boeing Company Gesture-based human machine interface
JP5665396B2 (ja) * 2010-07-09 2015-02-04 キヤノン株式会社 情報処理装置およびその制御方法
JP2012022458A (ja) * 2010-07-13 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP5434997B2 (ja) * 2010-10-07 2014-03-05 株式会社ニコン 画像表示装置
US10146426B2 (en) * 2010-11-09 2018-12-04 Nokia Technologies Oy Apparatus and method for user input for controlling displayed information
JP2012133729A (ja) 2010-12-24 2012-07-12 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012194760A (ja) * 2011-03-16 2012-10-11 Canon Inc 画像処理装置及びその制御方法、並びにプログラム
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
CN103477316B (zh) 2011-03-28 2017-03-15 富士胶片株式会社 触摸面板装置和其显示方法
WO2012169106A1 (ja) * 2011-06-10 2012-12-13 Necカシオモバイルコミュニケーションズ株式会社 入力装置およびタッチパネルの制御方法
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
EP2565754A1 (en) * 2011-09-05 2013-03-06 Alcatel Lucent Process for magnifying at least a part of a display of a tactile screen of a terminal
US9324183B2 (en) 2011-11-29 2016-04-26 Apple Inc. Dynamic graphical interface shadows
US9372593B2 (en) 2011-11-29 2016-06-21 Apple Inc. Using a three-dimensional model to render a cursor
EP2624116B1 (en) 2012-02-03 2017-09-06 EchoStar Technologies L.L.C. Display zoom controlled by proximity detection
KR101986218B1 (ko) * 2012-08-02 2019-06-05 삼성전자주식회사 디스플레이 장치 및 방법
DE202013000751U1 (de) * 2013-01-25 2013-02-14 Volkswagen Aktiengesellschaft Vorrichtung zum Anzeigen einer Vielzahl von flächigen Objekten
JP6146094B2 (ja) * 2013-04-02 2017-06-14 富士通株式会社 情報操作表示システム、表示プログラム、および、表示方法
JP2014219938A (ja) * 2013-05-10 2014-11-20 株式会社ゲッシュ 入力支援装置、入力支援方法、および、プログラム
US9400553B2 (en) 2013-10-11 2016-07-26 Microsoft Technology Licensing, Llc User interface programmatic scaling
DE102013223518A1 (de) * 2013-11-19 2015-05-21 Bayerische Motoren Werke Aktiengesellschaft Anzeigevorrichtung und Verfahren zur Steuerung einer Anzeigevorrichtung
US20160266648A1 (en) * 2015-03-09 2016-09-15 Fuji Xerox Co., Ltd. Systems and methods for interacting with large displays using shadows
CN106982326B (zh) * 2017-03-29 2020-02-07 华勤通讯技术有限公司 焦距调整方法及终端
US10620779B2 (en) * 2017-04-24 2020-04-14 Microsoft Technology Licensing, Llc Navigating a holographic image

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4764885A (en) * 1986-04-25 1988-08-16 International Business Machines Corporaton Minimum parallax stylus detection subsystem for a display device
JPH07110733A (ja) * 1993-10-13 1995-04-25 Nippon Signal Co Ltd:The 入力装置
JPH0816137A (ja) * 1994-06-29 1996-01-19 Nec Corp 3次元座標入力装置及びカーソル表示制御方式
JPH08212005A (ja) * 1995-02-07 1996-08-20 Hitachi Ltd 3次元位置認識型タッチパネル装置
US5929841A (en) * 1996-02-05 1999-07-27 Sharp Kabushiki Kaisha Data input unit
JPH1164026A (ja) * 1997-08-12 1999-03-05 Fujitsu Ten Ltd ナビゲーション装置
US6920619B1 (en) * 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
US6976223B1 (en) * 1999-10-04 2005-12-13 Xerox Corporation Method and system to establish dedicated interfaces for the manipulation of segmented images
US7446783B2 (en) * 2001-04-12 2008-11-04 Hewlett-Packard Development Company, L.P. System and method for manipulating an image on a screen
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
EP1567927B1 (en) * 2002-11-29 2013-07-10 Koninklijke Philips Electronics N.V. System and method for user interface with displaced representation of touch area
US8555165B2 (en) * 2003-05-08 2013-10-08 Hillcrest Laboratories, Inc. Methods and systems for generating a zoomable graphical user interface

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452765B1 (ko) * 2008-05-16 2014-10-21 엘지전자 주식회사 근접 터치를 이용한 이동통신 단말기 및 그 정보 입력방법
US10782816B2 (en) 2008-08-01 2020-09-22 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US10983665B2 (en) 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface

Also Published As

Publication number Publication date
WO2006003586A3 (en) 2006-03-23
EP1769328A2 (en) 2007-04-04
JP2008505379A (ja) 2008-02-21
WO2006003586A2 (en) 2006-01-12
US20080288895A1 (en) 2008-11-20

Similar Documents

Publication Publication Date Title
KR20070036075A (ko) 3-d 터치 상호작용에서의 터치-다운 피드-포워드
US8466934B2 (en) Touchscreen interface
JP5090161B2 (ja) グラフィカルユーザインタフェースの多階層表示
CN1303500C (zh) 为gui提供显示的方法
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
EP2624116B1 (en) Display zoom controlled by proximity detection
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
CN1977239A (zh) 3-d接触交互中的变焦
TWI501121B (zh) 手勢辨識方法及使用該方法之觸控系統
US20080284799A1 (en) Discontinous Zoom
US20070091075A1 (en) Method for window operation on a touchpad using a touch defined original point
US20160196034A1 (en) Touchscreen Control Method and Terminal Device
US20120019460A1 (en) Input method and input apparatus
US20150268828A1 (en) Information processing device and computer program
KR20130078937A (ko) 터치 스크린 및 터치 스크린의 제어 방법
US9483173B2 (en) Information processor input button display that prevents selection of undesired button
JP5062898B2 (ja) ユーザインタフェイス装置
KR101337429B1 (ko) 입력 장치
KR101573287B1 (ko) 전자기기에서 터치 위치 디스플레이 방법 및 장치
KR100644636B1 (ko) 정보처리 단말기의 화면 확대 장치 및 방법
JP2001516096A (ja) ユーザ入力の検出および処理システム
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
TWI400633B (zh) Trajectory input device and its processing method
TWI450183B (zh) 軌跡輸入裝置及其捲頁控制方法
CN113778276A (zh) 触控终端桌面图标控制方法与触控终端

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid