KR20120058585A - 표시 장치, 제어 방법 및 기록 매체 - Google Patents

표시 장치, 제어 방법 및 기록 매체 Download PDF

Info

Publication number
KR20120058585A
KR20120058585A KR1020127008018A KR20127008018A KR20120058585A KR 20120058585 A KR20120058585 A KR 20120058585A KR 1020127008018 A KR1020127008018 A KR 1020127008018A KR 20127008018 A KR20127008018 A KR 20127008018A KR 20120058585 A KR20120058585 A KR 20120058585A
Authority
KR
South Korea
Prior art keywords
control
difference
direction distance
touch panel
distance
Prior art date
Application number
KR1020127008018A
Other languages
English (en)
Inventor
마유코 사이토
Original Assignee
닛본 덴끼 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 닛본 덴끼 가부시끼가이샤 filed Critical 닛본 덴끼 가부시끼가이샤
Publication of KR20120058585A publication Critical patent/KR20120058585A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

터치 패널 (2) 은 이미지를 표시한다. 위치 검출부 (3) 는 터치 패널 (2) 상의 2 개의 피접촉 위치들 각각의 XY 좌표들을 검출한다. 위치 검출부 (3) 가 2 개의 피접촉 위치의 XY 좌표들을 2 회 검출하면, 연산부 (4) 는 전 좌표의 검출과 후 좌표의 검출 사이의 2 개의 피접촉 위치들의 X 방향 거리 및 Y 방향 거리 각각의 변화량을 연산한다. 제어 실행부 (5) 는 연산부 (4) 에 의해 연산된 X 방향 거리의 변화량에 따라서 제 1 제어 대상을 제어하고, 연산부 (4) 에 의해 연산된 Y 방향 거리의 변화량에 따라서 제 2 제어 대상을 제어한다.

Description

표시 장치, 제어 방법 및 기록 매체{DISPLAY DEVICE, CONTROL METHOD AND RECORDING MEDIUM}
본 발명은, 표시 장치, 제어 방법 및 기록 매체에 관한 것이다.
터치 패널을 갖는 표시 장치를 갖춘 다양한 유형의 단말들이 알려져 있다. 예를 들어, 특허 문헌 1-3 에는, 사용자의 손가락들 중 하나의 손가락에 의해서만이 아니라 2 개 이상의 손가락들의 터치 (멀티-터치) 에 의해서도 동작될 수 있는 표시 장치가 기재되어 있다.
특허 문헌 1 은, 2 개의 손가락을 펼치거나 또는 좁히는 움직임의 조작을 통해서 정지 화면 또는 웹 페이지 등과 같은 스크린 상의 표시 정보를 확대 또는 축소 (스케일링) 하는 터치 패널 시스템을 기재하고 있다.
특허 문헌 2 는, 표시 장치의 패널 스크린에 표시된 지도가 2 개의 손가락들을 통한 조작에 의해 확대 또는 축소될 수 있고, 또한, 3 개의 손가락들에 의한 조작을 통해서 차량 에어 컨디셔너의 캐빈 (cabin) 온도가 조절될 수 있는 시스템을 기재하고 있다.
특허 문헌 3 은, 터치 패널들을 갖춘 2 개의 표시부들이 서로 인접 배치되는 표시 장치를 기재하고 있고, 여기서 이 표시 장치는 제 1 터치 패널 상의 제 1 손가락 및 제 2 터치 패널 상의 제 2 손가락의 위치들의 이동 거리들을 산출하고, 이 이동 거리에 있어서 적어도 소정치의 차이가 존재하는 경우, 표시부에 표시된 이미지 데이터를 거리의 변화에 따라서 확대 또는 축소시킨다.
특허 문헌 1 : 일본특허 제3867226호
특허 문헌 2 : 미심사 일본 특허 출원 공개 공보 제2006-162267호
특허 문헌 3 : 미심사 일본 특허 출원 공개 공보 제2007-240964호
특허 문헌 1 - 3 에 기재된 기술에서는, 손가락에 의한 단일의 조작에 응답하여 장치는 단일의 프로세스를 실행한다. 그 결과, 장치가 다수의 프로세스를 실행하도록 유도된 경우, 다수의 조작들이 필요하며 이에 따라 조작은 복잡하게 된다.
전술한 사항을 고려하여, 본 발명의 목적은, 손가락 등에 의한 간단한 동작에 응답하여 다수의 프로세스들을 실행할 수 있는 표시 장치, 제어 방법 및 컴퓨터 상에서 이러한 것들을 실현하기 위한 프로그램이 기록된 기록 매체를 제공하는데 있다.
또한, 본 발명의 다른 목적은 간단한 조작을 통해서 다수의 손가락들로부터 입력할 수 있는 표시 장치, 제어 방법 및 컴퓨터상에서 이러한 것들을 실현하기 위한 기록 매체를 제공하는데 있다.
전술한 목적을 달성하기 위해, 본 발명의 제 1 양태에 따른 표시 장치는:
이미지를 표시하는 터치 패널;
터치 패널상의 2 개의 피접촉 위치들의 XY 좌표들을 검출하는 위치 검출부;
2 개의 피접촉 위치들의 XY 좌표들이 2 회 검출되면, 전 (former) 좌표 검출로부터 후 (latter) 좌표 검출까지 2 개의 피접촉 위치들의 X 방향 거리의 차분 (differential) 및 Y 방향 거리의 차분을 연산하는 연산부; 및
연산부에 의해 연산된 X 방향 거리의 차분에 따라서 제 1 제어 대상을 제어하고, 연산부에 의해 연산된 Y 방향 거리의 차분에 따라서 제 2 제어 대상을 제어하는 제어 실행부를 포함한다.
전술한 목적을 달성하기 위해, 본 발명의 제 2 양태에 따른 제어 방법은:
터치 패널 상의 2 개의 피접촉 위치들의 XY 좌표들을 검출하는 단계;
2 개의 피접촉 위치들의 XY 좌표들이 소정의 시간 내에 2 회 검출되면, 전 좌표 검출로부터 후 좌표 검출까지의 2 개의 피접촉 위치들 사이의 X 방향 거리의 차분 및 Y 방향 거리의 차분을 연산하는 단계; 및
연산된 X 방향 거리의 차분에 따라서 제 1 제어 대상의 제어를 실행하고, 연산된 Y 방향 거리의 차분에 따라서 제 2 제어 대상의 제어를 실행하는 단계를 포함한다.
전술한 목적을 달성하기 위해, 본 발명의 제 3 양태에 따른 컴퓨터-판독가능 기록 매체는 이미지를 표시하는 터치 패널을 갖는 표시 장치에서의 컴퓨터로 하여금:
터치 패널 상의 2 개의 피접촉 위치들의 XY 좌표들을 검출하는 단계;
2 개의 피접촉 위치들의 XY 좌표들이 소정의 시간 내에 2 회 검출되면, 전 좌표 검출로부터 후 좌표 검출까지의 2 개의 피접촉 위치들의 X 방향 거리의 차분 및 Y 방향 거리의 차분을 연산하는 단계; 및
연산된 X 방향 거리의 차분에 따라서 제 1 제어 대상의 제어를 실행하고, 연산된 Y 방향 거리의 차분에 따라서 제 2 제어 대상의 제어를 실행하는 단계
를 실행하게 하는 프로그램을 기록한다.
본 발명의 표시 장치는 손가락 등에 의한 간단한 조작에 대응하여 다수의 프로세스를 실행할 수 있다.
도 1 의 (a) 는 본 발명의 실시형태에 따른 표시 장치의 구성을 나타내는 블록도이고, (b) 는 위치 검출부 등의 구성을 나타내는 블록도이다.
도 2 는 본 발명의 실시형태에 따른 표시 장치의 조작을 나타내는 플로우차트이다.
도 3 은 도 2 의 단계 S1 내지 단계 S4 에 대응하는 이미지를 나타내는 도면이다.
도 4a 의 (1) 및 (2) 그리고 도 4b 의 (1) 및 (2) 는, 2 개의 손가락들이 X 방향으로 넓히거나 또는 좁히도록 움직일 때의 제어를 나타내는 도면들이다.
도 5a 의 (1) 및 (2) 그리고 도 5b 의 (1) 및 (2) 는, 2 개의 손가락들이 Y 방향으로 넓히거나 또는 좁히도록 움직일 때의 제어를 나타내는 도면들이다.
이하, 본 발명의 실시형태에 따른 표시 장치 (1) 는 도면을 참조하여 설명된다.
본 발명에 따른 표시 장치 (1) 에는, 도 1 의 (a) 에 도시된 바와 같이 터치 패널 (2), 위치 검출부 (3), 연산부 (4) 및 제어 실행부 (5) 가 제공된다.
터치 패널 (2) 은 LCD (2a; 액정 표시 장치), LCD (2a) 상에 위치된 용량성 터치 센서 (2b), 및 스피커 (2c) 로 구성된다. LCD (2a) 는 스크린상에 이미지를 표시하고, 터치 센서 (2b) 는 사용자의 손가락에 의해 접촉된 위치들 (피접촉 위치) 에 따라서 전기 전압 신호를 위치 검출부 (3) 에 공급한다. 스피커 (2c) 는 사운드를 출력한다.
위치 검출부 (3) 는, 터치 센서 (2b) 로부터 공급된 전기 전압 신호에 기초하여, 사용자의 손가락들에 의해 접촉된 터치 패널 (2) 상의 위치들의 XY 좌표를 검출한다.
위치 검출부 (3) 가 2 개의 피접촉 위치들의 XY 좌표들을 2 회 연달아 검출하면, 연산부 (4) 는 전 (former) 2 개의 피접촉 위치들 상의 X 방향 거리 및 Y 방향 거리와 및 후 (latter) 2 개의 피접촉 위치들 상의 X 방향 거리 및 Y 방향 거리의 차분을 연산한다.
제어 실행부 (5) 는, 연산부에 의해 연산된 X 방향 거리의 차분에 따라서 제 1 제어 대상에 대한 제어를 실행하고, 연산부 (4) 에 의해 연산된 Y 방향 거리의 차분에 따라서 제 2 제어 대상에 대한 제어를 실행한다.
도 1 의 (b) 에 나타낸 바와 같이, 위치 검출부 (3), 연산부 (4) 및 제어 실행부 (5) 는 CPU (51; 중앙 처리 장치), RAM (52; 랜덤 액세스 메모리), ROM (53; 판독-온리 메모리), ADC (54; 아날로그-디지털 컨버터), I/F (55; 인터페이스) 등으로 구성된다. 위치 검출부 (3), 연산부 (4) 및 제어 실행부 (5) 는, 기록 매체의 일 예인, ROM (53) 에 저장된 프로그램을 실행하는 CPU (51) 에 의해 실현된다.
CPU (51) 는, RAM (52) 에 다양한 유형의 데이터를 일시적으로 저장한다. ADC (54) 는, 터치 센서 (2b) 로부터 공급된 전압등의 아날로그 신호를 디지털 신호로 변환하여, 그 출력을 CPU (51) 에 공급한다. I/F (55) 는, CPU (51) 와 다른 하드웨어와의 사이에서 데이터를 수신 및 전송하기 위한 인터페이스이다.
터치 패널 (2) 상에서 2 개의 피접촉 위치들이 연달아 2 회 검출되면, 표시 장치 (1) 는, i) 먼저 검출된 2 개의 검출된 위치 사이에서 X 방향 거리와 Y 방향 거리를 산출하고, ii) 후에 검출된 2 개의 검출된 위치 사이에서 X 방향 거리와 Y 방향 거리를 산출하고, iii) X 방향의 거리의 차분과 Y 방향 거리의 차분을 연산하여, iv) X 방향의 거리의 차분에 따라서 제 1 제어 대상을 제어하고, Y 방향 거리의 차분에 따라서 제 2 제어 대상을 제어한다. 따라서, 사용자가 2 개의 손가락을 사용하여 터치 패널 (2) 을 연속하여 터치하면, 표시 장치 (1) 는, 연속한 터칭에 수반하는 X 방향 거리 및 Y 방향 거리의 차분에 따라서 X 방향 및 Y 방향에서 개별적인 제어를 달성한다. 이것에 의해, 사용자는, 손가락을 사용하는 간단한 조작을 통해서 표시 장치 (1) 상에서 다수의 프로세스를 실행시킬 수 있다.
이하, X 방향의 거리의 차분에 따라서 이미지의 표시 사이즈를 제어하고, Y 방향 거리의 차분에 따라서 스피커 (2c) 의 음량을 제어하는 표시 장치 (1) 의 구체적인 예가 도 2 내지 도 5 를 참조하여 설명된다.
본 실시형태에 따른 표시 장치 (1) 는, 전원이 턴 온 된 후, 도 2 에 나타낸 프로세스를 시작한다. 이해를 용이하게 하기 위해, 표시 장치 (1) 의 LCD (2a) 는, 도 4a 의 (1) 에 나타낸 웹 페이지를 나타내고 있는 것으로 가정한다.
먼저, 표시 장치 (1) 의 위치 검출부 (3) 는 사용자의 손가락들 중 2 개의 손가락들이 동시에 터치 패널 (2) 을 터치하고 있는지의 여부를 터치 센서 (2b) 로부터 공급된 전압 신호들에 기초하여 결정한다 (단계 S1). 위치 검출부 (3) 는, 2 개의 손가락이 동시에 터치 패널 (2) 에 접촉하고 있는 것으로 결정될 때까지 대기 상태가 된다 (단계 S1; 아니오). 위치 검출부 (3) 은 2 개의 손가락이 동시에 터치 패널 (2) 에 접촉하고 있는 것으로 결정되면 (단계 S1; 예), 위치 검출부 (3) 는 2 개의 손가락에 의해 접촉된 터치 패널 (2) 상의 2 개의 피접촉 위치들의 XY 좌표를 각각 검출한다.
예를 들어, 터치 패널 (2) 상에서 도 3 에 나타낸 위치들 (PA 및 PB) 을 사용자가 터치하고 있는 것으로 가정한다. 여기서, 도 3 에 나타난 바와 같이 위치 PA 의 XY 좌표는 (X1, Y1) 이고, 위치 PB 의 XY 좌표는 (X2, Y2) 이다.
연산부 (4) 는, 위치 PA 와 PB 사이에서 X 방향의 거리 X0 및 Y 방향의 거리 Y0 를 연산하여, 그 연산 결과를 저장한다 (단계 S2). 즉, X 방향 거리 X0=X2-X1 및 Y 방향 거리 Y0=Y2-Y1 가 산출되고 저장된다.
다음으로, 위치 검출부 (3) 는, 사용자의 2 개의 손가락이 동시에 터치 패널 (2) 에 접촉하고 있는지의 여부를 다시 결정한다 (단계 S3). 위치 검출부 (3) 는 2 개의 손가락이 터치 패널 (2) 에 동시에 접촉하고 있는 것으로 결정될 때까지 대기 상태로 되고 (단계 S3;아니오), 2 개의 손가락이 동시에 터치 패널 (2) 에 접촉하고 있는 것으로 결정되면 (단계 S3; 예), 위치 검출부 (3) 는 터치 패널 (2) 상에서의 2 개의 손가락의 각각의 XY 좌표를 각각 검출한다.
사용자가 터치 패널 (2) 상의 위치 PC 및 PD 에 접촉하는 것으로 가정한다. 여기서, 위치 PC 의 XY 좌표는 (X1', Y1') 이고, 위치 PD 의 XY 좌표는 (X2', Y2') 이다.
연산부 (4) 는, 위치 PC 와 PD 사이의 X 방향의 거리 X0' 및 Y 방향의 거리 Y0' 를 연산하여 구해진 거리 X0'와 Y0'를 저장한다 (단계 S4). 즉, 연산부 (4) 는, X 방향 거리 X0'=X2'-X1' 이고, Y 방향 거리 Y0'=Y2'-Y1' 를 산출하여, 거리 X0' 및 Y0' 를 저장한다.
다음으로, 연산부 (4) 는, 단계 S2 에서 구해진 피접촉 위치 PA 와 위치 PB 사이의 X 방향 거리 X0 및 Y 방향 거리 Y0 및 단계 S4 에서 구해진 피접촉 위치 PC와 위치 PD 의 사이의 X 방향 거리 X0' 및 Y 방향 거리 Y0' 에 기초하여, X 방향 거리의 차분을 산출하여 LCD (2a) 상에서의 표시 이미지의 확대 또는 축소를 제어하고, Y 방향 거리의 차분을 산출하여 스피커 (2c) 의 음량을 제어한다 (단계 S5-S12).
우선, X 방향 거리의 차분을 구하는 프로세스 (단계 S5-S8) 를 구체적으로 설명할 것이다.
단계 (S5) 에서는, 연산부 (4) 가, X 방향 거리의 차분에 대해, 값 X0'-X0 이 0 보다 큰지의 여부를 결정한다. 즉, 연산부 (4) 는, 단계 (S5) 에서 연산부 (4) 는 X 방향 거리의 차분이 포지티브인지 또는 네거티브인지를 결정한다.
단계 (S5) 에서, X 방향 거리의 차분이 포지티브인 것으로 결정되면 (단계 S5; 예), 제어 실행부 (5) 는 X 방향 거리의 차분의 크기 |X0'-X0|의 값에 따라서 제 1 제어 대상을 제어한다 (단계 S6). 이 예에서, 제 1 제어 대상은, LCD (2a) 에 표시된 이미지의 스케일이며, 제어 실행부 (5) 는, X 방향 거리의 차분의 크기에 따라서 표시 이미지를 확대하는 제어를 실행한다.
한편, 단계 (S5) 에서 X 방향 거리의 차분이 네거티브인 것으로 결정되면 (단계 S5; 아니오), 제어 실행부 (5) 는 X 방향 거리의 차분의 크기, 즉|X0'-X0|에 따라서 제 1 제어 대상에 대해 전술한 단계 S6 에서의 제어와는 반대의 제어를 실행한다 (단계 S7). 즉, 제어 실행부 (5) 는, X 방향 거리의 차분의 크기에 따라서 표시 이미지를 축소하는 제어를 달성한다.
전술한 단계 S6 및 S7 이후에, 연산부 (4) 는, 메모리에 저장된 X0 에 X0'를 대입한다 (단계 S8). 다음으로, 위치 검출부 (3) 에 의한 제어는, 전술한 단계 (S3) 로 다시 돌아오고, 위치 검출부 (3) 는 사용자의 2 개의 손가락에 의해 터치 패널 (2) 의 다음 번 (3번째) 의 접촉에 대비해 대기 상태가 된다.
여기서, 전술한 프로세스는, 도 4a 의 (1) 내지 도 4b 의 (2) 를 참조하여 구체적으로 설명될 것이다.
 예를 들면, 도 4a 의 (1) 에 나타낸 바와 같이, 표시 정보 (10) 는 통상의 사이즈 (1배) 로 터치 패널 (2) 상에 표시되고 있다고 가정한다. 표시 정보 (10) 는, 예를 들면, 웹 페이지 상의 이미지이다. 도면의 프레임은, 터치 패널 (2) 의 외측 프레임에 해당한다. 사용자는, 1 개의 손가락으로 위치 PA 에 접촉하고, 다른 1 개의 손가락으로 위치 PB 에 접촉하며, 그후, 도 4a 의 (2) 에 나타낸 바와 같이, 그 1 개의 손가락으로 위치 PC 에 접촉하고, 그 다른 1 개의 손가락으로 위치 PD 에 접촉한다. 이 경우에는, 사용자가, 웹 페이지 열람중에 2개의 손가락을 X 방향으로 넓히는 조작을 수행한다. 이 조작에 수반하여, 제어 실행부 (5) 는, 도 4a 의 (2) 에 나타낸 바와 같이 표시 정보 (10) 을 확대하고 표시 정보 (10A) 를 생성하여, LCD (2a) 에 표시 정보 (10A) 를 표시되게 한다.
또, 예를 들면, 도 4b 의 (1) 에 나타낸 바와 같이, 표시 정보 (20) 가 통상의 사이즈 (1배) 로 터치 패널 (2) 에 표시된다고 가정한다. 여기서, 사용자는, 1 개의 손가락으로 위치 PA 에 접촉하고 다른 1 개의 손가락으로 위치 PB 에 접촉하며, 그후, 도 4b 의 (2) 에 나타낸 바와 같이, 그 1 개의 손가락으로 위치 PC 에 접촉하고 그 다른 손가락으로 위치 PD 에 접촉한다. 이 경우에는, 사용자가, 웹 페이지 열람중에 2 개의 손가락을 X 방향으로 좁히는 조작을 수행한다. 이 조작에 수반하여, 제어 실행부 (5) 는, 표시 정보 (20) 을 축소하고 LCD (2a) 에 축소한 표시 정보 (20A) 를 표시되게 한다.
사용자는, 각각의 단계 S6 및 S7 에서 표시 정보 (10 및 20) 의 확대율 또는 축소율을, 이 표시 정보 (10 및 20) 를 표시하는 각각의 애플리케이션마다 적절하게 설정할 수도 있다. 일례로서 메일러 (mailer) 의 경우에는, X 방향 거리의 차분의 크기가 소정치 이상이면, 제어 실행부 (5) 는 문자의 확대율을 1 단계 올리거나 또는 내릴 수도 있다. 또한, 이미지를 표시하는 애플리케이션의 경우, X 방향 거리의 차분의 크기가 소정치 이상이면, 제어 실행부 (5) 는 이미지의 배율 (magnification ratio) 을 10% 만큼 증가시키거나 또는 감소시킬 수도 있다.
다음으로, Y 방향 거리의 차분에 관한 프로세스 (단계들 S9-S12) 가 설명될 것이다. 단계 S9 에서, 연산부 (4) 는 Y 방향 거리의 차분에 관해서 Y0'-Y0 가 0 보다 큰지의 여부를 결정한다. 즉, 단계 S9 에서의 연산부 (4) 는 Y 방향 거리의 차분이 포지티브인지 또는 네거티브인지를 결정한다.
단계 S9 에서, Y 방향 거리의 차분이 포지티브인 것으로 결정되면 (단계 S9; 예), 제어 실행부 (5) 는 Y 방향 거리의 차분의 크기 |Y0'-Y0| 에 따라서 제 2 제어 대상을 제어한다 (단계 S10). 제 2 제어 대상으로서, 예를 들면 웹 페이지 상의 비디오 또는 음악의 음량이 인용될 수 있다. 여기서, 제어 실행부 (5) 는, Y 방향 거리의 차분의 크기에 따라서 제 2 제어 대상인 음량을 올리는 제어를 실행한다.
한편, 단계 S9 에서 Y 방향 거리의 차분이 네거티브인 것으로 결정되면 (단계 S9; 아니오), 제어 실행부 (5) 는 Y 방향 거리의 차분의 크기, 즉 |Y0'-Y0|에 따라서 제 2 제어 대상에 대해 단계 S10 에서의 제어와 반대의 제어를 실행한다 (단계 S11). 즉, 제어 실행부 (5) 는, Y 방향 거리의 차분의 크기에 따라서 제 2 제어 대상인 음량을 내리는 제어를 달성한다.
단계 S10 및 단계 S11 이후에, 연산부 (4) 는 메모리에 저장된 Y0 에 Y0' 를 대입한다 (단계 S12). 다음으로, 위치 검출부 (3) 에 의한 제어는 전술한 단계 S3 로 다시 돌아온다. 단계 S3 로 돌아오면, 위치 검출부 (3) 는, 사용자의 2개의 손가락이 동시에 터치 패널에 접촉하는 것으로 결정될 때까지 대기 상태가 되고, 2 개의 손가락이 동시에 터치 패널에 접촉하고 있는 것으로 결정되면, 전술된 단계 S4 로부터의 프로세스가 반복된다.
이하, 도 5a 의 (1) 및 (2) 을 참조하여 단계 S10 가 구체적으로 설명될 것이다. 도 5a 의 (1) 에 나타낸 바와 같이, 음량 표시 바 (33) 를 포함하는 표시 정보 (30) 가 표시된다. 예를 들면, 음량 표시 바 (33) 의 슬라이더는 좌측 말단에서 음량이 작은 것을 나타내고 있다고 가정한다. 사용자가 1 개의 손가락을 위치 PA 에 접촉하고, 다른 1 개의 손가락을 위치 PB 에 접촉하고, 도 5a 의 (2) 에 나타낸 바와 같이, 그 1 개의 손가락을 위치 PC 에 접촉하고, 그 다른 1 개의 손가락을 위치 PD 에 접촉하는 것으로 가정한다. 이 경우에는, 사용자가, 터치 패널 (2) 상에서 2 개의 손가락을 Y 방향으로 넓히는 조작을 수행한다. 이 조작에 수반하여, 제어 실행부 (5) 는, 도시하지 않는 음량 제어부를 제어하고 스피커 (2c) 의 음량을 올린다. 또한, 제어 실행부 (5) 는, 터치 패널 (2) 상의 음량 표시 바 (33A) 를 포함하는 표시 정보 (30A) 를 표시한다. 이때, 제어 실행부 (5) 는, 음량 표시 바 (33A) 의 슬라이더를 우측으로 이동시킴으로써 음량이 커지는 것을 나타낸다.
이하, 도 5b 의 (1) 및 (2) 을 참조하여 단계 S11 이 구체적으로 설명될 것이다. 도 5b 의 (1) 에 나타낸 바와 같이, 음량 표시 바 (43) 를 포함하는 표시 정보 (40) 가 표시된다. 예를 들면, 음량 표시 바 (43) 의 슬라이더는 우측 말단에서 음량이 큰 것을 나타내고 있다고 가정한다. 사용자가 1 개의 손가락을 위치 PA 에 접촉하고, 다른 1 개의 손가락을 위치 PB 에 접촉시킨 상태로부터, 도 5b 의 (2) 에 나타낸 바와 같이, 1 개의 손가락을 위치 PC 에 접촉하고, 다른 1 개의 손가락을 위치 PD 에 접촉하는 것으로 가정한다. 이 경우에는, 사용자가, 터치 패널 (2) 상에서 2 개의 손가락을 Y 방향으로 좁히는 조작을 수행한다. 이 조작에 수반하여, 제어 실행부 (5) 는, 음량 제어부를 제어하여 스피커 (2c) 의 음량을 내린다. 그리고, 제어 실행부 (5) 는, 터치 패널 (2) 상의 음량 표시 바 (43A) 를 포함하는 표시 정보 (40A) 를 표시한다. 이때, 제어 실행부 (5) 는, 음량 표시 바 (43A) 의 슬라이더를 좌측으로 이동시킴으로써 음량이 작아지는 것을 나타낸다.
사용자는, 단계 S10 및 S11 에서의 음량을 사운드 출력을 수반하는 각각의 애플리케이션에 대해 적절하게 설정할 수도 있다. 일례로서, 음악을 재생하는 애플리케이션이 실행되는 경우, Y 방향 거리의 차분의 크기 |Y0'-Y0| 가 소정치 이상이면, 제어 실행부 (5) 가, 단지 1 단계 또는 10% 만큼 음량을 증가시키거나 또는 감소시킬 수도 있다.
본 실시형태에서, X 방향 거리의 차분 및 Y 방향 거리의 차분이 연산되어, X 방향 거리의 차분의 크기 및 이 차분이 포지티브인지 또는 네거티브인지에 따라서 표시 정보의 확대 또는 축소 (스케일링) 가 달성되고, 또, Y 방향 거리의 차분의 크기 및 이 차분이 포지티브인지 또는 네거티브인지에 따라서 음량의 올라가거나 또는 내려간다. 즉, X 방향에서만의 조작으로 스케일링 제어가 달성될 수 있고, Y 방향에서만의 조작으로 음량 제어가 달성될 수 있다. 따라서, X 방향 및 Y 방향에서 독립적인 제어를 달성할 수 있고, 예를 들면, 각각의 방향에 대해 스케일링 제어 및 음량 제어와 같은 다양한 제어들을 할당하는 것이 가능해져서, 손가락에 의한 간단한 조작에 의해 표시 장치 (1) 상에서 2 개의 프로세스가 실행될 수 있다.
전술한 실시형태에서, 도 4a 의 (1) 및 (2) 에서 나타낸 바와 같이, 2 개의 손가락을 넓히거나 또는 좁히는 조작을 통해서, 통상 사이즈의 표시 정보를 XY 방향에서의 비율을 유지하면서 확대 또는 축소하는 제어가 실행되었지만, 이는 단지 예시적인 것이며 이것으로 한정되지 않는다. 일례로서, X 방향에서 2 개의 손가락을 넓히거나 또는 좁히는 조작이 수행될 때에는 표시 정보의 X 방향만이 확대되거나 또는 축소되고, 또한, Y 방향에서 2 개의 손가락을 넓히거나 또는 좁히는 조작이 수행될 때에는 표시 정보의 Y 방향만이 확대되거나 또는 축소되도록, 터치 패널 (2) 상에서 XY 방향들 각각에 대한 제어가 할당될 수도 있다. 이를 통해서, XY 방향에서 표시 정보의 비율을 유지하는 단순한 확대 또는 축소와는 다르게, 그 비율에 차이를 두는 확대 또는 축소를 달성하는 것이 가능하다.
또한, 단계 S6 및 S7 에서, X 방향 거리의 차분의 크기에 따라서 제 1 제어 대상 (표시 정보) 의 제어 (확대 또는 축소) 가 실행되고, 또한, 전술한 단계 S10 및 S11 에서는, Y 방향 거리의 차분의 크기에 따라서 제 2 제어 대상 (음량) 의 제어 (올림 또는 내림) 가 실행되지만, 이는 예시적인 것으로 의도되며 이것으로 한정되지 않는다. 일례로서, 다수의 제어 대상들로부터 제 1 및 제 2 제어 대상을 선택하는 선택부는, X 방향 거리의 차분의 크기에 따라서 제 2 제어 대상의 제어가 실행되고, Y 방향 거리의 차분의 크기에 따라서 제 1 제어 대상의 제어가 실행되도록, XY 방향에 대해 제어 대상을 적절하게 할당한다. 여기서, 선택부는 도 1 의 (b) 에 나타낸 바와 같이, CPU (51), RAM (52), ROM (53), ADC (54), I/F (55) 등으로 구성될 수도 있고, 전술한 프로세스는 메모리에 저장된 프로그램을 실행하는 CPU 에 의해 실행될 수 있다.
또한, 도 5 에서, 사용자의 사용 용이성을 고려하여 터치 패널 상에 음량 표시 바 (33, 33A, 43 또는 43A) 가 표시되었지만, 음량은 청각에 의해 확인될 수 있어서 음량 표시 바 (33, 33A, 43 및 43A) 는 표시될 필요가 없다.
또한, 사용자의 사용 용이성을 고려하여, X 및 Y 방향 거리의 차분이 소정치 미만인 경우, 제 1 및 제 2 제어 대상의 제어는 실행되지 않도록 설정될 수도 있다. 이를 통해서, 사용자의 2개의 손가락이 터치 패널 (2) 에 접촉할 때, 손가락이 약간만이라도 이동함으로써 의도하지 않는 제어가 실행되는 상황을 회피하는 것이 가능할 수 있다.
터치 패널 (2) 이 웹 페이지 이외의 디스플레이, 즉 지도, TV 스크린, 터치 패널 선택 스크린 등을 표시하고 있을 때, 제어 대상은 스크린 디스플레이 상에 의존하여 변경될 수도 있다. 예를 들면, TV 스크린이 표시될 때, TV 스크린을 확대시키거나 또는 축소시키는 것 그리고 음량을 올리거나 또는 내리는 것은 X 방향 및 Y 방향 각각으로 할당될 수도 있다.
전술한 실시형태에 따르면, 표시 장치 (1) 는, 터치 패널 (2) 의 2 개의 장소에 접촉이 2 회 발생할 때 몇몇 제어가 달성되는 것이다. 그러나, 첫 번째 접촉과 두 번째 접촉 사이의 시간이 소정의 시간보다 긴 경우에는, 프로세스는 중단되고, 단계 S1 로 다시 돌아갈 수도 있다.
이 경우, 예를 들면, 제어 실행부 (5) 에는 내부 타이머가 제공될 수도 있는데, 이 내부 타이머는 단계 S1 및 단계 S3 에서 예 (Yes) 가 결정되었을 때 그리고 단계 S3 의 프로세스에서 아니오 (No) 가 결정되었을 때 활성화될 수도 있고, 내부 타이머 상에서의 유효 시간이 기준 시간 이상인 경우, 프로세스는 단계 S1 로 강제로 돌아갈 수도 있다.
전술한 실시형태는, 2 개의 피접촉 위치들이 검출되었을 경우에 입력 프로세스를 주로 설명했지만, 터치 패널에 의한 통상의 입력 프로세스도 이와 함께 병행하여 실행될 수도 있다. 또한, 2 개의 손가락의 접촉이 검출된 후, 통상의 입력 프로세스가 검출되었을 경우에, 프로세스는 단계 S1 로 돌아갈 수도 있다.
또한, 전술한 실시형태에서, 용량성 모델이 터치 센서 (2b) 로서 예시되었지만, 터치 센서 (2b) 는 용량성 모델로 한정하지 않고, 멀티 터치에 대응하는 모델일 수도 있다.
또한, 이차원에서 위치를 검출하는 예를 나타냈지만, 3 차원 공간 내에서의 2 개의 손가락의 움직임이 검출될 수도 있고, X 축 방향, Y 축 방향, 및 Z 축 방향에서의 거리의 차분이 검출될 수도 있고, X 축 방향의 차분에 제 1 제어, Y 축 방향의 차분에 제 2 제어, Z 축 방향의 차분에 제 3 제어가 할당된다.
전술한 바와 같이, 본 발명은 그 바람직한 실시형태에 기초하여 설명되었지만, 본 발명의 표시 장치는 전술한 실시형태의 구성에만 한정되지 않고, 전술한 실시형태에 대한 다양한 변형 및 변경도 또한 본 발명의 범위에 포함된다.
본 출원은, 2009년 9월 29일에 출원된 일본 특허 출원 제2009-223583호에 대한 우선권을 주장하고, 그 전체 개시물은 본 명세서에 참조로서 통합된다.
1: 표시 장치
2: 터치 패널
2a: LCD
2b: 터치 센서
2c: 스피커
3: 위치 검출부
4: 연산부
5: 제어 실행부
10, 20, 30, 40: 표시 정보 (제어 전)
10A, 20A, 30A, 40A: 표시 정보 (제어 후)
PA: 첫 번째 손가락의 위치 (이동 전)
PC: 첫 번째 손가락의 위치 (이동 후)
PB: 두 번째 손가락의 위치 (이동 전)
PD: 두 번째 손가락의 위치 (이동 후)
33, 43: 음량 표시 바 (제어 전)
33A, 43A:음량 표시 바 (제어 후)
51 CPU
52 RAM
53 ROM
54 ADC
55 I/F

Claims (7)

  1. 이미지들을 표시하는 터치 패널;
    상기 터치 패널상의 2 개의 피접촉 위치들 (touched position) 의 XY 좌표들을 검출하는 위치 검출부;
    상기 2 개의 피접촉 위치들의 XY 좌표들이 2 회 검출되었다면, 전 (former) 좌표 검출로부터 후 (latter) 좌표 검출까지의 상기 2 개의 피접촉 위치들의 X 방향 거리의 차분 (differential) 및 Y 방향 거리의 차분을 연산하는 연산부; 및
    상기 연산부에 의해 연산된 상기 X 방향 거리의 차분에 따라서 제 1 제어 대상을 제어하고, 상기 연산부에 의해 연산된 상기 Y 방향 거리의 차분에 따라서 제 2 제어 대상을 제어하는 제어 실행부를 포함하는, 표시 장치.
  2. 제 1 항에 있어서,
    상기 제어 실행부는, 상기 차분의 크기에 대응하여 상기 제 1 제어 대상 및 상기 제 2 제어 대상의 제어량을 결정하는, 표시 장치.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 제 1 제어 대상 및 상기 제 2 제어 대상 중 적어도 하나를 다수의 제어 대상들 중에서 선택하는 선택부를 더 포함하는, 표시 장치.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 제어 실행부는, 상기 제 1 제어 대상 또는 상기 제 2 제어 대상이 이미지의 사이즈 또는 상기 표시 장치에 의해 생성되는 음량인, 표시 장치.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 제어 실행부는, 상기 X 방향 거리의 차분 또는 상기 Y 방향 거리의 차분이 포지티브 또는 네거티브인 것에 대응하여, 상기 제 1 제어 대상 또는 상기 제 2 제어 대상의 제어량이 일 방향 또는 역방향으로 변화하게 하는, 표시 장치.
  6. 터치 패널 상의 2 개의 피접촉 위치들의 XY 좌표들을 검출하는 단계;
    상기 2 개의 피접촉 위치들의 상기 XY 좌표들이 소정의 시간 내에 2 회 검출되면, 전 좌표 검출로부터 후 좌표 검출까지의 상기 2 개의 피접촉 위치들의 X 방향 거리의 차분 및 Y 방향 거리의 차분을 연산하는 단계; 및
    상기 연산된 X 방향 거리의 차분에 따라서 제 1 제어 대상의 제어를 실행하고, 상기 연산된 Y 방향 거리의 차분에 따라서 제 2 제어 대상의 제어를 실행하는 단계를 포함하는, 제어 방법.
  7. 이미지를 표시하는 터치 패널을 갖는 표시 장치에서의 컴퓨터로 하여금:
    상기 터치 패널 상의 2 개의 피접촉 위치들의 XY 좌표들을 검출하는 단계;
    상기 2 개의 피접촉 위치들의 상기 XY 좌표들이 소정의 시간 내에 2 회 검출되면, 전 좌표 검출로부터 후 좌표 검출까지의 상기 2 개의 피접촉 위치들의 X 방향 거리의 차분 및 Y 방향 거리의 차분을 연산하는 단계; 및
    상기 연산된 X 방향 거리의 차분에 따라서 제 1 제어 대상의 제어를 실행하고, 상기 연산된 Y 방향 거리의 차분에 따라서 제 2 제어 대상의 제어를 실행하는 단계
    를 실행하게 하는 프로그램이 기록된, 컴퓨터-판독가능 기록 매체.
KR1020127008018A 2009-09-29 2010-09-29 표시 장치, 제어 방법 및 기록 매체 KR20120058585A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009223583 2009-09-29
JPJP-P-2009-223583 2009-09-29
PCT/JP2010/066977 WO2011040483A1 (ja) 2009-09-29 2010-09-29 表示装置、制御方法及び記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020137029638A Division KR101674713B1 (ko) 2009-09-29 2010-09-29 표시 장치, 제어 방법 및 기록 매체

Publications (1)

Publication Number Publication Date
KR20120058585A true KR20120058585A (ko) 2012-06-07

Family

ID=43826297

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020127008018A KR20120058585A (ko) 2009-09-29 2010-09-29 표시 장치, 제어 방법 및 기록 매체
KR1020137029638A KR101674713B1 (ko) 2009-09-29 2010-09-29 표시 장치, 제어 방법 및 기록 매체

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020137029638A KR101674713B1 (ko) 2009-09-29 2010-09-29 표시 장치, 제어 방법 및 기록 매체

Country Status (6)

Country Link
US (1) US9063651B2 (ko)
EP (1) EP2472370B1 (ko)
JP (1) JP5686735B2 (ko)
KR (2) KR20120058585A (ko)
CN (1) CN102576262B (ko)
WO (1) WO2011040483A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI448140B (zh) * 2011-11-11 2014-08-01 Inst Information Industry 手持裝置及其控制方法
JP5817613B2 (ja) * 2012-03-23 2015-11-18 株式会社デンソー 入力装置
WO2015078826A1 (en) 2013-11-26 2015-06-04 Koninklijke Philips N.V. User control device, user control method, system comprising the user control device and record carrier
KR102250856B1 (ko) * 2014-04-30 2021-05-11 삼성전자주식회사 터치 입력 검출 방법, 터치 입력 감지 장치, 및 좌표 표시 장치
CN105468251A (zh) * 2014-09-11 2016-04-06 深圳市麦思美汽车电子有限公司 一种听视觉同步反馈的音量控制方法及系统
JP6978826B2 (ja) * 2016-01-08 2021-12-08 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
CN106557243A (zh) * 2016-11-30 2017-04-05 依偎科技(南昌)有限公司 智能终端调节音量的方法、装置和智能终端

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
JPH07230352A (ja) 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
JP3867226B2 (ja) 2000-02-15 2007-01-10 株式会社 ニューコム 複数の指示部位で操作可能なタッチパネルシステム
JP4645179B2 (ja) 2004-12-02 2011-03-09 株式会社デンソー 車両用ナビゲーション装置
JP2006277588A (ja) 2005-03-30 2006-10-12 Clarion Co Ltd タッチパネル及びタッチパネルを備えた電子機器
CN101379461A (zh) 2005-12-30 2009-03-04 苹果公司 具有多重触摸输入的便携式电子设备
JP5092255B2 (ja) 2006-03-09 2012-12-05 カシオ計算機株式会社 表示装置
JP5129478B2 (ja) * 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
CN101042300B (zh) * 2006-03-24 2014-06-25 株式会社电装 画面显示装置
KR100866485B1 (ko) * 2006-08-22 2008-11-03 삼성전자주식회사 다접점 위치 변화 감지 장치, 방법, 및 이를 이용한 모바일기기
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP2008217767A (ja) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd 表示装置
JP5094450B2 (ja) * 2008-02-01 2012-12-12 シャープ株式会社 表示装置及びコンピュータプログラム
JP5213489B2 (ja) 2008-03-14 2013-06-19 アルパイン株式会社 電圧駆動素子の異常状態検出装置
JP4957750B2 (ja) 2008-07-31 2012-06-20 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8134539B2 (en) * 2009-03-30 2012-03-13 Eastman Kodak Company Digital picture frame having near-touch and true-touch

Also Published As

Publication number Publication date
EP2472370A4 (en) 2014-04-23
US20120188193A1 (en) 2012-07-26
WO2011040483A1 (ja) 2011-04-07
CN102576262B (zh) 2015-09-02
JP5686735B2 (ja) 2015-03-18
EP2472370B1 (en) 2018-02-28
CN102576262A (zh) 2012-07-11
KR20140000346A (ko) 2014-01-02
JPWO2011040483A1 (ja) 2013-02-28
EP2472370A1 (en) 2012-07-04
KR101674713B1 (ko) 2016-11-09
US9063651B2 (en) 2015-06-23

Similar Documents

Publication Publication Date Title
JP4533943B2 (ja) 情報処理装置、表示制御方法およびプログラム
KR20120058585A (ko) 표시 장치, 제어 방법 및 기록 매체
JP4294122B2 (ja) 座標入力装置
JP3910019B2 (ja) 入力装置
KR101915615B1 (ko) 모션 기반 사용자 인터페이스 제어 장치 및 방법
JP5873942B2 (ja) 携帯端末装置
US9430137B2 (en) Touch panel device and display method including dynamically adjusting a magnification ratio
JP5659829B2 (ja) タッチパネル式入力端末の入力制御装置
JP6171643B2 (ja) ジェスチャ入力装置
JP2008217704A (ja) 表示装置および携帯情報機器
JP5718433B1 (ja) 情報処理装置
JP2010211264A (ja) 座標入力装置
JP6197559B2 (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
EP2876540A1 (en) Information processing device
JP2015153083A (ja) 表示制御プログラム、装置、及び方法
JP4973371B2 (ja) 情報処理装置及びコンピュータプログラム
JP2013164710A (ja) 電子機器、その制御方法、及び制御プログラム
KR20150122014A (ko) 터치 압력 및 터치 면적에 따른 동작 대상의 임시 조작 방법 및 단말기
KR102049259B1 (ko) 모션 기반 사용자 인터페이스 제어 장치 및 방법
JP5805473B2 (ja) 操作装置
JP3988603B2 (ja) 図形表示制御装置及びプログラム
JP6230247B2 (ja) 情報入力装置およびプログラム
KR101664822B1 (ko) 터치스크린을 이용하여 문서에 표를 삽입하는 방법
JP2007287164A (ja) 図形表示制御装置及びプログラム
JP2015014874A (ja) 端末装置、端末装置制御方法及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
WITB Written withdrawal of application