KR101366813B1 - 정보입력장치의 제어방법, 정보입력장치, 프로그램, 및 정보기억매체 - Google Patents

정보입력장치의 제어방법, 정보입력장치, 프로그램, 및 정보기억매체 Download PDF

Info

Publication number
KR101366813B1
KR101366813B1 KR1020117018552A KR20117018552A KR101366813B1 KR 101366813 B1 KR101366813 B1 KR 101366813B1 KR 1020117018552 A KR1020117018552 A KR 1020117018552A KR 20117018552 A KR20117018552 A KR 20117018552A KR 101366813 B1 KR101366813 B1 KR 101366813B1
Authority
KR
South Korea
Prior art keywords
movement
value
detection
moving
user
Prior art date
Application number
KR1020117018552A
Other languages
English (en)
Other versions
KR20110102511A (ko
Inventor
준야 오쿠라
토시타케 츠치쿠라
Original Assignee
소니 컴퓨터 엔터테인먼트 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 컴퓨터 엔터테인먼트 인코포레이티드 filed Critical 소니 컴퓨터 엔터테인먼트 인코포레이티드
Publication of KR20110102511A publication Critical patent/KR20110102511A/ko
Application granted granted Critical
Publication of KR101366813B1 publication Critical patent/KR101366813B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자에 의한 조작 입력을 하기 쉽게 할 수 있는 정보입력장치의 제어방법을 제공한다.
검출면상에 있어서의 물체의 위치를 검출하는 터치 센서에 대하여, 사용자가 그 검출면상에 있어서 물체를 이동시키는 이동 조작을 실행했을 경우의 물체의 이동거리를 취득하여, 이동 조작의 조작 양태에 관한 값을 취득하고, 취득한 이동거리 및 조작 양태에 관한 값에 기초해서 산출되는 값을, 사용자가 실행한 이동 조작에 의한 조작 입력량으로서 출력하는 정보입력장치의 제어방법이다.

Description

정보입력장치의 제어방법, 정보입력장치, 프로그램, 및 정보기억매체{METHOD FOR CONTROLLING INFORMATION INPUT APPARATUS, INFORMATION INPUT APPARATUS, PROGRAM, AND INFORMATION STORAGE MEDIUM}
본 발명은 사용자가 행하는 조작 입력을 접수하는 정보입력장치, 그 제어방법, 프로그램, 및 정보기억매체에 관한 것이다.
사용자가 행한 조작 입력을 접수하여 각종 정보처리를 실행하는 정보입력장치 중 하나로서, 터치 센서를 이용한 것이 알려져 있다. 터치 센서는 사용자가 물체(예를 들면 사용자의 손가락이나 스타일러스 등)를 검출면에 접촉 또는 근접시켰을 경우에 당해 물체의 위치를 검출하는 센서이다. 사용자가 예를 들어 자신의 손가락을 터치 센서의 검출면상에서 임의의 방향으로 이동시키는 조작을 행함으로써, 정보입력장치는 그 이동방향 및 당해 방향에 대한 이동거리를, 사용자의 조작 입력의 내용으로서 접수할 수 있다.
정보입력장치가 단순히 터치 센서상의 이동거리를 사용자의 조작 입력으로서 접수하는 것만으로는 조작의 배리에이션이 한정되어, 사용자가 조작 입력을 하기 어려운 경우가 있다. 예를 들면 이러한 정보입력장치를 이용해서 일정 방향으로 조작 입력을 계속해서 하고 싶을 경우, 사용자는 자신의 손가락 등을 몇 번이고 터치 센서의 검출면에 다시 접촉시켜 같은 조작을 반복할 필요가 생긴다. 또한 큰 양의 조작 입력을 하고 싶을 경우에는 어느 정도 큰 거리만큼 자신의 손가락 등을 움직일 필요가 있는데, 터치 센서의 크기나 터치 센서가 배치된 케이싱을 사용자가 홀딩하는 방법에 따라서는 이러한 조작을 실행하기 어려운 경우도 생각된다.
본 발명은 상기 실정을 고려하여 이루어진 것으로서, 그 목적 중 하나는 사용자가 터치 센서를 이용해서 조작 입력을 실행할 경우에, 조작 입력을 하기 쉽게 할 수 있는 정보입력장치, 그 제어방법, 그 제어 프로그램, 및 당해 프로그램을 저장한 정보기억매체를 제공하는 것에 있다.
본 발명에 따른 정보입력장치의 제어방법은, 검출면상에서의 물체의 위치를 검출하는 터치 센서에 대하여, 사용자가 상기 검출면상에서 상기 물체를 이동시키는 이동 조작을 실행했을 경우에, 당해 이동 조작에 있어서의 상기 물체의 이동거리를 취득하는 이동거리 취득 스텝과, 상기 이동 조작의 조작 양태에 관한 값을 취득하는 조작 양태값 취득 스텝과, 상기 취득한 이동거리와, 상기 취득한 조작 양태에 관한 값에 기초해서 산출되는 값을, 상기 사용자가 실행한 이동 조작에 의한 조작 입력량으로서 출력하는 조작 입력량 출력 스텝을 포함하는 것을 특징으로 한다.
또한 본 발명에 따른 정보입력장치는, 검출면상에 있어서의 물체의 위치를 검출하는 터치 센서로부터 당해 물체의 검출위치를 취득하는 수단과, 상기 사용자가 상기 검출면상에 있어서 상기 물체를 이동시키는 이동 조작을 실행했을 경우에, 상기 검출위치를 이용해서 당해 이동 조작에 있어서의 상기 물체의 이동거리를 취득하는 이동거리 취득 수단과, 상기 이동 조작의 조작 양태에 관한 값을 취득하는 조작 양태값 취득 수단과, 상기 취득한 이동거리와, 상기 취득한 조작 양태에 관한 값에 기초해서 산출되는 값을, 상기 사용자가 실행한 이동 조작에 의한 조작 입력량으로서 출력하는 조작 입력량 출력 수단을 포함하는 것을 특징으로 한다.
또한 본 발명에 따른 프로그램은, 검출면상에 있어서의 물체의 위치를 검출하는 터치 센서에 대하여, 사용자가 상기 검출면상에 있어서 상기 물체를 이동시키는 이동 조작을 실행했을 경우에, 당해 이동 조작에 있어서의 상기 물체의 이동거리를 취득하는 이동거리 취득 스텝과, 상기 이동 조작의 조작 양태에 관한 값을 취득하는 조작 양태값 취득 스텝과, 상기 취득한 이동거리와, 상기 취득한 조작 양태에 관한 값에 기초해서 산출되는 값을, 상기 사용자가 실행한 이동 조작에 의한 조작 입력량으로서 출력하는 조작 입력량 출력 스텝을 컴퓨터에 실행시키는 프로그램이다. 이 프로그램은 컴퓨터로 읽을 수 있는 정보기억매체에 기억되어도 된다.
본 발명에 따르면, 사용자가 터치 센서를 이용해서 조작 입력을 실행할 경우에, 조작 입력을 하기 쉽게 할 수 있는 정보입력장치, 그 제어방법, 그 제어 프로그램, 및 당해 프로그램을 저장한 정보기억매체를 제공할 수 있다.
도 1a는 본 발명의 실시형태에 따른 정보입력장치의 외관을 나타내는 사시도이다.
도 1b는 본 발명의 실시형태에 따른 정보입력장치의 외관을 나타내는 사시도이다.
도 2는 본 실시형태에 따른 정보입력장치의 내부 구성을 나타내는 블록도이다.
도 3은 본 실시형태에 따른 정보입력장치의 기능예를 나타내는 기능 블록도이다.
도 4는 기준위치의 설정방법의 일례를 나타내는 도면이다.
도 5a는 기준위치의 설정방법의 다른 예를 나타내는 도면이다.
도 5b는 기준위치의 설정방법의 또 다른 예를 나타내는 도면이다.
이하, 본 발명의 실시형태에 대하여 도면에 기초해서 상세하게 설명한다.
도 1a 및 도 1b는 본 발명의 하나의 실시형태에 따른 정보입력장치(1)의 외관을 나타내는 사시도로서, 도 1a는 정보입력장치(1)를 표면(정면)측에서 본 모습을, 도 1b는 이면측에서 본 모습을 각각 나타내고 있다. 한편 이하에서는 본 실시형태에 따른 정보입력장치(1)가 휴대형 게임기일 경우에 대하여 설명한다.
이 도면들에 나타내는 바와 같이, 정보입력장치(1)의 케이싱(10)은 전체적으로 거의 직사각형의 평판상의 형상을 하고 있고, 그 표면에는 터치패널(12)이 마련되어 있다. 터치패널(12)은 대략 직사각형의 형상을 하고 있고, 디스플레이(12a)와 표면 터치 센서(12b)를 포함해서 구성되어 있다. 디스플레이(12a)는 액정 표시 패널이나 유기 EL 표시 패널 등, 각종 화상 표시 디바이스여도 된다.
표면 터치 센서(12b)는 디스플레이(12a)에 포개서 배치되어 있으며, 디스플레이(12a)의 표시면에 대응하는 형상 및 크기의 대략 직사각형의 검출면을 구비하고 있다. 그리고 이 검출면상에 사용자의 손가락이나 스타일러스 등의 물체가 접촉했을 경우에 당해 물체의 접촉 위치를 검출한다. 한편 표면 터치 센서(12b)는 반드시 물체가 검출면에 접촉했을 경우에만 물체의 위치를 검출하는 것이 아니라, 검출면상의 검출 가능 범위 내까지 물체가 근접했을 경우에, 당해 물체의 검출면에 대한 위치를 검출해도 된다. 또한 표면 터치 센서(12b)는 예를 들면 정전용량식이나 감압식, 광학식 등, 검출면상에서의 물체의 위치를 검출할 수 있는 디바이스라면 어떤 방식이어도 좋다. 또한 표면 터치 센서(12b)는 물체가 검출면에 접촉할 경우에, 당해 물체가 검출면을 누르는 압력을 검지하는 감압 기능을 구비해도 된다. 혹은 표면 터치 센서(12b)가 복수 부위에서의 접촉을 검지할 수 있는 다점 검지형 터치 센서일 경우, 정보입력장치(1)는 물체의 접촉이 검지된 위치의 범위에서, 터치 센서에 물체가 눌려질 때의 강도를 검지해도 된다. 사용자의 손가락 등의 부드러운 물체가 검출면에 접촉할 경우, 통상 물체를 검출면에 누르는 힘이 강할수록 물체의 접촉 면적이 커진다. 그래서 정보입력장치(1)는 물체의 검출면상에 있어서의 접촉 위치의 분포를 소프트웨어적으로 해석함으로써, 표면 터치 센서(12b)가 직접적으로 물체의 압력을 검지할 수 있는 기능을 구비하지 않아도, 유사적으로 물체의 압력에 관한 지표값을 취득할 수 있다.
또한 본 실시형태에서는 케이싱(10)의 이면측에, 터치패널(12)과 대향하도록 이면 터치 센서(14)가 배치되어 있다. 이 이면 터치 센서(14)는 디스플레이(12a)의 표시면에 대응하는 형상 및 크기의 대략 직사각형의 검출면을 구비하고 있다. 즉, 디스플레이(12a)의 표시면, 표면 터치 센서(12b)의 검출면, 및 이면 터치 센서(14)의 검출면은 모두 거의 같은 모양이면서 거의 같은 사이즈이고, 케이싱(10)의 두께방향(Z축 방향)을 따라 직선상으로 나란히 배치되어 있다. 한편, 이면 터치 센서(14)는 표면 터치 센서(12b)와 마찬가지로 각종 방식의 것이어도 되고, 감압 기능을 구비해도 된다. 사용자는 자신의 손가락이나 손에 든 스타일러스 등을 표면 터치 센서(12b)나 이면 터치 센서(14)의 검출면상에 접촉 또는 근접시킴으로써, 정보입력장치(1)에 대한 조작 입력을 실행할 수 있다.
여기서 이면 터치 센서(14)의 배치 위치, 크기 및 형상은 디스플레이(12a)와 대응하고 있으므로, 사용자는 디스플레이(12a)에 표시된 화상에 대한 조작 입력을 위해, 표면 터치 센서(12b) 대신에 이면 터치 센서(14)를 이용할 수도 있다. 디스플레이(12a)에 표시된 화상에 대한 조작 입력에 이면 터치 센서(14)를 이용함으로써, 터치 센서에 손가락이나 스타일러스 등을 접촉시킬 때에 발생하는 그림자로 인해 디스플레이(12a)의 표시화상이 보기 어려워지는 것을 피할 수 있다.
한편 도 1a 및 도 1b에는 나타내지 않았지만, 정보입력장치(1)는 표면 터치 센서(12b) 및 이면 터치 센서(14) 외에, 예를 들면 버튼이나 스위치 등 사용자의 조작 입력을 접수하기 위한 각종 조작부재를 케이싱(10)의 표면이나 이면, 측면 등에 구비해도 된다.
또한 정보입력장치(1)의 케이싱(10)의 내부에는 케이싱(10)의 자세를 검출하기 위해, 가속도 센서(16) 및 자이로스코프(18)가 배치되어 있다. 가속도 센서(16)는 3축 가속도 센서로서, 케이싱(10)에 대하여 설정된 3개의 기준축(X축, Y축 및 Z축) 각각의 방향으로 발생하는 가속도를 검지한다. 여기서 3개의 기준축은 서로 대략 직교하고 있고, X축은 터치패널(12)의 긴 변 방향, Y축은 터치패널(12)의 짧은 변 방향, Z축은 케이싱(10)의 두께방향으로 각각 설정되어 있는 것으로 한다. 중력에 의해 각 기준축에 생기는 가속도를 가속도 센서(16)가 검지함으로써, 정보입력장치(1)는 자기 자신의 자세(즉, 중력이 작용하는 연직방향에 대한 케이싱(10)의 기울기)를 검지할 수 있다. 또한 정보입력장치(1)는 그 이동속도의 변화에 의해 발생하는 가속도를 가속도 센서(16)로 검지함으로써, 자기 자신의 움직임을 검지할 수도 있다.
자이로스코프(18)는 압전 진동형 자이로 등으로서, 케이싱(10)에 설정된 3개의 자이로 기준축을 중심으로 한 회전의 각속도를 검지하고, 당해 검지한 각속도에 따른 전기신호를 출력한다. 한편 자이로 기준축의 방향은 상술한 가속도 센서(16)의 3개의 기준축과 같은 방향이어도 된다. 자이로스코프(18)에 의해 검지되는 각속도를 적분함으로써, 정보입력장치(1)는 X축, Y축 및 Z축의 각각을 기준으로 한 케이싱(10)의 회전각을 산출할 수 있다.
도 2는 정보입력장치(1)의 내부 구성을 나타내는 구성 블록도이다. 동 도면에 나타내는 바와 같이, 정보입력장치(1)는 제어부(20), 기억부(22), 화상처리부(24)를 포함해서 구성되어 있다. 제어부(20)는 예를 들면 CPU 등으로서, 기억부(22)에 저장되어 있는 프로그램에 따라 각종 정보처리를 실행한다. 기억부(22)는 예를 들면 RAM이나 ROM 등의 메모리 소자나, 디스크 디바이스 등으로서, 제어부(20)에 의해 실행되는 프로그램이나 각종 데이터를 저장한다. 또한 기억부(22)는 제어부(20)의 워크 메모리로서도 기능한다.
화상처리부(24)는 예를 들면 GPU와 프레임 버퍼 메모리를 포함해서 구성되며, 제어부(20)가 출력하는 지시에 따라 디스플레이(12a)에 표시할 화상을 묘화한다. 구체예로서, 화상처리부(24)는 디스플레이(12a)의 표시영역에 대응한 프레임 버퍼 메모리를 구비하고, GPU는 제어부(20)로부터의 지시에 따라, 소정 시간마다 이 프레임 버퍼 메모리에 대하여 화상을 기입한다. 그리고 이 프레임 버퍼 메모리에 기입된 화상이 소정 타이밍에 비디오 신호로 변환되어 디스플레이(12a)에 표시된다.
본 실시형태에서는, 제어부(20)는 표면 터치 센서(12b) 및 이면 터치 센서(14)에 의한 검출 결과를 접수하고, 당해 접수한 검출 결과를 이용해서 각종 처리를 실행한다. 구체적으로, 제어부(20)는 표면 터치 센서(12b) 및 이면 터치 센서(14) 중 적어도 어느 한쪽에 의한 사용자의 손가락이나 스타일러스 등의 물체의 위치 검출 결과를 이용해서 사용자의 조작 입력의 내용을 판단한다. 그리고 당해 판단된 조작 입력의 내용에 따른 처리를 실행하고, 처리 결과를 디스플레이(12a)에 표시함으로써 사용자에게 제시한다.
이하, 본 실시형태에서 제어부(20)가 실행하는 처리의 구체예에 대해서 설명한다. 이하에서 제어부(20)는 이면 터치 센서(14)에 의해 검출되는 사용자의 손가락 위치의 시간 변화에 따라, 디스플레이(12a)에 표시되는 화상을 갱신하는 처리를 실행하는 것으로 한다. 이러한 처리를 실행하기 위해 정보입력장치(1)는 기능적으로, 도 3에 나타내는 바와 같이 검출위치 취득부(30), 이동거리 취득부(32), 조작 양태값 취득부(34), 조작 입력량 출력부(36), 표시화상 제어부(38)를 포함해서 구성된다. 이들의 기능은 제어부(20)가 기억부(22)에 저장된 프로그램을 실행함으로써 실현된다. 이 프로그램은 예를 들면 광디스크나 메모리 카드 등의 컴퓨터로 읽을 수 있는 각종 정보기억매체에 저장되어 제공되어도 되고, 인터넷 등의 통신 네트워크를 통해 정보입력장치(1)에 제공되어도 된다.
검출위치 취득부(30)는 이면 터치 센서(14)가 물체(여기서는 사용자의 손가락)의 위치를 검출해서 출력하는 좌표값을 취득한다. 본 실시형태에서 이면 터치 센서(14)는 물체의 위치를 검출했을 경우에 그 검출위치를 나타내는 좌표값을 출력한다. 한편 이면 터치 센서(14)가 출력하는 좌표값은 직사각형의 검출영역 내의 위치 좌표를 나타내는 2차원의 좌표값(px, py)인 것으로 한다. 검출위치 취득부(30)는 이면 터치 센서(14)가 출력하는 좌표값을 소정 시간마다 읽어내, 기억부(22) 내에 순차 저장한다. 이로 인해, 사용자의 손가락 위치의 움직임(시간 변화)을 나타내는 좌표값열이 얻어진다.
이동거리 취득부(32)는 검출위치 취득부(30)에 의해 취득되는 좌표값열을 이용해서, 사용자가 실행한 이동 조작에 있어서의 이동거리(D)를 취득한다. 여기서의 이동 조작은 사용자가 자기 자신의 손가락을 이면 터치 센서(14)의 검출면상에서 이동시키는 조작이다. 예를 들면 이동거리 취득부(32)는 소정 시간마다, 당해 시점에서의 사용자 손가락의 검출위치를 현재위치(P2)로 하고, 후술하는 방법으로 결정되는 위치를 기준위치(P1)로 해서, 기준위치(P1)에서 현재위치(P2)까지의 검출면상에서의 거리를, 사용자 손가락의 이동거리(D)로서 산출한다. 한편 본 실시형태에서 이동거리 취득부(32)는 이동거리(D)를 취득하는 동시에, 기준위치(P1)에 대한 현재위치(P2)의 방향을, 이동방향의 정보로서 취득하는 것으로 한다. 또한 이동거리 취득부(32)가 이동거리(D)를 취득하는 시간 간격은 검출위치 취득부(30)가 검출위치를 나타내는 좌표값을 취득하는 시간 간격과 같아도 되고, 달라도 된다.
여기서 기준위치(P1)의 결정방법의 구체예에 대하여 설명한다. 기준위치(P1)는 검출면 내의 미리 정해진 위치(예를 들면 검출면의 중심위치)여도 된다. 이 경우, 사용자는 항상 같은 기준위치에서 이동 조작을 개시하는 것이 상정되어 있다.
또한 이동거리 취득부(32)는 이면 터치 센서(14)가 지금껏 물체를 검출하지 않은 상태에서 최초로 물체 검출을 개시했을 경우에, 당해 물체 검출을 개시한 시점(즉, 사용자가 조작을 개시한 시점)에서의 물체의 검출위치를 기준위치(P1)로 해도 된다. 구체적으로, 검출위치 취득부(30)가 어느 시점에 있어서 이면 터치 센서(14)의 검출위치를 나타내는 좌표값을 취득하지 못하고, 그 직후의 타이밍에서는 이면 터치 센서(14)의 검출위치를 나타내는 좌표값을 취득했을 경우에는 당해 검출위치를 기준위치(P1)로 한다. 이렇게 하면, 사용자는 검출면상의 어느 위치에 손가락을 두었다고 해도, 거기에서부터 검출면상에 있어서 손가락을 미끄러뜨리는 조작을 행함으로써 조작 입력을 실행할 수 있다. 도 4는 기준위치(P1)를 이와 같이 설정하는 경우의, 사용자 손가락의 검출면상에서의 궤적(파선의 화살표)과, 기준위치(P1), 현재위치(P2), 및 이동거리(D)의 관계를 나타내는 도면이다.
이동거리 취득부(32)는 이와 같이 기준위치(P1)가 결정된 후, 이면 터치 센서(14)가 연속적으로 물체를 계속해서 검출하고 있을 경우, 소정 시간마다, 당해 시점에서 검출위치 취득부(30)가 취득한 물체의 검출위치를 현재위치(P2)로 하고, 기준위치(P1)에서 현재위치(P2)까지의 이동거리(D)를 산출하는 처리를 반복해서 실행한다. 이로 인해, 사용자가 이면 터치 센서(14)의 검출면을 덧그리도록 기준위치(P1)로부터 손가락을 움직임에 따라, 이동거리 취득부(32)는 서서히 증가하는 이동거리(D)의 값을 정기적으로 산출해서 출력하게 된다.
또한 이동거리 취득부(32)는 이면 터치 센서(14)가 물체의 검출을 계속하고 있는 상태에서, 당해 물체의 검출위치의 이동방향이 변화되었을 경우에, 당해 변화 시점에서의 물체의 검출위치를 기준위치(P1)로 해도 된다. 구체적으로, 예를 들면 이동거리 취득부(32)는 사용자 손가락의 이동방향의 X축 성분 및 Y축 성분 중 어느 하나가 양음(正負) 반전되었을 경우에 사용자 손가락의 이동방향이 변화되었다고 판정하고, 당해 반전된 시점의 검출위치를 새로운 기준위치(P1)로 설정한다. 이 예에서는 그때까지 증가하고 있던 검출위치의 X축 좌표값(또는 Y축 좌표값)이 감소로 바뀐 경우나, 그때까지 감소하고 있던 X축 좌표값(또는 Y축 좌표값)이 증가로 바뀐 경우에 기준위치(P1)가 재설정된다. 도 5a는 기준위치(P1)를 이와 같이 설정하는 경우의, 사용자 손가락의 검출면상에서의 궤적(파선의 화살표)과, 기준위치(P1), 현재위치(P2), 및 이동거리(D)의 관계를 나타내는 도면이다. 한편 이동거리 취득부(32)는 사용자 손가락의 이동방향이 어느 정도 변화되었을 경우라도, 기준축(X축 및 Y축)을 따른 이동방향에 변화가 없고, X축 성분 및 Y축 성분의 각각이 단조 증가 또는 단조 감소하고 있는 동안에는 이동방향에 변화가 없는 것으로 해서, 지금까지의 기준위치(P1)를 변경하지 않고 이동거리(D) 산출을 계속해도 된다.
한편 이동거리 취득부(32)는 사용자 손가락의 소정의 기준축(X축 또는 Y축)을 따른 이동방향이 변화되었을 경우, 당해 변화 시점에서의 사용자 손가락의 검출위치 그 자체를 새로운 기준위치(P1)로 하는 것이 아니라, 당해 검출위치에 대응하는 검출면상의 위치를 새로운 기준위치(P1)로 해도 된다. 예를 들면 이동거리 취득부(32)는 검출위치의 이동방향이 변화되었을 경우에, 기준위치(P1)의 X축 좌표값과 Y축 좌표값을 서로 독립적으로 갱신해도 된다. 즉, 이동거리 취득부(32)는 사용자 손가락의 이동방향의 X축 성분이, 양방향에서 음방향, 또는 음방향에서 양방향으로 변화되었을 경우, 당해 변화 시점에서의 검출위치의 X축 좌표값을 새로운 기준위치(P1)의 X축 좌표값으로 설정한다. 한편, 이동방향의 Y축 성분이 변화되지 않았다면, 기준위치(P1)의 Y축 좌표값은 변경하지 않고 지금까지 설정되어 있던 값을 유지한다. 도 5b는 이 예에 있어서, 도 5a와 마찬가지로 사용자가 손가락을 움직였을 경우에 설정되는 기준위치(P1)를 나타내고 있다. 도 5b의 예에서는 이동방향의 Y축 성분은 양방향에서 음방향으로 변화되고 있으므로, 기준위치(P1)의 Y축 좌표값은 갱신되지만, X축 방향에 대한 이동방향은 항상 양방향으로 변화되고 있지 않으므로 기준위치(P1)의 X축 좌표값은 갱신되지 않는다. 그 결과, 새롭게 설정되는 기준위치(P1)는 원래의 기준위치(P1o)에서 봤을 때 Y축 방향을 따라 이동하고, 이동거리 취득부(32)는 이 새로운 기준위치(P1)로부터의 거리를 이동거리(D)로서 취득한다.
조작 양태값 취득부(34)는 사용자가 실행하는 이동 조작에 대하여, 그 조작 양태에 관한 값(조작 양태값)을 취득한다. 이하의 설명에서는 조작 양태값 취득부(34)는 사용자가 실행한 이동 조작에 있어서의 이동속도(V)의 값을 조작 양태값으로서 취득하는 것으로 한다. 한편 조작 양태값 취득부(34)는 소정 시간마다 조작 양태값을 취득하는 것으로 한다. 이 경우의 시간 간격은 이동거리 취득부(32)가 이동거리(D)를 취득하는 시간 간격과 같아도 되고 달라도 된다.
구체적으로, 조작 양태값 취득부(34)는 검출위치 취득부(30)에 의해 취득되는 좌표값열을 이용해서, 사용자가 실행한 이동 조작에 있어서의 이동속도(V)를 취득한다. 예를 들면 조작 양태값 취득부(34)는 소정 시간마다 당해 시점 직전에 있어서의 사용자 손가락의 이동속도(V)를 산출한다. 이 경우, 조작 양태값 취득부(34)는 이동속도(V)를 취득하는 시점에서의 사용자 손가락의 위치(즉, 현재위치(P2))와, 당해 시점에 대하여 소정의 단위시간(tu)만큼 과거의 시점에서의 사용자 손가락의 위치 사이의 거리를 산출한다. 그리고 이 산출된 거리를 단위시간(tu)으로 나눈 값을, 가장 가까운 시점의 사용자 손가락의 이동속도(V)로서 산출한다. 한편 단위시간(tu)을 1로 간주하면, 산출된 거리 수치 자체가 이동속도(V)를 나타내게 된다.
혹은 조작 양태값 취득부(34)는 이동거리 취득부(32)가 이동거리(D)를 취득할 때에 이용한 기준위치(P1) 및 현재위치(P2)를 이용해서, 사용자 손가락의 이동속도(V)를 산출해도 된다. 이 예에서는 조작 양태값 취득부(34)는 기준위치(P1)에서 마지막으로 사용자 손가락이 검출된 시각(T1)과, 당해 시각(T1)보다 이후에 현재위치(P2)에서 최초로 사용자 손가락이 검출된 시각(T2)을 이용해서, 사용자 손가락의 이동속도(V)를 산출한다. 즉, 기준위치(P1)에서 현재위치(P2)까지의 거리를 시간(T2-T1)으로 나눔으로써, 기준위치(P1)에서 현재위치(P2)에 도달하는 동안의 사용자 손가락의 이동속도(V)를 산출한다. 한편 이 경우에 있어서, 시각(T2)은 반드시 이동속도(V)의 취득을 행하는 현재 시각으로 한정되지 않으며, 그보다 이전 시점에 현재위치(P2)까지 사용자 손가락이 도달해 있다면, 당해 도달한 시점을 시각(T2)으로서 이용한다.
또한 이미 기술한 바와 같이, 조작 양태값 취득부(34)는 이동속도(V)뿐만 아니라, 그 밖의 조작 양태에 관한 값을 취득해도 된다. 예를 들면 이면 터치 센서(14)가 감압 기능을 구비하고 있을 경우, 조작 양태값 취득부(34)는 이 이면 터치 센서(14)에 의해 검출되는, 사용자가 자신의 손가락을 검출면에 누르는 압력을 나타내는 값을 조작 양태값으로 취득해도 된다. 이 경우, 조작 양태값 취득부(34)가 취득하는 압력값은 당해 값을 취득하는 시점의 가장 가까운 과거에 검출된 압력값이어도 되고, 기준위치(P1)에서 현재위치(P2)까지 사용자의 손가락이 이동하는 동안에 검출된 압력값의 평균값이어도 된다. 또한 이미 기술한 바와 같이, 터치 센서의 검출면에 대한 손가락 접촉 면적의 크기는 이동 조작시에 사용자가 손가락을 검출면에 누르는 강도를 나타낸다고 생각된다. 그러므로 조작 양태값 취득부(34)는 이 접촉 면적의 크기를 조작 양태값으로서 취득해도 된다.
조작 입력량 출력부(36)는 이동거리 취득부(32)에 의해 취득된 이동거리(D)와, 조작 양태값 취득부(34)에 의해 취득된 조작 양태값(여기서는 사용자 손가락의 이동속도(V))에 기초해서 산출되는 값을, 사용자가 실행한 조작에 의한 조작 입력량(I)으로서 출력한다. 즉, 사용자가 실행한 이동 조작의 양을 나타내는 값으로서, 이동거리(D) 및 이동속도(V)의 쌍방을 이용해서 산출된 값을 출력한다. 한편 조작 입력량 출력부(36)는 조작 입력량(I)의 값에 더하여, 사용자가 실행한 이동 조작의 방향(즉, 기준위치(P1)에 대한 현재위치(P2)의 방향)을 이동거리 취득부(32)로부터 취득하여, 사용자의 지시방향으로서 출력한다.
구체적으로, 조작 입력량 출력부(36)는 이동거리(D)가 크면 클수록, 또한 이동속도(V)가 크면 클수록, 조작 입력량(I)의 값이 커지도록 조작 입력량(I)의 값을 산출한다. 예를 들면 조작 입력량 출력부(36)는 이동거리(D)의 값에 기초해서 산출되는 값과, 이동속도(V)의 값에 기초해서 산출되는 값을 합산하여, 조작 입력량(I)의 값을 산출한다. 이렇게 하면, 예를 들면 사용자가 같은 이동거리(D)만큼 손가락을 이동시키는 이동 조작을 실행했다고 해도, 당해 조작을 재빠르게 실행했을 경우에는 천천히 실행했을 경우보다 조작 입력량(I)의 값을 크게 할 수 있다. 이로 인해, 단순히 이동거리(D)에 따라서만 조작 입력량(I)을 산출하는 경우와 비교해서, 사용자로부터의 조작 입력으로서 접수 가능한 조작 입력량(I)의 범위가 커진다. 또한 사용자는 이동거리(D) 및 이동속도(V) 중 적어도 어느 한쪽을 조정함으로써 조작 입력량(I)의 크기를 조정할 수 있다. 즉, 비교적 큰 조작 입력량(I)의 값을 입력하고 싶을 경우에는 손가락을 큰 거리만큼 움직여도 되고 재빨리 움직여도 된다.
여기서 조작 입력량 출력부(36)가 조작 입력량(I)의 값을 산출하는 방법의 구체예에 대해서 설명한다. 예를 들면 조작 입력량 출력부(36)는 이동거리(D) 및 이동속도(V)의 각각에 소정의 계수(A1, A2)를 곱해 합계함으로써 조작 입력량(I)의 값을 산출한다. 이 경우, 조작 입력량(I)의 값은
I=A1·D+A2·V
라는 계산식으로 산출된다.
또한 조작 입력량 출력부(36)는 이동거리(D) 및 이동속도(V)의 값의 크기에 따른 효과를 강조하기(즉, 이동거리(D)나 이동속도(V)를 크게 변화시켰을 경우의 조작 입력량(I)에 대한 영향을 크게 하기) 위해, 이동거리(D)나 이동속도(V)의 거듭제곱(power)을 이용해서 조작 입력량(I)의 값을 산출해도 된다. 구체적으로는, 예를 들면 이하와 같은 계산식에 의해 조작 입력량(I)의 값을 산출한다.
I=A1·D2+A2·V2
이렇게 하면, 이동거리(D)나 이동속도(V)의 절대값이 작을 때에는 이동거리(D)나 이동속도(V)의 값의 변화에 의한 조작 입력량(I)의 값의 변화가 비교적 작지만, 이동거리(D)나 이동속도(V)의 절대값이 커졌을 때에는 이동거리(D)나 이동속도(V)의 값의 변화에 의한 조작 입력량(I)의 값의 변화가 상대적으로 커진다. 한편 여기서는 이동거리(D) 및 이동속도(V)의 쌍방에 대해서 거듭제곱을 이용하였지만, 어느 한쪽(보다 효과를 강조하고 싶은 쪽)만 거듭제곱을 이용하고, 다른쪽은 거듭제곱하지 않고 합산해도 된다.
또한 조작 입력량 출력부(36)는 이동거리 취득부(32)가 취득한 이동거리(D)의 값이 소정의 상한값(Dth)을 넘을 경우, 당해 상한값(Dth)을 이동거리(D)의 값으로서 이용해서, 조작 입력량(I)의 값을 산출해도 된다. 이렇게 하면, 사용자가 빠른 이동속도(V)로 조작 입력을 행하려고 상한값(Dth) 이상으로 손가락을 움직인 경우라도, 조작 입력량(I)의 산출에 이용하는 이동거리(D)의 값을 상한값(Dth)으로 억제할 수 있다.
또한 조작 입력량 출력부(36)는 이동거리 취득부(32)가 취득한 이동거리(D)의 수치나, 조작 양태값 취득부(34)가 취득한 이동속도(V)의 수치를 그대로 연산에 이용하는 것이 아니라, 각 수치가 복수의 수치 범위 중 어느 것에 속하는지를 판정하고, 그 결과에 따라 조작 입력량(I)의 값을 산출해도 된다. 예를 들면 조작 입력량 출력부(36)는 이동속도(V)의 값이 소정의 제1역치(Vth1)보다 작으면, 사용자의 손가락이 거의 멈추어 있다고 판정하고, 제1역치(Vth1) 이상 제2역치(Vth2) 미만이면 저속으로 이동하고 있고, 제2역치(Vth) 이상이면 고속으로 이동하고 있다고 판정한다. 그리고 그 판정 결과에 따라, 이동거리(D)의 수치에 서로 다른 소정의 보정값을 가산함으로써 조작 입력량(I)의 값을 산출해도 된다.
표시화상 제어부(38)는 조작 입력량 출력부(36)가 출력하는 조작 입력량(I)의 값에 따라, 디스플레이(12a)에 표시되어 있는 화상을 갱신한다. 예를 들면 표시화상 제어부(38)는 조작 입력량 출력부(36)가 출력하는 조작 입력량(I)의 값에 따른 양만큼, 디스플레이(12a)의 표시 화면에 표시되어 있는 표시화상 내의 화상 요소를 이동시키도록 표시화상을 갱신한다. 이 화상 요소는 가상 공간 내에 배치된 각종 오브젝트여도 되고, 메뉴 화면 내의 아이콘 등이어도 된다. 본 실시형태에서는 표시화상 제어부(38)는 제어부(20)가 게임 애플리케이션 프로그램을 실행함으로써 실현되며, 사용자의 조작 입력에 따라 변화되는 게임 화상을 디스플레이(12a)에 표시하는 것으로 한다. 구체적으로 표시화상 제어부(38)는 가상 3차원 공간 내에 게임 캐릭터 오브젝트나 배경 오브젝트 등의 오브젝트를 배치하고, 당해 가상 3차원 공간 내의 모습을 나타내는 화상의 묘화를 화상처리부(24)에 지시한다. 당해 지시에 따라 화상처리부(24) 내의 GPU가 화상을 생성하고, 프레임 버퍼에 기입함으로써, 디스플레이(12a)에 게임 화상이 표시된다. 여기서는 가상 3차원 공간 내에 시점위치 및 시선방향이 설정되어 있으며, 당해 시점위치에서 당해 시선방향을 향해 가상 3차원 공간을 본 모습을 나타내는 화상이 묘화되는 것으로 한다.
또한 표시화상 제어부(38)는 조작 입력량 출력부(36)가 출력하는 조작 입력량(I)의 값, 및 사용자의 지시방향에 따라 이 게임 화상의 내용을 갱신한다. 구체적으로 표시화상 제어부(38)는 가상 3차원 공간에 설정된 시선방향을, 사용자가 지시하는 방향으로, 조작 입력량(I)의 값에 비례하는 속도로 변화시킨다. 이로 인해, 사용자는 이면 터치 센서(14)에 대해 실행한 이동 조작에 있어서의 이동거리 및 이동속도에 따른 속도로, 표시되는 게임 화상에 있어서의 시선의 방향을 변화시킬 수 있고, 게임 화상 내의 각 오브젝트는 조작 입력량(I)의 값에 따른 양만큼 게임 화상 내를 이동하게 된다.
이상 설명한 본 실시형태에 따르면, 사용자에 의한 조작의 배리에이션을 늘려 조작 입력을 하기 쉽게 할 수 있다. 예를 들면 사용자는 이면 터치 센서(14)의 검출면상의 한 점에 손가락을 두고, 당해 한 점에서부터 임의의 방향으로 손가락을 미끄러뜨림으로써, 아날로그 스틱을 기울인 것과 동일한 조작감으로 방향을 지시할 수 있다. 이러한 이동 조작에 따라, 예를 들면 정보입력장치(1)는 가상 3차원 공간 내에 설정된 시선방향을 이동 조작의 방향에 따른 방향으로 변화시키는 처리를 실행한다. 또한 사용자는 어느 한 방향으로 재빠르게 손가락을 움직임으로써 큰 양의 조작 입력을 행할 수 있다. 이로 인해 정보입력장치(1)는 순간적으로 큰 속도로 시선방향을 변화시키는 등의 처리를 실행한다.
나아가 이동속도(V)로서 가장 가까운 과거의 손가락의 이동속도를 사용할 경우, 사용자가 검출면상에 있어서 손가락을 일정 방향으로 움직이고나서 그대로 정지시키는 조작을 하면, 이동속도(V)는 0이 되는 한편, 기준위치(P1)에 대한 이동거리(D)는 일정값을 유지하게 된다. 이로 인해, 몇 번이고 같은 조작을 반복하지 않고 임의의 방향으로 조작 입력을 계속할 수 있다. 나아가 이 경우, 이동속도(V)의 영향으로 일시적으로 큰 조작 입력량(I)이 출력된 후, 비교적 작은 조작 입력량(I)이 출력되게 되므로, 큰 값에서 작은 값으로 변화되는 조작 입력을 복잡한 손가락의 움직임을 수반하지 않고 용이하게 실행할 수 있다. 이때, 이동거리(D)가 상한값(Dth)인 것으로 해서 조작 입력량(I)을 산출하기로 하면, 사용자의 재빠른 조작 입력에 따라 일시적으로 큰 값의 조작 입력량(I)이 출력된 후, 이동속도(V)=0 및 이동거리(D)=Dth에 따라 미리 정해진 값의 조작 입력량(I)이 출력되게 되고, 일시적으로 증대된 조작 입력량(I)을 소정의 값 이하로 할 수 있다. 또한 이동속도(V)의 값으로서, 기준위치(P1)에서 현재위치(P2)까지 이동하는 동안의 이동속도를 사용할 경우, 마찬가지로 사용자가 검출면상에 있어서 손가락을 일정 방향으로 움직이고나서 정지시키는 조작을 했다고 하면, 이동속도(V)에 따른 값이 가산된 조작 입력량(I)의 값이 계속해서 출력되게 된다. 그 때문에, 사용자가 현재위치(P2)까지 재빠르게 손가락을 이동시켰을 경우에는, 그 때의 큰 조작 입력량(I)의 값이 그대로 유지되고, 예를 들면 시선방향을 빠른 속도로 계속해서 이동시킬 수 있다.
한편 본 발명의 실시형태는 이상에서 설명한 것에 한정되지 않는다. 예를 들면 이상의 설명에서는, 이면 터치 센서(14)의 검출면상에 있어서의 2차원적인 이동거리(D) 및 이동속도(V)의 값을 이용해서 조작 입력량(I)을 산출하는 것으로 했지만, 정보입력장치(1)는 사용자의 이동 조작의 궤적을 기준축(여기서는 X축 및 Y축)방향으로 투영해서 얻어지는 위치의 변화를 조작 입력으로 해서 상술한 처리를 해도 된다. 구체적으로, 검출위치 취득부(30)는 사용자 손가락의 검출위치를 2차원의 좌표값(px, py)으로서 취득하므로, X축의 좌표값열{px1, px2, px3, …} 및 Y축의 좌표값열{py1, py2, py3, …}의 2개의 좌표값열이 얻어진다. 정보입력장치(1)는 이 2개의 좌표값열 각각에 대하여, 서로 독립적으로 지금까지 설명한 이동거리(D) 및 이동속도(V)의 취득, 그리고 조작 입력량(I)의 산출을 실행해도 된다.
이 경우, 예를 들면 이동거리 취득부(32)는 사용자의 손가락 위치를 최초로 검출하면, 당해 검출위치의 X축 좌표값을 X축 기준위치(P1x)로 하고 Y축 좌표값을 Y축 기준위치(P1y)로 한다. 그리고 X축 기준위치(P1x)에 대한 X축 방향의 이동거리(Dx), 및 Y축 기준위치(P1y)에 대한 Y축 방향의 이동거리(Dy)를 각각 취득한다. 또한 조작 양태값 취득부(34)는 X축 방향으로의 사용자 손가락의 이동속도(Vx), 및 Y축 방향으로의 사용자 손가락의 이동속도(Vy)를 각각 취득한다. 그리고 조작 입력량 출력부(36)는 이동거리(Dx) 및 이동속도(Vx)를 이용해서 X축 방향의 조작 입력량(Ix)을, 또한 이동거리(Dy) 및 이동속도(Vy)를 이용해서 Y축 방향의 조작 입력량(Iy)을 각각 산출한다. 이렇게 하면, 이동거리(Dx 및 Dy)나 이동속도(Vx 및 Vy)를 비교적 적은 연산량으로 산출할 수 있게 된다.
또한 이상의 설명에서는, 표시화상 제어부(38)는 사용자의 조작 입력에 따라 시선방향을 변화시키는 것으로 했지만, 이것에 한정되지 않으며, 조작 입력량(I)은 각종 위치나 방향을 변화시키기 위해 이용되어도 된다. 구체적으로, 예를 들면 표시화상 제어부(38)는 사용자가 지시하는 방향 및 조작 입력량(I)의 값에 따라, 가상 3차원 공간 내에 설정된 시점위치를 이동시켜도 되고, 가상 3차원 공간 내에서의 사용자 캐릭터의 위치를 이동시켜도 된다. 또한 조작 입력량(I)은 가상 3차원 공간 내의 모습을 나타내는 화상을 갱신하기 위해서뿐만 아니라, 예를 들면 표시 화면을 스크롤하는 처리에 있어서의 스크롤량 등, 각종 정보처리의 파라미터로서 이용되어도 된다.
또한 이상의 설명에서는, 이면 터치 센서(14)에 대한 이동 조작에 있어서의 이동거리(D) 및 이동속도(V)를 조작 입력량(I)의 산출에 이용하는 것으로 했지만, 이에 한정되지 않으며, 표면 터치 센서(12b)에 대한 이동 조작에 있어서의 이동거리(D) 및 이동속도(V)를 이용해서 동일한 처리를 실행해도 된다. 또한 본 발명의 실시형태에 따른 정보입력장치는 반드시 사용자가 직접 조작을 행하는 터치 센서를 구비하지 않아도 된다. 예를 들면 본 발명의 실시형태에 따른 정보입력장치는 터치 센서를 구비한 조작 디바이스와 접속된, 가정용 게임기나 PC 등의 정보처리장치여도 된다. 이 경우, 정보입력장치는 당해 조작 디바이스로부터 송신되는 물체의 검출위치의 정보에 기초해서 이동거리(D) 및 이동속도(V)를 산출한다.

Claims (13)

  1. 검출면상에 있어서의 물체의 위치를 검출하는 터치 센서에 대하여, 사용자가 상기 검출면상에 있어서 상기 물체를 이동시키는 이동 조작을 실행했을 경우에, 상기 이동 조작에 있어서의 상기 물체의 이동거리를 취득하는 이동거리 취득 스텝과,
    상기 이동 조작의 조작 양태에 관한 값을 취득하는 조작 양태값 취득 스텝과,
    상기 취득한 이동거리와, 상기 취득한 조작 양태에 관한 값에 기초해서 산출되는 값을, 상기 사용자가 실행한 이동 조작에 의한 조작 입력량으로서 출력하는 조작 입력량 출력 스텝을 포함하며,
    상기 이동거리 취득 스텝에서는, 상기 물체가 검출위치의 소정의 기준축에 대한 이동방향이 변화되었을 경우에, 상기 변화 시점에서의 상기 물체의 검출위치에 대응하는 위치를 기준위치로 하고, 상기 이동거리의 취득을 행하는 시점에서의 상기 물체의 검출위치를 현재위치로 해서, 상기 기준위치에서 상기 현재위치까지의 상기 물체의 이동거리를 취득하고,
    상기 물체가 검출위치의 소정의 기준축에 대한 이동방향이 변화하지 않는 동안은 최초로 상기 물체의 검출을 개시한 시점에 있어서의 상기 물체의 검출 위치를 기준 위치로 하여 상기 물체의 이동거리를 취득하는 것을 특징으로 하는 정보입력장치의 제어방법.
  2. 제1항에 있어서,
    상기 이동 조작의 조작 양태에 관한 값은 상기 이동 조작에 있어서의 상기 물체의 이동속도를 나타내는 값인 것을 특징으로 하는 정보입력장치의 제어방법.
  3. 제2항에 있어서,
    상기 조작 양태값 취득 스텝에서는, 상기 조작 양태에 관한 값을 취득하는 시점 직전에 있어서의 상기 물체의 이동속도를 나타내는 값을, 상기 조작 양태에 관한 값으로서 취득하는 것을 특징으로 하는 정보입력장치의 제어방법.
  4. 제1항에 있어서,
    상기 이동 조작의 조작 양태에 관한 값은, 상기 이동 조작시에 상기 사용자가 상기 검출면에 상기 물체를 누르는 압력을 나타내는 값인 것을 특징으로 하는 정보입력장치의 제어방법.
  5. 제1항에 있어서,
    상기 이동거리 취득 스텝에서는, 상기 물체를 검출하지 않은 상태에서 최초로 상기 물체의 검출을 개시한 시점에서의 상기 물체의 검출위치를 기준위치로 하고, 상기 이동거리의 취득을 행하는 시점에서의 상기 물체의 검출위치를 현재위치로 해서, 상기 기준위치에서 상기 현재위치까지의 상기 물체의 이동거리를 취득하는 것을 특징으로 하는 정보입력장치의 제어방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 이동거리 취득 스텝에서는, 상기 변화 시점에서의 상기 물체의 검출위치의 상기 기준축을 따른 위치 좌표가, 상기 기준위치의 상기 기준축을 따른 위치 좌표가 되도록 상기 기준위치를 결정하고, 상기 기준위치에서 상기 현재위치까지의 상기 물체의 이동거리를 취득하는 것을 특징으로 하는 정보입력장치의 제어방법.
  8. 삭제
  9. 제1항에 있어서,
    상기 조작 입력량 출력 스텝에서는, 상기 이동거리가 소정값을 넘을 경우에는 상기 소정값을 상기 이동거리의 값으로 해서 상기 조작 입력량의 값을 산출하는 것을 특징으로 하는 정보입력장치의 제어방법.
  10. 제1항에 있어서,
    상기 출력되는 조작 입력량에 따른 양만큼, 표시 화면에 표시되는 화상 내의 화상 요소를 이동시키는 표시화상 제어 스텝을 더 포함하는 것을 특징으로 하는 정보입력장치의 제어방법.
  11. 검출면상에 있어서의 물체의 위치를 검출하는 터치 센서로부터, 상기 물체의 검출위치를 취득하는 수단과,
    사용자가 상기 검출면상에 있어서 상기 물체를 이동시키는 이동 조작을 실행했을 경우에, 상기 검출위치를 이용해서, 상기 이동 조작에 있어서의 상기 물체의 이동거리를 취득하는 이동거리 취득 수단과,
    상기 이동 조작의 조작 양태에 관한 값을 취득하는 조작 양태값 취득 수단과,
    상기 취득한 이동거리와, 상기 취득한 조작 양태에 관한 값에 기초해서 산출되는 값을, 상기 사용자가 실행한 이동 조작에 의한 조작 입력량으로서 출력하는 조작 입력량 출력 수단을 포함하고,
    상기 이동거리 취득 수단은 상기 물체가 검출위치의 소정의 기준축에 대한 이동방향이 변화되었을 경우에, 상기 변화 시점에서의 상기 물체의 검출위치에 대응하는 위치를 기준위치로 하고, 상기 이동거리의 취득을 행하는 시점에서의 상기 물체의 검출위치를 현재위치로 해서, 상기 기준위치에서 상기 현재위치까지의 상기 물체의 이동거리를 취득하고, 상기 물체의 검출위치의 소정의 기준축에 대한이동방향이 변화하지 않는 동안은 최초로 상기 물체의 검출을 개시한 시점에 있어서의 상기 물체의 검출 위치를 기준 위치로 하여 상기 물체의 이동거리를 취득하는 것 것을 특징으로 하는 정보입력장치.
  12. 삭제
  13. 컴퓨터에 실행시키는 프로그램을 기억한, 컴퓨터로 읽을 수 있는 정보기억매체로서, 상기 프로그램은
    검출면상에 있어서의 물체의 위치를 검출하는 터치 센서에 대하여, 사용자가 상기 검출면상에 있어서 상기 물체를 이동시키는 이동 조작을 실행했을 경우에, 상기 이동 조작에 있어서의 상기 물체의 이동거리를 취득하는 이동거리 취득 스텝과,
    상기 이동 조작의 조작 양태에 관한 값을 취득하는 조작 양태값 취득 스텝과,
    상기 취득한 이동거리와, 상기 취득한 조작 양태에 관한 값에 기초해서 산출되는 값을, 상기 사용자가 실행한 이동 조작에 의한 조작 입력량으로서 출력하는 조작 입력량 출력 스텝을 포함하며,
    상기 이동거리 취득 스텝에서는, 상기 물체가 검출위치의 소정의 기준축에 대한 이동방향이 변화되었을 경우에, 상기 변화 시점에서의 상기 물체의 검출위치에 대응하는 위치를 기준위치로 하고, 상기 이동거리의 취득을 행하는 시점에서의 상기 물체의 검출위치를 현재위치로 해서, 상기 기준위치에서 상기 현재위치까지의 상기 물체의 이동거리를 취득하고, 상기 물체가 검출위치의 소정의 기준축에 대한 이동방향이 변화하지 않는 동안은 최초로 상기 물체의 검출을 개시한 시점에 있어서의 상기 물체의 검출 위치를 기준 위치로 하여 상기 물체의 이동거리를 취득하는 것을 특징으로 하는 컴퓨터에 실행시키는 프로그램을 기억한, 컴퓨터로 읽을 수 있는 정보기억매체.
KR1020117018552A 2009-11-10 2010-06-30 정보입력장치의 제어방법, 정보입력장치, 프로그램, 및 정보기억매체 KR101366813B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2009-257282 2009-11-10
JP2009257282A JP5535585B2 (ja) 2009-11-10 2009-11-10 プログラム、情報記憶媒体、情報入力装置、及びその制御方法
PCT/JP2010/061187 WO2011058783A1 (ja) 2009-11-10 2010-06-30 情報入力装置の制御方法、情報入力装置、プログラム、及び情報記憶媒体

Publications (2)

Publication Number Publication Date
KR20110102511A KR20110102511A (ko) 2011-09-16
KR101366813B1 true KR101366813B1 (ko) 2014-02-25

Family

ID=43991447

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117018552A KR101366813B1 (ko) 2009-11-10 2010-06-30 정보입력장치의 제어방법, 정보입력장치, 프로그램, 및 정보기억매체

Country Status (6)

Country Link
US (1) US9250799B2 (ko)
EP (1) EP2500800A4 (ko)
JP (1) JP5535585B2 (ko)
KR (1) KR101366813B1 (ko)
CN (1) CN102317892B (ko)
WO (1) WO2011058783A1 (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2427879C2 (ru) * 2009-10-05 2011-08-27 Владимир Витальевич Мирошниченко Управление виртуальными символами
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
US9043732B2 (en) * 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
JP5091338B1 (ja) * 2011-05-26 2012-12-05 株式会社コナミデジタルエンタテインメント 情報表示装置、情報表示方法、ならびに、プログラム
JP5894380B2 (ja) * 2011-06-15 2016-03-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP5740700B2 (ja) * 2011-11-28 2015-06-24 株式会社セガゲームス ゲーム装置及びゲームプログラム
JP2013127683A (ja) * 2011-12-16 2013-06-27 Namco Bandai Games Inc プログラム、情報記憶媒体、端末、サーバ及びネットワークシステム
US10872454B2 (en) 2012-01-06 2020-12-22 Microsoft Technology Licensing, Llc Panning animations
US8884928B1 (en) 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
JP5846053B2 (ja) * 2012-06-14 2016-01-20 ヤマハ株式会社 パラメータ制御プログラム及びパラメータ制御装置
JP5783957B2 (ja) * 2012-06-22 2015-09-24 株式会社Nttドコモ 表示装置、表示方法及びプログラム
KR20140039762A (ko) * 2012-09-25 2014-04-02 삼성전자주식회사 영상처리장치 및 그 제어방법
KR101956073B1 (ko) * 2012-12-20 2019-03-08 삼성전자주식회사 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법
JP6179412B2 (ja) * 2013-01-31 2017-08-16 株式会社Jvcケンウッド 入力表示装置
KR102210633B1 (ko) * 2014-07-09 2021-02-02 엘지전자 주식회사 가상 오브젝트의 뎁스와 연계된 인정범위를 가진 디스플레이 디바이스 및 그 제어 방법
JP6643776B2 (ja) * 2015-06-11 2020-02-12 株式会社バンダイナムコエンターテインメント 端末装置及びプログラム
JP6217701B2 (ja) 2015-07-21 2017-10-25 トヨタ自動車株式会社 入力装置
JP6532393B2 (ja) 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
CN107335218B (zh) * 2017-07-07 2021-02-19 网易(杭州)网络有限公司 游戏场景移动方法及装置、存储介质、处理器和终端
CN107930105A (zh) * 2017-10-23 2018-04-20 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
WO2019187619A1 (ja) * 2018-03-29 2019-10-03 株式会社コナミデジタルエンタテインメント 情報処理装置およびそのプログラムを記録した記録媒体
WO2020044692A1 (ja) 2018-08-27 2020-03-05 テルモ株式会社 医療機器
US20220308693A1 (en) * 2021-03-29 2022-09-29 Innolux Corporation Image system
CN115909342B (zh) * 2023-01-03 2023-05-23 湖北瑞云智联科技有限公司 基于触点运动轨迹的图像标记识别系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011914A (ja) * 2004-06-28 2006-01-12 Fuji Photo Film Co Ltd 画像表示制御装置及び画像表示制御プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956019A (en) * 1993-09-28 1999-09-21 The Boeing Company Touch-pad cursor control device
JPH07121698A (ja) * 1993-10-26 1995-05-12 Glory Ltd 手書きデータの曲線近似方法
US6424338B1 (en) * 1999-09-30 2002-07-23 Gateway, Inc. Speed zone touchpad
US8059099B2 (en) * 2006-06-02 2011-11-15 Apple Inc. Techniques for interactive input to portable electronic devices
JP4887788B2 (ja) 2006-01-11 2012-02-29 大日本印刷株式会社 処理装置、プログラム及び電子ペン用帳票
EP1882902A1 (en) * 2006-07-27 2008-01-30 Aisin AW Co., Ltd. Navigation apparatus and method for providing guidance to a vehicle user using a touch screen
US8373655B2 (en) * 2007-01-05 2013-02-12 Apple Inc. Adaptive acceleration of mouse cursor
US9141202B2 (en) 2007-06-08 2015-09-22 Sony Corporation Information processing apparatus, input apparatus, information processing system, information processing method, and program
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
JP4605214B2 (ja) * 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR101016221B1 (ko) * 2008-11-14 2011-02-25 한국표준과학연구원 힘 센서를 구비한 입력모듈에 터치 입력을 처리하기 위한 알고리즘 구현방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011914A (ja) * 2004-06-28 2006-01-12 Fuji Photo Film Co Ltd 画像表示制御装置及び画像表示制御プログラム

Also Published As

Publication number Publication date
US20120212429A1 (en) 2012-08-23
WO2011058783A1 (ja) 2011-05-19
EP2500800A4 (en) 2016-08-03
CN102317892A (zh) 2012-01-11
US9250799B2 (en) 2016-02-02
JP2011103044A (ja) 2011-05-26
KR20110102511A (ko) 2011-09-16
JP5535585B2 (ja) 2014-07-02
EP2500800A1 (en) 2012-09-19
CN102317892B (zh) 2015-09-09

Similar Documents

Publication Publication Date Title
KR101366813B1 (ko) 정보입력장치의 제어방법, 정보입력장치, 프로그램, 및 정보기억매체
US11221730B2 (en) Input device for VR/AR applications
JP5508122B2 (ja) プログラム、情報入力装置、及びその制御方法
US8957909B2 (en) System and method for compensating for drift in a display of a user interface state
US8050891B2 (en) Sensor mapping
US20200310561A1 (en) Input device for use in 2d and 3d environments
EP2538309A2 (en) Remote control with motion sensitive devices
JP6081769B2 (ja) プログラム、情報処理装置、情報処理方法および情報処理システム
WO2008073801A2 (en) Inertial sensor input device
JPWO2009035124A1 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
KR20120023247A (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
US11397478B1 (en) Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
US11995252B2 (en) Input system and input method for setting instruction target area including reference position of instruction device
EP2538308A2 (en) Motion-based control of a controllled device
Tsuchida et al. TetraForce: a magnetic-based interface enabling pressure force and shear force input applied to front and back of a smartphone
JP2014085816A (ja) プログラム、情報処理装置、情報処理方法および情報処理システム
JP2014146354A (ja) プログラム、情報入力装置、及びその制御方法
JP7475800B2 (ja) 方向指示入力プログラム、方向指示入力装置、および方向指示入力を利用するプログラム
JP5997388B2 (ja) エミュレーション装置、エミュレーション方法、プログラム及び情報記憶媒体
JP6630299B2 (ja) プログラム、情報処理装置、情報処理方法および情報処理システム
JP2019134881A (ja) プログラム及びゲーム装置
KR20180007569A (ko) 회전 센서를 이용한 3차원 공간 좌표 인식 마우스

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170119

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180202

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200205

Year of fee payment: 7