JP2013156684A - User interface device that can control individual touch response mechanisms, touch response activation method and program - Google Patents

User interface device that can control individual touch response mechanisms, touch response activation method and program Download PDF

Info

Publication number
JP2013156684A
JP2013156684A JP2012014369A JP2012014369A JP2013156684A JP 2013156684 A JP2013156684 A JP 2013156684A JP 2012014369 A JP2012014369 A JP 2012014369A JP 2012014369 A JP2012014369 A JP 2012014369A JP 2013156684 A JP2013156684 A JP 2013156684A
Authority
JP
Japan
Prior art keywords
tactile response
finger
response
display
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012014369A
Other languages
Japanese (ja)
Other versions
JP5875879B2 (en
JP2013156684A5 (en
Inventor
Tomoaki Matsuki
友明 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012014369A priority Critical patent/JP5875879B2/en
Publication of JP2013156684A publication Critical patent/JP2013156684A/en
Publication of JP2013156684A5 publication Critical patent/JP2013156684A5/ja
Application granted granted Critical
Publication of JP5875879B2 publication Critical patent/JP5875879B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a user interface device that can give a predetermined finger a touch response that is appropriate to an event caused by operation using the finger.SOLUTION: The user interface device has: a plurality of touch response mechanisms each giving a touch response to a finger in contact with a display screen; area setting means for setting one or more areas in the display screen; response proportion determination means for determining the proportion of touch response intensity that is generated by each one of the plurality of touch response mechanisms on the basis of a coordinate value of one position when operation of an image using the finger causes an event in association with the position in one set area; and touch response control means for ordering each of the plurality of touch response mechanisms to generate a touch response having intensity with the determined proportion in order to give a touch response to the finger used for the operation.

Description

本発明は、画像を表示するディスプレイと、指による操作を可能とするタッチパネルとを備えたユーザインタフェース装置に関する。   The present invention relates to a user interface device including a display that displays an image and a touch panel that enables an operation with a finger.

従来、タッチパネルを搭載したユーザインタフェース装置が広く普及している。特に、近年、スマートフォン、タブレット型コンピュータ、電子書籍、PDA(Personal Digital Assistant)のようなユーザインタフェース装置、いわゆる携帯型情報機器では、指の接触による操作を受け入れるユーザインタフェースとしてタッチパネルが積極的に採用されている。   Conventionally, user interface devices equipped with touch panels have been widely used. In particular, in recent years, in user interface devices such as smartphones, tablet computers, electronic books, PDAs (Personal Digital Assistants), so-called portable information devices, touch panels have been actively adopted as user interfaces that accept operations by finger contact. ing.

タッチパネルを採用すると、機器の多機能化に対応した様々な入力操作が可能となるが、一方で、物理キーと比較すると、誤った入力操作が生じやすい傾向にある。具体的には、ユーザが意図せずにタッチパネルに触れた場合でも入力操作が発生したり、ユーザが入力操作を行っても所望の機能が発動せずやり直しの操作が必要となったりする。   When the touch panel is adopted, various input operations corresponding to the multi-functionality of the device can be performed. On the other hand, compared with the physical key, an erroneous input operation tends to occur. Specifically, an input operation occurs even when the user unintentionally touches the touch panel, or even if the user performs an input operation, a desired function is not activated and a redo operation is required.

この誤入力の問題に対処する方策として、操作を行った指に対して振動等による触覚応答を付与する技術が存在する。ユーザは、自ら行った操作に対する応答(フィードバック)を得ることを目安として操作を行うことができ、また、この応答を指で得て、操作の完了を確認することができる。   There is a technique for giving a tactile response by vibration or the like to an operated finger as a measure for dealing with the problem of erroneous input. The user can perform the operation with reference to obtaining a response (feedback) to the operation performed by the user, and can obtain the response with a finger to confirm the completion of the operation.

例えば、特許文献1には、ピエゾ素子を含む撓み振動型アクチュエータを備えた触感フィードバック機能付タッチパネルが開示されている。このタッチパネルは、周縁部に、撓み振動型アクチュエータを2つ備えている。また、特許文献2には、同時に生じる複数の接触を検出可能なマルチタッチパネルを振動させ、タッチ確認のフィードバックを行うタッチパネル装置が開示されている。この装置では、1本目の指がタッチした際、第1の振動が指に付与され、1本目の指がタッチ継続中に2本目の指がタッチした際、第1の振動よりも振動レベルの大きい第2の振動を付与する。   For example, Patent Document 1 discloses a touch panel with a tactile feedback function including a flexural vibration type actuator including a piezoelectric element. This touch panel is provided with two flexural vibration type actuators at the periphery. Patent Document 2 discloses a touch panel device that vibrates a multi-touch panel that can detect a plurality of contacts that occur at the same time and performs feedback of touch confirmation. In this device, when the first finger touches, the first vibration is applied to the finger, and when the second finger touches while the first finger is touching, the vibration level is higher than the first vibration. A large second vibration is applied.

特開2011−43925号公報JP 2011-43925 A 特開2010−55282号公報JP 2010-55282 A

従来、多くの携帯型情報機器では、事象発動の応答又は通知用として、偏心した重りが接続された電動モータ(振動モータ)を作動させることによって機器全体を振動させ、ユーザに振動を体感させてきた。   2. Description of the Related Art Conventionally, in many portable information devices, for response or notification of event triggering, an electric motor (vibration motor) connected with an eccentric weight is operated to vibrate the entire device and allow the user to feel the vibration. It was.

また、特許文献1のように、タッチパネル周縁部の互いに離隔した位置に設けられた2つの圧電アクチュエータを用いて振動を付与する技術も存在する。但し、この場合でも、これら圧電アクチュエータは同時に作動するので、少なくともタッチパネル全体が振動する。従って、操作の結果発動した事象に対する触覚応答は、常時、概ね同一の振動を指に与えるものとなっている。すなわち、種々の操作の結果として様々な事象が発動し得るにもかかわらず、操作を行った指に、同様の触覚応答しか付与できない。   In addition, as in Patent Document 1, there is a technique for applying vibration using two piezoelectric actuators provided at positions separated from each other at the peripheral edge of the touch panel. However, even in this case, since these piezoelectric actuators operate simultaneously, at least the entire touch panel vibrates. Therefore, the tactile response to the event activated as a result of the operation always gives almost the same vibration to the finger. That is, although various events can be triggered as a result of various operations, only the same tactile response can be given to the operated finger.

一方、特許文献2のように、圧電素子及び振動モータの両方を備えて、2種の振動を発動した事象に応じてフィードバックする技術も存在する。しかしながら、これらの振動は比較するに相当に異質であり、同じタッチパネルに対して指で行う種々の操作に応じた触覚応答のバラエティとしては、不適切である。すなわち、操作と応答との対応関係が直感的でなく、操作が受け入れられたか否かが瞬時に確認し難い場合が多くなる。   On the other hand, as disclosed in Patent Document 2, there is a technique that includes both a piezoelectric element and a vibration motor and feeds back according to an event in which two types of vibrations are activated. However, these vibrations are considerably different from each other and are inappropriate as a variety of tactile responses according to various operations performed with a finger on the same touch panel. That is, the correspondence between the operation and the response is not intuitive, and it is often difficult to instantly confirm whether or not the operation has been accepted.

さらに、マルチタッチパネルに複数本の指が同時に接触した場合、以上に述べた従来技術では、一時点で、いずれの指にも同様の振動しか付与できない。従って、例えば、対戦ゲームにおいて、プレーヤそれぞれの指がマルチタッチパネルに接触しながら操作を行う状況では、プレーヤ毎に、そのプレーヤの操作の結果発動した事象に適した触覚応答を与えることが不可能となる。   Further, when a plurality of fingers touch the multi-touch panel at the same time, the related art described above can apply only the same vibration to any finger at a temporary point. Therefore, for example, in a battle game, in a situation where each player's finger touches the multi-touch panel and performs an operation, it is impossible for each player to give a tactile response suitable for an event triggered as a result of the player's operation. Become.

そこで、本発明は、所定の指に、その指の操作の結果発動した事象に適した触覚応答を付与可能となるユーザインタフェース装置、触覚応答発動方法及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a user interface device, a tactile response issuing method, and a program capable of giving a predetermined finger a tactile response suitable for an event activated as a result of the operation of the finger.

本発明によれば、操作対象である画像を表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置であって、
ディスプレイの画面上に接触した指に対して触覚応答を付与する複数の触覚応答機構部と、
ディスプレイの画面内に、1つ以上の領域を設定する領域設定手段と、
画像に対する指による操作によって、設定された1つの領域内での1つの位置に関連付けられた事象が発動した際、画面内に設定された座標系での、この1つの位置の座標値に応じて、複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する応答割合決定手段と、
操作を行った指に対して触覚応答を付与すべく、複数の触覚応答機構部の各々に対して、決定された上記割合の強度を有する触覚応答を発生させるように指示する触覚応答制御手段と
を有するユーザインタフェース装置が提供される。
According to the present invention, there is provided a user interface device including a display that displays an operation target image, and a touch panel that is arranged on a screen of the display and sequentially outputs a contact position of a finger as time elapses. ,
A plurality of tactile response mechanisms that give a tactile response to a finger touching the display screen;
An area setting means for setting one or more areas in the display screen;
When an event associated with one position in one set region is triggered by an operation with a finger on the image, according to the coordinate value of this one position in the coordinate system set in the screen Response ratio determining means for determining a ratio of the tactile response intensity generated by each of the plurality of tactile response mechanisms;
Tactile response control means for instructing each of a plurality of tactile response mechanism units to generate a tactile response having the determined intensity ratio to give a tactile response to the operated finger A user interface device is provided.

この本発明によるユーザインタフェース装置の一実施形態として、このユーザインタフェース装置が、ディスプレイの画面上に接触した指によって与えられる押圧力を検出する押圧力検出部と、
押圧力の大きさが所定閾値以上であるか否かを判定する押圧力判定手段と、
指の接触位置が、設定された1つの領域内に含まれるか否かを判定する接触位置判定手段と
を更に有しており、
応答割合決定手段は、接触位置判定手段が真の判定を行い且つ押圧力判定手段が真の判定を行った際、1つの領域に関連付けられた事象が発動したとして、この1つの領域内での1つの位置における座標値に応じて、複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定することも好ましい。
As one embodiment of the user interface device according to the present invention, the user interface device detects a pressing force applied by a finger touching the screen of the display;
A pressing force determining means for determining whether or not the magnitude of the pressing force is equal to or greater than a predetermined threshold;
Contact position determination means for determining whether the contact position of the finger is included in one set region;
The response ratio determining means determines that an event associated with one area is triggered when the contact position determining means makes a true determination and the pressing force determining means makes a true determination. It is also preferable to determine the proportion of the tactile response intensity generated by each of the plurality of tactile response mechanisms according to the coordinate value at one position.

また、この本発明によるユーザインタフェース装置において、
タッチパネルは、少なくとも当該指及び他の指の接触位置を同時に検知可能なマルチタッチパネルであり、
触覚応答制御手段は、共に接触している当該指及び当該他の指のいずれかの操作によって、設定された1つの領域内での1つの位置に関連付けられた事象が発動した際、当該指及び当該他の指の各々に対して触覚応答を付与すべく、複数の触覚応答機構部の各々に対して、決定された上記割合の強度を有する触覚応答を発生させるように指示することも好ましい。
In the user interface device according to the present invention,
The touch panel is a multi-touch panel capable of simultaneously detecting at least the contact positions of the finger and other fingers,
The tactile response control means, when an event associated with one position in one set region is activated by the operation of either the finger or the other finger that are in contact with each other, In order to give a tactile response to each of the other fingers, it is also preferable to instruct each of the plurality of tactile response mechanism units to generate a tactile response having the determined ratio.

さらに、この本発明によるユーザインタフェース装置の他の実施形態として、
複数の触覚応答機構部は、少なくともディスプレイの画面の両端部近傍のそれぞれに設けられた互いに対向する2つの触覚応答機構部であり、
応答割合決定手段は、1つの領域内での1つの位置における座標値であって、2つの触覚応答機構部が対向する方向に沿った座標軸についての座標値に応じて、これら2つの触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する
ことも好ましい。
Furthermore, as another embodiment of the user interface device according to the present invention,
The plurality of tactile response mechanism units are two tactile response mechanism units facing each other provided at least near both ends of the screen of the display,
The response ratio determining means is a coordinate value at one position in one region, and the two tactile response mechanisms according to the coordinate values with respect to the coordinate axes along the direction in which the two tactile response mechanism units face each other. It is also preferable to determine the proportion of the tactile response intensity generated by each of the parts.

さらに、この本発明によるユーザインタフェース装置の他の実施形態として、
複数の触覚応答機構部は、ディスプレイの画面の四辺部近傍のそれぞれに設けられており、互いに対向する2つと互いに対向する他の2つとからなる4つの触覚応答機構部であり、
応答割合決定手段は、1つの領域内での1つの位置における座標値であって、互いに対向する2つの触覚応答機構部が対向する方向に沿った座標軸についての座標値に応じて、これら互いに対向する2つの触覚応答機構部の各々が発生させる触覚応答強度の割合を決定し、互いに対向する他の2つの触覚応答機構部が対向する方向に沿った座標軸についての座標値に応じて、これら互いに対向する他の2つの触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する
ことも好ましい。
Furthermore, as another embodiment of the user interface device according to the present invention,
The plurality of tactile response mechanisms are provided in the vicinity of the four sides of the display screen, and are four tactile response mechanisms composed of two facing each other and the other two facing each other.
The response ratio determining means is a coordinate value at one position in one region, and the two tactile response mechanism units facing each other face each other according to the coordinate values about the coordinate axes along the direction in which the two tactile response mechanism units face each other. The ratio of the tactile response intensity generated by each of the two tactile response mechanisms is determined, and the two other tactile response mechanisms are opposite to each other according to the coordinate values of the coordinate axes along the direction in which the two other tactile responses are opposite to each other. It is also preferable to determine the ratio of the haptic response intensity generated by each of the other two opposing haptic response mechanisms.

本発明によれば、さらに、操作対象である画像を表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置に搭載されたプログラムであって、このユーザインタフェース装置が、
ディスプレイの画面上に接触した指に対して触覚応答を付与する複数の触覚応答機構部を更に備えており、このプログラムが、
ディスプレイの画面内に、1つ以上の領域を設定する領域設定手段と、
画像に対する指による操作によって、設定された1つの領域内での1つの位置に関連付けられた事象が発動した際、画面内に設定された座標系での、この1つの位置の座標値に応じて、複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する応答割合決定手段と、
操作を行った指に対して触覚応答を付与すべく、複数の触覚応答機構部の各々に対して、決定された上記割合の強度を有する触覚応答を発生させるように指示する触覚応答制御手段と
してコンピュータを機能させるユーザインタフェース装置用のプログラムが提供される。
According to the present invention, a user interface device further includes a display that displays an image to be operated, and a touch panel that is arranged on a screen of the display and sequentially outputs a contact position of a finger as time passes. An installed program, the user interface device is
The program further comprises a plurality of tactile response mechanisms for giving a tactile response to a finger touching the display screen.
An area setting means for setting one or more areas in the display screen;
When an event associated with one position in one set region is triggered by an operation with a finger on the image, according to the coordinate value of this one position in the coordinate system set in the screen Response ratio determining means for determining a ratio of the tactile response intensity generated by each of the plurality of tactile response mechanisms;
As a tactile response control means for instructing each of a plurality of tactile response mechanism units to generate a tactile response having the determined strength in order to give a tactile response to the operated finger. A program for a user interface device that causes a computer to function is provided.

本発明によれば、さらにまた、操作対象である画像を表示するディスプレイと、このディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置における触覚応答の発動方法であって、このユーザインタフェース装置が、
ディスプレイの画面上に接触した指に対して触覚応答を付与する複数の触覚応答機構部を更に備えており、この触覚応答の発動方法が、
ディスプレイの画面内に、1つ以上の領域を設定する第1のステップと、
画像に対する指による操作によって、設定された1つの領域内での1つの位置に関連付けられた事象が発動した際、画面内に設定された座標系での、この1つの位置の座標値に応じて、複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する第2のステップと、
操作を行った指に対して触覚応答を付与すべく、複数の触覚応答機構部の各々に対して、決定された上記割合の強度を有する触覚応答を発生させるように指示する第3のステップと
を有する触覚応答発動方法が提供される。
According to the present invention, the user interface device further includes a display that displays an image to be operated, and a touch panel that is arranged on the screen of the display and sequentially outputs the contact position of the finger as time elapses. The tactile response is activated in the user interface device.
It further comprises a plurality of tactile response mechanisms that give tactile responses to the finger that touches the screen of the display.
A first step of setting one or more areas in the screen of the display;
When an event associated with one position in one set region is triggered by an operation with a finger on the image, according to the coordinate value of this one position in the coordinate system set in the screen A second step of determining a proportion of the haptic response intensity generated by each of the plurality of haptic response mechanisms;
A third step of instructing each of a plurality of tactile response mechanisms to generate a tactile response having the determined strength of the ratio in order to give a tactile response to the operated finger; A tactile response triggering method is provided.

本発明のユーザインタフェース装置、触覚応答発動方法及びプログラムによれば、所定の指に、その指の操作の結果発動した事象に適した触覚応答を付与することができる。   According to the user interface device, the tactile response issuing method, and the program of the present invention, it is possible to provide a predetermined finger with a tactile response suitable for an event that is activated as a result of the operation of the finger.

本発明による携帯型情報機器での触覚応答の発動を説明するための、携帯型情報機器の前面図、及び事象関連位置の座標値と触覚応答の強度比パラメータRとの関係を示すグラフである。To explain the activation of tactile response in the portable information apparatus according to the present invention, a graph showing a front view of a portable information device, and the relationship between the intensity ratio parameter R I of the coordinate values of the event-related position and the tactile response is there. 本発明による携帯型情報機器での触覚応答の発動を説明するための、携帯型情報機器の前面図である。It is a front view of a portable information device for explaining activation of a tactile response in the portable information device according to the present invention. 本発明による携帯型情報機器の他の実施形態を示す前面図、及び指による操作を示す概略図である。It is the front view which shows other embodiment of the portable information device by this invention, and the schematic which shows operation by a finger | toe. 図3の実施形態での触覚応答の発動を説明するための、携帯型情報機器の前面図である。FIG. 4 is a front view of a portable information device for explaining activation of a tactile response in the embodiment of FIG. 3. 本発明による携帯型情報機器の更なる他の実施形態を示す前面図である。FIG. 10 is a front view showing still another embodiment of the portable information device according to the present invention. 本発明による携帯型情報機器の構成を概略的に示す斜視図及び機能構成図である。FIG. 2 is a perspective view and a functional configuration diagram schematically showing a configuration of a portable information device according to the present invention. 本発明による携帯型情報機器における触覚応答発動方法の一実施形態を示すフローチャートである。3 is a flowchart illustrating an embodiment of a tactile response issuing method in a portable information device according to the present invention.

以下、本発明の実施形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明によるユーザインタフェース装置は、複数の触覚応答機構部を備えており、指による操作によって、ディスプレイ画面内に設定された領域内での1つの位置に関連付けられた事象が発動した際、その位置の座標値に応じて、これら複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する点に特徴を有する。   The user interface device according to the present invention includes a plurality of tactile response mechanisms, and when an event associated with one position in an area set in the display screen is activated by an operation with a finger, This is characterized in that the ratio of the tactile response intensity generated by each of the plurality of tactile response mechanism units is determined in accordance with the coordinate value of.

これにより、この指は、自ら行った操作に関係した応答であると認識される触覚応答を受ける。その結果、この指に、この指の操作の結果発動した事象に適した触覚応答を付与することができる。   Thus, the finger receives a tactile response that is recognized as a response related to the operation performed by the finger. As a result, a tactile response suitable for an event activated as a result of the operation of the finger can be given to the finger.

例えば、一実施形態として、指が、自らの操作によって、
(a)自身の接触位置からより遠い領域内の位置に関連付けられた事象を発動させた場合、より遠くの位置にある触覚応答機構部がより強い触覚応答(振動)を発生させ、これにより、遠い位置の事象が発動した、との認識を得ることができ、
(b)自身の接触位置により近い領域内の位置に関連付けられた事象を発動させた場合、より近くの位置にある触覚応答機構部がより強い触覚応答(振動)を発生させ、これにより、近い位置の事象が発動した、との認識を得ることができる。
For example, as one embodiment, a finger can be operated by itself.
(A) When an event associated with a position in a region farther from its own contact position is activated, a tactile response mechanism at a farther position generates a stronger tactile response (vibration), thereby You can get the recognition that an event at a far position has been triggered,
(B) When an event associated with a position in a region closer to its own contact position is activated, a haptic response mechanism at a closer position generates a stronger haptic response (vibration), thereby being closer It can be recognized that the position event has been triggered.

尚、本発明によるユーザインタフェース装置の多くは、片手又は両手で携帯され、保持した手の指でも操作することが可能なスマートフォンやタブレット型コンピュータのような携帯型情報機器である。従って、以下、本発明の実施形態として、携帯型情報機器を説明する。   Many of the user interface devices according to the present invention are portable information devices such as smartphones and tablet computers that can be carried with one hand or both hands and can be operated with fingers of the held hand. Therefore, hereinafter, a portable information device will be described as an embodiment of the present invention.

図1は、本発明による携帯型情報機器での触覚応答の発動を説明するための、携帯型情報機器の前面図、及び事象関連位置の座標値と触覚応答の強度比パラメータRとの関係を示すグラフである。 1, for explaining the activation of tactile response in the portable information apparatus according to the present invention, a front view of a portable information device, and the relationship between the intensity ratio parameter R I of the coordinate values of the event-related position and the tactile response It is a graph which shows.

図1(A)によれば、携帯型情報機器1は、操作対象である画像を表示するディスプレイ101と、ディスプレイ101の画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネル100と、2つの触覚応答機構部102a及び102bを備えている。ここで、タッチパネル100は、複数の指の接触位置を同時に検出可能なマルチタッチパネルとなっている。   According to FIG. 1A, the portable information device 1 is arranged on a display 101 for displaying an image to be operated, and the screen of the display 101, and sequentially outputs a finger contact position as time passes. A touch panel 100 and two tactile response mechanisms 102a and 102b are provided. Here, the touch panel 100 is a multi-touch panel that can simultaneously detect the contact positions of a plurality of fingers.

また、触覚応答機構部102a及び102bは、ディスプレイ101の画面上に接触したユーザの指に対して触覚応答(振動)を与える素子であり、それぞれタッチパネル100の上側端部及び下側端部の直下に、タッチパネル100に接する形で設置されている。   The tactile response mechanisms 102a and 102b are elements that give a tactile response (vibration) to a user's finger that touches the screen of the display 101, and are directly below the upper end and the lower end of the touch panel 100, respectively. The touch panel 100 is in contact with the touch panel 100.

同じく図1(A)によれば、携帯型情報機器1では、エアホッケーゲーム・アプリケーションが起動しており、ディスプレイ101の画面に、競技場イメージとしての競技テーブル104が表示されている。また、この画面に、競技具イメージとしてのマレット105a及び105bと、マレット105a及び105bで打つ対象イメージであるパック106とが表示されている。   Similarly, according to FIG. 1A, in the portable information device 1, an air hockey game application is activated, and a competition table 104 as a stadium image is displayed on the screen of the display 101. Further, on this screen, the mallet 105a and 105b as the competition equipment images and the pack 106 that is the target image to be hit with the mallet 105a and 105b are displayed.

また、ディスプレイ101の画面内にxy座標系が設定されている。ここで、y座標軸は携帯型情報機器1の上下方向に伸長する軸であり、x座標軸は機器1の左右方向に伸長する軸である。このxy座標系を設定したことによって、指による操作によって発生した事象が関連付けられた位置における二次元座標値(x,y)が、取得可能となっている。   An xy coordinate system is set in the screen of the display 101. Here, the y coordinate axis is an axis extending in the vertical direction of the portable information device 1, and the x coordinate axis is an axis extending in the horizontal direction of the device 1. By setting this xy coordinate system, a two-dimensional coordinate value (x, y) at a position associated with an event generated by an operation with a finger can be acquired.

最初に、携帯型情報機器1の上側に位置するユーザAの指が、マレット105aの表示位置範囲内に接触する。これにより、ユーザAは、マレット105aを保持し、指を画面(タッチパネル100)に接触させながら移動させることにより、その指の動きに合わせてマレット105aを移動させることができる。尚、対戦相手であるユーザBの指も画面(タッチパネル100)に接触しマレット105bを保持している。次いで、ユーザAは、マレット105aを移動させてパック106を打ち(ヒットし)、パック106を滑走させ、画面に表示された左側の壁イメージに当ててバウンドさせる(跳ね返らせる)。   First, the finger of the user A positioned on the upper side of the portable information device 1 comes into contact with the display position range of the mallet 105a. Thereby, the user A can move the mallet 105a according to the movement of the finger by holding the mallet 105a and moving the finger while touching the screen (touch panel 100). Note that the finger of user B who is an opponent also touches the screen (touch panel 100) and holds the mallet 105b. Next, the user A moves the mallet 105a to hit (hits) the pack 106, slides the pack 106, and bounces (bounces back) against the left wall image displayed on the screen.

ここで、壁イメージには、壁領域107a(左側)及び107b(右側)が予め設定されている。パック106の表示位置範囲と壁領域107aとが、互いに接近して接触又は重畳した際、パック106が壁イメージに当たってバウンドする「バウンド事象」が発動する。この際、パック106の表示位置範囲と壁領域107aとの最初の接点位置、又は互いに重畳した部分の中心位置を、発動したバウンド事象が関連付けられた「バウンド位置」とする。このバウンド位置は、当然に壁領域107a内での1つの位置となる。   Here, wall areas 107a (left side) and 107b (right side) are preset in the wall image. When the display position range of the pack 106 and the wall area 107a come close to each other and come into contact with each other or overlap, a “bound event” in which the pack 106 bounces against the wall image is activated. At this time, the first contact position between the display position range of the pack 106 and the wall region 107a or the center position of the overlapping portion is set as a “bound position” associated with the activated bound event. This bound position is naturally one position in the wall region 107a.

このようにバウンド事象が発動した際、触覚応答機構部102a及び102bがそれぞれ、振動強度(エネルギー強度)Iv1及びIv2をもって、触覚応答(振動v及びv)をユーザA及びBの各指に付与する。ここで、触覚応答機構部102aの振動強度Iv1と、触覚応答機構部102bの振動強度Iv2との強度比(強度割合)
(1) Iv1:Iv2=R:(1−R
を決定する強度比パラメータRが、バウンド位置のy座標値(図1では0.39)に応じて決定される。
Thus, when the bound event is activated, the tactile response mechanisms 102a and 102b have the vibration intensities (energy intensities) I v1 and I v2 and the tactile responses (vibrations v 1 and v 2 ) respectively for the users A and B. Give to finger. Here, the intensity ratio (intensity ratio) between the vibration intensity I v1 of the haptic response mechanism 102a and the vibration intensity I v2 of the haptic response mechanism 102b.
(1) I v1 : I v2 = R I : (1-R I )
Determining an intensity ratio parameter R I is determined according to the y-coordinate value of a bound position (in FIG. 1 0.39).

ここで、y座標軸は、触覚応答機構部102a及び102bの互いに対向する方向に沿った座標軸である。このような座標軸の座標値(y座標値)により強度比パラメータRを決定することによって、以下に説明するように、リアルな操作感・感覚を与える触覚応答が実現する。 Here, the y coordinate axis is a coordinate axis along a direction in which the tactile response mechanisms 102a and 102b face each other. By determining the intensity ratio parameter R I by the coordinate value of such coordinate axes (y coordinate value), as described below, to achieve the tactile response of giving a realistic feeling of operation and sensory.

図1(B)は、強度比パラメータRを決定する一実施例としての、バウンド位置のy座標値と強度比パラメータRとの関係を示すグラフである。同グラフによれば、強度比パラメータRは、
(2) R=1 (0≦y<0.1)
=(0.95−y)/0.9 (0.1≦y<0.95)
=0 (0.95≦y≦1)
である。このグラフを用いると、バウンド位置のy座標値は0.39であるから、このバウンド事象における強度比パラメータRは0.62に決定される。
FIG. 1 (B), as an example of determining the intensity ratio parameter R I, is a graph showing the relationship between the y-coordinate value of a bound position and intensity ratio parameter R I. According to the graph, the intensity ratio parameter RI is
(2) R I = 1 (0 ≦ y <0.1)
R I = (0.95−y) /0.9 (0.1 ≦ y <0.95)
R I = 0 (0.95 ≦ y ≦ 1)
It is. Using this graph, since the y-coordinate value of a bound position is 0.39, the intensity ratio parameter R I in the bound event is determined to be 0.62.

この決定された強度比パラメータR値(=0.62)から、触覚応答機構部102a及び102bの振動強度Iv1及びIv2はそれぞれ、
(3) Iv1=I・R=0.62・I
v2=I・(1−R)=0.38・I
と算出される。ここで、Iは、全振動強度である。
From the determined intensity ratio parameter R I value (= 0.62), the vibration intensities I v1 and I v2 of the tactile response mechanisms 102a and 102b are respectively
(3) I v1 = I 0 · R I = 0.62 · I 0
I v2 = I 0 · (1-R I ) = 0.38 · I 0
Is calculated. Here, I 0 is the total vibration intensity.

このように算出された振動強度Iv1及びIv2は、バウンド位置のy座標値(=0.39)に応じた値となっている。これにより、ユーザAの指は、ユーザBの指に比べてより強い触覚応答(振動)を付与される。その結果、ユーザAは、自らの指の操作によるバウンド事象が、より近い、自らの側で発動したとのリアルな操作感を得ることができる。 The vibration intensities I v1 and I v2 calculated in this way are values corresponding to the y coordinate value (= 0.39) of the bound position. As a result, the user A's finger is given a stronger tactile response (vibration) than the user B's finger. As a result, the user A can obtain a realistic operational feeling that the bound event caused by the operation of his / her finger is closer and is activated on his / her side.

一方、ユーザBの指は、ユーザAの指に比べてより弱い触覚応答(振動)を付与される。その結果、ユーザBは、対戦相手の指の操作によるバウンド事象が、より遠い、対戦相手側で発動したとのリアルな感覚を得ることができる。このように、2つの触覚応答機構部102a及び102bを適宜強度比を制御して作動させることによって、ユーザA及びBのそれぞれの指に、自らの又は相手の指による操作の結果発動した事象に適した触覚応答を付与することが可能となる。また、その結果、両ユーザともに非常にリアルな操作感・感覚を得ることができる。   On the other hand, user B's finger is given a weaker tactile response (vibration) than user A's finger. As a result, the user B can obtain a realistic feeling that the bound event caused by the operation of the opponent's finger is farther and is activated on the opponent side. In this way, by operating the two tactile response mechanism units 102a and 102b by appropriately controlling the intensity ratio, it is possible to cause the event triggered by the operation of the user's finger or the opponent's finger on each finger of the users A and B. An appropriate tactile response can be provided. As a result, both users can obtain a very realistic operational feeling and feeling.

図2も、本発明による携帯型情報機器1での触覚応答の発動を説明するための、携帯型情報機器1の前面図である。図2でのゲームの進行状況は、図1からの続きとなっている。   FIG. 2 is also a front view of the portable information device 1 for explaining the activation of the tactile response in the portable information device 1 according to the present invention. The progress of the game in FIG. 2 is continued from FIG.

図2によれば、エアホッケーゲーム・アプリケーションが起動している携帯型情報機器1で、ユーザAがゴール領域107bをめがけて打ったパック106を、ユーザBが、マレット105bを用いて打ち返している。このパック106は、ユーザAのマレット105aの横をすり抜けてゴール領域107aに飛び込む。   According to FIG. 2, in the portable information device 1 in which the air hockey game application is activated, the user B strikes back the puck 106 hit by the user A toward the goal area 107 b using the mallet 105 b. . This pack 106 passes through the side of user A's mallet 105a and jumps into the goal area 107a.

ゴール領域107a(107b)はそれぞれ、ディスプレイ101画面の上端部中央及び下端部中央に予め設定された領域である。パック106がゴール領域107a(107b)に入った際、すなわちパック106の表示位置範囲がゴール領域107a(107b)と重畳した際、ユーザB(A)が得点するという「ゴール事象」が発動する。この際、パック106の表示位置範囲とゴール領域107a(107b)との最初の接点位置、又は互いに重畳した部分の中心位置を、発動したゴール事象が関連付けられた「ゴール位置」とする。このゴール位置は、当然にゴール領域107a内での1つの位置となる。   The goal areas 107a (107b) are areas set in advance at the center of the upper end and the center of the lower end of the display 101 screen, respectively. When the pack 106 enters the goal area 107a (107b), that is, when the display position range of the pack 106 overlaps the goal area 107a (107b), a “goal event” that the user B (A) scores is activated. At this time, the first contact position between the display position range of the pack 106 and the goal area 107a (107b) or the center position of the overlapping part is set as the “goal position” associated with the activated goal event. This goal position is naturally one position in the goal area 107a.

図2に示したように、パック106がゴール領域107aに飛び込むゴール事象が発動した際、触覚応答機構部102a及び102bの振動強度Iv1及びIv2間の強度比(Iv1:Iv2=R:(1−R))を決定する強度比パラメータRが、ゴール位置のy座標値(図2では0.05)に応じて決定される。 As shown in FIG. 2, when a goal event in which the puck 106 jumps into the goal area 107a is activated, the intensity ratio between the vibration intensities I v1 and I v2 of the tactile response mechanisms 102a and 102b (I v1 : I v2 = R I: (1-R I)) intensity ratio parameter R I to determine the is determined in accordance with the y coordinate value of the goal position (FIG. 2 0.05).

このゴール事象の発動においても、強度比パラメータRを、図1(B)のグラフを用いて決定することができる。同グラフによれば、ゴール位置のy座標値は0.05であるから、このゴール事象における強度比パラメータRは1に決定される。 Also in activation of this goal event, the intensity ratio parameter R I, can be determined using the graph of FIG. 1 (B). According to the graph, because y-coordinate value of the goal position is 0.05, the intensity ratio parameter R I in this goal event is determined to be 1.

この決定された強度比パラメータR値(=1)から、触覚応答機構部102a及び102bの振動強度Iv1及びIv2はそれぞれ、
(4) Iv1=I′・R=I
v2=I′・(1−R)=0
と算出される。ここで、I′は全振動強度であるが、上式(3)のIと異なる値、例えばIよりも大きな値、とすることができる。この場合、例えば、ゴール事象の触覚応答を、バウンド事象の触覚応答よりも全体としてより強く付与することができるので、ユーザにとって、事象の種類の違いを触覚から識別可能となる。
From the determined intensity ratio parameter R I value (= 1), the vibration intensities I v1 and I v2 of the tactile response mechanisms 102a and 102b are respectively
(4) I v1 = I 0 ′ · R I = I 0
I v2 = I 0 ′ · (1−R I ) = 0
Is calculated. Here, I 0 ′ is the total vibration intensity, but can be a value different from I 0 in the above formula (3), for example, a value larger than I 0 . In this case, for example, the tactile response of the goal event can be more strongly applied as a whole than the tactile response of the bound event, so that the user can identify the difference in the type of event from the tactile sense.

このように算出された振動強度Iv1及びIv2は、ゴール位置のy座標値(=0.05)に応じた値となっている。これにより、ユーザAがゴールされた場合、ユーザA側(上側)の触覚応答機構部102aのみが起動する。従って、ユーザAの指は、ユーザBの指に比べてより強い触覚応答(振動)を付与される。その結果、ユーザAは、自らのゴール領域107aにパック106が飛び込んだ(失点した)とのリアルな感覚を得ることができる。 The vibration intensities I v1 and I v2 calculated in this way are values corresponding to the y coordinate value (= 0.05) of the goal position. Thereby, when the user A is scored, only the haptic response mechanism unit 102a on the user A side (upper side) is activated. Therefore, the user A's finger is given a stronger tactile response (vibration) than the user B's finger. As a result, the user A can obtain a realistic feeling that the pack 106 has jumped (lost points) into his goal area 107a.

一方、このゴール事象が発動しても触覚応答機構部102bは起動せず、ユーザBの指は、ユーザAの指に比べてより弱い触覚応答(振動)を付与される。その結果、ユーザBは、自らの操作によって対戦相手のゴール領域107aにパック106が飛び込んだ(得点した)とのリアルな操作感を得ることができる。このように、2つの触覚応答機構部102a及び102bを適宜強度比を制御して作動させることによって、ユーザA及びBのそれぞれの指に、自らの又は相手の指による操作の結果発動した事象に適した触覚応答を付与することが可能となる。また、その結果、両ユーザともに非常にリアルな操作感・感覚を得ることができる。   On the other hand, even if this goal event occurs, the tactile response mechanism unit 102b is not activated, and the finger of the user B is given a weaker tactile response (vibration) than the finger of the user A. As a result, the user B can obtain a realistic operational feeling that the pack 106 has jumped (scored) into the opponent's goal area 107a by his / her own operation. In this way, by operating the two tactile response mechanism units 102a and 102b by appropriately controlling the intensity ratio, it is possible to cause the event triggered by the operation of the user's finger or the opponent's finger on each finger of the users A and B. An appropriate tactile response can be provided. As a result, both users can obtain a very realistic operational feeling and feeling.

尚、事象が関連付けられた位置と強度比パラメータRとの関係は、図1(B)に示した関係に限定されるものではなく、設定される領域に応じて種々の関係が採用可能である。しかしながら、(1)式(Iv1:Iv2=R:(1−R))の下、図1(A)及び図2のy座標値を採用するとして、強度比パラメータRは、y座標値の単調減少関数であることが好ましい。これにより、事象が発動した側ほど、より強い触覚応答(振動)が発生するようにすることが可能となる。 The relationship between the position and the intensity ratio parameter R I which event is associated is not limited to the relationship shown in FIG. 1 (B), various relationships can be employed in accordance with the area to be set is there. However, assuming that the y-coordinate values of FIG. 1 (A) and FIG. 2 are employed under the formula (1) (I v1 : I v2 = R I : (1−R I )), the intensity ratio parameter R I is A monotonically decreasing function of the y coordinate value is preferable. This makes it possible to generate a stronger tactile response (vibration) on the side where the event is triggered.

尚、ゴール事象の発動に応じて付与される振動は、バウンド事象の振動とは異なる振動、例えば、より振動数が低くより強い、又はより時間の長い振動とすることも可能である。これにより、ユーザは、ゴールの発動についてより確かな区別のつきやすい触覚応答を受け取ることが可能となる。   It should be noted that the vibration applied in response to the occurrence of the goal event may be a vibration different from the vibration of the bound event, for example, a vibration having a lower frequency and stronger or a longer time. As a result, the user can receive a tactile response that can be more surely discriminated about the activation of the goal.

図3は、本発明による携帯型情報機器の他の実施形態を示す前面図、及び指による操作を示す概略図である。また、図4は、図3の実施形態での触覚応答の発動を説明するための、携帯型情報機器の前面図である。   FIG. 3 is a front view showing another embodiment of the portable information device according to the present invention, and a schematic view showing an operation with a finger. FIG. 4 is a front view of the portable information device for explaining the activation of the tactile response in the embodiment of FIG.

図3(A)は、カメラ機能が発動した携帯型情報機器2の前面図である。この前面図によれば、ディスプレイ201の画面に、画像表示領域204と、ズームアイコン205a及び205bと、撮影アイコン206とを含む画像が表示されている。また、この画面上に、指の接触位置を時間経過に応じて逐次出力するタッチパネル200が配置されている。   FIG. 3A is a front view of the portable information device 2 in which the camera function is activated. According to the front view, an image including an image display area 204, zoom icons 205 a and 205 b, and a shooting icon 206 is displayed on the screen of the display 201. Further, on this screen, a touch panel 200 that sequentially outputs a finger contact position as time passes is arranged.

さらに、2つの触覚応答機構部202a及び202bがそれぞれ、タッチパネル200の左側端部及び右側端部の直下に、タッチパネル200に接する形で設置されている。また、図示していないが、後述する押圧力検出部203(図6)が、タッチパネル200の四隅下に配置されており、指がタッチパネル200を押し込んだ際の押圧力pを検出する。 Further, two tactile response mechanisms 202a and 202b are installed in contact with the touch panel 200 immediately below the left end and the right end of the touch panel 200, respectively. Although not shown, the pressing force detection unit 203 which will be described later (FIG. 6) is arranged under the four corners of the touch panel 200, the finger detects the pressing force p c when pushed in the touch panel 200.

画像表示領域204は、被写体の画像を表示させる領域である。例えば、従来のデジタルカメラが有する物理的な液晶画面を模してデザインされていてもよい。撮影アイコン205は、撮影動作を発動させるための表示である。例えば、従来のデジタルカメラが有する物理的なシャッタボタンを模してデザインされていてもよい。ユーザの指が、撮影アイコン205を所定の閾値pth以上の押圧力pで押し込む押し込み操作を行った際、被写体の画像を取り込む撮影動作が発動する。 The image display area 204 is an area for displaying an image of a subject. For example, it may be designed to imitate a physical liquid crystal screen that a conventional digital camera has. The shooting icon 205 is a display for invoking a shooting operation. For example, it may be designed to imitate a physical shutter button that a conventional digital camera has. User's finger, when performing the pressing operation of pushing the shot icon 205 at a predetermined threshold p th or more pressure p c, the photographing operation is triggered to capture images of a subject.

ズームアイコン205a及び205bは、ズーム動作を発動させるための仮想ボタンであり、それぞれディスプレイ201画面の左側下方及び右側下方に表示されている。ここで、ズームアイコン205aの表示位置範囲は、画像表示領域204の画像が広角(ワイド)表示されるズームアウト事象と関連したズーム領域となっており、ズームアイコン205bの表示位置範囲は、画像が望遠(テレ)表示されるズームイン事象と関連したズーム領域となっている。   The zoom icons 205a and 205b are virtual buttons for activating a zoom operation, and are displayed on the lower left side and lower right side of the display 201 screen, respectively. Here, the display position range of the zoom icon 205a is a zoom area associated with a zoom-out event in which the image of the image display area 204 is displayed at a wide angle (wide), and the display position range of the zoom icon 205b is This is a zoom area related to a zoom-in event displayed on a telephoto (telephoto) screen.

また、機器2の左側(右側)に位置するズームアイコン205a(205b)の表示位置範囲は、予め「ズーム領域」として設定されている。ここで、図4(A)に示すように、ユーザの左手の指(親指)がズームアイコン205aに接触すると、すなわち指の接触位置がズームアイコン205aのズーム領域(表示位置範囲)内に含まれると、ズームアイコン205aが選択されるというズーム選択事象が発動する。具体的に、このズーム選択事象として、ズームアウトの準備がなされたことを示すズームアイコン205aの強調表示(浮き出る若しくは沈み込む表示、又は光度を増す表示等)が行われる。   The display position range of the zoom icon 205a (205b) located on the left side (right side) of the device 2 is set in advance as a “zoom area”. Here, as shown in FIG. 4A, when the finger (thumb) of the left hand of the user contacts the zoom icon 205a, that is, the contact position of the finger is included in the zoom area (display position range) of the zoom icon 205a. Then, the zoom selection event that the zoom icon 205a is selected is activated. Specifically, as the zoom selection event, highlighting of the zoom icon 205a indicating that preparations for zooming out have been made (a display that rises or sinks, a display that increases the luminous intensity, or the like) is performed.

このズーム選択事象が発動した際、ズーム領域内となる指の接触位置を、発動したズーム選択事象が関連付けられた「選択位置」とする。この選択位置は、当然にズーム領域内での1つの位置となる。   When this zoom selection event is activated, the contact position of the finger in the zoom area is set as a “selection position” associated with the activated zoom selection event. This selection position is naturally one position in the zoom area.

ここで、図4(A)に示すように、ズーム選択事象が発動した際、触覚応答機構部202a及び202bの振動強度Iv3及びIv4間の強度比(Iv3:Iv4=R:(1−R))を決定する強度比パラメータRが、選択位置のy座標値(図4(A)では0.1)に応じて決定される。 Here, as shown in FIG. 4A, when a zoom selection event occurs, the intensity ratio (I v3 : I v4 = R I) between the vibration intensities I v3 and I v4 of the tactile response mechanisms 202a and 202b: The intensity ratio parameter R I that determines (1-R I )) is determined according to the y coordinate value (0.1 in FIG. 4A) of the selected position.

図4(A)に示したグラフによれば、強度比パラメータRは、
(5) R=1 (0≦y<0.5)
=0 (0.5≦y≦1)
である。このグラフを用いると、選択位置のy座標値は0.1であるから、このバウンド事象における強度比パラメータRは1に決定される。
According to the graph shown in FIG. 4 (A), the intensity ratio parameter RI is
(5) R I = 1 (0 ≦ y <0.5)
R I = 0 (0.5 ≦ y ≦ 1)
It is. Using this graph, since the y-coordinate value of the selected position is 0.1, the intensity ratio parameter R I in the bound event is determined to be 1.

この決定された強度比パラメータR値(=1)から、触覚応答機構部202a及び202bの振動強度Iv3及びIv4はそれぞれ、
(6) Iv3=I・R=I
v4=I・(1−R)=0
と算出される。ここで、Iは、全振動強度である。
From the determined intensity ratio parameter R I value (= 1), the vibration intensities I v3 and I v4 of the tactile response mechanisms 202a and 202b are respectively
(6) I v3 = I 0 · R I = I 0
I v4 = I 0 · (1-R I ) = 0
Is calculated. Here, I 0 is the total vibration intensity.

このように算出された振動強度Iv3及びIv4は、選択位置のy座標値(=0.1)に応じた値となっている。これにより、左手の指がズームアイコン205aに接触した場合、左側の触覚応答機構部202aのみが起動する。従って、左手の指は、右手の指に比べてより強い触覚応答(振動)を付与される。その結果、ユーザは、左側のズームアイコン、即ちズームアウトの為のアイコンを選択したとのリアルな操作感を得ることができる。 The vibration intensities I v3 and I v4 calculated in this way are values corresponding to the y coordinate value (= 0.1) of the selected position. Thereby, when the finger of the left hand touches the zoom icon 205a, only the left tactile response mechanism unit 202a is activated. Accordingly, the finger of the left hand is given a stronger tactile response (vibration) than the finger of the right hand. As a result, the user can obtain a realistic operational feeling that the left zoom icon, that is, the icon for zooming out has been selected.

一方、このズーム選択事象が発動しても触覚応答機構部202bは起動せず、右手の指は、左手の指に比べてより弱い触覚応答(振動)を付与される。その結果、ユーザは、右手の指とは反対側のズームアイコン、即ちズームアウトの為のアイコンを左手で選択したとのリアルな感覚を得ることができる。尚、このようなユーザでの操作感・感覚は、右手の指がズームアイコン205bに接触し触覚応答機構部202bのみが作動した場合でも、右手の指と左手の指とを入れ替えた形で同様となる。   On the other hand, even if this zoom selection event occurs, the tactile response mechanism 202b is not activated, and the right hand finger is given a weaker tactile response (vibration) than the left hand finger. As a result, the user can obtain a realistic feeling that the left hand has selected the zoom icon on the opposite side of the finger of the right hand, that is, the icon for zooming out. In addition, even when the right hand finger touches the zoom icon 205b and only the tactile response mechanism unit 202b is activated, the user's operational feeling / sense is similar in the form that the right hand finger and the left hand finger are interchanged. It becomes.

次いで、図4(B)に示すように、ユーザの左手(右手)の指がズームアイコン205a(205b)に接触するだけでなく、同アイコン205a(205b)を押し込むことによって、画像表示領域204に表示された画像がズームアウト(ズームイン)される。   Next, as shown in FIG. 4B, not only the user's left hand (right hand) finger touches the zoom icon 205a (205b) but also the icon 205a (205b) is pressed into the image display area 204. The displayed image is zoomed out (zoomed in).

図3(B)は、ズームアイコン205a(205b)に対する指での押し込み操作を示す。同図によれば、ズームを行う際、最初に、ユーザが、指をズームアイコン205a(205b)に接触させ、同アイコン205a(205b)を選択する。すなわち、指の接触位置がズームアイコン205a(205b)の表示位置範囲と重畳する。次いで、ユーザは、画像表示領域204に表示された画像を確認しながら、所望の表示倍率の画像を得るため、指でズームアイコン205a(205b)を押し込む。   FIG. 3B shows a pressing operation with a finger on the zoom icon 205a (205b). According to the figure, when zooming, first, the user touches the zoom icon 205a (205b) with the finger and selects the icon 205a (205b). That is, the finger contact position overlaps the display position range of the zoom icon 205a (205b). Next, the user presses the zoom icon 205a (205b) with his / her finger in order to obtain an image with a desired display magnification while confirming the image displayed in the image display area 204.

この際、この指による押圧力pは、押圧力閾値をpthとして、
(7) p≧pth
の条件を満たす値となっている。ここで、押圧力閾値pthは、例えば0.5N(ニュートン)〜2.0Nの範囲内の値に設定可能である。
At this time, the pressing force p C by the finger is set as a pressing force threshold value p th ,
(7) pc ≧ p th
It is a value that satisfies the condition. Here, the pressing force threshold value p th can be set to a value within the range of, for example, 0.5 N (Newton) to 2.0 N.

ユーザの左手の指(親指)の接触位置がズームアイコン205aのズーム領域内に含まれ且つ指による押圧力pが式(1)を満たす際、画像表示領域204に表示された画像がズームアウトされる。一方、ユーザの右手の指(親指)の接触位置がズームアイコン205bのズーム領域内に含まれ且つ指による押圧力pが式(1)を満たす際、画像表示領域204に表示された画像がズームインされる。 When the pressing force p c contact position by and fingers included in the zoom area of the zoom icon 205a of the user's left fingers (thumb) satisfies the formula (1), the image displayed on the image display region 204 is zoomed out Is done. On the other hand, the pressing force p c contact position by and fingers included in the zoom area of the zoom icon 205b of the right hand of the user's finger (thumb) is the time that satisfies the equation (1), an image displayed on the image display area 204 Zoom in.

以上に述べた指による操作によって、ズームアウト事象が発動した際、ズーム領域内となる指の接触位置を、発動したズーム選択事象が関連付けられた「ズームアウト位置」とする。このズームアウト位置は、当然にズーム領域内での1つの位置となる。   When a zoom-out event is triggered by the above-described finger operation, the finger contact position in the zoom region is set as a “zoom-out position” associated with the triggered zoom selection event. This zoom-out position is naturally one position in the zoom area.

ここで、図4(B)に示すように、ズームアウト事象が発動した際、触覚応答機構部202a及び202bの振動強度Iv3及びIv4間の強度比(Iv3:Iv4=R:(1−R))を決定する強度比パラメータRが、選択位置のy座標値(図4(A)では0.1)に応じて決定される。 Here, as shown in FIG. 4B, when a zoom-out event occurs, the intensity ratio (I v3 : I v4 = R I) between the vibration intensities I v3 and I v4 of the tactile response mechanisms 202a and 202b: The intensity ratio parameter R I that determines (1-R I )) is determined according to the y coordinate value (0.1 in FIG. 4A) of the selected position.

ここで、強度比パラメータRは、図4(A)のグラフと同一の図4(B)に示したグラフによって1に決定される。 Here, the intensity ratio parameter RI is determined to be 1 by the graph shown in FIG. 4B which is the same as the graph of FIG.

この決定された強度比パラメータR値(=1)から、触覚応答機構部202a及び202bの振動強度Iv3及びIv4はそれぞれ、Iv3=I′、及びIv4=0と算出される。ここで、I′は、全振動強度であるが、上式(6)のIと異なる値、例えばIよりも大きな値、とすることができる。この場合、例えば、ズームアウト事象の触覚応答を、ズーム選択事象の触覚応答よりも全体としてより強く付与することができるので、ユーザにとって、事象の種類の違いを触覚から識別可能となる。 From the determined intensity ratio parameter R I value (= 1), the vibration intensities I v3 and I v4 of the tactile response mechanisms 202a and 202b are calculated as I v3 = I 0 ′ and I v4 = 0, respectively. . Here, I 0 ′ is the total vibration intensity, but can be a value different from I 0 in the above formula (6), for example, a value larger than I 0 . In this case, for example, the tactile response of the zoom-out event can be more strongly applied as a whole than the tactile response of the zoom selection event, so that the user can identify the difference in the type of event from the tactile sense.

このように算出された振動強度Iv3及びIv4は、ズームアウト位置のy座標値(=0.1)に応じた値となっている。これにより、左手の指がズームアイコン205aを所定閾値pth以上の押圧力で押し込んだ場合、左側の触覚応答機構部202aのみが起動する。従って、左手の指は、右手の指に比べてより強い触覚応答(振動)を付与される。その結果、ユーザは、左側のズームアイコンの機能、即ちズームアウトを発動させたとのリアルな操作感を得ることができる。 The vibration intensities I v3 and I v4 calculated in this way are values corresponding to the y coordinate value (= 0.1) of the zoom-out position. Thus, left fingers may pushed the zoom icon 205a at a predetermined threshold value p th least pressing force, only the haptic feedback arrangement 202a on the left side is started. Accordingly, the finger of the left hand is given a stronger tactile response (vibration) than the finger of the right hand. As a result, the user can obtain a realistic operational feeling that the function of the left zoom icon, that is, zoom-out has been activated.

一方、このズームアウト事象が発動しても触覚応答機構部202bは起動せず、右手の指は、左手の指に比べてより弱い触覚応答(振動)を付与される。その結果、ユーザは、右手の指とは反対側のズームアイコン、即ちズームアウトの為のアイコンの機能を左手で発動させたとのリアルな感覚を得ることができる。尚、このようなユーザでの操作感・感覚は、右手の指がズームアイコン205bを押し込んで触覚応答機構部202bのみが作動した場合でも、右手の指と左手の指とを入れ替えた形で同様となる。   On the other hand, even if this zoom-out event occurs, the tactile response mechanism 202b is not activated, and the right hand finger is given a weaker tactile response (vibration) than the left hand finger. As a result, the user can obtain a realistic feeling that the function of the zoom icon on the side opposite to the finger of the right hand, that is, the icon for zooming out, is activated with the left hand. In addition, even when the right hand finger pushes the zoom icon 205b and only the tactile response mechanism unit 202b is activated, the user's operational feeling / sense is similar in the form that the right hand finger and the left hand finger are interchanged. It becomes.

尚、ズームアウト事象の発動に応じて付与される振動は、ズーム選択事象の振動とは異なる振動、例えば、より振動数が低くより強い、又はより時間の長い振動とすることも可能である。これにより、ユーザは、ズーム動作の発動についてより確かな区別のつきやすい触覚応答を受け取ることが可能となる。   Note that the vibration applied in response to the occurrence of the zoom-out event may be a vibration different from the vibration of the zoom selection event, for example, a vibration having a lower frequency and stronger or a longer time. Accordingly, the user can receive a tactile response that can be more surely discriminated about the activation of the zoom operation.

以上言い換えると、共に接触しているユーザの右手及び左手の指のいずれかの操作によって、ズーム領域のうちの1つの領域に関連した事象が発動した際、ユーザの右手及び左手の指のうち接触位置がこの1つの領域により近い方(含まれる方)の指に対してより強い触覚応答を与えるべく触覚応答機構部202a又は202bが起動させられ制御されるのである。   In other words, when an event related to one area of the zoom area is triggered by the operation of either the right hand or the left hand of the user in contact with each other, the user touches the right hand or the left hand of the user. The tactile response mechanism 202a or 202b is activated and controlled to give a stronger tactile response to a finger whose position is closer to (included in) this one region.

このように、2つの触覚応答機構部202a及び202bを適宜個別に作動させることによって、ユーザのそれぞれの指に、それぞれの指による操作の結果発動した事象に適した触覚応答を付与することが可能となる。また、その結果、ユーザは、非常にリアルな操作感・感覚を得ることができる。   In this way, by appropriately operating the two tactile response mechanism units 202a and 202b appropriately, it is possible to give a tactile response suitable for an event activated as a result of an operation with each finger to each finger of the user. It becomes. As a result, the user can obtain a very realistic operational feeling and feeling.

尚、本発明の携帯型情報機器2では、指による押圧力pの大きさを操作条件に加えている。すなわち、ズーム事象を発動させるために、ズームアイコン205a及び205bに対する単なる指の接触ではなく、指による押し込みが必要となる。その結果、意図しない又は不本意な接触による誤動作が回避され、誤動作が抑制されたズーム動作を行うことができる。さらに、単なる接触ではない手応えのある操作が可能となる。 In the portable information device 2 of the present invention, it is added to the magnitude of the pressing force p c with the finger on the operating condition. That is, in order to activate the zoom event, it is necessary to push the zoom icons 205a and 205b with a finger instead of a simple finger contact. As a result, a malfunction caused by unintentional or unintentional contact can be avoided, and a zoom operation in which the malfunction is suppressed can be performed. Furthermore, a responsive operation that is not just contact is possible.

図5は、本発明による携帯型情報機器の更なる他の実施形態を示す前面図である。   FIG. 5 is a front view showing still another embodiment of the portable information device according to the present invention.

図5に示した携帯型情報機器3は、ディスプレイ301と、ディスプレイ301の画面上に配置されたタッチパネル300とを備えている。携帯型情報機器3は、さらに、4つの触覚応答機構部302a、302b、302c及び302dをそれぞれ、画面の四辺部近傍、即ちタッチパネル300の上下両端部及び左右両端部の直下に備えている。このうち、触覚応答機構部302a及び302bはy座標軸方向において互いに対向しており、触覚応答機構部302c及び302dはx座標軸方向において互いに対向している。   The portable information device 3 shown in FIG. 5 includes a display 301 and a touch panel 300 arranged on the screen of the display 301. The portable information device 3 further includes four tactile response mechanisms 302a, 302b, 302c, and 302d near the four sides of the screen, that is, directly below the upper and lower ends and the left and right ends of the touch panel 300, respectively. Among these, the tactile response mechanisms 302a and 302b face each other in the y coordinate axis direction, and the tactile response mechanisms 302c and 302d face each other in the x coordinate axis direction.

ここで、触覚応答機構部302a及び302bの間の強度比パラメータRI1は、ユーザによる指での操作によって発動した事象(例えば図5に示したバウンド事象)が関連付けられた位置(例えばバウンド位置)におけるy座標値に応じて決定される。また、触覚応答機構部302c及び302dの間の強度比パラメータRI2は、この事象(例えばバウンド事象)が関連付けられた位置(例えばバウンド位置)のx座標値に応じて決定される。 Here, the intensity ratio parameter R I1 between the tactile response mechanisms 302a and 302b is a position (for example, a bound position) associated with an event (for example, a bound event shown in FIG. 5) triggered by a user's finger operation. Is determined according to the y-coordinate value at. In addition, the intensity ratio parameter R I2 between the tactile response mechanisms 302c and 302d is determined according to the x coordinate value of the position (for example, the bound position) with which this event (for example, the bound event) is associated.

例えば、強度比パラメータRI1及びRI2は、事象が関連付けられた位置の座標を(x,y)とすると、
(8) RI1=1−y、RI2=1−x
として決定され、その結果、触覚応答機構部302a〜302dの振動強度Iv5、Iv6、Iv7及びIv8は、
(9) Iv5=I56・RI1
v6=I56・(1−RI1
v7=I78・RI2
v8=I78・(1−RI2
となる。ここで、I56及びI78は全振動強度である。
For example, if the intensity ratio parameters R I1 and R I2 are (x 0 , y 0 ), the coordinates of the position where the event is associated are
(8) R I1 = 1−y 0 , R I2 = 1−x 0
As a result, the vibration intensities I v5 , I v6 , I v7 and I v8 of the tactile response mechanism units 302a to 302d are
(9) I v5 = I 56 · R I1
I v6 = I 56 · (1-R I1 )
I v7 = I 78 · R I2
I v8 = I 78 · (1-R I2 )
It becomes. Here, I 56 and I 78 are total vibration strengths.

このように、発動した事象が関連付けられた位置の座標(x,y)に応じて、4つの触覚応答機構部302a、302b、302c及び302dそれぞれの触覚応答(振動)の強度を制御することによって、所定の指に、自ら行った操作に関係した応答であると認識される触覚応答を付与し、一方、その他の指には、他の指が行った操作によって発動した事象の応答であると認識される触覚応答を付与することができる。その結果、各指に、この指の操作の結果発動した事象に適した触覚応答を付与することができる。さらに、その際、ユーザは、事象が発動した位置を、二次元平面内のいずれかの箇所として、よりリアルに触覚をもって認識することが可能となる。   In this way, by controlling the strength of the tactile response (vibration) of each of the four tactile response mechanisms 302a, 302b, 302c, and 302d according to the coordinates (x, y) of the position where the triggered event is associated. A tactile response that is recognized as a response related to an operation performed by the user is given to a predetermined finger, while a response to an event triggered by an operation performed by another finger is given to the other finger. A recognized haptic response can be provided. As a result, a tactile response suitable for an event activated as a result of the operation of the finger can be given to each finger. Furthermore, at that time, the user can recognize the position where the event is triggered as a part of the two-dimensional plane with a sense of touch more realistically.

図6は、本発明による携帯型情報機器2の構成を概略的に示す斜視図及び機能構成図である。   FIG. 6 is a perspective view and a functional configuration diagram schematically showing the configuration of the portable information device 2 according to the present invention.

図6によれば、携帯型情報機器2は、タッチパネル200と、ディスプレイ201と、触覚応答機構部202a及び202bと、押圧力検出部203と、プロセッサ・メモリとしての機能構成部とを備えている。ここで、機能構成部(プロセッサ・メモリ)は、携帯型情報機器2に搭載されたコンピュータを機能させるプログラムを実行することによって、その機能を実現する。   According to FIG. 6, the portable information device 2 includes a touch panel 200, a display 201, tactile response mechanisms 202a and 202b, a pressing force detection unit 203, and a functional configuration unit as a processor memory. . Here, the function configuration unit (processor memory) realizes its function by executing a program for causing the computer mounted on the portable information device 2 to function.

尚、他の実施形態としての携帯型情報機器1及び3も、図6の機能構成によって実現可能である。この場合、携帯型情報機器1では押圧力検出部203と、後述する押圧力判定部222の機能とは用いられない。また、携帯型情報機器3では、触覚応答機構部を4つ備えている点が異なっている。   Note that the portable information devices 1 and 3 as other embodiments can also be realized by the functional configuration of FIG. In this case, the portable information device 1 does not use the functions of the pressing force detection unit 203 and the pressing force determination unit 222 described later. The portable information device 3 is different in that it includes four tactile response mechanisms.

ディスプレイ201は、画面に操作対象である画像を表示する。また、タッチパネル200は、ディスプレイ201の画面上に配置されており、ユーザの指の接触位置情報を、時間経過に応じて逐次、後述する接触位置判定部221に出力する。このタッチパネル200として、例えば、投影型静電容量方式タッチパネル、表面型静電容量方式タッチパネル、抵抗膜方式タッチパネル、超音波表面弾性波方式タッチパネル、又は赤外線走査方式タッチパネル等を採用することができる。尚、携帯型情報機器1のタッチパネル100は、マルチタッチパネルであり、タッチパネル100として、例えば、投影型静電容量方式タッチパネル、又は抵抗膜方式タッチパネル等を採用することができる。   The display 201 displays an image to be operated on the screen. The touch panel 200 is disposed on the screen of the display 201, and sequentially outputs the contact position information of the user's finger to the contact position determination unit 221 described later as time elapses. As this touch panel 200, for example, a projected capacitive touch panel, a surface capacitive touch panel, a resistive touch panel, an ultrasonic surface acoustic wave touch panel, an infrared scanning touch panel, or the like can be employed. The touch panel 100 of the portable information device 1 is a multi-touch panel. As the touch panel 100, for example, a projected capacitive touch panel or a resistive touch panel can be employed.

触覚応答機構部202a及び202bは、ディスプレイ201の画面(タッチパネル200)に接触した指に対して、タッチパネル200を振動させることにより触覚応答を与える素子である。また、触覚応答機構部202a及び202bはそれぞれ、ディスプレイ201の画面内に設定された1つ以上の領域(ズーム領域)に割り当てられている。これら触覚応答機構部202a及び202bは、例えば、PZT(チタン酸ジルコン酸鉛)等の圧電材料を用いて形成された圧電アクチュエータとすることができる。   The tactile response mechanisms 202a and 202b are elements that give a tactile response by vibrating the touch panel 200 with respect to a finger touching the screen (touch panel 200) of the display 201. The tactile response mechanisms 202a and 202b are each assigned to one or more areas (zoom areas) set in the screen of the display 201. These tactile response mechanisms 202a and 202b may be piezoelectric actuators formed using a piezoelectric material such as PZT (lead zirconate titanate).

押圧力検出部203は、指によってタッチパネル200に与えられる押圧力pを検出する。押圧力検出部203は、例えば、タッチパネル200の四隅下に設置されており、指を押し付けられて撓んだタッチパネル200が自身に及ぼす押圧の合計を、押圧力pとして検出する。この押圧力検出部203が出力する押圧力信号は、後述する押圧力判定部222に入力される。押圧力検出部203は、例えば、PZT等の圧電材料を用いて形成された圧電センサとすることができる。また、圧電アクチュエータで構成された触覚応答機構部202a及び202bを設けると共に、この押圧力検出部303を更なる触覚応答機構部として利用することも可能である。 Pressing force detection unit 203 detects the pressing force p c applied to the touch panel 200 by the finger. Pressing force detection unit 203 is, for example, are placed under the four corners of the touch panel 200, touch panel 200 flexed pressed against the finger the total pressing on itself, is detected as the pressing force p c. The pressing force signal output by the pressing force detection unit 203 is input to a pressing force determination unit 222 described later. The pressing force detection unit 203 can be, for example, a piezoelectric sensor formed using a piezoelectric material such as PZT. Further, it is possible to provide tactile response mechanism units 202a and 202b constituted by piezoelectric actuators, and to use the pressing force detection unit 303 as a further tactile response mechanism unit.

同じく図6によれば、プロセッサ・メモリとしての機能構成部は、接触位置判定部221と、押圧力判定部222と、領域設定部223と、操作判定部224と、応答割合決定部225と、触覚応答制御部226と、表示制御部211と、アプリケーション処理部212とを有する。   Similarly, according to FIG. 6, the functional configuration unit as the processor memory includes a contact position determination unit 221, a pressing force determination unit 222, an area setting unit 223, an operation determination unit 224, a response ratio determination unit 225, A tactile response control unit 226, a display control unit 211, and an application processing unit 212 are included.

接触位置判定部221は、タッチパネル200からの接触位置信号を入力する。また、領域設定部223から設定された領域の情報を入力する。その後、接触位置判定部221は、これらの信号及び情報に基づいて、指の接触位置が、ディスプレイ201の画面内に設定された1つ以上の領域内に含まれるか否かを判定する。さらに、接触位置判定部221は、この判定結果を操作判定部224に出力する。   The contact position determination unit 221 inputs a contact position signal from the touch panel 200. Also, information on the area set from the area setting unit 223 is input. Thereafter, the contact position determination unit 221 determines whether the contact position of the finger is included in one or more areas set in the screen of the display 201 based on these signals and information. Further, the contact position determination unit 221 outputs the determination result to the operation determination unit 224.

押圧力判定部222は、押圧力検出部203からの押圧力信号を入力する。その後、押圧力判定部222は、この信号に基づいて、指による押圧力pの大きさが所定の押圧力閾値pth以上であるか否かを判定する。さらに、押圧力判定部222は、この判定結果を操作判定部224に出力する。また、領域設定部223は、アプリケーション処理部212からの指示・情報によって、ディスプレイ201の画面内に、1つ以上の領域を設定する。 The pressing force determination unit 222 inputs the pressing force signal from the pressing force detection unit 203. Thereafter, the pressing force judging unit 222, based on this signal, determines the magnitude of the pressing force p c by finger whether a predetermined pressing force threshold p th least. Further, the pressing force determination unit 222 outputs the determination result to the operation determination unit 224. Further, the area setting unit 223 sets one or more areas in the screen of the display 201 according to instructions / information from the application processing unit 212.

操作判定部224は、接触位置判定部221及び押圧力判定部222から判定結果を入力する。次いで、これらの判定結果に基づき、ズーム選択事象、ズームアウト事象、ズームイン事象等の事象を発動させる操作が行われたか否かを判定する。さらに、操作判定部224は、この判定結果をアプリケーション処理部212に出力し、事象の発動情報を、アプリケーション処理部212を介して又は直接、応答割合決定部225及び表示制御部111に出力する。   The operation determination unit 224 inputs determination results from the contact position determination unit 221 and the pressing force determination unit 222. Next, based on these determination results, it is determined whether or not an operation for triggering an event such as a zoom selection event, a zoom-out event, or a zoom-in event has been performed. Further, the operation determination unit 224 outputs the determination result to the application processing unit 212, and outputs event trigger information to the response ratio determination unit 225 and the display control unit 111 via the application processing unit 212 or directly.

応答割合決定部225は、領域設定部223から設定された領域の情報を入力し、さらに、操作判定部224又はアプリケーション処理部212から、事象の発動情報を入力する。次いで、応答割合決定部225は、設定された1つの領域(ズーム領域)内での1つの位置(指の接触位置)に関連付けられた事象(ズーム選択事象、ズームアウト事象又はズームイン事象)が発動した際に、この位置のy座標値に応じて、触覚応答機構部202a及び202bの各々が発生させる振動強度の割合(を決定する強度比パラメータR)を決定する。さらに、応答割合決定部225は、触覚応答強度の割合情報を触覚応答制御部226に出力する。 The response ratio determination unit 225 inputs information on the region set from the region setting unit 223, and further inputs event trigger information from the operation determination unit 224 or the application processing unit 212. Next, the response ratio determining unit 225 activates an event (zoom selection event, zoom-out event, or zoom-in event) associated with one position (finger contact position) within one set area (zoom area). when the, according to y coordinate values of the position, to determine the ratio (intensity ratio determines the parameters R I) of the vibration intensity, each generating a haptic feedback mechanism 202a and 202b. Further, the response rate determination unit 225 outputs the rate information of the haptic response intensity to the haptic response control unit 226.

触覚応答制御部226は、応答割合決定部225から触覚応答強度の割合情報を入力する。次いで、触覚応答機構部202a及び202bの各々に対して、決定された割合の強度を有する触覚応答を発生させるように指示する。   The tactile response control unit 226 inputs the ratio information of the tactile response intensity from the response rate determination unit 225. Next, each of the tactile response mechanisms 202a and 202b is instructed to generate a tactile response having a determined ratio of intensity.

表示制御部211は、アプリケーション処理部212からのアプリケーション処理情報を入力して、アプリケーションの実行に応じた画像をディスプレイ201に表示させる。また、表示制御部211は、操作判定部224から出力される事象の発動情報に応じて、発動する事象に応じた画像をディスプレイ201に表示させる。   The display control unit 211 inputs the application processing information from the application processing unit 212 and causes the display 201 to display an image corresponding to the execution of the application. In addition, the display control unit 211 causes the display 201 to display an image corresponding to the event to be activated, in accordance with the event activation information output from the operation determination unit 224.

図7は、本発明による携帯型情報機器2における触覚応答発動方法の一実施形態を示すフローチャートである。尚、他の実施形態としての携帯型情報機器1及び3における触覚応答発動方法も、図7のフローチャートによって実現可能である。   FIG. 7 is a flowchart showing an embodiment of the tactile response issuing method in the portable information device 2 according to the present invention. In addition, the tactile response issuing method in the portable information devices 1 and 3 as another embodiment can also be realized by the flowchart of FIG.

(S600)最初に、ディスプレイ201の画面に1つ以上の領域(ズーム領域)を予め設定する。
(S601)次いで、タッチパネル200に対する指の接触の有無を測定する。
(S600) First, one or more areas (zoom areas) are preset on the screen of the display 201.
(S601) Next, the presence or absence of a finger contact with the touch panel 200 is measured.

(S602)次いで、指がタッチパネル200に接触したか否かが判定される。
(S610)ここで、真の判定、すなわち指が接触しているとの判定がなされた場合、指による操作ループ(ステップS610〜S615)に入り、指の接触位置がモニタ(監視)される。一方、指が接触していないとの判定がなされた場合、再度、ステップS601に戻り、指の接触の有無がモニタされる。
(S602) Next, it is determined whether or not the finger touches the touch panel 200.
(S610) Here, when true determination is made, that is, determination that the finger is in contact is made, an operation loop with the finger (steps S610 to S615) is entered, and the contact position of the finger is monitored (monitored). On the other hand, when it is determined that the finger is not in contact, the process returns to step S601 again, and the presence or absence of the finger contact is monitored.

(S611)指の操作によって、設定された領域(ズーム領域)内での位置に関連付けられた事象(ズーム選択事象、ズームアウト事象又はズームイン事象)が発動したか否かを判定する。
(S612)ここで、当該事象が発動したとの判定がなされた場合、この位置(選択位置、ズームアウト位置又はズームイン位置)のy座標値を取得する。一方、当該事象は発動していないとの判定がなされた場合、ステップS615に移行し、指がタッチパネル200に接触しているか否かが判定される。
(S611) It is determined whether or not an event (a zoom selection event, a zoom-out event, or a zoom-in event) associated with a position in the set area (zoom area) is triggered by a finger operation.
(S612) If it is determined that the event has occurred, the y-coordinate value of this position (selected position, zoom-out position or zoom-in position) is acquired. On the other hand, when it is determined that the event is not activated, the process proceeds to step S615, and it is determined whether or not the finger is in contact with the touch panel 200.

(S613)取得したy座標値から、触覚応答機構部202a及び202bの各々が発生させる振動強度の割合を決定する強度比パラメータRを決定する。
(S614)触覚応答機構部202a及び202bを、強度比が決定された強度比パラメータRから算出される値となるように、起動させる。
(S613) from the obtained y coordinate values, to determine the intensity ratio parameter R I to determine the percentage of the vibration intensity of each of the haptic feedback arrangement 202a and 202b are generating.
(S614) a haptic feedback arrangement 202a and 202b, so that the value intensity ratio is calculated from the determined intensity ratio parameter R I, activates.

(S615)指がタッチパネル200に接触しているか否かが判定される。ここで、真の判定、即ち接触しているとの判定がなされた場合、指による操作ループ(ステップS610〜S615)が繰り返される。一方、指が接触していないと判定された場合、ユーザの指による操作が終了したものとして、本触覚応答発動方法は終了する。 (S615) It is determined whether or not the finger is in contact with the touch panel 200. Here, when true determination is made, that is, determination that contact is made, an operation loop with fingers (steps S610 to S615) is repeated. On the other hand, when it is determined that the finger is not touching, the tactile response issuing method is ended, assuming that the operation by the user's finger is ended.

以上、詳細に説明したように、本発明のユーザインタフェース装置、触覚応答発動方法及びプログラムによれば、指による操作によって、設定された領域のうちの1つの領域での1つの位置に関連した事象が発動した際、この指に対して触覚応答を与えるべく、この位置の座標値に応じて決定された触覚応答強度の割合をもって、複数の触覚応答機構部の各々が作動する。これにより、この指に、この指の操作の結果発動した事象に適した触覚応答を付与することが可能となる。   As described above in detail, according to the user interface device, the tactile response issuing method, and the program of the present invention, an event related to one position in one of the set areas by a finger operation. Is activated, each of the plurality of tactile response mechanisms operates with a ratio of the tactile response intensity determined according to the coordinate value of this position in order to give a tactile response to the finger. Thereby, it becomes possible to give this finger a tactile response suitable for an event activated as a result of the operation of this finger.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1、2、3 携帯型情報機器(ユーザインタフェース装置)
100、200、300 タッチパネル
101、201、301 ディスプレイ
102a、102b、202a、202b、302a、302b、302c、302d 触覚応答機構部
103、203 押圧力検出部
104 競技テーブル
105a、105b マレット
106 パック
107a、107b ゴール領域
204 画像表示領域
205a、205b ズームアイコン
206 撮影アイコン
211 表示制御部
212 アプリケーション処理部
221 接触位置判定部
222 押圧力判定部
223 領域設定部
224 操作判定部
225 応答割合決定部
226 触覚応答制御部
1, 2, 3 Portable information devices (user interface devices)
100, 200, 300 Touch panel 101, 201, 301 Display 102a, 102b, 202a, 202b, 302a, 302b, 302c, 302d Tactile response mechanism 103, 203 Pressing force detection unit 104 Competition table 105a, 105b Mallet 106 Pack 107a, 107b Goal area 204 Image display area 205a, 205b Zoom icon 206 Shooting icon 211 Display control unit 212 Application processing unit 221 Contact position determination unit 222 Pressing force determination unit 223 Area setting unit 224 Operation determination unit 225 Response ratio determination unit 226 Tactile response control unit

Claims (7)

操作対象である画像を表示するディスプレイと、該ディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置であって、
前記ディスプレイの画面上に接触した当該指に対して触覚応答を付与する複数の触覚応答機構部と、
前記ディスプレイの画面内に、1つ以上の領域を設定する領域設定手段と、
当該画像に対する当該指による操作によって、設定された1つの領域内での1つの位置に関連付けられた事象が発動した際、画面内に設定された座標系での該1つの位置の座標値に応じて、前記複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する応答割合決定手段と、
操作を行った当該指に対して触覚応答を付与すべく、前記複数の触覚応答機構部の各々に対して、決定された当該割合の強度を有する触覚応答を発生させるように指示する触覚応答制御手段と
を有することを特徴とするユーザインタフェース装置。
A user interface device comprising: a display that displays an image to be operated; and a touch panel that is arranged on a screen of the display and sequentially outputs a finger contact position as time passes,
A plurality of tactile response mechanisms for providing a tactile response to the finger touching the screen of the display;
Area setting means for setting one or more areas in the screen of the display;
When an event associated with one position in one set region is triggered by an operation with the finger on the image, according to the coordinate value of the one position in the coordinate system set in the screen Response ratio determining means for determining a ratio of the tactile response intensity generated by each of the plurality of tactile response mechanisms,
Tactile response control instructing each of the plurality of tactile response mechanisms to generate a tactile response having the determined ratio of intensity to give a tactile response to the operated finger A user interface device.
前記ディスプレイの画面上に接触した指によって与えられる押圧力を検出する押圧力検出部と、
前記押圧力の大きさが所定閾値以上であるか否かを判定する押圧力判定手段と、
当該指の接触位置が、設定された1つの領域内に含まれるか否かを判定する接触位置判定手段と
を更に有しており、
前記応答割合決定手段は、前記接触位置判定手段が真の判定を行い且つ前記押圧力判定手段が真の判定を行った際、当該1つの領域に関連付けられた事象が発動したとして、当該1つの領域内での1つの位置における座標値に応じて、前記複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する
ことを特徴とする請求項1に記載のユーザインタフェース装置。
A pressing force detection unit for detecting a pressing force applied by a finger touching the screen of the display;
A pressing force determining means for determining whether or not the magnitude of the pressing force is a predetermined threshold value or more;
Contact position determination means for determining whether the contact position of the finger is included in one set region;
The response ratio determining means determines that an event associated with the one region is triggered when the contact position determining means makes a true determination and the pressing force determining means makes a true determination. The user interface device according to claim 1, wherein a ratio of a haptic response intensity generated by each of the plurality of haptic response mechanisms is determined according to a coordinate value at one position in the region.
前記タッチパネルは、少なくとも当該指及び他の指の接触位置を同時に検知可能なマルチタッチパネルであり、
前記触覚応答制御手段は、共に接触している当該指及び当該他の指のいずれかの操作によって、設定された1つの領域内での1つの位置に関連付けられた事象が発動した際、当該指及び当該他の指の各々に対して触覚応答を付与すべく、前記複数の触覚応答機構部の各々に対して、決定された当該割合の強度を有する触覚応答を発生させるように指示することを特徴とする請求項1又は2に記載のユーザインタフェース装置。
The touch panel is a multi-touch panel capable of simultaneously detecting at least contact positions of the finger and other fingers,
The tactile response control means is configured to operate the finger when an event associated with one position in one set region is activated by the operation of either the finger or the other finger that are in contact with each other. And instructing each of the plurality of tactile response mechanisms to generate a tactile response having the determined ratio of intensity in order to give a tactile response to each of the other fingers. The user interface device according to claim 1 or 2, characterized in that:
前記複数の触覚応答機構部は、少なくとも前記ディスプレイの画面の両端部近傍のそれぞれに設けられた互いに対向する2つの触覚応答機構部であり、
前記応答割合決定手段は、当該1つの領域内での1つの位置における座標値であって、前記2つの触覚応答機構部が対向する方向に沿った座標軸についての座標値に応じて、該2つの触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する
ことを特徴とする請求項1から3のいずれか1項に記載のユーザインタフェース装置。
The plurality of tactile response mechanism units are two tactile response mechanism units facing each other provided at least near both ends of the screen of the display,
The response ratio determining means is a coordinate value at one position in the one region, and the two response values are determined according to the coordinate values with respect to the coordinate axis along the direction in which the two tactile response mechanism units face each other. The user interface device according to any one of claims 1 to 3, wherein a ratio of a tactile response intensity generated by each of the tactile response mechanism units is determined.
前記複数の触覚応答機構部は、前記ディスプレイの画面の四辺部近傍のそれぞれに設けられており、互いに対向する2つと互いに対向する他の2つとからなる4つの触覚応答機構部であり、
前記応答割合決定手段は、当該1つの領域内での1つの位置における座標値であって、前記互いに対向する2つの触覚応答機構部が対向する方向に沿った座標軸についての座標値に応じて、該互いに対向する2つの触覚応答機構部の各々が発生させる触覚応答強度の割合を決定し、前記互いに対向する他の2つの触覚応答機構部が対向する方向に沿った座標軸についての座標値に応じて、該互いに対向する他の2つの触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する
ことを特徴とする請求項1から4のいずれか1項に記載のユーザインタフェース装置。
The plurality of tactile response mechanisms are provided near each of the four sides of the screen of the display, and are four tactile response mechanisms composed of two facing each other and the other two facing each other.
The response ratio determining means is a coordinate value at one position in the one region, and according to a coordinate value about a coordinate axis along a direction in which the two tactile response mechanism units facing each other face each other, The ratio of the tactile response intensity generated by each of the two tactile response mechanism units facing each other is determined, and the ratio of the two other tactile response mechanism units facing each other is determined according to the coordinate value about the coordinate axis along the direction in which the other two tactile response mechanism units oppose each other 5. The user interface device according to claim 1, wherein a ratio of a tactile response intensity generated by each of the other two tactile response mechanisms facing each other is determined.
操作対象である画像を表示するディスプレイと、該ディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置に搭載されたプログラムであって、該ユーザインタフェース装置が、
前記ディスプレイの画面上に接触した当該指に対して触覚応答を付与する複数の触覚応答機構部を更に備えており、前記プログラムが、
前記ディスプレイの画面内に、1つ以上の領域を設定する領域設定手段と、
当該画像に対する当該指による操作によって、設定された1つの領域内での1つの位置に関連付けられた事象が発動した際、画面内に設定された座標系での該1つの位置の座標値に応じて、前記複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する応答割合決定手段と、
操作を行った当該指に対して触覚応答を付与すべく、前記複数の触覚応答機構部の各々に対して、決定された当該割合の強度を有する触覚応答を発生させるように指示する触覚応答制御手段と
してコンピュータを機能させることを特徴とするユーザインタフェース装置用のプログラム。
A program mounted on a user interface device that includes a display that displays an image to be operated, and a touch panel that is arranged on a screen of the display and sequentially outputs a contact position of a finger as time passes, The user interface device
The program further comprises a plurality of tactile response mechanisms for giving a tactile response to the finger touching the screen of the display,
Area setting means for setting one or more areas in the screen of the display;
When an event associated with one position in one set region is triggered by an operation with the finger on the image, according to the coordinate value of the one position in the coordinate system set in the screen Response ratio determining means for determining a ratio of the tactile response intensity generated by each of the plurality of tactile response mechanisms,
Tactile response control instructing each of the plurality of tactile response mechanisms to generate a tactile response having the determined ratio of intensity to give a tactile response to the operated finger A program for a user interface device, which causes a computer to function as means.
操作対象である画像を表示するディスプレイと、該ディスプレイの画面上に配置され、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置における触覚応答の発動方法であって、該ユーザインタフェース装置が、
前記ディスプレイの画面上に接触した当該指に対して触覚応答を付与する複数の触覚応答機構部を更に備えており、前記触覚応答の発動方法が、
前記ディスプレイの画面内に、1つ以上の領域を設定する第1のステップと、
当該画像に対する当該指による操作によって、設定された1つの領域内での1つの位置に関連付けられた事象が発動した際、画面内に設定された座標系での該1つの位置の座標値に応じて、前記複数の触覚応答機構部の各々が発生させる触覚応答強度の割合を決定する第2のステップと、
操作を行った当該指に対して触覚応答を付与すべく、前記複数の触覚応答機構部の各々に対して、決定された当該割合の強度を有する触覚応答を発生させるように指示する第3のステップと
を有することを特徴とする触覚応答発動方法。
A method for invoking a tactile response in a user interface device comprising: a display that displays an operation target image; and a touch panel that is arranged on a screen of the display and sequentially outputs a finger contact position as time elapses. The user interface device
It further comprises a plurality of tactile response mechanisms that give a tactile response to the finger touching the screen of the display,
A first step of setting one or more areas in the screen of the display;
When an event associated with one position in one set region is triggered by an operation with the finger on the image, according to the coordinate value of the one position in the coordinate system set in the screen A second step of determining a proportion of the haptic response intensity generated by each of the plurality of haptic response mechanisms,
In order to give a tactile response to the operated finger, each of the plurality of tactile response mechanisms is instructed to generate a tactile response having the determined strength of the ratio. And a tactile response invocation method.
JP2012014369A 2012-01-26 2012-01-26 User interface device capable of individually controlling tactile response mechanism, tactile response issuing method, and program Active JP5875879B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012014369A JP5875879B2 (en) 2012-01-26 2012-01-26 User interface device capable of individually controlling tactile response mechanism, tactile response issuing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014369A JP5875879B2 (en) 2012-01-26 2012-01-26 User interface device capable of individually controlling tactile response mechanism, tactile response issuing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016008650A Division JP2016106305A (en) 2016-01-20 2016-01-20 User interface apparatus capable of applying tactile response corresponding to contact/pressing operation, tactile response generation method and program

Publications (3)

Publication Number Publication Date
JP2013156684A true JP2013156684A (en) 2013-08-15
JP2013156684A5 JP2013156684A5 (en) 2014-11-27
JP5875879B2 JP5875879B2 (en) 2016-03-02

Family

ID=49051835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014369A Active JP5875879B2 (en) 2012-01-26 2012-01-26 User interface device capable of individually controlling tactile response mechanism, tactile response issuing method, and program

Country Status (1)

Country Link
JP (1) JP5875879B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015059887A1 (en) * 2013-10-25 2015-04-30 パナソニックIpマネジメント株式会社 Electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149312A (en) * 2000-08-08 2002-05-24 Ntt Docomo Inc Portable electronic equipment, electronic equipment, oscillation generator, reporting method by oscillation, and report control method
JP2006079238A (en) * 2004-09-08 2006-03-23 Alpine Electronics Inc Touch panel device
JP2010211509A (en) * 2009-03-10 2010-09-24 Ricoh Co Ltd Input device and image forming device
JP2011090575A (en) * 2009-10-23 2011-05-06 Ricoh Co Ltd Apparatus, method and program for displaying information
US20110116665A1 (en) * 2009-11-17 2011-05-19 King Bennett M System and method of providing three-dimensional sound at a portable computing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149312A (en) * 2000-08-08 2002-05-24 Ntt Docomo Inc Portable electronic equipment, electronic equipment, oscillation generator, reporting method by oscillation, and report control method
JP2006079238A (en) * 2004-09-08 2006-03-23 Alpine Electronics Inc Touch panel device
JP2010211509A (en) * 2009-03-10 2010-09-24 Ricoh Co Ltd Input device and image forming device
JP2011090575A (en) * 2009-10-23 2011-05-06 Ricoh Co Ltd Apparatus, method and program for displaying information
US20110116665A1 (en) * 2009-11-17 2011-05-19 King Bennett M System and method of providing three-dimensional sound at a portable computing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015059887A1 (en) * 2013-10-25 2015-04-30 パナソニックIpマネジメント株式会社 Electronic device
JP6037252B2 (en) * 2013-10-25 2016-12-07 パナソニックIpマネジメント株式会社 Electronics
JPWO2015059887A1 (en) * 2013-10-25 2017-03-09 パナソニックIpマネジメント株式会社 Electronics
US9983671B2 (en) 2013-10-25 2018-05-29 Panasonic Intellectual Property Management Co., Ltd. Electronic device

Also Published As

Publication number Publication date
JP5875879B2 (en) 2016-03-02

Similar Documents

Publication Publication Date Title
JP6546301B2 (en) Multi-touch device with dynamic haptic effect
US9389722B2 (en) User interface device that zooms image in response to operation that presses screen, image zoom method, and program
US9244544B2 (en) User interface device with touch pad enabling original image to be displayed in reduction within touch-input screen, and input-action processing method and program
JP6121102B2 (en) Tactile effects by proximity sensing
TWI382739B (en) Method for providing a scrolling movement of information,computer program product,electronic device and scrolling multi-function key module
EP2733591A1 (en) User interface device capable of execution of input by finger contact in plurality of modes, input operation assessment method, and program
JP2011048686A (en) Input apparatus
JP2013070303A (en) Photographing device for enabling photographing by pressing force to screen, photographing method and program
JP2011048832A (en) Input device
WO2003104967A1 (en) Information processing method for specifying an arbitrary point in 3-dimensional space
JP5220898B2 (en) User interface device capable of scroll control by pressing, image scrolling method, and program
JP5652711B2 (en) Touch panel device
JP2011048848A (en) Input device and method for controlling the same
JP2018128741A (en) Control device, input system, and control method
JP5804956B2 (en) User interface device emulating parameter setting unit, parameter setting method and program
JP5813543B2 (en) User interface device capable of scroll control by maximum pressing force value, image scroll method, and program
JP2016106305A (en) User interface apparatus capable of applying tactile response corresponding to contact/pressing operation, tactile response generation method and program
JP5767148B2 (en) User interface device capable of imparting tactile vibration according to depth and height of tactile object image, tactile vibration imparting method, and program
JP5876733B2 (en) User interface device capable of imparting tactile vibration according to object height, tactile vibration imparting method and program
JP5875879B2 (en) User interface device capable of individually controlling tactile response mechanism, tactile response issuing method, and program
JP2013196465A (en) User interface device for applying tactile response in object selection, tactile response application method and program
JP6137714B2 (en) User interface device capable of giving different tactile response according to degree of pressing, tactile response giving method, and program
JP6114792B2 (en) User interface device capable of scroll control according to contact degree, image scrolling method, and program
JP2016015181A (en) User interface device, program, and function starting method capable of starting different function according to degree of pressing force
JP6025942B2 (en) User interface device emulating parameter setting unit, display method and program for parameter setting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140903

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160120

R150 Certificate of patent or registration of utility model

Ref document number: 5875879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150