JP2010244132A - User interface device with touch panel, method and program for controlling user interface - Google Patents
User interface device with touch panel, method and program for controlling user interface Download PDFInfo
- Publication number
- JP2010244132A JP2010244132A JP2009089344A JP2009089344A JP2010244132A JP 2010244132 A JP2010244132 A JP 2010244132A JP 2009089344 A JP2009089344 A JP 2009089344A JP 2009089344 A JP2009089344 A JP 2009089344A JP 2010244132 A JP2010244132 A JP 2010244132A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- palm
- application
- touch panel
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、静電タッチパネルへの指または掌の近接を判別して実行するアプリケーションを切り替えるユーザインタフェース装置、その制御方法および制御プログラムに関するものである。 The present invention relates to a user interface device that switches an application to be executed by determining the proximity of a finger or palm to an electrostatic touch panel, a control method thereof, and a control program.
近年、携帯電話やデジタルカメラをはじめとする情報処理端末に搭載されるコンテンツや機能は増加の一途をたどり、コンテンツを閲覧する場合または機能を操作する場合に、ユーザの操作が複雑化してきている。そこで、複雑なコンテンツや機能を簡単に、また直感的に操作可能なユーザインタフェースを実現することが課題となっている。
この課題に対して、例えば特許文献1の操作入力装置は、カメラで撮影した画像に基づいてユーザの手の形状および動きの方向を認識し、認識結果に対応した操作を選択したり、操作のための各種パラメータを変更したりしていた。
また、特許文献2のデータ入力装置は、手または指の部分ごとに異なる掌紋または指紋、その組み合わせを異なるデータに対応付けて格納しておき、掌紋または指紋を読み取ることが可能な画像読み取り手段を手または指の一部に装着して他の指または手の一部を読み取って、対応付けてあるデータに変換して入力を行っていた。
In recent years, content and functions installed in information processing terminals such as mobile phones and digital cameras have been increasing, and user operations have become complicated when browsing content or operating functions. . Therefore, it is an issue to realize a user interface that can easily and intuitively operate complicated contents and functions.
In response to this problem, for example, the operation input device of
Further, the data input device disclosed in
従来のユーザインタフェース装置は以上のように構成されているので、特許文献1,2にはユーザの操作入力を認識するためにタッチパネルを用いることは開示されていなかった。このため、タッチパネルにユーザの指が近接したのか掌が近接したのかを判別して操作に結び付ける技術、および個人差に大きく依存する指紋および掌紋を用いずに指と掌を判別する技術について何ら開示も示唆もされておらず、タッチパネルを用いて複雑なコンテンツや機能を簡単に、直感的に操作させるユーザインタフェースを十分に実現することはできない課題があった。
Since the conventional user interface device is configured as described above,
この発明は、上記のような課題を解決するためになされたもので、タッチパネルを有するユーザインタフェース装置において、タッチ操作に対応した機能の操作性を向上させることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to improve the operability of a function corresponding to a touch operation in a user interface device having a touch panel.
この発明に係るタッチパネル付きユーザインタフェース装置は、タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出部と、物体近接検出部が近接状態を検知した場合に、出力値から物体がユーザの指か掌かを判別する指/掌判別部と、指/掌判別部が物体を指と判別した場合に、当該指のタッチパネルにおける近接位置座標を検出する座標検出部と、指/掌判別部が判別した結果および座標検出部が検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択部と、アプリケーション選択部が選択したアプリケーションに対応した表示を行う表示部とを備えるようにしたものである。 The user interface device with a touch panel according to the present invention uses the output value of the touch panel to output an object proximity detection unit that detects the proximity state of the object to the touch panel and an object proximity detection unit that detects the proximity state. A finger / palm discriminating unit for discriminating whether the object is a user's finger or palm from the values, and a coordinate detecting unit for detecting a proximity position coordinate of the finger on the touch panel when the finger / palm discriminating unit discriminates the object as a finger; And an application selection unit that selects an application according to the result of determination by the finger / palm determination unit and the proximity position coordinates detected by the coordinate detection unit, and a display unit that performs display corresponding to the application selected by the application selection unit. It is a thing.
この発明に係るタッチパネル付きユーザインタフェース装置のユーザインタフェース制御方法は、タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出ステップと、物体近接検出ステップで近接状態を検知した場合に、出力値から物体がユーザの指か掌かを判別する指/掌判別ステップと、指/掌判別ステップで物体を指と判別した場合に、当該指のタッチパネルにおける近接位置座標を検出する座標検出ステップと、指/掌判別ステップで判別した結果および座標検出ステップで検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択ステップと、アプリケーション選択ステップで選択したアプリケーションに対応した表示を行う表示ステップとを備えるようにしたものである。 A user interface control method for a user interface device with a touch panel according to the present invention uses an output value of a touch panel to detect a proximity state in an object proximity detection step for detecting the proximity state of an object to the touch panel, and an object proximity detection step. If the finger / palm determination step determines whether the object is the user's finger or palm from the output value, and the finger / palm determination step determines that the object is a finger, the proximity position coordinates of the finger on the touch panel are detected. A coordinate detection step, an application selection step for selecting an application according to a result determined in the finger / palm determination step and a proximity position coordinate detected in the coordinate detection step, and a display corresponding to the application selected in the application selection step With steps It is.
この発明に係るタッチパネル付きユーザインタフェース装置のユーザインタフェース制御プログラムは、コンピュータを、タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出手段と、物体近接検出手段が近接状態を検知した場合に、出力値から物体がユーザの指か掌かを判別する指/掌判別手段と、指/掌判別手段が物体を指と判別した場合に、当該指のタッチパネルにおける近接位置座標を検出する座標検出手段と、指/掌判別手段が判別した結果および座標検出手段が検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択手段と、アプリケーション選択手段が選択したアプリケーションに対応した表示を行う表示手段として機能させるようにしたものである。 According to the user interface control program for a user interface device with a touch panel according to the present invention, an object proximity detection unit that detects a proximity state of an object to the touch panel using an output value of the touch panel and an object proximity detection unit When the state is detected, the finger / palm discriminating means for discriminating whether the object is the user's finger or palm from the output value, and the proximity position of the finger on the touch panel when the finger / palm discrimination means discriminates the object as the finger A coordinate detection unit that detects coordinates, an application selection unit that selects an application according to a result of determination by the finger / palm determination unit and a proximity position coordinate detected by the coordinate detection unit, and a display corresponding to the application selected by the application selection unit It is made to function as a display means for performing.
この発明によれば、タッチパネルの出力値から近接物体が指か掌かを判別してアプリケーションを選択するようにしたので、通常の指によるタッチ操作に加えて掌による操作も可能となり、タッチ操作に対応した機能の操作性を向上させることができる。また、掌による操作に特定のアプリケーションを対応付けておくことにより、表示画面からこのアプリケーション実行用ボタンを削除でき、画面を簡略化させることができる。 According to the present invention, since the application is selected by determining whether the proximity object is a finger or a palm from the output value of the touch panel, it is possible to perform a palm operation in addition to a normal finger touch operation. The operability of the corresponding function can be improved. Further, by associating a specific application with the palm operation, the application execution button can be deleted from the display screen, and the screen can be simplified.
実施の形態1.
図1は、この発明の実施の形態1に係るユーザインタフェース装置の構成を示すブロック図である。図1に示すように、実施の形態1によるユーザインタフェース装置は、タッチパネル1、物体近接検出部2、指/掌判別部3、座標検出部4、アプリケーション選択部5、表示部6および制御部7から構成される。
FIG. 1 is a block diagram showing a configuration of a user interface apparatus according to
タッチパネル1は、ユーザの指または掌等、物体による入力を検知し、検知信号を物体近接検出部2へ出力する。物体近接検出部2は、タッチパネル1から出力される検知信号を用いて、物体のタッチパネル1への近接状態を判定する。指/掌判別部3は、物体近接検出部2において物体が近接したと判定された場合に、その物体が指であるか掌であるかを判別し、判別結果を出力する。座標検出部4は、指/掌判別部3において近接した物体が指であると判別された場合に、近接している指のタッチパネル1上の近接位置座標を検出する。アプリケーション選択部5は、指/掌判別部3の判別結果および座標検出部4の近接位置座標に基づいて、実行するアプリケーションを選択する。表示部6は、アプリケーション選択部5によって選択されたアプリケーションに対応して適切な画面表示を行う。制御部7は全体の動作を制御する。
The
次に、実施の形態1によるユーザインタフェース装置の動作を説明する。図2は、実施の形態1に係るユーザインタフェース装置の動作を示すフローチャートである。
先ず、物体近接検出部2が、タッチパネル1への物体の近接があったか否かを判定し(ステップST1)、物体の近接が検知されるまでステップST1の動作を行う。
Next, the operation of the user interface device according to the first embodiment will be described. FIG. 2 is a flowchart showing the operation of the user interface device according to the first embodiment.
First, the object
図3は、タッチパネル1の構成を示す模式図である。本実施の形態では、タッチパネル1として、物体10とタッチパネル1との間の微弱な静電容量の変化を検出することで物体10のタッチパネル1への近接(および接触)を検出する静電容量方式の投射容量型タッチパネルを用いる。この他、タッチパネル1として静電容量方式の表面容量型タッチパネルを用いて、静電容量の変化量に従って物体10のタッチパネル1への近接を検出するようにしてもよい。
FIG. 3 is a schematic diagram showing the configuration of the
投射容量型のタッチパネル1は、図3に示すように、x方向の座標値を検出するためにy方向と平行に配置された複数のx方向センサ電極11と、y方向の座標値を検出するためにx方向と平行に配置された複数のy方向センサ電極12とから構成される。物体近接検出部2はこれらセンサ電極11,12が出力する検知信号に基づいて、タッチパネル1へ物体10が近接または接触した場合に、x方向センサ電極11およびy方向センサ電極12のうち、x,y方向それぞれどのセンサ電極が反応しているかを検出することで、物体10のタッチパネル1上におけるx,y方向の位置(以下、それぞれx座標、y座標と呼ぶ)を検出することができる。
As shown in FIG. 3, the projection
図4は、物体近接検出部2がタッチパネル1と物体10の距離を検出する方法を示す説明図であり、タッチパネル1と物体10の間の静電容量の変化量と距離との関係を示すグラフである。グラフに示すように、タッチパネル1と物体10との距離が近くなるにつれて、タッチパネル1と物体10の間の静電容量が大きくなる。
静電容量の変化の度合いはタッチパネル1と物体10との距離によって変化するため、物体近接検出部2は、タッチパネル1と物体10との間の静電容量の変化度合いから、物体10がタッチパネル1へ近接したか、または接触したかを判定することができる。具体的には、静電容量の変化量が所定の閾値Th1以上の場合(領域A)に物体10がタッチパネル1へ近接したと判定し(図4(A))、閾値Th1未満の場合に近接していないと判定する。さらに、静電容量の変化量が閾値Th2(>Th1)以上の場合(領域B)には、物体10がタッチパネル1に接触したと判定することができる(図4(B))。
FIG. 4 is an explanatory diagram showing how the object
Since the degree of change in capacitance varies depending on the distance between the
説明を図2に戻す。物体近接検出部2において物体のタッチパネル1への近接が検出された場合(ステップST1“Yes”)、指/掌判別部3が、近接した物体が指であるか掌であるかを判別する(ステップST2)。
Returning to FIG. When the proximity of the object to the
図5は指/掌判別部3がタッチパネル1に指10aが近接したことを判別する方法を説明する図であり、図6は掌10bが近接したことを判別する方法を説明する図である。図5(A)に示すようにタッチパネル1に近接した物体が指10aである場合、x方向センサ電極11の静電容量変化の分布は、図5(B)に示すように最も変化の大きいセンサ電極の値を山として急峻な分布21になる。y方向センサ電極12の静電容量変化の分布も同様に急峻な分布になる。一方、図6(A)に示すようにタッチパネル1に近接した物体が掌10bである場合、x,y方向それぞれのセンサ電極11,12の静電容量変化の分布は、図6(B)に示すようになだらかな分布22になり、急峻な分布21のようにはならない。y方向センサ電極12の静電容量変化の分布も同様になだらかな分布になる。従って、指/掌判別部3は、静電容量変化の分布の山の急峻さに基づいて、タッチパネル1に近接した物体が指10aか掌10bかを判別する。
FIG. 5 is a diagram for explaining how the finger /
なお、指/掌判別部3において、上述した静電容量変化の分布形状を指標に用いず簡易に判別する場合には、各センサ電極の静電容量の変化量21a,22aを指標に用いてもよい。具体的には、指/掌判別部3が、x方向センサ電極11のうち所定の閾値Th2以上の静電容量変化量になるセンサ電極の数を数え、この本数が閾値m未満の場合に指10aがタッチパネル1に近接したと判別し、閾値m以上の場合には掌10bが近接したと判別することで、タッチパネル1に近接した物体が指10aか掌10bかを判別する。指/掌判別部3は、y方向センサ電極12についても同様に判別する。
When the finger /
説明を図2に戻す。指/掌判別部3により近接物体が指と判別された場合(ステップST2“指”)、続くステップST3にて座標検出部4が指が近接したタッチパネル1上のx,y座標を検出する。座標検出部4による位置座標検出方法は、上記で図3を用いて説明したように、x方向センサ電極11およびy方向センサ電極12のうち、x,y方向それぞれ最も静電容量変化量の大きいセンサ電極を検出すればよい。このx,y座標が近接位置座標である。
続いて、アプリケーション選択部5が、座標検出部4で検出したx,y座標に基づいて実行するアプリケーションを選択する(ステップST4)。表示部6は、アプリケーション選択部5が選択したアプリケーションに対応して、適切な内容の画面表示を行う(ステップST5)。
Returning to FIG. When the proximity object is determined to be a finger by the finger / palm determination unit 3 (step ST2 “finger”), the coordinate
Subsequently, the
他方、近接物体が掌と判別された場合(ステップST2“掌”)、続くステップST4においてアプリケーション選択部5が、近接物体が掌である場合に実行するアプリケーションを選択する。表示部6は、アプリケーション選択部5が選択したアプリケーションに対応して、適切な内容の画面表示を行う(ステップST5)。
On the other hand, when the proximity object is determined to be a palm (step ST2 “palm”), in subsequent step ST4, the
ステップST4においてアプリケーション選択部5が選択するアプリケーションは、指または掌の操作から連想できるようなアプリケーションであることが望ましい。図7(A)にタッチパネル1への近接が指10aの場合に実行するアプリケーションの一例を示し、図7(B)にタッチパネル1への近接が掌10bの場合に実行するアプリケーションの例を示す。なお、タッチパネル1は表示部6の前面に取り付けられて一体となっているものとし、座標検出部4が検出したx,y座標を、表示部6の表示領域中の位置座標として用いる。近接した物体が指10aである場合には、アプリケーション選択部5が、図7(A)のように指10aの位置座標に対応する画面位置に表示されている意味のある表示領域の一部(例えば、1つのアイコン等)を選択するアプリケーションを選択する。他方、近接した物体が掌10bである場合には、アプリケーション選択部5が、図7(B)のように表示領域全体(例えば、全てのアイコン等)を選択するアプリケーションを選択する。図7に示すように指=一部、掌=全体というメタファに則ってアプリケーション選択部5が選択するアプリケーションを指、掌の操作に関連付けておくことで、ユーザが直感的に操作可能なユーザインタフェースを実現することができる。
The application selected by the
アプリケーション選択部5は、上記以外にも例えば、表示部6に複数ページ有するドキュメントの閲覧画面が表示されているとき、近接した物体が指10aである場合には1ページ戻る/進むアプリケーションを選択し、近接した物体が掌10bである場合には全ページ戻る/進むアプリケーションを選択するようにしてもよい。
また、掌による操作に、ユーザインタフェース装置の電源スイッチのオン/オフ切り替えを制御するアプリケーションを対応付ければ、アプリケーション選択部5は、近接した物体が指10aである場合には通常のアプリケーションを選択し、近接した物体が掌10bである場合には電源スイッチのオン/オフ切り替えを制御するアプリケーションを選択することもできる。
このように、掌による操作に特定のボタンのアプリケーションを対応付けておけば、表示画面内のボタン数を削減することができ、表示画面を簡略化することができる。
In addition to the above, the
In addition, when an application for controlling on / off switching of the power switch of the user interface device is associated with the palm operation, the
In this way, if an application of a specific button is associated with a palm operation, the number of buttons in the display screen can be reduced, and the display screen can be simplified.
以上のように、実施の形態1によれば、タッチパネル1への物体の近接状態を検知する物体近接検出部2、および物体がタッチパネル1に近接したと判別された場合に物体がユーザの指であるか掌であるかを判別する指/掌判別部3に加えて、指が近接したのか掌が近接したのかによって実行するアプリケーションを選択するアプリケーション選択部5を備えるように構成した。このため、通常の指によるタッチ操作に加えて、掌による操作も可能となり、タッチパネル1に対応した機能に対する操作性を向上させることができる。また、掌による操作に特定のアプリケーションを対応付けておくことにより、表示画面からこのアプリケーション実行用ボタンを削除でき、画面を簡略化させることもできる。
As described above, according to the first embodiment, the object
実施の形態2.
上記実施の形態1のユーザインタフェース装置では、物体がタッチパネル1へ近接したことを検知し、さらに、近接した物体がユーザの指であるか掌であるかを判別し、判別結果によって実行するアプリケーションを切り替えることで、通常のタッチ操作に加えて掌による操作を実現した。本実施の形態2では、タッチパネル1に掌が近接したと判別した場合に、掌の動きの方向を認識することによってさらに操作性を向上させたユーザインタフェースを実現する。ここで、ユーザがタッチパネル1に近接させた掌を動かして操作することを掌ジェスチャと呼び、ユーザインタフェース装置がこの掌の動きを認識することを掌ジェスチャ認識と呼ぶ。実施の形態2では、掌ジェスチャを利用する構成のユーザインタフェース装置について述べる。
In the user interface device according to the first embodiment, it is detected that an object is close to the
図8は、この発明の実施の形態2に係るユーザインタフェース装置の構成を示すブロック図であり、図1と同一または相当の部分については同一の符号を付す。実施の形態2のユーザインタフェース装置は、上記実施の形態1のユーザインタフェース装置の座標検出部4の後段に、掌ジェスチャを認識する掌ジェスチャ認識部8および掌ジェスチャを認識するための情報を保存しておくメモリ9を追加した点のみが異なる。従って、実施の形態2の説明は実施の形態1と異なる内容のみにとどめ、重複する内容については省略する。
FIG. 8 is a block diagram showing the configuration of the user interface apparatus according to
次に、実施の形態2によるユーザインタフェース装置の動作を説明する。図9は、実施の形態2に係るユーザインタフェース装置の動作を示すフローチャートである。図9に示すステップST1〜ステップST3の各動作は、図2のステップST1〜ステップST3の各動作と同一であるため、説明を省略する。
なお、ステップST1において、物体近接検出部2が、タッチパネル1への物体の近接を検知しない場合は(ステップST1“No”)、ステップST6にて掌ジェスチャ認識部8がメモリ9の保存する情報を全てクリアする。
Next, the operation of the user interface device according to the second embodiment will be described. FIG. 9 is a flowchart showing the operation of the user interface device according to the second embodiment. The operations in steps ST1 to ST3 shown in FIG. 9 are the same as the operations in steps ST1 to ST3 in FIG.
If the object
指/掌判別部3によって近接物体が掌と判別された場合(ステップST2“掌”)、指/掌判別部3が判別の際に用いた、x,y方向それぞれ所定の閾値Th2以上の静電容量の変化量だったセンサ電極のインデックスを、掌ジェスチャ認識部8がメモリ9に保存する(ステップST7)。タッチパネル1に近接した状態で掌ジェスチャが行われれば、掌ジェスチャ中の各時刻のセンサ電極の状態がメモリ9に保存されていく。そして、掌ジェスチャ認識部8がメモリ9の情報を利用して、タッチパネル1上に近接した掌10bがどのように動いたか、即ち掌ジェスチャを認識する(ステップST8)。
When the proximity object is determined to be a palm by the finger / palm determination unit 3 (step ST2 “palm”), the static values of the x and y directions used for the determination by the finger /
図10は、メモリ9が保存しているセンサ電極の位置座標の情報の構造を示す説明図である。図10に示すように、メモリ9には、掌がタッチパネル1に近接した状態となったt−n時刻前から最新の時刻tまでのセンサ電極の状態が、全てまたは一部保存されている。xiは、x方向センサ電極11のx座標原点側からのセンサ番号iを示し、yjは、y方向センサ電極12のy座標原点側からのセンサ番号jを示す。掌ジェスチャ認識部8は、センサ電極の状態として、所定の閾値Th2以上の静電容量の変化量を示したセンサ電極に[1]を付与し、閾値Th2未満の静電容量の変化量を示したセンサ電極に[0]を付与して、メモリ9に保存する。
FIG. 10 is an explanatory diagram showing the structure of the sensor electrode position coordinate information stored in the
図11は、タッチパネル1に近接した掌10bの掌ジェスチャに応じたセンサ電極の状態の例を示す説明図である。図11では、掌10bがx方向と平行に動いた場合にメモリ9に保存される2時刻前(図11(A))、1時刻前(図11(B))、および最新(図11(C))のx方向センサ電極11の各状態を示す。例えば図11(A)においてセンサ番号i=12およびt=2のセンサ電極の状態x1(2),x2(2),・・・,x12(2)は[1,1,1,1,1,1,1,1,0,0,0,0]であり、掌10bの移動と共に、静電容量の変化量の大きい(即ちセンサ電極の状態[1])センサ電極がx方向に移り変わって、最新t=0のセンサ電極の状態x1(0),x2(0),・・・,x12(0)は[0,0,0,0,1,1,1,1,1,1,1,1]となる。従って、掌ジェスチャ認識部8は、静電容量の変化量の大きいセンサ電極の状態の移り変わりを利用すれば、掌10bがx方向に移動したことを認識できる。掌ジェスチャ認識部8は、この掌ジェスチャ認識処理をx方向センサ電極11およびy方向センサ電極12について行い、タッチパネル1上に近接した掌10bがどのように動いたか認識する。
FIG. 11 is an explanatory diagram illustrating an example of the state of the sensor electrode corresponding to the palm gesture of the
なお、ステップST6において、物体が近接していないと判別された場合にメモリ9の内容が全てクリアされているため、連続して近接している状態のみのセンサ電極の状態をメモリ9に保存しておくことができる。
In step ST6, when it is determined that the object is not close, the contents of the
説明を図9に戻す。ステップST4において、アプリケーション選択部5は、指/掌判別部3の判別結果から近接物体が指の場合には座標検出部4で検出したx,y座標に基づいて、一方、近接物体が掌の場合には掌ジェスチャ認識部8の掌ジェスチャ認識の結果に基づいて、実行するアプリケーションを選択する。表示部6が、アプリケーション選択部5が選択したアプリケーションに対応して、適切な内容の画面表示を行う(ステップST5)。
なお、近接物体が指の場合、指のx,y座標の時間変化を利用することで、指のジェスチャについても認識することができる。例えば、ユーザインタフェース装置が指ジェスチャ認識部とメモリを備え、近接物体が指と判別された場合に座標検出部4が検出した各時刻のx,y座標をメモリに保存して、指ジェスチャ認識部がx,y座標の時間変化に基づいて指の移動を認識する構成にすればよい。
Returning to FIG. In step ST4, when the proximity object is a finger from the discrimination result of the finger /
When the proximity object is a finger, it is possible to recognize a finger gesture by using a temporal change in the x and y coordinates of the finger. For example, the user interface device includes a finger gesture recognition unit and a memory, and stores the x and y coordinates at each time detected by the coordinate
ステップST4においてアプリケーション選択部5が選択するアプリケーションは、指ジェスチャまたは掌ジェスチャの操作から連想できるようなアプリケーションであることが望ましい。図12(A)に指ジェスチャによる操作の場合に実行するアプリケーションの例を示し、図12(B)に掌ジェスチャによる操作の場合に実行するアプリケーションの例を示す。なお、タッチパネル1は表示部6の前面に取り付けられて一体となっているものとし、座標検出部4が検出したx,y座標を、表示部6の表示領域中の位置座標として用いる。近接した物体が指10aであり、かつ、x方向に移動する指ジェスチャの場合には、アプリケーション選択部5が、図12(A)のように複数ページ有するドキュメントの閲覧画面のページを1ページ戻る/進むアプリケーションを選択して、指ジェスチャの移動方向に応じたページめくりを実行する。他方、近接した物体が掌10bであり、かつ、x方向に移動する掌ジェスチャの場合には、アプリケーション選択部5が、図12(B)のように全ページ戻る/進むアプリケーションを選択して、掌ジェスチャの移動方向に応じたページめくりを実行する。図12に示すように指=一部、掌=全体というメタファに則ってアプリケーション選択部5が選択するアプリケーションを指ジェスチャ、掌ジェスチャに関連付けておくことで、ユーザが直感的に操作可能なユーザインタフェースを実現することができる。
The application selected by the
アプリケーション選択部5は、上記以外にも例えば、指ジェスチャである場合には通常のアプリケーションを選択し、掌ジェスチャの場合にはユーザインタフェース装置の電源スイッチのオン/オフ切り替えを制御するアプリケーションを選択するようにしてもよい。また、表示部6に複数の意味のある表示領域(例えばアイコン)が画面表示されているとき、アプリケーション選択部5は、指ジェスチャである場合には近接した位置座標の表示領域(1つのアイコン)を選択するアプリケーションを選択し、掌ジェスチャである場合には表示領域全体(全てのアイコン)を選択するアプリケーションを選択するようにしてもよい。さらに、掌ジェスチャ認識部8が掌の移動方向に加えて移動速度も認識するようにして(同様に指ジェスチャ認識部も指の移動速度を認識するようにして)、アプリケーション選択部5が移動の方向および速度に応じてアプリケーションを選択してもよい。
このように、掌ジェスチャによる操作に特定のボタンのアプリケーションを対応付けておけば、表示画面内のボタン数を削減することができ、表示画面を簡略化することができる。
In addition to the above, for example, the
In this way, if an application of a specific button is associated with an operation by a palm gesture, the number of buttons in the display screen can be reduced, and the display screen can be simplified.
以上のように、実施の形態2によれば、指/掌判別部3においてタッチパネル1への近接物体が掌であると判別された場合に、タッチパネル1の出力値を用いて掌の動きを認識する掌ジェスチャ認識部8を備えるようにした。このため、掌の近接を利用する上記実施の形態1のユーザインタフェースだけでなく、掌の動きを利用したユーザインタフェースを実現することができる。
As described above, according to the second embodiment, when the finger /
なお、上記実施の形態1,2のユーザインタフェース装置を、タッチパネル1および表示部6を有するコンピュータで構成する場合、指/掌判別部3、座標検出部4、アプリケーション選択部5、制御部7、掌ジェスチャ認識部8の処理内容を記述しているプログラムをコンピュータの内部メモリに格納し、コンピュータのCPUが内部メモリに格納されているプログラムを実行するようにしてもよい。
When the user interface devices of the first and second embodiments are configured by a computer having the
また、上記実施の形態1,2のユーザインタフェース装置によれば、ユーザがタッチパネル1に触れることなく操作可能となるため、パネルの消耗が少なく、超寿命化の一助になる。
Further, according to the user interface devices of the first and second embodiments, the user can operate without touching the
1 タッチパネル、2 物体近接検出部、3 指/掌判別部、4 座標検出部、5 アプリケーション選択部、6 表示部、7 制御部、8 掌ジェスチャ認識部、9 メモリ、10 物体、10a 指、10b 掌、11 x方向センサ電極、12 y方向センサ電極、21,22 静電容量変化の分布形状、21a,22a 静電容量の変化量。
DESCRIPTION OF
Claims (14)
前記物体近接検出部が近接状態を検知した場合に、前記出力値から前記物体がユーザの指か掌かを判別する指/掌判別部と、
前記指/掌判別部が前記物体を指と判別した場合に、当該指の前記タッチパネルにおける近接位置座標を検出する座標検出部と、
前記指/掌判別部が判別した結果および前記座標検出部が検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択部と、
前記アプリケーション選択部が選択したアプリケーションに対応した表示を行う表示部とを備えたタッチパネル付きユーザインタフェース装置。 Using the output value of the touch panel, an object proximity detection unit that detects the proximity state of the object to the touch panel;
A finger / palm determination unit that determines whether the object is a user's finger or palm from the output value when the object proximity detection unit detects a proximity state;
A coordinate detection unit for detecting a proximity position coordinate of the finger on the touch panel when the finger / palm determination unit determines the object as a finger;
An application selection unit that selects an application according to the determination result of the finger / palm determination unit and the proximity position coordinates detected by the coordinate detection unit;
A user interface device with a touch panel, comprising: a display unit that performs display corresponding to the application selected by the application selection unit.
アプリケーション選択部は、指/掌判別部が判別した結果および座標検出部が検出した近接位置座標に加え、前記ジェスチャ認識部が認識した結果に従って、アプリケーションを選択することを特徴とする請求項1記載のタッチパネル付きユーザインタフェース装置。 A gesture recognition unit that recognizes the movement of a finger or palm in the proximity state from the output value of the touch panel,
The application selecting unit selects an application according to a result recognized by the gesture recognizing unit in addition to a result determined by the finger / palm determining unit and a proximity position coordinate detected by the coordinate detecting unit. User interface device with touch panel.
タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出ステップと、
前記物体近接検出ステップで近接状態を検知した場合に、前記出力値から前記物体がユーザの指か掌かを判別する指/掌判別ステップと、
前記指/掌判別ステップで前記物体を指と判別した場合に、当該指の前記タッチパネルにおける近接位置座標を検出する座標検出ステップと、
前記指/掌判別ステップで判別した結果および前記座標検出ステップで検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択ステップと、
前記アプリケーション選択ステップで選択したアプリケーションに対応した表示を行う表示ステップとを備えたことを特徴とするユーザインタフェース制御方法。 A user interface control method for a user interface device with a touch panel,
Using an output value of the touch panel, an object proximity detection step of detecting a proximity state of the object to the touch panel;
A finger / palm determination step of determining whether the object is a user's finger or palm from the output value when a proximity state is detected in the object proximity detection step;
A coordinate detection step of detecting a proximity position coordinate of the finger on the touch panel when the object is determined to be a finger in the finger / palm determination step;
An application selection step of selecting an application according to the result of the determination in the finger / palm determination step and the proximity position coordinates detected in the coordinate detection step;
And a display step for performing display corresponding to the application selected in the application selection step.
アプリケーション選択ステップは、指/掌判別ステップで判別した結果および座標検出ステップで検出した近接位置座標に加え、前記ジェスチャ認識ステップで認識した結果に従って、アプリケーションを選択することを特徴とする請求項3記載のユーザインタフェース制御方法。 A gesture recognition step that recognizes the movement of a finger or palm in the proximity state from the output value of the touch panel,
4. The application selecting step selects an application according to a result recognized in the gesture recognition step in addition to a result determined in the finger / palm determination step and a proximity position coordinate detected in the coordinate detection step. User interface control method.
コンピュータを、タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出手段と、
前記物体近接検出手段が近接状態を検知した場合に、前記出力値から前記物体がユーザの指か掌かを判別する指/掌判別手段と、
前記指/掌判別手段が前記物体を指と判別した場合に、当該指の前記タッチパネルにおける近接位置座標を検出する座標検出手段と、
前記指/掌判別手段が判別した結果および前記座標検出手段が検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択手段と、
前記アプリケーション選択手段が選択したアプリケーションに対応した表示を行う表示手段として機能させるためのユーザインタフェース制御プログラム。 A user interface control program for a user interface device with a touch panel,
An object proximity detecting means for detecting a proximity state of the object to the touch panel using an output value of the touch panel;
A finger / palm discriminating unit for discriminating whether the object is a user's finger or palm from the output value when the object proximity detecting unit detects a proximity state;
A coordinate detection unit that detects a proximity position coordinate of the finger on the touch panel when the finger / palm determination unit determines the object as a finger;
Application selecting means for selecting an application according to the result of the determination by the finger / palm determining means and the proximity position coordinates detected by the coordinate detecting means;
A user interface control program for causing a function corresponding to display means for performing display corresponding to an application selected by the application selection means.
アプリケーション選択手段は、指/掌判別手段が判別した結果および座標検出手段が検出した近接位置座標に加え、前記ジェスチャ認識手段が認識した結果に従って、アプリケーションを選択することを特徴とする請求項9記載のユーザインタフェース制御プログラム。 It has gesture recognition means that recognizes the movement of a finger or palm in the proximity state from the output value of the touch panel,
10. The application selecting unit selects an application according to a result recognized by the gesture recognizing unit in addition to a result determined by the finger / palm determining unit and a proximity position coordinate detected by the coordinate detecting unit. User interface control program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009089344A JP2010244132A (en) | 2009-04-01 | 2009-04-01 | User interface device with touch panel, method and program for controlling user interface |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009089344A JP2010244132A (en) | 2009-04-01 | 2009-04-01 | User interface device with touch panel, method and program for controlling user interface |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010244132A true JP2010244132A (en) | 2010-10-28 |
Family
ID=43097112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009089344A Pending JP2010244132A (en) | 2009-04-01 | 2009-04-01 | User interface device with touch panel, method and program for controlling user interface |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010244132A (en) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012098929A (en) * | 2010-11-02 | 2012-05-24 | Canon Inc | Display control device and display control method |
JP2012133524A (en) * | 2010-12-21 | 2012-07-12 | Sony Corp | Image display controller and image display control method |
CN102650912A (en) * | 2011-02-23 | 2012-08-29 | 安国国际科技股份有限公司 | Signal processing method and system of touch panel |
JP2012234317A (en) * | 2011-04-28 | 2012-11-29 | Ntt Docomo Inc | Display device, control method for display device and program |
JP2013097798A (en) * | 2011-10-27 | 2013-05-20 | Samsung Electronics Co Ltd | System and method for identifying type of input to mobile device with touch panel |
WO2013080425A1 (en) * | 2011-12-01 | 2013-06-06 | パナソニック株式会社 | Input device, information terminal, input control method and input control program |
US20130257796A1 (en) * | 2012-03-29 | 2013-10-03 | Brother Kogyo Kabushiki Kaisha | Touch panel control device, touch panel control method and non-transitory computer-readable medium |
US20130257764A1 (en) * | 2012-03-29 | 2013-10-03 | Brother Kogyo Kabushiki Kaisha | Touch panel control device and non-transitory computer-readable medium |
KR20130124138A (en) * | 2012-11-21 | 2013-11-13 | 삼성전자주식회사 | Control method of terminal by using spatial interaction |
KR20130124139A (en) * | 2012-11-21 | 2013-11-13 | 삼성전자주식회사 | Control method of terminal by using spatial interaction |
JP2013235588A (en) * | 2012-05-04 | 2013-11-21 | Samsung Electronics Co Ltd | Method for controlling terminal based on spatial interaction, and corresponding terminal |
WO2013179474A1 (en) * | 2012-05-30 | 2013-12-05 | シャープ株式会社 | Touch sensor system |
JP2014121854A (en) * | 2012-12-21 | 2014-07-03 | Konica Minolta Inc | Image formation device and program |
JP2014160473A (en) * | 2012-04-19 | 2014-09-04 | Panasonic Intellectual Property Corp Of America | Portable electronic equipment |
JP2015500545A (en) * | 2011-12-14 | 2015-01-05 | マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated | Capacitive proximity based gesture input system |
JP2015041264A (en) * | 2013-08-22 | 2015-03-02 | シャープ株式会社 | Information processing device, information processing method, and program |
KR20150024571A (en) * | 2013-08-27 | 2015-03-09 | 삼성전자주식회사 | Electronic device with using an infrared sensor and operation method thereof |
JP2015064799A (en) * | 2013-09-25 | 2015-04-09 | 富士通コンポーネント株式会社 | Combiner and operation detection device |
US9052791B2 (en) | 2011-12-16 | 2015-06-09 | Panasonic Intellectual Property Corporation Of America | Touch panel and electronic device |
JP2015141425A (en) * | 2014-01-27 | 2015-08-03 | アルプス電気株式会社 | Touch pad input device and touch pad control program |
JP2016042383A (en) * | 2015-11-25 | 2016-03-31 | カシオ計算機株式会社 | User operation processing apparatus, user operation processing method, and program |
JP2016045931A (en) * | 2014-08-21 | 2016-04-04 | 京セラドキュメントソリューションズ株式会社 | Image processing apparatus |
JP2017054226A (en) * | 2015-09-08 | 2017-03-16 | アルプス電気株式会社 | Input device including electrostatic capacitance type touch panel, and manufacturing method of input device |
WO2017047416A1 (en) * | 2015-09-14 | 2017-03-23 | 株式会社東海理化電機製作所 | Operation detection device |
JP2017510879A (en) * | 2014-01-28 | 2017-04-13 | ▲華▼▲為▼終端有限公司Huawei Device Co., Ltd. | Method and terminal device for processing a terminal device |
US9846519B2 (en) | 2014-12-22 | 2017-12-19 | Alps Electric Co., Ltd. | Input device, and method and program for controlling the same |
JP2018120636A (en) * | 2011-08-30 | 2018-08-02 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Mobile terminal having touch screen and method for providing user interface therein |
KR20190019989A (en) * | 2019-02-18 | 2019-02-27 | 삼성전자주식회사 | Control method of terminal by using spatial interaction |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031799A (en) * | 2003-07-08 | 2005-02-03 | Sony Computer Entertainment Inc | Control system and method |
JP2008269208A (en) * | 2007-04-19 | 2008-11-06 | Calsonic Kansei Corp | Operation detection system |
-
2009
- 2009-04-01 JP JP2009089344A patent/JP2010244132A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031799A (en) * | 2003-07-08 | 2005-02-03 | Sony Computer Entertainment Inc | Control system and method |
JP2008269208A (en) * | 2007-04-19 | 2008-11-06 | Calsonic Kansei Corp | Operation detection system |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012098929A (en) * | 2010-11-02 | 2012-05-24 | Canon Inc | Display control device and display control method |
JP2012133524A (en) * | 2010-12-21 | 2012-07-12 | Sony Corp | Image display controller and image display control method |
US9703403B2 (en) | 2010-12-21 | 2017-07-11 | Sony Corporation | Image display control apparatus and image display control method |
CN102650912A (en) * | 2011-02-23 | 2012-08-29 | 安国国际科技股份有限公司 | Signal processing method and system of touch panel |
JP2012234317A (en) * | 2011-04-28 | 2012-11-29 | Ntt Docomo Inc | Display device, control method for display device and program |
US10809844B2 (en) | 2011-08-30 | 2020-10-20 | Samsung Electronics Co., Ltd. | Mobile terminal having a touch screen and method for providing a user interface therein |
JP2018120636A (en) * | 2011-08-30 | 2018-08-02 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Mobile terminal having touch screen and method for providing user interface therein |
JP2020091912A (en) * | 2011-08-30 | 2020-06-11 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Mobile terminal having touch screen and method for providing user interface therein |
US11275466B2 (en) | 2011-08-30 | 2022-03-15 | Samsung Electronics Co., Ltd. | Mobile terminal having a touch screen and method for providing a user interface therein |
JP2013097798A (en) * | 2011-10-27 | 2013-05-20 | Samsung Electronics Co Ltd | System and method for identifying type of input to mobile device with touch panel |
US9495095B2 (en) | 2011-10-27 | 2016-11-15 | Samsung Electronics Co., Ltd. | System and method for identifying inputs input to mobile device with touch panel |
WO2013080425A1 (en) * | 2011-12-01 | 2013-06-06 | パナソニック株式会社 | Input device, information terminal, input control method and input control program |
JP2015500545A (en) * | 2011-12-14 | 2015-01-05 | マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated | Capacitive proximity based gesture input system |
US9182870B2 (en) | 2011-12-16 | 2015-11-10 | Panasonic Intellectual Property Corporation Of America | Touch panel and electronic device |
US9052791B2 (en) | 2011-12-16 | 2015-06-09 | Panasonic Intellectual Property Corporation Of America | Touch panel and electronic device |
US9182869B2 (en) | 2011-12-16 | 2015-11-10 | Panasonic Intellectual Property Corporation Of America | Touch panel and electronic device |
US20130257796A1 (en) * | 2012-03-29 | 2013-10-03 | Brother Kogyo Kabushiki Kaisha | Touch panel control device, touch panel control method and non-transitory computer-readable medium |
US9195338B2 (en) | 2012-03-29 | 2015-11-24 | Brother Kogyo Kabushiki Kaisha | Touch panel control device and non-transitory computer-readable medium |
US20130257764A1 (en) * | 2012-03-29 | 2013-10-03 | Brother Kogyo Kabushiki Kaisha | Touch panel control device and non-transitory computer-readable medium |
US9164616B2 (en) | 2012-03-29 | 2015-10-20 | Brother Kogyo Kabushiki Kaisha | Touch panel control device, touch panel control method and non-transitory computer-readable medium |
US9298293B2 (en) | 2012-04-19 | 2016-03-29 | Panasonic Intellectual Property Corporation Of America | Portable electronic apparatus |
US9002419B2 (en) | 2012-04-19 | 2015-04-07 | Panasonic Intellectual Property Corporation Of America | Portable electronic apparatus |
JP2014160473A (en) * | 2012-04-19 | 2014-09-04 | Panasonic Intellectual Property Corp Of America | Portable electronic equipment |
JP2013235588A (en) * | 2012-05-04 | 2013-11-21 | Samsung Electronics Co Ltd | Method for controlling terminal based on spatial interaction, and corresponding terminal |
US8937609B2 (en) | 2012-05-30 | 2015-01-20 | Sharp Kabushiki Kaisha | Touch sensor system |
JP2013250596A (en) * | 2012-05-30 | 2013-12-12 | Sharp Corp | Touch sensor system |
WO2013179474A1 (en) * | 2012-05-30 | 2013-12-05 | シャープ株式会社 | Touch sensor system |
KR20130124139A (en) * | 2012-11-21 | 2013-11-13 | 삼성전자주식회사 | Control method of terminal by using spatial interaction |
KR20130124138A (en) * | 2012-11-21 | 2013-11-13 | 삼성전자주식회사 | Control method of terminal by using spatial interaction |
JP2014121854A (en) * | 2012-12-21 | 2014-07-03 | Konica Minolta Inc | Image formation device and program |
JP2015041264A (en) * | 2013-08-22 | 2015-03-02 | シャープ株式会社 | Information processing device, information processing method, and program |
KR20150024571A (en) * | 2013-08-27 | 2015-03-09 | 삼성전자주식회사 | Electronic device with using an infrared sensor and operation method thereof |
KR102185204B1 (en) * | 2013-08-27 | 2020-12-01 | 삼성전자주식회사 | Electronic device with using an infrared sensor and operation method thereof |
JP2015064799A (en) * | 2013-09-25 | 2015-04-09 | 富士通コンポーネント株式会社 | Combiner and operation detection device |
US9939906B2 (en) | 2013-09-25 | 2018-04-10 | Fujitsu Component Limited | Combiner and operation detection device |
JP2015141425A (en) * | 2014-01-27 | 2015-08-03 | アルプス電気株式会社 | Touch pad input device and touch pad control program |
JP2017510879A (en) * | 2014-01-28 | 2017-04-13 | ▲華▼▲為▼終端有限公司Huawei Device Co., Ltd. | Method and terminal device for processing a terminal device |
JP2016045931A (en) * | 2014-08-21 | 2016-04-04 | 京セラドキュメントソリューションズ株式会社 | Image processing apparatus |
US9846519B2 (en) | 2014-12-22 | 2017-12-19 | Alps Electric Co., Ltd. | Input device, and method and program for controlling the same |
JP2017054226A (en) * | 2015-09-08 | 2017-03-16 | アルプス電気株式会社 | Input device including electrostatic capacitance type touch panel, and manufacturing method of input device |
WO2017047416A1 (en) * | 2015-09-14 | 2017-03-23 | 株式会社東海理化電機製作所 | Operation detection device |
JP2016042383A (en) * | 2015-11-25 | 2016-03-31 | カシオ計算機株式会社 | User operation processing apparatus, user operation processing method, and program |
KR20190019989A (en) * | 2019-02-18 | 2019-02-27 | 삼성전자주식회사 | Control method of terminal by using spatial interaction |
KR102061254B1 (en) * | 2019-02-18 | 2020-02-11 | 삼성전자 주식회사 | Control method of terminal by using spatial interaction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010244132A (en) | User interface device with touch panel, method and program for controlling user interface | |
US9671893B2 (en) | Information processing device having touch screen with varying sensitivity regions | |
US9250790B2 (en) | Information processing device, method of processing information, and computer program storage device | |
JP4743267B2 (en) | Information processing apparatus, information processing method, and program | |
JP5957834B2 (en) | Portable information terminal, touch operation control method, and program | |
TWI514229B (en) | Graphics editing method and electronic device using the same | |
JP5841590B2 (en) | Information input device and information input method | |
US8581869B2 (en) | Information processing apparatus, information processing method, and computer program | |
US9448714B2 (en) | Touch and non touch based interaction of a user with a device | |
JP2010205050A (en) | User interface device with touch panel, method, and program for controlling user interface | |
US20110157078A1 (en) | Information processing apparatus, information processing method, and program | |
US9354780B2 (en) | Gesture-based selection and movement of objects | |
JP2011014044A (en) | Apparatus and method for controlling operation and computer program | |
JP2019109748A (en) | Touch panel, air conditioning system comprising touch panel, and method for controlling touch panel | |
TWI389014B (en) | Touchpad detection method | |
JP6123879B2 (en) | Display device, display method, program thereof, and terminal device | |
JP2011134111A (en) | Touch panel device, touch panel control method, program, and storage medium | |
CN107533394B (en) | Touch screen device, operation method thereof and handheld device | |
US9477398B2 (en) | Terminal and method for processing multi-point input | |
JP2012003404A (en) | Information display device | |
JP2011134273A (en) | Information processor, information processing method, and program | |
WO2012111227A1 (en) | Touch input device, electronic apparatus, and input method | |
CN107621899B (en) | Information processing apparatus, misoperation suppression method, and computer-readable storage medium | |
WO2013114499A1 (en) | Input device, input control method, and input control program | |
US20150277649A1 (en) | Method, circuit, and system for hover and gesture detection with a touch screen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130214 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130604 |