JP2009140390A - 指示デバイスおよび指紋認証半導体回路 - Google Patents
指示デバイスおよび指紋認証半導体回路 Download PDFInfo
- Publication number
- JP2009140390A JP2009140390A JP2007318170A JP2007318170A JP2009140390A JP 2009140390 A JP2009140390 A JP 2009140390A JP 2007318170 A JP2007318170 A JP 2007318170A JP 2007318170 A JP2007318170 A JP 2007318170A JP 2009140390 A JP2009140390 A JP 2009140390A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- movement
- pointing device
- unit
- fingerprint information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】操作性、汎用性に優れた指示デバイスを提供することを目的とする。
【解決手段】モバイルコンピュータ1は、タッチパネル式ディスプレイ21とタッチパネル式ディスプレイ21に接触した指の指紋を撮像する指紋撮像部102を備える。比較部103は、指紋撮像部102で取得された指紋情報と指紋情報記憶部104に登録されている指紋情報とを比較し、指の種別を特定する。操作命令登録部105には、所定のオブジェクトに関して指の種別と操作命令との対応が登録されている。制御部101は、指の接触位置からオブジェクトを特定し、比較部103で特定された指の種別から、対応する操作命令を実行する。
【選択図】図2
【解決手段】モバイルコンピュータ1は、タッチパネル式ディスプレイ21とタッチパネル式ディスプレイ21に接触した指の指紋を撮像する指紋撮像部102を備える。比較部103は、指紋撮像部102で取得された指紋情報と指紋情報記憶部104に登録されている指紋情報とを比較し、指の種別を特定する。操作命令登録部105には、所定のオブジェクトに関して指の種別と操作命令との対応が登録されている。制御部101は、指の接触位置からオブジェクトを特定し、比較部103で特定された指の種別から、対応する操作命令を実行する。
【選択図】図2
Description
本発明は、コンピュータに対する指示デバイスに関する。
デスクトップ型のパーソナルコンピュータ(以下、PCと略する。)における指示デバイスとしては、マウスが一般的である。マウスを利用することで、ディスプレイに表示されたオブジェクトに対する指示、操作を容易に行うことができる。
また、指紋認証技術の進歩に伴い、指紋認証を利用したユーザインタフェースも提案されている。下記特許文献1は、指紋情報と電話番号などを対応付けることで、コンピュータに対する操作性の向上を図っている。
上述したように、デスクトップ型のPCでは、マウスが利便性のよい指示デバイスとして十分な役割を果たしている。しかし、サイズの小さいモバイルコンピュータの分野では、指示デバイスに対する更なる改善が望まれている。
スタイラスペン方式は、小型のディスプレイ上でも細かいアイテムを指示することが可能であるが、ペンを用意しなければならないという点でデメリットがある。
また、タッチパネル方式などの人の指を用いるインタフェースは、手軽であり、かつ、オブジェクトに対する指示を即座に行うことができるという点で優れているが、アイテムを選択するという操作が限界である。つまり、アイテムに対して複雑な操作を指で指示することは困難である。
また、上記特許文献1の技術は、キー入力操作を簡略化できるなどメリットがあるが、登録された指紋に文字やコマンドを対応付けるため、1ユーザに対して対応付けることができる文字やコマンドに限りがある。
そこで、本発明は前記問題点に鑑み、操作性、汎用性に優れた指示デバイスを提供することを目的とする。
上記課題を解決するため、請求項1記載の発明は、コンピュータに対する指示を入力する指示デバイスであって、オブジェクトの画像を表示するとともに、指の接触に応答して、指の接触位置に表示されているオブジェクトを指定する表示部と、前記表示部に接触している指から指紋情報を取得する指紋取得部と、指紋情報と指種別とを対応付けて記憶する記憶部と、所定のオブジェクトに関して、指種別と前記所定のオブジェクトに対する操作命令とを対応付けて登録する操作命令登録部と、前記表示部に対する指の接触に応答して、指の接触位置に表示されているオブジェクトを特定するとともに前記指紋取得部により取得した指紋情報から指種別を特定し、特定されたオブジェクトおよび指種別に基づいて前記操作命令登録部において登録されている操作命令を実行する制御部と、を備えることを特徴とする。
請求項2記載の発明は、請求項1に記載の指示デバイスにおいて、前記操作命令登録部には、複数種類の指に対して、それぞれ前記所定のオブジェクトに対する異なる操作命令が対応付けて登録されることを特徴とする。
請求項3記載の発明は、請求項2に記載の指示デバイスにおいて、第1の指に対してマウスの左クリック操作が対応付けられ、第2の指に対してマウスの右クリック操作が対応付けられていることを特徴とする。
請求項4記載の発明は、請求項2に記載の指示デバイスにおいて、第1の指に対して範囲選択の開始位置の指定操作が対応付けられ、第2の指に対して範囲選択の終了位置の指定操作が対応付けられていることを特徴とする。
請求項5記載の発明は、請求項1または請求項2に記載の指示デバイスにおいて、前記指紋取得部は、前記表示部に接触している複数種類の指から複数の指紋情報を取得することを特徴とする。
請求項6記載の発明は、コンピュータに対する指示を入力する指示デバイスであって、オブジェクトの画像を表示するとともに、指の接触に応答して、指の接触位置に表示されているオブジェクトを指定する表示部と、前記表示部に接触している指から指紋情報を取得する指紋取得部と、前記表示部に接触している指の動きを検出する動き検出部と、指紋情報と指種別とを対応付けて記憶する記憶部と、所定のオブジェクトに関して、指種別および指の動きの組み合わせと前記所定のオブジェクトに対する操作命令とを対応付けて登録する操作命令登録部と、前記表示部に対する指の接触に応答して、指の接触位置に表示されているオブジェクトおよび指の動きを特定するとともに、前記指紋取得部により取得した指紋情報から指種別を特定し、特定されたオブジェクト、指の動きおよび指種別に基づいて前記操作命令登録部において登録されている操作命令を実行する制御部と、を備えることを特徴とする。
請求項7記載の発明は、請求項1に記載の指示デバイスにおいて、前記操作命令登録部には、複数種類の指および指の動きの組み合わせに対して、それぞれ前記所定のオブジェクトに対する異なる操作命令が対応付けて登録されることを特徴とする。
請求項8記載の発明は、請求項6に記載の指示デバイスにおいて、第1の指による第1の方向の動きに対して、特定されているオブジェクトの拡大表示の操作が対応付けられ、前記第1の指による第2の方向の動きに対して、特定されているオブジェクトの縮小表示の操作が対応付けられていることを特徴とする。
請求項9記載の発明は、請求項6に記載の指示デバイスにおいて、特定されているオブジェクトは、指定範囲幅が可変なスライダを移動軸上で移動させることにより検索範囲を指定する検索範囲指定オブジェクトであり、第1の指による前記移動軸上の動きに対して、前記スライダの前記移動軸上の移動操作が対応付けられ、第2の指による前記移動軸上の動きに対して、前記スライダにより指定される指定範囲幅の変更操作が対応づけられていることを特徴とする。
請求項10記載の発明は、請求項6または請求項7に記載の指示デバイスにおいて、前記指紋取得部は、前記表示部に接触している複数種類の指から複数の指紋情報を取得することを特徴とする。
請求項11記載の発明は、コンピュータに対する指示を入力する指示デバイスであって、動き検出エリアに対する指の接触に応答して、指の動きを検出する動き検出部と、前記動き検出部に接触している指から指紋情報を取得する指紋取得部と、指紋情報と指種別とを対応付けて記憶する記憶部と、指種別および指の動きの組み合わせと操作命令とを対応付けて登録する操作命令登録部と、前記動き検出部に対する指の接触に応答して、指の動きを検出するとともに前記指紋取得部により取得した指紋情報から指種別を特定し、検出された指の動きおよび特定された指種別に基づいて前記操作命令登録部において登録されている操作命令を実行する制御部と、を備えることを特徴とする。
請求項12記載の発明は、請求項11に記載の指示デバイスにおいて、前記動き検出部が、画像表示部のエリア内に設けられていることを特徴とする。
請求項13記載の発明は、請求項11または請求項12に記載の指示デバイスにおいて、前記操作命令登録部には、複数種類の指および指の動きの組み合わせに対して、それぞれ異なる操作命令が対応付けて登録されることを特徴とする。
請求項14記載の発明は、請求項11に記載の指示デバイスにおいて、前記指示デバイスがゲームのコントローラとして用いられ、前記ゲームは、乗り物を操作するゲームであって、画像表示部に操作者の視点の映像が表示されており、第1の指による前記動き検出エリア内での動きが、前記乗り物に対する移動方向の指定操作に対応していることを特徴とする。
請求項15記載の発明は、請求項14に記載の指示デバイスにおいて、第2の指による第1の方向への動きが、前記乗り物の加速操作に対応し、前記第2の指による第2の方向への動きが、前記乗り物の減速操作に対応していることを特徴とする。
請求項16記載の発明は、請求項11に記載の指示デバイスにおいて、前記指示デバイスが、画像の色成分を調整するデバイスとして利用され、第1の指による第1の方向への動きが前記画像の第1の色成分を増加させる操作に対応し、前記第1の指による第2の方向への動きが前記画像の前記第1の色成分を減少させる操作に対応していることを特徴とする。
請求項17記載の発明は、請求項11に記載の指示デバイスにおいて、第1の指による第1の方向への動きが、第1の部屋の電灯のON操作に対応し、前記第1の指による第2の方向への動きが、前記第1の部屋の電灯のOFF操作に対応していることを特徴とする。
請求項18記載の発明は、請求項11ないし請求項13のいずれかに記載の指示デバイスにおいて、前記指紋取得部は、前記表示部に接触している複数種類の指から複数の指紋情報を取得することを特徴とする。
請求項19記載の発明は、タッチパネル式ディスプレイに接触した指から取得された指紋情報を入力する指紋情報入力部と、記憶部に登録されている指紋情報と、前記指紋情報入力部が入力した指紋情報とを比較する比較部と、を備えることを特徴とする。
本発明の指示デバイスは、指の接触位置から特定されたオブジェクトおよび指紋情報から特定された指種別に基づいて、登録されている操作命令を実行する。これにより、ディスプレイ上のオブジェクトに指を触れることで、オブジェクトに対して、登録された様々な操作を実行することができる。
ディスプレイに指を触れるだけで操作できるので、モバイルコンピュータなどに適用することで、非常に利便性のよい指示デバイスとなる。
オブジェクトごと、指ごとに操作命令を対応付けるので、指を利用して、多様な操作命令を指示することが可能である。
また、本発明の指示デバイスは、指の接触位置から特定されたオブジェクト、検出された指の動きおよび特定された指種別に基づいて、登録されている操作命令を実行する。指の動きも加味することで、オブジェクトに対して、さらに多くの操作を対応付けて実行することができる。
また、本発明の指示デバイスは、検出された指の動きおよび特定された指種別に基づいて、登録されている操作命令を実行する。指の種別と動きを組み合わせることで、指だけを利用して様々な種類の操作を指定することが可能である。
{1.モバイルコンピュータの構成}
以下、図面を参照しつつ本発明の実施の形態について説明する。図1は、本実施の形態に係るモバイルコンピュータ1の外観図である。モバイルコンピュータ1は、本体部10と、本体部10に対して開閉可能な回動部20とを備えている。本体部10の上面には、キーボード11が配置され、回動部20には、タッチパネル式ディスプレイ21が配置されている。
以下、図面を参照しつつ本発明の実施の形態について説明する。図1は、本実施の形態に係るモバイルコンピュータ1の外観図である。モバイルコンピュータ1は、本体部10と、本体部10に対して開閉可能な回動部20とを備えている。本体部10の上面には、キーボード11が配置され、回動部20には、タッチパネル式ディスプレイ21が配置されている。
モバイルコンピュータ1は、回動部20を閉じた状態では、たとえば厚さ1〜3cm程度の薄型のコンピュータであり、持ち運びに適している。そして、ユーザは、タッチパネル式ディスプレイ21を利用して操作指示を行うことが可能であり、電車の中や外出先で、モバイルコンピュータ1を利用することができる。
図2は、モバイルコンピュータ1のブロック図である。このモバイルコンピュータ1は、上述したように、タッチパネル式ディスプレイ21を備えており、タッチパネル式ディスプレイ21に表示されたオブジェクトの画像を指で触れることで、オブジェクトに対する指示操作を行うことができる。
さらに、このモバイルコンピュータ1は、指紋撮像部102を備えており、タッチパネル式ディスプレイ21の全面に亘って、ディスプレイに接触している指の指紋を撮像可能である。たとえば、指紋撮像部102は、タッチパネル式ディスプレイ21の裏面側に配置され、タッチパネル式ディスプレイ21に接触する指を撮像可能なCCDで構成される。つまり、撮像素子がタッチパネル式ディスプレイ21の裏面側の全面に亘って配列されることで、ディスプレイ上のどの位置においても、接触している指の指紋を撮像可能としている。さらに、この指紋撮像部102は、複数の指が同時にタッチパネル式ディスプレイ21に触れている場合には、複数の指の指紋を同時に撮像可能としている。
モバイルコンピュータ1は、CPU、RAMなどで構成される制御部101を備える。制御部101は、モバイルコンピュータ1の全体制御を行う中枢部である。モバイルコンピュータ1は、他にも比較部103、指紋情報記憶部104、操作命令登録部105を備える。
{2.指の種別と操作命令との対応}
比較部103は、指紋撮像部102が撮像した指紋画像を入力する。比較部103は、この指紋画像を、そのまま指紋情報として利用してもよいし、指紋画像から抽出された数値情報や特徴情報などの加工情報を指紋情報として利用してもよい。また、比較部103は、指紋撮像部102から入力した指紋情報と、指紋情報記憶部104に登録されている指紋情報とを比較する。
比較部103は、指紋撮像部102が撮像した指紋画像を入力する。比較部103は、この指紋画像を、そのまま指紋情報として利用してもよいし、指紋画像から抽出された数値情報や特徴情報などの加工情報を指紋情報として利用してもよい。また、比較部103は、指紋撮像部102から入力した指紋情報と、指紋情報記憶部104に登録されている指紋情報とを比較する。
指紋情報記憶部104には、指紋情報と指種別とが対応して記憶されている。図3は、指紋情報記憶部104の登録内容の例を示している。この例では、指紋情報記憶部104には、人差し指、中指、薬指、それぞれの指紋情報が記憶されている。指紋情報としては、上述したように、指紋画像がそのまま指紋情報として登録されていてもよいし、指紋画像から抽出された数値情報や特徴情報などの加工情報が指紋情報として登録されていてもよい。
比較部103は、指紋撮像部102から入力した指紋情報と、指紋情報記憶部104に登録されている指紋情報とを比較することで、タッチパネル式ディスプレイ21に接触している指の種別を特定することができる。たとえば、タッチパネル式ディスプレイ21に接触しているのが人差し指であることや、中指であることを特定する。
このように、比較部103は、タッチパネル式ディスプレイ21に接触した指から取得された指紋情報を入力し、入力した指紋情報と、指紋情報記憶部104に登録されている指紋情報とを比較する機能部であり、本実施の形態においては、比較部103が、半導体集積回路(半導体LSI)として構成されている。
操作命令登録部105は、図4に示す操作命令データベース105Aと、図5に示す操作命令データベース105Bと、図6に示す操作命令データベース105Cと、を登録している。これら操作命令データベース105A,105B,105Cは、指の種別などと操作命令とを対応付けたデータベースである。
図4に示す操作命令データベース105Aでは、所定のオブジェクトに関して、指の種別に操作命令が対応付けられている。たとえば、オブジェクトJ1に対して人差し指が触れられたときは、コマンドC1が実行され、オブジェクトJ1に対して中指が触れられたときは、コマンドC2が実行されるという対応が登録されている。
図5に示す操作命令データベース105Bでは、所定のオブジェクトに関して、指の種別と指の動きとの組み合わせに操作命令が対応付けられている。たとえば、オブジェクトJ101に対して人差し指が触れられ、人差し指が上下方向に動いたときは、コマンドC101が実行され、オブジェクトJ101に対して中指が触れられ、中指が上下方向に動いたときは、コマンドC102が実行されるという対応が登録されている。
図6に示す操作命令データベース105Cでは、指の種別と指の動きとの組み合わせに操作命令が対応付けられている。たとえば、人差し指が上下方向に動いたときは、コマンドC501が実行され、中指が上下方向に動いたときは、コマンドC502が実行されるという対応が登録されている。操作命令データベース105Cで登録されている操作命令は、特定のオブジェクトに対応付けられているわけではなく、例えば、現在実行中のアプリケーションなどに適用される操作命令である。したがって、アプリケーションごとに、個別の操作命令データベース105Cが利用されることになる。
{3.設定登録作業}
上述したように、指紋情報記憶部104には、モバイルコンピュータ1を利用するユーザの指紋情報が登録されている。たとえば、ユーザの人差し指、中指、薬指の3指の指紋情報が登録されている。この指紋情報記憶部104に対する指紋情報の登録は、モバイルコンピュータ1の利用形態によって以下の2種類の設定が考えられる。1つは、モバイルコンピュータ1が、個人用として利用される場合の設定であり、パーソナライズ設定と呼ぶことにする。もう1つは、モバイルコンピュータ1が複数のユーザで利用される場合の設定であり、パブリック設定と呼ぶことにする。
上述したように、指紋情報記憶部104には、モバイルコンピュータ1を利用するユーザの指紋情報が登録されている。たとえば、ユーザの人差し指、中指、薬指の3指の指紋情報が登録されている。この指紋情報記憶部104に対する指紋情報の登録は、モバイルコンピュータ1の利用形態によって以下の2種類の設定が考えられる。1つは、モバイルコンピュータ1が、個人用として利用される場合の設定であり、パーソナライズ設定と呼ぶことにする。もう1つは、モバイルコンピュータ1が複数のユーザで利用される場合の設定であり、パブリック設定と呼ぶことにする。
<3−1.パーソナライズ設定>
まず、パーソナライズ設定について説明する。この設定は、たとえば、モバイルコンピュータ1を購入した後、最初の使用時などに行われる設定である。
まず、パーソナライズ設定について説明する。この設定は、たとえば、モバイルコンピュータ1を購入した後、最初の使用時などに行われる設定である。
図7(A)は、パーソナライズ設定の設定画面を示す図である。タッチパネル式ディスプレイ21には、「人差し指を触れて下さい。」といったメッセージが表示されている。そして、ユーザは、図7(B)に示すように、人差し指をタッチパネル式ディスプレイ21に接触させるのである。これにより、指紋撮像部102において人差し指の指紋が撮像され、人差し指の指紋情報が指紋情報記憶部104に登録される。そして、中指や、薬指に対しても同様の操作を繰り返すことで、指紋情報記憶部104に、各指の指紋情報が登録されるのである。
ユーザは、パーソナライズ設定を一度行えばよい。今後、このユーザは、モバイルコンピュータ1を利用する場合には、最初に登録された指紋情報を利用して操作指示を行うことが可能である。逆に言えば、パーソナライズ設定が行われることにより、他のユーザは、指紋情報を利用して、このモバイルコンピュータ1を利用することができない。この意味で、モバイルコンピュータ1のセキュリティを高める役割も果たしている。
ユーザは、指紋情報を登録した後、各オブジェクトに関して、指の種別に対応した操作命令を登録することが可能となる。たとえば、図4、図5、図6で示したような操作命令の対応を登録する。指の種別と操作命令との対応は、ユーザが、自由に設定できるようになっているが、デフォルトの設定も用意されている。ユーザは、デフォルト設定をそのまま利用する場合には、指紋情報を登録するだけでよい。たとえば、図4、図5、図6で示したデータベース105A,105B,105Cの内容がデフォルト設定として用意されているのであれば、ユーザは、各指の指紋情報を登録するだけで、これらの対応関係を利用した操作インタフェースを利用することができる。
<3−2.パブリック設定>
次に、パブリック設定について説明する。この設定は、モバイルコンピュータ1を利用するユーザが複数人いる場合に行われる設定である。パブリック設定は、各ユーザがモバイルコンピュータ1を使用するときに、一時的に設定される。
次に、パブリック設定について説明する。この設定は、モバイルコンピュータ1を利用するユーザが複数人いる場合に行われる設定である。パブリック設定は、各ユーザがモバイルコンピュータ1を使用するときに、一時的に設定される。
図8は、パブリック設定の設定画面を示す図である。タッチパネル式ディスプレイ21には、人差し指の登録エリア201、中指の登録エリア202、薬指の登録エリア203が表示されている。ユーザの人差し指が、登録エリア201に触れると、指紋撮像部102において人差し指の指紋が撮像され、人差し指の指紋情報が指紋情報記憶部104に登録される。そして、中指については登録エリア202、薬指については登録エリア203に対して登録操作を行うことで、指紋情報記憶部104に、各指の指紋情報が登録されるのである。
ユーザは、指紋情報を登録した後、各オブジェクトに関して、指の種別に対応した操作命令を登録することが可能となる。たとえば、図4、図5、図6で示したような操作命令の対応を登録する。指の種別と操作命令との対応は、ユーザが、自由に設定できるようになっているが、デフォルトの設定も用意されている。ユーザは、デフォルト設定をそのまま利用する場合には、指紋情報を登録するだけでよい。たとえば、図4、図5、図6で示したデータベース105A,105B,105Cの内容がデフォルト設定として用意されているのであれば、ユーザは、各指の指紋情報を登録するだけで、これらの対応関係を利用した操作インタフェースを利用することができる。
また、図8において、登録エリア201,202については、エリアのバックグラウンドが強調表示されている。これは、人差し指と中指については、指紋情報が登録済みであることを示している。また、薬指については、指紋情報が未登録であることを示している。
図8の状態においては、2指(人差し指および中指)が登録されている。つまり、2指により操作が可能な2指操作モードとなっている。この状態で、さらに、ユーザの薬指が登録エリア203に触れると、薬指についても指紋情報が登録され、3指操作モードとなる。
一方、図8の状態において、別のユーザの人差し指が、登録エリア201に触れたり、別のユーザの中指が登録エリア202に触れたりすると、別のユーザの指紋情報が認識されるため、一旦、指紋情報記憶部104における登録情報がクリアされる。そして、新たなユーザの指紋情報が登録されるのである。このようにして、利用するユーザごとに、指紋情報記憶部104において一時的に指紋情報の登録が行われるのである。
また、いずれの指についても指紋情報が指紋情報記憶部104に登録されていない場合には、タッチパネル式ディスプレイ21は、通常のタッチパネル式ディスプレイとして動作する。つまり、指種別の認識などは行われない。なお、登録されていない指が触れられた場合、上述したように、既に別のユーザの指紋情報が登録されていれば、既登録指紋情報を自動的に削除してもよいし、新たな指紋情報の登録を促すプロンプトを表示してもよい。さらに、登録済みのユーザや、別のユーザが利用設定を開始するために、登録済みの指紋情報を削除するためのボタンが用意されていてもよい。
{4.処理の流れ}
上述したように、パーソナライズ設定、パブリック設定、いずれかの設定モードに従って、ユーザの各指の指紋情報が指紋情報記憶部104に登録される。
上述したように、パーソナライズ設定、パブリック設定、いずれかの設定モードに従って、ユーザの各指の指紋情報が指紋情報記憶部104に登録される。
また、指種別と操作命令との対応がユーザによって決定され、操作命令データベース105A,105B,105Cに登録される。あるいは、指種別と操作命令との対応としてデフォルト設定を利用する場合には、そのデフォルト設定が操作命令データベース105A,105B,105Cに登録される。
以上の設定処理により、指認証インタフェースの使用環境が整う。次に、実際の操作の処理の流れを説明する。
ユーザは、タッチパネル式ディスプレイ21に表示されているオブジェクトの画像に指で触れる。指がタッチパネル式ディスプレイ21に触れると、指紋撮像部102が、指の指紋を撮像する。比較部103は、指紋撮像部102から指紋画像を入力する。比較部103は、この指紋画像をそのまま指紋情報として、あるいは、指紋画像から加工した情報を指紋情報として、指紋情報記憶部104に登録されている指紋情報との照合を行う。
照合の結果、ある種別の指の指紋情報と一致した場合には、比較部103は、指の種別を特定し、その特定情報を制御部101に出力する。このようにして、制御部101は、タッチパネル式ディスプレイ21に接触している指の種別を認識することができる。
また、制御部101は、タッチパネル式ディスプレイ21に接触している指の位置座標を取得する。制御部101は、取得した指の位置座標からタッチパネル式ディスプレイ21上において指が指し示しているオブジェクトを特定する。たとえば、指がファイルのアイコンを指し示しているのか、アプリケーションソフトウェアのウィンドウを指し示しているのか、といった情報を取得する。
制御部101は、指の種別とオブジェクトを特定すると、操作命令登録部105を参照し、指によって指し示されているオブジェクトに関して、特定された指の種別に対応したコマンドを取得する。そして、制御部101は、指し示されているオブジェクトに関して取得したコマンドを実行するのである。たとえば、図4の例であれば、指が中指であり、オブジェクトがオブジェクトJ2であるならば、オブジェクトJ2に関してコマンドC5を実行するのである。
また、制御部101は、タッチパネル式ディスプレイ21に接触している指の動きも検出する。制御部101は、タッチパネル式ディスプレイ21に接触している指の位置座標の変化から、指の動きを検出する。
制御部101は、指の種別、指の動き、およびオブジェクトを特定すると、操作命令登録部105を参照し、指によって指し示されているオブジェクトに関して、特定された指の種別と指の動きに対応したコマンドを取得する。そして、制御部101は、指し示されているオブジェクトに関して取得したコマンドを実行するのである。たとえば、図5の例であれば、指が人差し指であって、指の動きが上下方向であり、オブジェクトがオブジェクトJ102であるならば、オブジェクトJ102に関してコマンドC201を実行するのである。
あるいは、制御部101は、指の種別および指の動きを特定すると、操作命令登録部105を参照し、特定された指の種別と指の動きに対応したコマンドを取得する。そして、制御部101は、取得したコマンドを実行するのである。たとえば、図6の例であれば、指が人差し指であって、指の動きが上下方向であるならば、コマンドC501を実行するのである。この場合、たとえば、制御部101は、現在実行されているアプリケーションプログラムに対して取得したコマンドを実行する。
{5.操作例}
以下本発明の指示デバイスを利用したアプリケーション例について説明する。なお、アプリケーション例のうち、<5−1>〜<5−2>は、特定された指の種別とオブジェクトから、操作命令データベース105Aを利用して、操作命令を実行するアプリケーション例である。また、<5−3>〜<5−4>は、特定された指の種別と指の動きとオブジェクトから、操作命令データベース105Bを利用して、操作命令を実行するアプリケーション例である。さらに、<5−5>〜<5−7>は、特定された指の種別と指の動きから、操作命令データベース105Cを利用して、操作命令を実行するアプリケーション例である。
以下本発明の指示デバイスを利用したアプリケーション例について説明する。なお、アプリケーション例のうち、<5−1>〜<5−2>は、特定された指の種別とオブジェクトから、操作命令データベース105Aを利用して、操作命令を実行するアプリケーション例である。また、<5−3>〜<5−4>は、特定された指の種別と指の動きとオブジェクトから、操作命令データベース105Bを利用して、操作命令を実行するアプリケーション例である。さらに、<5−5>〜<5−7>は、特定された指の種別と指の動きから、操作命令データベース105Cを利用して、操作命令を実行するアプリケーション例である。
<5−1.マウスシミュレート>
まず、第1の例は、指でマウスをシミュレートするアプリケーション例である。たとえば、人差し指は、マウスの左クリック、中指は、マウスの右クリックに対応している。つまり、タッチパネル式ディスプレイ21に表示されているオブジェクトに人差し指を触れると、そのオブジェクトにマウスで左クリックしたのと同じ操作となる。また、タッチパネル式ディスプレイ21に表示されているオブジェクトに中指を触れると、そのオブジェクトにマウスで右クリックしたのと同じ操作となる。
まず、第1の例は、指でマウスをシミュレートするアプリケーション例である。たとえば、人差し指は、マウスの左クリック、中指は、マウスの右クリックに対応している。つまり、タッチパネル式ディスプレイ21に表示されているオブジェクトに人差し指を触れると、そのオブジェクトにマウスで左クリックしたのと同じ操作となる。また、タッチパネル式ディスプレイ21に表示されているオブジェクトに中指を触れると、そのオブジェクトにマウスで右クリックしたのと同じ操作となる。
このアプリケーション例を適用させる場合には、図4の操作命令データベース105Aにおいて、オブジェクトとして全てのオブジェクトが指定されることになる。そして、全てのオブジェクトに対して、指の種別が人差し指の場合には、コマンドとしてマウス左クリックが対応付けられ、指の種別が中指の場合には、コマンドとしてマウス右クリックが対応付けられることになる。
図9は、マウスシミュレートの操作例を示す図である。タッチパネル式ディスプレイ21に表示されたあるオブジェクトに中指が接触している。これにより、このオブジェクトに対してマウス右クリックされたと同じ動作が実行され、ディスプレイ上にオブジェクトに対する操作メニュー205が表示されている。
<5−2.オブジェクト範囲選択>
第2の例は、オブジェクト範囲選択操作への適用である。たとえば、タッチパネル式ディスプレイ21に表示された文字情報のうち、所望の範囲を選択する操作などに適用される。たとえば、人差し指は、範囲選択の開始位置指定、中指は、範囲選択の終了位置指定に対応している。
第2の例は、オブジェクト範囲選択操作への適用である。たとえば、タッチパネル式ディスプレイ21に表示された文字情報のうち、所望の範囲を選択する操作などに適用される。たとえば、人差し指は、範囲選択の開始位置指定、中指は、範囲選択の終了位置指定に対応している。
図10は、オブジェクト範囲選択操作の操作例を示す図である。図10(A)は、タッチパネル式ディスプレイ21にテキストデータ207が表示されている様子を示している。
ユーザは、図10(A)に示すように、人差し指をテキストデータ207の特定の位置に接触させ、選択範囲の開始位置を指定する。続いて、ユーザは、図10(B)に示すように、中指をテキストデータ207の特定の位置に接触させ、選択範囲の終了位置を指定する。これにより、図10(B)に示すように、テキストデータ207の選択範囲が強調表示されるのである。ユーザは、この後、選択範囲についてコピー操作や切り取り操作などを行うことができる。
このような範囲選択操作を行うために、操作命令データベース105Aにおいては、テキストオブジェクトがオブジェクトとして登録され、そのオブジェクトに対して、人差し指、中指に対応したコマンドが登録されるのである。ここでは、テキストの選択範囲を例に説明したが、他にもたとえば、ウィンドウ内に配置された複数のアイコンをまとめて指定する操作などにも適用できる。
上述したように、指紋撮像部102は、タッチパネル式ディスプレイ21に接触している複数の指の指紋を同時に撮像可能である。したがって、上記の例であれば、人差し指による開始位置の指定と、中指による終了位置の指定とを同時に行うことも可能である。
<5−3.画面フォーカス>
第3の例は、画面フォーカス操作への適用である。たとえば、タッチパネル式ディスプレイ21に表示された文章、画像などを移動させたり、拡大したり、縮小したりする操作に適用される。たとえば、人差し指は、画面のスクロール操作、中指は、拡大・縮小表示操作、薬指は、オプション操作に対応している。
第3の例は、画面フォーカス操作への適用である。たとえば、タッチパネル式ディスプレイ21に表示された文章、画像などを移動させたり、拡大したり、縮小したりする操作に適用される。たとえば、人差し指は、画面のスクロール操作、中指は、拡大・縮小表示操作、薬指は、オプション操作に対応している。
図11は、画面フォーカス操作の操作例を示す図である。図11(A)は、タッチパネル式ディスプレイ21にイラストの編集画面209が表示されている。デザイナーは、必要に応じてイラストの細部を詳細に確認したり、イラストの全体を見て全体イメージをつかんだりする必要がある。
まず、デザイナーは、図11(A)に示すように、編集画面209の中の特定の場所を人差し指で触れて、人差し指を上下方向や左右方向に移動させ、画面をスクロールさせる。続いて、デザイナーは、編集画面209の特定の場所に中指を触れて、中指を上方向に移動させることで拡大操作を行う。これにより、図11(B)に示すように、編集画面209内に表示されるイラストが、中指で触れられている位置を中心に拡大され、イラストの細部を確認可能となる。
あるいは、図11(A)の状態の後、デザイナーは、編集画面209に中指を触れて、中指を下方向に移動させることで縮小操作を行う。これにより、図11(C)に示すように、編集画面209内に表示されるイラストが、中指で触れられている位置を中心に縮小され、イラストの全体イメージが確認可能となる。
さらに、デザイナーは、編集画面209の特定の場所を薬指で触れることにより、その場所のプロパティなどを表示させることができる。ここでは、イラストの編集画面209を例に説明したが、たとえば、地図をスクロールおよび拡大・表示させるアプリケーションに適用するのであれば、薬指で地図上の店などを触れることで、店の情報が表示されるといった利用方法が考えられる。
このようなスクロール、拡大縮小操作等を行うために、操作命令データベース105Bにおいては、編集画面209がオブジェクトとして登録され、そのオブジェクトに対して、人差し指、中指、薬指および各指の動きに対応したコマンドが登録されるのである。なお、上記の例では、薬指については、特に動きは指定されていない。つまり、指の種別に対してコマンドが登録されている。
<5−4.スライダコントロール>
第4の例は、スライダコントロール操作への適用である。たとえば、タッチパネル式ディスプレイ21に表示された検索画面において、検索条件を指定する操作などに適用される。たとえば、人差し指の移動操作は、スライダの移動操作、中指の移動操作は、スライダの指定範囲の変更操作に対応している。
第4の例は、スライダコントロール操作への適用である。たとえば、タッチパネル式ディスプレイ21に表示された検索画面において、検索条件を指定する操作などに適用される。たとえば、人差し指の移動操作は、スライダの移動操作、中指の移動操作は、スライダの指定範囲の変更操作に対応している。
図12、図13は、スライダコントロール操作の操作例を示す図である。図12、図13は、タッチパネル式ディスプレイ21に検索範囲指定ツール210が表示されている様子を示している。検索範囲指定ツール210は、スライダ211を備えており、スライダ211の位置を上下に動かすことで、検索で指定する範囲をシフトさせ、スライダ211の幅を変更することで、検索で指定する範囲の幅を変更させることが可能である。
図12(A)に示すように、検索範囲指定ツール210は、最初、3000円から4000円の幅を指定している。3000円から4000円の幅は、スライダ211の上下方向の幅で表現されている。たとえば、この検索範囲により3000円から4000円の範囲の商品を検索するといった商品検索アプリケーションなどに用いられる。
ユーザは、図12(A)に示すように、人差し指をスライダ211に接触させ、人差し指をディスプレイの上方向に移動させる。これにより、図12(B)に示すように、スライダ211が上方向に移動し、検索範囲が4000円から5000円にシフトするのである。もし、ユーザが、人差し指をスライダ211に接触させて、人差し指をディスプレイの下方向に移動させれば、それに対応して、スライダ211が下方向に移動する。
これに対して、ユーザは、図13(A)に示すように、中指をスライダ211に接触させ、中指を上方向に移動させる。これにより、図13(B)に示すように、スライダ211の幅が拡大し、検索範囲が2000円から6000円に変更するのである。もし、ユーザが、中指をスライダ211に接触させて、中指をディスプレイの下方向に移動させれば、それに対応して、スライダ211の幅が狭くなり、検索範囲も狭くなる。
このような操作を行うために、操作命令データベース105Bにおいては、スライダ211がオブジェクトとして登録され、そのオブジェクトに対して、人差し指、中指およびその動きに対応したコマンドが登録されるのである。
上述したように、指紋撮像部102は、タッチパネル式ディスプレイ21に接触している複数の指の指紋を同時に撮像可能である。したがって、上記の例であれば、たとえば、人差し指と中指とを同時にスライダ211に触れて、上方向に移動させることで、スライダ211をシフトさせながら、同時に指定範囲を広げることが可能である。
<5−5.ゲームコントローラ>
第5の例は、指でゲームコントローラをシミュレートするアプリケーション例である。たとえば、人差し指は、ゲームコントローラの十字カーソル、中指は、ゲームコントローラのAボタン、薬指はゲームコントローラのBボタンに対応している。
第5の例は、指でゲームコントローラをシミュレートするアプリケーション例である。たとえば、人差し指は、ゲームコントローラの十字カーソル、中指は、ゲームコントローラのAボタン、薬指はゲームコントローラのBボタンに対応している。
図14は、ゲームコントローラの操作例を示す図である。ここでは、飛行機や車などの乗り物を操縦するゲームを例に説明する。タッチパネル式ディスプレイ21には、乗り物の操縦者の視点の映像が表示されている。タッチパネル式ディスプレイ21上の任意の位置においてユーザの人差し指が触れられ、人差し指が、上下方向や左右方向あるいは斜め方向に移動すると、その方向が乗り物の移動方向となる。
さらに、人差し指をタッチパネル式ディスプレイ21に接触させて飛行機、車などの進行方向を指定しつつ、中指あるいは薬指をタッチパネル式ディスプレイ21に接触させると、AボタンあるいはBボタンに対応した操作命令が実行される。
たとえば、Aボタンが加速・減速ボタンであれば、中指がディスプレイに接触し、上方向に移動すれば、乗り物が加速し、中指がディスプレイに接触し、下方向に移動すれば、乗り物が減速する。また、Bボタンがミサイル発射ボタンであれば、薬指がディスプレイに接触すると、移動物体からミサイルが発射されるのである。
このようなゲームコントローラをシミュレートするために、操作命令データベース105Cにおいては、人差し指、中指、薬指およびその動きに対応したコマンドが登録されるのである。なお、上記の例では、薬指については、特に動きが指定されていない。つまり、指の種別に対してコマンドが登録されている。
上記の例であれば、人差し指の動きで方位を指定しつつ、中指の動きで加速・減速を指定した。このように、操作命令データベース105Cにおいて、人差し指の動きに対して方位指定、中指の動きに対して加速・減速、といった個別の登録を行うようにしてもよいが、複数の指の組に対して操作を対応付けるようにしてもよい。上述したように、指紋撮像部102は、タッチパネル式ディスプレイ21に接触している複数の指の指紋を同時に撮像可能である。したがって、認識した複数の指と操作命令とを対応付けることも可能である。上記の例であれば、たとえば、人差し指と中指が同時に接触した場合に、人差し指の動きで指定された方向に加速移動するという操作命令を対応付けてもよい。そして、人差し指と薬指が同時に接触した場合に、人差し指の動きで指定された方向に減速移動するという操作命令を対応付けてもよい。
<5−6.カラーエレメントの調整>
第6の例は、カラーエレメント調整操作への適用である。たとえば、タッチパネル式ディスプレイ21に表示されたイラストの編集アプリケーションにおいて、カラーエレメントを調整する操作に適用される。たとえば、人差し指は、R(赤色)成分の調整操作、中指は、G(緑色)成分の調整操作、薬指は、B(青色)成分の調整操作に対応付けられる。
第6の例は、カラーエレメント調整操作への適用である。たとえば、タッチパネル式ディスプレイ21に表示されたイラストの編集アプリケーションにおいて、カラーエレメントを調整する操作に適用される。たとえば、人差し指は、R(赤色)成分の調整操作、中指は、G(緑色)成分の調整操作、薬指は、B(青色)成分の調整操作に対応付けられる。
このアプリケーション適用例も、指の種別と指の動きの組み合わせに対して操作命令が対応付けられている。たとえば、人差し指が、上方向に移動すれば、編集対象となっている画像のR成分を増加させ、下方向に移動すれば、R成分を減少させる。中指が、上方向に移動すれば、G成分を増加させ、下方向に移動すれば、G成分を減少させる。薬指が、上方向に移動すれば、B成分を増加させ、下方向に移動すれば、B成分を減少させる。
また、このアプリケーション適用例でも、指の触れた位置においてオブジェクトを特定するものではない。制御部101は、上述したように、現在アクティブとなっているアプリケーションに対して指の動きで指定された操作命令を実行する。したがって、図15に示すように、ディスプレイ上の動き検出エリア213において、ユーザはRGBのカラーエレメントの調整操作を行う。ユーザが動き検出エリア213においてRGBの調整操作を行うと、タッチパネル式ディスプレイ21に表示されているイラストの編集ウィンドウ220内に表示されるカラーパレット221に調整操作が反映されるのである。
このようなカラーエレメントの調整操作を行うために、操作命令データベース105Cにおいては、人差し指、中指、薬指と、それらの指の動きの組み合わせに対応したコマンドが登録されるのである。
このように、本アプリケーション例では、動き検出エリア213をディスプレイの一部としたが、もちろん、<5−5.ゲームコントローラ>と同様、ディスプレイ上の全域で動き検出を行っても良い。ただし、動き検出エリアを一部の領域に特定した場合、指紋撮像エリアもその一部領域だけに限定することができる。つまり、ディスプレイの全域を指紋撮像エリアにする必要がないため、撮像装置として小さい装置が利用できるという点でメリットがある。たとえば、ノートパソコンで採用されているタッチパッドに指紋撮像機能を設けることで、このアプリケーション例に対応することも可能である。
<5−7.電灯スイッチ>
第7の例は、電灯スイッチへの適用である。この適用例では、指示デバイスが搭載されるのは、モバイルコンピュータではなく、図16に示すように、家屋の壁面240に取り付けられる電灯スイッチユニット230である。電灯スイッチユニット230の機能構成は、図1で示したモバイルコンピュータ1と同様であるが、電灯スイッチユニット230は、図に示すように、家屋の壁面240に取り付けられ、タッチパネル式ディスプレイ21がユニットの前面全体を略覆っている。
第7の例は、電灯スイッチへの適用である。この適用例では、指示デバイスが搭載されるのは、モバイルコンピュータではなく、図16に示すように、家屋の壁面240に取り付けられる電灯スイッチユニット230である。電灯スイッチユニット230の機能構成は、図1で示したモバイルコンピュータ1と同様であるが、電灯スイッチユニット230は、図に示すように、家屋の壁面240に取り付けられ、タッチパネル式ディスプレイ21がユニットの前面全体を略覆っている。
この電灯スイッチユニット230において、たとえば、人差し指の動きは、リビングの電灯のON/OFF操作、中指の動きは、寝室の電灯のON/OFF操作に対応付けられる。
このアプリケーション適用例も、指の種別と指の動きの組み合わせに対して操作命令が対応付けられている。たとえば、人差し指が、上方向に移動すれば、リビングの電灯がONとなり、下方向に移動すれば、リビングの電灯がOFFとなる。中指が、上方向に移動すれば、寝室の電灯がONとなり、下方向に移動すれば、寝室の電灯がOFFとなる。
このような電灯スイッチのON/OFF操作を行うために、操作命令データベース105Cにおいては、人差し指、中指と、それらの指の動きの組み合わせに対応したコマンドが登録されるのである。
このような電灯スイッチを利用するために、指紋情報記憶部104には、たとえば、家族全員の指紋情報を登録できるようにしておけばよい。このようにしておけば、たとえば、夜間の留守中に不正な侵入者があった場合でも、電灯のON/OFF操作ができないため、セキュリティの向上を図ることもできる。
1 モバイルコンピュータ
21 タッチパネル式ディスプレイ
101 制御部
102 指紋撮像部
103 比較部
104 指紋情報記憶部
105 操作命令登録部
21 タッチパネル式ディスプレイ
101 制御部
102 指紋撮像部
103 比較部
104 指紋情報記憶部
105 操作命令登録部
Claims (19)
- コンピュータに対する指示を入力する指示デバイスであって、
オブジェクトの画像を表示するとともに、指の接触に応答して、指の接触位置に表示されているオブジェクトを指定する表示部と、
前記表示部に接触している指から指紋情報を取得する指紋取得部と、
指紋情報と指種別とを対応付けて記憶する記憶部と、
所定のオブジェクトに関して、指種別と前記所定のオブジェクトに対する操作命令とを対応付けて登録する操作命令登録部と、
前記表示部に対する指の接触に応答して、指の接触位置に表示されているオブジェクトを特定するとともに前記指紋取得部により取得した指紋情報から指種別を特定し、特定されたオブジェクトおよび指種別に基づいて前記操作命令登録部において登録されている操作命令を実行する制御部と、
を備えることを特徴とする指示デバイス。 - 請求項1に記載の指示デバイスにおいて、
前記操作命令登録部には、複数種類の指に対して、それぞれ前記所定のオブジェクトに対する異なる操作命令が対応付けて登録されることを特徴とする指示デバイス。 - 請求項2に記載の指示デバイスにおいて、
第1の指に対してマウスの左クリック操作が対応付けられ、第2の指に対してマウスの右クリック操作が対応付けられていることを特徴とする指示デバイス。 - 請求項2に記載の指示デバイスにおいて、
第1の指に対して範囲選択の開始位置の指定操作が対応付けられ、第2の指に対して範囲選択の終了位置の指定操作が対応付けられていることを特徴とする指示デバイス。 - 請求項1または請求項2に記載の指示デバイスにおいて、
前記指紋取得部は、前記表示部に接触している複数種類の指から複数の指紋情報を取得することを特徴とする指示デバイス。 - コンピュータに対する指示を入力する指示デバイスであって、
オブジェクトの画像を表示するとともに、指の接触に応答して、指の接触位置に表示されているオブジェクトを指定する表示部と、
前記表示部に接触している指から指紋情報を取得する指紋取得部と、
前記表示部に接触している指の動きを検出する動き検出部と、
指紋情報と指種別とを対応付けて記憶する記憶部と、
所定のオブジェクトに関して、指種別および指の動きの組み合わせと前記所定のオブジェクトに対する操作命令とを対応付けて登録する操作命令登録部と、
前記表示部に対する指の接触に応答して、指の接触位置に表示されているオブジェクトおよび指の動きを特定するとともに、前記指紋取得部により取得した指紋情報から指種別を特定し、特定されたオブジェクト、指の動きおよび指種別に基づいて前記操作命令登録部において登録されている操作命令を実行する制御部と、
を備えることを特徴とする指示デバイス。 - 請求項1に記載の指示デバイスにおいて、
前記操作命令登録部には、複数種類の指および指の動きの組み合わせに対して、それぞれ前記所定のオブジェクトに対する異なる操作命令が対応付けて登録されることを特徴とする指示デバイス。 - 請求項6に記載の指示デバイスにおいて、
第1の指による第1の方向の動きに対して、特定されているオブジェクトの拡大表示の操作が対応付けられ、前記第1の指による第2の方向の動きに対して、特定されているオブジェクトの縮小表示の操作が対応付けられていることを特徴とする指示デバイス。 - 請求項6に記載の指示デバイスにおいて、
特定されているオブジェクトは、指定範囲幅が可変なスライダを移動軸上で移動させることにより検索範囲を指定する検索範囲指定オブジェクトであり、
第1の指による前記移動軸上の動きに対して、前記スライダの前記移動軸上の移動操作が対応付けられ、第2の指による前記移動軸上の動きに対して、前記スライダにより指定される指定範囲幅の変更操作が対応づけられていることを特徴とする指示デバイス。 - 請求項6または請求項7に記載の指示デバイスにおいて、
前記指紋取得部は、前記表示部に接触している複数種類の指から複数の指紋情報を取得することを特徴とする指示デバイス。 - コンピュータに対する指示を入力する指示デバイスであって、
動き検出エリアに対する指の接触に応答して、指の動きを検出する動き検出部と、
前記動き検出部に接触している指から指紋情報を取得する指紋取得部と、
指紋情報と指種別とを対応付けて記憶する記憶部と、
指種別および指の動きの組み合わせと操作命令とを対応付けて登録する操作命令登録部と、
前記動き検出部に対する指の接触に応答して、指の動きを検出するとともに前記指紋取得部により取得した指紋情報から指種別を特定し、検出された指の動きおよび特定された指種別に基づいて前記操作命令登録部において登録されている操作命令を実行する制御部と、
を備えることを特徴とする指示デバイス。 - 請求項11に記載の指示デバイスにおいて、
前記動き検出部が、画像表示部のエリア内に設けられていることを特徴とする指示デバイス。 - 請求項11または請求項12に記載の指示デバイスにおいて、
前記操作命令登録部には、複数種類の指および指の動きの組み合わせに対して、それぞれ異なる操作命令が対応付けて登録されることを特徴とする指示デバイス。 - 請求項11に記載の指示デバイスにおいて、
前記指示デバイスがゲームのコントローラとして用いられ、前記ゲームは、乗り物を操作するゲームであって、画像表示部に操作者の視点の映像が表示されており、
第1の指による前記動き検出エリア内での動きが、前記乗り物に対する移動方向の指定操作に対応していることを特徴とする指示デバイス。 - 請求項14に記載の指示デバイスにおいて、
第2の指による第1の方向への動きが、前記乗り物の加速操作に対応し、前記第2の指による第2の方向への動きが、前記乗り物の減速操作に対応していることを特徴とする指示デバイス。 - 請求項11に記載の指示デバイスにおいて、
前記指示デバイスが、画像の色成分を調整するデバイスとして利用され、
第1の指による第1の方向への動きが前記画像の第1の色成分を増加させる操作に対応し、前記第1の指による第2の方向への動きが前記画像の前記第1の色成分を減少させる操作に対応していることを特徴とする指示デバイス。 - 請求項11に記載の指示デバイスにおいて、
第1の指による第1の方向への動きが、第1の部屋の電灯のON操作に対応し、前記第1の指による第2の方向への動きが、前記第1の部屋の電灯のOFF操作に対応していることを特徴とする指示デバイス。 - 請求項11ないし請求項13のいずれかに記載の指示デバイスにおいて、
前記指紋取得部は、前記表示部に接触している複数種類の指から複数の指紋情報を取得することを特徴とする指示デバイス。 - タッチパネル式ディスプレイに接触した指から取得された指紋情報を入力する指紋情報入力部と、
記憶部に登録されている指紋情報と、前記指紋情報入力部が入力した指紋情報とを比較する比較部と、
を備えることを特徴とする指紋認証半導体回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007318170A JP2009140390A (ja) | 2007-12-10 | 2007-12-10 | 指示デバイスおよび指紋認証半導体回路 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007318170A JP2009140390A (ja) | 2007-12-10 | 2007-12-10 | 指示デバイスおよび指紋認証半導体回路 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009140390A true JP2009140390A (ja) | 2009-06-25 |
Family
ID=40870901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007318170A Withdrawn JP2009140390A (ja) | 2007-12-10 | 2007-12-10 | 指示デバイスおよび指紋認証半導体回路 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009140390A (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011180843A (ja) * | 2010-03-01 | 2011-09-15 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
KR20110101683A (ko) * | 2010-03-09 | 2011-09-16 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
KR20110123138A (ko) * | 2010-05-06 | 2011-11-14 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
JP2011257942A (ja) * | 2010-06-08 | 2011-12-22 | Panasonic Corp | 手書き入力装置、手書き入力処理方法及びプログラム |
WO2012042726A1 (ja) * | 2010-09-28 | 2012-04-05 | Necエンジニアリング株式会社 | 画像読取装置、画像読取方法 |
WO2012102000A1 (ja) * | 2011-01-27 | 2012-08-02 | Necエンジニアリング株式会社 | 画像読取装置 |
KR101191617B1 (ko) | 2011-08-31 | 2012-10-17 | 주식회사 슈프리마 | 지문인식장치 및 지문인식장치의 적응 캡쳐 가능영역 탐지방법 |
JP2012208860A (ja) * | 2011-03-30 | 2012-10-25 | Toshiba Tec Corp | 情報処理装置およびプログラム |
JP2013175018A (ja) * | 2012-02-24 | 2013-09-05 | Kddi Corp | 表示装置、表示方法およびプログラム |
JP2015215793A (ja) * | 2014-05-12 | 2015-12-03 | 株式会社名機製作所 | 成形機 |
JP2016024580A (ja) * | 2014-07-18 | 2016-02-08 | 富士通株式会社 | 情報処理装置、入力制御方法、および入力制御プログラム |
CN105678147A (zh) * | 2016-01-05 | 2016-06-15 | 网易(杭州)网络有限公司 | 触控操作的方法和装置 |
JP2016517553A (ja) * | 2013-03-01 | 2016-06-16 | ペイパル インコーポレイテッド | ユーザに関連付けられた生体認証モデルに基づく、ユーザの認証システムおよび認証方法 |
JP2020115298A (ja) * | 2019-01-18 | 2020-07-30 | 三菱電機株式会社 | 表示制御装置、情報表示システム、表示制御方法及びプログラム |
JP7457439B2 (ja) | 2020-03-18 | 2024-03-28 | Fcnt合同会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP7471116B2 (ja) | 2020-03-18 | 2024-04-19 | Fcnt合同会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
-
2007
- 2007-12-10 JP JP2007318170A patent/JP2009140390A/ja not_active Withdrawn
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011180843A (ja) * | 2010-03-01 | 2011-09-15 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
KR20110101683A (ko) * | 2010-03-09 | 2011-09-16 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
KR101657549B1 (ko) * | 2010-03-09 | 2016-09-20 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
KR20110123138A (ko) * | 2010-05-06 | 2011-11-14 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
KR101678812B1 (ko) * | 2010-05-06 | 2016-11-23 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
JP2011257942A (ja) * | 2010-06-08 | 2011-12-22 | Panasonic Corp | 手書き入力装置、手書き入力処理方法及びプログラム |
US8854702B2 (en) | 2010-09-28 | 2014-10-07 | Nec Engineering, Ltd. | Image reading apparatus and image reading method |
WO2012042726A1 (ja) * | 2010-09-28 | 2012-04-05 | Necエンジニアリング株式会社 | 画像読取装置、画像読取方法 |
JP2012073704A (ja) * | 2010-09-28 | 2012-04-12 | Nec Engineering Ltd | 画像読取装置 |
KR101517421B1 (ko) * | 2010-09-28 | 2015-05-04 | 엔이씨 엔지니어링 가부시키가이샤 | 화상 판독 장치, 화상 판독 방법 |
WO2012102000A1 (ja) * | 2011-01-27 | 2012-08-02 | Necエンジニアリング株式会社 | 画像読取装置 |
JP2012208860A (ja) * | 2011-03-30 | 2012-10-25 | Toshiba Tec Corp | 情報処理装置およびプログラム |
KR101191617B1 (ko) | 2011-08-31 | 2012-10-17 | 주식회사 슈프리마 | 지문인식장치 및 지문인식장치의 적응 캡쳐 가능영역 탐지방법 |
JP2013175018A (ja) * | 2012-02-24 | 2013-09-05 | Kddi Corp | 表示装置、表示方法およびプログラム |
US9832191B2 (en) | 2013-03-01 | 2017-11-28 | Paypal, Inc. | Systems and methods for authenticating a user based on a biometric model associated with the user |
JP2016517553A (ja) * | 2013-03-01 | 2016-06-16 | ペイパル インコーポレイテッド | ユーザに関連付けられた生体認証モデルに基づく、ユーザの認証システムおよび認証方法 |
US10666648B2 (en) | 2013-03-01 | 2020-05-26 | Paypal, Inc. | Systems and methods for authenticating a user based on a biometric model associated with the user |
US11349835B2 (en) | 2013-03-01 | 2022-05-31 | Paypal, Inc. | Systems and methods for authenticating a user based on a biometric model associated with the user |
US11863554B2 (en) | 2013-03-01 | 2024-01-02 | Paypal, Inc. | Systems and methods for authenticating a user based on a biometric model associated with the user |
JP2015215793A (ja) * | 2014-05-12 | 2015-12-03 | 株式会社名機製作所 | 成形機 |
JP2016024580A (ja) * | 2014-07-18 | 2016-02-08 | 富士通株式会社 | 情報処理装置、入力制御方法、および入力制御プログラム |
CN105678147A (zh) * | 2016-01-05 | 2016-06-15 | 网易(杭州)网络有限公司 | 触控操作的方法和装置 |
CN105678147B (zh) * | 2016-01-05 | 2020-03-20 | 网易(杭州)网络有限公司 | 触控操作的方法和装置 |
JP2020115298A (ja) * | 2019-01-18 | 2020-07-30 | 三菱電機株式会社 | 表示制御装置、情報表示システム、表示制御方法及びプログラム |
JP7213696B2 (ja) | 2019-01-18 | 2023-01-27 | 三菱電機株式会社 | 表示制御装置、情報表示システム、表示制御方法及びプログラム |
JP7457439B2 (ja) | 2020-03-18 | 2024-03-28 | Fcnt合同会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP7471116B2 (ja) | 2020-03-18 | 2024-04-19 | Fcnt合同会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009140390A (ja) | 指示デバイスおよび指紋認証半導体回路 | |
JP6857769B2 (ja) | 物理的なタッチ機能のないタッチユーザインタフェースを制御するためのデバイス、方法及びグラフィカルユーザインタフェース | |
US10928993B2 (en) | Device, method, and graphical user interface for manipulating workspace views | |
US9628423B2 (en) | Electronic sticky note system, information processing terminal, method for processing electronic sticky note, medium storing program, and data structure of electronic sticky note | |
US11567644B2 (en) | Cursor integration with a touch screen user interface | |
JP5172997B2 (ja) | 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体 | |
JP5107453B1 (ja) | 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体 | |
JP5751934B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5456529B2 (ja) | グラフィカル・ユーザ・インターフェース・オブジェクトを操作する方法及びコンピュータシステム | |
US8683390B2 (en) | Manipulation of objects on multi-touch user interface | |
Harrison et al. | Using shear as a supplemental two-dimensional input channel for rich touchscreen interaction | |
JP5659586B2 (ja) | 表示制御装置および表示制御方法、表示制御プログラム、記録媒体 | |
EP3087456B1 (en) | Remote multi-touch control | |
US9626096B2 (en) | Electronic device and display method | |
JP2008123032A (ja) | 情報入力装置 | |
WO2013011863A1 (ja) | 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体 | |
JP5173001B2 (ja) | 情報処理装置、画面表示方法、制御プログラムおよび記録媒体 | |
WO2014192125A1 (ja) | 電子機器および処理方法 | |
JP5749245B2 (ja) | 電子機器、表示方法、及び表示プログラム | |
JP5213794B2 (ja) | 情報処理装置及び情報処理方法 | |
JP2015109116A (ja) | 電子機器、表示方法、及び表示プログラム | |
TW201324275A (zh) | 提供於任意位置輸入目標手勢以執行對應控制之系統及其方法 | |
JP2014209396A (ja) | 表示制御装置および表示制御方法、表示制御プログラム、記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110301 |