JP2004259173A - Pointing device - Google Patents

Pointing device Download PDF

Info

Publication number
JP2004259173A
JP2004259173A JP2003051530A JP2003051530A JP2004259173A JP 2004259173 A JP2004259173 A JP 2004259173A JP 2003051530 A JP2003051530 A JP 2003051530A JP 2003051530 A JP2003051530 A JP 2003051530A JP 2004259173 A JP2004259173 A JP 2004259173A
Authority
JP
Japan
Prior art keywords
fingerprint
image
area
finger
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003051530A
Other languages
Japanese (ja)
Inventor
Atsushi Ueda
淳 上田
Tsukasa Ogasawara
司 小笠原
Atsutoshi Ikeda
篤俊 池田
Yuichi Kurita
雄一 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2003051530A priority Critical patent/JP2004259173A/en
Publication of JP2004259173A publication Critical patent/JP2004259173A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the size of a contact part in a pointing device including a contact part for placing a finger thereon. <P>SOLUTION: With the finger pressed to a sensor surface 12 of a fingerprint sensor 11, the finger is shifted a little from the sensor surface, and a mouse pointer is moved in the shifting direction. WIth the finger strongly pressed to the sensor surface 12 for designated time, and then the pressure of the finger is returned to perform a click command. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、操作者の操作指令を受け付け、操作指令に応じた処理をコンピュータに行わせるポインティングデバイスに関する。
【0002】
【従来の技術】
従来より、マウスに比べて設置スペースを節約することができるポインティングデバイスとして、トラックボールや、トラックパッドなどが知られている。
【0003】
トラックボールは、回転可能に配設された球体を有し、球体の角度量及び回転方向に応じて、コンピュータの表示部に表示されたマウスポインタやカーソル等を移動させるものである。しかしながら、トラックボールの小型化を図るために、球体を小型化すると、球体の回転を指で正確にコントロールすることが困難になるとともに、マウスポインタを大きく移動させるには、球体を何度も回転させなければならないため、操作性を考慮すると球体の小型化には一定の限界がある。
【0004】
また、トラックパッドは、平面状のセンサ面を有し、センサ面上でスライドされた指の移動距離に応じてマウスポインタを移動させるものである。そのため、センサ面を小さくすると指をスライドできる距離が制限されることから、センサ面を小さくするには一定の限界がある。
【0005】
そこで、物体(操作者の指)が当接される透明なプレートと、当接された指の表面の画像の動き(変化)を検出する検出手段とを備え、検出された画像の変化からプレート上の指の動きを検出し、この動きに基づいて、マウスポインタ(カーソル)を移動させるポインティングデバイスが開示されている(特許文献1)。
【0006】
【特許文献1】
特開2002−062983
【0007】
【発明が解決しようとする課題】
しかしながら、特許文献1に係るポインティングデバイスでは、画像の変化を検出させるためには、プレートに当接させた指を完全にスライドさせなければならず、プレート表面の面積を指のスライド距離を考慮して設定する必要があり、小型化には一定の限界がある。
【0008】
本発明は、上記課題を解決するためになされたものであり、操作者の指が載置される接触部を備えたポインティングデバイスにおいて、操作性を保持しつつ接触部を小型化することができるポインティングデバイスを得ることを目的とする。
【0009】
【課題を解決するための手段】
本発明に係るポインティングデバイスは、操作者の指が載置される接触部を備えたポインティングデバイスであって、操作者の指紋画像を予め登録画像として記憶する記憶手段と、前記接触部に載置された指の指紋画像を取得する取得手段と、前記登録画像と前記取得手段が取得した指紋画像とを比較することにより前記接触部上での指の動きを検出する検出手段と、前記検出手段が検出した指の動きに応じた操作指令を受け付ける受付手段とを備えることを特徴とする。
【0010】
この構成によれば、コンピュータを使用するユーザの指紋画像が登録画像として記憶手段に予め記憶されており、この登録画像と取得手段が取得した指紋画像とが比較されるため、接触部上での僅かな指の動きを検出することが可能となり、操作性を保持しつつ接触部の面積を小さくすることができる。
【0011】
また、前記検出手段は、前記接触部に載置した指を前記接触部に対してずらしたときに生じる指紋画像における指紋模様の変化に基づいて、指の動きを検出することが好ましい。
【0012】
この構成によれば、指紋模様の変化を基に指の動きを検出しているため、指を接触部に押し当てた状態で接触部に沿って僅かに動かす動作を検出することができ、ユーザからのマウスポインタの移動指令を受け付けることができる。
【0013】
また、前記検出手段は、前記取得手段が取得した指紋画像において、前記登録画像と比較して指紋模様の変化が略一定の指紋画像の領域を固着領域として特定し、当該指紋画像における固着領域の位置に基づいて、指の動きを検出することが好ましい。
【0014】
この構成によれば、指をセンサ面に押し当てた状態でセンサ面に沿って僅かに動かしたときに指紋模様の変化が少ない領域である固着領域の指紋画像における位置に着目して、指の動きを検出しているため、かかる指の動きをより正確に検出することができる。
【0015】
また、前記検出手段は、前記登録画像から基準画像を抽出し、前記取得手段が取得した指紋画像に、抽出した基準画像を用いたテンプレートマッチングを施すことにより前記固着領域を検出することが好ましい。
【0016】
この構成によれば、テンプレートマッチングにより固着領域が検出されるため、固着領域の検出精度が高められ、接触部に沿って指を僅かに動かしたときの指の動きをより正確に検出することができる。
【0017】
また、前記検出手段は、前記登録画像に対する前記固着領域内の所定の一点を通り、それぞれ直交する直線をテンプレートとすることが好ましい。
【0018】
この構成によれば、取得画像に対して横方向の直線を縦方向に走査させるとともに、縦方向の直線を横方向に走査させる、すなわち、縦及び横の直線をそれぞれ1次元方向に走査させるだけで固着領域が検出されるため、固着領域の検出速度の高速化を図ることができる。
【0019】
また、前記検出手段は、前記登録画像の指紋領域に対する前記取得手段が取得した指紋画像の指紋領域の面積の変化に基づいて、指の動きを検出してもよい。
【0020】
この構成によれば、センサ面に対して垂直方向に加えられた指の圧力の変化を検出することができ、ユーザからのクリック指令を受け付けることができる。
【0021】
また、前記検出手段は、前記登録画像の指紋領域に対する前記取得手段が取得した指紋画像の指紋画像の形状の変化に基づいて、指の動きを検出してもよい。この構成によれば、接触面に当接した指を立てた状態と、接触面に当接した指を寝かした状態とを検出することができる。
【0022】
【発明の実施の形態】
図1は、本発明に係るポインティングデバイスの一の実施形態の外観構成を示した図である。本ポインティングデバイスは、指紋センサ1及びコンピュータ2から構成されている。指紋センサ(取得手段)1とコンピュータとは、ケーブル3により電気的に接続されている。
【0023】
指紋センサ1は、静電容量式、光学式又は圧力感知方式等の指紋センサであり、直方体状の筐体11及び筐体11の上側に配設されたセンサ面12(接触部)とからなる外観構成を有している。なお、図1においては、図面を見やすくするためにセンサ面12の面積を実際よりも大きく表示している。
【0024】
図2は、静電容量式の指紋センサの概略構成を示した図である。図2に示すように、静電容量式の指紋センサ1は、保護膜111及び電極112aが所定行所定列に配列された電極群112を備えている。各電極112aは、保護膜111の上に載置された指の凹凸、すなわち、保護膜111と指の表面との距離によって帯電する電荷量が異なる特性を有している。したがって、指紋の溝の(凹)部分が載置された電極112aの帯電量は、指紋の山の(凸)部分が載置された電極の帯電量よりも少なくなる。そして、各電極112aに帯電した電荷を電荷量に応じた例えば電圧値に変換し、この電圧値をデジタル値に変換することにより指紋画像が得られる。
【0025】
以下の説明において、指紋画像とは、ユーザの指紋が表わされた領域(指紋領域)を含む長方形状の画像のことをいう。また、指紋画像の縦方向とは、図1に示すセンサ面12の矢印Aに対応する指紋画像の方向をいい、指紋画像の横方向とは、図1に示すセンサ面12の矢印Bに対応する指紋画像の方向をいう。また、指紋画像の上方向とは、矢印Aで示す方向を指し、下方向とは矢印Aで示す方向と反対方向を指す。また、表示画面41の水平方向をX方向、X方向と直交する方向をY方向とする。また、表示画面41の左下の頂点P1を原点とし、X方向の座標軸をX座標とし、Y方向の座標軸をY座標とする。
【0026】
コンピュータ2は、種々のプログラムを実行するCPU、周辺機器を制御するプログラムであるBIOS(basic input/output system)を記憶するROM(リードオンリーメモリ)、CPUの作業領域として用いられるRAM(ランダムアクセスメモリ)、オペレーティングシステムや、種々のデータを記憶するハードディスク、フレキシブルディスクや、CD−ROM、DVDなどの記録媒体に記録されたデータを読み取る記録媒体駆動装置、キーボード、マウス等を含みユーザからの操作指令を受け付けCPUに出力する操作装置及びCRT(陰極線管)あるいは液晶パネルから構成され、CPUの制御の基、種々の画像を表示する表示装置4等を備えるパーソナルコンピュータである。
【0027】
本発明に係るポインティングデバイスは、コンピュータをポインティングデバイスの処理部として機能させるためのプログラムを、コンピュータ2にインストールすることにより実現される。このプログラムが例えばCD−ROMやフレキシブルディスクに記録されている場合は、このCD−ROM又はフレキシブルディスクを記録媒体駆動装置に装填し、インストールすることにより、このプログラムを記録媒体駆動装置に記憶させる。また、このプログラムが、インターネット上のWEBサーバーに記憶されている場合は、当該プログラムをWEBサーバーからダウンロードしてインストールすることにより、記録媒体駆動装置に記憶させてもよい。
【0028】
図3は、本ポインティングデバイスのブロック構成図を示している。本ポインティングデバイスは、登録モードによって予め登録されたユーザの指紋画像(登録画像)を用いて指の動きを検出するものである。
【0029】
取得画像記憶部31は、主にRAMから構成され、指紋センサ1により取得された指紋画像を取得画像として一時的に記憶する。
【0030】
登録画像記憶部32は、主にハードディスクから構成され、登録モードにおいて予め取得されたユーザの指先(例えばひとさし指)の指紋画像を登録画像として記憶する。なお、登録画像記憶部32は、コンピュータ2を使用する複数ユーザのそれぞれの指紋画像を登録画像として記憶することが可能である。この場合、登録画像記憶部32は、後述する指紋領域特定部22によって特定された各登録画像の指紋領域の面積を、登録画像と対応付けて記憶する。
【0031】
取得画像及び登録画像はいずれも指紋画像であるが、説明の便宜上、予め登録されている指紋画像を登録画像、RAMによって一時的に記憶されている画像のことを取得画像として区別して表わす。
【0032】
プログラム実行部20は主にCPUから構成され、CPUがハードディスクに記録されたコンピュータをポインティングデバイスの処理部として機能させるためのプログラムを実行することによりCPUは、登録画像特定部21、指紋領域特定部22、動作判定部23、固着領域特定部24、移動量算出部25、マウスポインタ移動指令受付部26、スクロール指令受付部27、クリック指令受付判定部28及びクリック指令通知部29として機能する。
【0033】
登録画像特定部21は、登録モードにおいて、取得画像をテンプレートとして、登録画像に記憶されている複数のユーザの登録画像に対してテンプレートマッチングを施し、取得画像と指紋模様が一致する登録画像が登録画像記憶部32に記憶されているか否かの判定を行い、指紋模様が一致する登録画像が登録画像記憶部32に記憶されている場合は、その登録画像を、現在コンピュータ2を使用しているユーザの登録画像として特定する。一方、一致する登録画像が登録画像記憶部32に記憶されていない場合は、取得画像を新たなユーザの登録画像として、登録画像記憶部32に記憶させる。
【0034】
指紋領域特定部22は、指紋センサ1によって取得された指紋画像又は登録画像に対して、所定の画像処理、例えばエッジ検出処理を行い指紋領域の輪郭を抽出し、抽出した輪郭内に存在する画素数から指紋領域の面積を算出する。
【0035】
動作判定部23は、取得画像の指紋領域の面積から登録画像の指紋領域の面積を差し引いた値(面積差)が所定の値(閾値TH)より大きいか否かを判定し、面積差が閾値THよりも大きい場合、ユーザによってクリック指令が行われたと判定する。また、動作判定部23は、面積差が閾値THよりも小さい場合、さらに、指紋領域が指紋画像中の上側又は下側の所定の領域に偏って現れているか否かを判定し、上又は下側に偏って現れている場合は、ユーザによって、スクロール指令が行われたと判定し、上側又は下側に偏って現れていない場合は、ユーザによって、マウスポインタの移動指令が行われたと判定する。
【0036】
固着領域特定部24は、登録画像の指紋領域の中心点を重心とする縦及び横の所定サイズの長方形状の領域をテンプレートとして取得画像に対してテンプレートマッチングを施し、取得画像から固着領域を特定する。テンプレートマッチングには、画素単位のマッチング手法、主成分分析を用いたマッチング手法等を用いる。
【0037】
移動量算出部25は、取得画像の固着領域の中心点を特定し、この中心点を通る縦方向の直線で、指紋領域を左右の2つの領域に分割し、左右の両領域の面積の差分値を算出し、この差分値からマウスポインタのX座標の移動量を算出する。また、移動量算出部25は、中心点を通る横方向の直線で指紋領域を上下の2つの領域に分割し、上下の両領域の面積の差分値を算出し、この差分値からマウスポインタのY座標の移動量を算出する。
【0038】
マウスポインタ移動指令受付部26は、移動量算出部25によって算出されたマウスポインタのX座標の移動量に、現在のマウスポインタのX座標の値を加えるとともに、移動量算出部25によって算出されたマウスポインタのY座標の移動量に、現在のマウスポインタのY座標の値を加えることにより、マウスポインタの新たな座標位置を算出する。そして、マウスポインタを現在表示されている座標位置から消去させ、新たに算出した座標位置に表示させる。
【0039】
スクロール指令受付部27は、動作判定部23が、指紋領域が指紋画像中、上側の所定の領域に存在すると判定した場合、ユーザからの上方向のスクロール指令を受け付け、表示画面41に表示されているウインドウ内の画像を上方向にスクロールさせる。また、スクロール指令受付部27は、動作判定部23が、指紋領域が指紋画像中、下側の所定の領域に存在すると判定した場合、ユーザからの下方向のスクロール指令を受け付け、表示画面41に表示されているウインドウ内の画像を下方向にスクロールさせる。
【0040】
クリック指令受付判定部28は、指紋領域の面積が閾値THよりも大きな取得画像が連続して何回取得されているかをカウントし、カウントした値が所定の値よりも大きい場合、ユーザからのクリック指令を受け付け、カウントした値が所定の値よりも小さい場合、ユーザからのクリック指令を受け付けない。
【0041】
クリック指令通知部29は、クリック指令受付判定部28がユーザによりクリックからのクリック指令を受け付けた場合、ユーザがクリックしたときにマウスポインタと同じ座標上に表示されているオブジェクトが、クリックされたときに実行される各種プログラムに対してクリックされたことを通知する。
【0042】
次に、登録画像を取得するために実行される登録モードについて説明する。図4は、登録モードの処理手順を示すフローチャートである。まず、ステップS1において、指紋センサ1は、センサ面12に載置されたユーザの指先の指紋画像を取得する。なお、登録モードは、例えば、ユーザがコンピュータを起動させたときに実行される。
【0043】
ステップS2において、登録画像特定部21は、登録画像記憶部32を検索することにより、ステップS1で取得された取得画像と指紋模様が一致する登録画像が登録画像記憶部32に記憶されているかを判定する。
【0044】
ステップS3において、取得画像と指紋模様が一致する登録画像が登録画像記憶部32に記憶されている場合(ステップS3でYES)、登録画像特定部21は、この登録画像を現在コンピュータ2を使用しているユーザの登録画像として特定する(ステップS4)。
【0045】
ステップS3において、取得画像と指紋模様が一致する登録画像が登録画像記憶部32に記憶されていない場合(ステップS3でNO)、ステップS1で取得した取得画像を新たな登録画像として、登録画像記憶部32に記憶させる(ステップS5)。
【0046】
ステップS6において、指紋領域特定部22は、ステップS3で得られた新たな登録画像の指紋領域の面積を算出する。ステップS7において、登録画像特定部21は、ステップS6で算出された指紋領域の面積をその登録画像と対応づけて、登録画像記憶部32に記憶させる(ステップS7)。
【0047】
次に、取得画像を基に、ユーザからの操作指令を受け付ける処理について説明する。図5は、本ポインティングデバイスにおいて、コンピュータ2に対して種々の操作指令を行うために、ユーザによって行われる指の動作を説明するための図である。図中に示す矢印Y1〜Y4は、いずれも指先Fをセンサ面12に押し当てた状態で、矢印Y1〜Y4の方向に僅かにずらしたときの指先Fの動作を示している。矢印Y1〜Y4に示す動作は、表示画面41に表示されたマウスポインタを移動させるために行われる動作であり、本ポインティングデバイスは、これらの動作をユーザからのマウスポインタの移動指令として受け付ける。
【0048】
図6は、指の動作に対する指紋画像の変化を説明するための図であり、(a)は、ユーザがセンサ面12に指を載置し、操作指令を行っていない状態で得られる指紋画像を示し、(b)は、ユーザが矢印Y2に示す動作を行ったときに得られる指紋画像を示し、(c)は、ユーザが矢印Y1方向に示す動作を行ったときに得られる指紋画像を示している。ユーザが矢印Y2に示す方向に指を僅かにずらすと、(a)に示す指紋画像の指紋模様が(b)に示す指紋画像の指紋模様に変化する。このとき、変化の前後で、指紋模様の変化が見られない領域(固着領域KD)と指紋模様が変化する領域(滑り領域GD)が存在することが(a)及び(b)を比較することにより分かる。また、(c)に示す指紋画像においても、同様に、固着領域KDと滑り領域GDが存在していることが分かる。また、(b)、(c)を比較すれば分かるように、指先Fを矢印Y2に示す方向にずらしたときは、滑り領域GDは、固着領域KDの左側に現れるが、指先Fを矢印Y1の方向にずらしたときは、滑り領域GDは固着領域KDの右側に現れる。このように、固着領域KDに対する滑り領域GDの相対的な位置は、指の動作に応じて大きく異なることが分かる。そこで、本ポインティングデバイスでは、指紋領域SDにおける固着領域KDの相対的な位置関係から、指先Fの動作を判定し、ユーザのマウスポインタの移動指令を受け付ける。
【0049】
また、矢印Y5は、センサ面12に対して指先Fの重力方向の圧力を増大させて、指先Fをセンサ面12に強く押し当てたときの指先Fの動作を示し、矢印Y6は、センサ面12に対して強く押し当てた指先Fの圧力を弱め、圧力を元の状態に戻していくときの動作を示しており、本ポインティングデバイスは、これらの動作をユーザからのクリック指令として受け付ける。
【0050】
また、矢印Y7は、指先Fをセンサ面12に押し当てた状態で、指FBをセンサ面12に対して起こしていくときの動作(センサ面12と指FBとの傾斜角度θを増大させていく動作)を示しており、本ポインティングデバイスは、この動作をユーザからの上スクロール指令として受け付ける。また、矢印Y8は矢印Y7で示す動作とは逆に、指全体をセンサ面12に対してねかしていく動作(センサ面12と指との傾斜角度θを減少させていく動作)を示しており、本ポインティングデバイスは、この動作をユーザからの下スクロール指令として受け付ける。ここで、上スクロールとは、表示画面41に表示されているウインドウ内の画面をY方向にスクロールさせることをいい、下スクロールとは、表示画面41に表示されたウインドウ内の画面を−Y方向にスクロールさせることをいう。
【0051】
図7は、ユーザからの操作指令を受け付ける処理の手順を示したフローチャートである。まず、ステップS11において、指紋センサ1は、センサ面12に載置された指先Fの指紋画像を取得し、取得画像記憶部31に記憶させる。指紋センサ1は、指紋画像を所定の時間間隔(例えば、1/10秒)間隔で取得する。
【0052】
ステップS12において、動作判定部23は、ステップS11で取得した取得画像からユーザの指の動作が、マウスポインタの移動指令、クリック指令又はスクロール指令のいずれであるかを判定するための動作判定処理を行う。
【0053】
ステップS13において、動作判定部23が、クリック指令と判定した場合はステップS14に進み、クリック指令を受け付けるか否かを判定するためのクリック指令受付処理が行われ(ステップS14)、マウスポインタの移動指令と判定した場合は、ステップS15に進み、マウスポインタの移動指令を受け付けるための詳細な処理であるマウスポインタ移動指令受付処理が行われ、スクロール指令と判定した場合は、ステップS16に進み、スクロール指令を受け付けるか否かを判定するためのスクロール指令受付処理が行われる。
【0054】
図8は、ステップS12の動作判定処理のサブルーチンを示したフローチャートである。まず、ステップS121において、指紋領域特定部22は、取得画像から指紋領域を特定し、指紋領域の面積を求める。図9は、指紋センサ1によって取得された指紋画像の一例を示した図である。図9に示すように、画面全域に亘って、指紋領域SDが表されており、指紋領域SDは、指紋の溝(凹部)に対応する部分が黒く現れ、指紋の山(凸部)に対応する部分が白く現れ、黒と白との縞模様によって指紋が表されていることが分かる。指紋領域特定部22は、指紋領域SDの輪郭を検出し、輪郭内に含まれる画素数から指紋領域SDの面積を算出する。なお、指紋領域特定部22は、指紋領域SDの、白の縞部分を黒く塗りつぶすことにより、指紋領域SDを黒一色で表し、黒で表される画素の画素数から指紋領域SDの面積を算出してもよい。
【0055】
ステップS122において、動作判定部23は、ステップS121で算出した指紋領域の面積から、登録モードで特定された登録画像の指紋領域の面積を差し引き面積差分値を算出する。
【0056】
ステップS123において、動作判定部23は、ステップS122で算出された面積差分値が、閾値THよりも大きいか否かの判定を行い(ステップS123)、面積差分値が閾値THよりも大きい場合(ステップS123でYES)、ユーザによりクリック指令が行われたと判定する(ステップS125)。
【0057】
センサ面12に対して指先Fの重力方向に対する圧力を増大させていくと、センサ面12と指先Fとの接触面の面積が増大していき、指紋画像中の指紋領域の面積が増大していく。そこで、動作判定部23は、指紋領域の面積が閾値THよりも大きいか否かにより、ユーザからのクリック指令を判定する。
【0058】
一方、ステップS122で算出された面積差分値が閾値THよりも小さい場合(ステップS123でNO)、動作判定部23は、指紋領域が上側又は下側の領域に偏って表されているか否かを判定し(ステップS124)、上側又は下側の領域に偏って表されている場合(ステップS124でYES)、スクロール指令が行われたと判定する(ステップS126)。一方、ステップS124において、動作判定部23は、指紋領域が上側又は下側の領域に偏って表されていない場合(ステップS124でNO)、ユーザによりマウスポインタの移動指令が行われたと判定する(ステップS127)。
【0059】
図10は、ステップS15に示すマウスポインタの移動指令受付処理を示したフローチャートである。まず、ステップS21において、固着領域特定部24は、ステップS11で取得された指紋画像から固着領域を特定する。図11は、固着領域特定部24が行うテンプレートマッチングを説明するために指紋画像を模式的に示した図であり、(a)は登録画像を示し、(b)は取得画像を示している。固着領域特定部24は、指紋領域特定部22によって特定された登録画像の指紋領域から中心点を特定する。中心点の特定は、例えば、指紋領域に外接する四角形を当てはめ、当てはめた四角形の縦方向の一辺を所定の比率で分割し、分割した位置から横方向に引いた直線と、当てはめた四角形の横方向の一辺を所定の比率で分割し、分割した位置から縦方向に引いた直線との交点を中心点として特定する。なお、縦及び横方向の一辺を分割する際の所定の比率は、例えば、複数のユーザの指紋画像をサンプルとして取得し、これらのサンプルの比率の平均値を用いる。これにより、図11(a)に示すように、登録画像に対して、固着領域KDが特定されるとともに、特定された固着領域KDの中心点CPが特定される。
【0060】
次に、固着領域特定部24は、登録モードにおいて特定された登録画像から指紋領域SDの中心点CPを特定し、中心点CPを重心とする縦及び横の所定のサイズの長方形状の領域をテンプレートTとして抽出する。ここで、抽出される長方形状のテンプレートTのサイズは、固着領域KDのサイズに比べて小さいものとする。
【0061】
次に、固着領域特定部24は、登録画像から抽出したテンプレートTを、取得画像の例えば、左上の頂点からX方向に走査していき、最もマッチした領域を特定する。そして、特定した領域T´の重心を固着領域KD´の中心点CP´とする(図11(b))
ステップS22において、固着領域特定部24は、前回固着領域を特定してから何枚の取得画像が取得されたかをカウントするためのカウンタ値Kを1に設定する。
【0062】
ステップS23において、固着領域特定部24は、カウンタ値Kが所定の値Nよりも大きいか否かの判定を行い、K>=N場合、すなわち、前回固着領域KD´を特定してから、所定枚数の取得画像が取得がされている場合は(ステップS23においてNO)、今回取得した取得画像に対して、テンプレートマッチングを施すことにより、固着領域KD´の中心点CP´を特定する(ステップS24)。一方、ステップS23において、K<Nの場合、すなわち、前回固着領域KD´を特定してから所定枚数の取得画像が取得されていない場合(ステップS23でYES)、ステップS25に進む。このように固着領域特定部24は、全て取得画像に対してテンプレートマッチングを行わずに、所定枚数毎にテンプレートマッチングを行うことで、処理の高速化を図っている。
【0063】
ステップS25において、固着領域特定部24は、取得画像の固着領域KD´の中心点CP´を特定する。この場合、固着領域KD´の中心点CP´は、前回のテンプレートマッチングにより特定された固着領域の中心点の座標が用いられる。
【0064】
ステップS26において、移動量算出部25は、固着領域KD´の中心点CP´を通る縦方向の直線で取得画像の指紋領域を2つの領域に分割する。この場合、図11(b)に示すように、特定された固着領域KD´の中心点CP´を通る縦方向の直線L1により指紋領域SD´が2つの領域D1、D2に分割される。
【0065】
ステップS27において、移動量算出部25は、領域D1及びD2のそれぞれの面積S1及びS2を算出し、領域D1及びD2の面積の差分値ΔS1(=S2−S1)を算出する。
【0066】
ステップS28において、移動量算出部25は、差分値ΔS1から、表示画面41のX座標に対するマウスポインタの移動量ΔXを算出する。移動量ΔXは、例えば表示画面41の横方向のサイズと指紋画像の横方向のサイズとの関係から換算係数を求め、この換算係数を差分値ΔS1にかけることにより算出してもよい。あるいは、表示画面41の横方向のサイズと指紋画像の横方向のサイズとの関係から換算関数を求め、この換算関数に差分値ΔS1を代入することにより算出してもよい。
【0067】
ステップS29において、移動量算出部25は、固着領域KD´の中心点CP´を通る横方向の直線L2を引き、指紋領域SD´を2つの領域D3及びD4に分割する。
【0068】
ステップS30において、移動量算出部25は、領域D3及びD4のそれぞれの面積S3及びS4を算出し、領域D3及びD4の面積の差分値ΔS2(=S4―S3)を算出する。
【0069】
ステップS31において、移動量算出部25は、差分値ΔS2から、表示画面41のY座標に対するマウスポインタの移動量ΔYを算出する。移動量ΔYは、移動量ΔXと同様に、換算係数あるいは換算関数によって算出される。
【0070】
ステップS32のおいて、マウスポインタ移動指令受付部26は、現在、表示画面41に表示されているマウスポインタの座標(X、Y)に対して、X´=X+ΔXを算出するとともに、Y´=Y+ΔYを算出することにより、マウスポインタの新たな座標(X´、Y´)を算出する。そして、座標(X,Y)に表示されているマウスポインタを消去するとともに、新たな座標(X1、Y1)にマウスポインタを表示する。
【0071】
ステップS33において、指紋センサ1は、指紋画像を取得する。次いで、ステップS34において、固着領域特定部24は、カウンタ値Kに1を加算して、カウンタ値Kを更新する。
【0072】
ステップS35において、動作判定部23は、ステップS12で示す動作判定処理を行い、動作判定部23が、マウスポインタの移動指令であると判定した場合(ステップS36でYES)、ステップS23に戻る。一方、ステップS36において、動作判定部23が、マウスポインタの移動指令でないと判定した場合(ステップS36でNO)、図7に示すステップS13に戻る。
【0073】
このようにして、図10のフローチャートの処理が繰り返し実行されると、センサ面12に対してずらした指の距離が大きいほど、マウスポインタは、早い速度で移動することとなる。なお、算出した新たな座標(X1、Y1)が、表示画面41の表示可能範囲を越えた場合は、表示可能範囲の縁の位置でマウスポインタは停止する。
【0074】
次に、ステップS14に示すクリック指令受付判定処理について説明する。図12は、ステップS14のサブルーチンを示したフローチャートである。まず、ステップS40において、クリック指令受付判定部28は、閾値THよりも指紋領域の面積が大きな取得画像が連続して何枚取得されたかをカウントするためのカウンタ値Kを1に設定し、カウンタ値Kを初期化する。
【0075】
ステップS41において、指紋センサ1は、指紋画像を取得する。ステップS42において、クリック指令受付判定部28は、カウンタ値Kに1を加算し、カウンタ値Kを更新する。ステップS43において、動作判定部23は、指紋領域の面積が閾値THよりも小さいか否かの判定を行い(ステップS43)、指紋領域の面積が閾値THよりも大きい場合(ステップS43でNO)、ステップS41に戻り、新たな指紋画像が取得される。一方、指紋領域の面積が閾値THよりも小さい場合(ステップS43でYES)、ステップS44に進む。
【0076】
ステップS44において、クリック指令受付判定部28は、カウンタ値Kの値が所定の値Nよりも大きいか否かの判定を行い(ステップS44)、N>Kの場合(ステップS44でYES)、ユーザからのクリック指令受け付ける。ユーザからのクリック指令が受け付けられると、クリック指令通知部29は、クリック指令が行われたことを、各種プログラムに通知する。例えば、ユーザによってアイコンがクリックされたときは、そのアイコンの色が反転表示される。また、表示画面41に表示されたウインドウを最大化表示させるボタンがクリックされたときは、そのウインドウが表示画面41において最大化表示される。
【0077】
また、クリック指令の受け付けが所定の時間内に2回されたときは、ダブルクリック指令がされたとしてもよい。ユーザによって、アイコンがダブルクリックされたときは、そのアイコンに対応付けられたアプリケーションソフトウェアの起動等が行われる。
【0078】
次に、スクロール指令受付判定処理について説明する。図13は、ステップS16のサブルーチンを示したフローチャートである。まず、ステップS51において、動作判定部23は、指紋領域が指紋画像の上側の所定の領域に存在するか否かを判定し(ステップS51)、上側の所定の領域に存在すると判定した場合(ステップS51でYES)、スクロール指令受付部27は、ユーザから上方向のスクロール指令を受け付ける(ステップS52)。
【0079】
図14は、指紋領域が指紋画像の上側の所定の領域に表示されている状態を示した図である。本実施形態では、スクロール指令受付部27は、図14に示すように、例えば取得画像の縦方向の辺H1の中点MPから横方向に直線L3を引くことにより分割された2つの領域のうち上側の領域UDに指紋領域SD´が存在する場合、スクロール指令が行われたものと判定する。なお、直線L3をひく辺H1上の点は、中点MPに限定されず、指紋画像のサイズに応じて、適宜変更してもよい。
【0080】
ステップS52において、スクロール指令受付部27は、上方向のスクロール指令が行われたウインドウ内の画面を上方向にスクロールさせる表示処理を行う。
【0081】
ステップS51において、スクロール指令受付部27は、指紋領域が指紋画像の上側の所定の領域に偏って表示されていないと判定した場合(ステップS51でNO)、すなわち、指紋領域が指紋画像の下側の所定の領域に偏って表示されている場合、スクロール指令受付部27は、下方向のスクロール指令を受け付ける。
【0082】
ステップS55において、スクロール指令受付部27は、下方向のスクロール指令が行われたウインドウ内の画面を上方向にスクロールさせる表示処理を行う。
【0083】
なお、上記実施形態では、プログラム実行部20及び記憶部40は、コンピュータ2のCPU、RAM、ハードディスク用いたが、別途マイクロコンピュータなど専用回路を用いて処理し、処理結果のみをコンピュータ2に出力してもよい。この場合、センサ面12の小型化により、ポインティングデバイス自体の小型化を図ることができる。
【0084】
また、上記実施形態では、固着領域特定部24は、取得画像から固着領域を特定するためのテンプレートとして、長方形状のテンプレートを用いたが、これに限定されず、図11(a)に示すように、固着領域の中心点CPを通る縦方向の直線L4と、中心点CPを通る横方向の直線L5とをテンプレートとし、取得画像に対して、直線L4を横方向に走査して、最もマッチする縦方向の直線を抽出するとともに、取得画像に対して直線L5を縦方向に走査して、最もマッチする横方向の直線を抽出し、抽出した縦及び横方向の2本の直線の交点を固着領域の中心点CP´としてもよい。この場合、直線L4、L5をそれぞれ縦又は横の1つの方向に走査することにより、固着領域KD´の中心点CP´を算出することができるため、処理の高速化を図ることができる。
【0085】
また、上記実施形態では、指紋センサ1がコンピュータ2の外部に接続された態様を示したが、これに限定されず、本ポインティングデバイスをノート型パソコンに適用する場合は、ノート型パソコンと一体的に接続してもよい。この場合、センサ面12の面積の小型にすることができるため、ノート型パソコン自体を小型にすることができる。
【0086】
【発明の効果】
本発明によれば、ユーザは、接触部に載置した指を僅かに動かすだけで、コンピュータに対して種々の操作指令を行うことが可能であるため、接触部を小型化することができる。
【図面の簡単な説明】
【図1】本発明に係るポインティングデバイスの一の実施形態の外観構成を示した図である。
【図2】静電容量式の指紋センサの概略構成を示した図である。
【図3】本ポインティングデバイスのブロック構成図を示している。
【図4】登録モードの処理手順を示すフローチャートである
【図5】本ポインティングデバイスにおいて、コンピュータに対して種々の操作指令を行うために、ユーザによって行われる指の動作を説明するための図である。
【図6】指の動作に対する指紋画像の変化を説明するための図であり、(a)は、ユーザがセンサ面に指を載置し、操作指令を行っていないときに得られる指紋画像を示し、(b)は、ユーザが矢印Y2に示す動作を行ったときに得られる指紋画像を示し、(c)は、ユーザが矢印Y1方向に示す動作を行ったときに得られる指紋画像を示している。
【図7】ユーザからの操作指令を受け付ける処理の手順を示したフローチャートである。
【図8】動作判定処理のフローチャートである。
【図9】指紋センサによって取得された指紋画像の一例を示した図である。
【図10】マウスポインタの移動指令受付処理を示したフローチャートである。
【図11】固着領域特定部が行うテンプレートマッチングを説明するために指紋画像を模式的に示した図であり、(a)は登録画像を示し、(b)は取得画像を示している。
【図12】クリック指令受付処理のフローチャートである。
【図13】スクロール指令受付処理のフローチャートである。
【図14】指紋領域が指紋画像の上側の所定の領域に表示されている状態を示した図である。
【符号の説明】
1 指紋センサ(取得手段)
2 コンピュータ
3 ケーブル
4 表示装置
11 筐体
12 センサ面(接触部)
20 プログラム実行部
21 登録画像特定部
22 指紋領域特定部(検出手段)
23 動作判定部(検出手段)
24 固着領域特定部(検出手段)
25 移動量算出部(検出手段)
26 マウスポインタ移動指令受付部(受付手段)
27 スクロール指令受付部(受付手段)
28 クリック指令受付判定部(受付手段)
29 クリック指令通知部
31 取得画像記憶部
32 登録画像記憶部
40 記憶部
41 表示画面
111 保護膜
112a 電極
112 電極群
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a pointing device that receives an operation command from an operator and causes a computer to perform a process corresponding to the operation command.
[0002]
[Prior art]
Conventionally, trackballs, trackpads, and the like have been known as pointing devices that can save installation space as compared to a mouse.
[0003]
The trackball has a sphere that is rotatably arranged, and moves a mouse pointer, a cursor, and the like displayed on a display unit of a computer according to the angle amount and the rotation direction of the sphere. However, if the sphere is downsized to reduce the size of the trackball, it will be difficult to control the rotation of the sphere with a finger accurately. Therefore, there is a certain limit to miniaturization of the sphere in consideration of operability.
[0004]
The track pad has a planar sensor surface, and moves a mouse pointer according to a moving distance of a finger slid on the sensor surface. Therefore, when the sensor surface is reduced, the distance over which the finger can slide is limited. Therefore, there is a certain limit in reducing the sensor surface.
[0005]
Therefore, a transparent plate with which an object (operator's finger) contacts is provided, and detection means for detecting the movement (change) of the image of the surface of the contacted finger is provided. A pointing device that detects a movement of an upper finger and moves a mouse pointer (cursor) based on the movement is disclosed (Patent Document 1).
[0006]
[Patent Document 1]
JP-A-2002-062983
[0007]
[Problems to be solved by the invention]
However, in the pointing device according to Patent Literature 1, in order to detect a change in an image, a finger in contact with the plate must be completely slid, and the area of the plate surface is determined in consideration of the finger sliding distance. It is necessary to set the size, and there is a certain limit to miniaturization.
[0008]
The present invention has been made to solve the above-described problems, and in a pointing device including a contact portion on which an operator's finger is placed, the size of the contact portion can be reduced while maintaining operability. The aim is to obtain a pointing device.
[0009]
[Means for Solving the Problems]
A pointing device according to the present invention is a pointing device provided with a contact portion on which an operator's finger is placed. The storage device stores a fingerprint image of the operator as a registered image in advance, and the pointing device is placed on the contact portion. Acquiring means for acquiring a fingerprint image of the finger, detecting means for detecting the movement of the finger on the contact portion by comparing the registered image with the fingerprint image acquired by the acquiring means, and the detecting means And receiving means for receiving an operation command corresponding to the detected finger movement.
[0010]
According to this configuration, the fingerprint image of the user using the computer is stored in the storage unit in advance as a registered image, and the registered image is compared with the fingerprint image acquired by the acquiring unit. It is possible to detect a slight movement of the finger, and it is possible to reduce the area of the contact portion while maintaining operability.
[0011]
Further, it is preferable that the detection means detects a finger movement based on a change in a fingerprint pattern in a fingerprint image generated when a finger placed on the contact portion is shifted with respect to the contact portion.
[0012]
According to this configuration, since the movement of the finger is detected based on the change in the fingerprint pattern, it is possible to detect the operation of slightly moving the finger along the contact portion while pressing the finger against the contact portion. From the mouse pointer can be received.
[0013]
Further, in the fingerprint image obtained by the obtaining unit, the detecting unit specifies a region of the fingerprint image in which the change in the fingerprint pattern is substantially constant as compared with the registered image as a fixed region, and determines the region of the fixed region in the fingerprint image. Preferably, the movement of the finger is detected based on the position.
[0014]
According to this configuration, when the finger is slightly moved along the sensor surface in a state where the finger is pressed against the sensor surface, focusing on the position in the fingerprint image of the fixed region, which is a region where the fingerprint pattern changes little, Since the movement is detected, the movement of the finger can be detected more accurately.
[0015]
Further, it is preferable that the detection unit detects the fixed region by extracting a reference image from the registered image and performing template matching on the fingerprint image acquired by the acquisition unit using the extracted reference image.
[0016]
According to this configuration, since the fixed region is detected by the template matching, the detection accuracy of the fixed region is improved, and the movement of the finger when the finger is slightly moved along the contact portion can be more accurately detected. it can.
[0017]
Further, it is preferable that the detection unit uses, as a template, straight lines that pass through a predetermined point in the fixed region with respect to the registered image and are orthogonal to each other.
[0018]
According to this configuration, a horizontal straight line is scanned in the vertical direction with respect to the acquired image, and a vertical straight line is scanned in the horizontal direction. That is, the vertical and horizontal straight lines are each scanned in the one-dimensional direction. Thus, the detection speed of the fixed region can be increased.
[0019]
Further, the detection means may detect the movement of the finger based on a change in the area of the fingerprint area of the fingerprint image acquired by the acquisition means with respect to the fingerprint area of the registered image.
[0020]
According to this configuration, it is possible to detect a change in finger pressure applied in a direction perpendicular to the sensor surface, and to accept a click command from the user.
[0021]
Further, the detection means may detect a finger movement based on a change in the shape of the fingerprint image of the fingerprint image acquired by the acquisition means with respect to the fingerprint area of the registered image. According to this configuration, it is possible to detect a state in which the finger in contact with the contact surface is set up and a state in which the finger in contact with the contact surface is lying down.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram showing an external configuration of a pointing device according to an embodiment of the present invention. This pointing device includes a fingerprint sensor 1 and a computer 2. The fingerprint sensor (acquisition means) 1 and the computer are electrically connected by a cable 3.
[0023]
The fingerprint sensor 1 is a fingerprint sensor of a capacitance type, an optical type, a pressure sensing type, or the like, and includes a rectangular parallelepiped housing 11 and a sensor surface 12 (contact portion) disposed above the housing 11. It has an external configuration. In FIG. 1, the area of the sensor surface 12 is shown larger than the actual size in order to make the drawing easier to see.
[0024]
FIG. 2 is a diagram showing a schematic configuration of a capacitance type fingerprint sensor. As shown in FIG. 2, the capacitance type fingerprint sensor 1 includes an electrode group 112 in which a protective film 111 and electrodes 112a are arranged in predetermined rows and columns. Each electrode 112a has a characteristic that the amount of charge varies depending on the unevenness of a finger placed on the protective film 111, that is, the distance between the protective film 111 and the surface of the finger. Therefore, the charge amount of the electrode 112a on which the (concave) portion of the fingerprint groove is placed is smaller than the charge amount of the electrode on which the (convex) portion of the fingerprint is placed. Then, the electric charge charged on each electrode 112a is converted into, for example, a voltage value corresponding to the amount of the electric charge, and the voltage value is converted into a digital value, thereby obtaining a fingerprint image.
[0025]
In the following description, a fingerprint image refers to a rectangular image including a region (fingerprint region) in which a user's fingerprint is represented. Further, the vertical direction of the fingerprint image refers to the direction of the fingerprint image corresponding to the arrow A on the sensor surface 12 shown in FIG. 1, and the horizontal direction of the fingerprint image corresponds to the arrow B of the sensor surface 12 shown in FIG. Refers to the direction of the fingerprint image. The upward direction of the fingerprint image indicates the direction indicated by arrow A, and the downward direction indicates the direction opposite to the direction indicated by arrow A. The horizontal direction of the display screen 41 is defined as an X direction, and the direction orthogonal to the X direction is defined as a Y direction. The lower left vertex P1 of the display screen 41 is set as the origin, the coordinate axis in the X direction is set as the X coordinate, and the coordinate axis in the Y direction is set as the Y coordinate.
[0026]
The computer 2 includes a CPU that executes various programs, a ROM (read only memory) that stores a basic input / output system (BIOS) that is a program for controlling peripheral devices, and a RAM (random access memory) used as a work area of the CPU. ), An operating command from a user including a hard disk for storing various data, a flexible disk, a recording medium driving device for reading data recorded on a recording medium such as a CD-ROM, a DVD, a keyboard, a mouse, etc. Is a personal computer comprising an operating device for receiving and outputting to the CPU and a CRT (cathode ray tube) or a liquid crystal panel and including a display device 4 for displaying various images under the control of the CPU.
[0027]
The pointing device according to the present invention is realized by installing a program for causing a computer to function as a processing unit of the pointing device in the computer 2. When this program is recorded on, for example, a CD-ROM or a flexible disk, the program is stored in the recording medium drive by loading and installing the CD-ROM or the flexible disk in the recording medium drive. When the program is stored in a web server on the Internet, the program may be downloaded from the web server and installed to be stored in the recording medium drive.
[0028]
FIG. 3 shows a block diagram of the pointing device. The pointing device detects a finger movement using a fingerprint image (registered image) of a user registered in advance in a registration mode.
[0029]
The acquired image storage unit 31 mainly includes a RAM, and temporarily stores a fingerprint image acquired by the fingerprint sensor 1 as an acquired image.
[0030]
The registered image storage unit 32 is mainly composed of a hard disk, and stores, as a registered image, a fingerprint image of the user's fingertip (for example, the forefinger) obtained in advance in the registration mode. The registered image storage unit 32 can store fingerprint images of a plurality of users who use the computer 2 as registered images. In this case, the registered image storage unit 32 stores the area of the fingerprint area of each registered image specified by the fingerprint area specifying unit 22 described later in association with the registered image.
[0031]
Although both the acquired image and the registered image are fingerprint images, for convenience of explanation, a previously registered fingerprint image is represented as a registered image, and an image temporarily stored in the RAM is separately represented as an acquired image.
[0032]
The program execution unit 20 is mainly composed of a CPU, and the CPU executes a program recorded on the hard disk to cause the computer to function as a processing unit of the pointing device. 22, a motion determining unit 23, a fixed area specifying unit 24, a moving amount calculating unit 25, a mouse pointer moving command receiving unit 26, a scroll command receiving unit 27, a click command receiving determining unit 28, and a click command notifying unit 29.
[0033]
In the registration mode, the registration image specifying unit 21 performs template matching on the registration images of a plurality of users stored in the registration image using the obtained image as a template, and registers the registration image whose fingerprint pattern matches the registration image. It is determined whether or not the stored image is stored in the image storage unit 32. If a registered image having a matching fingerprint pattern is stored in the registered image storage unit 32, the registered image is currently used by the computer 2. It is specified as a registered image of the user. On the other hand, if the matching registered image is not stored in the registered image storage unit 32, the acquired image is stored in the registered image storage unit 32 as a new user's registered image.
[0034]
The fingerprint area specifying unit 22 performs predetermined image processing, for example, edge detection processing on the fingerprint image or the registered image acquired by the fingerprint sensor 1 to extract the outline of the fingerprint area, and extracts the pixels existing in the extracted outline. The area of the fingerprint area is calculated from the number.
[0035]
The operation determining unit 23 determines whether or not a value (area difference) obtained by subtracting the area of the fingerprint area of the registered image from the area of the fingerprint area of the acquired image is larger than a predetermined value (threshold TH). If it is greater than TH, it is determined that the user has issued a click command. In addition, when the area difference is smaller than the threshold value TH, the operation determining unit 23 further determines whether the fingerprint region is biased toward a predetermined upper or lower region in the fingerprint image, and determines whether the fingerprint region is upward or downward. If it appears to be biased to the side, it is determined that the scroll command has been issued by the user, and if it does not appear to be biased upward or downward, it is determined that the user has issued a mouse pointer movement command.
[0036]
The fixed region specifying unit 24 performs template matching on the acquired image using a rectangular region having a predetermined size in the vertical and horizontal directions with the center of gravity of the fingerprint region of the registered image as the center of gravity, and specifies the fixed region from the obtained image. I do. For the template matching, a matching method for each pixel, a matching method using principal component analysis, and the like are used.
[0037]
The movement amount calculation unit 25 specifies the center point of the fixed region of the acquired image, divides the fingerprint region into two regions on the left and right by a vertical straight line passing through the center point, and calculates the difference between the areas of the left and right regions. The value is calculated, and the movement amount of the X coordinate of the mouse pointer is calculated from the difference value. Further, the movement amount calculation unit 25 divides the fingerprint area into two upper and lower areas by a horizontal straight line passing through the center point, calculates a difference value between the areas of the upper and lower areas, and calculates the difference value of the mouse pointer from the difference value. The movement amount of the Y coordinate is calculated.
[0038]
The mouse pointer movement command receiving unit 26 adds the current X coordinate value of the mouse pointer to the X coordinate movement amount of the mouse pointer calculated by the movement amount calculation unit 25 and calculates the X coordinate value of the mouse pointer. A new coordinate position of the mouse pointer is calculated by adding the current value of the Y coordinate of the mouse pointer to the movement amount of the Y coordinate of the mouse pointer. Then, the mouse pointer is erased from the currently displayed coordinate position, and displayed at the newly calculated coordinate position.
[0039]
When the operation determining unit 23 determines that the fingerprint area exists in the upper predetermined area in the fingerprint image, the scroll instruction receiving unit 27 receives an upward scroll instruction from the user and displays the upward scroll instruction on the display screen 41. Scroll the image in the current window upward. In addition, when the operation determining unit 23 determines that the fingerprint area exists in the predetermined lower area in the fingerprint image, the scroll instruction receiving unit 27 receives a downward scroll instruction from the user, and displays the display screen 41. Scroll the image in the displayed window downward.
[0040]
The click command acceptance determination unit 28 counts how many times the acquired image in which the area of the fingerprint area is larger than the threshold value TH is continuously acquired, and when the counted value is larger than a predetermined value, the click from the user is clicked. When a command is received and the counted value is smaller than a predetermined value, a click command from the user is not received.
[0041]
The click command notifying unit 29 is configured such that, when the click command reception determining unit 28 receives a click command from a click by a user, an object displayed on the same coordinates as the mouse pointer when the user clicks is clicked. To the various programs executed.
[0042]
Next, a registration mode executed to acquire a registration image will be described. FIG. 4 is a flowchart showing a processing procedure in the registration mode. First, in step S1, the fingerprint sensor 1 acquires a fingerprint image of a fingertip of a user placed on the sensor surface 12. The registration mode is executed, for example, when the user starts the computer.
[0043]
In step S2, the registered image specifying unit 21 searches the registered image storage unit 32 to determine whether a registered image whose fingerprint pattern matches the acquired image obtained in step S1 is stored in the registered image storage unit 32. judge.
[0044]
In step S3, when a registered image whose fingerprint pattern matches the acquired image is stored in the registered image storage unit 32 (YES in step S3), the registered image specifying unit 21 uses the computer 2 to store the registered image. It is specified as a registered image of the user who is (step S4).
[0045]
In step S3, if the registered image whose fingerprint pattern matches the acquired image is not stored in the registered image storage unit 32 (NO in step S3), the acquired image acquired in step S1 is stored as a new registered image. It is stored in the unit 32 (step S5).
[0046]
In step S6, the fingerprint area specifying unit 22 calculates the area of the fingerprint area of the new registered image obtained in step S3. In step S7, the registered image specifying unit 21 stores the area of the fingerprint area calculated in step S6 in the registered image storage unit 32 in association with the registered image (step S7).
[0047]
Next, a process for receiving an operation command from a user based on an acquired image will be described. FIG. 5 is a diagram for explaining the operation of the finger performed by the user to issue various operation commands to the computer 2 in the pointing device. Arrows Y1 to Y4 shown in the figure indicate the movement of the fingertip F when the fingertip F is slightly shifted in the directions of the arrows Y1 to Y4 in a state where the fingertip F is pressed against the sensor surface 12. The operations shown by the arrows Y1 to Y4 are performed to move the mouse pointer displayed on the display screen 41, and the pointing device receives these operations as a mouse pointer movement command from the user.
[0048]
FIGS. 6A and 6B are diagrams for explaining a change in the fingerprint image with respect to the movement of the finger. FIG. 6A illustrates a fingerprint image obtained when the user places the finger on the sensor surface 12 and does not issue an operation command. (B) shows a fingerprint image obtained when the user performs the operation shown by the arrow Y2, and (c) shows a fingerprint image obtained when the user performs the operation shown in the arrow Y1 direction. Is shown. When the user slightly shifts the finger in the direction indicated by arrow Y2, the fingerprint pattern of the fingerprint image shown in (a) changes to the fingerprint pattern of the fingerprint image shown in (b). At this time, before and after the change, there is an area where the fingerprint pattern does not change (fixed area KD) and an area where the fingerprint pattern changes (slip area GD) is compared with (a) and (b). It can be understood by: In the fingerprint image shown in (c), it can be seen that the fixed area KD and the slip area GD similarly exist. As can be seen by comparing (b) and (c), when the fingertip F is shifted in the direction indicated by the arrow Y2, the sliding area GD appears on the left side of the fixed area KD, but the fingertip F is moved to the arrow Y1. , The sliding area GD appears on the right side of the fixed area KD. As described above, it can be seen that the relative position of the sliding area GD with respect to the fixed area KD greatly differs depending on the movement of the finger. Therefore, the pointing device determines the operation of the fingertip F from the relative positional relationship of the fixed region KD in the fingerprint region SD, and accepts a user's mouse pointer movement command.
[0049]
Arrow Y5 indicates the operation of the fingertip F when the fingertip F is strongly pressed against the sensor surface 12 by increasing the pressure of the fingertip F in the direction of gravity with respect to the sensor surface 12, and arrow Y6 indicates the sensor surface. The operation of reducing the pressure of the fingertip F pressed strongly against the pressure 12 and returning the pressure to the original state is shown, and the pointing device receives these operations as a click command from the user.
[0050]
The arrow Y7 indicates an operation when the finger FB is raised against the sensor surface 12 while the fingertip F is pressed against the sensor surface 12 (by increasing the inclination angle θ between the sensor surface 12 and the finger FB). The pointing device accepts this operation as an upward scroll command from the user. In addition, the arrow Y8 indicates an operation of resting the entire finger on the sensor surface 12 (an operation of decreasing the inclination angle θ between the sensor surface 12 and the finger), contrary to the operation indicated by the arrow Y7. The pointing device accepts this operation as a downward scroll command from the user. Here, the upward scroll refers to scrolling the screen in the window displayed on the display screen 41 in the Y direction, and the downward scroll refers to the screen in the window displayed on the display screen 41 in the −Y direction. Means scrolling.
[0051]
FIG. 7 is a flowchart illustrating a procedure of a process for receiving an operation command from a user. First, in step S11, the fingerprint sensor 1 acquires a fingerprint image of the fingertip F placed on the sensor surface 12, and stores the fingerprint image in the acquired image storage unit 31. The fingerprint sensor 1 acquires fingerprint images at predetermined time intervals (for example, 1/10 seconds).
[0052]
In step S12, the operation determination unit 23 performs an operation determination process for determining whether the movement of the user's finger is a mouse pointer movement command, a click command, or a scroll command from the acquired image acquired in step S11. Do.
[0053]
In step S13, when the operation determining unit 23 determines that the command is a click command, the process proceeds to step S14, where a click command receiving process for determining whether to receive the click command is performed (step S14), and the movement of the mouse pointer is performed. When it is determined that the command is a command, the process proceeds to step S15, where a mouse pointer movement command receiving process, which is a detailed process for receiving a command to move the mouse pointer, is performed. A scroll command receiving process for determining whether to receive a command is performed.
[0054]
FIG. 8 is a flowchart showing a subroutine of the operation determination process in step S12. First, in step S121, the fingerprint area specifying unit 22 specifies the fingerprint area from the acquired image and obtains the area of the fingerprint area. FIG. 9 is a diagram illustrating an example of a fingerprint image acquired by the fingerprint sensor 1. As shown in FIG. 9, a fingerprint area SD is shown over the entire screen. In the fingerprint area SD, a portion corresponding to a groove (recess) of the fingerprint appears black, and a fingerprint peak (convex portion) corresponds to the fingerprint. It can be seen that the white area appears white and the fingerprint is represented by a black and white stripe pattern. The fingerprint area specifying unit 22 detects the outline of the fingerprint area SD and calculates the area of the fingerprint area SD from the number of pixels included in the outline. Note that the fingerprint area specifying unit 22 represents the fingerprint area SD with a solid black color by filling a white stripe portion of the fingerprint area SD with black, and calculates the area of the fingerprint area SD from the number of pixels represented by black. May be.
[0055]
In step S122, the motion determining unit 23 subtracts the area of the fingerprint area of the registered image specified in the registration mode from the area of the fingerprint area calculated in step S121, and calculates an area difference value.
[0056]
In step S123, the operation determination unit 23 determines whether or not the area difference value calculated in step S122 is larger than the threshold value TH (step S123). If the area difference value is larger than the threshold value TH (step S123) (YES in S123), it is determined that the user has issued a click command (step S125).
[0057]
As the pressure in the direction of gravity of the fingertip F with respect to the sensor surface 12 is increased, the area of the contact surface between the sensor surface 12 and the fingertip F increases, and the area of the fingerprint region in the fingerprint image increases. Go. Therefore, the operation determining unit 23 determines a click command from the user based on whether or not the area of the fingerprint area is larger than the threshold value TH.
[0058]
On the other hand, when the area difference value calculated in step S122 is smaller than the threshold value TH (NO in step S123), the operation determination unit 23 determines whether the fingerprint area is biased toward the upper or lower area. It is determined (step S124), and if the area is biased toward the upper or lower area (YES in step S124), it is determined that the scroll command has been issued (step S126). On the other hand, in step S124, when the fingerprint area is not biased toward the upper or lower area (NO in step S124), the operation determining unit 23 determines that the user has issued a mouse pointer movement instruction (step S124). Step S127).
[0059]
FIG. 10 is a flowchart showing the mouse pointer movement command accepting process shown in step S15. First, in step S21, the fixed region specifying unit 24 specifies a fixed region from the fingerprint image acquired in step S11. FIGS. 11A and 11B are diagrams schematically illustrating a fingerprint image for explaining template matching performed by the fixed region specifying unit 24. FIG. 11A illustrates a registered image, and FIG. 11B illustrates an acquired image. The fixed region specifying unit 24 specifies the center point from the fingerprint region of the registered image specified by the fingerprint region specifying unit 22. The center point is specified, for example, by fitting a rectangle circumscribing the fingerprint area, dividing one side of the fitted rectangle in the vertical direction at a predetermined ratio, and drawing a straight line drawn in the horizontal direction from the divided position, and a horizontal line of the fitted rectangle. One side in the direction is divided at a predetermined ratio, and an intersection with a straight line drawn in the vertical direction from the divided position is specified as a center point. The predetermined ratio when dividing one side in the vertical and horizontal directions is obtained, for example, by obtaining fingerprint images of a plurality of users as samples and using an average value of the ratio of these samples. Thereby, as shown in FIG. 11A, the fixed area KD is specified for the registered image, and the center point CP of the specified fixed area KD is specified.
[0060]
Next, the fixed area specifying unit 24 specifies the center point CP of the fingerprint area SD from the registered image specified in the registration mode, and defines a predetermined vertical and horizontal rectangular area having the center point CP as the center of gravity. Extract as template T. Here, it is assumed that the size of the extracted rectangular template T is smaller than the size of the fixed region KD.
[0061]
Next, the fixed region specifying unit 24 scans the template T extracted from the registered image in the X direction from, for example, the upper left vertex of the acquired image, and specifies the most matching region. Then, the center of gravity of the specified area T ′ is set as the center point CP ′ of the fixed area KD ′ (FIG. 11B).
In step S22, the fixed area specifying unit 24 sets a counter value K for counting how many acquired images have been obtained since the last time the fixed area was specified.
[0062]
In step S23, the fixed area specifying unit 24 determines whether or not the counter value K is larger than the predetermined value N. If K> = N, that is, if the fixed area KD 'is specified last time, If the number of acquired images has been acquired (NO in step S23), template matching is performed on the acquired image acquired this time to specify the center point CP 'of the fixed region KD' (step S24). ). On the other hand, if K <N in step S23, that is, if a predetermined number of acquired images have not been acquired since the last time the fixed area KD 'was specified (YES in step S23), the process proceeds to step S25. As described above, the fixed region specifying unit 24 does not perform template matching on all acquired images, but performs template matching on a predetermined number of sheets, thereby speeding up processing.
[0063]
In step S25, the fixed area specifying unit 24 specifies the center point CP 'of the fixed area KD' of the acquired image. In this case, the coordinates of the center point of the fixed area specified by the previous template matching are used as the center point CP 'of the fixed area KD'.
[0064]
In step S26, the movement amount calculation unit 25 divides the fingerprint area of the acquired image into two areas by a vertical straight line passing through the center point CP 'of the fixed area KD'. In this case, as shown in FIG. 11B, the fingerprint area SD 'is divided into two areas D1 and D2 by a vertical straight line L1 passing through the center point CP' of the specified fixed area KD '.
[0065]
In step S27, the movement amount calculation unit 25 calculates the respective areas S1 and S2 of the regions D1 and D2, and calculates a difference value ΔS1 (= S2−S1) between the areas of the regions D1 and D2.
[0066]
In step S28, the movement amount calculation unit 25 calculates the movement amount ΔX of the mouse pointer with respect to the X coordinate of the display screen 41 from the difference value ΔS1. The movement amount ΔX may be calculated, for example, by obtaining a conversion coefficient from the relationship between the horizontal size of the display screen 41 and the horizontal size of the fingerprint image, and multiplying the conversion coefficient by the difference value ΔS1. Alternatively, the conversion function may be calculated by obtaining a conversion function from the relationship between the horizontal size of the display screen 41 and the horizontal size of the fingerprint image, and substituting the difference value ΔS1 into the conversion function.
[0067]
In step S29, the movement amount calculator 25 draws a horizontal straight line L2 passing through the center point CP 'of the fixed region KD', and divides the fingerprint region SD 'into two regions D3 and D4.
[0068]
In step S30, the movement amount calculation unit 25 calculates the areas S3 and S4 of the regions D3 and D4, and calculates a difference value ΔS2 (= S4−S3) between the areas of the regions D3 and D4.
[0069]
In step S31, the movement amount calculation unit 25 calculates the movement amount ΔY of the mouse pointer with respect to the Y coordinate of the display screen 41 from the difference value ΔS2. The movement amount ΔY is calculated by a conversion coefficient or a conversion function, similarly to the movement amount ΔX.
[0070]
In step S32, the mouse pointer movement command receiving unit 26 calculates X ′ = X + ΔX for the coordinates (X, Y) of the mouse pointer currently displayed on the display screen 41, and sets Y ′ = By calculating Y + ΔY, new coordinates (X ′, Y ′) of the mouse pointer are calculated. Then, the mouse pointer displayed at the coordinates (X, Y) is deleted, and the mouse pointer is displayed at the new coordinates (X1, Y1).
[0071]
In step S33, the fingerprint sensor 1 acquires a fingerprint image. Next, in step S34, the sticking area specifying unit 24 updates the counter value K by adding 1 to the counter value K.
[0072]
In step S35, the operation determination unit 23 performs the operation determination process shown in step S12, and when the operation determination unit 23 determines that the instruction is a mouse pointer movement instruction (YES in step S36), the process returns to step S23. On the other hand, in step S36, when the operation determination unit 23 determines that the instruction is not a mouse pointer movement instruction (NO in step S36), the process returns to step S13 illustrated in FIG.
[0073]
In this manner, when the processing of the flowchart of FIG. 10 is repeatedly executed, the mouse pointer moves at a higher speed as the distance of the finger shifted with respect to the sensor surface 12 increases. If the calculated new coordinates (X1, Y1) exceed the displayable range of the display screen 41, the mouse pointer stops at the edge of the displayable range.
[0074]
Next, the click command acceptance determination process shown in step S14 will be described. FIG. 12 is a flowchart showing the subroutine of step S14. First, in step S40, the click command reception determination unit 28 sets a counter value K for counting how many consecutively acquired images having a larger fingerprint area than the threshold value TH to 1, and sets the counter value K to 1. Initialize the value K.
[0075]
In step S41, the fingerprint sensor 1 acquires a fingerprint image. In step S42, the click command reception determining unit 28 updates the counter value K by adding 1 to the counter value K. In step S43, the operation determining unit 23 determines whether the area of the fingerprint area is smaller than the threshold value TH (step S43). If the area of the fingerprint area is larger than the threshold value TH (NO in step S43), Returning to step S41, a new fingerprint image is obtained. On the other hand, if the area of the fingerprint area is smaller than the threshold value TH (YES in step S43), the process proceeds to step S44.
[0076]
In step S44, the click command acceptance determination unit 28 determines whether the value of the counter value K is greater than a predetermined value N (step S44). If N> K (YES in step S44), Click command from is accepted. When a click command is received from the user, the click command notification unit 29 notifies various programs that the click command has been performed. For example, when an icon is clicked by the user, the color of the icon is highlighted. When the button for maximizing the display of the window displayed on the display screen 41 is clicked, the window is maximized on the display screen 41.
[0077]
Further, when the click command is received twice within a predetermined time, a double-click command may be issued. When the user double-clicks an icon, the application software associated with the icon is activated.
[0078]
Next, a scroll command acceptance determination process will be described. FIG. 13 is a flowchart showing a subroutine of step S16. First, in step S51, the operation determining unit 23 determines whether the fingerprint area exists in a predetermined area above the fingerprint image (step S51), and determines that the fingerprint area exists in the upper predetermined area (step S51). (YES in S51), scroll instruction receiving unit 27 receives an upward scroll instruction from the user (step S52).
[0079]
FIG. 14 is a diagram showing a state where the fingerprint area is displayed in a predetermined area above the fingerprint image. In the present embodiment, as shown in FIG. 14, for example, the scroll instruction receiving unit 27 draws a straight line L3 in the horizontal direction from the midpoint MP of the vertical side H1 of the acquired image, and If the fingerprint area SD ′ exists in the upper area UD, it is determined that the scroll command has been issued. In addition, the point on the side H1 where the straight line L3 is drawn is not limited to the midpoint MP, and may be appropriately changed according to the size of the fingerprint image.
[0080]
In step S52, the scroll command receiving unit 27 performs a display process of scrolling the screen in the window, for which the upward scroll command has been issued, upward.
[0081]
In step S51, when the scroll command receiving unit 27 determines that the fingerprint area is not biased toward the predetermined area above the fingerprint image (NO in step S51), that is, the fingerprint area is located below the fingerprint image. When the display is biased to the predetermined area, the scroll command receiving unit 27 receives a downward scroll command.
[0082]
In step S55, the scroll command receiving unit 27 performs a display process of scrolling the screen in the window, for which the downward scroll command has been issued, upward.
[0083]
In the above embodiment, the program execution unit 20 and the storage unit 40 use the CPU, the RAM, and the hard disk of the computer 2. You may. In this case, the size of the pointing device itself can be reduced by reducing the size of the sensor surface 12.
[0084]
In the above-described embodiment, the fixed region specifying unit 24 uses a rectangular template as a template for specifying a fixed region from an acquired image. However, the present invention is not limited to this. As shown in FIG. A vertical straight line L4 passing through the center point CP of the fixed area and a horizontal straight line L5 passing through the center point CP are used as templates, and the obtained image is scanned with the straight line L4 in the horizontal direction to find the best match. The vertical line to be extracted is extracted, and a straight line L5 is scanned in the vertical direction with respect to the acquired image to extract the best matching horizontal line, and the intersection of the extracted vertical and horizontal lines is determined. The center point CP ′ of the fixing region may be used. In this case, by scanning the straight lines L4 and L5 in one of the vertical and horizontal directions, the center point CP 'of the fixed region KD' can be calculated, so that the processing can be speeded up.
[0085]
In the above embodiment, the fingerprint sensor 1 is connected to the outside of the computer 2. However, the present invention is not limited to this. When the pointing device is applied to a notebook computer, the fingerprint device is integrated with the notebook computer. May be connected. In this case, since the area of the sensor surface 12 can be reduced, the notebook personal computer itself can be reduced in size.
[0086]
【The invention's effect】
According to the present invention, the user can issue various operation commands to the computer by slightly moving the finger placed on the contact portion, and thus the contact portion can be downsized.
[Brief description of the drawings]
FIG. 1 is a diagram showing an external configuration of a pointing device according to an embodiment of the present invention.
FIG. 2 is a diagram showing a schematic configuration of a capacitance type fingerprint sensor.
FIG. 3 shows a block diagram of the pointing device.
FIG. 4 is a flowchart showing a processing procedure in a registration mode.
FIG. 5 is a diagram for explaining a finger operation performed by a user in order to issue various operation commands to a computer in the pointing device.
6A and 6B are diagrams for explaining a change in a fingerprint image with respect to a movement of a finger. FIG. 6A illustrates a fingerprint image obtained when the user places a finger on a sensor surface and does not issue an operation command. (B) shows a fingerprint image obtained when the user performs the operation shown by the arrow Y2, and (c) shows a fingerprint image obtained when the user performs the operation shown by the arrow Y1 direction ing.
FIG. 7 is a flowchart illustrating a procedure of a process for receiving an operation command from a user.
FIG. 8 is a flowchart of an operation determination process.
FIG. 9 is a diagram illustrating an example of a fingerprint image acquired by a fingerprint sensor.
FIG. 10 is a flowchart showing a mouse pointer movement command accepting process.
FIGS. 11A and 11B are diagrams schematically illustrating a fingerprint image for explaining template matching performed by a fixed region specifying unit, wherein FIG. 11A illustrates a registered image and FIG. 11B illustrates an acquired image.
FIG. 12 is a flowchart of a click instruction receiving process.
FIG. 13 is a flowchart of a scroll command receiving process.
FIG. 14 is a diagram showing a state where a fingerprint area is displayed in a predetermined area above a fingerprint image.
[Explanation of symbols]
1 Fingerprint sensor (acquisition means)
2 Computer
3 cable
4 Display device
11 Case
12 Sensor surface (contact part)
20 Program execution unit
21 Registered image specifying unit
22 Fingerprint area specifying unit (detection means)
23 operation determination unit (detection means)
24 Fixed area specifying part (detection means)
25 Movement amount calculation unit (detection means)
26 Mouse pointer movement command receiving unit (receiving means)
27 Scroll command receiving unit (receiving means)
28 Click command reception judgment unit (reception means)
29 Click command notification section
31 Acquired image storage unit
32 Registered image storage
40 storage unit
41 Display screen
111 protective film
112a electrode
112 electrode group

Claims (7)

操作者の指が載置される接触部を備えたポインティングデバイスであって、
操作者の指紋画像を予め登録画像として記憶する記憶手段と、
前記接触部に載置された指の指紋画像を取得する取得手段と、
前記登録画像と前記取得手段が取得した指紋画像とを比較することにより前記接触部上での指の動きを検出する検出手段と、
前記検出手段が検出した指の動きに応じた操作指令を受け付ける受付手段とを備えることを特徴とするポインティングデバイス。
A pointing device having a contact portion on which an operator's finger is placed,
Storage means for storing a fingerprint image of the operator as a registered image in advance;
Acquisition means for acquiring a fingerprint image of a finger placed on the contact portion,
Detecting means for detecting the movement of the finger on the contact portion by comparing the registered image and the fingerprint image obtained by the obtaining means,
A pointing device for receiving an operation command corresponding to the movement of the finger detected by the detection unit.
前記検出手段は、前記接触部に載置した指を前記接触部に対してずらしたときに生じる指紋画像における指紋模様の変化に基づいて、指の動きを検出することを特徴とする請求項1記載のポインティングデバイス。2. The apparatus according to claim 1, wherein the detecting unit detects a finger movement based on a change in a fingerprint pattern in a fingerprint image generated when a finger placed on the contact unit is displaced with respect to the contact unit. A pointing device as described. 前記検出手段は、前記取得手段が取得した指紋画像において、前記登録画像と比較して指紋模様の変化が略一定の指紋画像の領域を固着領域として特定し、当該指紋画像における固着領域の位置に基づいて、指の動きを検出することを特徴とする請求項2記載のポインティングデバイス。In the fingerprint image obtained by the obtaining unit, the detecting unit specifies a region of the fingerprint image in which a change in the fingerprint pattern is substantially constant as compared with the registered image as a fixed region, and determines a position of the fixed region in the fingerprint image. The pointing device according to claim 2, wherein a movement of a finger is detected based on the detection. 前記検出手段は、前記登録画像から基準画像を抽出し、前記取得手段が取得した指紋画像に、抽出した基準画像を用いたテンプレートマッチングを施すことにより前記固着領域を検出することを特徴とする請求項3に記載のポインティングデバイス。The detection unit detects a fixed image by extracting a reference image from the registered image and performing template matching on the fingerprint image acquired by the acquisition unit using the extracted reference image. Item 4. The pointing device according to item 3. 前記検出手段は、前記固着領域内の所定の一点を通り、それぞれ直交する直線を前記基準画像とすることを特徴とする請求項4に記載のポインティングデバイス。5. The pointing device according to claim 4, wherein the detection unit sets straight lines passing through a predetermined point in the fixed region and orthogonal to each other as the reference image. 6. 前記検出手段は、前記登録画像の指紋領域に対する前記取得手段が取得した指紋画像の指紋領域の面積の変化に基づいて、指の動きを検出することを特徴とする請求項1〜5のいずれかに記載のポインティングデバイス。The method according to claim 1, wherein the detecting unit detects a finger movement based on a change in an area of a fingerprint area of the fingerprint image acquired by the acquiring unit with respect to a fingerprint area of the registered image. A pointing device according to claim 1. 前記検出手段は、前記登録画像の指紋領域に対する前記取得手段が取得した指紋画像の形状の変化に基づいて、指の動きを検出することを特徴とする請求項1〜6のいずれかに記載のポインティングデバイス。The method according to claim 1, wherein the detection unit detects a finger movement based on a change in a shape of the fingerprint image acquired by the acquisition unit with respect to a fingerprint area of the registered image. pointing device.
JP2003051530A 2003-02-27 2003-02-27 Pointing device Pending JP2004259173A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003051530A JP2004259173A (en) 2003-02-27 2003-02-27 Pointing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003051530A JP2004259173A (en) 2003-02-27 2003-02-27 Pointing device

Publications (1)

Publication Number Publication Date
JP2004259173A true JP2004259173A (en) 2004-09-16

Family

ID=33116652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003051530A Pending JP2004259173A (en) 2003-02-27 2003-02-27 Pointing device

Country Status (1)

Country Link
JP (1) JP2004259173A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100703199B1 (en) 2005-02-17 2007-04-05 (주)모비솔 Keyboard and joystic with integrated pointing device
JP2008523460A (en) * 2004-11-12 2008-07-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Unique user identification and authentication for multiple user access to display devices
KR101155572B1 (en) 2006-03-27 2012-06-19 주식회사 이노칩테크놀로지 Pointing device and handheld terminal having the same and method for controlling the same
JP2015512105A (en) * 2012-03-02 2015-04-23 マイクロソフト コーポレーション Classification of user input intent
WO2017140109A1 (en) * 2016-02-17 2017-08-24 北京小米移动软件有限公司 Pressure detection method and apparatus
US9959241B2 (en) 2012-05-14 2018-05-01 Microsoft Technology Licensing, Llc System and method for accessory device architecture that passes via intermediate processor a descriptor when processing in a low power state
WO2018079001A1 (en) * 2016-10-24 2018-05-03 ソニー株式会社 Information processing device, information processing method, and program
US10013030B2 (en) 2012-03-02 2018-07-03 Microsoft Technology Licensing, Llc Multiple position input device cover
JP2018124903A (en) * 2017-02-03 2018-08-09 孝資 豊岡 Information input apparatus with using finger and information input method
JP2019074773A (en) * 2017-10-12 2019-05-16 富士通コネクテッドテクノロジーズ株式会社 Display apparatus, display control method and display control program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008523460A (en) * 2004-11-12 2008-07-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Unique user identification and authentication for multiple user access to display devices
KR100703199B1 (en) 2005-02-17 2007-04-05 (주)모비솔 Keyboard and joystic with integrated pointing device
KR101155572B1 (en) 2006-03-27 2012-06-19 주식회사 이노칩테크놀로지 Pointing device and handheld terminal having the same and method for controlling the same
US10013030B2 (en) 2012-03-02 2018-07-03 Microsoft Technology Licensing, Llc Multiple position input device cover
JP2015512105A (en) * 2012-03-02 2015-04-23 マイクロソフト コーポレーション Classification of user input intent
US9946307B2 (en) 2012-03-02 2018-04-17 Microsoft Technology Licensing, Llc Classifying the intent of user input
US10963087B2 (en) 2012-03-02 2021-03-30 Microsoft Technology Licensing, Llc Pressure sensitive keys
US9959241B2 (en) 2012-05-14 2018-05-01 Microsoft Technology Licensing, Llc System and method for accessory device architecture that passes via intermediate processor a descriptor when processing in a low power state
WO2017140109A1 (en) * 2016-02-17 2017-08-24 北京小米移动软件有限公司 Pressure detection method and apparatus
RU2683979C2 (en) * 2016-02-17 2019-04-03 Бейджин Сяоми Мобайл Софтвэар Ко., Лтд. Method and device for detecting pressure
US10402619B2 (en) 2016-02-17 2019-09-03 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for detecting pressure
CN109844693A (en) * 2016-10-24 2019-06-04 索尼公司 Information processing equipment, information processing method and program
JPWO2018079001A1 (en) * 2016-10-24 2019-09-12 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2018079001A1 (en) * 2016-10-24 2018-05-03 ソニー株式会社 Information processing device, information processing method, and program
US11494470B2 (en) 2016-10-24 2022-11-08 Sony Corporation Information processing apparatus and information processing method
JP2018124903A (en) * 2017-02-03 2018-08-09 孝資 豊岡 Information input apparatus with using finger and information input method
JP2019074773A (en) * 2017-10-12 2019-05-16 富士通コネクテッドテクノロジーズ株式会社 Display apparatus, display control method and display control program

Similar Documents

Publication Publication Date Title
US9052817B2 (en) Mode sensitive processing of touch data
US8525776B2 (en) Techniques for controlling operation of a device with a virtual touchscreen
US8086971B2 (en) Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
JP5407950B2 (en) Information processing apparatus, information processing method, and program
US5389745A (en) Handwriting input apparatus for inputting handwritten data from unspecified direction
US10444040B2 (en) Crown with three-dimensional input
US8446389B2 (en) Techniques for creating a virtual touchscreen
US20180150152A1 (en) Selective rejection of touch contacts in an edge region of a touch surface
US8466934B2 (en) Touchscreen interface
EP1507192B1 (en) Detection of a dwell gesture by examining parameters associated with pen motion
US7705831B2 (en) Pad type input device and scroll controlling method using the same
US9218121B2 (en) Apparatus and method recognizing touch gesture
US6727896B2 (en) Correction of alignment and linearity errors in a stylus input system
US8502785B2 (en) Generating gestures tailored to a hand resting on a surface
US8432301B2 (en) Gesture-enabled keyboard and associated apparatus and computer-readable storage medium
US20110242038A1 (en) Input device, input method, and computer program for accepting touching operation information
JP5604279B2 (en) Gesture recognition apparatus, method, program, and computer-readable medium storing the program
JPH11288354A (en) Capacitive semiconductor user input device
JP2010067135A (en) Information processor, information processing method and computer program
CN1322329A (en) Imput device using scanning sensors
US6466197B1 (en) Method and apparatus for driving pointing device of computer system
US20120019460A1 (en) Input method and input apparatus
TWI581127B (en) Input device and electrical device
JP2004259173A (en) Pointing device
US8355599B2 (en) Methods and devices for detecting changes in background of images using multiple binary images thereof and hough transformation

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040701

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040928

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060725

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070717