JP2004318892A - 指画像入力用途における時間空間多重化システム及び方法 - Google Patents

指画像入力用途における時間空間多重化システム及び方法 Download PDF

Info

Publication number
JP2004318892A
JP2004318892A JP2004121388A JP2004121388A JP2004318892A JP 2004318892 A JP2004318892 A JP 2004318892A JP 2004121388 A JP2004121388 A JP 2004121388A JP 2004121388 A JP2004121388 A JP 2004121388A JP 2004318892 A JP2004318892 A JP 2004318892A
Authority
JP
Japan
Prior art keywords
finger
image
mode
light
swipe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004121388A
Other languages
English (en)
Other versions
JP2004318892A5 (ja
Inventor
Izhak Baharav
バハラフ イツァーク
Akihiro Machida
晶弘 町田
George E Smith
イー. スミス ジョージ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agilent Technologies Inc
Original Assignee
Agilent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agilent Technologies Inc filed Critical Agilent Technologies Inc
Publication of JP2004318892A publication Critical patent/JP2004318892A/ja
Publication of JP2004318892A5 publication Critical patent/JP2004318892A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1324Sensors therefor by using geometrical optics, e.g. using prisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 電子装置に組み込むことができる程度に小さいサイズの単一センシングエリアを利用して、指認識とフィンガ・ナビゲーションを併せて実施する光学機構を提供する。
【解決手段】 画像入力システム10は、フィンガ・ナビゲーション・モードまたは指認識モードで動作可能である。2つ以上に区画された表面115上のセンシングエリアに指20の先端が押し当てられ、上記2つ以上の区画のそれぞれは複数の光源120で照射される。センサ140は、選択された1つの区画において光源120のひとつによって照射された指20の先端の一部で反射した光128を区画された画像として受光し、この区画された画像に対応する画像データ50を生成する。画像処理システム200は、選択されている画像入力システム10の動作モードに応じて画像データ50を処理する。
【選択図】 図1

Description

本発明は、一般に、画像入力分野に関するものである。とりわけ、本発明は、ナビゲーション及び認識のため、指紋の画像を得て、処理を施すためのシステム及び方法に関するものである。
認証のための指紋の利用は、数世紀前まで遡ることが可能である。例えば、14世紀のペルシャでは、さまざまな政府の公文書に指紋(圧痕)が含まれており、ある政府高官は、2つの指紋が全く同じということはないという点に気づいていた。最近では、指紋は、生理的特性または行動特性に基づく個人の認証を表わす、バイオメトリクスとして既知の分野において重要な役割を果たしている。バイオメトリクスによって、犯罪捜査、施設への物理的出入り、及び、コンピュータ及び/またはコンピュータ・システムのデータへの電子的アクセスといった、いくつかの用途のための自動個人認証が可能になる。
指紋は、現在では、従来行われていたように、紙に押し付けた指紋を得る中間ステップを必要とすることなく、ディジタル画像の形で直接得ることが可能である。ディジタル指紋は、記憶しておいて、後で、指紋強調及び照合用途において処理することが可能である。認識に十分な特徴を備えた指紋画像を入力するには、一定の解像度及び指先面積が必要になる。例えば、連邦捜査局(FBI)では、400dpiの解像度で、12×6mmの指先面積(センシングエリア)を推奨している。サイズ及びコストが重要な要素になる他の用途の場合、上記と同じか、それ未満の解像度で、より狭い指先面積を利用することが可能である。例えば、多くの用途では、300dpiの解像度で、9×12mmの指先面積が用いられてきた。しかし、より小面積及び/または低解像度の指紋画像入力用途では、指紋認証アルゴリズムの性能は、通常、入力される特徴の数が減少するために劣ることになる。
用途によっては、9×12mmの面積でさえ、指紋画像の入力専用にするのは望ましくない場合がある。例えば、携帯電話、ラップトップ・コンピュータ、携帯端末、電子マウス、または、他の電子装置の設計においては、装置自体を小型にし、同時に、より多くの機構を与えようとする傾向がある。従って、こうした電子装置に指認識機構を与えるためには、センシングエリアをできる限り小さくする必要がある。しかし、こうした電子装置に実装するのに十分なほど小さく、それにもかかわらず、十分な指認識アルゴリズム性能を可能にする指紋スキャナは、現在のところ得られない。
やはり、多くの電子装置によって得られるもう1つの機構は、スクリーン上におけるカーソルまたはポインタを制御するためのナビゲーション機構である。これまで、PC用途において最もよく知られているナビゲーション機構はマウスである。最近、一連の画像を移動の方向に相関させるトラッキング・アルゴリズムを利用して、ほぼいかなる任意の表面上においてもナビゲート可能な光学マウスが開発された。例えば、参考までに本明細書で全体が援用されている先行技術文献(例えば、特許文献1参照)には、マウス下の表面の空間的特徴を画像入力し、一連の画像を比較して、移動方向及び量を確認する光学マウスについての記載がある。さらに、参考までに本明細書で全体が援用されている先行技術文献(例えば、特許文献2参照)によれば、指の動きを検出して、その指の動きを、スクリーン上における対応するカーソルまたはポインタの動きに変換する光学フィンガ・ナビゲーション装置も開発されている。
同じ電子装置に指認識及びフィンガ・ナビゲーションのための独立したセンシングエリアを配置するのは、コスト及びスペースの観点から非効率的である。しかし、指認識とフィンガ・ナビゲーションの両方を実施することが可能な指紋スキャナは現在のところ得られない。
米国特許第6,281,882号明細書 米国特許第6,057,540号明細書
従って、本発明の目的は、電子装置に組み込むことができる程度に小さいサイズの単一センシングエリアを利用して、指認識とフィンガ・ナビゲーションを併せて実施する光学機構を提供することにある。本発明のもう1つの目的は、指認識とフィンガ・ナビゲーションの両方を実施し、同時に、小型電子装置及び/または携帯式電子装置において必要とされる電力消費及び空間を最小限に抑えることが可能な、コスト効率の良い画像入力システムを提供することにある。
本発明のいくつかの実施態様によれば、少なくとも2つの異なる動作モードで指紋を画像入力し、指認識及びフィンガ・ナビゲーションの両方に応用できるようにするための装置が得られる。ユーザが指(または親指)を置いたフィンガ・インターフェースの対応する区画を照射するため、複数光源を順次選択することが可能である。選択動作モードに応じて、複数光源を順次選択して照射するか、または、単一光源を選択して照射する。単一センサが、全ての照射区画において指から反射された光を一連の区画画像として入力する。センサは、さらに、少なくとも2つの異なるモードの一方における処理のために、入力された区画画像に対応する画像データを出力する。
他の実施態様によれば、画像データを処理するための少なくとも2つの異なるモード間において選択を行うモード・スイッチを備えた画像入力システムが得られる。モード・スイッチは、さらに、少なくとも2つのモードの一方による画像処理システムの動作中に、所望の区画を照射する1つ以上の光源を選択する。さらに、光源を順次選択することによって、フィンガ・インターフェースに押し付けられた指領域の完全な画像を処理することが可能になる。選択された1つまたは複数の光源に対応する1つまたは複数の画像センサから受信する画像データは、少なくとも2つのモードの1つに対応して画像データを処理するようにプログラムされたプロセッサに供給される。
フィンガ・ナビゲーション・モードでは、順次画像を相関させて、指の動きの量及び方向を表わすナビゲーション情報を確認することが可能なトラッキング・アルゴリズムを用いて、画像データの処理が実施される。画像は、画像センサによって入力される指紋のそれぞれの部分における微小テクスチャ特徴(例えば、隆線及び凹線)を利用して相関させられる。
指認識モードでは、指紋照合に十分な数の微小テクスチャ特徴を備える、指紋の連続した1つの画像を形成するため、トラッキング・アルゴリズムと一連の画像を組み合わせるステッチング・アルゴリズムの両方を用いて、画像データの処理が実施される。ステッチング・アルゴリズムは、トラッキング・アルゴリズムによって確認されるナビゲーション情報を用いて、一連の画像間のオーバラップを決定する。
他の実施態様では、画像入力システムは、スタイラス・モードのような他のタイプの光学ナビゲーション用途のための追加モードで動作することが可能である。スタイラス・モードでは、指の一連の画像を表わした画像データから抽出されたナビゲーション情報を利用して、ユーザによって行われる、所望の英字、数字、または、句読記号に対応したフィンガ・ストロークが判定される。画像入力システムのもう1つの動作モードは、光源がメッセージ表示灯として用いられる、明滅モードである。
単一のセンシングエリアを利用して、指認識とフィンガ・ナビゲーションの両方の応用例のための画像データを提供することによって、電子装置へのこれらの応用例の導入サイズが縮小され、導入コストが低下する。さらに、センシングエリアを指認識に用いられる従来の9×12mmのセンシングエリアより小さくすることによって、携帯電話、ラップトップ・コンピュータ、携帯用端末、及び、電子マウスのような、小型電子装置及び/または携帯式電子装置において指認識応用例を実施することが可能になる。さらに、本発明によれば、上述のものに加えて、または、その代わりに、他の特徴及び利点を備えた実施態様も得られる。これらの特徴及び利点の多くについては、添付の図面に関連した下記の説明から明らかになる。
開示の発明は、本発明の重要な見本となる実施態様を示す、参考までに明細書に組み込まれた、添付の図面に関連して説明されることになる。
本出願の数多くの新規の教示が、特定の典型的な実施態様に関連して解説される。ただし、云うまでもないが、これらの実施態様によって示されるのは、本明細書における新規の教示の数多くある有用な用途のほんの数例にすぎない。一般に、本明細書でなされる説明は、必ずしも、請求の範囲に記載されているさまざまな発明の任意のどれかについて限界を設定するものではない。さらに、説明の中には、本発明のある特徴には当てはまるが、他の特徴には当てはまらないというものもある。
図1には、1つがフィンガ・ナビゲーション・モードで、もう1つが指認識モードという、少なくとも2つの異なるモードで動作可能な画像入力システム10が例示されている。画像入力システム10の用途によっては、他のモードも可能である。例えば、画像入力システム10は、フィンガ・ストロークを利用して、簡便かつ効率のよいやり方で、書かれた英字、数字、句読記号、及び、他の書かれた伝達形態を表わす、スタイラス・モードで動作するようにプログラムすることが可能である。画像入力システム10には、今後はスワイプ・モジュール100と呼ぶことにする、人間の指20の画像を表わした画像データ50を入力するための装置と、少なくとも2つの異なるモードの1つで画像データ50を処理するための画像処理システム200が含まれている。以下で用いられるように、「指」という用語には、人間の手または足の任意の指(手指、親指、または、足指)が含まれる。
スワイプ・モジュール100には、ユーザがその上に指20を押し付けて、指20を動かす上面115を備えたスワイプ・インターフェース110が含まれている。上面115は、フラットにすることもできるが、わずかに湾曲させることができるのが望ましい。例えば、凸状に湾曲させると、上面115のセンシングエリアを拡大するのに役立つ。センシングエリアは、上面115に押し付けられた指20の画像を入力するために焦点が合わせられた、上面115の一部である。望ましい実施態様の場合、センシングエリアには、スワイプ・インターフェース110の上面115全体が含まれる。スワイプ・インターフェース110は、スワイプ・インターフェース110の上面115を照射する光源120から放出される光に対して透明な、ガラスまたは他の耐摩耗性材料から形成することが可能である。
実施態様の1つでは、スワイプ・インターフェース110は、少なくとも1つの方向の寸法において人間の指の先端領域より小さいセンシングエリアを設けるため、細長い形状をなしている。人間の指の先端領域は、従来の9×12mmのセンシングエリアと定義される。図1に示す軸を利用すると、ある実施態様の場合、スワイプ・インターフェース110は、y方向に細長い。一例として、スワイプ・インターフェース110は、y方向において約7〜9mmで、x方向において1mmである。他の実施態様の場合、スワイプ・インターフェース110は、領域拡大という代償を払ってでも、性能を向上させることができるように、領域によっては2mmまでといったように、x方向において拡大することが可能なものもある。図1に示すように、ユーザの指20は、指先から指20の付け根までの指20の全長がx方向に向き、指20の両側間にわたる指20の幅がy方向に向くようにして、スワイプ・インターフェース上に配置される。従って、指20の全長は、図示のように、指20の幅にわたって指20の先端部分の画像を入力するため、スワイプ・インターフェースの長手方向に直交している。ただし、云うまでもなく、他の実施態様には、スワイプ・インターフェース110の長手方向に対して、指20の全長をスワイプ・インターフェースの軸方向(長手方向)に任意の位置まで回転させることが可能なものもある。例えば、指20の全長は、スワイプ・インターフェース110の長手方向に対して平行にすることも可能である。
光源120は、任意の適合する電磁放射線(光125)源とすることが可能である。例えば、制限するわけではないが、光源120は、単一の発光ダイオード(LED)、スワイプ・インターフェース表面115の異なる部分を照射するように配置された複数のLED、または、所望の平均強度で光125を放出するように設計されたLEDアレイとすることが可能である。光源125から放出される光125の波長は、人間の皮膚からの光125の反射を最大にし、反射光128と望ましくない光信号とを識別できるように選択される。さらに、光125の波長は、ユーザまたはメーカの選好に基づいて選択することが可能である。例えば、メーカによっては、特定の用途において赤色光よりも青色光を選択する場合があり得る。光源120は、安定した照射量または可変照射量の連続モードで「オン」状態にするか、あるいは、光源120をパルス動作でオン/オフして、平均光量のサーボ制御により露光を制御する、デューティ・サイクル・モードで「オン」状態にすることが可能である。照射強度は、任意の既知技法を用いて制御することが可能である。
照射光学素子(不図示)を利用して、所望の入射角でスワイプ・インターフェース110に光125を向けることも可能である。例えば、照射光学素子は、LEDドーム・レンズ、または、光の損失量を最小限に抑えて、スワイプ・インターフェース110に光125を送る光パイプから構成することが可能である。当該技術において既知のように、不透明材料を照射するのに望ましい入射角は、5〜20度の範囲内のかすめ角(グレージング角)である。この範囲の入射角であれば、画像入力される物体に固有の構造特徴を表わした画像データのS/N比が高くなる。しかし、皮膚の透明性のために、ユーザの指20の画像を表わす画像データ50を十分に入力するのに、こうした斜角は必要ではない。従って、入射角の選択は、主として、用いられるLEDの数及びタイプ、z方向におけるスワイプ・モジュール100の厚さ、及び、用いられる光学素子(照射及び画像転送)といった、スワイプ・モジュール100の設計によって決まる。
指20の先端をスワイプ・インターフェース110の上面115に押し付けると、微小テクスチャ特徴と総称される、皮膚の隆線(稜線)及び凹線(谷)が、上面115の平面において観測できる。画像転送光学素子130によって、それらの微小テクスチャ特徴から反射した光128は、CCD(電荷結合素子)、CMOS−APS(相補型金属酸化膜半導体 − 活性ピクセル・センサ)、または、当該技術において既知の他の任意のタイプの光センサとすることが可能な、光画像センサ140の一部をなす光検出器アレイに送られる。光画像センサ140は、拡大/縮小機構を併用することによって、シリコン領域を縮小することができるので、熱または容量性画像センサよりも望ましい。熱及び容量性画像センサは、一般に、検知領域と同等のサイズのシリコン領域を必要とする。さらに、容量性画像センサは、静電気放電に影響されやすい可能性があり、このため、S/N比が低下し、従って、画像が劣化する可能性がある。
光画像センサ140は、各光検出器において測定される反射光128の強度を表わした画像データ50の形で、微小テクスチャ特徴の画像を得る。各光検出器によって、画像の画素(ピクセル)が入力され、全てのピクセルを組み合わせて、完全な画像が形成される。光検出器は、例えば、スワイプ・インターフェースの長手方向に対して平行な細長いアレイをなすように配列されたフォトダイオードまたはフォトトランジスタとすることが可能である。例えば、図1に示すように、スワイプ・インターフェース110及びセンサ140は、両方とも、y方向に細長い。細長いアレイのサイズは、光学素子の倍率によって決まる。例えば、ある実施態様の場合、光学素子の倍率は、1:3の比率で1未満である。従って、センシングエリア(上面115)のサイズが9mm×1mmの場合、センサ140のサイズは、3mm×0.3mmしか必要ないことになる。指先20の特徴は、人間の裸眼で検分するのに十分な大きさがあるので、センサ140のコストを低減し、さらに、スワイプ・モジュール100のサイズも縮小するため、1未満の倍率を用いて、センサ140領域を縮小することが可能である。ただし、云うまでもないが、スワイプ・モジュール100のサイズ制約条件及びメーカの選好に従って、1未満、ほぼ1、または、1を超える他の倍率を利用することも可能である。
各光検出器は、5〜60μm角の感光領域を備えており、光検出器間の間隔は、センサ140の所望の空間解像度を実現するように設計されている。例えば、3mm×0.3mmのピクセル領域上において、9mm×1mmの指センシングエリアで400dpiの解像度を実現するには、21μm×21μmのサイズの、114×16個の光検出器が必要になる。所望の解像度に制限されることなく、光検出器のサイズ、及び、光検出器間の間隔は、画像の微小テクスチャ特徴毎に少なくとも1つの(できれば、2つ以上の)光検出器を備えるように構成されており、光検出器アレイの全体サイズは、いくつかの微小テクスチャ特徴を備えた画像を入力すのに十分な大きさである。
画像センサ140は、少なくとも2つの異なるモードの少なくとも1つで、画像データ50を処理することが可能な画像処理システム200内のプロセッサ210に画像データ50(例えば、生ピクセル値)を供給する。各モード毎に、個別プロセッサ210を利用することもできるし、あるいは、1つのプロセッサ210に、全モードで動作するようにプログラムすることも可能である。プロセッサ210は、任意のマイクロプロセッサ、マイクロコントローラ、または、選択されたモードで画像データ50の処理が可能な他の処理装置とすることが可能であり、画像センサ140と同じチップに埋め込むことも可能である。モード・スイッチ220は、さらに詳細に後述するように、異なるモード間で選択を行い、センサ140の露光時間、フレームレート、及び、光源120の照射強度を制御する。モード・スイッチ220は、ユーザの要望する用途に基づいて、ユーザがトグルすることもできるし、あるいは、タスクが完了するとトグルするようにプリセットすることもできるし、あるいは、その両方のやり方でトグルすることも可能である。例えば、実施態様の1つにおいて、モード・スイッチ220は、指認識モードに初期設定し、指紋の認証がなされると、自動的にトグルして、フィンガ・ナビゲーション・モードになるようにすることが可能である。
上述のように、モード・スイッチ220によってあるモードまたは別のモードを選択すると、プロセッサ210による画像データ50の処理方法が決まる。さらに、センサ140の露光時間は、選択されたモードによって変動する可能性がある。例えば、フィンガ・ナビゲーション・モードの場合、ユーザは、スワイプ・インターフェース110上において、指認識モードの場合よりも素早く、不規則に指を動かす可能性があり、画像により多くの迷光を入り込ませることになる。この場合、モード・スイッチ220によって、センサ140の露光時間を短縮することによって、検出される迷光の量、従って、画像内におけるノイズ量を低減させることが可能である。
露光時間の制御に加えて、または、その代わりに、モード・スイッチ220は、選択モードに従って、光源120から放出される光125の強度を制御することも可能である。例えば、指認識モードの場合、モード・スイッチ220は、フィンガ・ナビゲーション・モードの場合の照射強度に比べて、照射強度を増すことによって、S/N比を高め、指紋照合の正確度を向上させることが可能である。他の実施態様の場合、スワイプ・モジュール110は、ユーザの指がスワイプ・モジュール110に係合していない場合には、画像データ50の生成を中断し、光源120によって放出される光の強度を弱める「一時停止」機能を実施することが可能である。スワイプ・モジュール100は、反射光128が、たとえ存在したとしても、反射表面(すなわち、指20)が遠すぎるか、または、単純に視野内にないために、同じ強度で光検出器に達しなくなると、「一時停止」機能を開始することが可能である。非常に明るい環境であっても、「一時停止」機能は、光検出器の出力がほぼ一様になるのに応答して、開始することが可能である。
さらに、モード・スイッチ220は、センサが、選択されているモードに従って、一連の画像を表わした画像データ・セットを生成するフレームレートを制御することが可能である。例えば、指認識モードの場合、ユーザは、一般に、フィンガ・ナビゲーション・モードの場合よりもゆっくりと指20を走らせる。さらに、指認識モードの場合には、一連の画像にステッチをかけて(合成して)、完全な画像が形成されるが、フィンガ・ナビゲーション・モードの場合には、一連の画像を比較して、動きが確認される。従って、指認識モードにおける一連の画像間のオーバラップは、フィンガ・ナビゲーション・モードと比較して、最小になるようにしさえすればよい。一例を挙げると、指認識モードにおいて、ユーザが、幅1mmのセンシングエリアで、毎秒25mm指25を動かすと、指紋の完全な画像を入力するのに、毎秒26フレームのフレームレートで十分である。フィンガ・ナビゲーション・モードの場合には、毎秒500フレームまでのフレームレートが必要になる可能性がある。
画像入力システム10は、単一電子装置内または複数電子装置内に含むことが可能である。例えば、スワイプ・モジュール100は、マウスのような遠隔電子装置に実装することが可能であり、一方、画像処理システム200は、マウスに対するインターフェースを備えたパーソナル・コンピュータに実装することが可能である。もう1つの例として、スワイプ・モジュール100及び画像処理システム200は、両方とも、携帯電話、ラップトップ・コンピュータ、または、PDAのような、小型電子装置及び/または携帯式電子装置に実装することが可能である。云うまでもないが、画像入力システム10が完全に単一電子装置内に実装される場合には、画像処理システム200は、スワイプ・モジュール100内に組み込むか、スワイプ・モジュール100に接続することが可能である。
スワイプ・モジュール100は、電子装置の要件に基づくz方向の厚さを備えている。例えば、多くの電子装置は、5mm未満の厚さを命じている。電子装置の厚さ仕様の範囲内においてスワイプ・モジュール100を製作するため、光路を折り返すか、または、光学素子のサイズを縮小するためのさまざまな技法を利用することが可能である。
図2には、折り返し(屈曲)光学素子の一例が示されている。図2には、典型的なスワイプ・モジュール100の絵画的表現による拡大略側面図が例示されている。LED120から放出される光125は、結合レンズ150によってプリズム155に結合され、プリズム155によって、所望の入射角でスワイプ・インターフェース110に送り込まれる。光125は、プリズム155の形状及び入射角に応じて、内面全反射(TIR=Total Internal Reflection)メカニズムを用いて送ることが可能である。他の実施態様の場合、光125は、反射光メカニズムを利用して送ることが可能である。図2の場合、光125は、プリズム155の第1の表面158を通過し、屈折によって、所望の入射角でスワイプ・インターフェース110の上面115に向かう。スワイプ・インターフェース110の表面115に押し付けられた指20からの反射光128は、プリズム155の第1の表面158で内面反射して、プリズム155の第2の表面159を通過する。
プリズム155から出射する反射光128は、スワイプ・インターフェース110の長手方向に対して直交するx方向に進行して、拡大/縮小光学素子130を通過し、拡大/縮小光学素子130によって、もう1つのプリズム135に送られる。光128は、プリズム135によって、表面138から内反射され、センサ140に対してz方向に向け直される。z方向に従来からある光学素子を利用する代わりに、x方向に折り返し光学素子を利用することによって、z方向におけるスワイプ・モジュール110の厚さを薄くすることが可能になる。もちろん、照明用の光学素子150及び/または画像を転送するための光学素子130において、アパーチャ及びレンズといった追加光学コンポーネントを利用することも可能である。さらに、図2に示す光学構成の代わりに、他の光学構成を利用して、光路を折り返すことも可能である。
図3A及び3Bには、スワイプ・モジュール100の厚さ許容差内に収まるように光学素子のサイズを縮小する例の1つが例示されている。図3A及び3Bは、典型的なスワイプ・モジュール100の拡大側面図である。LED120から放出された光125は、結合レンズ150によってプリズム155に送られる。結合レンズ150には、LED120から狭い角度で発散する光125をコリメートすることが可能な対向する凸面が含まれている。スワイプ・モジュール100内におけるプリズム155の形状及び位置は、光が反射されるように、所望の入射角でスワイプ・インターフェース110に光を送るか、あるいは、スワイプ・インターフェース110内で多重の内面全反射を生じるように、スワイプ・インターフェース110に光125を送るように設計されるが、後者が例示される。
スワイプ・インターフェース110内で多重のTIRを実現するため、スワイプ・インターフェース110の上面115に直交する内部側面112に吸光材料をコーティングして、側面で反射光を吸収するのが望ましい。他の実施態様には、内部側面112を鏡面仕上げにすることが可能なものもある。光125は、光125の内面全反射を生じさせるため、スワイプ・インターフェース110材料の臨界角を超える入射角で上面115に送り込まれる。上面115からの内面全反射光125は、光125の別の内面全反射を生じさせるため、臨界角を超える入射角で、上面115と平行な底面118に送られる。スワイプ・インターフェース110の厚さ119は、より薄いスワイプ・モジュール100(例えば、2mm)を実現可能とするため、約0.5〜1mmになる。
指20からの反射光128は、スワイプ・インターフェース110の底面118を透過し、マイクロレンズ・アレイ170によって、光検出器アレイ145を備える画像入力センサ140に集束させられる。スワイプ・モジュール100の基板180上には、LED120、ドーム状レンズ150、及び、画像入力センサ140が形成されている。
図3Bに示すように、マイクロレンズ・アレイ170内の各マイクロレンズ175a、175b、175cは、それぞれ、光検出器の1つ145a、145b、145cと1対1で結合されている。例えば、マイクロレンズ175aは、指紋25の一部(例えば、指紋の隆線25aまたは指紋の凹線25b)からの反射光128を対応する光検出器145aに集束させる。各光検出器145のサイズは、それぞれ、各光検出器145a、145b、145cの視野(FOV=Field Of View)190a、190b、190cを制限して、視野190と隣接マイクロレンズ175が重なり合わないように選択される。
処理モードに応じて、光検出器アレイをなす光検出器145の全て、または、光検出器145の一部だけから画像データを得ることが可能である。例えば、指認識モードの場合、指紋25の完全な画像を入力するには、9mm×1mmのセンシングエリア全体が必要になる。しかし、フィンガ・ナビゲーション・モードの場合には、動きの方向を確認するのに、ほんのわずかな指紋25の特徴だけしか必要とされないし、多くの場合、指20は、9mm×1mmの全センシングエリアに位置しているわけではない。従って、フィンガ・ナビゲーション・モードの場合、画像データは、指20に接触しているスワイプ・インターフェース110領域からの光を検出する、光検出器145の一部から取得しさえすればよい可能性がある。
図4に示すように、フィンガ・ナビゲーションに必要な光検出器145の数を減らし、同時に、指の動きを確認するのに十分な画像データを入力するため、光検出器アレイ148の中心部におけるより広い検知領域をフィンガ・ナビゲーションのために提供するように、光検出器アレイ148を変更することが可能である。図4において、フィンガ・ナビゲーション・モードの場合、スワイプ・インターフェースにおける指の位置は、主として、センシングエリアの長手方向(y方向)の中心部にあるものと仮定する。また、指認識モードでは、指の一部が、センシングエリアの長手方向の中心部に位置するものと仮定するが、図14及び15に関連してさらに詳細に後述するように、その中心部分を利用して、フィンガ・ナビゲーション情報を取得することによって、一連の画像のステッチングが可能になる。従って、図4に示される光検出器145の構成において、対応するスワイプ・インターフェース(不図示)は、9mm×1mmの一般的なサイズをもつ。しかし、そのスワイプ・インターフェースの中心領域はx方向に拡大され、2mm×2mmの中心領域を供給する。その中心領域は、フィンガ・ナビゲーションに利用される。これに応じて、センサ140の中心領域(点線で示された)は、x方向に拡大され、スワイプ・モジュールの拡大された中心領域からの光を検出する。400dpiの解像度は、1mmあたり約16の光検出器に対応し、これは144×16の指認識光検出器145e(黒の実線内に示された)、及び光検出器アレイ148(点線内に示された)の中心領域における32×32のフィンガ・ナビゲーション光検出器145dに相当する。
異なる複数のモード(例えば、指認識及びフィンガ・ナビゲーション)に対応する、センサの異なる領域及びセンシングエリアの異なる部分の利用を可能にするため、選択された動作モードに応じて、複数の光源及び/または複数のセンサを用いて、必要な異なる指領域を照射し、画像を入力することが可能である。図5Aには、選択されたモードに基づいてスワイプ・インターフェース110の照射を多重化することが可能なスワイプ・モジュール100を備えた、画像入力システム10の一例の概要が示されている。スワイプ・インターフェース110は、図示のように、y方向において3つの区画110a、110b、110cに分割されている。スワイプ・インターフェース110は、さらに、図示のように、3つのLED120a、120b、120cによって照射される。照射は、LED120aがスワイプ・インターフェースの第1の区画110aだけを照射し、LED120bが第2の区画110bだけを照射し、LED120cが第3の区画110cだけを照射するようにアライメントがとられる。照射光学素子は、簡略化のため示されていない。しかし、云うまでもないが、各LED120a〜120c毎に独立した照射光学素子を利用して、各LED120a〜120cからの光をLED120a〜120cに関連したスワイプ・インターフェース110のそれぞれの区画110a、110b、110cに導くことが可能である。
照射された指領域は、画像転送光学素子130a、130b、130cを利用して、画像入力することが可能である。画像転送光学素子130a、130b、130cは、さらに、スワイプ・インターフェース110の個別に照射される各区画110a、110b、110cが、それぞれ、対応する検知領域(受光領域)140a、140b、140cに画像入力されるように、y方向及びz方向においてもアライメントがとられる。検知領域140a、140b、140cは、1つの連続したセンサとすることもできるし、あるいは、検知領域140a、140b、140cは、図5Aに示すように、回路設計の制約条件に従って分離された3つのセンサとすることも可能である。中心検知領域140b、及び、中心区画110bは、図4に関連して上述のように、x方向に拡大することも可能である。
個別のセンサを利用する場合、異なるセンサ間の間隔は、光学素子の設計を単純化し、指認識モードにおいて必要十分な画像が得られるように設計される。例えば、スワイプ・インターフェース110の面積が9×1mmで、スワイプ・インターフェース110の各区画110a、110b、及び、110cが3×1mmの場合、各検知領域140a、140b、及び、140cの面積は1×0.3mmとし、検知領域140a、140b、及び、140c間の間隔は0.25〜1mmとすることが可能である。実施態様によっては、幾何学的関係が分っている限りにおいて、検知領域140a、140b、及び/または、140c間の間隔に起因する入力画像のギャップを許容可能なものもある。他の実施態様では、入力画像間のオーバラップが、ステッチングを容易にするために望ましい場合もあり得る。
スワイプ・インターフェース110の3つの個別区画110a、110b、及び、110c、及び、3つの個別検知領域(受光領域)140a、140b、及び、140cが示されているが、もちろん、スワイプ・インターフェース110は、それぞれ、単一センサ中で分割された複数の領域または複数の個別のセンサによって画像入力可能な、任意の数の区画に分割することが可能である。利用される区画110a、110b、及び、110cの数が増すほど、区画サイズの縮小に比例して、1つの区画の照射に必要な光の強度が低下するため、必要とされる電力量が減少する。電力消費の減少は、小型電子装置及び/または携帯用電子装置において重要な設計パラメータである。例えば、蓄電池による電力供給を受ける携帯電話、PDA、及び、ラップトップ・コンピュータの場合、電力消費の減少によって蓄電池の寿命が延びることになる。
しかし、区画数が増すと、センサからピクセル値を読み取り、画像データを処理する上において、照射及び画像転送光学素子の複雑性も増す可能性がある。さらに、区画数が増すにつれて、各LEDによって照射されるセンシングエリアが縮小し、LED数が増大するので、照射設計は、より困難になり、いっそうコストがかさむことになる。
さらに別の実施態様において、照射は、スワイプ・インターフェースにおける指領域全体の画像を順次入力するように設計可能である。例えば、LED120b及び120cがオフ状態にある間、LED120aを「オン」にして、検知領域140aに画像入力される第1の区画110aだけを照射することが可能である。検知領域140aからピクセル値を読み取って、記憶することが可能である。その後、LED120aを「オフ」にして、LED120bを「オン」にし、検知領域140bに画像入力される第2の区画110bだけを照射することが可能である。検知領域140bからピクセル値を読み取って、検知領域140aから前回入力した画像とのステッチングを施し、結果生じるステッチのかかった画像を記憶することが可能である。最後に、LED120bを「オフ」にして、LED120cを「オン」にし、同様のやり方で画像の残りが入力される。順次区画照射のタイミングは、区画された画像間において目立った指の動きが、ほとんど乃至全く生じないように設定される。画像の順次入力では、一度に1つのLEDだけしか利用しないことによって、電力消費が減少する。
次に、図5B及び5Cを参照すると、個別センサまたはセンサの個別領域への照射を多重化することによって、スワイプ・モジュール100のサイズがさらに縮小される。図5Bに示すように、y方向において3mmの単一センサに対して、スワイプ・インターフェースのy方向における細長いセンシングエリア(例えば、9mm幅の検知領域として示された)からの光を集束させるため、光学素子からセンサまでの焦点距離は、z方向における光学素子とセンサとの間隔が「X」mmになることを必要とする。図5Cに示すように、9mmのセンシングエリアを、それぞれの区画からの光をそれぞれの1mm幅センサに向けるための個別光学素子を備えた、3つの個別3mm幅区画に分割することによって、z方向における光学素子とセンサとの間隔が1/3に短縮される。従って、図5Cに示すように、光学素子とセンサとの間隔はX/3mmになる。z方向における光学素子とセンサとの間隔が短縮されると、スワイプ・モジュール100の厚さ(z方向における)が2/3に減少する。このサイズの縮小は、電子マウス、携帯電話、PDA、及び、ラップトップ・コンピュータのような、小型電子装置及び/または携帯式電子装置にフィンガ・ナビゲーション及び指認識機能を導入する上において、重要な利点である。
電力消費の減少及びサイズの縮小に加えて、スワイプ・インターフェース表面の時間多重化照射によって、各区画毎に個別センサまたはセンサの個別領域を設ける必要をなくすことが可能になる。例えば、図6Aに示すように、区画の1つからの画像を入力するのに十分な、y方向における光検出器アレイサイズを備える単一センサを利用し、動作モードに応じて、区画のそれぞれからの画像が順次入力されるか、または、区画の1つからの単一の画像が入力される。
スワイプ・インターフェースは、図示のように、y方向においてセンシングエリアが3つの区画110a、110b、110cに分割されている。スワイプ・インターフェース110は、また図示のように、3つのLED120a、120b、及び120cにより照射される。照射は、LED120aがスワイプ・インターフェースの第1の区画110aだけを照射し、LED120bが第2の区画110aだけを照射し、LED120cが第3の区画110cだけを照射するようにアライメントがとられる。照射光学素子は、簡略化のため示されていない。しかし、云うまでもないが、各LED120a〜120c毎に独立した照射光学素子を利用して、各LED120a〜120cからの光をLED120a〜120cに関連したスワイプ・インターフェース110のそれぞれの区画110a〜cに導くことが可能である。
照射された指領域は、画像転送光学素子130a、130b、130cを利用して、画像入力される。画像転送光学素子130a、130b、130cは、さらに、スワイプ・インターフェース110の個別に照射される各区画110a、110b、及び、110cが、単一センサ140に画像入力されるように、y方向及びz方向においてもアライメントがとられる。動作時、一度に1つの区画110a、110b、または、110cだけしか照射されないので、異なる区画の画像が上に重ねられることはない。従って、動作モードに応じて、画像入力システム10の動作中に、1つの区画110a、110b、または、110cだけを照射するか、あるいは、区画110a、110b、及び/または、110cを順次照射して、各区画の画像が個別に入力される。
時間多重化照射は、指紋の一部の画像だけしか入力せず、指紋の1つの連続した画像を形成するのに、指の移動を必要とするスワイプ・モジュールのみならず、指の移動を必要とせずに、指紋全体の画像を入力するエリア・モジュールにとっても実行可能なオプションである。例えば、図6Bには、エリア・インターフェース455の多重化照射を実施するエリア・モジュールが示されている。
エリア・インターフェース455のセンシングエリアは、図示のように、x及びy方向において4つの区画455a〜455dに分割されている。4つのLED120a〜120dは、各LED120a〜120d毎に、それぞれ、エリア・インターフェース455中の区画455a〜455dの1つを照射するようにして、エリア・インターフェース455を照射する。照射は、LED120aがエリア・インターフェース455の第1の区画455aだけを照射し、LED120bが第2の区画455bだけを照射し、LED120cが第3の区画455cだけを照射し、LED120dが第4の区画455dだけを照射するようにアライメントがとられる。照射光学素子は、簡略化のため示されていない。しかし、云うまでもないが、各LED120a〜120d毎に独立した照射光学素子を利用して、各LED120a〜120dからの光をLED120a〜120dに関連したエリア・インターフェース455のそれぞれの区画455a〜455dに導くことが可能である。
照射された指領域は、画像転送光学素子130a、130b、130c、及び、130dを利用して画像入力される。画像転送光学素子130a、130b、130c、及び、130dは、さらに、エリア・インターフェース455の個別に照射される各区画455a、455b、455c、及び、455dが、単一のセンサ140に画像入力されるように、x及びy方向と、z方向においてもアライメントがとられる。スワイプ・モジュールに関連して上述のように、一度に1つの区画455a、455b、455c、または、455dだけしか照射しないので、異なる区画の画像が上に重ねられてしまうことはない。
図7Aは、本発明の画像入力システム10の典型的なハードウェア及び処理コンポーネントを例示したブロック図である。画像入力システム10には、それに投射された画像を入力して、その画像を表わしたアナログ信号345を発生する光検出器アレイ148を備えたセンサ140が含まれている。行デコーダ310及び列デコーダ320は、光検出器アレイ148の行及び列を選択し、ピクセル値を表わしたアナログ信号345を読み取って、光検出器をリセットする。列増幅器330は、アナログ・ディジタル変換器(ADC)350によってアナログ信号345を対応するディジタル信号355に変換する前に、アナログ信号345を増幅して、プログラマブル利得制御装置340に供給する。ADC350は、指認識モードの場合、約25フレーム/秒の速度で動作可能な、また、フィンガ・ナビゲーション・モードの場合には、500フレーム/秒の速度で動作可能な、6ビット、8ビット、または、10ビットADCとすることが可能である。
画像入力システム10には、さらに、ディジタル信号355の処理に適したプロセッサ・モードを選択するためのモード・スイッチ220が含まれている。上述のように、モード・スイッチ220は、さらに、画像タイミング制御回路要素360を介して、センサ140のフレームレート及び露光時間(シャッタ速度)を制御する。フィンガ・ナビゲーション・モードの場合、図7及び8に関連してさらに詳細に後述するように、ナビゲーション・エンジン370にディジタル信号355を加えて、以前の画像と比較した現在の画像の移動方向及び量を表わしたナビゲーション情報375を確認する。他の実施態様では、指の曲線移動及び回転に対する追従性を向上させるため、1つ以上の追加ナビゲーション・センサ(不図示)によってナビゲーション情報375が確認される。例えば、画像入力センサ140の両端に1対のナビゲーション・センサを配置して、指が動く画像を有効に観測し、画像入力センサ140に対する指の変位を表示する。
指認識モードの場合、図9〜12に関連して後述するように、指紋エンジン380にディジタル画像355が供給され、現在の画像と以前の画像にステッチがかけられて、指紋の完全な1つの画像を生成され、その指紋と以前に記憶した指紋の照合が行われる。現在の画像と以前の画像のオーバラップ量を決定して、画像にステッチをかけるため、ディジタル信号355は、ナビゲーション・エンジン370にも供給され、移動量(ナビゲーション情報375)が求められる。指紋の完全なディジタル画像を形成するのに必要なディジタル画像数は、フレームレートと指の移動速度によって変動する。しかし、結果生じる完全なディジタル画像にステッチをかける(合成して所望の画像を形成する)ことによって、7mm×12mmまたは9mm×12mm(スワイプ・インターフェースのサイズによって決まる)の全センシングエリアを表わしたディジタル信号セットが形成される。こうしたディジタル信号は、指紋照合に十分な数の特徴を得るのに必要とされる。
指紋エンジン380は、指紋の完全な画像または指紋照合分析結果を表わすことが可能な指紋情報385を出力する。
スタイラス・モードの場合、ディジタル信号355は、ナビゲーション・エンジン370に供給され、移動方向及び量を表わしたナビゲーション情報375が確定される。ナビゲーション情報は、図13〜14に関連して後述するように、スタイラス・エンジン390に供給され、ナビゲーション情報と、英字、数、句読記号、または、他の書かれた伝達形態(今後は、文字と総称する)の識別に用いられるフィンガ・ストロークとが相関させられる。ディジタル信号355は、スタイラス・エンジン390に供給することによって、ある文字の完了及び別の文字の開始を表わすための指を上げる動作を判定することも可能である。スタイラス・エンジン390は、スワイプ・モジュールを組み込んだ電子装置に一体化されたディスプレイ上において、ユーザに対して対応する文字を表示するためにホスト(またはプロセッサ)が利用可能な文字コード395を出力する。例えば、ディスプレイは、携帯電話のLCDのように、電子装置に配置することが可能である。もう1つの例として、ディスプレイは、スワイプ・モジュールが組み込まれたマウスに接続された、パーソナル・コンピュータに接続されたスクリーン上に配置することも可能である。もちろん、ナビゲーション・エンジン370、指紋エンジン380、及び、スタイラス・エンジン390には、上述の機能を実施するために必要なハードウェア、ソフトウェア、及び/または、ファームウェアが含まれており、オブジェクト指向プログラミングを含む任意のタイプのプログラミング技法を用いてプログラミングを施すことが可能である。
図7Bは、本発明の多重化照射による画像入力システム10の典型的なハードウェア及び処理コンポーネントを例示したブロック図である。画像入力システム10には、それぞれ、図7Aに関連して上述のように、スワイプ・インターフェースの照射区画のそれぞれの画像を入力して、それを表わしたアナログ信号を発生する、検知領域140a、140b、及び、140cが含まれている。
画像入力システム10には、さらに、画像処理に適したモードを選択するモード・スイッチ220が含まれている。選択モードに基づいて照射を多重化する(例えば、1つ以上の区画を選択して、その区画を照射または順次照射する)ため、モード・スイッチ220は、オン/オフ・スイッチ365を介して、LED120a、120b、及び、120cのオン及びオフ状態を制御する。例えば、フィンガ・ナビゲーション・モードの場合、中心区画だけしか照射する必要がない可能性があり、モード・スイッチ220は、オン/オフ・スイッチ365に命じて、LED120bを「オン」にし、LED120a及び120cを「オフ」にすることが可能である。上述のように、モード・スイッチ220は、さらに、画像タイミング制御回路要素360を介して、検知領域140a、140b、及び、140cのフレームレート及び露光時間(シャッタ速度)を制御する。各検知領域140a、140b、及び、140cは、選択モードに従って、画像タイミング制御回路要素360が個別に制御することが可能である。
次に図8を参照すると、画像入力システムが複数モードで動作する典型的なプロセスが例示されている。最初に、画像入力システムのユーザによって、または、画像入力システムに記憶された所定のデフォルトモードによって、画像解システムの動作モードが選択される(ブロック600)。例えば、画像入力システムは、確実な指紋照合がなされるまで、指認識モードで動作するようにプログラムすることが可能である。その後、画像入力システムは、ユーザがディスプレイにおいてポインタ(カーソル)を動かして、画像入力システムまたは画像入力システムを組み込んだ電子装置によって提供される1つ以上の機能オプションを選択できるようにするため、フィンガ・ナビゲーション・モードで動作するように設定することが可能である。これらの機能オプションの1つは、ユーザが、フィンガ・ナビゲーション・モードにある間に選択可能なスタイラス・モードとすることが可能である。
モードの選択が済むと、画像入力システムのスワイプ・インターフェース上で移動する指の一連の画像が入力され(ブロック610)、トラッキング・アルゴリズムに供給されて、指の移動量及び方向を表わしたナビゲーション情報(例えば、Δx、Δy)が確認される(ブロック620)。画像入力システムが指認識モードにある場合(ブロック630)、ナビゲーション情報は、指紋照合アプリケーションに供給され、ナビゲーション情報を用いて一連の画像にステッチがかけられ、画像入力された指紋と記憶されている指紋を比較して、ユーザの認証が行われる(ブロック640)。しかし、画像入力システムが別の動作モードにある場合には、ナビゲーション情報は、他のモードで動作可能な他のアプリケーションに供給されることになる(ブロック650)。例えば、別の動作モードは、フィンガ・ナビゲーション・モードとすることが可能であり、この場合、ナビゲーション情報は、ナビゲーション情報に対応する距離だけ、ディスプレイ上においてポインタを移動させることが可能なポインティング・アプリケーションに供給することが可能である。他の実施態様では、スタイラス・モードのような、他の動作モードが可能なものもある。画像入力システムがスタイラス・モードにある場合、ナビゲーション情報は、スタイラス・アプリケーションに供給され、ナビゲーション情報を処理することによって、適正な文字が決定される。
図9Aには、選択モードに従って照射を多重化するための典型的なプロセスが例示されている。選択された動作モード(ブロック600)が、フィンガ・ナビゲーション・モードの場合(ブロック601)の場合、トラッキングが必要な指領域を含んでいるのが、スワイプ・インターフェースのどの区画であるかについて判定される。例えば、最初に、全区画を画像入力し、トラッキングのため、最も関心のある(必要な)特徴を含んでいるのがどの区画であるかについて判定することが可能である。もう1つの例として、トラッキングのため、1つまたは複数の中心区画を選択することも可能である。所望の区画が決まると、所望の区画に対応する光源を選択して(例えば、「オン」にして)(ブロック602)、所望の区画だけが照射される(ブロック603)。照射区画内の指の画像は、図8に関連して上述のように、後続の画像処理に備えて、選択された光源/区画に対応するセンサまたはセンサ領域によって入力される(ブロック610)。
指認識モードの場合、指の全表面の画像が必要とされる。従って、光源の全てを選択して(ブロック604)、指の全領域が照射され(ブロック605)、1つ以上のセンサを用いて、指の全領域の画像が入力される(ブロック606)。センサの構成によっては、個別に入力された画像に多少のステッチング及び/または補正を加えて、指領域全体の連続した画像を形成することが必要になる場合もあり得る。他の実施態様には、個別の区画を順次照射して、指領域の全体画像を入力することが可能なものもある。他の動作モードには、1つ以上の区画を選択して、選択モードの動作に必要な指領域だけを照射することが可能なものもある。
例えば、図9Bにプロセスの例を示すように、指領域の時間多重化照射のため、第1の区画の照射が選択され(ブロック675)、センサ(例えば、全区画のための単一センサ、または、その区画に指定されたセンサまたはセンサ領域)によって、第1の区画の画像が入力される(ブロック680)。その後、第1の区画を照射する光源が「オフ」にされ、別の区画を照射するための別の光源が「オン」にされる(ブロック685)。各区画の個別画像を順次入力し(ブロック690及び695)、区画画像の全てを組み合わせて(例えば、ステッチをかけて)、指領域の連続した1つの画像が形成される(ブロック698)。
いくつかの異なる機構を利用して、フィンガ・ナビゲーション・モード、指認識モード、及び、スタイラス・モードにおいて用いられるナビゲーション情報の確認が可能である。例えば、参考までに本明細書において全体が援用されている、米国特許第6,172,354号明細書(発明の名称「OPERATOR INPUT DEVICE」)に記載のように、動きは、以前の画像におけるあるパターンと現在の画像における同じパターンを相互相関させることによって検出される。円調和関数を利用して、以前の画像と比較した現在の画像の動きを確認することによって、回転不変ナビゲーション情報が得られるようにする。参考までに本明細書において全体が援用されている米国特許第6,195,475号明細書(発明の名称「NAVIGATION SYSTEM FOR HANDHELD SCANNER」)には、ナビゲーション情報を確認するためのもう1つの方法についての記載がある。米国特許第6,195,475号明細書では、サンプル・フレームと基準フレームとの関係を表わした相関データの相関面を一般的な2次元テイラー級数展開としてモデル化し、基準フレームとサンプル・フレームの両方に含まれる基準特徴の変位が確認される。
参考までに本明細書において全体が援用されており、図10及び11に概要が例示されている米国特許第5,578,813号明細書(発明の名称「FREEHAND IMAGES SCANNING DEVICE WHICH COMPENSATES FOR NON−LINEAR MOVEMENT」)には、もう1つのナビゲーション・メカニズムの教示がある。米国特許第5,578,813号明細書に記載のナビゲーション・メカニズムは、一連のフレーム内における特徴の位置を比較することによって画像データの一連のフレームを相関させる。第1のステップとして、画像入力プロセスの開始時に、基準フレームが入力される(ブロック700)。その後で、センサから画像データの現在のフレームを得ることによって、その後の時点におけるセンサ位置が確認される(ブロック710)。
その後、フレームの1つ(基準または現在のフレーム)の全内容が、1つのピクセルのオフセット試行シフトで許される8方向(例えば、「零」シフト、右へのシフト、右下方へのシフト等)のそれぞれにおいて、ピクセル1つ(1つの光検出器に対応する)分の距離だけシフトされる。各シフト毎に(ブロック720及び740)、互いに重なり合うフレーム部分が、ピクセル毎に取り去られ、結果生じる差は、自乗して、さらに合計され、オーバラップ領域内における相似の測度が得られる(ブロック730)。さらに、フレーム間において動きがない場合には、「零」シフトに関する相関のフィギュア・オブ・メリットも計算される。例えば、他の動作モードでは、移動方向を確認するために、より大きい試行シフトが必要とされる場合には、フレームレートを低下させることも可能である。しかし、相関のフィギュア・オブ・メリットの計算に付随する複雑性は、試行シフト量が増大するにつれて増すことになる。
上記シフトは、アレイの全部の行または列を出力することが可能なメモリに関するアドレス・オフセットを利用して実施される。専用演算回路要素が、シフトされるフレームを納めているメモリ・アレイ、及び、他のフレームを納めているメモリ・アレイに接続されていて、各試行シフト毎に相関のフィギュア・オブ・メリットを公式化する。シフトされるフレームと他のフレームとの間における不一致エッジに沿ったピクセル位置は、対応する相関のフィギュア・オブ・メリットに影響しない。
差が最小の(相関フィギュア・オブ・メリットが最低の)試行シフトは、2つのフレーム間の移動方向を表わす(ブロック750)。最低の相関フィギュア・オブ・メリットからナビゲーション情報(例えば、Δx、Δy)を計算して(ブロック760)、出力することが可能である。例えば、ナビゲーション情報は、ポインタ(またはカーソル)の現在位置を表示するため、ポインタ・アプリケーションに対して出力することもできるし、あるいは、後続の計算における利用に備えて、別モードのアプリケーションに対して出力することも可能である。現在のフレームを次に入力される画像のための基準フレームとして利用することもできるし、あるいは、初期基準フレームを順次現在フレームに再利用することも可能である。初期基準フレームを再利用するため、最新の動きに関するナビゲーション情報(方向及び変位量データ)が、後続のシフト操作及び相関フィギュア・オブ・メリットの計算操作に備えて保存される。各シフト操作によって、基準フレームの一部が実質的に処分されるので、基準フレームのサイズが縮小し、相関フィギュア・オブ・メリットの統計的な質が劣化することになる。しかし、シフトされ、縮小された初期フレームのエッジが、もとの基準フレームであったフレーの中心に接近し始めると、新たな基準フレームが採用されることになる。
図11は、図10の選択ステップの概略図である。T字形の特徴64の画像を備えた基準フレーム62が示されている。その後で(dt)、画像入力センサは、基準フレーム62に対して変位しているが、ほぼ同じ特徴を含んでいる、現在のフレーム66を入力する。期間dtは、T字形特徴64の相対変位が画像入力センサのピクセル1つ分より少なくなるように設定するのが望ましい。しかし、単純化のため、図11では、完全なピクセル1つ分と仮定されている。
図11に示す要素70は、8つの最も近傍のピクセルへのフレーム68のピクセル値の順次シフトを表わしている。すなわち、ステップ「0」には、シフトが含まれておらず、ステップ「1」は、左上方への対角シフトであり、ステップ「2」は、上方へのシフトであり、等々。こうして、ピクセル1つ分シフトしたフレームとサンプル・フレームを比較して、位置フレームのアレイ72を生成することが可能である。位置「0」と表示された位置フレームには、シフトが含まれていないので、その結果は、単なるフレーム66と68の組合せにすぎない。位置「3」は、陰影ピクセルの数が最小となっており、従って、最も相関性の強いフレームである。相関結果に基づいて、サンプル・フレーム66内におけるT字形特徴64の位置は、前に入力した基準フレーム62における同じ特徴の位置に対して右上方に対角シフトしたものと判定されるが、これは、期間dt中に、指が左下方に動いたことを表わしている。
単純化のため、図11にはT字形の特徴が示されているが、図12には、いくつかの微小テクスチャ特徴を備えた典型的な指紋25の一部が例示されている。人の指紋25は、独特の、1つしかない隆起パターン構造を備えている。ナビゲーション及び認識のため、人の隆起パターン構造は、個々の隆線の端部及び分岐部の位置によって特徴を表わすことが可能である。これらの微小テクスチャ特徴は、指紋技術において細部として知られている。
図12に示す指紋の細部は、「ボックス」で囲まれている。例えば、ボックス30は、分岐隆線の分岐細部31を囲んでおり、ボックス35は、端細部36を囲んでいる。留意すべきは、指紋の隆線の細部は、それらに関連した方向(配向とも呼ばれる)を備えているという点である。隆線端部における細部の方向は、隆線の端部が指す方向である。分岐細部の方向は、分岐隆線が指す方向である。
次に、図13を参照すると、画像入力システムが指認識モードで動作している間に、認証及び身分証明のために指紋の細部を利用する典型的なプロセスが例示されている。指紋の完全な画像が得られると(ブロック800)(図14及び15に関連して後述するように)、関連細部が抽出される(ブロック810)。抽出される細部の全てが信頼できるというわけではない。従って、信頼できない細部の一部は、オプションにより編集されるか、削除される。その後、例えば、Ratha他、「A Real−Time Matching System for Large Fingerprint Database」、IEEE Transactions on Pattern Analysis and Machine Intelligence、1996年、第18巻、第8号、p.799−813に記載の汎用ハフ変換に基づいて推定可能な、回転、平行移動、及び、スケーリング・パラメータを利用して、結果得られた信頼できる細部と以前に記憶されているテンプレート画像のアライメントがとられる(ブロック820)。
アライメントをとられた細部とテンプレート指紋特徴の細部を照合して、画像入力された指紋とテンプレート指紋とが一致するか否かの判定が行われる(ブロック830)。例えば、アライメントのとられた画像入力された指紋における各細部毎に、対応する整合性のある細部を求めて、テンプレート指紋に対する探索が行われる。所定の矩形近傍内におけるテンプレート指紋の対応する整合性のとれた特徴と一致する、アライメントのとられた画像入力された指紋内における細部の数は、数えることが可能であり、一致する細部数に基づいて、正規化一致評点が生成される。評点が高いほど、画像入力された指紋とテンプレート指紋が同じ指の走査結果である確率が高くなる。一致を判定するしきい値評点は、用途、完全な画像に関連したセンシングエリアの全体サイズ、センサの解像度に基づいて設定することが可能である。照合プロセスの結果は、電子装置へのアクセス実施に利用するために出力可能である(ブロック840)。
上述のように、指紋の完全で連続した画像を得るため、画像入力センサから得られた一連の画像にはステッチがかけられる。例えば、図14に示すように、時点Tにおいて、第1の画像400(画像A)が撮られる。時点T+1において、画像Aに含まれている、オーバラップする領域410を備えた第2の画像400(画像B)が撮られる。時点T+2において、画像Bに含まれている、オーバラップする領域410を備えた第3の画像(画像C)が撮られる。完全な画像を形成するため、各画像400は、順次メモリに記憶され、オーバラップする領域410は、次の画像から上書きされる。
例えば、図15は、一連の画像にステッチをかけて、1つの連続した指紋画像を形成するための典型的なプロセスが例示されている。スワイプ・インターフェースに押し付けられた指紋の一部が入力され(ブロック850)、バッファに記憶される(ブロック855)。その後続画像が入力されると(ブロック860)、最初の画像と後続画像とのオーバラップが確認される(ブロック865)。オーバラップ領域は、例えば、最初の画像と後続画像との間における移動方向及び量を表したナビゲーション情報から確認することが可能である。
最初の画像とオーバラップするその後続画像の一部が、最初の画像に上書きされ、後続画像の残りの部分はバッファに記憶される(ブロック870)。画像は、バッファから、連続指紋画像を記憶するためのメモリ・アレイに順次出力することが可能である。このプロセスは、ユーザがスワイプ・インターフェースを横切って指を走らす間に撮られる各画像毎に繰り返される(ブロック875)。ステッチをかけられた最終的な指紋画像は、図13に関連して上述のように、ユーザの身元確認のため、指紋照合アプリケーションに供給される(ブロック880)。
上述のように、用途に応じて、画像入力システムの他の動作モードも可能である。こうしたモードの1つがスタイラス・モードであり、スワイプ・インターフェースを横切るユーザのフィンガ・ストロークを利用して、画像入力システムの少なくとも一部を収容する電子装置において表示される文字が指示される。次に、図16A及び16Bを参照すると、典型的なフィンガ・ストロークとそれに対応する表示文字が例示されている。
図16Aに示すように、第1の基準(時間基準A)において、ユーザは、スワイプ・インターフェースの幅を横切って、x方向に指を走らせて、第1のフィンガ・ストローク90aを完了する。指を持ち上げずに、第2の時間基準(時間基準B)において、ユーザは、スワイプ・インターフェース110の全長に沿ってy方向に指を走らせ、第2のフィンガ・ストローク90bを完了する。第1のフィンガ・ストロークa及び第2のフィンガ・ストロークbを組み合わせた結果として生じるナビゲーション情報は、画像入力システムによって解釈されて、英字「L」の文字520が形成され、図16Bに示すように、英字「L」が画像入力システムを導入した携帯電話500のディスプレイ510に表示される。
ただし、云うまでもないが、図16A及び16Bにおけるフィンガ・ストローク90a及び90b、及び、対応する英字は、例証だけを目的として示されたものであり、フィンガ・ストローク90a及び90bから生じるナビゲーション情報の特定の組み合わせは、スタイラス・アプリケーションによって決まる、任意のタイプの文字520と解釈することが可能である。さらに、云うまでもなく、任意の数の異なるフィンガ・ストローク90a及び90bを利用して、任意の電子装置500の任意のタイプのディスプレイ510上に対応する文字520を表示することが可能である。さらに、云うまでもないが、画像入力システムは、文字520を表示する電子装置内に少なくとも部分的に収容することもできるし、あるいは、それに接続することも可能である。
次に図17を参照すると、画像入力システムがスタイラス・モードで動作している間に、ナビゲーション情報を利用して、フィンガ・ストロークによって表わされる文字を判定するための典型的なプロセスが例示されている。ユーザの指をスワイプ・インターフェースを横切って走らせると(ブロック900)、最初の時点において、基準フレームが画像入力システムによって入力され(ブロック910)、それに後続する時点において、後続の現在フレームが入力される(ブロック920)。基準フレーム及び現在フレームは、図10に関連して上述のように、相互相関されて、基準フレームと現在フレームとの間における指の移動方向及び量を表わしたナビゲーション情報が確認される(ブロック930)。画像入力システムによって一連のフレームが入力され(ブロック940)、計算されたナビゲーション情報の全てを用いて、特定文字を表わした、ユーザによって実施されるフィンガ・ストロークまたはフィンガ・ストロークの組み合わせが識別される。基準フレームは、ナビゲーション情報収集プロセスの間中同じままとすることもできるし、あるいは、新しい各現在フレーム毎に、または、現在フレームの位置に対して劣化すると、変化させることも可能である。ユーザが指を持ち上げて、スワイプ・インターフェースから離し、これがセンサの出力によって確認されると、特定文字を表わしたフィンガ・ストロークの終端であると判定される。
ナビゲーション情報を利用して、フィンガ・ストロークによって表わされる文字を識別する文字コードが判定されると(ブロック950)、その文字が、スワイプ・モジュールを組み込んだ電子装置に一体化されたディスプレイによってユーザに表示される(ブロック960)。例えば、ディスプレイは、携帯電話のLCDのように、電子装置上に配置することが可能である。もう1つの例では、ディスプレイは、もう1つの例として、ディスプレイは、スワイプ・モジュールが組み込まれたマウスに接続された、パーソナル・コンピュータに接続されたスクリーン上に配置することも可能である。
図18には、画像入力システム10がそのモードにある間、LED120がメッセージ表示灯として用いられる、画像入力システムのもう1つの動作モードである、明滅モードが示されている。例えば、画像入力システムが、音声メール・メッセージ、eメール・メッセージ、ショート・メッセージ・サービス(SMS)・メッセージ、または、他のタイプのメッセージといった、メッセージの受信が可能な電子装置に少なくとも部分的に導入されている場合、画像入力システム10のスワイプ・モジュール(図1に示す)内に含まれるLED120が、繰り返し間隔をおいて発光し、ユーザにメッセージを受信したことを知らせることが可能である。
図18に示すように、パーソナル・コンピュータ、ラップトップ・コンピュータ、携帯電話、または、PDAのような電子装置内に含まれるメッセージ・インジケータ論理回路240は、メッセージ受信の通告245を受信すると、LED120に接続されたオン/オフ・スイッチ230に命じて、LED120から明滅光が発せられるように、LED120を順次オン/オフさせる。オン/オフ状態は、異なるLED発光強度とすることもできるし、あるいは、オフ状態をLED120が発光しない時間期間とすることも可能である。明滅モードにある間、画像センサによって入力されるデータはない。ユーザが、画像データを必要とする別の動作モードにスイッチすると、明滅モードは、指の十分な照射を確保するために中断される。
図19A及び19Bには、スワイプ・モジュール100に関するパッケージ設計の例が2つ示されている。スワイプ・モジュール100は、簡略化のため、矩形のハウジング550内に組み込まれたものとして示されている。しかし、云うまでもなく、他の形状及び設計も可能である。さらに、ハウジング550の上面560は、スイッチ・モジュール100を導入した電子装置の表面の一部を形成することが可能である。スワイプ・インターフェース110は、ハウジング550の上面560から上方に突き出して、ユーザが位置を確認したり、探ったりしやすいスワイプ表面を形成している。さらに、スワイプ・インターフェース110は、スワイプ・インターフェース110と接触する指領域を拡大するため、凸状表面115も備えている。
図19Bには、さらに、ハウジング550の上面560にある、スワイプ・インターフェースを横切る指を導いて、回転しないように走らせる機械的設計を施されたグルーブ(溝)565が例示されている。フィンガ・ナビゲーション及び指認識中に指の回転を減少させると、処理の複雑性が低下し、回転運動及び他の曲線運動を検出するための追加ナビゲーション・センサが不要になる可能性がある。
本出願において明らかにされる新規の概念は、多種多様な用途において修正及び変更を加えることが可能である。従って、特許対象の範囲は、論考された特定の典型的な教示のいずれかに限定されるべきではなく、代わりに、付属の請求項によって定義されている。
なお、本発明は例として次の態様を含む。( )内の数字は添付図面の参照符号に対応する。
[1] フィンガ・ナビゲーション・モードまたは指認識モードとすることが可能な、選択動作モードで指紋(25)を画像入力するための装置であって、
表面(115)に人間の指(20)の先端部分が押し当てられる、2つ以上の区画(110a、110b、110c)を含む、センシングエリアを備えたフィンガ・インターフェース(110)と、
それぞれ、前記2つ以上の区画(110a、110b、110c)の1つに対応し、前記2つ以上の区画(110a、110b、110c)の前記それぞれの区画内における人間の指(20)の先端の一部を照射する光(125)を順次放出することが可能な、複数光源(120a、120b、120c)と、
前記光源(120a、120b、120c)の1つによって照射される前記2つ以上の区画(110a、110b、110c)の選択された1つにおいて前記人間の指(20)の先端の一部で反射した光(128)を区画された画像として受光して、前記区画された画像に対応する画像データ(50)を生成するためのセンサ(140)とを備えており、
選択される前記区画(110a、110b、110c)は、前記選択動作モードに基づいて少なくとも部分的に選択されるものであることを特徴とする、装置。
[2] 前記光源(120a、120b、120c)には、それぞれの前記光源に関連したオン状態とオフ状態があることと、
フィンガ・ナビゲーション・モードの場合、選択された前記区画(110a、110b、110c)に対応する前記光源(120a、120b、120c)の1つがオン状態で動作し、前記光源(120a、120b、120c)の残りが同時にオフ状態で動作することと、
を特徴とする上記[1]に記載の装置。
[3] 前記光源(120a、120b、120c)のそれぞれには、それぞれの前記光源に関連したオン状態とオフ状態があることと、
指認識モードの場合、前記光源(120a、120b、120c)が、前記オン状態と前記オフ状態の間で順次動作することにより、前記2つ以上の区画(110a、110b、110c)中の順次選択される区画内における前記画像を順次入力することが可能に構成されることと、
を特徴とする上記[1]に記載の装置。
[4] フィンガ・ナビゲーション・モードまたは指認識モードとすることが可能な、選択モードで動作する画像入力システムであって、
それぞれ、人間の指(20)の先端の一部が押し付けられるセンシングエリアの2つ以上の区画(110a、110b、110c)の1つに対応し、前記2つ以上の区画(110a、110b、110c)の前記それぞれの区画内における前記人間の指(20)の先端の一部を照射する光(125)を順次放出することが可能な、複数の光源(120a、120b、120c)と、
前記複数の光源(120a、120b、120c)の1つによって照射される前記2つ以上の区画(110a、110b、110c)の選択された1つにおいて、前記人間の指(20)の先端の一部で反射した光(128)を区画された画像として受光し、前記区画された画像に対応する画像データ(50)を生成するためのセンサ(140)と、
前記画像データ(50)を受信して、前記画像データ(50)を前記選択モードに対応して処理するように接続されたプロセッサ(210)と、
前記プロセッサ(210)に接続されて、前記選択モードを選択し、前記選択モードに基づいて、前記選択区画(110a、110b、110c)の選択を行うためのモード・スイッチ(220)と、
を具備することを特徴とする画像入力システム。
[5] さらに、前記光源(120a、120b、120c)のそれぞれに接続されて、フィンガ・ナビゲーション・モードの場合に、前記区画(110a、110b、110c)の中から選択された区画に対応した前記光源(120a、120b、120c)の1つをオンにし、同時に、前記光源(120a、120b、120c)の残りをオフにするスイッチ(365)を具備することを特徴とする、上記[4]に記載の画像入力システム。
[6] さらに、前記光源(120a、120b、120c)のそれぞれ及び前記モード・スイッチ(220)に接続されて、指認識モードの場合に、前記2つ以上の区画(110a、110b、110c)中で順次選択される区画に対応した前記光源(120a、120b、120c)のそれぞれを順次オンにするスイッチ(365)を具備することを特徴とする、上記[4]に記載の画像入力システム。
[7] 前記選択動作モードがスタイラス・モードであることと、
前記プロセッサ(210)が、さらに、前記センシングエリアを横切る前記人間の指(20)の動きに対応した1つ以上のフィンガ・ストローク(90)を確認して、前記1つ以上のフィンガ・ストローク(90)に対応した文字(520)を識別することと、
を特徴とする、上記[4]に記載の画像入力システム。
[8] フィンガ・ナビゲーション・モードまたは指認識モードとすることが可能な、選択モードで画像入力システムを動作させるための方法であって、
センシングエリアの2つ以上の区画(110a、110b、110c)のうちの選択区画内に押し付けられた人間の指(20)の先端の一部を照射することと、
前記選択区画(110a、110b、110c)内における前記人間の指(20)の先端の一部で反射した光(128)をその区画画像として受光することと、
前記区画画像に対応する画像データ(50)を生成することと、
を有することを特徴とする、
方法。
[9] さらに、
前記選択モードに基づき、前記2つ以上の区画(110a、110b、110c)から少なくとも部分的に前記選択区画を選択することと、
前記選択モードに対応して前記画像データ(50)を処理することと、
を有することを特徴とする上記[8]に記載の方法。
[10] 前記照射することが、さらに、指認識モードにおいて、前記2つ以上の区画(110a、110b、110c)のうち順次選択される区画を順次照射することを有することを特徴とする、上記[8]に記載の方法。
少なくとも2つの異なるモードで動作して、フィンガ・ナビゲーションと指認識の両方を行えるようにすることが可能な、スワイプ・モジュール及び画像処理システムを備える画像入力システムを例示したブロック図である。 本発明の実施態様の1つによるスワイプ・モジュールの主要コンポーネントに関する絵画的表現による拡大略側面図である。 本発明のもう1つの実施態様によるスワイプ・モジュールの主要コンポーネントに関する拡大断面図である。 本発明のもう1つの実施態様によるスワイプ・モジュールの主要コンポーネントに関する拡大断面図である。 本発明の画像センサの典型的なピクセル・アレイを例示した図である。 スワイプ・インターフェースのモード多重化照射を行うスワイプ・モジュールの絵画的表現による略側面図である。 スワイプ・インターフェースの多重化照射を利用した、画像入力システムのサイズ縮小を例示した概略図である。 スワイプ・インターフェースの多重化照射を利用した、画像入力システムのサイズ縮小を例示した概略図である。 スワイプ・インターフェースの時間多重化照射を行うスワイプ・モジュールの絵画的表現による略側面図である。 エリア・モジュールの時間多重化照射を例示した概略図である。 本発明の画像入力システムの典型的なハードウェア及び処理コンポーネントを例示したブロック図である。 本発明の多重化照射による画像入力システムの典型的なハードウェア及び処理コンポーネントを例示したブロック図である。 複数モードで動作するための典型的なプロセスを例示したフローチャートである。 複数モードでモード多重化照射するための典型的なプロセスを例示したフローチャートである。 時間多重化照射するための典型的なプロセスを例示したフローチャートである。 フィンガ・ナビゲーション・モードで動作するための典型的なプロセスを例示したフローチャートである。 図10の選択されたステップに関する概略図である。 典型的な指紋の一部を例示した図である。 指認識モードで動作するための典型的なプロセスを例示したフローチャートである。 オーバラップした一連の画像を例示した図である。 一連の画像にステッチをかけて、1つの連続した指紋画像を形成するための典型的なプロセスを例示したフローチャートである。 スタイラス・モードにおいて、ユーザがスワイプ・モジュール上で行うフィンガ・ストロークの絵画的表現図である。 図16Aにおいて行われたフィンガ・ストロークに対応する英字を表示するディスプレイを備えた携帯電話の正面図である。 スタイラス・モードで動作するための典型的なプロセスを例示したフローチャートである。 明滅モードで動作している画像入力システムを例示したブロック図である。 スワイプ・モジュール・パッケージの透視図である。 スワイプ・モジュール・パッケージの透視図である。
符号の説明
20 指
25 指紋
50 画像データ
90 フィンガ・ストローク
110 スワイプ・インターフェース
110a、110b、110c スワイプ・インターフェースの区画
115 スワイプ・インターフェースの表面
120a、120b、120c 光源
125 光
140 センサ
210 プロセッサ
220 モード・スイッチ
365 スイッチ

Claims (1)

  1. フィンガ・ナビゲーション・モードまたは指認識モードとすることが可能な、選択動作モードで指紋(25)を画像入力するための装置であって、
    表面(115)に人間の指(20)の先端部分が押し当てられる、2つ以上の区画(110a、110b、110c)を含む、センシングエリアを備えたフィンガ・インターフェース(110)と、
    それぞれ、前記2つ以上の区画(110a、110b、110c)の1つに対応し、前記2つ以上の区画(110a、110b、110c)の前記それぞれの区画内における人間の指(20)の先端の一部を照射する光(125)を順次放出することが可能な、複数光源(120a、120b、120c)と、
    前記光源(120a、120b、120c)の1つによって照射される前記2つ以上の区画(110a、110b、110c)の選択された1つにおいて前記人間の指(20)の先端の一部で反射した光(128)を区画された画像として受光して、前記区画された画像に対応する画像データ(50)を生成するためのセンサ(140)とを備えており、
    選択される前記区画(110a、110b、110c)は、前記選択動作モードに基づいて少なくとも部分的に選択されるものであることを特徴とする、装置。
JP2004121388A 2003-04-18 2004-04-16 指画像入力用途における時間空間多重化システム及び方法 Withdrawn JP2004318892A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/418,981 US7164782B2 (en) 2003-04-18 2003-04-18 System and method for time-space multiplexing in finger-imaging applications

Publications (2)

Publication Number Publication Date
JP2004318892A true JP2004318892A (ja) 2004-11-11
JP2004318892A5 JP2004318892A5 (ja) 2007-06-07

Family

ID=32094166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004121388A Withdrawn JP2004318892A (ja) 2003-04-18 2004-04-16 指画像入力用途における時間空間多重化システム及び方法

Country Status (3)

Country Link
US (1) US7164782B2 (ja)
JP (1) JP2004318892A (ja)
GB (1) GB2400714B (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139592A (ja) * 2004-11-12 2006-06-01 Mitsubishi Electric Corp 指紋読取装置
JP2006268852A (ja) * 2005-03-21 2006-10-05 Avago Technologies General Ip (Singapore) Private Ltd 小型で背丈の低い光ナビゲーションデバイス
JP2007073051A (ja) * 2005-09-08 2007-03-22 Avago Technologies Ecbu Ip (Singapore) Pte Ltd レーザスペックルを使用する位置検出システム
KR100899865B1 (ko) * 2006-12-19 2009-05-29 크루셜텍 (주) 초슬림 광포인팅 장치
KR100899862B1 (ko) * 2007-03-08 2009-05-29 크루셜텍 (주) 휴대 단말기의 광 포인팅 장치
JP2009157834A (ja) * 2007-12-27 2009-07-16 Toshiba Corp 電子機器
WO2010082499A1 (ja) * 2009-01-15 2010-07-22 シャープ株式会社 光ポインティング装置および該装置を搭載した電子機器
JP2010165266A (ja) * 2009-01-19 2010-07-29 Sharp Corp 光学式ポインティング装置および該装置を搭載した電子機器
JP2010539562A (ja) * 2007-09-10 2010-12-16 フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー 光ナビゲーションデバイス
JP2013130981A (ja) * 2011-12-20 2013-07-04 Hitachi Maxell Ltd 画像取得装置および生体認証装置
JP2014149643A (ja) * 2013-01-31 2014-08-21 Seiko Epson Corp 位置検出装置、位置検出装置の制御方法、および照射装置
JP2015038645A (ja) * 2010-10-26 2015-02-26 株式会社東芝 電子機器
JP2017506403A (ja) * 2015-01-07 2017-03-02 シャオミ・インコーポレイテッド タッチボタン及び指紋認証を実現する装置、方法、端末機器、並びにプログラム及び記録媒体
JP2017506402A (ja) * 2015-01-07 2017-03-02 シャオミ・インコーポレイテッド タッチボタンと指紋認識とを実現するための方法、装置、端末機器、プログラム及び記録媒体
JP2019144724A (ja) * 2018-02-19 2019-08-29 京セラ株式会社 電子機器及び制御方法
WO2019244496A1 (ja) * 2018-06-19 2019-12-26 ソニー株式会社 情報処理装置、ウエアラブル機器、情報処理方法及びプログラム
JPWO2020021879A1 (ja) * 2018-07-24 2021-08-02 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0403865D0 (en) * 2004-02-20 2004-03-24 Powerlase Ltd Laser multiplexing
US8175345B2 (en) 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
US8131026B2 (en) 2004-04-16 2012-03-06 Validity Sensors, Inc. Method and apparatus for fingerprint image reconstruction
US8229184B2 (en) 2004-04-16 2012-07-24 Validity Sensors, Inc. Method and algorithm for accurate finger motion tracking
US8165355B2 (en) 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US8077935B2 (en) 2004-04-23 2011-12-13 Validity Sensors, Inc. Methods and apparatus for acquiring a swiped fingerprint image
US8358815B2 (en) 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
US8447077B2 (en) 2006-09-11 2013-05-21 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array
US20070063130A1 (en) * 2004-07-29 2007-03-22 Ahn Keon J Optical pointing apparatus and personal portable device having the optical pointing apparatus
US7521719B2 (en) * 2004-08-13 2009-04-21 Paul Steven Schranz Light emitting and image sensing device and apparatus
WO2006019218A1 (en) * 2004-08-20 2006-02-23 Crucialtec Co., Ltd. Ultra thin optical joystick and personal portable device having ultra thin optical joystick
WO2006041780A1 (en) 2004-10-04 2006-04-20 Validity Sensors, Inc. Fingerprint sensing assemblies comprising a substrate
TW200612353A (en) * 2004-10-15 2006-04-16 Lite On Semiconductor Corp Optical sensing module, optical sensing, image-capturing structure and optical print sensing method of handheld communication system
TWM267551U (en) * 2004-12-21 2005-06-11 Lite On Semiconductor Corp Contact image sensing module with fingerprint scanning function
TWM268675U (en) * 2004-12-24 2005-06-21 Lite On Semiconductor Corp Touch type image sensing module with motion detection function
TWM268676U (en) * 2004-12-28 2005-06-21 Lite On Semiconductor Corp Fingerprint scan device and electric equipment with fingerprint scan function
KR100641423B1 (ko) * 2004-12-29 2006-11-01 엘지전자 주식회사 지문인식 시스템형 이동통신단말기
US20070040108A1 (en) * 2005-08-16 2007-02-22 Wenstrand John S Optical sensor light switch
FR2895546B1 (fr) * 2005-12-23 2008-06-06 Atmel Grenoble Soc Par Actions Systeme optique de lecture de mocroreliefs, notamment des empreintes digitales
US7557338B2 (en) * 2006-03-14 2009-07-07 Avago Technologies General Ip (Singapore) Pte. Ltd. Electronic device with integrated optical navigation module and microlens array therefore
KR100701520B1 (ko) * 2006-06-26 2007-03-29 삼성전자주식회사 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
WO2008033265A2 (en) * 2006-09-11 2008-03-20 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array
KR20080073053A (ko) * 2007-02-05 2008-08-08 주식회사 유니온커뮤니티 살균기능을 구비한 지문인식장치 및 그 살균방법
US20080218769A1 (en) * 2007-03-08 2008-09-11 Crucialtec Co., Ltd. Optical Pointing Device for Mobile Terminals
CN101281589B (zh) * 2007-04-04 2010-06-16 鸿富锦精密工业(深圳)有限公司 指纹识别装置及便携式电子装置
TWM322582U (en) * 2007-04-18 2007-11-21 Quanta Comp Inc Fingerprint identification system
US8325154B2 (en) * 2007-04-20 2012-12-04 Pixart Imaging Incorporation Optical touch control apparatus and method thereof
US8107212B2 (en) 2007-04-30 2012-01-31 Validity Sensors, Inc. Apparatus and method for protecting fingerprint sensing circuitry from electrostatic discharge
US8290150B2 (en) 2007-05-11 2012-10-16 Validity Sensors, Inc. Method and system for electronically securing an electronic device using physically unclonable functions
EP2026169A1 (en) * 2007-05-29 2009-02-18 British Telecommunications Public Limited Company Detection means
US8102377B2 (en) * 2007-09-14 2012-01-24 Smart Technologies Ulc Portable interactive media presentation system
US8189881B1 (en) * 2007-11-27 2012-05-29 Texas Instruments Incorporated Fingerprint sensor using beams of light and methods of manufacture and use
US8276816B2 (en) 2007-12-14 2012-10-02 Validity Sensors, Inc. Smart card system with ergonomic fingerprint sensor and method of using
US8204281B2 (en) 2007-12-14 2012-06-19 Validity Sensors, Inc. System and method to remove artifacts from fingerprint sensor scans
US8005276B2 (en) 2008-04-04 2011-08-23 Validity Sensors, Inc. Apparatus and method for reducing parasitic capacitive coupling and noise in fingerprint sensing circuits
US8116540B2 (en) 2008-04-04 2012-02-14 Validity Sensors, Inc. Apparatus and method for reducing noise in fingerprint sensing circuits
DE112009001794T5 (de) 2008-07-22 2012-01-26 Validity Sensors, Inc. System, Vorrichtung und Verfahren zum Sichern einer Vorrichtungskomponente
US8391568B2 (en) 2008-11-10 2013-03-05 Validity Sensors, Inc. System and method for improved scanning of fingerprint edges
US8600122B2 (en) 2009-01-15 2013-12-03 Validity Sensors, Inc. Apparatus and method for culling substantially redundant data in fingerprint sensing circuits
US8278946B2 (en) 2009-01-15 2012-10-02 Validity Sensors, Inc. Apparatus and method for detecting finger activity on a fingerprint sensor
DE102009005092A1 (de) * 2009-01-19 2010-09-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur optischen Navigation und dessen Verwendung
KR101252047B1 (ko) * 2009-01-28 2013-04-12 후지쯔 가부시끼가이샤 지문 판독 장치 및 전자 장치
US8374407B2 (en) 2009-01-28 2013-02-12 Validity Sensors, Inc. Live finger detection
US9274553B2 (en) 2009-10-30 2016-03-01 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US9400911B2 (en) 2009-10-30 2016-07-26 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US9336428B2 (en) 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US8866347B2 (en) 2010-01-15 2014-10-21 Idex Asa Biometric image sensing
US8791792B2 (en) 2010-01-15 2014-07-29 Idex Asa Electronic imager using an impedance sensor grid array mounted on or about a switch and method of making
US8421890B2 (en) 2010-01-15 2013-04-16 Picofield Technologies, Inc. Electronic imager using an impedance sensor grid array and method of making
US9666635B2 (en) 2010-02-19 2017-05-30 Synaptics Incorporated Fingerprint sensing circuit
US8716613B2 (en) 2010-03-02 2014-05-06 Synaptics Incoporated Apparatus and method for electrostatic discharge protection
US9001040B2 (en) 2010-06-02 2015-04-07 Synaptics Incorporated Integrated fingerprint sensor and navigation device
KR101148350B1 (ko) * 2010-06-15 2012-07-03 삼성전기주식회사 레이져 네비게이션 모듈
US8331096B2 (en) 2010-08-20 2012-12-11 Validity Sensors, Inc. Fingerprint acquisition expansion card apparatus
GB2484077A (en) * 2010-09-28 2012-04-04 St Microelectronics Res & Dev An Optical Device Functioning as Both a Fingerprint Detector and a Navigation Input
TWI501166B (zh) * 2010-09-29 2015-09-21 Gingy Technology Inc A segmented image recognition method and a region identification device thereof
TWI457842B (zh) * 2010-09-29 2014-10-21 Gingy Technology Inc A segmented image recognition method and a region identification device thereof
TWI464691B (zh) * 2010-11-16 2014-12-11 Pixart Imaging Inc 影像感測模組與光學訊號處理裝置
US8816963B2 (en) 2010-12-13 2014-08-26 Sae Magnetics (H.K.) Ltd. Optical navigation module and mobile electronic appliance using optical navigation module
US8594393B2 (en) 2011-01-26 2013-11-26 Validity Sensors System for and method of image reconstruction with dual line scanner using line counts
US8538097B2 (en) 2011-01-26 2013-09-17 Validity Sensors, Inc. User input utilizing dual line scanner apparatus and method
GB2489100A (en) 2011-03-16 2012-09-19 Validity Sensors Inc Wafer-level packaging for a fingerprint sensor
US8704153B2 (en) 2011-07-07 2014-04-22 Sae Magnetics (H.K.) Ltd. Side mounting optical navigation module
US10043052B2 (en) 2011-10-27 2018-08-07 Synaptics Incorporated Electronic device packages and methods
US9195877B2 (en) 2011-12-23 2015-11-24 Synaptics Incorporated Methods and devices for capacitive image sensing
US9785299B2 (en) 2012-01-03 2017-10-10 Synaptics Incorporated Structures and manufacturing methods for glass covered electronic devices
US9251329B2 (en) 2012-03-27 2016-02-02 Synaptics Incorporated Button depress wakeup and wakeup strategy
US9268991B2 (en) 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
US9137438B2 (en) 2012-03-27 2015-09-15 Synaptics Incorporated Biometric object sensor and method
US9600709B2 (en) 2012-03-28 2017-03-21 Synaptics Incorporated Methods and systems for enrolling biometric data
US9152838B2 (en) 2012-03-29 2015-10-06 Synaptics Incorporated Fingerprint sensor packagings and methods
EP2836960B1 (en) 2012-04-10 2018-09-26 Idex Asa Biometric sensing
US9208371B2 (en) * 2012-09-28 2015-12-08 Synaptics Incorporated Low power navigation devices, systems and methods
US9665762B2 (en) 2013-01-11 2017-05-30 Synaptics Incorporated Tiered wakeup strategy
US9228824B2 (en) * 2013-05-10 2016-01-05 Ib Korea Ltd. Combined sensor arrays for relief print imaging
CN103258199A (zh) * 2013-06-07 2013-08-21 浙江大学 一种获取完整的手掌静脉图像的系统及其方法
WO2018081981A1 (zh) * 2016-11-03 2018-05-11 深圳信炜科技有限公司 生物识别装置和电子装置
WO2019009366A1 (ja) * 2017-07-06 2019-01-10 日本電気株式会社 特徴量生成装置、システム、特徴量生成方法及びプログラム
TWI639961B (zh) * 2017-07-26 2018-11-01 北京集創北方科技股份有限公司 具有指紋預判定功能的指紋檢測方法及裝置
US10503951B2 (en) * 2018-02-28 2019-12-10 Superc-Touch Corporation Rapid identification method for fingerprint
CN111061089B (zh) * 2019-12-13 2021-04-27 武汉华星光电技术有限公司 一种显示装置
US11367303B2 (en) * 2020-06-08 2022-06-21 Aware, Inc. Systems and methods of automated biometric identification reporting
CN113536962A (zh) * 2021-06-24 2021-10-22 武汉天马微电子有限公司 显示装置及指纹识别方法

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5923390B2 (ja) 1978-10-09 1984-06-01 工業技術院長 スペックルを利用した運動物体の速度測定方法
US4521772A (en) 1981-08-28 1985-06-04 Xerox Corporation Cursor control device
US4631400A (en) 1984-01-20 1986-12-23 California Institute Of Technology Correlating optical motion detector
USD288930S (en) 1984-06-27 1987-03-24 Hewlett-Packard Company Computer mouse
US4794384A (en) 1984-09-27 1988-12-27 Xerox Corporation Optical translator device
US4799049A (en) 1985-01-25 1989-01-17 Avila Harold C Image position control
US4751505A (en) 1986-06-23 1988-06-14 Xerox Corporation Optical mouse
US4804949A (en) 1987-03-20 1989-02-14 Everex Ti Corporation Hand-held optical scanner and computer mouse
US4978860A (en) 1988-09-21 1990-12-18 Hewlett-Packard Company Optical system for a large depth-of-field bar code scanner
US5089712A (en) 1989-06-08 1992-02-18 Hewlett-Packard Company Sheet advancement control system detecting fiber pattern of sheet
USD314194S (en) 1989-12-11 1991-01-29 Hewlett-Packard Company Computer mouse
US5355146A (en) 1990-03-05 1994-10-11 Bmc Micro-Industries Ltd. Multi-directional hand scanner and mouse
US5149980A (en) 1991-11-01 1992-09-22 Hewlett-Packard Company Substrate advance measurement system using cross-correlation of light sensor array signals
JP3234848B2 (ja) 1994-12-13 2001-12-04 アルプス電気株式会社 相対角度検出装置
US5578813A (en) 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
US5786804A (en) 1995-10-06 1998-07-28 Hewlett-Packard Company Method and system for tracking attitude
CA2189700C (en) 1995-12-27 2000-06-20 Alexander George Dickinson Combination mouse and area imager
US5729008A (en) 1996-01-25 1998-03-17 Hewlett-Packard Company Method and device for tracking relative movement by correlating signals from an array of photoelements
US5769384A (en) 1996-01-25 1998-06-23 Hewlett-Packard Company Low differential light level photoreceptors
US5933515A (en) * 1996-07-25 1999-08-03 California Institute Of Technology User identification through sequential input of fingerprints
DE69737495T2 (de) 1997-04-14 2008-01-10 Hewlett-Packard Development Company, L.P., Houston Verfahren und Vorrichtung zur Bildabtastung
US6049621A (en) 1997-08-22 2000-04-11 International Business Machines Corporation Determining a point correspondence between two points in two respective (fingerprint) images
US6314197B1 (en) 1997-08-22 2001-11-06 International Business Machines Corporation Determining an alignment estimation between two (fingerprint) images
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6185318B1 (en) 1997-08-22 2001-02-06 International Business Machines Corporation System and method for matching (fingerprint) images an aligned string-based representation
US6263091B1 (en) 1997-08-22 2001-07-17 International Business Machines Corporation System and method for identifying foreground and background portions of digitized images
EP0905646A1 (en) * 1997-09-30 1999-03-31 Compaq Computer Corporation Pointing and fingerprint identifier mechanism for a computer system
US6172354B1 (en) 1998-01-28 2001-01-09 Microsoft Corporation Operator input device
US6104020A (en) 1998-02-17 2000-08-15 Agilent Technologies Electronic shutter for a low differential light level photo-receiver cell
US6233368B1 (en) 1998-03-18 2001-05-15 Agilent Technologies, Inc. CMOS digital optical navigation chip
US6002124A (en) 1998-03-20 1999-12-14 Hewlett-Packard Company Portable image scanner with optical position sensors
US6049338A (en) 1998-04-01 2000-04-11 Hewlett-Packard Company Spatial filter for surface texture navigation
US6047091A (en) 1998-04-01 2000-04-04 Hewlett-Packard Company Low latency architecture for spatial filtration
US6151015A (en) 1998-04-27 2000-11-21 Agilent Technologies Pen like computer pointing device
US5994710A (en) 1998-04-30 1999-11-30 Hewlett-Packard Company Scanning mouse for a computer system
US6057540A (en) * 1998-04-30 2000-05-02 Hewlett-Packard Co Mouseless optical and position translation type screen pointer control for a computer system
US6195475B1 (en) 1998-09-15 2001-02-27 Hewlett-Packard Company Navigation system for handheld scanner
US6265706B1 (en) 1999-07-12 2001-07-24 Hewlett-Packard Company Edge to edge image sensor and navigator for portable scanner
US6303921B1 (en) 1999-11-23 2001-10-16 Hewlett-Packard Company Method and system for capturing large format documents using a portable hand-held scanner
US6898301B2 (en) * 2000-07-10 2005-05-24 Casio Computer Co., Ltd. Authentication system based on fingerprint and electronic device employed for the system
US7289649B1 (en) 2000-08-10 2007-10-30 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint imager
JP4022090B2 (ja) * 2002-03-27 2007-12-12 富士通株式会社 指の動きの検出方法および検出装置
US20040125993A1 (en) * 2002-12-30 2004-07-01 Yilin Zhao Fingerprint security systems in handheld electronic devices and methods therefor
US7280677B2 (en) * 2003-10-10 2007-10-09 Authentec, Inc. Electronic device including fingerprint sensor and display having selectable menu items and associated methods

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139592A (ja) * 2004-11-12 2006-06-01 Mitsubishi Electric Corp 指紋読取装置
JP2006268852A (ja) * 2005-03-21 2006-10-05 Avago Technologies General Ip (Singapore) Private Ltd 小型で背丈の低い光ナビゲーションデバイス
JP2007073051A (ja) * 2005-09-08 2007-03-22 Avago Technologies Ecbu Ip (Singapore) Pte Ltd レーザスペックルを使用する位置検出システム
KR100899865B1 (ko) * 2006-12-19 2009-05-29 크루셜텍 (주) 초슬림 광포인팅 장치
KR100899862B1 (ko) * 2007-03-08 2009-05-29 크루셜텍 (주) 휴대 단말기의 광 포인팅 장치
JP2010539562A (ja) * 2007-09-10 2010-12-16 フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー 光ナビゲーションデバイス
JP2009157834A (ja) * 2007-12-27 2009-07-16 Toshiba Corp 電子機器
WO2010082499A1 (ja) * 2009-01-15 2010-07-22 シャープ株式会社 光ポインティング装置および該装置を搭載した電子機器
JP2010165138A (ja) * 2009-01-15 2010-07-29 Sharp Corp 光ポインティング装置および該装置を搭載した電子機器
JP2010165266A (ja) * 2009-01-19 2010-07-29 Sharp Corp 光学式ポインティング装置および該装置を搭載した電子機器
JP2015038645A (ja) * 2010-10-26 2015-02-26 株式会社東芝 電子機器
JP2013130981A (ja) * 2011-12-20 2013-07-04 Hitachi Maxell Ltd 画像取得装置および生体認証装置
JP2014149643A (ja) * 2013-01-31 2014-08-21 Seiko Epson Corp 位置検出装置、位置検出装置の制御方法、および照射装置
JP2017506403A (ja) * 2015-01-07 2017-03-02 シャオミ・インコーポレイテッド タッチボタン及び指紋認証を実現する装置、方法、端末機器、並びにプログラム及び記録媒体
JP2017506402A (ja) * 2015-01-07 2017-03-02 シャオミ・インコーポレイテッド タッチボタンと指紋認識とを実現するための方法、装置、端末機器、プログラム及び記録媒体
US9922227B2 (en) 2015-01-07 2018-03-20 Xiaomi Inc. Apparatus and method for implementing touch control and fingerprint identification
US10102361B2 (en) 2015-01-07 2018-10-16 Xiaomi Inc. Method and apparatus for implementing touch key and fingerprint identification, and terminal device
JP2019144724A (ja) * 2018-02-19 2019-08-29 京セラ株式会社 電子機器及び制御方法
WO2019244496A1 (ja) * 2018-06-19 2019-12-26 ソニー株式会社 情報処理装置、ウエアラブル機器、情報処理方法及びプログラム
JPWO2020021879A1 (ja) * 2018-07-24 2021-08-02 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
US7164782B2 (en) 2007-01-16
GB2400714A (en) 2004-10-20
GB0404679D0 (en) 2004-04-07
GB2400714B (en) 2006-11-15
US20040208347A1 (en) 2004-10-21

Similar Documents

Publication Publication Date Title
JP2004318892A (ja) 指画像入力用途における時間空間多重化システム及び方法
JP2004318891A (ja) 指認識及びフィンガ・ナビゲーションを組み合わせたモジュールにおける反射を多重化するためのシステム及び方法
JP2004318890A (ja) 指認識及びフィンガ・ナビゲーションを組み合わせるための画像入力システム及び装置
US7313255B2 (en) System and method for optically detecting a click event
JP5166713B2 (ja) レーザスペックルを使用する位置検出システム
US8022928B2 (en) Free-space pointing and handwriting
US6151015A (en) Pen like computer pointing device
KR101505206B1 (ko) 사용자 입력 장치, 광학 손가락 네비게이션 방법 및 핸드 헬드 컴퓨팅 시스템
US7239302B2 (en) Pointing device and scanner, robot, mobile communication device and electronic dictionary using the same
US20040161136A1 (en) System having a rotating optical system and a non-planar prism that are used to obtain print and other hand characteristic information
US20100220900A1 (en) Fingerprint sensing device
EP1516280A2 (en) Apparatus and method for inputting data
JP2007052025A (ja) 光学的に透明な層を通してナビゲーション情報を生成するように構成された、滑動機能を有する光ナビゲーションデバイスのためのシステム及び方法
EP2256600A2 (en) Optimal use of F-TIR issues in finger mouse
KR100615554B1 (ko) 초소형 정보기기용 촉각형 정보 입력 시스템 및 장치
KR100843590B1 (ko) 광 포인팅 장치 및 이를 구비한 휴대 단말기
US9116559B2 (en) Optics for pencil optical input computer peripheral controller
JPH03246693A (ja) 指紋情報入力装置
NL2034260B1 (en) Handwriting detecting pen
KR100586958B1 (ko) 지문의 접촉면이 넓은 광학식 지문 인증 시스템
WO2024072219A1 (en) Handwriting detecting pen

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070328

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070413

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070501