JP2004341752A - Image reading apparatus - Google Patents

Image reading apparatus Download PDF

Info

Publication number
JP2004341752A
JP2004341752A JP2003136501A JP2003136501A JP2004341752A JP 2004341752 A JP2004341752 A JP 2004341752A JP 2003136501 A JP2003136501 A JP 2003136501A JP 2003136501 A JP2003136501 A JP 2003136501A JP 2004341752 A JP2004341752 A JP 2004341752A
Authority
JP
Japan
Prior art keywords
image
pattern
rotating roller
transparent rotating
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003136501A
Other languages
Japanese (ja)
Other versions
JP3962827B2 (en
JP2004341752A5 (en
Inventor
Hiroyasu Ide
博康 井手
Tatsuo Arai
達夫 新井
Masakuni Iwanaga
正国 岩永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003136501A priority Critical patent/JP3962827B2/en
Publication of JP2004341752A publication Critical patent/JP2004341752A/en
Publication of JP2004341752A5 publication Critical patent/JP2004341752A5/ja
Application granted granted Critical
Publication of JP3962827B2 publication Critical patent/JP3962827B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stable image reading apparatus by precisely using a pattern for detecting rotation attached to a roller without increasing manufacturing costs. <P>SOLUTION: A pattern 30 for detecting rotation, in which is formed a plurality of differences on the outer peripheral, is attached over a round on a transparent rotation roller 29 provided in a fingerprint reading part 20. The pattern 30 for detecting rotation and the image of an object brought into contact with the transparent rotation roller 29 are read by a one-dimensional imaging device 24 which is constituted of a plurality of imaging devices. A CPU 10 records the read image based on the change of the image for detecting rotation in regard to the pattern 30 for detecting rotation. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、指紋パターンなどの画像データを読み込むための画像読み取り装置に関する。
【0002】
【従来の技術】
近年では、人物を識別するための装置として、人の指紋パターンを画像データとして読み取り、この指紋パターンに対して照合処理を実行することにより人物を特定するパターン照合装置(画像読み取り装置)が用いられるようになってきている。
【0003】
従来の1次元撮像素子を用いて指紋パターンを読み取るための機構としては、指紋パターンの読み取り位置であるセンシング部に透明平板を設け、その下部に照明用の光源とロッドレンズ群(セルフォックレンズ)と1次元撮像素子を配置する構造が考えられていた。
【0004】
これに対して、指紋パターンを読み取るための機構に透明回転ローラを用いた画像データ読み取り装置が考えられている(例えば、特許文献1参照)。透明回転ローラを用いた読み取り装置では、透明回転ローラに指先を圧接させて移動されることで、圧接された部分の指紋画像を撮像素子によって読み取る。
【0005】
さらに、特許文献1の画像読み取り装置では、透明回転ローラの所定位置に回転検知用の印刷パターンを設け、この印刷パターンの画像パターンを指紋パターンの画像データと共に撮像素子により読み取って、この回転検知用パターンの変化に応じて、照合対象とする指紋パターンの画像パターンを生成する。これにより、画像データの読み取りタイミングを検出するための回転検知センサーを不要にしている。
【0006】
【特許文献1】
特願2000−330785号公報
【0007】
【発明が解決しようとする課題】
このように従来の画像読み取り装置(特許文献1)では、透明回転ローラの一部に印刷パターンを付加しておき、この印刷パターンを撮像素子により読み込んでローラの回転を検出することで、回転検知センサを不要とすることができるが、次のような問題点がある。
【0008】
正確な回転検出をするためには、正確な印刷パターンを透明回転ローラに付加する必要かあるが、指紋パターン検出用の透明回転ローラは形状が小さいなどの理由から、製造コストなどを抑えた場合には正確な印刷パターンを付加することが困難になってしまう。こうした場合、安定した画像の読み取りが困難となってしまうおそれがある。
【0009】
また、撮像素子が1次元に配列された1次元撮像素子(イメージセンサ)では、各撮像素子の性能にばらつきがあり、予めそのばらつきを補正するためのデータが必要となる。また、補正データを用意したとしても、光学撮像素子を利用しているため、外光の変化や電池電圧の低下などによる光源の変化により、回転検知用パターンの部分とそれ以外の部分の明るさが変化する。このため、読み取った画像が回転検知用パターンの部分であるのか否かを、予め決められた固定の基準値により判断するのは動作の不安定さを増加させてしまうおそれがある。
【0010】
また、特許文献1では、回転検知用パターンとして、ローラの回転軸と平行に付された等ピッチパターンが用いられているが、この等ピッチパターンでは回転検知用パターン間の空白区間においては位置を判断できず、回転検知用パターン間のデータを全て保持し、次の回転検知用パターン検出時にはじめて回転検知用パターン空白区間に取ったデータの読み取りタイミングを把握することができる。このため、実現にはローラの最低回転速度を保証しなければならず、また空白区間に取ったデータを保存する十分な記憶エリアを必要としていた。
【0011】
また、回転検知用パターンとして、三角波パターンが用いられているが、この三角波パターンでは、ローラに印刷しなければならない都合上、頂点に当たる部分における精度が斜線部分よりも低下してしまう。また、角度の対称な斜線が混在するため、パターンを読み取った画像の変化からは、ローラの順回転と逆回転で同じ変化を表す場合があるので、ローラの回転方向を検出することが困難となっていた。 また、指紋パターンの読み取り時に、ローラに指先を圧接させて回転させた場合に、ローラの取り付け構造によっては左右方向に横ずれを起こす可能性がある。また、ローラを製造する際に、製造精度にばらつきがある場合も考えられる。こうした場合、ローラを利用して、指紋パターンを安定して読み取ることが困難となってしまう可能性がある。
【0012】
本発明は、前記のような問題に鑑みなされたもので、製造コストを増大させることなく精度良くローラに付された回転検知用のパターンを利用して、安定した画像の読み取りを実現することが可能な画像読み取り装置を提供することを目的とする。
【0013】
また本発明は、ローラを用いた画像読み取り時におけるローラの左右方向のずれや、ローラの製造精度のばらつきに影響されることなく、安定した画像の読み取りを実現することが可能な画像読み取り装置を提供することを目的とする。
【0014】
【課題を解決するための手段】
本発明は、被検体の表面の画像を読み取る画像読み取り装置において、外周面に複数の段差を設けて形成されたパターンが1周に渡って付された透明回転ローラと、前記透明回転ローラに付された前記パターンと共に前記透明回転ローラに接触された被検体の画像を読み取る撮像手段と、前記撮像手段によって読み取られた前記パターンの部分に該当する回転検知用画像の変化に応じたタイミングで前記被検体の画像を記録する画像記録手段とを具備したことを特徴とする。
【0015】
このような構成によれば、透明回転ローラに対して、表面形状に複数の段差を設けることで所定のパターンを形成して付加するので、ローラを型からの引き抜きにより成型できることから、透明回転ローラに対する製造コストを増大させることなく精度良くパターンを付加することができるようになり、これにより付加したパターンに該当する回転検知用画像を利用して安定して被検体の画像を記録することができる。
【0016】
また本発明は、被検体の表面の画像を読み取る画像読み取り装置において、外周面に光を拡散させる拡散面を設けて形成されたパターンが1周に渡って付された透明回転ローラと、前記透明回転ローラに付された前記パターンと共に前記透明回転ローラに接触された被検体の画像を読み取る撮像手段と、前記撮像手段によって読み取られた前記パターンに該当する回転検知用画像の変化に応じたタイミングで前記被検体の画像を記録する画像記録手段とを具備したことを特徴とする。
【0017】
このような構成によれば、透明回転ローラに対して、表面形状に拡散面を設けることでパターンを形成して付加するので、ローラを型からの引き抜き(あるいは拡散面を形成するための追加工との組み合わせ)により成型できることから、透明回転ローラに対する製造コストを増大させることなく精度良くパターンを付加することができるようになり、これにより付加したパターンに該当する回転検知用画像を利用して安定して被検体の画像を記録することができる。
【0018】
また本発明は、被検体の表面の画像を読み取る画像読み取り装置において、軸と平行な所定の長さをもった線部が等間隔で複数形成されたパターンが外周面の1周に渡って付された透明回転ローラと、前記透明回転ローラに付された前記パターンと共に前記透明回転ローラに接触された被検体の画像を読み取る撮像手段と、前記撮像手段によって読み取られた前記パターンに該当する回転検知用画像の変化に応じたタイミングで前記被検体の画像を記録する画像記録手段とを具備したことを特徴とする。
【0019】
このような構成によれば、透明回転ローラに対して、外表面に軸と平行な所定の長さをもった複数の線部によりパターンを形成して付加するので、線部の形状を例えば凹部状あるいは凸部状にすることで、ローラを型からの引き抜きにより成型できることから、透明回転ローラに対する製造コストを増大させることなく精度良くパターンを付加することができるようになり、これにより付加したパターンに該当する回転検知用画像を利用して安定して被検体の画像を記録することができる。
【0020】
また本発明は、被検体の表面の画像を読み取る画像読み取り装置において、外周面に軸と垂直な外周線パターンが1周に渡って付された透明回転ローラと、前記透明回転ローラに付された前記パターンと共に前記透明回転ローラに接触された被検体の画像を読み取る撮像手段と、前記撮像手段によって読み取られた前記パターンに該当する回転検知用画像の変化に応じたタイミングで前記被検体の画像を記録する画像記録手段とを具備したことを特徴とする。
【0021】
このような構成によれば、ローラの外周面に軸と垂直な外周線パターンが1周に渡って付されているため、画像読み取り時にローラの回転に伴って左右にずれが生じたとしても、読み取った画像中の外周線パターンに該当する部分をもとに、ずれを補正する画像処理を施すことが可能となり、安定して被検体の画像を記録することができる。
【0022】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
図1は本発明の第1実施形態に係わる画像読み取り装置を搭載した携帯電話の電子回路の構成を示すブロック図である。携帯電話は、記録媒体に記録されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されるコンピュータによって構成される。
【0023】
図1に示す携帯電話は、CPU10が記憶装置12、RAM14、通話ユニット16、表示部18、キー部19、指紋読み取り部20などの各種デバイスとバスを介して接続されることで構成されている。指紋読み取り部20は、被検体を人の指先として、指先上の指紋パターンの画像を読み取る。
【0024】
CPU10は、RAM14のプログラムエリアに格納されたプログラムを実行することにより各種の機能を実現する。CPU10は、携帯電話としての機能を制御する他、指紋読み取り部20による指紋パターンの画像データの読み取り制御と、この画像パターンに対する各種処理を実行する。
記憶装置12は、プログラムやデータ等が記憶されるもので、必要に応じて読み出されてRAM14に格納される。
【0025】
RAM14は、プログラムや各種データが格納されてCPU10によってアクセスされるもので、携帯電話を制御する各種プログラムの他、指紋読み取り部20によって読み取られた指紋パターンの画像データに対する処理を実行する処理プログラムなどが格納される。指紋読み取り部20よる指紋パターンの画像データの読み取り時には、読み取られた画像データが格納される。
【0026】
通話ユニット16は、携帯電話としての無線通信を行うためのユニットである。
表示部18は、CPU10により実現される各種機能を実行する際に様々なデータ等を表示する。
キー部19は、電話番号入力用の数字キーや各種の機能キーからなる複数のキーにより構成されている。
指紋読み取り部20は、指紋パターンを表す画像データを読み取るもので、例えば図2の携帯電話の外観例に示すように前面上部など、指紋読み取り操作が容易となる位置に設けられる。第1実施形態における指紋読み取り部20には、光源21、レンズ光学系(セルフォックレンズ22)、1次元撮像素子24、撮像制御回路26、A/D変換回路28、透明回転ローラ29が含まれており、透明回転ローラ29の外周面の一部が携帯電話の筐体に設けられたスリットから外部に露出されている。この露出された透明回転ローラ29の部分が指紋パターンの読み取り部となる。指紋パターンの読み取りを行う場合には、読み取り部に被検体である指先が圧接されて、その状態で所定の方向(透明回転ローラ29の回転軸と垂直な方向)で透明回転ローラ29を回転させながら移動されることで行われる。筐体表面に設けられるスリットは、利用者が透明回転ローラ29に対して指先を圧接させて、透明回転ローラ29を回転させることができる程度の幅が確保されていれば良い。従って、指紋パターンの画像を読み取るために、指紋全体が収まる読み取り面を確保する必要がなく、筐体表面における指紋読み取り部20(透明回転ローラ29)の実装面積が少なくて良い。
【0027】
指紋読み取り部20では、光源21から照射され読み取り部に圧接(接触)される被検体である指先において反射した光が、透明回転ローラ29を透過してセルフォックレンズ22により1次元撮像素子24に集光される。撮像制御回路26の制御により、セルフォックレンズ22を介して集光された光が1次元撮像素子24により光電変換され、さらにA/D変換回路28により指紋パターンを表す画像データとして変換される。1次元撮像素子24からは、例えば20000回/秒のタイミングで定期的にデータが読み取られて、そのデータがRAM14にバッファリングされる。CPU10は、1次元撮像素子24により読み取られたデータに対して、透明回転ローラ29に付された回転検知用パターン30の部分を読み取って得られた回転検知用画像の変化(線の部分の所定のずれ)が生じた場合に、画像データとして取り込んで指紋パターンの画像としてRAM14に記録する。
【0028】
図3には、指紋読み取り部20の機構部分の概略構成(側面断面図)を示している。
図3に示すように、携帯電話の筐体には透明回転ローラ29の回転軸に沿って、透明回転ローラ29の外周面の一部が指紋パターンの読み取り部として露出するようなスリットが設けられている。透明回転ローラ29は、光が透過するように透明な材料、例えばアクリルやガラスなどにより構成され、筐体に設けられたスリットから外周面の一部を露出させて回転するように実装されている。また、透明回転ローラ29は、ローラ内部が中空になっており、この中空内に光源21(例えば、LED(Light Emitting Diode)など)、レンズ光学系(セルフォックレンズ22)、1次元撮像素子24を含む撮像機能部が実装されている。これら撮像機能部は、透明回転ローラ29の回転と連動しないように実装されている。
【0029】
セルフォックレンズ22は、透明回転ローラ29における被検体が圧接される部分(読み取り部)を1次元撮像素子24に結像させる。なお、セルフォックレンズに限るものではなく、ロッドレンズ群によって構成される結像光学系を用いること可能である。
【0030】
なお、図示していないが、透明回転ローラ29とセルフォックレンズ22との間に光学補正素子を実装することもできる。光学補正素子は、被検体である指先が圧接された部分の透明回転ローラ29の曲率による光学影響、すなわち歪んだ像を補正するためのもので、例えば凸レンズ、具体的には片面が平面で反対面が凸曲面であるシリンドリカルレンズによって構成され、透明回転ローラ29の内径と同等、あるいは近傍の曲率を持つものとする。
【0031】
1次元撮像素子24は、CCDラインセンサまたはCMOSラインセンサなどによって構成されるもので、各撮像素子の配列が透明回転ローラ29の回転軸と平行となるように実装されている。1次元撮像素子24は、例えば透明回転ローラ29の長さ分を撮像範囲としており、後述する透明回転ローラ29の端部(あるいは端部近傍)に付加された回転検知用パターン30を含む画像を読み取ることができる。透明回転ローラ29を中空にしてその内部に撮像機能部を実装することで、指紋読み取り部20の筐体表面における実装面積及び筐体内の実装体積を小さくしている。
【0032】
透明回転ローラ29には、外周面の表面形状を不均一とすることで形成されたパターンが付されている。図4は、回転検知用パターン30が付された透明回転ローラ29の外観を示す斜視図を示している。図4に示す透明回転ローラ29には、透明回転ローラ29の軸における断面形状が段階的に外径が変化する階段状であり、各段の境界が軸に対して所定の角度(例えば予め決められた一定の角度)をもった第1の直線部と、軸に対して平行な第2の直線部とが交互に連続するように、つまりのこぎり歯状となるように形成されている回転検知用パターン30と、透明回転ローラ29の軸と垂直な連続する外周線パターンである位置補正用パターン32が、それぞれ外周面に1周に渡って付されている。位置補正用パターン32(外周線パターン)における透明回転ローラ29の断面は、透明回転ローラ29の軸と垂直である。図4に示す回転検知用パターン30は、3段階の異なる外径をもち、各段の間に2つの境界が形成されている。回転検知用パターン30の各段の境界により形成される形状は、相互に第2の直線部(軸と平行な線)が第1の直線部(斜線)とが一次元撮像素子24によって同時に読み取られる位置、すなわち読み取り方向でいずれかの境界の斜線の部分が必ず読み取られる位置となるように配列されている(図10参照)。回転検知用パターン30は、例えば透明回転ローラ29の外周面を滑らかな鏡面仕上げとしており、この外周面部分が1次元撮像素子24によって暗い部分(すなわち黒)として検出され、境界部分、つまり段差部分が光源21からの光が乱反射することにより明るい部分(すなわち白)として検出される。回転検知用パターン30により検出される明るい部分(白)と暗い部分(黒)の画素値は、後述する補正用データ生成処理において回転検知用画像をもとにして補正用データを生成するために、黒の基準値、白の基準値として用いられる。また、位置補正用パターン32は、回転検知用パターン30と同様に透明回転ローラ29の外径が異なる境界によって形成されており、1次元撮像素子24によって明るい部分(白)として検出される。なお、図4に示す透明回転ローラ29に付された回転検知用パターン30は一例であって詳細については後述する(図19〜図22)。また、その他の形状をもった回転検知用パターン30についても、図24以降を参照しながら説明する。
【0033】
なお、図3において、光源21が透明回転ローラ29の中空内に設けられているが、透明回転ローラ29の例えば端面近傍の回転軸位置に配置された構成としても良い。光源21を透明回転ローラ29の端面近傍に配置することで、透明回転ローラ29を導光体として光源21からの光束を取り込んで、読み取り部に接触された指先(被検体)に照射し、その反射光が1次元撮像素子24によって読み取られるようにすることもできる。光源21は、例えばLED、蛍光管、ハロゲンランプなどにより構成することができる。
【0034】
図5には、透明回転ローラ29に付された回転検知用パターン30と1次元撮像素子24の撮像素子との対応関係を示している。図5に示すように、1次元撮像素子24は、透明回転ローラ29の長さ全体を撮影範囲としており、回転検知用パターン30及び位置補正用パターン32に対応する撮像素子の個数(N個)が既知となっており、後述する各種処理において使用されるものとする。
【0035】
次に、本実施形態における画像読み取り装置の動作について説明する。
第1実施形態における画像読み取り装置では、1次元撮像素子24の回転検知用画像部分の各撮像素子(図5に示すN個分)によって読み取られた画素値をもとにして、各撮像素子についての基準値(補正用データ)、すなわち画素を黒あるいは白と判別するための閾値を決定することで、外光の変化や電池電圧の低下などによる光源21の光量変化による回転検知の誤判断を低減させて、安定した画像の取り込みを実現する。
【0036】
指紋読み取り部20には、透明回転ローラ29の回転を検出するためのセンサが設けられていないため、透明回転ローラ29の回転の有無にかかわらず、例えば、20000回/秒の周期で継続的に画像データを取り込む()。
【0037】
1次元撮像素子24によって読み取られる画像データ中には、透明回転ローラ29に付加された回転検知用パターン30に該当する回転検知用画像が含まれている。
【0038】
CPU10は、後述するタイミング判断処理によって、1次元撮像素子24によって読み取られた画像データをもとに透明回転ローラ29の回転を検出し、透明回転ローラ29の回転に伴って必要となる被検体の画像データが入力されたと判断された時のみその画像データを被検体の指紋画像データとして記憶する。
【0039】
図6には、第1実施形態におけるタイミング判断処理のフローチャートを示している。図7は、タイミング判断処理における補正データ生成処理を説明するためのフローチャート、図8は、タイミング判断処理における回転検知用画像抽出処理を説明するためのフローチャート、図9は、タイミング判断処理における画像取り込みタイミング判断処理を説明するためのフローチャートである。
【0040】
1次元撮像素子24からA/D変換回路28を通じて1ライン分の画像データが入力されると、CPU10は、この入力されたデータに対して補正用データ生成処理を実行して、撮像素子ごとの感度のばらつきや外光、光源の変化などの影響を補正するための補正用データを生成する(ステップA1)。
【0041】
撮像素子が読み取ったデータの補正は、単純にはその撮像素子で基準となる白と黒のデータを読み込み、その値を補正用データとして利用して入力値を算出することで実現できる。例えば、ある撮像素子で白を読み込んだ時の値をW、黒を読み込んだ時の値をBとし、入力値(画素値)を0〜255の範囲で補正する場合、入力値iは補正値i’に以下の式(1)に従って補正することができる。
【0042】
i’=(i−B)/(W−B)*255 …(1)
本実施形態の画像読み取り装置では、回転検知用パターン30に対応する撮像素子によって読み取られた回転検知用画像を対象として補正用データを生成する。透明回転ローラ29が回転することで、外周面の段差により形成された回転検知用パターン30の形状によって、各撮像素子が白と黒の基準とするデータを取り込むことができる。
【0043】
補正用データ生成処理では、各撮像素子がそれまでに読み込んだ各画素の画素値のうち、最大値を白、最小値を黒の基準値、すなわち補正用データとして記録する。透明回転ローラ29が回転されることで、各撮像素子が白と黒の基準とすべきデータ(最大値、最小値)が取り込まれる。
【0044】
図7には、補正用データ生成処理の詳細なフローチャートを示している。
ここで、回転検知用画像の読み取りに利用する撮像素子をN個、各撮像素子がある時点までに読み込んだ最大値と最小値をそれぞれ{max|0≦i≦n−1},{min|0≦i≦N−1}とし、新しく読み込まれた各撮像素子毎のデータを{data|0≦i≦N−1}とした時の補正用データの生成を示している。
【0045】
CPU10は、1次元撮像素子24によって読み取られた回転検知用画像から各撮像素子によって読み取られたデータ(画素値)を読み出すためにi=0に初期化する(ステップB1)。そして、i番目の撮像素子がそれまでに読み取った最大の画素値maxと、現在注目している画素値dataの値とを比較する(ステップB2)。この結果、max<dataであった場合には、現在注目している画素値dataを新たな最大値maxとして更新する(ステップB3)。
【0046】
また、i番目の撮像素子がそれまでに読み取った最小の画素値minと、現在注目している画素値dataの値とを比較する(ステップB4)。この結果、min>dataであった場合には、現在注目している画素値dataを新たな最小値minとして更新する(ステップB5)。
【0047】
次に、i=i+1としてiを更新し(ステップB6)、i<Nであり、回転検知用画像に対応する各撮像素子について処理が終了していなければ(ステップB8)、前述と同様にして、次のi番目の撮像素子により読み取られた画素値dataにより最大値max、最小値minを更新する必要があるか確認する。
【0048】
以上の処理を、1次元撮像素子24によって読み取られた0〜N−1までの各撮像素子によって読み取られた画素値について実行する。
【0049】
補正用データ生成処理では、外光や光源の変化などの影響を受けた環境下で、1次元撮像素子24により読み取られる回転検知用画像をもとに、補正用データを設定することができる。こうして、各撮像素子について設定された補正用データ(最大値、最小値)をもとに、前述した式(1)に従い補正値i’を算出することで、撮像素子のばらつきだけでなく、外光や光源の変化などの影響を補正することができる。
【0050】
次に、CPU10は、回転検知用画像抽出処理を実行する(ステップA2(図8))。
回転検知用画像抽出処理では、各撮像素子が読み取ったデータ(画素値)をもとに、撮像素子に対応する画素が白なのか黒なのかを判断する。これは、撮像素子がそれまでに読み取った画素値の最大値と最小値から白と黒を判断するための閾値を算出し、この閾値をもとに画素値が白あるいは黒の何れであるかを判別することで実現できる。ここでは、最大値と最小値の平均値を閾値として設定して、各画素の白、黒を決定する。
【0051】
図8には、回転検知用画像抽出処理の詳細なフローチャートを示している。
まず、次元撮像素子24によって読み取られた回転検知用画像から各撮像素子によって読み取られたデータ(画素値)を読み出すためにi=0に初期化し(ステップC1)、i番目の撮像素子がそれまでに読み取った画素値の最大値maxと最小値minの合計の1/2を閾値thとして算出し(ステップC2)、この閾値thとi番目の画素値dataとを比較する(ステップC3)。この結果、閾値th<dataであった場合には(ステップC3、Yes)、この画素を白と判断し(ステップC4)、閾値th≧dataであった場合には(ステップC3、No)、この画素を黒と判断する(ステップC5)。
【0052】
次に、i=i+1としてiを更新し(ステップC6)、i<Nであり、回転検知用画像に対応する各撮像素子について処理が終了していなければ(ステップC7)、前述と同様にして、次のi番目の撮像素子により読み取られた画素値dataについて、白または黒を判断する。
【0053】
以上の処理を、1次元撮像素子24によって読み取られた0〜N−1までの各撮像素子によって読み取られた画素値について実行することで、各撮像素子のそれまでに読み取られた最大値と最小値の平均値をもとにして各画素について白あるいは黒を決定することで、補正された回転検知用画像を得ることができる。
【0054】
次に、回転検知用画像から画像取り込みタイミングであるか否かを判断するための画像取り込みタイミング判断処理を実行する(ステップA3)。
【0055】
図9には、画像取り込みタイミング判断処理の詳細なフローチャートを示している。
まず、CPU10は、回転検知用画像抽出処理により生成された回転検知用画像から回転検知用パターン30を形成する線分に該当する部分を検出する(ステップD1)。
【0056】
そして、前回の画像取り込みタイミング時に検出された部分の位置と今回検出された部分の位置とを比較し(ステップD2)、予め決められた値以上位置が離れていれば画像取り込みタイミングであると判断する(ステップD3)。
【0057】
なお、線分(黒色部)は幅を有するため、1次元撮像素子24では複数画素の黒色部を検出するが、その場合は黒画素列の中心、あるいは一方の端点を検出位置として比較するようにする。また、検出位置の比較は、前回の画像取り込みタイミングで検出された部分と、今回の検出された部分が複数箇所ある場合には、全ての組み合わせについて行なう。
【0058】
図10には、透明回転ローラ29に付された回転検知用パターン30をわかりやすくするために平面状に展開して示す図である。1次元撮像素子24は、透明回転ローラ29に対して回転軸方向と平行、すなわち図10においては水平方向に画像の読み取りを行なう。従って、回転検知用パターン30を形成する2つの境界のそれぞれの斜線部分が、図10中a,bの破線の範囲に示すように、一部が重なるように配置されている。また、少なくとも何れか一方の境界により形成される斜線が読みとられるように配置されている。従って、1次元撮像素子24による1回の読み込みで2または1箇所で回転検知用パターン30の部分を検出することができる。また、位置補正用パターン32については、透明回転ローラ29の回転位置がどの状態であっても常に読み取られる。
【0059】
図11(a)には、前回の画像取り込みタイミング時に読み取られた回転検知用画像を示しており、回転検知用パターン30に相当する2箇所の部分a1,a2と、位置補正用パターン32に対応する部分a3が検出されている。ここで、今回、図11(b)に示すように、3箇所の部分b1,b2,b3とが検出されているものとする。この場合には、最も右側で検出された部分a3,b3は、位置補正用パターン32に相当する箇所として比較対照として除外し、残りのa1,a2,b1,b2の組み合わせ、a1−b1、a1−b2、a2−b1、a2−b2のそれぞれについて位置の比較を行なう。
【0060】
なお、1次元撮像素子24による読み取りの際に、回転検知用パターン30の一方の境界におけるローラの軸と平行な線分位置(線の端部に相当する)が読み取り対象となっていたとしても、他方の境界による斜線部分が同時に読み取り対象となっている。従って、軸と平行な線分位置における読み取り精度が低いとしても、全ての部分の組み合わせによって判断されるので、精度高く読み取られた他方の境界の斜線部分に対応する画像をもとに安定して透明回転ローラ29の回転を検知することができる。
【0061】
この結果、全ての位置の組み合わせの中で最小の差が予め決められた値以上であり、位置の移動が確認された場合には(ステップD3、Yes)、画像取り込みタイミングであると決定する。すなわち、透明回転ローラ29が被検体が圧接された状態で回転され、1次元撮像素子24による読み取り位置に被検体の新たな部分が移動したことを表すので、この時に読み取られた画像を指紋パターンの画像として取り込む。一方、最小の差が予め決められた値以上でなかった場合には(ステップD3、No)、画像取り込みタイミングではないと決定する。
【0062】
こうして、画像取り込みタイミング判断処理によって、画像取り込みタイミングであると決定された場合(ステップE6)、1次元撮像素子24によって読み取られた回転検知用画像を指紋パターンを表す画像として記録する。
【0063】
これに対して、画像取り込みタイミングではないと決定された場合には、読み取られた画像を破棄する。
【0064】
こうして、回転検知用画像の回転検知用パターン30の線分に該当する部分の位置の移動をもとにして、画像取り込みのタイミングを判定し、指紋パターンの画像を生成することができる。回転検知用画像は、外光や光源の変化に応じて補正が施されているので、安定して画像取り込みタイミングを決定することができる。
【0065】
なお、回転検知用パターン30は、透明回転ローラ29の回転軸に対して所定の角度をもった斜線部が形成されているために、透明回転ローラ29の回転方向に応じて、パターン部分が前回読み取られた回転検知用画像におけるパターン部分に対して右あるいは左に移動する。すなわち、透明回転ローラ29を回転させる方向によって、何れの方向に移動するかを判別することができる。
【0066】
例えば、図10に示す回転検知用パターン30の場合では、図3中に示す指先がAの方向に移動されることによって(手前に引く)、透明回転ローラ29がBの方向に回転される。これにより、パターン部分が先に読み込んだ回転検知用画像中のパターン部分の位置よりも左方向に移動する。逆に、指を手前から奥に移動させるようにして透明回転ローラ29が回転された場合には、図12(a)〜(d)に示すように、先に読み取られた回転検知用画像中のパターン部分に対して右に移動することになる(a1→b1→c1→d1)。
【0067】
これにより、CPU10は、透明回転ローラ29の回転方向を検出し、この回転方向から指紋パターンの下部から読み取られているか、あるいは上部(指先側)から読み取られているかを判断することができる。従って、読み込みタイミングで読み込まれた画像を記録する際に、指紋パターンの下部あるいは上部から順次記録し、予め決められた向き(例えば指先側を上)で指紋パターンの画像を生成することができる。なお、画像取り込みタイミングで読み込まれる画像を順次記録しておき、指紋パターンの下部から読み取られていると判別された場合に、全体の画像を読み込んだ後に画像を180°反転させるようにしても良い。
【0068】
このようにして、第1実施形態では、1次元撮像素子24の撮像素子ごとに、それまでに読み込んだ画素値の最大値と最小値を記録し、この最大値と最小値の平均値を基準値として設定して、この基準値をもとに撮像素子によって検出されるデータを補正することで、予め補正用データを用意しておくことなく、外光や光源の変化に対応して、安定した画像の取り込みが可能となる。回転検知用画像として、1次元撮像素子24による画像取り込み時に、重なり部分ができるように線分を配置した配置した回転検知用パターン30を透明回転ローラ29に付しているので、1本の線分の端点位置(ローラの軸と平行な直線部分)が読み取り位置となっていても、他の斜線部分の途中が読み取り位置となるため、精度を落とすことなく安定して画像取り込みタイミングを判断することができる。また、読み込まれた回転検知用画像の白黒を判断するために、各撮像素子がそれまでに読み取った画素値の最大値と最小値の平均を基準値として利用することで、簡単に画素の白黒を判断できるようになる。
【0069】
なお、前述した第1実施形態では、回転検知用画像の撮像素子によって読み取られた画素値の最大値と最小値の平均値を基準値として、白と黒を判断するように構成しているが、他の基準値の設定方法を用いることも可能である。例えば、中間値を排除するために、最大値と最小値のそれぞれから予め指定された比率内の色をそれぞれ白、黒と判別する方法がある。
【0070】
例えば、白/黒と判断すべき画素値の範囲を、最大値(max)/最小値(min)からそれぞれN%(2N<100)とすると、入力データdが、
(d−min)/(max−min)*100>(100−N)…(2)
の場合には白と判断し、
(d−min)/(max−min)*100<N …(3)
の場合には黒と判断する。
【0071】
こうした基準値を用いることで、1次元撮像素子24によって読み取られた中間値の画素を排除することができる。
【0072】
また、第1実施形態では、1次元撮像素子24による1回の読み込みにより、回転検知用パターン30の線分に該当するパターン部分が1箇所あるいは2箇所含まれている回転検知用画像が読み取られているが、3箇所以上のパターン部分が読み取られるように、回転検知用パターン30の線分を配置しても良い。この場合、前述と同様にして、前回の読み取ったパターン部分と今回読み取ったパターン部分の組み合わせのそれぞれについて検出位置の変化を判断し、読み取りタイミングを決定する。
【0073】
次に、本発明の第2実施形態について説明する。
第2実施形態では、第1実施形態と同様の処理によって作成される補正用データを利用して、透明回転ローラ29の回転検出が不安定な状態にあるか否かを判断することができるようにする。
【0074】
図13は、第2実施形態におけるタイミング判断処理を説明するためのフローチャートである。なお、図13に示すステップE1、E4、E5、E6、E7は、それぞれ図6に示すステップA1、A2、A3、A4、A5と同様の処理を実行するものとして詳細な説明を省略する。
【0075】
ステップE1における補正データ生成処理によって、1次元撮像素子24の各撮像素子のそれぞれに対する補正用データを生成した後、この補正用データに対して補正用データ適正判断処理を実行する(ステップE2)。この補正用データ適正判断処理によって、補正用データが適正であると判断された場合に、後続する処理を実行する。
【0076】
ここで、補正用データが適正であるとは、各撮像素子がそれぞれ白と黒の両方のデータを読み込んで、それらのデータをもとに補正用データを生成していることを表す。
【0077】
図14には、補正用データ適正判断処理のフローチャートを示している。
CPU10は、RAM14に記録されている各撮像素子ごとのそれまでに読み取った画素値の最大値と最小値から、それぞれの中から最大値maxall、最小値minallを検出する(ステップF1)。
【0078】
【数1】

Figure 2004341752
【0079】
ここで、MAX()、MIN()はそれぞれ最大値、最小値を算出する関数である。
【0080】
次に、CPU10は、最大値maxallと最小値minallをもとに、例えば以下の式(6)によって閾値thを算出する(ステップF2)。
【0081】
th=(maxall+minall)/2 …(6)
そして、CPU10は、各撮像素子について(i=0〜N)、最大値maxが閾値thよりも大きく、また最小値minが閾値thよりも小さいかを判別する(ステップF3〜F6)。この結果、全ての撮像素子の最大値maxが閾値thよりも大きく、最小値minが閾値thよりも小さいと判断された場合、補正用データ生成処理により生成された補正用データが適正であると判断する。各撮像素子のばらつきが一定の誤差内に入っているならば、これにより各撮像素子が既に白と黒の両方のデータを読み込んだか否かを判断することができる。
【0082】
このようにして、補正用データ適正判断処理を実行して、適正ではないと判断された場合には画像の取り込みが実行されないので、安定した状態でのみ画像を取り込んで指紋パターンを生成することができる。
【0083】
次に、図15に示すフローチャートを参照しながら横ずれ補正処理ついて説明する。
透明回転ローラ29は、ローラが回転する構造上、指紋パターンの読み取り時、すなわち被検体である指先が圧接された状態で移動され、回転することにより、左右方向に横ずれを起こす可能性がある。また、透明回転ローラ29を製造する際に、製造精度にばらつきがある場合も考えられる。そこで透明回転ローラ29に付した位置補正用パターン32をもとにして、読み取られた画像に対して、透明回転ローラ29の横ずれに応じた補正を施す。
【0084】
ここで、1次元撮像素子24によって読み取られる位置補正用パターン32が理想的に読み出されるべき位置をp(横ずれが発生していない状態での読取位置)とし、今回読み出された位置補正用パターン32の位置kとの差lagを読み取り画像の補正に利用する。
【0085】
例えば、図16(a)に示す1次元撮像素子24により読み取られた画像例において、理想的に読み出されるべき位置(以下、基準位置と称する)がa1であり、実際に読み出された位置補正用パターン32の位置がa2だった場合には、透明回転ローラ29の横ずれが発生していないと判別することができる。これに対して、基準位置がb1だった場合に、実際にb2の位置で位置補正用パターン32が読み出された場合には、透明回転ローラ29が右方向にずれていると判断することができる。
【0086】
図17には、透明回転ローラ29上で指紋パターンの読み取りが行われる指紋読み取り範囲と、1次元撮像素子24との対応関係を示している。図17に示すように、指紋読み取り範囲は1次元撮像素子24のMドットと対応しているものとする。横ずれ補正処理では、差lagに応じて、1次元撮像素子24により読み取られたMドット分の画像をデータを、図18に示すように、右あるいは左にシフトすることで横ずれを補正する。
【0087】
CPU10は、A/D変換回路28を通じて入力された1次元撮像素子24によって読み取られた画像データをもとに、位置Pと、今回、読み出された位置補正用パターン32との位置との差を算出する(ステップG1)。ここで、差lagが「0」であった場合には、横ずれが発生していないので横ずれ補正処理を終了する(ステップG2、「0」)。
【0088】
一方、差lagがマイナスだった場合(ステップG2、「−」)、すなわち透明回転ローラ29が左側にずれていた場合には、補正後の画素の位置iをi=M−1とし(ステップG3)、画素位置iの画素値dataを、i−lagの画素位置の画素値datai−lagとする(ステップG4)。すなわち、ずれていた分の画素位置の画素値を、本来の画素位置の画素値にシフトする。
【0089】
次に、i=i−1としてiを更新し(ステップG5)、i≦−lagであった場合には(ステップG6、Yes)、さらに処理対象とする画素値が残っているものとして、以下同様にして各画素位置の画素値を差lag分、それぞれ右方向にシフトする(ステップG4〜G5)。
【0090】
こうして、シフトの対象とする各画素位置のシフトが終了すると(ステップG6、No)、data=0とし(ステップG7)、0ドットまでの残りの画素位置に対して、i=i−1としてiの値を順次更新しながらそれぞれ画素値を0にする(ステップG7,G8,G9)。
【0091】
また、差lagがプラスだった場合(ステップG2、「+」)、すなわち透明回転ローラ29が右側にずれていた場合には、補正後の画素の位置をi=0とし(ステップG10)、画素値iの画素値dataを、i+lagの画素位置の画素値datai+lagとする(ステップG11)。すなわち、ずれていた分の画素位置の画素値を、本来の画素位置の画素値にシフトする。
【0092】
次に、i=i+1としてiを更新し(ステップG12)、i<M−lagであった場合には(ステップG13、Yes)、さらに処理対象とする画素値が残っているものとして、以下同様にして各画素位置の画素値を差lag分、それぞれ左方向にシフトする(ステップG11,G12)。
【0093】
こうして、シフトの対象とする各画素位置のシフトが終了すると(ステップG13,No)、data=0とし、Nドットまでの残りの画素位置に対して、i=i+1としてiの値を順次更新しながらそれぞれ画素値を0にする(ステップG14,G15,G16)。
【0094】
こうして、1次元撮像素子24により読み取られた画像データを、透明回転ローラ29の横ずれ分シフトさせる画像処理を施すことにより補正することができる。
【0095】
なお、図17のフローチャートに示す横ずれ補正処理だけでなく、補正の指標となる位置pを最初の1回または複数回による読み込みで決定することもできる。例えば、1次元撮像素子24によりn回の読み込んだ縦線(位置補正用パターン32)の位置を{ki|i=0,1,…,n−1}とした場合、補正位置pは次の式(7)で算出できる。
【0096】
【数2】
Figure 2004341752
【0097】
なお、前述した説明では、指紋読み取り範囲(Mドット)において読み取られた画像データに対して横ずれ補正をする場合について説明しているが、1次元撮像素子24のN個分の撮像素子に相当する回転検知用パターン(位置補正用パターン32を含む)の画像データに対しても、同様に横ずれを補正することができる。これにより、透明回転ローラに対する回転検知の精度を向上させることができる。
【0098】
次に、透明回転ローラ29に付された回転検知用パターン30の具体例について説明する。
図19〜図21は、透明回転ローラ29の軸における断面形状が段階的に外径が変化する階段状であり、各段の境界が、軸に対して所定の角度をもった第1の直線部と、軸と平行な第2の直線部とが交互に連続するように(のこぎり歯状となるように)形成されている例を示している(図4において示した回転検知用パターン30)。図19は、透明回転ローラ29の外観構成を示す斜視図、図20は回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図、図21(a)〜(d)は、透明回転ローラ29の軸における断面図(一方の外表面側のみを示す)である。まず、図21(a)に示す断面形状に形成されているとして説明する。
【0099】
図21(a)に示すように、透明回転ローラ29の外周面の表面にそれぞれ外径が異なるA面、B面、C面、D面が形成されている。A面、B面、C面、D面のそれぞれは、表面が滑らかないわゆる鏡面に加工される。図21(a)に示す断面形状において、B面とC面、C面とD面のそれぞれの境界(第1の境界、第2の境界)において、のこぎり歯状の同じパターンが形成されている。このパターンには、第1の境界と第2の境界のパターンとが、それぞれの透明回転ローラ29の軸と平行な部分が一致しないように形成されている。すなわち、パターンの頂点部分が透明回転ローラ29の軸上で一致しないように、ずらして形成されている。また、A面とB面との境界によって、位置補正用パターン32が形成されている。
【0100】
具体的な数値を示すと、例えば図21(a)に示すように、透明回転ローラ29のA面部分における外径が7.5mm、A面部分における透明回転ローラ29の厚さが0.5mmである。また、図20に示すように、各段の境界により形成されるパターンの各頂点間の距離は、ローラ径の中心角度で示すと18°、2つのパターンの頂点間の距離が9°である。また、図20中に示すα=0.211mm(5ドット)、β=1.180mm(28ドット)、γ=1.180mm(28ドット)、δ=0.422mm(10ドット)である。なお、図19〜図21に示す透明回転ローラ29の形状は、この数値に限定されるものではない。
【0101】
また、図21(a)に示す断面形状では、各段の境界が垂直(ローラの軸に対して垂直)となっているが、図21(B)に示すように、各面と境界面との角度が90°を越えるように形成しても良い。この場合、回転検知用パターン30及び位置補正用パターン32の部分の画像を読み取った場合に、パターン部分(線)を境界が垂直に形成された場合よりも太くすることができる。また、境界の段差面を拡散面(1次元撮像素子24により白と検知される)に形成しても良い。なお、拡散面とは、表面がザラザラしたいわゆるシボ面に形成されており、光が当たった際に拡散(乱反射)させる面である。
【0102】
また、図21(a)(b)では、透明回転ローラ29の端部側の外径が細くなっているが、図21(c)(d)に示すように、透明回転ローラ29の端部側の外径が太くA面部分の外径が最も細くなるように形成することも可能である。
【0103】
ここで、図19、図20、図21(a)に示す回転検知用パターン30が付された透明回転ローラ29の製造方法の概略について、図22及び図23を参照しながら説明する。図22及び図23の断面図に示すように、透明回転ローラ29の製造には、キャビ40、コア42、押出ピン44が用いられる。
【0104】
まず、透明回転ローラ29を製造する際のキャビ40、コア42、押出ピン44の初期状態は、図22▲1▼に示すようになっている。すなわち、キャビ40とコア42とを組み合わせることで、透明回転ローラ29の形状に合わせた空間が形成されており、この空間内に透明回転ローラ29の材料(例えばアクリル樹脂)を注入するためのゲート46とランナー48が確保されている。
【0105】
ここで、図22▲2▼に示すように、ゲート46、ランナー48を通じて、キャビ40とコア42により形成された空間内に例えばアクリル樹脂49が充填される。その後、図22▲3▼に示すように、樹脂49が硬化するとキャビ40が開かれる。この時、透明回転ローラ29の断面形状が先端部ほど外径を小さい階段状となっているので、キャビ40を容易に引き抜くことができ、回転検知用パターン30を精度良く形成することができる。
【0106】
次に、図23▲4▼に示すように、押出ピン44によってコア42内の成型品を押し出して、図23▲5▼に示すように成型品を引き抜く。そして、ゲート、ライナーの部分をカットすることで、透明回転ローラ29の成型を完了する。
【0107】
以上説明した製造方法は、透明回転ローラ29を大量生産する場合であっても製造コストを大幅に増大させることなく、安定して精度良く回転検知用パターン30が付すことができる。従って、この製造方法を用いて製造可能な透明回転ローラ29を用いて画像読み取り装置を構成することで、安定した画像読み取りを実現することができる。
【0108】
なお、図22及び図23に示す製造方法の例では、透明回転ローラ29の端部側の外径が細くなっている図21(a)に示す構成を対象としているので、A面とBとの境界において、キャビ40とコア42とを分離させている。回転検知用パターン30を他の形状とする場合には、その形状に合わせて、キャビ40とコア42との分離が容易となる位置に任意に決めることができる。例えば、図21(c)(d)に示す断面を持つ構成では、C面とD面との境界においてキャビ40とコア42とを分離させれば良い。
【0109】
また、透明回転ローラ29に対して拡散面を付加する場合には、その拡散面部分に対応するキャビ40あるいはコア42の表面形状を荒らしておく(拡散面としておく)ものとする(図24、図27に示す透明回転ローラ29の例など)。
【0110】
以下、他の形状をもった回転検知用パターン30が付された透明回転ローラ29の例について説明する。
図24〜図26に示す回転検知用パターン30は、透明回転ローラ29に設けられたテーパ面上に拡散面(シボ面)を設けて形成された例を示している。
【0111】
図24は、透明回転ローラ29の外観構成を示す斜視図、図25は回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図、図26は、透明回転ローラ29の軸における断面図(一方の外表面側のみを示す)である。
【0112】
図26に示すように、透明回転ローラ29の外周面には、外径が一定なA面の他、先端部の外径を小さくしたテーパ面が形成されている。テーパ面には、B面、C面、D面が形成されている。B面及びD面は鏡面に加工され、B面とD面に挟まれたC面は拡散面に加工される。なお、拡散面は、前述した透明回転ローラ29の製造方法において、キャビ40あるいはコア42に拡散面を形成しておくことで、透明回転ローラ29に対して対応する箇所に付加されるとしているが、追加工によって付加するようにしても良い。図26に示す断面形状において、B面とC面、C面とD面のそれぞれの境界(第1の境界、第2の境界)において、のこぎり歯状の同じパターンが形成されている。このパターンには、第1の境界と第2の境界のパターンとが、それぞれの透明回転ローラ29の軸と平行な部分が一致しないように形成されている。すなわち、パターンの頂点部分が透明回転ローラ29の軸上で一致しないように、ずらして形成されている。また、A面とB面との境界によって、位置補正用パターン32が形成されている。
【0113】
具体的な数値を示すと、例えば図26に示すように、透明回転ローラ29のA面部分における外径が7.5mm、A面部分における透明回転ローラ29の厚さが0.5mmである。また、図25に示すように、C面(拡散面)との境界により形成されるパターンの各頂点間の距離(ε)は18°、2つのパターンの頂点間の距離(ζ)が9°である。また、図25中に示すα=0.211mm(5ドット)、β=1.180mm(28ドット)、γ=1.180mm(28ドット)、δ=0.422mm(10ドット)である。なお、図24〜図26に示す透明回転ローラ29の形状は、この数値に限定されるものではない。
【0114】
図27〜図29に示す回転検知用パターン30は、透明回転ローラ29の外周面上に拡散面が設けられ、拡散面の境界が透明回転ローラ29の軸に対して所定の角度をもった第1の直線部と軸と平行な第2の直線部とが交互に連続するように形成されている例を示している。
【0115】
図27は、透明回転ローラ29の外観構成を示す斜視図、図28は回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図、図29は、透明回転ローラ29の軸における断面図(一方の外表面側のみを示す)である。
【0116】
図29に示すように、透明回転ローラ29の外周面には、A面、B面、C面、D面が形成されている。A面、B面、及びD面は鏡面に加工され、B面とD面に挟まれたC面は拡散面に加工される。また、A面とB面との境界には、断面形状がV字形となっているV溝により位置補正用パターン32が形成がされている。図26に示す断面形状において、B面とC面、C面とD面のそれぞれの境界(第1の境界、第2の境界)において、のこぎり歯状の同じパターンが形成されている。このパターンには、第1の境界と第2の境界のパターンとが、それぞれの透明回転ローラ29の軸と平行な部分が一致しないように形成されている。すなわち、パターンの頂点部分が透明回転ローラ29の軸上で一致しないように、ずらして形成されている。
【0117】
具体的な数値を示すと、例えば図29に示すように、透明回転ローラ29の各面の外径が7.5mm、各面部分における透明回転ローラ29の厚さが0.5mmである。また、図28に示すように、C面(拡散面)との境界により形成されるパターンの各頂点間の距離(ε)は18°、2つのパターンの頂点間の距離(ζ)が9°である。また、図28中に示すα=0.211mm(5ドット)、β=1.180mm(28ドット)、γ=1.180mm(28ドット)、δ=0.422mm(10ドット)である。なお、図27〜図29に示す透明回転ローラ29の形状は、この数値に限定されるものではない。
【0118】
図30〜図32に示す回転検知用パターン30は、透明回転ローラ29の軸に平行な所定の長さ(例えば、予め決められた一定の長さ)をもった線部が等間隔で複数形成されている例を示している。
【0119】
図30は、透明回転ローラ29の外観構成を示す斜視図、図31は回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図、図32(a1)〜(b2)は、透明回転ローラ29の軸における断面図(一方の外表面側のみを示す)である。
【0120】
図30及び図31に示すように、透明回転ローラ29の外周面には、外径が異なるA面とB面が形成され、例えば表面は滑らかな鏡面に加工されている。B面には、透明回転ローラ29の軸に平行な所定の長さをもったV溝が等間隔で複数形成されている。V溝は、透明回転ローラ29の端部から形成されている。また、A面とB面との段差により位置補正用パターン32が形成されている。
【0121】
図30中のXで示す部分の透明回転ローラ29の軸方向から見た断面図を図32(a1)に示している。図32(a1)に示すように、V溝の溝幅と、V溝に挟まれたB面の幅とが等間隔となるように各V溝が形成されている。V溝が形成される間隔(ピッチ)は、透明回転ローラ29の回転に伴って画像の取り込みを行なうタイミング(解像度)に応じて形成される。例えば、V溝の部分が1次元撮像素子24によって明るい部分(すなわち白)として検出され、B面の部分が暗い部分(すなわち黒)として検出される場合、読み取りタイミングに応じて、回転検知用パターン30の部分を読み取って得られた回転検知用画像が白、黒、白…に切り替わるように形成される。
【0122】
また、図32(a1)中のX1線上の断面を図32(a2)に示している。図32(a2)に示す例では、A面の外径の方が大きく形成されている。
【0123】
具体的な数値を示すと、例えば図32に示すように、透明回転ローラ29のA面の外径が7.5mm、A面部分における透明回転ローラ29の厚さが0.5mmである。また、図31に示すように、線部に対する1次元撮像素子24による読み取り基準位置として、α=0.843mm(20ドット)、β=0.422mm(10ドット)であり、γ=0.634°(ローラ径の中心角度)である。なお、図30〜図32(a1)(a2)に示す透明回転ローラ29の形状は、この数値に限定されるものではない。
【0124】
なお、図30及び図31に示す線部(V溝、V凸)は、白と黒とが等間隔のタイミングで検出されるように、透明回転ローラ29に形成されているが、線部の間隔をより広く形成するようにしても良い(例えば、γ=1.286°)。この場合、線部の間で1次元撮像素子24による読み取りの際に、連続してB面の部分の読み取りが行われるが、位置補正用パターン32の部分についても同時に読み取られる。すなわち、いかなるタイミングで画像が読み込まれても、その読み取られた画像データ中には白部分と黒部分が存在することになる。このため、前述した補正データ生成処理(図7)、補正用データ適正判断処理を支障無く実行することができる。
【0125】
また、図32(a1)(a2)では、線部をV溝によって形成しているが。図32(b1)(b2)に示すように、線部をV凸(V形の凸形状)によって形成することも可能である。図30中のXで示す部分の透明回転ローラ29の軸方向から見た断面図を図32(b1)に示している。図32(b1)に示すように、V凸の幅と、V凸に挟まれたB面の幅とが等間隔となるように各V凸が形成されている。図32(b1)中のX2線上の断面を図32(b2)に示している。図32(b2)に示す例では、B面の外径の方が大きく形成されている。
【0126】
こうして、線部をV凸によって形成しても、V溝によって形成した場合と同様にして使用することができる。なお、図32(b1)(b2)の構成の透明回転ローラ29を製造する場合、キャビ40とコア42とを分離する位置は、例えばA面とB面との境界とすることで安定した精度の良い製造が可能である。
【0127】
図33〜図35に示す回転検知用パターン30は、図30〜図32に示す回転検知用パターン30と同様にして透明回転ローラ29の軸に平行な所定の長さをもった線部が等間隔で複数形成されるもので、さらに所定数ごとの線部の一端により形成される包絡線が、透明回転ローラ29の軸に対して所定の角度をもった直線を形成している例を示している。
【0128】
図33は、透明回転ローラ29の外観構成を示す斜視図、図34は回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図、図35(a1)〜(b2)は、透明回転ローラ29の軸における断面図(一方の外表面側のみを示す)である。なお、図33〜図35に示す回転検知用パターン30は、図30〜図32に示す構成と線部の長さが異なるだけで、他は同様にして構成されるものとして説明を省略する。
【0129】
図33〜図34に示すように回転検知用パターン30を形成する線部は、所定本数ごとに線長が順に短くなっており、その包絡線(線部の先端に接する線)が直線を形成している。従って、透明回転ローラ29に形成される回転検知用パターン30全体の包絡線はのこぎり歯のように形成される(図34参照)。
【0130】
具体的な数値を示すと、例えば図35に示すように、透明回転ローラ29のA面の外径が7.5mm、A面部分における透明回転ローラ29の厚さが0.5mmである。また、図34に示すように、線部に対する1次元撮像素子24による読み取り基準位置としてα=0.211mm(5ドット)、β=0.843mm(20ドット)であり、γ=0.211mm(5ドット)、δ=0.643°である。なお、図33〜図35に示す透明回転ローラ29の形状は、この数値に限定されるものではない。
【0131】
このように、線部が形成される間隔(ピッチ)が読み取り解像度に合わせて決められているため、のこぎり歯の端点においても回転検知用画像をもとに安定して回転を検知することができる。また、線部の包絡線がのこぎり歯を形成しているので、1次元撮像素子24によって読み取られた線部に該当する部分の長さの変化から、透明回転ローラ29の回転方向を検知することもできる。
【0132】
なお、前述した説明では、本実施形態における画像データ読み取り装置を携帯電話に実装した場合を例にして説明しているが、他の情報機器に実装するようにしても良いし、画像データ読み取り装置として単独で構成されるものであっても良い。画像データ読み取り装置として単独で構成する場合、例えばパーソナルコンピュータや通信機器などの各種情報機器に接続して使用する。画像読み取り装置は、1次元撮像素子24により読み取られた画像を回転検知用パターン30の変化に応じたタイミングで記録しておき、情報機器からの要求に応じて出力しても良いし、1次元撮像素子24により読み取られた画像を逐次情報機器に出力して、情報機器側で回転検知用パターン30の変化に応じたタイミングで必要な画像(指紋パターンを表す)を記録するようにしても良い。
【0133】
また、前述した説明では、指先の画像データである指紋パターンを読み取る場合について説明しているが、掌紋パターンなど他の人体部分のパターンを検出部分に接触させて画像データを読み取る場合など、被検体が軟質物である場合に適用することで効果を得ることができる。
【0134】
また、本発明は、前述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、前述した実施形態の内容は可能な限り適宜組み合わせて実施しても良い。前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られるので有れば、この構成要件が削除された構成が発明として抽出され得る。
【0135】
【発明の効果】
以上のように本発明によれば、製造コストを増大させることなく精度良くローラに付された回転検知用のパターンを利用して、安定した画像の読み取りを実現することが可能となるものである。
【0136】
また、ローラを用いた画像読み取り時におけるローラの左右方向のずれや、ローラの製造精度のばらつきに影響されることなく、安定した画像の読み取りを実現することが可能となるものである。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係わる画像読み取り装置を搭載した携帯電話の電子回路の構成を示すブロック図。
【図2】本実施形態における指紋読み取り部20が実装された携帯電話の外観例に示す図。
【図3】第1実施形態における指紋読み取り部20の機構部分の概略構成(側面断面図)を示す図。
【図4】回転検知用パターン30が付された透明回転ローラ29の外観を示す斜視図。
【図5】透明回転ローラ29に付された回転検知用パターン30と1次元撮像素子24の撮像素子との対応関係を示す図。
【図6】第1実施形態におけるタイミング判断処理のフローチャートを示す図。
【図7】タイミング判断処理における補正データ生成処理を説明するためのフローチャート。
【図8】タイミング判断処理における回転検知用画像抽出処理を説明するためのフローチャート。
【図9】タイミング判断処理における画像取り込みタイミング判断処理を説明するためのフローチャート。
【図10】透明回転ローラ29に付された回転検知用パターン30をわかりやすくするために平面状に展開して示す図。
【図11】回転検知用画像中のパターン部分の位置の変化を説明するための図。
【図12】回転検知用画像中のパターン部分の移動を説明するための図。
【図13】第2実施形態におけるタイミング判断処理を説明するためのフローチャート。
【図14】補正用データ適正判断処理のフローチャート。
【図15】横ずれ補正処理を説明するためのフローチャート。
【図16】透明回転ローラ29の横ずれを説明するための図。
【図17】透明回転ローラ29上で指紋パターンの読み取りが行われる指紋読み取り範囲と1次元撮像素子24との対応関係を示す図。
【図18】横ずれ補正処理により画像データを右あるいは左にシフトする状況を示す図。
【図19】透明回転ローラ29の外観構成を示す斜視図。
【図20】回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図。
【図21】透明回転ローラ29の軸における断面図。
【図22】回転検知用パターン30が付された透明回転ローラ29の製造方法を説明するための図。
【図23】回転検知用パターン30が付された透明回転ローラ29の製造方法を説明するための図。
【図24】透明回転ローラ29の外観構成を示す斜視図。
【図25】回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図。
【図26】透明回転ローラ29の軸における断面図。
【図27】透明回転ローラ29の外観構成を示す斜視図。
【図28】回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図。
【図29】透明回転ローラ29の軸における断面図。
【図30】透明回転ローラ29の外観構成を示す斜視図。
【図31】回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図。
【図32】透明回転ローラ29の軸における断面図。
【図33】透明回転ローラ29の外観構成を示す斜視図。
【図34】回転検知用パターン30と位置補正用パターン32に相当する部分を平面状に展開して示す図。
【図35】透明回転ローラ29の軸における断面図。
【符号の説明】
10…CPU
12…記憶装置
14…RAM
16…通話ユニット
18…表示部
19…キー部
20…指紋読み取り部
21…光源
22…セルフォックレンズ(レンズ光学系)
24…1次元撮像素子
26…撮像制御回路
27…A/D変換回路
28…回転検知センサー
29…透明回転ローラ
30…回転検知用パターン
32…位置補正用パターン
40…キャビ
42…コア
44…押出ピン[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image reading device for reading image data such as a fingerprint pattern.
[0002]
[Prior art]
In recent years, as a device for identifying a person, a pattern matching device (image reading device) that reads a fingerprint pattern of a person as image data and executes a matching process on the fingerprint pattern to specify a person has been used. It is becoming.
[0003]
As a mechanism for reading a fingerprint pattern using a conventional one-dimensional image pickup device, a transparent plate is provided in a sensing unit which is a reading position of a fingerprint pattern, and a light source for illumination and a rod lens group (selfoc lens) are provided below the transparent plate. And a structure in which a one-dimensional image sensor is arranged has been considered.
[0004]
On the other hand, an image data reading apparatus using a transparent rotating roller as a mechanism for reading a fingerprint pattern has been proposed (for example, see Patent Document 1). In a reading device using a transparent rotating roller, a fingertip is pressed against the transparent rotating roller and moved, so that a fingerprint image of the pressed portion is read by an image sensor.
[0005]
Further, in the image reading device of Patent Document 1, a print pattern for rotation detection is provided at a predetermined position of the transparent rotating roller, and the image pattern of the print pattern is read together with image data of a fingerprint pattern by an image pickup device, and the rotation detection is performed. An image pattern of a fingerprint pattern to be collated is generated according to the change in the pattern. This eliminates the need for a rotation detection sensor for detecting the timing of reading image data.
[0006]
[Patent Document 1]
Japanese Patent Application No. 2000-330785
[0007]
[Problems to be solved by the invention]
As described above, in the conventional image reading apparatus (Patent Document 1), a print pattern is added to a part of the transparent rotating roller, and the rotation of the roller is detected by reading the print pattern by the image sensor and detecting the rotation of the roller. Although the sensor can be omitted, there are the following problems.
[0008]
For accurate rotation detection, it is necessary to add an accurate print pattern to the transparent rotating roller.However, when the transparent rotating roller for fingerprint pattern detection is small in shape, the manufacturing cost etc. is reduced. Makes it difficult to add an accurate print pattern. In such a case, stable reading of the image may be difficult.
[0009]
Further, in a one-dimensional image sensor (image sensor) in which the image sensors are arranged one-dimensionally, the performance of each image sensor varies, and data for correcting the variation is required in advance. Even if the correction data is prepared, the brightness of the rotation detection pattern portion and the other portions will be affected by changes in the external light and changes in the light source due to a drop in battery voltage, etc. Changes. For this reason, judging whether or not the read image is a portion of the rotation detection pattern based on a predetermined fixed reference value may increase the instability of operation.
[0010]
Further, in Patent Document 1, as the rotation detection pattern, an equal pitch pattern attached in parallel with the rotation axis of the roller is used. In this equal pitch pattern, the position is set in a blank section between the rotation detection patterns. It is not possible to determine, and all the data between the rotation detection patterns is held, and it is possible to grasp the read timing of the data taken in the rotation detection pattern blank section for the first time when the next rotation detection pattern is detected. For this reason, the minimum rotation speed of the roller has to be guaranteed for realization, and a sufficient storage area for storing data taken in a blank section is required.
[0011]
In addition, a triangular wave pattern is used as the rotation detection pattern. However, in this triangular wave pattern, the accuracy at the apex portion is lower than that at the hatched portion due to the necessity of printing on a roller. Further, since oblique lines having symmetrical angles are mixed, the change in the image read from the pattern may represent the same change in the forward rotation and the reverse rotation of the roller, so that it is difficult to detect the rotation direction of the roller. Had become. Further, when the fingertip is pressed against the roller and rotated when reading the fingerprint pattern, lateral displacement may occur in the left-right direction depending on the mounting structure of the roller. Further, when manufacturing the rollers, there may be a case where manufacturing accuracy varies. In such a case, it may be difficult to stably read the fingerprint pattern using the roller.
[0012]
The present invention has been made in view of the above-described problems, and can realize stable reading of an image using a rotation detection pattern attached to a roller with high accuracy without increasing manufacturing cost. It is an object to provide a possible image reading device.
[0013]
Further, the present invention provides an image reading apparatus capable of realizing stable image reading without being affected by a lateral shift of the roller when reading an image using the roller and a variation in manufacturing accuracy of the roller. The purpose is to provide.
[0014]
[Means for Solving the Problems]
The present invention relates to an image reading apparatus for reading an image of a surface of a subject, wherein a transparent rotating roller having a pattern formed by providing a plurality of steps on an outer peripheral surface is provided over one round, and a transparent rotating roller attached to the transparent rotating roller. Imaging means for reading an image of the subject brought into contact with the transparent rotating roller together with the read pattern, and the imaging means for reading the image at a timing corresponding to a change in the rotation detection image corresponding to the portion of the pattern read by the imaging means. Image recording means for recording an image of the sample.
[0015]
According to such a configuration, since a predetermined pattern is formed and provided by providing a plurality of steps on the surface shape with respect to the transparent rotating roller, the roller can be molded by pulling out from the mold. A pattern can be accurately added without increasing the manufacturing cost of the object, whereby an image of the subject can be stably recorded using the rotation detection image corresponding to the added pattern. .
[0016]
The present invention also provides an image reading apparatus for reading an image on the surface of a subject, wherein a transparent rotating roller provided with a pattern formed by providing a diffusion surface for diffusing light on an outer peripheral surface is provided over one circumference; An imaging unit that reads an image of the subject that has come into contact with the transparent rotation roller together with the pattern attached to the rotation roller; and a timing corresponding to a change in a rotation detection image corresponding to the pattern read by the imaging unit. Image recording means for recording an image of the subject.
[0017]
According to such a configuration, a pattern is formed and added to the transparent rotating roller by providing a diffusing surface in the surface shape, so that the roller is pulled out of the mold (or an additional process for forming the diffusing surface). ), It is possible to accurately add a pattern without increasing the manufacturing cost of the transparent rotating roller, and thereby to stably use the rotation detection image corresponding to the added pattern. Thus, an image of the subject can be recorded.
[0018]
According to the present invention, in an image reading apparatus for reading an image of a surface of a subject, a pattern in which a plurality of line portions having a predetermined length parallel to an axis are formed at equal intervals is provided over one round of an outer peripheral surface. Transparent rotating roller, imaging means for reading an image of an object contacted with the transparent rotating roller together with the pattern provided on the transparent rotating roller, and rotation detection corresponding to the pattern read by the imaging means Image recording means for recording the image of the subject at a timing corresponding to a change in the image for use.
[0019]
According to such a configuration, a pattern is formed on the outer surface by a plurality of line portions having a predetermined length parallel to the axis on the outer surface, and the pattern is added. By making the shape or the convex shape, the roller can be molded by drawing out from the mold, so that the pattern can be accurately added without increasing the manufacturing cost for the transparent rotating roller, and thereby the added pattern The image of the subject can be stably recorded using the rotation detection image corresponding to the above.
[0020]
Further, according to the present invention, in an image reading apparatus for reading an image of a surface of a subject, a transparent rotating roller in which an outer peripheral surface pattern perpendicular to an axis is attached to an outer peripheral surface over one round, and the transparent rotating roller is attached to the transparent rotating roller. An imaging unit that reads an image of the subject that has come into contact with the transparent rotating roller together with the pattern, and an image of the subject that is read at a timing corresponding to a change in a rotation detection image corresponding to the pattern read by the imaging unit. Image recording means for recording.
[0021]
According to such a configuration, since the outer peripheral line pattern perpendicular to the axis is provided on the outer peripheral surface of the roller over one round, even if the roller is rotated left and right at the time of reading the image, Image processing for correcting deviation can be performed based on a portion corresponding to the outer peripheral line pattern in the read image, and an image of the subject can be stably recorded.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an electronic circuit of a mobile phone equipped with the image reading device according to the first embodiment of the present invention. The mobile phone is configured by a computer which reads a program recorded on a recording medium and whose operation is controlled by the read program.
[0023]
The mobile phone shown in FIG. 1 is configured by connecting a CPU 10 to various devices such as a storage device 12, a RAM 14, a communication unit 16, a display unit 18, a key unit 19, and a fingerprint reading unit 20 via a bus. . The fingerprint reading unit 20 reads an image of a fingerprint pattern on the fingertip using the subject as a fingertip of a person.
[0024]
The CPU 10 realizes various functions by executing a program stored in a program area of the RAM 14. The CPU 10 controls the function of the mobile phone, controls reading of the fingerprint pattern image data by the fingerprint reading unit 20, and executes various processes on the image pattern.
The storage device 12 stores programs, data, and the like, and is read and stored in the RAM 14 as needed.
[0025]
The RAM 14 stores programs and various data and is accessed by the CPU 10. The RAM 14 includes various programs for controlling the mobile phone, a processing program for executing processing on image data of a fingerprint pattern read by the fingerprint reading unit 20, and the like. Is stored. When the fingerprint reading unit 20 reads the image data of the fingerprint pattern, the read image data is stored.
[0026]
The call unit 16 is a unit for performing wireless communication as a mobile phone.
The display unit 18 displays various data when executing various functions realized by the CPU 10.
The key section 19 is composed of a plurality of keys including numeric keys for inputting a telephone number and various function keys.
The fingerprint reading unit 20 reads image data representing a fingerprint pattern, and is provided at a position where a fingerprint reading operation is easy, such as an upper front surface, as shown in an example of the appearance of a mobile phone in FIG. The fingerprint reading unit 20 according to the first embodiment includes a light source 21, a lens optical system (Selfoc lens 22), a one-dimensional imaging device 24, an imaging control circuit 26, an A / D conversion circuit 28, and a transparent rotating roller 29. A part of the outer peripheral surface of the transparent rotating roller 29 is exposed to the outside through a slit provided in the housing of the mobile phone. The exposed portion of the transparent rotating roller 29 serves as a fingerprint pattern reading unit. When reading a fingerprint pattern, a fingertip, which is a subject, is pressed against the reading unit, and in this state, the transparent rotating roller 29 is rotated in a predetermined direction (a direction perpendicular to the rotation axis of the transparent rotating roller 29). This is done by being moved. It is sufficient that the slit provided on the surface of the housing has such a width that the user can press the fingertip against the transparent rotating roller 29 to rotate the transparent rotating roller 29. Therefore, in order to read the image of the fingerprint pattern, it is not necessary to secure a reading surface on which the entire fingerprint fits, and the mounting area of the fingerprint reading unit 20 (transparent rotating roller 29) on the housing surface may be small.
[0027]
In the fingerprint reading unit 20, light reflected from a fingertip, which is a subject, which is irradiated from the light source 21 and pressed against (contacts) the reading unit, passes through the transparent rotating roller 29, and is transmitted to the one-dimensional imaging device 24 by the selfoc lens 22. It is collected. Under the control of the imaging control circuit 26, the light condensed via the selfoc lens 22 is photoelectrically converted by the one-dimensional imaging element 24, and further converted by the A / D conversion circuit 28 as image data representing a fingerprint pattern. From the one-dimensional image sensor 24, data is read periodically at a timing of, for example, 20,000 times / second, and the data is buffered in the RAM. The CPU 10 changes the rotation detection image obtained by reading the portion of the rotation detection pattern 30 attached to the transparent rotation roller 29 with respect to the data read by the one-dimensional image sensor 24 (the predetermined value of the line portion). When a shift occurs, the image data is fetched as image data and recorded in the RAM 14 as a fingerprint pattern image.
[0028]
FIG. 3 shows a schematic configuration (side sectional view) of a mechanism portion of the fingerprint reading unit 20.
As shown in FIG. 3, the housing of the mobile phone is provided with a slit along the rotation axis of the transparent rotating roller 29 so that a part of the outer peripheral surface of the transparent rotating roller 29 is exposed as a fingerprint pattern reading unit. ing. The transparent rotating roller 29 is made of a transparent material such as acrylic or glass so as to transmit light, and is mounted so as to rotate by exposing a part of the outer peripheral surface from a slit provided in the housing. . The transparent rotating roller 29 has a hollow inside, and a light source 21 (for example, an LED (Light Emitting Diode)), a lens optical system (the selfoc lens 22), and a one-dimensional image sensor 24 are provided inside the hollow. Is mounted. These imaging function units are mounted so as not to be linked with the rotation of the transparent rotating roller 29.
[0029]
The selfoc lens 22 forms an image of a portion (reading unit) of the transparent rotary roller 29 where the subject is pressed against the one-dimensional image sensor 24. Note that the present invention is not limited to the selfoc lens, and it is possible to use an imaging optical system constituted by a rod lens group.
[0030]
Although not shown, an optical correction element may be mounted between the transparent rotating roller 29 and the selfoc lens 22. The optical correction element is for correcting an optical effect due to the curvature of the transparent rotating roller 29 in a portion where the fingertip as the subject is pressed, that is, a distorted image. For example, a convex lens, specifically, one surface is flat and opposite. The surface is constituted by a cylindrical lens having a convex curved surface, and has a curvature equal to or close to the inner diameter of the transparent rotating roller 29.
[0031]
The one-dimensional imaging device 24 is configured by a CCD line sensor or a CMOS line sensor, and is mounted so that the arrangement of each imaging device is parallel to the rotation axis of the transparent rotating roller 29. The one-dimensional image sensor 24 has, for example, an imaging range corresponding to the length of the transparent rotating roller 29, and stores an image including a rotation detection pattern 30 added to an end (or near the end) of the transparent rotating roller 29 described later. Can be read. By making the transparent rotating roller 29 hollow and mounting the imaging function unit therein, the mounting area of the fingerprint reading unit 20 on the housing surface and the mounting volume in the housing are reduced.
[0032]
The transparent rotating roller 29 has a pattern formed by making the surface shape of the outer peripheral surface non-uniform. FIG. 4 is a perspective view showing the appearance of the transparent rotating roller 29 provided with the rotation detecting pattern 30. In the transparent rotating roller 29 shown in FIG. 4, the cross-sectional shape of the axis of the transparent rotating roller 29 is step-like in which the outer diameter changes stepwise, and the boundary of each step has a predetermined angle (for example, a predetermined angle) with respect to the axis. Rotation detection formed so that a first linear portion having a predetermined fixed angle) and a second linear portion parallel to the axis are alternately continuous, that is, in a saw-tooth shape. Pattern 30 and a position correction pattern 32, which is a continuous outer peripheral line pattern perpendicular to the axis of the transparent rotating roller 29, are provided on the outer peripheral surface over one round. The cross section of the transparent rotating roller 29 in the position correction pattern 32 (outer line pattern) is perpendicular to the axis of the transparent rotating roller 29. The rotation detection pattern 30 shown in FIG. 4 has three stages of different outer diameters, and two boundaries are formed between each stage. The shape formed by the boundaries of each step of the rotation detection pattern 30 is such that the two linear portions (lines parallel to the axis) and the first linear portion (diagonal lines) are simultaneously read by the one-dimensional image sensor 24. Are arranged in such a manner that the read position, that is, the hatched portion at any one of the boundaries in the read direction is the read position (see FIG. 10). The rotation detecting pattern 30 has, for example, a smooth mirror finish on the outer peripheral surface of the transparent rotating roller 29, and the outer peripheral surface portion is detected as a dark portion (that is, black) by the one-dimensional image sensor 24, and a boundary portion, that is, a step portion is provided. Are detected as a bright portion (that is, white) due to irregular reflection of light from the light source 21. The pixel values of the bright part (white) and the dark part (black) detected by the rotation detection pattern 30 are used to generate correction data based on the rotation detection image in a correction data generation process described later. , Black reference value, and white reference value. Further, the position correction pattern 32 is formed by a boundary where the outer diameter of the transparent rotating roller 29 is different from that of the rotation detection pattern 30, and is detected by the one-dimensional image sensor 24 as a bright portion (white). The rotation detecting pattern 30 provided on the transparent rotating roller 29 shown in FIG. 4 is an example, and details thereof will be described later (FIGS. 19 to 22). Further, the rotation detection pattern 30 having another shape will be described with reference to FIG.
[0033]
In FIG. 3, the light source 21 is provided in the hollow of the transparent rotating roller 29, but the light source 21 may be arranged at a rotating shaft position near the end face of the transparent rotating roller 29, for example. By arranging the light source 21 near the end face of the transparent rotating roller 29, the light flux from the light source 21 is taken in using the transparent rotating roller 29 as a light guide, and is irradiated on the fingertip (subject) contacted with the reading unit. The reflected light may be read by the one-dimensional image sensor 24. The light source 21 can be configured by, for example, an LED, a fluorescent tube, a halogen lamp, or the like.
[0034]
FIG. 5 shows the correspondence between the rotation detection pattern 30 provided on the transparent rotating roller 29 and the image sensor of the one-dimensional image sensor 24. As shown in FIG. 5, the one-dimensional image sensor 24 has the entire length of the transparent rotating roller 29 as an imaging range, and the number (N) of image sensors corresponding to the rotation detection pattern 30 and the position correction pattern 32. Is known, and is used in various processes described below.
[0035]
Next, the operation of the image reading apparatus according to the present embodiment will be described.
In the image reading device according to the first embodiment, each image sensor is determined based on the pixel values read by each image sensor (for N pixels shown in FIG. 5) in the rotation detection image portion of the one-dimensional image sensor 24. By determining the reference value (correction data), that is, the threshold value for determining whether a pixel is black or white, an erroneous determination of rotation detection due to a change in the amount of light of the light source 21 due to a change in external light or a decrease in the battery voltage is made. Reduce the number of images to achieve stable image capture.
[0036]
Since the fingerprint reading unit 20 is not provided with a sensor for detecting the rotation of the transparent rotating roller 29, regardless of the presence or absence of the rotation of the transparent rotating roller 29, the fingerprint reading unit 20 is continuously provided at a cycle of, for example, 20000 times / second. Import image data ().
[0037]
The image data read by the one-dimensional image sensor 24 includes a rotation detection image corresponding to the rotation detection pattern 30 added to the transparent rotation roller 29.
[0038]
The CPU 10 detects the rotation of the transparent rotary roller 29 based on the image data read by the one-dimensional image sensor 24 by a timing determination process described later, and detects the rotation of the object necessary for the rotation of the transparent rotary roller 29. Only when it is determined that image data has been input, the image data is stored as fingerprint image data of the subject.
[0039]
FIG. 6 shows a flowchart of the timing determination process in the first embodiment. FIG. 7 is a flowchart for explaining correction data generation processing in the timing determination processing, FIG. 8 is a flowchart for explaining rotation detection image extraction processing in the timing determination processing, and FIG. 9 is an image capture in the timing determination processing. 9 is a flowchart illustrating a timing determination process.
[0040]
When one line of image data is input from the one-dimensional imaging device 24 through the A / D conversion circuit 28, the CPU 10 executes a correction data generation process on the input data, and Correction data for correcting effects such as variations in sensitivity, external light, and changes in the light source are generated (step A1).
[0041]
The correction of the data read by the image sensor can be realized simply by reading the reference white and black data by the image sensor and using the value as the correction data to calculate the input value. For example, when a value when white is read by a certain image sensor is W and a value when black is read is B, and an input value (pixel value) is corrected in a range of 0 to 255, the input value i is a correction value. i ′ can be corrected according to the following equation (1).
[0042]
i ′ = (i−B) / (W−B) * 255 (1)
In the image reading device according to the present embodiment, correction data is generated for a rotation detection image read by an image sensor corresponding to the rotation detection pattern 30. The rotation of the transparent rotating roller 29 allows each image sensor to take in data based on white and black depending on the shape of the rotation detecting pattern 30 formed by the step on the outer peripheral surface.
[0043]
In the correction data generation processing, of the pixel values of each pixel read by each image sensor, the maximum value is recorded as a white reference value and the minimum value is recorded as a black reference value, that is, correction data. As the transparent rotating roller 29 is rotated, data (maximum value, minimum value) to be used as a reference for white and black by each image sensor is captured.
[0044]
FIG. 7 shows a detailed flowchart of the correction data generation process.
Here, N image sensors used for reading the rotation detection image are used, and the maximum value and the minimum value read by each image sensor up to a certain point in time are respectively {max i | 0 ≦ i ≦ n−1}, {min i | 0 ≦ i ≦ N−1}, and the newly read data for each image sensor is {data i This shows generation of correction data when | 0 ≦ i ≦ N−1}.
[0045]
The CPU 10 initializes i = 0 to read data (pixel value) read by each image sensor from the rotation detection image read by the one-dimensional image sensor 24 (step B1). Then, the maximum pixel value max read by the i-th image sensor so far i And the pixel value data of current interest i (Step B2). As a result, max i <Data i , The pixel value data of current interest i To the new maximum value max i (Step B3).
[0046]
Also, the minimum pixel value min read by the i-th image sensor up to that time i And the pixel value data of current interest i (Step B4). As a result, min i > Data i , The pixel value data of current interest i Is the new minimum value min i (Step B5).
[0047]
Next, i is updated as i = i + 1 (step B6), and if i <N, and the processing has not been completed for each image sensor corresponding to the rotation detection image (step B8), the same as described above is performed. , The pixel value data read by the next i-th image sensor i The maximum value max i , Minimum value min i Check if you need to update.
[0048]
The above processing is executed for the pixel values read by the image sensors 0 to N−1 read by the one-dimensional image sensor 24.
[0049]
In the correction data generation process, the correction data can be set based on the rotation detection image read by the one-dimensional image sensor 24 in an environment affected by external light, a change in the light source, and the like. In this way, by calculating the correction value i ′ according to the above-described equation (1) based on the correction data (maximum value, minimum value) set for each image sensor, not only the variation of the image sensor but also the It is possible to correct the influence of a change in light or light source.
[0050]
Next, the CPU 10 executes a rotation detection image extraction process (step A2 (FIG. 8)).
In the rotation detection image extraction process, it is determined whether the pixel corresponding to the image sensor is white or black based on the data (pixel value) read by each image sensor. This is to calculate a threshold value for determining white and black from the maximum value and the minimum value of the pixel values that have been read by the image sensor, and determine whether the pixel value is white or black based on this threshold value. Can be realized by determining Here, the average value of the maximum value and the minimum value is set as a threshold, and white and black of each pixel are determined.
[0051]
FIG. 8 shows a detailed flowchart of the rotation detection image extraction process.
First, in order to read data (pixel value) read by each image sensor from the rotation detection image read by the dimensional image sensor 24, i = 0 is initialized (step C1). The maximum value max of the pixel value read in i And the minimum value min i Is calculated as the threshold th (step C2), and the threshold th and the i-th pixel value data are calculated. i (Step C3). As a result, the threshold value th <data i Is satisfied (step C3, Yes), the pixel is determined to be white (step C4), and the threshold value th ≧ data i Is satisfied (Step C3, No), the pixel is determined to be black (Step C5).
[0052]
Next, i is updated by setting i = i + 1 (step C6). If i <N, and the processing has not been completed for each image sensor corresponding to the rotation detection image (step C7), the process proceeds as described above. , The pixel value data read by the next i-th image sensor i Is determined to be white or black.
[0053]
By executing the above processing for the pixel values read by each of the image sensors from 0 to N−1 read by the one-dimensional image sensor 24, the maximum value and the minimum value of each image sensor that have been read so far are obtained. By determining white or black for each pixel based on the average value, a corrected rotation detection image can be obtained.
[0054]
Next, an image capture timing determination process for determining whether or not it is the image capture timing from the rotation detection image is executed (step A3).
[0055]
FIG. 9 shows a detailed flowchart of the image capture timing determination processing.
First, the CPU 10 detects a portion corresponding to a line segment forming the rotation detection pattern 30 from the rotation detection image generated by the rotation detection image extraction process (step D1).
[0056]
Then, the position of the portion detected at the previous image capturing timing is compared with the position of the currently detected portion (step D2). If the position is separated by a predetermined value or more, it is determined that the image capturing timing is reached. (Step D3).
[0057]
Since the line segment (black portion) has a width, the one-dimensional image sensor 24 detects a black portion of a plurality of pixels. In this case, the center of the black pixel column or one end point is compared as a detection position. To Further, the comparison of the detection positions is performed for all combinations when there are a plurality of portions detected at the previous image capturing timing and a plurality of portions detected this time.
[0058]
FIG. 10 is a diagram showing a rotation detecting pattern 30 applied to the transparent rotating roller 29, which is developed in a plane for easy understanding. The one-dimensional image sensor 24 reads an image in parallel with the rotation axis direction with respect to the transparent rotating roller 29, that is, in the horizontal direction in FIG. Therefore, the respective hatched portions of the two boundaries forming the rotation detection pattern 30 are arranged so as to partially overlap each other as shown in the range of the broken lines a and b in FIG. In addition, they are arranged so that oblique lines formed by at least one of the boundaries can be read. Therefore, the rotation detection pattern 30 can be detected at two or one location by one reading by the one-dimensional image sensor 24. The position correction pattern 32 is always read regardless of the rotational position of the transparent rotary roller 29.
[0059]
FIG. 11A shows a rotation detection image read at the previous image capture timing, and corresponds to two portions a1 and a2 corresponding to the rotation detection pattern 30 and the position correction pattern 32. A portion a3 is detected. Here, it is assumed that three portions b1, b2, and b3 are detected this time, as shown in FIG. In this case, the portions a3 and b3 detected on the rightmost side are excluded as comparisons as portions corresponding to the position correction pattern 32, and the remaining combinations of a1, a2, b1, and b2, a1-b1, a1 The positions are compared for each of -b2, a2-b1, and a2-b2.
[0060]
When reading by the one-dimensional image sensor 24, even if a line segment position (corresponding to an end of the line) parallel to the roller axis at one boundary of the rotation detecting pattern 30 is to be read. , The hatched portion at the other boundary is the object to be read at the same time. Therefore, even if the reading accuracy at the line segment position parallel to the axis is low, since the judgment is made based on the combination of all the parts, the reading is performed stably based on the image corresponding to the hatched part of the other boundary read with high accuracy. The rotation of the transparent rotating roller 29 can be detected.
[0061]
As a result, if the smallest difference among all combinations of positions is equal to or greater than a predetermined value and the movement of the position is confirmed (Step D3, Yes), it is determined that it is the image capturing timing. That is, since the transparent rotating roller 29 is rotated in a state where the subject is pressed against and the new portion of the subject is moved to the reading position by the one-dimensional image sensor 24, the image read at this time is replaced with the fingerprint pattern. Capture as an image. On the other hand, if the minimum difference is not equal to or larger than the predetermined value (step D3, No), it is determined that it is not the image capturing timing.
[0062]
In this way, when it is determined by the image capturing timing determination processing that it is the image capturing timing (step E6), the rotation detection image read by the one-dimensional image sensor 24 is recorded as an image representing a fingerprint pattern.
[0063]
On the other hand, if it is determined that it is not the image capturing timing, the read image is discarded.
[0064]
In this manner, the timing of image capture can be determined based on the movement of the position of the portion corresponding to the line segment of the rotation detection pattern 30 of the rotation detection image, and a fingerprint pattern image can be generated. Since the rotation detection image is corrected according to changes in external light or a light source, the image capture timing can be determined stably.
[0065]
Since the rotation detection pattern 30 is formed with a hatched portion having a predetermined angle with respect to the rotation axis of the transparent rotation roller 29, the pattern portion is changed according to the rotation direction of the transparent rotation roller 29 in the previous rotation. It moves right or left with respect to the pattern part in the read rotation detection image. That is, it is possible to determine in which direction to move based on the direction in which the transparent rotating roller 29 is rotated.
[0066]
For example, in the case of the rotation detection pattern 30 shown in FIG. 10, the transparent rotation roller 29 is rotated in the direction B by moving the fingertip shown in FIG. As a result, the pattern portion moves to the left from the position of the pattern portion in the rotation detection image read earlier. Conversely, when the transparent rotating roller 29 is rotated so as to move the finger from the near side to the far side, as shown in FIGS. Moves to the right with respect to the pattern portion (a1 → b1 → c1 → d1).
[0067]
Thereby, the CPU 10 can detect the rotation direction of the transparent rotating roller 29 and determine from the rotation direction whether the fingerprint pattern is read from the lower part or from the upper part (fingertip side). Therefore, when recording the image read at the reading timing, the fingerprint pattern can be sequentially recorded from the lower or upper part of the fingerprint pattern, and the image of the fingerprint pattern can be generated in a predetermined direction (for example, with the fingertip side up). The images read at the image capturing timing may be sequentially recorded, and if it is determined that the image is read from the lower part of the fingerprint pattern, the image may be inverted by 180 ° after reading the entire image. .
[0068]
As described above, in the first embodiment, the maximum value and the minimum value of the pixel values read so far are recorded for each image sensor of the one-dimensional image sensor 24, and the average value of the maximum value and the minimum value is used as a reference. By setting the value and correcting the data detected by the image sensor based on this reference value, it is possible to stably respond to changes in external light and light sources without preparing correction data in advance. The captured image can be captured. As the rotation detection pattern, when the one-dimensional image sensor 24 captures the image, the rotation detection pattern 30 in which the line segments are arranged so as to form an overlapping portion is attached to the transparent rotation roller 29, so that one line Even if the end position of the minute (the straight line portion parallel to the axis of the roller) is the reading position, the middle of the other oblique line portion is the reading position, so that the image capture timing can be determined stably without lowering the accuracy. be able to. In addition, in order to determine the black and white of the read rotation detection image, the average of the maximum value and the minimum value of the pixel values that have been read by each image sensor is used as a reference value, so that the black and white of the pixel can be easily determined. Can be determined.
[0069]
In the above-described first embodiment, white and black are determined using the average value of the maximum value and the minimum value of the pixel values read by the image sensor of the rotation detection image as a reference value. It is also possible to use another method of setting a reference value. For example, in order to exclude an intermediate value, there is a method of determining a color within a predetermined ratio from each of a maximum value and a minimum value as white and black, respectively.
[0070]
For example, assuming that the range of pixel values to be determined as white / black is N% (2N <100) from the maximum value (max) / minimum value (min), the input data d becomes
(D-min) / (max-min) * 100> (100-N) (2)
Is determined to be white,
(D-min) / (max-min) * 100 <N (3)
Is determined to be black.
[0071]
By using such a reference value, a pixel having an intermediate value read by the one-dimensional image sensor 24 can be excluded.
[0072]
In the first embodiment, the rotation detection image including one or two pattern portions corresponding to the line segments of the rotation detection pattern 30 is read by one reading by the one-dimensional imaging element 24. However, the line segments of the rotation detecting pattern 30 may be arranged so that three or more pattern portions are read. In this case, in the same manner as described above, the change of the detection position is determined for each combination of the previously read pattern portion and the currently read pattern portion, and the read timing is determined.
[0073]
Next, a second embodiment of the present invention will be described.
In the second embodiment, it is possible to determine whether or not the rotation detection of the transparent rotating roller 29 is in an unstable state by using the correction data created by the same processing as the first embodiment. To
[0074]
FIG. 13 is a flowchart illustrating a timing determination process according to the second embodiment. Steps E1, E4, E5, E6, and E7 shown in FIG. 13 execute the same processes as steps A1, A2, A3, A4, and A5 shown in FIG. 6, respectively, and a detailed description thereof will be omitted.
[0075]
After generating the correction data for each of the image sensors of the one-dimensional image sensor 24 by the correction data generation process in step E1, a correction data appropriateness determination process is performed on the correction data (step E2). When it is determined that the correction data is appropriate by the correction data appropriateness determination processing, the subsequent processing is executed.
[0076]
Here, that the correction data is appropriate means that each image sensor reads both white and black data and generates correction data based on the data.
[0077]
FIG. 14 shows a flowchart of the correction data appropriateness determination processing.
The CPU 10 calculates the maximum value max from among the maximum value and the minimum value of the pixel values read so far for each image sensor recorded in the RAM 14. all , Minimum value min all Is detected (step F1).
[0078]
(Equation 1)
Figure 2004341752
[0079]
Here, MAX () and MIN () are functions for calculating the maximum value and the minimum value, respectively.
[0080]
Next, the CPU 10 determines the maximum value max. all And the minimum value min all , The threshold th is calculated by, for example, the following equation (6) (step F2).
[0081]
th = (max all + Min all ) / 2… (6)
Then, the CPU 10 sets the maximum value max for each image sensor (i = 0 to N). i Is larger than the threshold value th and the minimum value min i Is smaller than the threshold th (steps F3 to F6). As a result, the maximum value max of all the imaging elements i Is larger than the threshold th and the minimum value min i Is smaller than the threshold th, it is determined that the correction data generated by the correction data generation process is appropriate. If the variation of each image sensor is within a certain error, it is possible to determine whether each image sensor has already read both white and black data.
[0082]
In this manner, the correction data appropriateness determination process is performed, and if it is determined that the data is not appropriate, the image capture is not performed. Therefore, it is possible to capture the image only in a stable state and generate the fingerprint pattern. it can.
[0083]
Next, the lateral shift correction processing will be described with reference to the flowchart shown in FIG.
Due to the structure in which the roller rotates, the transparent rotating roller 29 may move laterally when reading a fingerprint pattern, that is, when it is moved while the fingertip, which is the subject, is in pressure contact with it and rotates. Further, when manufacturing the transparent rotating roller 29, there may be a case where manufacturing accuracy varies. Therefore, based on the position correction pattern 32 applied to the transparent rotating roller 29, the read image is corrected according to the lateral displacement of the transparent rotating roller 29.
[0084]
Here, the position at which the position correction pattern 32 read by the one-dimensional image sensor 24 should be ideally read is defined as p (read position in a state where no lateral displacement occurs), and the position correction pattern read this time is The difference lag between the position 32 and the position k is used for correcting the read image.
[0085]
For example, in the example of the image read by the one-dimensional image sensor 24 shown in FIG. 16A, a position to be ideally read (hereinafter, referred to as a reference position) is a1, and the position correction actually read is performed. When the position of the use pattern 32 is a2, it can be determined that the lateral rotation of the transparent rotating roller 29 has not occurred. On the other hand, when the reference position is b1 and the position correction pattern 32 is actually read at the position of b2, it may be determined that the transparent rotating roller 29 is shifted to the right. it can.
[0086]
FIG. 17 shows the correspondence between the fingerprint reading range in which the fingerprint pattern is read on the transparent rotating roller 29 and the one-dimensional image sensor 24. As shown in FIG. 17, it is assumed that the fingerprint reading range corresponds to M dots of the one-dimensional image sensor 24. In the lateral deviation correction processing, the lateral deviation is corrected by shifting the image of M dots read by the one-dimensional image sensor 24 to the right or left as shown in FIG. 18 according to the difference lag.
[0087]
The CPU 10 determines a difference between the position P and the position of the position correction pattern 32 that has been read this time based on the image data read by the one-dimensional image sensor 24 input through the A / D conversion circuit 28. Is calculated (step G1). Here, if the difference lag is “0”, no lateral displacement has occurred, and the lateral displacement correction processing ends (step G2, “0”).
[0088]
On the other hand, when the difference lag is minus (step G2, “−”), that is, when the transparent rotating roller 29 is shifted to the left, the position i of the corrected pixel is set to i = M−1 (step G3). ), Pixel value data at pixel position i i Is the pixel value data at the pixel position of i-lag. i-lag (Step G4). That is, the pixel value at the pixel position corresponding to the shift is shifted to the pixel value at the original pixel position.
[0089]
Next, i is updated as i = i−1 (step G5), and if i ≦ −lag (step G6, Yes), it is assumed that a pixel value to be further processed remains, and Similarly, the pixel value at each pixel position is shifted rightward by the difference lag (steps G4 to G5).
[0090]
When the shifting of each pixel position to be shifted is completed (No in step G6), data i = 0 (step G7), and the pixel value is set to 0 while sequentially updating the value of i with i = i−1 for the remaining pixel positions up to 0 dot (steps G7, G8, G9).
[0091]
If the difference lag is positive (step G2, “+”), that is, if the transparent rotating roller 29 is shifted to the right, the corrected pixel position is set to i = 0 (step G10), and the pixel is corrected. Pixel value data of value i i Is the pixel value data at the pixel position of i + lag. i + lag (Step G11). That is, the pixel value at the pixel position corresponding to the shift is shifted to the pixel value at the original pixel position.
[0092]
Next, i is updated by setting i = i + 1 (step G12), and if i <M-lag (step G13, Yes), it is assumed that a pixel value to be further processed remains, and so on. Then, the pixel value at each pixel position is shifted leftward by the difference lag (steps G11 and G12).
[0093]
When the shift of each pixel position to be shifted is completed (No in step G13), data i = 0, and the pixel value is set to 0 while sequentially updating the value of i with i = i + 1 for the remaining pixel positions up to N dots (steps G14, G15, G16).
[0094]
In this manner, the image data read by the one-dimensional image sensor 24 can be corrected by performing image processing for shifting the image data by the lateral displacement of the transparent rotating roller 29.
[0095]
In addition to the lateral displacement correction processing shown in the flowchart of FIG. 17, the position p serving as a correction index can be determined by first reading one or more times. For example, when the position of the vertical line (position correction pattern 32) read n times by the one-dimensional image sensor 24 is {ki | i = 0, 1,..., N−1}, the correction position p is It can be calculated by equation (7).
[0096]
(Equation 2)
Figure 2004341752
[0097]
Note that, in the above description, a case has been described where lateral displacement correction is performed on image data read in the fingerprint reading range (M dots), but this corresponds to N image sensors of the one-dimensional image sensor 24. The lateral displacement can be similarly corrected for the image data of the rotation detection pattern (including the position correction pattern 32). Thereby, the accuracy of rotation detection with respect to the transparent rotating roller can be improved.
[0098]
Next, a specific example of the rotation detection pattern 30 applied to the transparent rotation roller 29 will be described.
19 to 21 show a cross-sectional shape of the axis of the transparent rotating roller 29 in a step shape in which the outer diameter changes stepwise, and the boundary of each step is a first straight line having a predetermined angle with respect to the axis. An example is shown in which a portion and a second linear portion parallel to the axis are formed so as to be alternately continuous (to form a saw-tooth shape) (rotation detection pattern 30 shown in FIG. 4). . FIG. 19 is a perspective view showing an external configuration of the transparent rotating roller 29, FIG. 20 is a view showing portions corresponding to the rotation detection pattern 30 and the position correction pattern 32 developed in a plane, and FIGS. (D) is a sectional view of the axis of the transparent rotating roller 29 (only one outer surface side is shown). First, a description will be given assuming that the cross section is formed as shown in FIG.
[0099]
As shown in FIG. 21A, A surface, B surface, C surface, and D surface having different outer diameters are formed on the outer peripheral surface of the transparent rotating roller 29. The A surface, B surface, C surface, and D surface are each processed into a so-called mirror surface having a smooth surface. In the cross-sectional shape shown in FIG. 21A, the same saw-tooth pattern is formed at each boundary (first boundary and second boundary) between the B surface and the C surface and between the C surface and the D surface. . In this pattern, the first boundary pattern and the second boundary pattern are formed such that portions parallel to the axes of the respective transparent rotating rollers 29 do not match. That is, the pattern is formed so as to be shifted so that the apex portion of the pattern does not coincide on the axis of the transparent rotating roller 29. The position correction pattern 32 is formed by the boundary between the A surface and the B surface.
[0100]
21 (a), the outer diameter of the transparent rotating roller 29 on the side A is 7.5 mm, and the thickness of the transparent rotating roller 29 on the side A is 0.5 mm. It is. As shown in FIG. 20, the distance between the vertices of the pattern formed by the boundary of each step is 18 ° in terms of the center angle of the roller diameter, and the distance between the vertices of the two patterns is 9 °. . Also, α = 0.111 mm (5 dots), β = 1.180 mm (28 dots), γ = 1.180 mm (28 dots), and δ = 0.422 mm (10 dots) shown in FIG. The shape of the transparent rotating roller 29 shown in FIGS. 19 to 21 is not limited to this numerical value.
[0101]
Also, in the cross-sectional shape shown in FIG. 21A, the boundary of each step is vertical (perpendicular to the axis of the roller). However, as shown in FIG. May exceed 90 °. In this case, when the image of the portion of the rotation detection pattern 30 and the position correction pattern 32 is read, the pattern portion (line) can be made thicker than the case where the boundary is formed vertically. Further, the step surface of the boundary may be formed on a diffusion surface (detected as white by the one-dimensional image sensor 24). The diffusion surface is a surface that is formed in a so-called grained surface with a rough surface, and that diffuses (irregular reflection) when light is applied.
[0102]
Further, in FIGS. 21 (a) and 21 (b), the outer diameter of the transparent rotating roller 29 on the end side is small, but as shown in FIGS. It is also possible to form such that the outside diameter of the side is large and the outside diameter of the A-side portion is the thinnest.
[0103]
Here, an outline of a method of manufacturing the transparent rotating roller 29 provided with the rotation detecting pattern 30 shown in FIGS. 19, 20 and 21A will be described with reference to FIGS. As shown in the cross-sectional views of FIGS. 22 and 23, a mold 40, a core 42, and an extrusion pin 44 are used for manufacturing the transparent rotating roller 29.
[0104]
First, the initial state of the cavity 40, the core 42, and the extrusion pin 44 when the transparent rotating roller 29 is manufactured is as shown in FIG. That is, by combining the cavity 40 and the core 42, a space is formed according to the shape of the transparent rotating roller 29, and a gate for injecting the material (for example, acrylic resin) of the transparent rotating roller 29 into this space. 46 and a runner 48 are secured.
[0105]
Here, as shown in FIG. 22 (2), the space formed by the cavity 40 and the core 42 is filled with, for example, an acrylic resin 49 through the gate 46 and the runner 48. Thereafter, as shown in FIG. 22 (3), when the resin 49 is cured, the mold 40 is opened. At this time, since the cross-sectional shape of the transparent rotating roller 29 has a stepped shape with the outer diameter smaller toward the tip, the mold 40 can be easily pulled out, and the rotation detecting pattern 30 can be formed with high accuracy.
[0106]
Next, as shown in FIG. 23 (4), the molded product in the core 42 is extruded by the extrusion pin 44, and the molded product is pulled out as shown in FIG. 23 (5). The molding of the transparent rotating roller 29 is completed by cutting the gate and liner portions.
[0107]
According to the manufacturing method described above, even when the transparent rotating roller 29 is mass-produced, the rotation detecting pattern 30 can be stably and accurately applied without significantly increasing the manufacturing cost. Therefore, by configuring the image reading device using the transparent rotating roller 29 that can be manufactured using this manufacturing method, stable image reading can be realized.
[0108]
Note that, in the example of the manufacturing method shown in FIGS. 22 and 23, the configuration shown in FIG. Are separated from each other at the boundary of. When the rotation detection pattern 30 has another shape, the rotation detection pattern 30 can be arbitrarily determined at a position where the separation between the mold 40 and the core 42 becomes easy according to the shape. For example, in the configuration having the cross sections shown in FIGS. 21C and 21D, the mold 40 and the core 42 may be separated at the boundary between the C plane and the D plane.
[0109]
When a diffusing surface is added to the transparent rotating roller 29, the surface shape of the cavity 40 or the core 42 corresponding to the diffusing surface portion is roughened (set as a diffusing surface) (FIG. 24, FIG. An example of the transparent rotating roller 29 shown in FIG. 27).
[0110]
Hereinafter, an example of the transparent rotating roller 29 provided with the rotation detecting pattern 30 having another shape will be described.
The rotation detection pattern 30 shown in FIGS. 24 to 26 shows an example in which a diffusion surface (texture surface) is provided on a tapered surface provided on the transparent rotation roller 29.
[0111]
FIG. 24 is a perspective view showing an external configuration of the transparent rotating roller 29, FIG. 25 is a diagram showing a portion corresponding to the rotation detecting pattern 30 and the position correcting pattern 32 developed in a plane, and FIG. FIG. 7 is a cross-sectional view of the shaft of the roller 29 (only one outer surface side is shown).
[0112]
As shown in FIG. 26, on the outer peripheral surface of the transparent rotating roller 29, in addition to the A surface having a constant outer diameter, a tapered surface having a smaller outer diameter at the front end portion is formed. The B surface, the C surface, and the D surface are formed on the tapered surface. The B and D surfaces are processed into mirror surfaces, and the C surface sandwiched between the B and D surfaces is processed into a diffusion surface. It is noted that the diffusion surface is added to a portion corresponding to the transparent rotation roller 29 by forming the diffusion surface on the cavity 40 or the core 42 in the method of manufacturing the transparent rotation roller 29 described above. , May be added by additional processing. In the cross-sectional shape shown in FIG. 26, the same saw-tooth pattern is formed at each boundary (first boundary and second boundary) between the B and C surfaces and the C and D surfaces. In this pattern, the first boundary pattern and the second boundary pattern are formed such that portions parallel to the axes of the respective transparent rotating rollers 29 do not match. That is, the pattern is formed so as to be shifted so that the apex portion of the pattern does not coincide on the axis of the transparent rotating roller 29. The position correction pattern 32 is formed by the boundary between the A surface and the B surface.
[0113]
As a specific numerical value, for example, as shown in FIG. 26, the outer diameter of the transparent rotating roller 29 on the side A is 7.5 mm, and the thickness of the transparent rotating roller 29 on the side A is 0.5 mm. As shown in FIG. 25, the distance (ε) between the vertices of the pattern formed by the boundary with the C plane (diffusion surface) is 18 °, and the distance (ζ) between the vertices of the two patterns is 9 °. It is. Further, α = 0.111 mm (5 dots), β = 1.180 mm (28 dots), γ = 1.180 mm (28 dots), and δ = 0.422 mm (10 dots) shown in FIG. The shape of the transparent rotating roller 29 shown in FIGS. 24 to 26 is not limited to this numerical value.
[0114]
The rotation detection pattern 30 shown in FIGS. 27 to 29 has a diffusion surface provided on the outer peripheral surface of the transparent rotation roller 29, and the boundary of the diffusion surface has a predetermined angle with respect to the axis of the transparent rotation roller 29. An example is shown in which one linear portion and a second linear portion parallel to the axis are formed alternately and continuously.
[0115]
FIG. 27 is a perspective view showing the external configuration of the transparent rotating roller 29, FIG. 28 is a diagram showing a portion corresponding to the rotation detecting pattern 30 and the position correcting pattern 32 developed in a plane, and FIG. FIG. 7 is a cross-sectional view of the shaft of the roller 29 (only one outer surface side is shown).
[0116]
As shown in FIG. 29, an A surface, a B surface, a C surface, and a D surface are formed on the outer peripheral surface of the transparent rotating roller 29. The A, B, and D surfaces are processed into mirror surfaces, and the C surface sandwiched between the B and D surfaces is processed into a diffusion surface. At the boundary between the A-side and the B-side, a position correcting pattern 32 is formed by a V-shaped groove having a V-shaped cross section. In the cross-sectional shape shown in FIG. 26, the same saw-tooth pattern is formed at each boundary (first boundary and second boundary) between the B and C surfaces and the C and D surfaces. In this pattern, the first boundary pattern and the second boundary pattern are formed such that portions parallel to the axes of the respective transparent rotating rollers 29 do not match. That is, the pattern is formed so as to be shifted so that the apex portion of the pattern does not coincide on the axis of the transparent rotating roller 29.
[0117]
As a specific numerical value, for example, as shown in FIG. 29, the outer diameter of each surface of the transparent rotating roller 29 is 7.5 mm, and the thickness of the transparent rotating roller 29 at each surface portion is 0.5 mm. Further, as shown in FIG. 28, the distance (ε) between the vertices of the pattern formed by the boundary with the C plane (diffusion surface) is 18 °, and the distance (ζ) between the vertices of the two patterns is 9 °. It is. Further, α = 0.111 mm (5 dots), β = 1.180 mm (28 dots), γ = 1.180 mm (28 dots), and δ = 0.422 mm (10 dots) shown in FIG. The shape of the transparent rotating roller 29 shown in FIGS. 27 to 29 is not limited to this numerical value.
[0118]
The rotation detection pattern 30 shown in FIGS. 30 to 32 has a plurality of line portions having a predetermined length (for example, a predetermined length) parallel to the axis of the transparent rotation roller 29 formed at equal intervals. An example is shown.
[0119]
FIG. 30 is a perspective view showing the external configuration of the transparent rotating roller 29, and FIG. 31 is a view showing portions corresponding to the rotation detection pattern 30 and the position correction pattern 32 developed in a plane, and FIGS. (B2) is a cross-sectional view of the axis of the transparent rotating roller 29 (only one outer surface side is shown).
[0120]
As shown in FIGS. 30 and 31, on the outer peripheral surface of the transparent rotating roller 29, A surface and B surface having different outer diameters are formed, and for example, the surface is processed into a smooth mirror surface. On the surface B, a plurality of V-shaped grooves having a predetermined length parallel to the axis of the transparent rotating roller 29 are formed at equal intervals. The V-groove is formed from an end of the transparent rotating roller 29. Further, a position correction pattern 32 is formed by a step between the surface A and the surface B.
[0121]
FIG. 32 (a1) is a cross-sectional view of the portion indicated by X in FIG. 30 as viewed from the axial direction of the transparent rotating roller 29. As shown in FIG. 32 (a1), each V-groove is formed such that the groove width of the V-groove is equal to the width of the B surface sandwiched between the V-grooves. The interval (pitch) at which the V-groove is formed is formed according to the timing (resolution) at which an image is taken in with the rotation of the transparent rotating roller 29. For example, when the V-groove portion is detected as a bright portion (that is, white) by the one-dimensional image sensor 24 and the B-side portion is detected as a dark portion (that is, black), the rotation detection pattern is set according to the read timing. The rotation detection image obtained by reading the portion 30 is formed so as to be switched to white, black, white, and so on.
[0122]
FIG. 32 (a2) shows a cross section taken along the line X1 in FIG. 32 (a1). In the example shown in FIG. 32 (a2), the outer diameter of the surface A is formed larger.
[0123]
As a specific numerical value, for example, as shown in FIG. 32, the outer diameter of the transparent rotating roller 29 on the A side is 7.5 mm, and the thickness of the transparent rotating roller 29 on the A side portion is 0.5 mm. As shown in FIG. 31, as the reference position for reading the line portion by the one-dimensional image sensor 24, α = 0.842 mm (20 dots), β = 0.422 mm (10 dots), and γ = 0.634. ° (center angle of roller diameter). The shape of the transparent rotating roller 29 shown in FIGS. 30 to 32 (a1) and (a2) is not limited to this numerical value.
[0124]
The line portions (V-groove, V-convex) shown in FIGS. 30 and 31 are formed on the transparent rotating roller 29 so that white and black are detected at equal intervals. The gap may be formed wider (for example, γ = 1.286 °). In this case, when reading by the one-dimensional image sensor 24 between the line portions, the portion of the surface B is continuously read, but the portion of the position correction pattern 32 is also read at the same time. That is, no matter what timing an image is read, white and black portions exist in the read image data. Therefore, the above-described correction data generation processing (FIG. 7) and the correction data appropriateness determination processing can be executed without any trouble.
[0125]
In FIGS. 32 (a1) and (a2), the line portions are formed by V-grooves. As shown in FIGS. 32 (b1) and 32 (b2), the line portion can be formed by a V-convex (V-shaped convex shape). FIG. 32 (b1) is a cross-sectional view of the portion indicated by X in FIG. 30 as viewed from the axial direction of the transparent rotating roller 29. As shown in FIG. 32 (b1), each V-convex is formed such that the width of the V-convex and the width of the B surface sandwiched between the V-convex are at equal intervals. A cross section taken along line X2 in FIG. 32 (b1) is shown in FIG. 32 (b2). In the example shown in FIG. 32 (b2), the outer diameter of the surface B is formed larger.
[0126]
Thus, even if the line portion is formed by the V-shaped protrusion, it can be used in the same manner as the case where the line portion is formed by the V-shaped groove. In the case of manufacturing the transparent rotating roller 29 having the configuration shown in FIGS. 32 (b1) and (b2), the position at which the mold 40 and the core 42 are separated from each other is, for example, set at the boundary between the A-side and the B-side. Good manufacturing is possible.
[0127]
The rotation detecting pattern 30 shown in FIGS. 33 to 35 has a line portion having a predetermined length parallel to the axis of the transparent rotating roller 29 in the same manner as the rotation detecting pattern 30 shown in FIGS. An example is shown in which a plurality of lines are formed at intervals, and an envelope formed by one end of a predetermined number of line portions further forms a straight line having a predetermined angle with respect to the axis of the transparent rotating roller 29. ing.
[0128]
FIG. 33 is a perspective view showing an external configuration of the transparent rotating roller 29, FIG. 34 is a view showing portions corresponding to the rotation detection pattern 30 and the position correction pattern 32 developed in a plane, and FIGS. (B2) is a cross-sectional view of the axis of the transparent rotating roller 29 (only one outer surface side is shown). The rotation detection patterns 30 shown in FIGS. 33 to 35 are configured in the same manner as those shown in FIGS.
[0129]
As shown in FIGS. 33 to 34, the line portions forming the rotation detection pattern 30 have a line length that becomes shorter in order for each predetermined number, and the envelope (a line in contact with the tip of the line portion) forms a straight line. are doing. Accordingly, the entire envelope of the rotation detecting pattern 30 formed on the transparent rotating roller 29 is formed like a saw tooth (see FIG. 34).
[0130]
Specifically, as shown in FIG. 35, for example, as shown in FIG. 35, the outer diameter of the transparent rotating roller 29 on the A side is 7.5 mm, and the thickness of the transparent rotating roller 29 on the A side portion is 0.5 mm. Further, as shown in FIG. 34, as the reference position for reading the line portion by the one-dimensional image sensor 24, α = 0.111 mm (5 dots), β = 0.842 mm (20 dots), and γ = 0.111 mm ( 5), and δ = 0.643 °. The shape of the transparent rotating roller 29 shown in FIGS. 33 to 35 is not limited to this numerical value.
[0131]
As described above, since the interval (pitch) at which the line portion is formed is determined in accordance with the reading resolution, the rotation can be stably detected at the end point of the saw tooth based on the rotation detection image. . Further, since the envelope of the line portion forms a saw tooth, the rotation direction of the transparent rotating roller 29 is detected from a change in the length of the portion corresponding to the line portion read by the one-dimensional image sensor 24. You can also.
[0132]
In the above description, the case where the image data reading device according to the present embodiment is mounted on a mobile phone is described as an example. However, the image data reading device may be mounted on another information device, or the image data reading device may be mounted on another information device. May be configured alone. When configured alone as an image data reading device, it is used by connecting to various information devices such as a personal computer and a communication device. The image reading device may record an image read by the one-dimensional image sensor 24 at a timing corresponding to a change in the rotation detection pattern 30 and output the image in response to a request from an information device. The image read by the image sensor 24 may be sequentially output to the information device, and the information device may record a necessary image (representing a fingerprint pattern) at a timing corresponding to a change in the rotation detection pattern 30. .
[0133]
Further, in the above description, the case where a fingerprint pattern, which is image data of a fingertip, is read is described. However, when the image data is read by bringing a pattern of another human body part such as a palm print pattern into contact with the detection part, The effect can be obtained by applying when is a soft material.
[0134]
Further, the present invention is not limited to the above-described embodiment, and can be variously modified in an implementation stage without departing from the gist thereof. In addition, the contents of the above-described embodiments may be implemented in appropriate combinations as much as possible. The embodiments described above include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent features. For example, even if some components are deleted from all the components shown in the embodiment, if the effect is obtained, a configuration from which the components are deleted can be extracted as an invention.
[0135]
【The invention's effect】
As described above, according to the present invention, it is possible to realize stable reading of an image using a rotation detecting pattern attached to a roller with high accuracy without increasing manufacturing cost. .
[0136]
Further, it is possible to realize stable reading of an image without being affected by the deviation of the roller in the left-right direction at the time of reading the image using the roller and the variation in manufacturing accuracy of the roller.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an electronic circuit of a mobile phone equipped with an image reading device according to a first embodiment of the present invention.
FIG. 2 is an exemplary external view of a mobile phone on which a fingerprint reading unit 20 according to the embodiment is mounted.
FIG. 3 is a diagram showing a schematic configuration (side sectional view) of a mechanical portion of the fingerprint reading unit 20 according to the first embodiment.
FIG. 4 is a perspective view showing the appearance of a transparent rotating roller 29 provided with a rotation detecting pattern 30;
FIG. 5 is a diagram showing a correspondence relationship between a rotation detecting pattern 30 provided on a transparent rotating roller 29 and an image sensor of the one-dimensional image sensor 24.
FIG. 6 is a view showing a flowchart of a timing determination process in the first embodiment.
FIG. 7 is a flowchart for explaining correction data generation processing in the timing determination processing.
FIG. 8 is a flowchart illustrating a rotation detection image extraction process in the timing determination process.
FIG. 9 is a flowchart illustrating an image capture timing determination process in the timing determination process.
FIG. 10 is a diagram showing a rotation detection pattern 30 applied to a transparent rotation roller 29, which is developed in a plane for easy understanding.
FIG. 11 is a diagram for explaining a change in the position of a pattern portion in a rotation detection image.
FIG. 12 is a view for explaining movement of a pattern portion in a rotation detection image.
FIG. 13 is a flowchart illustrating a timing determination process according to the second embodiment.
FIG. 14 is a flowchart of correction data appropriateness determination processing.
FIG. 15 is a flowchart illustrating a lateral shift correction process.
FIG. 16 is a view for explaining a lateral displacement of the transparent rotating roller 29.
FIG. 17 is a diagram showing a correspondence relationship between a fingerprint reading range in which a fingerprint pattern is read on a transparent rotating roller 29 and the one-dimensional image sensor 24;
FIG. 18 is a diagram illustrating a situation in which image data is shifted right or left by lateral displacement correction processing.
FIG. 19 is a perspective view showing an external configuration of a transparent rotating roller 29.
FIG. 20 is a diagram showing a part corresponding to a rotation detection pattern 30 and a position correction pattern 32 developed in a plane.
FIG. 21 is a cross-sectional view along the axis of the transparent rotating roller 29.
FIG. 22 is a diagram for explaining a method of manufacturing the transparent rotating roller 29 provided with the rotation detecting pattern 30.
FIG. 23 is a view for explaining a method of manufacturing the transparent rotating roller 29 provided with the rotation detecting pattern 30.
FIG. 24 is a perspective view showing an external configuration of a transparent rotating roller 29.
FIG. 25 is a diagram showing a portion corresponding to a rotation detection pattern 30 and a position correction pattern 32 developed in a plane.
FIG. 26 is a cross-sectional view along the axis of the transparent rotating roller 29.
FIG. 27 is a perspective view showing an external configuration of a transparent rotating roller 29.
FIG. 28 is a diagram in which portions corresponding to the rotation detection pattern 30 and the position correction pattern 32 are developed in a plane.
FIG. 29 is a cross-sectional view of the axis of the transparent rotating roller 29.
FIG. 30 is a perspective view showing an external configuration of a transparent rotating roller 29.
FIG. 31 is a diagram showing a part corresponding to a rotation detection pattern 30 and a position correction pattern 32 developed in a plane.
FIG. 32 is a cross-sectional view along the axis of the transparent rotating roller 29.
FIG. 33 is a perspective view showing an external configuration of a transparent rotating roller 29.
FIG. 34 is a diagram showing a portion corresponding to a rotation detection pattern 30 and a position correction pattern 32 developed in a plane.
FIG. 35 is a cross-sectional view along the axis of the transparent rotating roller 29.
[Explanation of symbols]
10 CPU
12 ... Storage device
14 ... RAM
16… Call unit
18 Display unit
19 ... Key part
20: Fingerprint reader
21 ... Light source
22 ... Selfoc lens (lens optical system)
24 ... one-dimensional image sensor
26 ... Imaging control circuit
27 ... A / D conversion circuit
28 ... Rotation detection sensor
29 ... Transparent rotating roller
30 ... Rotation detection pattern
32 ... Position correction pattern
40 ... Cabi
42 ... core
44 ... Extrusion pin

Claims (16)

被検体の表面の画像を読み取る画像読み取り装置において、外周面に複数の段差を設けて形成されたパターンが1周に渡って付された透明回転ローラと、
前記透明回転ローラに付された前記パターンと共に前記透明回転ローラに接触された被検体の画像を読み取る撮像手段と、
前記撮像手段によって読み取られた前記パターンに該当する回転検知用画像の変化に応じたタイミングで前記被検体の画像を記録する画像記録手段と
を具備したことを特徴とする画像読み取り装置。
In an image reading device that reads an image of the surface of the subject, a transparent rotating roller provided with a pattern formed by providing a plurality of steps on the outer peripheral surface over one circumference,
An imaging unit that reads an image of the subject that has come into contact with the transparent rotating roller together with the pattern attached to the transparent rotating roller,
An image reading apparatus, comprising: an image recording unit that records an image of the subject at a timing corresponding to a change in a rotation detection image corresponding to the pattern read by the imaging unit.
前記パターンは、前記透明回転ローラの軸における断面形状が段階的に外径が変化する階段状であり、各段の境界が前記軸に対して、所定の角度をもった第1の直線部と前記軸と平行な第2の直線部とが交互に連続するように形成されていることを特徴とする請求項1記載の画像読み取り装置。The pattern has a stepped shape in which the cross-sectional shape in the axis of the transparent rotating roller changes stepwise in outer diameter, and the boundary of each step is a first linear portion having a predetermined angle with respect to the axis. 2. The image reading apparatus according to claim 1, wherein the second linear portion parallel to the axis is formed so as to be alternately continuous. 前記パターンには、少なくとも第1の境界と第2の境界が設けられ、前記第1の境界の形状と前記第2の境界の形状とが、それぞれの前記第2の直線部が前記軸上で一致しないように形成されていることを特徴とする請求項2記載の画像読み取り装置。The pattern is provided with at least a first boundary and a second boundary, and the shape of the first boundary and the shape of the second boundary are such that the respective second linear portions are on the axis. 3. The image reading device according to claim 2, wherein the image reading device is formed so as not to match. 被検体の表面の画像を読み取る画像読み取り装置において、
外周面に光を拡散させる拡散面を設けて形成されたパターンが1周に渡って付された透明回転ローラと、
前記透明回転ローラに付された前記パターンと共に前記透明回転ローラに接触された被検体の画像を読み取る撮像手段と、
前記撮像手段によって読み取られた前記パターンに該当する回転検知用画像の変化に応じたタイミングで前記被検体の画像を記録する画像記録手段と
を具備したことを特徴とする画像読み取り装置。
In an image reading device that reads an image of the surface of the subject,
A transparent rotating roller provided with a pattern formed by providing a diffusion surface for diffusing light on the outer peripheral surface over one circumference;
An imaging unit that reads an image of the subject that has come into contact with the transparent rotating roller together with the pattern attached to the transparent rotating roller,
An image reading apparatus, comprising: an image recording unit that records an image of the subject at a timing corresponding to a change in a rotation detection image corresponding to the pattern read by the imaging unit.
前記透明回転ローラにはテーパ面が設けられ、
前記パターンは、前記テーパ面上に拡散面を設けて形成されていることを特徴とする請求項4記載の画像読み取り装置。
The transparent rotating roller is provided with a tapered surface,
The image reading apparatus according to claim 4, wherein the pattern is formed by providing a diffusion surface on the tapered surface.
前記拡散面の境界が、前記軸に対して所定の角度をもった第1の直線部と前記軸と平行な第2の直線部とが交互に連続するように形成されていることを特徴とする請求項4記載の画像読み取り装置。The boundary of the diffusion surface is formed such that a first linear portion having a predetermined angle with respect to the axis and a second linear portion parallel to the axis are alternately continuous. The image reading device according to claim 4, wherein 被検体の表面の画像を読み取る画像読み取り装置において、
軸と平行な所定の長さをもった線部が等間隔で複数形成されたパターンが外周面の1周に渡って付された透明回転ローラと、
前記透明回転ローラに付された前記パターンと共に前記透明回転ローラに接触された被検体の画像を読み取る撮像手段と、
前記撮像手段によって読み取られた前記パターンに該当する回転検知用画像の変化に応じたタイミングで前記被検体の画像を記録する画像記録手段と
を具備したことを特徴とする画像読み取り装置。
In an image reading device that reads an image of the surface of the subject,
A transparent rotating roller in which a pattern in which a plurality of line portions having a predetermined length parallel to the axis are formed at equal intervals over one circumference of the outer peripheral surface;
An imaging unit that reads an image of the subject that has come into contact with the transparent rotating roller together with the pattern attached to the transparent rotating roller,
An image reading apparatus, comprising: an image recording unit that records an image of the subject at a timing corresponding to a change in a rotation detection image corresponding to the pattern read by the imaging unit.
前記透明回転ローラに付された線部は凹部状に形成されていることを特徴とする請求項7記載の画像読み取り装置。8. The image reading apparatus according to claim 7, wherein a line portion attached to the transparent rotating roller is formed in a concave shape. 前記透明回転ローラに付された線部は凸部状に形成されていることを特徴とする請求項7記載の画像読み取り装置。8. The image reading apparatus according to claim 7, wherein a line portion attached to the transparent rotating roller is formed in a convex shape. 所定数ごとの前記線部の一端により形成される包絡線が、前記透明回転ローラの軸に対して所定の角度をもった直線を形成していることを特徴とする請求項7に記載の画像読み取り装置。The image according to claim 7, wherein an envelope formed by one end of the line portion for each predetermined number forms a straight line having a predetermined angle with respect to the axis of the transparent rotating roller. Reader. 被検体の表面の画像を読み取る画像読み取り装置において、
外周面に軸と垂直な外周線パターンが1周に渡って付された透明回転ローラと、
前記透明回転ローラに付された前記パターンと共に前記透明回転ローラに接触された被検体の画像を読み取る撮像手段と、
前記撮像手段によって読み取られた前記パターンに該当する回転検知用画像の変化に応じたタイミングで前記被検体の画像を記録する画像記録手段と
を具備したことを特徴とする画像読み取り装置。
In an image reading device that reads an image of the surface of the subject,
A transparent rotating roller in which an outer peripheral line pattern perpendicular to the axis is attached to the outer peripheral surface over one round,
An imaging unit that reads an image of the subject that has come into contact with the transparent rotating roller together with the pattern attached to the transparent rotating roller,
An image reading apparatus, comprising: an image recording unit that records an image of the subject at a timing corresponding to a change in a rotation detection image corresponding to the pattern read by the imaging unit.
前記外周線パターンは、前記透明回転ローラの軸における断面形状の外径が階段状に変化する段の境界により形成されることを特徴とする請求項11記載の画像読み取り装置。The image reading apparatus according to claim 11, wherein the outer peripheral line pattern is formed by a step boundary in which an outer diameter of a cross-sectional shape of the axis of the transparent rotating roller changes stepwise. 前記外周線パターンは、前記透明回転ローラの外周面に設けられた溝により形成されることを特徴とする請求項11記載の画像読み取り装置。The image reading apparatus according to claim 11, wherein the outer peripheral line pattern is formed by a groove provided on an outer peripheral surface of the transparent rotating roller. 前記撮像手段によって読み取られた前記外周線パターンの部分に該当する位置補正用画像に基づいて、前記撮像手段によって読み取られた前記被写体の画像位置を補正する位置補正手段を具備し、
前記画像記録手段は、前記位置補正手段よって位置が補正された前記被写体の画像を記録することを特徴とする請求項11記載の画像読み取り装置。
Based on a position correction image corresponding to a portion of the outer peripheral line pattern read by the imaging unit, the image processing apparatus further includes a position correction unit that corrects an image position of the subject read by the imaging unit.
The image reading apparatus according to claim 11, wherein the image recording unit records the image of the subject whose position has been corrected by the position correction unit.
前記撮像手段によって読み取られた前記パターンに該当する画像に基づいて、前記撮像手段を構成する複数の前記撮像素子のそれぞれに対する補正用の基準値を設定する設定手段と、
前記設定手段によって設定された基準値をもとに前記回転検知用画像を補正する補正手段と
を具備したことを特徴とする請求項11記載の画像読み取り装置。
Setting means for setting a reference value for correction for each of the plurality of image sensors constituting the imaging means, based on an image corresponding to the pattern read by the imaging means;
The image reading apparatus according to claim 11, further comprising: a correction unit configured to correct the rotation detection image based on a reference value set by the setting unit.
前記設定手段は、
前記撮像手段の複数の撮像素子のそれぞれについて、前記透明回転ローラの回転に伴って、前記撮像素子がそれまでに読み取った画素値の最大値と最小値の平均値を基準値として設定することを特徴とする請求項15記載の画像読み取り装置。
The setting means,
For each of the plurality of imaging elements of the imaging means, with the rotation of the transparent rotating roller, setting the average value of the maximum value and the minimum value of the pixel values read by the imaging element so far as a reference value. The image reading device according to claim 15, wherein
JP2003136501A 2003-05-14 2003-05-14 Image reading device Expired - Fee Related JP3962827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003136501A JP3962827B2 (en) 2003-05-14 2003-05-14 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003136501A JP3962827B2 (en) 2003-05-14 2003-05-14 Image reading device

Publications (3)

Publication Number Publication Date
JP2004341752A true JP2004341752A (en) 2004-12-02
JP2004341752A5 JP2004341752A5 (en) 2006-11-24
JP3962827B2 JP3962827B2 (en) 2007-08-22

Family

ID=33526449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003136501A Expired - Fee Related JP3962827B2 (en) 2003-05-14 2003-05-14 Image reading device

Country Status (1)

Country Link
JP (1) JP3962827B2 (en)

Also Published As

Publication number Publication date
JP3962827B2 (en) 2007-08-22

Similar Documents

Publication Publication Date Title
TW544630B (en) Method and apparatus for scanning a fingerprint using a linear sensor
JP4420909B2 (en) Imaging device
US8119975B2 (en) High speed deterministic, non-contact, 3-axis free trajectory measurement device and free trajectory imaging device
JP4338560B2 (en) Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus
GB2400714A (en) Combined optical fingerprint recogniser and navigation control
US8350918B2 (en) Image capturing apparatus and control method therefor
JP2005288178A (en) Focus adjusting method of fingerprint image and fingerprint detecting apparatus
GB2400713A (en) Combined optical fingerprint recogniser and navigation control
CN100367296C (en) Fingerprint image acquisition and imaging method and its apparatus
KR101561107B1 (en) Image reading device
WO2017046829A1 (en) Color measuring device and color measuring method
TWI283834B (en) Finger print reader
JP2003308520A (en) Image data reading device
CN107705356A (en) Image processing method and device
JP5360449B2 (en) Skin property measuring apparatus and method
JP3962827B2 (en) Image reading device
JP4709126B2 (en) Imaging apparatus, method, and program
JP2980051B2 (en) Fingerprint detection method and device
US20060039049A1 (en) Live print scanner with holographic imaging at different magnifications
JPH08154921A (en) Finger print camera apparatus
JP2004318732A (en) Image reading device
JP5297988B2 (en) Print information reader
JP2002073267A (en) Coordinate input device
JP2005196470A (en) Image reader
JP2000284908A (en) Device with integrated input and output

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070430

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110601

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130601

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees