JP2004145630A - Optical information reader - Google Patents

Optical information reader Download PDF

Info

Publication number
JP2004145630A
JP2004145630A JP2002309607A JP2002309607A JP2004145630A JP 2004145630 A JP2004145630 A JP 2004145630A JP 2002309607 A JP2002309607 A JP 2002309607A JP 2002309607 A JP2002309607 A JP 2002309607A JP 2004145630 A JP2004145630 A JP 2004145630A
Authority
JP
Japan
Prior art keywords
image
image data
microprocessor
optical information
capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002309607A
Other languages
Japanese (ja)
Other versions
JP3918713B2 (en
Inventor
Motoaki Watabe
渡部 元秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2002309607A priority Critical patent/JP3918713B2/en
Publication of JP2004145630A publication Critical patent/JP2004145630A/en
Application granted granted Critical
Publication of JP3918713B2 publication Critical patent/JP3918713B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve a probability to succeed quickly in decoding by reducing as much as possible failure in decoding due to influence of a camera shake or changes in an external milieu. <P>SOLUTION: When instructed to take in an image by a trigger switch, a microprocessor calculates a taking-in condition (e period) of the image suitable when carrying out decoding by image data taken in after a lapse of a standby period by using image data captured by a taking-in means during standby period, and carries out decoding (f period) by the image data of the image captured after the lapse of the standby period, without performing decoding by the image data of the image captured from the point of time when this taking-in instruction being given to the lapse of the waiting period. Therefore, a percentage of successful decoding rises as compared with before, and a probability for decoding quickly and successfully can be improved. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、検出領域の画像の画像データに含まれる情報コードをデコード処理するマイクロプロセッサを備えた光学的情報読取装置に関する。
【0002】
【従来の技術】
この種の光学的情報読取装置は、ユーザが例えばトリガスイッチにより画像の取込指示をすると検出領域に位置する画像を取込むように構成されている。取込まれた画像は、画像データとしてメモリに記憶されるようになっており、このメモリに記憶された画像データに基づいて画像データに含まれる情報コードをデコード処理することで情報コードが表わす内容を解読し、例えば外部にデータ出力するようになっている。
【0003】
図11(a),図11(b)は、従来の読取動作の一例を示している。図11(a)において、フレーム信号に同期して読取動作に必要な各処理が実行される。以下、この処理の主要な部分の処理のみ説明する。すなわち、取込指示がなされると、光を検出領域に照射し露光し、画像データとして画像データメモリに取込む(b,d,c期間)。そして、次回の露光条件を算出した(e期間)後、画像データに含まれる情報コードの位置を検出しデコード処理する(f期間)。
【0004】
このとき、図11(a)に示すように、デコード処理が正常に終了した場合には、外部に解読したデータを出力する(g期間)が、図11(b)に示すように、デコード処理が途中で正常に処理できないこと(すなわち失敗したこと)が判明した場合には、正常にデコード処理が終了しないことが判明してから、再度、光を検出領域に照射し露光して(2回目のb,d期間)、取込まれた画像の画像データに含まれる情報コードをデコード処理し(2回目のf期間)、デコード処理が成功するまで繰り返し処理が行われるようになっている。
【0005】
【発明が解決しようとする課題】
しかしながら、例えばトリガスイッチの操作を行う際には、ハンディタイプのものでは手ぶれが生じることがある。手ぶれが生じることにより、取込まれる画像は歪んだ状態となり、その画像データはマイクロプロセッサによる情報コードのデコード処理が不可能な状態か、もしくは、デコード処理が可能であったとしても補正処理に多大な時間を要する状態で画像データとして取込まれることが多い。
【0006】
したがって、このように通常の一連の読取処理が何回も行われると、図11(a)に示すように、特に初期の1回目に取込まれた画像データに基づいてデコード処理することにより偶然デコード処理が正常に行われる場合や、図11(b)に示すように、特に1回目(初期)に取込まれた画像データではデコード処理が正常に行われなくなる場合がある。一般に、図11(b)に示す処理の頻度が、図11(a)に示す処理の頻度に比較して高くなる。さらに3回以上デコード処理が繰り返される場合もある。このようなデコード処理の失敗は、手ぶれの場合だけでなく、例えば取込開始する時点における外的環境(周囲の明るさ等)の変化の影響も考えられる。
【0007】
本発明は、上記事情に鑑みてなされたものであり、その目的は、手ぶれの影響や外的環境の変化の影響によるデコード処理の失敗を極力少なくすることによりデコード処理が素早く成功する確率を向上することができる光学的情報読取装置を提供することにある。
【0008】
【課題を解決するための手段】
請求項1記載の発明によれば、ユーザが操作スイッチ手段により取込指示を与えると、例えば初期(特に1回目)に取込まれた画像の画像データに手ぶれや外的環境の変化の影響がある場合には、マイクロプロセッサが、取込まれた画像データに基づいてデコード処理したとしても従来例に示すように情報コードを正常にデコード処理できる頻度は少ないが、待機期間経過するまでに取込まれた画像の画像データではデコード処理を行うことがないため、デコード処理が成功する割合は従来に比較して上昇する。これにより、デコード処理が素早く成功する確率を向上することができる。具体的には、マイクロプロセッサが例えば取込手段により取込まれた初期(特に1回目や2回目)の画像の画像データでは、デコード処理を行うことなく、待機期間だけ待機するように構成すると良い。しかも、待機期間中に取込まれた画像の画像データを、待機期間経過した後の画像データをデコード処理するときに適した画像の取込条件を算出することに利用するため、読取処理を行うたびに手ぶれの影響や周囲の環境の変化が生じたとしても、この影響に適応した取込条件を設定することができる。
【0009】
この場合、従来より手ぶれや外的環境がデコード処理の成功に多大な影響を及ぼすような場合、すなわち何回もデコード処理を繰り返さなければデコード処理が成功しない場合には、デコード処理に要する時間を短縮することができる。
【0010】
請求項2記載の発明のように、取込手段を、操作スイッチ手段により取込指示が与えられた後の待機期間中の画像を間引いて取込むように構成することが望ましい。この場合、通常の取込みに要する時間に比較して短い時間で画像を取込むことができる。この場合、請求項3記載の発明のように、画像データ量を通常取込まれる画像データ量の3分の1に、取込時間を通常の取込に要する時間の3分の1とする条件で画像を取込むことが望ましい。
【0011】
請求項4記載の発明によれば、たとえ取込指示が取込手段に与えられるたびに周囲の明るさが急激に変化したとしても、画像データの少なくとも最大輝度および最小輝度に基づいて、画像の取込条件として露光条件(露光時間、照明光量)もしくは増幅回路の増幅率のうちの少なくとも1つを設定するため、明るさの急激な変化に適応した画像の画像データを取込むことができる。
【0012】
請求項5記載の発明によれば、画像データの少なくとも最大輝度および最小輝度に基づいて、情報コードが検出領域に存在するか否かを検出するため、情報コードが検出領域に存在しない場合には、デコード処理を行うことなく次の処理に移行することができる。これにより、情報コードが検出領域に存在しない場合には、処理時間を短縮することができる。
【0013】
請求項6記載の発明によれば、マイクロプロセッサが、情報コードの検出領域における存在を検出した場合、情報コードが存在する検出領域における位置を概略的に検出した後に情報コードのデコード処理を行うため、概略的に検出された位置のみデコード処理すれば良くなり、例えば検出領域全体をデコード処理することに比較して、処理時間を短縮することができる。
【0014】
請求項7記載の発明によれば、マイクロプロセッサが、操作スイッチ手段により取込指示がなされた後の2画像目以降の画像データに含まれる情報コードをデコード処理して失敗した場合、当該画像データを利用して、以降の画像データでデコード処理するときに適した画像の取込条件を算出するため、取込条件をデコード処理に最適となる条件にさらに近づけることができる。
【0015】
請求項8記載の発明によれば、マイクロプロセッサが、デコード処理に成功した取込回数を学習して、次回に操作スイッチ手段が操作されたときに取込手段により画像を取込む回数を変更し、その後に取込まれた画像の画像データでデコード処理するため、デコード処理に成功した画像の取込の回数を学習して後に反映させることができる。
【0016】
請求項9記載の発明によれば、マイクロプロセッサが、画像の取込回数を、あらかじめ設定されている上限回数を超えない範囲で変更するため、処理が限りなく長期化することを防ぐことができる。
【0017】
請求項10記載の発明によれば、マイクロプロセッサは、デコード処理に成功した取込時間を学習して、次回操作スイッチ手段により取込指示がなされた後にデコード処理する画像を取込むまでの待機時間を変更するため、手ぶれや外的環境の影響が生じたとしても、デコード処理に成功した時間を学習して後に反映させることができる。請求項11記載の発明によれば、マイクロプロセッサは、デコード処理する画像を取込むまでの待機時間を、あらかじめ設定されている上限時間を超えない範囲で変更するため、画像を取込開始するまでに所定時間以上経過することはなく、処理が限りなく長期化することを防ぐことができる。
【0018】
【発明の実施の形態】
以下、本発明を、バーコードスキャナに適用した光学的情報読取装置の第1の実施形態について、図1ないし図4を参照しながら説明する。
このバーコードスキャナ1は、ハンディタイプのバーコードハンディターミナルとも称されるもので、スーパーのレジ等のPOSシステムのようにバーコードや、QRコードなどの二次元コード(情報コード)を読取るように構成されている。
【0019】
バーコードスキャナ1の電気的構成を概略的に示す図1において、バーコードスキャナ1はマイクロプロセッサ2を主体として構成されている。マイクロプロセッサ2には、電源回路3を介して二次電池もしくは一次電池からなるバッテリ4が接続されており、当該バッテリ4から電源供給されて駆動するようになっている。マイクロプロセッサ2には、照明駆動回路5を介して赤色発光ダイオードからなる照射部6が接続されており、さらにマイクロプロセッサ2には操作スイッチ手段として機能するトリガスイッチ7が接続されている。
【0020】
ユーザによりバーコードスキャナ1の読取口(図示せず)が検出領域Aに向けられ、トリガスイッチ7が操作されると、マイクロプロセッサ2はトリガスイッチ7の操作信号を検出し、マイクロプロセッサ2の照射指示信号に基づいて照射部6から読取口を介して検出領域Aに向けて光を均一に照射するようになっている。この照射するときの照明光量は、マイクロプロセッサ2により制御可能に構成されている。
【0021】
検出領域Aに照射された光は検出領域Aに位置する情報コードPに反射され、レンズ8により収束され、光学的センサ9上に結像される。この光学的センサ9は、シフトレジスタを備えたCCDエリアセンサ(二次元センサ)からなるものであり、センサ駆動回路10を介してマイクロプロセッサ2に接続されている。マイクロプロセッサ2が、センサ駆動回路10を介して画像の露光指示信号を光学的センサ9に与えると、光学的センサ9は、検出領域Aの1画像領域分の画像を露光し、画素の一列毎に画像信号を波形整形部12に送信するようになっている。
【0022】
波形整形部12は、増幅回路12aを有しており、マイクロプロセッサ2からの増幅率制御信号に基づいて増幅率を制御可能になっている。この増幅回路12は、光学的センサ9からシリアル転送された上記した画像信号のセンサ信号電圧を増幅するようになっており、波形整形部12は、1画像領域分のデータを、1画素毎に輝度信号のレベルを判定し、この輝度信号のレベルおよびあらかじめ設定された所定のしきい値に基づいて白点もしくは黒点(明点もしくは暗点)に振り分けて二値化し二値化データ(画像データ)としてデジタル化してメモリ13に記憶させると共に、1画素毎に1画像領域分の輝度信号のレベルをデジタル化して輝度データとしてメモリ13に記憶させるようになっている。
【0023】
メモリ13は、少なくとも複数画像分の画像データを記憶可能な記憶領域を有しており、順次1画像領域毎に記憶されるようになっており、1画像領域分の画像データを記憶する領域が確保できなくなった場合には、例えば一番古い画像の画像データから順次上書きされるようになっている。マイクロプロセッサ2は、メモリ13に接続されており、メモリ13に記憶された二値化データに基づいてデコード処理するようになっている。
【0024】
このようにして、制御回路11は、トリガスイッチ7から画像の取込指示が与えられると、検出領域Aの1画像領域分の画像を取込み、二値化データを取込んで当該画像データに含まれる情報コードPをデコード処理する。また、マイクロプロセッサ2には、ディスプレイ14およびデータ出力部15が接続されており、マイクロプロセッサ2が情報コードPをデコード処理した解読結果を出力するようになっている。また、マイクロプロセッサ2がデコード処理した解読結果をメモリ13に記憶させる。尚、マイクロプロセッサ2、照明駆動回路5、照射部6、センサ駆動回路8、光学的センサ9、波形整形部12およびメモリ13により取込手段16として機能し、取込指示が与えられて画像を取込むようになっている。
【0025】
上記構成の作用について、図2ないし図4をも参照しながら説明する。
図2は、デコード処理が成功するまでの処理の一連の流れをフレーム信号との対応によりタイミングチャートで示している。このフレーム信号は、1画像に対する所定の処理を開始するときにマイクロプロセッサ2により発生されるものである。尚、図2では一定周期(例えば33ミリ秒)で示しているが必ずしも一定周期にはならない。
【0026】
さて、情報コードPの読取を開始する場合、ユーザは読取口を検出領域Aに向けてトリガスイッチ7を押下操作する。この場合、マイクロプロセッサ2は、トリガスイッチ7の押下信号を検出するとフレーム信号を発生する。そしてマイクロプロセッサ2は、センサ駆動回路8を介して光学的センサ9に溜まった余分な電荷を吐き出させる。これが光学的センサ9の安定期間となる(図2:a参照:センサ安定期間)。
【0027】
この処理が終了すると、マイクロプロセッサ2は再度フレーム信号を発生し、照明駆動回路5を介して照射部6に照射指示信号を与えることにより、照射部6は検出領域Aに向けて光を照射する。すると、光学的センサ9において検出領域Aの画像が結像され露光され取込まれる(図2:1回目bd期間参照:露光期間および照明点灯期間)。このとき、1回目の画像の画像データは間引かれて取込まれる。間引かれる信号は通常の画像データに対して3分の2として光学的センサ9に予め設定されている。具体的には、図3に概略的な説明を示している。センサ駆動回路10からセンサ駆動信号が光学的センサ9に与えられると1画像が露光されるが、この場合、画像の上部(図3(a)の上部)から略水平一列の画素の画像データが波形整形部12に送られる。また、光学的センサ9により、上部の2列目から二列分の画素の画像データが間引かれて、次の一列分の画素の信号が波形整形部12に送られる。このように順次二列間引かれて一列分の画素の信号が送られる処理が繰り返され、最終的に1画像領域分の画像が取込まれる。
【0028】
このとき波形整形部12に送られる画像の信号量は、通常の3分の1である。波形整形部12の増幅回路12aは画像の信号を増幅し、上述した画像データとしてメモリ13に取込む(図2:c期間:画像取得期間)。図3(b),図3(d)は、メモリ13に取込まれる画像データのイメージを概略的に示している。通常1画像領域分の画像データを取込む際には、図3(d)に示すように、情報コードPの全体が含まれる画像データがメモリ13に記憶される。しかし、1回目に取込まれる画像は通常の3分の1に間引かれるので、図3(b)に示すように、画像の3分の2の情報が欠落する。しかし、間引いて取込まれた分だけ画像を取込む時間を節約することができ、図4に示すように、フレーム信号間隔が狭められる。この時間(図4(b))は、通常画像が取込まれる時間(図4(a))の3分の1になる。これにより、通常の取込に要する時間に比較して短い時間で画像を取込むことができる。
【0029】
図2に戻って、この後、マイクロプロセッサ2は、再びフレーム信号を発生し、照射部6により検出領域Aに向けて光を照射し、検出領域Aの画像が光学的センサ9により露光される。マイクロプロセッサ2は、検出領域Aの画像が露光されている処理に並行して、待機期間中(図2:a期間および1回目のb,d,c期間)に取込まれた画像データを利用して、次回の画像の取込条件を取込条件データとして算出処理する(図2:1回目e期間:次回取込条件算出処理期間)。具体的には、マイクロプロセッサ2は、取込まれた画像データの中から、輝度信号の最大値および最小値になるレベルを探し、この最大値と最小値と所定のしきい値とを比較して取込条件データを算出処理する。この算出処理される取込条件データは、波形整形部12の増幅回路12aの増幅率の増幅率制御信号、光学的センサ9における露光時間の露光時間指示信号、および照射部6から照射される照明光量の照射指示信号として生成される。
【0030】
すなわち、マイクロプロセッサ2が光学的センサ9の露光時間(露光時間指示信号)および照射部6の照明光量(照射指示信号)を露光条件として変更するための露光条件設定信号を作成したり、増幅回路12の増幅率を変更するための増幅率制御信号を作成することで、次回取込まれる画像データの輝度信号のレベルを、デコード処理するときに適した画像を得るためのデータとして作成する。
【0031】
尚、光学的センサ9により露光された結果、出力される画像データ値は、検出領域Aにおける撮像対象が白に近いほど受光量が多くなりデータ値は高く、逆に検出領域Aにおける撮像対象が黒に近いほど受光量は少なくなりデータ値は低い。上述したように情報コードの認識を容易にするため、所定のしきい値に基づいて二値化するが、例えば、最大輝度が所定のしきい値よりも下回っているときには、マイクロプロセッサ2は、増幅率を上昇させるための増幅率制御信号を作成し、照明光量を上昇させるための照射指示信号を作成する。尚、この露光条件や増幅率は少なくとも一方が変更できるようになっていれば良い。
【0032】
取込条件の算出や1画像領域分の露光が終了すると、マイクロプロセッサ2はフレーム信号を発生し、メモリ13に1画像領域分の画像データを取込む(2回目c期間)。マイクロプロセッサ2は、1画像領域分の画像データを上述説明した通常の取込手順(図3(c)(d)参照)で取込むと、再度フレーム信号を発生し、光学的センサ7に露光時間指示信号を含む露光指示信号を与え取込条件を設定し光学的センサ7に露光させる(図2;3回目b期間)。すなわち、この露光処理時には、前回算出された取込条件データが反映される。尚、この露光処理された結果はメモリ13に取込まれるが、マイクロプロセッサ2が取込むことがないため、デコード対象とはならない。また、光学的センサ7が露光処理を継続している間、マイクロプロセッサ2は、次回画像を取込むときの取込条件の取込条件データを再度算出する(図2;2回目e期間)。この取込条件データは、2回目にc期間で取得された画像データに基づいて算出処理されるもので、取込条件がバーコードスキャナ1の周囲環境および使用状態の変化にさらに適応できるようになる。
【0033】
この取込条件データの算出処理が終了すると、マイクロプロセッサ2は、メモリ13に取込まれた1画像領域分の画像データを取込んでデコード処理する(図2:f期間)。具体的には、まず、マイクロプロセッサ2は、情報コードPが検出領域Aに存在しているか否かを判定する。この存在を検出する方法としては、例えば次の方法が用いられる。すなわち、情報コードPは白色および黒色から構成されていることが一般的なため、絵などのように白黒(明暗)が明確でないものに比較して、取込まれた画像における最大輝度および最小輝度の差が大きい。すなわち、マイクロプロセッサ2は、取込まれた1画像データのうち、輝度信号のレベルの最大値および最小値を比較し、この差が所定のしきい値を上回っていることを条件として情報コードPが検出領域Aに存在することを検出する。このようにして検出領域Aに情報コードPが存在するか否かを検出するため、マイクロプロセッサ2が、検出領域Aに情報コードPが存在しないことを検出した場合には、デコード処理を行うことなく次の処理(再度画像データの取込み処理;図示せず(従来例参照))に移行することができ、処理時間を短縮することができる。
【0034】
一方、マイクロプロセッサ2が、検出領域Aに情報コードPの存在を検出した場合には、検出領域Aにおける情報コードPの位置を概略的に検出する。具体的には、情報コードPの位置する場所の画素データにおいては、情報コードPが位置しない場所(絵など)と異なり、取込まれた画像データの中で隣接する画素データ間では白黒が変化する点数が多くなる。
【0035】
したがって、例えば、マイクロプロセッサ2は、検出領域Aを複数の矩形状のブロックに分割し、当該ブロックに対応する画像データの明点(白点)から暗点(黒点)、もしくは暗点から明点に変化する変化点数を1画像データのブロック毎に計数し、この計数結果に基づいて検出領域A中の何れの位置(ブロック)に存在するか否かを検出する。このようにして検出領域Aにおける情報コードPの概略的な位置を検出することができる。尚、情報コードPが検出領域A内に存在しない場合には白黒が明確になっていないため、上述した計数結果が少なく、検出領域Aに位置する絵などが情報コードPとして検出されることは少ない。
【0036】
その後、マイクロプロセッサ2は、デコード処理を行う。この場合、上述したように、情報コードPの存在するブロックが概略的に検出されているので、検出されたブロックのデータのみ切り出して(コード切り出し処理)、この部分のみデコード対象としてデコード処理を行う。これにより、素早くデコード処理を行うことができる。デコード処理の詳細については従来と同様であるため、その説明を省略する。そして、マイクロプロセッサ2は、デコード処理が完了すれば、デコード処理結果をディスプレイ14に表示させたりデータ出力部15により外部に出力する(図2;g期間:出力処理期間)。尚、このデコード処理を行っている間も図2に示すように検出領域Aの露光処理が続けて行われる。
【0037】
このような第1の実施形態によれば、マイクロプロセッサ2は、トリガスイッチ7により取込指示が与えられた時点から待機期間が経過するまでに取込まれた手ぶれの影響のある画像の画像データではデコード処理を行うことなく、待機期間経過した後に取込手段により取込まれた画像の画像データでデコード処理するため、特に1回目に取込まれた画像データ(すなわちトリガスイッチ7の操作により歪みが生じやすい画像データ)でデコード処理することがなくなり、デコード処理が成功する割合は従来に比較して上昇し、デコード処理が素早く成功する確率を向上することができる。しかも、待機期間中に取込まれた画像の画像データを、待機期間経過した後の画像データでデコード処理するときに適した画像の取込条件を算出することに利用するため、読取処理を行うたびに手ぶれの影響や周囲の環境の変化が生じたとしても、この影響に適応した取込条件を設定することができる。
【0038】
この場合、従来より手ぶれや外的環境がデコード処理の成功に多大な影響を及ぼすような場合、すなわち何回もデコード処理を繰り返さなければデコード処理が成功しない場合には、デコード処理に要する時間を短縮することができる。
【0039】
トリガスイッチ7により取込指示が与えられた後、待機期間中の画像を略3分の1に間引いて取込むため、通常の取込みに要する時間に比較して短い略3分の1の時間で画像を取込むことができる。
【0040】
1画像データにおける輝度信号のレベルの最大値と最小値並びに所定のしきい値とを比較して、画像の取込条件として露光条件(露光時間,照明光量)もしくは増幅回路の増幅率のうちの少なくとも1つを設定するため、明るさの急激な変化に適応した画像の画像データを素早く取込むことができる。
【0041】
1画像データにおける輝度信号のレベルの最大値と最小値とを比較し、その差が所定のしきい値を上回っていることを条件として情報コードPが検出領域Aに存在することを検出するため、情報コードPが検出領域Aに存在しない場合には、デコード処理を行うことなく次の取込処理に移行することができる。
【0042】
(第2の実施形態)
図5は、本発明の第2の実施形態を示すもので、第1の実施形態と異なるところは、待機期間を長くしたところにある。第1の実施形態と同一部分については同一符号を付してその説明を省略し、以下、異なる部分についてのみ説明する。図5は、デコード処理が成功するまでの動作をタイミングチャートで示している。
【0043】
この図5において、ユーザのトリガスイッチ7の操作により取込指示がなされると、センサ安定期間、露光期間(照明点灯期間)、画像取得期間、2回目の露光期間と照明点灯期間、次回取込条件算出処理期間、2回目の画像取得期間において各処理が実行される(第1の実施形態の説明および図5参照)。この間が本発明における待機期間に相当する。1回目の次回取込条件算出処理期間(e期間)においては、マイクロプロセッサ2は、1回目の画像取得期間において取込まれた画像データを利用して、待機期間経過した後の画像の取込条件を算出する。すなわち、1回目の画像取得期間において取込まれた画像データに、たとえ手ぶれや外的環境の変化の影響があったとしても、その影響に適応した取込条件が算出される。その後、このように算出された取込条件が、3回目の露光期間(2回目の次回取込条件算出期間)の前に設定され、この設定された取込条件下で画像が再度露光され、その後、3回目の画像取得期間において画像の画像データが取込まれる。
【0044】
そして、マイクロプロセッサ2は、次回の取込条件を算出し(3回目)、3回目の画像取得期間において取込まれた画像データでデコード処理する。このデコード処理が正常に終了すれば、この結果を外部に出力する。
【0045】
このような第2の実施形態によっても、第1の実施形態と略同様の作用効果を奏することができると共に、待機期間中に手ぶれや外的環境の影響があったとしても、その環境に適応した画像データが取込まれるため、マイクロプロセッサ2によるデコード処理がさらに成功しやすくなる。
【0046】
(第3の実施形態)
図6ないし図9は、本発明の第3の実施形態を示すもので、第1の実施形態と異なるところは、マイクロプロセッサがデコード処理に成功した画像の待機時間を学習して、次回トリガスイッチ7により取込指示がなされた後にデコード処理する画像を取込むまでの待機時間を変更しているところにある。
情報コードP読取の全体の流れをフローチャートで示す図6において、マイクロプロセッサ2は、変数T2を初回0に設定する。この変数T2は、初回の読取時には0時間を示し、2回目以降に読取動作が繰り返されることにより発生する待機時間を示すもので、センサ安定期間(この期間は略一定)にこの変数T2の示す時間を加えると、本発明における待機期間を表わす。図9に示すタイミングチャート参照。
【0047】
また、変数T2を選択する選択フラグを「フラグ1」に設定する(ステップS1)。この選択フラグは、読取1回毎に変数T2を変更するために設けられるフラグで、読取1回終了する毎に「フラグ1」→「フラグ2」→「フラグ1」→「フラグ2」→…の順に変更されるようになっている(図7のステップT6〜T10参照:後述する)。
【0048】
初回の読取処理において、トリガスイッチ7により取込指示がなされると(ステップS2)、センサ安定期間の後、マイクロプロセッサ2に内蔵されたタイマ割込み機能を利用して時間T1およびT3の計測を開始する(ステップS3、S4)。その後、初回の読取処理時には従来と同様に処理を繰り返す。この場合マイクロプロセッサ2は、画像を取込み(ステップS5)、次回の取込条件を算出する(ステップS6;図8の▲1▼参照)。
【0049】
そして、タイマ時間T1が変数T2以上となっていれば(ステップS7:YES)、マイクロプロセッサ2は、取込まれた画像の画像データをデコード処理する。すなわち、待機時間が経過していれば、マイクロプロセッサ2がデコード処理するが(ステップS9)、ステップS7において待機時間が経過していなければ(ステップS7:NO)、マイクロプロセッサ2はタイマT3の時間をクリアし、再度ステップS4に戻り画像の取込を行う。
【0050】
バーコードスキャナ1を使い初めの最初の1回は、変数T2は0であるため、ステップS9に移行する。ステップS9においてデコード処理が失敗した場合には(図8の▲2▼)、変数T3をクリアし(ステップS8)、ステップS4に戻り再度タイマT3の計測を開始し画像の取込を行い、再びステップS9においてデコード処理を繰り返す。この場合、デコード処理が成功すれば(図8の▲3▼)、マイクロプロセッサ2は、タイマT1,T3の計測を終了し(ステップS11、S12)、デコード処理結果を外部に出力する(ステップS13;図8の▲4▼参照)。すなわち、タイマT1は取込指示がなされた直後からデコード処理が成功するまでの時間であり、タイマT3はデコード処理が成功したときの1回分の取込時間と次回条件算出,デコード処理に要した時間を合計した時間であり、これらの時間が計測される。そして、マイクロプロセッサ2は、次回の情報コードPの読取時における変数T2を算出し(ステップS14)、次回トリガスイッチ7により取込指示がなされるときのための学習,準備を行う。
【0051】
図7は、変数T2の算出処理を示している。
まず、マイクロプロセッサ2は、ステップS11において計測を終了したタイマ時間T1が予め定められた限界値(上限時間:例えば1秒)以下であるか否かを判定し(ステップT1)、限界値を超えていれば(ステップT1:NO)、変数T1に限界値を代入する(ステップT2)。この処理は、トリガスイッチ7が押下されてからデコード処理が行われるまでの時間に上限を設けるための処理を表わしており、これにより、処理が限りなく長期化することを防ぐことができる。そして、マイクロプロセッサ2は、読取回数をインクリメントし(ステップT3)、変数T1をメモリ13に記憶させる。そして、変数T1の第1の平均値T1averageを算出する(ステップT4)。この第1の平均値T1averageは、今回までの読取回数およびメモリ13に記憶された変数T1の値に基づいて算出される。そして、マイクロプロセッサ2は、算出された第1の平均値T1averageからステップS12で計測終了したタイマ時間T3の値を減算し、第2の平均値T1average2として算出する(ステップT5)。ここで、マイクロプロセッサ2は、T2選択フラグが「フラグ1」であれば(ステップT6:YES)、変数T2に第2の平均値T1average2を代入し(ステップT7)、T2選択フラグとして「フラグ2」に変更し(ステップT8)、終了する。
【0052】
また、ステップT6において、T2選択フラグが「フラグ2」であれば、変数T2に第1の平均値T1averageを代入し、T2選択フラグとして「フラグ1」に変更する(ステップT10)。1回目の読取処理終了時には、変数T2には第2の平均値T1averege2が設定され、T2選択フラグが「フラグ2」に設定される。このようにして変数T2の算出処理が行われ(図8の▲5▼参照)終了すると、読取処理のステップS2に戻り処理を再度行う。
【0053】
<2回目の読取処理>
さて、2回目にトリガスイッチ7により画像の取込指示がなされると、再度読取処理が行われる。この場合、2回目の読取以降は、センサ安定期間を利用してデコード処理するまでの待機時間の設定処理が行われる(図9の▲6▼参照)。この待機時間の設定処理は変数T2が設定されることに基づいて行われるもので、例えば図9に示された時間で設定されるとすると、ステップS7において、このT2の示す時間が経過するまで、画像取込処理および取込まれた画像に基づいて次回の取込条件が算出,設定される。この間はデコード処理がなされることはなく、取込条件の算出,設定が行われる。
【0054】
例えば、1回目の取込時(図9の▲7▼参照)に取込まれた画像に、手ぶれの影響や外的環境の影響が生じたとしても、手ぶれの影響や外的環境の影響が加味された状態で次回の取込条件が待機時間(待機期間に含む)中にマイクロプロセッサ2により算出される(図9の▲8▼参照)。次回の取込条件が待機期間中に算出され、待機期間が経過した後、再度ステップS5においてマイクロプロセッサ2は画像を取込む(図9の▲9▼参照)。
【0055】
このとき、検出領域Aの画像が光学的センサ9により露光されるが、検出領域Aの画像が露光されている処理に並行して、マイクロプロセッサ2は、前回取込まれた画像データを利用して、次回の画像の取込条件を取込条件データとして算出する。2回目取込時に取込まれた画像に基づいて再度次回の取込条件が算出されるので、手ぶれの影響や外的環境の影響が1回目の取込時に続いて生じていたとしても、デコード処理が行われることなく再度影響が低減された取込条件が算出され、この取込条件が設定されてマイクロプロセッサ2に取込まれれば影響を極力除去することができる。
【0056】
ステップS5において、マイクロプロセッサ2は、画像の取込が終了すると、再度次回の取込条件を算出する。そしてステップS7においてタイマの時間T1がT2以上になっていれば、上述実施形態と同様にデコード処理を行い、デコード処理が成功すればタイマT1およびT3を停止し処理結果を出力しT2を算出する。これら一連の処理が繰り返される。
【0057】
このような第3の実施形態によれば、第1の実施形態の作用効果と略同様の作用効果を奏すると共に、マイクロプロセッサ2がデコード処理に成功した待機時間を学習して、次回トリガスイッチ7により取込指示がなされた後にデコード処理する画像を取込むまでの待機時間を変更するため、手ぶれや外的環境の影響が生じたとしても、画像の待機時間を学習して後に反映させることができる。
【0058】
マイクロプロセッサ2は待機時間を、上限時間を超えない範囲で変更するため、画像の取込開始するまでに所定時間以上経過することはなく、処理が限りなく長期化することを防ぐことができる。
【0059】
(第4の実施形態)
図10は、本発明の第4の実施形態を示すもので、第3の実施形態と異なるところは、待機時間中には照明を点灯せず、さらに、次回の取込条件の算出をも行わないところにある。
図10は、第3の実施形態で説明を行った図9に相当するタイミングチャートを示しており、設定された時間T2内では、照明を点灯せず画像を露光し取込むので、第3の実施形態と略同様の作用効果を奏すると共に、照明を点灯しないので待機時間中には消費電力を低減することができるという効果を奏する。
【0060】
(他の実施形態)
本発明は、上記し且つ図面に記載した実施形態にのみ限定されるものではなく、次のような変形または拡張が可能である。
マイクロプロセッサ2が、トリガスイッチ7により取込指示がなされた後の2画像目以降の画像データに含まれる情報コードPをデコード処理して失敗した場合、当該画像データを利用して、以降の画像データでデコード処理するときに適した画像の取込条件を算出するように構成しても良い。この場合、取込条件をデコード処理に最適となる条件にさらに近づけることができる。
【0061】
上述第1の実施形態においては、1回目に取込条件を算出し(e期間)、その算出された結果がデコード処理(f期間)対象画像データに反映されない実施形態を示したが、これをデコード処理結果に反映されるように構成しても良い。すなわち、図2においてマイクロプロセッサ2が、2回目の画像の画像データ取込(露光,画像取得)の前に、取込条件を算出した後、当該取込条件を直ぐに設定し、その後画像データを取込み、デコード処理するように構成しても良い。また、第2もしくは第3の実施形態でも同様である。第3の実施形態の図6に示すフローチャートでは、ステップS5の処理とステップS6の処理を入れ換えることにより、この処理を実現することができる。
【0062】
上述実施形態においては、取込手段16を、マイクロプロセッサ2、照明駆動回路5、照射部6、センサ駆動回路8、光学的センサ9、波形整形部12およびメモリ13により構成したが、要は、画像を取込むことができる構成となっていれば良く、必要に応じて、これらの構成要素のうち一部を削除して構成しても良い。
【0063】
第3もしくは第4の実施形態においては、取込時間を学習して次回トリガスイッチ7が操作された後にデコード処理する画像を取込むまでの待機時間を変更する実施形態を示したが、取込時間および待機時間に代えて、この設定単位を画像の取込回数(図9におけるbcd処理(T2の範囲)が行われる回数、もしくは、図10におけるb処理(T2の範囲)が行われる回数)としても良い。この場合、デコード処理に成功した画像の取込回数を学習して後の画像を取込むまでの取込回数に反映させることができる。さらに、この取込回数に上限を設けることが望ましい。この場合、上限回数を超えて画像が取込まれることはなく、処理が限りなく長期化することを防ぐことができる。
【0064】
光学的センサ9は、ラインセンサ(一次元センサ)やCMOSイメージセンサ等の二次元センサからなるものであっても良い。
二次元コードはQRコードに限定されるものではなく、例えば、PDF417,DataMatrixやMaxiCodeなどでも良い。
【図面の簡単な説明】
【図1】本発明の第1の実施形態を示す光学的情報読取装置の電気的構成図
【図2】処理の流れを示すタイミングチャート
【図3】画像の取込イメージを概略的に示す図((a)(b)は間引いて取込む場合、(c)(d)は通常取込みの場合)
【図4】フレーム信号間隔の比較を示す図
【図5】本発明の第2の実施形態を示す図2相当図
【図6】本発明の第3の実施形態を示す読取処理のフローチャート
【図7】変数T2の算出処理を示すフローチャート
【図8】図2相当図(その1)
【図9】図2相当図(その2)
【図10】本発明の第4の実施形態を示す図2相当図
【図11】(a)(b)従来例を示す図2相当図
【符号の説明】
1はバーコードスキャナ(光学的情報読取装置)、2はマイクロプロセッサ、6は照射部、7はトリガスイッチ(操作スイッチ手段)、9は光学的センサ、12は波形整形部、12aは増幅回路、16は取込手段、Aは検出領域、Pは情報コードである。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an optical information reading device including a microprocessor that decodes an information code included in image data of an image in a detection area.
[0002]
[Prior art]
This type of optical information reading apparatus is configured to capture an image located in a detection area when a user gives an instruction to capture an image by, for example, a trigger switch. The captured image is stored in a memory as image data, and the content represented by the information code is obtained by decoding the information code included in the image data based on the image data stored in the memory. Is decoded and, for example, data is output to the outside.
[0003]
FIGS. 11A and 11B show an example of a conventional reading operation. In FIG. 11A, processes required for a reading operation are executed in synchronization with a frame signal. Hereinafter, only the main part of this processing will be described. That is, when a capture instruction is given, the detection area is irradiated with light and exposed, and captured as image data in the image data memory (b, d, c periods). Then, after calculating the next exposure condition (period e), the position of the information code included in the image data is detected and decoded (period f).
[0004]
At this time, as shown in FIG. 11A, when the decoding process is completed normally, the decrypted data is output to the outside (g period). However, as shown in FIG. If it is found that the decoding process cannot be performed normally (that is, failed) in the middle, it is found that the decoding process does not end normally, and then the detection area is irradiated with light again and exposed (the second time). (B, d periods), the information code included in the image data of the captured image is decoded (second f period), and the repetition processing is performed until the decoding processing is successful.
[0005]
[Problems to be solved by the invention]
However, when a trigger switch is operated, for example, a hand-held type camera shake may occur. Due to the occurrence of camera shake, the captured image is distorted, and the image data is in a state where decoding of the information code by the microprocessor is not possible, or even if decoding can be performed, much of the image data is subjected to correction processing. It is often taken as image data in a state requiring a long time.
[0006]
Therefore, if the normal series of reading processes is performed many times, the decoding process is performed based on the image data taken in the initial first time, as shown in FIG. The decoding process may be performed normally, or as shown in FIG. 11B, the decoding process may not be performed properly especially for the first (initial) image data. In general, the frequency of the processing shown in FIG. 11B is higher than the frequency of the processing shown in FIG. Further, the decoding process may be repeated three or more times. Such a decoding process failure may be caused not only by a camera shake but also by an influence of a change in an external environment (ambient brightness or the like) at the time of starting the capture.
[0007]
The present invention has been made in view of the above circumstances, and an object of the present invention is to improve the probability that decoding processing will succeed quickly by minimizing decoding processing failures due to the effects of camera shake and changes in the external environment. It is an object of the present invention to provide an optical information reading device capable of reading the information.
[0008]
[Means for Solving the Problems]
According to the first aspect of the present invention, when the user gives a capture instruction using the operation switch means, for example, the image data of the initially captured image (especially the first time) is affected by the effects of camera shake and changes in the external environment. In some cases, even if the microprocessor decodes the image code based on the captured image data, it is unlikely that the information code can be correctly decoded as shown in the conventional example, but the information code is not received until the waiting period elapses. Since decoding processing is not performed on the image data of the inserted image, the rate of successful decoding processing increases as compared with the related art. As a result, the probability that the decoding process succeeds quickly can be improved. Specifically, for example, the image data of the initial (especially the first or second) image captured by the capture unit by the microprocessor may be configured to wait for the standby period without performing the decoding process. . In addition, reading processing is performed in order to use image data of an image captured during the standby period to calculate image capturing conditions suitable for decoding image data after the standby period has elapsed. Even if the influence of camera shake or the change of the surrounding environment occurs each time, it is possible to set a capture condition adapted to this influence.
[0009]
In this case, if the camera shake or the external environment greatly affects the success of the decoding process, that is, if the decoding process does not succeed without repeating the decoding process many times, the time required for the decoding process is reduced. Can be shortened.
[0010]
As in the second aspect of the present invention, it is preferable that the capturing means is configured to capture the images during the waiting period after the capture instruction is given by the operation switch means. In this case, an image can be captured in a shorter time than the time required for normal capturing. In this case, a condition that the image data amount is set to one third of the image data amount to be normally taken and the acquisition time is set to one third of the time required for the normal acquisition. It is desirable to capture the image with.
[0011]
According to the fourth aspect of the present invention, even if the surrounding brightness changes abruptly each time a capture instruction is given to the capture means, the image data is based on at least the maximum luminance and the minimum luminance of the image data. Since at least one of the exposure condition (exposure time, illumination light amount) or the amplification factor of the amplifier circuit is set as the capture condition, it is possible to capture image data of an image adapted to a sudden change in brightness.
[0012]
According to the invention described in claim 5, whether or not the information code is present in the detection area is detected based on at least the maximum luminance and the minimum luminance of the image data. Then, it is possible to shift to the next processing without performing the decoding processing. Thus, when the information code does not exist in the detection area, the processing time can be reduced.
[0013]
According to the invention described in claim 6, when the microprocessor detects the presence of the information code in the detection region, the microprocessor performs the decoding process of the information code after roughly detecting the position in the detection region where the information code exists. The decoding process only needs to be performed for the roughly detected position, and the processing time can be reduced as compared with, for example, decoding the entire detection area.
[0014]
According to the seventh aspect of the present invention, if the microprocessor fails to decode the information code included in the image data of the second and subsequent images after the capture instruction is given by the operation switch means, Is used to calculate an image capture condition suitable for decoding the subsequent image data, so that the capture condition can be made closer to a condition that is optimal for the decoding process.
[0015]
According to the eighth aspect of the present invention, the microprocessor learns the number of times the decoding process has succeeded, and changes the number of times the image capturing is performed by the capturing unit when the operation switch unit is operated next time. Since the decoding process is performed on the image data of the image captured afterward, the number of times the image has been successfully decoded can be learned and reflected later.
[0016]
According to the ninth aspect of the present invention, since the microprocessor changes the number of times of image capturing within a range not exceeding the preset upper limit number, it is possible to prevent the processing from being prolonged indefinitely. .
[0017]
According to the tenth aspect of the present invention, the microprocessor learns the capture time at which the decoding process was successful, and waits until the image to be decoded is captured after the capture instruction is given by the next operation switch means. Is changed, the time at which the decoding process was successful can be learned and reflected later, even if camera shake or the influence of an external environment occurs. According to the eleventh aspect of the present invention, the microprocessor changes the waiting time until the image to be decoded is acquired within a range not exceeding the preset upper limit time. Therefore, it is possible to prevent the processing from being extended indefinitely without elapse of a predetermined time or more.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a first embodiment of an optical information reading apparatus applied to a barcode scanner according to the present invention will be described with reference to FIGS.
The bar code scanner 1 is also called a handy type bar code handy terminal, and reads a two-dimensional code (information code) such as a bar code or a QR code like a POS system such as a supermarket cash register. It is configured.
[0019]
In FIG. 1 schematically showing an electrical configuration of the barcode scanner 1, the barcode scanner 1 is mainly configured by a microprocessor 2. A battery 4 composed of a secondary battery or a primary battery is connected to the microprocessor 2 via a power supply circuit 3, and is driven by being supplied with power from the battery 4. The microprocessor 2 is connected to an irradiating unit 6 made of a red light-emitting diode via an illumination drive circuit 5, and the microprocessor 2 is connected to a trigger switch 7 functioning as an operation switch.
[0020]
When the user turns the reading port (not shown) of the barcode scanner 1 toward the detection area A and operates the trigger switch 7, the microprocessor 2 detects an operation signal of the trigger switch 7 and irradiates the microprocessor 2. Based on the instruction signal, light is uniformly emitted from the irradiation unit 6 toward the detection area A via the reading port. The illumination light amount at the time of this irradiation is configured to be controllable by the microprocessor 2.
[0021]
The light applied to the detection area A is reflected by the information code P located in the detection area A, is converged by the lens 8, and forms an image on the optical sensor 9. The optical sensor 9 comprises a CCD area sensor (two-dimensional sensor) having a shift register, and is connected to the microprocessor 2 via a sensor drive circuit 10. When the microprocessor 2 supplies an image exposure instruction signal to the optical sensor 9 via the sensor drive circuit 10, the optical sensor 9 exposes an image corresponding to one image area of the detection area A, and Then, the image signal is transmitted to the waveform shaping unit 12.
[0022]
The waveform shaping section 12 has an amplifier circuit 12a, and can control an amplification factor based on an amplification factor control signal from the microprocessor 2. The amplifying circuit 12 amplifies the sensor signal voltage of the image signal serially transferred from the optical sensor 9, and the waveform shaping unit 12 converts the data of one image area for each pixel. The level of the luminance signal is determined, binarized and binarized into binary data (image data) based on the level of the luminance signal and a predetermined threshold set in advance. ) Is digitized and stored in the memory 13, and the level of the luminance signal for one image area is digitized for each pixel and stored in the memory 13 as luminance data.
[0023]
The memory 13 has a storage area capable of storing at least image data of a plurality of images, and is sequentially stored for each image area. When the data cannot be secured, for example, the image data of the oldest image is sequentially overwritten. The microprocessor 2 is connected to the memory 13 and performs a decoding process based on the binarized data stored in the memory 13.
[0024]
In this way, when the image capture instruction is given from the trigger switch 7, the control circuit 11 captures an image for one image area of the detection area A, captures the binary data, and includes the binary data in the image data. The information code P to be decoded is decoded. Further, a display 14 and a data output unit 15 are connected to the microprocessor 2 so that the microprocessor 2 outputs a decoding result obtained by decoding the information code P. The decoding result decoded by the microprocessor 2 is stored in the memory 13. The microprocessor 2, the illumination driving circuit 5, the irradiating unit 6, the sensor driving circuit 8, the optical sensor 9, the waveform shaping unit 12, and the memory 13 function as a capturing unit 16, and when a capturing instruction is given, an image is given. It is designed to take in.
[0025]
The operation of the above configuration will be described with reference to FIGS.
FIG. 2 is a timing chart showing a series of processes until the decoding process succeeds in correspondence with a frame signal. The frame signal is generated by the microprocessor 2 when starting a predetermined process for one image. Although FIG. 2 shows a fixed cycle (for example, 33 milliseconds), it does not always have a fixed cycle.
[0026]
By the way, when the reading of the information code P is started, the user presses the trigger switch 7 with the reading port facing the detection area A. In this case, the microprocessor 2 generates a frame signal when detecting a press signal of the trigger switch 7. Then, the microprocessor 2 causes the excess charge accumulated in the optical sensor 9 to be discharged via the sensor drive circuit 8. This is the stable period of the optical sensor 9 (see FIG. 2: a: sensor stable period).
[0027]
When this process is completed, the microprocessor 2 generates a frame signal again and gives an irradiation instruction signal to the irradiation unit 6 via the illumination drive circuit 5, so that the irradiation unit 6 irradiates light to the detection area A. . Then, an image of the detection area A is formed by the optical sensor 9, exposed, and taken in (see FIG. 2: first bd period: exposure period and illumination lighting period). At this time, the image data of the first image is thinned out and taken in. The signal to be decimated is preset in the optical sensor 9 as two thirds of the normal image data. Specifically, FIG. 3 shows a schematic description. When a sensor drive signal is supplied from the sensor drive circuit 10 to the optical sensor 9, one image is exposed. In this case, image data of pixels in a substantially horizontal line from the upper part of the image (the upper part of FIG. The waveform is sent to the waveform shaping unit 12. Further, the optical sensor 9 thins out image data of pixels in two columns from the upper second column, and sends a signal of pixels in the next one column to the waveform shaping unit 12. In this manner, the process of sequentially thinning out two columns and sending the signal of the pixels for one column is repeated, and finally, the image for one image region is captured.
[0028]
At this time, the signal amount of the image sent to the waveform shaping unit 12 is one third of the normal amount. The amplification circuit 12a of the waveform shaping section 12 amplifies the image signal and takes it into the memory 13 as the above-described image data (FIG. 2: period c: image acquisition period). FIG. 3B and FIG. 3D schematically show images of image data taken into the memory 13. Normally, when fetching image data for one image area, image data including the entire information code P is stored in the memory 13 as shown in FIG. However, since the image taken in the first time is thinned out to one third of a normal image, information of two thirds of the image is lost as shown in FIG. However, it is possible to save the time for capturing an image by the amount of the thinned image, and the frame signal interval is narrowed as shown in FIG. This time (FIG. 4 (b)) is one third of the time (FIG. 4 (a)) for capturing the normal image. Thus, an image can be captured in a shorter time than the time required for normal capturing.
[0029]
Returning to FIG. 2, after that, the microprocessor 2 generates a frame signal again, irradiates light to the detection area A by the irradiation unit 6, and an image of the detection area A is exposed by the optical sensor 9. . The microprocessor 2 uses the image data captured during the standby period (FIG. 2: period a and the first period b, d, c) in parallel with the process of exposing the image of the detection area A. Then, the next image capture condition is calculated as capture condition data (FIG. 2: first e period: next capture condition calculation process period). Specifically, the microprocessor 2 searches the captured image data for a level at which the maximum value and the minimum value of the luminance signal are obtained, and compares the maximum value and the minimum value with a predetermined threshold value. To calculate the capture condition data. The capture condition data to be subjected to the calculation processing includes an amplification rate control signal for an amplification rate of the amplification circuit 12 a of the waveform shaping section 12, an exposure time instruction signal for an exposure time in the optical sensor 9, and illumination emitted from the illumination section 6. It is generated as a light amount irradiation instruction signal.
[0030]
That is, the microprocessor 2 creates an exposure condition setting signal for changing the exposure time (exposure time instruction signal) of the optical sensor 9 and the illumination light amount (irradiation instruction signal) of the irradiation unit 6 as the exposure condition, By creating an amplification factor control signal for changing the amplification factor of No. 12, the level of the luminance signal of the image data to be taken in next time is created as data for obtaining an image suitable for decoding processing.
[0031]
The image data value output as a result of the exposure by the optical sensor 9 is such that the closer the imaging target in the detection area A is to white, the greater the amount of received light and the higher the data value. The closer to black, the smaller the amount of received light and the lower the data value. As described above, in order to facilitate recognition of the information code, binarization is performed based on a predetermined threshold. For example, when the maximum luminance is lower than the predetermined threshold, the microprocessor 2 An amplification factor control signal for increasing the amplification factor is created, and an irradiation instruction signal for increasing the illumination light amount is created. It is sufficient that at least one of the exposure condition and the amplification factor can be changed.
[0032]
When the calculation of the capture conditions and the exposure for one image area are completed, the microprocessor 2 generates a frame signal and captures the image data for one image area into the memory 13 (second c period). When the microprocessor 2 captures the image data for one image area by the normal capturing procedure described above (see FIGS. 3C and 3D), the microprocessor 2 generates a frame signal again and exposes the optical sensor 7 to the frame signal. An exposure instruction signal including a time instruction signal is given to set an acquisition condition, and the optical sensor 7 is exposed (FIG. 2; third b period). That is, at the time of this exposure processing, the capture condition data calculated last time is reflected. The result of this exposure processing is taken into the memory 13, but is not taken into decoding because the microprocessor 2 does not take it. Further, while the optical sensor 7 continues the exposure processing, the microprocessor 2 calculates again the capturing condition data of the capturing condition for capturing the next image (FIG. 2; second e period). The capture condition data is calculated based on the image data acquired in the second period c, so that the capture condition can be further adapted to changes in the surrounding environment and use state of the barcode scanner 1. Become.
[0033]
When the calculation process of the capture condition data is completed, the microprocessor 2 captures the image data of one image area captured in the memory 13 and performs the decoding process (FIG. 2: period f). Specifically, first, the microprocessor 2 determines whether or not the information code P exists in the detection area A. As a method for detecting this presence, for example, the following method is used. That is, since the information code P is generally composed of white and black, the maximum luminance and the minimum luminance of the captured image are compared with those of a picture or the like in which black and white (bright and dark) is not clear. The difference is large. That is, the microprocessor 2 compares the maximum value and the minimum value of the level of the luminance signal in the captured one image data, and supposes that the difference is larger than a predetermined threshold value. Is detected in the detection area A. In order to detect whether or not the information code P exists in the detection area A in this manner, when the microprocessor 2 detects that the information code P does not exist in the detection area A, it should perform a decoding process. Instead, the process can be shifted to the next process (again, image data fetching process; not shown (refer to the conventional example)), and the processing time can be reduced.
[0034]
On the other hand, when the microprocessor 2 detects the presence of the information code P in the detection area A, it roughly detects the position of the information code P in the detection area A. Specifically, in the pixel data at the location where the information code P is located, unlike the location where the information code P is not located (such as a picture), black and white changes between adjacent pixel data in the captured image data. More points to be given.
[0035]
Therefore, for example, the microprocessor 2 divides the detection area A into a plurality of rectangular blocks, and converts the light points (white points) to dark points (black points) or the dark points to light points of the image data corresponding to the blocks. Is counted for each block of one image data, and it is detected which position (block) in the detection area A exists based on the counting result. Thus, the approximate position of the information code P in the detection area A can be detected. When the information code P does not exist in the detection area A, since the black and white is not clear, the counting result described above is small, and the picture or the like located in the detection area A may not be detected as the information code P. Few.
[0036]
Thereafter, the microprocessor 2 performs a decoding process. In this case, as described above, since the block in which the information code P exists is roughly detected, only the data of the detected block is cut out (code cutout processing), and the decoding processing is performed with only this part as a decoding target. . As a result, the decoding process can be performed quickly. The details of the decoding process are the same as those in the related art, and a description thereof will be omitted. When the decoding process is completed, the microprocessor 2 displays the result of the decoding process on the display 14 or outputs the result to the outside through the data output unit 15 (FIG. 2: g period: output processing period). During the decoding process, the exposure process for the detection area A is continuously performed as shown in FIG.
[0037]
According to the first embodiment described above, the microprocessor 2 stores the image data of the image affected by the camera shake captured from the time when the capture instruction is given by the trigger switch 7 until the standby period elapses. In this case, the decoding process is performed on the image data of the image captured by the capturing unit after the elapse of the standby period without performing the decoding process. Decoding processing is not performed on the image data in which decoding is likely to occur, and the ratio of successful decoding processing is increased as compared with the related art, so that the probability of successful decoding processing can be improved. In addition, a reading process is performed in order to use image data of an image captured during the standby period to calculate image capturing conditions suitable for decoding the image data after the standby period has elapsed. Even if the influence of camera shake or the change of the surrounding environment occurs each time, it is possible to set a capture condition adapted to this influence.
[0038]
In this case, if the camera shake or the external environment greatly affects the success of the decoding process, that is, if the decoding process does not succeed without repeating the decoding process many times, the time required for the decoding process is reduced. Can be shortened.
[0039]
After the capture instruction is given by the trigger switch 7, the image during the standby period is reduced to approximately one-third and captured, so that the time required for capture is shorter than the time required for normal capture by approximately one-third. Images can be captured.
[0040]
The maximum value and the minimum value of the luminance signal level in one image data are compared with a predetermined threshold value, and the exposure condition (exposure time, illumination light amount) or the amplification factor of the amplification circuit is determined as the image capture condition. Since at least one is set, image data of an image adapted to a sudden change in brightness can be quickly acquired.
[0041]
In order to detect that the information code P exists in the detection area A on the condition that the maximum value and the minimum value of the level of the luminance signal in one image data are compared and the difference exceeds a predetermined threshold value. If the information code P does not exist in the detection area A, the process can proceed to the next fetching process without performing the decoding process.
[0042]
(Second embodiment)
FIG. 5 shows a second embodiment of the present invention. The difference from the first embodiment is that the waiting period is extended. The same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted. Hereinafter, only different parts will be described. FIG. 5 is a timing chart showing the operation until the decoding process succeeds.
[0043]
In FIG. 5, when a capture instruction is given by the user operating the trigger switch 7, a sensor stabilization period, an exposure period (illumination lighting period), an image acquisition period, a second exposure period and an illumination lighting period, and a next capture period are performed. Each process is executed in the condition calculation processing period and the second image acquisition period (see the description of the first embodiment and FIG. 5). This period corresponds to the standby period in the present invention. In the first next acquisition condition calculation processing period (period e), the microprocessor 2 uses the image data acquired in the first image acquisition period to acquire the image after the elapse of the standby period. Calculate the condition. That is, even if the image data captured during the first image acquisition period is affected by camera shake or a change in the external environment, a capture condition adapted to the influence is calculated. Thereafter, the capture condition calculated in this manner is set before the third exposure period (second capture condition calculation period), and the image is exposed again under the set capture condition. Thereafter, image data of the image is acquired in a third image acquisition period.
[0044]
Then, the microprocessor 2 calculates the next capture condition (third time) and performs decoding processing on the image data captured in the third image acquisition period. If the decoding process is completed normally, the result is output to the outside.
[0045]
According to the second embodiment, substantially the same operation and effect as those of the first embodiment can be obtained, and even if there is an influence of a camera shake or an external environment during the standby period, the system can adapt to the environment. Since the decoded image data is taken in, the decoding process by the microprocessor 2 is more likely to succeed.
[0046]
(Third embodiment)
FIGS. 6 to 9 show a third embodiment of the present invention. The difference from the first embodiment is that the microprocessor learns the standby time of the image that has been successfully decoded, and then switches the next trigger switch. 7, the standby time until the image to be decoded is acquired after the acquisition instruction is issued.
In FIG. 6, which shows the entire flow of reading the information code P in a flowchart, the microprocessor 2 sets a variable T2 to 0 for the first time. This variable T2 indicates 0 hour at the time of the first reading, and indicates a standby time generated by repeating the reading operation from the second time on, and indicates the variable T2 during the sensor stabilization period (this period is substantially constant). Adding the time represents the waiting period in the present invention. See the timing chart shown in FIG.
[0047]
Further, the selection flag for selecting the variable T2 is set to "flag 1" (step S1). This selection flag is a flag provided to change the variable T2 for each reading, and each time reading is completed, “flag 1” → “flag 2” → “flag 1” → “flag 2” →. (See steps T6 to T10 in FIG. 7: described later).
[0048]
In the first reading process, when a trigger instruction is given by the trigger switch 7 (step S2), after the sensor stabilization period, the measurement of the times T1 and T3 is started using the timer interrupt function built in the microprocessor 2. (Steps S3 and S4). Thereafter, at the time of the first reading process, the process is repeated as in the conventional case. In this case, the microprocessor 2 captures an image (step S5) and calculates the next capturing condition (step S6; see (1) in FIG. 8).
[0049]
If the timer time T1 is equal to or greater than the variable T2 (step S7: YES), the microprocessor 2 decodes the captured image data. That is, if the standby time has elapsed, the microprocessor 2 performs the decoding process (step S9). If the standby time has not elapsed in step S7 (step S7: NO), the microprocessor 2 sets the time of the timer T3. Is cleared, and the process returns to step S4 to capture an image.
[0050]
Since the variable T2 is 0 the first time the barcode scanner 1 is used for the first time, the process proceeds to step S9. If the decoding process has failed in step S9 ((2) in FIG. 8), the variable T3 is cleared (step S8), the process returns to step S4, the timer T3 starts measuring again, and the image is captured. In step S9, the decoding process is repeated. In this case, if the decoding process is successful ((3) in FIG. 8), the microprocessor 2 ends the measurement of the timers T1 and T3 (steps S11 and S12), and outputs the decoding process result to the outside (step S13). ; See (4) in FIG. 8). That is, the timer T1 is a time from immediately after the acquisition instruction is issued to the time when the decoding process succeeds, and the timer T3 is required for one acquisition time when the decoding process succeeds, and the next condition calculation and the decoding process. This is the total time, and these times are measured. Then, the microprocessor 2 calculates a variable T2 at the time of reading the information code P next time (step S14), and performs learning and preparations for the next time a trigger instruction is given by the trigger switch 7.
[0051]
FIG. 7 shows a process for calculating the variable T2.
First, the microprocessor 2 determines whether or not the timer time T1 for which the measurement has been completed in step S11 is equal to or less than a predetermined limit value (upper limit time: for example, 1 second) (step T1). If there is (Step T1: NO), the limit value is substituted for the variable T1 (Step T2). This process represents a process for setting an upper limit on the time from when the trigger switch 7 is pressed to when the decoding process is performed, thereby preventing the process from being prolonged without limit. Then, the microprocessor 2 increments the number of times of reading (step T3), and stores the variable T1 in the memory 13. Then, a first average value T1average of the variable T1 is calculated (step T4). The first average value T1average is calculated based on the number of readings up to this time and the value of the variable T1 stored in the memory 13. Then, the microprocessor 2 subtracts the value of the timer time T3 measured and completed in step S12 from the calculated first average value T1average, and calculates a second average value T1average2 (step T5). Here, if the T2 selection flag is “flag 1” (step T6: YES), the microprocessor 2 substitutes the second average value T1average2 for the variable T2 (step T7) and sets “flag2” as the T2 selection flag. (Step T8), and the process ends.
[0052]
If the T2 selection flag is "flag 2" in step T6, the first average value T1average is substituted for the variable T2, and the flag is changed to "flag 1" as the T2 selection flag (step T10). At the end of the first reading process, the variable T2 is set to the second average value T1average2, and the T2 selection flag is set to “flag 2”. When the calculation processing of the variable T2 is performed in this manner (see (5) in FIG. 8), the process returns to step S2 of the reading processing and the processing is performed again.
[0053]
<Second reading process>
When an instruction to capture an image is given by the trigger switch 7 for the second time, the reading process is performed again. In this case, after the second reading, setting processing of a standby time until decoding processing is performed using the sensor stabilization period is performed (see (6) in FIG. 9). This standby time setting process is performed based on the setting of the variable T2. For example, assuming that the time is set as shown in FIG. 9, in step S7, until the time indicated by T2 elapses. Then, the next capturing condition is calculated and set based on the image capturing process and the captured image. During this time, the decoding process is not performed, and the calculation and setting of the capture condition are performed.
[0054]
For example, even if the image captured at the first capture (see {circle around (7)} in FIG. 9) is affected by camera shake or the external environment, the effect of camera shake or the external environment is not The microprocessor 2 calculates the next fetching condition in the standby state during the standby time (including the standby period) (see (8) in FIG. 9). The next capture condition is calculated during the standby period, and after the standby period has elapsed, the microprocessor 2 captures an image again in step S5 (see (9) in FIG. 9).
[0055]
At this time, the image of the detection area A is exposed by the optical sensor 9, and in parallel with the process of exposing the image of the detection area A, the microprocessor 2 uses the previously captured image data. Then, the next image capture condition is calculated as capture condition data. Since the next capture condition is calculated again based on the image captured at the time of the second capture, even if the influence of camera shake or the influence of the external environment continues after the first capture, decoding is performed. The capture condition with reduced influence is calculated again without performing the processing, and if the capture condition is set and loaded into the microprocessor 2, the influence can be eliminated as much as possible.
[0056]
In step S5, when the image capturing is completed, the microprocessor 2 calculates the next capturing condition again. If the time T1 of the timer is equal to or longer than T2 in step S7, the decoding process is performed in the same manner as in the above-described embodiment. If the decoding process is successful, the timers T1 and T3 are stopped, and the processing result is output to calculate T2. . These series of processes are repeated.
[0057]
According to the third embodiment, the operation and effect of the first embodiment are substantially the same as those of the first embodiment, and the microprocessor 2 learns the standby time in which the decoding process has been successfully performed. In order to change the waiting time before capturing the image to be decoded after the capture instruction is issued, even if camera shake or the influence of the external environment occurs, the standby time of the image can be learned and reflected later. it can.
[0058]
Since the microprocessor 2 changes the standby time within a range not exceeding the upper limit time, the predetermined time does not elapse before the start of image capture, and the processing can be prevented from being infinitely prolonged.
[0059]
(Fourth embodiment)
FIG. 10 shows a fourth embodiment of the present invention. The difference from the third embodiment is that the illumination is not turned on during the standby time, and the calculation of the next capturing condition is also performed. There is no place.
FIG. 10 shows a timing chart corresponding to FIG. 9 described in the third embodiment. In the set time T2, the image is exposed and captured without turning on the illumination. In addition to the substantially same operation and effect as the embodiment, the illumination is not turned on, so that the power consumption can be reduced during the standby time.
[0060]
(Other embodiments)
The present invention is not limited to the embodiment described above and shown in the drawings, and the following modifications or extensions are possible.
When the microprocessor 2 decodes the information code P included in the image data of the second and subsequent images after the capture instruction is given by the trigger switch 7 and fails, the subsequent image is used by using the image data. An arrangement may be made to calculate image capture conditions suitable for decoding with data. In this case, the capturing condition can be made closer to the condition that is optimal for the decoding process.
[0061]
In the above-described first embodiment, an embodiment is described in which the capture condition is calculated for the first time (period e) and the calculated result is not reflected in the image data to be subjected to the decoding process (period f). You may comprise so that it may be reflected on a decoding process result. That is, in FIG. 2, before the microprocessor 2 captures image data (exposure, image acquisition) of the second image, the microprocessor 2 calculates capture conditions, immediately sets the capture conditions, and then converts the image data. You may comprise so that it may take in and decode. The same applies to the second or third embodiment. In the flowchart shown in FIG. 6 of the third embodiment, this processing can be realized by exchanging the processing of step S5 and the processing of step S6.
[0062]
In the above-described embodiment, the capturing unit 16 includes the microprocessor 2, the illumination driving circuit 5, the irradiation unit 6, the sensor driving circuit 8, the optical sensor 9, the waveform shaping unit 12, and the memory 13. It is sufficient that the configuration is such that an image can be captured. If necessary, some of these components may be deleted.
[0063]
In the third or fourth embodiment, the embodiment in which the capture time is learned and the standby time until the capture of the image to be decoded after the trigger switch 7 is operated next time is changed has been described. Instead of the time and the standby time, the set unit is the number of times of image capture (the number of times the bcd process (range T2) in FIG. 9 is performed or the number of times the b process (range T2) in FIG. 10 is performed). It is good. In this case, it is possible to learn the number of captures of an image that has been successfully decoded and reflect the number of captures until a subsequent image is captured. Further, it is desirable to set an upper limit on the number of times of taking. In this case, the image is not taken in more than the upper limit number of times, and the processing can be prevented from being infinitely prolonged.
[0064]
The optical sensor 9 may be a two-dimensional sensor such as a line sensor (one-dimensional sensor) or a CMOS image sensor.
The two-dimensional code is not limited to the QR code, and may be, for example, PDF417, DataMatrix, or MaxiCode.
[Brief description of the drawings]
FIG. 1 is an electrical configuration diagram of an optical information reading apparatus according to a first embodiment of the present invention.
FIG. 2 is a timing chart showing a processing flow;
FIG. 3 is a diagram schematically showing an image capture image ((a) and (b) show the case of thinning out, (c) and (d) show the case of normal capture)
FIG. 4 is a diagram showing a comparison of frame signal intervals.
FIG. 5 is a view corresponding to FIG. 2, showing a second embodiment of the present invention;
FIG. 6 is a flowchart of a reading process according to a third embodiment of the present invention.
FIG. 7 is a flowchart illustrating processing for calculating a variable T2.
FIG. 8 is a diagram corresponding to FIG. 2 (part 1);
FIG. 9 is a diagram corresponding to FIG. 2 (part 2);
FIG. 10 is a view corresponding to FIG. 2, showing a fourth embodiment of the present invention;
FIGS. 11A and 11B show a conventional example and are equivalent to FIGS.
[Explanation of symbols]
1 is a bar code scanner (optical information reading device), 2 is a microprocessor, 6 is an irradiation unit, 7 is a trigger switch (operation switch means), 9 is an optical sensor, 12 is a waveform shaping unit, 12a is an amplification circuit, Reference numeral 16 denotes a capturing unit, A denotes a detection area, and P denotes an information code.

Claims (11)

画像の取込指示をするための操作スイッチ手段と、
画像の取込指示が与えられると検出領域の画像を取込む取込手段と、
この取込手段により取込まれた検出領域の画像の画像データに含まれる情報コードをデコード処理し、そのデコード処理が失敗した場合には、前記取込手段に取込指示を与えて画像データを取込んでデコード処理を繰り返すマイクロプロセッサとを備えた光学的情報読取装置であって、
前記マイクロプロセッサは、前記操作スイッチ手段により取込指示が与えられて待機期間経過するまでに取込まれた画像の画像データでデコード処理を行うことなく、前記待機期間中に取込まれた画像の画像データを、待機期間経過した後に取込む画像データのデコード処理に適した画像の取込条件算出に利用するように構成されていることを特徴とする光学的情報読取装置。
Operation switch means for instructing image capture;
Capturing means for capturing an image of the detection area when an image capturing instruction is given;
An information code included in the image data of the image of the detection area captured by the capturing unit is decoded. If the decoding process fails, a capturing instruction is given to the capturing unit to convert the image data. An optical information reading device comprising: a microprocessor that repeats a decoding process by taking in;
The microprocessor does not perform decoding processing on the image data of the image captured until the standby period elapses after the capture instruction is given by the operation switch means. An optical information reading apparatus configured to use image data for calculating image capturing conditions suitable for decoding image data captured after a standby period has elapsed.
請求項1記載の光学的情報読取装置において、
前記取込手段は、前記待機期間中の画像を間引いて取込むことを特徴とする工学的情報読取装置。
The optical information reading device according to claim 1,
An engineering information reading apparatus according to claim 1, wherein said capturing means thins out and captures the images during the standby period.
請求項2記載の光学的情報読取装置において、
前記取込手段は、間引いて取込む画像データ量を通常取込む画像データ量の略3分の1で、かつ、間引いて取込む時間を通常取込む時間の略3分の1とする条件で、画像を取込むことを特徴とする光学的情報読取装置。
The optical information reading device according to claim 2,
The capturing means is configured to set the image data amount to be thinned out to be approximately one-third of the image data amount to be normally captured, and to set the time to thin out and capture to approximately one-third of the normal image capturing time. An optical information reading apparatus for capturing an image.
請求項1ないし3の何れかに記載の光学的情報読取装置において、
前記マイクロプロセッサは、前記デコード処理する前処理として、前記取込手段により取込まれた画像の画像データの少なくとも最大輝度および最小輝度に基づいて、前記取込手段が画像を取込むときの露光条件、もしくは、前記取込手段が画像を取込むときの信号を増幅する増幅回路の増幅率のうちの少なくとも1つを前記取込条件として算出することを特徴とする光学的情報読取装置。
The optical information reading device according to any one of claims 1 to 3,
The microprocessor, as a pre-process of the decoding process, based on at least a maximum luminance and a minimum luminance of the image data of the image captured by the capturing unit, an exposure condition when the capturing unit captures an image. Alternatively, at least one of the amplification factors of an amplifier circuit for amplifying a signal when the capturing unit captures an image is calculated as the capturing condition.
請求項1ないし4の何れかに記載の光学的情報読取装置において、
前記マイクロプロセッサは、前記デコード処理する前処理として、前記取込手段により取込まれた画像の画像データの少なくとも最大輝度および最小輝度に基づいて、情報コードが検出領域に存在するか否かを検出することを特徴とする光学的情報読取装置。
The optical information reading device according to any one of claims 1 to 4,
The microprocessor detects whether an information code exists in a detection area based on at least a maximum luminance and a minimum luminance of image data of an image captured by the capturing unit, as a pre-process of the decoding process. An optical information reading device, comprising:
請求項5記載の光学的情報読取装置において、
前記マイクロプロセッサは、情報コードの検出領域における存在を検出した場合、当該情報コードが存在する前記検出領域における位置を概略的に検出した後デコード処理するように構成されていることを特徴とする光学的情報読取装置。
The optical information reading device according to claim 5,
When the microprocessor detects the presence of the information code in the detection area, the microprocessor is configured to roughly detect a position in the detection area where the information code exists, and then perform a decoding process. Information reader.
請求項1ないし6の何れかに記載の光学的情報読取装置において、
前記マイクロプロセッサは、前記操作スイッチ手段により取込指示がなされた後の2画像目以降の画像データに含まれる情報コードをデコード処理して失敗した場合、当該画像データを利用して、以降の画像データでデコード処理するときに適した画像の取込条件を算出するように構成されていることを特徴とする光学的情報読取装置。
The optical information reading device according to any one of claims 1 to 6,
The microprocessor decodes the information code included in the image data of the second and subsequent images after the capture instruction is given by the operation switch means and, when the decoding fails, uses the image data to perform the subsequent image processing. An optical information reading device configured to calculate an image capturing condition suitable for performing decoding processing on data.
請求項1ないし7の何れかに記載の光学的情報読取装置において、
前記マイクロプロセッサは、デコード処理に成功した前記取込手段による画像の取込回数を学習して、次回前記操作スイッチ手段により取込指示がなされた後に画像を取込むまでの取込回数を変更し、当該取込回数の画像が取込まれた後に取込まれた画像の画像データに含まれる情報コードをデコード処理するように構成されていることを特徴とする光学的情報読取装置。
The optical information reading device according to any one of claims 1 to 7,
The microprocessor learns the number of times of image capture by the capture unit that succeeds in the decoding process, and changes the number of captures until the next time the image is captured after the capture instruction is given by the operation switch unit. An optical information reading apparatus configured to decode an information code included in image data of an image captured after the image of the capture number is captured.
請求項8記載の光学的情報読取装置において、
前記マイクロプロセッサは、画像の取込回数を、あらかじめ設定されている上限回数を超えない範囲で変更することを特徴とする光学的情報読取装置。
The optical information reading device according to claim 8,
The optical information reading device according to claim 1, wherein the microprocessor changes the number of times of image capture within a range not exceeding a preset upper limit number.
請求項1ないし7の何れかに記載の光学的情報読取装置において、
前記マイクロプロセッサは、デコード処理に成功した取込時間を学習して、次回前記操作スイッチ手段により取込指示がなされた後にデコード処理する画像を取込むまでの待機時間を変更するように構成されていることを特徴とする光学的情報読取装置。
The optical information reading device according to any one of claims 1 to 7,
The microprocessor is configured to learn a capture time in which decoding processing is successful, and to change a standby time until a capture of an image to be decoded after the capture instruction is given by the operation switch means next time. An optical information reading device, comprising:
請求項10記載の光学的情報読取装置において、
前記マイクロプロセッサは、デコード処理する画像を取込むまでの待機時間を、あらかじめ設定されている上限時間を超えない範囲で変更することを特徴とする光学的情報読取装置。
The optical information reading device according to claim 10,
The optical information reading device according to claim 1, wherein the microprocessor changes a standby time until an image to be decoded is taken within a range not exceeding a preset upper limit time.
JP2002309607A 2002-10-24 2002-10-24 Optical information reader Expired - Fee Related JP3918713B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002309607A JP3918713B2 (en) 2002-10-24 2002-10-24 Optical information reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002309607A JP3918713B2 (en) 2002-10-24 2002-10-24 Optical information reader

Publications (2)

Publication Number Publication Date
JP2004145630A true JP2004145630A (en) 2004-05-20
JP3918713B2 JP3918713B2 (en) 2007-05-23

Family

ID=32455366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002309607A Expired - Fee Related JP3918713B2 (en) 2002-10-24 2002-10-24 Optical information reader

Country Status (1)

Country Link
JP (1) JP3918713B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160486A (en) * 2019-03-25 2020-10-01 カシオ計算機株式会社 Code reading apparatus and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160486A (en) * 2019-03-25 2020-10-01 カシオ計算機株式会社 Code reading apparatus and program
JP7367314B2 (en) 2019-03-25 2023-10-24 カシオ計算機株式会社 Code reading device, code reading method and program

Also Published As

Publication number Publication date
JP3918713B2 (en) 2007-05-23

Similar Documents

Publication Publication Date Title
US9122939B2 (en) System and method for reading optical codes on reflective surfaces while minimizing flicker perception of pulsed illumination
US9582696B2 (en) Imaging apparatus having imaging assembly
EP1717728B1 (en) Optical reader having partial frame operating mode
EP3627377B1 (en) Method for reading indicia off a display of a mobile device
US7815120B2 (en) Electronic shutter for a dual-mode imager
US7494065B2 (en) Optical code reader system and method for control of illumination for aiming and exposure
JPH11514461A (en) Data form reader and method
US8083147B2 (en) Arrangement for and method of controlling image exposure in an imaging reader
JP6053224B2 (en) Image reading device
WO2013163789A1 (en) Hardware-based image data binarization in an indicia reading terminal
JP2005084890A (en) Optical information reader
JP2006209208A (en) Optical information reading device
US20090078773A1 (en) Multiple Configuration Image Scanner
JP4396659B2 (en) Information code reader
JP2004145630A (en) Optical information reader
JP2015212866A (en) Optical information reader and optical information read method
JP2890935B2 (en) Portable optical information reader
JP2006023912A (en) Information code reader and information code reading method
JP2004133689A (en) Two-dimensional code read method and device thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061031

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070205

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140223

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees