JP2004252601A - Image reader, image reader system and method for controlling image reader - Google Patents

Image reader, image reader system and method for controlling image reader Download PDF

Info

Publication number
JP2004252601A
JP2004252601A JP2003040345A JP2003040345A JP2004252601A JP 2004252601 A JP2004252601 A JP 2004252601A JP 2003040345 A JP2003040345 A JP 2003040345A JP 2003040345 A JP2003040345 A JP 2003040345A JP 2004252601 A JP2004252601 A JP 2004252601A
Authority
JP
Japan
Prior art keywords
image
output
reading
read
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003040345A
Other languages
Japanese (ja)
Inventor
Shigenori Sugano
茂則 菅野
Koji Koseki
浩次 小関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003040345A priority Critical patent/JP2004252601A/en
Publication of JP2004252601A publication Critical patent/JP2004252601A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image reader for preventing the deviation of a reading position or a reading timing, an image reader system and a method for controlling the image reader. <P>SOLUTION: This image reader system is provided with a reading means 75 for periodically reading an image, an output instructing means 28 for instructing the output of image data based on the image read by the reading means and an output means 120 for outputting the image data based on the image read in several frames before the instruction point of time by the output instructing means. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、定期的に画像を読み込み、ユーザによる出力指示に基づいて画像データを出力するイメージリーダ、イメージリーダシステム、並びにイメージリーダの制御方法に関するものである。
【0002】
【従来の技術】
従来、スーパーやコンビニエンス・ストア等の小売業において利用されているPOS端末では、主にバーコードリーダを用いて、商品に添付または印刷されたバーコードを読みとり、商品情報を取得するようにしている。一般に、この種のバーコードリーダは、読込対象となる画像にターゲット位置を示す照明光を合わせ、ユーザがトリガスイッチを押釦することによって画像の読み取り並びに読み込んだ画像データのデコード処理を行っている。
【0003】
【特許文献1】
特開平09−050478号公報(第1図等)
【0004】
【発明が解決しようとする課題】
ところが、このような方式では、特に非接触式のイメージリーダの場合など、ユーザがトリガスイッチを押釦したときは、読取位置が読込対象となる画像からずれてしまっている、すなわち読取タイミングが遅れてしまうといった問題があった。また、トリガスイッチの押釦によって、イメージリーダに手ぶれの振動が伝わり、更に読取位置のずれの原因となっていた。
【0005】
本発明は、上記の問題点に鑑み、読取位置のずれを防止し得るイメージリーダ、イメージリーダシステム、並びにイメージリーダの制御方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明のイメージリーダは、定期的に画像を読み込む読込手段と、読込手段によって読み込んだ画像に基づく画像データの出力を指示する出力指示手段と、出力指示手段による指示時点から遡って、数フレーム前に読み込んだ画像に基づく画像データを出力する出力手段と、を備えたことを特徴とする。
【0007】
また、本発明のイメージリーダの制御方法は、定期的に画像を読み込み、ユーザによる画像データの出力指示に基づいて、数フレーム前に読み込んだ画像に基づく画像データを出力することを特徴とする。
【0008】
これらの構成によれば、ユーザが出力指示を行った時点から遡って、数フレーム前に読み込んだ画像に基づく画像データを出力するため、ユーザが所望する読取位置の画像を正確に出力することができる。つまり、ユーザが出力指示を行ったときは、読取位置が読込対象となる画像からずれてしまっていることが考えられるが、本発明では数フレーム前に読み込んだ画像の画像データを出力する(例えば、1秒間に15フレームの画像を読み込む場合は3フレーム前に読み込んだ画像の画像データを出力するなど)ため、ユーザの所望する読取位置で画像を読み込むことができる。また、スイッチを押釦することによって出力指示を行う場合は、スイッチの押釦による手ぶれの影響がなくなるため、より読取位置のずれを解消することができる。
【0009】
本発明の他のイメージリーダは、定期的に画像を読み込む読込手段と、読み込んだ画像データを、読込順に記憶する画像データ記憶手段と、画像データ記憶手段に記憶された画像データを順次読み出し、デコード処理するデコード手段と、デコード処理済みのデータであるデコード済みデータを、続く画像データのデコード処理が完了するまで記憶するデコード済みデータ記憶手段と、画像データの出力を指示する出力指示手段と、出力指示手段による指示時点において、デコード済みデータ記憶手段に記憶されているデコード済みデータを出力する出力手段と、を備えたことを特徴とする。
【0010】
また、本発明の他のイメージリーダの制御方法は、定期的に画像を読み込む読込工程と、読み込んだ画像データを読込順にデコード処理してデコード済みデータを生成するデコード済みデータ生成工程と、デコード済みデータを、続く画像データのデコード処理が完了するまで記憶するデコード済みデータ記憶工程と、ユーザによる画像データの出力指示が為された時、指示時点において記憶しているデコード済みデータを出力する出力工程と、を備えたことを特徴とする。
【0011】
これらの構成によれば、ユーザによって出力指示が為された指示時点において記憶しているデコード済みデータを出力するため、ユーザが所望する読取位置の画像を正確に出力することができる。つまり、ユーザが出力指示を行ったときは、読取位置が読込対象となる画像からずれてしまっていることが考えられるが、本発明ではデコード処理後のデコード済みデータを出力する(例えば、1秒間に15フレームの画像を読み込む場合は3フレーム前に読み込んだ画像に基づくデコード済みデータを出力するなど)ため、ユーザの所望する読取位置で画像を読み込むことができる。また、予めデコード処理を行っているデコード済みデータを出力するため、出力指示後にデコード処理を行う場合と比較して、出力処理を迅速に行うことができる。さらに、スイッチを押釦することによって出力指示を行う場合は、スイッチの押釦による手ぶれの影響がなくなるため、より読取位置のずれを解消することができる。
【0012】
この場合、読込手段のターゲットとなる読取位置に照明光を照射する照明手段と、読込手段によって読み込んだ画像が、特定画像であるか否かを判別する判別手段と、を更に備え、判別手段によって、読み込んだ画像が特定画像であると判断したとき、照明手段は、読取位置に照明光を照射することが好ましい。
【0013】
また、この場合、読込工程において読み込んだ画像が、特定画像であるか否かを判別する判別工程と、判別工程において、読み込んだ画像が特定画像であると判断したとき、ターゲットとなる読取位置に照明光を照射する照明工程と、を更に備えたことが好ましい。
【0014】
これらの構成によれば、読み込んだ画像が特定画像であると判断したとき、ターゲットとなる読取位置に照明光を照射するため、ユーザは照明光を照射するための操作を行うことなく、正確に読取位置を確認することができる。したがって、読取位置を読み込み対象となる画像に正確に合わせることができる。また、照明光を照射することにより、鮮明な画像データを出力することができる。
【0015】
この場合、照明手段は、判別手段により、読み込んだ画像が特定画像であると判断した時点から出力指示手段による指示時点まで照明光を照射することが好ましい。
【0016】
また、この場合、照明工程では、判別工程において、読み込んだ画像が特定画像であると判断した時点から画像データの出力指示が為された時点まで照明光を照射することが好ましい。
【0017】
これらの構成によれば、出力指示が為された時点まで照明光を照射する、言い換えれば出力指示が為された時点で照明光をオフにするため、出力指示を認識したことをユーザに示すことができる。また、出力指示が為された時点で照明光の必要が無くなるため、無駄な電力消費を抑えることができる。
【0018】
これらの場合、特定画像は、バーコードであることが好ましい。
【0019】
この構成によれば、バーコード(1次元コード、2次元コードを含む)を読み取るバーコードリーダにおいて、本発明を適用することができる。
【0020】
これらの場合、デコード手段において正常にデコード処理が行われたか否かのデコード判別結果および/または出力手段においてデコード済みデータが正常に出力されたか否かの出力判別結果を報知する報知手段を更に備えたことが好ましい。
【0021】
この構成によれば、正常にデコード処理が行われたか否かのデコード判別結果および/またはデコード済みデータが正常に出力されたか否かの出力判別結果を報知するため、ユーザはこれらデコード結果および/または出力結果を確認することができる。なお、報知方法は、表示によってユーザに視覚的に報知するものでも良いし、音声(ビープ音など)によってユーザに聴覚的に報知するものでも良い。
【0022】
本発明のイメージリーダシステムは、上記に記載のイメージリーダと、イメージリーダから送信された画像データを受信するホストコンピュータとによって構成されるイメージリーダシステムにおいて、イメージリーダに代えて、ホストコンピュータ側に、画像データ記憶手段、デコード手段、デコード済みデータ記憶手段、出力指示手段、出力手段、判別手段または報知手段のいずれかを備えたことを特徴とする。
【0023】
この構成によれば、ホストコンピュータ側で各種処理等を行うため、高速な処理が可能となると共に、新規シンボルや予め定められていない規格のデータ(OCRデータなど)への対応を、ホストコンピュータ側ソフトウェアの書き換えのみで容易に行うことができる。また、イメージリーダ側では、デコード処理等を行う必要がないため、イメージリーダの制御構成を簡素化することができ、ひいては、低コストで製造可能となる。
【0024】
この場合、ホストコンピュータは、読込手段によって読み込んだ画像を表示する画像表示手段を更に備えたことが好ましい。
【0025】
この構成によれば、読み込んだ画像を表示するため、ユーザはこれを確認しながら読込操作を行うことができる。したがって、ターゲットとなる読取位置を読み込み対象となる画像に正確に合わせることができる。
【0026】
これらの場合、ホストコンピュータは、POSアプリケーションを有し、イメージリーダから送信された画像データに基づいて会計処理を行うことが好ましい。
【0027】
この構成によれば、POSアプリケーションを有する、いわゆるPOS端末機において、本発明を利用することができる。したがって、読取位置のずれを解消し得るイメージリーダを用いたPOS端末機を提供することができる。
【0028】
【発明の実施の形態】
以下、本発明の一実施形態に係るイメージリーダ、イメージリーダシステム、並びにイメージリーダの制御方法について、添付図面を参照しながら詳細に説明する。本発明のイメージリーダは、ユーザが出力指示を行った時点から遡って、数フレーム前に読み込んだ画像に基づく画像データを出力することにより、ユーザが所望する読取位置または読取タイミングの画像を正確に出力することができるものである。また、トリガスイッチの押釦によって画像出力指示を行う場合であっても、出力指示前に読み込んだ画像を出力するため、手ぶれの影響がなくなり、より読取位置のずれを解消することができる。
【0029】
そこで、以下、バーコード(1次元コードおよび2次元コード)や、その他画像そのものを読み込むイメージリーダを備え、スーパーやコンビニエンス・ストア等の店舗にて利用されるPOSシステムを例に挙げて説明する。
【0030】
図1に示すように、本発明のPOSシステム1は、オペレータ(ユーザ)によって、主に商品に付されたバーコードが読み取られることにより会計情報(以下、「POSデータ」という)を取得する複数の商品販売データ処理装置であるPOS端末10(1つのみ図示)と、ネットワーク(LAN)160を介して当該POS端末10と相互に接続され、POS端末10に入力された入力情報の管理を行うPOSサーバ170とによって構成されている。
【0031】
POSサーバ170は、制御装置(CPU)171の他、ROM173やRAM174等のメモリ並びに各種マスタ175を有し、POS端末10から送信された入力情報に基づいて、商品マスタから商品コード、商品名、金額に関する情報を抽出し、レシート61(図2参照)への印刷およびPOS端末10のディスプレイ42の表示に用いる商品データを生成する。なお、「商品データ」とは、POS端末10で生成される印刷データの元となるデータであり、レシート61上に印刷される商品名やその金額等の情報が含まれるものである。
【0032】
また、POSサーバ170は、上記の入力情報の他にイメージリーダ20によって読み込んだ画像に関する画像情報をPOS端末10から取得し、当該画像情報の管理も行っている。この画像情報には、例えば免許証等を読み込んだイメージデータや、会員番号などの文字や数字を読み込んだテキストデータが含まれ、顧客管理等に利用される。
【0033】
一方、POS端末10は、1次元コードや2次元コード、その他画像そのものを読み込むイメージリーダ20と、当該イメージリーダ20から送信された画像データの画像処理を行うと共に、POSアプリケーション280を有し、POSサーバ170から送信された商品データを参照して、レシート61上に印刷する印刷データを生成するなどの会計処理を行うホストコンピュータ40と、印刷データに基づいてレシート61上に印刷を行う印刷装置50(レシートプリンタ)とを備え、互いにコネクタ46,53,54(図2参照)を介して接続されている。
【0034】
ホストコンピュータ40は、キーボード43による入力またはイメージリーダ20によるバーコードの読み取りによって商品に関する商品情報などの入力情報を取得する。また、カードリーダ45によって顧客のクレジットカード(磁気カード)を読み取り、クレジット清算に関する情報を取得する。さらに、POSサーバ170から送信された商品データを元に生成した商品情報を表示するディスプレイ42を有し、顧客に対して購入商品の金額等を提示する。
【0035】
また、ホストコンピュータ40の制御は、ウィンドウズ(登録商標)等のOS230上で稼働するOPOS(OLE for Retail POS)オブジェクト260により行われる。OPOSオブジェクト260とは、POSアプリケーション280に対して、イメージリーダ20や印刷装置50等の周辺デバイスとの機種依存性のないインターフェースを提供するものであり、コントロールオブジェクト(CO)261と、サービスオブジェクト(SO)262とによって構成されている。
【0036】
CO261は、イメージリーダ20や印刷装置50等のデバイスクラス毎に提供されるオブジェクトであり、POSアプリケーション280とのインターフェースを司っている。また、SO262は、デバイスの機種毎に提供されるオブジェクトであり、OS230を介して各デバイスの制御を実行している。したがって、イメージリーダ20から送信された画像データ(POSデータ)は、OS230を介してイメージリーダ20の機種に対応したSO262に引き渡され、SO262からイメージリーダ20用のCO261に引き渡される。そして、CO261からPOSアプリケーション280に画像データが引き渡されることによって、会計処理が実行されることになる。なお、上記したOPOSオブジェクト260は、CO261とSO262とをコンバインした形態で、イメージリーダドライバ240(図8参照)等と共にユーザに提供される。
【0037】
また、印刷装置50は、インクジェット方式で印刷が行われるインクジェットプリンタであり、6つのインクジェットヘッドを有する印刷部51を備えている。これらのインクジェットヘッド55は、それぞれ、M(マゼンタ)、C(シアン)、Y(イエロー)、LM(ライトマゼンタ)、LC(ライトシアン)、K(ブラック)のインクを吐出することで、フルカラーの印刷ができるように構成されている。
【0038】
次に、POS端末10の装置構成について、図2を参照して説明する。同図(a)は、POS端末10をオペレータによる操作側から見た正面斜視図であり、同図(b)は、これを顧客側から見た背面斜視図である。両図に示すように、POS端末10は、箱形の本体ケース48によってその主体部を成すホストコンピュータ40と、これにケーブル33を介して接続されるイメージリーダ20と、本体ケース48の後部左側に配置される印刷装置50と、によって構成されている。
【0039】
ホストコンピュータ40は、本体ケース48の前部上面にオペレータが商品情報や金額を入力するキーボード43と、その後部右側にオペレータが入力情報を確認するオペレータ用ディスプレイ42aとを配置し、本体ケース48内にはキャッシュドロア49が収納さている。また、本体ケース48の右側側面には商品に貼付若しくは印刷されたバーコード等の画像を読み取るためのイメージリーダ20と接続するための本体側インターフェース47を備え、キーボード43の右側には、顧客から提示されたクレジットカードを読み取るためのカードリーダ用スロット45が形成されている。さらに、本体ケース48の背面側には、顧客が商品情報等を確認するための顧客用ディスプレイ42bが配置されている。なお、イメージリーダ20で読み込んだ画像は、上記のオペレータ側ディスプレイ42aに表示され、オペレータはこれを確認しながら、撮像操作を行うこととなる。
【0040】
また、イメージリーダ20は、その把持部位24の下端部にケーブル取付口32(図3(b)参照)が形成されており、ホストコンピュータ40に備えられたホスト側インターフェース47とは、ケーブル33およびコネクタ46を介して接続されている(詳細な装置構成については後述する)。
【0041】
また、印刷装置50は、その前面側に動作表示ランプ65と、印刷装置側インターフェース51とが配置されており、印刷装置側インターフェース51と、ホストコンピュータ40に備えられたホスト側インターフェース52とはケーブル63およびコネクタ53,54を介して接続されている。また、印刷装置50の上面には、印刷済みのレシート61が排出されるレシート排出口64が形成されている。
【0042】
ここで、イメージリーダ20の装置構成について、図3ないし図6を参照して詳細に説明する。図3(a)は、イメージリーダ20を横側から見た平面図であり、同図(b)は、イメージリーダ20を背面側から見た平面図である。また、図4(a)は、本体からフードの先端部(第2フード)を取り外した状態の外観斜視図であり、同図(b)は、本体にフードの先端部(第2フード)を装着した状態の外観斜視図である。また、図5はイメージリーダ20を横側から見た透視図であり、図6は照明ブロック73の拡大斜視図である。
【0043】
これらの図に示すとおり、イメージリーダ20は、装置本体21と、装置本体21から突出形成されたフード(突き当て部材)22とによって構成され、フード22の先端を、撮像対象物15(図5参照)が載置または貼付された対象物支持体12に当接させることによって撮像(画像の読込)を行う(図5参照)。
【0044】
装置本体21は、プラスチック材等によって構成されると共に中空構造となっており、ユーザ(オペレータ)が片手で把持する把持部位24と、撮像ユニット70が収容された撮像ユニット収容部23とを有し、内部には回路部品が実装された回路基板76が収納されている。把持部位24は、前部ケース24aと後部ケース24bが嵌め合わせによって一体形成されており、後部ケース24bの上部には、読み込んだ画像のデコード結果や出力結果(いずれもホストコンピュータ40による処理結果に基づく)をライト色によって表示するLED表示部31を備えている。
【0045】
また、後部ケース24bの下部には、ケーブル取付口32が形成されており、ケーブル33およびコネクタ46を介してホスト側インターフェース47と接続されている(図2(a)参照)。さらに、前部ケース24aの表面側には、4つの凹部29が形成され、ユーザの人差し指から小指までが上側から順にこの凹部29に収まるようになっている。また、最上部の凹部29には、撮像を指示するためのトリガスイッチ28が形成され、ユーザの人差し指でトリガスイッチ28が押釦されるようになっている。このように、装置本体21の外輪郭線より内側にトリガスイッチ28を収めることにより、装置本体21の横倒しや落下によってスイッチがオン状態になることを防止することができる。さらに、最下部の凹部29には、後部ケースにねじ止めするための貫通穴30が形成されている。
【0046】
フード22は、装置本体21と一体形成されている第1フード(第1突き当て部材)25と、これに着脱自在に構成されている第2フード(第2突き当て部材)26とを有し、当該第2フード26の装着の有無に応じて、撮像距離L(結像レンズ71aから撮像対象物15までの距離:図5参照)を2段階に調節できるようになっている。撮像距離Lの調節は、撮像対象物15の大きさや精細度によって行うが、詳細については後述する。
【0047】
第1フード25および第2フード26は、いずれも透光性(透明または半透明)を有するプラスチック材で構成されており、ユーザがフード22を通して撮像対象物15を確認しながら位置合せすることができるようになっている。また、外光を取り入れることができるため、撮像対象物15をより鮮明に撮像することができる。
【0048】
また、第1フード25は、その先端側にU字型に没入形成された凹部位25aを有しており、この凹部位25aの周囲に形成された差込みスリット(図示省略)に、第2フード26の後端側に形成された凸部位26aの周縁部が装着されると、凹部位25a付近に配置された図示しないマイクロスイッチがこれを検出し、撮像距離Lを特定する(第1撮像距離L1:図9(a)参照)。また、第2フード26が離脱すると、撮像距離Lが変化した(短くなった)ものと判断し、撮像距離L2を特定する(第2撮像距離L2:図9(b)参照)。このように、本実施形態のイメージリーダ20は、第2フード26の着脱を検出するだけの簡易な構造で、より確実且つ迅速に撮像距離Lを特定することができる。なお、上記の凹部位26aの中心部はわずかに窪んでおり、着脱の際の指掛け部として機能する。
【0049】
また、第2フード26の離脱時には、自動的に電源がオン状態に変化する。つまり、ユーザが第2フード26を第1フード25から離脱操作するのは、より高精細な撮像対象物15を撮像したい場合と考えられるが、自動的に電源が供給されることで、電源スイッチなどによる電源供給操作を省略することができる。
【0050】
撮像ユニット収容部23には、撮像ユニット70が収容され、撮像ユニット70は、レンズ71a、絞りおよびフィルタ(いずれも図示省略)等からなるレンズブロック71と、撮像対象物15の撮像を行う撮像ブロック75と、撮像対象物15に照明光を照射する照明ブロック73と、ほこり等の阻害物を遮断するために透明なアクリル樹脂板又はガラス板で形成された表面カバー74と、によって構成されている。
【0051】
レンズブロック71は、第2フード26の有無によって変化する2種類の撮像距離Lに対応する被写体深度を持つ結像レンズ71aが用いられると共に、不必要な赤外域光を減衰・除去するフィルタ71bが組み込まれ、これら結像レンズ71aおよびフィルタ71bが一体形成されている。
【0052】
撮像ブロック75は、撮像対象物15からの反射光を検出する撮像センサ(読込手段)75aによって構成されており、撮像センサ75aは、定期的に(本実施形態では、1秒間に15フレーム)画像の読込を行っている。また、撮像センサ75aはエリアセンサを使用しており、1次元コード、2次元コードを含むあらゆる2次元画像の読込を行うことができるようになっている。なお、撮像素子(光電変換素子)としては、CCD(Charge−Coupled Devices)を用いるが、これに代えて、低消費電力を特徴とするCMOS(Complementary Metal−Oxide Semiconductor)を用いても良い。
【0053】
照明ブロック(照明部材)73は、図5および図6に示すとおり、複数のLED73aと、当該複数のLED73aが配設されたLED支持体73bと、照明ブロック73から撮像対象物15への直線光路上に配設された拡散板73cとによって構成され、当該拡散板73cによりLED73aからの光を均一に拡散させている。また、LED支持体73bには、1個あたりの照明強度を抑えて、12個のLED73aが結像レンズ71aの周辺に均一に配置されている。これにより、表面に光沢があるような物に照射しても照明光が反射して得られた画像の一部が真っ白(飽和状態)になってしまうような不具合を無くすことができる。
【0054】
照明ブロック73では、撮像センサ75aで定期的に読み込んだ画像が、特定画像(例えば、1次元コードや2次元コード)であるとホストコンピュータ40側で判断したときから、ユーザがトリガスイッチ28を押釦するまでの間、照明を行う。このため、ユーザは照明光を照射するための操作を行う手間を省くことができる。また、この照明光は、ターゲットとなる読取位置を照射するため、ユーザは正確に読取位置を確認することができる。
【0055】
ところで、詳細については後述するが、本実施形態では、ユーザがトリガスイッチ28を押釦した時点から遡って数フレーム前(例えば、3フレーム前)に読み込んだ画像が出力される。したがって、ユーザがトリガスイッチ28を押釦した時点では、既に出力対象となる画像は読み込まれているため、照明光を照射する必要がない。したがって、無駄な電力消費を避ける意味で、またユーザに対しトリガスイッチ28の押釦を認識したことを報知する意味で照明光の照射を中止する。
【0056】
次に、イメージリーダ20およびホストコンピュータ40の制御構成について、図7の制御ブロック図を参照して説明する。イメージリーダ20は、撮像対象物15からの反射光を結像させるための結像レンズ71aと、撮像対象物15を撮像する撮像センサ75a(CCD)と、画像の読込(撮像)並びにホストコンピュータ40へのデータ送信を行う制御部80と、ユーザが画像の出力(撮像)指示を行うためのトリガスイッチ28と、読み込んだ画像のデコード結果や出力結果をライト色によって表示するLED表示部31と、ユーザに対し出力処理が正常に行われたことをビープ音により報知するためのブザー86と、上記の制御部80と接続され、トリガスイッチ28、LED表示部31およびブザー86の監視および制御を行うI/O(input/output)ポート85と、によって構成されている。
【0057】
制御部80は、CCD75aの駆動およびCCD75aから出力されるアナログ画像データをデジタル画像データに変換するCCD−DSP(Charge−Coupled Devices Digital Signal Processor=CCDデジタルシグナルプロセッサ)81と、画像データをJPEG形式のデータに変換して、1/10程度のデータ量に圧縮するJPEG変換回路(データ圧縮手段)82と、圧縮後の画像データをホストコンピュータ40に送信するUSBインターフェース(USB1.1)84と、デジタル画像データをUSBインターフェース経由で転送する際のバッファメモリとして利用されるRAM83と、によって構成されている。
【0058】
一方、ホストコンピュータ40は、オペレータが入力情報等を確認するためのオペレータ用ディスプレイ42aと、入力情報や金額等を入力するためのキーボード43と、貨幣を収容し、印刷装置50への印刷コマンドに基づいてオープンするキャッシュドロア49と、レシート61上に商品情報および金額等を印刷する印刷装置50と、顧客に対して金額等を表示する顧客用ディスプレイ42bと、これらを制御する制御部110とによって構成されている。また、ホストコンピュータ40は、ネットワーク(LAN)160を介してPOSサーバ170と接続されており、POSサーバ170に対して入力情報を送信したり、商品データを受信したりしている(図1参照)。
【0059】
制御部110は、ホストコンピュータ40全体を制御するCPU120と、CPU120で処理する制御プログラムや各種テーブルを含む制御データを記憶するROM130と、各種ワークエリアを有し、制御処理のための作業領域として使用されるRAM140と、CPU120等から出力された出力データや制御信号を各部に出力したり、各部からの入力データや制御信号を入力するIOC(Input Output Controller)150とによって構成され、イメージリーダ20から送信された画像データの解凍処理やデコード処理を制御している。
【0060】
ここで、ホストコンピュータ40の制御部110において制御される画像処理方法について、図8を参照して説明する。同図に示すとおり、イメージリーダ20からUSBインターフェース(USB1.1)84を介して送信された画像データは、ウィンドウズ(登録商標)等のOS230、OS230との適合を図ると共にイメージリーダ20との間を取り持つイメージリーダドライバ240、画像データの解凍処理およびデコード処理を行うデコードライブラリ250を介して、その画像データまたはデコード済みデータがPOSアプリケーション280に伝送される。デコードライブラリ250は、文字認識ライブラリ251を含んで構成することが可能であり、この場合、デコード済みデータにはテキスト形式のデータが含まれる。
【0061】
このように、本発明では、USBインターフェース84を介して画像データを送信することで、高速な画像データの転送を行うことができ、処理速度を向上させることができる。さらに、イメージリーダ20のJPEG変換回路82(図7参照)で圧縮された圧縮データ(画像データ)が転送されるため、より高速にデータ転送を行うことができる。なお、本実施形態では、USBインターフェース84として、USB1.1を使用しているが、USB2.0など、更に高速転送可能なインターフェースを用いても良い。また、この場合、イメージリーダ20のJPEG変換回路82、並びにデコードライブラリ250における圧縮解凍処理を省略した構成としても良い。この構成によれば、より装置構成を簡素化することができる。
【0062】
また、イメージリーダドライバ240およびデコードライブラリ250は、1枚の記録媒体に格納された状態で、ユーザに提供される。この構成により、ユーザはホストコンピュータ40へのインストールを容易且つ迅速に行うことができる。なお、記録媒体としては、CD−ROM、フラッシュROM、メモリカード(コンパクトフラッシュ(登録商標)、スマートメディア、メモリースティック等)、コンパクトディスク、光磁気ディスク、デジタルバーサタイルディスクおよびフレキシブルディスク等を利用することができる。
【0063】
伝送経路には、画像データ(すなわち、デコードライブラリ250によってデコード処理される前の画像そのもののデータ。以下、イメージ形式のデータともいう。)を直接POSアプリケーション280に伝送する第1の経路と、デコード済みデータを直接POSアプリケーション280に伝送する第2の経路と、デコード済みデータをOPOSオブジェクト260およびOPOSインターフェース290を介してPOSアプリケーション280に伝送する第3の経路との3種類の経路がある。いずれの経路で伝送するかは、POSアプリケーション280が有する伝送経路選択手段281によって次のとおりに決定される。
【0064】
OPOSの規格に準拠したPOSアプリケーション280の場合、当該POSアプリケーション280が、OPOSの規格に準拠したデコード済みデータを取得するときには、OPOSインターフェース290を介してOPOSオブジェクト260を呼び出し、OPOSオブジェクト260はデコードライブラリ250のデコード済みデータ取得API(Application Program Interface)を呼び出す。また、POSアプリケーション280が、OPOSの規格に準拠していないデコード済みデータを取得するときには、OPOSインターフェース290やOPOSオブジェクト260を介さず、直接デコードライブラリ250のデコード済みデータ取得APIを呼び出す。さらに、POSアプリケーション280が、画像データを取得するときには、OPOSインターフェース290やOPOSオブジェクト260を介さず、直接デコードライブラリ250のイメージデータ取得APIを呼び出す。
【0065】
一方、OPOS規格に準拠していないPOSアプリケーション280の場合、(独自仕様のアプリケーションの場合)、当該POSアプリケーション280が、デコード済みデータを取得するときには、デコード済みデータがOPOSの規格に準拠しているか否かに拘わらず、直接デコードライブラリ250のデコード済みデータ取得APIを呼び出す。また、POSアプリケーション280が、画像データを取得するときには、直接デコードライブラリ250のイメージデータ取得APIを呼び出す。
【0066】
このように、本発明の画像処理方法によれば、ホストコンピュータ40内に組み込まれたデコードライブラリ250で画像データのデコード処理を行うため、高速な処理が可能となると共に、新規シンボルや予め定められていない規格のデータ(OCRデータなど)への対応を、デコードライブラリ250の書き換え(変更)のみで容易に行うことができる。一方、イメージリーダ20は、デコード処理を行う必要がないため、制御構成を簡素化することができ、ひいては低コストで製造することができる。
【0067】
また、OPOSの規格に準拠したデータは、OPOSオブジェクト260を介してPOSアプリケーション280に伝送するため、サービスオブジェクト(SOレイヤ)の変更により、従来利用していたPOSアプリケーション280(例えばバーコードリーダ等を接続して利用していたときのPOSアプリケーション)を、そのまま利用することができる。
【0068】
また、POSアプリケーション280は、デコード済みデータに加え、デコード処理のなされていないイメージ形式のデータもPOSアプリケーション280に取り込み可能となる。
【0069】
次に、イメージリーダ20の撮像距離検出方法および歪み補正方法について、図9ないし図11を参照して説明する。図9および図10に示すように、本発明のイメージリーダ20は、第2フード26の装着時における第1撮像距離L1(同図(a)参照)と、第2フード26の離脱時における第2撮像距離L2(同図(b)参照)とのいずれかで撮像距離Lを変更することができる。
【0070】
ユーザは、撮像対象物15の大きさや種類(精細度)に応じて、いずれかの撮像距離Lを選択するが、例えば幅広の1次元コードを読み込む場合は、撮像範囲が広い第1撮像距離L1にて撮像を行い、高精細な2次元コードを読み込む場合は、撮像範囲が狭い第2撮像距離L2にて撮像を行うことが好ましい。つまり、高い解像度を必要としない場合や大きな撮像対象物15を読み込む場合は、第2フード26を装着することによって、撮像範囲を広くさせることができる。また、高精細の撮像対象物15を読み込む場合は、第2フード26を取り外すことによって撮像距離Lを短くし、見かけの解像度を向上(撮像センサ75aへ投影される画像を拡大する)させることができる。このため、幅広の撮像対象物15から高精細の撮像対象物15まで、同一の結像レンズ71aを介して撮像することができる。
【0071】
イメージリーダ20は、マイクロスイッチ等の検出センサで検出した第2フード26の装着の有無に関する情報をホストコンピュータ40に送信し、ホストコンピュータ40では、この情報に基づいて、撮像距離Lを特定する。そして、この情報に基づいて、デコードライブラリ250(図8参照)により、結像レンズ71aと撮像対象物15との3次元的な位置ずれに基づく、撮像センサ75aの出力画像の歪みを補正する。
【0072】
ここで、歪み補正方法について詳細に説明する。撮像対象物15を撮像する場合、結像レンズ71aと、撮像対象物15が平行面の位置関係にあるときは、3次元的な位置ずれが無いため、出力画像に歪みは生じない(図9参照)。しかしながら、ユーザがイメージリーダ20を把持し、第1フード25または第2フード26の先端のみを対象物支持体12に当接させた状態で撮像対象物15の撮像を行うため、把持部位24が上下方向または左右方向にずれてしまい、それに伴って出力画像に歪みが生じてしまう(図10参照)。
【0073】
そのため、図9に示すような歪みのない出力画像を得るため、デコードライブラリ250により歪みの補正を行う。具体的には、例えば、図9(b)に示すような2次元コード(QRコード)の場合、規定パターン(角の四角形)の歪み具合によって、歪み程度を判断する。また、撮像対象物15の2次元コードが、図10(a)に示すようなMaxiコードである場合、パターンの中央に配置される円形の規定パターンの歪み具合によって歪み程度を判断する。但し、同じ歪み程度でも撮像距離Lが異なると補正量が変化するため、撮像距離Lを検出し、これをパラメータとすることによって高精度な補正を行うことができる。
【0074】
歪みを補正するための歪み補正式は、図11(b)に示すとおりであり、変数Zに、撮像距離L(結像レンズ71aから撮像対象物15までの距離)を代入することによって、XY座標の補正を行うことができる。なお、この歪み補正式(補正プログラム)に代えて、歪み補正テーブルを格納しておき、撮像距離Lに応じてXY座標の補正を行うようにしても良い。この構成によれば、テーブルを参照するだけで容易に画像データの歪みの補正を行うことができる。
【0075】
このように、本発明のイメージリーダ20は、第2フード26の装着の有無によって、撮像距離Lを検出するため、より正確且つ確実に撮像距離Lを検出することができる。また、第2フード26を装着するだけの単純な構成で撮像距離Lを調節することができるため、距離センサなどを用いる場合と比較して、低コストで撮像距離Lの調節および検出を行うことができる。さらに、撮像距離Lを調節することによって撮像範囲を変更することができるため、高精細な撮像対象物15(2次元コードなど)から幅広の撮像対象物15(幅広バーコードなど)まで、撮像可能な対象物の範囲を拡大させることができる。
【0076】
なお、上記の例では、撮像センサ75aは1つのエリアセンサで構成されているものとしたが、撮像センサ75aとして、リニアセンサとエリアセンサとの2つのセンサを備えても良い。また、この場合、第2フード26が装着されている場合はリニアセンサにより撮像し、第2フード26が装着されていない場合はエリアセンサにより撮像するような構成としても良い。これらの構成によれば、第2フード26が装着されている場合は撮像距離Lが長くなるため、リニアセンサを用いてより幅広の撮像対象物15(FA分野や流通分野で利用されている大型サイズのバーコードなど)を撮像することができる。また、第2フード26が装着されていない場合は撮像距離Lが短くなるため、エリアセンサを用いて高精細な撮像対象物15(2次元コードなど)を撮像することができる。すなわち、撮像距離Lに応じた適切な撮像センサ75aを用いて撮像を行うことにより、より撮像可能な対象物の範囲を拡大させることができる。
【0077】
また、この場合、リニアセンサとエリアセンサとのいずれのセンサで撮像を行うかの判断は、第2フード26の装着の有無によらず、ユーザの指示(いずれかに対応するスイッチの押釦など)によって決定しても良いし、撮像対象物15(1次元コードか2次元コードか)によって決定しても良い。
【0078】
次に、イメージリーダ20における画像の読込方法および画像出力方法について、図12ないし図15を参照して説明する。図12は、ホストコンピュータ40におけるイメージリーダドライバ240からデコードライブラリ250までのデータの流れを示したものであるが、同図に示すように、イメージリーダ20のUSBインターフェース84およびイメージリーダドライバ240を介して取得した画像データは、N個のフレームバッファを有するメインメモリ310に一旦格納された後、デコード用バッファ252に格納され、デコード処理が行われる。
【0079】
そして、ユーザがイメージリーダ20のトリガスイッチ28を押釦した時点でデコード用バッファ252内に格納されているデコード済みデータが出力画像として出力されることとなる。したがって、1秒間に15フレームの画像読込を行う本実施形態の場合、例えば2〜5フレーム程度前に読み込まれた画像に基づく画像データが出力される。
【0080】
そこで、図13ないし図15のフローチャートを参照し、順を追って画像出力処理について説明する。図13は、イメージリーダドライバ240における処理シーケンスを示したものであるが、初期化(S1)後、フレームバッファポインタ1は、メインメモリ310内の先頭にあるフレームバッファ1を指す(S2)。USBインターフェース84を介して1フレーム分の画像データが送信されると、フレームバッファポインタ1が指すフレームバッファに画像データを書き込む(格納する)(S3)。その後、フレームバッファポインタ1の指すバッファを、フレームバッファ2、フレームバッファ3・・・フレームバッファNとインクリメントしていき、フレームバッファNの次はフレームバッファ1に戻す(S4)。
【0081】
続いて、図14は、デコードライブラリ250における処理シーケンスを示したものである。初期化(S11)後、フレームバッファポインタ2は、メインメモリ内の先頭にあるフレームバッファ1を指し(S12)、装置本体21の背面側にある表示用のLED31(図3(b)参照)は赤色に発光する(S13)。
また、フレームバッファポインタ2が指すフレームバッファ内の画像データを読み出し、デコード用バッファ252にコピーする(S14)。
【0082】
デコード用バッファ252に格納された画像データは、デコードライブラリ250により解凍処理され(S15)、その解凍処理結果が特定の画像(ここでは、バーコードとする)であった場合(S16:Yes)、照明用のLED73a(図6参照)をオン状態にし、読取位置に照明光を照射する(S17)。一方、特定の画像が検出されない場合は(S16:No)、定期的に画像の読込を繰り返し、表示用の赤色LED31を点灯し続ける(S13)。
【0083】
なお、デコード用バッファ252に格納された画像データは、図示しない表示用バッファにコピーされ、当該表示用バッファ内の画像データをオペレータ用ディスプレイ42a(図2参照)に表示する。ユーザはこのオペレータ用ディスプレイ42aを確認しながら画像の出力指示(トリガスイッチ28の押釦操作)を行う。また、デコード用バッファ252に格納されているデコード済みデータは、次の画像データのデコード処理が終了するまで格納され、次の画像データのデコード処理が終了した時点で上書き消去される。
【0084】
照明用のLED73aをオン状態にした(S17)後、ユーザによるトリガスイッチ28の押釦が検出されない場合は(S23:No)、フレームバッファポインタ2が指すフレームバッファ内の画像データの読み出し、およびデコード用バッファ252へのコピーを続行する(S18)。また、デコード用バッファ252に格納された画像データは、デコードライブラリ250により解凍処理およびデコード処理され(S19)、デコードが成功した場合は(S20:Yes)、表示用のLED31を緑色に発光させる(S22)。つまり、この緑色のLED31は、デコード処理が正常に行われたことをユーザに対して報知している。
【0085】
一方、デコード処理が正常に行われなかった場合は(S20:No)、照明用のLED73aをオフ状態にし(S21)、表示用のLED31を赤色に発光させる(S13)。つまり、この赤色のLED31は、デコード処理が正常に行われなかったことをユーザに対して報知している。なお、これら表示用のLED31に赤色または緑色の表示を行う場合、同時にビープ音や音声でデコード処理の状況をユーザに対して報知するようにしても良い。この構成によれば、ユーザは視覚的および聴覚的にデコード処理の状況を確認することができる。
【0086】
次に、ユーザによりトリガスイッチ28が押釦されたか否かを判別し、トリガスイッチ28が押釦された場合は(S23:Yes)、照明用のLED73aをオフ状態にし(S24)、トリガイベントをPOSアプリケーション280に通知する(S25)と共に、画像出力処理が正常に行われたことをユーザに示すためブザーを鳴動する(S26)。また、このとき出力される画像は、デコード用バッファ252に格納されているデコード済みデータである。したがって、トリガスイッチ28を押釦したときよりも数フレーム前に読み込んだ画像が出力されることになるが、これは、ユーザがオペレータ用ディスプレイ42aを確認しながら操作を進めている場合、画面上で確認したときの画像により近い画像となる。
【0087】
つまり、ユーザが出力指示を行った時点で画像を読み込む場合は、イメージリーダ20のターゲットとなる読取位置が読込対象となる画像からずれてしまっていることが考えられるが、本発明では数フレーム前に読み込んだ画像の画像データを出力するため、ユーザの所望する読取位置で画像を読み込むことができる。
この構成は、静止画像であっても、ユーザが把持部位24を把持した状態(静止していない状態)で画像を読み込むため、特に高精細な撮像対象物15の撮像(読込)を行う場合に有効である。また、撮像対象物15が静止物でない場合(例えば、動画の場合)などは、読み取りタイミングのずれによる、ユーザの意識する画像と出力画像との違いが顕著に現れるため、よりその効果を発揮することができる。
【0088】
画像出力処理が正常に行われ、トリガイベントをPOSアプリケーション280に通知(S25)した後は、再度表示用のLED31が赤色に発光し(S13)、特定画像(ここでは、バーコード)の検出を待つ。また、表示用のLED31が緑色に発光している状態で、トリガスイッチ28が押釦されない場合は(S23:No)、LED31を緑色表示したまま、メインメモリ310内の各フレームバッファから順にデコード用バッファ252に画像データをコピーし、デコード処理を続行する(S18〜S22)。
【0089】
なお、上記の例では、特定の画像として、バーコードを例に挙げたが、バーコードの種類を限定して(1次元コード、2次元コード、または特定のコードなど)、照明光を照射するようにしても良い。また、バーコードに限らず、アプリケーションに応じた特定のパターンを検出した場合に照明光を照射するようにしても良い。
【0090】
続いて、図15は、POSアプリケーション280における処理シーケンスを示したものである。初期化(S41)後、トリガイベントが発生したら(S42:Yes)、デコードライブラリ250からデコード結果(デコード済みデータ)を取得する(S43)。そして、そのデコード結果に応じた処理(例えば、デコード結果が商品コードである場合は、POSサーバ170にこれを送信したり、レシート61を作成するための印刷データを生成したりなどの処理)を行う(S44)。
【0091】
このように、本発明の画像出力方法によれば、ユーザが出力指示を行った時点から遡って、数フレーム前に読み込んだ画像に基づく画像データを出力するため、ユーザが所望する読取位置(タイミング)の画像(オペレータ用ディスプレイ42aで確認した画像)を正確に出力することができる。また、本実施形態の場合、トリガスイッチ28の押釦によって出力指示を行うが、トリガスイッチ28の押釦による手ぶれの影響がなくなるため、より読取位置のずれを解消することができる。
【0092】
また、ユーザによって出力指示が為された指示時点において、デコード用バッファ252に記憶しているデコード済みデータを出力するため、出力指示後にデコード処理を行う場合と比較して、出力処理を迅速に行うことができる。
【0093】
また、読み込んだ画像が特定画像であると判断したとき、イメージリーダ20のターゲットとなる読取位置に照明光を照射するため、ユーザは照明光を照射するための操作を行うことなく、正確に読取位置を確認することができる。また、照明光を照射することにより、鮮明な画像データを出力することができる。
【0094】
以上、説明したとおり、本発明のイメージリーダ、イメージリーダシステム、並びにイメージリーダの制御方法によれば、ホストコンピュータ40側で画像データのデコード処理を行うため、高速な処理が可能となると共に、新規シンボルや予め定められていない規格のデータ(OCRデータなど)への対応を、デコードライブラリ250の書き換えのみで容易に行うことができる。また、イメージリーダ20で画像を読み込むことにより、読み込んだ画像データそのものをPOSアプリケーション280に取り込めるように構成することができる。
【0095】
更に、イメージリーダ20側では、デコード処理を行う必要がないため、イメージリーダ20の制御構成を簡素化することができ、ひいては、イメージリーダ20を低コストで製造することができる。また、OPOSオブジェクト260のサービスオブジェクト(SOレイヤ)262の変更により、従来利用していたPOSアプリケーション280(例えばバーコードリーダ等を接続して利用していたときのPOSアプリケーション)を、そのまま利用することができる。
【0096】
また、ユーザによって出力指示が為された指示時点において記憶しているデコード済みデータを出力するため、読取位置のずれを解消することができる。更に、予めデコード処理を行っているデコード済みデータを出力するため、迅速に画像出力処理を行うことができる。
【0097】
なお、上記の例では、イメージリーダ20とホストコンピュータ40の通信インターフェースとして、USBインターフェース84を用いた場合を例に挙げたが、汎用的シリアルポートであるRS−232CやCMOSインターフェース、さらには高速シリアルバスであるIEEE1394、その他ケーブルを使用しない赤外線インターフェース、無線インターフェースなども適用可能である。
【0098】
また、上記の例では、第2フード26の着脱の有無によって撮像距離Lを2段階に調節できるものとしたが(図9参照)、第1フード25内に第2フードが収容可能な構成として、第2フード26の突出量に応じて、更に細かく撮像距離Lを調節できるようにしても良い。この構成によれば、撮像対象物15の大きさや複雑度に応じて、より適した撮像距離Lに調節することができる。また、フード22の形状も、本体に収容可能なワイヤを2本備えた構成や、筒状・箱形に構成したものなど、例に挙げた形状に限定されるものではではない。
【0099】
また、上述したPOSシステム1の例によらず、例えば、POSサーバ170に接続されないスタンドアロンタイプのECR、キャッシュレジスタなど、システム構成や装置構成について、本発明の要旨を逸脱しない範囲で、適宜変更も可能である。
【0100】
また、POSシステム1以外にも、OCRを用いた情報認識システム(例えば、チェック(小切手)、免許証、ナンバープレート、IDカード、切符などの認識システム)において、本発明を適用することが可能である。また、本発明は、イメージそのものの取得、保存、管理するシステム(商品画像、顧客顔写真、髪型、患部などの管理システム)や、バイオメトリクス(顔認証装置)など、アプリケーションを変化させることにより、様々な分野において適用可能である。
【0101】
【発明の効果】
上述のように、本発明のイメージリーダ、イメージリーダシステム、並びにイメージリーダの制御方法によれば、ユーザが出力指示を行った時点から遡って、数フレーム前に読み込んだ画像に基づく画像データを出力するため、ユーザが所望する読取位置または読取タイミングの画像を正確に出力することができるなどの効果を奏する。
【図面の簡単な説明】
【図1】本発明のPOSシステムの一例を示す構成図である。
【図2】本発明のPOSシステムを構成するPOS端末の外観斜視図である。
【図3】本発明のイメージリーダの横側および背面側から見た平面図である。
【図4】本発明のイメージリーダの外観斜視図である。
【図5】本発明のイメージリーダの横側から見た透視図である。
【図6】本発明のイメージリーダにおける照明ブロックの拡大斜視図である。
【図7】本発明のイメージリーダおよびホストコンピュータの制御ブロック図である。
【図8】本発明のホストコンピュータの制御部における制御構成を示す説明図である。
【図9】本発明のイメージリーダとその撮像範囲を示す図である。
【図10】本発明のイメージリーダとその出力画像の歪みを示す図である。
【図11】撮像対象物の一例と、歪み補正式を示す図である。
【図12】本発明のホストコンピュータのイメージリーダドライバおよびデコードライブラリにおける画像データの書き込み・読み出しについて説明する説明図である。
【図13】本発明のイメージリーダドライバにおける処理シーケンスを示すフローチャートである。
【図14】本発明のデコードライブラリにおける処理シーケンスを示すフローチャートである。
【図15】本発明のPOSアプリケーションにおける処理シーケンスを示すフローチャートである。
【符号の説明】
1 POSシステム
10 POS端末
12 対象物支持体
15 撮像対象物
20 イメージリーダ
21 装置本体
22 フード
23 撮像ユニット収容部
24 把持部位
25 第1フード
26 第2フード
28 トリガスイッチ
31 LED表示部
40 ホストコンピュータ
50 印刷蔵置
70 撮像ユニット
71 レンズブロック
71a 結像レンズ
73 照明ブロック
75 撮像ブロック
75a 撮像センサ
160 LAN
170 POSサーバ
240 イメージリーダドライバ
250 デコードライブラリ
260 OPOSオブジェクト
280 POSアプリケーション
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image reader that periodically reads an image and outputs image data based on an output instruction from a user, an image reader system, and a control method of the image reader.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, POS terminals used in retail businesses such as supermarkets and convenience stores mainly use a barcode reader to read a barcode attached or printed on a product and acquire product information. . In general, this type of barcode reader performs illumination reading indicating the target position on an image to be read, and reading of the image and decoding of the read image data by the user pressing a trigger switch.
[0003]
[Patent Document 1]
JP-A-09-050478 (FIG. 1, etc.)
[0004]
[Problems to be solved by the invention]
However, in such a method, when the user presses the trigger switch, particularly in the case of a non-contact image reader, the reading position is shifted from the image to be read, that is, the reading timing is delayed. There was a problem that it would. In addition, the vibration of the camera shake is transmitted to the image reader by the push button of the trigger switch, which further causes the shift of the reading position.
[0005]
The present invention has been made in view of the above problems, and has as its object to provide an image reader, an image reader system, and a method of controlling an image reader that can prevent a shift in a reading position.
[0006]
[Means for Solving the Problems]
The image reader according to the present invention includes a reading unit that periodically reads an image, an output instruction unit that instructs output of image data based on the image read by the reading unit, and a frame several frames before the instruction pointed out by the output instruction unit. And output means for outputting image data based on the image read into the printer.
[0007]
Further, a control method of an image reader according to the present invention is characterized in that an image is read periodically, and image data based on the image read several frames before is output based on a user's instruction to output image data.
[0008]
According to these configurations, since the image data based on the image read several frames before is output retroactively from the time when the user gives the output instruction, it is possible to accurately output the image at the reading position desired by the user. it can. That is, when the user gives an output instruction, the reading position may be shifted from the image to be read. However, in the present invention, the image data of the image read several frames before is output (for example, For example, when reading an image of 15 frames per second, image data of an image read three frames before is output), so that an image can be read at a reading position desired by the user. In addition, when the output instruction is performed by pressing the switch, the shift of the reading position can be further eliminated because the influence of camera shake due to the switch pressing is eliminated.
[0009]
Another image reader according to the present invention includes a reading unit that periodically reads an image, an image data storage unit that stores the read image data in the reading order, and sequentially reads and decodes the image data stored in the image data storage unit. Decoding means for processing, decoded data storage means for storing decoded data which is decoded data until the decoding processing of the subsequent image data is completed, output instructing means for instructing output of image data, and output Output means for outputting the decoded data stored in the decoded data storage means at the time of the instruction by the instruction means.
[0010]
In addition, another image reader control method of the present invention includes a reading step of periodically reading an image, a decoded data generating step of decoding read image data in a reading order to generate decoded data, and A decoded data storing step of storing the data until the decoding processing of the subsequent image data is completed, and an outputting step of outputting the stored decoded data at the time of the instruction when a user gives an instruction to output the image data And characterized in that:
[0011]
According to these configurations, the decoded data stored at the time when the output instruction is issued by the user is output, so that the image at the reading position desired by the user can be output accurately. That is, when the user gives an output instruction, the reading position may be shifted from the image to be read, but in the present invention, decoded data after decoding processing is output (for example, for one second). When reading an image of 15 frames, decoded data based on the image read three frames before is output, for example), so that the image can be read at a reading position desired by the user. Further, since the decoded data that has been subjected to the decoding processing in advance is output, the output processing can be performed more quickly than in the case where the decoding processing is performed after the output instruction. Further, when an output instruction is given by pressing a switch, the influence of camera shake caused by the push of the switch is eliminated, so that the deviation of the reading position can be further reduced.
[0012]
In this case, the image forming apparatus further includes an illuminating unit that irradiates the reading position serving as a target of the reading unit with illumination light, and a determining unit that determines whether an image read by the reading unit is a specific image. When it is determined that the read image is a specific image, it is preferable that the illumination unit irradiates the reading position with illumination light.
[0013]
Further, in this case, in the determining step of determining whether the image read in the reading step is a specific image, and in the determining step, when it is determined that the read image is the specific image, the read position is set to a target reading position. And an illumination step of irradiating illumination light.
[0014]
According to these configurations, when it is determined that the read image is the specific image, the target reading position is irradiated with the illumination light, so that the user can accurately perform the operation without applying the illumination light. The reading position can be confirmed. Therefore, the reading position can be accurately adjusted to the image to be read. Further, by irradiating the illumination light, clear image data can be output.
[0015]
In this case, it is preferable that the illumination unit irradiates the illumination light from the time when the determination unit determines that the read image is the specific image to the time when the output instruction unit instructs.
[0016]
In this case, in the illumination step, it is preferable to irradiate the illumination light from a point in time when the read image is determined to be the specific image to a point in time when an instruction to output image data is issued in the determination step.
[0017]
According to these configurations, the illumination light is irradiated until the output instruction is issued. In other words, the illumination light is turned off at the time the output instruction is issued, so that the user is notified that the output instruction has been recognized. Can be. In addition, since the need for illumination light is eliminated when the output instruction is issued, useless power consumption can be suppressed.
[0018]
In these cases, the specific image is preferably a barcode.
[0019]
According to this configuration, the present invention can be applied to a barcode reader that reads a barcode (including a one-dimensional code and a two-dimensional code).
[0020]
In these cases, there is further provided a notifying means for notifying a decoding determination result as to whether or not the decoding processing has been normally performed in the decoding means and / or an output determination result as to whether or not the decoded data has been normally output in the output means. Is preferred.
[0021]
According to this configuration, the user is notified of the decoding determination result as to whether the decoding process has been performed normally and / or the output determination result as to whether the decoded data has been output normally. Or you can check the output result. It should be noted that the notification method may be a method of visually notifying the user by display or a method of audibly notifying the user by sound (beep sound or the like).
[0022]
The image reader system of the present invention is an image reader system configured by the image reader described above and a host computer that receives image data transmitted from the image reader. It is characterized by comprising any one of an image data storage unit, a decoding unit, a decoded data storage unit, an output instruction unit, an output unit, a determination unit, and a notification unit.
[0023]
According to this configuration, since various processes and the like are performed on the host computer side, high-speed processing can be performed, and at the same time, correspondence with new symbols and data of a predetermined standard (such as OCR data) is determined on the host computer side. It can be easily performed only by rewriting the software. In addition, since the image reader does not need to perform a decoding process or the like, the control configuration of the image reader can be simplified, and it is possible to manufacture the image reader at low cost.
[0024]
In this case, it is preferable that the host computer further includes image display means for displaying an image read by the reading means.
[0025]
According to this configuration, since the read image is displayed, the user can perform the reading operation while checking the image. Therefore, the target reading position can be accurately adjusted to the image to be read.
[0026]
In these cases, it is preferable that the host computer has a POS application and performs accounting based on the image data transmitted from the image reader.
[0027]
According to this configuration, the present invention can be used in a so-called POS terminal having a POS application. Therefore, it is possible to provide a POS terminal using an image reader that can eliminate the displacement of the reading position.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an image reader, an image reader system, and an image reader control method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. The image reader of the present invention outputs the image data based on the image read several frames before, retroactively from the time when the user instructed the output, thereby accurately determining the image at the reading position or reading timing desired by the user. It can be output. Further, even when an image output instruction is issued by pressing the trigger switch, the image read before the output instruction is output, so that the influence of camera shake is eliminated and the deviation of the reading position can be further eliminated.
[0029]
Accordingly, a POS system provided with an image reader that reads bar codes (one-dimensional code and two-dimensional code) and other images and used in stores such as supermarkets and convenience stores will be described below as an example.
[0030]
As shown in FIG. 1, a POS system 1 according to the present invention includes a plurality of POS systems that acquire accounting information (hereinafter, referred to as “POS data”) by reading a bar code mainly attached to a product by an operator (user). Is connected to the POS terminal 10 via a network (LAN) 160 and manages input information input to the POS terminal 10. And a POS server 170.
[0031]
The POS server 170 has, in addition to the control device (CPU) 171, memories such as a ROM 173 and a RAM 174 and various masters 175. Based on input information transmitted from the POS terminal 10, a product code, a product name, Information on the amount of money is extracted, and merchandise data used for printing on the receipt 61 (see FIG. 2) and displaying on the display 42 of the POS terminal 10 is generated. The “product data” is data that is a source of print data generated by the POS terminal 10 and includes information such as a product name printed on the receipt 61 and the amount of the product.
[0032]
In addition, the POS server 170 acquires, from the POS terminal 10, image information on an image read by the image reader 20 in addition to the above input information, and also manages the image information. The image information includes, for example, image data obtained by reading a license or the like, and text data obtained by reading characters and numbers such as a member number, and is used for customer management and the like.
[0033]
On the other hand, the POS terminal 10 includes an image reader 20 that reads a one-dimensional code, a two-dimensional code, and other images, performs image processing of image data transmitted from the image reader 20, and has a POS application 280. A host computer 40 that performs accounting processing such as generating print data to be printed on the receipt 61 by referring to the product data transmitted from the server 170, and a printing device 50 that prints on the receipt 61 based on the print data. (Receipt printer) and are connected to each other via connectors 46, 53, 54 (see FIG. 2).
[0034]
The host computer 40 acquires input information such as product information on the product by inputting with the keyboard 43 or reading a barcode with the image reader 20. Further, the credit card (magnetic card) of the customer is read by the card reader 45 to obtain information on credit settlement. Further, it has a display 42 for displaying merchandise information generated based on the merchandise data transmitted from the POS server 170, and presents the price of the purchased merchandise to the customer.
[0035]
The host computer 40 is controlled by an OPOS (OLE for Retail POS) object 260 that runs on an OS 230 such as Windows (registered trademark). The OPOS object 260 provides the POS application 280 with a model-independent interface with peripheral devices such as the image reader 20 and the printing apparatus 50. The OPOS object 260 includes a control object (CO) 261 and a service object (CO). SO) 262.
[0036]
The CO 261 is an object provided for each device class such as the image reader 20 and the printing device 50, and controls an interface with the POS application 280. The SO 262 is an object provided for each device model, and controls each device via the OS 230. Therefore, the image data (POS data) transmitted from the image reader 20 is transferred to the SO 262 corresponding to the model of the image reader 20 via the OS 230, and is transferred from the SO 262 to the CO 261 for the image reader 20. Then, when the image data is delivered from the CO 261 to the POS application 280, the accounting process is executed. The OPOS object 260 is provided to the user together with the image reader driver 240 (see FIG. 8) in a form in which the CO 261 and the SO 262 are combined.
[0037]
The printing device 50 is an inkjet printer that performs printing by an inkjet method, and includes a printing unit 51 having six inkjet heads. These inkjet heads 55 eject full-color printing by ejecting M (magenta), C (cyan), Y (yellow), LM (light magenta), LC (light cyan), and K (black) inks, respectively. It is configured to be able to.
[0038]
Next, the device configuration of the POS terminal 10 will be described with reference to FIG. FIG. 1A is a front perspective view of the POS terminal 10 as viewed from an operation side by an operator, and FIG. 2B is a rear perspective view of the POS terminal 10 as viewed from a customer. As shown in both figures, the POS terminal 10 includes a host computer 40 which forms a main part by a box-shaped main body case 48, an image reader 20 connected thereto via a cable 33, and a rear left side of the main body case 48. And a printing device 50 arranged in the printer.
[0039]
The host computer 40 has a keyboard 43 on the front upper surface of the main body case 48 for an operator to input product information and price, and an operator display 42a for the operator to confirm input information on the rear right side. Houses a cash drawer 49. The right side surface of the main body case 48 is provided with a main body side interface 47 for connecting to the image reader 20 for reading an image such as a bar code attached or printed on a product. A card reader slot 45 for reading the presented credit card is formed. Further, on the back side of the main body case 48, a customer display 42b for a customer to check product information and the like is arranged. The image read by the image reader 20 is displayed on the operator-side display 42a, and the operator performs an imaging operation while checking the image.
[0040]
Further, the image reader 20 has a cable attachment port 32 (see FIG. 3B) formed at the lower end of the gripping portion 24, and a cable 33 and a host-side interface 47 provided in the host computer 40. They are connected via a connector 46 (detailed device configuration will be described later).
[0041]
The printing device 50 has an operation display lamp 65 and a printing device interface 51 on its front side. The printing device interface 51 and the host interface 52 provided in the host computer 40 are connected to each other by a cable. 63 and connectors 53 and 54. On the upper surface of the printing device 50, a receipt outlet 64 for discharging the printed receipt 61 is formed.
[0042]
Here, the device configuration of the image reader 20 will be described in detail with reference to FIGS. FIG. 3A is a plan view of the image reader 20 as viewed from the side, and FIG. 3B is a plan view of the image reader 20 as viewed from the back. FIG. 4A is an external perspective view of a state in which the tip (second hood) of the hood is removed from the main body, and FIG. 4B is a diagram illustrating the tip of the hood (second hood) attached to the main body. It is an external appearance perspective view in the state where it was mounted. FIG. 5 is a perspective view of the image reader 20 as viewed from the side, and FIG. 6 is an enlarged perspective view of the illumination block 73.
[0043]
As shown in these drawings, the image reader 20 includes an apparatus main body 21 and a hood (abutting member) 22 formed so as to protrude from the apparatus main body 21. (See FIG. 5) by contacting the object support 12 on which is mounted or affixed (see FIG. 5).
[0044]
The apparatus main body 21 is made of a plastic material or the like and has a hollow structure, and has a holding part 24 that is held by a user (operator) with one hand, and an imaging unit housing part 23 in which the imaging unit 70 is housed. Inside, a circuit board 76 on which circuit components are mounted is housed. The gripping part 24 is formed integrally by fitting a front case 24a and a rear case 24b, and a decoding result and an output result of the read image (both are processed by the host computer 40) are formed on the upper part of the rear case 24b. ) Based on the light color.
[0045]
In addition, a cable attachment port 32 is formed in a lower portion of the rear case 24b, and is connected to a host-side interface 47 via a cable 33 and a connector 46 (see FIG. 2A). Further, four recesses 29 are formed on the front side of the front case 24a, and the user's forefinger to little finger are accommodated in the recesses 29 in order from the upper side. Further, a trigger switch 28 for instructing imaging is formed in the uppermost concave portion 29, and the trigger switch 28 is pressed with the index finger of the user. As described above, by storing the trigger switch 28 inside the outer contour line of the apparatus main body 21, it is possible to prevent the switch from being turned on due to the apparatus main body 21 falling down or falling. Further, a through hole 30 for screwing to the rear case is formed in the lowermost concave portion 29.
[0046]
The hood 22 has a first hood (a first abutting member) 25 integrally formed with the apparatus main body 21 and a second hood (a second abutting member) 26 which is configured to be detachable therefrom. The imaging distance L (the distance from the imaging lens 71a to the imaging object 15: see FIG. 5) can be adjusted in two stages depending on whether or not the second hood 26 is attached. The adjustment of the imaging distance L is performed according to the size and the definition of the imaging target object 15, and details thereof will be described later.
[0047]
Each of the first hood 25 and the second hood 26 is made of a plastic material having translucency (transparent or translucent), and the user can position the imaging target 15 while checking the imaging target 15 through the hood 22. I can do it. In addition, since external light can be taken in, the imaging target 15 can be imaged more clearly.
[0048]
Also, the first hood 25 has a U-shaped recessed portion 25a at the distal end thereof, and a second hood is inserted into an insertion slit (not shown) formed around the recessed portion 25a. When the peripheral edge of the convex portion 26a formed on the rear end side of the 26 is mounted, a microswitch (not shown) arranged near the concave position 25a detects this, and specifies the imaging distance L (first imaging distance). L1: See FIG. 9 (a)). When the second hood 26 separates, it is determined that the imaging distance L has changed (shortened), and the imaging distance L2 is specified (second imaging distance L2: see FIG. 9B). As described above, the image reader 20 of the present embodiment can specify the imaging distance L more reliably and quickly with a simple structure that only detects the attachment / detachment of the second hood 26. Note that the center of the concave position 26a is slightly depressed, and functions as a finger hook for attaching and detaching.
[0049]
When the second hood 26 is detached, the power is automatically turned on. In other words, the user detaches the second hood 26 from the first hood 25 when it is considered that the user wants to image the imaging target 15 with higher definition. For example, the power supply operation by such as can be omitted.
[0050]
An imaging unit 70 is housed in the imaging unit housing unit 23. The imaging unit 70 includes a lens block 71 including a lens 71a, a diaphragm and a filter (both not shown), and an imaging block that captures an image of the imaging target 15. 75, an illumination block 73 for irradiating the imaging object 15 with illumination light, and a surface cover 74 formed of a transparent acrylic resin plate or a glass plate for blocking obstructions such as dust. .
[0051]
As the lens block 71, an imaging lens 71a having a depth of field corresponding to two types of imaging distances L that vary depending on the presence or absence of the second hood 26 is used, and a filter 71b that attenuates and removes unnecessary infrared light is used. The imaging lens 71a and the filter 71b are integrally formed.
[0052]
The imaging block 75 includes an imaging sensor (reading unit) 75a that detects reflected light from the imaging target 15, and the imaging sensor 75a periodically (15 frames per second in the present embodiment) outputs an image. Is being read. The imaging sensor 75a uses an area sensor, and can read any two-dimensional image including one-dimensional codes and two-dimensional codes. Note that a CCD (Charge-Coupled Devices) is used as an imaging element (photoelectric conversion element), but a CMOS (Complementary Metal-Oxide Semiconductor) having low power consumption may be used instead.
[0053]
As shown in FIGS. 5 and 6, the illumination block (illumination member) 73 includes a plurality of LEDs 73 a, an LED support 73 b on which the plurality of LEDs 73 a are provided, and a linear light from the illumination block 73 to the imaging target 15. The light from the LED 73a is uniformly diffused by the diffusion plate 73c arranged on the road. Further, on the LED support 73b, the twelve LEDs 73a are uniformly arranged around the imaging lens 71a while suppressing the illumination intensity per one. Thereby, even when the object having a glossy surface is irradiated, it is possible to eliminate the problem that a part of the image obtained by reflecting the illumination light becomes completely white (saturated state).
[0054]
In the lighting block 73, when the host computer 40 determines that the image periodically read by the imaging sensor 75a is a specific image (for example, a one-dimensional code or a two-dimensional code), the user presses the trigger switch 28. Until the lighting is done. For this reason, the user can save the trouble of performing the operation for irradiating the illumination light. Further, the illumination light irradiates the target reading position, so that the user can accurately confirm the reading position.
[0055]
By the way, although the details will be described later, in the present embodiment, an image read several frames before (for example, three frames before) from the time when the user pressed the trigger switch 28 is output. Therefore, when the user presses the trigger switch 28, the image to be output has already been read, and there is no need to emit illumination light. Therefore, irradiation of the illumination light is stopped in order to avoid wasteful power consumption and to notify the user that the push button of the trigger switch 28 has been recognized.
[0056]
Next, a control configuration of the image reader 20 and the host computer 40 will be described with reference to a control block diagram of FIG. The image reader 20 includes an imaging lens 71 a for imaging reflected light from the imaging target 15, an imaging sensor 75 a (CCD) for imaging the imaging target 15, image reading (imaging), and the host computer 40. A control unit 80 for transmitting data to the CPU, a trigger switch 28 for a user to instruct an image output (imaging), an LED display unit 31 for displaying a decoding result and an output result of the read image in a light color, A buzzer 86 for notifying the user that the output processing has been normally performed by a beep sound is connected to the control unit 80, and monitors and controls the trigger switch 28, the LED display unit 31, and the buzzer 86. And an I / O (input / output) port 85.
[0057]
The control unit 80 drives a CCD 75 a and converts the analog image data output from the CCD 75 a into digital image data. The CCD-DSP (Charge-Coupled Devices Digital Signal Processor) 81 converts the image data into JPEG format. A JPEG conversion circuit (data compression means) 82 for converting data into data and compressing the data to about 1/10, a USB interface (USB1.1) 84 for transmitting the compressed image data to the host computer 40, A RAM 83 used as a buffer memory when transferring image data via the USB interface.
[0058]
On the other hand, the host computer 40 stores an operator's display 42 a for the operator to confirm input information and the like, a keyboard 43 for inputting the input information and the amount, etc. A cash drawer 49 that is opened based on the information, a printing device 50 that prints product information and the amount of money on a receipt 61, a customer display 42b that displays the amount of money to a customer, and a control unit 110 that controls these. It is configured. The host computer 40 is connected to a POS server 170 via a network (LAN) 160, and transmits input information to the POS server 170 and receives product data (see FIG. 1). ).
[0059]
The control unit 110 has a CPU 120 for controlling the entire host computer 40, a ROM 130 for storing control data including control programs and various tables processed by the CPU 120, and various work areas, and is used as a work area for control processing. RAM 140 and an IOC (Input Output Controller) 150 that outputs output data and control signals output from the CPU 120 and the like to each unit and inputs input data and control signals from each unit. It controls decompression processing and decoding processing of the transmitted image data.
[0060]
Here, an image processing method controlled by the control unit 110 of the host computer 40 will be described with reference to FIG. As shown in the figure, image data transmitted from the image reader 20 via the USB interface (USB 1.1) 84 is adapted to the OS 230 such as Windows (registered trademark), and between the image reader 20 and the image data. The image data or the decoded data is transmitted to the POS application 280 via the image reader driver 240 having the image data and the decoding library 250 for performing the decompression processing and the decoding processing of the image data. The decoding library 250 can be configured to include the character recognition library 251. In this case, the decoded data includes text format data.
[0061]
As described above, according to the present invention, by transmitting image data via the USB interface 84, high-speed transfer of image data can be performed, and the processing speed can be improved. Furthermore, since the compressed data (image data) compressed by the JPEG conversion circuit 82 (see FIG. 7) of the image reader 20 is transferred, the data transfer can be performed at a higher speed. In the present embodiment, USB 1.1 is used as the USB interface 84, but an interface capable of higher-speed transfer, such as USB 2.0, may be used. In this case, the JPEG conversion circuit 82 of the image reader 20 and the compression / decompression processing in the decode library 250 may be omitted. According to this configuration, the device configuration can be further simplified.
[0062]
Further, the image reader driver 240 and the decode library 250 are provided to the user in a state of being stored on one recording medium. With this configuration, the user can easily and quickly perform installation on the host computer 40. As a recording medium, a CD-ROM, a flash ROM, a memory card (compact flash (registered trademark), smart media, a memory stick, or the like), a compact disk, a magneto-optical disk, a digital versatile disk, a flexible disk, or the like can be used. it can.
[0063]
The transmission path includes a first path for directly transmitting image data (that is, data of an image itself before being decoded by the decode library 250; hereinafter, also referred to as image format data) to the POS application 280; There are three types of routes: a second route for transmitting the completed data directly to the POS application 280, and a third route for transmitting the decoded data to the POS application 280 via the OPOS object 260 and the OPOS interface 290. Which path is used for transmission is determined as follows by the transmission path selecting means 281 of the POS application 280.
[0064]
In the case of the POS application 280 conforming to the OPOS standard, when the POS application 280 acquires decoded data conforming to the OPOS standard, the POS application 280 calls the OPOS object 260 via the OPOS interface 290, and the OPOS object 260 Call 250 decoded data acquisition API (Application Program Interface). When the POS application 280 acquires decoded data that does not conform to the OPOS standard, the POS application 280 directly calls the decoded data acquisition API of the decode library 250 without passing through the OPOS interface 290 or the OPOS object 260. Further, when acquiring the image data, the POS application 280 directly calls the image data acquisition API of the decode library 250 without passing through the OPOS interface 290 or the OPOS object 260.
[0065]
On the other hand, in the case of the POS application 280 that does not conform to the OPOS standard (in the case of an application with a unique specification), when the POS application 280 acquires the decoded data, whether the decoded data conforms to the OPOS standard Regardless of whether or not it is determined, the decoded data acquisition API of the decode library 250 is directly called. When acquiring image data, the POS application 280 directly calls the image data acquisition API of the decode library 250.
[0066]
As described above, according to the image processing method of the present invention, since the decoding process of the image data is performed by the decoding library 250 incorporated in the host computer 40, high-speed processing is enabled, and new symbols and predetermined symbols can be set. It is possible to easily deal with data (such as OCR data) of an unspecified standard only by rewriting (changing) the decode library 250. On the other hand, the image reader 20 does not need to perform the decoding process, so that the control configuration can be simplified, and thus the image reader 20 can be manufactured at low cost.
[0067]
In addition, since data conforming to the OPOS standard is transmitted to the POS application 280 via the OPOS object 260, the POS application 280 (for example, a barcode reader or the like) which has been used conventionally can be changed by changing the service object (SO layer). The POS application used when connected and used) can be used as it is.
[0068]
In addition, the POS application 280 can capture not only decoded data but also image data that has not been decoded into the POS application 280.
[0069]
Next, a method for detecting an imaging distance and a method for correcting distortion of the image reader 20 will be described with reference to FIGS. As shown in FIGS. 9 and 10, the image reader 20 of the present invention includes a first imaging distance L1 when the second hood 26 is mounted (see FIG. 9A) and a first imaging distance L1 when the second hood 26 is detached. The imaging distance L can be changed to any of the two imaging distances L2 (see FIG. 3B).
[0070]
The user selects one of the imaging distances L in accordance with the size and type (definition) of the imaging target object 15. For example, when reading a wide one-dimensional code, the first imaging distance L1 having a wide imaging range is selected. When reading a high-definition two-dimensional code, imaging is preferably performed at the second imaging distance L2 having a narrow imaging range. That is, when a high resolution is not required or when a large image capturing target 15 is read, the imaging range can be widened by attaching the second hood 26. When reading the high-definition imaging object 15, the imaging distance L can be shortened by removing the second hood 26 to improve the apparent resolution (enlarge the image projected on the imaging sensor 75a). it can. For this reason, it is possible to image from the wide imaging object 15 to the high-definition imaging object 15 via the same imaging lens 71a.
[0071]
The image reader 20 transmits information on the presence or absence of the second hood 26 detected by a detection sensor such as a microswitch to the host computer 40, and the host computer 40 specifies the imaging distance L based on this information. Then, based on this information, the decode library 250 (see FIG. 8) corrects the distortion of the output image of the imaging sensor 75a based on the three-dimensional displacement between the imaging lens 71a and the imaging object 15.
[0072]
Here, the distortion correction method will be described in detail. When the imaging object 15 is imaged, when the imaging lens 71a and the imaging object 15 are in a parallel surface positional relationship, there is no three-dimensional displacement, and no distortion occurs in the output image (FIG. 9). reference). However, since the user grips the image reader 20 and captures the image of the imaging target 15 in a state where only the tip of the first hood 25 or the second hood 26 is in contact with the target support 12, the gripping part 24 is The image is displaced in the up-down direction or the left-right direction, and accordingly, the output image is distorted (see FIG. 10).
[0073]
Therefore, in order to obtain an output image without distortion as shown in FIG. 9, distortion is corrected by the decode library 250. Specifically, for example, in the case of a two-dimensional code (QR code) as shown in FIG. 9B, the degree of distortion is determined based on the degree of distortion of the prescribed pattern (rectangular square). When the two-dimensional code of the imaging target 15 is a Maxi code as shown in FIG. 10A, the degree of distortion is determined based on the degree of distortion of the circular prescribed pattern arranged at the center of the pattern. However, since the correction amount changes when the imaging distance L is different even for the same degree of distortion, highly accurate correction can be performed by detecting the imaging distance L and using this as a parameter.
[0074]
The distortion correction formula for correcting the distortion is as shown in FIG. 11B. By substituting the imaging distance L (the distance from the imaging lens 71a to the imaging object 15) into the variable Z, XY is obtained. Correction of coordinates can be performed. Note that a distortion correction table may be stored instead of the distortion correction formula (correction program), and the XY coordinates may be corrected according to the imaging distance L. According to this configuration, the distortion of the image data can be easily corrected only by referring to the table.
[0075]
As described above, since the image reader 20 of the present invention detects the imaging distance L depending on whether or not the second hood 26 is attached, it is possible to more accurately and reliably detect the imaging distance L. In addition, since the imaging distance L can be adjusted with a simple configuration in which only the second hood 26 is mounted, adjustment and detection of the imaging distance L can be performed at lower cost than when a distance sensor or the like is used. Can be. Furthermore, since the imaging range can be changed by adjusting the imaging distance L, imaging can be performed from a high-resolution imaging object 15 (such as a two-dimensional code) to a wide imaging object 15 (such as a wide barcode). It is possible to enlarge the range of the target object.
[0076]
In the above example, the image sensor 75a is configured by one area sensor. However, two sensors, a linear sensor and an area sensor, may be provided as the image sensor 75a. In this case, when the second hood 26 is attached, an image may be taken by a linear sensor, and when the second hood 26 is not attached, an image may be taken by an area sensor. According to these configurations, when the second hood 26 is mounted, the imaging distance L becomes longer, so that the imaging object 15 (a large-sized object used in the FA field or the distribution field) that is wider using the linear sensor is used. Size barcode). Further, when the second hood 26 is not mounted, the imaging distance L becomes short, so that it is possible to image the imaging object 15 (such as a two-dimensional code) with high definition using the area sensor. That is, by performing imaging using an appropriate imaging sensor 75a corresponding to the imaging distance L, the range of the target that can be imaged can be expanded.
[0077]
In this case, the determination as to which of the linear sensor and the area sensor is to be used for image sensing is made regardless of whether the second hood 26 is attached or not, by a user's instruction (such as pressing a switch corresponding to one of the two hoods). Or may be determined by the imaging target 15 (one-dimensional code or two-dimensional code).
[0078]
Next, an image reading method and an image output method in the image reader 20 will be described with reference to FIGS. FIG. 12 shows the flow of data from the image reader driver 240 to the decode library 250 in the host computer 40. As shown in FIG. 12, the data is transmitted via the USB interface 84 of the image reader 20 and the image reader driver 240. The image data acquired in this way is temporarily stored in a main memory 310 having N frame buffers, and then stored in a decoding buffer 252 to perform a decoding process.
[0079]
Then, when the user presses the trigger switch 28 of the image reader 20, the decoded data stored in the decoding buffer 252 is output as an output image. Therefore, in the case of the present embodiment in which image reading of 15 frames is performed per second, image data based on an image read about 2 to 5 frames ago is output, for example.
[0080]
Therefore, the image output process will be described step by step with reference to the flowcharts of FIGS. FIG. 13 shows a processing sequence in the image reader driver 240. After initialization (S1), the frame buffer pointer 1 points to the first frame buffer 1 in the main memory 310 (S2). When one frame of image data is transmitted via the USB interface 84, the image data is written (stored) in the frame buffer indicated by the frame buffer pointer 1 (S3). After that, the buffer pointed by the frame buffer pointer 1 is incremented to frame buffer 2, frame buffer 3,... Frame buffer N, and the frame buffer N is returned to the frame buffer 1 (S4).
[0081]
Next, FIG. 14 shows a processing sequence in the decode library 250. After initialization (S11), the frame buffer pointer 2 points to the first frame buffer 1 in the main memory (S12), and the display LED 31 (see FIG. 3B) on the back side of the apparatus main body 21 It emits red light (S13).
The image data in the frame buffer indicated by the frame buffer pointer 2 is read and copied to the decoding buffer 252 (S14).
[0082]
The image data stored in the decoding buffer 252 is decompressed by the decoding library 250 (S15), and when the decompression processing result is a specific image (here, a barcode) (S16: Yes), The LED 73a for illumination (see FIG. 6) is turned on, and the reading position is irradiated with illumination light (S17). On the other hand, when the specific image is not detected (S16: No), the reading of the image is periodically repeated, and the display red LED 31 is kept on (S13).
[0083]
The image data stored in the decoding buffer 252 is copied to a display buffer (not shown), and the image data in the display buffer is displayed on the operator display 42a (see FIG. 2). The user gives an image output instruction (presses the trigger switch 28) while checking the operator display 42a. The decoded data stored in the decoding buffer 252 is stored until the decoding of the next image data is completed, and is overwritten and erased when the decoding of the next image data is completed.
[0084]
After turning on the illumination LED 73a (S17), if the user does not detect the push button of the trigger switch 28 (S23: No), the image data in the frame buffer indicated by the frame buffer pointer 2 is read and decoded. Copying to the buffer 252 is continued (S18). The image data stored in the decoding buffer 252 is decompressed and decoded by the decoding library 250 (S19). If decoding is successful (S20: Yes), the display LED 31 emits green light (S20). S22). That is, the green LED 31 notifies the user that the decoding process has been performed normally.
[0085]
On the other hand, if the decoding process has not been performed normally (S20: No), the illumination LED 73a is turned off (S21), and the display LED 31 emits red light (S13). That is, the red LED 31 notifies the user that the decoding process has not been performed normally. When red or green is displayed on these display LEDs 31, the user may be notified of the status of the decoding process simultaneously with a beep sound or voice. According to this configuration, the user can visually and audibly check the status of the decoding process.
[0086]
Next, it is determined whether or not the trigger switch 28 has been pressed by the user. If the trigger switch 28 has been pressed (S23: Yes), the illumination LED 73a is turned off (S24), and the trigger event is sent to the POS application. 280 is notified (S25), and a buzzer is sounded to indicate to the user that the image output processing has been normally performed (S26). The image output at this time is decoded data stored in the decoding buffer 252. Therefore, an image read several frames earlier than when the trigger switch 28 is pressed is output. However, when the user proceeds with the operation while checking the operator display 42a, the image is displayed on the screen. The image becomes closer to the image at the time of confirmation.
[0087]
In other words, when an image is read at the time when the user gives an output instruction, the target reading position of the image reader 20 may be shifted from the image to be read. Since the image data of the read image is output, the image can be read at a reading position desired by the user.
This configuration reads an image in a state in which the user grips the grip portion 24 (a state in which the user is not standing still) even if the image is a still image. It is valid. Further, when the imaging target object 15 is not a stationary object (for example, in the case of a moving image), a difference between an image conscious of the user and an output image due to a shift in reading timing appears remarkably. be able to.
[0088]
After the image output process is performed normally and the trigger event is notified to the POS application 280 (S25), the display LED 31 emits red light again (S13), and the detection of the specific image (here, a barcode) is detected. wait. When the trigger switch 28 is not pressed while the display LED 31 is emitting green light (S23: No), the decoding buffer is sequentially started from each frame buffer in the main memory 310 while the LED 31 is displayed in green. 252, the image data is copied, and the decoding process is continued (S18 to S22).
[0089]
In the above example, a barcode is taken as an example of a specific image, but the type of barcode is limited (one-dimensional code, two-dimensional code, specific code, or the like), and illumination light is emitted. You may do it. Further, the illumination light is not limited to the barcode, and may be illuminated when a specific pattern corresponding to the application is detected.
[0090]
Next, FIG. 15 shows a processing sequence in the POS application 280. After the initialization (S41), if a trigger event occurs (S42: Yes), a decoding result (decoded data) is obtained from the decoding library 250 (S43). Then, processing corresponding to the decoding result (for example, when the decoding result is a product code, transmitting this to the POS server 170 or generating print data for creating the receipt 61) is performed. Perform (S44).
[0091]
As described above, according to the image output method of the present invention, the image data based on the image read several frames before is output retroactively from the time when the user gives the output instruction. ) (The image confirmed on the operator display 42a) can be output accurately. Further, in the case of the present embodiment, the output instruction is performed by the push button of the trigger switch 28, but the influence of the camera shake by the push button of the trigger switch 28 is eliminated, so that the deviation of the reading position can be further eliminated.
[0092]
Further, at the time when the output instruction is given by the user, the decoded data stored in the decoding buffer 252 is output, so that the output processing is performed more quickly than in the case where the decoding processing is performed after the output instruction. be able to.
[0093]
Further, when it is determined that the read image is a specific image, the reading position to be a target of the image reader 20 is irradiated with the illumination light, so that the user can accurately read the image without performing the operation for applying the illumination light. You can check the position. Further, by irradiating the illumination light, clear image data can be output.
[0094]
As described above, according to the image reader, the image reader system, and the image reader control method of the present invention, since the host computer 40 performs the decoding processing of the image data, high-speed processing becomes possible, Correspondence to symbols and data of a predetermined standard (such as OCR data) can be easily performed only by rewriting the decode library 250. Further, by reading an image with the image reader 20, the read image data itself can be taken into the POS application 280.
[0095]
Furthermore, since the image reader 20 does not need to perform the decoding process, the control configuration of the image reader 20 can be simplified, and the image reader 20 can be manufactured at low cost. Also, by changing the service object (SO layer) 262 of the OPOS object 260, the POS application 280 (for example, a POS application used when a barcode reader or the like is connected and used) that has been used conventionally can be used as it is. Can be.
[0096]
In addition, since the decoded data stored at the time when the output instruction is given by the user is output, it is possible to eliminate the deviation of the reading position. Furthermore, since the decoded data that has been subjected to the decoding processing in advance is output, the image output processing can be quickly performed.
[0097]
In the above example, the case where the USB interface 84 is used as the communication interface between the image reader 20 and the host computer 40 has been described as an example. However, a general-purpose serial port such as RS-232C or CMOS interface, and a high-speed serial An IEEE 1394 bus, an infrared interface using no cable, a wireless interface, and the like are also applicable.
[0098]
In the above example, the imaging distance L can be adjusted in two stages depending on whether or not the second hood 26 is attached or detached (see FIG. 9). However, the first hood 25 can accommodate the second hood. Alternatively, the imaging distance L may be adjusted more finely according to the amount of protrusion of the second hood 26. According to this configuration, it is possible to adjust the imaging distance L to a more suitable one according to the size and complexity of the imaging target object 15. In addition, the shape of the hood 22 is not limited to the shape exemplified in the examples, such as a configuration having two wires that can be accommodated in the main body, and a configuration having a tubular or box shape.
[0099]
Further, irrespective of the example of the POS system 1 described above, for example, a system configuration and an apparatus configuration such as a stand-alone type ECR and a cash register which are not connected to the POS server 170 may be appropriately changed without departing from the gist of the present invention. It is possible.
[0100]
In addition to the POS system 1, the present invention can be applied to an information recognition system using an OCR (for example, a recognition system for checking (check), license, license plate, ID card, ticket, etc.). is there. In addition, the present invention provides a system for acquiring, storing, and managing an image itself (management system for a product image, a photograph of a customer's face, a hairstyle, an affected part, and the like), and a biometrics (a face authentication device). It is applicable in various fields.
[0101]
【The invention's effect】
As described above, according to the image reader, the image reader system, and the image reader control method of the present invention, the image data based on the image read several frames before is output retroactively from the time when the user gives the output instruction. Therefore, there is an effect that an image at a reading position or a reading timing desired by the user can be accurately output.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an example of a POS system of the present invention.
FIG. 2 is an external perspective view of a POS terminal constituting the POS system of the present invention.
FIG. 3 is a plan view of the image reader of the present invention as viewed from the side and back.
FIG. 4 is an external perspective view of the image reader of the present invention.
FIG. 5 is a perspective view of the image reader of the present invention as viewed from the side.
FIG. 6 is an enlarged perspective view of a lighting block in the image reader of the present invention.
FIG. 7 is a control block diagram of the image reader and the host computer of the present invention.
FIG. 8 is an explanatory diagram showing a control configuration in a control unit of the host computer of the present invention.
FIG. 9 is a diagram showing an image reader of the present invention and its imaging range.
FIG. 10 is a diagram showing an image reader of the present invention and distortion of an output image thereof.
FIG. 11 is a diagram illustrating an example of an imaging target object and a distortion correction formula.
FIG. 12 is an explanatory diagram illustrating writing / reading of image data in an image reader driver and a decode library of the host computer of the present invention.
FIG. 13 is a flowchart showing a processing sequence in the image reader driver of the present invention.
FIG. 14 is a flowchart showing a processing sequence in the decode library of the present invention.
FIG. 15 is a flowchart showing a processing sequence in the POS application of the present invention.
[Explanation of symbols]
REFERENCE SIGNS LIST 1 POS system 10 POS terminal 12 object support 15 imaging object 20 image reader 21 device main body 22 hood 23 imaging unit housing 24 gripping part 25 first hood 26 second hood 28 trigger switch 31 LED display unit 40 host computer 50 Printing storage 70 Imaging unit 71 Lens block 71a Imaging lens 73 Illumination block 75 Imaging block 75a Imaging sensor 160 LAN
170 POS server 240 Image reader driver 250 Decoding library 260 OPOS object 280 POS application

Claims (13)

定期的に画像を読み込む読込手段と、
前記読込手段によって読み込んだ画像に基づく画像データの出力を指示する出力指示手段と、
前記出力指示手段による指示時点から遡って、数フレーム前に読み込んだ前記画像に基づく画像データを出力する出力手段と、を備えたことを特徴とするイメージリーダ。
Reading means for periodically reading images,
Output instructing means for instructing output of image data based on the image read by the reading means,
An output unit that outputs image data based on the image read several frames before the time point instructed by the output instruction unit.
定期的に画像を読み込む読込手段と、
読み込んだ画像データを、読込順に記憶する画像データ記憶手段と、
前記画像データ記憶手段に記憶された画像データを順次読み出し、デコード処理するデコード手段と、
前記デコード処理済みのデータであるデコード済みデータを、続く画像データのデコード処理が完了するまで記憶するデコード済みデータ記憶手段と、
前記画像データの出力を指示する出力指示手段と、
前記出力指示手段による指示時点において、前記デコード済みデータ記憶手段に記憶されているデコード済みデータを出力する出力手段と、を備えたことを特徴とするイメージリーダ。
Reading means for periodically reading images,
Image data storage means for storing the read image data in the reading order;
Decoding means for sequentially reading the image data stored in the image data storage means and performing a decoding process;
Decoded data storage means for storing decoded data, which is the decoded data, until decoding of the subsequent image data is completed;
Output instructing means for instructing output of the image data,
An output unit for outputting decoded data stored in the decoded data storage unit at the time of the instruction by the output instruction unit.
前記読込手段のターゲットとなる読取位置に照明光を照射する照明手段と、
前記読込手段によって読み込んだ画像が、特定画像であるか否かを判別する判別手段と、を更に備え、
前記判別手段によって、読み込んだ画像が前記特定画像であると判断したとき、前記照明手段は、前記読取位置に前記照明光を照射することを特徴とする請求項2に記載のイメージリーダ。
Illuminating means for irradiating a reading position to be a target of the reading means with illumination light,
Determining means for determining whether the image read by the reading means is a specific image,
The image reader according to claim 2, wherein when the determination unit determines that the read image is the specific image, the illumination unit irradiates the illumination light to the reading position.
前記照明手段は、前記判別手段により、読み込んだ画像が前記特定画像であると判断した時点から前記出力指示手段による指示時点まで、前記照明光を照射することを特徴とする請求項3に記載のイメージリーダ。4. The illumination device according to claim 3, wherein the illumination unit irradiates the illumination light from a point in time when the determination unit determines that the read image is the specific image to a point in time specified by the output instruction unit. Image reader. 前記特定画像は、バーコードであることを特徴とする請求項3または4に記載のイメージリーダ。The image reader according to claim 3, wherein the specific image is a barcode. 前記デコード手段において正常にデコード処理が行われたか否かのデコード判別結果および/または前記出力手段において前記デコード済みデータが正常に出力されたか否かの出力判別結果を報知する報知手段を更に備えたことを特徴とする請求項2ないし5のいずれか1に記載のイメージリーダ。And a notifying means for notifying the decoding result of whether or not the decoding processing has been normally performed in the decoding means and / or the output discriminating result of whether or not the decoded data has been normally output in the output means. The image reader according to any one of claims 2 to 5, wherein: 請求項6に記載のイメージリーダと、前記イメージリーダから送信された画像データを受信するホストコンピュータとによって構成されるイメージリーダシステムにおいて、
前記イメージリーダに代えて、前記ホストコンピュータ側に、前記画像データ記憶手段、前記デコード手段、前記デコード済みデータ記憶手段、前記出力指示手段、前記出力手段、前記判別手段または前記報知手段のいずれかを備えたことを特徴とするイメージリーダシステム。
An image reader system comprising an image reader according to claim 6 and a host computer that receives image data transmitted from the image reader,
Instead of the image reader, any one of the image data storage unit, the decoding unit, the decoded data storage unit, the output instruction unit, the output unit, the determination unit, or the notification unit is provided on the host computer side. An image reader system, comprising:
前記ホストコンピュータは、前記読込手段によって読み込んだ画像を表示する画像表示手段を更に備えたことを特徴とする請求項7に記載のイメージリーダシステム。The image reader system according to claim 7, wherein the host computer further includes an image display unit that displays an image read by the reading unit. 前記ホストコンピュータは、POSアプリケーションを有し、前記イメージリーダから送信された画像データに基づいて会計処理を行うことを特徴とする請求項7または8に記載のイメージリーダシステム。9. The image reader system according to claim 7, wherein the host computer has a POS application, and performs accounting processing based on image data transmitted from the image reader. 10. 定期的に画像を読み込み、ユーザによる画像データの出力指示に基づいて、数フレーム前に読み込んだ前記画像に基づく前記画像データを出力することを特徴とするイメージリーダの制御方法。An image reader control method, comprising: periodically reading an image, and outputting the image data based on the image read several frames before, based on a user's instruction to output image data. 定期的に画像を読み込む読込工程と、
読み込んだ画像データを読込順にデコード処理してデコード済みデータを生成するデコード済みデータ生成工程と、
前記デコード済みデータを、続く画像データのデコード処理が完了するまで記憶するデコード済みデータ記憶工程と、
ユーザによる前記画像データの出力指示が為された時、指示時点において記憶している前記デコード済みデータを出力する出力工程と、を備えたことを特徴とするイメージリーダの制御方法。
A reading process for reading images periodically;
A decoded data generation step of decoding the read image data in the reading order to generate decoded data;
A decoded data storing step of storing the decoded data until decoding of the subsequent image data is completed;
An output step of outputting the decoded data stored at the point in time when an instruction to output the image data is made by a user.
前記読込工程において読み込んだ画像が、特定画像であるか否かを判別する判別工程と、
前記判別工程において、読み込んだ画像が前記特定画像であると判断したとき、ターゲットとなる読取位置に照明光を照射する照明工程と、を更に備えたことを特徴とする請求項11に記載のイメージリーダの制御方法。
A determining step of determining whether the image read in the reading step is a specific image,
12. The image according to claim 11, further comprising an illumination step of irradiating illumination light to a target reading position when it is determined in the determination step that the read image is the specific image. Reader control method.
前記照明工程では、前記判別工程において、読み込んだ画像が前記特定画像であると判断した時点から前記画像データの出力指示が為された時点まで前記照明光を照射することを特徴とする請求項12に記載のイメージリーダの制御方法。13. The illuminating step, wherein the illuminating light is illuminated from a point in time when the read image is determined to be the specific image to a point in time when an instruction to output the image data is issued in the determining step. 3. The method for controlling an image reader according to item 1.
JP2003040345A 2003-02-18 2003-02-18 Image reader, image reader system and method for controlling image reader Withdrawn JP2004252601A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003040345A JP2004252601A (en) 2003-02-18 2003-02-18 Image reader, image reader system and method for controlling image reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003040345A JP2004252601A (en) 2003-02-18 2003-02-18 Image reader, image reader system and method for controlling image reader

Publications (1)

Publication Number Publication Date
JP2004252601A true JP2004252601A (en) 2004-09-09

Family

ID=33024262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003040345A Withdrawn JP2004252601A (en) 2003-02-18 2003-02-18 Image reader, image reader system and method for controlling image reader

Country Status (1)

Country Link
JP (1) JP2004252601A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520249A (en) * 2011-04-29 2014-08-21 ペイラ ベーフェーベーアー Stereoscopic system
CN108805071A (en) * 2018-06-06 2018-11-13 北京京东金融科技控股有限公司 Identity verification method and device, electronic equipment, storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520249A (en) * 2011-04-29 2014-08-21 ペイラ ベーフェーベーアー Stereoscopic system
CN108805071A (en) * 2018-06-06 2018-11-13 北京京东金融科技控股有限公司 Identity verification method and device, electronic equipment, storage medium

Similar Documents

Publication Publication Date Title
US9794392B2 (en) Mobile-phone adapter for electronic transactions
CN102842023B (en) Hybrid-type bioptical laser scanning and imaging system supporting digital-imaging based bar code symbol reading at the surface of a laser scanning window
US9251411B2 (en) Augmented-reality signature capture
CN102831372B (en) Imager reader with hand gesture interface
JP2009251848A (en) Code symbol reading device
JP5368346B2 (en) Portable terminal device
JPH07306907A (en) Data symbol reading device
JP2004252599A (en) Image reader system, recording medium, image reading device and image processing method for pos terminal
JP5256259B2 (en) Product code reading apparatus and product code reading method
JP2004252600A (en) Image reader, its system, and methods for detecting imaging distance and correcting distortion of image reader
JP3020943B1 (en) Portable code reader
JP2019096344A (en) Optical information reading device
WO2006088271A1 (en) Apparatus for stamp type barcode reader
JP2004252601A (en) Image reader, image reader system and method for controlling image reader
JP6148089B2 (en) Optical code scanner, operation method thereof, and purchase transaction processing system
US9361496B2 (en) Apparatus for and method of audibly guiding a user to a selected target from an array of targets
JP2011170536A (en) Character recognition system
JPH0620079A (en) Reflected light detecting module and bar code reader unified with stylus pen using this module
JP2008140033A (en) Code reader and code reading method
JP2010039974A (en) Optical information reader
US11600152B2 (en) Reading device
US20080191026A1 (en) Methods and Apparatus for Swipe or Presentation Image Scanning
WO2009107570A1 (en) Code reader
JP5185239B2 (en) Symbol recognition device and cash register system
JP4048154B2 (en) Handy type two-dimensional image reader capable of changing the reading direction

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509