JP4306075B2 - Image synthesizer - Google Patents

Image synthesizer Download PDF

Info

Publication number
JP4306075B2
JP4306075B2 JP2000023829A JP2000023829A JP4306075B2 JP 4306075 B2 JP4306075 B2 JP 4306075B2 JP 2000023829 A JP2000023829 A JP 2000023829A JP 2000023829 A JP2000023829 A JP 2000023829A JP 4306075 B2 JP4306075 B2 JP 4306075B2
Authority
JP
Japan
Prior art keywords
image
partial
thin line
information
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000023829A
Other languages
Japanese (ja)
Other versions
JP2001216469A (en
Inventor
稔 陶守
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2000023829A priority Critical patent/JP4306075B2/en
Publication of JP2001216469A publication Critical patent/JP2001216469A/en
Application granted granted Critical
Publication of JP4306075B2 publication Critical patent/JP4306075B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、一枚の被読取媒体の情報が複数の部分に分割された情報の部分イメージを収集して、一枚の全体イメージに合成する装置に関する。
【0002】
【従来の技術】
従来、被読取媒体の情報をスキャナ等の読み取り装置で読み取ったイメージは様々な目的、例えばイメージのコンピューター上での処理等に使用されている。また、近年技術進歩が著しい光学式文字読み取り装置(以下OCR(Optical Character Reader)装置と呼ぶ)への入力手段としても用いられている。このOCR装置は、特に金融業においては、各種データの入力作業(データエントリ)のシステム化による省力化、効率化が急務となっているため、技術開発が盛んに行われている。
【0003】
この読み取り装置には、被読取媒体が読み取り装置の光源及び受光素子と接触するかしないかによって、接触型のものと非接触型のものとに分かれる。接触型としては、例えば通常のスキャナがあり、OA機器として広く用いられている。また、非接触型としては、例えばCCDを内蔵したデジタルカメラで撮影するものがある。金融業において帳票の情報を読み取る場合、帳票は厚さが大きく、かさばることが多いため、非接触型のものが便利である。
【0004】
しかしながら、スキャナにおいては、イメージを取り込むことができる被読取媒体の大きさが決まっており、従って、それ以上の大きさの被読取媒体に対しては、複数回に分けて情報のイメージを取り込まなくてはならない。このとき、一回で取り込んだイメージは被読取媒体の部分情報イメージである。しかし、上述のように、例えばOCR装置で文字認識させるためには、全体のイメージとして入力される必要がある。従って、この取り込まれた複数の部分情報イメージを一枚の全体のイメージに合成する必要がある。
【0005】
【発明が解決しようとする課題】
しかしながら、従来、複数の部分情報イメージを一枚の全体のイメージに合成するのを、ソフト上で自動的に行え、かつ全体イメージを、例えばOCR装置等にそのまま使用できるようなイメージ合成装置はなかった。つまり、単に部分イメージを重ね合わせたものであったため、部分イメージのつなぎ目がわかるものであったり、また、OCR装置での文字認識能力が低かった。OCR装置に使用する時には、イメージのつなぎ目が少しでもずれると別の文字に認識されたりして、認識率が下がる。従って、金融機関などのシステムにおいては、信頼性に問題があり、OCR装置に使用できなかった。
【0006】
この発明は、このような点に鑑みなされたものであり、従って、この発明の目的は、OCR装置で高い認識率で認識されうるような精度の高い合成イメージを、ソフト上で自動的に作製することができるイメージ合成装置及びイメージ合成装置に使用する被読取媒体を提供することにある。
【0007】
【課題を解決するための手段】
この目的を達成するため、この発明の第1のイメージ合成装置によれば、情報と照合用の複数の細線とが書き込まれている一枚の被読取媒体から取り込まれた前記情報が複数の部分に分割された部分イメージを、一枚の前記情報の全体イメージに合成するイメージ合成装置が、第1イメージ取り込み部と、第2イメージ取り込み部と、第1イメージ合成処理部と、第2イメージ合成処理部と、イメージ一致判断部とを備えていて、前記第1イメージ取り込み部は、前記被読取媒体の複数の部分分割領域から、前記細線を含む部分イメージを、第1部分イメージとして、それぞれ取り込み、前記第2イメージ取り込み部は、前記部分分割領域から、前記細線以外の前記情報の部分イメージを、第2部分イメージとして、それぞれ取り込み、前記第1イメージ合成処理部は、複数の前記第1部分イメージのそれぞれに含まれる前記細線を含むイメージを利用して、個々の前記第1部分イメージに対して、回転、倍率変化及び平行移動の処理を施すことで、第1全体イメージの合成処理を行い、前記第2イメージ合成処理部は、前記第1イメージ合成処理部と実質的に同じ合成処理の手法に従って、前記第2部分イメージから、第2全体イメージの合成処理を行い、前記イメージ一致判断部は、前記第1全体イメージの合成処理に用いた細線以外の細線同士のズレの大きさを基準にして当該第1全体イメージが一致しているかどうかの判断を行うとともに、
第1イメージ取り込み部と第2イメージ取り込み部とで、取り込むイメージの対象以外は同じ状態を保つように構成することを特徴とする。
【0008】
ここで、情報とは、何らかの目的、例えばOCR認識などに使用するための必要な画像(文字・数字・記号・図形等も含む)のことである。これに対し、細線はこの発明のイメージ合成処理のみに必要なダミー情報なので、ここでいう情報とは異なるものである。複数の部分分割領域とは、一枚の被読取媒体を全く重なることなく分割した領域のことではなく、それぞれの部分分割領域の境界線近くは、被読取媒体の同じ部分を一部重複して含んでいる状態であることを意味する。この発明においては重複した領域をもとにして合成するため、部分イメージ同士が同じ領域のイメージを一部重複して含んでいないとイメージ合成できないからである。また、少なくとも前記細線を含む部分イメージとは、細線のみのイメージの場合と、細線及び情報のイメ−ジの場合がある。また、細線の部分イメージのことを、以下この明細書中では部分細線イメージと略称し、同様に、情報の部分イメージのことを、部分情報イメージと略称する。
【0009】
このような構成であると、一度ではイメージを取り込めない大きな被読取媒体に対しても、あたかも一枚の被読取媒体のイメージを一度で取り込んだのと同等の第2全体イメージを、ソフト上で自動的に形成することができる。また、形成された第2全体イメージには細線イメージは含まれていなく、目的である情報のみのイメージになる。
また、この構成により、一致していると判断する判断基準に達するまで、何度もイメージ合成処理を繰り返すので、精度の良い第1全体イメージが形成できる。
【0010】
また、この発明の実施に当たり、好ましくは、前記細線は、非可視性材料で書き込まれた細線とするのが良い。
【0011】
ここで、非可視性材料とは、可視光線を吸収しないが、紫外光又は赤外光を吸収する材料のことを意味する。細線が非可視性材料で書き込まれていると、被読取媒体上の細線は人間の目には認識されないため、美観を損ねることがない。しかしながら、イメージ合成装置上では認識されるため、イメージ合成のための基準となりうる。
【0012】
また、この発明の実施に当たり、好ましくは、前記第1部分イメージは、前記被読取媒体の複数の前記部分分割領域から、前記細線の部分イメージのみを含むと良い。
【0013】
このような構成であると、第1イメージ合成処理により合成処理を行うときに、部分情報イメージが含まれていなく、部分細線イメージのみを含んでいるので、合成処理を行いやすい。
【0014】
また、この発明の第1のイメージ合成装置における第1及び第2イメージ取り込みは、次のような構成であると良い。
(a)前記第1イメージ取り込みは、前記細線及び前記情報の構成材料が吸収する第1波長の光を放射する光源と、該第1波長の光を感知する受光部とを具え、前記第2イメージ取り込みは、前記情報の構成材料が吸収する第2波長を放射する光源と、該第2波長の光を感知する受光部とを具えている。
(b)前記第1イメージ取り込みは、前記細線の構成材料が吸収する第1波長の光を放射する光源と、該第1波長の光を感知する受光部とを具え、前記第2イメージ取り込みは、前記情報の構成材料が吸収する第2波長を放射する光源と、該第2波長の光を感知する受光部とを具えている。
(c)前記第1イメージ取り込みは、少なくとも前記細線の構成材料が吸収する第1波長の光を放射する光源と、前記細線の構成材料が該第1波長の光を吸収したときに放射する第2波長の光を感知する受光部とを具え、前記第2イメージ取り込みは、前記情報の構成材料が吸収する第3波長を放射する光源と、該第3波長の光を感知する受光部とを具えている。ここで、少なくとも細線の構成材料が吸収するというのは、細線以外に情報の構成材料が吸収しても良いという意味である。
【0015】
(a)の構成を具えることにより、部分細線イメージと部分情報イメージが第1部分イメージとして、及び部分情報イメージが第2部分イメージとして得られ、また、(b)及び(c)の構成を具えることにより、部分細線イメージが第1部分イメージとして、及び部分情報イメージが第2部分イメージとして得られる。
【0016】
また、この発明の第2のイメージ合成装置によれば、情報と照合用の複数の細線とが書き込まれている一枚の被読取媒体から取り込まれた前記情報が複数の部分に分割された部分イメージを、一枚の前記情報の全体イメージに合成するイメージ合成装置が、第1イメージ取り込み部と、第1イメージ合成処理部と、ドロップアウト処理部と、イメージ一致判断部とを備えていて、第1イメージ取り込み部は、前記被読取媒体の複数の部分分割領域から、前記細線を含む部分イメージ、及び前記情報の部分イメージを、第1部分イメージとして、それぞれ取り込第1イメージ合成処理部は、複数の前記第1部分イメージのそれぞれに含まれる記細を含むイメージを利用して、個々の前記第1部分イメージに対して、回転、倍率変化及び平行移動の処理を施すことで、第1全体イメージの合成処理を行ドロップアウト処理部は、前記第1全体イメージから、前記細を含む部分イメージのみをドロップアウトさせて、残存する前記情の部分イメージを第2全体イメージとし、前記イメージ一致判断部は、前記第1全体イメージの合成処理に用いた細線以外の細線同士のズレの大きさを基準にして当該第1全体イメージが一致しているかどうかの判断を行うことを特徴とする
【0017】
ここでドロップアウトするとは、機械のメモリ上からデータを消去することを意味する。
【0018】
このような構成であると、一度ではイメージを取り込めない大きな被読取媒体に対しても、あたかも一枚の被読取媒体のイメージを一度で取り込んだのと同等の第2全体イメージを、ソフト上で自動的に形成することができる。また、第1全体イメージから細線のイメージのみをドロップアウトするため、形成された第2全体イメージは細線イメージは消えて、目的である情報のみのイメージになる。
【0019】
また、この発明の実施に当たり、好ましくは、前記細線は、非可視性材料で書き込まれた細線とするのが良い。
【0020】
細線が非可視性材料で書き込まれていると、被読取媒体上の細線は人間の目には認識されないため、美観を損ねることがない。しかしながら、イメージ合成装置上では認識されるため、イメージ合成のための基準となりうる。
【0021】
また、この発明の第2のイメージ合成装置におけるイメージ取り込み装置は、次のような構成であると良い。
(d)前記細線及び情報の構成材料が吸収する波長の光を放射する光源と、前記波長の光を感知する受光部とを具えている。
【0022】
このような構成を具えることにより、部分細線イメージと部分情報イメージが第1部分イメージとして得られる。
【0023】
また、この発明の第1及び第2のイメージ合成装置における第1イメージ合成処理は次の構成を含んでいると良い。
(a)それぞれの前記第1部分イメージのうち、横方向又は縦方向の任意の前記細線を含む部分イメージがX軸又はY軸と平行になるように、前記第1部分イメージを回転させる第1回転処理部。
(b)それぞれの前記第1部分イメージについて、前記細線を含む部分イメージの対応する細線の判断を行い、該細線間の距離が一致するように、前記第1部分イメージの倍率を変化させる第1倍率変化処理部。
(c)対応する前記細線を含む部分イメージが正しい位置で重ね合うように、前記第1部分イメージを平行移動させる第1平行移動処理部。
【0024】
また、(b)において、前記対応する細線の判断は、被読取媒体への細線の書き込み方によって、次のような方法によって行うと良い。
(1)前記細線を含む部分イメージに含まれる縦又は横方向の細線の本数により、位置関係を認知して判断する。
(2)前記被読取媒体にそれぞれ太さの異なる照合用の前記細線が書き込まれている場合に、前記細線を含む部分イメージに含まれる細線の太さにより判断する。
(3)前記被読取媒体にそれぞれ間隔の異なる照合用の前記細線が書き込まれている場合に、前記細線を含む部分イメージに含まれる細線間の距離により判断する。
【0025】
(1)は、細線が格子状に書き込まれている被読取媒体に対して有効であり、(2)は、細線の太さを変化させて書き込まれた被読取媒体に対して有効であり、(3)は、細線間の距離を変化させて書き込まれた被読取媒体に対して有効である。
【0028】
また、この発明の第1及び第2のイメージ合成装置の実施に当たり、さらに、合成されたイメージの文字認識を行う文字認識処理部を具えていても良い。
【0029】
この構成により、合成された第2全体イメージの文字認識まで行える一体化された装置になる。
【0030】
また、この発明の第1及び第2のイメージ合成装置の実施に当たり、さらに、前記イメージ一致判断部により、前記第1全体イメージが一致していないと判断された場合に、前記第1イメージ合成処理部は、前記第1全体イメージの合成処理に用いた細線以外の細線を用いて、再び第1全体イメージの合成処理を行うことが好ましい。
【0035】
【発明の実施の形態】
以下、この発明の実施の形態について、図面を用いて説明する。なお、図中、各構成成分の大きさ、形状および配置関係は、この発明が理解できる程度に概略的に示してあるにすぎず、また、以下に説明する数値的条件は単なる例示にすぎない。
【0036】
この実施の形態では、イメージ合成装置、イメージ合成装置を用いたイメージ合成方法、及びイメージ合成装置に使用する被読取媒体について、具体的に説明する。
【0037】
この発明のイメージ合成装置としては、第1のイメージ合成装置及び第2のイメージ合成装置があり、それぞれの装置の実施の形態について説明する。図1は第1のイメージ合成装置の実施の形態の構成を示すブロック図であり、及び図2は第2のイメージ合成装置の実施の形態の構成を示すブロック図である。
【0038】
第1のイメージ合成装置は、第1及び第2イメージ取り込み装置10及び12、第1及び第2イメージ合成処理装置14及び16を具え、さらには、イメージ一致判断部18、第1及び第2部分イメージの記憶部20及び22、第1及び第2全体イメージの記憶部24及び26、合成処理の記憶部27を具えている。第1イメージ合成処理装置14は、第1回転処理部28、第1倍率変化処理部32及び第1平行移動処理部36を具えている。第2イメージ合成処理装置16は、第2回転処理部30、第2倍率変化処理部34及び第2平行移動処理部38を具えている。
【0039】
第2のイメージ合成装置は、第1イメージ取り込み装置40、第1イメージ合成処理装置42及びドロップアウト処理装置44を具え、さらには、イメージ一致判断部46、第1部分イメージの記憶部48、第2全体イメージの記憶部50を具えている。第1イメージ合成処理装置42は、第1回転処理部52、第1倍率変化処理部54及び第1平行移動処理部56を具えている。
【0040】
このうち、第1のイメージ合成装置において、マイクロコンピューターで動作させるものは、第1及び第2イメージ取り込み装置10及び12、第1及び第2イメージ合成処理装置14及び16(すなわち、第1及び第2回転処理部28及び30、第1及び第2倍率変化処理部32及び34、第1及び第2平行移動処理部36及び38)、イメージ一致判断部18である。
【0041】
また、第2のイメージ合成装置において、マイクロコンピューターで動作させるものは、第1イメージ取り込み装置40、第1イメージ合成処理装置42(すなわち、第1回転処理部52、第1倍率変化処理部54、第1平行移動処理部56)、ドロップアウト処理装置44、イメージ一致判断部46である。
【0042】
1.イメージ合成装置に使用する被読取媒体の実施の形態(説明1)
まず、この発明のイメージ合成装置に使用する被読取媒体の実施の形態について説明する。
【0043】
この被読取媒体上には、細線が書き込まれている。この細線は、被読取媒体に情報が書き込まれる前に、あらかじめ書き込まれたものであることが望ましい。この実施の形態では、非可視性の材料を用いて書き込まれた細線について説明する。この実施の形態の細線は、非可視性の材料で書き込まれてあるので、細線は人間の目に感知されることはない。しかしながら、この発明のイメージ合成装置でイメージ合成を行うときには、細線のイメージをもとにイメージ合成を行うので、イメージ合成装置で細線が認識されるような非可視性の材料でなくてはならない。
【0044】
本実施の形態の被読取媒体に使用される非可視性材料には2種類ある。一つ目の材料としては、紫外光を吸収し、かつ、吸収することによって蛍光又は燐光として可視光を放射するものである。具体的な吸収波長範囲及び発光波長は、情報の構成材料の吸収波長範囲との関係で制限される。すなわち、非可視性材料の発光波長範囲は情報の構成材料の吸収波長範囲と重ならないことが必要である。このような非可視性材料を用いた細線が書き込まれた被読取媒体を使用すると、後述のイメージ取り込み装置で部分イメージを取り込んだときに、部分細線イメージからなる第1部分イメージと、部分情報イメージからなる第2部分イメージとが得られる。なお、情報の構成材料としては、例えば黒鉛鉛筆、ボールペン、万年筆、印刷用のインク等があり、非可視性材料を選択するに当たっては、情報の構成材料の光特性を考慮して、組み合わせとして選択するのがよい。
【0045】
また、二つ目の材料としては、紫外光又は赤外光を吸収するものである。具体的な吸収波長範囲は、情報の構成材料の吸収波長範囲との関係で2種類ある。すなわち、情報の部分は吸収せず非可視性材料のみ吸収する波長範囲があるか、又は非可視性材料のみ吸収する波長範囲がないかである。前者の非可視性材料を用いた細線が書き込まれた被読取媒体を使用すると、後述のイメージ取り込み装置で部分イメージを取り込んだときに、部分細線イメージからなる第1部分イメージと、部分情報イメージからなる第2部分イメージとが得られる。後者の非可視性材料を用いた細線が書き込まれた被読取媒体を使用すると、後述のイメージ取り込み装置で部分イメージを取り込んだときに、部分細線イメージと部分情報イメージからなる第1部分イメージと、部分情報イメージからなる第2部分イメージ(第2のイメージ合成装置においては第2部分イメージはない)とが得られる。
【0046】
上述の2つの材料の条件に当てはまるものであればこの発明の非可視性材料として使用可能であり、特定の材料にとらわれるものではない。
【0047】
また、被読取媒体としては、非可視性材料及び情報材料の吸収波長範囲の光を吸収しないような白色のものであれば材質にとらわれなく、例えば通常の紙を用いればよい。
【0048】
その結果、細線は肉眼では感知されないが、被読取媒体の部分イメージをイメージ取り込み装置で取り込んだときに、細線を認識することができ、従って、細線をもとにして、全体イメージにイメージ合成をすることができる。
【0049】
次に、細線の書き込み方法について、図面を参照して説明する。数本の直線群からなる細線が実際に被読取媒体上に書き込まれた様子を、図3(A)に示す。図の58は細線を示し、60は被読取媒体62の輪郭を示す。実際には、この実施の形態の細線58は非可視性なので、この図のようには見えないが、概念的に細線58を示したものである。細線58が、被読取媒体62に対して、縦方向及び横方向に数本ずつ直線として書き込まれている。細線58は、太さ及び長さについては特に制限はないが、あまり太すぎると後述するイメージ合成装置において細線58の中心座標を決定しにくくなり、また、細すぎると細線58を認識できなくなる恐れがある。従って、適当な太さが好ましいが、この実施の形態では、例えば0.5mm程度の太さの直線としている。また、細線58は被読取媒体62上を突き抜けるような直線であることが望ましい。細線58が書き込まれていない部分は、イメージ合成することができないからである。また、一本の細線58においては、太さが均一で、かつ直線であることが望ましい。後述するイメージ合成装置において、細線58のイメージを合成するのにこの条件が必要だからである。
【0050】
さらに、細線58は適度に小さな間隔で平行に並んだ2組の直線群であって、これらの直線群は互いに直交していることが望ましい。細線58が書き込まれた被読取媒体62を、部分イメージに分けて取り込むとき、おのおのの部分イメージ内の細線58を基準にして2次元的に全体イメージを合成するからである。この実施の形態では、細線58は格子状に書き込まれており、格子の間隔は縦方向及び横方向の細線58共に、例えば1cmとしている。尚、縦方向及び横方向の細線58の向きは、被読取媒体62が長方形だとすると、各々の辺に平行であるのが望ましい。後に書き込まれる情報は、被読取媒体62の一方の辺に対して平行方向に書き込まれることが多いので、イメージ合成装置上に合成された情報のイメージが斜め方向にならなくするためである。
【0051】
また、細線58の書き込み方法の変形例を図4及び図5に示す。図4(A)は縦方向及び横方向の細線64共に、それぞれ間隔の異なる直線で書き込まれた例である。また、図4(B)は縦方向及び横方向の細線66共に、それぞれ太さの異なる直線で書き込まれた例である。これらの変形例は、被読取媒体を細かい部分イメージに分けて取り込んだときにおいて、対応する細線を判断するのに、判断しやすくなるという効果がある。
【0052】
また、被読取媒体を第2のイメージ合成装置に使用する際の細線の書き込み方法を、図5(A)に示す。第2のイメージ合成装置は、詳しくは後述するが、被読取媒体68上に後に情報を記録する位置70が決まっているときにおいて使用することができ、従って、その位置には細線72を書き込まないようにしなければいけない。つまり、情報74と細線72とが重ならない構造になっている。このときには、第2のイメージ合成装置の第1イメージ取り込み装置40で、情報74と細線72との両方を含んでいる第1部分イメージを取り込む。その後、合成した第1全体イメージから細線72のみをドロップアウトすることができる。
【0053】
また、被読取媒体へ細線を書き込む方法としては、任意の方法、例えば通常の印刷方法などを用いればよい。
【0054】
この実施の形態においては、細線には非可視性材料を用いて書き込んだが、可視材料を用いても本発明に使用できる。しかしながら、実際の応用上、細線が人間の目に見えてしまうため、被読取媒体の美観を損ね、かつ、利用上不便でもある。
【0055】
2.第1のイメージ合成装置におけるイメージ取り込み装置の実施の形態(説明2)
次に、この発明の第1のイメージ合成装置の一部であるイメージ取り込み装置の実施の形態について、図を参照して説明する。
【0056】
このイメージ取り込み装置は、被読取媒体の複数の部分分割領域から、少なくとも細線の部分細線イメージを、第1部分イメージとして、それぞれ取り込む第1イメージ取り込み装置10と、この部分分割領域から、部分情報イメージを、第2部分イメージとして、それぞれ取り込む第2イメージ取り込み装置12とを具えている。
【0057】
ここで、第1部分イメージと第2部分イメージとは、同じ部分分割領域からイメージを取り込むので、第1イメージ取り込み装置10と第2イメージ取り込み装置12とは、取り込むイメージの対象(細線又は情報)以外は同じ状態を保ったままでなくてはならない。つまり、被読取媒体、光源及び受光素子の位置、機能及び条件を同じに保つことを意味する。しかしながら、対象は異なるために、それぞれの光源から照射される光の波長領域及び受光素子で認知される光の波長領域のいずれかのみ変化させる。
【0058】
具体的には、第1イメージ取り込み装置10と第2イメージ取り込み装置12共に、被読取媒体に光を照射する光源と、被読取媒体からの反射光または放射光を感知する受光素子とを具えている。イメージ取り込み装置の例としては、接触型のスキャナや、CCDで構成された受光素子を具えているデジタルカメラを用いた非接触型のスキャナなどがある。
【0059】
この実施の形態では、実施の形態(説明1)で説明した2種類の非可視性材料と、情報の書き込みに使用する材料の組み合わせによって考えられる3種類のイメージ取り込み装置の構成を、以下に説明する。なお、第1イメージ取り込み装置10と第2イメージ取り込み装置12は、同じ部分分割領域に対しては、光源及び受光素子の位置、機能及び条件を同じ状態に保ったままでイメージ検出を行わなくてはならないので、両装置は構成的に組み合わせた構成で考えなくてはならない。
【0060】
一つ目のイメージ取り込み装置においては、第1イメージ取り込み装置10は、細線及び情報の構成材料が吸収する第1波長の光を放射する光源と、第1波長の光を感知する受光部とを具える。第2イメージ取り込み装置12は、情報の構成材料が吸収する第2波長を放射する光源と、第2波長の光を感知する受光部とを具えている。
【0061】
このような構成にするのは、細線の構成材料が非可視性材料であって紫外光又は赤外光を吸収し、さらに、光源からの光のうち、細線の構成材料のみ吸収する波長範囲がない場合である。
【0062】
この結果、第1イメージ取り込み装置10によって、部分細線イメージ及び部分情報イメージの両方を第1部分イメージとして取り込むことができ、第2イメージ取り込み装置12によって、部分情報イメージを第2部分イメージとして取り込むことができる。
【0063】
一つ目のイメージ取り込み装置は、第1イメージ取り込み装置10と第2イメージ取り込み装置12との組み合わせ構造であるから、より具体的には、次の二種類の構成が考えられる。いずれも第1イメージ取り込み装置10及び第2イメージ取り込み装置12の機能を両方持つ装置構成となっている。
【0064】
一種類目の装置では、光源を第1波長及び第2波長共に放射する光源とし、受光部を第1波長を感知する素子部分と第2波長を感知する素子部分を併せ持つCCDからなる受光素子とする。従って、第1波長を感知する素子部分で取り込んだイメージを第1部分イメージとし、第2波長を感知する素子部分で取り込んだイメージを第2部分イメージとすることができる。なお、被読取媒体の同じ部分分割領域に対しては、第1部分イメージと第2部分イメージを同時に取り込むために、第1イメージ取り込み装置10及び第2イメージ取り込み装置12は、上述したところの同じ状態を保っている。
【0065】
二種類目の装置では、第1波長を放射するものと第2波長を放射するものとの2種類の光源を具え、受光部を第1波長と第2波長との両方を感知する素子部分を持つCCDからなる受光素子とする。従って、第1波長を放射する光源を用いて取り込んだイメージを第1部分イメージとし、第2波長を放射する光源を用いて取り込んだイメージを第2部分イメージとすることができる。ここで、第1部分イメージと第2部分イメージは2度に分けて取り込むために、第1イメージ取り込み装置10及び第2イメージ取り込み装置12は、同じ状態を保たなくてはならない。すなわち、受光素子と被読取媒体の位置関係等を同じにすることが必要である。
【0066】
二つ目のイメージ取り込み装置においては、第1イメージ取り込み装置10は、細線の構成材料が吸収する第1波長の光を放射する光源と、第1波長の光を感知する受光部とを具え、第2イメージ取り込み装置12は、情報の構成材料が吸収する第2波長を放射する光源と、第2波長の光を感知する受光部とを具えている。
【0067】
このような構成にするのは、細線の構成材料が非可視性材料であって紫外光又は赤外光を吸収し、さらに、光源からの光のうち、情報の構成材料は吸収しなく細線の構成材料のみ吸収する波長範囲がある場合である。
【0068】
この結果、第1イメージ取り込み装置10によって、部分細線イメージを第1部分イメージとして取り込むことができ、第2イメージ取り込み装置12によって、部分情報イメージを第2部分イメージとして取り込むことができる。
【0069】
二つ目のイメージ取り込み装置は、第1イメージ取り込み装置10と第2イメージ取り込み装置12との組み合わせ構造であるから、より具体的には、二種類の構成が考えられるが、一つ目のイメージ取り込み装置と全く同じであるので、説明を省略する。
【0070】
三つ目のイメージ取り込み装置においては、第1イメージ取り込み装置10は、少なくとも細線の構成材料が吸収する第1波長の光を放射する光源と、細線の構成材料が第1波長の光を吸収したときに放射する第2波長の光を感知する受光部とを具え、第2イメージ取り込み装置12は、情報の構成材料が吸収する第3波長を放射する光源と、第3波長の光を感知する受光部とを具えている。
【0071】
このような構成にするのは、細線の構成材料が非可視性材料であって、紫外光を吸収し、可視光を放射するものであるときであり、さらに、細線の構成材料の放射波長範囲は情報の構成材料の吸収波長範囲と重ならない場合である。
【0072】
この結果、第1イメージ取り込み装置10によって、部分細線イメージを第1部分イメージとして取り込むことができ、第2イメージ取り込み装置12によって、部分情報イメージを第2部分イメージとして取り込むことができる。
【0073】
三つ目のイメージ取り込み装置は、第1イメージ取り込み装置10と第2イメージ取り込み装置12との組み合わせ構造であるから、より具体的には、次の二種類の構成が考えられる。いずれも第1イメージ取り込み装置10及び第2イメージ取り込み装置12の機能を両方持つ装置構成となっている。
【0074】
一種類目の装置では、光源を第1波長及び第3波長共に放射する光源とし、受光部を第2波長を感知する素子部分と第3波長を感知する素子部分を併せ持つCCDからなる受光素子とする。従って、第2波長を感知する素子部分で取り込んだイメージを第1部分イメージとし、第3波長を感知する素子部分で取り込んだイメージを第2部分イメージとすることができる。ここで、第1部分イメージと第2部分イメージは同時に取り込むために、第1イメージ取り込み装置10及び第2イメージ取り込み装置12は、同じ状態を保っている。
【0075】
二種類目の装置では、第1波長を放射するものと第3波長を放射するものの2種類の光源を具え、受光部を第2波長と第3波長の両方を感知する素子部分を持つCCDからなる受光素子とする。従って、第1波長を放射する光源を用いて取り込んだイメージを第1部分イメージとし、第3波長を放射する光源を用いて取り込んだイメージを第2部分イメージとすることができる。ここで、第1部分イメージと第2部分イメージは二度に分けて取り込むために、第1イメージ取り込み装置10及び第2イメージ取り込み装置12は、同じ状態を保たなくてはならない。すなわち、受光素子と被読取媒体の位置関係を同じにすることが必要である。
【0076】
この発明の第1部分イメージ取り込み装置10と第2部分イメージ取り込み装置12は上述した構成例に限定されるものではなく、細線及び情報の構成材料との組み合わせによって、さらなる変形例も考えられる。
【0077】
次に、この実施の形態のイメージ取り込み装置でイメージを取り込む概念及び取り込んだイメージを、図面を参照して説明する。図3はイメージ取り込み装置で被読取媒体62の部分イメージを取り込む概念を示す図である。この実施の形態では細線58には非可視性材料を用いているために、実際は目に見えないが、図3ではわかりやすくするために実線で示してある。
【0078】
この実施の形態では、被読取媒体62の細線58として、格子状に書き込まれた細線を使用している(図3(A))。この被読取媒体62に情報76を書き加えると、図3(B)に示す状態になる。肉眼では、上述したように、情報76しか見えない。図3(B)に示す被読取媒体62の部分イメージを取り込む様子を図3(C)に示す。2つの長方形の枠78及び80は、第1及び第2イメージ取り込み装置10及び12で取り込める範囲を示している。この実施の形態では、被読取媒体62を2つの部分に分け、2つの部分イメージを取り込んでいる。ここで、2つの部分イメージの境界部分は重なるように、部分イメージを取り込まなくてはならない。取り込んだ部分イメージ同士を合成するのに、重複した部分のイメージをもとにするからである。従って、被読取媒体62を3つ以上の部分に分け、3つ以上の部分イメージを取り込む場合であっても、部分イメージの境界部分が重なるように取り込む。図3(C)により取り込まれた2つの部分イメージの様子を図3(D)に示す。境界部分が重複しているのがわかる。このうち、左の部分イメージ81aをAとし、右の部分イメージ81bをBとする。上述の第1及び第2イメージ取り込み装置10及び12のそれぞれによって、A及びBを取り込む。Aのうち第1イメージ取り込み装置10で取り込んだ部分イメージ81aを第1部分イメージA1とし、第2イメージ取り込み装置12で取り込んだ部分イメージ81aを第2部分イメージA2とする。同様にして、Bのうち第1イメージ取り込み装置10で取り込んだ部分イメージ81bを第1部分イメージB1とし、第2イメージ取り込み装置12で取り込んだ部分イメージ81bを第2部分イメージB2とする。
【0079】
次に、この実施の形態のイメージ取り込み装置で取り込んだ第1又は第2部分イメージA1又はA2を、図面を参照して説明する。図6は、第1のイメージ合成装置で取り込んだ部分イメージを示す図である。図6(A)は、上述の一つ目の構成のイメージ取り込み装置における第1部分イメージA1を示す図であり、細線58及び情報76のイメージを含んでいる。図6(B)は、上述の二つ目および三つ目の構成における第1部分イメージA1を示す図であり、細線58のみのイメージを含んでいる。図6(C)は、上述のすべての構成における第2部分イメージA2を示す図であり、情報76のみのイメージを含んでいる。
【0080】
尚、この実施の形態のイメージ取り込み装置で取り込んだ第1部分イメージ及び第2部分イメージは、第1及び第2部分イメージの記憶部20及び22に記憶される。
【0081】
この第1のイメージ合成装置におけるイメージ取り込み装置には第1及び第2イメージ取り込み装置10及び12の2つの装置が必要で、後述する第2のイメージ合成装置と比較すると装置が複雑になるが、第2イメージ取り込み装置12で情報のみの第2全体イメージを得ることができ、従って、ドロップアウト処理装置44が必要なくなる。また、細線58と情報76とが被読取媒体62上で重なっているときにも、第2全体イメージを得ることができるという利点もある。
【0082】
3.第2のイメージ合成装置におけるイメージ取り込み装置の実施の形態(説明3)
次に、この発明の第2のイメージ合成装置の一部であるイメージ取り込み装置の実施の形態について、図を参照して説明する。
【0083】
このイメージ取り込み装置は、被読取媒体の複数の部分分割領域から、部分細線イメージ及び部分情報イメージを、第1部分イメージとして、それぞれ取り込む第1イメージ取り込み装置40からなる。
【0084】
具体的には、細線及び情報の部分が吸収するような波長の光を放射する光源と、その波長の光を感知する受光部とを具えている。第1イメージ取り込み装置の例としては、接触型のスキャナや、CCDで構成された受光素子を具えているデジタルカメラを用いた非接触型のスキャナなどがある。
【0085】
第2のイメージ合成装置を使用するのは、細線の構成材料が非可視性材料であって、光源からの光のうち、細線の構成材料のみが吸収する波長範囲がない場合、または、イメージ取り込み装置の構造が簡単な利点を生かす場合などが考えられる。この結果、第1イメージ取り込み装置40によって、部分細線イメージと部分情報イメージの両方を含んだ第1部分イメージを取り込むことができる。
【0086】
この発明の第1イメージ取り込み装置40は上述のものだけでなく、非可視性材料と情報の書き込みに使用する材料との組み合わせによって、さらなる変形例も考えられる。
【0087】
この実施の形態のイメージ取り込み装置でイメージを取り込む概念及び取り込んだイメージを、図面を参照して説明する。図5は第1イメージ取り込み装置40で被読取媒体68の部分イメージを取り込む概念を示す図である。この実施の形態では細線72には非可視性材料を用いているために、実際は目に見えないが、図5(A)ではわかりやすくするために実線で示してある。
【0088】
この実施の形態では、1の実施の形態で説明した細線72が書き込まれた被読取媒体68に情報74が書き込まれた図5(A)に示したものを使用する。このとき、細線72と情報74とは重なっていない。この被読取媒体68を実施の形態(説明2)に示したのと同様の方法で部分イメージを取り込む。この実施の形態では、被読取媒体68を2つの部分に分け、2つの部分イメージを取り込んでいる。ここで、2つの部分イメージの境界部分は重なるように、部分イメージを取り込まなくてはならない。取り込んだ部分イメージ同士を合成するのに、重複した部分のイメージをもとにするからである。従って、被読取媒体68を3つ以上の部分に分け、3つ以上の部分イメージを取り込む場合であっても、部分イメージの境界部分が重なるように取り込む。
【0089】
次に、この実施の形態のイメージ取り込み装置で取り込んだ第1部分イメージを、図面を参照して説明する。図5(B)は、イメージ合成装置で取り込んだ部分イメージを示す図である。境界部分が重複しているのがわかる。このうち、左の部分イメージ75aをAとし、右の部分イメージ75bをBとする。上述の第1イメージ取り込み装置40によって、A及びBを取り込む。Aの第1部分イメージA1とし、Bの第1部分イメージB1とする。A1及びB1共に細線72及び情報74の両方のイメージを含んでいるのがわかる。
【0090】
尚、この実施の形態の第1イメージ取り込み装置40で取り込んだ第1部分イメージは、 第1部分イメージの記憶部48に記憶される。
【0091】
この第2のイメージ合成装置における第1イメージ取り込み装置40は構成が簡単なので、被読取媒体68において細線72と情報74が重なっていないときは、有効である。
【0092】
4.第1のイメージ合成装置におけるイメージ合成処理装置の実施の形態(説明4)
次に、この発明の第1のイメージ合成装置の一部であるイメージ合成処理装置の実施の形態について、図を参照して説明する。
【0093】
このイメージ合成処理装置は、第1部分イメージから、部分細線イメージを利用して、第1全体イメージの合成処理を行う第1イメージ合成処理装置14と、第1イメージ合成処理装置14と実質的に同じ合成処理の手法に従って、第2部分イメージから、第2全体イメージの合成処理を行う第2イメージ合成処理装置16とを具えている。
【0094】
このうち第1イメージ合成処理装置14は、それぞれの部分細線イメージのうち、横方向又は縦方向の任意の部分細線イメージがX軸又はY軸と平行になるように、第1部分イメージを回転させる第1回転処理部28と、それぞれの第1部分イメージについて、部分細線イメージの対応する細線の判断を行い、細線間の距離が一致するように、第1部分イメージの倍率を変化させる第1倍率変化処理部32と、対応する部分細線イメージが正しい位置で重ね合うように、部分細線イメージを平行移動させる第1平行移動処理部36とを含む(図1)。
【0095】
また、第2イメージ合成処理装置16は、それぞれの部分細線イメージのうち、横方向又は縦方向の任意の部分細線イメージがX軸又はY軸と平行になるように、第1部分イメージを回転させる第2回転処理部30と、それぞれの第1部分イメージについて、部分細線イメージの対応する細線の判断を行い、細線間の距離が一致するように、第1部分イメージの倍率を変化させる第2倍率変化処理部34と、対応する部分細線イメージが正しい位置で重ね合うように、部分細線イメージを平行移動させる第2平行移動処理部38とを含む。
【0096】
ここで「実質的に同じ合成処理の手法に従って」とは、第1イメージ合成処理装置14の第1回転処理部28、第1倍率変化処理部32及び第1平行移動処理部36のそれぞれにおいて行った処理のうち以下に示す処理の手法と実質的に同じ手法であることを意味する。すなわち、第1回転処理部28においてはトータルの回転角度、第1倍率変化処理部32においては倍率変化の割合、及び第1平行移動処理部36においてはX軸方向及びY軸方向への平行移動させた座標量である。このため、第1イメージ合成処理装置14で行ったこれらの合成処理手法は、合成処理の記憶部27に記憶させておき、第2イメージ合成処理装置16で合成処理を行う際にこの合成処理手法を合成処理の記憶部27から適宜引き出す。
【0097】
まず、第1回転処理部28について、図7を参照して説明する。図7(A)は、第1部分イメージの記憶部20から第1部分イメージ88を取り出した状態を示す図である。外枠82は、イメージ合成装置で処理できる範囲であり、取り込んだ部分イメージの範囲と同じである。第1回転処理部28中には、X軸84と、X軸84と直交するY軸86とがある。まず、Y軸86上にX軸84方向に第1部分イメージ88を投影させる。第1部分イメージ88は多数のピクセルから構成されており、Y座標が一定のときX座標を変化させたときのピクセルの個数に対応して投影されたピクセル強度Iとなる。このY座標に対するピクセル強度Iを、図7(B)に示す。このとき、格子状の細線90のうち、縦方向又は横方向の一方の部分イメージが、X軸84と平行になっていないとき、すなわち、細線90の部分イメージが第1回転処理部28の座標軸84及び86に対して傾いているときは、投影されたピークは幅を持っており、従ってピクセル強度Iは小さい。そこで、細線90の部分イメージを、X軸84と平行にするために、座標軸の原点を中心に任意の方向に一定角度θ(X軸84となす角度)回転させる。回転後のピクセル強度Iが大きくなっていると、回転前と比べて、細線90の部分イメージが、X軸84とより平行に近づいている。逆に、回転後のピクセル強度Iが小さくなっていると、平行から遠ざかっているので、それ以後は反対方向に回転させるようにする。何度か回転を繰り返すうちに、ピークの幅92が小さくなり、同時にピクセル強度Iが大きくなる。その結果、ピクセル強度Iがある一定値IS を越えると、細線90の部分イメージが、X軸84と平行になった(すなわち、もう一方の細線90の部分イメージがY軸86と平行になった)と判断する。このIS の値の大きさによって、平行になる精度が決まるので、要求される精度に照らし合わせて、適当にIS の値の大きさを決めればよい。また回転角度θは、あまり大きいと精度良く平行状態に合わせることができず、また小さいと平行状態に達するまでに何度も回転処理を行わなければならなくなる。従って、実際的には、最初はθを大きくして回転させ、平行に近づいてきたと判断したら、徐々にθを小さくして微調整を行えばよい。
【0098】
しかしながら、この方法では、格子状の細線90のうち、縦方向又は横方向の一方の部分イメージがX軸84と平行になるように回転させるものであるので、どちらがX軸84と平行になるかによって、部分イメージ同士で90°ずれたイメージになってしまう恐れがある。これを防ぐためには、例えば次のような方法がある。まず第1部分イメージ88を第1イメージ取り込み装置10で取り込むときに、被読取媒体82の向きを余り変化させないようにする。さらに、回転処理で回転させたトータルの回転角度が45°以上にならないように制御すればよい。
【0099】
この回転処理を、すべての第1部分イメージ88について行う。この実施の形態においては、第1部分イメージ88はA1及びB1の2つとしてあり、従ってA1及びB1について回転処理を行う。
【0100】
ここで、図7(A)のように、第1部分イメージ88が細線のみの場合は回転処理は上述のように行えばよいが、実施の形態(説明2)で述べたように第1部分イメージ88が細線と情報の両方を含む場合には、図7(B)のピクセル投影強度Iには情報のピークも出てしまう。この場合には、縦方向又は横方向の部分細線イメージの一方がX軸と平行になっていないときは、細線のピクセル強度に対する情報のピクセル投影強度も無視できない。しかし、平行に近づいてくると、細線のピクセル強度が非常に大きくなるために、情報のピクセル投影強度は無視できる程度になる。従って、この場合も、回転処理を行うことができ、また、説明は省略するが、後述の倍率変化処理及び平行移動処理も行うことができる。
【0101】
上述の第1回転処理部28における回転処理をしたデータ、すなわち、それぞれの第1部分イメージ88に対してトータルで何度の回転を行ったか等は、合成処理の記憶部27に記憶する。
【0102】
なお、上述の第1回転処理部28における回転処理方法は一例であって、他の任意好適な回転処理方法であってもこの発明に適用できる。
【0103】
次に、第1倍率変化処理部32について、図8を参照して説明する。
【0104】
第1倍率変化処理部32では、第1回転処理部28で処理を行い縦方向又は横方向の部分細線イメージの一方がX軸と平行になった複数の第1部分イメージ88について、倍率変化処理を行う。この実施の形態では第1部分イメージ88はA1及びB1の2つである。このA1及びB1の両方共に、上述した第1回転処理部28で部分細線イメージをY軸上にX軸方向にピクセル投影させている。この様子を図8に示す。図8(A)はA1についてピクセル投影したものであり、 図8(B)はB1についてピクセル投影したものである。
【0105】
まず、A1及びB1について、対応する細線の判断を行う。A1及びB1は、図3で示すように第1イメージ取り込み装置10で取り込んだ第1部分イメージであり、横方向に書き込まれた細線はそれぞれ4本であった。第1イメージ取り込み装置10において、それぞれの第1部分イメージの被読取媒体に対する位置関係は、第1部分イメージの記憶部20に記憶されている。従って、例えば被読取媒体の縦方向は複数部分に分割せず、横方向のみ2つに分割したことを記憶している。また、図8から明らかなようにY軸上へのピクセル投影のピークが4つずつある。従って、図8(A)及び図8(B)において上から順にピーク1〜4とすると、同じ番号同士のピークが同じ細線に対応していると判断できる。
【0106】
上述の方法では、Y軸上にX軸方向にピクセル投影させているが、これに限られず、縦方向の細線に注目してX軸上にY軸方向にピクセル投影させても良い。
【0107】
このときは、図3(C)からわかるように、A1及びB1の投影共に4つずつのピークになる。しかしながら、被読取媒体の縦方向に書き込まれた細線の本数は認知できないので、人為的に細線の本数が7本であると入力するか、あらかじめ、被読取媒体としては縦方向に書き込まれた細線の本数を7本であるものを使用することに決めておいて、例えば第1部分イメージの記憶部20に記憶させておけばよい。このとき、図9に示すように、図9(A)に示したA1の右端のピークと図9(B)に示したB1の左端のピークとが対応していると判断すると、横方向のピーク個数は正味7個となり、従って、被読取媒体の細線の本数である7本と一致する。このようにして、部分イメージの数が少ないときは、対応する細線のピークを判断できる。
【0108】
しかしながら、部分イメージの数が多くなると、上述した方法では対応する細線のピークを判断するのが難しくなる。このとき、考えられる対策として、例えば次の2つの方法がある。
【0109】
一つ目は、第1部分イメージを取り込むとき、被読取媒体に対する取り込む部分の位置を、第1部分イメージの記憶部20に記憶させておく方法である。この方法を用いると、被読取媒体のどの部分のイメージを取り込んだのかがわかるため、対応する細線を判断するとき、おおよその目安はつく。しかしながら、対応する細線の正確な判断は難しい。また、この方法を用いると、デジタルカメラを用いた非接触型スキャナにおいてはデジタルカメラの動きによって取り込む部分の位置判断ができるが、接触型スキャナにおいては、人為的に被読取媒体の位置をセットすることが多いため、この方法を用いることはできない。
【0110】
これに対し、二つ目の方法は、被読取媒体上の細線自体の書き込み方に工夫するものである。具体例としては、被読取媒体の実施の形態の変形例で述べた図4に示すものがある。図4(A)に示すものは、細線64の間隔を変化させたものである。従って、この被読取媒体の第1部分イメージを取り込んだときに、第1部分イメージ同士で、細線64間の距離が最も近いものを対応する細線として判断すればよい。また、図4(B)に示すものは、細線66の太さを変化させたものである。従って、この被読取媒体の第1部分イメージを取り込んだときに、第1部分イメージ同士で、細線66の太さが最も近いものを対応する細線66として判断すればよい。細線66の太さを認識する方法としては、後述するドロップアウト処理の実施の形態におけるピクセル投影のピークの幅を、太さと判断すればよい。
【0111】
上述した対応する細線の判断方法により、対応する細線が判断できると、次に、倍率変化処理を行う。
【0112】
この実施の形態においては、まず対応する細線間の距離を求める。図8に示すように、1A12と1B12とが対応する細線間の距離である。ここで、ピクセル投影のピークに幅があるために、1A12や1B12等の距離を認識するためには、どこを距離の基準とするかが問題になる。細線の中心線のY座標を基準にすべきであるので、ピクセル投影のピークのうち、細線の中心線に当たるY座標を認識させる。この認識方法には、例えば2つの方法がある。一つ目は、ピクセル投影のピーク強度が最高に達するY座標を、それぞれの細線の中心線と考える方法である。もう一つは、それぞれのピークに含まれるピクセルのY座標における分布を考慮するもので、ピクセルの平均Y座標をそれぞれの細線の中心線と考える方法である。このようにして定まった細線間の距離から距離の平均値を求める。つまり、1A12、1A23、及び1A34からA1の平均値1Aが求まり、1B12、1B23及び1B34からB1の平均値1Bが求まる。
【0113】
次に、対応する細線間の距離は等しくあるべきなので、距離が等しくなるようにA1又はB1を、拡大又は縮小する。つまり、A1の平均値1A とB1の平均値1B との比1A/1BだけB1を拡大又は縮小すれば、A1及びB1の距離の平均値が等しくなる。
【0114】
上述した距離の平均値を求める方法以外に、二つ目の方法として、対応する一つの距離の比、例えば1A12/1B12だけB1を拡大又は縮小しても良い。しかしながら、平均値を用いる方法の方が、後述する平行移動処理の際に、部分細線イメージ全体にわたって一致しやすくなるので好ましい。
【0115】
この実施の形態では、Y座標へのピクセル投影によって部分細線イメージ間の距離を算出したが、X座標へのピクセル投影によって行っても良いし、より好ましくは、X座標及びY座標の両方において、平均値を算出して倍率を求めると良い。
【0116】
また、この実施の形態では第1部分イメージの数が二つだったので、距離の比で倍率変化処理を行えば良かったが、第1部分イメージの数が三つ以上の時は、単純には行えない。しかしながら、例えば第1部分イメージの数が三つ(A1,B1,C1)の時には、それぞれの距離の平均値を1A、1B及び1c(1A<1B<1C)とすると、A1を1B/1A倍にし、C1を1B/1C倍にすると、すべての部分イメージについて距離の平均値が等しくなる。四つ以上のときも同様の処理を行えばよい。
【0117】
上述の第1倍率変化処理部32における倍率変化処理をしたデータ、すなわち、それぞれの第1部分イメージに対して何倍の拡大又は縮小を行ったか等は、合成処理の記憶部27に記憶する。
【0118】
なお、上述の第1倍率変化処理部32における倍率変化処理方法は一例であって、他の任意好適な倍率変化処理方法であってもこの発明に適用できる。
【0119】
次に、第1平行移動処理部36について、図9を参照して説明する。
【0120】
第1平行移動処理部36では、上述の第1倍率変化処理部32で処理を行って対応する部分細線イメージの間隔が等しくなった複数の第1部分イメージについて、平行移動処理を行うことにより、第1全体イメージに合成する。
【0121】
まず、図9(A)に示すように、第1部分イメージA1の部分細線イメージについて、X軸上及びY軸上へのピクセル投影を行う(第1回転処理部28又は第1倍率変化処理部32ですでに行っている場合は、利用すればよい)。その後、倍率変化処理部の実施の形態ですでに説明した方法で各々の部分細線イメージの中心座標を求める。同様にして、図9(B)に示すように、B1についての部分細線イメージに関してX軸上及びY軸上へのピクセル投影を行い、その後、各々の部分細線イメージの中心座標を求める。
【0122】
次に、B1(A1でも良い)をX軸方向に平行移動させる。このとき、第1倍率変化処理部32の実施の形態で述べたように、A1とB1とで対応する細線のピクセル投影のピークはわかっている。この場合、A1の右端とB1の左端のピークが対応しているので、B1のX座標がA1のXS4になるようにB1を平行移動させる。
【0123】
次に、B1(A1でも良い)をY軸方向に平行移動させる。この場合、Y軸方向に投影されたピクセル投影のピークは上から順に対応しているので、任意の対応するピークのY座標を一致させるようにする。例えば、Y座標がもっとも大きいピークを基準にすると、B1のY座標がYS4になるようにB1を平行移動させる。
【0124】
次に、A1とB1を一つの画面上(一つのデータ)にまとめることにより、合成された第1全体イメージとなる。
【0125】
この実施の形態においては、A1とB1とを別の画面上(別のデータ)で平行移動させてからまとめたが、A1とB1とをまとめた後に平行移動させて、第1全体イメージを作製しても良い。
【0126】
また、X軸方向に平行移動させた後でY軸方向に平行移動させたが、Y軸方向に平行移動させた後でX軸方向に平行移動させても良い。
【0127】
また、A1とB1を一つの画面上(一つのデータ)にまとめると、画面上に入り切らなくなることがあるので、例えば、あらかじめ平行移動させる前又はさせた後であってまとめる前に、A1及びB1を同じ倍率で縮小すれば良い。
【0128】
上述の第1平行移動処理部36における平行移動処理をしたデータ、すなわち、それぞれの第1部分イメージに対してX軸及びY軸方向にどれだけ平行移動させたか等は、合成処理の記憶部27に記憶する。
【0129】
また、この合成された第1全体イメージは、イメージ一致判断部18があるときはここに送られ、また無いときは第1全体イメージの記憶部24に記憶される。
【0130】
なお、上述の第1平行移動処理部36における平行移動処理方法は一例であって、他の任意好適な平行移動処理方法であっても本発明に適用できる。
【0131】
次に、第2イメージ合成処理装置16について説明する。
【0132】
第2イメージ取り込み装置12で取り込んだ第2部分イメージをA2及びB2とする。A2及びB2のそれぞれに対して、上述した第1部分イメージに対して行った合成処理、すなわち、回転処理、倍率変化処理及び平行移動処理と実質的に同じ手法を行うと、A2及びB2が合成された第2全体イメージになる。この場合の実質的に同じ合成処理の手法とは、ピクセル投影などは含まず、座標軸に対して行った回転、拡大又は縮小、及び平行移動のことを指す。この場合、上述した第1部分イメージに対して行った回転処理、倍率変化処理及び平行移動処理のデータを合成処理の記憶部27から取り出すことによって、第2部分イメージにも同じ処理を行うことができる。
【0133】
従って、合成された第2全体イメージは、第1全体イメージと同程度に一致した合成イメージとなる。
【0134】
また、この第2全体イメージは、第2全体イメージの記憶部26に記憶される。
【0135】
5.第2のイメージ合成装置におけるイメージ合成処理装置の実施の形態(説明5)
次に、この発明の第2のイメージ合成装置の一部である第1イメージ合成処理装置42の実施の形態について説明する。
【0136】
この第1イメージ合成処理装置42は、第1イメージ取り込み装置40で取り込んだ第1部分イメージから、部分細線イメージを利用して、第1全体イメージの合成処理を行うものである。
【0137】
この第1イメージ合成処理装置42は、それぞれの部分細線イメージのうち、横方向又は縦方向の任意の部分細線イメージがX軸又はY軸と平行になるように、第1部分イメージを回転させる第1回転処理部52と、それぞれの第1部分イメージについて、部分細線イメージの対応する細線の判断を行い、細線間の距離が一致するように、第1部分イメージの倍率を変化させる第1倍率変化処理部54と、対応する部分細線イメージが正しい位置で重ね合うように、部分細線イメージを平行移動させる第1平行移動処理部56とを含む(図2)。
【0138】
第2のイメージ合成装置は実施の形態(説明1)で説明したように、部分細線イメージと部分情報イメージとが重ならない構造になっている被読取媒体を用いる場合に使用できる。従って、部分細線イメージをX軸上又はY軸上にピクセル投影したときのピークに対して、部分情報イメージのピクセル投影が影響を及ぼすことは少ない。従って、第1部分イメージの記憶部48から第1部分イメージを取り出した後は、実施の形態(説明4)で述べた方法と全く同様に、第1部分イメージのうちの部分細線イメージを基準にして、第1回転処理部52、第1倍率変化処理部54及び第1平行移動処理部56において合成処理される。なお、この実施の形態においては、第1部分イメージしかないので、第2部分イメージ合成装置における処理は行わない。これらの処理を行うことにより、第1全体イメージに合成される。
【0139】
この合成された第1全体イメージは、イメージ一致判断部46があるときはここに送られ、無いときはドロップアウト処理装置44に送られる。
【0140】
6.イメージ一致判断部の実施の形態(説明6)
次に、この発明の第1及び第2のイメージ合成装置の一部であるイメージ一致判断部18及び46の実施の形態について、図を参照して説明する。
【0141】
このイメージ一致判断部18及び46は、第1及び第2のイメージ合成装置で合成した第1全体イメージが、一致していることを判断するものである。
【0142】
この判断には、第1平行移動処理部36及び56で合成された第1全体イメージではなく、合成する前の第1部分イメージであるA1及びB1をY軸上にピクセル投影したピークを用いる。このピークは平行移動処理において、利用したものである。上述の平行移動処理においては、B1をY軸方向に平行移動させて、Y座標がYS4の位置で一本の対応する部分細線イメージを重ね合わせた。従って、残りの3本の対応する部分細線イメージについては、完全に重なっていない可能性がある。逆に考えると、残りの3本も完全に重なっていれば、図9(C)に示した第1全体イメージは部分イメージのつなぎ目の部分でも重なっており、従って、完全に一致していると判断しても良い。そこで、残りの3本のずれの大きさを基準にして、一致しているかどうかの判断を行う。この対応している細線のずれの大きさは、この実施の形態においては、(YAi−YBi)(i=1,2,3)と表されるが、例えば、この大きさが±α以下に収まるものが一定割合以上であれば、一致していると判断すればよい。具体的数値としては、例えば、このαを0.2mmとし、一定割合を80%とすれば良い。
【0143】
この実施の形態では、二つの部分イメージを合成しているので、部分イメージのつなぎ目では、判断基準になる細線は3本しかなかった。しかし、より多くの部分イメージを合成する場合にはつなぎ目が多くなり、従って、判断基準になる細線の本数も多くなる。しかしながら、この場合もこの実施の形態と同様にして、対応する細線のすべてについてずれの大きさを計算し、上述の判断基準によって一致しているかどうかを判断すればよい。
【0144】
また、この実施の形態では、部分イメージA1及びB1はX軸と平行方向の細線を分断したものであるので、Y軸上にピクセル投影したピークを用いてイメージ一致判断を行った。しかし、部分イメージがY軸と平行方向の細線を分断したものであるときは、X軸上にピクセル投影したピークを用いて、上述と同様の方法によってイメージ一致判断を行えばよい。
【0145】
このイメージ一致判断部18及び46によって、精度の良い第1全体イメージを得ることができる。
【0146】
なお、上述のイメージ一致判断方法は一例であって、他の任意好適なイメージ一致判断方法であっても本発明に適用できる。
【0147】
7.第2のイメージ合成装置におけるドロップアウト処理装置の実施の形態(説明7)
次に、この発明の第2のイメージ合成装置の一部であるドロップアウト処理装置44の実施の形態について、図を参照して説明する。
【0148】
ドロップアウト処理装置44は、第1全体イメージから、部分細線イメージのみをドロップアウトさせて、残存する部分情報イメージを第2全体イメージとする機能を有している。
【0149】
実施の形態(説明5)で説明したように、第2のイメージ合成装置の第1イメージ合成処理装置42で合成された第1全体イメージは、第1部分イメージを合成したものであり、従って、細線のイメージ及び情報のイメージの両方を含んでいる。しかしながら、部分細線イメージ及び部分情報イメージは重なっていない構造であったので、X軸上又はY軸上にピクセル投影したときには、図10(A)に示すように、細線72及び情報74のイメージのピクセル投影のピークは重ならない。従って、細線72のイメージに対応するピクセル投影のピークを消去できる。
【0150】
具体的にドロップアウト手法を説明すると、まず図10(A)の中心座標がX1 であるピークを消去することを考える。そのために、このピークが持つX座標範囲をまず認知しなければならない。つまり、ピクセル投影の強度が0でないX座標範囲(範囲中にX1 を含む)を、ピークがもつX座標範囲と判断する。その後、このX座標範囲にあるピクセルをすべて消去する。これらの処理をすべての細線72のイメージに対応するピクセル投影のピークについて行えば、細線72のイメージのみをドロップアウトすることができる。その結果、図10(B)に示すような情報74のみの第2全体イメージを得ることができる。
【0151】
完成した第2全体イメージは、第2全体イメージの記憶部50に記憶される。
【0152】
なお、上述のドロップアウト処理方法は一例であって、他の任意好適なドロップアウト処理方法であってもこの発明に適用できる。
【0153】
8.第1のイメージ合成装置を用いたイメージ合成方法の実施の形態(説明8)
上述においては、この発明の第1及び第2のイメージ合成装置の構成について説明したが、ここでは、第1のイメージ合成装置を用いて、イメージ合成する方法の実施の形態を、装置上でのイメージ処理の流れを中心にして説明する。図11は、第1のイメージ合成装置を用いたイメージ合成方法を示すフローチャートである。
【0154】
第1及び第2イメージ取り込み装置10及び12により、それぞれ被読取媒体の第1及び第2部分イメージを取り込み、それぞれ第1及び第2部分イメージの記憶部20及び22に記憶する過程は、実施の形態(説明2)及び実施の形態(説明3)において説明したので、省略する。尚、この実施の形態においても、第1イメージ取り込み装置10により取り込む第1部分イメージはA1及びB1の二つとする。従って、第2イメージ取り込み装置12により取り込む第2部分イメージも二つとなり、これらをA2及びB2とする。
【0155】
まず、第1部分イメージの記憶部20から第1部分イメージであるA1及びB1を取り出す(S1)。このA1及びB1に対して、それぞれ第1回転処理部28で回転処理を行う(S2:詳細は実施の形態(説明4)で説明したとおりである)。図示しないが、その後S2処理手法については、合成処理の記憶部27に記憶させておく。このとき、このフローチャートの順序通り、A1及びB1をいったんその後の作業を行うマイクロコンピューター上に取り出しておいてから(A1及びB1に対してS1処理)、A1及びB1に対して回転処理(S2処理)を行っても良いが、これに限られず、A1のみを取り出して(A1に対してS1処理)回転処理を行い(A1に対してS2処理)、その後B1を取り出して(B1に対してS1処理)回転処理を行って(B1に対してS2処理)も良い。次に、A1及びB1に対する倍率変化処理を第1倍率変化処理部32で行う(S3:詳細は実施の形態(説明4)で説明したとおりである)。図示しないが、その後S3処理手法については、合成処理の記憶部27に記憶させておく。この倍率変化処理は上述したように、A1及びB1の部分イメージの大きさを比較して行うものなので、両方ともS2の回転処理が終了していなければならない。次に、平行移動処理を第1平行移動処理部36で行う(S4:詳細は実施の形態(説明4)で説明したとおりである)。図示しないが、その後S4処理手法については、合成処理の記憶部27に記憶させておく。その結果、A1及びB1の合成である第1全体イメージが完成する。
【0156】
次に、この実施の形態では、イメージ一致判断部18で第1全体イメージが一致しているかどうかを判断する(S5:詳細は実施の形態(説明6)で説明したとおりである)。そして一致していると判断した場合は、S6の処理に進むが、一致していないと判断した場合には、再びS2の処理に戻る。すなわち、それぞれA1及びB1に対する回転処理を再び行う。このとき、A1及びB1はS2、S3及びS4で処理した後のものではなく、最初にS1で第1部分イメージの記憶部20から取り出してきたA1及びB1に対してS2処理を行う。しかしながら、A1及びB1に対してS2、S3及びS4において一回目と全く同じ方法で処理を行うと、全く同じ結果になって、S5のイメージ一致判断部18で再び第1全体イメージが一致していないと判断される可能性がある。従って、実施の形態(説明4)で述べたこれらの処理の条件を変化させて、より精密に処理を行わせる必要がある。そこでS2においては、例えば、回転角度をより小さくし、及び、X軸又はY軸と平行になったと判断する基準を厳しくすればよい。又、S3においては、例えば、X軸及びY軸に対するピクセル投影をすべて考慮して細線間の距離の平均値を算出する方法を用いればよい。又、S4においては、例えば、一回目において重ねる処理の対象とした細線を別の細線に変えてみると良い。本実施の形態では、S5で一致していないと判断したときはS2の処理に戻る流れとしたが、他の流れも考えられる。例えば、S4に戻り、重ねる処理の対象とした細線を別の細線に変えてみても良いし、あるいは、第1及び第2イメージ取り込み装置10及び12でA1及びB1を取り込み直しても良い。
【0157】
さて、S5で一致していると判断した場合は、第2部分イメージの記憶部22から第2部分イメージであるA2及びB2を取り出す(S6)。取り出されたA2及びB2に対してS2(合成処理の記憶部27からS2処理手法を取り出す)と実質的に同じ合成処理を行う(S7)。ここで実質的に同じ合成処理とは、実施の形態(説明4)で説明したとおりである。S6及びS7に関しては、上述したS1及びS2と同様に、A2及びB2に関する順序を変化させても良い。次に、A2及びB2に対してS3(合成処理の記憶部27からS3処理手法を取り出す)と同じ処理を行う(S8)。次に、S4(合成処理の記憶部27からS4処理手法を取り出す)と同じ処理を行う(S9)ことにより、第2全体イメージが完成する。第2全体イメージは情報のみからなるイメージなので、この発明の装置ではイメージが一致しているかどうか判断することはできない。しかしながら、イメージが一致していると判断された第1全体イメージと同じ合成処理を行っているので、第2全体イメージも理論的には一致しているはずである。そして最後に、第2全体イメージを第2全体イメージ記憶部26に記憶させて(S10)、この実施の形態のイメージ合成を終了する。
【0158】
なお、上述のイメージ合成方法は一例であって、他の任意好適なイメージ合成方法であっても本発明に適用できる。例えば、この後さらに、画面上に第2全体イメージが出力されて、人間の目によりイメージが一致しているかどうか判断する工程を設けても良いし、又は、プリンター等によりイメージデータを出力させる構造としても良い。また、イメージ合成装置は、さらに合成されたイメージの文字認識を行う文字認識処理部を具えていてもよく、このときには、第2全体イメージの文字認識を行う工程が加わる。
【0159】
9.第2のイメージ合成装置を用いたイメージ合成方法の実施の形態(説明9)
次に、第2のイメージ合成装置を用いて、イメージ合成する方法の実施の形態を、装置上でのイメージ処理の流れを中心にして説明する。図12は、第2のイメージ合成装置を用いたイメージ合成方法を示すフローチャートである。
【0160】
S11からS15までの工程は上述したS1からS5までの工程と全く同じなので、説明を省略する。S15により第1全体イメージが一致していると判断された場合には、ドロップアウト処理部44で第1全体イメージのドロップアウト処理を行う(S16:詳細は実施の形態(説明7)で説明したとおりである)ことにより、情報のイメージのみからなる第2全体イメージが完成する。第2全体イメージを第2全体イメージの記憶部50に記憶させて(S17)、この実施の形態のイメージ合成処理を終了する。
【0161】
なお、上述のイメージ合成方法は一例であって、他の任意好適なイメージ合成方法であっても本発明に適用できる。例えば、この後さらに、第1のイメージ合成装置の時と同様に、画面上に第2全体イメージが出力されて、人間の目によりイメージが一致しているかどうか判断する工程を設けても良いし、又は、プリンター等によりイメージデータを出力させる構造としても良い。また、イメージ合成装置は、さらに合成されたイメージの文字認識を行う文字認識処理部を具えていてもよく、このときには、第2全体イメージの文字認識を行う工程が加わる。
【0162】
【発明の効果】
以上詳細に説明したように、この発明のイメージ合成装置によれば、少なくとも部分細線イメージを取り込む第1イメージ取り込み装置と、第1部分イメージの細線を用いて第1全体イメージに合成処理を行うイメージ合成処理装置を具えているので、一度ではイメージを取り込めない大きな被読取媒体に対しても、あたかも一枚の被読取媒体のイメージを一度で取り込んだのと同等の全体イメージを、ソフト上で自動的に形成することができる。
【0163】
また、第1のイメージ合成装置は第2イメージ取り込み装置及び第2イメージ合成処理装置を、第2のイメージ合成装置はドロップアウト処理装置を具えているので、形成された第2全体イメージは細線イメージは消えて、情報のみのイメージになる。
【0164】
また、得られた第2全体イメージはOCR装置により高い認識率を持って文字認識される。
【0165】
さらに、イメージ一致判断部を具えると、より精度の高い第2全体イメージとなる。
【0166】
また、非可視性材料により細線を書き込まれた被読取媒体を用いることにより、人間の目には細線は感知されなく、美観を損ねない。
【図面の簡単な説明】
【図1】第1のイメージ合成装置の実施の形態を示すブロック図
【図2】第2のイメージ合成装置の実施の形態を示すブロック図
【図3】部分イメージを取り込む概念を示す図(1)
【図4】細線の描き方の変形例を示す図
【図5】部分イメージを取り込む概念を示す図(2)
【図6】第1のイメージ合成装置における部分イメージを示す図
【図7】回転処理を示す図
【図8】倍率変化処理を示す図
【図9】平行移動処理を示す図
【図10】ドロップアウト処理を示す図
【図11】第1のイメージ合成方法を示すフローチャート
【図12】第2のイメージ合成方法を示すフローチャート
【符号の説明】
14:第1イメージ合成処理装置
16:第2イメージ合成処理装置
42:第1イメージ合成処理装置
58:細線
60:被読取媒体の輪郭
62:被読取媒体
64:細線(細線間の幅を変えたもの)
66:細線(細線の太さを変えたもの)
68:被読取媒体
70:情報を記録する位置
72:細線
74:情報
75a:部分イメージA
75b:部分イメージB
76:情報
78,80:第1及び第2イメージ取り込み装置で取り込める範囲
81a:部分イメージA 81b:部分イメージB
82:イメージ合成処理装置で処理できる範囲
84:X軸
86:Y軸
88:第1部分イメージ
90:細線
92:ピクセル投影のピーク幅
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for collecting partial images of information obtained by dividing information on a single read medium into a plurality of portions and combining the collected partial images into a single whole image.
[0002]
[Prior art]
Conventionally, an image obtained by reading information on a medium to be read by a reading device such as a scanner has been used for various purposes, for example, processing of an image on a computer. Further, it is also used as an input means to an optical character reader (hereinafter referred to as an OCR (Optical Character Reader) device) that has made remarkable technological progress in recent years. In the OCR apparatus, particularly in the financial industry, technical development is actively performed because labor saving and efficiency improvement by systematization of various data input operations (data entry) is an urgent task.
[0003]
This reading apparatus is classified into a contact type and a non-contact type depending on whether or not a medium to be read contacts with a light source and a light receiving element of the reading apparatus. As the contact type, for example, there is a normal scanner, which is widely used as an OA device. As a non-contact type, for example, there is one that takes a picture with a digital camera with a built-in CCD. When reading information on a form in the financial industry, the form is thick and bulky, so a non-contact type is convenient.
[0004]
However, in a scanner, the size of a medium to be read that can capture an image is determined. Therefore, for a medium to be read that is larger than that, an image of information is not captured in multiple steps. must not. At this time, the image captured at one time is a partial information image of the read medium. However, as described above, for example, in order to perform character recognition with an OCR device, it is necessary to input the entire image. Therefore, it is necessary to synthesize the captured partial information images into one whole image.
[0005]
[Problems to be solved by the invention]
However, conventionally, there is no image synthesizing device that can automatically synthesize a plurality of partial information images into one whole image on software and can use the whole image as it is for an OCR device or the like. It was. That is, since the partial images are simply superimposed, the joints of the partial images can be understood, and the character recognition ability in the OCR device is low. When used in an OCR device, if the joint of the image is shifted even a little, it is recognized as another character and the recognition rate is lowered. Therefore, in a system such as a financial institution, there is a problem in reliability and it cannot be used for an OCR device.
[0006]
The present invention has been made in view of the above points. Therefore, an object of the present invention is to automatically create a high-accuracy composite image that can be recognized with a high recognition rate by an OCR device on software. Another object of the present invention is to provide an image synthesizing apparatus and a read medium used for the image synthesizing apparatus.
[0007]
[Means for Solving the Problems]
  In order to achieve this object, according to the first image composition device of the present invention, the information fetched from one read medium in which information and a plurality of collating thin lines are written are a plurality of portions. An image synthesizing apparatus that synthesizes the partial image divided into a single whole image of the information includes a first image capturing unit, a second image capturing unit, a first image combining processing unit, and a second image combining unit. A processing unit; and an image coincidence determination unit, wherein the first image capturing unit captures, as a first partial image, a partial image including the thin line from a plurality of partial divided regions of the read medium. The second image capturing unit captures the partial image of the information other than the thin line as the second partial image from the partial division region, The one image composition processing unit performs rotation, magnification change, and parallel movement processing on each of the first partial images using the image including the thin line included in each of the plurality of first partial images. By performing the above-described processing, the second whole image is synthesized from the second partial image in accordance with the synthesis method substantially the same as the first image synthesis processing unit. The whole image is synthesized, and the image match determination unit matches the first whole image with reference to the amount of deviation between fine lines other than the fine lines used in the first whole image synthesis process. Make a judgmentWith
The first image capturing unit and the second image capturing unit are configured to maintain the same state except for the target of the captured image.It is characterized by that.
[0008]
  Here, the information is an image (including characters, numbers, symbols, figures, etc.) necessary for some purpose, for example, OCR recognition. On the other hand, since the thin line is dummy information necessary only for the image composition processing of the present invention, it is different from the information here. A plurality of partial divided areas is not an area in which a single read medium is divided without overlapping at all. Near the boundary of each partial divided area, the same part of the read medium is partially overlapped. It means that it contains. This is because, in the present invention, since the images are synthesized based on the overlapping areas, the images cannot be synthesized unless the partial images partially include images in the same area. At least the fine wireincludingThe partial image includes an image of only a thin line and an image of a thin line and information. Further, a partial image of a thin line is hereinafter abbreviated as a partial thin line image in this specification, and similarly, a partial image of information is abbreviated as a partial information image.
[0009]
  With such a configuration, even for a large read medium that cannot capture an image at one time, a second entire image equivalent to that obtained by capturing an image of a single read medium at one time is displayed on the software. Can be configured automatically. Further, the formed second whole image does not include the fine line image, and becomes an image of only the target information.
  Also, with this configuration, the image composition process is repeated many times until the determination criterion for determining that the images match is reached, so that a highly accurate first whole image can be formed.
[0010]
In carrying out the present invention, preferably, the thin line is a thin line written with an invisible material.
[0011]
Here, the invisible material means a material that does not absorb visible light but absorbs ultraviolet light or infrared light. If the fine line is written with an invisible material, the fine line on the read medium is not recognized by the human eye, and the aesthetic appearance is not impaired. However, since it is recognized on the image composition device, it can be a reference for image composition.
[0012]
  In carrying out the present invention, preferably, the first partial image isThe partial image of the thin line from the plurality of partial divided areas of the read mediumGood to include only.
[0013]
  With this configuration, the first image composition processPartWhen the synthesis process is performed, the partial information image is not included and only the partial thin line image is included, so that the synthesis process is easy to perform.
[0014]
  Also, the first and second image capture in the first image composition apparatus of the present inventionPartIs preferably configured as follows.
(A) Capture the first imagePartComprises a light source that emits light of a first wavelength absorbed by the thin line and the information constituent material, and a light receiving unit that senses the light of the first wavelength, and captures the second image.PartComprises a light source that emits a second wavelength that is absorbed by the information constituent material, and a light receiving unit that senses the light of the second wavelength.
(B) Capture the first imagePartComprises a light source that emits light of a first wavelength that is absorbed by the constituent material of the thin wire, and a light receiving unit that senses light of the first wavelength, and the second image capturingPartComprises a light source that emits a second wavelength that is absorbed by the information constituent material, and a light receiving unit that senses the light of the second wavelength.
(C) capturing the first imagePartIs a light source that emits light of a first wavelength that is absorbed by at least the constituent material of the fine wire, and a light receiving device that senses light of the second wavelength that is emitted when the constituent material of the fine wire absorbs the light of the first wavelength. The second image capturePartComprises a light source that emits a third wavelength that is absorbed by the material constituting the information, and a light receiving unit that senses the light of the third wavelength. Here, the fact that at least the constituent material of the thin line absorbs means that the constituent material of information may absorb other than the thin line.
[0015]
By providing the configuration of (a), the partial thin line image and the partial information image can be obtained as the first partial image and the partial information image as the second partial image, and the configurations of (b) and (c) can be obtained. By providing, a partial thin line image is obtained as a first partial image, and a partial information image is obtained as a second partial image.
[0016]
  According to the second image composition device of the present invention,Information and multiple thin lines for verification are writtenOne read mediumTaken fromThe information is divided into partsPartMinute image, one pieceAboveAn image synthesizer that synthesizes the entire image of informationIncludes a first image capturing unit, a first image composition processing unit, a dropout processing unit, and an image match determination unit.From the plurality of partial divided regions of the read medium, the thin lineincludingPartial imageGAnd partial image of the informationThe, Each as a first partial imageOnly,The first image composition processing unit has a plurality ofThe first partial imageIncluded in each ofin frontDetaillineincludingUsing imagesBy subjecting each of the first partial images to rotation, magnification change, and translation processing,Performs composition processing of the first whole imageNo,The dropout processing partFrom the first overall image, the previousDetaillineContaining partDrop out only the image before it remainsEmotionNewsPart ofImage with the second whole imageThe image match determination unit determines whether or not the first overall images match based on a shift amount of fine lines other than the thin lines used in the synthesis process of the first overall image. Characterized by.
[0017]
Dropout here means erasing data from the machine memory.
[0018]
With such a configuration, even for a large read medium that cannot capture an image at one time, a second entire image equivalent to that obtained by capturing an image of a single read medium at one time is displayed on the software. Can be configured automatically. Further, since only the fine line image is dropped out from the first whole image, the thin line image disappears from the formed second whole image, and only the target information image is obtained.
[0019]
In carrying out the present invention, preferably, the thin line is a thin line written with an invisible material.
[0020]
If the fine line is written with an invisible material, the fine line on the read medium is not recognized by the human eye, and the aesthetic appearance is not impaired. However, since it is recognized on the image composition device, it can be a reference for image composition.
[0021]
Further, the image capturing device in the second image composition device of the present invention is preferably configured as follows.
(D) a light source that emits light having a wavelength that is absorbed by the constituent material of the thin line and information, and a light receiving unit that senses the light having the wavelength.
[0022]
By providing such a configuration, a partial thin line image and a partial information image are obtained as the first partial image.
[0023]
  Also, a first image composition process in the first and second image composition apparatuses of the present invention.PartShould contain the following structure:
(A)Each said1st partOf the image, any of the horizontal or vertical directionsPart containing fine linesA first rotation processing unit configured to rotate the first partial image so that the image is parallel to the X axis or the Y axis;
(B)For each said first partial image,Part containing fine linesA first magnification change processing unit that determines the corresponding fine lines of the image and changes the magnification of the first partial image so that the distances between the thin lines coincide with each other.
(C)Corresponding saidPart containing fine linesSo that the images overlap at the correct position.1st partA first translation processing unit that translates an image.
[0024]
  Also,(B)In the above, the determination of the corresponding thin line may be performed by the following method depending on how the thin line is written on the read medium.
(1) The abovePart containing fine linesJudgment is made by recognizing the positional relationship according to the number of vertical or horizontal thin lines included in the image.
(2)When the thin lines for verification having different thicknesses are written on the read medium,SaidPart containing fine linesJudgment is based on the thickness of the thin lines included in the image.
(3)When the thin lines for verification with different intervals are written on the read medium,SaidPart containing fine linesJudgment is made based on the distance between fine lines included in the image.
[0025]
(1) is effective for a read medium in which fine lines are written in a grid pattern, and (2) is effective for a read medium written by changing the thickness of the fine lines. (3) is effective for a read medium written by changing the distance between the thin lines.
[0028]
Further, when implementing the first and second image synthesizing apparatuses of the present invention, a character recognition processing unit for recognizing characters of the synthesized image may be provided.
[0029]
With this configuration, an integrated apparatus capable of performing character recognition of the synthesized second whole image.
[0030]
  Further, in implementing the first and second image composition apparatuses of the present invention, the first image composition processing when the image coincidence determination unit determines that the first whole images do not coincide with each other. It is preferable that the unit performs the first overall image composition process again using a thin line other than the thin line used for the composition process of the first entire image.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the size, shape, and arrangement relationship of each component are shown only schematically to the extent that the present invention can be understood, and the numerical conditions described below are merely examples. .
[0036]
In this embodiment, an image composition apparatus, an image composition method using the image composition apparatus, and a read medium used in the image composition apparatus will be specifically described.
[0037]
The image synthesizing apparatus of the present invention includes a first image synthesizing apparatus and a second image synthesizing apparatus, and embodiments of the respective apparatuses will be described. FIG. 1 is a block diagram showing the configuration of the first embodiment of the image composition apparatus, and FIG. 2 is a block diagram showing the configuration of the embodiment of the second image composition apparatus.
[0038]
The first image synthesizing device includes first and second image capturing devices 10 and 12, first and second image synthesizing processing devices 14 and 16, and further, an image match determination unit 18, first and second parts. Image storage units 20 and 22, first and second overall image storage units 24 and 26, and a composition processing storage unit 27 are provided. The first image composition processing device 14 includes a first rotation processing unit 28, a first magnification change processing unit 32, and a first parallel movement processing unit 36. The second image composition processing device 16 includes a second rotation processing unit 30, a second magnification change processing unit 34, and a second parallel movement processing unit 38.
[0039]
The second image composition device includes a first image capture device 40, a first image composition processing device 42, and a dropout processing device 44, and further includes an image match determination unit 46, a first partial image storage unit 48, 2 The entire image storage unit 50 is provided. The first image composition processing device 42 includes a first rotation processing unit 52, a first magnification change processing unit 54, and a first parallel movement processing unit 56.
[0040]
Among these, the first image synthesizing apparatus that is operated by the microcomputer is the first and second image capturing apparatuses 10 and 12, the first and second image synthesizing processing apparatuses 14 and 16 (ie, the first and second image synthesizing apparatuses). 2 rotation processing units 28 and 30, first and second magnification change processing units 32 and 34, first and second translation processing units 36 and 38), and image coincidence determination unit 18.
[0041]
Further, in the second image composition device, the microcomputer operates the first image capturing device 40, the first image composition processing device 42 (that is, the first rotation processing unit 52, the first magnification change processing unit 54, A first translation processing unit 56), a dropout processing device 44, and an image match determination unit 46.
[0042]
1. Embodiment of Read Medium Used for Image Composition Device (Description 1)
First, an embodiment of a read medium used in the image composition apparatus of the present invention will be described.
[0043]
Thin lines are written on the read medium. This fine line is preferably written in advance before information is written on the read medium. In this embodiment, a thin line written using an invisible material will be described. Since the thin line in this embodiment is written with an invisible material, the thin line is not perceived by the human eye. However, when the image composition is performed by the image composition apparatus according to the present invention, the image composition is performed based on the image of the thin line, and therefore, it must be an invisible material that allows the image composition apparatus to recognize the thin line.
[0044]
There are two types of invisible materials used for the read medium of the present embodiment. The first material absorbs ultraviolet light and emits visible light as fluorescence or phosphorescence by absorbing the ultraviolet light. The specific absorption wavelength range and emission wavelength are limited by the relationship with the absorption wavelength range of the information constituent material. That is, it is necessary that the emission wavelength range of the invisible material does not overlap with the absorption wavelength range of the information constituent material. When a read medium on which fine lines using such an invisible material are written is used, when a partial image is captured by an image capturing device described later, a first partial image consisting of the partial thin line image and a partial information image To obtain a second partial image. Information constituent materials include, for example, graphite pencils, ballpoint pens, fountain pens, printing inks, etc. When selecting invisible materials, select them as a combination considering the optical characteristics of the information constituent materials. It is good to do.
[0045]
The second material absorbs ultraviolet light or infrared light. There are two specific absorption wavelength ranges in relation to the absorption wavelength range of the information constituent material. That is, there is a wavelength range in which only the invisible material is absorbed without absorbing the information portion, or there is no wavelength range in which only the invisible material is absorbed. When the read medium on which fine lines using the former invisible material are written is used, when a partial image is captured by an image capturing device described later, the first partial image composed of the partial thin line image and the partial information image The second partial image is obtained. When a read medium on which fine lines using the latter invisible material are written is used, when a partial image is captured by an image capturing device described later, a first partial image composed of a partial thin line image and a partial information image; A second partial image made up of partial information images (the second partial image is not present in the second image composition device) is obtained.
[0046]
Any material that satisfies the above-mentioned two material conditions can be used as the invisible material of the present invention, and is not limited to a specific material.
[0047]
Further, as the medium to be read, if it is a white medium that does not absorb light in the absorption wavelength range of the invisible material and the information material, for example, ordinary paper may be used.
[0048]
As a result, fine lines are not perceived by the naked eye, but can be recognized when a partial image of the medium to be read is captured by an image capturing device. Therefore, based on the thin lines, image synthesis is performed on the entire image. can do.
[0049]
Next, a thin line writing method will be described with reference to the drawings. FIG. 3A shows a state in which fine lines composed of several straight line groups are actually written on the read medium. In the figure, 58 indicates a thin line, and 60 indicates the outline of the medium 62 to be read. Actually, since the thin line 58 of this embodiment is invisible, it does not look like this figure, but the thin line 58 is conceptually shown. Fine lines 58 are written as straight lines in the vertical direction and the horizontal direction on the read medium 62. The thickness and length of the thin line 58 are not particularly limited. However, if the line is too thick, it is difficult to determine the center coordinates of the thin line 58 in an image composition apparatus to be described later, and if the line 58 is too thin, the thin line 58 may not be recognized. There is. Accordingly, an appropriate thickness is preferable, but in this embodiment, a straight line having a thickness of about 0.5 mm is used. Further, it is desirable that the thin line 58 is a straight line that penetrates the read medium 62. This is because the portion where the thin line 58 is not written cannot be image-synthesized. Further, it is desirable that the single thin wire 58 has a uniform thickness and a straight line. This is because this condition is necessary to synthesize the image of the thin line 58 in the image synthesizing apparatus described later.
[0050]
Further, the thin line 58 is a set of two straight lines arranged in parallel at a moderately small interval, and these straight line groups are preferably orthogonal to each other. This is because when the read medium 62 on which the thin lines 58 are written is divided and taken into partial images, the entire image is synthesized two-dimensionally with reference to the thin lines 58 in each partial image. In this embodiment, the thin lines 58 are written in a lattice shape, and the interval between the lattices is, for example, 1 cm for both the vertical and horizontal thin lines 58. Note that the direction of the thin line 58 in the vertical direction and the horizontal direction is preferably parallel to each side if the read medium 62 is rectangular. This is because information to be written later is often written in a direction parallel to one side of the read medium 62, so that the image of information synthesized on the image synthesizing apparatus does not become oblique.
[0051]
A modification of the thin line 58 writing method is shown in FIGS. FIG. 4A shows an example in which both vertical and horizontal thin lines 64 are written with straight lines having different intervals. FIG. 4B shows an example in which both vertical and horizontal thin lines 66 are written as straight lines having different thicknesses. These modifications have the effect of making it easier to determine the corresponding thin line when the read medium is taken into small partial images.
[0052]
FIG. 5A shows a thin line writing method when the read medium is used in the second image composition apparatus. As will be described in detail later, the second image synthesizing apparatus can be used when a position 70 where information is to be recorded later is determined on the read medium 68. Therefore, the thin line 72 is not written at that position. I have to do so. That is, the information 74 and the thin line 72 are not overlapped. At this time, the first partial image including both the information 74 and the thin line 72 is captured by the first image capturing device 40 of the second image composition device. Thereafter, only the thin line 72 can be dropped out from the synthesized first whole image.
[0053]
As a method for writing a thin line on the read medium, any method such as a normal printing method may be used.
[0054]
In this embodiment, the thin line is written using an invisible material, but even a visible material can be used in the present invention. However, in actual application, thin lines are visible to the human eye, which impairs the aesthetics of the read medium and is inconvenient to use.
[0055]
2. Embodiment of image capturing device in first image composition device (Description 2)
Next, an embodiment of an image capturing device which is a part of the first image composition device of the present invention will be described with reference to the drawings.
[0056]
The image capturing device includes a first image capturing device 10 that captures at least a fine thin line image as a first partial image from a plurality of partial divided regions of a read medium, and a partial information image from the partial divided region. Are included as second partial images, respectively.
[0057]
Here, since the first partial image and the second partial image are captured from the same partial divided area, the first image capturing device 10 and the second image capturing device 12 are objects of the captured image (thin lines or information). Other than that, it must remain the same. That is, it means that the positions, functions, and conditions of the read medium, the light source, and the light receiving element are kept the same. However, since the objects are different, only one of the wavelength range of light emitted from each light source and the wavelength range of light recognized by the light receiving element is changed.
[0058]
Specifically, both the first image capturing device 10 and the second image capturing device 12 include a light source that irradiates light to a read medium and a light receiving element that senses reflected light or emitted light from the read medium. Yes. Examples of the image capturing device include a contact type scanner and a non-contact type scanner using a digital camera including a light receiving element constituted by a CCD.
[0059]
In this embodiment, the configuration of three types of image capturing devices that can be considered by combining the two types of invisible materials described in the embodiment (Description 1) and the materials used for writing information will be described below. To do. Note that the first image capturing device 10 and the second image capturing device 12 must perform image detection for the same partial divided region while keeping the positions, functions, and conditions of the light source and the light receiving element in the same state. Therefore, both devices must be considered in a structurally combined configuration.
[0060]
In the first image capturing device, the first image capturing device 10 includes a light source that emits light of a first wavelength that is absorbed by a thin line and a constituent material of information, and a light receiving unit that senses light of the first wavelength. Have. The second image capturing device 12 includes a light source that emits a second wavelength absorbed by the information constituent material, and a light receiving unit that senses light of the second wavelength.
[0061]
In such a configuration, the constituent material of the thin line is an invisible material and absorbs ultraviolet light or infrared light. Further, of the light from the light source, only the constituent material of the thin line is absorbed. This is the case.
[0062]
As a result, both the partial thin line image and the partial information image can be captured as the first partial image by the first image capturing device 10, and the partial information image is captured as the second partial image by the second image capturing device 12. Can do.
[0063]
Since the first image capturing device has a combination structure of the first image capturing device 10 and the second image capturing device 12, more specifically, the following two types of configurations are conceivable. Both have the device configuration having both functions of the first image capturing device 10 and the second image capturing device 12.
[0064]
In the first type of apparatus, the light source is a light source that emits both the first wavelength and the second wavelength, and the light receiving unit is a light receiving element that includes a CCD having both an element part that senses the first wavelength and an element part that senses the second wavelength. To do. Therefore, an image captured by the element portion sensing the first wavelength can be used as the first partial image, and an image captured by the element portion sensing the second wavelength can be used as the second partial image. Note that the first image capturing device 10 and the second image capturing device 12 are the same as described above in order to simultaneously capture the first partial image and the second partial image for the same partial divided area of the read medium. Keeps the state.
[0065]
The second type of device has two types of light sources, one that emits the first wavelength and one that emits the second wavelength, and the light receiving unit has an element portion that senses both the first wavelength and the second wavelength. A light receiving element composed of a CCD is provided. Therefore, an image captured using a light source that emits a first wavelength can be used as a first partial image, and an image captured using a light source that emits a second wavelength can be used as a second partial image. Here, in order to capture the first partial image and the second partial image in two portions, the first image capturing device 10 and the second image capturing device 12 must maintain the same state. That is, the positional relationship between the light receiving element and the read medium must be the same.
[0066]
In the second image capturing device, the first image capturing device 10 includes a light source that emits light having a first wavelength absorbed by a constituent material of a thin line, and a light receiving unit that senses light having the first wavelength. The second image capturing device 12 includes a light source that emits a second wavelength absorbed by the information constituent material, and a light receiving unit that senses light of the second wavelength.
[0067]
In such a configuration, the constituent material of the thin line is an invisible material and absorbs ultraviolet light or infrared light, and further, the constituent material of information out of the light from the light source does not absorb the fine line. This is a case where there is a wavelength range in which only the constituent material is absorbed.
[0068]
As a result, the first image capturing device 10 can capture the partial thin line image as the first partial image, and the second image capturing device 12 can capture the partial information image as the second partial image.
[0069]
Since the second image capturing device is a combination structure of the first image capturing device 10 and the second image capturing device 12, more specifically, two types of configurations can be considered. Since it is exactly the same as the capturing device, description thereof is omitted.
[0070]
In the third image capturing device, the first image capturing device 10 includes a light source that emits light of a first wavelength that is absorbed by at least a thin line constituent material, and a thin line constituent material that absorbs light of a first wavelength. A light receiving unit that senses light of a second wavelength that is sometimes emitted, and the second image capturing device 12 senses a light source that emits a third wavelength that is absorbed by the information constituent material and light of the third wavelength. And a light receiving portion.
[0071]
Such a configuration is used when the constituent material of the thin wire is an invisible material, absorbs ultraviolet light, and emits visible light, and further, the emission wavelength range of the constituent material of the thin wire Is the case where it does not overlap with the absorption wavelength range of the information constituent material.
[0072]
As a result, the first image capturing device 10 can capture the partial thin line image as the first partial image, and the second image capturing device 12 can capture the partial information image as the second partial image.
[0073]
Since the third image capturing device has a combination structure of the first image capturing device 10 and the second image capturing device 12, more specifically, the following two types of configurations are conceivable. Both have the device configuration having both functions of the first image capturing device 10 and the second image capturing device 12.
[0074]
In the first type of apparatus, the light source is a light source that emits both the first wavelength and the third wavelength, and the light receiving unit is a light receiving element composed of a CCD having both an element part that senses the second wavelength and an element part that senses the third wavelength. To do. Therefore, an image captured by the element portion sensing the second wavelength can be used as the first partial image, and an image captured by the element portion sensing the third wavelength can be used as the second partial image. Here, since the first partial image and the second partial image are captured at the same time, the first image capturing device 10 and the second image capturing device 12 maintain the same state.
[0075]
The second type of device comprises two types of light sources, one that emits the first wavelength and one that emits the third wavelength, and the light receiving unit is a CCD having an element portion that senses both the second wavelength and the third wavelength. The light receiving element is as follows. Therefore, an image captured using a light source that emits a first wavelength can be used as a first partial image, and an image captured using a light source that emits a third wavelength can be used as a second partial image. Here, in order to capture the first partial image and the second partial image twice, the first image capturing device 10 and the second image capturing device 12 must maintain the same state. That is, it is necessary to make the positional relationship between the light receiving element and the read medium the same.
[0076]
The first partial image capturing device 10 and the second partial image capturing device 12 of the present invention are not limited to the above-described configuration example, and further modifications are conceivable depending on combinations of thin lines and information constituent materials.
[0077]
Next, the concept of capturing an image with the image capturing device of this embodiment and the captured image will be described with reference to the drawings. FIG. 3 is a diagram showing the concept of capturing a partial image of the read medium 62 with an image capturing device. In this embodiment, since the invisible material is used for the thin line 58, it is not actually visible, but in FIG. 3, it is shown by a solid line for easy understanding.
[0078]
In this embodiment, thin lines written in a lattice shape are used as the thin lines 58 of the read medium 62 (FIG. 3A). When information 76 is written on the read medium 62, the state shown in FIG. Only the information 76 can be seen with the naked eye as described above. FIG. 3C shows a state in which a partial image of the read medium 62 shown in FIG. Two rectangular frames 78 and 80 indicate the range that can be captured by the first and second image capture devices 10 and 12. In this embodiment, the read medium 62 is divided into two parts, and two partial images are captured. Here, it is necessary to capture the partial images so that the boundary between the two partial images overlaps. This is because, in order to synthesize the captured partial images, the images of the overlapping portions are used as a basis. Therefore, even when the read medium 62 is divided into three or more parts and three or more partial images are captured, the boundary images are captured so that the boundary portions overlap. FIG. 3D shows the state of the two partial images captured by FIG. You can see that the borders overlap. Of these, the left partial image 81a is A, and the right partial image 81b is B. A and B are captured by the first and second image capture devices 10 and 12, respectively. Of A, the partial image 81a captured by the first image capturing device 10 is defined as a first partial image A1, and the partial image 81a captured by the second image capturing device 12 is defined as a second partial image A2. Similarly, a partial image 81b captured by the first image capturing device 10 in B is defined as a first partial image B1, and a partial image 81b captured by the second image capturing device 12 is defined as a second partial image B2.
[0079]
Next, the first or second partial image A1 or A2 captured by the image capturing device of this embodiment will be described with reference to the drawings. FIG. 6 is a diagram showing a partial image captured by the first image composition device. FIG. 6A is a diagram showing a first partial image A1 in the image capturing device having the first configuration described above, and includes an image of a thin line 58 and information 76. FIG. FIG. 6B is a diagram showing the first partial image A1 in the second and third configurations described above, and includes an image of only the thin line 58. FIG. FIG. 6C is a diagram showing the second partial image A2 in all the above-described configurations, and includes an image of only the information 76.
[0080]
The first partial image and the second partial image captured by the image capturing device of this embodiment are stored in the storage units 20 and 22 for the first and second partial images.
[0081]
The image capturing device in the first image composition device requires two devices, the first and second image capture devices 10 and 12, which are more complicated than the second image composition device described later. The second image capture device 12 can obtain a second overall image of information only, thus eliminating the need for a dropout processor 44. Further, there is an advantage that the second whole image can be obtained even when the thin line 58 and the information 76 are overlapped on the read medium 62.
[0082]
3. Embodiment of image capturing device in second image composition device (Description 3)
Next, an embodiment of an image capturing device which is a part of the second image composition device of the present invention will be described with reference to the drawings.
[0083]
The image capturing device includes a first image capturing device 40 that captures a partial thin line image and a partial information image as a first partial image from a plurality of partial division regions of a read medium.
[0084]
Specifically, it includes a light source that emits light of a wavelength that is absorbed by the thin line and the information portion, and a light receiving unit that senses the light of that wavelength. Examples of the first image capturing device include a contact type scanner and a non-contact type scanner using a digital camera provided with a light receiving element constituted by a CCD.
[0085]
The second image synthesizing apparatus is used when the constituent material of the thin line is an invisible material and there is no wavelength range in which only the constituent material of the thin line absorbs the light from the light source, or image capturing There are cases where the structure of the device takes advantage of simple advantages. As a result, the first partial image including both the partial thin line image and the partial information image can be captured by the first image capturing device 40.
[0086]
The first image capturing device 40 of the present invention is not limited to the above-described one, and further modifications may be conceived depending on the combination of the invisible material and the material used for writing information.
[0087]
The concept of capturing an image with the image capturing device of this embodiment and the captured image will be described with reference to the drawings. FIG. 5 is a diagram showing a concept of capturing a partial image of the read medium 68 by the first image capturing device 40. In this embodiment, since the invisible material is used for the thin line 72, it is not actually visible, but in FIG. 5A, it is shown by a solid line for easy understanding.
[0088]
In this embodiment, the information shown in FIG. 5A in which information 74 is written on the read medium 68 in which the thin line 72 described in the first embodiment is written is used. At this time, the thin line 72 and the information 74 do not overlap. A partial image is captured from the read medium 68 by the same method as described in the embodiment (description 2). In this embodiment, the read medium 68 is divided into two parts, and two partial images are captured. Here, it is necessary to capture the partial images so that the boundary between the two partial images overlaps. This is because, in order to synthesize the captured partial images, the images of the overlapping portions are used as a basis. Therefore, even when the read medium 68 is divided into three or more parts and three or more partial images are captured, the boundary images are captured so that the boundary portions overlap.
[0089]
Next, the first partial image captured by the image capturing device of this embodiment will be described with reference to the drawings. FIG. 5B is a diagram illustrating a partial image captured by the image composition device. You can see that the borders overlap. Among these, the left partial image 75a is A, and the right partial image 75b is B. A and B are captured by the first image capturing device 40 described above. A first partial image A1 and B first partial image B1. It can be seen that both A1 and B1 contain both fine line 72 and information 74 images.
[0090]
The first partial image captured by the first image capturing device 40 of this embodiment is stored in the first partial image storage unit 48.
[0091]
Since the first image capturing device 40 in the second image synthesizing device has a simple configuration, it is effective when the thin line 72 and the information 74 do not overlap on the read medium 68.
[0092]
4). Embodiment of image composition processing apparatus in first image composition apparatus (description 4)
Next, an embodiment of an image composition processing apparatus which is a part of the first image composition apparatus of the present invention will be described with reference to the drawings.
[0093]
This image composition processing device is substantially the same as the first image composition processing device 14 and the first image composition processing device 14 that perform composition processing of the first whole image from the first partial image using the partial thin line image. A second image composition processing device 16 that performs composition processing of the second whole image from the second partial image according to the same composition processing method is provided.
[0094]
Among these, the first image composition processing device 14 rotates the first partial image so that an arbitrary partial thin line image in the horizontal direction or the vertical direction among the partial thin line images is parallel to the X axis or the Y axis. The first rotation processing unit 28 and the first magnification for changing the magnification of the first partial image so as to determine the corresponding fine line of the partial thin line image for each first partial image and to match the distance between the thin lines It includes a change processing unit 32 and a first translation processing unit 36 that translates the partial thin line images so that the corresponding partial thin line images overlap at the correct position (FIG. 1).
[0095]
Further, the second image composition processing device 16 rotates the first partial image so that an arbitrary partial thin line image in the horizontal direction or the vertical direction among the partial thin line images is parallel to the X axis or the Y axis. The second rotation processing unit 30 and the second magnification for changing the magnification of the first partial image so as to determine the corresponding fine line of the partial thin line image for each first partial image and to match the distance between the thin lines It includes a change processing unit 34 and a second translation processing unit 38 that translates the partial thin line images so that the corresponding partial thin line images overlap at the correct position.
[0096]
Here, “substantially the same composition processing method” is performed in each of the first rotation processing unit 28, the first magnification change processing unit 32, and the first parallel movement processing unit 36 of the first image composition processing device 14. This means that the method is substantially the same as the following processing method. That is, the total rotation angle in the first rotation processing unit 28, the ratio of the magnification change in the first magnification change processing unit 32, and the parallel movement in the X axis direction and the Y axis direction in the first translation processing unit 36. This is the coordinate amount. For this reason, these composition processing methods performed by the first image composition processing device 14 are stored in the composition processing storage unit 27, and this composition processing method is performed when the second image composition processing device 16 performs composition processing. Is appropriately extracted from the storage unit 27 of the synthesis process.
[0097]
First, the first rotation processing unit 28 will be described with reference to FIG. FIG. 7A is a diagram showing a state in which the first partial image 88 is taken out from the storage unit 20 for the first partial image. The outer frame 82 is a range that can be processed by the image composition device, and is the same as the range of the captured partial image. In the first rotation processing unit 28, there are an X axis 84 and a Y axis 86 orthogonal to the X axis 84. First, the first partial image 88 is projected on the Y axis 86 in the X axis 84 direction. The first partial image 88 is composed of a large number of pixels. When the Y coordinate is constant, the first partial image 88 has a projected pixel intensity I corresponding to the number of pixels when the X coordinate is changed. The pixel intensity I with respect to this Y coordinate is shown in FIG. At this time, when one of the vertical or horizontal partial images of the grid-like thin lines 90 is not parallel to the X axis 84, that is, the partial images of the thin lines 90 are coordinate axes of the first rotation processing unit 28. When tilted with respect to 84 and 86, the projected peak has a width and therefore the pixel intensity I is small. Therefore, in order to make the partial image of the thin line 90 parallel to the X axis 84, the image is rotated by a certain angle θ (an angle formed with the X axis 84) in an arbitrary direction around the origin of the coordinate axis. When the pixel intensity I after rotation is large, the partial image of the thin line 90 is closer to parallel to the X axis 84 than before the rotation. On the contrary, when the pixel intensity I after rotation is small, the pixel intensity I is far from parallel, and thereafter, the pixel intensity I is rotated in the opposite direction. As the rotation is repeated several times, the peak width 92 decreases and at the same time the pixel intensity I increases. As a result, the pixel intensity I has a certain constant value IS Is exceeded, it is determined that the partial image of the thin line 90 is parallel to the X axis 84 (that is, the partial image of the other thin line 90 is parallel to the Y axis 86). This IS Since the accuracy of parallelism is determined by the magnitude of the value of, the IS What is necessary is just to decide the magnitude of the value of. If the rotation angle θ is too large, it cannot be accurately adjusted to the parallel state, and if it is small, the rotation process must be repeated many times before reaching the parallel state. Therefore, in practice, when θ is initially increased and rotated, and it is determined that the rotation is approaching parallel, θ may be gradually decreased to make fine adjustment.
[0098]
However, in this method, one of the vertical or horizontal partial images of the grid-like thin lines 90 is rotated so as to be parallel to the X axis 84, and which is parallel to the X axis 84. May cause the partial images to be shifted by 90 °. In order to prevent this, for example, there are the following methods. First, when the first partial image 88 is captured by the first image capturing device 10, the direction of the read medium 82 is not changed so much. Furthermore, it may be controlled so that the total rotation angle rotated by the rotation process does not exceed 45 °.
[0099]
This rotation process is performed for all the first partial images 88. In this embodiment, there are two first partial images 88, A1 and B1, and therefore rotation processing is performed for A1 and B1.
[0100]
Here, as shown in FIG. 7A, when the first partial image 88 is only a thin line, the rotation process may be performed as described above. However, as described in the embodiment (description 2), the first partial image 88 When the image 88 includes both a thin line and information, a peak of information also appears in the pixel projection intensity I in FIG. In this case, when one of the vertical or horizontal partial thin line images is not parallel to the X axis, the pixel projection intensity of information with respect to the pixel intensity of the thin line cannot be ignored. However, when approaching parallel, the pixel intensity of the thin line becomes very large, and the pixel projection intensity of information becomes negligible. Therefore, also in this case, the rotation process can be performed, and although the description is omitted, a magnification change process and a parallel movement process, which will be described later, can also be performed.
[0101]
The data subjected to the rotation processing in the first rotation processing unit 28 described above, that is, the total number of rotations performed on each of the first partial images 88 is stored in the synthesis processing storage unit 27.
[0102]
The rotation processing method in the first rotation processing unit 28 described above is an example, and any other suitable rotation processing method can be applied to the present invention.
[0103]
Next, the first magnification change processing unit 32 will be described with reference to FIG.
[0104]
The first magnification change processing unit 32 performs the magnification change processing on a plurality of first partial images 88 that are processed by the first rotation processing unit 28 and one of the vertical or horizontal partial thin line images is parallel to the X axis. I do. In this embodiment, there are two first partial images 88, A1 and B1. In both A1 and B1, the above-described first rotation processing unit 28 projects the partial thin line image on the Y axis in the X axis direction. This is shown in FIG. FIG. 8A shows a pixel projection for A1, and FIG. 8B shows a pixel projection for B1.
[0105]
First, for A1 and B1, the corresponding thin line is determined. A1 and B1 are first partial images captured by the first image capturing device 10 as shown in FIG. 3, and there are four fine lines written in the horizontal direction. In the first image capturing device 10, the positional relationship of each first partial image with respect to the read medium is stored in the first partial image storage unit 20. Accordingly, for example, the fact that the longitudinal direction of the read medium is not divided into a plurality of portions but only the lateral direction is divided into two is stored. As is clear from FIG. 8, there are four peaks of pixel projection on the Y axis. Therefore, in FIGS. 8A and 8B, if peaks 1 to 4 are sequentially set from the top, it can be determined that peaks with the same number correspond to the same thin line.
[0106]
In the above-described method, pixels are projected in the X-axis direction on the Y-axis. However, the present invention is not limited to this, and pixels may be projected in the Y-axis direction on the X-axis by paying attention to the vertical thin lines.
[0107]
At this time, as can be seen from FIG. 3C, each of the projections of A1 and B1 has four peaks. However, since the number of fine lines written in the vertical direction of the read medium cannot be recognized, it is input artificially that the number of fine lines is 7, or the fine lines written in the vertical direction as the read medium in advance. For example, it may be stored in the storage unit 20 of the first partial image. At this time, as shown in FIG. 9, if it is determined that the peak at the right end of A1 shown in FIG. 9A corresponds to the peak at the left end of B1 shown in FIG. The net number of peaks is seven, and therefore coincides with seven, which is the number of fine lines on the read medium. In this way, when the number of partial images is small, the corresponding fine line peak can be determined.
[0108]
However, when the number of partial images increases, it becomes difficult to determine the peak of the corresponding thin line by the above-described method. At this time, for example, there are the following two methods as possible countermeasures.
[0109]
In the first method, when the first partial image is captured, the position of the portion to be captured with respect to the read medium is stored in the storage unit 20 for the first partial image. When this method is used, it is possible to know which portion of the read medium has been captured, so that an approximate standard can be obtained when determining the corresponding thin line. However, it is difficult to accurately determine the corresponding thin line. In addition, when this method is used, the position of the portion to be captured can be determined by the movement of the digital camera in a non-contact type scanner using a digital camera. In many cases, this method cannot be used.
[0110]
On the other hand, the second method devises how to write the thin line itself on the read medium. As a specific example, there is the one shown in FIG. 4 described in the modification of the embodiment of the medium to be read. In FIG. 4A, the interval between the thin lines 64 is changed. Therefore, when the first partial image of the read medium is captured, the first partial images having the shortest distance between the thin lines 64 may be determined as corresponding thin lines. In addition, what is shown in FIG. 4B is obtained by changing the thickness of the thin line 66. Accordingly, when the first partial image of the read medium is taken in, it is only necessary to determine the thin line 66 having the closest thickness between the first partial images as the corresponding thin line 66. As a method for recognizing the thickness of the thin line 66, the width of the peak of pixel projection in an embodiment of dropout processing described later may be determined as the thickness.
[0111]
If the corresponding thin line can be determined by the above-described method for determining the corresponding thin line, next, the magnification change process is performed.
[0112]
In this embodiment, first, the distance between corresponding thin lines is obtained. As shown in FIG.A12And 1B12Is the distance between the corresponding thin lines. Here, because the peak of the pixel projection has a width, 1A12Or 1B12In order to recognize such distances, it becomes a problem where the distance is used as a reference. Since the Y coordinate of the center line of the thin line should be used as a reference, the Y coordinate corresponding to the center line of the thin line is recognized among the peaks of the pixel projection. For example, there are two recognition methods. The first method is to consider the Y coordinate at which the peak intensity of pixel projection reaches the maximum as the center line of each thin line. The other is a method that considers the distribution of pixels included in each peak in the Y coordinate, and considers the average Y coordinate of the pixels as the center line of each thin line. The average value of the distances is obtained from the distance between the thin lines thus determined. That is, 1A121A23And 1A34To A1 average value 1A1B121B23And 1B34To B1 average value 1BIs obtained.
[0113]
Next, since the distances between corresponding thin lines should be equal, A1 or B1 is enlarged or reduced so that the distances are equal. That is, average value 1 of A1A And the average value of B1 1B Ratio 1 withA/ 1BIf B1 is enlarged or reduced only by this, the average value of the distances A1 and B1 becomes equal.
[0114]
In addition to the above-described method for obtaining the average value of distances, the second method is to use a corresponding one distance ratio, for example, 1A12/ 1B12Only B1 may be enlarged or reduced. However, the method using the average value is preferable because it easily matches over the entire partial thin line image in the parallel movement process described later.
[0115]
In this embodiment, the distance between the partial thin line images is calculated by projecting the pixel to the Y coordinate, but may be performed by projecting the pixel to the X coordinate, and more preferably in both the X coordinate and the Y coordinate. It is preferable to calculate the average value to obtain the magnification.
[0116]
In this embodiment, since the number of the first partial images is two, it is sufficient to perform the magnification changing process by the ratio of the distances. However, when the number of the first partial images is three or more, it is simply used. Cannot be done. However, for example, when the number of first partial images is three (A1, B1, C1), the average value of the respective distances is set to 1.A1BAnd 1c(1A<1B<1C), A1 is 1B/ 1ADouble C1 to 1B/ 1CWhen doubled, the average value of the distances is the same for all partial images. Similar processing may be performed when there are four or more.
[0117]
The data subjected to the magnification change processing in the first magnification change processing unit 32 described above, that is, how many times the first partial image has been enlarged or reduced, is stored in the storage unit 27 of the synthesis process.
[0118]
Note that the magnification change processing method in the first magnification change processing unit 32 described above is an example, and any other suitable magnification change processing method can be applied to the present invention.
[0119]
Next, the first translation processing unit 36 will be described with reference to FIG.
[0120]
In the first translation processing unit 36, by performing the translation processing on the plurality of first partial images in which the intervals of the corresponding partial thin line images are equalized by performing the processing in the first magnification change processing unit 32 described above, Composite to the first overall image.
[0121]
First, as shown in FIG. 9A, pixel projection on the X-axis and the Y-axis is performed on the partial thin line image of the first partial image A1 (first rotation processing unit 28 or first magnification change processing unit). If you have already done it in 32, you can use it). Thereafter, the center coordinates of each partial thin line image are obtained by the method already described in the embodiment of the magnification change processing unit. Similarly, as shown in FIG. 9B, pixel projection on the X-axis and Y-axis is performed on the partial thin line image for B1, and then the center coordinates of each partial thin line image are obtained.
[0122]
Next, B1 (which may be A1) is translated in the X-axis direction. At this time, as described in the embodiment of the first magnification change processing unit 32, the peak of the pixel projection of the thin line corresponding to A1 and B1 is known. In this case, since the peak at the right end of A1 corresponds to the peak at the left end of B1, the X coordinate of B1 is X of A1.S4B1 is translated so that
[0123]
Next, B1 (which may be A1) is translated in the Y-axis direction. In this case, since the peak of the pixel projection projected in the Y-axis direction corresponds in order from the top, the Y coordinate of any corresponding peak is made to coincide. For example, if the peak with the largest Y coordinate is used as a reference, the Y coordinate of B1 is YS4B1 is translated so that
[0124]
Next, by combining A1 and B1 on one screen (one data), a combined first overall image is obtained.
[0125]
In this embodiment, A1 and B1 are translated after being translated on different screens (different data), but A1 and B1 are translated and then translated to produce the first overall image. You may do it.
[0126]
In addition, the translation in the X-axis direction is followed by the translation in the Y-axis direction. However, the translation in the X-axis direction may be performed after the translation in the Y-axis direction.
[0127]
In addition, if A1 and B1 are combined on one screen (one data), they may not fit on the screen. For example, before A1 and B1 are combined before or after being translated in advance, B1 may be reduced at the same magnification.
[0128]
The data subjected to the translation processing in the first translation processing unit 36 described above, that is, how much the respective first partial images are translated in the X-axis and Y-axis directions, etc., is stored in the synthesis processing storage unit 27. To remember.
[0129]
The synthesized first whole image is sent to the image matching judgment unit 18 when it is present, and is stored in the first whole image storage unit 24 when it is absent.
[0130]
The translation processing method in the first translation processing unit 36 described above is an example, and any other suitable translation processing method can be applied to the present invention.
[0131]
Next, the second image composition processing device 16 will be described.
[0132]
The second partial images captured by the second image capturing device 12 are designated as A2 and B2. For each of A2 and B2, if the same processing as the above-described combining processing performed on the first partial image, that is, rotation processing, magnification change processing, and parallel movement processing is performed, A2 and B2 are combined. The second overall image is obtained. The substantially same composition processing method in this case refers to rotation, enlargement or reduction, and translation performed on the coordinate axes without including pixel projection or the like. In this case, the same processing can be performed on the second partial image by taking out the data of the rotation processing, magnification change processing, and parallel movement processing performed on the first partial image described above from the storage unit 27 of the synthesis processing. it can.
[0133]
Therefore, the synthesized second overall image is a synthesized image that matches to the same extent as the first overall image.
[0134]
The second whole image is stored in the second whole image storage unit 26.
[0135]
5). Embodiment of image composition processing apparatus in second image composition apparatus (Description 5)
Next, an embodiment of the first image composition processing device 42 which is a part of the second image composition device of the present invention will be described.
[0136]
The first image composition processing device 42 performs composition processing of the first whole image using the partial thin line image from the first partial image captured by the first image capturing device 40.
[0137]
The first image composition processing device 42 rotates the first partial image so that an arbitrary partial thin line image in the horizontal direction or the vertical direction among the partial thin line images is parallel to the X axis or the Y axis. For the first rotation processing unit 52 and each first partial image, the corresponding fine line of the partial thin line image is determined, and the first magnification change is performed to change the magnification of the first partial image so that the distances between the thin lines match. It includes a processing unit 54 and a first translation processing unit 56 that translates the partial thin line images so that the corresponding partial thin line images overlap at the correct position (FIG. 2).
[0138]
As described in the embodiment (Description 1), the second image composition apparatus can be used when a read medium having a structure in which the partial thin line image and the partial information image do not overlap is used. Therefore, the pixel projection of the partial information image hardly affects the peak when the partial thin line image is projected onto the X axis or the Y axis. Therefore, after the first partial image is extracted from the storage unit 48 of the first partial image, the partial thin line image of the first partial image is used as a reference in the same manner as the method described in the embodiment (description 4). The first rotation processing unit 52, the first magnification change processing unit 54, and the first parallel movement processing unit 56 perform synthesis processing. In this embodiment, since there is only the first partial image, the processing in the second partial image composition device is not performed. By performing these processes, the first overall image is synthesized.
[0139]
The synthesized first whole image is sent to the image matching judgment unit 46 when there is an image matching judgment unit 46, and sent to the dropout processing unit 44 when there is no image matching judgment unit 46.
[0140]
6). Embodiment of image match determination unit (description 6)
Next, an embodiment of the image coincidence determination units 18 and 46 which are a part of the first and second image composition apparatuses of the present invention will be described with reference to the drawings.
[0141]
The image coincidence determination units 18 and 46 determine that the first whole images synthesized by the first and second image synthesizing apparatuses match.
[0142]
For this determination, a peak obtained by pixel-projecting the first partial images A1 and B1 before synthesis on the Y axis is used instead of the first whole image synthesized by the first translation processing units 36 and 56. This peak is used in the parallel movement process. In the above translation processing, B1 is translated in the Y-axis direction, and the Y coordinate is YS4The corresponding partial thin line images were superimposed at the position of. Therefore, the remaining three corresponding partial thin line images may not overlap completely. Conversely, if the remaining three images are completely overlapped, the first entire image shown in FIG. 9C also overlaps at the joint portion of the partial images, and therefore is completely matched. You may judge. Therefore, it is determined whether or not they match by using the remaining three deviations as a reference. In this embodiment, the magnitude of the shift of the corresponding thin line is expressed as (YAi−YBi) (i = 1, 2, 3). For example, the magnitude is less than ± α. If what fits is more than a certain percentage, it can be determined that they match. As specific numerical values, for example, α may be set to 0.2 mm, and a certain ratio may be set to 80%.
[0143]
In this embodiment, since the two partial images are synthesized, there are only three thin lines that serve as the determination criteria at the joint of the partial images. However, when more partial images are combined, the number of joints increases, and accordingly, the number of thin lines that serve as a determination criterion also increases. However, in this case as well, in the same manner as in this embodiment, it is only necessary to calculate the magnitude of deviation for all the corresponding thin lines and determine whether or not they match according to the above-described determination criteria.
[0144]
In this embodiment, since the partial images A1 and B1 are obtained by dividing thin lines parallel to the X axis, the image matching determination is performed using the peak projected on the Y axis. However, when the partial image is obtained by dividing a thin line parallel to the Y axis, the image matching determination may be performed by the same method as described above using the peak of the pixel projected on the X axis.
[0145]
The image match determination units 18 and 46 can obtain a first whole image with high accuracy.
[0146]
Note that the above-described image matching determination method is an example, and any other suitable image matching determination method can be applied to the present invention.
[0147]
7. Embodiment of dropout processing apparatus in second image composition apparatus (Description 7)
Next, an embodiment of a dropout processing device 44 which is a part of the second image composition device of the present invention will be described with reference to the drawings.
[0148]
The dropout processing device 44 has a function of dropping out only the partial thin line image from the first whole image and setting the remaining partial information image as the second whole image.
[0149]
As described in the embodiment (description 5), the first whole image synthesized by the first image synthesis processing device 42 of the second image synthesis device is a synthesis of the first partial image. Includes both fine line images and informational images. However, since the partial thin line image and the partial information image have a structure that does not overlap, when the pixel is projected on the X axis or the Y axis, the image of the thin line 72 and the information 74 is displayed as shown in FIG. Pixel projection peaks do not overlap. Accordingly, the peak of the pixel projection corresponding to the image of the thin line 72 can be eliminated.
[0150]
Specifically, the dropout method will be described. First, the center coordinates in FIG.1 Consider eliminating the peak that is. Therefore, the X coordinate range of this peak must first be recognized. That is, an X coordinate range where the intensity of the pixel projection is not 0 (X in the range1 Are included in the X coordinate range of the peak. Thereafter, all pixels in the X coordinate range are erased. If these processes are performed on the peak of the pixel projection corresponding to all the images of the thin lines 72, only the image of the thin lines 72 can be dropped out. As a result, it is possible to obtain a second whole image having only information 74 as shown in FIG.
[0151]
The completed second whole image is stored in the second whole image storage unit 50.
[0152]
The above dropout processing method is an example, and any other suitable dropout processing method can be applied to the present invention.
[0153]
8). Embodiment of image composition method using first image composition apparatus (description 8)
In the above description, the configurations of the first and second image synthesizing apparatuses of the present invention have been described. Here, an embodiment of a method for synthesizing an image using the first image synthesizing apparatus is described on the apparatus. The description will focus on the flow of image processing. FIG. 11 is a flowchart showing an image composition method using the first image composition apparatus.
[0154]
The steps of capturing the first and second partial images of the read medium by the first and second image capturing devices 10 and 12 and storing them in the storage units 20 and 22 of the first and second partial images, respectively, are as follows. Since it explained in the form (Description 2) and the embodiment (Description 3), it is omitted. Also in this embodiment, the first partial images captured by the first image capturing device 10 are two, A1 and B1. Accordingly, there are two second partial images captured by the second image capturing device 12, which are designated as A2 and B2.
[0155]
First, A1 and B1, which are the first partial images, are taken out from the storage unit 20 for the first partial images (S1). The A1 and B1 are respectively rotated by the first rotation processor 28 (S2: details are as described in the embodiment (description 4)). Although not shown, the S2 processing method is stored in the synthesis processing storage unit 27 thereafter. At this time, according to the order of this flowchart, A1 and B1 are once taken out on the microcomputer that performs the subsequent work (S1 process for A1 and B1), and then the rotation process (S2 process) for A1 and B1. However, the present invention is not limited to this, and only A1 is extracted (S1 processing for A1) and rotated (S2 processing for A1), and then B1 is extracted (S1 for B1). Processing) Rotation processing may be performed (S2 processing for B1). Next, the magnification change processing for A1 and B1 is performed by the first magnification change processing unit 32 (S3: details are as described in the embodiment (description 4)). Although not shown, the S3 processing method is stored in the synthesis processing storage unit 27 thereafter. As described above, since the magnification change process is performed by comparing the sizes of the partial images A1 and B1, the rotation process of S2 must be completed for both. Next, the parallel movement process is performed by the first parallel movement processing unit 36 (S4: details are as described in the embodiment (description 4)). Although not shown, the S4 processing method is stored in the synthesis processing storage unit 27 thereafter. As a result, a first overall image that is a combination of A1 and B1 is completed.
[0156]
Next, in this embodiment, the image matching determination unit 18 determines whether or not the first whole images match (S5: details are as described in the embodiment (description 6)). If it is determined that they match, the process proceeds to S6. If it is determined that they do not match, the process returns to S2. That is, the rotation process for A1 and B1 is performed again. At this time, A1 and B1 are not those after processing in S2, S3, and S4, but S2 processing is performed on A1 and B1 that are first extracted from the storage unit 20 of the first partial image in S1. However, if A1 and B1 are processed in S2, S3, and S4 in exactly the same way as the first time, the same result is obtained, and the image matching judgment unit 18 in S5 matches the first whole image again. There is a possibility that it will be judged. Therefore, it is necessary to change the processing conditions described in the embodiment (description 4) to perform the processing more precisely. Therefore, in S2, for example, the rotation angle may be made smaller and the criterion for determining that the rotation angle is parallel to the X axis or the Y axis may be strict. In S3, for example, a method of calculating the average value of the distance between the thin lines in consideration of all pixel projections on the X axis and the Y axis may be used. In S4, for example, it is preferable to change the thin line to be processed in the first time to another thin line. In the present embodiment, the flow returns to the processing of S2 when it is determined that they do not match in S5, but other flows are also conceivable. For example, returning to S4, the thin line to be overlapped may be changed to another thin line, or A1 and B1 may be captured again by the first and second image capturing devices 10 and 12.
[0157]
If it is determined in S5 that they match, the second partial images A2 and B2 are extracted from the second partial image storage unit 22 (S6). For the extracted A2 and B2, the synthesizing process substantially the same as S2 (the S2 processing technique is extracted from the synthesizing process storage unit 27) is performed (S7). Here, the substantially same composition processing is as described in the embodiment (Description 4). Regarding S6 and S7, the order regarding A2 and B2 may be changed as in S1 and S2 described above. Next, A2 and B2 are subjected to the same processing as S3 (the S3 processing technique is extracted from the storage unit 27 of the synthesis processing) (S8). Next, the second entire image is completed by performing the same process as S4 (the S4 processing method is extracted from the storage unit 27 of the synthesis process) (S9). Since the second whole image is an image composed only of information, the apparatus of the present invention cannot determine whether the images match. However, since the same composition processing is performed as the first whole image determined to match the images, the second whole image should theoretically match. Finally, the second whole image is stored in the second whole image storage unit 26 (S10), and the image composition of this embodiment is finished.
[0158]
The above-described image composition method is an example, and any other suitable image composition method can be applied to the present invention. For example, after this, the second entire image may be output on the screen, and a step of determining whether the images match with human eyes may be provided, or a structure in which image data is output by a printer or the like It is also good. In addition, the image composition device may further include a character recognition processing unit that performs character recognition of the synthesized image. In this case, a step of performing character recognition of the second whole image is added.
[0159]
9. Embodiment of image composition method using second image composition device (Description 9)
Next, an embodiment of an image composition method using the second image composition apparatus will be described focusing on the flow of image processing on the apparatus. FIG. 12 is a flowchart showing an image composition method using the second image composition apparatus.
[0160]
Since the steps from S11 to S15 are exactly the same as the steps from S1 to S5 described above, description thereof is omitted. If it is determined in S15 that the first whole images match, the dropout processing unit 44 performs dropout processing of the first whole image (S16: the details are described in the embodiment (description 7)). This completes the second overall image consisting only of the information image. The second whole image is stored in the second whole image storage unit 50 (S17), and the image composition processing of this embodiment is terminated.
[0161]
The above-described image composition method is an example, and any other suitable image composition method can be applied to the present invention. For example, after this, as in the case of the first image composition device, a step of determining whether the second whole image is output on the screen and the images match with human eyes may be provided. Alternatively, the image data may be output by a printer or the like. In addition, the image composition device may further include a character recognition processing unit that performs character recognition of the synthesized image. In this case, a step of performing character recognition of the second whole image is added.
[0162]
【The invention's effect】
As described above in detail, according to the image composition device of the present invention, the first image capturing device that captures at least a partial thin line image, and the image that performs the composition process on the first whole image using the thin lines of the first partial image. Since it is equipped with a composition processing device, even for a large read medium that cannot capture an image at one time, an entire image equivalent to a single read medium image is automatically captured on the software. Can be formed.
[0163]
In addition, since the first image composition device includes the second image capturing device and the second image composition processing device, and the second image composition device includes the dropout processing device, the formed second whole image is a thin line image. Disappears and becomes an image of information only.
[0164]
The obtained second whole image is recognized by the OCR device with a high recognition rate.
[0165]
Furthermore, if an image matching judgment part is provided, it will become a 2nd whole image with higher precision.
[0166]
Further, by using a medium to be read in which fine lines are written with an invisible material, the fine lines are not perceived by human eyes, and the appearance is not impaired.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of a first image composition device.
FIG. 2 is a block diagram showing an embodiment of a second image composition device.
FIG. 3 is a diagram showing a concept of capturing a partial image (1).
FIG. 4 is a diagram showing a modification of how to draw a thin line
FIG. 5 is a diagram showing a concept of capturing a partial image (2)
FIG. 6 is a diagram showing a partial image in the first image composition device;
FIG. 7 is a diagram showing rotation processing;
FIG. 8 is a diagram showing magnification change processing;
FIG. 9 is a diagram showing parallel movement processing;
FIG. 10 is a diagram showing dropout processing;
FIG. 11 is a flowchart showing a first image composition method;
FIG. 12 is a flowchart illustrating a second image composition method.
[Explanation of symbols]
14: First image composition processing device
16: Second image composition processing device
42: First image composition processing device
58: Fine wire
60: Outline of read medium
62: Read medium
64: Fine line (changed width between fine lines)
66: Thin line (thick line with different thickness)
68: Read medium
70: Position for recording information
72: Fine wire
74: Information
75a: Partial image A
75b: Partial image B
76: Information
78, 80: Range that can be captured by the first and second image capturing devices
81a: Partial image A 81b: Partial image B
82: Range that can be processed by the image composition processing device
84: X axis
86: Y axis
88: First partial image
90: Fine wire
92: Peak width of pixel projection

Claims (15)

情報と照合用の複数の細線とが書き込まれている一枚の被読取媒体から取り込まれた前記情報が複数の部分に分割された部分イメージを、一枚の前記情報の全体イメージに合成するイメージ合成装置が、第1イメージ取り込み部と、第2イメージ取り込み部と、第1イメージ合成処理部と、第2イメージ合成処理部と、イメージ一致判断部とを備えていて、
前記第1イメージ取り込み部は、前記被読取媒体の複数の部分分割領域から、前記細線を含む部分イメージを、第1部分イメージとして、それぞれ取り込み、
前記第2イメージ取り込み部は、前記部分分割領域から、前記細線以外の前記情報の部分イメージを、第2部分イメージとして、それぞれ取り込み、
前記第1イメージ合成処理部は、複数の前記第1部分イメージのそれぞれに含まれる前記細線を含むイメージを利用して、個々の前記第1部分イメージに対して、回転、倍率変化及び平行移動の処理を施すことで、第1全体イメージの合成処理を行い、
前記第2イメージ合成処理部は、前記第1イメージ合成処理部と実質的に同じ合成処理の手法に従って、前記第2部分イメージから、第2全体イメージの合成処理を行い、
前記イメージ一致判断部は、前記第1全体イメージの合成処理に用いた細線以外の細線同士のズレの大きさを基準にして当該第1全体イメージが一致しているかどうかの判断を行うとともに、
前記第1イメージ取り込み部と前記第2イメージ取り込み部とで、取り込むイメージの対象以外は同じ状態を保つように構成することを特徴とするイメージ合成装置。
An image in which a partial image obtained by dividing the information taken from one read medium on which information and a plurality of thin lines for verification are divided into a plurality of portions is combined into a single whole image of the information The composition device includes a first image capturing unit, a second image capturing unit, a first image composition processing unit, a second image composition processing unit, and an image match determination unit,
The first image capturing unit captures a partial image including the thin line as a first partial image from a plurality of partial divided regions of the read medium,
The second image capturing unit captures a partial image of the information other than the thin line as a second partial image from the partial divided region,
The first image composition processing unit performs rotation, magnification change, and parallel movement on each of the first partial images using an image including the thin line included in each of the plurality of first partial images. By performing processing, the first overall image is synthesized,
The second image composition processing unit performs composition processing of a second whole image from the second partial image according to a composition processing method substantially the same as the first image composition processing unit,
The image matching determination unit determines whether or not the first entire image matches based on the amount of deviation between thin lines other than the thin lines used in the synthesis process of the first entire image .
An image synthesizing apparatus, wherein the first image capturing unit and the second image capturing unit are configured to maintain the same state except the target of the captured image .
請求項1に記載のイメージ合成装置において、
前記細線は、非可視性材料で書き込まれたものであることを特徴とするイメージ合成装置。
The image composition device according to claim 1,
The image synthesizing apparatus, wherein the thin line is written with an invisible material.
請求項1又は2に記載のイメージ合成装置において、
前記第1部分イメージは、前記被読取媒体の複数の前記部分分割領域から取り込まれた前記細線の部分イメージのみを含むことを特徴とするイメージ合成装置。
In the image composition device according to claim 1 or 2,
The image synthesizing apparatus according to claim 1, wherein the first partial image includes only the partial image of the thin line captured from the plurality of partial divided regions of the read medium .
請求項1又は2に記載のイメージ合成装置において、
前記第1イメージ取り込みは、前記細線及び前記情報の構成材料が吸収する第1波長の光を放射する光源と、該第1波長の光を感知する受光部とを具え、
前記第2イメージ取り込みは、前記情報の構成材料が吸収する第2波長の光を放射する光源と、該第2波長の光を感知する受光部とを具えたことを特徴とするイメージ合成装置。
In the image composition device according to claim 1 or 2,
The first image capturing unit includes a light source that emits light of a first wavelength absorbed by the thin line and the information constituent material, and a light receiving unit that senses the light of the first wavelength.
The second image capturing unit includes a light source that emits light of a second wavelength absorbed by the information constituent material, and a light receiving unit that senses the light of the second wavelength. .
請求項1〜3のいずれか1項に記載のイメージ合成装置において、
前記第1イメージ取り込みは、前記細線の構成材料が吸収する第1波長の光を放射する光源と、該第1波長の光を感知する受光部とを具え、
前記第2イメージ取り込みは、前記情報の構成材料が吸収する第2波長の光を放射する光源と、該第2波長の光を感知する受光部とを具えたことを特徴とするイメージ合成装置。
In the image composition device according to any one of claims 1 to 3,
The first image capturing unit includes a light source that emits light having a first wavelength that is absorbed by the constituent material of the thin wire, and a light receiving unit that senses light having the first wavelength.
The second image capturing unit includes a light source that emits light of a second wavelength absorbed by the information constituent material, and a light receiving unit that senses the light of the second wavelength. .
請求項1〜3のいずれか1項に記載のイメージ合成装置において、
前記第1イメージ取り込みは、少なくとも前記細線の構成材料が吸収する第1波長の光を放射する光源と、前記細線の構成材料が該第1波長の光を吸収したときに放射する第2波長の光を感知する受光部とを具え、
前記第2イメージ取り込みは、前記情報の構成材料が吸収する第3波長を放射する光源と、該第3波長の光を感知する受光部とを具えたことを特徴とするイメージ合成装置。
In the image composition device according to any one of claims 1 to 3,
The first image capturing unit includes at least a light source that emits light of a first wavelength that is absorbed by the constituent material of the thin line, and a second wavelength that is emitted when the constituent material of the thin line absorbs light of the first wavelength. And a light receiving part that senses the light of
The image synthesizing apparatus, wherein the second image capturing unit includes a light source that emits a third wavelength absorbed by the constituent material of the information, and a light receiving unit that senses light of the third wavelength.
情報と照合用の複数の細線とが書き込まれている一枚の被読取媒体から取り込まれた前記情報が複数の部分に分割された部分イメージを、一枚の前記情報の全体イメージに合成するイメージ合成装置が、第1イメージ取り込み部と、第1イメージ合成処理部と、ドロップアウト処理部と、イメージ一致判断部とを備えていて、
第1イメージ取り込み部は、前記被読取媒体の複数の部分分割領域から、前記細線を含む部分イメージ、及び前記情報の部分イメージを、第1部分イメージとして、それぞれ取り込
第1イメージ合成処理部は、複数の前記第1部分イメージのそれぞれに含まれる記細を含むイメージを利用して、個々の前記第1部分イメージに対して、回転、倍率変化及び平行移動の処理を施すことで、第1全体イメージの合成処理を行
ドロップアウト処理部は、前記第1全体イメージから、前記を含む部分イメージのみをドロップアウトさせて、残存する前記情の部分イメージを第2全体イメージとし、
前記イメージ一致判断部は、前記第1全体イメージの合成処理に用いた細線以外の細線同士のズレの大きさを基準にして当該第1全体イメージが一致しているかどうかの判断を行うことを特徴とするイメージ合成装置。
Information and a plurality of thin lines and by the end with the image dividing the information is captured from one of the reading medium that is written in a plurality of portions for matching to synthesize the entire image of one of said information The image composition device includes a first image capturing unit, a first image composition processing unit, a dropout processing unit, and an image match determination unit,
The first image capturing unit, a plurality of partial divided regions of the the medium to be read, partial images including the thin line, the partial images of beauty the information, as a first image parts, see write-up, respectively,
The first image synthesizing section, using the image containing the KiHoso line before being included in each of the plurality of the first image parts, for each of the first image parts, rotation, magnification change and translation processing by the applied, have rows synthesis process of the first entire image,
Drop-out processing unit, from the first entire image, only the image parts including the fine line by dropout, the partial image before Kijo paper remaining a second entire image,
The image coincidence determination unit determines whether or not the first entire images are matched based on a shift amount of thin lines other than the thin lines used in the synthesis process of the first entire image. An image composition device.
請求項7に記載のイメージ合成装置において、
前記細線は、非可視性材料で書き込まれたものであることを特徴とするイメージ合成装置。
The image composition device according to claim 7,
The image synthesizing apparatus, wherein the thin line is written with an invisible material.
請求項7又は8に記載のイメージ合成装置において、
前記第1イメージ取り込みは、前記細線及び情報の構成材料が吸収する波長の光を放射する光源と、前記波長の光を感知する受光部とを具えたことを特徴とするイメージ合成装置。
The image composition device according to claim 7 or 8,
The image synthesizing apparatus, wherein the first image capturing unit includes a light source that emits light having a wavelength that is absorbed by the thin line and information constituent materials, and a light receiving unit that senses the light having the wavelength.
請求項1〜9のいずれか1項に記載のイメージ合成装置において、
前記第1イメージ合成処理は、
それぞれの前記第1部分イメージのうち、横方向又は縦方向の任意の前記細線を含む部分イメージがX軸又はY軸と平行になるように、前記第1部分イメージを回転させる第1回転処理部と、
それぞれの前記第1部分イメージについて、前記細線を含む部分イメージの対応する細線の判断を行い、該細線間の距離が一致するように、前記第1部分イメージの倍率を変化させる第1倍率変化処理部と、
対応する前記細線を含む部分イメージが正しい位置で重ね合うように、前記第1部分イメージを平行移動させる第1平行移動処理部と
を含むことを特徴とするイメージ合成装置。
In the image composition device according to any one of claims 1 to 9,
The first image composition processing unit
Of each of the first image parts, so that the portion include any of the fine line in the lateral direction or longitudinal image is parallel to the X-axis or Y-axis, the first rotating unit which rotates the first image parts When,
For each of the first partial images, a first thin line change process is performed to determine a thin line corresponding to the partial image including the thin line, and to change the magnification of the first partial image so that the distance between the thin lines matches. And
An image synthesizing apparatus comprising: a first translation processing unit configured to translate the first partial image so that the corresponding partial images including the thin line overlap at a correct position.
請求項10に記載のイメージ合成装置において、
前記対応する細線の判断は、前記細線を含む部分イメージに含まれる縦又は横方向の細線の本数により、位置関係を認知して判断することを特徴とするイメージ合成装置。
The image composition device according to claim 10.
The determination of the corresponding thin line is performed by recognizing and determining the positional relationship based on the number of vertical or horizontal thin lines included in the partial image including the thin line.
請求項10に記載のイメージ合成装置において、
前記被読取媒体にそれぞれ太さの異なる照合用の前記細線が書き込まれている場合に、
前記対応する細線の判断は、前記細線を含む部分イメージに含まれる該細線の太さにより判断することを特徴とするイメージ合成装置。
The image composition device according to claim 10.
When the thin lines for verification having different thicknesses are written on the read medium,
The determination of the corresponding thin line is made based on the thickness of the thin line included in the partial image including the thin line.
請求項10に記載のイメージ合成装置において、
前記被読取媒体にそれぞれ間隔の異なる照合用の前記細線が書き込まれている場合に、
前記対応する細線の判断は、前記細線を含む部分イメージに含まれる該細線間の距離により判断することを特徴とするイメージ合成装置。
The image composition device according to claim 10.
When the thin lines for verification with different intervals are written on the read medium,
The determination of the corresponding fine line is made based on a distance between the fine lines included in the partial image including the fine line.
請求項1〜1のいずれか1項に記載のイメージ合成装置において、
さらに、合成されたイメージの文字認識を行う文字認識処理部を具えたことを特徴とするイメージ合成装置。
In the image synthesis apparatus according to any one of claims 1 to 1 3,
And a character recognition processing unit for recognizing characters of the synthesized image.
請求項1〜13のいずれか1項に記載のイメージ合成装置において、In the image composition device according to any one of claims 1 to 13,
前記イメージ一致判断部により、前記第1全体イメージが一致していないと判断された場合に、前記第1イメージ合成処理部は、When the image match determination unit determines that the first entire image does not match, the first image composition processing unit
前記第1全体イメージの合成処理に用いた細線以外の細線を用いて、再び第1全体イメージの合成処理を行うことを特徴とするイメージ合成装置。An image synthesizing apparatus that performs the synthesis process of the first whole image again using a thin line other than the thin line used in the synthesis process of the first whole image.
JP2000023829A 2000-02-01 2000-02-01 Image synthesizer Expired - Fee Related JP4306075B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000023829A JP4306075B2 (en) 2000-02-01 2000-02-01 Image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000023829A JP4306075B2 (en) 2000-02-01 2000-02-01 Image synthesizer

Publications (2)

Publication Number Publication Date
JP2001216469A JP2001216469A (en) 2001-08-10
JP4306075B2 true JP4306075B2 (en) 2009-07-29

Family

ID=18549928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000023829A Expired - Fee Related JP4306075B2 (en) 2000-02-01 2000-02-01 Image synthesizer

Country Status (1)

Country Link
JP (1) JP4306075B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122982A (en) * 2007-11-15 2009-06-04 Jfe Engineering Corp Image construction method using divided picked-up image and defect inspection method using radiation
JP7468176B2 (en) 2020-06-17 2024-04-16 株式会社リコー Image processing device and image reading method

Also Published As

Publication number Publication date
JP2001216469A (en) 2001-08-10

Similar Documents

Publication Publication Date Title
EP2553517B1 (en) Method for producing a three-dimensional image on the basis of calculated image rotations
JP2000020682A (en) Image correction device
EP0653724B1 (en) Fingerprint image cutout processing device for tenprint card
JP2009526335A (en) Digital image self-adaptive brush
US20080232652A1 (en) Device, method and computer readable recording medium containing program for evaluating image
CN103049894A (en) Image processing method and device
JP4456029B2 (en) 3D information restoration device for rotating body
JP4306075B2 (en) Image synthesizer
US10013631B2 (en) Collaboration system with raster-to-vector image conversion
CN113810627B (en) Video processing method, device, mobile terminal and readable storage medium
JP5966657B2 (en) Image generating apparatus, image generating method, and program
JP5024028B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JPH1178384A (en) Three-dimensional shape data processing device, plate to be carved, and carving device
JP2007060325A (en) Image editing device, photo seal preparing device, image editing method and image editing program
JPWO2013111278A1 (en) Image recording apparatus, image recording method, image recording program, and information recording medium
JP2008140107A (en) Image processor, image processing method, control program, and recording medium
JP2001014477A (en) Picture contour extracting device
JP3204175U (en) Image matching device
JP2010068470A (en) Apparatus for automatically trimming face image
WO2011024538A1 (en) Optical automated recognition code and reading method for same
JP5484038B2 (en) Image processing apparatus and control method thereof
JP2007013467A (en) Image compositing device and image compositing program
CN112312105A (en) Projection system, method and device based on induction recognition and computer equipment
CN112291545A (en) Projection system, method and device based on image recognition and computer equipment
CN112541506A (en) Method, device, equipment and medium for correcting text image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090427

R150 Certificate of patent or registration of utility model

Ref document number: 4306075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees