JP3550604B2 - 2D imaging scanner - Google Patents

2D imaging scanner Download PDF

Info

Publication number
JP3550604B2
JP3550604B2 JP10607995A JP10607995A JP3550604B2 JP 3550604 B2 JP3550604 B2 JP 3550604B2 JP 10607995 A JP10607995 A JP 10607995A JP 10607995 A JP10607995 A JP 10607995A JP 3550604 B2 JP3550604 B2 JP 3550604B2
Authority
JP
Japan
Prior art keywords
pattern
image information
mapping
dimensional imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP10607995A
Other languages
Japanese (ja)
Other versions
JPH08307653A (en
Inventor
和明 青砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP10607995A priority Critical patent/JP3550604B2/en
Publication of JPH08307653A publication Critical patent/JPH08307653A/en
Application granted granted Critical
Publication of JP3550604B2 publication Critical patent/JP3550604B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、二次元で画像情報の撮像を行う二次元撮像式スキャナに関し、特に、画像情報の処理状況をわかりやすく表示する二次元撮像式スキャナに関する。
【0002】
【従来の技術】
従来、画像情報の読み取り装置として、CCD素子などの撮像素子を使用した二次元撮像式スキャナが知られている(特公平4−75537号公報)。
図16は、この種の二次元撮像式スキャナの一例を示す図である。
図において、原稿の上に配置された読み取り台51の中央部には、透明窓52が設けられ、透明窓52の両側には位置センサ53が配置される。
【0003】
この透明窓52の上方にはカメラ54が配置され、このカメラ54の近傍には、原稿を照明するランプ55が配置される。
このような構成の従来例では、操作者が、読み取り台51を原稿上に配置し、第1の画像情報の撮像を行う。この第1の画像情報は、図示しない外部のモニタ装置の画面上に表示される。
【0004】
次に、操作者は、透明窓52あるいはカメラ54のファインダから原稿を覗きながら読み取り台51を移し、第2の撮像位置を適宜に決定した後に、第2の画像情報の撮像を行う。
位置センサ53は、これらの撮像位置を逐一計測する。これらの撮像位置の計測値に基づいて、図17に示すような各撮像位置の原点O,O′が算出され、その移動量および移動方向から平行移動ベクトルOO′が算出される。また、これらの撮像位置における座標軸の傾きθが算出される。
【0005】
このように算出された値を用いて、第2の画像情報を平行移動ベクトルOO′だけ平行移動し、さらに傾きθだけ回転することにより、第2の画像情報が第1の画像情報と同じ座標面上に線形写像される。
この同じ座標面上において、第1および第2の画像情報が単一の画像情報として合成された後、合成画像が外部のモニタ装置の画面上に表示される。
【0006】
【発明が解決しようとする課題】
ところで、このような従来例では、第2の画像情報を線形写像するために数秒〜数十秒程度の処理時間を要する。そのため、操作者は、その間に処理が続行されているのか、あるいは停止しているのかを判別することができないという問題点があった。
【0007】
通常、コンピュータなどでは、このように時間を要する演算処理を行う場合、マウスポインタを「砂時計マーク」に変えて表示したり、進捗状況をバーグラフで表示する。
しかしながら、これらの汎用的な表示を二次元撮像式スキャナで使用すると、原稿の撮像を行なった直後に「砂時計マーク」などが突然表示されるため、操作に慣れない操作者にとって処理状況がわかりづらく、「原稿の撮像に失敗した」と勘違いされることが多いという問題点があった。
【0008】
また、これらの汎用的な表示では、原稿上の所望の位置を撮像できたか否かを即座に判別できないという問題点があった。そのため、操作者が原稿の撮像位置を間違えた場合は、写像処理が完了するまで待って判断し、原稿の撮像をやり直さなければならず、操作性が悪いという問題点があった。
請求項1に記載の発明は、このような問題点を解決するために、処理状況をわかりやすく表示しつつ、操作性を高めることができる二次元撮像式スキャナを提供することを目的とする。
【0009】
請求項2〜5に記載の発明は、上述の目的に併せて、写像処理が続行中であることを的確に表示する二次元撮像式スキャナを提供することを目的とする。
請求項6,7に記載の発明は、さらに上述の目的と併せて、写像処理の進捗状況を的確に表示する二次元撮像式スキャナを提供することを目的とする。
【0010】
【課題を解決するための手段】
図1は、請求項1〜5に対応する原理ブロック図である。
【0011】
請求項1に記載の発明は、原稿を二次元で撮像して画像情報を出力する撮像手段1と、撮像手段1の撮像位置を検出する座標検出手段2と、座標検出手段2により検出された撮像位置に基づいて、撮像手段1により出力された各画像情報を同一座標面上に写像する画像写像手段3と、画像写像手段3により写像された画像情報を1つの画面に表示する表示手段4とを備えた二次元撮像式スキャナにおいて、画像写像手段3により写像される画像情報が画面に表示される表示位置を求める表示位置算出手段5を備え、表示手段4は、画像写像手段3により画像情報の写像が行われている期間、表示位置算出手段5により求められる表示位置に予め定められたパターンを表示することを特徴とする。
【0012】
さらに、表示手段4は、パターン内に、画像情報の写像中あるいは合成中を表す記号あるいは文字を表示することを特徴とする。
請求項2に記載の発明は、請求項1に記載の二次元撮像式スキャナにおいて、表示手段4は、パターンとして、時間と共に変化するパターンを表示することを特徴とする。
【0013】
請求項3に記載の発明は、請求項2に記載の二次元撮像式スキャナにおいて、表示手段4は、パターンとして、時間と共に面積が変化するパターンを表示することを特徴とする。
請求項4に記載の発明は、請求項2に記載の二次元撮像式スキャナにおいて、表示手段4は、パターンとして、時間と共に色が変化するパターンを表示することを特徴とする。
【0014】
請求項5に記載の発明は、請求項2に記載の二次元撮像式スキャナにおいて、表示手段4は、パターンとして、時間と共に模様の密度が変化するパターンを表示することを特徴とする。
図2は、請求項6に対応する原理ブロック図である。
請求項6に記載の発明は、請求項2乃至5のいずれか1項に記載の二次元撮像式スキャナにおいて、画像写像手段3により写像される画像情報について、写像を完了したデータ量と全データ量との比率を検出する進捗検出手段6を備え、表示手段4は、進捗検出手段6により検出された比率に対応して、パターンを変化させることを特徴とする。
【0015】
図3は、請求項7の対応する原理ブロック図である。
請求項7に記載の発明は、請求項1に記載の二次元撮像式スキャナにおいて、画像写像手段3により写像される画像情報について未処理のデータ量を検出し、その未処理のデータ量に基づいて写像に所要する残り時間を算出する残時間検出手段7を備え、表示手段4は、文字として、残時間検出手段7により算出される残り時間を表示することを特徴とする。
【0016】
【作用】
請求項1の二次元撮像式スキャナでは、座標検出手段2が、撮像手段1の撮像位置を検出する。
画像写像手段3は、この撮像位置に基づいて画像情報の写像を行う。
一方、表示位置算出手段5は、この撮像位置に基づいて、写像された画像情報が表示される位置を算出する。
【0017】
表示手段4は、画像写像手段3が画像情報の写像を行っている期間、この表示位置に予め定められたパターンを表示する。
このように、写像後に画像情報が表示される位置に、予め定められたパターンを表示することにより、どの位置の画像情報が写像処理されているが明確に示される。
【0018】
したがって、操作者は、直前に撮像した画像情報の処理が行われているか否かを写像処理中に知ることができ、撮像ミスをしたと勘違いすることがなくなる。さらに、請求項1の二次元撮像式スキャナでは、パターン内に、画像情報の写像中あるいは合成中を表す記号あるいは文字を表示する。
請求項2の二次元撮像式スキャナでは、画像写像手段3が画像情報の写像を行っている期間に、時間と共に変化するパターンを表示する。
【0019】
請求項3の二次元撮像式スキャナでは、時間と共に面積が変化するパターンを表示する。
請求項4の二次元撮像式スキャナでは、時間と共に色が変化するパターンを表示する。
請求項5の二次元撮像式スキャナでは、時間と共に模様の密度が変化するパターンを表示する。
【0020】
請求項6の二次元撮像式スキャナでは、写像処理の進捗状況を得るために、写像を完了したデータ量と全データ量との比率を算出する。
表示手段4は、この比率に対応してパターンを変化させる。
請求項7の二次元撮像式スキャナでは、写像処理の残り時間を得るために、未処理のデータ量を検出し、この未処理のデータ量に対応する残り時間を算出する。表示手段4は、この残り時間をパターン内に表示する。
【0021】
【実施例】
以下、図面に基づいて本発明の実施例を説明する。
なお、第1の実施例は、手続補正により削除した旧請求項1にかかわる実施例である。
図4は、第1の実施例の構成を示す図である。
図において、原稿11の上にスキャナ本体13が置かれ、スキャナ本体13の下面には2次元の撮像素子からなる撮像部14が配置される。
【0022】
この撮像部14の両端には回転可能なローラ15,16が配置され、ローラ15,16の回転量を2軸で計測するエンコーダ17,18がそれぞれ配置される。
また、撮像部14およびエンコーダ17,18の出力はインターフェース19に個別に接続され、インターフェース19は、ケーブル20を介して、外部基板上のインターフェース21に接続される。
【0023】
このインターフェース21の出力は、マイクロプロセッサ部22に接続され、マイクロプロセッサ部22のモニタ出力は画面23に接続される。
なお、請求項の記載事項と第1の実施例との対応関係については、撮像手段1は撮像部14に対応し、座標検出手段2はローラ15,16およびエンコーダ17,18に対応し、表示手段4はマイクロプロセッサ部22および画面23に対応する。
【0024】
図5は、第1の実施例の動作フローチャートである。
図6は、この実施例における画面表示を示す図である。
以下、第1の実施例の動作を説明する。
まず、操作者は、スキャナ本体13を原稿11の上に配置し、原稿11の撮像を行う。撮像部14の光電出力は、インターフェース19,21を介して、マイクロプロセッサ部22に取り込まれ、画像情報として蓄えられる(図5S1)。一方、スキャナ本体13の移動に伴って、下面に配置されたローラ15,16がそれぞれ回転する。これらの回転量は、エンコーダ17,18によりそれぞれ計測され、マイクロプロセッサ部22に出力される。
【0025】
マイクロプロセッサ部22は、これらの回転量に基づいて撮像部14の現在位置を計測し(図5S2)、これらの計測値から撮像部14の現在位置および傾きθを算出する。
次に、マイクロプロセッサ部22は、撮像部14の初期位置(起動時の位置)から現在位置までの移動ベクトルに画面23の表示倍率を乗じて、平行移動ベクトルOO′を算出する(図5S3)。
【0026】
ここで、マイクロプロセッサ部22は、画像情報の写像を行う前に、撮像領域を表す矩形の頂点を平行移動ベクトルOO′だけ平行移動し、傾きθだけ回転させて、画像情報が写像される位置を算出する(図5S4)。
このように求められた矩形の内部を予め定められたパターン(例えば、図6に示すような白塗りのパターン)で塗り潰し、画面23に表示する(図5S5)。マイクロプロセッサ部22は、平行移動ベクトルOO′および傾きθを用いて画像情報の線形写像を行う(図5S6)。この線形写像された画像情報を画面23に表示する(図5S7)。
【0027】
このように、第1の実施例では、画像情報が写像される位置に、前もって所定のパターンを表示するので、どの位置の画像情報に対して写像処理が現在行われているかが明確に示される。
したがって、操作者は、直前に撮像した画像情報の処理が実際に行われているか否かを写像処理中に知ることができ、撮像ミスをしたと勘違いすることがなくなる。
【0028】
また、画像情報の写像処理が完了するまで待たずに、直前に撮像された画像情報の撮像領域を画面23上で即座に確認することができる。そのため、所望の撮像位置ではない場合には、即座に撮像のやり直しを行うことができるので、二次元撮像式スキャナの操作性を著しく高めることができる。
次に、第2の実施例について説明する。
【0029】
第2の実施例の構成は、図4に示した構成と同様なので、ここでの説明を省略する。
なお、請求項1に記載の発明と第2の実施例との対応関係については、撮像手段1は撮像部14に対応し、座標検出手段2はローラ15,16およびエンコーダ17,18に対応し、表示手段4はマイクロプロセッサ部22および画面23に対応する。
【0030】
図7は、請求項1に対応する第2の実施例の動作フローチャートである。
図8は、この実施例における画面表示を示す図である。
第2の実施例における動作上の特徴は、撮像領域を示す矩形が画面23に表示された後に(図7S4)、マイクロプロセッサ部22が、矩形の中央に「合成中」という文字を表示する点である(図7S5)。
【0031】
このように、第2の実施例では、第1の実施例とほぼ同様の効果を得ることができる。
さらに、第2の実施例に特有な効果としては、画像情報の写像処理を行っている期間に「合成中」という文字が表示されるので、現在行われている画像処理の内容、およびそのために時間を所要することをメッセージとして明示することができる。
【0032】
次に、第3の実施例について説明する。
第3の実施例の構成は、図4に示した構成と同様なので、ここでの説明を省略する。
なお、請求項2,3に記載の発明と第3の実施例との対応関係については、撮像手段1は撮像部14に対応し、座標検出手段2はローラ15,16およびエンコーダ17,18に対応し、表示手段4はマイクロプロセッサ部22および画面23に対応する。
【0033】
図9は、請求項2,3に対応する第3の実施例の動作フローチャートである。
図10は、この実施例における画面表示を示す図である。
以下、第3の実施例の動作を説明する。
まず、操作者は、スキャナ本体13を原稿11の上に配置し、画像情報の取り込みを行う(図9S1)。
【0034】
一方、マイクロプロセッサ部22は、ローラ15,16の回転量を計測し(図9S2)、撮像部14の現在位置および傾きθを算出する。
次に、マイクロプロセッサ部22は、撮像部14の初期位置から現在位置までの移動ベクトルに画面23の表示倍率を乗じて、平行移動ベクトルOO′を算出する(図9S3)。
【0035】
ここで、マイクロプロセッサ部22は、画像情報の写像を行う前に、撮像領域を表す矩形の頂点を平行移動ベクトルOO′だけ平行移動し、傾きθだけ回転させ、画像情報が写像される位置を予め算出する。
【0036】
このように写像された矩形の内部を予め定められたパターン(例えば、図10に示すような白塗りのパターン)で塗り潰し、画面23に表示する(図9S4)。
次に、マイクロプロセッサ部22は、平行移動ベクトルOO′および傾きθを用いて画像情報の一部分を線形写像する(図9S5)。
このように画像情報の一部分を線形写像した後に、矩形内に表示するパターン(例えば、図10に示すような波模様)の面積を増やす(図9S6)。
【0037】
これらの処理(図9S5,S6)を繰り返すことにより、画像情報の写像処理と並行して、矩形内の模様の面積が徐々に増加する。
ここで、写像処理が完了すると(図9S7)、線形写像された画像情報を画面23に表示する(図9S8)。
このように、第3の実施例では、第1の実施例とほぼ同様の効果を得ることができる。
【0038】
さらに、第3の実施例に特有な効果としては、写像処理と並行して、画面23に表示されるパターンの面積が増加するので、二次元撮像式スキャナの動作が停止せずに、どの位置の画像情報に対して写像処理の動作が続行中であるかを明確に示すことができる。
次に、第4の実施例について説明する。
【0039】
第4の実施例の構成は、図4に示した構成と同様なので、ここでの説明を省略する。
なお、請求項4に記載の発明と第4の実施例との対応関係については、撮像手段1は撮像部14に対応し、座標検出手段2はローラ15,16およびエンコーダ17,18に対応し、表示手段4はマイクロプロセッサ部22および画面23に対応する。
【0040】
図11は、請求項4に対応する第4の実施例を示す図である。
第4の実施例における動作上の特徴は、画像情報の写像処理と並行して、画面23に表示される矩形内の色を順次変化させる点である。
このようにして、第4の実施例においても、二次元撮像式スキャナの動作が停止しておらず、写像処理の動作が続行中であることを明確に示すことができる。
次に、第5の実施例について説明する。
【0041】
第5の実施例の構成は、図4に示した構成と同様なので、ここでの説明を省略する。
なお、請求項5に記載の発明と第5の実施例との対応関係については、撮像手段1は撮像部14に対応し、座標検出手段2はローラ15,16およびエンコーダ17,18に対応し、表示手段4はマイクロプロセッサ部22および画面23に対応する。
【0042】
図12は、請求項5に対応する第5の実施例を示す図である。
第5の実施例における動作上の特徴は、画像情報の写像処理と並行して、矩形内に表示される模様の密度を順次変化させる点である。
このようにして、第5の実施例においても、二次元撮像式スキャナの動作が停止しておらず、写像処理の動作が続行中であることを明確に示すことができる。
次に、第6の実施例について説明する。
【0043】
第6の実施例の構成は、図4に示した構成と同様なので、ここでの説明を省略する。
なお、請求項6に記載の発明と第6の実施例との対応関係については、撮像手段1は撮像部14に対応し、座標検出手段2はローラ15,16およびエンコーダ17,18に対応し、表示手段4はマイクロプロセッサ部22および画面23に対応し、進捗検出手段6はマイクロプロセッサ部22に対応する。
【0044】
図13は、請求項6に対応する第6の実施例の動作フローチャートである。
以下、第6の実施例の動作を説明する。
まず、操作者は、スキャナ本体13を原稿11の上に配置し、画像情報の取り込みを行う(図13S1)。
【0045】
一方、マイクロプロセッサ部22は、ローラ15,16の回転量を計測し(図13S2)、撮像部14の現在位置および傾きθを算出する。
次に、マイクロプロセッサ部22は、撮像部14の初期位置から現在位置までの移動ベクトルに画面23の表示倍率を乗じて、平行移動ベクトルOO′を算出する(図13S3)。
【0046】
ここで、マイクロプロセッサ部22は、画像情報の写像を行う前に、撮像領域を表す矩形の頂点を平行移動ベクトルOO′だけ平行移動し、傾きθだけ回転させ、画像情報が写像される位置を求めて画面23に表示する(図13S4)。
次に、マイクロプロセッサ部22は、平行移動ベクトルOO′および傾きθを用いて画像情報の一部分を線形写像する(図13S5)。
【0047】
このように画像情報の一部分を写像処理した後に、写像処理を完了したデータ量と画像情報の全データ量との比率を算出する(図13S6)。
この比率に対応した面積のパターン(例えば、波模様のパターン)を矩形内に表示する(図13S7)。
これらの処理(図13S5,S6,S7)を繰り返すことにより、写像処理の進捗状況に対応して、パターンの面積が増加する。
【0048】
ここで、写像処理が完了すると(図13S8)、線形写像された画像情報を画面23に表示する(図13S9)。
このように、第6の実施例では、第1の実施例とほぼ同様の効果を得ることができる。
さらに、第6の実施例に特有な効果としては、パターンの面積の変化により、写像処理の進捗状況を明確に示すことができる。
【0049】
次に、第7の実施例について説明する。
第7の実施例の構成は、図4に示した構成と同様なので、ここでの説明を省略する。
なお、請求項7に記載の発明と第7の実施例との対応関係については、撮像手段1は撮像部14に対応し、座標検出手段2はローラ15,16およびエンコーダ17,18に対応し、表示手段4はマイクロプロセッサ部22および画面23に対応し、残時間検出手段7はマイクロプロセッサ部22に対応する。
【0050】
図14は、請求項7に対応する第7の実施例の動作フローチャートである。
図15は、この実施例における画面表示を示す図である。
以下、第7の実施例の動作について説明する。
まず、操作者は、スキャナ本体13を原稿11の上に配置し、画像情報の取り込みを行う(図14S1)。
【0051】
一方、マイクロプロセッサ部22は、ローラ15,16の回転量を計測し(図14S2)、撮像部14の現在位置および傾きθを算出する。
次に、マイクロプロセッサ部22は、撮像部14の初期位置から現在位置までの移動ベクトルに画面23の表示倍率を乗じて、平行移動ベクトルOO′を算出する(図14S3)。
【0052】
ここで、マイクロプロセッサ部22は、画像情報の写像を行う前に、撮像領域を表す矩形の頂点を平行移動ベクトルOO′だけ平行移動し、傾きθだけ回転させ、画像情報が写像される位置を予め算出、画面23に表示する(図14S4)。
次に、マイクロプロセッサ部22は、平行移動ベクトルOO′および傾きθを用いて画像情報の一部を線形写像する(図14S5)。
【0053】
このように画像情報を部分的に線形写像した後に、写像されていない未処理のデータ量を求め、単位データ量当たりの写像処理に所要する時間を乗じて、残り時間を算出する(図14S6)。
【0054】
この残り時間を、図15に示すように矩形内に表示する(図14S7)。
これらの処理(図14S5,S6,S7)を繰り返すことにより、写像処理の進捗状況と対応して、写像処理の残り時間が刻々と表示される。
ここで、写像処理が完了すると(図14S8)、線形写像された画像情報を画面23に表示する(図14S9)。
【0055】
このように、第7の実施例では、第1の実施例とほぼ同様の効果を得ることができる。
さらに、第7の実施例に特有な効果としては、写像処理の残り時間がメッセージとして画面23に表示される。
なお、上述した実施例では、パターンの輪郭として撮像領域を示す矩形を表示しているが、その輪郭の形状や大きさに限定されるものではなく、画像情報の写像される位置が明示されればよい。例えば、写像される領域の中央に円形のパターンを表示してもよい。このように円形のパターンを表示することにより、上述した実施例における傾きθによる回転を行う必要がなく、演算処理に要する時間を短縮することができる。
【0056】
また、上述した実施例では、パターンの模様として波模様などを表示しているが、模様の種類に限定されるものではなく、線画や色分けされた模様などでもよい。
さらに、第3の実施例では、波模様の面積を変化させているが、このような表示形態に限定されるものではなく、パターンの面積が時間と共に変化すればよいので、例えば、画像情報が写像される位置を中心として、輪郭が拡大あるいは縮小するパターンを表示してもよい。
【0057】
【発明の効果】
以上説明したように、請求項1に記載の発明では、写像後に画像情報が表示される位置にパターンを表示するので、どの位置の画像情報に対して写像処理が現在行われているかを明確に示すことができる。
【0058】
したがって、操作に慣れていない操作者にとっても、撮像を行なった位置にパターンが表示されるので、処理状況がわかりやすく、撮像ミスをしたと勘違いすることがなくなる。
また、操作者は、直前に撮像した画像情報の位置を即座に知ることができる。そのため、撮像位置を失敗した場合には、写像処理の完了を待たずに、即座に原稿の撮像をやり直すことができ、操作性を著しく高めることができる。
【0059】
さらに、請求項1に記載の発明では、処理状況を示す文字や記号をパターン内に表示するので、そのパターンの表示箇所に対して、現在どのような処理が行われているかを的確に表示することができる。
請求項2に記載の発明では、時間と共に変化するパターンを表示ので、二次元撮像式スキャナの動作が停止しておらず、どの位置の画像情報に対して写像処理の動作が続行しているかを明確に示すことができる。
【0060】
請求項3に記載の発明では、時間と共にパターンの面積が変化するので、写像処理の動作が続行中であることを、パターンの面積の変化により明確に示すことができる。
請求項4に記載の発明では、時間と共にパターンの色が変化するので、写像処理の動作が続行中であることを、パターンの色の変化により明確に示すことができる。
【0061】
請求項5に記載の発明では、時間と共にパターンの模様の密度が変化するので、写像処理の動作が続行中であることを、模様の密度の変化により明確に示すことができる。
請求項6に記載の発明では、写像中の画像情報について、写像を完了したデータ量と全データ量との比率を算出し、その比率に対応してパターンを変化させるので、どの位置の画像情報に対して写像処理がどの程度進んでいるかを明確に示すことができる。
【0062】
請求項7に記載の発明では、写像処理の残り時間を算出して表示するので、操作者は、どの位置の画像情報に対して写像処理の残り時間がどの程度であるかを明確に示すことができる。
このように、本発明を適用した二次元撮像式スキャナは、従来の「砂時計マーク」などに比べて、どの画像情報に対して写像処理が行われているかが明確に示されるので、二次元撮像式スキャナの処理状況がわかりやすくなり、操作性が著しく高められる。
【図面の簡単な説明】
【図1】請求項1〜5に対応する原理ブロック図である。
【図2】請求項6に対応する原理ブロック図である。
【図3】請求項7の対応する原理ブロック図である。
【図4】第1〜7の実施例の構成を示す図である。
【図5】第1の実施例の動作フローチャートである。
【図6】第1の実施例における画面表示を示す図である。
【図7】請求項1に対応する第2の実施例の動作フローチャートである。
【図8】第2の実施例における画面表示を示す図である。
【図9】請求項2,3に対応する第3の実施例の動作フローチャートである。
【図10】第3の実施例における画面表示を示す図である。
【図11】請求項4に対応する第4の実施例を示す図である。
【図12】請求項5に対応する第5の実施例を示す図である。
【図13】請求項6に対応する第6の実施例の動作フローチャートである。
【図14】請求項7に対応する第7の実施例の動作フローチャートである。
【図15】第7の実施例における画面表示を示す図である。
【図16】従来の二次元撮像式スキャナの一例を示す図である。
【図17】従来の二次元撮像式スキャナの画面表示を説明する図である。
[0001]
[Industrial applications]
The present invention relates to a two-dimensional imaging scanner that captures image information in two dimensions, and more particularly, to a two-dimensional imaging scanner that displays the processing status of image information in an easily understandable manner.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a two-dimensional imaging type scanner using an imaging device such as a CCD device has been known as a device for reading image information (Japanese Patent Publication No. 4-75537).
FIG. 16 is a diagram illustrating an example of this type of two-dimensional imaging type scanner.
In the figure, a transparent window 52 is provided at a central portion of a reading table 51 arranged on a document, and position sensors 53 are arranged on both sides of the transparent window 52.
[0003]
A camera 54 is arranged above the transparent window 52, and a lamp 55 for illuminating a document is arranged near the camera 54.
In the conventional example having such a configuration, the operator places the reading table 51 on the document and captures the first image information. This first image information is displayed on a screen of an external monitor device (not shown).
[0004]
Next, the operator moves the reading table 51 while looking through the document through the transparent window 52 or the finder of the camera 54, and determines the second image capturing position, and then captures the second image information.
The position sensor 53 measures these imaging positions one by one. Based on the measurement values of these imaging positions, the origins O and O 'of each imaging position as shown in FIG. 17 are calculated, and the translation vector OO' is calculated from the movement amount and the movement direction. Further, the inclination θ of the coordinate axes at these imaging positions is calculated.
[0005]
By using the values calculated in this way, the second image information is translated by the translation vector OO ′ and further rotated by the inclination θ, so that the second image information has the same coordinates as the first image information. Linearly mapped on the surface.
After the first and second image information are combined as single image information on the same coordinate plane, the combined image is displayed on the screen of the external monitor device.
[0006]
[Problems to be solved by the invention]
By the way, in such a conventional example, it takes about several seconds to several tens of seconds to linearly map the second image information. Therefore, there is a problem that the operator cannot determine whether the process is being continued or stopped during that time.
[0007]
Usually, in a computer or the like, when performing such a time-consuming operation, the mouse pointer is changed to an "hourglass mark" and displayed, or the progress is displayed as a bar graph.
However, when these general-purpose displays are used in a two-dimensional imaging type scanner, an "hourglass mark" or the like is suddenly displayed immediately after an image of a document is taken, making it difficult for an operator who is unfamiliar with the operation to understand the processing status. However, there is a problem that it is often misunderstood that “imaging of a document has failed”.
[0008]
In addition, these general-purpose displays have a problem that it is not possible to immediately determine whether or not a desired position on a document has been imaged. Therefore, when the operator makes a mistake in the image capturing position of the document, it is necessary to wait until the mapping process is completed, make a determination, and perform the image capturing of the document again, resulting in poor operability.
Claim 1The object of the invention described in (1) is to provide a two-dimensional imaging scanner capable of improving the operability while displaying the processing status in an easy-to-understand manner in order to solve such problems.
[0009]
Claims 2-5Another object of the present invention is to provide a two-dimensional imaging scanner that accurately displays that the mapping process is ongoing, in addition to the above-described objects.
Claims 6 and 7Another object of the present invention is to provide a two-dimensional imaging scanner that accurately displays the progress of a mapping process, in addition to the above-described objects.
[0010]
[Means for Solving the Problems]
FIG.Claims 1-5FIG. 4 is a principle block diagram corresponding to FIG.
[0011]
According to the first aspect of the present invention, the document is detected by the image capturing unit 1 that captures a document in two dimensions and outputs image information, the coordinate detecting unit 2 that detects an image capturing position of the image capturing unit 1, and the coordinate detecting unit 2. Image mapping means 3 for mapping each image information output by the imaging means 1 on the same coordinate plane based on the image capturing position, and display means 4 for displaying the image information mapped by the image mapping means 3 on one screen. And a display position calculating means 5 for obtaining a display position at which image information mapped by the image mapping means 3 is displayed on a screen. A feature is that a predetermined pattern is displayed at a display position obtained by the display position calculating means 5 during a period in which information is mapped.
[0012]
further,The display means 4 displays a symbol or a character indicating that the image information is being mapped or being synthesized in the pattern.
Claim 2The invention described inClaim 1In the two-dimensional imaging type scanner described in the above, the display means 4 displays a pattern that changes with time as a pattern.
[0013]
Claim 3The described invention,Claim 2In the two-dimensional imaging type scanner described in (1), the display means 4 displays a pattern whose area changes with time as a pattern.
Claim 4The described invention,Claim 2In the two-dimensional imaging type scanner described in the item 1, the display means 4 displays a pattern whose color changes with time as a pattern.
[0014]
Claim 5The invention described inClaim 2In the two-dimensional imaging type scanner described in (1), the display means 4 displays a pattern in which the density of the pattern changes with time as the pattern.
FIG.Claim 6FIG. 4 is a principle block diagram corresponding to FIG.
Claim 6The invention described inClaims 2 to 5The two-dimensional imaging scanner according to any one of the above, further comprising, for image information mapped by the image mapping means 3, a progress detecting means 6 for detecting a ratio of a data amount after the mapping to a total data amount, The display means 4 changes the pattern in accordance with the ratio detected by the progress detection means 6.
[0015]
FIG.Claim 7It is a principle block diagram corresponding to.
Claim 7The invention described inClaim 1In the two-dimensional imaging scanner described in 1 above, a remaining time for detecting an unprocessed data amount for image information mapped by the image mapping means 3 and calculating a remaining time required for mapping based on the unprocessed data amount. The display unit 4 includes a detection unit 7, and the display unit 4 displays the remaining time calculated by the remaining time detection unit 7 as characters.
[0016]
[Action]
In the two-dimensional imaging type scanner according to the first aspect, the coordinate detecting means 2 detects an imaging position of the imaging means 1.
The image mapping means 3 maps the image information based on the imaging position.
On the other hand, the display position calculating means 5 calculates a position at which the mapped image information is displayed based on the imaging position.
[0017]
The display unit 4 displays a predetermined pattern at this display position while the image mapping unit 3 is mapping the image information.
In this way, by displaying the predetermined pattern at the position where the image information is displayed after the mapping, it is clearly shown which position of the image information is being subjected to the mapping processing.
[0018]
Therefore, the operator can know whether or not the processing of the image information captured immediately before is being performed during the mapping processing, and the operator does not misunderstand that the imaging error has been made.Further, claim 1In the two-dimensional imaging type scanner, a symbol or a character indicating that image information is being mapped or being synthesized is displayed in a pattern.
Claim 2In the two-dimensional imaging type scanner, a pattern that changes with time is displayed while the image mapping means 3 is mapping image information.
[0019]
Claim 3The two-dimensional imaging type scanner displays a pattern whose area changes with time.
Claim 4The two-dimensional imaging type scanner displays a pattern whose color changes with time.
Claim 5The two-dimensional imaging type scanner displays a pattern in which the pattern density changes with time.
[0020]
Claim 6The two-dimensional imaging type scanner calculates the ratio between the data amount for which mapping has been completed and the total data amount in order to obtain the progress of the mapping process.
The display means 4 changes the pattern according to the ratio.
Claim 7The two-dimensional imaging type scanner detects the amount of unprocessed data and calculates the remaining time corresponding to the amount of unprocessed data in order to obtain the remaining time of the mapping process. The display means 4 displays the remaining time in the pattern.
[0021]
【Example】
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Note that the first embodiment is an embodiment according to the old claim 1 which has been deleted due to a procedure amendment.
FIG. 4 is a diagram illustrating the configuration of the first embodiment.
In the figure, a scanner main body 13 is placed on a document 11, and an image pickup section 14 composed of a two-dimensional image pickup device is arranged on a lower surface of the scanner main body 13.
[0022]
At both ends of the imaging unit 14, rotatable rollers 15 and 16 are arranged, and encoders 17 and 18 for measuring the rotation amounts of the rollers 15 and 16 with two axes are arranged respectively.
The outputs of the imaging unit 14 and the encoders 17 and 18 are individually connected to an interface 19, and the interface 19 is connected to an interface 21 on an external board via a cable 20.
[0023]
The output of the interface 21 is connected to a microprocessor unit 22, and the monitor output of the microprocessor unit 22 is connected to a screen 23.
In addition,ClaimsAnd the first embodiment, the imaging unit 1 corresponds to the imaging unit 14, the coordinate detection unit 2 corresponds to the rollers 15, 16 and the encoders 17, 18, and the display unit 4 is the microprocessor unit 22. And screen 23.
[0024]
FIG.First embodiment6 is an operation flowchart of FIG.
FIG. 6 is a diagram showing a screen display in this embodiment.
Hereinafter, the operation of the first embodiment will be described.
First, the operator places the scanner body 13 on the document 11 and takes an image of the document 11. The photoelectric output of the imaging unit 14 is captured by the microprocessor unit 22 via the interfaces 19 and 21, and stored as image information (S1 in FIG. 5). On the other hand, as the scanner body 13 moves, the rollers 15 and 16 disposed on the lower surface respectively rotate. These rotation amounts are measured by the encoders 17 and 18, respectively, and output to the microprocessor unit 22.
[0025]
The microprocessor unit 22 controls the imaging unit 14 based on these rotation amounts.CurrentThe position is measured (S2 in FIG. 5), and the current position and the inclination θ of the imaging unit 14 are calculated from these measured values.
Next, the microprocessor unit 22 calculates a parallel movement vector OO 'by multiplying the movement vector from the initial position (the position at the time of activation) of the imaging unit 14 to the current position by the display magnification of the screen 23 (FIG. 5S3). .
[0026]
Here, before mapping the image information, the microprocessor unit 22 translates the vertices of the rectangle representing the imaging region in parallel by the translation vector OO ′ and rotates the vertices by the inclination θ to obtain a position where the image information is mapped. Is calculated (S4 in FIG. 5).
The inside of the rectangle obtained in this way is filled with a predetermined pattern (for example, a white pattern as shown in FIG. 6) and displayed on the screen 23 (S5 in FIG. 5). The microprocessor unit 22 performs linear mapping of the image information using the translation vector OO ′ and the inclination θ (S6 in FIG. 5). The linearly mapped image information is displayed on the screen 23 (S7 in FIG. 5).
[0027]
As described above, in the first embodiment, the predetermined pattern is displayed in advance at the position where the image information is mapped, so that it is clearly indicated at which position the image processing is currently being performed. .
Therefore, the operator can know whether or not the processing of the image information captured immediately before is actually being performed during the mapping processing, and does not misunderstand that an imaging error has occurred.
[0028]
Further, the imaging area of the image information that has been imaged immediately before can be immediately confirmed on the screen 23 without waiting for the image information mapping processing to be completed. Therefore, when the position is not the desired imaging position, it is possible to immediately perform the imaging again, so that the operability of the two-dimensional imaging type scanner can be remarkably improved.
Next, a second embodiment will be described.
[0029]
The configuration of the second embodiment is the same as the configuration shown in FIG. 4, and a description thereof will be omitted.
In addition,Claim 1As for the correspondence between the invention described in (1) and the second embodiment, the imaging means 1 corresponds to the imaging unit 14, the coordinate detection means 2 corresponds to the rollers 15, 16 and the encoders 17, 18, and the display means 4 corresponds to It corresponds to the microprocessor section 22 and the screen 23.
[0030]
FIG.Claim 19 is an operation flowchart of the second embodiment corresponding to FIG.
FIG. 8 is a diagram showing a screen display in this embodiment.
The operational feature of the second embodiment is that after the rectangle indicating the imaging area is displayed on the screen 23 (S4 in FIG. 7), the microprocessor unit 22 displays the character "combining" in the center of the rectangle. (S5 in FIG. 7).
[0031]
As described above, in the second embodiment, substantially the same effects as in the first embodiment can be obtained.
Further, as an effect peculiar to the second embodiment, the character "combining" is displayed during the period in which the image information is being mapped, so that the content of the currently performed image processing and the The message that the time is required can be specified.
[0032]
Next, a third embodiment will be described.
The configuration of the third embodiment is the same as the configuration shown in FIG. 4, and a description thereof will be omitted.
In addition,Claims 2 and 3As for the correspondence between the invention described in (1) and the third embodiment, the image pickup means 1 corresponds to the image pickup section 14, the coordinate detection means 2 corresponds to the rollers 15, 16 and the encoders 17, 18, and the display means 4 corresponds to It corresponds to the microprocessor section 22 and the screen 23.
[0033]
FIG.Claims 2 and 311 is an operation flowchart of a third embodiment corresponding to FIG.
FIG. 10 is a diagram showing a screen display in this embodiment.
Hereinafter, the operation of the third embodiment will be described.
First, the operator places the scanner body 13 on the document 11 and captures image information (S1 in FIG. 9).
[0034]
On the other hand, the microprocessor unit 22 measures the amount of rotation of the rollers 15 and 16 (S2 in FIG. 9), and calculates the current position and the inclination θ of the imaging unit 14.
Next, the microprocessor unit 22 calculates a parallel movement vector OO 'by multiplying the movement vector from the initial position of the imaging unit 14 to the current position by the display magnification of the screen 23 (FIG. 9S3).
[0035]
Here, before performing the mapping of the image information, the microprocessor unit 22 translates the vertex of the rectangle representing the imaging region in parallel by the translation vector OO ′ and rotates it by the inclination θ to determine the position where the image information is mapped. Calculate in advance.
[0036]
The inside of the rectangle mapped in this way is filled with a predetermined pattern (for example, a white pattern as shown in FIG. 10) and displayed on the screen 23 (S4 in FIG. 9).
Next, the microprocessor unit 22 linearly maps a part of the image information using the translation vector OO ′ and the inclination θ (S5 in FIG. 9).
After linearly mapping a part of the image information in this way, the area of a pattern (for example, a wave pattern as shown in FIG. 10) displayed in a rectangle is increased (S6 in FIG. 9).
[0037]
By repeating these processes (S5 and S6 in FIG. 9), the area of the pattern in the rectangle gradually increases in parallel with the mapping process of the image information.
Here, when the mapping processing is completed (S7 in FIG. 9), the image information linearly mapped is displayed on the screen 23 (S8 in FIG. 9).
As described above, in the third embodiment, substantially the same effects as in the first embodiment can be obtained.
[0038]
Further, as an effect unique to the third embodiment, since the area of the pattern displayed on the screen 23 increases in parallel with the mapping processing, the operation of the two-dimensional imaging type scanner does not stop, and It can be clearly shown whether or not the operation of the mapping process is continuing for the image information of.
Next, a fourth embodiment will be described.
[0039]
The configuration of the fourth embodiment is the same as the configuration shown in FIG. 4, and the description thereof will be omitted.
In addition,Claim 4As for the correspondence between the invention described in (1) and the fourth embodiment, the imaging means 1 corresponds to the imaging unit 14, the coordinate detection means 2 corresponds to the rollers 15, 16 and the encoders 17, 18, and the display means 4 corresponds to It corresponds to the microprocessor section 22 and the screen 23.
[0040]
FIG.Claim 4FIG. 11 is a diagram showing a fourth embodiment corresponding to FIG.
An operational feature of the fourth embodiment is that the color in the rectangle displayed on the screen 23 is sequentially changed in parallel with the image information mapping process.
Thus, also in the fourth embodiment, it is possible to clearly indicate that the operation of the two-dimensional imaging scanner is not stopped and the operation of the mapping process is continuing.
Next, a fifth embodiment will be described.
[0041]
The configuration of the fifth embodiment is the same as the configuration shown in FIG. 4, and a description thereof will be omitted.
In addition,Claim 5As for the correspondence between the invention described in (5) and the fifth embodiment, the imaging means 1 corresponds to the imaging unit 14, the coordinate detection means 2 corresponds to the rollers 15, 16 and the encoders 17, 18, and the display means 4 corresponds to It corresponds to the microprocessor section 22 and the screen 23.
[0042]
FIG.Claim 5FIG. 13 is a diagram showing a fifth embodiment corresponding to FIG.
An operational feature of the fifth embodiment is that the density of a pattern displayed in a rectangle is sequentially changed in parallel with the image information mapping process.
Thus, also in the fifth embodiment, it can be clearly shown that the operation of the two-dimensional imaging type scanner is not stopped and the operation of the mapping process is continuing.
Next, a sixth embodiment will be described.
[0043]
The configuration of the sixth embodiment is the same as the configuration shown in FIG. 4, and a description thereof will be omitted.
In addition,Claim 6And the sixth embodiment, the image pickup means 1 corresponds to the image pickup section 14, the coordinate detection means 2 corresponds to the rollers 15, 16 and the encoders 17, 18, and the display means 4 corresponds to The progress detection unit 6 corresponds to the microprocessor unit 22 and the screen 23.
[0044]
FIG.Claim 615 is an operation flowchart of a sixth embodiment corresponding to FIG.
Hereinafter, the operation of the sixth embodiment will be described.
First, the operator places the scanner body 13 on the document 11 and captures image information (S1 in FIG. 13).
[0045]
On the other hand, the microprocessor unit 22 measures the rotation amounts of the rollers 15 and 16 (S2 in FIG. 13), and calculates the current position and the inclination θ of the imaging unit 14.
Next, the microprocessor unit 22 calculates a parallel movement vector OO ′ by multiplying the movement vector from the initial position of the imaging unit 14 to the current position by the display magnification of the screen 23 (S3 in FIG. 13).
[0046]
Here, before performing the mapping of the image information, the microprocessor unit 22 translates the vertex of the rectangle representing the imaging region in parallel by the translation vector OO ′ and rotates it by the inclination θ to determine the position where the image information is mapped. It is found and displayed on the screen 23 (S4 in FIG. 13).
Next, the microprocessor unit 22 linearly maps a part of the image information using the translation vector OO ′ and the inclination θ (S5 in FIG. 13).
[0047]
After performing the mapping process on a part of the image information in this way, the ratio between the data amount after the mapping process is completed and the total data amount of the image information is calculated (S6 in FIG. 13).
A pattern having an area corresponding to this ratio (for example, a wavy pattern) is displayed in a rectangle (S7 in FIG. 13).
By repeating these processes (S5, S6, S7 in FIG. 13), the area of the pattern increases in accordance with the progress of the mapping process.
[0048]
Here, when the mapping processing is completed (S8 in FIG. 13), the image information linearly mapped is displayed on the screen 23 (S9 in FIG. 13).
Thus, in the sixth embodiment, substantially the same effects as in the first embodiment can be obtained.
Further, as an effect peculiar to the sixth embodiment, the progress of the mapping process can be clearly shown by the change in the area of the pattern.
[0049]
Next, a seventh embodiment will be described.
The configuration of the seventh embodiment is the same as the configuration shown in FIG. 4, and the description thereof will be omitted.
In addition,Claim 7As for the correspondence between the invention described in (1) and the seventh embodiment, the imaging unit 1 corresponds to the imaging unit 14, the coordinate detection unit 2 corresponds to the rollers 15, 16 and the encoders 17, 18, and the display unit 4 corresponds to The remaining time detecting unit 7 corresponds to the microprocessor unit 22 and the screen 23.
[0050]
FIG.Claim 715 is an operation flowchart of a seventh embodiment corresponding to FIG.
FIG. 15 is a diagram showing a screen display in this embodiment.
Hereinafter, the operation of the seventh embodiment will be described.
First, the operator places the scanner main body 13 on the document 11 and captures image information (S1 in FIG. 14).
[0051]
On the other hand, the microprocessor unit 22 measures the amount of rotation of the rollers 15 and 16 (S2 in FIG. 14), and calculates the current position and the inclination θ of the imaging unit 14.
Next, the microprocessor unit 22 calculates a parallel movement vector OO 'by multiplying the movement vector from the initial position of the imaging unit 14 to the current position by the display magnification of the screen 23 (S3 in FIG. 14).
[0052]
Here, before performing the mapping of the image information, the microprocessor unit 22 translates the vertex of the rectangle representing the imaging region in parallel by the translation vector OO ′ and rotates it by the inclination θ to determine the position where the image information is mapped. It is calculated in advance and displayed on the screen 23 (S4 in FIG. 14).
Next, the microprocessor unit 22 linearly maps a part of the image information using the translation vector OO ′ and the inclination θ (S5 in FIG. 14).
[0053]
After partially linearly mapping the image information in this way, the amount of unprocessed data that has not been mapped is obtained, and the time required for the mapping process per unit data amount is multiplied to calculate the remaining time (S6 in FIG. 14). .
[0054]
The remaining time is displayed in a rectangle as shown in FIG. 15 (S7 in FIG. 14).
By repeating these processes (S5, S6, S7 in FIG. 14), the remaining time of the mapping process is displayed every moment in correspondence with the progress of the mapping process.
Here, when the mapping processing is completed (S8 in FIG. 14), the image information linearly mapped is displayed on the screen 23 (S9 in FIG. 14).
[0055]
As described above, in the seventh embodiment, substantially the same effects as in the first embodiment can be obtained.
Further, as an effect unique to the seventh embodiment, the remaining time of the mapping processing is displayed on the screen 23 as a message.
In the above-described embodiment, a rectangle indicating the imaging region is displayed as the contour of the pattern. However, the present invention is not limited to the shape and size of the contour, and the position where the image information is mapped is specified. Just fine. For example, a circular pattern may be displayed at the center of the area to be mapped. By displaying the circular pattern in this manner, it is not necessary to perform the rotation based on the inclination θ in the above-described embodiment, and the time required for the arithmetic processing can be reduced.
[0056]
Further, in the above-described embodiment, a wave pattern or the like is displayed as a pattern pattern. However, the present invention is not limited to the type of pattern, and may be a line drawing or a color-coded pattern.
Further, in the third embodiment, the area of the wave pattern is changed. However, the present invention is not limited to such a display mode. The area of the pattern only needs to change with time. A pattern in which the contour is enlarged or reduced around the position where the image is mapped may be displayed.
[0057]
【The invention's effect】
As described above, according to the first aspect of the present invention, since the pattern is displayed at the position where the image information is displayed after the mapping, it is clear which image information is currently being mapped. Can be shown.
[0058]
Therefore, even for an operator who is not used to the operation, the pattern is displayed at the position where the image was taken, so that the processing status is easy to understand, and it is not possible to misunderstand that the imaging mistake has been made.
Further, the operator can immediately know the position of the image information captured immediately before. Therefore, when the imaging position has failed, the original can be immediately re-imaged without waiting for the completion of the mapping processing, and the operability can be significantly improved.
[0059]
Further, claim 1According to the invention described in (1), characters or symbols indicating the processing status are displayed in the pattern, so that it is possible to accurately display what kind of processing is currently being performed on the display position of the pattern.
Claim 2In the invention described in (1), a pattern that changes with time is displayed, so that the operation of the two-dimensional imaging scanner is not stopped, and clearly indicates to which position the image processing operation is continuing for the image information. be able to.
[0060]
Claim 3According to the invention described in (1), since the area of the pattern changes with time, it is possible to clearly indicate that the operation of the mapping process is continuing by the change in the area of the pattern.
Claim 4In the invention described in (1), the color of the pattern changes with time, so that the operation of the mapping process is continuing can be clearly indicated by the change in the color of the pattern.
[0061]
Claim 5According to the invention described in (1), since the density of the pattern of the pattern changes with time, it is possible to clearly indicate that the operation of the mapping process is continuing by the change in the density of the pattern.
Claim 6According to the invention described in the above, for the image information being mapped, the ratio between the data amount after the mapping and the total data amount is calculated, and the pattern is changed in accordance with the ratio. It is possible to clearly show how much the mapping processing has progressed.
[0062]
Claim 7In the invention described in (1), the remaining time of the mapping process is calculated and displayed, so that the operator can clearly indicate the remaining time of the mapping process with respect to the image information at which position.
As described above, the two-dimensional imaging scanner to which the present invention is applied clearly indicates which image information is subjected to the mapping processing, as compared with the conventional "hourglass mark", and the like. The processing status of the type scanner is easy to understand, and the operability is significantly improved.
[Brief description of the drawings]
FIG.Claims 1-5FIG. 4 is a principle block diagram corresponding to FIG.
FIG. 2Claim 6FIG. 4 is a principle block diagram corresponding to FIG.
FIG. 3Claim 7It is a principle block diagram corresponding to.
FIG. 4 is a diagram showing a configuration of first to seventh embodiments.
FIG. 5First embodiment6 is an operation flowchart of FIG.
FIG. 6 is a diagram showing a screen display in the first embodiment.
FIG. 7Claim 19 is an operation flowchart of the second embodiment corresponding to FIG.
FIG. 8 is a diagram showing a screen display in the second embodiment.
FIG. 9Claims 2 and 311 is an operation flowchart of a third embodiment corresponding to FIG.
FIG. 10 is a diagram showing a screen display in the third embodiment.
FIG. 11Claim 4FIG. 11 is a diagram showing a fourth embodiment corresponding to FIG.
FIG.Claim 5FIG. 13 is a diagram showing a fifth embodiment corresponding to FIG.
FIG. 13Claim 615 is an operation flowchart of a sixth embodiment corresponding to FIG.
FIG. 14Claim 715 is an operation flowchart of a seventh embodiment corresponding to FIG.
FIG. 15 is a diagram showing a screen display in the seventh embodiment.
FIG. 16 is a diagram showing an example of a conventional two-dimensional imaging scanner.
FIG. 17 is a diagram illustrating a screen display of a conventional two-dimensional imaging scanner.

Claims (7)

原稿を二次元で撮像し、画像情報を出力する撮像手段と、
前記撮像手段の撮像位置を検出する座標検出手段と、
前記座標検出手段により検出された前記撮像位置に基づいて、前記撮像手段により出力された各画像情報を同一座標面上に写像する画像写像手段と、
前記画像写像手段により写像された画像情報を1つの画面に表示する表示手段とを備えた二次元撮像式スキャナにおいて、
前記画像写像手段により写像される画像情報が画面に表示される表示位置を求める表示位置算出手段を備え、
前記表示手段は、
前記画像写像手段により画像情報の写像が行われる期間に、前記表示位置算出手段により求められる表示位置に予め定められたパターンを表示し、前記パターン内に、画像情報の写像中あるいは合成中を表す記号あるいは文字を表示する
ことを特徴とする二次元撮像式スキャナ。
Imaging means for imaging a document in two dimensions and outputting image information;
Coordinate detection means for detecting the imaging position of the imaging means,
Image mapping means for mapping each image information output by the imaging means on the same coordinate plane based on the imaging position detected by the coordinate detection means,
A display unit for displaying image information mapped by the image mapping unit on a single screen.
A display position calculating unit that calculates a display position at which image information mapped by the image mapping unit is displayed on a screen;
The display means,
During the period in which the image information is mapped by the image mapping means, a predetermined pattern is displayed at the display position calculated by the display position calculating means , and the pattern represents that the image information is being mapped or being synthesized. A two-dimensional imaging scanner for displaying a symbol or a character .
請求項1に記載の二次元撮像式スキャナにおいて、
前記表示手段は、
前記パターンとして、時間と共に変化するパターンを表示する
ことを特徴とする二次元撮像式スキャナ。
The two-dimensional imaging scanner according to claim 1 ,
The display means,
A two-dimensional imaging scanner, wherein a pattern that changes with time is displayed as the pattern.
請求項2に記載の二次元撮像式スキャナにおいて、
前記表示手段は、
前記パターンとして、時間と共に面積が変化するパターンを表示する
ことを特徴とする二次元撮像式スキャナ。
The two-dimensional imaging scanner according to claim 2 ,
The display means,
A two-dimensional imaging scanner, wherein a pattern whose area changes with time is displayed as the pattern.
請求項2に記載の二次元撮像式スキャナにおいて、
前記表示手段は、
前記パターンとして、時間と共に色が変化するパターンを表示する
ことを特徴とする二次元撮像式スキャナ。
The two-dimensional imaging scanner according to claim 2 ,
The display means,
A two-dimensional imaging type scanner which displays a pattern whose color changes with time as the pattern.
請求項2に記載の二次元撮像式スキャナにおいて、
前記表示手段は、
前記パターンとして、時間と共に模様の密度が変化するパターンを表示する
ことを特徴とする二次元撮像式スキャナ。
The two-dimensional imaging scanner according to claim 2 ,
The display means,
A two-dimensional image-capturing scanner, wherein a pattern in which the density of the pattern changes with time is displayed as the pattern.
請求項2乃至5のいずれか1項に記載の二次元撮像式スキャナにおいて、
前記画像写像手段により写像される画像情報について、写像を完了したデータ量と全データ量との比率を検出する進捗検出手段を備え、
前記表示手段は、
前記進捗検出手段により検出された比率に対応して、前記パターンを変化させる
ことを特徴とする二次元撮像式スキャナ。
The two-dimensional imaging scanner according to any one of claims 2 to 5 ,
For image information mapped by the image mapping means, comprises a progress detection means for detecting the ratio of the data amount of the completed mapping and the total data amount,
The display means,
A two-dimensional imaging scanner, wherein the pattern is changed in accordance with the ratio detected by the progress detection means.
請求項1に記載の二次元撮像式スキャナにおいて、
前記画像写像手段により写像される画像情報について未処理のデータ量を検出し、その未処理のデータ量に基づいて写像に所要する残り時間を算出する残時間検出手段を備え、
前記表示手段は、
前記文字として、前記残時間検出手段により算出される残り時間を表示する
ことを特徴とする二次元撮像式スキャナ。
The two-dimensional imaging scanner according to claim 1 ,
A remaining time detecting unit that detects an unprocessed data amount for the image information mapped by the image mapping unit and calculates a remaining time required for mapping based on the unprocessed data amount,
The display means,
The two-dimensional imaging scanner according to claim 1, wherein the character displays a remaining time calculated by the remaining time detecting means.
JP10607995A 1995-04-28 1995-04-28 2D imaging scanner Expired - Fee Related JP3550604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10607995A JP3550604B2 (en) 1995-04-28 1995-04-28 2D imaging scanner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10607995A JP3550604B2 (en) 1995-04-28 1995-04-28 2D imaging scanner

Publications (2)

Publication Number Publication Date
JPH08307653A JPH08307653A (en) 1996-11-22
JP3550604B2 true JP3550604B2 (en) 2004-08-04

Family

ID=14424581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10607995A Expired - Fee Related JP3550604B2 (en) 1995-04-28 1995-04-28 2D imaging scanner

Country Status (1)

Country Link
JP (1) JP3550604B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002084406A (en) 2000-09-07 2002-03-22 Sony Corp Image transfer unit and method, file transfer unit and method, and program storage medium
EP2538654A1 (en) * 2011-06-22 2012-12-26 LG Electronics Scanning technology

Also Published As

Publication number Publication date
JPH08307653A (en) 1996-11-22

Similar Documents

Publication Publication Date Title
KR100785594B1 (en) Image process apparatus
EP4155701A1 (en) Surface pressure analysis device, method, and program
US6621928B1 (en) Image edge detection method, inspection system, and recording medium
JPWO2006135040A1 (en) Image processing apparatus and image processing method for performing three-dimensional measurement
JP2000097636A (en) Device and method for positioning measuring head of non- contact three-dimensional measuring device
JP3932180B2 (en) Teaching method, electronic substrate inspection method, and electronic substrate inspection device
JP4092853B2 (en) MTF measuring method and MTF measuring apparatus
US20200250823A1 (en) Three-dimensional image display method, three-dimensional image display device, and recording medium
JP3550604B2 (en) 2D imaging scanner
JP4591103B2 (en) X-ray CT inspection apparatus and X-ray CT inspection method
JP2023520902A (en) Scanning system and its calibration
JP2003240527A (en) Apparatus and method for measurement of three- dimensional dimensions
US20220020208A1 (en) Measurement method, measurement device, and recording medium
JP3891853B2 (en) Image measuring apparatus and program for image measuring apparatus
JP3608932B2 (en) Image measuring method and apparatus
JP2010194146A (en) Ultrasonic diagnostic apparatus and control program thereof
JP3387258B2 (en) 2D imaging scanner
JP2667019B2 (en) CT type measuring device
JP2007218784A (en) X-ray inspection device
JPH0629709B2 (en) Measuring method and device for three-dimensional curved surface shape
JP2002286426A (en) Dimension measurement method and apparatus by image processing
JPH10115513A (en) Apparatus for measuring and plotting surface shape
JP2569543B2 (en) Hardness tester
JP7360243B2 (en) Information processing device, information processing method, program
US20240062401A1 (en) Measurement system, inspection system, measurement device, measurement method, inspection method, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040405

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees