JPH06259557A - Picture input device - Google Patents

Picture input device

Info

Publication number
JPH06259557A
JPH06259557A JP5048158A JP4815893A JPH06259557A JP H06259557 A JPH06259557 A JP H06259557A JP 5048158 A JP5048158 A JP 5048158A JP 4815893 A JP4815893 A JP 4815893A JP H06259557 A JPH06259557 A JP H06259557A
Authority
JP
Japan
Prior art keywords
image
partial
fetched
section
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5048158A
Other languages
Japanese (ja)
Inventor
Hiroshi Mizoguchi
博 溝口
Akira Morishita
明 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5048158A priority Critical patent/JPH06259557A/en
Publication of JPH06259557A publication Critical patent/JPH06259557A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a light-weight and inexpensive picture input device capable of obtaining high resolution and having a practical and wide visual angle range. CONSTITUTION:While scanning an original, a partial picture is picked up by an image pickup part 1, partial picture sequence picked up by the image pickup part 1 is fetched in a pickup image synthesizing part 3 and the parallelism and rotational angle of a partial picture fetched this time with respect to a partial picture fetched just before this are detected by an image distortion detecting part 31. An image distortion correcting part 32 corrects relation between the partial picture fetched this time and the partial picture fetched just before this in accordance with the parallelism and rotational angle detected by an image distortion detecting part 31, a partial picture inserting position calculating part 33 calculates the inserting position of the partial picture fetched this time based upon a corrected output and a synthesized picture storing part 4 generates a synthesized picture of respective partial pictures based upon an output from the synthesizing part 3.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】[0001]

【産業上の利用分野】本発明は、画像情報を入力する画
像入力装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input device for inputting image information.

【0002】[0002]

【従来の技術】従来、画像入力装置として、図面からの
反射光を光電変換センサにより電気信号に変換すること
により画像データを入力する据え置き型のスキャナが知
られている。
2. Description of the Related Art Conventionally, as an image input device, there is known a stationary scanner for inputting image data by converting light reflected from a drawing into an electric signal by a photoelectric conversion sensor.

【0003】このような据え置き型スキャナは、手書き
図面をそのまま300dpi以上の高解像度で読み取る
ことができることから、比較的多く利用されている。と
ころが、この反面で機構系を必要とするため、重くて高
価という問題があった。
[0003] Such stationary scanners are widely used because they can read handwritten drawings as they are at a high resolution of 300 dpi or higher. However, on the other hand, since it requires a mechanical system, it has the problem of being heavy and expensive.

【0004】これは、高解像度のレンズが大口径のガラ
スであるため、重く高価にならざるを得ないからであ
る。また、機構系の精度が要求されているため、剛性を
高める必要があり、このことも重さとコストの上昇要因
となっている。また、ガラスの原稿台を用いることも重
さとコストの上昇を招いている。このため、機構系での
消費電力的にも不経済であるとともに、重量的、寸法的
からして携帯も不能であった。
[0004] This is because the high-resolution lens is made of large-diameter glass, which inevitably becomes heavy and expensive. In addition, since the mechanical system is required to have high precision, it is necessary to increase the rigidity, which also causes an increase in weight and cost. Also, the use of a glass platen increases weight and cost. For this reason, it is uneconomical in terms of power consumption in the mechanical system, and is not portable due to its weight and size.

【0005】そこで、このような据え置き型スキャナと
比べると、小型軽量でハンドリングが容易なハンディス
キャナが用いられることもあるが、ハンディスキャナ
は、解像度として300dpi程度が得られるものの原
稿の読取り幅が一定で狭いとともに、一定速度で横ぶれ
なく手で走査する必要があるため、その取扱いが難し
い。しかも、ハンディスキャナから導出されるケーブル
に束縛されるなどの問題点がある。
[0005] Therefore, a handy scanner, which is smaller, lighter, and easier to handle than such a stationary scanner, is sometimes used. In addition to being narrow, it is difficult to handle because it is necessary to scan by hand at a constant speed without sideways movement. Moreover, there are problems such as being bound by a cable led out from the handy scanner.

【0006】一方、最近になって、電子スチルカメラで
図面を撮像することにより、画像情報を取り込むような
ことが注目されている。かかる電子スチルカメラは、上
述のスキャナと違い、携帯性に優れており、また、原稿
と非接触ゆえに、離れた場所の看板や白板も撮像可能で
ある。
[0006] On the other hand, recently, attention has been paid to taking in image information by photographing a drawing with an electronic still camera. Unlike the scanners described above, such an electronic still camera is excellent in portability, and since it does not come into contact with the original, it is possible to pick up images of billboards and whiteboards in remote locations.

【0007】しかし、このような電子スチルカメラは、
通常のTVカメラを利用しているため画素数が640×
480程度しかなく、解像度が低いという致命的な問題
がある。このことは、例えば300dpiの解像度でA
4版の原稿を読み込むとすると、約3600×2500
画素が必要であり、電子スチルカメラでは、約1/25
の解像度しか得られないことになる。
[0007] However, such an electronic still camera
The number of pixels is 640x because a normal TV camera is used.
There is only about 480, and there is a fatal problem of low resolution. This means that at a resolution of 300 dpi, for example, A
Approximately 3600 x 2500 when reading a 4th edition manuscript
Pixels are required, and in an electronic still camera, about 1/25
resolution is obtained.

【0008】また、電子スチルカメラに、ハイビジョン
用カメラを利用することも考えられるが、このハイビジ
ョン用カメラを用いても高々2000×1000画素程
度しかないため、まだ不足である。また、このように撮
像素子の解像度を上げていくと、それに応じてレンズの
解像度も上げなければ意味がなく、そうなると上述の据
え置き型スキャナの場合と同様に、大きくて重く、けん
ろうな筐体を必要とすることにより高価になるというよ
うな悪循環に陥ることになる。
[0008] It is also conceivable to use a high-definition camera for the electronic still camera, but even if this high-definition camera is used, it is still insufficient because it has only about 2000 x 1000 pixels at most. In addition, if the resolution of the image pickup device is increased in this way, it is meaningless unless the resolution of the lens is also increased accordingly. It will fall into a vicious circle in which it becomes expensive due to the need for

【0009】さらに、撮像素子に、例えばピエゾ等の圧
電素子を利用し、この圧電素子を振動させることで、解
像度を向上させようとの試みもあるが、こうしても光学
系の大型化の問題はまぬがれ得ない。
Further, there is an attempt to improve the resolution by using a piezoelectric element such as a piezoelectric element as an imaging device and vibrating the piezoelectric element, but even in this case the problem of increasing the size of the optical system remains. I cannot escape.

【0010】さらに、半導体技術の進歩により撮像素子
そのものの集積度を向上させることで解像度を上げるこ
とも考えられるが、この場合も、上記してきたような光
学系大型化の問題はまぬがれない。
Further, it is conceivable to increase the resolution by improving the degree of integration of the image sensor itself due to advances in semiconductor technology.

【0011】[0011]

【発明が解決しようとする課題】このように従来の画像
入力装置にあっては、高解像度と携帯性および価格のす
べてに満足できるものがなく、また、非接触では実用的
な解像度により画像入力が難しく、さらに安価で簡便な
装置では、視野範囲が狭すぎるというような問題点があ
った。
As described above, there is no conventional image input device that satisfies all of high resolution, portability and price. In addition, the inexpensive and simple device has a problem that the visual field range is too narrow.

【0012】本発明は、上記事情に鑑みてなされたもの
で、高解像度を得られるとともに、実用的な広い視野範
囲を持ち、しかも軽量で安価な画像入力装置を提供する
ことを目的とする。
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image input device which has a high resolution, a wide practical field of view, and is lightweight and inexpensive.

【0013】[0013]

【課題を解決するための手段】本発明は、被写体より部
分画像を撮像する撮像部と、この撮像部で撮像される部
分画像列を取り込むとともに前回取り込んだ部分画像に
対する今回取り込んだ部分画像の並進および回転角を検
出する手段、この手段により検出された並進および回転
角に応じて前回取り込んだ部分画像に対する今回取り込
んだ部分画像の関係を補正する手段と、この手段の補正
出力により今回取り込んだ部分画像のはめこみ位置を算
出する手段を有する撮像画像合成手段と、この撮像画像
合成手段からの出力より各部分画像の合成画像を生成す
る手段により構成されている。
SUMMARY OF THE INVENTION The present invention provides an imaging section for picking up partial images from an object, a series of partial images picked up by the imaging section, and translation of the currently picked up partial image with respect to the previously picked up partial image. and means for detecting a rotation angle, means for correcting the relationship between the previously captured partial image and the currently captured partial image according to the translation and rotation angles detected by the means, and the currently captured portion based on the corrected output of the means. It is composed of captured image synthesizing means having means for calculating an image embedding position, and means for generating a synthesized image of each partial image from the output from the captured image synthesizing means.

【0014】[0014]

【作用】この結果、本発明によれば、被写体に対して撮
像部より撮像される部分画像を合成して1枚の合成画像
を生成することができるので、撮像部による撮像範囲を
最小限にして、撮像部の視野範囲よりも広い被写体全体
の画像を得られ、解像度を飛躍的に高めることができる
とともに、軽量で安価な画像入力装置を実現できる。
As a result, according to the present invention, partial images captured by the imaging section of the subject can be combined to generate a single composite image, thus minimizing the imaging range of the imaging section. Therefore, it is possible to obtain an image of the entire object wider than the field of view of the imaging unit, to dramatically improve the resolution, and to realize a lightweight and inexpensive image input device.

【0015】[0015]

【実施例】以下、本発明の一実施例を図面に従い説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will now be described with reference to the drawings.

【0016】図1は、同実施例の概略構成を示してい
る。図において、1は撮像部で、この撮像部1は、原稿
2上を走査することより部分画像を入力画像列として取
り込むようにしている。この場合、撮像部1には、TV
カメラやハンディスキャナ、CCDイメージセンサなど
のように連続的に画像情報を入力するものが用いられ
る。
FIG. 1 shows a schematic configuration of the same embodiment. In the figure, reference numeral 1 denotes an imaging unit, which scans a document 2 and captures partial images as an input image sequence. In this case, the imaging unit 1 includes a TV
A camera, a handy scanner, a CCD image sensor, or the like that continuously inputs image information is used.

【0017】撮像部1によって入力された入力画像列
は、撮像画像合成部3に送られる。この撮像画像合成部
3は、入力されている部分画像列をしかるべき位置で合
成するものである。
An input image sequence input by the imaging unit 1 is sent to the captured image synthesizing unit 3 . This picked-up image synthesizing unit 3 synthesizes the input partial image trains at appropriate positions.

【0018】この場合、撮像画像合成部3は、画像歪検
出部31、画像歪補正部32、部分画像はめこみ位置算
出部33から構成されている。そして、撮像部1より取
り込んだ入力画像列(部分画像)を画像歪検出部31と
画像歪補正部32に与えるようにしている。画像歪検出
部31では、一連の入力画像列の並進および回転各を検
出し画像歪補正部32へ送る。画像歪補正部32では、
画像歪検出部31で得られた情報に基づき、入力画像に
アフィン変換等の画像処理を施して、入力画像の歪を補
正する。また、画像歪補正部32で補正した入力部分画
像を部分画像はめこみ位置算出部33に与える。そし
て、この部分画像はめこみ位置算出部33では、それま
でに入力されて合成、蓄積されている部分画像列と補正
された入力部分画像とを照合して接続すべき位置を算出
する。この算出された値は、補正された入力部分画像を
はめこむべき位置であり、後述する合成画像蓄積部4の
対応するアドレス領域に補正された入力部分画像を書き
込むことによって、入力画像の合成を行うようにしてい
る。
In this case, the picked-up image synthesizing section 3 comprises an image distortion detecting section 31, an image distortion correcting section 32, and a partial image fitting position calculating section 33. FIG. Then, an input image sequence (partial image) taken from the imaging unit 1 is given to an image distortion detection unit 31 and an image distortion correction unit 32 . The image distortion detector 31 detects translation and rotation of a series of input image sequences and sends them to the image distortion corrector 32 . In the image distortion corrector 32,
Based on the information obtained by the image distortion detector 31, image processing such as affine transformation is applied to the input image to correct the distortion of the input image. Also, the input partial image corrected by the image distortion correction unit 32 is given to the partial image fitting position calculation unit 33 . Then, the partial image embedding position calculation unit 33 compares the partial image sequence that has been input, combined, and accumulated with the corrected input partial image, and calculates the position to be connected. This calculated value is the position where the corrected input partial image should be inserted, and by writing the corrected input partial image in the corresponding address area of the composite image storage unit 4, which will be described later, the input image can be synthesized. I am trying to do it.

【0019】なお、この時に入力部分画像が、合成画像
に完全に含まれてしまう場合は、書き込みは行わないも
のとする。一方、はめこみ位置が算出できない部分画像
については、保留メモリ部に一旦しまっておき、全体の
合成が段落した時点で、再度はめこみ位置を探索する。
At this time, if the input partial image is completely included in the synthesized image, no writing is performed. On the other hand, partial images for which the inset position cannot be calculated are temporarily stored in the reserve memory unit, and the inset position is searched for again when the synthesis of the whole is complete.

【0020】撮像画像合成部3によりしかるべき位置で
合成された入力部分画像は、合成画像蓄積部4に与えら
れ蓄えられる。この場合、合成画像蓄積部4に蓄えられ
る合成画像は、同時に合成画像表示部5に送られる。こ
の合成画像表示部5は、入力部分画像列が合成されてゆ
く様子がリアルタイムに見えるようになっている。
The input partial images synthesized at appropriate positions by the picked-up image synthesizing section 3 are applied to and stored in the synthetic image storage section 4 . In this case, the composite image stored in the composite image storage unit 4 is sent to the composite image display unit 5 at the same time. The composite image display unit 5 is designed to allow real-time viewing of how the input partial image sequences are being composited.

【0021】また、合成画像蓄積部4に蓄えられる合成
画像は、合成画像完了判定部6および外部インタフェー
ス部7に送られるようにもなっている。合成画像完了判
定部6は、合成画像蓄積部4に画像が蓄えられてゆく状
況から合成が完了したことを判定するもので、その旨を
通知部8を介して、ユーザーに通知するようにしてい
る。また、合成が完了した画像は、外部インタフェース
部7を介して外部に転送されるようにしている。なお、
9は各種の操作を指示する操作指示部、10は各ブロッ
クに制御情報を与える制御部である。次に、以上のよう
に構成した実施例の作用を説明する。
The composite image stored in the composite image storage section 4 is also sent to the composite image completion determination section 6 and the external interface section 7 . The composite image completion determination unit 6 determines that the composition is completed from the state in which the images are stored in the composite image storage unit 4, and notifies the user of this through the notification unit 8. there is Also, the image for which the synthesis has been completed is transferred to the outside through the external interface section 7 . note that,
Reference numeral 9 denotes an operation instruction section for instructing various operations, and 10 denotes a control section for giving control information to each block. Next, the operation of the embodiment configured as above will be described.

【0022】図2は、本実施例装置11を実際に使用し
ている状態を説明するための図である。ここでは、撮像
部1がTVカメラである例を示している。この場合、同
図(a)に示すように、実施例装置11を手に持って原
稿2上を走査すると、この走査にしたがって、合成画像
表示部5には、同図(b)に示すように入力画像列が合
成されてゆく様子がリアルタイムに見えてゆく。図中の
「1,2,3…」は画面上で合成画像が成長していく過
程を示している。そして、このようにして撮像部1より
取り込まれた原稿2からの入力部分画像は、撮像画像合
成部3の画像歪検出部31に送られる。
FIG. 2 is a diagram for explaining the state in which the apparatus 11 of this embodiment is actually used. Here, an example in which the imaging unit 1 is a TV camera is shown. In this case, as shown in FIG. 11(a), when the embodiment apparatus 11 is held by hand and the original 2 is scanned, the combined image display section 5 displays the image shown in FIG. You can see in real time how the input image sequence is synthesized. "1, 2, 3, . . . " in the figure indicate the process in which the synthesized image grows on the screen. Then, the input partial image from the document 2 fetched from the imaging section 1 in this way is sent to the image distortion detecting section 31 of the captured image synthesizing section 3 .

【0023】図3は、画像歪検出部31の概略構成を示
すもので、新フレームメモリ311、相関演算部31
2、制御判定部313、テンプレートメモリ314、旧
フレームメモリ315からなっている。
FIG. 3 shows a schematic configuration of the image distortion detector 31. The new frame memory 311 and the correlation calculator 31 are shown in FIG.
2. It consists of a control judgment unit 313, a template memory 314, and an old frame memory 315.

【0024】この場合、撮像部1により入力された現在
の画像は、新フレームメモリ311に入れられる。一
方、一つ前の時点の画像は、旧フレームメモリ312に
入れられている。この状態で、制御判定部313は、旧
フレームメモリ315の画像中の任意点近傍の小領域を
切り出しテンプレートメモリ314にセットする。そし
て、制御判定部313からのスタート指令にしたがっ
て、相関演算部312により新フレームメモリ311の
走査を行い、テンプレートメモリ314の内容が新フレ
ームメモリ311中で最もよく一致する箇所の座標を求
め、この結果を制御判定部313に出力するようにして
いる。
[0024] In this case, the current image input by the imaging unit 1 is stored in the new frame memory 311 . On the other hand, the image at the previous time point is stored in the old frame memory 312 . In this state, the control determination unit 313 cuts out a small area near an arbitrary point in the image in the old frame memory 315 and sets it in the template memory 314 . Then, in accordance with the start command from the control determination section 313, the correlation calculation section 312 scans the new frame memory 311 to obtain the coordinates of the location in the new frame memory 311 where the contents of the template memory 314 best match. The result is output to the control determination section 313 .

【0025】この場合、相関演算部312での演算は、
図4に示すように、旧フレームメモリ315に記憶され
た旧フレーム画像41の中心点Po の近傍を切り出して
テンプレートメモリ314にセットし、新フレームメモ
リ311中での位置を求めることで、装置全体がどちら
の方向に移動したか判定するようになる。
[0025] In this case, the calculation in the correlation calculator 312 is as follows:
As shown in FIG. 4, the vicinity of the center point P o of the old frame image 41 stored in the old frame memory 315 is cut out and set in the template memory 314, and the position in the new frame memory 311 is obtained. It will determine in which direction the whole thing has moved.

【0026】この場合、旧フレームから新フレームの変
位は、2次元の位置と回転の3自由度であるから、最小
限、Po 以外の他の1点について、新フレームメモリ3
11中での位置を求めれば、これら新フレーム画像42
と旧フレーム画像41間の変換が求められる。
In this case, since the displacement from the old frame to the new frame has three degrees of freedom of two-dimensional position and rotation, the new frame memory 3
11, these new frame images 42
and the old frame image 41 is required.

【0027】ここで、図5に示すように画面上の点Pi
の座標を、旧フレームメモリ315の座標系で表わした
ものを 1i 、新フレームメモリ311の座標系で表
わしたものを 2i とすると、旧フレームから新フレ
ームへの並進成分のベクタTは、T= 1i 2
i で求められ、また、新フレーム画像42と旧フレ
ーム画像41の回転角θは、
Here, as shown in FIG. 5, a point P i
are expressed in the coordinate system of the old frame memory 315 as 1 P i expressed in the coordinate system of the new frame memory 311 is 2 P i , the vector T of the translation component from the old frame to the new frame is T= 1 P i 2
P i , and the rotation angle θ between the new frame image 42 and the old frame image 41 is

【0028】 cos θ=( 1j 1i )・( 2j 2i )/| 1j 1i || 2j 2i | より求められる。cos θ=( 1Pj- _ 1 P i )・( 2Pj- _ 2 P i )/| 1Pj- _ 1 P i || 2Pj- _ 2 P i |

【0029】なお、図4に示すように複数の点(Po
4 )の対応付けを、新、旧フレーム間で行うようにす
れば、より精度が向上する。この場合、求める自由度に
比べ、式の本数が増えて冗長になるが、最小2乗法を適
用して解を得るようにすればよい。そして、この画像歪
検出部31からの検出出力は、画像歪補正部32に与え
られる。図6は、画像歪補正部32の概略構成を示すも
ので、アドレスジェネレータ321、回転変換部32
2、補正フレームメモリ323からなっている。
As shown in FIG. 4, a plurality of points (P o
P 4 ) is made to correspond between the new and old frames, the accuracy is further improved. In this case, the number of equations increases and becomes redundant compared to the degree of freedom to be obtained, but the least squares method should be applied to obtain the solution. A detection output from the image distortion detector 31 is provided to the image distortion corrector 32 . FIG. 6 shows a schematic configuration of the image distortion correcting section 32. The address generator 321, the rotation transforming section 32, and the like are shown in FIG.
2. It consists of a correction frame memory 323 .

【0030】この場合、アドレスジェネレータ321
は、上述した新フレームメモリ311をラスタスキャン
するためのアドレスを順次生成する。回転変換部322
は、装置がθだけ回転して新・旧フレーム画像間に角度
θの回転が存在する場合、新フレーム画像の内容は−θ
回転しているので、この新フレーム画像の内容を補正し
て旧フレーム画像に合わせるためθだけ回転させるよう
にしている。つまり、図6に示すように、アドレスジェ
ネレータ321が発生するアドレス(x,y)に対し、
角度θの回転R(θ)を施したアドレス(x′y′)を
生成し、補正フレームメモリ323に供給するようにし
ている。
In this case, address generator 321
sequentially generate addresses for raster scanning the new frame memory 311 described above. Rotation converter 322
is that when the device is rotated by θ and there is a rotation of angle θ between the new and old frame images, the content of the new frame image is −θ
Since it is rotated, the contents of this new frame image are corrected and rotated by θ to match the old frame image. That is, as shown in FIG. 6, for the address (x, y) generated by the address generator 321,
An address (x'y') obtained by rotating R(.theta.) by an angle .theta. is generated and supplied to the correction frame memory 323. FIG.

【0031】これにより、新フレームメモリ311のア
ドレス(x,y)から読み出したデータを、補正フレー
ムメモリ323のアドレス(x′,y′)に書き込むこ
とにより回転が補正されたフレーム画像が得られること
になる。
By writing the data read from the address (x, y) of the new frame memory 311 to the address (x', y') of the correction frame memory 323, a rotation-corrected frame image can be obtained. It will be.

【0032】図7は、アドレス(x,y)より(x′,
y′)を生成するための回転変換部322の概略構成を
示すもので、ここでは、乗算器3221〜3224、加
(減)算器3225、3226および三角関数表322
7からなっている。なお、このような構成のものは、既
に知られているので、ここでの説明は省略する。このよ
うな画像歪補正部32での補正出力は、部分画像はめこ
み位置算出部33に与えられる。
FIG. 7 shows (x', ) from address (x, y).
y'), which is composed of multipliers 3221 to 3224, adders (subtractors) 3225 and 3226, and a trigonometric function table 322.
It consists of 7. Note that since such a configuration is already known, a description thereof will be omitted here. Such a corrected output from the image distortion correction section 32 is given to the partial image embedding position calculation section 33 .

【0033】図8は、部分画像はめこみ位置算出部33
の概略構成を示すもので、アドレスジェネレータ33
1、回転変換R(θ)演算器332、ベースレジスタ3
33、並進ベクタレジスタ334からなっている。
FIG. 8 shows the partial image fitting position calculator 33.
shows a schematic configuration of the address generator 33
1, rotation transformation R(θ) calculator 332, base register 3
33 and a translation vector register 334 .

【0034】この場合、アドレスジェネレータ331
は、新フレームメモリ311に対するラスタアドレスを
生成する。回転変換R(θ)演算器332は、上述した
図7に示したものと同じである。ベースレジスタ333
は、図4で述べた旧フレームメモリ315の原点位置の
合成画面座標中での値Po を保持している。並進ベク
タレジスタ334は、新・旧フレーム間の並進ベクタ
Tを記憶するもので、このベクタTは、上述した画
像歪検出部31において回転角θと共に求められる値で
ある。図9は、部分画像はめこみ位置算出部33で求め
られた新フレーム画像42と旧フレーム画像41と合成
画面座標との関係を示している。
In this case, address generator 331
generates a raster address for the new frame memory 311 . The rotation transform R(θ) calculator 332 is the same as that shown in FIG. 7 described above. base register 333
holds the value P o in the combined screen coordinates of the origin position of the old frame memory 315 described with reference to FIG. The translation vector register 334 stores the translation vector T between the new and old frames, and this vector T is a value obtained together with the rotation angle θ in the image distortion detector 31 described above. FIG. 9 shows the relationship between the new frame image 42 and the old frame image 41 obtained by the partial image embedding position calculator 33 and the composite screen coordinates.

【0035】そして、アドレジェネレータ331が生成
するラスタアドレス(x,y)により、新フレームメモ
リ311から画像データを読み出し、回転変換R(θ)
演算器332、ベースレジスタ333、並進ベクタレジ
スタ334からの出力和による合成画面座標アドレス
(X,Y)で合成画像蓄積部4に書き込むことにより、
画像の回転が補正された形での合成が行われるようにな
る。
Then, image data is read out from the new frame memory 311 according to the raster address (x, y) generated by the address generator 331, and rotated and transformed R(θ).
By writing the combined screen coordinate address (X, Y) obtained from the sum of the outputs from the arithmetic unit 332, the base register 333, and the translation vector register 334 into the combined image storage unit 4,
Synthesis is performed in a form in which the rotation of the image is corrected.

【0036】そして、新フレームメモリ311の内容が
合成画像蓄積部4に書き終わった時点で、画像歪補正部
32の補正フレームメモリ323の内容は旧フレームメ
モリ315に転送される。
When the contents of the new frame memory 311 have been written to the composite image storage section 4, the contents of the correction frame memory 323 of the image distortion correction section 32 are transferred to the old frame memory 315. FIG.

【0037】この場合、合成画像蓄積部4は、図10に
示すように合成画像ビットプレーン401を有し、新フ
レームメモリ311の内容が合成画像ビットプレーン4
01に書き込まれると、対応する領域に1を立てるよう
にしている。ここでの書き込みは、ランダムアクセスで
あり、部分画像はめこみ位置算出部33が生成するアド
レスに従って行われる。
In this case, the synthesized image storage unit 4 has a synthesized image bit plane 401 as shown in FIG.
When 01 is written, 1 is set in the corresponding area. The writing here is random access, and the partial image is performed according to the address generated by the embedding position calculator 33 .

【0038】また、合成画像蓄積部4は、読み出しと書
き込みが分離した2ポートメモリで構成される。読み出
しは、シーケンシャルアクセスのラスタースキャンであ
り、読み出されたデータが合成画像表示部5に常時転送
されて表示される。
The composite image storage unit 4 is composed of a two-port memory with separate reading and writing functions. The reading is raster scanning of sequential access, and the read data is constantly transferred to the composite image display section 5 and displayed.

【0039】このようにして撮像画像合成部3より、し
かるべき位置で合成された入力部分画像は、合成画像蓄
積部4に順次蓄えられる。そして、合成画像蓄積部4に
蓄えられる合成画像は、同時に合成画像表示部5に表示
され、入力部分画像列が合成されてゆく様子がリアルタ
イムに見えるようになる。
The input partial images synthesized at appropriate positions by the picked-up image synthesizing section 3 in this manner are sequentially stored in the synthetic image storage section 4 . The synthesized images stored in the synthesized image storage unit 4 are simultaneously displayed on the synthesized image display unit 5, so that the process of synthesizing the input partial image sequences can be seen in real time.

【0040】また、前述した合成画像蓄積部4中の合成
画像ビットプレーン401が、合成画像完了判定部6に
送られ、ここで、合成画像蓄積部4に画像が蓄えられて
ゆく状況から1枚の画像が合成が完了したかどうか判定
され、合成完了が判定されると、その旨が通知部8を介
してユーザーに通知される。さらに、合成完了が判定さ
れた合成画像蓄積部4からの画像は、外部インタフェー
ス部7を介して外部にも転送される。
The composite image bit plane 401 in the composite image storage unit 4 is sent to the composite image completion determination unit 6, where one image is stored in the composite image storage unit 4. It is determined whether or not the combination of the images has been completed, and when the completion of the combination is determined, the notification section 8 notifies the user to that effect. Furthermore, the image from the composite image storage unit 4 for which the completion of composition has been determined is also transferred to the outside via the external interface unit 7 .

【0041】したがって、このようにすれば撮像部1で
撮像された部分画像を撮像画像合成部3に取り込み、前
回取り込んだ部分画像に対する今回取り込んだ部分画像
の並進および回転角を検出するとともに、この検出され
た並進および回転角に応じて前回取り込んだ部分画像に
対する今回取り込んだ部分画像の関係を補正し、この補
正に基づいて今回取り込んだ部分画像のはめこみ位置を
算出しながら合成画像蓄積部4で各部分画像を合成した
画像が生成されるようになるので、原稿2に対して撮像
部1より撮像される部分画像を合成して1枚の合成画像
が生成でき、撮像部1による撮像範囲を最小限にして、
視野範囲の広い原稿全体の画像が得られ、これにより、
解像度を飛躍的に高めることができ、しかも軽量で安価
な画像入力装置を実現できる。また、合成画像蓄積部4
の内容は、順次、合成画像表示部5に送られるので、合
成画像が成長してゆく様子をリアルタイムで見ることも
できる。
Accordingly, in this manner, the partial image picked up by the imaging section 1 is taken into the picked-up image synthesizing section 3, and the translation and rotation angles of the partial image picked up this time with respect to the partial image picked up last time are detected. Based on the detected translation and rotation angles, the relation of the currently fetched partial image with respect to the previously fetched partial image is corrected, and based on this correction, the composite image storage unit 4 calculates the fitting position of the currently fetched partial image. Since an image is generated by synthesizing the partial images, the partial images captured by the imaging unit 1 can be combined with the document 2 to generate a single composite image, and the imaging range of the imaging unit 1 can be expanded. to a minimum,
An image of the entire document with a wide field of view can be obtained.
The resolution can be dramatically increased, and a lightweight and inexpensive image input device can be realized. Also, the synthesized image storage unit 4
are sequentially sent to the composite image display unit 5, so that the growth of the composite image can be seen in real time.

【0042】なお、以上の説明は便宜上、TVカメラや
電子カメラを撮像手段とした場合を想定しているが、T
Vカメラや電子カメラ以外の撮像手段に対しても有効で
ある。例えば図11に示すハンディースキャナ111を
使用する場合、一回のスキャンで得られる帯状の画像1
12を複数本オーバラップして撮像し、合成してハンデ
ィースキャナの巾より広い画像を合成して取り込むよう
にすることができる。この場合、上述した新・旧フレー
ムメモリの容量を、帯状画像一本分が入るだけの大きさ
に取り、オーバーラップ部分について相関演算を行うこ
とにより、帯状画像間の位置関係と傾きを求めて実現す
ることができる。
For the sake of convenience, the above description assumes that a TV camera or an electronic camera is used as the imaging means.
It is also effective for imaging means other than V cameras and electronic cameras. For example, when using the handy scanner 111 shown in FIG. 11, a belt-like image 1
12 can be overlapped and picked up, and synthesized to obtain an image wider than the width of the handy scanner. In this case, the capacities of the new and old frame memories are made large enough to accommodate one band-shaped image, and the positional relationship and inclination between the band-shaped images are obtained by performing correlation calculations on the overlapping portion. can be realized.

【0043】また、図12に示すようなハンディースキ
ャナ111の一回のスキャン中の横ゆれ、ブレの補正に
関しても、例えば、図13に示すように、ハンディース
キャナ111の進行方向に直交するラインセンサイメー
ジ113の一本一本を新・旧フレームメモリに入れ、上
述した相関演算を行うことによって横方向の変位を求め
て補正を実現することができる。
[0043] Further, as shown in Fig. 12, the sideways movement and blur during one scan of the handy scanner 111 can be corrected by, for example, a line sensor perpendicular to the traveling direction of the handy scanner 111, as shown in Fig. 13. By putting each image 113 into the new/old frame memory and performing the above-described correlation operation, the horizontal displacement can be obtained and the correction can be realized.

【0044】また、上述では撮像部1からの入力部分画
像より装置全体の傾き、回転を得るようにしたが、図1
4に示すように角度センサ141を設け、この角度セン
サ141からの出力を撮像画像合成部3の画像歪検出部
31に入力し、装置全体の傾き、回転を検出して画像歪
の補正を行うようにしてもよい。このようにすれば、画
像歪検出部31の構成を簡素化することができる。ここ
で角度センサ141は、角速度センサと(時間)積分器
とを組み合わせたものも含めることは言うまでもない。
In the above description, the inclination and rotation of the entire apparatus are obtained from the input partial image from the imaging unit 1. However, FIG.
4, an angle sensor 141 is provided, and the output from this angle sensor 141 is input to the image distortion detection section 31 of the captured image synthesizing section 3 to detect the tilt and rotation of the entire apparatus and correct the image distortion. You may do so. By doing so, the configuration of the image distortion detection unit 31 can be simplified. Needless to say, the angle sensor 141 includes a combination of an angular velocity sensor and a (time) integrator.

【0045】また、図15に示すように、撮像部1と原
稿2の間の距離hを検出する距離センサ151を設ける
ようにしてもよい。こうすると、画像歪補正部32に対
し回転角θに加えて原稿2との距離hを与えることがで
きるので、距離hの変動に伴う画像の大きさの変動を補
正することもできるようになる。
Further, as shown in FIG. 15, a distance sensor 151 for detecting the distance h between the imaging section 1 and the document 2 may be provided. In this way, the image distortion correction unit 32 can be given the distance h from the document 2 in addition to the rotation angle θ, so that it is possible to correct the variation in the size of the image due to the variation in the distance h. .

【0046】この場合、画像歪補正部32は、図16に
示すように、拡大縮小処理部152と第2の補正フレー
ムメモリ153を追加し、補正フレームメモリ323の
内容に対し、距離センサ151で検出される距離hに応
じ拡大縮小処理部152で拡大、縮小M(h)処理を施
し、これを第2の補正フレームメモリ153に格納する
ようになる。ここで距離センサ151としては、例えば
超音波を発射してから反射波が戻るまでの時間によって
距離を求める超音波距離センサが利用できる。勿論、上
述の距離センサ141と角度センサ151を併用する構
成とすれば、画像歪の補正精度を向上させると共に画像
歪検出部の構成を簡素化することができる。
In this case, as shown in FIG. 16, the image distortion correcting section 32 adds an enlargement/reduction processing section 152 and a second correction frame memory 153, and the content of the correction frame memory 323 is processed by the distance sensor 151. The enlargement/reduction processing unit 152 performs enlargement/reduction M(h) processing according to the detected distance h, and stores this in the second correction frame memory 153 . Here, as the distance sensor 151, for example, an ultrasonic distance sensor that obtains the distance from the time from when the ultrasonic wave is emitted until the reflected wave returns can be used. Of course, if the above-described distance sensor 141 and angle sensor 151 are used together, the accuracy of image distortion correction can be improved and the configuration of the image distortion detector can be simplified.

【0047】また、図17(a)に示すようにカレンダ
・クロック部171を設けるようにしてもよい。そし
て、カレンダ・クロック部171より得た日時の情報を
制御部10に与え、合成画像蓄積部5で生成される合成
画像の余白部分に記入するようにすれば、後で撮像合成
した画像を整理する際の便宜をはかることが可能にな
る。ここで、同図(b)に示すように日時の情報は、合
成画像172の上下端の余白部分173が考えられる。
A calendar/clock unit 171 may be provided as shown in FIG. 17(a). Then, if the date and time information obtained from the calendar/clock unit 171 is given to the control unit 10 and entered in the margins of the composite image generated by the composite image storage unit 5, then the composited image can be organized later. It becomes possible to plan for convenience when doing so. Here, as shown in FIG. 8B, the date and time information can be considered to be blank portions 173 at the upper and lower ends of the composite image 172 .

【0048】また、図18に示すように文字認識部18
1と文字コード記憶部182を設けて、合成画像蓄積部
4より得られる合成画像について、文字認識部181で
文字コードに変換し、文字コード記憶部182に格納す
るようにしてもよい。こうすれば、操作指示部9からの
指示あるいは外部インタフェース部7を介しての外部か
らの指示にしたがって、合成画像のイメージそのもの、
あるいは文字コード、あるいはそれら双方を外部インタ
フェース部7を介して外部に取り出すようにもできる。
Also, as shown in FIG. 18, the character recognition section 18
1 and a character code storage unit 182 may be provided, and the synthesized image obtained from the synthesized image storage unit 4 may be converted into character code by the character recognition unit 181 and stored in the character code storage unit 182 . In this way, the composite image itself,
Alternatively, the character code or both of them can be taken out to the outside via the external interface section 7. FIG.

【0049】また、図19(a)に示すように合成画像
蓄積部4より得られる合成画像について、画像イメージ
を外部インタフェース7を介してFAXモデム191に
送り、FAX符号に変換して電話機192または電話回
線に発信するようにもできる。この場合、カレンダ・ク
ロック部193を設ければ、送信イメージの余白部分に
カレンダ・クロック部193より得た日時の情報を書き
込むことができる。また、文字認識部194と文字コー
ド記憶部195を設けておけば、合成画像蓄積部4から
の合成画像から宛先番号などを文字認識し、この認識結
果を用いて画像イメージを送り出すこともでき、宛先番
号を指定する操作の手間を省くこともできる。なお、同
図(b)は、このような構成を携帯電話機196に一体
に組み込んだ場合の利用形態例を示している。
As shown in FIG. 19(a), the composite image obtained from the composite image storage unit 4 is sent to the FAX modem 191 via the external interface 7, converted into a FAX code, and sent to the telephone 192 or You can also make calls to phone lines. In this case, if the calendar/clock section 193 is provided, the date and time information obtained from the calendar/clock section 193 can be written in the margin of the transmission image. Also, if a character recognition unit 194 and a character code storage unit 195 are provided, it is possible to perform character recognition of the destination number and the like from the composite image from the composite image storage unit 4, and use the recognition result to send out an image image. It is also possible to save the trouble of specifying the destination number. FIG. 2(b) shows an example of usage when such a configuration is integrally incorporated into the mobile phone 196. As shown in FIG.

【0050】また、図20に示すように、ハードコピー
部201を設け、操作・指示部9からの指示に従い合成
された画像イメージをハードコピー部201に送って合
成画像イメージのハードコピーを得られるようにでき
る。この場合、カレンダ・クロック部202を設けるこ
とにより、その後の整理の便宜をはかるためハードコピ
ーの余白部分に、日時の情報が書き込むようにもでき
る。例えば、ハードコピー部201に、感熱プリンタや
バブルジェットプリンタ等の小型、軽量のプリンタを使
用し、撮像手段に例えば親指サイズの小型カメラを使用
すれば、複写器や電子白板の機能を携帯するのと同じ状
況を得られることになる。
Further, as shown in FIG. 20, a hard copy section 201 is provided, and a composite image is sent to the hard copy section 201 in accordance with an instruction from the operation/instruction section 9 to obtain a hard copy of the composite image. can be done. In this case, by providing the calendar/clock unit 202, date and time information can be written in the margin of the hard copy for the convenience of later organization. For example, if a small, lightweight printer such as a thermal printer or a bubble jet printer is used as the hard copy unit 201, and a small thumb-sized camera is used as the imaging means, the functions of a copier and an electronic whiteboard can be carried around. You will get the same situation.

【0051】一方、上述では、撮像部1の回転として図
21(a)に示す2次元的なもののみを考えたが、同図
(b)に示すように3次元的な回転も考えることができ
る。この場合の画像の変形は、同図(c)に示すアフィ
ン変換像となり、次式で表すことができる。
On the other hand, in the above description, only the two-dimensional rotation shown in FIG. 21(a) was considered as the rotation of the imaging section 1, but three-dimensional rotation can also be considered as shown in FIG. 21(b). can. The deformation of the image in this case becomes an affine transformed image shown in FIG.

【0052】[0052]

【数1】 ここで、(x,y)と(X,Y)は、変換前と変換後の
画像の座標、a,b,c,dは、0でない係数(アフィ
ン係数)である。
[Number 1] Here, (x, y) and (X, Y) are the coordinates of the image before and after transformation, and a, b, c, and d are non-zero coefficients (affine coefficients).

【0053】そして、これらのアフィン係数a〜dを求
めるには、同一直線上に存在しない画面上のn個(n≧
4)の点P1 〜Pn について変換前と後の座標を上式に
代入して連立させることにより求めることができる。こ
の場合は、下式により求められる。下式は、最小自乗法
によって解くことができる。
In order to obtain these affine coefficients a to d, n on the screen (n.gtoreq.
The points P1 to Pn in 4) can be obtained by substituting the coordinates before and after the transformation into the above equation and making them simultaneous. In this case, it is obtained by the following formula. The following equation can be solved by the method of least squares.

【0054】[0054]

【数2】 その他、本発明は、その要旨を変更しない範囲で適宜変
形して実施できる。
[Number 2] In addition, the present invention can be appropriately modified and implemented without changing the gist thereof.

【0055】[0055]

【発明の効果】本発明によれば、被写体に対して撮像部
より撮像される部分画像を合成して1枚の合成画像を生
成することができ、撮像部による撮像範囲を最小限にし
て、撮像部の視野範囲よりも広い被写体全体の画像を得
られ、解像度を飛躍的に高めることができるとともに、
軽量で安価な画像入力装置を実現できる。
According to the present invention, it is possible to synthesize partial images of a subject captured by the imaging unit to generate a single composite image, minimize the imaging range of the imaging unit, An image of the entire subject that is wider than the field of view of the imaging unit can be obtained, and the resolution can be dramatically improved.
A lightweight and inexpensive image input device can be realized.

【図面の簡単な説明】[Brief description of the drawing]

【図1】本発明の一実施例の概略構成を示す図。1 is a diagram showing a schematic configuration of an embodiment of the present invention; FIG.

【図2】一実施例の装置を使用している状態を示す図。FIG. 2 is a diagram showing a state in which the device of one embodiment is in use;

【図3】一実施例の画像歪検出部の概略構成を示す図。FIG. 3 is a diagram showing a schematic configuration of an image distortion detection unit of one embodiment;

【図4】一実施例の画像歪検出部の動作を説明するため
の図。
4A and 4B are diagrams for explaining the operation of an image distortion detection unit according to an embodiment; FIG.

【図5】一実施例の画像歪検出部の動作を説明するため
の図。
5A and 5B are diagrams for explaining the operation of an image distortion detection unit according to an embodiment; FIG.

【図6】一実施例の画像歪補正部の概略構成を示す図。FIG. 6 is a diagram showing a schematic configuration of an image distortion correction unit of one embodiment;

【図7】一実施例の回転変換部の概略構成を示す図。FIG. 7 is a diagram showing a schematic configuration of a rotation converter of one embodiment;

【図8】一実施例の部分画像はめこみ位置検出部の概略
構成を示す図。
FIG. 8 is a diagram showing a schematic configuration of a partial image fitting position detection unit of one embodiment;

【図9】一実施例の部分画像はめこみ位置検出部を説明
するための図。
FIG. 9 is a diagram for explaining a partial image fitting position detection unit according to an embodiment;

【図10】一実施例の合成画像蓄積部を説明するための
図。
10A and 10B are diagrams for explaining a composite image storage unit according to an embodiment; FIG.

【図11】本発明の他の実施例の撮像部がハンディース
キャナの場合を説明する図。
11A and 11B are diagrams for explaining a case where the imaging unit of another embodiment of the present invention is a handy scanner; FIG.

【図12】他の実施例のハンディースキャナを用いた場
合の横ゆれ、ブレを示す図。
12A and 12B are diagrams showing horizontal shaking and blurring when using a handy scanner of another embodiment; FIG.

【図13】他の実施例のハンディースキャナによるライ
ンセンサイメージを示す図。
FIG. 13 is a diagram showing a line sensor image by a handy scanner of another embodiment;

【図14】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 14 is a diagram showing a schematic configuration of another different embodiment of the present invention;

【図15】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 15 is a diagram showing a schematic configuration of another different embodiment of the present invention;

【図16】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 16 is a diagram showing a schematic configuration of another different embodiment of the present invention;

【図17】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 17 is a diagram showing a schematic configuration of another different embodiment of the present invention;

【図18】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 18 is a diagram showing a schematic configuration of another different embodiment of the present invention;

【図19】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 19 is a diagram showing a schematic configuration of another different embodiment of the present invention;

【図20】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 20 is a diagram showing a schematic configuration of another different embodiment of the present invention;

【図21】本発明の異なる他の実施例の概略構成を示す
図。
FIG. 21 is a diagram showing a schematic configuration of another different embodiment of the present invention;

【符号の説明】[Description of symbols]

1…撮像部、2…原稿、3…撮像画像合成部、4…合成
画像蓄積部、5…合成画像表示部、6…合成画像完了判
定部、7…外部インタフェース部、8…通知部、9…操
作指示部、10…制御部、31…画像歪検出部、32…
画像歪補正部、33…部分画像はめこみ位置算出部、3
11…新フレームメモリ、312…相関演算部、313
…制御判定部、314…テンプレートメモリ、315…
旧フレームメモリ、321…アドレスジェネレータ、3
22…回転変換部、323…補正フレームメモリ、33
1…アドレスジェネレータ、332…回転変換R(θ)
演算器、333…ベースレジスタ、334…並進ベクタ
レジスタ、141…角度センサ、151…距離センサ、
152…拡大縮小処理部、153…第2の補正フレーム
メモリ、171、193、202…カレンダ・クロック
部、181、194…文字認識部、182、195…文
字コード記憶部、191…FAXモデム、192…電話
器、201…ハードコピー。
DESCRIPTION OF SYMBOLS 1... Imaging part 2... Document 3... Captured image synthesizing part 4... Synthetic image storage part 5... Synthetic image display part 6... Synthetic image completion determination part 7... External interface part 8... Notification part 9 ... operation instruction section, 10 ... control section, 31 ... image distortion detection section, 32 ...
Image distortion corrector 33 ... Partial image embedding position calculator 3
11... new frame memory, 312... correlation calculator, 313
... control determination unit, 314 ... template memory, 315 ...
old frame memory, 321 ... address generator, 3
22... Rotation converter, 323... Correction frame memory, 33
1 --- address generator, 332 --- rotation conversion R(θ)
Arithmetic unit 333 Base register 334 Translation vector register 141 Angle sensor 151 Distance sensor
152 Enlargement/reduction processing unit 153 Second correction frame memory 171, 193, 202 Calendar/clock unit 181, 194 Character recognition unit 182, 195 Character code storage unit 191 FAX modem 192 ... telephone, 201 ... hard copy.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G06F 15/66 450 8420−5L H04N 5/265 2109−5C ──────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 被写体より部分画像を撮像する撮像部
と、 この撮像部で撮像される部分画像列を取り込むとともに
前回取り込んだ部分画像に対する今回取り込んだ部分画
像の並進および回転角を検出する手段、この手段により
検出された並進および回転角に応じて前回取り込んだ部
分画像に対する今回取り込んだ部分画像の関係を補正す
る手段と、この手段の補正出力により今回取り込んだ部
分画像のはめこみ位置を算出する手段を有する撮像画像
合成手段と、 この撮像画像合成手段からの出力より各部分画像の合成
画像を生成する手段とを具備したことを特徴とする画像
入力装置。
1. An imaging unit for picking up partial images from a subject; means for capturing a sequence of partial images captured by the imaging unit and for detecting the translation and rotation angles of the currently captured partial image with respect to the previously captured partial image; Means for correcting the relationship of the currently fetched partial image with respect to the previously fetched partial image according to the translation and rotation angles detected by this means, and means for calculating the fitting position of the currently fetched partial image based on the corrected output of this means. and means for generating a synthesized image of partial images from an output from the captured image synthesizing means.
JP5048158A 1993-03-09 1993-03-09 Picture input device Pending JPH06259557A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5048158A JPH06259557A (en) 1993-03-09 1993-03-09 Picture input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5048158A JPH06259557A (en) 1993-03-09 1993-03-09 Picture input device

Publications (1)

Publication Number Publication Date
JPH06259557A true JPH06259557A (en) 1994-09-16

Family

ID=12795576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5048158A Pending JPH06259557A (en) 1993-03-09 1993-03-09 Picture input device

Country Status (1)

Country Link
JP (1) JPH06259557A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5909521A (en) * 1996-02-14 1999-06-01 Nec Corporation Multi-shot still image reader
JP2002191051A (en) * 1994-11-14 2002-07-05 Sarnoff Corp Compression system, monitor system, and method for detecting scene change
US6459819B1 (en) 1998-02-20 2002-10-01 Nec Corporation Image input system
JP2009182535A (en) * 2008-01-30 2009-08-13 Casio Comput Co Ltd Imaging apparatus, photographing method, photographing program
JP2010199971A (en) * 2009-02-25 2010-09-09 Casio Computer Co Ltd Image pickup apparatus, imaging method, and program
JP2014003715A (en) * 2013-09-27 2014-01-09 Casio Comput Co Ltd Imaging apparatus, imaging method and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191051A (en) * 1994-11-14 2002-07-05 Sarnoff Corp Compression system, monitor system, and method for detecting scene change
US5909521A (en) * 1996-02-14 1999-06-01 Nec Corporation Multi-shot still image reader
US6459819B1 (en) 1998-02-20 2002-10-01 Nec Corporation Image input system
JP2009182535A (en) * 2008-01-30 2009-08-13 Casio Comput Co Ltd Imaging apparatus, photographing method, photographing program
JP2010199971A (en) * 2009-02-25 2010-09-09 Casio Computer Co Ltd Image pickup apparatus, imaging method, and program
JP2014003715A (en) * 2013-09-27 2014-01-09 Casio Comput Co Ltd Imaging apparatus, imaging method and program

Similar Documents

Publication Publication Date Title
JP2989364B2 (en) Image processing apparatus and image processing method
US7123292B1 (en) Mosaicing images with an offset lens
JP4341629B2 (en) Imaging apparatus, image processing method, and program
JP4529837B2 (en) Imaging apparatus, image correction method, and program
US6812995B2 (en) Digital camera and document processing system using the digital camera
US6512539B1 (en) Document periscope
US20020186425A1 (en) Camera-based document scanning system using multiple-pass mosaicking
JPH10304149A (en) Method for restoring image
JP2000354192A (en) Digital camera system and how to use digital camera
KR20020038574A (en) Using an electronic camera to build a file containing text
JPH11112956A (en) Image composite and communication equipment
KR20000023515A (en) Non-contact type image reading apparatus and system using the same
US6546152B1 (en) Method and apparatus for providing images in portable 2-D scanners
WO2010137513A1 (en) Electronic device
JP2007324655A (en) Image data acquisition system, image processor and image data acquisition method
JPH06259557A (en) Picture input device
JP3875133B2 (en) Image transmission method, apparatus, and program
JP3109580B2 (en) IMAGE INPUT DEVICE AND COMPUTER-READABLE RECORDING MEDIUM RECORDING IMAGE PROCESSING PROGRAM FOR IMAGE INPUT DEVICE
JP2010130181A (en) Image acquiring apparatus
JP4346742B2 (en) Image composition method, image composition apparatus, and storage medium
JP3730450B2 (en) Image input apparatus and image input method
JPH1115951A (en) Deviation detector and image synthesizer
JPH0865457A (en) Image input device
JP2010278511A (en) Electronic equipment
JP2011055084A (en) Imaging apparatus and electronic device