JPH11298837A - Image input device and image input method - Google Patents

Image input device and image input method

Info

Publication number
JPH11298837A
JPH11298837A JP10099766A JP9976698A JPH11298837A JP H11298837 A JPH11298837 A JP H11298837A JP 10099766 A JP10099766 A JP 10099766A JP 9976698 A JP9976698 A JP 9976698A JP H11298837 A JPH11298837 A JP H11298837A
Authority
JP
Japan
Prior art keywords
image
input
reference image
overlapping area
currently
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10099766A
Other languages
Japanese (ja)
Inventor
Norihiko Murata
憲彦 村田
Takashi Kitaguchi
貴史 北口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP10099766A priority Critical patent/JPH11298837A/en
Publication of JPH11298837A publication Critical patent/JPH11298837A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a photographer to easily confirm photographing conditions by informing the photographer of whether or not photographing is proper in the case of compositing panorama images. SOLUTION: A 1st image photographed by an image pickup means 2 is used for a criterion image and a 2nd image that is being photographed by the image pickup means 2 at present is used for a reference image. An overlap area detection means 13 detects an overlapped area between the criterion image and the reference image and displays the size of the overlapped area on an overlapped area display indicator of a finder 11. When a shutter of the image pickup means 2 is depressed, the overlap area detection means 13 lights a warning indicator of the finder 11 when the displayed size of the overlapped area is a preset threshold value or below to instruct revision of a photographing position to the photographer.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、デジタルスチル
カメラ等の撮像手段で撮影した複数枚の静止画像を合成
する画像入力装置及び画像入力方法に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input apparatus and an image input method for synthesizing a plurality of still images photographed by an image pickup means such as a digital still camera.

【0002】[0002]

【従来の技術】光学系を通過した画像をCCDセンサ等
で光電変換し、得られた画像信号をA/D変換してメモ
リカード等の外部記憶装置に保存するカメラが普及して
いる。このCCDセンサ等を使用したカメラは撮像した
画像をデジタル信号として扱うことができるため、画像
の加工と処理及び伝送が手軽に行えるという利点があ
る。このようなカメラで同一の被写体を複数枚撮影した
画像を貼り合わせて、高解像度のパノラマ画像を合成す
ることが行われている。このパノラマ画像を合成するた
めには、複数の画像の一部が重複するか、あるいは複数
の各画像が継ぎ目なく繋がるようにして被写体を撮影す
る必要がある。
2. Description of the Related Art Cameras are widely used in which an image passing through an optical system is photoelectrically converted by a CCD sensor or the like, and the obtained image signal is A / D converted and stored in an external storage device such as a memory card. Since a camera using such a CCD sensor or the like can handle a captured image as a digital signal, there is an advantage that image processing, processing, and transmission can be easily performed. A high-resolution panoramic image is synthesized by pasting together images obtained by photographing a plurality of the same subject with such a camera. In order to combine the panoramic images, it is necessary to photograph the subject such that a part of the plurality of images overlaps or the plurality of images are connected seamlessly.

【0003】例えば特開平5−161050号公報に示
された方法は、既に入力した画像と現在入力中の画像を
それぞれ間引きして縮小した画像を表示部の隣接した部
分に表示し、パノラマ画像を得る場合に現在の撮像位置
が適切かどうか確認できるようにしている。また、特開
平9−266561号公報に示された方法は、現在入力
中の画像に並べて先に撮影した画像の一部をカメラの移
動方向に応じて表示し、両画像が繋がった状態にしてい
る。例えばカメラが時計回りに回転した場合、先に撮影
した画像の右端部分を予め決められた領域分だけ切り出
してカメラ背面に設けられた表示部の左端に写し出し、
そのすぐ右隣に現在入力の画像を並べて表示する。そし
て2枚の画像が繋がった状態でシャッターを押すと合成
した連続画像がパノラマメモリに保存するようにしてい
る。
For example, in the method disclosed in Japanese Patent Laid-Open No. Hei 5-161050, an image that has been input and an image that is currently being input are thinned out and reduced, and an image is displayed on an adjacent portion of the display unit, and a panoramic image is displayed. When obtaining, it is possible to confirm whether the current imaging position is appropriate. In addition, the method disclosed in Japanese Patent Application Laid-Open No. 9-266561 displays a part of an image captured earlier in a state of being arranged on a currently input image in accordance with a moving direction of a camera, and sets a state in which both images are connected. I have. For example, when the camera is rotated clockwise, the right end portion of the previously captured image is cut out by a predetermined area and projected on the left end of the display unit provided on the back of the camera,
The image of the current input is displayed side by side right next to it. Then, when the shutter is pressed in a state where the two images are connected, the combined continuous image is stored in the panorama memory.

【0004】[0004]

【発明が解決しようとする課題】しかしながら特開平5
−161050号公報に示す方法では、既に入力した画
像と現在入力中の画像をそれぞれ間引きして縮小した画
像を表示しているため、間引きした低解像度の画像によ
り画像間の繋がりや重複領域を確認ため、この確認が困
難であり、特に貼り合わせる画像の枚数が増えて多数枚
の画像を分割する際には、この問題が無視できなくな
る。また、特開平9−266561号公報に示された方
法では2枚の画像が完全に繋がった状態でないとパノラ
マ画像を得ることができないため、カメラ操作が制限の
厳しいものになってしまう。
SUMMARY OF THE INVENTION However, Japanese Patent Application Laid-Open
In the method disclosed in Japanese Patent Application Laid-Open No. 161050, an image that is already input and an image that is currently being input are thinned out to display a reduced image. Therefore, connections and overlapping areas between images are confirmed by the thinned low-resolution image. Therefore, it is difficult to confirm this, and especially when the number of images to be pasted increases and many images are divided, this problem cannot be ignored. In addition, in the method disclosed in Japanese Patent Application Laid-Open No. 9-266561, a panoramic image cannot be obtained unless two images are completely connected, so that the operation of the camera is severely restricted.

【0005】この発明はかかる短所を改善し、パノラマ
画像合成や被写体の3次元形状復元等の種々の画像処理
と合成を行う場合に、撮影動作が適切であるかをユーザ
ーに通知し、撮影条件を容易に確認することができる画
像入力装置及び画像入力方法を提供することを目的とす
るものである。
The present invention has been made to solve the above-mentioned disadvantages, and when performing various types of image processing and synthesis such as panoramic image synthesis and three-dimensional shape restoration of a subject, the user is notified whether or not the shooting operation is appropriate. It is an object of the present invention to provide an image input device and an image input method capable of easily confirming an image.

【0006】[0006]

【課題を解決するための手段】この発明に係る画像入力
装置は、被写体の画像を入力する撮像手段と、撮像手段
から得られた画像を記憶する画像記憶手段とを有する画
像入力装置において、撮像手段で先に撮像して画像記憶
手段に記憶した基準画像と撮像手段が現在入力中の画像
との重なり領域を自動検出する重なり領域検出手段を有
することを特徴とする。
According to the present invention, there is provided an image input apparatus comprising: an image input device for inputting an image of a subject; and an image storage device for storing an image obtained from the image input device. The image capturing means has an overlapping area detecting means for automatically detecting an overlapping area between the reference image stored in the image storing means and the image currently input by the means.

【0007】上記重なり領域検出手段は現在入力中の動
画像における動きベクトルより基準画像との重なり領域
を検出すると良い。
The overlapping area detecting means preferably detects an overlapping area with the reference image from a motion vector in the currently input moving image.

【0008】また、上記重なり領域検出手段は基準画像
と撮像しようとしている画像との間の動きベクトルより
重なり領域を検出しても良い。
Further, the overlapping area detecting means may detect an overlapping area from a motion vector between the reference image and the image to be picked up.

【0009】この発明に係る他の画像入力装置は、被写
体の画像を入力する撮像手段と、撮像手段の姿勢を表す
信号を取得する姿勢検出センサと、撮像手段から得られ
た画像を記憶する画像記憶手段及び撮像手段で先に撮像
して画像記憶手段に記憶した基準画像と撮像手段が現在
入力中の画像との重なり領域を自動検出する重なり領域
検出手段を有する画像入力装置にあって、上記重なり領
域検出手段は姿勢検出センサ信号より求めた姿勢情報よ
り基準画像と撮像手段が現在入力中の画像との重なり領
域を検出することを特徴とする。
According to another aspect of the present invention, there is provided an image input device for inputting an image of a subject, an attitude detecting sensor for obtaining a signal representing the attitude of the image capturing means, and an image for storing an image obtained from the image capturing means. An image input apparatus having an overlapping area detecting means for automatically detecting an overlapping area between a reference image previously captured by an image capturing means and stored in an image storing means and an image currently input by the image capturing means, The overlapping area detecting means detects an overlapping area between the reference image and the image currently being input by the imaging means based on the posture information obtained from the posture detecting sensor signal.

【0010】この発明に係る画像入力方法は、撮像手段
で先に撮像した画像を基準画像として記憶し、記憶した
基準画像と撮像手段で現在入力中の画像との重なり領域
を検出して画像を合成することを特徴とする。
In the image input method according to the present invention, an image previously taken by the image pickup means is stored as a reference image, and an overlapping area between the stored reference image and the image currently being input by the image pickup means is detected to convert the image. It is characterized by combining.

【0011】上記基準画像と撮像手段で現在入力中の画
像との重なり領域を、撮像手段で現在入力中の動画像に
おける動きベクトルより検出したり、基準画像と撮像し
ようとしている画像との間の動きベクトルより検出しら
り、撮像手段の姿勢情報より検出すると良い。
The overlapping area between the reference image and the image currently being input by the image pickup means is detected from the motion vector of the moving image currently input by the image pickup means, or the overlap area between the reference image and the image to be picked up. It is preferable to detect from the motion vector and detect from the attitude information of the imaging means.

【0012】[0012]

【発明の実施の形態】この発明の画像入力装置は、CC
D等の光伝電変換素子を有する撮像手段とモード設定手
段と主制御手段と信号処理手段とフレームメモリと外部
記憶装置とファインダ及び重なり領域検出手段を有す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image input device according to the present invention has a CC
It has an imaging means having a photoconductive conversion element such as D, a mode setting means, a main control means, a signal processing means, a frame memory, an external storage device, a finder and an overlap area detecting means.

【0013】この画像入力装置のモード設定手段で重複
撮影モードを選択すると、主制御手段はファインダ内に
重複撮影モードが選択されたことを示すインジケータを
表示し、重複撮影モードが設定されたことを重なり領域
検出手段に通知して、重なり領域検出手段を起動する。
この状態で撮像手段により被写体像を1枚撮影すると、
主制御手段は撮像した1枚目の画像を基準画像としてフ
レームメモリに記憶し、外部記憶装置にも記憶する。撮
影後して、被写体を撮影する撮像手段の位置をずらしな
がら一定微小時間経過すると、主制御手段は撮像手段で
現在入力中の2枚目の画像を参照画像としてフレームメ
モリに取り込む。現在入力中の画像が参照画像としてフ
レームメモリに取り込まれると、重なり領域検出手段
は、1枚目の画像であるフレームメモリに記憶した基準
画像と現在入力中の参照画像との重なり領域を検出し
て、重なり領域の大きさをファインダの重なり領域表示
インジケータに表示する。この処理を撮像手段のシャッ
タが押し下げられるまで一定時間毎に繰り返す。撮像手
段のシャッタが押し下げられると、重なり領域検出手段
は表示した重なり領域の大きさがあらかじめ設定されフ
ァインダのインジケータで表示されている閾値以上かを
確認する。この確認の結果、重なり領域の大きさが閾値
以下である場合には、警告インジケータを点灯させて撮
影者に撮影位置の変更を要求する。このようにして複数
の画像を合成するときに適正な重なり領域を選択するこ
とができる。
[0013] When the overlapping photographing mode is selected by the mode setting means of the image input apparatus, the main control means displays an indicator in the finder indicating that the overlapping photographing mode has been selected, and indicates that the overlapping photographing mode has been set. The overlap area detection means is notified and the overlap area detection means is activated.
In this state, when one image of the subject is photographed by the imaging means,
The main control means stores the captured first image in a frame memory as a reference image, and also stores the image in an external storage device. After the photographing, when a predetermined minute time elapses while shifting the position of the imaging means for photographing the subject, the main control means fetches the second image currently input by the imaging means into the frame memory as a reference image. When the currently input image is taken into the frame memory as a reference image, the overlapping area detecting means detects an overlapping area between the reference image stored in the frame memory as the first image and the currently input reference image. Then, the size of the overlapping area is displayed on the overlapping area display indicator of the finder. This process is repeated at regular intervals until the shutter of the imaging means is depressed. When the shutter of the imaging means is depressed, the overlapping area detecting means checks whether the size of the displayed overlapping area is equal to or larger than a threshold value which is set in advance and is displayed on the indicator of the finder. As a result of this check, if the size of the overlapping area is equal to or smaller than the threshold, the warning indicator is turned on to request the photographer to change the photographing position. In this way, it is possible to select an appropriate overlapping area when combining a plurality of images.

【0014】そして、撮影者が撮影位置を変更して、基
準画像と現在入力している参照画像との重なり領域の大
きさが閾値以上になって撮像手段のシャッタが押し下げ
られると現在入力している画像を撮影し、撮影した2枚
目の画像を外部記憶装置に記憶し、フレームメモリに記
憶した基準画像を撮影した2枚目の画像で置き換える。
この処理を撮影を続けているあいだ繰り返えして、適正
な重なり領域で複数の画像を合成する。
When the photographer changes the photographing position and the size of the overlap area between the reference image and the currently inputted reference image becomes greater than or equal to the threshold value and the shutter of the image pickup means is depressed, the current image is inputted. The second image is stored in an external storage device, and the reference image stored in the frame memory is replaced with the second image.
This process is repeated while photographing is continued, and a plurality of images are synthesized in an appropriate overlapping area.

【0015】[0015]

【実施例】図1はこの発明の一実施例の画像入力装置の
構成を示すブロック図である。画像入力装置1は撮像手
段2とモード設定手段3と主制御手段4と信号処理手段
5とメモリ制御手段6とフレームメモリ7と外部記憶イ
ンタフェース8と外部記憶装置9と表示インタフェース
10とファインダ11と例えば画像入力装置1の筐体に
設置された液晶からなる外部表示装置12及び重なり領
域検出手段13を有する。
FIG. 1 is a block diagram showing the configuration of an image input apparatus according to one embodiment of the present invention. The image input device 1 includes an imaging unit 2, a mode setting unit 3, a main control unit 4, a signal processing unit 5, a memory control unit 6, a frame memory 7, an external storage interface 8, an external storage device 9, a display interface 10, a finder 11, For example, the image input device 1 includes an external display device 12 made of liquid crystal and an overlapping area detection unit 13 installed in a housing of the image input device 1.

【0016】撮像手段2はレンズユニットで集光した光
路上にCCD等の光伝電変換素子を有し、被写体像を表
すアナログ映像信号を出力する。モード設定手段3は画
像入力装置1の撮影モードを設定するものであり、例え
ば画像入力装置1の筐体表面に設置され、ユーザーが所
望の撮影モードを選択できるようになっている。このモ
ード設定手段3には重複撮影モードのオン/オフの切り
替えも行う。主制御手段4は撮影と表示と記録等の基本
的な処理の制御を行うとともにモード設定手段3からの
撮影モードの設定値を受け取り、信号処理手段5とメモ
リ制御手段6及び重なり領域検出手段13等の処理内容
を変更するよう指示する。信号処理手段5は撮像手段2
から出力するアナログ映像信号に対して増幅やクランプ
等の前処理をしてA/D変換してからフィルタリング及
び色成分の分解等の種々の画像処理を施す。メモリ制御
手段6は信号処理手段5で処理した画像信号をフレーム
メモリ7に格納し、フレームメモリ7に格納された画像
信号を読み出す。フレームメモリ7はVRAMやSRA
MやDRAM等からなり、撮像手段2で前回撮影した画
像と現在撮像して入力されている画像が蓄積される。フ
レームメモリ7に格納された画像信号を外部記憶装置9
に保存するときは、メモリ制御手段6でフレームメモリ
7に格納された画像信号を読み出し、信号処理手段5は
読み出された画像信号に対して画像圧縮等の信号処理を
施した後、外部記憶インタフェース8を介して外部記憶
装置9に保存する。この外部記憶装置9としてはICメ
モリカードや光磁気ディスク等を使用するが、モデムカ
ードやISDNカードを利用してネットワークを経由し
て画像信号を直接遠隔地の記録媒体に送信しても構わな
い。また、外部記憶装置9に保存された画像信号を読み
出すときは、外部記憶装置9に保存された画像信号を外
部記憶インタフェース8を介して信号処理手段5に送
る。信号処理手段5は送られた画像信号の画像伸張を行
う。この外部記憶装置9やフレームメモリ7から読み出
された画像信号は信号処理手段5でD/A変換や増幅等
の信号処理を施した後、表示インタフェース10を介し
てファインダ11や外部表示装置12に送り表示する。
重なり領域検出手段12はフレームメモリ7に記憶した
前回撮影した画像と撮像手段2で現在撮像して入力され
ている画像の重なり領域の大きさと重なり領域の位置を
検出する。
The imaging means 2 has a photoconductive conversion element such as a CCD on the optical path converged by the lens unit, and outputs an analog video signal representing a subject image. The mode setting means 3 is for setting a photographing mode of the image input apparatus 1, and is provided on, for example, a housing surface of the image input apparatus 1 so that a user can select a desired photographing mode. The mode setting means 3 also switches on / off of the overlapping photographing mode. The main control means 4 controls the basic processing such as shooting, display and recording, receives the set value of the shooting mode from the mode setting means 3, and controls the signal processing means 5, the memory control means 6 and the overlap area detecting means 13. And so on. The signal processing means 5 includes the imaging means 2
A / D conversion is performed on the analog video signal output from the A / D converter by performing preprocessing such as amplification and clamping, and then various image processing such as filtering and color component decomposition is performed. The memory control means 6 stores the image signal processed by the signal processing means 5 in the frame memory 7 and reads out the image signal stored in the frame memory 7. The frame memory 7 is a VRAM or SRA
M, a DRAM, and the like, in which an image previously captured by the imaging means 2 and an image currently captured and input are stored. The image signals stored in the frame memory 7 are stored in an external storage device 9.
When the image signal is stored in the external memory, the image signal stored in the frame memory 7 is read by the memory control means 6, and the read image signal is subjected to signal processing such as image compression or the like. The data is stored in the external storage device 9 via the interface 8. As the external storage device 9, an IC memory card, a magneto-optical disk, or the like is used, but an image signal may be directly transmitted to a remote recording medium via a network using a modem card or an ISDN card. . When reading an image signal stored in the external storage device 9, the image signal stored in the external storage device 9 is sent to the signal processing unit 5 via the external storage interface 8. The signal processing means 5 performs image expansion of the transmitted image signal. The image signal read from the external storage device 9 or the frame memory 7 is subjected to signal processing such as D / A conversion and amplification by the signal processing means 5, and then is transmitted via the display interface 10 to the finder 11 and the external display device 12. To display.
The overlapping area detecting means 12 detects the size and the position of the overlapping area between the previously captured image stored in the frame memory 7 and the image currently captured and input by the imaging means 2.

【0017】上記のように構成された画像入力装置1で
モード設定手段3より重複モードが選択された場合の動
作を図2のフローチャートを参照して説明する。まず、
モード設定手段3で重複撮影モードを選択すると、図3
に示すように、主制御手段22はファインダ11内に重
複撮影モードが選択されたことを示すインジケータ11
1を表示し、重複撮影モードが設定されたことを重なり
領域検出手段13に通知する(ステップS1)。この重
複撮影モードの通知により重なり領域検出手段20は起
動される。この状態で撮像手段2により被写体像を1枚
撮影すると、主制御手段4は、図4に示すように、撮像
した1枚目の画像21aを基準画像としてフレームメモ
リ7と外部記憶装置9に記憶する(ステップS2)。撮
影後して、被写体を撮影する撮像手段2の位置をずらし
ながら一定微小時間経過すると、主制御手段4は撮像手
段2で現在入力中の2枚目の画像21bを参照画像とし
てフレームメモリ7に取り込む(ステップS3)。現在
入力中の画像21bが参照画像としてフレームメモリ7
に取り込まれると、重なり領域検出手段13は、1枚目
の画像であるフレームメモリ7に記憶した基準画像と現
在入力中の参照画像との重なり領域を検出して、重なり
領域の大きさをファインダ11の重なり領域表示インジ
ケータ112に表示する(ステップS4)。この処理を
撮像手段2のシャッタが押し下げられるまで一定時間毎
に繰り返す(ステップS5)。撮像手段2のシャッタが
押し下げられると、重なり領域検出手段13は表示した
重なり領域の大きさがあらかじめ設定されファインダ1
1のインジケータ113で表示されている閾値以上かを
確認する(ステップS6)。この確認の結果、重なり領
域の大きさが閾値以下である場合には、警告インジケー
タ114を点灯させて撮影者に撮影位置の変更を要求す
る(ステップS7)。そして、撮影者が撮影位置を変更
して、基準画像と現在入力している参照画像との重なり
領域の大きさが閾値以上になって撮像手段2のシャッタ
が押し下げられると現在入力している画像を撮影し、撮
影した2枚目の画像21bを外部記憶装置9に記憶し、
フレームメモリ7に記憶した基準画像を撮影した2枚目
の画像21bで置き換える(ステップS8,S9)。そ
の後、3枚目の画像の撮影処理に入る(ステップS1
0,S3)。この処理を撮影を続けているあいだ繰り返
す。
The operation in the case where the overlap mode is selected by the mode setting means 3 in the image input apparatus 1 configured as described above will be described with reference to the flowchart of FIG. First,
When the overlapping shooting mode is selected by the mode setting means 3, FIG.
As shown in the figure, the main control means 22 includes an indicator 11 in the viewfinder 11 indicating that the overlapping photographing mode has been selected.
1 is displayed to notify the overlapping area detecting means 13 that the overlapping shooting mode has been set (step S1). The overlap region detecting means 20 is activated by the notification of the overlapping shooting mode. When one image of the subject is photographed by the imaging means 2 in this state, the main control means 4 stores the captured first image 21a in the frame memory 7 and the external storage device 9 as a reference image as shown in FIG. (Step S2). After the photographing, when a predetermined minute time elapses while shifting the position of the imaging means 2 for photographing the subject, the main control means 4 stores the second image 21b currently input by the imaging means 2 in the frame memory 7 as a reference image. Import (step S3). The currently input image 21b is used as the reference image in the frame memory 7
The overlapping area detecting means 13 detects an overlapping area between the reference image stored in the frame memory 7 as the first image and the currently input reference image, and determines the size of the overlapping area in the finder. 11 is displayed on the overlapping area display indicator 112 (step S4). This process is repeated at regular intervals until the shutter of the imaging means 2 is depressed (step S5). When the shutter of the imaging means 2 is depressed, the overlap area detecting means 13 sets the size of the displayed overlap area in advance and sets
It is checked whether it is equal to or more than the threshold value displayed by the indicator 113 of step 1 (step S6). If the size of the overlap area is equal to or smaller than the threshold value as a result of the check, the warning indicator 114 is turned on to request the photographer to change the photographing position (step S7). Then, when the photographer changes the photographing position and the size of the overlapping area between the reference image and the currently input reference image becomes equal to or larger than the threshold value and the shutter of the imaging unit 2 is pressed down, the image that is currently input is obtained. And the second image 21b taken is stored in the external storage device 9,
The reference image stored in the frame memory 7 is replaced with the second captured image 21b (steps S8 and S9). After that, the process of taking a third image starts (step S1).
0, S3). This process is repeated while shooting is continued.

【0018】このようにして被写体を連続的に撮影して
パノラマ画像合成するときに、前回のシャッター動作時
から次のシャッター押下までの期間中に、撮影者は撮影
する画像間の重複の大きさの適否を確認することができ
る。
When a subject is continuously photographed and a panoramic image is synthesized in this way, during the period from the time of the previous shutter operation to the time when the next shutter is depressed, the photographer can determine the size of the overlap between the images to be photographed. Can be checked.

【0019】上記実施例は前回撮影した画像を基準画像
とした場合について説明したが、1枚目に撮影した画像
あるいは今までに撮影した任意の画像を基準画像として
重なりを検出しても良い。また、参照画像を一定時間間
隔毎に入力して重なり領域を検出する場合について説明
したが、例えばシャッターが半押しされた時など次の画
像を撮影する直前に参照画像を入力して重なり領域を検
出するようにしても良い。さらに、画像合成や被写体の
3次元形状復元に特化した画像入力装置では、撮像モー
ドの設定をしなくても良い。
In the above embodiment, the case where the previously shot image is used as the reference image has been described. However, the overlap may be detected using the first shot image or an arbitrary image shot so far as the reference image. Also, a case has been described in which a reference image is input at regular time intervals to detect an overlapping area, but, for example, a reference image is input immediately before a next image is captured, such as when a shutter is half-pressed, and an overlapping area is detected. You may make it detect. Further, in an image input device specialized in image synthesis and restoration of a three-dimensional shape of a subject, it is not necessary to set an imaging mode.

【0020】また、上記実施例は重なり領域検出手段1
3で現在入力中の画像と前回撮影した画像との重なり領
域を検出する場合について説明したが、撮像手段2で入
力中の動画像の動きベクトルから基準画像と現在入力し
ている参照画像との重なり領域を求めることもできる。
この場合、重なり領域検出手段13には、図5のブロッ
ク図に示すように、特徴点設定手段131と動きベクト
ル算出手段132及び加算手段133を有する。そして
フレームメモリ7には前回撮影した画像を基準画像とし
て蓄積して置き、撮像手段2に現在入力されている画像
のうち時間的に連続する最新の2フレームの画像信号を
フレームメモリ7に蓄積する。ここで、現在入力されて
いる画像のうち時間的に連続する最新の2フレームの画
像を時間の若い順からそれぞれ画像(t−1)と画像t
と呼ぶ。この画像(t−1)と画像tは一定時間間隔毎
に更新される。
In the above embodiment, the overlapping area detecting means 1
Although the case where the overlap area between the currently input image and the previously captured image is detected in 3 has been described, the image capturing unit 2 uses the motion vector of the moving image being input as the reference vector and the currently input reference image. An overlap area can also be determined.
In this case, the overlapping area detecting means 13 includes a feature point setting means 131, a motion vector calculating means 132, and an adding means 133, as shown in the block diagram of FIG. Then, the previously captured image is stored and stored in the frame memory 7 as a reference image, and the image signals of the two latest temporally continuous frames of the image currently input to the imaging unit 2 are stored in the frame memory 7. . Here, of the currently input images, images of the latest two frames that are temporally continuous are image (t-1) and image t, respectively, in ascending order of time.
Call. The image (t-1) and the image t are updated at regular time intervals.

【0021】特徴点設定手段131は画像(t−1)に
おいて、図6に示すように、あらかじめ画面上に特徴点
i0,yi0の位置を決めておき、特徴点Pi(xi0,y
i0)を中心とする(2N+1),(2P+1)の濃淡パ
ターンを抽出して相関窓30を作成する。動きベクトル
算出手段132は画像(t−1)と画像tの間の画像上
での動きベクトルを算出する。例えば画像(t−1)か
ら画像tの間の動きベクトルは、画像tにおいて画像
(t−1)で作成した相関窓30の濃淡パターンとほぼ
一致する点(以下、対応点という)を相関演算により求
めることにより行われる。ここで、相関演算によるマチ
ングブロックにより対応点を検出する一例について説明
する。図7に示すように、(2N+1),(2P+1)
の相関窓30,31を用いたブロックマッチングで画像
(t−1)におけるi番目の特徴点Pi(xi0,yi0
と画像tにおける点Qi(xi0+dxi,yi0+dyi
の対応付けを行う場合、相互相関値Siは下記(1)式
で計算される。
As shown in FIG. 6, the feature point setting means 131 determines the positions of the feature points x i0 and y i0 on the screen in advance in the image (t-1), and sets the feature points Pi (x i0 and y
The correlation window 30 is created by extracting the (2N + 1) and (2P + 1) light and shade patterns centered on ( i0 ). The motion vector calculation means 132 calculates a motion vector on the image between the image (t-1) and the image t. For example, the motion vector between the image (t-1) and the image t is a point at which the image t substantially coincides with the shading pattern of the correlation window 30 created by the image (t-1) (hereinafter referred to as a corresponding point). It is done by asking for. Here, an example in which a corresponding point is detected by a matching block based on a correlation operation will be described. As shown in FIG. 7, (2N + 1), (2P + 1)
The i-th feature point Pi (x i0 , y i0 ) in the image (t-1) by block matching using the correlation windows 30 and 31
Points in the image t Qi (x i0 + dx i , y i0 + dy i)
Are performed, the cross-correlation value S i is calculated by the following equation (1).

【0022】[0022]

【数1】 (Equation 1)

【0023】(1)式において、It-1(x,y)は画
像(t−1)の点(x,y)における濃度、It(x,
y)は画像tの点(x,y)における濃度、I
t-1(x,y)バーは画像(t−1)の点(x,y)を
中心とする(2N+1),(2P+1)の相関窓30に
おける平均濃度、It(x,y)バーは画像tの点
(x,y)を中心とする(2N+1),(2P+1)の
相関窓31における平均濃度である。
[0023] In (1), I t-1 (x, y) is the concentration at the point (x, y) of the image (t-1), I t (x,
y) is the density at point (x, y) of image t, I
t-1 (x, y) mean concentration in the correlation window 30 of the bar point in the image (t-1) (x, y) around the (2N + 1), (2P + 1), I t (x, y) bar Is the average density in the (2N + 1) and (2P + 1) correlation windows 31 centered on the point (x, y) of the image t.

【0024】各特徴点Piに対して相互相関値Siの最大
値があらかじめ定められた閾値以上である対応点Qi
(xi0+dxi,yi0+dyi)を順次求めることによ
り、点Piにおける動きベクトルvi=(dxi,dyi
が求められる。また、相互相関値Siの最大値が閾値以
下のときは対応点は存在しないとする。全体の動きベク
トルvt-1,tは、例えば下記(2)式に示すように、各
特徴頂点Piの動きベクトルvtを平均化することにより
求められる。加算手段133は、下記(3)式に示すよ
うに、動きベクトル算出手段132が算出した動きベク
トルvt-1,tを加算して、基準画像から次に撮影される
画像までの動きベクトルvを算出する。
A corresponding point Qi for which the maximum value of the cross-correlation value S i is equal to or greater than a predetermined threshold value for each feature point P i .
By successively obtaining the (x i0 + dx i, y i0 + dy i), the motion vector v i at the point P i = (dx i, dy i)
Is required. When the maximum value of the cross-correlation value S i is equal to or smaller than the threshold, it is determined that no corresponding point exists. The entire motion vector v t−1, t is obtained by averaging the motion vector v t of each feature vertex P i , for example, as shown in the following equation (2). The adding means 133 adds the motion vectors v t−1 and t calculated by the motion vector calculating means 132 as shown in the following equation (3), and calculates a motion vector v from the reference image to the next image to be shot. Is calculated.

【0025】[0025]

【数2】 (Equation 2)

【0026】現時点での動きベクトルvが求められる
と、ファインダ11内のインジケータ112に重なり領
域の大きさを表示する。
When the current motion vector v is obtained, the size of the overlapping area is displayed on the indicator 112 in the finder 11.

【0027】上記のように構成された画像入力装置1で
モード設定手段3より重複モードが選択された場合の動
作を図8のフローチャートを参照して説明する。モード
設定手段3で重複撮影モードを選択すると、主制御手段
22はファインダ11内に重複撮影モードが選択された
ことを示すインジケータ111を表示し、重複撮影モー
ドが設定されたことを重なり領域検出手段13に通知
し、重なり領域検出手段20を起動する(ステップS1
1)。この状態で撮像手段2により被写体像を1枚撮影
すると、主制御手段4は撮像した1枚目の画像を基準画
像としてフレームメモリ7と外部記憶装置9に記憶す
る。この1枚目の画像を基準画像としてフレームメモリ
7に記憶するときに、この基準画像を撮影した時刻をt
=1とし、基準画像からの動きベクトルvを零ベクトル
に初期化する(ステップS12)。1枚目の画像を撮影
後、被写体を撮影する撮像手段2の位置を移動させると
主制御手段4は撮像手段2で現在入力中の移動している
動画像を一定時間毎にフレームメモリ7に取り込む。こ
のフレームメモリ7に動画像を取り込むときに、その時
刻をtとし、1つ前の画像を取り込んだ時刻を(t−
1)として撮像手段2で現在入力中の2枚の画像を参照
画像としてフレームメモリ7に取り込む(ステップS1
3)。重ね領域検出手段13の特徴点設定手段131
は、1つ前の時刻(t−1)に撮影された画像において
複数個の特徴点を設定して相関窓30を作成する(ステ
ップS14)。動きベクトル算出手段132は時刻(t
−1)の参照画像と時刻tの参照画像との間の動きベク
トルvt-1,tを求め、求めた動きベクトルvt-1,tを逐次
加算することにより重なり領域を検出して、重なり領域
の大きさをファインダ11の重なり領域表示インジケー
タ112に表示する(ステップS15)。この処理を撮
像手段2のシャッタが押し下げられるまで一定時間毎に
繰り返す(ステップS16)。撮像手段2のシャッタが
押し下げられると、重なり領域検出手段13は表示した
重なり領域の大きさがあらかじめ設定されファインダ1
1のインジケータ113で表示されている閾値以上かを
確認する(ステップS17)。この確認の結果、重なり
領域の大きさが閾値以下である場合には、警告インジケ
ータ114を点灯させて撮影者に撮影位置の変更を要求
する(ステップS18)。そして、撮影者が撮影位置を
変更して、基準画像と現在入力している参照画像との重
なり領域の大きさが閾値以上になって撮像手段2のシャ
ッタが押し下げられると現在入力している画像を撮影
し、撮影した2枚目の画像を外部記憶装置9に記憶し、
フレームメモリ7に記憶した基準画像を撮影した2枚目
の画像で置き換える(ステップS19,S20)。その
後、3枚目の画像の撮影処理に入る(ステップS21,
S3)。この処理を撮影を続けているあいだ繰り返す。
The operation when the overlap mode is selected by the mode setting means 3 in the image input apparatus 1 configured as described above will be described with reference to the flowchart of FIG. When the overlapping shooting mode is selected by the mode setting means 3, the main control means 22 displays an indicator 111 in the finder 11 indicating that the overlapping shooting mode has been selected, and indicates that the overlapping shooting mode has been set. 13 and activates the overlapping area detecting means 20 (step S1).
1). When one image of the subject is photographed by the imaging means 2 in this state, the main control means 4 stores the captured first image in the frame memory 7 and the external storage device 9 as a reference image. When the first image is stored in the frame memory 7 as a reference image, the time when the reference image was taken is represented by t.
= 1 and the motion vector v from the reference image is initialized to a zero vector (step S12). After the first image is captured, when the position of the imaging unit 2 for imaging the subject is moved, the main control unit 4 stores the moving image currently being input by the imaging unit 2 in the frame memory 7 at regular intervals. take in. When a moving image is fetched into the frame memory 7, the time is set as t, and the time at which the previous image is fetched is (t-
As 1), the two images currently input by the imaging unit 2 are taken into the frame memory 7 as reference images (step S1).
3). Feature point setting means 131 of overlapping area detecting means 13
Creates a correlation window 30 by setting a plurality of feature points in the image taken at the previous time (t-1) (step S14). The motion vector calculation means 132 calculates the time (t
-1) A motion vector v t-1, t between the reference image at time t and the reference image at time t is obtained, and an overlap area is detected by sequentially adding the obtained motion vectors v t-1, t , The size of the overlapping area is displayed on the overlapping area display indicator 112 of the finder 11 (step S15). This process is repeated at regular intervals until the shutter of the imaging means 2 is depressed (step S16). When the shutter of the imaging means 2 is depressed, the overlap area detecting means 13 sets the size of the displayed overlap area in advance and sets
It is checked whether the threshold value is equal to or greater than the threshold value displayed by the indicator 113 (step S17). As a result of this check, if the size of the overlapping area is equal to or smaller than the threshold, the warning indicator 114 is turned on to request the photographer to change the photographing position (step S18). Then, when the photographer changes the photographing position and the size of the overlapping area between the reference image and the currently input reference image becomes equal to or larger than the threshold value and the shutter of the imaging unit 2 is pressed down, the image that is currently input is obtained. Is stored in the external storage device 9,
The reference image stored in the frame memory 7 is replaced with the second captured image (steps S19 and S20). After that, the photographing process of the third image is started (step S21,
S3). This process is repeated while shooting is continued.

【0028】上記各実施例はモード設定手段3より重複
モードが選択されているときに、1枚目の画像を撮影し
てから一定時間毎に撮像手段2に入力している動画像を
取り込んで参照画像として基準画像との重なり領域を検
出する場合について説明したが、撮像手段2のシャッタ
を半押しして撮影しようとしている画像と基準画像との
間の動きベクトルから重なり領域を直接検出するように
しても良い。このようにシャッタを半押しして撮影しよ
うとしている画像と基準画像との重なり領域を検出する
と、シャッター半押し開始時から次のシャッター押下ま
での期間中に、撮影者は撮影しようとする画像間の重な
り領域の大きさを随時確認することができる。この場合
は、重なり領域検出手段13には、図9に示すように、
特徴点設定手段131と動きベクトル算出手段132を
有する。特徴点設定手段131は1つ前に撮影した画像
である基準画像において、図6に示すように、特徴点P
i(xi0,yi0)を中心とする(2N+1),(2P+
1)の濃淡パターンを抽出して相関窓30を作成する。
動きベクトル算出手段132は現在入力中の画像である
参照画像と基準画像の間の動きベクトルを算出する。
In each of the above embodiments, when the overlap mode is selected by the mode setting means 3, a moving image input to the image pickup means 2 is taken at predetermined time intervals after taking the first image. The case where the overlap region with the reference image is detected as the reference image has been described. However, the overlap region is directly detected from the motion vector between the image to be photographed by pressing the shutter of the imaging unit 2 half and the reference image. You may do it. When the overlap area between the image to be photographed by half-pressing the shutter and the reference image is detected in this way, during the period from the start of half-pressing the shutter to the next press of the shutter, the photographer determines the distance between the images to be photographed. Can be checked at any time. In this case, as shown in FIG.
It has a feature point setting means 131 and a motion vector calculation means 132. As shown in FIG. 6, the feature point setting unit 131 sets the feature point P in the reference image which is the image captured immediately before.
(2N + 1), (2P +) centered on i (x i0 , y i0 )
The correlation window 30 is created by extracting the shading pattern of 1).
The motion vector calculation means 132 calculates a motion vector between the reference image, which is the image currently being input, and the reference image.

【0029】上記のように構成された画像入力装置1で
モード設定手段3より重複モードが選択された場合の動
作を図10のフローチャートを参照して説明する。モー
ド設定手段3で重複撮影モードを選択すると、主制御手
段22はファインダ11内に重複撮影モードが選択され
たことを示すインジケータ111を表示し、重複撮影モ
ードが設定されたことを重なり領域検出手段13に通知
し、重なり領域検出手段20を起動する(ステップS3
1)。この状態で撮像手段2により被写体像を1枚撮影
すると、主制御手段4は撮像した1枚目の画像を基準画
像としてフレームメモリ7と外部記憶装置9に記憶する
(ステップS32)。重なり領域検出手段13の特徴点
設定手段131はフレームメモリ7に記憶した基準画像
において複数個の特徴点を設定し相関窓を作成する(ス
テップS33)。1枚目の画像を撮影後、被写体を撮影
する撮像手段2の位置を移動させながら撮像手段2のシ
ャッタを半押しにすると、主制御手段4は撮像手段2で
現在入力中の移動している画像を参照画像としてフレー
ムメモリ7に取り込む(ステップS34)。重なり領域
検出手段13の動きベクトル算出手段132は参照画像
と基準画像の間の動きベクトルを算出して重なり領域を
検出して、重なり領域の大きさをファインダ11の重な
り領域表示インジケータ112に表示する(ステップS
35)。この処理を撮像手段2のシャッタが押し下げら
れるまで一定時間毎に繰り返す(ステップS36,S3
4)。撮像手段2のシャッタが押し下げられると、重な
り領域検出手段13はそのときの参照画像と基準画像の
重なり領域の大きさがあらかじめ設定されファインダ1
1のインジケータ113で表示されている閾値以上かを
確認する(ステップS36,S37)。この確認の結
果、重なり領域の大きさが閾値以下である場合には、警
告インジケータ114を点灯させて撮影者に撮影位置の
変更を要求する(ステップS38)。そして、撮影者が
撮影位置を変更して、基準画像と現在入力している参照
画像との重なり領域の大きさが閾値以上になると現在入
力している画像を撮影し、撮影した2枚目の画像を外部
記憶装置9に記憶し、フレームメモリ7に記憶した基準
画像を撮影した2枚目の画像で置き換える(ステップS
36,S37〜S40)。その後、3枚目の画像の撮影
処理に入る(ステップS41,S33)。この処理を撮
影を続けているあいだ繰り返す。
The operation when the mode setting means 3 selects the overlapping mode in the image input apparatus 1 configured as described above will be described with reference to the flowchart of FIG. When the overlapping shooting mode is selected by the mode setting means 3, the main control means 22 displays an indicator 111 in the finder 11 indicating that the overlapping shooting mode has been selected, and indicates that the overlapping shooting mode has been set. 13 and activates the overlapping area detecting means 20 (step S3).
1). When one image of the subject is photographed by the imaging means 2 in this state, the main control means 4 stores the captured first image in the frame memory 7 and the external storage device 9 as a reference image (step S32). The feature point setting means 131 of the overlapping area detecting means 13 sets a plurality of feature points in the reference image stored in the frame memory 7 and creates a correlation window (step S33). After the first image is captured, when the shutter of the imaging unit 2 is half-pressed while moving the position of the imaging unit 2 for capturing the subject, the main control unit 4 is currently moving by the imaging unit 2. The image is taken into the frame memory 7 as a reference image (step S34). The motion vector calculation means 132 of the overlap area detection means 13 calculates a motion vector between the reference image and the reference image, detects the overlap area, and displays the size of the overlap area on the overlap area display indicator 112 of the finder 11. (Step S
35). This process is repeated at regular time intervals until the shutter of the imaging means 2 is depressed (steps S36, S3
4). When the shutter of the imaging means 2 is depressed, the overlapping area detecting means 13 sets the size of the overlapping area of the reference image and the reference image at that time in advance, and
It is checked whether it is equal to or larger than the threshold value displayed by the indicator 113 of step 1 (steps S36 and S37). As a result of this check, if the size of the overlapping area is equal to or smaller than the threshold, the warning indicator 114 is turned on to request the photographer to change the photographing position (step S38). Then, when the photographer changes the photographing position and the size of the overlapping area between the reference image and the currently inputted reference image becomes equal to or larger than the threshold value, the photographer photographs the currently inputted image, and takes the second photographed image. The image is stored in the external storage device 9, and the reference image stored in the frame memory 7 is replaced with the second captured image (Step S).
36, S37-S40). After that, the photographing process of the third image is started (steps S41 and S33). This process is repeated while shooting is continued.

【0030】また、上記実施例は撮像手段2で入力中の
画像の動きベクトルから基準画像と現在入力している参
照画像との重なり領域を求める場合について説明した
が、撮像手段2の撮影中の姿勢から基準画像と現在入力
している参照画像との重なり領域を検出しても良い。
In the above embodiment, the case where the overlapping area between the reference image and the currently input reference image is obtained from the motion vector of the image being inputted by the image pickup means 2 has been described. An overlapping area between the reference image and the currently input reference image may be detected from the posture.

【0031】この場合、画像入力装置1には、図11の
ブロック図に示すように、撮像手段2とモード設定手段
3と主制御手段4と信号処理手段5とメモリ制御手段6
とフレームメモリ7と外部記憶インタフェース8と外部
記憶手段9と表示インタフェース10とファインダ11
と外部表示手段12及び重なり領域検出手段13の他に
撮像手段2に設けられた姿勢検出センサ14を有する。
重なり領域検出手段13は、図12のブロック図に示す
ように、姿勢算出手段134と相対姿勢算出手段135
と動きベクトル算出手段136及びバッファメモリ13
7を有する。姿勢算出手段134は姿勢検出センサ14
からの信号より撮影時の撮像手段2の姿勢を算出してバ
ッファメモリ137に保存する。相対姿勢算出手段13
5はバッファメモリ137に保存された前回の撮影すな
わち基準画像撮影時の姿勢と、姿勢算出手段134から
出力された今回の参照画像入力時の姿勢より両者の相対
的な姿勢を算出する。動きベクトル算出手段136は基
準画像と参照画像の相対姿勢より両画像間の動きベクト
ルを算出する。
In this case, as shown in the block diagram of FIG. 11, the image input device 1 includes an imaging means 2, a mode setting means 3, a main control means 4, a signal processing means 5, and a memory control means 6.
, Frame memory 7, external storage interface 8, external storage means 9, display interface 10, and finder 11
And an attitude detection sensor 14 provided in the imaging means 2 in addition to the external display means 12 and the overlap area detection means 13.
As shown in the block diagram of FIG. 12, the overlapping area detecting means 13 includes a posture calculating means 134 and a relative posture calculating means 135.
And motion vector calculating means 136 and buffer memory 13
Seven. The posture calculation means 134 is provided by the posture detection sensor 14.
Then, the attitude of the imaging means 2 at the time of shooting is calculated from the signal from the camera and stored in the buffer memory 137. Relative attitude calculation means 13
Numeral 5 calculates the relative attitude between the two at the time of the previous shooting, that is, the shooting of the reference image stored in the buffer memory 137, and the attitude at the time of inputting the current reference image output from the attitude calculating means 134. The motion vector calculation means 136 calculates a motion vector between the reference image and the reference image based on the relative attitude between the two images.

【0032】姿勢検出センサ14は、例えば互いに直交
する3軸方向の重力加速度を検知する3軸加速度センサ
と3軸方向の地磁気を検出する3軸磁気センサ又は互い
に直交する3軸方向の重力加速度を検知する3軸加速度
センサと3軸回りの角速度を検出する3軸角速度センサ
から構成している。このように姿勢検出センサ14を3
軸加速度センサと3軸磁気センサで構成した場合には、
撮像手段2を静止状態又は加速度が無視できる程度の速
さで動かしたときに、その姿勢を検出することができ
る。また、姿勢検出センサ14を3軸加速度センサと3
軸角速度センサで構成した場合には、撮像手段2の角速
度が検出可能な程度の速さで動かしたときに、その姿勢
を検出することができる。
The posture detecting sensor 14 detects, for example, a three-axis acceleration sensor for detecting gravitational acceleration in three axes orthogonal to each other, a three-axis magnetic sensor for detecting geomagnetism in three axes, or a gravitational acceleration in three axes orthogonal to each other. It comprises a three-axis acceleration sensor for detecting and a three-axis angular velocity sensor for detecting angular velocities around three axes. Thus, the posture detection sensor 14 is
In the case of a three-axis magnetic sensor and a three-axis magnetic sensor,
When the imaging means 2 is stationary or when the acceleration is moved at such a speed that the acceleration can be ignored, the posture can be detected. Also, the posture detection sensor 14 is a three-axis acceleration sensor and a three-axis acceleration sensor.
In the case of using an axial angular velocity sensor, the attitude can be detected when the imaging means 2 is moved at such a speed that the angular velocity can be detected.

【0033】ここで姿勢検出センサ14を3軸加速度セ
ンサと3軸磁気センサで構成して、基準画像と参照画像
の重なり領域を検出する場合の動作を説明する。まず、
図13に示すように、撮像手段2のxyz座標系のz軸
の正方向を光軸方向とし、x軸の正方向を画像面22に
対して右向き方向とし、y軸の正方向を画像面22に対
して下向き方向とし、図14に示すように、ワールド座
標系のY軸の正方向を重力加速度の向きとし、Z軸の正
方向を磁気の向きとし、X軸の正方向をXYZの順に右
手直交系をなす向きとする。また、簡単のために撮像手
段2の移動により生じる運動速度は無視でき、重力加速
度と磁場は直交し、かつ磁場は地磁気以外に存在しない
と仮定する。なお、厳密には地磁気の伏角が存在し、地
磁気と重力加速度とは直交しないが、伏角が既知ならば
地磁気の向きと重力加速度が直交する場合と同様に計算
できる。また、3軸で地磁気を検出すれば伏角が未知で
も姿勢情報を計算可能である。すなわち、X軸の正方向
を東向きにとり、Z軸の正方向を北向きにとる。そして
姿勢検出センサ14は重力加速度のx軸,y軸,z軸成
分と、地磁気のx軸,y軸,z軸成分を検出するように
設置する。
The operation in the case where the attitude detection sensor 14 is constituted by a three-axis acceleration sensor and a three-axis magnetic sensor to detect an overlapping area between the reference image and the reference image will be described. First,
As shown in FIG. 13, the positive direction of the z-axis of the xyz coordinate system of the imaging unit 2 is the optical axis direction, the positive direction of the x-axis is the rightward direction with respect to the image plane 22, and the positive direction of the y-axis is the image plane. 14, the positive direction of the Y axis in the world coordinate system is the direction of gravitational acceleration, the positive direction of the Z axis is the direction of magnetism, and the positive direction of the X axis is XYZ, as shown in FIG. The directions are to form a right-handed orthogonal system in order. Also, for simplicity, it is assumed that the movement speed caused by the movement of the imaging means 2 can be ignored, the gravitational acceleration and the magnetic field are orthogonal, and the magnetic field does not exist except for geomagnetism. Strictly speaking, there is a magnetic dip, and the geomagnetism and the gravitational acceleration are not orthogonal. However, if the dip is known, it can be calculated in the same way as when the geomagnetic direction and the gravitational acceleration are orthogonal. Further, if geomagnetism is detected on three axes, posture information can be calculated even if the dip angle is unknown. That is, the positive direction of the X axis is set to the east, and the positive direction of the Z axis is set to the north. The attitude detection sensor 14 is installed so as to detect the x-, y-, and z-axis components of the gravitational acceleration and the x-, y-, and z-axis components of the geomagnetism.

【0034】この姿勢検出センサ14が出力する姿勢信
号は信号処理手段5においてフィルタリングや増幅等の
信号処理やA/D変換が行われたのち重なり領域検出手
段13に送られる。重なり領域検出手段13の姿勢算出
手段137は送られた姿勢信号から撮像手段2の姿勢を
算出する。撮像手段2の姿勢はワールド座標系を基準と
した下記(4),(5)式の回転行列で記述する。
The posture signal output from the posture detection sensor 14 is subjected to signal processing such as filtering and amplification and A / D conversion in the signal processing means 5 and then sent to the overlapping area detection means 13. The attitude calculating means 137 of the overlapping area detecting means 13 calculates the attitude of the imaging means 2 from the sent attitude signal. The attitude of the imaging means 2 is described by a rotation matrix of the following equations (4) and (5) with reference to the world coordinate system.

【0035】[0035]

【数3】 (Equation 3)

【0036】いま、重力加速度ベクトルgと地磁気ベク
トルMがワールド座標系においてそれぞれ下記(6)式
で表され、3軸加速度センサと3軸磁気センサにより検
出された装置座標系を基準とした加速度ベクトルaと地
磁気ベクトルmをそれぞれ下記(7)式で表す。
Now, the gravitational acceleration vector g and the terrestrial magnetic vector M are represented by the following equation (6) in the world coordinate system, and the acceleration vector based on the apparatus coordinate system detected by the three-axis acceleration sensor and the three-axis magnetic sensor is used. a and the geomagnetic vector m are represented by the following equation (7).

【0037】[0037]

【数4】 (Equation 4)

【0038】この重力加速度ベクトルgと地磁気ベクト
ルM及び加速度ベクトルaと地磁気ベクトルmの関係は
回転行列Rを用いて下記(8)式と(9)式で記述され
る。
The relationship between the gravitational acceleration vector g and the geomagnetic vector M and the relationship between the acceleration vector a and the geomagnetic vector m are described by the following equations (8) and (9) using the rotation matrix R.

【0039】[0039]

【数5】 (Equation 5)

【0040】この(8)式より、X軸回りの回転角αと
Z軸回りの回転角γが下記(10)式と(11)式で計
算され、求めたX軸回りの回転角αとZ軸回りの回転角
γを利用して地磁気ベクトルmからY軸回りの回転角β
が下記(12)式と(13)式で計算される。
From the equation (8), the rotation angle α around the X axis and the rotation angle γ around the Z axis are calculated by the following equations (10) and (11). Using the rotation angle γ about the Z axis, the rotation angle β about the Y axis from the geomagnetic vector m
Is calculated by the following equations (12) and (13).

【0041】[0041]

【数6】 (Equation 6)

【0042】このようにしてX軸回りの回転角αとY軸
回りの回転角βとZ軸回りの回転角γ及び回転行列Rを
3軸加速度センサ及び3軸磁気センサの検出値より算出
し、ワールド座標系に対する撮像手段2の姿勢を記述す
ることができる。
In this manner, the rotation angle α about the X axis, the rotation angle β about the Y axis, the rotation angle γ about the Z axis, and the rotation matrix R are calculated from the detected values of the three-axis acceleration sensor and the three-axis magnetic sensor. , The attitude of the imaging means 2 with respect to the world coordinate system.

【0043】相対姿勢算出手段135は、基準画像にお
けるワールド座標系に対する回転行列Rsと参照画像に
おけるワールド座標系に対する回転行列Rrより、両者
の相対的な姿勢を算出する。例えば、基準画像の撮像座
標系から参照画像の撮像座標系への回転行列は、基準画
像を基準にて下記(14)式で表される。
[0043] The relative orientation calculation unit 135, the rotation matrix R r with respect to the world coordinate system in the rotation matrix R s and the reference image with respect to the world coordinate system in the reference image, it calculates the relative posture of both. For example, a rotation matrix from the imaging coordinate system of the reference image to the imaging coordinate system of the reference image is expressed by the following equation (14) based on the reference image.

【0044】[0044]

【数7】 (Equation 7)

【0045】動きベクトル算出手段136は上記のよう
にして算出された回転行列より、基準画像から参照画像
への動きベクトルを算出する。撮像手段2の光学系は図
13に示すように、焦点距離をfとする中心射影モデル
であると仮定すると、基準画像上の点(x,y)に対す
る視線ベクトルpsは下記(15)式でに表される。
The motion vector calculation means 136 calculates a motion vector from the reference image to the reference image from the rotation matrix calculated as described above. Assuming that the optical system of the imaging means 2 is a central projection model having a focal length f as shown in FIG. 13, a line-of-sight vector p s for a point (x, y) on the reference image is expressed by the following equation (15). Is represented by

【0046】[0046]

【数8】 (Equation 8)

【0047】ここで撮像手段2と被写体との距離が基準
画像と参照画像との間の撮影位置変化に比べて十分大き
い場合、基準画像において(15)式のpsで表される
被写体像は参照画像においては下記(16)式の座標に
投影される。
[0047] Here, when compared to the imaging position change between the reference image distance between the imaging unit 2 and the subject is the reference image sufficiently large, the subject image represented in the reference image (15) of p s is In the reference image, the image is projected to the coordinates of the following equation (16).

【0048】[0048]

【数9】 (Equation 9)

【0049】但しkは視線ベクトルprのz成分をfに
するための係数である。したがって基準画像から参照画
像への動きベクトルvは下記(17)式により求めるこ
とができる。
Here, k is a coefficient for setting the z component of the line-of-sight vector p r to f. Therefore, the motion vector v from the reference image to the reference image can be obtained by the following equation (17).

【0050】[0050]

【数10】 (Equation 10)

【0051】ここでIは単位行列である。(17)式の
動きベクトルvは基準画像における座標(x,y)によ
り変化するが、撮像手段2の視野角がさほど大きくなけ
れば動きベクトルvは座標(x,y)に殆ど影響を受け
ない、。例えば(x,y)を画面中心すなわち(0,
0)として(17)式に代入し、下記(18)式で動き
ベクトルvを求めることができる。
Here, I is a unit matrix. The motion vector v in the equation (17) changes depending on the coordinates (x, y) in the reference image, but the motion vector v is hardly affected by the coordinates (x, y) unless the viewing angle of the imaging unit 2 is so large. ,. For example, (x, y) is set at the center of the screen, that is, (0,
0) is substituted into the expression (17), and the motion vector v can be obtained by the following expression (18).

【0052】[0052]

【数11】 [Equation 11]

【0053】上記のように構成された画像入力装置1で
モード設定手段3より重複モードが選択された場合の動
作を図15のフローチャートを参照して説明する。モー
ド設定手段3で重複撮影モードを選択すると、主制御手
段22はファインダ11内に重複撮影モードが選択され
たことを示すインジケータ111を表示し、重複撮影モ
ードが設定されたことを重なり領域検出手段13に通知
し、重なり領域検出手段20を起動する(ステップS5
1)。この状態で撮像手段2により被写体像を1枚撮影
すると、主制御手段4は撮像した1枚目の画像を基準画
像としてフレームメモリ7と外部記憶装置9に記憶す
る。また、姿勢検出センサ14で検出した撮像手段2の
姿勢信号が信号処理手段5を介して重なり領域検出手段
13に送られ、姿勢算出手段134で算出した1枚目の
画像を撮影したときの撮像手段2の姿勢がバッファメモ
リ137に記憶される(ステップS52)。1枚目の画
像を撮影後、被写体を撮影する撮像手段2の位置をずら
しているときに、主制御手段4は一定時間毎に撮像手段
2で現在入力中の2枚目の画像を参照画像としてフレー
ムメモリ7に取り込み、姿勢検出センサ14で検出した
撮像手段2の姿勢信号を信号処理手段5を介して重なり
領域検出手段13に送り、姿勢算出手段134で2枚目
の画像を撮影したときの撮像手段2の姿勢を算出する
(ステップS53)。重ね領域検出手段13の相対姿勢
算出手段135はバッファメモリ137に保存された基
準画像撮影時の姿勢と姿勢算出手段134から出力され
た今回の参照画像入力時の姿勢より両者の相対的な姿勢
を算出し動きベクトル算出手段136の送る。動きベク
トル算出手段136は基準画像と参照画像の相対姿勢よ
り両画像間の動きベクトルvを算出して加算し重なり領
域を検出して、重なり領域の大きさをファインダ11の
重なり領域表示インジケータ112に表示する(ステッ
プS54)。この処理を撮像手段2のシャッタが押し下
げられるまで一定時間毎に繰り返す(ステップS5
5)。撮像手段2のシャッタが押し下げられると、重な
り領域検出手段13は表示した重なり領域の大きさがあ
らかじめ設定されファインダ11のインジケータ113
で表示されている閾値以上かを確認する(ステップS5
6)。この確認の結果、重なり領域の大きさが閾値以下
である場合には、警告インジケータ114を点灯させて
撮影者に撮影位置の変更を要求する(ステップS5
7)。そして、撮影者が撮影位置を変更して、基準画像
と現在入力している参照画像との重なり領域の大きさが
閾値以上になって撮像手段2のシャッタが押し下げられ
ると現在入力している画像を撮影し、撮影した2枚目の
画像を外部記憶装置9に記憶し、フレームメモリ7に記
憶した基準画像を撮影した2枚目の画像で置き換える
(ステップS58,S59)。その後、3枚目の画像の
撮影処理に入る(ステップS60,S53)。この処理
を撮影を続けているあいだ繰り返す。このようにして前
回のシャッタ動作時から次のシャッター下までの期間中
に撮影者は撮影した画像と現在入力している画像間の重
なり領域の大きさを確認することができる。
The operation when the mode setting means 3 selects the overlap mode in the image input apparatus 1 configured as described above will be described with reference to the flowchart of FIG. When the overlapping shooting mode is selected by the mode setting means 3, the main control means 22 displays an indicator 111 in the finder 11 indicating that the overlapping shooting mode has been selected, and indicates that the overlapping shooting mode has been set. 13 and activates the overlapping area detecting means 20 (step S5).
1). When one image of the subject is photographed by the imaging means 2 in this state, the main control means 4 stores the captured first image in the frame memory 7 and the external storage device 9 as a reference image. Further, a posture signal of the imaging unit 2 detected by the posture detection sensor 14 is sent to the overlapping area detection unit 13 via the signal processing unit 5, and the image of the first image calculated by the posture calculation unit 134 is captured. The attitude of the means 2 is stored in the buffer memory 137 (step S52). After the first image is captured, when the position of the image capturing means 2 for capturing an object is shifted, the main control means 4 uses the image capturing means 2 at regular time intervals to refer to the second image currently input by the image capturing means 2 as a reference image. When the attitude signal of the imaging means 2 detected by the attitude detection sensor 14 is sent to the overlapping area detection means 13 through the signal processing means 5 and the second image is captured by the attitude calculation means 134 Is calculated (step S53). The relative attitude calculation means 135 of the overlap area detection means 13 determines the relative attitude between the two based on the attitude at the time of shooting the reference image stored in the buffer memory 137 and the attitude at the time of inputting the current reference image output from the attitude calculation means 134. The motion vector is calculated and sent by the motion vector calculation means 136. The motion vector calculation means 136 calculates a motion vector v between the two images based on the relative orientation of the reference image and the reference image, adds the motion vectors v to each other, detects an overlap region, and indicates the size of the overlap region to the overlap region display indicator 112 of the finder 11. It is displayed (step S54). This process is repeated at regular intervals until the shutter of the imaging means 2 is pressed down (step S5).
5). When the shutter of the image pickup means 2 is depressed, the overlapping area detecting means 13 sets the size of the displayed overlapping area in advance and the indicator 113 of the finder 11.
(Step S5)
6). If the size of the overlapping area is equal to or smaller than the threshold value as a result of the check, the warning indicator 114 is turned on to request the photographer to change the photographing position (step S5).
7). Then, when the photographer changes the photographing position and the size of the overlapping area between the reference image and the currently input reference image becomes equal to or larger than the threshold value and the shutter of the imaging unit 2 is pressed down, the image that is currently input is obtained. Is stored in the external storage device 9, and the reference image stored in the frame memory 7 is replaced with the captured second image (steps S58 and S59). After that, the photographing process of the third image is started (steps S60 and S53). This process is repeated while shooting is continued. In this manner, the photographer can check the size of the overlap area between the captured image and the currently input image during the period from the previous shutter operation to the next shutter operation.

【0054】上記実施例は撮像手段2の姿勢情報より動
きベクトルを算出して重なり領域を検出する場合につい
て説明したが、例えば図16に示すように、基準画像の
画像面23aと参照画像の画像面23b間で、装置座標
系のy軸回りに角度θの回転が生じたと検出された場
合、焦点距離又は撮像手段2の視野角が既知ならば、重
なり領域24は角度θと焦点距離又は撮像手段2の視野
角から容易に検出することができる。このようにして重
なり領域を検出しても良い。
In the above embodiment, the case where the overlap area is detected by calculating the motion vector from the attitude information of the imaging means 2 has been described. For example, as shown in FIG. 16, the image plane 23a of the reference image and the image When it is detected that the rotation of the angle θ around the y-axis of the apparatus coordinate system occurs between the surfaces 23b, and if the focal length or the viewing angle of the imaging unit 2 is known, the overlapping area 24 has the angle θ and the focal length or the imaging distance. It can be easily detected from the viewing angle of the means 2. In this way, the overlapping area may be detected.

【0055】[0055]

【発明の効果】この発明は以上説明したように、撮像手
段で先に撮像した画像を基準画像とし、基準画像と撮像
手段で現在入力中の画像との重なり領域を自動的に検出
して表示するようにしたから、パノラマ画像合成や被写
体の3次元形状復元等の種々の画像処理や合成を行うと
きに、撮影動作が適切であるかどうかを撮影者に通知す
ることができ、複数の画像を適切な重なり領域で撮影す
ることができる。
As described above, according to the present invention, the image previously taken by the image pickup means is used as the reference image, and the overlapping area between the reference image and the image currently input by the image pickup means is automatically detected and displayed. Therefore, when performing various image processing and synthesis such as panoramic image synthesis and restoration of a three-dimensional shape of a subject, it is possible to notify the photographer whether or not the shooting operation is appropriate. Can be photographed in an appropriate overlapping area.

【0056】また、画像の重なる範囲をあらかじめ強制
していないので、撮影者は比較的自由な条件で被写体を
撮影することができる。
Since the overlapping range of the images is not preliminarily set, the photographer can photograph the subject under relatively free conditions.

【0057】また、基準画像と撮像手段で現在入力中の
画像との重なり領域を、撮像手段で現在入力中の動画像
における動きベクトルより検出することにより、複数の
画像の重なり領域を精度良く検出すことができる。
Further, by detecting the overlapping area between the reference image and the image currently being input by the imaging means from the motion vector of the moving image currently being input by the imaging means, the overlapping area of a plurality of images can be accurately detected. Can be

【0058】さらに、基準画像と撮像手段で現在入力中
の画像との重なり領域を、基準画像と撮像しようとして
いる画像との間の動きベクトルより検出することによ
り、簡単な処理で複数の画像の重なり領域を精度良く検
出すことができる。また、撮影者は基準画像撮影時から
次の画像撮影時まで被写体を捕捉する必要がないから、
撮像手段を比較的自由に操作することができる。
Further, by detecting an overlapping area between the reference image and the image currently being input by the image pickup means from a motion vector between the reference image and the image to be picked up, a plurality of images can be easily processed. The overlapping area can be detected with high accuracy. Also, since the photographer does not need to capture the subject from the time of shooting the reference image to the time of the next image shooting,
The imaging means can be relatively freely operated.

【0059】また、基準画像と撮像手段で現在入力中の
画像との重なり領域を撮像手段の姿勢より検出すること
により、重なり領域を簡単に検出することができるとと
もに画像信号を用いないのでテクスチャなどの特徴の少
ない被写体を撮影した場合でも、安定して重なり領域を
検出することができる。
Further, by detecting the overlap area between the reference image and the image currently being input by the image pickup means from the attitude of the image pickup means, the overlap area can be easily detected. Even when a subject having few characteristics is photographed, the overlapping region can be detected stably.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例の画像入力装置の構成を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image input device according to an embodiment of the present invention.

【図2】上記実施例の動作を示すフローチャートであ
る。
FIG. 2 is a flowchart showing the operation of the embodiment.

【図3】ファインダのインジケータを示す構成図であ
る。
FIG. 3 is a configuration diagram showing an indicator of a finder.

【図4】画像の重なり状態を示す説明図である。FIG. 4 is an explanatory diagram showing an overlapping state of images.

【図5】第2の実施例の重なり領域検出手段の構成を示
すブロック図である。
FIG. 5 is a block diagram illustrating a configuration of an overlap area detecting unit according to a second embodiment.

【図6】特徴点を中心とした相関窓を示す説明図であ
る。
FIG. 6 is an explanatory diagram showing a correlation window centering on a feature point.

【図7】特徴点の対応付けを示す説明図である。FIG. 7 is an explanatory diagram showing correspondence of feature points.

【図8】第2の実施例の動作を示すフローチャートであ
る。
FIG. 8 is a flowchart showing the operation of the second embodiment.

【図9】第3の実施例の重なり領域検出手段の構成を示
すブロック図である。
FIG. 9 is a block diagram illustrating a configuration of an overlapping area detecting unit according to a third embodiment.

【図10】第3の実施例の動作を示すフローチャートで
ある。
FIG. 10 is a flowchart showing the operation of the third embodiment.

【図11】第4の実施例の画像入力装置の構成を示すブ
ロック図である。
FIG. 11 is a block diagram illustrating a configuration of an image input device according to a fourth embodiment.

【図12】第4の実施例の重なり領域検出手段の構成を
示すブロック図である。
FIG. 12 is a block diagram illustrating a configuration of an overlap area detecting unit according to a fourth embodiment.

【図13】撮像手段の装置座標系を示す説明図である。FIG. 13 is an explanatory diagram showing a device coordinate system of an imaging unit.

【図14】ワールド座標系を示す説明図である。FIG. 14 is an explanatory diagram showing a world coordinate system.

【図15】第4の実施例の動作を示すフローチャートで
ある。
FIG. 15 is a flowchart showing the operation of the fourth embodiment.

【図16】基準画像の画像面と参照画像の画像面の重な
りの例を示す配置図である。
FIG. 16 is a layout diagram illustrating an example of an overlap between an image plane of a reference image and an image plane of a reference image.

【符号の説明】[Explanation of symbols]

1 画像入力装置 2 撮像手段 3 モード設定手段 4 主制御手段 5 信号処理手段 6 メモリ制御手段 7 フレームメモリ 8 外部記憶インタフェース 9 外部記憶装置 10 表示インタフェース 11 ファインダ 12 外部表示装置 13 重なり領域検出手段 14 姿勢検出センサ 131 特徴点設定手段 132 動きベクトル算出手段 133 加算手段 134 姿勢算出手段 135 相対姿勢算出手段 136 動きベクトル算出手段 137 バッファメモリ REFERENCE SIGNS LIST 1 image input device 2 imaging means 3 mode setting means 4 main control means 5 signal processing means 6 memory control means 7 frame memory 8 external storage interface 9 external storage device 10 display interface 11 viewfinder 12 external display device 13 overlapping area detecting means 14 attitude Detection sensor 131 Feature point setting means 132 Motion vector calculation means 133 Addition means 134 Attitude calculation means 135 Relative attitude calculation means 136 Motion vector calculation means 137 Buffer memory

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 被写体の画像を入力する撮像手段と、撮
像手段から得られた画像を記憶する画像記憶手段とを有
する画像入力装置において、 撮像手段で先に撮像して画像記憶手段に記憶した基準画
像と撮像手段が現在入力中の画像との重なり領域を自動
検出する重なり領域検出手段を有することを特徴とする
画像入力装置。
1. An image input apparatus having an image pickup means for inputting an image of a subject and an image storage means for storing an image obtained from the image pickup means, wherein an image is first taken by the image pickup means and stored in the image storage means. An image input apparatus comprising: an overlap area detection unit that automatically detects an overlap area between a reference image and an image currently being input by an imaging unit.
【請求項2】 上記重なり領域検出手段は現在入力中の
動画像における動きベクトルより基準画像との重なり領
域を検出する請求項1記載の画像入力装置。
2. The image input device according to claim 1, wherein said overlapping area detecting means detects an overlapping area with a reference image from a motion vector in a currently input moving image.
【請求項3】 上記重なり領域検出手段は基準画像と撮
像しようとしている画像との間の動きベクトルより重な
り領域を検出する請求項1記載の画像入力装置。
3. The image input device according to claim 1, wherein said overlapping area detecting means detects an overlapping area from a motion vector between a reference image and an image to be imaged.
【請求項4】 被写体の画像を入力する撮像手段と、撮
像手段の姿勢を表す信号を取得する姿勢検出センサと、
撮像手段から得られた画像を記憶する画像記憶手段及び
撮像手段で先に撮像して画像記憶手段に記憶した基準画
像と撮像手段が現在入力中の画像との重なり領域を自動
検出する重なり領域検出手段を有する画像入力装置にあ
って、 上記重なり領域検出手段は姿勢検出センサ信号より求め
た姿勢情報より基準画像と撮像手段が現在入力中の画像
との重なり領域を検出することを特徴とする画像入力装
置。
4. An imaging means for inputting an image of a subject, an attitude detection sensor for acquiring a signal representing the attitude of the imaging means,
Image storage means for storing an image obtained from the imaging means, and overlap area detection for automatically detecting an overlap area between the reference image previously captured by the imaging means and stored in the image storage means and the image currently being input by the imaging means. An image input apparatus having an image capturing apparatus, wherein the overlapping area detecting means detects an overlapping area between a reference image and an image currently being input by the image capturing means from the attitude information obtained from the attitude detecting sensor signal. Input device.
【請求項5】 撮像手段で先に撮像した画像を基準画像
として記憶し、記憶した基準画像と撮像手段で現在入力
中の画像との重なり領域を検出して表示することを特徴
とする画像入力方法。
5. An image input device, wherein an image previously taken by an imaging means is stored as a reference image, and an overlapping area between the stored reference image and an image currently being input by the imaging means is detected and displayed. Method.
【請求項6】 上記基準画像と撮像手段で現在入力中の
画像との重なり領域を、撮像手段で現在入力中の動画像
における動きベクトルより検出する請求項5記載の画像
入力方法。
6. The image input method according to claim 5, wherein an overlap area between the reference image and the image currently input by the image pickup means is detected from a motion vector of a moving image currently input by the image pickup means.
【請求項7】 上記基準画像と撮像手段で現在入力中の
画像との重なり領域を基準画像と撮像しようとしている
画像との間の動きベクトルより検出する請求項5記載の
画像入力方法。
7. The image input method according to claim 5, wherein an overlapping area between the reference image and the image currently being input by the image pickup means is detected from a motion vector between the reference image and the image to be picked up.
【請求項8】 上記基準画像と撮像手段で現在入力中の
画像との重なり領域を撮像手段の姿勢情報より検出する
請求項5記載の画像入力方法。
8. The image input method according to claim 5, wherein an overlap area between the reference image and an image currently being input by the image pickup means is detected from posture information of the image pickup means.
JP10099766A 1998-04-13 1998-04-13 Image input device and image input method Pending JPH11298837A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10099766A JPH11298837A (en) 1998-04-13 1998-04-13 Image input device and image input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10099766A JPH11298837A (en) 1998-04-13 1998-04-13 Image input device and image input method

Publications (1)

Publication Number Publication Date
JPH11298837A true JPH11298837A (en) 1999-10-29

Family

ID=14256105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10099766A Pending JPH11298837A (en) 1998-04-13 1998-04-13 Image input device and image input method

Country Status (1)

Country Link
JP (1) JPH11298837A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003010265A (en) * 2001-06-27 2003-01-14 Microstone Corp Communication terminal apparatus and system
US7324135B2 (en) 2002-10-15 2008-01-29 Seiko Epson Corporation Panoramic composition of multiple image data
US7375745B2 (en) 2004-09-03 2008-05-20 Seiko Epson Corporation Method for digital image stitching and apparatus for performing the same
WO2008087721A1 (en) * 2007-01-18 2008-07-24 Fujitsu Limited Image synthesizer, image synthesizing method, and program
US7978930B2 (en) 2004-07-07 2011-07-12 Nec Corporation Wide-field image input method and device
JP2014169947A (en) * 2013-03-05 2014-09-18 Hitachi Ltd Shape inspection method and device thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05161050A (en) * 1991-12-03 1993-06-25 Fuji Photo Film Co Ltd Digital electronic still camera, its operating method and display method of object in digital electronic still camera
JPH05260264A (en) * 1992-03-12 1993-10-08 Sharp Corp Image processor
JPH05328205A (en) * 1992-05-26 1993-12-10 Asahi Optical Co Ltd Video signal processing unit
JPH06105214A (en) * 1992-09-24 1994-04-15 Ricoh Co Ltd Camera with gyro sensor and video printer
JPH06303562A (en) * 1992-10-09 1994-10-28 Sony Corp Image pickup recorder
JPH07306486A (en) * 1994-05-10 1995-11-21 Canon Inc Camera
JPH09322055A (en) * 1996-05-28 1997-12-12 Canon Inc Electronic camera system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05161050A (en) * 1991-12-03 1993-06-25 Fuji Photo Film Co Ltd Digital electronic still camera, its operating method and display method of object in digital electronic still camera
JPH05260264A (en) * 1992-03-12 1993-10-08 Sharp Corp Image processor
JPH05328205A (en) * 1992-05-26 1993-12-10 Asahi Optical Co Ltd Video signal processing unit
JPH06105214A (en) * 1992-09-24 1994-04-15 Ricoh Co Ltd Camera with gyro sensor and video printer
JPH06303562A (en) * 1992-10-09 1994-10-28 Sony Corp Image pickup recorder
JPH07306486A (en) * 1994-05-10 1995-11-21 Canon Inc Camera
JPH09322055A (en) * 1996-05-28 1997-12-12 Canon Inc Electronic camera system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003010265A (en) * 2001-06-27 2003-01-14 Microstone Corp Communication terminal apparatus and system
US7324135B2 (en) 2002-10-15 2008-01-29 Seiko Epson Corporation Panoramic composition of multiple image data
US7978930B2 (en) 2004-07-07 2011-07-12 Nec Corporation Wide-field image input method and device
US7375745B2 (en) 2004-09-03 2008-05-20 Seiko Epson Corporation Method for digital image stitching and apparatus for performing the same
WO2008087721A1 (en) * 2007-01-18 2008-07-24 Fujitsu Limited Image synthesizer, image synthesizing method, and program
JP2014169947A (en) * 2013-03-05 2014-09-18 Hitachi Ltd Shape inspection method and device thereof

Similar Documents

Publication Publication Date Title
JP4770924B2 (en) Imaging apparatus, imaging method, and program
JP5659304B2 (en) Image generating apparatus and image generating method
JP5659305B2 (en) Image generating apparatus and image generating method
JP4962460B2 (en) Imaging apparatus, imaging method, and program
JP5769813B2 (en) Image generating apparatus and image generating method
JP4618370B2 (en) Imaging apparatus, imaging method, and program
JP5865388B2 (en) Image generating apparatus and image generating method
JP2002503893A (en) Virtual reality camera
US20110234750A1 (en) Capturing Two or More Images to Form a Panoramic Image
JPH09322060A (en) Image pickup device, image composing device and image composition system
JP2010136302A (en) Imaging apparatus, imaging method and program
JP2010088085A (en) Imaging apparatus, imaging method, and program
JP7030442B2 (en) Image processing equipment, image processing methods, and programs
JPH08265633A (en) Image moving detector and video recording device
JP2002077947A (en) Method for correcting stereoscopic image and stereoscopic image apparatus using the same
JP7031280B2 (en) Image processing equipment, image processing systems and programs
JP4565909B2 (en) camera
CN106254755B (en) Photographic device, camera shooting control method and recording medium
JP2006238326A (en) Camera device system and photographed moving image reproduction method
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JPH11298837A (en) Image input device and image input method
JP2001057652A (en) Image input device and image input method
JP4001233B2 (en) Panorama shooting method and image processing apparatus and image pickup apparatus capable of using the method
JP2000244797A (en) Device and method for processing image signal
JP2001177850A (en) Image signal recorder and method, image signal reproducing method and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060822