JP2001250114A - Method and device for image processing and computer- readable recording medium - Google Patents

Method and device for image processing and computer- readable recording medium

Info

Publication number
JP2001250114A
JP2001250114A JP2000261565A JP2000261565A JP2001250114A JP 2001250114 A JP2001250114 A JP 2001250114A JP 2000261565 A JP2000261565 A JP 2000261565A JP 2000261565 A JP2000261565 A JP 2000261565A JP 2001250114 A JP2001250114 A JP 2001250114A
Authority
JP
Japan
Prior art keywords
image
distortion
subject
image processing
correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000261565A
Other languages
Japanese (ja)
Other versions
JP4169464B2 (en
Inventor
Norihiko Murata
憲彦 村田
Takashi Kitaguchi
貴史 北口
Shin Aoki
青木  伸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000261565A priority Critical patent/JP4169464B2/en
Priority to US09/940,432 priority patent/US7313289B2/en
Publication of JP2001250114A publication Critical patent/JP2001250114A/en
Application granted granted Critical
Publication of JP4169464B2 publication Critical patent/JP4169464B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and a device for image processing which can easily obtain a more adequate image by correcting distortion, and a recording medium which actualizes the method. SOLUTION: This is an image processor 1 which corrects distortion of images obtained by photographing a subject so that the images overlap with one another and is equipped with a correspondence detection part 21 which detects the correspondence relation between overlap parts in the images obtained by the photography, a reference image setting part 20 which selects an object of distortion correction out of the images, and an image distortion correction part 22 which corrects the distortion of the image set by the reference image setting part 20 according to the correspondence relation detected by the correspondence detection part 21.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理方法と画像
処理装置及び記録媒体に関し、さらに詳しくは、撮影状
態によらず適正な画像を得るための画像処理方法と画像
処理装置、及び該画像処理方法を実現するためのコンピ
ュータ読み取り可能な記録媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method, an image processing apparatus, and a recording medium, and more particularly, to an image processing method and an image processing apparatus for obtaining an appropriate image regardless of a shooting state, and the image processing. The present invention relates to a computer-readable recording medium for implementing the method.

【0002】[0002]

【従来の技術】コンピュータネットワークの急速な進歩
と共にビジネスのあり方も多様化し、あらゆる局面で重
要な情報を素早く取得する必要が生じている。それに伴
い、至る所で携帯型の入力装置を駆使してビジネスに必
要な商品や文書情報を簡便かつ高精細に入力することへ
の要求が高まっている。特に、デジタルスチルカメラの
急速な普及及びその高解像化に伴い、撮影した画像に加
工・処理を施すことにより、仕事や娯楽に有効な電子情
報として活用しようという応用例も見られるようになっ
た。
2. Description of the Related Art With the rapid progress of computer networks, business styles have diversified, and it has become necessary to quickly obtain important information in all aspects. Along with this, there is an increasing demand for easy and high-definition input of goods and document information necessary for business using portable input devices everywhere. In particular, with the rapid spread of digital still cameras and their high resolution, there has been an application of processing and processing of captured images to utilize them as effective electronic information for work and entertainment. Was.

【0003】代表的な第一の応用例としては、A4紙面
や大型のポスター等の被写体面を撮影するとき、撮像面
と被写体面が平行でない状態で撮影した場合には、画像
の歪み(これを「あおり歪み」ともいう。)が生じる
が、これを補正することによって取得した文書画像情報
の判読性を向上させる技術がある。ここで、「あおり歪
み」を補正したい画像においては、被写体の所望の範囲
が写されていることが要求される。すなわち、ユーザは
撮影した複数枚の画像のうち少なくとも1枚は被写体の
所望の範囲が含まれるように撮影する必要がある。従っ
て、撮影した複数枚の画像のうちあおり歪みを補正する
対象を選択できるインタフェース(I/F)や、撮影時
にユーザへ相応の注意を促すインタフェースが望まれて
いる。
As a first typical application example, when photographing a subject surface such as an A4 page or a large poster, if the photographing surface is not parallel to the subject surface, the image is distorted. Is also referred to as “tilt distortion”.) There is a technique for improving the legibility of the acquired document image information by correcting the distortion. Here, it is required that the desired range of the subject is photographed in the image for which the “distortion distortion” is to be corrected. That is, the user needs to photograph at least one of the plurality of photographed images so as to include a desired range of the subject. Therefore, there is a demand for an interface (I / F) capable of selecting an object for correcting a tilt distortion among a plurality of captured images, and an interface for prompting a user to pay due attention at the time of capturing.

【0004】また、第二の応用例としては、携帯可能な
画像入力装置で新聞紙等の大面積の紙面情報やパネルや
壁に描かれた絵柄等を分割撮影して、得られた複数枚の
画像を貼り合わせることにより1枚の合成画像を作成す
るものがある。すなわち、CCD(Charge Coupled Dev
ice)に代表される撮像素子の画素数増加に伴い、デジ
タルカメラの解像度は近年向上しているが、上記のよう
に細かいパターンを有する被写体、すなわち高い周波数
成分を含む被写体を撮影して電子化するにはまだまだ解
像度が不足する。従って、画像を貼り合わせることによ
り擬似的に高精細画像を作成して、デジタルカメラの解
像度不足を補うというアプローチがなされている。
As a second application, a portable image input device is used to divide and photograph a large area of paper information such as newspapers, a picture drawn on a panel or a wall, and obtain a plurality of images. In some cases, one composite image is created by pasting images together. That is, a CCD (Charge Coupled Dev
With the increase in the number of pixels of an imaging device represented by ice), the resolution of a digital camera has been improved in recent years. However, a subject having a fine pattern as described above, that is, a subject containing a high frequency component is photographed and digitized. Resolution is still insufficient. Therefore, an approach has been taken in which a high-definition image is artificially created by pasting images together to compensate for the lack of resolution of a digital camera.

【0005】このような応用例は、被写体が平面状とみ
なせる場合にアフィン変換や射影変換のような幾何補正
式を用いて、被写体の一部分を分割撮影した画像を貼り
合わせる技術であり、各分割画像の被写体像を基準とな
る画像における被写体の見え方に変換して貼り合わせる
というものである。なお、このような技術の概要は文献
『コンピュータビジョン−技術評論と将来展望−』(松
山隆司ほか、新技術コミュニケーションズ)に記載され
ている。
An example of such an application is a technique in which when a subject can be regarded as a plane, an image obtained by dividing and photographing a part of the subject by using a geometric correction formula such as affine transformation or projective transformation is used. In this method, a subject image of an image is converted into the appearance of the subject in a reference image and attached. An outline of such a technology is described in the document "Computer Vision-Technical Review and Future Perspective-" (Takashi Matsuyama et al., New Technology Communications).

【0006】しかしながら、このような応用例におい
て、基準となる画像において被写体像にあおり歪みが生
じていた場合には、貼り合わせた合成画像においてもあ
おり歪みが含まれてしまうという問題がある。すなわ
ち、分割的に撮影して得られた複数の画像のうち、どの
画像を基準にして貼り合わせを実行するかによって、生
成される合成画像におけるあおり歪みの大きさが変化す
る。この問題について図1を参照しつつ説明する。
However, in such an application example, if the subject image is distorted in the reference image, there is a problem that the combined image includes the distorted distortion. That is, the magnitude of the tilt distortion in the generated composite image changes depending on which image is used as a reference among a plurality of images obtained by dividing and photographing. This problem will be described with reference to FIG.

【0007】図1(a)に示されるように、例えばある
被写体面PLを三方向D〜Dから撮影し、それぞれ
画像IM1〜IM3が得られたとき、被写体面PLに対
して左斜め方向から撮影して得られた画像IM1を基準
にしてこれら三つの画像を貼り合わせると、図1(b)
に示されるような合成画像IMAが得られる。また、ほ
ぼ正面方向から撮影した画像IM2を基準にして同様に
貼り合わせると、図1(c)に示されるような合成画像
IMBが得られる。ここで、図1(b)及び図1(c)
に示されるように、上記の両合成画像IMA,IMB
は、あおり歪みの大きさが大きく異なる。
As shown in FIG. 1A, for example, an object plane PL is photographed in three directions D 1 to D 3, and when images IM 1 to IM 3 are obtained, respectively, when the images IM 1 to IM 3 are obtained, the object plane PL is slanted to the left with respect to the object plane PL. When these three images are pasted together based on the image IM1 obtained by photographing from the direction, FIG.
A composite image IMA as shown in FIG. Further, when the same image is pasted on the basis of the image IM2 photographed substantially from the front direction, a composite image IMB as shown in FIG. 1C is obtained. Here, FIGS. 1B and 1C
As shown in FIG.
Are significantly different in the magnitude of the tilt distortion.

【0008】従って、撮影した複数枚の画像のうち少な
くとも1枚は被写体面PLにほぼ正対して撮影されたも
のであることが望まれるため、撮影された複数枚の画像
のうち貼り合わせの際に基準とする画像を選択するイン
タフェース、及びその貼り合わせの基準となる画像を撮
影する時にユーザに注意を促すインタフェースが望まれ
ている。
[0008] Therefore, it is desired that at least one of the plurality of captured images is one that is captured almost directly on the subject plane PL. There is a demand for an interface for selecting an image to be used as a reference and an interface for calling a user's attention when capturing an image serving as a reference for bonding.

【0009】[0009]

【発明が解決しようとする課題】本発明は、上述の点に
鑑みてなされたものであり、歪みを補正してより適正な
画像を容易に得るための画像処理方法と画像処理装置、
及び該画像処理方法を実現するためのコンピュータ読み
取り可能な記録媒体を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and an image processing method and an image processing apparatus for easily obtaining a more appropriate image by correcting distortion.
And a computer-readable recording medium for implementing the image processing method.

【0010】[0010]

【課題を解決するための手段】上記の目的は、被写体に
対して少なくとも一部が重複するよう複数の方向から撮
影された画像の歪みを補正する画像処理方法であって、
撮影により得られた複数の画像内における重複部分の対
応関係を特定する第一のステップと、複数の画像の中か
ら歪みを補正する対象を選択する第二のステップと、第
一のステップにおいて特定された対応関係に応じて、第
二のステップで選択された画像の歪みを補正する第三の
ステップとを有することを特徴とする画像処理方法を提
供することにより達成される。このような手段によれ
ば、歪みを補正する対象が選択されるため、適正な画像
を得るために最適な画像を補正対象とすることができ
る。
SUMMARY OF THE INVENTION The object of the present invention is to provide an image processing method for correcting a distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject.
A first step of specifying a correspondence relationship between overlapping portions in a plurality of images obtained by shooting, a second step of selecting a target for correcting distortion from the plurality of images, and a first step And a third step of correcting distortion of the image selected in the second step according to the determined correspondence. According to such means, a target for which distortion is to be corrected is selected, so that an optimal image for obtaining an appropriate image can be set as a correction target.

【0011】ここで、第二のステップでは、画像内にお
いて被写体が占める領域の広さに応じて補正の対象を自
動的に選択するようにしてもよい。このような手段によ
れば、必要とされる書画情報量が最も豊富な画像の歪み
を自動的に補正することができる。
Here, in the second step, an object to be corrected may be automatically selected according to the size of the area occupied by the subject in the image. According to such a means, it is possible to automatically correct the distortion of an image that requires the largest amount of document information.

【0012】また、第二のステップでは、画像内におい
て検出される直線状パターンの向きに応じて補正の対象
を自動的に選択するようにしてもよい。このような手段
によれば、被写体にほぼ正対した位置から撮影された画
像を自動的に補正対象とすることができる。
In the second step, the correction target may be automatically selected according to the direction of the linear pattern detected in the image. According to such means, an image photographed from a position substantially facing the subject can be automatically set as a correction target.

【0013】また、第二のステップでは、第一のステッ
プにおいて特定された対応関係に応じて補正の対象を自
動的に選択するようにすれば、精度の高い補正を確実に
実行することができる。
[0013] In the second step, if the object to be corrected is automatically selected according to the correspondence specified in the first step, highly accurate correction can be executed reliably. .

【0014】また、第二のステップでは、撮影毎に検出
された被写体の向きに応じて補正の対象を自動的に選択
するようにすれば、被写体に対してほぼ正対した位置か
ら撮影された画像を自動的に補正対象とすることができ
る。
In the second step, if the object to be corrected is automatically selected in accordance with the direction of the subject detected for each photographing, the photographing is performed from a position almost directly facing the subject. Images can be automatically corrected.

【0015】また、本発明の目的は、被写体に対して少
なくとも一部が重複するよう複数の方向から撮影された
画像の歪みを補正する画像処理方法であって、撮影によ
り得られた複数の画像内における重複部分の対応関係を
それぞれ特定する第一のステップと、複数の画像の中か
ら歪みが最も少ない画像を選択する第二のステップと、
第一のステップにおいて特定された対応関係に応じて、
複数の画像の歪みをそれぞれ補正し、第二のステップに
おいて選択された画像と合成する第三のステップとを有
することを特徴とする画像処理方法を提供することによ
り達成される。このような手段によれば、歪みが最も少
ない画像を基準に合成画像が生成されるため、より適正
な合成画像を得ることができる。
It is another object of the present invention to provide an image processing method for correcting distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject. A first step of respectively specifying the correspondence of the overlapping portions in the, and a second step of selecting an image with the least distortion from a plurality of images,
Depending on the correspondence identified in the first step,
This is achieved by providing an image processing method, comprising: a third step of correcting distortions of a plurality of images, respectively, and combining the images selected in the second step with the images. According to such means, a composite image is generated based on the image with the least distortion, so that a more appropriate composite image can be obtained.

【0016】また、本発明の目的は、被写体に対して少
なくとも一部が重複するよう複数の方向から撮影された
画像の歪みを補正する画像処理装置であって、撮影によ
り得られた複数の画像内における重複部分の対応関係を
検出する対応検出手段と、複数の画像の中から歪みが最
も少ない画像を選択する選択手段と、対応検出手段にお
いて検出された対応関係に応じて、複数の画像の歪みを
それぞれ補正し、選択手段において選択された画像と合
成する画像合成手段とを備えたことを特徴とする画像処
理装置を提供することにより達成される。
It is another object of the present invention to provide an image processing apparatus for correcting distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject. Correspondence detecting means for detecting the correspondence of the overlapping portions in the image, selecting means for selecting an image having the least distortion from the plurality of images, and correspondence between the plurality of images according to the correspondence detected by the correspondence detecting means. This is attained by providing an image processing apparatus comprising: an image synthesizing unit that corrects each of the distortions and synthesizes the image selected by the selecting unit with the image.

【0017】また、本発明の目的は、被写体に対して少
なくとも一部が重複するよう複数の方向から撮影された
画像の歪みを補正する画像処理装置であって、これから
撮影する複数の画像のうち、歪みを補正する際の基準と
する画像を予め選択する選択手段と、選択手段によりな
された選択に応じて、次に撮影する画像が基準とされる
画像となることをユーザへ通知する通知手段と、撮影す
ることにより得られた基準とされる画像と他の画像との
間における重複部分の対応関係を検出する対応検出手段
と、対応検出手段により検出された対応関係に応じて、
基準とされる画像の歪みを補正する補正手段とを備えた
ことを特徴とする画像処理装置を提供することにより達
成される。このような手段によれば、歪みを補正する際
の基準とする画像の撮影において、ユーザへ注意を喚起
できる。
It is another object of the present invention to provide an image processing apparatus for correcting distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject. Selecting means for pre-selecting an image to be used as a reference when correcting distortion, and notifying means for notifying to a user that an image to be taken next will be a reference image in accordance with the selection made by the selecting means And, corresponding detection means for detecting the correspondence of overlapping portions between the reference image obtained by shooting and the other image, according to the correspondence detected by the correspondence detection means,
This is attained by providing an image processing apparatus comprising: a correction unit that corrects distortion of an image used as a reference. According to such means, it is possible to call the user's attention in photographing an image that is used as a reference when correcting distortion.

【0018】また、本発明の目的は、被写体に対して少
なくとも一部が重複するよう複数の方向から撮影された
画像の歪みを補正する画像処理装置であって、撮影によ
り得られた複数の画像内における重複部分の対応関係を
検出する対応検出手段と、複数の画像の中から歪みを補
正する対象を選択する選択手段と、対応検出手段により
検出された対応関係に応じて、選択手段により選択され
た画像の歪みを補正する補正手段とを備えたことを特徴
とする画像処理装置を提供することにより達成される。
It is another object of the present invention to provide an image processing apparatus for correcting distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject. Correspondence detecting means for detecting a correspondence relation between overlapping portions in the image, selecting means for selecting an object for which distortion is to be corrected from among a plurality of images, and selection by the selection means in accordance with the correspondence relation detected by the correspondence detection means And a correcting means for correcting the distortion of the image obtained.

【0019】また、本発明の目的は、被写体に対して少
なくとも一部が重複するよう複数の方向から撮影された
画像の歪みを補正する画像処理装置であって、被写体を
同時に撮影する複数の光学手段と、複数の光学手段で撮
影される画像のうち補正の対象とする画像を選択する選
択手段と、選択手段により選択された画像と他の画像と
の間における重複部分の対応関係を検出する対応検出手
段と、対応検出手段により検出された対応関係に応じ
て、選択された画像の歪みを補正する補正手段とを備え
たことを特徴とする画像処理装置を提供することにより
達成される。このような手段によれば、一度の撮影によ
り複数の方向から撮影された複数の被写体像を得ること
ができるため、歪みを補正するために必要とされる撮影
回数を減らすことができる。
Another object of the present invention is to provide an image processing apparatus for correcting distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with the object. Means, a selecting means for selecting an image to be corrected from among the images taken by the plurality of optical means, and detecting a correspondence relationship of an overlapping portion between the image selected by the selecting means and another image This is attained by providing an image processing apparatus comprising: a correspondence detection unit; and a correction unit that corrects a distortion of a selected image in accordance with the correspondence detected by the correspondence detection unit. According to such a means, since a plurality of subject images photographed from a plurality of directions can be obtained by one photographing, the number of photographing times required to correct the distortion can be reduced.

【0020】ここで、選択手段は、画像内において被写
体が占める領域の広さに応じて補正の対象を自動的に選
択するものとし、あるいは、画像内において検出される
直線状パターンの向きに応じて補正の対象を自動的に選
択するものとすることができる。また、選択手段は、対
応検出手段により検出された対応関係に応じて補正の対
象を自動的に選択するものとし、あるいは、撮影毎に検
出された被写体の向きに応じて補正の対象を自動的に選
択するものとしてもよい。
Here, the selecting means automatically selects an object to be corrected in accordance with the size of the area occupied by the subject in the image, or selects an object in accordance with the direction of the linear pattern detected in the image. In this case, the correction target is automatically selected. In addition, the selecting means automatically selects a correction target according to the correspondence detected by the correspondence detection means, or automatically selects a correction target according to the direction of the subject detected for each photographing. May be selected.

【0021】また、本発明の目的は、被写体に対して少
なくとも一部が重複するよう複数の方向から撮影された
画像の歪みをコンピュータにより補正するためのプログ
ラムを記録したコンピュータ読み取り可能な記録媒体で
あって、該プログラムは、コンピュータに対し、撮影に
より得られた複数の画像内における重複部分の対応関係
を特定させ、複数の画像の中から歪みを補正する対象を
選択させ、特定された対応関係に応じて、選択された画
像の歪みを補正させることを特徴とするコンピュータ読
み取り可能な記録媒体を提供することにより達成され
る。このような手段によれば、適正な画像を得るために
最適な画像を容易に補正対象とすることができる。
It is another object of the present invention to provide a computer-readable recording medium which stores a program for correcting a distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps a subject. The program causes the computer to specify a correspondence relationship between overlapping portions in a plurality of images obtained by shooting, select a target to correct distortion from among the plurality of images, and specify the specified correspondence relationship. The computer-readable recording medium is characterized in that the distortion of the selected image is corrected according to the following. According to such means, an optimal image for obtaining an appropriate image can be easily set as a correction target.

【0022】また、本発明の目的は、被写体に対して少
なくとも一部が重複するよう複数の方向から撮影された
画像の歪みをコンピュータにより補正するためのプログ
ラムを記録したコンピュータ読み取り可能な記録媒体で
あって、該プログラムは、コンピュータに対し、撮影に
より得られた複数の画像内における重複部分の対応関係
をそれぞれ特定させ、複数の画像の中から歪みが最も少
ない画像を選択させ、特定された対応関係に応じて、複
数の画像の歪みをそれぞれ補正させて、選択された画像
と合成させることを特徴とするコンピュータ読み取り可
能な記録媒体を提供することにより達成される。このよ
うな手段によれば、より適正な合成画像を容易に得るこ
とができる。
It is another object of the present invention to provide a computer-readable recording medium on which a program for correcting a distortion of an image photographed from a plurality of directions by a computer so as to at least partially overlap the subject is recorded. Then, the program causes the computer to specify the correspondence between overlapping portions in the plurality of images obtained by shooting, select an image with the least distortion from among the plurality of images, and specify the specified correspondence. This is achieved by providing a computer-readable recording medium characterized in that distortions of a plurality of images are respectively corrected according to the relationship and combined with a selected image. According to such means, a more appropriate synthesized image can be easily obtained.

【0023】[0023]

【発明の実施の形態】以下において、本発明の実施の形
態を図面を参照して詳しく説明する。なお、図中同一符
号は同一又は相当部分を示す。 [実施の形態1]図2は、本発明の実施の形態1に係る
画像処理方法及び画像処理装置を説明するための図であ
る。ここで、本実施の形態においては、図2に示される
ように、画像処理装置1により被写体面PLの少なくと
も一部が重複するよう2枚の画像3,4が撮影され、こ
れら2枚の画像3,4のうちいずれか一方、例えば画像
3のあおり歪みを補正して最終的に歪み補正画像5を得
るという例により説明される。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding parts. [First Embodiment] FIG. 2 is a diagram for explaining an image processing method and an image processing apparatus according to a first embodiment of the present invention. Here, in the present embodiment, as shown in FIG. 2, two images 3 and 4 are photographed by image processing device 1 so that at least a part of subject plane PL overlaps, and these two images are taken. An example will be described in which one of the images 3 and 4 is corrected, for example, the tilt distortion of the image 3 is corrected to finally obtain the distortion corrected image 5.

【0024】図3は、本発明の実施の形態1に係る画像
処理装置1の構成を示す図である。図3に示されるよう
に、画像処理装置1は撮像部11と、信号処理部12
と、メモリ制御部13と、主制御部14と、フレームメ
モリ15と、インタフェース16と、表示部17と、外
部記憶部18と、撮影モード設定部19と、基準画像設
定部20と、対応検出部21と、画像歪み補正部22と
を備える。そして、撮像部11はレンズ111と、絞り
112と、シャッター113と、光電変換素子114
と、前処理部115とを含む。
FIG. 3 is a diagram showing a configuration of the image processing apparatus 1 according to the first embodiment of the present invention. As shown in FIG. 3, the image processing device 1 includes an imaging unit 11 and a signal processing unit 12
A memory control unit 13, a main control unit 14, a frame memory 15, an interface 16, a display unit 17, an external storage unit 18, a shooting mode setting unit 19, a reference image setting unit 20, A section 21 and an image distortion correction section 22 are provided. Then, the imaging unit 11 includes a lens 111, an aperture 112, a shutter 113, and a photoelectric conversion element 114.
And a preprocessing unit 115.

【0025】ここで、信号処理部12は、前処理部11
5とメモリ制御部13、主制御部14及びインタフェー
ス16に接続される。また、メモリ制御部13はさらに
フレームメモリ15と基準画像設定部20に接続され
る。主制御部14はさらに、メモリ制御部13と撮影モ
ード設定部19及び基準画像設定部20に接続される。
Here, the signal processing unit 12 includes a pre-processing unit 11
5 and the memory control unit 13, the main control unit 14, and the interface 16. Further, the memory control unit 13 is further connected to the frame memory 15 and the reference image setting unit 20. The main control unit 14 is further connected to the memory control unit 13, the shooting mode setting unit 19, and the reference image setting unit 20.

【0026】またフレームメモリ15は、メモリ制御部
13と対応検出部21及び画像歪み補正部22に接続さ
れる。また、インタフェース16はさらに表示部17及
び外部記憶部18に接続される。そして、基準画像設定
部20はさらに画像歪み補正部22に接続される。ま
た、対応検出部21はさらに画像歪み補正部22に接続
される。
The frame memory 15 is connected to the memory control unit 13, the correspondence detection unit 21, and the image distortion correction unit 22. The interface 16 is further connected to a display unit 17 and an external storage unit 18. Then, the reference image setting unit 20 is further connected to the image distortion correction unit 22. The correspondence detection unit 21 is further connected to the image distortion correction unit 22.

【0027】一方、撮像部11においては、レンズ11
1と絞り112、シャッター113、光電変換素子11
4が光軸上でこの順に配置され、光電変換素子114は
前処理部115に接続される。
On the other hand, in the imaging section 11, the lens 11
1, aperture 112, shutter 113, photoelectric conversion element 11
4 are arranged in this order on the optical axis, and the photoelectric conversion element 114 is connected to the preprocessing unit 115.

【0028】上記において、撮影モード設定部19によ
り撮影モードが切り替えられ、基準画像設定部20であ
おり歪みを補正する画像が設定される。また対応検出部
21は、少なくとも一部が相互に重複した二つの画像に
おいて、両画像間の特徴点及び対応点を抽出する。そし
て、画像歪み補正部22は対応検出部21から供給され
た信号に応じて、撮影した画像におけるあおり歪みを補
正する。なお、上記における基準画像の設定や対応検出
部21の動作、あおり歪みの補正については、後におい
て詳しく説明する。
In the above, the photographing mode is switched by the photographing mode setting section 19, and the image to be corrected by the reference image setting section 20 is set. In addition, the correspondence detection unit 21 extracts a feature point and a corresponding point between two images at least partially overlapping each other. Then, the image distortion correction unit 22 corrects the tilt distortion in the captured image according to the signal supplied from the correspondence detection unit 21. The setting of the reference image, the operation of the correspondence detection unit 21, and the correction of the tilt distortion will be described later in detail.

【0029】また、撮像部11の光電変換素子114に
は例えばCCDが使用される。また、前処理部115に
はプリアンプや自動利得制御回路(Auto Gain Control
−AGC)等からなるアナログ信号処理部やアナログ−デ
ジタル変換器(A/D変換器)が備えられ、光電変換素
子114より出力されたアナログ映像信号に対して、増
幅やクランプ等の前処理が施された後、上記アナログ映
像信号がデジタル映像信号に変換される。
Further, for example, a CCD is used as the photoelectric conversion element 114 of the imaging unit 11. The pre-processing unit 115 includes a preamplifier and an automatic gain control circuit (Auto Gain Control circuit).
-AGC) and an analog-to-digital converter (A / D converter). The analog video signal output from the photoelectric conversion element 114 is subjected to pre-processing such as amplification and clamping. After that, the analog video signal is converted into a digital video signal.

【0030】また、信号処理部12はデジタル信号処理
プロセッサ(DSPプロセッサ)等により構成され、撮像
部11において得られたデジタル映像信号に対して色分
解、ホワイトバランス調整、γ補正など種々の画像処理
を施す。また、メモリ制御部13はこのようにして処理
された画像信号をフレームメモリ15へ格納したり、逆
にフレームメモリ15に格納された画像信号を読み出
す。また、主制御部14はマイコンなどにより構成され
る。また、フレームメモリ15は少なくとも2枚の画像
を格納し、一般的にはVRAM、SRAM、DRAM等の半導体メモ
リが使用される。
The signal processing unit 12 is constituted by a digital signal processor (DSP processor) or the like, and performs various image processing such as color separation, white balance adjustment, and γ correction on the digital video signal obtained by the imaging unit 11. Is applied. Further, the memory control unit 13 stores the image signal processed in this manner in the frame memory 15 and reads out the image signal stored in the frame memory 15 on the contrary. The main control unit 14 is configured by a microcomputer or the like. The frame memory 15 stores at least two images, and a semiconductor memory such as a VRAM, an SRAM, or a DRAM is generally used.

【0031】ここで、フレームメモリ15から読み出さ
れた画像信号は、信号処理部12において画像圧縮等の
信号処理が施された後、インタフェース16を介して外
部記憶部18に保存される。この外部記憶部18はイン
タフェース16を介して供給される画像信号などの種々
の信号を読み書きし、ICメモリカードや光磁気ディス
ク等により構成される。ここで外部記憶部18として、
モデムカードやISDNカードが使用されれば、ネット
ワークを経由して画像信号を直接遠隔地の記録媒体に送
信することもできる。
Here, the image signal read from the frame memory 15 is subjected to signal processing such as image compression in the signal processing unit 12 and then stored in the external storage unit 18 via the interface 16. The external storage unit 18 reads and writes various signals such as image signals supplied through the interface 16, and is configured by an IC memory card, a magneto-optical disk, or the like. Here, as the external storage unit 18,
If a modem card or an ISDN card is used, an image signal can be directly transmitted to a remote recording medium via a network.

【0032】また、逆に外部記憶部18に記録された画
像信号の読み出しは、インタフェース16を介して信号
処理部12へ画像信号が送信され、信号処理部12にお
いて画像伸長が施されることによって行われる。一方、
外部記憶部18及びフレームメモリ15から読み出され
た画像信号の表示は、信号処理部12において画像信号
に対してデジタル−アナログ変換(D/A変換)や増幅
などの信号処理を施した後、インタフェース16を介し
て表示部17に送信することにより行われる。ここで表
示部17は、インタフェース16を介して供給された画
像信号に応じて画像を表示し、例えば画像処理装置1の
筐体に設置された液晶表示装置より構成される。
Conversely, reading of the image signal recorded in the external storage unit 18 is performed by transmitting the image signal to the signal processing unit 12 via the interface 16 and performing image expansion in the signal processing unit 12. Done. on the other hand,
The display of the image signal read from the external storage unit 18 and the frame memory 15 is performed by performing signal processing such as digital-analog conversion (D / A conversion) and amplification on the image signal in the signal processing unit 12. This is performed by transmitting the data to the display unit 17 via the interface 16. Here, the display unit 17 displays an image according to an image signal supplied via the interface 16 and is configured by, for example, a liquid crystal display device installed in a housing of the image processing apparatus 1.

【0033】図4は、図3に示された画像処理装置を示
す斜視図である。図4に示されるように、本実施の形態
に係る画像処理装置1は電源スイッチ101と、シャッ
ター102と、ファインダ103と、撮影モード設定部
19に撮影モードを設定するための撮影モード設定キー
104と、表示部17に映された画像を上方向へスクロ
ールするための上方向スクロールキー201と、表示部
17に映された画像を下方向へスクロールするための下
方向スクロールキー202と、決定キー203とを含
む。
FIG. 4 is a perspective view showing the image processing apparatus shown in FIG. As shown in FIG. 4, the image processing apparatus 1 according to the present embodiment includes a power switch 101, a shutter 102, a finder 103, and a shooting mode setting key 104 for setting a shooting mode in the shooting mode setting unit 19. An upward scroll key 201 for scrolling an image projected on the display unit 17 upward, a downward scroll key 202 for scrolling an image projected on the display unit 17 downward, and an enter key 203.

【0034】以下において、上記のような構成を有する
画像処理装置の動作を、図4と図5に示されたフローチ
ャートとを参照しつつ説明する。まず最初に、電源スイ
ッチ101を切り替えて画像処理装置1を起動し、撮影
モードの選択を行う。ここで、上記撮影モードは通常の
スナップ写真を撮影する通常モードと、撮影した画像の
あおり歪みを補正した画像を生成するあおり補正モード
よりなる。そして、この撮影モードの選択は、ユーザが
撮影モード設定キー104を操作することによりなされ
る。なお撮影モード設定部19として、画像処理装置1
の本体には撮影モード設定キー104が設けられる。但
し、撮影モード設定部19は、本体とは別個に設けられ
るハードウェア又はソフトウェア等で構成しても良い。
The operation of the image processing apparatus having the above configuration will be described below with reference to the flowcharts shown in FIGS. First, the image processing apparatus 1 is started by switching the power switch 101, and the photographing mode is selected. Here, the shooting modes include a normal mode for shooting a normal snapshot and a tilt correction mode for generating an image in which tilt distortion of a shot image is corrected. The photographing mode is selected by operating the photographing mode setting key 104 by the user. Note that the image processing apparatus 1
Is provided with a shooting mode setting key 104. However, the shooting mode setting unit 19 may be configured by hardware or software provided separately from the main body.

【0035】そして図5に示されるように、ステップS
1においてあおり補正モードを選択するか否か判断さ
れ、あおり補正モードが選択されず通常モードが選択さ
れると、ステップS10へ進みユーザにより所望の被写
体のスナップ写真が撮影される。
Then, as shown in FIG.
In step 1, it is determined whether or not the tilt correction mode is to be selected. If the tilt correction mode is not selected and the normal mode is selected, the process proceeds to step S10, where the user takes a snapshot of a desired subject.

【0036】一方、ステップS1においてあおり補正モ
ードが選択されると、ステップS2へ進む。そして、ユ
ーザは撮像部11により被写体面PLを少なくとも二枚
撮影し、画像処理装置1には被写体像が取り込まれる。
なお、このとき互いに被写体像の一部が重なり合うよう
に各々の画像が撮影される必要がある。
On the other hand, when the tilt correction mode is selected in step S1, the process proceeds to step S2. Then, the user captures at least two images of the object plane PL by the imaging unit 11, and the image processing apparatus 1 captures the object image.
At this time, each image needs to be photographed so that a part of the subject image overlaps with each other.

【0037】次に、ステップS3において被写体像の入
力が終了したか否かが判断され、終了していない場合に
はステップS2へ戻り、さらに被写体像の入力が継続さ
れる。一方、ユーザによる撮影終了の指示により被写体
像の入力を終了した場合には、ステップS4へ進む。な
お、上記指示は撮影モード設定キー104をもう一度押
して通常モードに切り替えることによりなされる他、撮
影終了を指示するためのスイッチを別途設けてもよい。
Next, in step S3, it is determined whether or not the input of the subject image has been completed. If the input has not been completed, the process returns to step S2, and the input of the subject image is continued. On the other hand, if the input of the subject image has been completed by the user's instruction to end the shooting, the process proceeds to step S4. Note that the above instruction is performed by pressing the shooting mode setting key 104 again to switch to the normal mode, and a switch for instructing the end of shooting may be separately provided.

【0038】また、撮影中においては図6に示されるよ
うに、表示部17に例えば「1枚目」等のような現在の
撮影枚数と、「撮影モード設定キーを押すと終了」等の
ような撮影終了方法とをオーバーレイ表示しても良い。
During shooting, as shown in FIG. 6, the display unit 17 displays the current number of shots, such as "first shot", and a message, such as "pressing a shooting mode setting key to end". An appropriate shooting end method may be displayed as an overlay.

【0039】そして、上記のように撮影が終了すると、
ステップS4以下においてあおり歪みを補正する動作に
入るが、まずステップS4においてどの画像のあおり歪
みを補正するかを選択して該画像を設定する。なお、こ
の時選択された画像は、以下において「基準画像」とも
呼ぶ。そして、この基準画像の設定は基準画像設定部2
0において行われる。以下において、基準画像設定部2
0の構成及び動作を詳しく説明する。
When the photographing is completed as described above,
In step S4 and subsequent steps, the operation for correcting the tilt distortion is started. First, in step S4, which image is to be corrected for the tilt distortion is set. Note that the image selected at this time is also referred to as a “reference image” below. The setting of the reference image is performed by the reference image setting unit 2.
0. In the following, the reference image setting unit 2
0 will be described in detail.

【0040】図7は、図3に示された基準画像設定部2
0のレイアウトを示す図である。図7に示されるよう
に、基準画像設定部20は上方向スクロールキー201
と、下方向スクロールキー202及び決定キー203を
含む。そして、図7に示されるようにステップS3にお
いてユーザにより撮影終了の指示がなされると、表示部
17において「基準画像設定」という文字がオーバレイ
表示され、ユーザに基準画像を選択するよう指示され
る。
FIG. 7 shows the reference image setting unit 2 shown in FIG.
FIG. 7 is a diagram showing a layout of No. 0; As shown in FIG. 7, the reference image setting unit 20
And a down scroll key 202 and an enter key 203. Then, as shown in FIG. 7, when the user gives an instruction to end shooting in step S3, the characters "reference image setting" are overlaid on the display unit 17, and the user is instructed to select the reference image. .

【0041】するとユーザにより、上方向スクロールキ
ー201や下方向スクロールキー202が操作され、上
記ステップS2において撮影された画像が順次切り替え
つつ表示される。なお、上方向スクロールキー201を
押すことにより、現在表示されている画像の1つ前に撮
影された画像が表示され、また下方向スクロールキー2
02を押すことにより、現在表示されている画像の1つ
後に撮影した画像が表示される。そして、基準画像とし
て選択される画像が表示部17に表示されている状態で
決定キー203を押すと、その時点で表示されている画
像が基準画像として決定される。
Then, the user operates the upward scroll key 201 and the downward scroll key 202, and the images captured in step S2 are displayed while being sequentially switched. By pressing the upward scroll key 201, an image taken immediately before the currently displayed image is displayed.
By pressing 02, an image taken immediately after the currently displayed image is displayed. When the enter key 203 is pressed in a state where the image selected as the reference image is displayed on the display unit 17, the image displayed at that time is determined as the reference image.

【0042】そして上記基準画像としては、撮影された
複数の画像の中で被写体面PLが最も広い領域に渡り写
っており、かつ、撮影時における撮像面の被写体面に対
してなす角ができるだけ小さい画像が、ユーザにより選
択される。
As the reference image, the subject plane PL is captured over the widest region in the plurality of captured images, and the angle between the imaging plane and the subject plane during photography is as small as possible. The image is selected by the user.

【0043】ここで、被写体領域と上記傾斜角とを装置
内部で計算し、該計算の結果に応じてあおり歪みを補正
する対象、すなわち基準画像として最適な画像を自動的
に選択するようにすることも考えられる。図8は、この
ような動作を実現する画像処理装置2の構成を示す図で
ある。図8に示されるように、画像処理装置2には図3
に示された画像処理装置1に含まれた基準画像設定部2
0の代わりに被写体領域決定部23が備えられる。
Here, the object area and the above-mentioned inclination angle are calculated inside the apparatus, and an object to be corrected for the tilt distortion, that is, an optimum image as a reference image is automatically selected according to the calculation result. It is also possible. FIG. 8 is a diagram illustrating a configuration of the image processing apparatus 2 that realizes such an operation. As shown in FIG. 8, the image processing apparatus 2 includes
Reference image setting unit 2 included in image processing apparatus 1 shown in FIG.
A subject area determination unit 23 is provided instead of 0.

【0044】そして、上記被写体領域決定部23は、撮
影した画像において被写体が占める領域を検出する処理
を行い、例えば文献『画像の処理と認識』(安居院猛・
長尾智晴共著、昭晃堂)に記載されているように、
(a)領域成長法や領域分割法のように画像上でクラス
タリングを行う方法、(b)ヒストグラムによる領域分
割など、特徴空間上でクラスタリングを行う方法、
(c)輪郭線追跡などの画像中のエッジを用いる方法、
(d)テクスチャ解析、などの領域分割方法が適用され
る。但し、被写体面が矩形である場合には、画像上での
被写体の四隅の頂点座標が外部入力されることにより、
被写体の領域が一意に決定される。
The subject area determination unit 23 performs processing for detecting the area occupied by the subject in the captured image. For example, the document “Image Processing and Recognition” (Takeshi Aiin
As described in Tomoharu Nagao, Shokodo)
(A) a method of performing clustering on an image such as a region growing method or a region division method, (b) a method of performing clustering on a feature space such as region division by a histogram,
(C) a method using edges in an image, such as contour tracing,
(D) An area division method such as texture analysis is applied. However, when the object surface is rectangular, the vertex coordinates of the four corners of the object on the image are input externally,
The region of the subject is uniquely determined.

【0045】このように被写体領域決定部23で得られ
た被写体の領域を示すデータは、画像歪み補正部22へ
供給され、該領域が最も広い画像が画像歪み補正部22
で選択される。さらに画像歪み補正部22では、以下に
おいて詳述するように、撮像面の被写体面PLに対して
なす角度が計算されるため、上記領域が最も広い画像が
複数ある場合、すなわち例えば被写体面の全体が写って
いる画像が複数ある場合には、上記角度が最も小さい画
像が最終的に基準画像として選択される。
The data indicating the area of the subject obtained by the subject area determining section 23 is supplied to the image distortion correcting section 22, and the image having the widest area is stored in the image distortion correcting section 22.
Is selected. Further, as will be described in detail below, the image distortion correction unit 22 calculates the angle formed by the imaging plane with respect to the subject plane PL. In the case where there are a plurality of images showing, the image having the smallest angle is finally selected as the reference image.

【0046】なお、以上のような自動的に基準画像を選
択する機能は、以下におけるいずれの実施の形態におい
ても同様に適用できる。
The function of automatically selecting the reference image as described above can be similarly applied to any of the following embodiments.

【0047】次にステップS5へ進み、上記のように決
定された基準画像の中において特徴点が検出され、該基
準画像の少なくとも一部において重複する画像(以下に
おいて、「参照画像」とも呼ぶ。)の中においては上記
特徴点と同一箇所を示す対応点が検出される。このよう
な特徴点と対応点の検出は、図3に示された対応検出部
21により行われる。そこで、以下においてこの対応検
出部21の構成及び動作を詳しく説明する。
Next, proceeding to step S5, feature points are detected in the reference image determined as described above, and an image overlapping at least a part of the reference image (hereinafter, also referred to as a "reference image"). In the parentheses, corresponding points indicating the same locations as the above feature points are detected. The detection of such feature points and corresponding points is performed by the correspondence detection unit 21 shown in FIG. Therefore, the configuration and operation of the correspondence detection unit 21 will be described in detail below.

【0048】対応検出部21は、上記のように互いに重
複した領域を持つ2枚の画像において、撮影した同一の
部分を検出するものである。そして、ここでは相関演算
を用いた方法について説明する。
The correspondence detecting section 21 detects the same photographed portion in two images having mutually overlapping areas as described above. Here, a method using a correlation operation will be described.

【0049】図9は、図3に示された対応検出部21の
構成を示す図である。図9に示されるように、対応検出
部21はフレームメモリ15に接続された特徴点設定部
211と、特徴点設定部211及びフレームメモリ15
に接続された相関演算部212とを備える。なお、図3
に示されたフレームメモリ15には、基準画像と参照画
像とが格納されている。
FIG. 9 is a diagram showing a configuration of the correspondence detecting section 21 shown in FIG. As shown in FIG. 9, the correspondence detection unit 21 includes a feature point setting unit 211 connected to the frame memory 15, and a feature point setting unit 211 and the frame memory 15.
And a correlation operation unit 212 connected to. Note that FIG.
The reference image and the reference image are stored in the frame memory 15 shown in FIG.

【0050】ここで特徴点設定部211は、基準画像に
おいて特徴点の位置を決定したのち、その特徴点を中心
とする(2N+1)×(2P+1)個の濃淡パターンを
抽出し、相関窓と呼ばれる領域のデータを作成する。な
お上記特徴点の位置は、角(corner)のように画像の濃
度パターンが特徴的である箇所を抽出することにより決
定される。
Here, the feature point setting section 211 determines the position of the feature point in the reference image, and then extracts (2N + 1) × (2P + 1) gray-scale patterns centered on the feature point and is called a correlation window. Create area data. Note that the positions of the feature points are determined by extracting a portion where the density pattern of the image is characteristic, such as a corner.

【0051】また相関演算部212は、基準画像に基づ
いて作成した相関窓の濃淡パターンとほぼ一致する箇所
を、参照画像内において相関演算を実行することにより
検出し、これを対応点と決定する。ここで、相関演算に
よるブロックマッチングにより対応点を検出する一例に
ついて、図10を参照しつつ説明する。
Further, the correlation calculation unit 212 detects, by executing a correlation calculation in the reference image, a portion that substantially matches the shading pattern of the correlation window created based on the reference image, and determines this as a corresponding point. . Here, an example of detecting a corresponding point by block matching by correlation calculation will be described with reference to FIG.

【0052】図10に示されるように、(2N+1)×
(2P+1)個の濃淡パターンからなる相関窓215,
216のブロックマッチングにおいて、基準画像7内の
座標(xi0,yi0)を有するi番目の特徴点213
と、参照画像9内の座標(x i0+dx,yi0+d
)を有する対応点217の相互相関値Sは、次式
により計算される。
As shown in FIG. 10, (2N + 1) ×
Correlation window 215 composed of (2P + 1) gray-scale patterns
In the block matching of 216, the reference image 7
Coordinates (xi0, Yi0) I-th feature point 213 having
And coordinates (x i0+ Dxi, Yi0+ D
yi), The cross-correlation value S of the corresponding point 217iIs
Is calculated by

【0053】[0053]

【数1】 なお、上記式(1)においてI(x,y)は基準画像
7の座標点(x,y)における濃度を示し、
(x,y)は参照画像9の座標点(x,y)における
濃度を示す。また、/I(x,y)は基準画像7にお
ける相関窓215内の座標点(x,y)を中心とした
(2N+1)×(2P+1)個のパターンにおける平均
濃度を示し、/I(x,y)は参照画像9における相
関窓216内の座標点(x,y)を中心とした(2N+
1)×(2P+1)個のパターンにおける平均濃度を示
す。また、Kは定数を示す。
(Equation 1) In Expression (1), I s (x, y) represents the density at the coordinate point (x, y) of the reference image 7; I
r (x, y) indicates the density at the coordinate point (x, y) of the reference image 9. Also, / I s (x, y) indicates the average density in (2N + 1) × (2P + 1) patterns centered on the coordinate point (x, y) in the correlation window 215 in the reference image 7, and / I r (X, y) is centered on a coordinate point (x, y) in the correlation window 216 in the reference image 9 (2N +
1) Indicates the average density in (2P + 1) patterns. K indicates a constant.

【0054】そして、上記式(1)により各特徴点21
3に対して、相互相関値Sの最大値が予め定められた
閾値以上である点を求めることにより、参照画像9にお
ける対応点217が求められる。なお、相互相関値S
の最大値が閾値以下ならば、対応点は存在しないものと
される。
Then, according to the above equation (1), each feature point 21
Against 3, by obtaining the point the maximum value of the cross-correlation value S i is the threshold value or more predetermined corresponding point 217 in the reference image 9 is obtained. The cross-correlation value S i
Is less than or equal to the threshold value, it is determined that no corresponding point exists.

【0055】このようにして、特徴点と対応点の検出が
終了すると、図5に示されたステップS6において基準
画像7のあおり歪みを補正するパラメータを計算すると
共に、ステップS7において該パラメータを基に画像の
あおり歪みを補正した画像を作成し動作を終了する。な
お以下においては、それぞれ上記パラメータを「歪み補
正パラメータ」、あおり歪みを補正した画像を「歪み補
正画像」ともいう。
When the detection of the feature point and the corresponding point is completed in this way, a parameter for correcting the tilt distortion of the reference image 7 is calculated in step S6 shown in FIG. 5, and based on the parameter in step S7. Then, an image in which the tilt distortion of the image is corrected is created, and the operation is terminated. In the following, each of the above parameters is also referred to as a “distortion correction parameter”, and the image in which the tilt distortion is corrected is also referred to as a “distortion corrected image”.

【0056】そして、上記歪み補正パラメータの計算及
び歪み補正画像の生成は、画像歪み補正部22により実
行される。以下において、この画像歪み補正部22の構
成及び動作について詳しく説明する。
The calculation of the distortion correction parameters and the generation of the distortion corrected image are executed by the image distortion correction unit 22. Hereinafter, the configuration and operation of the image distortion correction unit 22 will be described in detail.

【0057】画像歪み補正部22は、対応検出部21が
検出した特徴点と対応点の関係を用いて、被写体面を正
面から撮影した画像に変換することにより、あおり歪み
を補正する。そして、この画像歪み補正部22の構成は
図11に示される。図11に示されるように、画像歪み
補正部22は3次元演算部221とパラメータ算出部2
22及び座標変換部223を含む。ここで、3次元演算
部221は対応検出部21と基準画像設定部20に接続
され、パラメータ算出部222は3次元演算部221に
接続される。また、座標変換部223はパラメータ算出
部222とフレームメモリ15及び基準画像設定部20
に接続される。
The image distortion correction unit 22 corrects the tilt distortion by converting the object surface into an image photographed from the front using the relationship between the feature points detected by the correspondence detection unit 21 and the corresponding points. The configuration of the image distortion correction unit 22 is shown in FIG. As shown in FIG. 11, the image distortion correction unit 22 includes a three-dimensional calculation unit 221 and a parameter calculation unit 2.
22 and a coordinate conversion unit 223. Here, the three-dimensional calculation unit 221 is connected to the correspondence detection unit 21 and the reference image setting unit 20, and the parameter calculation unit 222 is connected to the three-dimensional calculation unit 221. The coordinate conversion unit 223 includes the parameter calculation unit 222, the frame memory 15, and the reference image setting unit 20.
Connected to.

【0058】以下において、画像歪み補正部22の動作
を説明する。なお以下においては、図12に示されるよ
うに、被写体面PLに対して基準画像7及び参照画像9
が撮影されると共に、撮像部11の光学系は図13に示
されるように、x軸に関しては画像面224の右向きを
正、y軸に関しては画像面224の下向きを正、光軸方
向のz軸に関しては撮像部11の光学中心である原点O
から画像面224へ向かう向きを正、該光学系の焦点距
離はfとされる中心射影モデル(perspectiveprojectio
n model)とされる場合を例として説明する。
The operation of the image distortion correcting section 22 will be described below. In the following, as shown in FIG. 12, the reference image 7 and the reference image 9
As shown in FIG. 13, the optical system of the imaging unit 11 has a positive rightward direction of the image plane 224 with respect to the x-axis, a positive downward direction of the image plane 224 with respect to the y-axis, and z in the optical axis direction. Regarding the axis, the origin O which is the optical center of the imaging unit 11
The direction toward the image plane 224 is positive, and the focal length of the optical system is f.
n model) will be described as an example.

【0059】図11に示された3次元演算部221は、
上記特徴点213と対応点217との関係により、以下
の3次元パラメータを算出する。すなわち、図12に示
される基準画像撮影時を基にした参照画像撮影時におけ
る撮像部11の向きの変化を示す回転行列Rと、基準画
像撮影時を基にした参照画像撮影時における撮像部11
の位置の変化を示す並進運動ベクトルtと、被写体面P
Lの向きを示す法線ベクトルnとが算出される。そし
て、これら3つの3次元パラメータ{R,t,n}を求め
る方法は、主に以下の二つとされる。
The three-dimensional operation unit 221 shown in FIG.
The following three-dimensional parameters are calculated based on the relationship between the feature points 213 and the corresponding points 217. That is, a rotation matrix R indicating a change in the direction of the imaging unit 11 at the time of reference image shooting based on the reference image shooting shown in FIG. 12 and the imaging unit 11 at the time of reference image shooting based on the reference image shooting
Translational motion vector t indicating the change in the position of
A normal vector n indicating the direction of L is calculated. Then, methods for obtaining these three three-dimensional parameters {R, t, n} are mainly the following two methods.

【0060】すなわち第一の方法として、8つ以上の特
徴点と対応点の組により、各画像撮影時のカメラの位置
や姿勢、及び各対応点の3次元座標を計算した上で、被
写体が平面であると仮定して、該得られた3次元座標を
1つの平面に当てはめる方法がある。
That is, as a first method, the position and orientation of the camera at the time of capturing each image and the three-dimensional coordinates of each corresponding point are calculated based on a set of eight or more feature points and corresponding points. Assuming that the plane is a plane, there is a method of applying the obtained three-dimensional coordinates to one plane.

【0061】また第二の方法として、4つ以上の特徴点
と対応点の組より、射影変換行列(homography matri
x)を計算し、得られた射影変換行列により各画像撮影
時のカメラの位置や姿勢、及び被写体面の向きを算出す
る方法がある。
As a second method, a projection transformation matrix (homography matri
x) is calculated, and the position and orientation of the camera and the orientation of the object plane at the time of capturing each image are calculated from the obtained projection transformation matrix.

【0062】ここで、上記第一の方法は、汎用の運動立
体視技術であり、線形演算により上記パラメータ{R,
t,n}が一意に求められるが、その詳細は3次元計測
やコンピュータビジョンに関する一般的な文献(例えば
『3次元ビジョン』徐剛・辻三郎共著、共立出版)に記
録されている。一方、上記第二の方法は、被写体が平面
であるという拘束条件のもとで成立する座標変換式(射
影変換行列)を求めてから、カメラの向きと被写体面の
向きを算出するものである。そして、3次元演算部22
1は、いうまでもなく上記第一及び第二のいずれの方法
も採ることができるが、ここでは第二の方法に基づいた
動作を説明する。
Here, the first method is a general-purpose motion stereoscopic vision technique, and the above-mentioned parameters {R,
t, n} is uniquely obtained, and details thereof are recorded in general literature on three-dimensional measurement and computer vision (for example, “3D Vision” co-authored by Xu Go and Saburo Tsuji, Kyoritsu Shuppan). On the other hand, the second method is to calculate the direction of the camera and the direction of the subject plane after obtaining a coordinate transformation formula (projection transformation matrix) that is satisfied under the constraint that the subject is a plane. . Then, the three-dimensional operation unit 22
Needless to say, the method 1 can employ any of the first and second methods. Here, the operation based on the second method will be described.

【0063】まず射影変換行列の算出手順を詳しく説明
する。ここで、基準画像から参照画像への射影変換と
は、図14に示されるように、基準画像7に写った被写
体像が参照画像9と同じ方向から撮影された場合に得ら
れる像に変換された画像10を得ることを指す。そし
て、この射影変換を数式で表すと、基準画像における点
(x,y)と参照画像における点(x,y)と
が対応関係にある場合には、次式のようになる。
First, the procedure for calculating the projection transformation matrix will be described in detail. Here, the projective transformation from the reference image to the reference image is, as shown in FIG. 14, converted into an image obtained when the subject image shown in the reference image 7 is photographed from the same direction as the reference image 9. To obtain the image 10. When representing this projective transformation in a formula, if the point in the reference image (x s, y s) and the reference point in the image (x r, y r) and are in correspondence, the following equation .

【0064】[0064]

【数2】 そして、上記の式(2)における8つの未知数b〜b
(Equation 2) Then, the eight unknowns b 1 to b in the above equation (2)
8

【0065】[0065]

【数3】 と行列Bとしてまとめ、これを射影変換行列と呼ぶ。こ
の射影変換行列Bを求めるには、基準画像における座標
が(xsi,ysi)である特徴点と、参照画像におけ
る座標が(xri,yri)である対応点(i=1,
…,N;N≧4)との組を4組以上用いる。ここで、座
標(xsi,ysi)と座標(xri,y ri)を上記
式(2)へ代入してb〜bの解を求めればよいが、
実際には画像に重畳するノイズ等の誤差により式(2)
は成立しないので、以下に示す最小自乗演算を用いて解
くことになる。
(Equation 3)And a matrix B, which is called a projective transformation matrix. This
To find the projection transformation matrix B of
Is (xsi, Ysi) And the reference image
Coordinates are (xri, Yri) Corresponding points (i = 1,
.., N; N ≧ 4). Where
Mark (xsi, Ysi) And coordinates (xri, Y ri) Above
Substituting into equation (2), b1~ B8It is sufficient to find the solution of
Actually, the equation (2) is obtained by an error such as noise superimposed on the image.
Does not hold, so the solution is calculated using the least squares operation shown below.
Will be.

【0066】[0066]

【数4】 そして、上記式(4)は以下のように変形される。(Equation 4) Then, the above equation (4) is modified as follows.

【0067】[0067]

【数5】 上記式(5)の左辺をb〜bでそれぞれ変微分して
得られた導関数の値が0になるという拘束条件を利用す
ると、b〜bは連立一次方程式を解くことにより計
算される。すなわち、射影変換行列Bは上記対応付けら
れた組を用いて、簡単な線形演算により求めることがで
きる。
(Equation 5) Using the constraint condition that the value of the derivative obtained by varying and differentiating the left side of the above equation (5) with b 1 to b 8 becomes 0, b 1 to b 8 can be solved by solving simultaneous linear equations Is calculated. That is, the projective transformation matrix B can be obtained by a simple linear operation using the pair associated with each other.

【0068】続いて、射影変換行列Bより3次元パラメ
ータ{R,t,n}を求める手順を説明する。被写体面の
法線ベクトルnを
Next, a procedure for obtaining a three-dimensional parameter {R, t, n} from the projection transformation matrix B will be described. The normal vector n of the object plane is

【0069】[0069]

【数6】 とし、基準画像撮影時を基準とした被写体面の方程式
を、
(Equation 6) And the equation of the subject plane with respect to the time of shooting the reference image is

【0070】[0070]

【数7】 ここで、|d|は原点から被写体面PLまでの距離を示
し、r=[x y z] とおかれる。また焦点距離
fを用いて、式(2)は次式のように書き直される。
(Equation 7)Here, | d | indicates the distance from the origin to the subject plane PL.
And r = [xyz] TIt is put. Also focal length
Using f, equation (2) can be rewritten as:

【0071】[0071]

【数8】 さらに式(8)は(Equation 8) Further, equation (8) is

【0072】[0072]

【数9】 と変形される。但し、(Equation 9) Is transformed. However,

【0073】[0073]

【数10】 である。この時、式(9)の行列Hとパラメータ{R,
t,n,d}との関係は、次式のようになる。
(Equation 10) It is. At this time, the matrix H of Equation (9) and the parameter {R,
t, n, d} is as follows.

【0074】[0074]

【数11】 但し、s’は定数であり、行列Hの各要素はスケール倍
の自由度を有している。また、式(3)の射影変換行列
Bから式(9)の行列Hへの変換は、次式により行うこ
とができる。
[Equation 11] Here, s ′ is a constant, and each element of the matrix H has a degree of freedom of the scale. The conversion from the projection transformation matrix B in Expression (3) to the matrix H in Expression (9) can be performed by the following expression.

【0075】[0075]

【数12】 以下において、行列Hより未知のパラメータ{R,t,
n,d}を求める手順を示す。但し、被写体面との距離
を表す変数dと並進運動ベクトルtの大きさのスケール
は不定であるので、
(Equation 12) In the following, parameters {R, t,
n, d} will be described. However, the scale of the variable d representing the distance to the object plane and the magnitude of the translational motion vector t are indefinite,

【0076】[0076]

【数13】 と仮定する。ここで、パラメータ{R,t,n,d}の解
を導出する計算過程は、文献『画像理解−3次元認識の
数理−』(金谷健一著、森北出版)に詳細が記されてい
るが、その結果をまとめると以下のようになる。 (i)式(9)の行列Hの各要素に適当な定数をかけ
て、det[H]=1となるようにする。(ii)対称行
列HHの固有値をσ ,σ ,σ とし、対応
する固有ベクトルu,u,uを互いに直交し、こ
の順に右手系を作る単位ベクトルにとる。但しσ≧σ
≧σ>0とする。(iii)σ=σ=σなら
ば、運動パラメータは、
(Equation 13) Assume that Here, the calculation process for deriving the solution of the parameter {R, t, n, d} is described in detail in the document "Image understanding-Mathematics of three-dimensional recognition-" (Kenichi Kanaya, Morikita Publishing). The results are summarized as follows. (I) Multiply each element of the matrix H of the equation (9) by an appropriate constant so that det [H] = 1. (Ii) symmetric matrix HH eigenvalues of T σ 1 2, σ 2 2 , and sigma 3 2, perpendicular to the corresponding eigenvectors u 1, u 2, u 3 together, take unit vector to make right-handed in this order. Where σ 1 ≧ σ
2 ≧ σ 3 > 0. (Iii) If σ 1 = σ 2 = σ 3 , the motion parameter is

【0077】[0077]

【数14】 であり、被写体面のパラメータ{n,d}は不定であ
る。そうでなければ、次のように2組の解が得られる。
(iv)被写体面のパラメータ{n,d}は、次のように
定まる。
[Equation 14] And the parameters {n, d} of the object plane are undefined. Otherwise, two sets of solutions are obtained as follows.
(Iv) The parameters {n, d} of the object plane are determined as follows.

【0078】[0078]

【数15】 (Equation 15)

【0079】[0079]

【数16】 但しε=±1であり、εをc>0になるように選ぶ。ま
た、(v)単位並進運動ベクトルtは次のように定ま
る。
(Equation 16) However, ε = ± 1, and ε is selected so that c> 0. (V) The unit translational motion vector t is determined as follows.

【0080】[0080]

【数17】 また、回転行列Rは次のように定まる。[Equation 17] Further, the rotation matrix R is determined as follows.

【0081】[0081]

【数18】 従って、行列Bよりパラメータ{R,t,n,d}の解が
2通り得られるが、大抵の場合は導出された値より真の
解を判別することができる。なお、途中の計算で撮像部
11の焦点距離fを使用するが、焦点距離fの値は撮像
部11の光学系パラメータを内部メモリ(図示せず)に
記憶するなどの方法により容易に得ることが可能であ
る。また、撮像部11の光学系の焦点距離が可変で基準
画像と参照画像の焦点距離が異なる場合でも、双方の画
像の焦点距離が既知であれば、上記3次元パラメータ算
出手順をそのまま適用でき、焦点距離は光学系にエンコ
ーダを設置するなどの方法により検出可能である。
(Equation 18) Therefore, two solutions of the parameters {R, t, n, d} can be obtained from the matrix B. In most cases, the true solution can be determined from the derived values. Note that the focal length f of the imaging unit 11 is used in the intermediate calculation, and the value of the focal length f can be easily obtained by a method such as storing the optical system parameters of the imaging unit 11 in an internal memory (not shown). Is possible. Further, even when the focal length of the optical system of the imaging unit 11 is variable and the focal lengths of the reference image and the reference image are different, if the focal lengths of both images are known, the above three-dimensional parameter calculation procedure can be applied as it is, The focal length can be detected by a method such as installing an encoder in the optical system.

【0082】次に、図11に示されたパラメータ算出部
222は、被写体面を撮影した時の撮像部11と3次元
演算部221で算出された被写体面の向きとの関係に基
づき、あおり歪みを補正するパラメータを計算する。こ
こで、本実施の形態においては図15に示されるよう
に、3次元演算部221が算出した被写体面に平行な平
面を被投影面31として、あおり歪みを有する被写体像
を含む画像面30を投影するという射影変換を行うこと
により、画像のあおり歪みが補正される。ここで例え
ば、画像面30上の点P1は被投影面31上の点P2に
投影される。以下において上記あおり歪みを補正するパ
ラメータの計算方法を説明する。
Next, the parameter calculating section 222 shown in FIG. 11 performs a tilt distortion based on the relationship between the imaging section 11 and the orientation of the subject plane calculated by the three-dimensional calculation section 221 when the subject plane is photographed. Is calculated. Here, in the present embodiment, as shown in FIG. 15, a plane parallel to the subject plane calculated by the three-dimensional calculation unit 221 is set as the projection plane 31, and the image plane 30 including the subject image having the tilt distortion is displayed. By performing the projective transformation of projecting, the tilt distortion of the image is corrected. Here, for example, a point P1 on the image plane 30 is projected on a point P2 on the projection plane 31. Hereinafter, a method of calculating the parameters for correcting the tilt distortion will be described.

【0083】まず、図16に示されるように、装置座標
系33におけるz軸を被投影面31の単位法線ベクトル
に一致させる座標変換を示す回転行列R’を求める。こ
の場合、次の関係式が成立する。
First, as shown in FIG. 16, a rotation matrix R ′ indicating coordinate transformation for making the z-axis in the apparatus coordinate system 33 coincide with the unit normal vector of the projection target surface 31 is obtained. In this case, the following relational expression holds.

【0084】[0084]

【数19】 そして、上記式(9)を満たす回転行列R’は多数存在
するが、ここでは回転行列R’を次式のように定義す
る。
[Equation 19] There are many rotation matrices R ′ that satisfy the above equation (9). Here, the rotation matrix R ′ is defined as the following equation.

【0085】[0085]

【数20】 但し、ここでR’とR’はそれぞれ次のように示さ
れる。
(Equation 20) Here, R'x and R'y are represented as follows, respectively.

【0086】[0086]

【数21】 これは、図17に示されるように、以下の順序で装置座
標系(xyz座標系)33を回転させて、x’y’z’
座標系に変換することに相当する。(i)装置座標系3
3をy軸の回りにだけβ回転させる。そして、この回転
により得られる座標系をx座標系とする。
(ii)装置座標系をx軸の回りにαだけ回転する。
(Equation 21) This is achieved by rotating the device coordinate system (xyz coordinate system) 33 in the following order as shown in FIG.
This is equivalent to converting to a coordinate system. (I) Device coordinate system 3
3 by β rotation only about the y-axis. Then, a coordinate system obtained by this rotation is defined as an x 1 y 1 z 1 coordinate system.
(Ii) rotates by α the device coordinate system about the x 1 axis.

【0087】ここで、式(19)と式(20)を用いる
と、回転角は次式のように導出される。
Here, using equations (19) and (20), the rotation angle is derived as follows.

【0088】[0088]

【数22】 そして、このように求められた回転角を式(20)及び
式(21)に代入することにより、行列R’を一意に定
めることができる。
(Equation 22) Then, the matrix R ′ can be uniquely determined by substituting the rotation angles obtained in this way into Expressions (20) and (21).

【0089】次に、画像面30上の座標を被投影面31
上に座標変換する。すなわち、図15において、画像面
30の点P1に対応する3次元ベクトルpを延長したと
きに被投影面31と交差する点P2を、座標変換後の座
標とする。そして、装置座標系33を基準とした点P1
に対応する3次元ベクトルpは、次式で示される。
Next, the coordinates on the image plane 30 are
Transform coordinates upward. That is, in FIG. 15, a point P2 that intersects with the projection plane 31 when the three-dimensional vector p corresponding to the point P1 on the image plane 30 is extended is set as coordinates after coordinate conversion. Then, a point P1 based on the device coordinate system 33
Is represented by the following equation.

【0090】[0090]

【数23】 ここで、kは撮像部11の光学中心oから被投影面まで
の距離を表す拡大係数であるため、kは作成される歪み
補正画像の大きさを表している。また3次元ベクトルp
は、基準画像撮影時の装置座標系33を基準にして点P
1を表したベクトルであるが、これを回転行列R’を用
いて次式のように座標変換することにより、撮像部11
を被写体面と正対させた時の3次元ベクトルp’に変換
される。
(Equation 23) Here, k is an expansion coefficient representing the distance from the optical center o of the imaging unit 11 to the projection surface, and thus k represents the size of the distortion-corrected image to be created. Also, a three-dimensional vector p
Is the point P based on the device coordinate system 33 at the time of shooting the reference image.
1 is converted into a coordinate by using the rotation matrix R ′ as in the following equation.
Is converted to a three-dimensional vector p ′ when the object is directly opposed to the object plane.

【0091】[0091]

【数24】 従って、式(25)のx座標とy座標を座標変換後に得
られる座標とすることにより、あおり歪みを補正した画
像が得られる。そして、以上のような手順により、式
(25)を用いて基準画像のあおり歪みを補正するパラ
メータを算出することができる。
(Equation 24) Therefore, by setting the x coordinate and the y coordinate of Expression (25) as the coordinates obtained after the coordinate conversion, an image in which the tilt distortion has been corrected can be obtained. Then, according to the above-described procedure, it is possible to calculate the parameter for correcting the tilt distortion of the reference image by using the equation (25).

【0092】次に、座標変換部223はパラメータ算出
部222により算出されたあおり歪み補正パラメータを
基に、基準画像を座標変換して歪み補正画像を作成す
る。具体的には、座標変換後の座標(X,Y)に対応す
る変換前の座標(x,y)を式(25)に基づいて
計算し、計算された座標(x,y)の近傍における
画素値を基に座標(X,Y)における画素値を補間演算
により決定する。なお、この補間演算は双一次補間法や
B−スプライン補間法などの既存の方法を用いて行えば
よい。
Next, the coordinate conversion section 223 performs coordinate conversion of the reference image based on the tilt correction parameter calculated by the parameter calculation section 222 to create a distortion corrected image. Specifically, coordinates after coordinate transformation (X, Y) before conversion of the coordinate (x s, y s) corresponding to the calculated according to equation (25), the calculated coordinates (x s, y s The pixel value at the coordinates (X, Y) is determined by interpolation based on the pixel values in the vicinity of ()). Note that this interpolation operation may be performed using an existing method such as a bilinear interpolation method or a B-spline interpolation method.

【0093】以上のように、本発明の実施の形態1に係
る画像処理装置によれば、互いに少なくとも一部が重な
り合うように被写体面が2枚以上撮影されたときには、
その撮影された任意の画像におけるあおり歪みを補正し
てより適正な被写体の全体像を得ることができる。
As described above, according to the image processing apparatus according to the first embodiment of the present invention, when two or more subject surfaces are photographed so that at least a part thereof overlaps each other,
It is possible to obtain a more appropriate overall image of the subject by correcting the tilt distortion in the photographed arbitrary image.

【0094】すなわち、上記手順においては全ての画像
において被写体の全範囲を撮影する必要はなく、例えば
図14に示されるように、被写体の全体を撮影した画像
と、被写体の一部分のみを撮影した画像があれば足り
る。そしてこのような場合、基準画像設定部20により
被写体の全体を撮影した画像の方を基準画像として選ぶ
ことができるので、あおり歪みが補正された被写体の全
体像を生成することができる。
That is, in the above procedure, it is not necessary to photograph the entire range of the subject in all the images. For example, as shown in FIG. 14, an image of the whole subject and an image of only a part of the subject are taken. Is enough. In such a case, an image obtained by photographing the entire subject by the reference image setting unit 20 can be selected as the reference image, so that the entire image of the subject in which the tilt distortion has been corrected can be generated.

【0095】また歪み補正画像を上記の方法により生成
するためには、最低限二枚の被写体像があればよいの
で、撮影する枚数を二枚に限定すれば、ユーザにとって
画像の入力や撮影及び基準画像の設定が簡略化されるだ
けではなく、画像を記憶するために必要なメモリ容量や
特徴点及び対応点の検出、射影変換行列の計算に要する
計算コストを小さくすることができる。 [実施の形態2]図18は、本発明の実施の形態2に係
る画像処理方法及び画像処理装置を説明するための図で
ある。図18(a)に示されるように、同一の被写体面
PLの静止画像が、画像の一部においてそれぞれ重複す
るように複数の方向d〜dから撮影された場合にお
ける、本実施の形態に係る画像処理装置6の動作につい
て説明する。
Further, in order to generate a distortion-corrected image by the above-described method, at least two subject images are required. Therefore, if the number of images to be photographed is limited to two, the user can input an image, perform photographing, and Not only can the setting of the reference image be simplified, but also the memory capacity required for storing the image, the calculation cost required for detecting feature points and corresponding points, and calculating the projection transformation matrix can be reduced. [Second Embodiment] FIG. 18 is a diagram for describing an image processing method and an image processing apparatus according to a second embodiment of the present invention. As shown in FIG. 18 (a), the still picture of the same object plane PL is, when taken from a plurality of directions d 1 to d k so as to overlap each at a part of the image, the present embodiment The operation of the image processing apparatus 6 according to the first embodiment will be described.

【0096】ここで、図18(a)に示されるように、
方向Dから撮影することにより画像imn(n=1,
2…,j,…,k)が得られ、例えば画像im1と画像
im2のように隣り合う方向において撮影することによ
り得られた画像imjと画像im(j+1)(1≦j≦
k−1)との間ではそれぞれ重複領域があるとする。
Here, as shown in FIG.
Image imn (n = 1 by photographing from the direction D n,
, J,..., K) are obtained. For example, an image imj and an image im (j + 1) (1 ≦ j ≦) obtained by shooting in adjacent directions such as an image im1 and an image im2.
It is assumed that there is an overlap area between the data and k-1).

【0097】そして、本実施の形態2に係る画像処理装
置においては、図18(b)に示されるように、基準画
像として選択されたいずれか一つの画像imjに整合す
るように他の画像が貼り合わされ、合成画像IMCが得
られる。
In the image processing apparatus according to the second embodiment, as shown in FIG. 18B, another image is matched with one of the images imj selected as the reference image. The composite image IMC is obtained by pasting.

【0098】図19は、本実施の形態2に係る画像処理
装置6の構成を示す図である。図19に示されるよう
に、画像処理装置6は、図3に示された上記実施の形態
1に係る画像処理装置1と同様な構成を有するが、画像
歪み補正部22の代わりに画像合成部24が備えられる
点で相違するものである。ここで、画像合成部24は対
応検出部21で得られた特徴点と対応点の関係を基に座
標変換することにより、互いに重複する領域を持つ画像
を貼り合わせるが、この動作については後に詳しく説明
する。
FIG. 19 is a diagram showing a configuration of the image processing apparatus 6 according to the second embodiment. As shown in FIG. 19, the image processing device 6 has the same configuration as the image processing device 1 according to the first embodiment shown in FIG. 24 is provided. Here, the image synthesizing unit 24 pastes images having overlapping regions by performing coordinate conversion based on the relationship between the feature points and the corresponding points obtained by the correspondence detecting unit 21. This operation will be described later in detail. explain.

【0099】図20は、図19に示された本実施の形態
2に係る画像処理装置6の動作を示すフローチャートで
ある。まず最初に、電源スイッチ101を切り替えて画
像処理装置1を起動し、撮影モードの選択を行う。ここ
で、上記撮影モードは通常のスナップ写真を撮影する通
常モードと、撮影した画像のあおり歪みを補正した画像
を生成するあおり補正モードよりなる。そして、この撮
影モードの選択は、ユーザが撮影モード設定キー104
を操作することによりなされる。なお撮影モード設定部
19として、画像処理装置1の本体には撮影モード設定
キー104が設けられる。但し、撮影モード設定部19
は、本体とは別個に設けられるハードウェア又はソフト
ウェア等で構成しても良い。
FIG. 20 is a flowchart showing the operation of the image processing apparatus 6 according to the second embodiment shown in FIG. First, the image processing apparatus 1 is started by switching the power switch 101, and the photographing mode is selected. Here, the shooting modes include a normal mode for shooting a normal snapshot and a tilt correction mode for generating an image in which tilt distortion of a shot image is corrected. When the user selects the shooting mode, the shooting mode setting key 104
This is done by operating. Note that a shooting mode setting key 104 is provided as a shooting mode setting unit 19 in the main body of the image processing apparatus 1. However, the shooting mode setting unit 19
May be configured by hardware or software provided separately from the main body.

【0100】そして図5に示されるように、ステップS
1においてあおり補正モードを選択するか否か判断さ
れ、あおり補正モードが選択されず通常モードが選択さ
れると、ステップS10へ進みユーザにより所望の被写
体のスナップ写真が撮影される。
Then, as shown in FIG.
In step 1, it is determined whether or not the tilt correction mode is to be selected. If the tilt correction mode is not selected and the normal mode is selected, the process proceeds to step S10, where the user takes a snapshot of a desired subject.

【0101】一方、ステップS1においてあおり補正モ
ードが選択されると、ステップS2へ進む。そして、ユ
ーザは撮像部11により被写体面PLを少なくとも二枚
撮影し、画像処理装置6には被写体像が取り込まれる。
なお、このとき互いに被写体像の一部が重なり合うよう
に各々の画像が撮影される必要がある。
On the other hand, when the tilt correction mode is selected in step S1, the process proceeds to step S2. Then, the user captures at least two images of the object plane PL using the imaging unit 11, and the image processing device 6 captures the object image.
At this time, each image needs to be photographed so that a part of the subject image overlaps with each other.

【0102】次に、ステップS3において被写体像の入
力が終了したか否かが判断され、終了していない場合に
はステップS2へ戻り、さらに被写体像の入力が継続さ
れる。一方、ユーザによる撮影終了の指示により被写体
像の入力を終了した場合には、ステップS4へ進む。な
お、上記指示は撮影モード設定キー104をもう一度押
して通常モードに切り替えることによりなされる他、撮
影終了を指示するためのスイッチを別途設けてもよい。
Next, in step S3, it is determined whether or not the input of the subject image has been completed. If the input has not been completed, the process returns to step S2, and the input of the subject image is continued. On the other hand, if the input of the subject image has been completed by the user's instruction to end the shooting, the process proceeds to step S4. Note that the above instruction is performed by pressing the shooting mode setting key 104 again to switch to the normal mode, and a switch for instructing the end of shooting may be separately provided.

【0103】そして、上記のように被写体の撮影が終了
すると、ステップS4以下において、複数枚の画像を貼
り合せた合成画像を生成する動作に入る。まずステップ
S4において、どの画像を基準に合成画像を生成するか
を選択する。なお、このとき選択された画像が上記基準
画像であり、以下においては例として図18に示される
画像imjが基準画像として選択された場合について説
明する。また、この基準画像の設定は基準画像設定部2
0においてなされるが、基準画像設定部20の構成及び
動作は上記実施の形態1における場合と同様である。
When the photographing of the subject is completed as described above, an operation for generating a composite image in which a plurality of images are combined is started from step S4. First, in step S4, an image on which to generate a composite image is selected. It should be noted that the image selected at this time is the above-described reference image, and a case where the image imj shown in FIG. 18 is selected as the reference image will be described below as an example. The reference image is set in the reference image setting unit 2.
0, the configuration and operation of the reference image setting unit 20 are the same as those in the first embodiment.

【0104】次に、ステップS5において、図18
(a)に示された隣接する方向から撮影された画像対、
すなわち画像nと画像(n+1)(1≦n≦k−1)と
の間において特徴点と、該特徴点と同一の箇所を示す対
応点を検出する。この特徴点と対応点の検出は、対応検
出部21により行われる。ここで、対応検出部21の構
成及び動作は上記実施の形態1における場合と同様であ
る。
Next, in step S5, FIG.
Image pairs taken from adjacent directions shown in (a),
That is, between the image n and the image (n + 1) (1 ≦ n ≦ k−1), a feature point and a corresponding point indicating the same location as the feature point are detected. The detection of the feature points and the corresponding points is performed by the correspondence detection unit 21. Here, the configuration and operation of the correspondence detection unit 21 are the same as those in the first embodiment.

【0105】そして、特徴点と対応点の検出が終了する
と、得られた両点の関係を基に、基準画像に整合するよ
う座標変換した上で画像が貼り合わされる。ここで、座
標変換として射影変換を用いるとき、ステップS6にお
いて射影変換行列を計算すると共に、ステップS7にお
いて上記貼り合わせにより合成画像が生成される。この
ような射影変換行列の算出及び合成画像の生成は、画像
合成部24により実行される。以下において、この画像
合成部24の構成及び動作について詳しく説明する。
Then, when the detection of the feature points and the corresponding points is completed, the images are pasted after coordinate transformation so as to match the reference image based on the obtained relationship between the two points. Here, when projective transformation is used as coordinate transformation, a projective transformation matrix is calculated in step S6, and a composite image is generated by the above-described bonding in step S7. The calculation of the projection transformation matrix and the generation of the composite image are performed by the image compositing unit 24. Hereinafter, the configuration and operation of the image combining unit 24 will be described in detail.

【0106】図21は、図19に示された画像合成部2
4の構成を示す図である。図21に示されるように、画
像合成部24は射影変換算出部231と座標変換部23
2とを含む。ここで、射影変換算出部231は基準画像
設定部20と対応検出部21とに接続され、座標変換部
232は基準画像設定部20とフレームメモリ15及び
射影変換算出部231に接続される。
FIG. 21 shows the image synthesizing unit 2 shown in FIG.
4 is a diagram showing a configuration of FIG. As shown in FIG. 21, the image synthesizing unit 24 includes a projective transformation calculating unit 231 and a coordinate transforming unit 23.
2 is included. Here, the projection conversion calculation unit 231 is connected to the reference image setting unit 20 and the correspondence detection unit 21, and the coordinate conversion unit 232 is connected to the reference image setting unit 20, the frame memory 15, and the projection conversion calculation unit 231.

【0107】そして、射影変換算出部231は4つ以上
の特徴点と対応点の組を用いて、式(3)で示した射影
変換行列Bを算出する。その算出手順は上記実施の形態
1における場合と同様であり、式(5)の最小自乗計算
を行えばよい。ここで、本実施の形態においては、(k
−1)個の画像対間における射影変換行列を計算し、さ
らに各々の画像から基準画像への射影変換行列を求める
必要がある。
Then, the projective transformation calculating section 231 computes the projective transformation matrix B shown in the equation (3) using a set of four or more feature points and corresponding points. The calculation procedure is the same as that in the first embodiment, and the least square calculation of Expression (5) may be performed. Here, in the present embodiment, (k
-1) It is necessary to calculate a projective transformation matrix between pairs of images, and to further calculate a projective transformation matrix from each image to a reference image.

【0108】より具体的には、図18に示されるように
画像imn(n=1〜k−1)から画像im(n+1)
への射影変換行列をB、また画像imnから画像im
jへの射影変換行列を
More specifically, as shown in FIG. 18, the image imn (n = 1 to k-1) to the image im (n + 1)
The projection transformation matrix to B n and the image imn to image im
the projective transformation matrix to j

【0109】[0109]

【数25】 とおくと、この射影変換行列は次式に基づいて計算でき
る。
(Equation 25) In other words, this projective transformation matrix can be calculated based on the following equation.

【0110】[0110]

【数26】 ここで、座標変換部232は、射影変換算出部231に
より算出された式(26)により示される射影変換行列
を基に、画像nを基準とされる画像imjに貼り合わさ
れる。具体的には、まず基準画像における座標変換後の
座標(X,Y)に対応する、画像nにおける座標変換前
の座標(x,y)を次式に基づき計算する。
(Equation 26) Here, the coordinate transformation unit 232 is attached to the image imj based on the image n based on the projection transformation matrix represented by the equation (26) calculated by the projection transformation calculation unit 231. Specifically, first, the coordinates (x, y) of the image n before the coordinate conversion corresponding to the coordinates (X, Y) of the reference image after the coordinate conversion are calculated based on the following equation.

【0111】[0111]

【数27】 但しsは、式(27)における左辺の列ベクトルの第三
成分を1とするための定数である。次に、座標変換前の
座標(x,y)近傍における画素値を基に、座標(X,
Y)の画素値を補間演算により決定する。そして、この
補間演算は双一次補間法やB−スプライン補間法などの
既存の方法を用いて行えばよい。
[Equation 27] Here, s is a constant for setting the third component of the column vector on the left side in Expression (27) to 1. Next, based on the pixel values near the coordinates (x, y) before the coordinate conversion, the coordinates (X,
The pixel value of Y) is determined by an interpolation operation. The interpolation operation may be performed using an existing method such as a bilinear interpolation method or a B-spline interpolation method.

【0112】以上のように、本実施の形態に係る画像処
理装置6によれば、互いに一部が重なり合うように被写
体面PLを2枚以上撮影し、選択した基準画像に対して
他の画像を貼り合わせることにより、被写体面PLの広
い領域に渡る合成画像が生成される。この場合基準画像
設定部20により、被写体に対してほぼ正対する方向か
ら撮影された画像、すなわちあおり歪みの小さい画像を
基準画像として選ぶことができるため、結果的にあおり
歪みの小さい全体的な被写体像を、上記合成画像として
得ることができる。 [実施の形態3]上記実施の形態1及び2に係る画像処
理装置においては、先に被写体像が2枚以上入力又は撮
影された後に、歪み補正の対象とされ又は合成画像の基
準とされる基準画像が選択される。これに対し、本実施
の形態3に係る画像処理装置は、被写体を撮影する前に
予め上記基準画像が設定される。
As described above, according to the image processing apparatus 6 of the present embodiment, two or more subject planes PL are photographed so as to partially overlap each other, and another image is taken with respect to the selected reference image. By pasting, a composite image over a wide area of the subject plane PL is generated. In this case, the reference image setting unit 20 can select, as the reference image, an image photographed from a direction substantially opposite to the subject, that is, an image with small tilt distortion. An image can be obtained as the composite image. [Embodiment 3] In the image processing apparatus according to Embodiments 1 and 2, after two or more subject images have been input or photographed first, they are set as distortion correction targets or as a reference for a composite image. A reference image is selected. On the other hand, in the image processing apparatus according to the third embodiment, the reference image is set beforehand before photographing the subject.

【0113】図22は、本発明の実施の形態3に係る画
像処理装置8の構成を示す図である。図22に示される
ように、本実施の形態に係る画像処理装置8は、図3に
示された実施の形態1に係る画像処理装置1と同様な構
成を有するが、通知部26をさらに備える点で相違する
ものである。ここで、通知部26は主制御部14と基準
画像設定部20に接続される。
FIG. 22 is a diagram showing a configuration of the image processing device 8 according to the third embodiment of the present invention. As shown in FIG. 22, the image processing device 8 according to the present embodiment has the same configuration as the image processing device 1 according to the first embodiment shown in FIG. 3, but further includes a notification unit 26. They differ in the point. Here, the notification unit 26 is connected to the main control unit 14 and the reference image setting unit 20.

【0114】なお、該画像処理装置8に含まれたシャッ
ター113及びインタフェース16は主制御部14に接
続され、ファインダ241はインタフェース16に接続
される。
Note that the shutter 113 and the interface 16 included in the image processing apparatus 8 are connected to the main control unit 14, and the finder 241 is connected to the interface 16.

【0115】次に、本発明の実施の形態3に係る画像処
理装置8の動作を、図23のフローチャートを参照しつ
つ説明する。まず、ステップS1においてあおり補正モ
ードを選択するか否か判断され、あおり補正モードが選
択されず通常モードが選択されると、ステップS10へ
進みユーザにより所望の被写体のスナップ写真が撮影さ
れる。
Next, the operation of the image processing apparatus 8 according to Embodiment 3 of the present invention will be described with reference to the flowchart of FIG. First, in step S1, it is determined whether or not the tilt correction mode is selected. When the tilt correction mode is not selected and the normal mode is selected, the process proceeds to step S10, where the user takes a snapshot of a desired subject.

【0116】一方、ステップS1においてあおり補正モ
ードが選択されると、ステップS2へ進む。そしてステ
ップS2においては、あおり歪みの補正対象とする画
像、すなわち基準画像が基準画像設定部20に設定され
る。ここで基準画像設定部20は、図24に示されるよ
うに、カーソルキー204と決定キー203とを含む。
そして、表示部17には「基準画像設定」という文字が
オーバレイ表示されると共に、ユーザにこれから撮影す
る枚数と、該撮影において何枚目に撮る画像を基準画像
とするのかを指定する基準画像指定値とを設定するよう
指示される。ここで、例えばユーザはカーソルキー20
4の上又は下方向スクロールキーを操作することにより
撮影枚数と基準画像の設定間を切り替え、かつ左又は右
方向スクロールキーを操作することにより枠内の設定値
を増減させることによって、所望の撮影枚数と基準画像
指定値とを設定することができる。なお、決定キー20
3が押されることにより上記基準画像の設定が完了され
る。
On the other hand, when the tilt correction mode is selected in step S1, the process proceeds to step S2. In step S <b> 2, the image to be subjected to the tilt distortion correction, that is, the reference image is set in the reference image setting unit 20. Here, the reference image setting unit 20 includes a cursor key 204 and an enter key 203 as shown in FIG.
The display section 17 displays an overlay of the text “reference image setting”, and specifies to the user the number of images to be taken in the future and the reference image designation to specify the image to be taken as the reference image in the shooting. You are prompted to set a value. Here, for example, the user enters the cursor key 20
4 By switching the number of shots and the reference image by operating the up or down scroll key, and by increasing or decreasing the set value in the frame by operating the left or right scroll key, The number of sheets and the designated value of the reference image can be set. The enter key 20
By pressing 3, the setting of the reference image is completed.

【0117】次に、ステップS3においてユーザは少な
くとも2枚以上の被写体像の撮影を開始する。なおこの
とき、互いに一部が重なり合うように各画像が撮影され
る必要がある。そして、画像を撮影する度にシャッター
113から主制御部14へ撮影信号が供給されることに
よって、主制御部14に内蔵されたカウンタがインクリ
メントされ、該カウンタから次の撮影が何枚目であるか
を示す枚数特定信号が通知部26へ供給される。ここ
で、基準画像設定部20より上記基準画像指定値を示す
信号が通知部26に内蔵されたレジスタに供給され、該
レジスタに基準画像指定値が格納されているため、ステ
ップS4において通知部26は常に該レジスタに格納さ
れた上記基準画像指定値と上記枚数特定信号が示す値と
を比較し、今度撮影する画像が基準画像とされるもので
あるか否かを判断する。
Next, in step S3, the user starts photographing at least two or more subject images. At this time, each image needs to be photographed so that a part thereof overlaps with each other. Each time an image is shot, a shooting signal is supplied from the shutter 113 to the main control unit 14, so that the counter built in the main control unit 14 is incremented, and the next shot from the counter is the number of the next shot. Is supplied to the notification unit 26. Here, a signal indicating the reference image designation value is supplied from the reference image setting unit 20 to a register built in the notification unit 26, and the reference image designation value is stored in the register. Always compares the specified value of the reference image stored in the register with the value indicated by the number-of-images specifying signal to determine whether or not the image to be captured this time is the reference image.

【0118】そして、上記比較において両者の値が一致
し、これから撮影しようとする画像が基準画像とされる
ものである場合には、ステップS5へ進み、通知部26
はユーザに基準画像の撮影であることを通知する。すな
わち、このとき通知部26からは主制御部14を介して
インタフェース16へ通知信号が供給され、図25に示
されるように、該通知信号に応じてインタフェース16
によりファインダ241内の被写体像35横のインジケ
ータ242が点灯される。従って、撮影時にユーザによ
り容易に基準画像の撮影であるか否かが認識される。な
お上記における通知は、表示部17へ所定のテキストや
シンボルを表示すること等によって行っても良い。
If the two values match in the above comparison, and the image to be taken is the reference image, the process proceeds to step S5, where the notification unit 26
Notifies the user that the reference image has been captured. That is, at this time, a notification signal is supplied from the notification unit 26 to the interface 16 via the main control unit 14, and as shown in FIG.
Accordingly, the indicator 242 on the side of the subject image 35 in the viewfinder 241 is turned on. Therefore, at the time of photographing, the user can easily recognize whether or not the photographing of the reference image is performed. The above notification may be performed by displaying a predetermined text or symbol on the display unit 17 or the like.

【0119】次にステップS6へ進むが、ステップS4
において次に撮影する画像が基準画像とされないと判断
された場合には、直接ステップS6へ進む。そして、こ
のステップS6においては、被写体の撮影(被写体画像
の入力)が終了したか否かが判断され、終了しないと判
断された場合にはステップS3へ戻る。一方、終了する
と判断された場合にはステップS7へ進む。ここで、撮
影の終了はユーザの指示に応じて判断され、該指示は撮
影モード設定部19における設定が通常モードに切り替
えられ、又は撮影終了のために設けられたスイッチが押
されること等によりなされるものとすることができる。
Next, the process proceeds to step S6, but in step S4
If it is determined in step that the image to be taken next is not the reference image, the process directly proceeds to step S6. Then, in this step S6, it is determined whether or not the shooting of the subject (input of the subject image) has been completed. If it is determined that the shooting has not been completed, the process returns to step S3. On the other hand, if it is determined to end, the process proceeds to step S7. Here, the end of the photographing is determined according to the user's instruction, and the instruction is made when the setting in the photographing mode setting unit 19 is switched to the normal mode, or a switch provided for terminating the photographing is pressed. It can be.

【0120】次に、ステップS7では基準画像の中にお
いて特徴点が検出され、該基準画像の少なくとも一部に
おいて重複する画像の中においては上記特徴点と同一箇
所を示す対応点が検出される。このような特徴点と対応
点の検出は、図22に示された対応検出部21により行
われる。なお、該対応検出部21の構成及び動作は、上
記実施の形態1の場合と同様である。
Next, in step S7, a feature point is detected in the reference image, and in at least a part of the reference image, a corresponding point indicating the same point as the above-mentioned feature point is detected in an overlapping image. Such feature points and corresponding points are detected by the correspondence detecting unit 21 shown in FIG. The configuration and operation of the correspondence detection unit 21 are the same as those in the first embodiment.

【0121】そして、ステップS8において基準画像の
あおり歪みを補正するためのパラメータを算出すると共
に、ステップS9において上記パラメータを基にあおり
歪みを補正した画像を生成して動作を終了する。なお、
該パラメータの算出及びあおり歪みを補正した画像の生
成は画像歪み補正部22により行われるが、この画像歪
み補正部22の構成及び動作は上記実施の形態1の場合
と同様である。
Then, in step S8, parameters for correcting the tilt distortion of the reference image are calculated, and in step S9, an image in which the tilt distortion is corrected based on the above parameters is generated, and the operation ends. In addition,
The calculation of the parameters and the generation of the image in which the tilt distortion has been corrected are performed by the image distortion correction unit 22. The configuration and operation of the image distortion correction unit 22 are the same as those in the first embodiment.

【0122】以上のように、本実施の形態3に係る画像
処理装置8によれば、撮影前に基準画像指定値を設定す
ることにより、ユーザによる画像撮影において、次に撮
影する画像が基準画像とされるものであるか否かが通知
部26によってユーザに通知されるため、ユーザは基準
画像の撮影を容易に認識することができる。そしてユー
ザは、基準画像の撮影時には被写体の所望の領域が撮影
範囲に入るよう特に注意を払うことができる。またさら
に、基準画像の撮影ミスを減少させることができる。
As described above, according to the image processing apparatus 8 according to the third embodiment, the reference image designation value is set before photographing, so that the next image to be photographed by the user during image photographing by the user The user is notified by the notification unit 26 whether or not the reference image is taken, so that the user can easily recognize the shooting of the reference image. Then, the user can pay particular attention so that a desired area of the subject falls within the shooting range when the reference image is shot. Still further, it is possible to reduce shooting errors of the reference image.

【0123】なお、通知部26により基準画像指定値の
設定に応じてユーザへ基準画像の撮影を通知する技術
は、上記実施の形態2に係る画像処理装置6にも適用可
能であることはいうまでもない。 [実施の形態4]上記実施の形態に係る画像処理装置
は、撮像部に含まれた単一の光学系を移動させることに
より、被写体を異なる方向から少なくとも2度撮影する
必要があったが、本実施の形態に係る画像処理装置では
撮像部41に2以上の光学系が並設され、一度の撮影で
異なる方向から撮影された被写体像が複数枚得られるよ
うにされる。
It is to be noted that the technique of notifying the user of the photographing of the reference image according to the setting of the reference image designated value by the notifying unit 26 is also applicable to the image processing apparatus 6 according to the second embodiment. Not even. [Embodiment 4] The image processing apparatus according to the above-described embodiment needs to photograph a subject at least twice from different directions by moving a single optical system included in an imaging unit. In the image processing apparatus according to the present embodiment, two or more optical systems are arranged side by side in the imaging unit 41 so that a plurality of subject images photographed from different directions can be obtained by one photographing operation.

【0124】図26は、本発明の実施の形態4に係る画
像処理装置40の構成を示す図である。図26に示され
るように、本実施の形態4に係る画像処理装置40は、
図3に示された実施の形態1に係る画像処理装置1と同
様な構成を有するが、撮像部41には2つの光学系11
A,11Bを含む点で相違するものである。
FIG. 26 is a diagram showing a configuration of an image processing apparatus 40 according to Embodiment 4 of the present invention. As shown in FIG. 26, the image processing device 40 according to Embodiment 4
It has the same configuration as the image processing apparatus 1 according to the first embodiment shown in FIG.
A and 11B are different.

【0125】以下において、本実施の形態に係る画像処
理装置の動作を図27のフローチャートを参照しつつ説
明する。まず最初に、画像処理装置40を起動し、撮影
モードの選択を行う。ここで、上記撮影モードは通常の
スナップ写真を撮影する通常モードと、撮影した画像の
あおり歪みを補正した画像を生成するあおり補正モード
よりなる。そして、この撮影モードの選択は、ユーザが
撮影モード設定キーを操作することによりなされる。な
お撮影モード設定部19として、画像処理装置40の本
体には撮影モード設定キー104が設けられる。但し、
撮影モード設定部19は、本体とは別個に設けられるハ
ードウェア又はソフトウェア等で構成しても良い。
Hereinafter, the operation of the image processing apparatus according to the present embodiment will be described with reference to the flowchart of FIG. First, the image processing device 40 is activated, and a photographing mode is selected. Here, the shooting modes include a normal mode for shooting a normal snapshot and a tilt correction mode for generating an image in which tilt distortion of a shot image is corrected. The photographing mode is selected by operating the photographing mode setting key by the user. Note that a shooting mode setting key 104 is provided as a shooting mode setting unit 19 in the main body of the image processing apparatus 40. However,
The shooting mode setting unit 19 may be configured by hardware or software provided separately from the main body.

【0126】そして図27に示されるように、ステップ
S1においてあおり補正モードを選択するか否か判断さ
れ、あおり補正モードが選択されず通常モードが選択さ
れると、ステップS10へ進みユーザにより所望の被写
体のスナップ写真が撮影される。
As shown in FIG. 27, it is determined in step S1 whether or not the tilt correction mode is to be selected. If the tilt correction mode is not selected and the normal mode is selected, the process proceeds to step S10, where the user selects a desired mode. A snapshot of the subject is taken.

【0127】一方、ステップS1においてあおり補正モ
ードが選択されるとステップS2へ進み、基準画像設定
部20に対してあおり歪みを補正する対象としての基準
画像が設定される。ここで基準画像設定部20には、図
28に示されるように、上方向スクロールキー201及
び下方向スクロールキー202と決定キー203とが含
まれる。また、表示部17には「基準画像設定」という
文字がオーバレイ表示されると共に、いずれの光学系1
1A、11Bで撮影された画像を上記基準画像とするか
という選択がユーザに求められる。
On the other hand, if the tilt correction mode is selected in step S1, the process proceeds to step S2, where a reference image as a target for correcting tilt distortion is set in the reference image setting section 20. Here, the reference image setting unit 20 includes an upward scroll key 201, a downward scroll key 202, and an enter key 203, as shown in FIG. In addition, a character string “reference image setting” is displayed on the display unit 17 as an overlay, and any optical system 1 is displayed.
The user is required to select whether to use the images captured in 1A and 11B as the reference images.

【0128】すると、ユーザは上方向スクロールキー2
01又は下方向スクロールキー202を操作することに
より、例えば三角形で示されるポインタを表示部17上
で動かし、光学系11Aを選択する「カメラ1」という
表示、あるいは光学系11Bを選択する「カメラ2」と
いう表示のいずれかを指定する。そして、上記ポインタ
がいずれかの光学系を指定した状態で決定キー203を
押すと、該指定した光学系により撮影された画像が上記
基準画像とされる。ここで、上記基準画像の設定情報は
基準画像設定部20から主制御部14へ供給される。
Then, the user operates the upward scroll key 2
By operating the “01” or the downward scroll key 202, for example, a pointer indicated by a triangle is moved on the display unit 17 to display “Camera 1” for selecting the optical system 11A or “Camera 2” for selecting the optical system 11B. ". When the enter key 203 is pressed while the pointer designates one of the optical systems, an image photographed by the designated optical system is used as the reference image. Here, the setting information of the reference image is supplied from the reference image setting unit 20 to the main control unit 14.

【0129】次に、ステップS3においてユーザは被写
体の撮影を行う。このとき表示部17には、主制御部1
4による制御により、ステップS2で選択された光学系
で撮影された画像のみを表示することとすれば、あおり
歪みを補正しようとする画像が被写体の所望の範囲を含
んでいるか否かがユーザにより容易に確認される。
Next, in step S3, the user shoots a subject. At this time, the main controller 1 is displayed on the display 17.
If only the image captured by the optical system selected in step S2 is to be displayed by the control by step 4, it is determined by the user whether or not the image whose tilt is to be corrected includes a desired range of the subject. It is easily confirmed.

【0130】そしてステップS4においては、基準画像
内で特徴点が検出されると共に、基準画像と重複した領
域を有する画像内で該特徴点と同一の箇所を示す対応点
が検出される。なお、この特徴点及び対応点の検出は、
対応検出部21により実行されるが、この対応検出部2
1の構成及び動作は上記実施の形態1の場合と同様であ
る。
In step S4, a feature point is detected in the reference image, and a corresponding point indicating the same point as the feature point is detected in an image having an area overlapping with the reference image. In addition, detection of this feature point and corresponding point
This is executed by the correspondence detection unit 21.
The configuration and operation of the first embodiment are the same as those of the first embodiment.

【0131】次に、ステップS5において基準画像のあ
おり歪みを補正するためのパラメータを算出すると共
に、ステップS6において該パラメータを基にあおり歪
みを補正した画像を生成し、動作を終了する。ここで、
上記パラメータの算出及びあおり歪みを補正した画像の
生成は画像歪み補正部22により実行されるが、この画
像歪み補正部22の構成及び動作は上記実施の形態1の
場合と同様である。
Next, in step S5, a parameter for correcting the tilt distortion of the reference image is calculated, and in step S6, an image in which the tilt distortion has been corrected based on the parameter is generated, and the operation ends. here,
The calculation of the parameters and the generation of the image in which the tilt distortion has been corrected are executed by the image distortion correction unit 22. The configuration and operation of the image distortion correction unit 22 are the same as those in the first embodiment.

【0132】以上のように、本実施の形態4に係る画像
処理装置40によれば、撮像部41は光学系を少なくと
も2つ備えるため、ユーザは1回の撮影動作により上記
実施の形態に係る画像処理装置により得られる補正画像
を得ることができる。また、選択した光学系において撮
影された画像のみを表示部17に表示するようにすれ
ば、あおり歪みを補正しようとする画像が被写体の所望
の範囲を含んでいるか否かがユーザにより容易に確認で
きるので、ユーザは基準画像の撮影に一層注意を払うこ
とができ、撮影ミスの可能性を減少させることができ
る。
As described above, according to the image processing apparatus 40 according to the fourth embodiment, since the imaging section 41 has at least two optical systems, the user can perform the operation according to the above-described embodiment by performing a single photographing operation. A corrected image obtained by the image processing device can be obtained. In addition, if only the image captured by the selected optical system is displayed on the display unit 17, the user can easily confirm whether or not the image to be corrected for the tilt distortion includes a desired range of the subject. Since the user can do so, the user can pay more attention to the photographing of the reference image, and the possibility of photographing errors can be reduced.

【0133】また、図26に示された撮像部41には光
学系が3つ以上含まれてもよく、このような複数の光学
系を含む撮像部は、上記実施の形態2に係る画像処理装
置6に備えられてもよいことはいうまでもない。
The imaging section 41 shown in FIG. 26 may include three or more optical systems, and the imaging section including such a plurality of optical systems may be used in the image processing according to the second embodiment. It goes without saying that the device 6 may be provided.

【0134】なお、上記全ての実施の形態に係る画像処
理装置においては、被写体を撮像部により撮影する代わ
りに、ハードディスク等の記憶装置やCD−ROM等の
記憶媒体に格納された2枚以上の被写体像を外部記憶部
18等に取り込み、これらの被写体像を用いて補正画像
を生成してもよい。また、撮影モード設定部19や基準
画像設定部20、対応検出部21、画像歪み補正部22
及び画像合成部24等が撮像部11,41とは別の筐
体、例えば計算機等に収められているものも上記実施の
形態と同様に考えられる。
In the image processing apparatuses according to all of the above-described embodiments, two or more sheets stored in a storage device such as a hard disk or a storage medium such as a CD-ROM are used instead of photographing a subject with an imaging unit. The subject images may be loaded into the external storage unit 18 or the like, and a corrected image may be generated using these subject images. Further, a shooting mode setting unit 19, a reference image setting unit 20, a correspondence detection unit 21, an image distortion correction unit 22
The case where the image synthesizing unit 24 and the like are housed in a housing different from the imaging units 11 and 41, for example, a computer or the like, is also considered in the same manner as in the above embodiment.

【0135】また、対応検出部21では、相関法による
濃度マッチングにより対応点が検出されると説明した
が、時空間微分法など別の手法で行っても良い。さら
に、あおり歪みパラメータの算出においては、上記のよ
うな式(20)に示された座標変換に限られず、他のパ
ラメータ算出方法を適用してもよい。 [実施の形態5]上記実施の形態においては、画像処理
の対象とする基準画像に対して座標変換パラメータを算
出し、補間演算を用いて歪み補正画像が生成されたが、
該基準画像は豊富な書画情報を含み、かつ補間演算によ
る画像の劣化が少ない画像、すなわち比較的被写体に正
対した状態で撮影された画像であることが好ましい。そ
こで、以下においては、最適な基準画像を自動的に選択
する画像処理方法と、該方法を実行する画像処理装置に
ついて説明する。
Although the correspondence detection unit 21 has been described as detecting corresponding points by density matching by the correlation method, it may be performed by another method such as a spatiotemporal differentiation method. Further, the calculation of the tilt distortion parameter is not limited to the coordinate transformation shown in the above equation (20), and another parameter calculation method may be applied. [Embodiment 5] In the above-described embodiment, a coordinate conversion parameter is calculated for a reference image to be subjected to image processing, and a distortion-corrected image is generated by using an interpolation operation.
It is preferable that the reference image is an image that includes abundant document information and has little deterioration of the image due to the interpolation operation, that is, an image that is photographed while relatively facing the subject. Therefore, hereinafter, an image processing method for automatically selecting an optimal reference image and an image processing apparatus for executing the method will be described.

【0136】図29は、本発明の実施の形態5に係る画
像処理装置における第一の構成例を示す図である。図2
9に示されるように、本実施の形態5に係る画像処理装
置50は、図3に示された実施の形態1に係る画像処理
装置1と同様な構成を有するが、基準画像設定部20の
代わりに被写体領域判定部25と基準画像自動選択部2
7とを備える点で相違するものである。
FIG. 29 is a diagram showing a first configuration example of the image processing apparatus according to the fifth embodiment of the present invention. FIG.
As shown in FIG. 9, the image processing apparatus 50 according to the fifth embodiment has the same configuration as the image processing apparatus 1 according to the first embodiment shown in FIG. Instead, the subject area determination unit 25 and the reference image automatic selection unit 2
7 is provided.

【0137】ここで、被写体領域判定部25及び基準画
像自動選択部27は、それぞれ主制御部14に接続さ
れ、被写体領域判定部25の出力端は基準画像自動選択
部27に接続される。また、基準画像自動選択部27の
出力端は、画像歪み補正部22に接続される。
Here, the subject area determination section 25 and the reference image automatic selection section 27 are connected to the main control section 14, respectively, and the output terminal of the subject area determination section 25 is connected to the reference image automatic selection section 27. The output end of the reference image automatic selection unit 27 is connected to the image distortion correction unit 22.

【0138】なお、本実施の形態5に係る画像処理装置
50においても、図4に示されるように、上記実施の形
態1に係る画像処理装置1と同様な構成とすることがで
きる。
Note that the image processing apparatus 50 according to the fifth embodiment can also have the same configuration as the image processing apparatus 1 according to the first embodiment, as shown in FIG.

【0139】以下において、本実施の形態5に係る画像
処理装置50の動作を、図30に示されたフローチャー
トを参照しつつ説明する。ここで、本実施の形態5に係
る画像処理装置50は、上記実施の形態1に係る画像処
理装置1と同様に動作するため、以下においては相違点
を中心に詳しく説明する。
Hereinafter, the operation of the image processing apparatus 50 according to the fifth embodiment will be described with reference to the flowchart shown in FIG. Here, since the image processing device 50 according to the fifth embodiment operates in the same manner as the image processing device 1 according to the first embodiment, the following description will focus on the differences.

【0140】まずステップS1において、ユーザによ
り、あおり補正モードを選択するか否か判断され、あお
り補正モードが選択されず通常モードが選択される場合
にはステップS10へ進み、該ユーザにより所望のスナ
ップ写真が撮影される。
First, in step S1, it is determined whether or not the tilt correction mode is selected by the user. If the tilt correction mode is not selected and the normal mode is selected, the process proceeds to step S10, and the user selects a desired snap mode. A picture is taken.

【0141】一方、ステップS1においてユーザにより
あおり補正モードが選択されるときには、ステップS2
へ進む。そして、ステップS2においては、撮像部11
により少なくとも二回撮影された被写体像がフレームメ
モリ15へ取り込まれる。なおこのとき、互いに該被写
体像の一部が重なり合うように、各々の画像が撮影され
る必要がある。
On the other hand, when the tilt correction mode is selected by the user in step S1, step S2
Proceed to. Then, in step S2, the imaging unit 11
Thus, the subject image photographed at least twice is taken into the frame memory 15. At this time, each image needs to be photographed such that a part of the subject image overlaps with each other.

【0142】次に、ステップS3において被写体像の入
力が終了したか否かが判断され、終了していない場合に
はステップS2へ戻り、さらに被写体像の入力が継続さ
れる。一方、ユーザによる撮影終了の指示により被写体
像の入力を終了した場合には、ステップS4へ進む。
Next, in step S3, it is determined whether or not the input of the subject image has been completed. If the input has not been completed, the process returns to step S2, and the input of the subject image is continued. On the other hand, if the input of the subject image has been completed by the user's instruction to end the shooting, the process proceeds to step S4.

【0143】そして、ステップS4では、対応検出部2
1により被写体像の中において特徴点が検出され、該被
写体像の少なくとも一部において重複する参照画像の中
においては、上記特徴点と同一箇所を示す対応点が検出
される。次に、特徴点と対応点の検出が終了すると、以
下においてあおり歪みを補正する動作に入る。そしてま
ず、ステップS5において、基準画像自動選択部27は
あおり歪み補正の対象とする基準画像を自動選択する。
以下において、基準画像自動選択部27について詳しく
説明する。
Then, in step S4, the correspondence detection unit 2
A feature point is detected in the subject image by 1 and a corresponding point indicating the same place as the feature point is detected in a reference image overlapping at least a part of the subject image. Next, when the detection of the feature point and the corresponding point is completed, the operation for correcting the tilt distortion starts below. First, in step S5, the reference image automatic selection unit 27 automatically selects a reference image to be subjected to tilt distortion correction.
Hereinafter, the reference image automatic selection unit 27 will be described in detail.

【0144】なお、上記実施の形態1に係る画像処理装
置1と同様に、ステップS6においては、ステップS5
において選択された基準画像に対してあおり歪みを補正
するためのパラメータを計算し、ステップS7において
該パラメータを基に画像のあおり歪みを補正した画像を
作成し、動作を終了する。
As in the case of the image processing apparatus 1 according to the first embodiment, in step S6, step S5
In step S7, a parameter for correcting the tilt distortion is calculated for the selected reference image, and in step S7, an image in which the tilt distortion of the image is corrected is created based on the parameter, and the operation ends.

【0145】あおり歪みを補正する場合、上記基準画像
としては、撮影された複数の画像の中で被写体面が最も
広い領域に渡って写っており、ユーザの必要とする書画
情報量が豊富である画像が選択されると好適である。ま
た、撮影時における撮像面の被写体面に対してなす角
(以下において、「あおり角」とも呼ぶ)ができるだけ
小さい画像が選択されると好適である。その理由につい
て、図31を参照しつつ説明する。
When correcting the tilt distortion, as the reference image, the object plane is shown over the widest region among the plurality of images taken, and the amount of document information required by the user is abundant. Preferably, an image is selected. In addition, it is preferable to select an image in which the angle formed by the imaging surface with respect to the object plane during photographing (hereinafter, also referred to as “tilt angle”) is as small as possible. The reason will be described with reference to FIG.

【0146】図29に示された画像歪み補正部22は、
上記のように式(25)による座標変換を実行すること
によってあおり歪み補正を行うが、あおり角φに応じて
該補正動作が変化する。ここでは、説明を簡単なものに
するためあおり角φがy軸周りに限られ、かつ被写体面
に平行な被投影面31の大きさが撮像面32の大きさに
等しいと仮定する。
The image distortion correction section 22 shown in FIG.
As described above, the tilt correction is performed by executing the coordinate conversion based on the equation (25), but the correction operation changes according to the tilt angle φ. Here, for the sake of simplicity, it is assumed that the tilt angle φ is limited around the y-axis, and that the size of the projection surface 31 parallel to the subject surface is equal to the size of the imaging surface 32.

【0147】図31(a)に示されるように、あおり角
φが比較的小さい場合における該座標変換においては、
撮像面32の左端近傍の点は、原点oに向かうベクトル
で示される変分により被投影面31へ投影される。な
お、このような座標変換によって被投影面31内におけ
る斜線部において、被写体像の解像度が低下する。
As shown in FIG. 31 (a), in the coordinate conversion when the tilt angle φ is relatively small,
A point near the left end of the imaging surface 32 is projected onto the projection surface 31 by variation indicated by a vector toward the origin o. Note that the resolution of the subject image is reduced in the hatched portion in the projection target surface 31 due to such coordinate conversion.

【0148】一方、図31(b)に示されるように、該
座標変換においてあおり角φが比較的大きい場合には、
撮像面32の左端近傍の点は、図31(a)に示される
変分より大きな変分を伴い、すなわち原点oに対する位
置ベクトルがより大きく縮小されるように被投影面31
に投影される。そして、該座標変換により被写体像の解
像度が低下する領域は、図31(a)の場合に比して大
きくなることが分かる。
On the other hand, as shown in FIG. 31B, when the tilt angle φ is relatively large in the coordinate conversion,
A point near the left end of the imaging surface 32 involves a variation larger than the variation shown in FIG. 31A, that is, the projection surface 31 such that the position vector with respect to the origin o is further reduced.
Projected to Then, it can be seen that the area where the resolution of the subject image is reduced by the coordinate conversion is larger than that in the case of FIG.

【0149】従って、以上より、あおり角φが小さいほ
ど画像歪み補正部22による座標変換に起因した解像度
の劣化は少なくなることが分かる。
Accordingly, it is understood from the above that the smaller the tilt angle φ is, the less the resolution is deteriorated due to the coordinate transformation by the image distortion correction unit 22.

【0150】また、図29に示された被写体領域判定部
25は、撮影した画像において被写体が占める領域を検
出するが、例えば文献『画像の処理と認識』(安居院猛
・長尾智晴共著、昭晃堂)に記載されているように、
(a)領域成長法や領域分割法のように画像上でクラス
タリングを行う方法、(b)ヒストグラムによる領域分
割など、特徴空間上でクラスタリングを行う方法、
(c)輪郭線追跡などの画像中のエッジを用いる方法、
(d)テクスチャ解析、などの領域分割方法が適用され
る。そして、被写体領域判定部25は、該判定結果に応
じて被写体の広い範囲を撮影した画像を上記基準画像と
して選択する。その結果、基準画像として豊富な書画情
報を含む画像を自動的に選択することができる。
The subject area determination unit 25 shown in FIG. 29 detects the area occupied by the subject in the photographed image. For example, see the document “Image Processing and Recognition” (Takeharu Yasui and Tomoharu Nagao, Shoko Temple),
(A) a method of performing clustering on an image such as a region growing method or a region division method, (b) a method of performing clustering on a feature space such as region division by a histogram,
(C) a method using edges in an image, such as contour tracing,
(D) An area division method such as texture analysis is applied. Then, the subject area determination unit 25 selects an image obtained by photographing a wide range of the subject as the reference image according to the determination result. As a result, an image including abundant document information can be automatically selected as the reference image.

【0151】ここで、本発明の実施の形態5に係る画像
処理装置は、図32に示されるような構成とすることも
できる。すなわち、図32に示された画像処理装置51
は、図29に示された画像処理装置50と同様な構成を
有するが、被写体領域判定部25の代わりに直線状パタ
ーン検出部28を備える点で相違するものである。
Here, the image processing apparatus according to Embodiment 5 of the present invention may have a configuration as shown in FIG. That is, the image processing device 51 shown in FIG.
Has a configuration similar to that of the image processing apparatus 50 shown in FIG. 29, but differs in that a linear pattern detection unit 28 is provided instead of the subject area determination unit 25.

【0152】一般的に、文書を初めとする被写体面にお
いては、文字列や罫線など互いに平行な関係にある直線
状パターンが多数存在する。しかし、撮影時におけるあ
おり角が大きい場合には、本来平行であるはずの直線状
パターンが、異なる向きを持つ直線状パターンとして画
像に投影される。従って、画像に投影された直線状パタ
ーンの向きのばらつきを調べることにより該あおり角の
大小を判別し、あおり角の小さな画像を自動的に基準画
像として選択することができる。
Generally, on a subject surface such as a document, there are many linear patterns such as character strings and ruled lines which are in parallel with each other. However, when the tilt angle at the time of photographing is large, linear patterns that should be originally parallel are projected on the image as linear patterns having different directions. Therefore, by examining the variation in the direction of the linear pattern projected on the image, the magnitude of the tilt angle can be determined, and the image with the small tilt angle can be automatically selected as the reference image.

【0153】ここで、図32に示された直線状パターン
検出部28は、撮影された複数の画像において直線状パ
ターンを検出する処理を行う。そして、以下に該直線状
パターンの検出方法の一例を説明する。
Here, the linear pattern detecting section 28 shown in FIG. 32 performs a process of detecting a linear pattern in a plurality of captured images. An example of a method for detecting the linear pattern will be described below.

【0154】まず、該複数の画像において微分を取るこ
とにより、エッジ画像を作成する。次に、作成されたエ
ッジ画像における断片的なエッジ点群を直線状セグメン
トに分割し、それぞれの直線状セグメントを以下の式
(28)に示される直線方程式に当てはめる。 ax+by+c=0 (a+b=1) (28) ここで、上記式(28)への当てはめは、直線状セグメ
ントを構成する点群を用いて、最小自乗法を適用するこ
とによりなされる。そして、直線状セグメントに対する
直線の当てはめが終了すると、直線の向きを表すパラメ
ータである(a,b)のばらつきを求める。このように
して、上記複数の画像全てに対して(a,b)のパラメ
ータのばらつきを求めることにより、各画像における直
線の向きのばらつきを知ることができる。そして、最も
直線の向きのばらつきが小さい画像を、自動的に基準画
像として選択することができる。
First, an edge image is created by taking a derivative of the plurality of images. Next, the fragmentary edge point group in the created edge image is divided into linear segments, and each linear segment is applied to a linear equation represented by the following equation (28). ax + by + c = 0 (a 2 + b 2 = 1) (28) Here, the above equation (28) is applied by applying the least square method using the point group forming the linear segment. Then, when the fitting of the straight line to the straight segment is completed, the variation of (a, b) which is the parameter indicating the direction of the straight line is obtained. In this way, by obtaining the variation of the parameter (a, b) for all of the plurality of images, it is possible to know the variation in the direction of the straight line in each image. Then, the image having the smallest variation in the direction of the straight line can be automatically selected as the reference image.

【0155】また、基準画像の自動選択においては、以
下のような方法を適用することもできる。まず、上記複
数の画像において上記と同様な方法でエッジ画像を作成
する。次に、該エッジ画像内の全ての点に対してHough
変換を施す。ここでHough変換とは、断片的なエッジよ
り直線を検出するために使用される数学的変換であり、
検出したい線を表現する式のパラメータにより構成され
る空間で、クラスタリングする方法をいう。そして、よ
り具体的には、画像上の点列をx軸となす角θと直線の
長さρとにより示されるθ−ρ空間へ投影する。
In the automatic selection of the reference image, the following method can be applied. First, an edge image is created for the plurality of images in the same manner as described above. Next, Hough is applied to all the points in the edge image.
Perform the conversion. Here, the Hough transform is a mathematical transform used to detect a straight line from a fragmentary edge,
This is a method of performing clustering in a space formed by parameters of an expression representing a line to be detected. More specifically, the point sequence on the image is projected onto a θ-ρ space indicated by an angle θ forming the x-axis and a length ρ of the straight line.

【0156】図33は、図33(a)に示された画像空
間から図33(b)に示されるθ−ρ空間へのHough変
換を説明する図である。図33に示されるように、Houg
h変換により画像上の各点P1〜P3は、それぞれ対応
する曲線L1〜L3に変換される。そして、このような
変換を画像上の全点について実行すると、θ−ρ空間に
おいて該曲線の軌跡が集中している点CPが生じるが、
この点CPはエッジ画像において多くのエッジ点を通る
直線に相当する。ここで、この点CPの座標を(θ,
ρ)とすれば、次の式(29)に対応する直線が検出さ
れたことになる。 ρ=xcosθ+ysinθ (29) そして、上記複数の画像すべてに対し、該曲線が集中す
る点CPを多数抽出し、これらの点におけるθのばらつ
きを求めることにより、各画像における直線の向きのば
らつきを知ることができる。このようにして、最も直線
の向きのばらつきが小さな画像を、自動的に基準画像と
して選択すれば良い。
FIG. 33 is a diagram for explaining the Hough transform from the image space shown in FIG. 33 (a) to the θ-ρ space shown in FIG. 33 (b). As shown in FIG.
The points P1 to P3 on the image are converted into corresponding curves L1 to L3 by the h conversion. When such a conversion is performed for all points on the image, a point CP where the locus of the curve is concentrated in the θ-ρ space occurs.
This point CP corresponds to a straight line passing through many edge points in the edge image. Here, the coordinates of this point CP are represented by (θ,
ρ), a straight line corresponding to the following equation (29) is detected. ρ = xcos θ + ysin θ (29) Then, for all of the plurality of images, a large number of points CP at which the curve is concentrated are extracted, and variations in θ at these points are obtained, whereby variations in the direction of the straight line in each image are known. be able to. In this way, the image having the smallest variation in the direction of the straight line may be automatically selected as the reference image.

【0157】図34は、本発明の実施の形態5に係る画
像処理装置における第三の構成例を示す図である。図3
4に示されるように、本実施の形態5に係る画像処理装
置は、図29に示された被写体領域判定部25や、図3
2に示された直線状パターン検出部28を備えることな
く、基準画像自動選択部27を対応検出部21に接続す
ることとしても良い。
FIG. 34 is a diagram showing a third configuration example of the image processing apparatus according to the fifth embodiment of the present invention. FIG.
As shown in FIG. 4, the image processing apparatus according to the fifth embodiment includes the subject area determination unit 25 shown in FIG.
The reference image automatic selection unit 27 may be connected to the correspondence detection unit 21 without including the linear pattern detection unit 28 shown in FIG.

【0158】上記対応検出部21により検出された特徴
点と対応点の組は射影変換行列B、すなわちあおり歪み
を補正するパラメータの計算に使用される。このとき一
般的には、該パラメータは、上記特徴点と対応点の組が
多数あり、かつそれらが広範囲に分散しているほど精度
良く算出される。そこで、撮影された複数の画像に対し
て、対応検出部21により検出された特徴点と対応点の
組、及びそれらの画像における分散を調べ、それらの値
が最大である画像を自動的に基準画像として選択しても
良い。
The set of feature points and corresponding points detected by the correspondence detection section 21 is used for calculating a projection transformation matrix B, that is, a parameter for correcting tilt distortion. At this time, generally, the parameter is calculated with higher accuracy as the number of sets of the feature points and the corresponding points is larger and the parameters are more widely dispersed. Therefore, for a plurality of captured images, a set of feature points and corresponding points detected by the correspondence detection unit 21 and a variance in the images are checked, and an image having the maximum value is automatically determined as a reference. It may be selected as an image.

【0159】また、上記の相関法に基づく対応検出にお
いては、一般的に画像中に特徴のあるパターンが多いほ
ど、数多くの特徴点と対応点が検出される。そして、特
徴のあるパターンが多いことは、ユーザにとって有用な
書画情報が画像中に多く含まれている可能性が高いの
で、特徴点及び対応点が豊富な画像を基準画像として自
動選択すれば、必要な書画情報を含む画像をあおり歪み
補正の対象とすることができ好適である。
In the correspondence detection based on the above-described correlation method, generally, the more feature patterns in an image, the more feature points and corresponding points are detected. And since there are many patterns with features, it is highly likely that many useful document information for the user is included in the image, so if an image rich in feature points and corresponding points is automatically selected as a reference image, It is preferable that an image including necessary document information can be subjected to the tilt distortion correction.

【0160】図35は、本発明の実施の形態5に係る画
像処理装置における第四の構成例を示す図である。図3
5に示されるように、本実施の形態5に係る画像処理装
置は、図29に示された被写体領域判定部25や、図3
2に示された直線状パターン検出部28の代わりに、平
面計測部29を備えることとしても良い。
FIG. 35 is a diagram showing a fourth configuration example of the image processing apparatus according to the fifth embodiment of the present invention. FIG.
As shown in FIG. 5, the image processing apparatus according to the fifth embodiment includes the subject area determination unit 25 shown in FIG.
Instead of the linear pattern detection unit 28 shown in FIG. 2, a plane measurement unit 29 may be provided.

【0161】ここで、平面計測部29は、各画像の撮影
時における撮像部11に対する被写体の向きを計測す
る。図36は、図35に示された平面計測部29の構成
例を示す図である。図36に示されるように、平面計測
部29はスポット光源271と、受光素子272と、3
次元座標算出部273と、平面算出部274とを備え、
スポット光源271は発光ダイオードや半導体レーザ等
からなる光源271aと、ポリゴンミラー等の走査ミラ
ー271bと、走査ミラー271bの動きを制御する駆
動部271cとを含む。
Here, the plane measuring section 29 measures the direction of the subject with respect to the image pickup section 11 at the time of photographing each image. FIG. 36 is a diagram illustrating a configuration example of the plane measurement unit 29 illustrated in FIG. As shown in FIG. 36, the plane measuring unit 29 includes a spot light source 271, a light receiving element 272,
A dimension coordinate calculator 273 and a plane calculator 274;
The spot light source 271 includes a light source 271a including a light emitting diode or a semiconductor laser, a scanning mirror 271b such as a polygon mirror, and a driving unit 271c for controlling the movement of the scanning mirror 271b.

【0162】ここで、上記スポット光源271において
は、光源271aにより発生されたスポット光が被写体
面PLに当るように、走査ミラー271bが駆動部27
1cにより制御される。また、受光素子272は、スポ
ット光源271に対する位置が予め測定されている場所
に設置されたPSD(Position sensitive detector)
やCCD等の光電変換素子により構成され、被写体面P
Lからの反射光の向きを検出する。なお、撮像部11に
含まれた光電変換素子114を、上記における受光素子
272として使用してもよい。
Here, in the spot light source 271, the scanning mirror 271b is driven by the driving unit 27 so that the spot light generated by the light source 271a impinges on the object plane PL.
1c. The light receiving element 272 is a PSD (Position sensitive detector) installed at a location where the position with respect to the spot light source 271 is measured in advance.
And a photoelectric conversion element such as a CCD.
The direction of the reflected light from L is detected. Note that the photoelectric conversion element 114 included in the imaging unit 11 may be used as the light receiving element 272 in the above.

【0163】また、3次元座標算出部273は、スポッ
ト光源271が照射したスポット光の向きと、スポット
光源271と受光素子272との位置関係、及び受光素
子272が検出した反射光の向きに応じて、三角測量の
原理を用いることにより画像処理装置53を基準とした
被写体面PLの3次元座標(X,Y,Z)を算出する。
そして、平面算出部274は、3次元座標算出部273
により算出された同一直線上にない3点以上の3次元座
標を用いて、平面方程式を推定する。例えば、求める平
面方程式を、 aX+bY+cZ+d=0(a+b+c=1,c>0) (30) とおき、3点以上の3次元座標を用いて、上記平面方程
式における4つのパラメータ(a,b,c,d)を最小
自乗法により計算する。その結果、上記あおり角φは次
式(31)により計算される。 φ=cos−1c (31) 従って、撮影された複数の画像全てに対して被写体面の
向きを計測し、そのあおり角φが最小である画像を自動
的に基準画像として選択すればよい。
The three-dimensional coordinate calculator 273 determines the direction of the spot light emitted by the spot light source 271, the positional relationship between the spot light source 271 and the light receiving element 272, and the direction of the reflected light detected by the light receiving element 272. Then, the three-dimensional coordinates (X, Y, Z) of the subject plane PL with respect to the image processing device 53 are calculated by using the principle of triangulation.
Then, the plane calculation unit 274 includes a three-dimensional coordinate calculation unit 273.
The plane equation is estimated using the three-dimensional coordinates of three or more points that are not on the same straight line calculated by the above. For example, the plane equation to be obtained is set as aX + bY + cZ + d = 0 (a 2 + b 2 + c 2 = 1, c> 0) (30), and the four parameters (a , B, c, d) are calculated by the least squares method. As a result, the tilt angle φ is calculated by the following equation (31). φ = cos −1 c (31) Accordingly, the orientation of the object plane is measured for all of the plurality of captured images, and the image having the smallest tilt angle φ may be automatically selected as the reference image.

【0164】その他、画像歪み補正部22の説明におい
て記したように、対応検出部21により検出された特徴
点と対応点との組を用いることによっても、該被写体の
向きを求めることができる。従って、本実施の形態5に
係る画像処理装置は、いったん画像歪み補正部22にお
いて式(14)ないし式(18)を実行して被写体の向
きを求め、得られた結果を基準画像自動選択部27へ出
力するという構成とすることもできる。 [実施の形態6]以下においては、図18に示されるよ
うに、同一の被写体面PLにおける静止画像が、画像の
一部においてそれぞれ重複するように複数の方向から撮
影された場合を前提とした実施の形態を説明する。な
お、ここでは図18に示されるように、方向dから撮
影することにより画像imj(1≦j≦K)が得られ、
例えば画像im1と画像im2のように隣り合う方向に
おいて撮影することにより得られた画像imjと画像i
m(j+1)(1≦j≦K−1)との間ではそれぞれ重
複領域があるものとする。そして、本実施の形態6に係
る画像処理装置においては、基準画像として選択された
いずれか一つの画像に整合するように、他の画像が貼り
合わされ合成画像が生成される。
In addition, as described in the description of the image distortion correction unit 22, the orientation of the subject can be obtained by using a set of the feature points and the corresponding points detected by the correspondence detection unit 21. Therefore, in the image processing apparatus according to the fifth embodiment, the image distortion correction unit 22 once executes Expressions (14) to (18) to determine the direction of the subject, and uses the obtained result as the reference image automatic selection unit. 27. [Sixth Embodiment] The following description is based on the premise that, as shown in FIG. 18, still images on the same subject plane PL are photographed from a plurality of directions so as to partially overlap each other in a part of the image. An embodiment will be described. Here, as shown in FIG. 18, the image imj (1 ≦ j ≦ K) is obtained by photographing from the direction d j,
For example, an image imj and an image i obtained by shooting in adjacent directions like an image im1 and an image im2
It is assumed that there is an overlap area between m (j + 1) (1 ≦ j ≦ K−1). Then, in the image processing apparatus according to the sixth embodiment, another image is pasted so as to match any one of the images selected as the reference image, and a combined image is generated.

【0165】図37は、本発明の実施の形態6に係る画
像処理装置60の構成を示す図である。図37に示され
るように、本実施の形態6に係る画像処理装置60は、
図19に示された実施の形態2に係る画像処理装置6と
同様な構成を有するが、基準画像設定部20の代わりに
基準画像自動選択部27を備える点で相違するものであ
る。
FIG. 37 is a diagram showing a configuration of an image processing apparatus 60 according to Embodiment 6 of the present invention. As shown in FIG. 37, the image processing device 60 according to Embodiment 6
It has the same configuration as the image processing device 6 according to the second embodiment shown in FIG. 19, but differs in that a reference image automatic selection unit 27 is provided instead of the reference image setting unit 20.

【0166】上記のような構成を有する本実施の形態6
に係る画像処理装置60は、実施の形態2に係る画像処
理装置6と同様に動作するが、以下において、本実施の
形態6に係る画像処理装置60の動作を、図38に示さ
れたフローチャートを参照しつつ相違点を中心に説明す
る。
Embodiment 6 Having the Configuration As Above
Operates in the same manner as the image processing apparatus 6 according to the second embodiment, but the operation of the image processing apparatus 60 according to the sixth embodiment will be described below with reference to the flowchart shown in FIG. The differences will be mainly described with reference to FIG.

【0167】まずステップS1において、ユーザによ
り、画像合成モードを選択するか否か判断され、画像合
成モードが選択されず通常モードが選択される場合には
ステップS10へ進み、該ユーザにより所望のスナップ
写真が撮影される。
First, in step S1, it is determined whether or not the user selects the image combining mode. If the image combining mode is not selected and the normal mode is selected, the process proceeds to step S10, and the user selects a desired snap mode. A picture is taken.

【0168】一方、ステップS1においてユーザにより
画像合成モードが選択されるときには、ステップS2へ
進む。そして、ステップS2においては、撮像部11に
より撮影された複数の被写体像がフレームメモリ15へ
取り込まれる。なおこのとき、互いに該被写体像の一部
が重なり合うように、各々の画像が撮影される必要があ
る。
On the other hand, when the image synthesis mode is selected by the user in step S1, the process proceeds to step S2. Then, in step S2, a plurality of subject images photographed by the imaging unit 11 are loaded into the frame memory 15. At this time, each image needs to be photographed such that a part of the subject image overlaps with each other.

【0169】次に、ステップS3において被写体像の入
力が終了したか否かが判断され、終了していない場合に
はステップS2へ戻り、さらに被写体像の入力が継続さ
れる。一方、ユーザによる撮影終了の指示により被写体
像の入力を終了した場合には、ステップS4へ進む。
Next, in step S3, it is determined whether or not the input of the subject image has been completed. If the input has not been completed, the process returns to step S2, and the input of the subject image is continued. On the other hand, if the input of the subject image has been completed by the user's instruction to end the shooting, the process proceeds to step S4.

【0170】そして、ステップS4では、対応検出部2
1により画像imjと画像im(j+1)との間におい
て特徴点が検出され、該画像imjの少なくとも一部に
おいて重複する画像im(j+1)の中においては、上
記特徴点と同一箇所を示す対応点が検出される。
Then, in step S4, the correspondence detection unit 2
1, a feature point is detected between the image imj and the image im (j + 1), and in the image im (j + 1) overlapping at least a part of the image imj, a corresponding point indicating the same location as the above feature point Is detected.

【0171】次に、該特徴点と該対応点の検出が終了す
ると、以下において複数枚の画像を貼り合せた合成画像
を生成する動作に入る。そしてまずステップS5におい
て、基準画像自動選択部27は、該合成において基準と
する基準画像を自動的に選択する。ここで、基準画像自
動選択部27は、上記あおり角ができるだけ小さい画像
を自動的に基準画像として選択する。そして、このよう
な選択を行うことにより、あおり歪みの小さな合成画像
を得ることができる。
Next, when the detection of the feature point and the corresponding point is completed, an operation for generating a composite image in which a plurality of images are combined will be described below. First, in step S5, the reference image automatic selection unit 27 automatically selects a reference image to be a reference in the synthesis. Here, the reference image automatic selection unit 27 automatically selects an image having the smallest possible tilt angle as a reference image. By making such a selection, it is possible to obtain a composite image with small tilt distortion.

【0172】そして、ステップS6においては、ステッ
プS5において選択された基準画像を基準とした合成を
行うための射影変換行列を算出し、ステップS7におい
て該射影変換行列を用いて合成画像を生成し、動作を終
了する。 [実施の形態7]図39は、本発明の実施の形態7に係
る画像処理装置の構成を示す図である。図39に示され
るように、本実施の形態7に係る画像処理装置70は、
図3に示された実施の形態1に係る画像処理装置1と同
様な構成を有するが、基準画像自動選択部27と、切り
替え部45とをさらに備える点で相違するものである。
In step S6, a projective transformation matrix for performing composition based on the reference image selected in step S5 is calculated, and in step S7, a combined image is generated using the projective transformation matrix. End the operation. [Seventh Embodiment] FIG. 39 is a diagram showing a configuration of an image processing apparatus according to a seventh embodiment of the present invention. As shown in FIG. 39, the image processing device 70 according to the seventh embodiment includes:
It has the same configuration as the image processing apparatus 1 according to the first embodiment shown in FIG. 3, but differs in that it further includes a reference image automatic selection unit 27 and a switching unit 45.

【0173】ここで、基準画像自動選択部27は主制御
部14により制御される。また、切り替え部45はその
入力端が基準画像設定部20及び基準画像自動選択部2
7に接続されると共に、出力端が画像歪み補正部22に
接続される。
Here, the reference image automatic selection section 27 is controlled by the main control section 14. The switching unit 45 has an input terminal whose reference end is the reference image setting unit 20 and the reference image automatic selection unit 2.
7, and an output terminal is connected to the image distortion correction unit 22.

【0174】また、切り替え部45は、基準画像の選択
方法を切り替えるものであり、図40に示されるよう
に、上方向スクロールキー201と下方向スクロールキ
ー202、及び決定キー203とを含む。ここで、表示
部17に表示されるメニューキー(図示していない)を
ユーザが選択的に押すことにより、図40に示されるよ
うな「基準画像の選択」という文字がオーバレイ表示さ
れた画面が表示部17に表示される。
The switching section 45 switches the method of selecting the reference image, and includes an upward scroll key 201, a downward scroll key 202, and an enter key 203, as shown in FIG. Here, when the user selectively presses a menu key (not shown) displayed on the display unit 17, a screen on which the character “selection of reference image” is overlaid as shown in FIG. 40 is displayed. Displayed on the display unit 17.

【0175】そして、上方向スクロールキー201又は
下方向スクロールキー202が該ユーザにより操作され
ることにより、図40に示された三角形のカーソルが上
下移動する。このとき、該カーソルが「AUTO」の文
字を指している状態において決定キー203が押される
と基準画像を自動的に選択することが決定され、図39
に示された基準画像自動選択部27が選択的に活性化さ
れる。一方、該カーソルが「MANUAL」の文字を指
している状態において決定キー203が押されると基準
画像を手動により設定することが決定され、図39に示
された基準画像設定部20が選択的に活性化される。
When the user operates the upward scroll key 201 or the downward scroll key 202, the triangular cursor shown in FIG. 40 moves up and down. At this time, when the enter key 203 is pressed while the cursor is pointing to the character “AUTO”, it is determined that the reference image is automatically selected, and FIG.
Are activated selectively. On the other hand, when the enter key 203 is pressed while the cursor is pointing to the character "MANUAL", it is determined that the reference image is to be manually set, and the reference image setting unit 20 shown in FIG. Be activated.

【0176】従って、本実施の形態7に係る画像処理装
置によれば、切り替え部45による切り替えにより、基
準画像設定部20又は基準画像自動選択部27のいずれ
か一方を選択的に画像歪み補正部22に接続することが
できるため、ユーザは基準画像の選択方法として自動又
は手動のいずれかを任意に選択することができる。
Therefore, according to the image processing apparatus of the seventh embodiment, either the reference image setting section 20 or the reference image automatic selection section 27 is selectively switched by the switching section 45 to the image distortion correction section. 22, the user can arbitrarily select either automatic or manual as a method of selecting the reference image.

【0177】なお、上述したいずれの実施の形態におい
ても、該実施の形態に係る画像処理方法をコンピュータ
プログラムとして記述することができる。そして、図4
1に示されるように、該プログラムを格納した記録媒体
301を画像処理装置1に装着し、画像処理装置1に該
プログラムを実行させることにより、上記画像処理を容
易に実現することができる。
In any of the above-described embodiments, the image processing method according to the embodiment can be described as a computer program. And FIG.
As shown in FIG. 1, the image processing can be easily realized by mounting the recording medium 301 storing the program in the image processing apparatus 1 and causing the image processing apparatus 1 to execute the program.

【0178】また、図42に示されるように、該プログ
ラムを格納したCD−ROM302をパーソナルコンピ
ュータ(パソコン)PCに装着し、該プログラムをパソ
コンPCで実行することによっても、上記画像処理を実
現することができる。なお、パソコンPCへ装着され該
プログラムを格納する記録媒体としては、上記CD−R
OM302に限られず、例えばDVD−ROM等であっ
てもよいことはいうまでもない。
As shown in FIG. 42, the image processing is also realized by mounting the CD-ROM 302 storing the program on a personal computer (PC) PC and executing the program on the PC. be able to. The recording medium mounted on the personal computer PC and storing the program is the CD-R described above.
It goes without saying that the present invention is not limited to the OM 302 but may be, for example, a DVD-ROM.

【0179】以下において、上記画像処理方法を該プロ
グラムの実行により実現する場合の具体例を説明する。
この場合には、画像処理装置1及びパソコンPCは、内
蔵されたメモリやハードディスクなどの記憶装置及びC
D−ROM等の記録媒体に格納された2枚以上の被写体
像を、計算機に搭載された各種インタフェースを介して
上記信号処理部12へ取り込む。
Hereinafter, a specific example in the case where the above-described image processing method is realized by executing the program will be described.
In this case, the image processing apparatus 1 and the personal computer PC include a storage device such as a built-in memory and a hard disk and a C
Two or more subject images stored in a recording medium such as a D-ROM are loaded into the signal processing unit 12 via various interfaces mounted on a computer.

【0180】また、上記における撮影モードの設定は、
パソコンPCのキーボードにおける所定のキーを押し、
又は画面上に表示されたアイコンをマウスクリックする
ことにより遂行される。一方、基準画像を手動により選
択する場合には、入力された複数の画像を画面上に間引
きして表示し、計算機に使用されるキーボードの上下カ
ーソルキーを押すか、あるいはマウスによりアイコンを
クリックすること等により、上記間引きされた画像が選
択される。そして、所望の画像が選択された状態で改行
キーが押されると、該画像が基準画像として設定され
る。
The setting of the photographing mode in the above is as follows.
Press a predetermined key on the keyboard of the personal computer PC,
Alternatively, this is performed by clicking a mouse on an icon displayed on the screen. On the other hand, when manually selecting a reference image, a plurality of input images are thinned out and displayed on a screen, and an up / down cursor key on a keyboard used for a calculator is pressed, or an icon is clicked with a mouse. Thus, the thinned image is selected. Then, when a line feed key is pressed while a desired image is selected, the image is set as a reference image.

【0181】また、撮像部11を構成する光学系の焦点
距離fについては、予め該光学系の焦点距離を測定して
おき、該記録媒体の内部に記録しておく。そして、ユー
ザは画面上において、実際の撮影の際に使用した光学系
の焦点距離を選択する。ここで、該焦点距離はヘッダ情
報として記録しておくこともできる。すなわち、例えば
画像データとしてExifフォーマットを使用する場合、そ
のヘッダ情報として撮影時の焦点距離を記録することが
できる。そして、本実施の形態に係る画像処理装置はこ
のヘッダ情報を読み取ることにより、該焦点距離を得る
ことができる。なお、上記のような方法が取れない場合
には、ダイアログボックス等をパソコンPCなどの画面
に表示して、該ダイアログボックス内においてユーザに
直接焦点距離を手入力させるとよい。
As for the focal length f of the optical system constituting the image pickup unit 11, the focal length of the optical system is measured in advance and recorded in the recording medium. Then, on the screen, the user selects the focal length of the optical system used at the time of actual shooting. Here, the focal length can be recorded as header information. That is, for example, when the Exif format is used as the image data, the focal length at the time of shooting can be recorded as the header information. Then, the image processing apparatus according to the present embodiment can obtain the focal length by reading the header information. If the above method cannot be performed, a dialog box or the like may be displayed on a screen of a personal computer PC or the like, and the user may manually input the focal length directly in the dialog box.

【0182】また、上記における被写体の向きについて
も、上記焦点距離と同様に扱うことができる。すなわ
ち、平面計測部29又は画像歪み補正部22により計測
された被写体の向きを、予め画像データファイル内のヘ
ッダ情報として記録しておき、本実施の形態に係る画像
処理装置は該ヘッダ情報を読み込むことにより該被写体
の向きを得ることとしても良い。
The orientation of the subject in the above can be handled in the same manner as the focal length. That is, the orientation of the subject measured by the plane measurement unit 29 or the image distortion correction unit 22 is recorded in advance as header information in the image data file, and the image processing apparatus according to the present embodiment reads the header information. Thus, the orientation of the subject may be obtained.

【0183】このとき、例えば画像データとしてExifフ
ォーマットを使用する場合には、被写体の向きを記録す
るためのフィールドは存在しないが、Maker Noteと呼ば
れる製造者が自由に利用できるフィールドに被写体の向
きを記録することができる。
At this time, for example, when the Exif format is used as image data, there is no field for recording the direction of the subject, but the field called Maker Note, which can be freely used by the manufacturer, is used to record the direction of the subject. Can be recorded.

【0184】また、上記のような方法を取ることが出来
ない場合には、焦点距離の場合と同様に、ダイアログボ
ックス等をパソコンPC等の画面上に表示して、ユーザ
に直接被写体の向きを入力させるようにすると良い。
If the above method cannot be used, a dialog box or the like is displayed on the screen of a personal computer PC or the like, as in the case of the focal length, so that the user can directly orient the subject. It is good to input.

【0185】なお、上記本発明の実施の形態は、デジタ
ルスチルカメラやデジタルビデオカメラを利用した紙面
情報入力、分割画像の貼り合わせ合成等の画像処理に適
用でき、また非接触ハンディスキャナやその他の画像機
器にも応用できる。
The above embodiment of the present invention can be applied to image processing such as input of paper surface information using a digital still camera or digital video camera, bonding and combining of divided images, and a non-contact handy scanner or other It can also be applied to imaging equipment.

【発明の効果】上述の如く、本発明によれば、被写体に
対して少なくとも一部が重複するよう複数の方向から撮
影された画像の歪みを補正する画像処理方法において、
複数の画像の中から歪みを補正する対象を選択すること
により、適正な画像を得るために最適な画像を補正対象
とすることができるため、より精度のよい該補正を実現
することができる。
As described above, according to the present invention, in an image processing method for correcting distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject,
By selecting a target for which distortion is to be corrected from among a plurality of images, an optimum image for obtaining an appropriate image can be set as a correction target, so that more accurate correction can be realized.

【0186】また、複数の画像の中から歪みが最も少な
い画像を選択して、歪みを補正した画像を該選択された
画像と合成すれば、より適正な合成画像を得ることがで
きる。
Further, by selecting an image having the least distortion from a plurality of images and combining the image with the corrected distortion with the selected image, a more appropriate synthesized image can be obtained.

【0187】ここで、画像内において被写体が占める領
域の広さに応じて補正の対象を自動的に選択すれば、必
要とされる書画情報量が最も豊富な画像の歪みを自動的
に補正することができるため、確実に適正な画像を得る
ことができる。
Here, if an object to be corrected is automatically selected in accordance with the size of the area occupied by the subject in the image, the distortion of the image requiring the largest amount of document information is automatically corrected. Therefore, an appropriate image can be reliably obtained.

【0188】また、画像内において検出される直線状パ
ターンの向きに応じて補正の対象を自動的に選択すれ
ば、被写体にほぼ正対した位置から撮影された画像を自
動的に補正対象とすることができるため、解像度が高い
適正な画像を得ることができる。
If an object to be corrected is automatically selected according to the direction of a linear pattern detected in an image, an image photographed from a position almost directly facing the subject is automatically set as an object to be corrected. Therefore, an appropriate image having a high resolution can be obtained.

【0189】また、特定された対応関係に応じて補正の
対象を自動的に選択すれば、精度の高い補正を確実に実
行することができるため、画像処理の信頼性を高めるこ
とができる。
Further, by automatically selecting an object to be corrected in accordance with the specified correspondence, highly accurate correction can be reliably performed, so that the reliability of image processing can be improved.

【0190】また、撮影毎に検出された被写体の向きに
応じて補正の対象を自動的に選択すれば、被写体に対し
てほぼ正対した位置から撮影された画像を自動的に補正
対象とすることができるため、解像度が高い適正な画像
を得ることができる。
If the object to be corrected is automatically selected according to the direction of the subject detected for each photographing, an image photographed from a position almost directly facing the subject is automatically set as the correction object. Therefore, an appropriate image having a high resolution can be obtained.

【0191】また、次に撮影する画像が歪みを補正する
際の基準とされる画像となることをユーザへ通知する通
知手段を備えた画像処理装置によれば、歪みを補正する
際に基準とされる画像の撮影においてユーザへ注意が喚
起されるため、ユーザの不注意などによる撮影ミスが回
避され、動作の信頼性及び補正画像の品質を高めること
ができる。
Further, according to the image processing apparatus provided with the notifying means for notifying the user that the image to be taken next will be the reference image for correcting the distortion, the reference value is used for correcting the distortion. Attention is drawn to the user in capturing the image to be taken, so that a capturing error due to the carelessness of the user can be avoided, and the reliability of operation and the quality of the corrected image can be improved.

【0192】また、被写体を同時に撮影する複数の光学
手段と、複数の光学手段で撮影される画像のうち補正の
対象とする画像を選択する選択手段とを備えた画像処理
装置によれば、一度の撮影により複数の方向から撮影さ
れた複数の被写体像を得ることができるため、歪みを補
正するために必要とされる撮影回数を減少させることに
よって操作が簡便にされると共に、より簡易に歪み補正
がされた画像を得ることができる。
According to the image processing apparatus provided with a plurality of optical means for simultaneously photographing a subject and a selecting means for selecting an image to be corrected from among the images photographed by the plurality of optical means, Since a plurality of subject images taken from a plurality of directions can be obtained by photographing, the operation can be simplified by reducing the number of times of photographing required for correcting the distortion, and the distortion can be more easily obtained. A corrected image can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来の技術における問題点を説明するための図
である。
FIG. 1 is a diagram for explaining a problem in a conventional technique.

【図2】本発明の実施の形態1に係る画像処理方法及び
画像処理装置を説明するための図である。
FIG. 2 is a diagram for explaining an image processing method and an image processing apparatus according to Embodiment 1 of the present invention.

【図3】本発明の実施の形態1に係る画像処理装置の構
成を示す図である。
FIG. 3 is a diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention.

【図4】図3に示された画像処理装置を示す斜視図であ
る。
FIG. 4 is a perspective view illustrating the image processing apparatus illustrated in FIG. 3;

【図5】本発明の実施の形態1に係る画像処理装置の動
作を示すフローチャートである。
FIG. 5 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment of the present invention.

【図6】図3に示された表示部における撮影時の表示例
を示す図である。
6 is a diagram showing a display example at the time of shooting on the display unit shown in FIG. 3;

【図7】図3に示された基準画像設定部のレイアウトを
示す図である。
FIG. 7 is a diagram showing a layout of a reference image setting unit shown in FIG. 3;

【図8】本発明の実施の形態1に係る画像処理装置の他
の例を示す図である。
FIG. 8 is a diagram showing another example of the image processing device according to the first embodiment of the present invention.

【図9】図3に示された対応検出部の構成を示す図であ
る。
FIG. 9 is a diagram illustrating a configuration of a correspondence detection unit illustrated in FIG. 3;

【図10】図9に示された相関演算部の動作を説明する
図である。
FIG. 10 is a diagram illustrating the operation of the correlation operation unit shown in FIG.

【図11】図3に示された画像歪み補正部の構成を示す
図である。
FIG. 11 is a diagram illustrating a configuration of an image distortion correction unit illustrated in FIG. 3;

【図12】図3に示された画像歪み補正部の動作を説明
する第一の図である。
FIG. 12 is a first diagram illustrating an operation of the image distortion correction unit illustrated in FIG. 3;

【図13】図3に示された撮像部の光学系を説明する図
である。
FIG. 13 is a diagram illustrating an optical system of the imaging unit illustrated in FIG.

【図14】図11に示された3次元演算部による射影変
換を説明する図である。
FIG. 14 is a diagram illustrating a projective transformation by the three-dimensional operation unit shown in FIG. 11;

【図15】図3に示された画像歪み補正部の動作を説明
する第二の図である。
FIG. 15 is a second diagram illustrating an operation of the image distortion correction unit illustrated in FIG. 3;

【図16】図11に示されたパラメータ算出部の動作を
説明する第一の図である。
FIG. 16 is a first diagram illustrating an operation of the parameter calculation unit illustrated in FIG. 11;

【図17】図11に示されたパラメータ算出部の動作を
説明する第二の図である。
FIG. 17 is a second diagram illustrating the operation of the parameter calculator shown in FIG. 11;

【図18】本発明の実施の形態2に係る画像処理方法及
び画像処理装置を説明するための図である。
FIG. 18 is a diagram for explaining an image processing method and an image processing apparatus according to Embodiment 2 of the present invention.

【図19】本発明の実施の形態2に係る画像処理装置の
構成を示す図である。
FIG. 19 is a diagram showing a configuration of an image processing apparatus according to Embodiment 2 of the present invention.

【図20】本発明の実施の形態2に係る画像処理装置の
動作を示すフローチャートである。
FIG. 20 is a flowchart showing an operation of the image processing apparatus according to the second embodiment of the present invention.

【図21】図19に示された画像合成部の構成を示す図
である。
FIG. 21 is a diagram illustrating a configuration of an image combining unit illustrated in FIG. 19;

【図22】本発明の実施の形態3に係る画像処理装置の
構成を示す図である。
FIG. 22 is a diagram showing a configuration of an image processing device according to a third embodiment of the present invention.

【図23】本発明の実施の形態3に係る画像処理装置の
動作を示すフローチャートである。
FIG. 23 is a flowchart showing an operation of the image processing apparatus according to Embodiment 3 of the present invention.

【図24】図22に示された基準画像設定部に対する基
準画像の設定を説明する図である。
FIG. 24 is a diagram illustrating setting of a reference image in a reference image setting unit illustrated in FIG. 22;

【図25】図22に示された通知部の動作を説明する図
である。
25 is a diagram illustrating the operation of the notification unit shown in FIG.

【図26】本発明の実施の形態4に係る画像処理装置の
構成を示す図である。
FIG. 26 is a diagram showing a configuration of an image processing apparatus according to Embodiment 4 of the present invention.

【図27】本発明の実施の形態4に係る画像処理装置の
動作を示すフローチャートである。
FIG. 27 is a flowchart showing an operation of the image processing apparatus according to Embodiment 4 of the present invention.

【図28】図26に示された基準画像設定部に対する基
準画像の設定を説明する図である。
FIG. 28 is a diagram illustrating the setting of a reference image for a reference image setting unit illustrated in FIG. 26;

【図29】本発明の実施の形態5に係る画像処理装置に
おける第一の構成例を示す図である。
FIG. 29 is a diagram illustrating a first configuration example of the image processing apparatus according to Embodiment 5 of the present invention;

【図30】本発明の実施の形態5に係る画像処理装置の
動作を示すフローチャートである。
FIG. 30 is a flowchart showing an operation of the image processing apparatus according to Embodiment 5 of the present invention.

【図31】解像度劣化におけるあおり角依存性を説明す
る図である。
FIG. 31 is a diagram for explaining a tilt angle dependency in resolution degradation.

【図32】本発明の実施の形態5に係る画像処理装置に
おける第二の構成例を示す図である。
FIG. 32 is a diagram illustrating a second configuration example in the image processing device according to the fifth embodiment of the present invention;

【図33】本発明の実施の形態5に係る画像処理方法に
おいて用いられるHough変換を説明する図である。
FIG. 33 is a diagram illustrating Hough transform used in the image processing method according to the fifth embodiment of the present invention.

【図34】本発明の実施の形態5に係る画像処理装置に
おける第三の構成例を示す図である。
FIG. 34 is a diagram illustrating a third configuration example in the image processing device according to the fifth embodiment of the present invention;

【図35】本発明の実施の形態5に係る画像処理装置に
おける第四の構成例を示す図である。
FIG. 35 is a diagram illustrating a fourth configuration example of the image processing device according to the fifth embodiment of the present invention;

【図36】図35に示された平面計測部の構成を示す図
である。
FIG. 36 is a diagram illustrating a configuration of a plane measurement unit illustrated in FIG. 35;

【図37】本発明の実施の形態6に係る画像処理装置の
構成を示す図である。
FIG. 37 is a diagram showing a configuration of an image processing device according to Embodiment 6 of the present invention.

【図38】本発明の実施の形態6に係る画像処理装置の
動作を示すフローチャートである。
FIG. 38 is a flowchart showing the operation of the image processing apparatus according to Embodiment 6 of the present invention.

【図39】本発明の実施の形態7に係る画像処理装置の
構成を示す図である。
FIG. 39 is a diagram showing a configuration of an image processing apparatus according to Embodiment 7 of the present invention.

【図40】図39に示された切り替え部の動作を説明す
る図である。
40 is a diagram illustrating the operation of the switching unit shown in FIG. 39.

【図41】本発明の実施の形態に係る画像処理装置と記
録媒体を示す図である。
FIG. 41 is a diagram illustrating an image processing apparatus and a recording medium according to an embodiment of the present invention.

【図42】本発明の実施の形態に係るコンピュータとコ
ンピュータ読み取り可能な記録媒体を示す図である。
FIG. 42 is a diagram showing a computer and a computer-readable recording medium according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1,2,6,8,40,50〜53,60,70 画像
処理装置 3,4,10,IM1〜IM3,im1,im2,im
j,imk 画像 5 歪み補正画像 7 基準画像 9 参照画像 11,41 撮像部 11A,11B 光学系 12 信号処理部 13 メモリ制御部 14 主制御部 15 フレームメモリ 16 インタフェース(I/F) 17 表示部 18 外部記憶部 19 撮影モード設定部 20 基準画像設定部 21 対応検出部 22 画像歪み補正部 23 被写体領域決定部 24 画像合成部 25 被写体領域判定部 26 通知部 27 基準画像自動選択部 28 直線状パターン検出部 29 平面計測部 30 画像面 31 被投影面 32 撮像面 33 装置座標系 35 被写体像 45 切り替え部 101 電源スイッチ 102 シャッター 103 ファインダ 104 撮影モード設定キー 111 レンズ 112 絞り 113 シャッター 114 光電変換素子 115 前処理部 201 上方向スクロールキー 202 下方向スクロールキー 203 決定キー 204 カーソルキー 211 特徴点設定部 212 相関演算部 213 特徴点 215,216 相関窓 217 対応点 221 3次元演算部 222 パラメータ算出部 223 座標変換部 224 画像面 231 射影変換算出部 232 座標変換部 241 ファインダ 242 インジケータ 271 スポット光源 271a 光源 271b 走査ミラー 271c 駆動部 272 受光素子 273 3次元座標算出部 274 平面算出部 301 記録媒体 302 CD−ROM PL 被写体面 PC パーソナルコンピュータ(パソコン) D〜D,d,d,d,d 方向 IMA,IMB,IMC 合成画像
1, 2, 6, 8, 40, 50 to 53, 60, 70 Image processing device 3, 4, 10, IM1 to IM3, im1, im2, im
j, imk image 5 distortion-corrected image 7 reference image 9 reference image 11, 41 imaging unit 11A, 11B optical system 12 signal processing unit 13 memory control unit 14 main control unit 15 frame memory 16 interface (I / F) 17 display unit 18 External storage unit 19 Shooting mode setting unit 20 Reference image setting unit 21 Correspondence detection unit 22 Image distortion correction unit 23 Subject area determination unit 24 Image synthesis unit 25 Subject area determination unit 26 Notification unit 27 Reference image automatic selection unit 28 Linear pattern detection Unit 29 plane measurement unit 30 image plane 31 projection plane 32 imaging plane 33 device coordinate system 35 subject image 45 switching unit 101 power switch 102 shutter 103 finder 104 shooting mode setting key 111 lens 112 aperture 113 shutter 114 photoelectric conversion element 115 preprocessing Part 201 top Direction scroll key 202 Downward scroll key 203 Enter key 204 Cursor key 211 Feature point setting unit 212 Correlation calculation unit 213 Feature point 215, 216 Correlation window 217 Corresponding point 221 3D calculation unit 222 Parameter calculation unit 223 Coordinate conversion unit 224 Image plane 231 Projection conversion calculation unit 232 Coordinate conversion unit 241 Finder 242 Indicator 271 Spot light source 271a Light source 271b Scanning mirror 271c Driving unit 272 Light receiving element 273 Three-dimensional coordinate calculation unit 274 Flat surface calculation unit 301 Recording medium 302 CD-ROM PL Object plane PC Personal computer (PC) D 1 ~D 3, d 1 , d 2, d j, d k direction IMA, IMB, IMC composite image

───────────────────────────────────────────────────── フロントページの続き (72)発明者 青木 伸 東京都大田区中馬込1丁目3番6号 株式 会社リコー内 Fターム(参考) 5B057 BA02 CD12 CD20 CE10 5C023 AA10 AA11 AA31 AA34 AA37 CA01 DA01 EA03 5C076 AA12 AA23 AA40 BA01 BA06 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Shin Aoki 1-3-6 Nakamagome, Ota-ku, Tokyo F-term in Ricoh Co., Ltd. 5B057 BA02 CD12 CD20 CE10 5C023 AA10 AA11 AA31 AA34 AA37 CA01 DA01 EA03 5C076 AA12 AA23 AA40 BA01 BA06

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 被写体に対して少なくとも一部が重複す
るよう複数の方向から撮影された画像の歪みを補正する
画像処理方法であって、 前記撮影により得られた複数の前記画像内における重複
部分の対応関係を特定する第一のステップと、 前記複数の画像の中から前記歪みを補正する対象を選択
する第二のステップと、 前記第一のステップにおいて特定された前記対応関係に
応じて、前記第二のステップで選択された前記画像の前
記歪みを補正する第三のステップとを有することを特徴
とする画像処理方法。
1. An image processing method for correcting a distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject, wherein an overlapping portion in the plurality of images obtained by the photographing is provided. A first step of identifying the correspondence of the; and a second step of selecting a target for correcting the distortion from among the plurality of images, and according to the correspondence identified in the first step, A third step of correcting the distortion of the image selected in the second step.
【請求項2】 前記第二のステップでは、前記画像内に
おいて前記被写体が占める領域の広さに応じて前記補正
の対象を自動的に選択する請求項1に記載の画像処理方
法。
2. The image processing method according to claim 1, wherein in the second step, the correction target is automatically selected in accordance with a size of a region occupied by the subject in the image.
【請求項3】 前記第二のステップでは、前記画像内に
おいて検出される直線状パターンの向きに応じて前記補
正の対象を自動的に選択する請求項1に記載の画像処理
方法。
3. The image processing method according to claim 1, wherein in the second step, the correction target is automatically selected according to a direction of a linear pattern detected in the image.
【請求項4】 前記第二のステップでは、前記第一のス
テップにおいて特定された前記対応関係に応じて前記補
正の対象を自動的に選択する請求項1に記載の画像処理
方法。
4. The image processing method according to claim 1, wherein in the second step, the correction target is automatically selected in accordance with the correspondence specified in the first step.
【請求項5】 前記第二のステップでは、前記撮影毎に
検出された前記被写体の向きに応じて前記補正の対象を
自動的に選択する請求項1に記載の画像処理方法。
5. The image processing method according to claim 1, wherein in the second step, the correction target is automatically selected in accordance with the direction of the subject detected for each photographing.
【請求項6】 被写体に対して少なくとも一部が重複す
るよう複数の方向から撮影された画像の歪みを補正する
画像処理方法であって、 前記撮影により得られた複数の前記画像内における重複
部分の対応関係をそれぞれ特定する第一のステップと、 前記複数の画像の中から前記歪みが最も少ない前記画像
を選択する第二のステップと、 前記第一のステップにおいて特定された前記対応関係に
応じて、前記複数の画像の前記歪みをそれぞれ補正し、
前記第二のステップにおいて選択された前記画像と合成
する第三のステップとを有することを特徴とする画像処
理方法。
6. An image processing method for correcting a distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject, wherein an overlapping portion in the plurality of images obtained by the photographing is provided. A first step of specifying each of the correspondence relationships; a second step of selecting the image with the least distortion from the plurality of images; and a response to the correspondence relationship specified in the first step. And correcting each of the distortions of the plurality of images,
A third step of combining with the image selected in the second step.
【請求項7】 被写体に対して少なくとも一部が重複す
るよう複数の方向から撮影された画像の歪みを補正する
画像処理装置であって、 前記撮影により得られた複数の前記画像内における重複
部分の対応関係を検出する対応検出手段と、 前記複数の画像の中から前記歪みが最も少ない前記画像
を選択する選択手段と、 前記対応検出手段において検出された前記対応関係に応
じて、前記複数の画像の前記歪みをそれぞれ補正し、前
記選択手段において選択された前記画像と合成する画像
合成手段とを備えたことを特徴とする画像処理装置。
7. An image processing apparatus for correcting distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject, wherein an overlapping portion in the plurality of images obtained by the photographing is provided. Correspondence detecting means for detecting a correspondence relationship between the plurality of images; selecting means for selecting the image having the least distortion from the plurality of images; and An image processing apparatus comprising: an image synthesizing unit that corrects the distortion of an image and synthesizes the image with the image selected by the selecting unit.
【請求項8】 被写体に対して少なくとも一部が重複す
るよう複数の方向から撮影された画像の歪みを補正する
画像処理装置であって、 これから撮影する複数の前記画像のうち、前記歪みを補
正する際の基準とする前記画像を予め選択する選択手段
と、 前記選択手段によりなされた前記選択に応じて、次に撮
影する前記画像が前記基準とされる前記画像となること
をユーザへ通知する通知手段と、 撮影することにより得られた前記基準とされる前記画像
と他の前記画像との間における重複部分の対応関係を検
出する対応検出手段と、 前記対応検出手段により検出された前記対応関係に応じ
て、前記基準とされる前記画像の前記歪みを補正する補
正手段とを備えたことを特徴とする画像処理装置。
8. An image processing apparatus for correcting distortion of an image photographed from a plurality of directions so as to at least partially overlap a subject, wherein the distortion is corrected among a plurality of the images to be photographed from now on. Selecting means for pre-selecting the image to be used as a reference when notifying, and notifying to the user that the image to be taken next will be the reference image in accordance with the selection made by the selecting means Notification means; correspondence detection means for detecting a correspondence relationship between the reference image obtained by photographing and another image; and the correspondence detected by the correspondence detection means. An image processing apparatus comprising: a correction unit configured to correct the distortion of the image serving as the reference in accordance with the relationship.
【請求項9】 被写体に対して少なくとも一部が重複す
るよう複数の方向から撮影された画像の歪みを補正する
画像処理装置であって、 前記撮影により得られた複数の前記画像内における重複
部分の対応関係を検出する対応検出手段と、 前記複数の画像の中から前記歪みを補正する対象を選択
する選択手段と、 前記対応検出手段により検出された前記対応関係に応じ
て、前記選択手段により選択された前記画像の前記歪み
を補正する補正手段とを備えたことを特徴とする画像処
理装置。
9. An image processing apparatus for correcting distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject, the image processing apparatus comprising: an overlapping portion in the plurality of images obtained by the photographing; A correspondence detecting means for detecting a correspondence relationship between the plurality of images; a selection means for selecting an object for which the distortion is to be corrected from the plurality of images; and the selection means according to the correspondence detected by the correspondence detection means. An image processing apparatus comprising: a correction unit configured to correct the distortion of the selected image.
【請求項10】 被写体に対して少なくとも一部が重複
するよう複数の方向から撮影された画像の歪みを補正す
る画像処理装置であって、 前記被写体を同時に撮影する複数の光学手段と、 前記複数の光学手段で撮影される前記画像のうち前記補
正の対象とする前記画像を選択する選択手段と、 前記選択手段により選択された前記画像と他の前記画像
との間における重複部分の対応関係を検出する対応検出
手段と、 前記対応検出手段により検出された前記対応関係に応じ
て、前記選択された画像の前記歪みを補正する補正手段
とを備えたことを特徴とする画像処理装置。
10. An image processing apparatus for correcting distortion of an image photographed from a plurality of directions so that at least a part thereof overlaps a subject, wherein: a plurality of optical means for photographing the subject simultaneously; Selecting means for selecting the image to be corrected from among the images photographed by the optical means, and a correspondence relationship between overlapping portions between the image selected by the selecting means and another image. An image processing apparatus comprising: a correspondence detection unit for detecting; and a correction unit for correcting the distortion of the selected image in accordance with the correspondence detected by the correspondence detection unit.
【請求項11】 前記選択手段は、前記画像内において
前記被写体が占める領域の広さに応じて前記補正の対象
を自動的に選択する請求項9又は10に記載の画像処理
装置。
11. The image processing apparatus according to claim 9, wherein the selection unit automatically selects the correction target in accordance with a size of a region occupied by the subject in the image.
【請求項12】 前記選択手段は、前記画像内において
検出される直線状パターンの向きに応じて前記補正の対
象を自動的に選択する請求項9又は10に記載の画像処
理装置。
12. The image processing apparatus according to claim 9, wherein the selection unit automatically selects the correction target according to a direction of a linear pattern detected in the image.
【請求項13】 前記選択手段は、前記対応検出手段に
より検出された前記対応関係に応じて前記補正の対象を
自動的に選択する請求項9に記載の画像処理装置。
13. The image processing apparatus according to claim 9, wherein the selection unit automatically selects the correction target according to the correspondence detected by the correspondence detection unit.
【請求項14】 前記選択手段は、前記撮影毎に検出さ
れた前記被写体の向きに応じて前記補正の対象を自動的
に選択する請求項9又は10に記載の画像処理装置。
14. The image processing apparatus according to claim 9, wherein the selection unit automatically selects the correction target according to the orientation of the subject detected for each photographing.
【請求項15】 被写体に対して少なくとも一部が重複
するよう複数の方向から撮影された画像の歪みをコンピ
ュータにより補正するためのプログラムを記録したコン
ピュータ読み取り可能な記録媒体であって、前記プログ
ラムは、 前記コンピュータに対し、前記撮影により得られた複数
の前記画像内における重複部分の対応関係を特定させ、 前記複数の画像の中から前記歪みを補正する対象を選択
させ、 特定された前記対応関係に応じて、選択された前記画像
の前記歪みを補正させることを特徴とするコンピュータ
読み取り可能な記録媒体。
15. A computer-readable recording medium on which a program for correcting, by a computer, distortion of an image photographed from a plurality of directions so that at least a part of the image overlaps with a subject is recorded. Causing the computer to specify a correspondence between overlapping portions in the plurality of images obtained by the photographing, to select a target to correct the distortion from among the plurality of images, A computer-readable recording medium for correcting the distortion of the selected image according to
【請求項16】 被写体に対して少なくとも一部が重複
するよう複数の方向から撮影された画像の歪みをコンピ
ュータにより補正するためのプログラムを記録したコン
ピュータ読み取り可能な記録媒体であって、前記プログ
ラムは、 前記コンピュータに対し、前記撮影により得られた複数
の前記画像内における重複部分の対応関係をそれぞれ特
定させ、 前記複数の画像の中から前記歪みが最も少ない前記画像
を選択させ、 特定された前記対応関係に応じて、前記複数の画像の前
記歪みをそれぞれ補正させて、選択された前記画像と合
成させることを特徴とするコンピュータ読み取り可能な
記録媒体。
16. A computer-readable recording medium in which a program for correcting, by a computer, distortion of an image photographed from a plurality of directions so that at least a part thereof overlaps with a subject is recorded, wherein the program is Causing the computer to specify the correspondence between overlapping portions in the plurality of images obtained by the photographing, and to select the image with the least distortion from among the plurality of images; A computer-readable recording medium, wherein the distortion of each of the plurality of images is corrected according to the correspondence, and the images are combined with the selected image.
JP2000261565A 1999-12-28 2000-08-30 Image processing method, image processing apparatus, and computer-readable recording medium Expired - Fee Related JP4169464B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000261565A JP4169464B2 (en) 1999-12-28 2000-08-30 Image processing method, image processing apparatus, and computer-readable recording medium
US09/940,432 US7313289B2 (en) 2000-08-30 2001-08-29 Image processing method and apparatus and computer-readable storage medium using improved distortion correction

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP37565199 1999-12-28
JP11-375651 1999-12-28
JP2000261565A JP4169464B2 (en) 1999-12-28 2000-08-30 Image processing method, image processing apparatus, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2001250114A true JP2001250114A (en) 2001-09-14
JP4169464B2 JP4169464B2 (en) 2008-10-22

Family

ID=26582720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000261565A Expired - Fee Related JP4169464B2 (en) 1999-12-28 2000-08-30 Image processing method, image processing apparatus, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP4169464B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258718A (en) * 2004-03-10 2005-09-22 Casio Comput Co Ltd Image processing device, image projection device, image processing method, and program
JP2006513504A (en) * 2003-01-17 2006-04-20 三菱電機株式会社 Position and orientation reading by projector
JP2007318490A (en) * 2006-05-26 2007-12-06 Olympus Imaging Corp Image processing apparatus, camera, and image processing program
JP2009140060A (en) * 2007-12-04 2009-06-25 Sony Computer Entertainment Inc Image processor, image evaluation method, program and information storage medium
CN102789574A (en) * 2012-07-02 2012-11-21 湖北微驾技术有限公司 Fingerprint image geometric correction algorithm based on triangular prism optical sensor
US8385686B2 (en) 2003-10-29 2013-02-26 Nikon Corporation Image processing method based on partitioning of image data, image processing device based on partitioning image data and program
JP5493114B1 (en) * 2012-10-24 2014-05-14 株式会社モルフォ Image processing apparatus, image processing method, image processing program, and recording medium
JP2017151579A (en) * 2016-02-23 2017-08-31 ブラザー工業株式会社 program
JP7442672B2 (en) 2020-03-23 2024-03-04 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ Method for inspecting the side walls of objects

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513504A (en) * 2003-01-17 2006-04-20 三菱電機株式会社 Position and orientation reading by projector
US8385686B2 (en) 2003-10-29 2013-02-26 Nikon Corporation Image processing method based on partitioning of image data, image processing device based on partitioning image data and program
JP2005258718A (en) * 2004-03-10 2005-09-22 Casio Comput Co Ltd Image processing device, image projection device, image processing method, and program
JP2007318490A (en) * 2006-05-26 2007-12-06 Olympus Imaging Corp Image processing apparatus, camera, and image processing program
JP2009140060A (en) * 2007-12-04 2009-06-25 Sony Computer Entertainment Inc Image processor, image evaluation method, program and information storage medium
CN102789574A (en) * 2012-07-02 2012-11-21 湖北微驾技术有限公司 Fingerprint image geometric correction algorithm based on triangular prism optical sensor
JP5493114B1 (en) * 2012-10-24 2014-05-14 株式会社モルフォ Image processing apparatus, image processing method, image processing program, and recording medium
US10136054B2 (en) 2012-10-24 2018-11-20 Morpho, Inc. Image processing device for compositing panoramic images, image processing program and recording medium
JP2017151579A (en) * 2016-02-23 2017-08-31 ブラザー工業株式会社 program
JP7442672B2 (en) 2020-03-23 2024-03-04 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ Method for inspecting the side walls of objects

Also Published As

Publication number Publication date
JP4169464B2 (en) 2008-10-22

Similar Documents

Publication Publication Date Title
US7899270B2 (en) Method and apparatus for providing panoramic view with geometric correction
US6389179B1 (en) Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
US7313289B2 (en) Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US7486310B2 (en) Imaging apparatus and image processing method therefor
US7583858B2 (en) Image processing based on direction of gravity
US8466989B2 (en) Camera having image correction function, apparatus and image correction method
US7760962B2 (en) Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced
US6750903B1 (en) Super high resolution camera
JP4341629B2 (en) Imaging apparatus, image processing method, and program
JP4529837B2 (en) Imaging apparatus, image correction method, and program
US8249390B2 (en) Method for taking panorama mosaic photograph with a portable terminal
US8749661B2 (en) Imaging compositions of multiple images having different image ranges
US20060078215A1 (en) Image processing based on direction of gravity
US20050276481A1 (en) Particular-region detection method and apparatus, and program therefor
JPH09322060A (en) Image pickup device, image composing device and image composition system
JPH08116490A (en) Image processing unit
JP2001134751A (en) Method and device for processing image, digital camera, image processing system and recording medium with image processing program recorded thereon
JP2002057879A (en) Apparatus and method for image processing, and computer readable recording medium
JP3996617B2 (en) Projector device with image distortion correction function
JP4662258B2 (en) Image processing method and apparatus, digital camera apparatus, and recording medium recording image processing program
US20060008268A1 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
JP2001177716A (en) Image processing method and image processor
JP2002152485A (en) Image pickup device, method for compositing picked up images, computer readable recording medium storing image processing program and image pickup system
JP4169464B2 (en) Image processing method, image processing apparatus, and computer-readable recording medium
US5909521A (en) Multi-shot still image reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080805

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130815

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees