JP4851392B2 - Image composition apparatus, image composition method, and image composition program - Google Patents

Image composition apparatus, image composition method, and image composition program Download PDF

Info

Publication number
JP4851392B2
JP4851392B2 JP2007143298A JP2007143298A JP4851392B2 JP 4851392 B2 JP4851392 B2 JP 4851392B2 JP 2007143298 A JP2007143298 A JP 2007143298A JP 2007143298 A JP2007143298 A JP 2007143298A JP 4851392 B2 JP4851392 B2 JP 4851392B2
Authority
JP
Japan
Prior art keywords
image
unit
intermediate data
processing
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007143298A
Other languages
Japanese (ja)
Other versions
JP2008301043A (en
Inventor
君孝 村下
雅芳 清水
薫 中条
隆 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2007143298A priority Critical patent/JP4851392B2/en
Publication of JP2008301043A publication Critical patent/JP2008301043A/en
Application granted granted Critical
Publication of JP4851392B2 publication Critical patent/JP4851392B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置で撮影した複数の静止画像を合成する画像処理に係り、特に、手ぶれ補正などの画像を重ね合わせて元画像には無い効果を得る技術に関する。   The present invention relates to image processing for synthesizing a plurality of still images taken by an imaging apparatus, and more particularly to a technique for obtaining an effect that is not found in an original image by superimposing images such as camera shake correction.

今日、短露光の連写画像を合成することにより手ぶれのない画像を生成する手ぶれ補正技術が開発されている。例えば、合成後の画像に対して、合成枚数に応じた処理方法やパラメータを切り替えることにより、高画質な画像を生成する方法が開発されている。   2. Description of the Related Art Today, a camera shake correction technique for generating an image free from camera shake by combining short-exposure continuous shot images has been developed. For example, a method of generating a high-quality image by switching processing methods and parameters according to the number of synthesized images has been developed.

上記手ぶれ補正を行う方法には、ハードウェアによる方法とソフトウェアによる方法がある。例えば、ディジタルカメラにおける手ぶれは、露光中に手が動くことでセンサ(例えばCMOSセンサ)上に到達する光が時間経過とともにずれることで発生する。このような手ぶれを抑止する光学式手ぶれ補正として(センサシフト式あるいはレンズシフト式)がある。この光学式手ぶれ補正は、手の動きに連動してセンサやレンズを動かして光路を曲げる専用のハードウェアを用いて、手の動きに関わらずセンサ上に到達する光のずれを抑えている。   There are a hardware method and a software method for performing the above-described image stabilization. For example, camera shake in a digital camera occurs when light reaching a sensor (for example, a CMOS sensor) shifts with time as the hand moves during exposure. There is an optical camera shake correction (sensor shift type or lens shift type) for suppressing such camera shake. This optical image stabilization uses a dedicated hardware that bends the optical path by moving the sensor and lens in conjunction with the movement of the hand, and suppresses the deviation of the light reaching the sensor regardless of the movement of the hand.

一方、ソフトウェアで手ぶれを低減する方式もある。手ぶれは露光時間中の手の動きによりぶれが発生するため、露光時間を短くすればぶれは抑えられる。
ところが、露光時間が短くなれば光量が少なくなるため画像全体が暗くなる。そのため、画像全体を明るくする必要がある。そこで、センサの感度を上げ、画素値をソフト的に大きな値に変えている(ゲインアップ)。
On the other hand, there is a method of reducing camera shake by software. Since camera shake is caused by movement of the hand during the exposure time, it can be suppressed by shortening the exposure time.
However, if the exposure time is shortened, the amount of light decreases, and the entire image becomes dark. Therefore, it is necessary to brighten the entire image. Therefore, the sensitivity of the sensor is increased, and the pixel value is changed to a large value in terms of software (gain increase).

ところが、ゲインアップをするとノイズも一緒に大きくしてしまうため、短時間露光+ゲインアップを行う方法はノイズが多い画像となってしまう。
そこで、ソフトウェア手ぶれ補正では、短時間露光+ゲインアップ画像を複数枚連写し、各画像の被写体の位置合わせをし、その各画像を重ね合わせることでノイズ成分を検出し、検出結果に基づいてノイズの低減をしている。つまり、ノイズがなければ、重ね合わせた各画像の対応する画素位置の画素値は同じであるが、ノイズはランダムに発生するため同じ画素位置でも同じ画素値にはならない。このような原理を利用してノイズ成分を検出してノイズの低減をしている。
However, since increasing the gain also increases the noise, the method of performing the short exposure + gain increase results in a noisy image.
Therefore, in software image stabilization, multiple short-time exposures and gain-up images are taken continuously, the subject of each image is aligned, the noise component is detected by superimposing the images, and noise is detected based on the detection result. We are reducing. In other words, if there is no noise, the pixel values of the corresponding pixel positions of the superimposed images are the same, but since noise is generated randomly, the pixel values are not the same even at the same pixel position. Using such a principle, noise components are detected to reduce noise.

また、各画像を重ね合わせて画素値を平均化することによりノイズ成分のみを低減する方法もある。
ところが、上記複数枚画像を重ね合わせてノイズなどを低減する場合、被写体に動きがあると、被写体動きの領域がテレビのゴーストのように多重化してしまう。そこで、位置ずれを合わせた後、被写体動きの有無を検知し、被写体動きのある領域と無い領域とで処理を変える方法が提案されている。
There is also a method of reducing only the noise component by superimposing the images and averaging the pixel values.
However, when noise is reduced by superimposing the plurality of images, if the subject moves, the subject motion area is multiplexed like a ghost on a television. In view of this, a method has been proposed in which the presence / absence of subject movement is detected after the positional deviation is matched, and the processing is changed depending on whether the subject moves or not.

この方法では、例えば被写体の動きの無い領域は従来通りの合成を行い、被写体動きのある領域は1枚の画像だけを使う。このようにすることにより、被写体動きによる多重化を抑制することができる。   In this method, for example, an area where there is no movement of the subject is synthesized as usual, and only one image is used for an area where the movement of the subject is present. In this way, multiplexing due to subject movement can be suppressed.

しかし、上記のように撮影したのちに画像の位置合わせをして上記に示した一連の処理を全て行い、最終的に高画質で処理画像を保存すると図12に示す(1)のように画像処理に時間がかかっていまいユーザレスポンスが悪くなる。   However, after the image is taken as described above, the image is aligned, and all the series of processes shown above are performed. When the processed image is finally saved with high image quality, the image is as shown in (1) in FIG. Processing takes time and user response is poor.

そこで、図18に示す従来例(2)〜(4)や特許文献1〜3に示す方法が提案されている。
(2)利用者には簡易処理をしたビューア用画像(保存画像)を表示し、最終的に保存する画像はビューア用画像を生成する処理とは別の処理をする。この場合、ビューア用画像は低画質で保存する。最終保存する画像は長時間かけて高画質で保存する。ところが、ビューア用画像と高画質の画像を生成する処理を、例えば1個のCPUで行うと(1)よりもビューア用画像を生成する処理を行う分処理時間が長くなる。また、2つのCPUを用いてビューア用の処理と高画質用の処理を並列に行うと処理時間は短縮されるが、CPUやその周辺回路などのサイズが増大して撮像装置が大きくなってしまう。
Therefore, conventional methods (2) to (4) shown in FIG. 18 and methods disclosed in Patent Documents 1 to 3 have been proposed.
(2) The viewer image (stored image) that has been subjected to simple processing is displayed to the user, and the image that is finally stored is processed separately from the processing for generating the viewer image. In this case, the viewer image is stored with low image quality. The final image to be saved is stored for a long time with high image quality. However, if the processing for generating the viewer image and the high-quality image is performed by, for example, one CPU, the processing time for performing the processing for generating the viewer image is longer than that in (1). In addition, when the processing for viewer and the processing for high image quality are performed in parallel using two CPUs, the processing time is shortened, but the size of the CPU and its peripheral circuits increases, resulting in an increase in the imaging device. .

(3)利用者がストレスを感じない時間で完了するよう処理を簡易化して終了する。最終的に保存する画像を短時間で低画質で保存する。
(4)利用者がストレスを感じない時間で低画質のビューア用画像を生成して保存し、その後、そのビューア用画像に基づいてバックグラウンドで処理を実施する。(4)のバックグランドで行う高画質生成の処理は、(1)(2)に示した高画質画像を生成する処理ではなく、ビューア用画像を高画質にするための処理である。ビューア用画像から最終的に保存する画像を生成するため、(1)(2)のように高画質ではないが、中程度の画質を最終的に保存することができる。
(3) The process is simplified and completed so that the user does not feel stress. The image to be finally saved is saved with low image quality in a short time.
(4) A low-quality viewer image is generated and stored in a time when the user does not feel stress, and thereafter, processing is performed in the background based on the viewer image. The high image quality generation process performed in the background of (4) is not the process of generating a high image quality shown in (1) and (2) but a process for improving the image quality for the viewer. Since an image to be finally stored is generated from the viewer image, medium image quality can be finally stored although the image quality is not high as in (1) and (2).

また、特許文献1によれば連写画像で画像合成処理を行う際、合成処理前に1枚画像を明るくし、明るくした画像をビューア表示する提案がされている。
特許文献2によれば、複数枚撮影した画像から、特徴点を抽出して各画像間の変異量を求める処理において、基準画像を少なくとも2分割して一方の領域内の特徴点から変異量を求める提案がされている。
Further, according to Japanese Patent Laid-Open No. 2004-260, a proposal has been made to brighten a single image before synthesizing when performing image synthesizing processing with continuous shot images, and display the brightened image as a viewer.
According to Patent Document 2, in the process of extracting feature points from a plurality of captured images and determining the amount of variation between the images, the reference image is divided into at least two and the amount of variation is calculated from the feature points in one region. Proposals to ask for have been made.

特許文献3によれば、連写画像を合成する際に動き領域を検出し、動き領域を略一致させて合成する。つまり、動き領域を略一致させることで、動いている物体の一連の動きを多重画像として保持する方法が提案されている。   According to Patent Document 3, a motion area is detected when combining continuously shot images, and the motion areas are substantially matched to be combined. In other words, a method has been proposed in which a series of movements of a moving object is held as a multiple image by substantially matching the movement areas.

また、特許文献4、5などの提案もされている。
しかしながら、ディジタルカメラやカメラ付き携帯電話などの撮像装置により撮影した直後に、利用者に撮影内容を確認させるために画像を出力する場合、合成処理を行った後の高画質画像を提供しようとすると出力に時間がかかりユーザレスポンスが悪くなる。そこで、ユーザレスポンスを良くするために処理を後回しにすると提供画像の画質が悪くなるという問題がある。
In addition, Patent Documents 4 and 5 are also proposed.
However, when an image is output immediately after shooting by an imaging device such as a digital camera or a camera-equipped mobile phone, in order to allow the user to check the shooting contents, an attempt is made to provide a high-quality image after the synthesis process. Output takes time and user response is poor. Therefore, there is a problem that the image quality of the provided image deteriorates if the processing is postponed to improve the user response.

また、撮像装置により取得した複数静止画像を合成することにより手ぶれを補正して1枚の画像を得るには、合成処理に時間がかかるとともに、大きなリソース(メモリ容量、ディスク容量など)も必要となる。
特開2006−054698号公報 特開2004−219765号公報 特開2006−025312号公報 特開2006−139758号公報 特開2003−108416号公報
Further, in order to correct a camera shake by synthesizing a plurality of still images acquired by an imaging device to obtain one image, it takes time for the synthesis process and also requires large resources (memory capacity, disk capacity, etc.). Become.
JP 2006-045498 A JP 2004-219765 A JP 2006-025312 A JP 2006-139758 A JP 2003-108416 A

本発明は上記のような実情に鑑みてなされたものであり、ユーザレスポンスがよく最終的に記録する画像の品質も高画質に保つことができ、メモリ容量を小さくできる画像合成装置と画像合成方法および画像合成プログラムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an image composition apparatus and an image composition method that can maintain a high image quality with good user response and can ultimately reduce the memory capacity. And an image composition program.

本発明の態様のひとつである複数の画像を合成する画像合成装置であって、少なくとも前記複数の画像に基づいて被写体の動き検出をした検出結果を、中間データとして保持する中間データ保持部と、前記複数の画像に対して合成画像であるビューア用画像を生成する画像合成部と、前記ビューア用画像を保持する画像保持部と、前記ビューア用画像と前記中間データとを用い高画質画像を生成する高画質化処理をする再処理部と、を具備する構成である。   An image composition device that synthesizes a plurality of images according to one aspect of the present invention, and an intermediate data holding unit that holds detection results obtained by detecting the movement of a subject based on at least the plurality of images as intermediate data; An image composition unit that generates a viewer image that is a composite image for the plurality of images, an image storage unit that retains the viewer image, and a high-quality image that is generated using the viewer image and the intermediate data And a reprocessing unit that performs high image quality processing.

画像合成において、領域ごとに合成に使用する枚数を決定し、画像合成を行う。合成後、画像保存時に該合成枚数情報を画像とともに保存する。
本発明では、画像合成時に生成した被写体動き領域と非動き領域との検出結果を中間データとして保持しておくことで、保存画像から被写体動き領域と非動き領域を容易に分離して異なる処理をさせることができる。
In image composition, the number of images used for composition is determined for each region, and image composition is performed. After combining, the combined number information is stored together with the image when the image is stored.
In the present invention, the detection result of the subject moving area and the non-moving area generated at the time of image composition is held as intermediate data, so that the subject moving area and the non-moving area can be easily separated from the saved image and different processing is performed. Can be made.

また、高画質化処理時に使用する中間データは、動き領域、非動き領域の判定結果情報(以下、動き検出マップと称する)を用いることで、高画質化処理時に動き領域、非動き領域の再判定を行うことなく動き領域、非動き領域とで異なる処理を行うことができる
動き検出結果があれば元連写画像を保持する必要がないので、使用するリソースを大幅に削減できる。
In addition, the intermediate data used during the image quality enhancement process uses the determination result information of the motion area and the non-motion area (hereinafter referred to as a motion detection map), so that the motion area and the non-motion area can be reproduced during the image quality enhancement process. Different processing can be performed for a motion region and a non-motion region without making a determination. If there is a motion detection result, there is no need to hold the original continuous shot image, so the resources used can be greatly reduced.

バックグラウンド処理は、画像を格納している組み込み機器が予め定めたステータス状態になったときに自動的に実施することで、ユーザの操作なしに、また、組み込み機器上で実施する他処理を圧迫することなく、処理を実施することができる。例えば携帯電話の場合、通話中や他プログラム実行中にはバックグラウンド処理を行わないことで他処理への負荷をかけることなく、最終画像の高画質化を実現できる。   The background processing is automatically performed when the embedded device that stores the image is in a predetermined status state, thereby pressing down other processing performed on the embedded device without any user operation. The processing can be carried out without doing so. For example, in the case of a mobile phone, the quality of the final image can be improved without applying a load to other processing by not performing background processing during a call or during execution of another program.

バックグラウンド処理前は、簡単な処理で生成した保存画像しかユーザに提示できないため、ユーザはその画像を見て品質が悪いと評価してしまう可能性がある。そこで、画像表示時にバックグラウンド処理開始前の画像には、最終処理前であることを示すアイコンを表示する。中間データがあるか否かを検出し、中間データがある場合は最終画像前であることをユーザに通知する。   Before the background processing, only a saved image generated by simple processing can be presented to the user, so the user may evaluate that the image is bad by looking at the image. Therefore, an icon indicating that the image is before final processing is displayed on the image before starting the background processing when the image is displayed. It is detected whether or not there is intermediate data, and if there is intermediate data, the user is notified that it is before the final image.

その際、ユーザにはその画像の最終品質を早く確認したいとの要求があると考える。キー、あるいはメニューにバックグラウンド処理の即時処理実行を割り当て、ユーザの操作でバックグラウンド処理と同様の高品質化のための高画質化処理を直ちに実施する。   At that time, it is considered that the user has a request to confirm the final quality of the image quickly. Immediate execution of background processing is assigned to a key or menu, and image quality improvement processing for high quality similar to background processing is immediately performed by user operation.

中間データは、保存画像のヘッダ領域に格納することで、中間データと保存画像との対応関係を保持するファイル管理なしに、中間データを管理できる。例えばJPEGやExifなどの画像作成者が任意の情報を格納できる領域(コメントフィールド)に中間データを格納することで、ファイルフォーマットの互換性を維持したまま、中間データを保持できる。   By storing the intermediate data in the header area of the saved image, it is possible to manage the intermediate data without managing files that maintain the correspondence between the intermediate data and the saved image. For example, by storing intermediate data in an area (comment field) where an image creator can store arbitrary information such as JPEG or Exif, the intermediate data can be held while maintaining the compatibility of the file format.

中間データを保持する分、一時的に画像ファイルのデータ量が増加する。この中間データは二値データであるため、単純なランレングス法などでデータ圧縮しても良い。この中間データは、バックグラウンド処理が終了して最終画像が得られれば不要なデータである。バックグラウンド処理を実行し、終了した際の最終画像からは中間データを削除することで、最終的なファイルサイズの増加を抑えることができる。   Since the intermediate data is held, the data amount of the image file temporarily increases. Since the intermediate data is binary data, the data may be compressed by a simple run length method or the like. This intermediate data is unnecessary data when the background processing is completed and a final image is obtained. By executing the background processing and deleting the intermediate data from the final image when the processing is completed, an increase in the final file size can be suppressed.

本発明によれば、ユーザレスポンスがよく最終的に記録する画像の品質も高画質に保つことができ、さらにメモリ容量を小さくすることができる。   According to the present invention, the user response is good and the quality of the finally recorded image can be kept high, and the memory capacity can be further reduced.

以下図面に基づいて、本発明の実施形態について詳細を説明する。
(原理説明)
図1に本発明の原理図を示す。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Principle explanation)
FIG. 1 shows a principle diagram of the present invention.

図1に示す連写画像は利用者が撮像装置により撮影した複数枚の画像である。保存画像(低画質)はビューア用画像である。中間データはビューア用画像から最終的に保存する高画質画像を生成するために用いるデータである。   The continuous shot image shown in FIG. 1 is a plurality of images taken by the user with the imaging device. The stored image (low image quality) is a viewer image. The intermediate data is data used to generate a high-quality image that is finally stored from the viewer image.

まず、被写体を比較的短い露光時間teで撮影して時系列に複数の画像を連写して取得する。例えば、図2に示すように画像1、画像2を連写により取得する。この時、露光時間teやゲイン値g等の撮影時パラメータも取得する。   First, a subject is photographed with a relatively short exposure time te, and a plurality of images are acquired in time series. For example, as shown in FIG. 2, images 1 and 2 are acquired by continuous shooting. At this time, shooting parameters such as exposure time te and gain value g are also acquired.

次に、画像1と画像2の全体の位置合わせを行い、さらに動き検出処理を行い、被写体の動き領域を検出して動き判定結果を保存する。ここで、画像3に示す白の領域が非動き領域、黒の領域が動き領域である。   Next, the entire image 1 and image 2 are aligned, a motion detection process is further performed, a motion region of the subject is detected, and a motion determination result is stored. Here, the white area shown in the image 3 is a non-motion area, and the black area is a movement area.

その後、時間的に後に撮影された画像2から、動き判定結果で動き領域と判定された領域を除外し、画像1に合成して合成画像を得る。上記処理により連写画像に基づいて短時間でビューア用画像(第1の保存画像)を生成して利用者にビューア用画像を表示する。   Thereafter, from the image 2 taken later in time, the region determined as the motion region by the motion determination result is excluded and combined with the image 1 to obtain a composite image. By the above processing, a viewer image (first stored image) is generated in a short time based on the continuous shot image, and the viewer image is displayed to the user.

動き領域と非動き領域の検出処理は、撮影時パラメータに応じて、閾値d_exposureまたは閾値d_gainを決定する。閾値d_exposureは露光時間teに応じて決定される、また閾値d_gainはゲイン値gに応じて決定される。   In the detection process of the motion area and the non-motion area, the threshold value d_exposure or the threshold value d_gain is determined according to the shooting parameter. The threshold d_exposure is determined according to the exposure time te, and the threshold d_gain is determined according to the gain value g.

画像データ(画像1、画像2)の二つのフレームの対応する個々の画素(x,y)の差分値Δaを算出する。そして、差分値Δaを、閾値d_gainまたは閾値d_exposureを用いて判定する。差分値Δa>閾値d_gain、または差分値Δa>閾値d_exposureならば、当該画素(x,y)を動き領域と見なす。また、差分値Δa≦閾値d_gain、または差分値Δa≦閾値d_exposureならば、当該画素(x,y)を非動き領域と見なす。この処理を、画像1、画像2の全画素(領域)について実行してビューア用画像を生成する。   A difference value Δa between corresponding individual pixels (x, y) of two frames of image data (image 1, image 2) is calculated. Then, the difference value Δa is determined using the threshold value d_gain or the threshold value d_exposure. If difference value Δa> threshold value d_gain, or difference value Δa> threshold value d_exposure, the pixel (x, y) is regarded as a motion region. If the difference value Δa ≦ the threshold value d_gain or the difference value Δa ≦ the threshold value d_exposure, the pixel (x, y) is regarded as a non-motion area. This processing is executed for all the pixels (regions) of image 1 and image 2 to generate a viewer image.

その際に、作成した中間データをいったん保持し、最終的に保存する画像を生成する際に使用する。ここで、中間データとは高画質画像を生成する際に生成されるデータである。例えば、画像合成時に生成した動き領域と非動き領域との検出結果(画像3)などである。   At that time, the created intermediate data is temporarily held and used when an image to be finally saved is generated. Here, the intermediate data is data generated when a high-quality image is generated. For example, a detection result (image 3) of a motion area and a non-motion area generated at the time of image synthesis.

また、中間データには、画像3の動き領域と非動き領域ごとに合成枚数を合成枚数情報として保持されている。動き領域には合成枚数が少なく画像品質が低い領域となり、非動き領域は合成枚数が多く画像品質が高い領域となる。   In the intermediate data, the number of combined images for each moving area and non-moving area of the image 3 is held as combined number information. The moving area is an area where the number of synthesized images is small and the image quality is low, and the non-motion area is an area where the number of synthesized images is large and the image quality is high.

図18に示した従来例(4)のビューア用画像(保存画像(低画質))は画像合成後であるため、保存画像(高画質)作成の際に、ビューア用画像のみから動き領域と非動き領域を容易に分離して異なる処理をすることができない。つまり、一枚の画像に対して動き領域と非動き領域とで異なる処理をする場合、一枚の画像から動き領域と非動き領域を検出する必要があるが、それは困難である。   Since the viewer image (saved image (low image quality)) of the conventional example (4) shown in FIG. 18 is after image synthesis, when creating the saved image (high image quality), the motion region and the non-moving area are determined only from the viewer image. It is not possible to separate the motion areas and perform different processing. That is, when different processing is performed on a single image for a motion region and a non-motion region, it is necessary to detect the motion region and the non-motion region from one image, but this is difficult.

次に、ビューア用画像と中間データを生成後、バックグランドにおいて高画質画像を得るための処理を実施する。
多重写しの障害等のない合成画像であるビューア用画像を高画質にするため、中間データに基づいて高画質画像を生成するための処理が行われる。このとき、動き領域と非動き領域では異なる高画質画像を生成する処理が行われる。
Next, after generating the viewer image and intermediate data, a process for obtaining a high-quality image in the background is performed.
In order to improve the quality of the viewer image, which is a composite image free from obstacles such as multiple copying, a process for generating a high quality image based on the intermediate data is performed. At this time, processing for generating different high-quality images is performed in the motion region and the non-motion region.

上記のようにすることにより、連写画像を合成してビューア用画像と中間データを生成し、さらにビューア用画像と中間データから高画質画像を生成することができる。
(実施例1)
図3に本発明であるディジタルカメラやカメラ付き携帯電話などに組み込まれる撮像装置の画像処理部1の構成を示す。
By doing so, it is possible to synthesize continuous shot images to generate a viewer image and intermediate data, and to generate a high-quality image from the viewer image and intermediate data.
Example 1
FIG. 3 shows the configuration of the image processing unit 1 of the imaging apparatus incorporated in the digital camera or camera-equipped mobile phone according to the present invention.

画像処理部1は、画像撮影部2、撮影画像保持部3、位置ずれ検出部4、被写体動き検出部5、中間データ保持部6(動き検出結果保持部)、画像合成部7、画像保持部8、再処理部9、ステータス監視部10から構成される。撮影後に利用者に表示するビューア用画像処理とそのビューア用画像に基づいて最終的に保存する高画質画像の生成を行う。   The image processing unit 1 includes an image photographing unit 2, a photographed image holding unit 3, a positional deviation detecting unit 4, a subject motion detecting unit 5, an intermediate data holding unit 6 (motion detection result holding unit), an image composition unit 7, and an image holding unit. 8, a reprocessing unit 9 and a status monitoring unit 10. A viewer image process to be displayed to the user after shooting and a high-quality image to be finally saved are generated based on the viewer image.

画像撮影部2は、被写体を撮影するため撮影レンズから絞り機能を備えるシャッターなどを介して光学像を電気信号に変換する撮像素子に取り込み、A/D変換器により撮像素子から出力されるアナログ信号出力をディジタル信号に変換する。また、一回の撮影をする際、手振れを生じない程度のシャッター速度により画像を連写撮影して複数枚の画像を取得する。   The image capturing unit 2 captures an optical image from an imaging lens to an image sensor that converts the optical image into an electric signal via a shutter having a diaphragm function to capture an object, and outputs an analog signal output from the image sensor by an A / D converter. Convert the output to a digital signal. Further, when shooting once, images are continuously shot at a shutter speed that does not cause camera shake, and a plurality of images are acquired.

撮影画像保持部3は、画像撮影部2で撮影した複数の画像を保持する。例えば、撮影画像保持部3に2枚連写であれば画像を2枚保持するが、3枚連写、4枚連写の場合には、3枚、4枚の画像も撮影画像保持部3に保持する。   The captured image storage unit 3 stores a plurality of images captured by the image capturing unit 2. For example, two images are held in the photographic image holding unit 3 in the case of two continuous shooting, but in the case of three continuous shooting and four continuous shooting, three or four images are also stored in the photographic image holding unit 3. Hold on.

位置ずれ検出部4では、例えば2枚連写であれば2枚画像の位置ずれ量を検出する。位置ずれの検出としてはテンプレートマッチング法などがある。
2枚連写して撮影画像保持部3に保持した画像1と画像2を合成して一枚の画像を生成する場合について説明する。まず、画像1内の特定の画素からなる微小領域を特徴点として保持し、その特徴点が画像2内のどこにあるかを走査して検出する。画像1の特徴点の位置と検出した画像2の特徴点の位置との差分を算出して位置ずれ量とする。
For example, in the case of two-sheet continuous shooting, the position shift detection unit 4 detects the position shift amount of two images. There is a template matching method or the like as the detection of the displacement.
A case will be described in which two images are continuously shot and the images 1 and 2 held in the photographed image holding unit 3 are combined to generate one image. First, a minute region composed of specific pixels in the image 1 is held as a feature point, and where the feature point is in the image 2 is scanned and detected. A difference between the position of the feature point of the image 1 and the position of the detected feature point of the image 2 is calculated and used as a displacement amount.

また、代表的なずれ量検出の方法として、モラベックオペレータなどもある(参考文献:コンピュータ画像処理 田村秀行編著 オーム社出版局 p243)。
被写体動き検出部5では、このように画像間のずれ量を算出したのち、位置を合わせた後の画像同士の画素値の差分を、予め設定した閾値と比較することにより被写体の動きを検出することができる。
Also, there is a Moravec operator as a typical method for detecting the amount of deviation (reference: computer image processing edited by Hideyuki Tamura, Ohmsha Publishing Bureau p243).
After calculating the amount of deviation between images in this way, the subject motion detection unit 5 detects the subject motion by comparing the difference between the pixel values of the images after alignment with a preset threshold value. be able to.

ずれ量を合わせた画像で、対応する位置の画素間の差分(例えばYUVのYの差分)を算出し、差分と予め設定した閾値(例えば、ΔY=20〜25)を比較して閾値に達しているか否かを判定する。閾値に達しているとき、該画素を動き領域とみなす。   The difference between the pixels at the corresponding position (for example, Y difference of YUV) is calculated in the image with the deviation amount combined, and the difference is compared with a preset threshold (for example, ΔY = 20 to 25) to reach the threshold. It is determined whether or not. When the threshold is reached, the pixel is regarded as a motion region.

ここで、図2の画像3に示すように1画素ごとに動きあり(例えば"1"、図中の黒)と動きなし(例えば"0"、図中の白)の値を保持するが、この動き検出結果である中間データ(動き検出マップ)があれば元連写画像を保持する必要がないので、使用するリソースを大幅に削減できる(原画像3枚は1画素あたり9バイト、動き検出結果は1画素あたり1ビットなので、リソース量は1/72でよい)。   Here, as shown in the image 3 of FIG. 2, the values of movement (for example, “1”, black in the figure) and no movement (for example, “0”, white in the figure) are held for each pixel. If there is intermediate data (motion detection map) as a result of this motion detection, it is not necessary to retain the original continuous shot image, so that the resources to be used can be greatly reduced (three original images are 9 bytes per pixel, motion detection). Since the result is 1 bit per pixel, the resource amount may be 1/72).

中間データ保持部6は、1画素ごとの動き検出結果を例えば図2に示すような中間データとして保持する。
画像合成部7は画像合成処理を実施する。このとき中間データを用いてよいし、用いなくてもよい。中間データを用いる場合は中間データ保持部6に保持した動き検出マップに従って、例えば、図2では動き領域は画像1の画素値を使用し、非動き領域は画像1と画像2の合成結果を使用する。
The intermediate data holding unit 6 holds a motion detection result for each pixel as, for example, intermediate data as shown in FIG.
The image composition unit 7 performs an image composition process. At this time, intermediate data may or may not be used. When using the intermediate data, according to the motion detection map stored in the intermediate data storage unit 6, for example, in FIG. 2, the pixel value of the image 1 is used for the motion region, and the composite result of the image 1 and the image 2 is used for the non-motion region. To do.

画像保持部8は、上記画像合成部7によって合成した画像をいったん保持する。
再処理部9では、ステータス監視部10からの高画質化処理の実行指示を受けて、画像保持部8の画像データ(ビューア用画像)と中間データ保持部6の動き検出マップ(中間データ)を用いて高画質化処理を行う。具体的には、非動き領域には輪郭強調処理を行い、動き領域にはノイズ除去処理などを行う。
The image holding unit 8 once holds the image combined by the image combining unit 7.
In response to the execution instruction of the image quality enhancement processing from the status monitoring unit 10, the reprocessing unit 9 displays the image data (viewer image) in the image holding unit 8 and the motion detection map (intermediate data) in the intermediate data holding unit 6. To perform high image quality processing. Specifically, contour enhancement processing is performed on the non-motion region, and noise removal processing is performed on the motion region.

ステータス監視部10は、撮像装置が組み込まれているディジタルカメラやカメラ付き携帯電話のステータスを監視し、予め設定した状態(例えば必要最低限のプログラムしか動作していないか、CPU負荷が設定値以下であるかなど)を監視し、予め設定した状態に達したときは再処理部9に高画質化処理の実行指示を出す。   The status monitoring unit 10 monitors the status of the digital camera or camera-equipped mobile phone in which the imaging device is incorporated, and is in a preset state (for example, only a minimum necessary program is operating or the CPU load is equal to or less than the set value). Or the like, and when a preset state is reached, the re-processing unit 9 is instructed to execute an image quality enhancement process.

高画質化処理終了後、再処理部9は最終的に保存する高画質の画像を画像保持部8のビューア用画像に上書きして格納する。
次に動作説明をする。
After the image quality enhancement processing is completed, the reprocessing unit 9 overwrites the viewer image stored in the image holding unit 8 with the high quality image to be finally stored.
Next, the operation will be described.

図4に本発明の動作フロー図を示す。
ステップS41では画像を連写撮影する。画像撮影部2により被写体を連続撮影して複数枚の撮影画像を取得し、撮影画像保持部3に保存する。
FIG. 4 shows an operation flowchart of the present invention.
In step S41, images are continuously shot. The image photographing unit 2 continuously photographs the subject to obtain a plurality of photographed images and stores them in the photographed image holding unit 3.

ステップS42では画像を合成する。撮影画像保持部3に保存した複数の撮影画像を位置ずれ検出部4により位置ずれを検出して、被写体動き検出部5により位置を合わせた後の画像同士の画素値の差分を、予め設定した閾値と比較することにより被写体の動きを検出する。そして、画像合成部では後述する中間データ保持部6に保持した中間データ(動き検出マップ)に従って、画像合成処理を実施する。   In step S42, the images are synthesized. The positional deviation detection unit 4 detects the positional deviation of the plurality of captured images stored in the captured image holding unit 3 and the subject movement detection unit 5 aligns the positions of the images so that the difference between the pixel values is set in advance. The movement of the subject is detected by comparing with a threshold value. Then, the image composition unit performs image composition processing according to intermediate data (motion detection map) held in the intermediate data holding unit 6 described later.

ステップS43(中間データ保持ステップ)では合成時の中間データを中間データ保持部6に保持する。
ステップS44(画像合成ステップ)では合成画像を保持する。画像保持部8には画像合成部7で生成したビューア用画像をいったん保持する。利用者はビューア用画像を見ることができる。
In step S43 (intermediate data holding step), the intermediate data at the time of synthesis is held in the intermediate data holding unit 6.
In step S44 (image composition step), the composite image is held. The image holding unit 8 once holds the viewer image generated by the image combining unit 7. The user can see the viewer image.

ステップS45(再処理ステップ)ではバックグランドにおいて中間画像を用いて保存した画像を高画質化処理する。検出結果保持部6に保存した中間データである動き領域、非動き領域の判定結果情報を用いてビューア用画像を高画質画像に変換する。このように中間データを保持しているため、高画質化処理時に動き領域、非動き領域の再判定を行うことなく動き領域、非動き領域とで異なる処理を行うことができる。処理として、例えば1)動き領域ではノイズ除去(ぼかし)、非動き領域では輪郭強調(シャープ化)をする。2)動き領域では微小動き領域の除去(非動き領域への変更)、非動き領域では何もしないなどが考えられる。   In step S45 (reprocessing step), the image stored using the intermediate image in the background is subjected to high image quality processing. The viewer image is converted into a high-quality image by using the determination result information of the motion area and the non-motion area which are intermediate data stored in the detection result holding unit 6. Since the intermediate data is held in this way, different processing can be performed for the moving region and the non-moving region without re-determination of the moving region and the non-moving region at the time of high image quality processing. As processing, for example, 1) noise removal (blurring) is performed in a motion region, and contour enhancement (sharpening) is performed in a non-motion region. 2) It is possible to remove the minute motion region (change to the non-motion region) in the motion region, or do nothing in the non-motion region.

ステップS46ではビューア用画像や中間データを削除して最終的に保存する高画質画像に更新する。
また、変形例としてバックグラウンドで実行する処理は、合成画像を格納している撮像
装置が予め定めたステータス状態になったときに自動的に実施することで、利用者の操作なしに、また、組み込み機器上で実施する他処理を圧迫することなく、処理を実施することができる。
In step S46, the viewer image and intermediate data are deleted and updated to a high-quality image that is finally stored.
Further, as a modification, the process executed in the background is automatically performed when the imaging apparatus storing the composite image is in a predetermined status state, so that there is no user operation. The processing can be performed without pressing other processing performed on the embedded device.

例えば、携帯電話の場合、通話中や他プログラム実行中にはバックグラウンド処理を行わないことで他処理への負荷をかけることなく、最終的に保存する画像の高画質化を実現できる。   For example, in the case of a mobile phone, it is possible to realize a high image quality of an image to be finally stored without applying a load to other processing by not performing background processing during a call or during execution of another program.

図5の動作フロー図を用いて動作説明をする。
ステップS51ではステップS41と同様に連写撮影をして複数画像を取得する。
ステップS52では画像合成枚数を決定する。ステップS42に示したように位置ずれ量を検出後に、動き領域と非動き領域を検出して、動き領域と非動き領域に画像合成情報を割付する。
The operation will be described with reference to the operation flowchart of FIG.
In step S51, as in step S41, continuous shooting is performed to obtain a plurality of images.
In step S52, the number of combined images is determined. After detecting the amount of displacement as shown in step S42, the motion area and the non-motion area are detected, and the image composition information is assigned to the motion area and the non-motion area.

ステップS53ではステップS52で決定した各領域の合成枚数に基づいて画像合成を実施する。ステップS54では各画素の合成枚数を記憶する。
ステップS55では全画素の走査を終了したかを判定する。全画素について画像合成が完了していればステップS56に移行する。完了していなければステップS52に移行する。
In step S53, image composition is performed based on the number of composites in each area determined in step S52. In step S54, the composite number of each pixel is stored.
In step S55, it is determined whether scanning of all pixels has been completed. If image composition has been completed for all pixels, the process proceeds to step S56. If not completed, the process proceeds to step S52.

ステップS56では上記ステップS53で生成した合成画像であるビューア用画像と、生成の際に用いた中間データを保存する。
図17に示す図は、図5のS56や、後述する図7のS76で出力する中間データの具体的なデータ例を示した図である。
In step S56, the viewer image, which is the composite image generated in step S53, and the intermediate data used for generation are stored.
The diagram shown in FIG. 17 is a diagram showing a specific data example of the intermediate data output in S56 of FIG. 5 or S76 of FIG.

図17の上段のブロック図は、元画像1と元画像2を用いて画像合成部により合成してビューア画像を生成するとともに、元画像1と元画像2を用いて中間データ(動き検出マップ)を生成する構成を示した図である。   The upper block diagram of FIG. 17 uses the original image 1 and the original image 2 to be combined by an image combining unit to generate a viewer image, and the original image 1 and the original image 2 are used to generate intermediate data (motion detection map). It is the figure which showed the structure which produces | generates.

また、図17の下段のデータは、元画像1の太線四角の範囲A、元画像2の太線四角の範囲B、ビューア画像の太線四角の範囲Dの画素の値を表し、中間データの太線四角の範囲Cのデータは、動き領域を0、非動き領域を1としてフラグデータを表している。例えば、ビューア画像は、非動き領域であれば元画像1の値に、動き領域であれば元画像1と元画像2との中間値に基づき、画素の値を算出する。   The lower data in FIG. 17 represents pixel values in the thick line square range A of the original image 1, the thick line square range B of the original image 2, and the thick line square range D of the viewer image. The data in the range C represents flag data with the motion area as 0 and the non-motion area as 1. For example, if the viewer image is a non-motion region, the pixel value is calculated based on the value of the original image 1, and if it is a motion region, based on the intermediate value between the original image 1 and the original image 2.

ステップS57では撮像装置のステータスを検出する。例えば、携帯電話の場合、電話の着信などユーザの操作なしに別処理が行われる場合がある。バックグラウンド処理中に撮像装置の状態が予め定めた状態に移行したときや、予め定めた状態でなくなったとき(バックグラウンド処理以外のスレッドが新規に起動したとき)などにバックグラウンド処理を中止、あるいは中断する。撮像装置のCPUなどが空状態であれば最終的に保存する画像を作成するためにステップS58に移行する。空状態でなければ他の処理が完了するまでステップS57でループして待機する。   In step S57, the status of the imaging device is detected. For example, in the case of a mobile phone, another process may be performed without a user operation such as an incoming call. Stop background processing when the state of the imaging device shifts to a predetermined state during background processing, or when it is no longer in a predetermined state (when a thread other than background processing is newly started), Or interrupt. If the CPU of the imaging device is empty, the process proceeds to step S58 in order to create an image to be finally saved. If it is not empty, it loops and waits at step S57 until other processing is completed.

ステップS58では最終的に保存する画像を作成する。
ステップS59では中間データを削除し、ビューア用画像には保存する高画質画像を更新する。
In step S58, an image to be finally saved is created.
In step S59, the intermediate data is deleted, and the high-quality image to be saved is updated in the viewer image.

上記により、バックグラウンド処理中に撮像装置の状態が予め定めた状態に移行したとき(例えば、電話の着信を受けたとき)や、予め定めた状態でなくなったとき(バックグラウンド処理以外のスレッドが新規に起動したとき)などにバックグラウンド処理を中止
、あるいは中断することで、負荷なしに新規処理(電話の通話など)を実行できる。
Due to the above, when the state of the imaging device shifts to a predetermined state during background processing (for example, when an incoming call is received) or when the state is no longer predetermined (when a thread other than background processing is present) New processing (such as a telephone call) can be executed without load by canceling or interrupting the background processing (for example, when it is newly started).

(実施例2)
図6に示す本発明である実施例2は、前述の中断の場合の途中結果を格納するワーク領域保持部63を実施例1で説明した図3に追加した構成である。
(Example 2)
The second embodiment of the present invention shown in FIG. 6 has a configuration in which a work area holding unit 63 for storing the intermediate result in the case of the interruption described above is added to FIG. 3 described in the first embodiment.

再処理部62は、画像合成装置を備えた撮像装置の動作状態を検出し、動作状態が予め設定された動作状態であるか否かを判定するステータス監視部10から、判定結果を受信して予め設定した動作状態のときに高画質化処理をバックグラウンドで自動実行する。   The reprocessing unit 62 receives the determination result from the status monitoring unit 10 that detects the operation state of the imaging apparatus including the image composition device and determines whether the operation state is a preset operation state. The image quality enhancement process is automatically executed in the background when the operation state is set in advance.

つまり、高画質化処理実施中に利用者が撮像装置を操作することや電話の着信があった場合などに、ステータス監視部10は中断信号を再処理部62に出力する。再処理部62は実施例1で説明した再処理部9と同じであるがワーク領域保持部63を備えている(または接続されている)。そして、再処理部62では中断信号を受けた場合、高画質化処理を中断あるいは中止する。中断の場合、途中経過をワーク領域保持部63に保持しておき、再度、ステータス監視部10から実行の指示を受けたときに処理を継続する。中止の場合は、途中結果を全て破棄し、ステータス監視部10から再度実行の指示を受けたときには、最初から高画質化処理をやり直す。   In other words, the status monitoring unit 10 outputs an interruption signal to the reprocessing unit 62 when the user operates the imaging device or receives an incoming call during the high image quality processing. The reprocessing unit 62 is the same as the reprocessing unit 9 described in the first embodiment, but includes (or is connected to) a work area holding unit 63. When the reprocessing unit 62 receives an interruption signal, the image quality enhancement processing is interrupted or stopped. In the case of interruption, the work progress is held in the work area holding unit 63, and the process is continued when the execution instruction is received from the status monitoring unit 10 again. In the case of cancellation, all intermediate results are discarded, and when the execution instruction is received again from the status monitoring unit 10, the image quality improvement processing is restarted from the beginning.

次に、実施例2の動作について図7のフロー図を用いて説明する。
図7に示すステップS71〜S77は、図5に示したステップS51〜S57の処理と同じ処理である。
Next, the operation of the second embodiment will be described with reference to the flowchart of FIG.
Steps S71 to S77 shown in FIG. 7 are the same processes as the processes of steps S51 to S57 shown in FIG.

ステップS78では再処理部62において最終画像を作成するために動き領域と非動き領域ごとの画素に対して高画質にするための処理を行う。
ステップS79では、最終的に保存する高画質画像の作成が完了したかを判断する。ビューア用画像の全ての画素に対して処理が完了したかを判定し、完了していればステップS711に移行する。完了していなければステップS710に移行する。
In step S78, the re-processing unit 62 performs a process for improving the image quality for the pixels in each of the motion area and the non-motion area in order to create a final image.
In step S79, it is determined whether the creation of a high-quality image to be finally saved has been completed. It is determined whether or not processing has been completed for all the pixels of the viewer image. If completed, the process proceeds to step S711. If not completed, the process proceeds to step S710.

ステップS710では、ステータス監視部10から中断信号が出力されているかを判定し、中断信号が出力されていればステップS712に移行する。中断信号が出力されていなければステップS78に移行する。   In step S710, it is determined whether an interruption signal is output from the status monitoring unit 10, and if an interruption signal is output, the process proceeds to step S712. If no interruption signal is output, the process proceeds to step S78.

ステップS711はステップS59と同じである。
ステップS712では、再処理部62(ワーク領域保持部63)が中断信号を受けた場合、処理を中断あるいは中止し、中断の場合、途中経過をワーク領域保持部63に保持しておき、再度、ステータス監視部10から実行の指示を受けたときに処理を継続する。中止の場合は、途中結果を全て破棄し、ステータス監視部10から再度実行の指示を受けたときには、最初から処理をやり直す。再処理部62に出力する。
Step S711 is the same as step S59.
In step S712, when the reprocessing unit 62 (work area holding unit 63) receives the interruption signal, the process is interrupted or stopped. In the case of interruption, the progress is held in the work area holding unit 63, and again, When the execution instruction is received from the status monitoring unit 10, the process is continued. In the case of cancellation, all intermediate results are discarded, and when an execution instruction is received again from the status monitoring unit 10, the process is restarted from the beginning. The data is output to the reprocessing unit 62.

上記によりバックグラウンド処理中に撮像装置の状態が予め定めた状態に移行したとき(例えば、電話の着信を受けたとき)や、予め定めた状態でなくなったとき(バックグラウンド処理以外のスレッドが新規に起動したとき)などにバックグラウンド処理を中止、あるいは中断することで、負荷なしに新規処理(電話の通話など)を実行できる。   As described above, when the state of the imaging device shifts to a predetermined state during background processing (for example, when an incoming call is received) or when the state is no longer predetermined (a thread other than background processing is new) By canceling or suspending background processing (such as when a phone call is started), new processing (such as a telephone call) can be executed without load.

(実施例3)
図8に示す本発明である実施例3の画像処理部81は、画像撮影部2、撮影画像保持部3、位置ずれ検出部4、被写体動き検出部5、画像合成部82、中間データ付加部83、画像保持部84、再処理部9、ステータス監視部10から構成される。撮影後に利用者に表示するビューア用画像処理とそのビューア用画像に基づいて最終的に保存する高画質画
像の生成を行う。
(Example 3)
The image processing unit 81 according to the third embodiment of the present invention shown in FIG. 8 includes an image capturing unit 2, a captured image holding unit 3, a positional deviation detection unit 4, a subject motion detection unit 5, an image composition unit 82, and an intermediate data addition unit. 83, an image holding unit 84, a reprocessing unit 9, and a status monitoring unit 10. A viewer image process to be displayed to the user after shooting and a high-quality image to be finally saved are generated based on the viewer image.

実施例3では、実施例1または実施例2に示した中間データ(動き検出マップなど)を別領域に保持せず画像合成部82の有する中間データ付加部83に送信し、中間データ付加部83により画像合成部82で合成した合成画像のヘッダ領域に中間データ(動き検出マップ)を格納して画像保持部8に保持する。つまり、中間データ保持部6を中間データ付加部83に設けて中間データの保存場所をヘッダ領域にした構成とする。   In the third embodiment, the intermediate data (motion detection map or the like) shown in the first or second embodiment is transmitted to the intermediate data adding unit 83 included in the image synthesizing unit 82 without being held in another region, and the intermediate data adding unit 83 is transmitted. Thus, intermediate data (motion detection map) is stored in the header area of the synthesized image synthesized by the image synthesis unit 82 and held in the image holding unit 8. That is, the intermediate data holding unit 6 is provided in the intermediate data adding unit 83 and the storage location of the intermediate data is set as the header area.

このように、中間データは保存画像1のヘッダ領域に格納することで、中間データと保存画像1との対応関係を保持する管理ファイルなしに、中間データを管理することができる。   As described above, by storing the intermediate data in the header area of the saved image 1, the intermediate data can be managed without a management file that holds the correspondence between the intermediate data and the saved image 1.

例えば、画像フォーマットであるJPEGやExifなどには、画像作成者が任意の情報を格納できる領域(コメントフィールド)があり、この領域をヘッダ領域として利用して中間データを格納することで、ファイルフォーマットを変更することなく互換性を維持したまま、中間データを保持することができる。   For example, an image format such as JPEG or Exif has an area (comment field) where an image creator can store arbitrary information. By using this area as a header area and storing intermediate data, a file format The intermediate data can be held while maintaining compatibility without changing.

画像保持部84は、画像保持部8と同じようにビューア用画像をいったん保存することができるが中間データを保持することもできる。
上記のようにすることにより、中間データ保持部6を設けなくてよいため、中間データと保存データとを対応づける管理テーブルや管理機構が不要になる。ハードウェアで構成する場合であれば回路規模を削減でき、ソフトウェアにより実現するのであればメモリサイズを小さくすることが可能である。
The image holding unit 84 can temporarily store the viewer image in the same manner as the image holding unit 8, but can also hold intermediate data.
By doing as described above, the intermediate data holding unit 6 need not be provided, so that a management table and a management mechanism for associating the intermediate data with the stored data become unnecessary. If it is configured by hardware, the circuit scale can be reduced, and if realized by software, the memory size can be reduced.

(実施例4)
図9、10を用い本発明である実施例4の説明をする。実施例4に示す画像処理部91は、実施例3に示した構成に、さらに画像が最終画像(高画質化処理された画像)かどうかを判定する最終画像判定部92を有し、その判定結果に基づいた画像を画像表示部93に表示する。
Example 4
A fourth embodiment of the present invention will be described with reference to FIGS. The image processing unit 91 shown in the fourth embodiment further includes a final image determination unit 92 that determines whether the image is a final image (an image subjected to high image quality processing) in the configuration shown in the third embodiment. An image based on the result is displayed on the image display unit 93.

最終画像判定部92は、画像保持部94内に中間データ(動き検出マップ)があるかどうかを検出することで、最終画像かどうかを判定できる。最終画像でなかった場合、最終画像でないことを利用者に通知する。   The final image determination unit 92 can determine whether there is a final image by detecting whether there is intermediate data (motion detection map) in the image holding unit 94. If it is not the final image, the user is notified that it is not the final image.

本発明では、利用者が意識せずに高画質な保存画像を提供できるという効果がある。しかし、バックグラウンド処理前は、簡単な処理で生成したビューア用画像しか利用者に提示できないため、利用者はその画像を見て品質が悪いと評価してしまう可能性がある。そこで、画像表示時にバックグラウンド処理開始前の画像には、最終処理前であることを示すアイコンを表示する。中間データがあるか否かを検出し、中間データがある場合は最終画像前であることを利用者に通知する。   The present invention has an effect that a high-quality stored image can be provided without the user being aware of it. However, before the background processing, only the viewer image generated by simple processing can be presented to the user, and thus the user may see the image and evaluate that the quality is poor. Therefore, an icon indicating that the image is before final processing is displayed on the image before starting the background processing when the image is displayed. It is detected whether or not there is intermediate data, and if there is intermediate data, the user is notified that it is before the final image.

図10に高画質画像を生成していないことを通知する例を示す。例えば、携帯電話であれば表示場面にアイコンなどを表示する(図10では手形のアイコンを示している)。ここで、本例ではアイコンを示したがこれに限るものではなく利用者に通知することができればよい。   FIG. 10 shows an example of notifying that a high-quality image has not been generated. For example, in the case of a mobile phone, an icon or the like is displayed on the display scene (FIG. 10 shows a bill icon). Here, an icon is shown in this example, but the present invention is not limited to this, and it is sufficient that the user can be notified.

(実施例5)
次に、利用者にはその画像の最終品質を早く確認したいとの要求があると考えられ、操作キーあるいは表示メニューにバックグラウンド処理の即時処理実行を割り当て、利用者の操作でバックグラウンド処理と同様の高品質化のための高画質化処理を直ちに実施する
(Example 5)
Next, it is considered that there is a request for the user to confirm the final quality of the image as soon as possible, and the background processing is assigned to the operation key or the display menu, and the background processing is performed by the user's operation. Immediately implement a high image quality process for high quality.

図11を用いて本発明である実施例5の説明をする。実施例5では実施例4の構成にさらに再処理指示部113を設け、操作部112から利用者の指示に従って再処理指示部113は再処理部114に高画質化処理の指示をする。ここで、再処理部114は再処理部9と同じであるが再処理指示部113からの信号を受信して直ちにビューア用画像から高画質画像を生成する。   Embodiment 5 of the present invention will be described with reference to FIG. In the fifth embodiment, a reprocessing instruction unit 113 is further provided in the configuration of the fourth embodiment, and the reprocessing instruction unit 113 instructs the reprocessing unit 114 to perform high image quality processing according to a user instruction from the operation unit 112. Here, the reprocessing unit 114 is the same as the reprocessing unit 9 but receives a signal from the reprocessing instruction unit 113 and immediately generates a high-quality image from the viewer image.

ここで、操作部112は操作キー(携帯電話やディジタルカメラなどの操作部(ボタンスイッチ))としてもよいし、画面に割り当てソフトウェアにより制御してもよい。
なお、図示しないが、操作による高画質化処理実行とステータス監視による高画質化処理実行を混在してもよい。利用者が指示する場合は直ちに高画質化処理を実行し、指示しないときは機器の状態が特定の状態になったときに自動的にバックグラウンドで処理を実行する。
Here, the operation unit 112 may be an operation key (an operation unit (button switch) such as a mobile phone or a digital camera), or may be assigned to a screen and controlled by software.
Although not shown in the figure, execution of image quality improvement processing by operation and image quality improvement processing execution by status monitoring may be mixed. When the user gives an instruction, the image quality improving process is immediately executed, and when not instructed, the process is automatically executed in the background when the state of the device becomes a specific state.

なお、上記実施例1〜5において中間データが保持されるため、一時的に画像ファイルのデータ量が増加する。例えば、VGA(640×480画素)の画像に動き領域検出結果を中間データとして格納する場合、1画素あたり1ビットの情報を格納するため、38,400バイト(307,200ビット)の二値データを保持する必要がある。この分、ファイルサイズは増加する。   Since the intermediate data is held in the first to fifth embodiments, the data amount of the image file temporarily increases. For example, when a motion area detection result is stored as intermediate data in an image of VGA (640 × 480 pixels), binary data of 38,400 bytes (307, 200 bits) is stored to store 1 bit of information per pixel. Need to hold. The file size increases accordingly.

例えば、中間データが二値データであれば、単純なランレングス法などでデータ圧縮してもよい。また、中間データは、バックグラウンド処理が終了して最終画像が得られれば不要なデータであるので、バックグラウンド処理を実行し、終了した際の最終画像からは中間データを削除することで、最終的なファイルサイズの増加を抑えることができる。   For example, if the intermediate data is binary data, the data may be compressed by a simple run length method or the like. In addition, since the intermediate data is unnecessary data when the background processing is completed and the final image is obtained, the background data is executed, and the intermediate data is deleted from the final image when the final processing is completed. Increase in file size can be suppressed.

(変形例)
次に、画像を位置合わせして重ね合わせることにより、ビューア用画像と高画質画像を得ることのできるアプリケーションについて説明する。例えば、(1)手ぶれ補正、(2)パノラマ化、(3)超解像などの処理によれば、複数画像の共通領域(重なり合う領域)から特徴点を抽出して、位置合わせをして合成する処理であるが、それぞれ目的が異なる。
(Modification)
Next, an application capable of obtaining a viewer image and a high-quality image by aligning and superimposing images will be described. For example, according to processing such as (1) camera shake correction, (2) panorama processing, and (3) super-resolution, feature points are extracted from a common area (overlapping area) of multiple images, and are aligned and combined. The purpose of each is different.

(1)手ぶれ補正は、同一位置の画素を重ね合わせることで、短露光時間によって生じるノイズを低減する。(2)パノラマ化は、共通領域をのりしろに、広角画像を作成する。(3)超解像は、微妙にずれた画素を用いることで、高精度な補間画素を算出して高解像度化する。   (1) Camera shake correction reduces noise caused by short exposure time by overlapping pixels at the same position. (2) In panorama formation, a wide-angle image is created across a common area. (3) Super-resolution uses high-resolution interpolation pixels by using pixels that are slightly deviated, thereby increasing the resolution.

このようにどの画像処理も、合成に用いる複数画像は同じ画像であることを前提にしている。被写体に動きがあった場合、多重化などの不具合が生じる、精度が落ちるなどの問題がある。   As described above, in any image processing, it is assumed that a plurality of images used for composition are the same image. When the subject moves, there are problems such as inconveniences such as multiplexing and reduced accuracy.

パノラマ化と超解像についても手ぶれ補正の場合と同様に、動き検出を行い、動き検出結果ほかを中間データとして保持し、バックグランドで中間データを用いて高品質化の処理を実施することが考えられる。   As with camera shake correction, panoramaization and super-resolution can be performed by detecting motion, storing motion detection results, etc. as intermediate data, and performing high-quality processing using intermediate data in the background. Conceivable.

以下、パノラマ化の場合の例を示す。
パノラマ化では、共通領域をのりしろに画像を合成する。図12に示すパノラマ合成の例では、元画像1(図12(a))の左側と元画像2(図1(b))の右側が共通領域になる(図1(c))。共通領域を用いて2つの画像のずれ量を算出して合成すると、例え
ば図12(d)のように、車が切れてしまったような画像ができる。
An example in the case of panorama is shown below.
In panorama processing, images are combined across a common area. In the example of panorama composition shown in FIG. 12, the left side of the original image 1 (FIG. 12A) and the right side of the original image 2 (FIG. 1B) are common areas (FIG. 1C). When the amount of shift between the two images is calculated and combined using the common area, an image in which the car has run out can be obtained, for example, as shown in FIG.

そこで、共通領域の動き検出をし、共通領域は元画像1の左側、元画像2の右側とする。
図13(a)の動き検出マップでは、影が左側面に達しているので、この動きのある被写体は2枚目画像にある物体であるということが分かる。そこで、動き領域(車)の線に沿って2枚目画像の動き領域範囲をくり抜いて、図12(d)のパノラマ合成画像の共通領域に上書きすれば、図13(c)のような、車が切れない不自然でない画像を作成することができる。
Therefore, the motion of the common area is detected, and the common area is the left side of the original image 1 and the right side of the original image 2.
In the motion detection map of FIG. 13A, since the shadow reaches the left side surface, it can be seen that the subject with this motion is the object in the second image. Therefore, if the motion area range of the second image is cut out along the line of the motion area (car) and overwritten on the common area of the panorama composite image of FIG. 12D, as shown in FIG. It is possible to create an unnatural image that does not cut the car.

この場合、中間データとして保持する画像は、動き検出マップ(図13(a))、2枚目共通領域(図13(b))になる。また、切り抜いて張り付けただけの場合、輪郭が浮かび上がるなどの不自然な画像になる可能性もあるので、重ね合わせの境界をぼかす(2画像の合成重みをゆるやかに変動させて合成する)などの処理をすれば、より自然な画像を作成することができる。   In this case, the image held as the intermediate data is a motion detection map (FIG. 13A) and a second common area (FIG. 13B). Also, if the image is simply cut out and pasted, it may result in an unnatural image such as an outline rising. If this process is performed, a more natural image can be created.

以下、超解像の場合の例を示す。
超解像での画像合成は、手ぶれ補正と同じである。図14に示すように、解像度の高い画像を生成する。
Hereinafter, an example in the case of super-resolution will be shown.
Super-resolution image composition is the same as image stabilization. As shown in FIG. 14, an image with high resolution is generated.

図14のように、動きがなければ問題ないが、被写体動きがある画像の場合、被写体動きのある領域が多重化する。また、画素の補間演算結果がおかしくなるなどの弊害が発生する。そのため、手ぶれ補正と同様、動きのある領域を検出し、非動き領域は2画像を用いて補間(フレーム間補間)を行い、動きのある領域は一方の画像のみを用いて補間(フレーム内補間)を行う。フレーム内補間はフレーム間補間よりも精度が低く、画像内に高品質な領域と高品質な領域が混在する。フレーム内補間の品質を上げるためには、複雑な処理(例えばバイキュービックによる補間など)を行う必要がある。   As shown in FIG. 14, there is no problem if there is no motion, but in the case of an image with subject motion, regions with subject motion are multiplexed. In addition, problems such as a wrong pixel interpolation result occur. For this reason, as in the case of camera shake correction, a motion area is detected, non-motion areas are interpolated using two images (interframe interpolation), and motion areas are interpolated using only one image (intraframe interpolation). )I do. Intra-frame interpolation is less accurate than inter-frame interpolation, and high-quality areas and high-quality areas are mixed in the image. In order to improve the quality of intra-frame interpolation, it is necessary to perform complicated processing (for example, bicubic interpolation).

そこで、最初のステップでは図14(c)の動き領域は単純なコピーによる拡大を行い、図15に示す動き検出マップを中間データとして保持する。ビューアの表示には縮小画像が用いられるため、共通領域がコピー拡大であっても、品質の差が分かりにくくなる。また、コピーなので、高速に処理を終了できる。後刻、動き検出マップを元に、動き領域の画素(コピー拡大された領域)からバイキュービックなどで精度の高い補間計算を行って動き領域の高品質化を行う。   Therefore, in the first step, the motion region in FIG. 14C is enlarged by simple copying, and the motion detection map shown in FIG. 15 is held as intermediate data. Since a reduced image is used for display in the viewer, even if the common area is copy enlargement, it becomes difficult to understand the difference in quality. Moreover, since it is a copy, processing can be completed at high speed. Later, based on the motion detection map, high-precision interpolation calculation is performed by bicubic etc. from the pixels of the motion region (the region where the copy is enlarged) to improve the quality of the motion region.

また、PCなどを利用して、上記実施例に示した動作やステップをソースとする所定のプログラム(多チャンネルデータ転送プログラム)を、メモリ(ROMなど)に保存し、起動時にコンピュータに書き込み、上記ステップを実行することができる。   Further, using a PC or the like, a predetermined program (multi-channel data transfer program) whose source is the operation or step shown in the above embodiment is stored in a memory (ROM or the like) and written into a computer at the time of startup. Steps can be performed.

また、単体のコンピュータ(CPU、FPGAなどの情報処理装置を含む)などを用い、上記実施例に示したステップをソースとする所定のプログラムを、メモリ(ROMなど)に保存し、起動時に該コンピュータに書き込み、上記ステップを実行することができる。   In addition, using a single computer (including an information processing device such as a CPU or FPGA), a predetermined program that uses the steps shown in the above embodiments as a source is stored in a memory (such as a ROM), and the computer is activated at the time of startup. And the above steps can be performed.

また、前述したようなフローチャートの処理を標準的なコンピュータ(例えば画像処理装置など)のCPUに行わせるための制御プログラムを作成してコンピュータ読み取り可能な記録媒体に記録させておき、そのプログラムを記録媒体からコンピュータに読み込ませてCPUで実行させるようにしても、本発明の実施は可能である。   In addition, a control program for causing a CPU of a standard computer (for example, an image processing apparatus) to perform the processing of the flowchart as described above is created and recorded on a computer-readable recording medium, and the program is recorded. The present invention can be implemented even if it is read from a medium into a computer and executed by a CPU.

記録させた制御プログラムをコンピュータシステムで読み取ることの可能な記録媒体の
例を図16に示す。このような記録媒体としては、例えば、コンピュータシステム160に内蔵若しくは外付けの付属装置として備えられるROMやハードディスク装置などの記憶装置161、コンピュータシステム160に備えられる媒体駆動装置162へ挿入することによって記録された制御プログラムを読み出すことのできるフレキシブルディスク、MO(光磁気ディスク)、CD−ROM、DVD−ROMなどといった携帯可能記録媒体163等が利用できる。
An example of a recording medium from which the recorded control program can be read by the computer system is shown in FIG. As such a recording medium, for example, recording is performed by being inserted into a storage device 161 such as a ROM or a hard disk device provided as an internal or external accessory device in the computer system 160, or a medium driving device 162 provided in the computer system 160. A portable recording medium 163 such as a flexible disk, an MO (magneto-optical disk), a CD-ROM, a DVD-ROM, or the like that can read the control program that has been read can be used.

また、記録媒体は通信回線164を介してコンピュータシステム160と接続される、プログラムサーバ165として機能するコンピュータシステムが備えている記憶装置166であってもよい。この場合には、制御プログラムを表現するデータ信号で搬送波を変調して得られる伝送信号を、プログラムサーバ165から伝送媒体である通信回線164を通じてコンピュータシステム160へ伝送するようにし、コンピュータシステム160では受信した伝送信号を復調して制御プログラムを再生することでこの制御プログラムをコンピュータシステム160のCPUで実行できるようになる。   The recording medium may be a storage device 166 included in a computer system that functions as the program server 165 and is connected to the computer system 160 via the communication line 164. In this case, a transmission signal obtained by modulating a carrier wave with a data signal representing a control program is transmitted from the program server 165 to the computer system 160 through the communication line 164 as a transmission medium, and the computer system 160 receives the transmission signal. By demodulating the transmitted signal and reproducing the control program, the control program can be executed by the CPU of the computer system 160.

また、本発明は、上記実施の形態に限定されるものでなく、本発明の要旨を逸脱しない範囲内で種々の改良、変更が可能である。
(付記1)
複数の画像を合成する画像合成装置であって、
少なくとも前記複数の画像に基づいて被写体の動き検出をした検出結果を、中間データとして保持する中間データ保持部と、
前記複数の画像に対して合成画像であるビューア用画像を生成する画像合成部と、
前記ビューア用画像を保持する画像保持部と、
前記ビューア用画像と前記中間データとを用い高画質画像を生成する高画質化処理をする再処理部と、
を具備することを特徴とした画像合成装置。
The present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the gist of the present invention.
(Appendix 1)
An image composition device for compositing a plurality of images,
An intermediate data holding unit for holding detection results obtained by detecting the movement of the subject based on at least the plurality of images as intermediate data;
An image composition unit for generating a viewer image that is a composite image for the plurality of images;
An image holding unit for holding the viewer image;
A reprocessing unit for performing high image quality processing for generating a high quality image using the viewer image and the intermediate data;
An image synthesizing apparatus comprising:

(付記2)
前記中間データは、
前記画像を合成枚数に応じて領域分けした領域情報を含むことを特徴とする付記1に記載の画像合成装置。
(Appendix 2)
The intermediate data is
The image synthesizing apparatus according to claim 1, further comprising region information obtained by dividing the image according to the number of synthesized images.

(付記3)
前記再処理部は、
前記画像合成装置を備えた撮像装置の動作状態を検出し、前記動作状態が予め設定された動作状態であるか否かを判定するステータス監視部から、前記判定結果を受信して予め設定した動作状態のときに前記高画質化処理をバックグラウンドで実行することを特徴する付記1または2に記載の画像合成装置。
(Appendix 3)
The reprocessing unit
An operation preset by receiving the determination result from a status monitoring unit that detects an operation state of the imaging apparatus including the image composition device and determines whether the operation state is a preset operation state. The image synthesizing apparatus according to appendix 1 or 2, wherein the image quality enhancement process is executed in the background when in a state.

(付記4)
前記高画質化処理は、
該高画質化処理を実行中に前記判定結果が予め設定した動作状態になったとき、高画質化処理を中止または中断し、
中止の場合は、途中結果を全て破棄し、前記ステータス監視部から再度実行の指示を受けたときに最初から高画質化処理をやり直し、
中断の場合途中経過を保持する、
ことを特徴する付記3に記載の画像合成装置。
(Appendix 4)
The high image quality processing is
When the determination result becomes a preset operation state during execution of the image quality enhancement process, the image quality enhancement process is stopped or interrupted,
In the case of cancellation, all the intermediate results are discarded, and when the execution instruction is received again from the status monitoring unit, the image quality improvement processing is restarted from the beginning,
In case of interruption, keep track
The image synthesizing device according to Supplementary Note 3, wherein

(付記5)
前記ビューア用画像および前記高画質画像を表示する画像表示部と、
前記中間データが存在するか否かを判断する最終画像判定部を備え、
最終画像判定部に中間データが存在しないと判断した場合に、前記画像表示部に前記高画質化処理が未完了であることを通知することを特徴する付記1または2に記載の画像合成装置。
(Appendix 5)
An image display unit for displaying the viewer image and the high-quality image;
A final image determination unit for determining whether or not the intermediate data exists;
The image synthesizing apparatus according to appendix 1 or 2, wherein when the final image determination unit determines that no intermediate data exists, the image display unit is notified that the image quality enhancement processing has not been completed.

(付記6)
前記高画質化処理が未完了である場合に、即時に前記高画質化処理を実行するユーザインタフェースである再処理指示部を備えるためのことを特徴とする付記5に記載の画像合成装置。
(Appendix 6)
The image synthesizing apparatus according to claim 5, further comprising a reprocessing instruction unit that is a user interface that immediately executes the image quality improvement processing when the image quality improvement processing is incomplete.

(付記7)
前記中間データ保持部を中間データ付加部として前記画像保持部に設け、前記画像保持部が保持した画像データにヘッダ領域があるとき、前記ヘッダ領域に前記中間データを保持することを特徴する付記1または2に記載の画像合成装置。
(Appendix 7)
The intermediate data holding unit is provided in the image holding unit as an intermediate data adding unit, and when the image data held by the image holding unit has a header area, the intermediate data is held in the header area. Or the image synthesizing apparatus according to 2;

(付記8)
前記ヘッダ領域に格納した前記中間データを前記高画質化処理が完了した後に削除することを特徴する付記7に記載の画像合成装置。
(Appendix 8)
8. The image composition apparatus according to appendix 7, wherein the intermediate data stored in the header area is deleted after the image quality enhancement processing is completed.

(付記9)
複数の画像を合成する画像合成方法であって、
少なくとも前記複数の画像に基づいて被写体の動き検出をした検出結果を、中間データとして保持する中間データ保持ステップと、
前記複数の画像に対して合成画像であるビューア用画像を生成する画像合成ステップと、
前記ビューア用画像を保持する画像保持ステップと、
前記ビューア用画像と前記中間データとを用い高画質画像を生成する高画質化処理をする再処理ステップと、
を有することを特徴とした画像合成方法。
(Appendix 9)
An image composition method for combining a plurality of images,
An intermediate data holding step for holding, as intermediate data, a detection result obtained by detecting the movement of the subject based on at least the plurality of images;
An image synthesis step of generating a viewer image that is a synthesized image for the plurality of images;
An image holding step for holding the viewer image;
A reprocessing step of performing a high image quality process for generating a high quality image using the viewer image and the intermediate data;
An image synthesizing method characterized by comprising:

(付記10)
前記中間データは、
前記画像を合成枚数に応じて領域分けした領域情報を有することを特徴とする付記9に記載の画像合成方法。
(Appendix 10)
The intermediate data is
The image composition method according to appendix 9, characterized in that it has region information obtained by dividing the image into regions according to the number of composite images.

(付記11)
前記再処理ステップは、
前記画像合成装置を備えた撮像装置の動作状態を検出し、前記動作状態が予め設定された動作状態であるか否かを判定するステータス監視部から前記判定結果を受信し、該判定結果が予め設定した動作状態のときに前記高画質化処理をバックグラウンドで実行することを特徴する付記9または10に記載の画像合成方法。
(Appendix 11)
The reprocessing step includes
An operation state of an imaging device including the image composition device is detected, the determination result is received from a status monitoring unit that determines whether the operation state is a preset operation state, and the determination result is The image synthesizing method according to appendix 9 or 10, wherein the image quality enhancement process is executed in the background in the set operation state.

(付記12)
前記高画質化処理は、
該高画質化処理を実行中に前記判定結果が予め設定した動作状態になったとき、高画質化処理を中止または中断し、
中止の場合は、途中結果を全て破棄し、前記ステータス監視部から再度実行の指示を受けたときに最初から高画質化処理をやり直し、
中断の場合途中経過を保持する、
ことを特徴する付記11に記載の画像合成方法。
(Appendix 12)
The high image quality processing is
When the determination result becomes a preset operation state during execution of the image quality enhancement process, the image quality enhancement process is stopped or interrupted,
In the case of cancellation, all the intermediate results are discarded, and when the execution instruction is received again from the status monitoring unit, the image quality improvement processing is restarted from the beginning,
In case of interruption, keep track
The image synthesizing method according to appendix 11, which is characterized in that.

(付記13)
前記中間データのない場合に、前記高画質化処理が未完了であることを通知することを特徴する付記9または10に記載の画像合成方法。
(Appendix 13)
The image synthesizing method according to appendix 9 or 10, wherein when there is no intermediate data, notification is made that the image quality enhancement processing is incomplete.

(付記14)
前記高画質化処理が未完了である場合に、即時に前記高画質化処理を実行する指示をすることを特徴とする付記13に記載の画像合成方法。
(Appendix 14)
14. The image composition method according to appendix 13, wherein when the image quality improvement process is incomplete, an instruction to immediately execute the image quality improvement process is given.

(付記15)
画像データにヘッダ領域があるとき、前記ヘッダ領域に前記中間データを保持することを特徴する付記9または10に記載の画像合成方法。
(Appendix 15)
11. The image composition method according to appendix 9 or 10, wherein when the image data has a header area, the intermediate data is held in the header area.

(付記16)
前記ヘッダ領域に格納した中間データを前記高画質化処理が完了した後に削除することを特徴する付記15に記載の画像合成方法。
(Appendix 16)
The image composition method according to appendix 15, wherein the intermediate data stored in the header area is deleted after the image quality enhancement processing is completed.

(付記17)
複数の画像を取得し合成画像を作成する画像処理装置のコンピュータに、
少なくとも前記複数の画像に基づいて被写体の動き検出をした検出結果を、中間データとして保持する中間データ保持ステップと、
前記複数の画像に対して合成画像であるビューア用画像を生成する画像合成ステップと、
前記ビューア用画像を保持する画像保持ステップと、
前記ビューア用画像と前記中間データとを用い高画質画像を生成する高画質化処理をする再処理ステップと、
をコンピュータに実行させることを特徴とする画像処理装置のプログラム。
(Appendix 17)
In the computer of the image processing apparatus that acquires a plurality of images and creates a composite image,
An intermediate data holding step for holding, as intermediate data, a detection result obtained by detecting the movement of the subject based on at least the plurality of images;
An image synthesis step of generating a viewer image that is a synthesized image for the plurality of images;
An image holding step for holding the viewer image;
A reprocessing step of performing a high image quality process for generating a high quality image using the viewer image and the intermediate data;
A program for an image processing apparatus that causes a computer to execute.

(付記18)
前記中間データは、前記画像を合成枚数に応じて領域分けした領域情報を有することを特徴とする付記17に記載の画像処理装置のプログラム。
(Appendix 18)
The program of the image processing apparatus according to appendix 17, wherein the intermediate data includes area information obtained by dividing the image according to the number of synthesized images.

(付記19)
前記再処理ステップは、
前記画像合成装置を備えた撮像装置の動作状態を検出し、前記動作状態が予め設定された動作状態であるか否かを判定するステータス監視部から前記判定結果を受信し、該判定結果が予め設定した動作状態のときに前記高画質化処理をバックグラウンドで自動実行することを特徴とする付記18に記載の画像処理装置のプログラム。
(Appendix 19)
The reprocessing step includes
An operation state of an imaging device including the image composition device is detected, the determination result is received from a status monitoring unit that determines whether the operation state is a preset operation state, and the determination result is The program for an image processing apparatus according to appendix 18, wherein the image quality improvement processing is automatically executed in the background in the set operation state.

(付記20)
前記高画質化処理は、
該高画質化処理を実行中に前記判定結果が予め設定した動作状態になったとき、高画質化処理を中止または中断し、
中止の場合は、途中結果を全て破棄し、前記ステータス監視部から再度実行の指示を受けたときに最初から高画質化処理をやり直し、
中断の場合途中経過を保持することを特徴とする付記20に記載の画像処理装置のプログラム。
(Appendix 20)
The high image quality processing is
When the determination result becomes a preset operation state during execution of the image quality enhancement process, the image quality enhancement process is stopped or interrupted,
In the case of cancellation, all the intermediate results are discarded, and when the execution instruction is received again from the status monitoring unit, the image quality improvement processing is restarted from the beginning,
The program of the image processing apparatus according to appendix 20, wherein an intermediate process is retained in the case of interruption.

(付記21)
前記中間データのない場合に、前記高画質化処理が未完了であることを通知することを
特徴とする付記17または18に記載の画像処理装置のプログラム。
(Appendix 21)
The program of the image processing apparatus according to appendix 17 or 18, wherein when there is no intermediate data, notification is made that the image quality enhancement processing is incomplete.

(付記22)
前記高画質化処理が未完了である場合に、即時に前記高画質化処理を実行することを特徴とする付記21に記載の画像処理装置のプログラム。
(Appendix 22)
The program of the image processing apparatus according to appendix 21, wherein the image quality improvement process is immediately executed when the image quality improvement process is incomplete.

(付記23)
画像データにヘッダ領域があるとき、前記ヘッダ領域に前記中間データを保持することを特徴する付記17または18に記載の画像処理装置のプログラム。
(Appendix 23)
19. The image processing apparatus program according to appendix 17 or 18, wherein the intermediate data is held in the header area when the image data has a header area.

(付記24)
前記ヘッダ領域に格納した中間データは前記高画質化処理が完了した後に削除することを特徴する付記23に記載の画像処理装置のプログラム。
(Appendix 24)
24. The image processing apparatus program according to appendix 23, wherein the intermediate data stored in the header area is deleted after the image quality enhancement processing is completed.

(付記25)
前記高画質化処理は、
非動き領域には輪郭強調処理を行い、動き領域にはノイズ除去処理を行うことを特徴とする請求項1に記載の画像処理装置。
(Appendix 25)
The high image quality processing is
The image processing apparatus according to claim 1, wherein contour enhancement processing is performed on the non-motion region, and noise removal processing is performed on the motion region.

(付記26)
前記中間データは、
手ぶれ補正処理、パノラマ化処理、超解像処理により生成されたデータであることを特徴とする請求項1に記載の画像処理装置。
(Appendix 26)
The intermediate data is
The image processing apparatus according to claim 1, wherein the image processing apparatus is data generated by a camera shake correction process, a panorama process, and a super-resolution process.

本発明の原理を示す図である。It is a figure which shows the principle of this invention. 動き検出マップの原理を示す図である。It is a figure which shows the principle of a motion detection map. ディジタルカメラやカメラ付き携帯電話などに組み込まれる撮像装置の画像処理部の構成を示す図である。It is a figure which shows the structure of the image process part of the imaging device integrated in a digital camera, a mobile telephone with a camera, etc. 実施例1の動作フローを示す図である。FIG. 6 is a diagram illustrating an operation flow of the first embodiment. 実施例1の動作フローを示す図である。FIG. 6 is a diagram illustrating an operation flow of the first embodiment. 実施例2の画像処理部の構成を示す図である。FIG. 6 is a diagram illustrating a configuration of an image processing unit according to a second embodiment. 実施例2の動作フローを示す図である。FIG. 10 is a diagram illustrating an operation flow of the second embodiment. 実施例3の画像処理部の構成を示す図である。FIG. 10 is a diagram illustrating a configuration of an image processing unit according to a third embodiment. 実施例4の画像処理部の構成を示す図である。FIG. 10 is a diagram illustrating a configuration of an image processing unit according to a fourth embodiment. 高画質画像を生成していないことを通知する例を示す図である。It is a figure which shows the example which notifies that the high quality image is not produced | generated. 実施例5の画像処理部の構成を示す図である。FIG. 10 is a diagram illustrating a configuration of an image processing unit according to a fifth embodiment. パノラマ化の合成例を示す図である。It is a figure which shows the example of a synthesis | combination of panorama. パノラマ化の合成例を示す図である。It is a figure which shows the example of a synthesis | combination of panorama. 超解像化の合成例を示す図である。It is a figure which shows the synthesis example of super-resolution. 動き検出マップを示す図である。It is a figure which shows a motion detection map. 制御システムを示すブロック図である。It is a block diagram which shows a control system. 上段のブロック図は元画像1と元画像2を用いて画像合成部により合成してビューア画像を生成するとともに、元画像1と元画像2を用いて中間データ(動き検出マップ)を生成する構成を示した図であり、下段のデータは、元画像1の太線四角の範囲A、元画像2の太線四角の範囲B、ビューア画像の太線四角の範囲Dの画素の値を表し、中間データの太線四角の範囲Cのデータは、動き領域を1、非動き領域を0としてフラグデータを表している。The upper block diagram is a configuration in which the original image 1 and the original image 2 are combined by the image combining unit to generate a viewer image, and the original image 1 and the original image 2 are used to generate intermediate data (motion detection map). The lower data represents the values of the pixels in the thick line square range A of the original image 1, the thick line square range B of the original image 2, and the thick line square range D of the viewer image. The data in the bold square range C represents the flag data with the moving area set to 1 and the non-moving area set to 0. 従来例を示す図である。It is a figure which shows a prior art example.

符号の説明Explanation of symbols

1 画像処理部
2 画像撮影部
3 撮影画像保持部
4 位置ずれ検出部
5 被写体動き検出部
6 中間データ保持部
7 画像合成部
8 画像保持部
9 再処理部
10 ステータス監視部
61 画像処理部
62 再処理部
63 ワーク領域保持部
81 画像処理部
82 画像合成部
83 中間データ付加部
84 画像保持部
91 画像処理部
92 最終画像判定部
93 画像表示部
94 画像保持部
112 操作部
113 再処理指示部
114 再処理部
160 コンピュータシステム
161 記憶装置
162 媒体駆動装置
163 携帯可能記録媒体
164 通信回線
165 プログラムサーバ
166 記憶装置
DESCRIPTION OF SYMBOLS 1 Image processing part 2 Image imaging part 3 Captured image holding part 4 Position shift detection part 5 Subject motion detection part 6 Intermediate data holding part 7 Image composition part 8 Image holding part 9 Reprocessing part 10 Status monitoring part 61 Image processing part 62 Re Processing unit 63 Work area holding unit 81 Image processing unit 82 Image composition unit 83 Intermediate data adding unit 84 Image holding unit 91 Image processing unit 92 Final image determination unit 93 Image display unit 94 Image holding unit 112 Operation unit 113 Reprocessing instruction unit 114 Reprocessing unit 160 Computer system 161 Storage device 162 Medium drive device 163 Portable recording medium 164 Communication line 165 Program server 166 Storage device

Claims (4)

複数の画像を合成する画像合成装置であって、
少なくとも前記複数の画像に基づいて被写体の動き検出をした検出結果を、中間データとして保持する中間データ保持部と、
前記複数の画像に対して合成画像であるビューア用画像を生成する画像合成部と、
前記ビューア用画像を保持する画像保持部と、
前記ビューア用画像と前記中間データとを用い高画質画像を生成する高画質化処理をする再処理部と、を備え、
前記再処理部は、
前記画像合成装置を備えた撮像装置の動作状態を検出し、必要最低限のプログラムしか動作していないか、または、CPU負荷が設定値以下であるか、を判定するステータス監視部から、前記判定結果を受信して予め設定した動作状態のときに前記高画質化処理をバックグラウンドで実行し、
前記高画質化処理は、
該高画質化処理を実行中に前記判定結果が予め設定した動作状態になったとき、高画質化処理を中止または中断し、
中止の場合は、途中結果を全て破棄し、前記ステータス監視部から再度実行の指示を受けたときに最初から高画質化処理をやり直し、
中断の場合途中経過を保持する、
とを特徴とする画像合成装置。
An image composition device for compositing a plurality of images,
An intermediate data holding unit for holding detection results obtained by detecting the movement of the subject based on at least the plurality of images as intermediate data;
An image composition unit for generating a viewer image that is a composite image for the plurality of images;
An image holding unit for holding the viewer image;
A reprocessing unit that performs high image quality processing to generate a high quality image using the viewer image and the intermediate data ,
The reprocessing unit
From the status monitoring unit that detects the operating state of the imaging apparatus including the image synthesizing device and determines whether only the minimum necessary program is operating or the CPU load is equal to or less than a set value, the determination When the result is received and the operation state is set in advance, the image quality enhancement process is executed in the background,
The high image quality processing is
When the determination result becomes a preset operation state during execution of the image quality enhancement process, the image quality enhancement process is stopped or interrupted,
In the case of cancellation, all the intermediate results are discarded, and when the execution instruction is received again from the status monitoring unit, the image quality improvement processing is restarted from the beginning,
In case of interruption, keep track
Image synthesizing apparatus according to claim and this.
前記ビューア用画像および前記高画質画像を表示する画像表示部と、
前記中間データが存在するか否かを判断する最終画像判定部を備え、
最終画像判定部が中間データが存在しないと判断した場合に、前記画像表示部に前記高画質化処理が未完了であることを通知することを特徴する請求項1に記載の画像合成装置。
An image display unit for displaying the viewer image and the high-quality image;
A final image determination unit for determining whether or not the intermediate data exists;
The image synthesizing apparatus according to claim 1, wherein when the final image determination unit determines that there is no intermediate data, the image display unit is notified that the image quality enhancement processing has not been completed.
前記中間データ保持部を中間データ付加部として前記画像保持部に設け、前記画像保持部が保持した画像データにヘッダ領域があるとき、前記ヘッダ領域に前記中間データを保持することを特徴する請求項1に記載の画像合成装置。   The intermediate data holding unit is provided in the image holding unit as an intermediate data adding unit, and when the image data held by the image holding unit has a header area, the intermediate data is held in the header area. 2. The image composition device according to 1. 複数の画像を合成する画像合成方法であって、
少なくとも前記複数の画像に基づいて被写体の動き検出をした検出結果を、中間データとして保持する中間データ保持ステップと、
前記複数の画像に対して合成画像であるビューア用画像を生成する画像合成ステップと、
前記ビューア用画像を保持する画像保持ステップと、
前記ビューア用画像と前記中間データとを用い高画質画像を生成する高画質化処理をする再処理ステップと、を有し、
前記再処理ステップは、
前記画像合成装置を備えた撮像装置の動作状態を検出し、必要最低限のプログラムしか動作していないか、または、CPU負荷が設定値以下であるか、を判定するステータス監視部から前記判定結果を受信し、該判定結果が予め設定した動作状態のときに前記高画質化処理をバックグラウンドで実行し、
前記高画質化処理は、
該高画質化処理を実行中に前記判定結果が予め設定した動作状態になったとき、高画質化処理を中止または中断し、中止の場合は、途中結果を全て破棄し、前記ステータス監視部から再度実行の指示を受けたときに最初から高画質化処理をやり直し、中断の場合途中経過を保持する、
とを特徴とする画像合成方法。
An image composition method for combining a plurality of images,
An intermediate data holding step for holding, as intermediate data, a detection result obtained by detecting the movement of the subject based on at least the plurality of images;
An image synthesis step of generating a viewer image that is a synthesized image for the plurality of images;
An image holding step for holding the viewer image;
A reprocessing step of performing a high image quality process for generating a high image quality image using the viewer image and the intermediate data ,
The reprocessing step includes
The determination result from the status monitoring unit that detects the operating state of the image pickup apparatus including the image composition device and determines whether only the minimum necessary program is operating or the CPU load is equal to or less than a set value. And when the determination result is a preset operation state, the image quality enhancement process is executed in the background,
The high image quality processing is
When the determination result is in a preset operation state during execution of the image quality enhancement process, the image quality enhancement process is canceled or interrupted. In the case of cancellation, all the intermediate results are discarded and the status monitoring unit When the execution instruction is received again, the image quality improvement process is restarted from the beginning.
Image composition wherein the this.
JP2007143298A 2007-05-30 2007-05-30 Image composition apparatus, image composition method, and image composition program Expired - Fee Related JP4851392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007143298A JP4851392B2 (en) 2007-05-30 2007-05-30 Image composition apparatus, image composition method, and image composition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007143298A JP4851392B2 (en) 2007-05-30 2007-05-30 Image composition apparatus, image composition method, and image composition program

Publications (2)

Publication Number Publication Date
JP2008301043A JP2008301043A (en) 2008-12-11
JP4851392B2 true JP4851392B2 (en) 2012-01-11

Family

ID=40174158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007143298A Expired - Fee Related JP4851392B2 (en) 2007-05-30 2007-05-30 Image composition apparatus, image composition method, and image composition program

Country Status (1)

Country Link
JP (1) JP4851392B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5679655B2 (en) * 2009-12-24 2015-03-04 レノボ・イノベーションズ・リミテッド(香港) Portable terminal device and display control method thereof
JP4924727B2 (en) * 2010-02-16 2012-04-25 カシオ計算機株式会社 Image processing apparatus and image processing program
JP5146500B2 (en) * 2010-08-18 2013-02-20 カシオ計算機株式会社 Image composition apparatus, image composition method, and program
JP5146498B2 (en) * 2010-07-23 2013-02-20 カシオ計算機株式会社 Image composition apparatus, image composition method, and program
JP5720034B2 (en) * 2011-10-14 2015-05-20 株式会社モルフォ Image processing apparatus, image processing method, image processing program, and recording medium
JP5365823B2 (en) 2011-10-14 2013-12-11 株式会社モルフォ Image composition apparatus, image composition method, image composition program, and recording medium
JPWO2013099025A1 (en) * 2011-12-28 2015-04-30 ピタフォー モバイル エルエルシー Information processing apparatus, information processing method, information processing program, and information recording medium
US9307161B2 (en) 2014-01-10 2016-04-05 Qualcomm Incorporated System and method for capturing digital images using multiple short exposures
JPWO2022181048A1 (en) * 2021-02-25 2022-09-01

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4515005B2 (en) * 2001-09-27 2010-07-28 オリンパス株式会社 Electronic camera
JP2005284635A (en) * 2004-03-29 2005-10-13 Seiko Epson Corp Image forming apparatus, image forming method and image forming program
JP2006060339A (en) * 2004-08-18 2006-03-02 Sharp Corp Mobile communication terminal and method of extracting and combining static image
JP2006148550A (en) * 2004-11-19 2006-06-08 Konica Minolta Opto Inc Image processor and imaging device
JP4528189B2 (en) * 2005-04-05 2010-08-18 オリンパスイメージング株式会社 Imaging device
WO2007032082A1 (en) * 2005-09-16 2007-03-22 Fujitsu Limited Image processing method, and image processing device

Also Published As

Publication number Publication date
JP2008301043A (en) 2008-12-11

Similar Documents

Publication Publication Date Title
JP4851392B2 (en) Image composition apparatus, image composition method, and image composition program
US20180255242A1 (en) Image processing apparatus, image processing method, and program
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP2006237757A (en) Digital camera device and method for displaying through-image
JP2010161760A (en) Image processing apparatus, and electronic appliance
JP2012114900A (en) Panoramic image generation device and panoramic image generation method
JP2010021710A (en) Imaging device, image processor, and program
JP2004112550A (en) Imaging apparatus, camera, program, and recording medium
JP5213557B2 (en) Moving image processing apparatus and moving image processing method
JP2009080619A (en) Imaging apparatus, image synthesizing apparatus, and its program
JP2007142639A (en) Imaging apparatus and program therefor
JP2006081145A (en) Image recording apparatus
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP2022090350A (en) Imaging apparatus and control method therefor and program
JP2012080428A (en) Imaging device, control method therefor, program and recording medium
JP2011182014A (en) Image pickup device, image processing method and program
JP2006287588A (en) Image processing apparatus and method, data file structure, computer program, and storage medium
JP5332668B2 (en) Imaging apparatus and subject detection program
CN111698389A (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2005253003A (en) Digital camera
JP5206421B2 (en) Digital camera, photographing recording method, and photographing control program
JP5614713B2 (en) Imaging apparatus and program
JP5234086B2 (en) Region specifying method, region specifying device, program, server, and system
JP4962597B2 (en) Electronic camera and program
JP2006217472A (en) Image preparation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111020

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees