JP2011176777A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2011176777A
JP2011176777A JP2010041115A JP2010041115A JP2011176777A JP 2011176777 A JP2011176777 A JP 2011176777A JP 2010041115 A JP2010041115 A JP 2010041115A JP 2010041115 A JP2010041115 A JP 2010041115A JP 2011176777 A JP2011176777 A JP 2011176777A
Authority
JP
Japan
Prior art keywords
image
images
reference image
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010041115A
Other languages
Japanese (ja)
Inventor
Daisuke Suzuki
大介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010041115A priority Critical patent/JP2011176777A/en
Publication of JP2011176777A publication Critical patent/JP2011176777A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate a high-quality image without causing blur or artifact in image synthesis. <P>SOLUTION: The image processing apparatus includes: a registeration means for registering a plurality of images; and an image synthesis means for synthesizing the plurality of registered images to generate a composite image. The registeration means includes: a region separating means for separating each reference image into a plurality of regions by partitioning the image to be registered at a predetermined boundary line when the reference image is any one of the plurality of images and the other images are images to be registered; and a region changing means for changing the region of each image to be registered by moving the boundary line so that the regions may be different between the images to be registered. The image to be registered is registered on the reference image for each of the regions. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理方法に関し、特に、時系列に撮影した複数枚の画像の位置合わせ処理や合成処理を行う画像処理装置及び画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for performing alignment processing and composition processing of a plurality of images taken in time series.

デジタルカメラやデジタルビデオカメラ等の撮像装置において画像を撮影する際に、手振れによって撮像装置に動きが生じると、撮影された画像にぶれが生じ不鮮明になるという問題がある。このため、撮像装置では、時間的に連続する複数枚の画像を撮像し、該複数の画像間の相関を取ることで画像間の動きを動きベクトルとして検出し、この動きベクトルに基づいて、複数の画像間の対応する点を一致させて合成することにより手振れによる画像劣化を改善する、いわゆる電子手ブレ補正処理が知られている。このような手ブレ補正処理の一例として、特許文献1には、手ブレが起こらないような短い露光時間で複数枚の画像を取得し、手ブレの軌跡をキャンセルするように画像の相対位置をずらしながら合成することにより、適正露光でブレのない画像を得る技術が開示されている。   When an image capturing apparatus such as a digital camera or a digital video camera captures an image, if the image capturing apparatus moves due to camera shake, there is a problem that the captured image is blurred and unclear. For this reason, the imaging apparatus captures a plurality of temporally continuous images, detects a motion between the images by taking a correlation between the plurality of images, and based on the motion vector, A so-called electronic camera shake correction process is known in which image degradation due to camera shake is improved by matching and matching corresponding points between images. As an example of such a camera shake correction process, Patent Document 1 discloses that a plurality of images are acquired with a short exposure time so that camera shake does not occur, and the relative positions of the images are set so as to cancel the locus of camera shake. A technique for obtaining a blur-free image with proper exposure by synthesizing while shifting is disclosed.

また、特許文献2には、画像間において複数の領域からパターンマッチングを行うことにより得られた複数の動きベクトルから、最も確からしい一つの動きベクトル(グローバル動きベクトル)を特定して位置合わせを行う技術が開示されている。さらに、特許文献3には、グローバル動きベクトルを特定せずに領域ごとに求めた動きを、該当する領域ごとに適用し位置合わせを行う技術が開示されている。   In Patent Document 2, the most probable motion vector (global motion vector) is specified and aligned from a plurality of motion vectors obtained by performing pattern matching from a plurality of regions between images. Technology is disclosed. Furthermore, Patent Document 3 discloses a technique for performing alignment by applying a motion obtained for each region without specifying a global motion vector for each corresponding region.

特開平9−261526号公報JP-A-9-261526 特開2008−005084号公報JP 2008-005084 A 特開平8−110939号公報JP-A-8-110939

しかしながら、上記した特許文献2に開示された技術によれば、平行移動のブレ成分に加えて回転移動のブレ成分も考慮した高精度なブレ補正を行うことができるが、画像全域で一つのグローバル動きベクトルを適用することにより補正を行うため、例えば、平行移動・回転移動以外の自由度を持つ手ブレが発生した場合や、被写体に動きがある場合に正しく位置合わせを行うことができない。従って、位置合わせした画像を合成する際に、画像上でグローバル動きベクトルに適合しない動きを持つ領域にボケが発生し、解像度が著しく損なわれるという問題がある。   However, according to the technique disclosed in Patent Document 2 described above, high-accuracy blur correction can be performed in consideration of the rotational movement blur component in addition to the translational blur component. Since correction is performed by applying a motion vector, for example, when camera shake having a degree of freedom other than parallel movement and rotational movement occurs, or when there is a movement of a subject, correct alignment cannot be performed. Therefore, when the aligned images are synthesized, there is a problem that blur occurs in a region having a motion that does not match the global motion vector on the image, and the resolution is significantly impaired.

また、特許文献3に開示された技術によれば、画像を領域分割し、分割領域毎に求めた動きベクトルを用いて位置合わせを行うため、個々の分割領域内の画質は大きく改善されるが、隣接する分割領域の動きベクトルがわずかでも異なる場合、領域境界の不整合によるブロックノイズが大きく目立ち、画像全体での画質が著しく低下するという問題がある。   According to the technique disclosed in Patent Document 3, since an image is divided into regions and alignment is performed using motion vectors obtained for each divided region, the image quality in each divided region is greatly improved. When the motion vectors of adjacent divided regions are slightly different, there is a problem that block noise due to region boundary mismatching is noticeable and the image quality of the entire image is significantly reduced.

本発明は、上記問題を解決するためになされたもので、合成時にボケや不快なアーティファクトが生じない高品質な画像を生成することが可能な画像処理装置を提供することを目的とする。   The present invention has been made to solve the above problem, and an object of the present invention is to provide an image processing apparatus capable of generating a high-quality image free from blurring and unpleasant artifacts during synthesis.

上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、複数の画像間の位置合わせを行う位置合わせ手段と、位置合わせされた前記複数の画像を合成して合成画像を生成する画像合成手段とを備えた画像処理装置であって、前記位置合わせ手段は、前記複数の画像のうち何れか1つを基準画像とし、他の画像を参照画像とした場合に、前記参照画像を所定の境界線によって区切ることにより複数の領域に分割する領域分割手段と、前記参照画像間で前記領域がそれぞれ異なるように前記境界線を移動させて前記各参照画像の前記領域を変更する領域変更手段と、を備え、前記領域毎に前記基準画像に対して前記位置合わせ対象の参照画像の位置合わせを行うことを特徴とする画像処理装置を提供する。
In order to solve the above problems, the present invention employs the following means.
The present invention is an image processing apparatus comprising: an alignment unit that performs alignment between a plurality of images; and an image synthesis unit that combines the plurality of aligned images to generate a combined image, An alignment unit that divides the reference image into a plurality of regions by dividing the reference image by a predetermined boundary line when any one of the plurality of images is a standard image and another image is a reference image. Division means, and area changing means for changing the area of each reference image by moving the boundary line so that the areas differ between the reference images, and for each area, the reference image An image processing apparatus is provided that performs alignment of the reference image to be aligned.

また、上記した画像処理装置において、前記領域分割手段は、前記領域を矩形領域とすることが好ましい。   In the above-described image processing apparatus, it is preferable that the area dividing unit makes the area a rectangular area.

さらに、上記した画像処理装置において、前記領域変更手段は、前記境界線を平行移動させることにより前記領域を変更することが好ましい。   Furthermore, in the above-described image processing apparatus, it is preferable that the area changing unit changes the area by translating the boundary line.

本発明は、複数の画像間の位置合わせを行い、位置合わせされた前記複数の画像を合成して合成画像を生成する画像処理方法であって、前記位置合わせに際して、前記複数の画像のうち何れか1つを基準画像とし、他の画像を参照画像とした場合に、前記参照画像を所定の境界線によって区切ることにより複数の領域に分割するステップと、前記参照画像間で前記領域がそれぞれ異なるように前記境界線を移動させて前記各参照画像の前記領域を変更するステップと、を備え、前記領域毎に前記基準画像に対して前記位置合わせ対象の参照画像の位置合わせを行うことを特徴とする画像処理方法を提供する。   The present invention is an image processing method for performing alignment between a plurality of images and generating a composite image by combining the plurality of aligned images, and at the time of the alignment, any one of the plurality of images When one of the reference images is a reference image and the other image is a reference image, the reference image is divided into a plurality of regions by dividing the reference image by a predetermined boundary line, and the regions differ between the reference images. Moving the boundary line to change the region of each reference image, and aligning the reference image to be aligned with the reference image for each region. An image processing method is provided.

このように、本発明によれば、合成時にボケや不快なアーティファクトが生じない高品質な画像を生成することができる。   Thus, according to the present invention, it is possible to generate a high-quality image that does not cause blurring or unpleasant artifacts during synthesis.

本発明の一実施形態にかかる画像処理装置を適用した場合のデジタルカメラの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a digital camera when an image processing apparatus according to an embodiment of the present invention is applied. 本発明の一実施形態にかかる画像処理装置におけるフレームメモリに画像が展開された場合の一例を示す説明図である。It is explanatory drawing which shows an example when the image is expand | deployed to the frame memory in the image processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理装置におけるフレームメモリに画像が展開された場合の一例を示す説明図である。It is explanatory drawing which shows an example when the image is expand | deployed to the frame memory in the image processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理装置の画像位置合わせ部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image position alignment part of the image processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理装置において、基準画像に対する領域分割の手順を示す説明図である。FIG. 5 is an explanatory diagram illustrating a procedure for area division with respect to a reference image in the image processing apparatus according to the embodiment of the present invention. 本発明の一実施形態にかかる画像処理装置において、領域分割された基準画像と参照画像とのブロックマッチングの様子を示す説明図である。It is explanatory drawing which shows the mode of block matching with the reference | standard image and reference image by which area | region division | segmentation were performed in the image processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理装置の画像合成部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image synthetic | combination part of the image processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理装置において、領域分割されブロックマッチングされた基準画像と参照画像とが順次合成される場合の、領域の境界線の位置を示す説明図である。In the image processing apparatus according to an embodiment of the present invention, it is an explanatory diagram showing the position of the boundary line of a region when a reference image and a reference image that is divided into blocks and subjected to block matching are sequentially synthesized. 本発明の一実施形態にかかる画像処理装置において、領域分割されブロックマッチングされた基準画像と参照画像とがそれぞれ合成される様子を示す説明図である。It is explanatory drawing which shows a mode that the reference | standard image and reference image by which area | region division | segmentation and block matching were carried out are each synthesize | combined in the image processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像処理装置にかかる画像処理の過程を示すフローチャートである。It is a flowchart which shows the process of the image processing concerning the image processing apparatus concerning one Embodiment of this invention.

以下に、本発明に係る画像処理装置の一実施形態について、図面を参照して説明する。
図1は、本実施形態に係る画像処理装置を備えたデジタルカメラの概略構成を示すブロック図である。本実施形態にかかる画像処理装置は、図1に示すように、例えば、デジタルカメラに適用することができる。すなわち、デジタルカメラにおいて、撮像素子により時系列に連続した複数の画像に対して所定の画像処理を施した後に、本実施形態にかかる画像処理装置が、複数の画像間の位置合わせ処理を行い、これら複数の画像を合成して合成画像を生成する。
An embodiment of an image processing apparatus according to the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram illustrating a schematic configuration of a digital camera including an image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment can be applied to, for example, a digital camera as shown in FIG. That is, in the digital camera, after performing predetermined image processing on a plurality of images that are continuous in time series by the imaging device, the image processing apparatus according to the present embodiment performs alignment processing between the plurality of images, These multiple images are combined to generate a combined image.

図1に示すように、本実施形態で述べるデジタルカメラは、撮像部100、A/D変換部101、画像処理部102、フレームメモリ103、画像位置合わせ部104、画像合成部105、セレクタ106、画像表示部107及び画像圧縮部108を備えている。   As shown in FIG. 1, the digital camera described in this embodiment includes an imaging unit 100, an A / D conversion unit 101, an image processing unit 102, a frame memory 103, an image alignment unit 104, an image composition unit 105, a selector 106, An image display unit 107 and an image compression unit 108 are provided.

撮像部100は、光学レンズ部と撮像素子とを備えている。光学レンズ部は、被写体より放射もしくは反射される光を撮像素子上に結像させるものであり、必要に応じて絞り、光学ローパスフィルタ、及びメカニカルシャッター等を組み合わせて構成することもできる。撮像素子は、二次元平面上に配置された複数の光電変換素子上に結像した画像を電気信号に変換するものであり、例えばCCD(Charge Coupled Device)撮像素子やCMOS(Complementary Metal Oxide Semiconductor)撮像素子等を使用することができる。また、撮像素子上に所定のカラーフィルタアレイを設置すると光電変換素子毎に異なる色情報を取得することができ、後述する画像処理部102にてカラー画像を形成することが可能となる。   The imaging unit 100 includes an optical lens unit and an imaging element. The optical lens unit forms an image of light emitted or reflected from the subject on the image sensor, and may be configured by combining a diaphragm, an optical low-pass filter, a mechanical shutter, and the like as necessary. The image sensor converts an image formed on a plurality of photoelectric conversion elements arranged on a two-dimensional plane into an electric signal, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor). An image sensor or the like can be used. If a predetermined color filter array is installed on the image sensor, different color information can be acquired for each photoelectric conversion element, and a color image can be formed by the image processing unit 102 described later.

A/D(Analog/Digital)変換部101は、撮像部100により電圧信号に変換されたアナログ画像信号を、デジタル画像信号に変換する。画像処理部102は、A/D変換部102から供給される画像信号を加工し、最適化された1枚の画像データを生成する。ここでは、例えばノイズ抑制処理、エッジ強調処理、スケーリング処理、等が含まれる。また、前述のようなカラーフィルタアレイを適用した場合は、デモザイキング処理により多チャンネルのカラー信号を得ることもできる。カラー画像を扱う場合は、前述のデモザイキング処理のほかに、ホワイトバランス調整処理、YC分離処理、等も必要となる。撮像部100による画像の撮影、A/D変換部101による画像信号のA/D変換及び画像処理部102による所定の画像処理を複数回数繰り返えすことで、複数枚の画像を取得し、取得した画像をフレームメモリ103に格納する。   An A / D (Analog / Digital) conversion unit 101 converts an analog image signal converted into a voltage signal by the imaging unit 100 into a digital image signal. The image processing unit 102 processes the image signal supplied from the A / D conversion unit 102 to generate one piece of optimized image data. Here, for example, noise suppression processing, edge enhancement processing, scaling processing, and the like are included. When the color filter array as described above is applied, a multi-channel color signal can be obtained by demosaicing processing. In the case of handling a color image, white balance adjustment processing, YC separation processing, and the like are required in addition to the demosaicing processing described above. A plurality of images are acquired and acquired by repeating image capturing by the imaging unit 100, A / D conversion of the image signal by the A / D conversion unit 101, and predetermined image processing by the image processing unit 102 a plurality of times. The processed image is stored in the frame memory 103.

フレームメモリ103は、上述したように画像処理部102により所定の処理がなされた画像データを格納する。具体的には、フレームメモリ103には、図2のように画像データが書き込まれる。図2の例では、取得画像枚数をn枚とすると、1枚の基準画像とn−1枚の参照画像とがフレームメモリ上に展開される。本実施形態では、ユーザーがシャッターボタンを押下した直後に取得した画像を基準画像、それ以降に取得した画像を参照画像とし、参照画像は基準画像に位置合わせされるものとする。なお、基準画像は及び参照画像は任意に定めることができる。換言すると、位置合わせの基準となる基準画像は取得した複数枚画像のいずれでもよく、ユーザーが指示できるようにしても良い。   The frame memory 103 stores image data that has been subjected to predetermined processing by the image processing unit 102 as described above. Specifically, image data is written in the frame memory 103 as shown in FIG. In the example of FIG. 2, if the number of acquired images is n, one standard image and n−1 reference images are developed on the frame memory. In the present embodiment, it is assumed that an image acquired immediately after the user presses the shutter button is a standard image, an image acquired thereafter is a reference image, and the reference image is aligned with the standard image. The standard image and the reference image can be arbitrarily determined. In other words, the reference image serving as the alignment reference may be any of a plurality of acquired images, and may be designated by the user.

また、フレームメモリ103には、後述するように基準画像と参照画像とが合成されることにより生成される合成画像データも格納する。参照画像が複数ある場合には、後述する画像合成部105での画像合成処理が繰り返され、その結果生成された合成画像が、合成画像の格納領域に格納される。すなわち、その参照画像が1枚目の参照画像である場合には、基準画像と参照画像とを合成した合成画像が格納され、参照画像が2枚目以降の参照画像である場合には、先に合成された合成画像を基準画像として、この合成画像と参照画像とを合成した合成画像を順次格納していく。このため、フレームメモリ103には、図3のように合成画像データが書き込まれる。フレームメモリ103としては、DRAM(Dynamic Random Access Memory)もしくはSDRAM(Synchronous DRAM)等を用いることができるが、画像データとなる情報を一時的に記憶できる機構であればこれに限るものではない。   The frame memory 103 also stores composite image data generated by combining the base image and the reference image as will be described later. When there are a plurality of reference images, image composition processing in the image composition unit 105 described later is repeated, and the resultant composite image is stored in the composite image storage area. That is, when the reference image is the first reference image, a composite image obtained by combining the base image and the reference image is stored. When the reference image is the second or later reference image, the first image is stored. The combined image obtained by combining the combined image and the reference image is sequentially stored using the combined image combined with the reference image as a standard image. Therefore, the composite image data is written in the frame memory 103 as shown in FIG. As the frame memory 103, a dynamic random access memory (DRAM) or a synchronous DRAM (SDRAM) can be used. However, the frame memory 103 is not limited to this as long as it can temporarily store information serving as image data.

画像位置合わせ部104は、フレームメモリ103に格納された複数枚の画像のうち、何れか一枚を基準画像とし、基準画像以外の画像を参照画像と定めた場合に、基準画像と何れかの参照画像とを比較して、基準画像に対して参照画像の位置合わせを行う。このため、位置合わせ部104は、図4に示すように、領域分割設定部110、領域分割変更部111、動き推定部112及び動き情報保持部113を備えている。   When the image alignment unit 104 determines any one of a plurality of images stored in the frame memory 103 as a reference image and an image other than the reference image as a reference image, the image alignment unit 104 The reference image is compared with the reference image, and the reference image is aligned with the reference image. For this reason, the alignment unit 104 includes a region division setting unit 110, a region division change unit 111, a motion estimation unit 112, and a motion information holding unit 113, as shown in FIG.

位置合わせを行うに際して、まず、領域分割設定部110は、フレームメモリ103に格納された複数枚の画像から1枚の参照画像を読み出して、この参照画像を所定の境界線によって区切ることにより複数の領域に分割する。ここで、分割される領域の形状は問わないが、矩形のブロック分割を行うことが回路規模削減及び高速化の観点から望ましく、以下、本実施形態ではブロック分割を行うことを前提として説明する。   When performing alignment, first, the area division setting unit 110 reads one reference image from a plurality of images stored in the frame memory 103, and divides the reference image by a predetermined boundary line to thereby define a plurality of reference images. Divide into areas. Here, the shape of the area to be divided is not limited, but rectangular block division is desirable from the viewpoint of circuit scale reduction and speedup. In the following, the present embodiment will be described on the assumption that block division is performed.

領域分割変更部111は、フレームメモリ103に格納された他の参照画像を読み出し、各参照画像間で領域がそれぞれ異なるように、他の参照画像の領域を設定する。換言すると、領域分割設定部110で領域分割された参照画像の領域における境界線を基準として、この境界線を平行移動させる等して他の参照画像の領域を設定することにより、各参照画像間の領域をそれぞれ異なるように、領域変更する。具体的には、例えば、水平方向のブロックサイズをBx、垂直方向のブロックサイズをBy、画像の使用枚数をnとすると、i枚目の参照画像に対する水平方向の移動量Sx(i)及び垂直方向の移動量Sy(i)は以下の式のようになる。
ここで、int()は括弧内の数値の整数形を返す関数である。
The area division change unit 111 reads out other reference images stored in the frame memory 103, and sets the areas of the other reference images so that the areas differ between the reference images. In other words, with reference to the boundary line in the reference image area divided by the area division setting unit 110, the boundary line is set in parallel by moving the boundary line between the reference images. Change the area so that each area is different. Specifically, for example, assuming that the horizontal block size is Bx, the vertical block size is By, and the number of used images is n, the horizontal movement amount Sx (i) and the vertical shift with respect to the i-th reference image The moving amount Sy (i) in the direction is expressed by the following equation.
Here, int () is a function that returns the integer form of the number in parentheses.

例えば、画像の使用枚数が4枚である場合、すなわち、フレームメモリ103に格納された画像が4枚ある場合には、まず、図5に示すように、領域分割部110により1枚目(i=1)の参照画像の領域を分割し、続いて、領域分割変更部111により、1枚目の参照画像の領域の境界線を移動させ、2枚目(i=2)の参照画像の領域を設定する。また、3枚目(i=3)の参照画像についても、1枚目及び2枚目の領域の境界線の位置と異なる位置に境界線の位置を定めることにより、1枚目及び2枚目の参照画像の領域と異なる領域を設定する。なお、領域の変更は、例えば、境界線のピッチを変更することによって領域の大きさを変更することも可能である。   For example, when the number of used images is four, that is, when there are four images stored in the frame memory 103, first, as shown in FIG. = 1) the reference image region is divided, and then the region division changing unit 111 moves the boundary line of the first reference image region to move the second (i = 2) reference image region. Set. In addition, for the third reference image (i = 3), the first and second images are determined by setting the boundary line positions different from the boundary line positions of the first and second regions. An area different from the reference image area is set. The area can be changed by changing the size of the area, for example, by changing the pitch of the boundary line.

動き推定部112は、領域分割部110で領域分割された参照画像及び領域分割変更部111により領域が変更された参照画像と基準画像とを比較し、それぞれ領域毎に基準画像と比較した参照画像の動きを推定する。動き推定方法としては、ブロックマッチング法が適用できる。図6はその様子を概念的に示したものである。推定された動きベクトル(Mvx,Mvy)は、基準画像に対する各参照画像の領域毎の動き情報として動き情報保持部113に格納され、動き情報200として画像合成処理時に画像合成部105へ出力される。なお、本実施形態では推定する動きを平行移動成分のみとしているが、それに回転角を加えても良いし、更に自由度の高いアフィン変換パラメータを領域ごとに推定しても良い。   The motion estimation unit 112 compares the reference image divided by the region dividing unit 110 and the reference image whose region has been changed by the region division changing unit 111 with the standard image, and each reference image has been compared with the standard image for each region. Estimate the movement of As a motion estimation method, a block matching method can be applied. FIG. 6 conceptually shows this state. The estimated motion vector (Mvx, Mvy) is stored in the motion information holding unit 113 as motion information for each area of each reference image with respect to the base image, and is output as motion information 200 to the image composition unit 105 during image composition processing. . In this embodiment, the motion to be estimated is only the translation component, but a rotation angle may be added thereto, or an affine transformation parameter with a higher degree of freedom may be estimated for each region.

画像合成部105は、フレームメモリ103に格納された複数枚の画像のうち基準画像と何れかの参照画像と、これらに同期して画像位置合わせ部104より供給される基準画像に対する参照画像の動き情報に基づいて、基準画像に対して参照画像の合成を行う。また、基準画像と参照画像とが合成された合成画像が既にフレームメモリ103に格納されている場合には、この合成画像を基準として、合成画像に対して参照画像を合成する。   The image composition unit 105 includes a reference image and any reference image among a plurality of images stored in the frame memory 103, and the movement of the reference image with respect to the reference image supplied from the image registration unit 104 in synchronization therewith. Based on the information, the reference image is synthesized with the standard image. When a composite image obtained by combining the base image and the reference image is already stored in the frame memory 103, the reference image is combined with the composite image based on the composite image.

このため、画像合成部105は、図7に示すように、セレクタ120、座標変換部121及び加算器122を備えている。セレクタ120は、フレームメモリ103に格納された画像のうち、何れの画像を読み出すかを選択する。すなわち、画像合成部105では、まず、フレームメモリ103より参照画像が読み出されるが、この参照画像が1枚目の参照画像である場合、つまり最初の合成を行う場合には、参照画像に同期してフレームメモリ103より基準画像を読み出し、合成が2回目以降である場合には、基準画像の代わりに合成画像を読み出す。   Therefore, the image composition unit 105 includes a selector 120, a coordinate conversion unit 121, and an adder 122 as shown in FIG. The selector 120 selects which image is read out from the images stored in the frame memory 103. That is, in the image composition unit 105, first, a reference image is read from the frame memory 103. When this reference image is the first reference image, that is, when the first composition is performed, it is synchronized with the reference image. Then, the reference image is read from the frame memory 103, and when the composition is the second or later, the composite image is read instead of the reference image.

座標変換部121には、参照画像に同期して画像位置合わせ部104の動き情報保持部113から動き情報200が供給され、座標変換部121は、参照画像に対してこの動き情報に基づいて座標変換を行う。本実施形態では、位置合わせのための動きの成分を平行移動のみとしているため、動きベクトル(Mvx,Mvy)に基づいて参照画像を平行移動させることとなる。すなわち、座標変換部121では、動きベクトルに基づいて参照画像を平行移動させることで、参照画像が基準画像に位置合わせされる。加算器122は、座標変換され位置合わせされた参照画像を基準画像又は合成画像に加算することで合成画像を生成する。生成された合成画像は、フレームメモリ103の合成画像格納領域に記憶される。   The coordinate conversion unit 121 is supplied with motion information 200 from the motion information holding unit 113 of the image alignment unit 104 in synchronization with the reference image, and the coordinate conversion unit 121 coordinates the reference image based on the motion information. Perform conversion. In this embodiment, since the motion component for alignment is only translated, the reference image is translated based on the motion vector (Mvx, Mvy). That is, the coordinate conversion unit 121 aligns the reference image with the standard image by translating the reference image based on the motion vector. The adder 122 generates a composite image by adding the coordinate-converted and aligned reference image to the standard image or the composite image. The generated composite image is stored in the composite image storage area of the frame memory 103.

図8に、例えば、画像の使用枚数が4枚である場合、すなわち、フレームメモリ103に格納された画像が4枚である場合の合成画像上での領域境界を示す。図8に示すように、参照画像間でそれぞれ位置合わせの際の領域境界がずれているので、合成枚数が増えるほど領域の境目が目立たなくなる。更に、図6において説明したブロックマッチング法による位置合わせに対して、合成画像が更新されていく様子を表した概念図を図9に示す。   FIG. 8 shows a region boundary on the composite image when the number of used images is four, that is, when four images are stored in the frame memory 103, for example. As shown in FIG. 8, since the area boundaries at the time of alignment are shifted between the reference images, the boundary between the areas becomes less noticeable as the number of combined images increases. Further, FIG. 9 is a conceptual diagram showing how the composite image is updated with respect to the alignment by the block matching method described in FIG.

図1に戻り、セレクタ106は、図示しない制御機構からの制御信号によって、画像位置合わせ部104および画像合成部106による合成画像と、画像処理部102による非合成画像とを切り替える。画像表示部107は、例えばLCD(Liquid Crystal Display)等により構成され、撮像時にユーザーが構図を確認したり、撮像済みの画像を再生したりすることが出来る(再生時のパスは図示せず)。画像圧縮部108は、撮像した画像データを圧縮したコードを生成する。静止画に対する圧縮方式としてはJPEG(Joint Photographic Experts Group)方式が今日では一般的である。動画も扱う場合はMPEG(Moving Picture Experts Group)方式、もしくはITU-T(国際電気通信連合電気通信標準化部門)勧告によるH.264方式なども使用することができる。圧縮符号化された画像データは図示しない外部記憶装置に格納される。   Returning to FIG. 1, the selector 106 switches between a composite image by the image alignment unit 104 and the image composition unit 106 and a non-composite image by the image processing unit 102 according to a control signal from a control mechanism (not shown). The image display unit 107 is configured by, for example, an LCD (Liquid Crystal Display) or the like, and allows the user to check the composition at the time of imaging or to reproduce the captured image (the path at the time of reproduction is not shown). . The image compression unit 108 generates a code obtained by compressing captured image data. The JPEG (Joint Photographic Experts Group) method is common today as a compression method for still images. When handling moving images, the MPEG (Moving Picture Experts Group) method or the H.264 method recommended by the ITU-T (International Telecommunication Union Telecommunication Standardization Sector) can be used. The compressed and encoded image data is stored in an external storage device (not shown).

次に、このように構成された本実施形態にかかる画像処理装置における画像処理について図10のフローチャートを用いて説明する。
図10に示すように、ステップS100で撮像部100により画像が撮像され、ステップS101でA/D変換部101にてデジタル信号に変換される。ここで取得する画像は手ブレが発生しないようにシャッター速度が十分に高速であることが望ましい。ステップS102では、画像処理部102において、ステップS100及びステップS101で撮像されてA/D変換された画像に対して、例えば、ノイズ抑制処理、エッジ強調処理、スケーリング処理などの所定の画像処理を行い、ステップS103で、処理後の画像データをフレームメモリ103に格納する。以上の処理は予め定められた画像の必要枚数分繰り返される。この処理を繰り返すことで、フレームメモリ103には、図2のように画像データが書き込まれる。
Next, image processing in the image processing apparatus according to the present embodiment configured as described above will be described with reference to the flowchart of FIG.
As shown in FIG. 10, an image is picked up by the image pickup unit 100 in step S100, and converted into a digital signal by the A / D conversion unit 101 in step S101. It is desirable that the image acquired here has a sufficiently high shutter speed so that camera shake does not occur. In step S102, the image processing unit 102 performs predetermined image processing such as noise suppression processing, edge enhancement processing, and scaling processing on the image captured in step S100 and step S101 and A / D converted. In step S 103, the processed image data is stored in the frame memory 103. The above processing is repeated for a required number of predetermined images. By repeating this process, image data is written in the frame memory 103 as shown in FIG.

ステップS104では、上記した処理が予め定められた必要枚数分終了したか否かを判定する。必要枚数分の処理が終了していない場合には、ステップS100に戻り、上記処理を繰り返し、必要枚数分の処理が終了した場合には、ステップS105に進む。   In step S104, it is determined whether or not the above processing has been completed for a predetermined required number of sheets. If the process for the required number of sheets has not been completed, the process returns to step S100, and the above process is repeated. If the process for the required number of sheets has been completed, the process proceeds to step S105.

次のステップS105では、画像位置合わせ部104により、フレームメモリ103から基準画像を読み出し、ステップS106で同様にフレームメモリ103から参照画像を読み出す。ステップS107では、読み出された基準画像に対して参照画像の位置合わせを行う。位置合わせは、上述したように、画像位置合わせ部104により、1枚目の参照画像を複数の領域に分割し、その他の参照画像に対して、各参照画像間で領域がそれぞれ異なるように領域の設定を変更し、各参照画像の領域毎にパターンマッチングを行い、基準画像と参照画像との間の動きを推定する。   In the next step S105, the image alignment unit 104 reads the standard image from the frame memory 103, and similarly reads the reference image from the frame memory 103 in step S106. In step S107, the reference image is aligned with the read standard image. As described above, as described above, the image alignment unit 104 divides the first reference image into a plurality of regions, and the other reference images have different regions so that the regions differ between the reference images. Is changed, pattern matching is performed for each area of each reference image, and the motion between the base image and the reference image is estimated.

次のステップS108では、画像合成部105により、1枚目の参照画像か2枚目以降の参照画像かの判定を行い、1枚目の参照画像である場合には、基準画像に対して参照画像の位置合わせを行ったうえで合成画像を生成し、ステップS109に進む。ステップS109では、生成された合成画像を新たにフレームメモリ103上の合成画像を格納する領域に書き込む。ステップS108における判定の結果、2枚目以降の参照画像である場合には、ステップS110に進み、前フレームまでの合成画像を読み出す。ステップS111では、読み出された合成画像に対して参照画像を位置合わせした上で合成画像を生成し、生成された合成画像は、フレームメモリ103の合成画像領域に格納される。以上の処理によりフレームメモリ103には図3のようなデータが書き込まれる。   In the next step S108, the image composition unit 105 determines whether the reference image is the first reference image or the second and subsequent reference images. If it is the first reference image, the reference image is referred to. After aligning the images, a composite image is generated, and the process proceeds to step S109. In step S109, the generated composite image is newly written in an area for storing the composite image on the frame memory 103. As a result of the determination in step S108, if it is the second and subsequent reference images, the process proceeds to step S110, and the combined image up to the previous frame is read. In step S <b> 111, a reference image is aligned with the read composite image to generate a composite image, and the generated composite image is stored in the composite image area of the frame memory 103. With the above processing, data as shown in FIG. 3 is written in the frame memory 103.

ステップS112では、最後の参照画像についての合成処理が終了したか否かの判定を行い、先の合成処理の対象が参照画像でなければ、ステップS105に戻り、次の参照画像に対して上記した処理を繰り返す。ステップS112における判定の結果、合成処理の対象が最後の参照画像である場合には、すなわち、全取得枚数分の合成処理が終了したと判定された場合には、ステップS113に進み、合成画像を使用枚数で除算し最終的な出力画像を生成し、本ルーチンを終了する。なお、画像の取得枚数を2の冪数に限定すると、ステップS113における除算が単純なビットシフトのみで実現できるので、回路規模削減及び高速化の観点より望ましい。   In step S112, it is determined whether or not the synthesis process for the last reference image has been completed. If the target of the previous synthesis process is not a reference image, the process returns to step S105, and the above-described reference image is described above. Repeat the process. If the result of determination in step S112 is that the target of the composition process is the last reference image, that is, if it is determined that the composition processing for all the acquired images has been completed, the process proceeds to step S113 and the composite image is selected. The final output image is generated by dividing by the number of sheets used, and this routine ends. Note that if the number of acquired images is limited to a power of 2, the division in step S113 can be realized only by a simple bit shift, which is desirable from the viewpoint of circuit scale reduction and speedup.

ここで、本明細書と同日付けで提出した参考図1に、従来方法による生成画像を示す。すなわち、参照画像を予め定めた複数の領域に分割し、分割された複数の領域に対してパターンマッチングを行うことにより得られた複数の動きベクトルから、最も確からしい一つの動きベクトル(グローバル動きベクトル)を特定して基準画像との位置合わせを行ったものである。参考図1(a)はこのような従来の方法により位置合わせを行い、合成された画像であり、参考図1(b)は参考図1(a)の画像上での分割領域の境界を示すものである。参考図1(b)中、破線A100は参考図1(a)に示した画像の範囲を示し、実線A101は位置合わせ時の分割領域の境界を示す。参考図1(a)の画像を見ると、参考図1(b)に示した実線A101の位置に領域境界の不整合によるブロックアーティファクトが生じていることが分かる。   Here, FIG. 1 submitted on the same date as the present specification shows an image generated by the conventional method. In other words, the most probable motion vector (global motion vector) is obtained from a plurality of motion vectors obtained by dividing the reference image into a plurality of predetermined regions and performing pattern matching on the divided regions. ) Is specified and is aligned with the reference image. Reference FIG. 1A is an image obtained by performing alignment by such a conventional method, and reference FIG. 1B shows a boundary of divided areas on the image of reference FIG. 1A. Is. In the reference FIG. 1B, a broken line A100 indicates the range of the image shown in the reference FIG. 1A, and a solid line A101 indicates the boundary of the divided areas at the time of alignment. Looking at the image in FIG. 1A, it can be seen that a block artifact is generated at the position of the solid line A101 shown in FIG.

一方、参考図2に本実施形態の画像処理方法により生成された合成画像を示す。参考情報2(a)は本発明の画像処理方法による位置合わせで合成された画像である。参考図2(b)は参考図2(a)の画像上での分割領域の境界を示すものであり、破線A102は参考図2(a)に示した画像の範囲を示す。参考図2(a)は、5枚の画像を合成した例であり、参考図2(b)の黒実線A103は基準画像と1枚目の参照画像とを位置合わせした際の分割領域境界であって、参考図1(b)のA101と同一の位置にある。また、参考図2(b)の赤実線A104、青実線A105、緑実線A106は、それぞれ基準画像と2枚目、3枚目、4枚目の参照画像の位置合わせを行った際の分割領域境界を示す。参考図2(a)のに示すように、参考図1(a)の画像と比較して領域境界の不整合によるブロックアーティファクトが大幅に軽減されており、画質が向上していることが分かる。   On the other hand, FIG. 2 shows a composite image generated by the image processing method of this embodiment. The reference information 2 (a) is an image synthesized by alignment by the image processing method of the present invention. Reference FIG. 2 (b) shows the boundary of the divided areas on the image of reference FIG. 2 (a), and the broken line A102 shows the range of the image shown in FIG. 2 (a). Reference FIG. 2A is an example in which five images are combined, and the black solid line A103 in Reference FIG. 2B is a boundary between divided areas when the base image and the first reference image are aligned. Therefore, it is at the same position as A101 in FIG. 1 (b). Further, the red solid line A104, the blue solid line A105, and the green solid line A106 in the reference FIG. 2B are divided areas when the reference image and the second, third, and fourth reference images are aligned, respectively. Indicates the boundary. As shown in FIG. 2 (a), it can be seen that block artifacts due to the mismatch of the region boundaries are greatly reduced compared to the image of FIG. 1 (a), and the image quality is improved.

このように、本画像処理装置によれば、本実施形態に係る画像処理装置によると、基準画像に対して参照画像の位置合わせを行う際に、複数の参照画像間で分割する領域の境界線をそれぞれ異ならせているので、画像合成時に領域の境界が目立たなくなる。また、位置合わせした画像を合成することによりノイズを抑制することができ、高品質な画像を得ることができる。さらに、本実施形態にかかる画像処理装置を電子手ブレ補正に適用すると、特に動きのある被写体に対して堅牢な位置合わせを行うことが可能となり、かつブロックアーティファクトによる画質低下を軽減することができる。   Thus, according to the present image processing device, according to the image processing device according to the present embodiment, when aligning the reference image with respect to the standard image, the boundary line between the regions divided between the plurality of reference images Are different from each other, so that the boundary of the region becomes inconspicuous at the time of image composition. Further, noise can be suppressed by synthesizing the aligned images, and a high-quality image can be obtained. Furthermore, when the image processing apparatus according to the present embodiment is applied to electronic camera shake correction, it is possible to perform robust positioning particularly for a moving subject, and to reduce image quality degradation due to block artifacts. .

なお、本発明にかかる画像処理装置は、上述したようにデジタルカメラ、デジタルビデオカメラ等の撮像装置に適用できるだけでなく、汎用又は専用のコンピュータ及びこのコンピュータ上で動作するプログラムを利用して実現することができる。このようなコンピュータは、CPU(中央演算装置)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えており、CPU等により、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体に記録されているプログラムを読み出して、プログラムをROMやRAMなどに展開し、情報の加工・演算処理を実行することにより、上述の機械装置の性能評価処理を実現させる。   The image processing apparatus according to the present invention can be applied not only to an imaging apparatus such as a digital camera and a digital video camera as described above, but also to a general-purpose or dedicated computer and a program that runs on the computer. be able to. Such a computer includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), etc., and a program for realizing all or part of the above processing by the CPU or the like. By reading the program recorded on the recorded computer-readable recording medium, developing the program in a ROM, RAM, etc., and executing information processing / calculation processing, the above-described performance evaluation processing of the mechanical device is performed. make it happen.

したがって、上記した各処理部は、いずれもCPUが所定のROMに格納された処理プログラムをRAMに展開し、展開したプログラムを実行することによって実現される。ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   Accordingly, each of the processing units described above is realized by the CPU developing a processing program stored in a predetermined ROM in the RAM and executing the expanded program. Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

100 撮像部
101 A/D変換部
102 画像処理部
103 フレームメモリ
104 画像位置合わせ部
105 画像合成部
106 セレクタ
107 画像表示部
108 画像圧縮部
110 領域分割設定部
111 領域分割変更部
112 動き推定部
113 動き情報保持部
120 セレクタ
121 座標変換部
122 加算器
200 動き情報
DESCRIPTION OF SYMBOLS 100 Image pick-up part 101 A / D conversion part 102 Image processing part 103 Frame memory 104 Image registration part 105 Image composition part 106 Selector 107 Image display part 108 Image compression part 110 Area division setting part 111 Area division change part 112 Motion estimation part 113 Motion information holding unit 120 Selector 121 Coordinate conversion unit 122 Adder 200 Motion information

Claims (4)

複数の画像間の位置合わせを行う位置合わせ手段と、位置合わせされた前記複数の画像を合成して合成画像を生成する画像合成手段とを備えた画像処理装置であって、
前記位置合わせ手段は、
前記複数の画像のうち何れか1つを基準画像とし、他の画像を参照画像とした場合に、前記参照画像を所定の境界線によって区切ることにより複数の領域に分割する領域分割手段と、
前記参照画像間で前記領域がそれぞれ異なるように前記境界線を移動させて前記各参照画像の前記領域を変更する領域変更手段と、を備え、
前記領域毎に前記基準画像に対して前記位置合わせ対象の参照画像の位置合わせを行うことを特徴とする画像処理装置。
An image processing apparatus comprising: an alignment unit that performs alignment between a plurality of images; and an image synthesis unit that generates a composite image by combining the plurality of aligned images.
The alignment means includes
A region dividing unit that divides the reference image into a plurality of regions by dividing the reference image by a predetermined boundary line when any one of the plurality of images is a reference image and the other image is a reference image;
An area changing unit that changes the area of each reference image by moving the boundary line so that the areas differ between the reference images; and
An image processing apparatus that performs alignment of the reference image to be aligned with respect to the reference image for each region.
前記領域分割手段は、前記領域を矩形領域とすることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area dividing unit makes the area a rectangular area. 前記領域変更手段は、前記境界線を平行移動させることにより前記領域を変更することを特徴とする請求項1又は請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area changing unit changes the area by moving the boundary line in parallel. 複数の画像間の位置合わせを行い、位置合わせされた前記複数の画像を合成して合成画像を生成する画像処理方法であって、
前記位置合わせに際して、
前記複数の画像のうち何れか1つを基準画像とし、他の画像を参照画像とした場合に、前記参照画像を所定の境界線によって区切ることにより複数の領域に分割するステップと、
前記参照画像間で前記領域がそれぞれ異なるように前記境界線を移動させて前記各参照画像の前記領域を変更するステップと、を備え、
前記領域毎に前記基準画像に対して前記位置合わせ対象の参照画像の位置合わせを行うことを特徴とする画像処理方法。
An image processing method for performing alignment between a plurality of images and synthesizing the plurality of aligned images to generate a combined image,
In the alignment,
Dividing any one of the plurality of images into a plurality of regions by dividing the reference image by a predetermined boundary line when the other image is a reference image and the other image is a reference image;
Changing the region of each reference image by moving the boundary line so that the region is different between the reference images, and
An image processing method comprising: aligning the reference image to be aligned with the reference image for each region.
JP2010041115A 2010-02-25 2010-02-25 Image processing apparatus and image processing method Withdrawn JP2011176777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010041115A JP2011176777A (en) 2010-02-25 2010-02-25 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010041115A JP2011176777A (en) 2010-02-25 2010-02-25 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2011176777A true JP2011176777A (en) 2011-09-08

Family

ID=44689184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010041115A Withdrawn JP2011176777A (en) 2010-02-25 2010-02-25 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2011176777A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930440A (en) * 2019-12-09 2020-03-27 Oppo广东移动通信有限公司 Image alignment method and device, storage medium and electronic equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930440A (en) * 2019-12-09 2020-03-27 Oppo广东移动通信有限公司 Image alignment method and device, storage medium and electronic equipment
CN110930440B (en) * 2019-12-09 2023-06-27 Oppo广东移动通信有限公司 Image alignment method, device, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
JP4544334B2 (en) Image processing apparatus and image processing method
KR101229600B1 (en) Image capturing apparatus and camera shake correction method, and computer-readable medium
JP4882956B2 (en) Image processing apparatus and image processing method
JP5744614B2 (en) Image processing apparatus, image processing method, and image processing program
JP5359783B2 (en) Image processing apparatus and method, and program
JP4973719B2 (en) Imaging apparatus, imaging method, and imaging program
JP5214476B2 (en) Imaging apparatus, image processing method, and program
JP4473363B2 (en) Camera shake correction apparatus and correction method thereof
KR20100006542A (en) Image processing device, image processing method and a computer readable storage medium having stored therein a program
JPWO2007102377A1 (en) Imaging apparatus, high resolution processing method, high resolution processing program, and recording medium
KR101109532B1 (en) Image capturing device, image capturing method, and a storage medium recording thereon a image capturing program
CN116324882A (en) Image signal processing in a multi-camera system
JP2009055410A (en) Image processing device and image processing method
TWI353779B (en)
JP5683858B2 (en) Imaging device
JP4735978B2 (en) Image processing apparatus, image processing method, and program
JP2008099025A (en) Apparatus and method for taking image, and blur correction method
JP2007124397A (en) Image processing device and image processing method
WO2012070440A1 (en) Image processing device, image processing method, and image processing program
JP6802848B2 (en) Image processing equipment, imaging system, image processing method and image processing program
JP5291788B2 (en) Imaging device
JP2010262428A (en) Intermediate image generating apparatus and method for controlling operation of the same
JP2011176777A (en) Image processing apparatus and image processing method
JP2011176776A (en) Image processing apparatus and image processing method
JP2008147904A (en) Signal processing method, and signal processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130507