JP2012247816A - Image processing device, image processing method, and computer program - Google Patents

Image processing device, image processing method, and computer program Download PDF

Info

Publication number
JP2012247816A
JP2012247816A JP2011116443A JP2011116443A JP2012247816A JP 2012247816 A JP2012247816 A JP 2012247816A JP 2011116443 A JP2011116443 A JP 2011116443A JP 2011116443 A JP2011116443 A JP 2011116443A JP 2012247816 A JP2012247816 A JP 2012247816A
Authority
JP
Japan
Prior art keywords
pixel
value
distance
target pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011116443A
Other languages
Japanese (ja)
Inventor
Keisuke Ito
啓介 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011116443A priority Critical patent/JP2012247816A/en
Publication of JP2012247816A publication Critical patent/JP2012247816A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve such a problem that, when constituting one static image by superposing a plurality of frame static images cut out from a dynamic image, quality of the constituted static image is degraded due to an influence of uneven brightness in images of which centers of frames are bright but edges of frames get darker.SOLUTION: An image processing device calculates a distance from a target pixel in each frame static image to a reference pixel, and constitutes a static image by switching frame static images to be used for superposition for each pixel on a superposed surface according to the calculated distance. Thus, each frame static image can be superposed in a manner difficult to be influenced by uneven brightness, and it is possible to suppress degradation of quality of the constituted static image.

Description

本発明は、動画像から切り出した各フレーム静止画像を重ね合わせることで、一枚の大きな静止画像(モザイク画像)を構成する画像処理装置、画像処理方法、コンピュータプログラム、及び、そのプログラムを記憶したコンピュータ読出可能な記憶媒体に関するものである。   The present invention stores an image processing apparatus, an image processing method, a computer program, and a program for composing one large still image (mosaic image) by superimposing each frame still image cut out from a moving image. The present invention relates to a computer-readable storage medium.

近年、互いに重複領域を含んでいる複数枚の静止画像から一枚の大きな静止画を構成する、モザイキング技術に関する研究が行われている。これは、各静止画像内の対応する点や領域を推定し、それをもとに画像を重ね合わせることで一枚の静止画像を構成する技術である。この技術は、現在デジタルカメラのパノラマ画像合成技術等に応用されている。   In recent years, research has been conducted on mosaicing technology that forms a single large still image from a plurality of still images that include overlapping regions. This is a technique for constructing a single still image by estimating corresponding points or regions in each still image and overlaying the images based on the estimated points and regions. This technology is currently applied to panoramic image synthesis technology for digital cameras.

対象を動画像で撮影しそこから切り出した各フレーム静止画像をもとにモザイキングを行う技術に関しては、特にビデオモザイキング技術と呼ばれている。この技術を利用すれば、動画撮影機能付きの撮影装置を少しずつ移動させながら対象を撮影し、各フレーム静止画像を切り出すことで、それらから対象全体を含む一枚の静止画像を構成することができる。   A technique for performing mosaicing based on a still image obtained by capturing a subject as a moving image and cutting out from the frame is called a video mosaicing technique. If this technology is used, a subject can be photographed while moving a photographing device with a movie photographing function little by little, and a still image including the entire subject can be constructed from them by cutting out each frame still image. it can.

ビデオモザイキングを行う際には、各フレーム静止画像の重複領域において、画像の重ね合わせ方によって最終的に得られる構成後の静止画像の画質が変化するといった問題がある。   When video mosaicing is performed, there is a problem that the image quality of a still image after construction that is finally obtained varies depending on how images are superimposed in an overlapping region of each frame still image.

その問題に対して、特許文献1による手法では、フレーム静止画像ごとに重ね合わせの際の優先度を設定し、重複領域に関してはその中で最も優先度の高いフレーム静止画像の画素値を利用して構成を行っている。優先度を決定する際には、各フレーム静止画像全体の相対的な移動量、または画像内に存在する物体の移動量に注目し、移動量が少ないほど優先度が高くなるようにしている。それにより、動きブレの少ない画像を優先的に用いることができ、構成後の静止画像の画質を向上させることが可能になる。   In order to solve this problem, the technique disclosed in Patent Document 1 sets the priority for overlapping each frame still image, and uses the pixel value of the frame still image with the highest priority among the overlapping regions. Is configured. When determining the priority, attention is paid to the relative movement amount of each frame still image or the movement amount of an object existing in the image, and the priority is set higher as the movement amount is smaller. As a result, an image with less motion blur can be preferentially used, and the quality of the still image after the configuration can be improved.

特開2005-309921号公報JP 2005-309921 A

動画像から切り出した複数のフレーム静止画像を重ね合わせて一枚の静止画像を構成する際、フレームの中央は明るいが端に行くにつれ暗くなるといった画像内の明るさムラの影響で、構成後の静止画像の画質が低下してしまうという課題がある。   When a single still image is composed by superimposing a plurality of frame still images cut out from a moving image, the center of the frame is bright, but it becomes darker as it goes to the edge. There is a problem that the image quality of a still image is degraded.

本発明では、モザイキング処理を行う際に明るさムラの影響を受けにくいような手法で各フレーム静止画像を重ね合わせることで、構成後の静止画像の画質低下を抑えることを目的とする。   An object of the present invention is to suppress degradation in image quality of a still image after configuration by superimposing still images of each frame by a technique that is not easily affected by uneven brightness when performing mosaicing processing.

撮影された動画像からフレームごとに切り出した複数のフレーム静止画像を1枚の静止画像として構成する画像処理装置であって、
フレーム静止画像内の注目画素から基準画素までの距離を計算する距離計算手段(401)と、上記注目画素を重ね合わせ平面上に投影する投影手段(402)と、投影後の注目画素と対応する重ね合わせ平面上の画素について、上記注目画素の値で画素値の更新を行うか否かを、上記距離計算手段(401)によって計算された注目画素から基準画素までの距離の値をもとに判定する画素値更新判定手段(403)と、投影後の上記注目画素と対応する重ね合わせ平面上の画素について、上記注目画素の値で画素値の更新を行う画素値更新手段(404)と、上記注目画素について、距離計算手段(401)によって計算された注目画素から基準画素までの距離の値を記憶する距離記憶手段(405)と
を有する画像処理装置。
An image processing apparatus that configures a plurality of frame still images cut out for each frame from a captured moving image as one still image,
Corresponding to the distance calculation means (401) for calculating the distance from the target pixel to the reference pixel in the frame still image, the projection means (402) for projecting the target pixel on the overlapping plane, and the target pixel after projection Whether or not to update the pixel value with the value of the target pixel for the pixel on the overlapping plane is determined based on the distance value from the target pixel to the reference pixel calculated by the distance calculation means (401). A pixel value update determination unit (403) for determining, a pixel value update unit (404) for updating a pixel value with a value of the target pixel for a pixel on the overlapping plane corresponding to the target pixel after projection, An image processing apparatus comprising: a distance storage unit (405) that stores a value of a distance from the target pixel to the reference pixel calculated by the distance calculation unit (401) for the target pixel.

本発明によれば、各フレーム静止画像に対して、明るさムラの影響を受けにくいように重ね合わせを行うことができ、構成後の静止画像の画質低下を抑えることが可能になる。   According to the present invention, it is possible to perform superimposition on each frame still image so as not to be affected by brightness unevenness, and it is possible to suppress degradation of the image quality of the still image after configuration.

本発明に係る画像処理システムを示すブロック図1 is a block diagram showing an image processing system according to the present invention. モザイキング処理部108が行う処理の概要を示す図The figure which shows the outline | summary of the process which the mosaicing process part 108 performs モザイキング処理部108を示すブロック図Block diagram showing mosaicing processing unit 108 画像重ね合わせ部305を示すブロック図Block diagram showing the image superposition unit 305 実施例1におけるシステムで実行する処理全体のフローチャートFlowchart of the entire process executed by the system in the first embodiment 実施例1における特徴点抽出の例を示す図The figure which shows the example of the feature point extraction in Example 1 実施例1における投影パラメータの計算式を示す図The figure which shows the calculation formula of the projection parameter in Example 1. 実施例1におけるアフィン変換の式を示す図The figure which shows the formula of the affine transformation in Example 1. 実施例1における画像重ね合わせを示す図The figure which shows the image superimposition in Example 1. 実施例1における画像重ね合わせ部の処理全体のフローチャートFlowchart of overall processing of the image superimposing unit in Embodiment 1. 実施例1における注目画素から基準画素までの距離を示す図The figure which shows the distance from the attention pixel in Example 1 to a reference | standard pixel 実施例1における投影後の注目画素と対応する重ね合わせ平面上の画素を示す図The figure which shows the pixel on the superimposition plane corresponding to the attention pixel after projection in Example 1. FIG. 実施例1におけるフレーム静止画像内の明るさムラを示す図The figure which shows the brightness nonuniformity in the frame still image in Example 1. FIG. 実施例1における明るさムラの生じているフレーム静止画像を重ね合わせた例を示す図The figure which shows the example which overlap | superposed the frame still image in which the brightness nonuniformity has arisen in Example 1 実施例1における本提案重ね合わせ法を示す図The figure which shows this proposal superposition method in Example 1 実施例2における画像重ね合わせ部の処理全体のフローチャートFlowchart of overall processing of the image superimposing unit in the second embodiment.

[実施例1]
以下、本発明を実施するための最良の形態について図面を用いて説明する。
[Example 1]
The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は本発明に係る画像処理システムを示すブロック図である。   FIG. 1 is a block diagram showing an image processing system according to the present invention.

図1中、画像撮影装置100は、動画入力部101と、表示部102と、操作部103と、CPU104と、補助記憶装置105と、RAM106と、ROM107と、モザイキング処理部108とを有する。   In FIG. 1, the image capturing apparatus 100 includes a moving image input unit 101, a display unit 102, an operation unit 103, a CPU 104, an auxiliary storage device 105, a RAM 106, a ROM 107, and a mosaicing processing unit 108.

以下、それぞれの構成要素について説明する。   Hereinafter, each component will be described.

動画入力部101は、レンズ、CCDなどのイメージセンサ、A/D変換器等を備えており、撮影によって取得した被写体の映像をデジタル形式の動画像データへ変換する。   The moving image input unit 101 includes a lens, an image sensor such as a CCD, an A / D converter, and the like, and converts an image of a subject acquired by shooting into digital moving image data.

表示部102は、ユーザーに対し通知すべき情報を表示する。   The display unit 102 displays information to be notified to the user.

操作部103は、ユーザーによる操作を受け付ける。   The operation unit 103 receives an operation by a user.

CPU104は、操作部103からユーザーが入力した情報、補助記憶装置105あるいはROM107に記憶されたプログラム等に基づいて、システム全体の制御を行う。   The CPU 104 controls the entire system based on information input by the user from the operation unit 103, a program stored in the auxiliary storage device 105 or the ROM 107, and the like.

補助記憶装置105は、システム制御ソフトフェア、動画入力部101によって生成された動画像データを格納する。   The auxiliary storage device 105 stores the moving image data generated by the system control software and the moving image input unit 101.

RAM106は、CPU104が動作するためのシステムワークメモリであり、動画像データを一時記憶するための画像メモリでもある。   The RAM 106 is a system work memory for the CPU 104 to operate, and is also an image memory for temporarily storing moving image data.

ROM107はブートROMであり、システムのブートプログラム等のプログラムが格納されている。   A ROM 107 is a boot ROM, and stores programs such as a system boot program.

モザイキング処理部108は、図2に示すように、入力された動画像からフレーム静止画像を切り出し、そこから画像撮影装置の動きを推定した後、重ね合わせ平面上に投影することで一枚の大きな静止画像を構成する。   As shown in FIG. 2, the mosaicing processing unit 108 cuts out a frame still image from the input moving image, estimates the motion of the image capturing apparatus from the extracted moving image, and then projects the image on the overlapping plane to make one large image. Construct a still image.

モザイキング処理部108は、図3に示すように、フレーム切り出し部301、特徴点抽出部302、特徴点追跡部303、投影パラメータ推定部304、画像重ね合わせ部305から構成される。モザイキング処理部108は、動画入力部101が生成した、または補助記憶装置105に保存されている動画像300が入力されると、各処理部301〜305で処理を行い、構成後静止画像310を生成して出力する。   As shown in FIG. 3, the mosaicing processing unit 108 includes a frame cutout unit 301, a feature point extraction unit 302, a feature point tracking unit 303, a projection parameter estimation unit 304, and an image superposition unit 305. When the moving image 300 generated by the moving image input unit 101 or stored in the auxiliary storage device 105 is input, the mosaicing processing unit 108 performs processing in each of the processing units 301 to 305, and displays the composed still image 310. Generate and output.

フレーム切り出し部301は、動画像300からフレーム静止画像を一枚ずつ切り出す。   The frame cutout unit 301 cuts out frame still images one by one from the moving image 300.

特徴点抽出部302は、現在のフレーム静止画像から、その点周りで輝度勾配が大きく、フレーム間で追跡を行いやすい特徴点を抽出する。   The feature point extraction unit 302 extracts, from the current frame still image, a feature point that has a large luminance gradient around the point and can be easily tracked between frames.

特徴点追跡部303は、1つ前のフレーム静止画像において特徴点抽出部302によって抽出された特徴点を、1つ前のフレーム、現在のフレーム静止画像間で追跡する。   The feature point tracking unit 303 tracks the feature points extracted by the feature point extraction unit 302 in the previous frame still image between the previous frame and the current frame still image.

投影パラメータ推定部304は、特徴点追跡部303による特徴点の追跡結果をもとに、現在のフレーム静止画像を重ね合わせ平面上に投影する際に用いる投影パラメータを計算する。ここでは、特徴点の追跡結果より、1つ前のフレーム、現在のフレーム間での画像撮影装置の動きを推定することによって投影パラメータの計算を行う。   The projection parameter estimation unit 304 calculates projection parameters used when projecting the current frame still image on the overlapping plane based on the feature point tracking result by the feature point tracking unit 303. Here, the projection parameters are calculated by estimating the motion of the image capturing apparatus between the previous frame and the current frame from the result of tracking the feature points.

画像重ね合わせ部305は、現在のフレーム静止画像を、投影パラメータ推定部304が推定した投影パラメータを用いて、重ね合わせ平面上に投影し、平面上にすでに存在する画像と重ね合わせる。   The image superimposing unit 305 projects the current frame still image on the superposition plane using the projection parameter estimated by the projection parameter estimation unit 304, and superimposes it on the image already existing on the plane.

なお、モザイキング処理の詳細および、フレーム切り出し部301〜画像重ね合わせ部305の各部分の動作については、後述で実際に処理を行う例を扱うので、その中で再度取り上げられ、より詳細に説明されることとなる。   The details of the mosaicing process and the operation of each part of the frame cutout unit 301 to the image superimposing unit 305 will be described later in detail because an example of actual processing will be described later. The Rukoto.

画像重ね合わせ部305は、図4に示すように、距離計算部401、投影部402、画素値更新判定部403、画素値設定部404、距離記憶部405、画素値記憶部406から構成される。画像重ね合わせ部305は、フレーム切り出し部301が生成したフレーム静止画像400、投影パラメータ推定部304が生成した投影パラメータ410が入力されると、各処理部401〜406で処理を行い、構成後静止画像310を生成して出力する。   As shown in FIG. 4, the image superimposing unit 305 includes a distance calculation unit 401, a projection unit 402, a pixel value update determination unit 403, a pixel value setting unit 404, a distance storage unit 405, and a pixel value storage unit 406. . When the frame superimposing image 400 generated by the frame cutout unit 301 and the projection parameter 410 generated by the projection parameter estimation unit 304 are input, the image superimposing unit 305 performs processing in each of the processing units 401 to 406 and performs still image post-configuration. An image 310 is generated and output.

距離計算部401は、フレーム静止画像内の注目画素から基準画素までの距離を計算する。   The distance calculation unit 401 calculates the distance from the target pixel in the frame still image to the reference pixel.

投影部402は、フレーム静止画像内の注目画素を、投影パラメータ推定部303が推定した投影パラメータを用いて重ね合わせ平面上に投影する。   The projection unit 402 projects the pixel of interest in the frame still image onto the overlapping plane using the projection parameter estimated by the projection parameter estimation unit 303.

画素値更新判定部403は、投影後のフレーム静止画像内の注目画素と対応する重ね合わせ平面上の画素について、注目画素の値で画素値の更新を行うか否かを判定する。   The pixel value update determining unit 403 determines whether or not to update the pixel value with the value of the target pixel for the pixel on the overlapping plane corresponding to the target pixel in the projected frame still image.

画素値設定部404は、投影後のフレーム静止画像内の注目画素と対応する重ね合わせ平面上の画素について、注目画素の値で画素値を設定する。   The pixel value setting unit 404 sets the pixel value with the value of the target pixel for the pixel on the overlapping plane corresponding to the target pixel in the projected frame still image.

距離記憶部405は、距離計算部401によって計算された画像内の基準画素から注目画素までの距離の値を記憶する。   The distance storage unit 405 stores the value of the distance from the reference pixel to the target pixel in the image calculated by the distance calculation unit 401.

画素値記憶部406は、注目画素の画素値を記憶する。   The pixel value storage unit 406 stores the pixel value of the target pixel.

なお、距離計算部401〜画素値記憶部406の各部分の動作については、後述で実際に処理を行う例を扱うので、その中で再度取り上げられ、より詳細に説明されることとなる。   In addition, since the operation | movement of each part of the distance calculation part 401-the pixel value memory | storage part 406 handles the example which actually processes later, it will pick up again in that and will be demonstrated in detail.

次に、モザイキング処理部108に動画像300が入力されてから、モザイキング処理が終わり、構成後静止画像310が生成されるまでの間、システムで実行する処理全体際のフローチャートを図5に示す。   Next, FIG. 5 shows a flowchart of the entire process executed by the system from when the moving image 300 is input to the mosaicing processing unit 108 until the mosaicing process ends and the post-configuration still image 310 is generated.

なお、本実施形態では、CPU104が補助記憶装置105(コンピュータ読取可能な記憶媒体)に格納されたコンピュータプログラムを読み取り実行することによって、モザイキング処理部108(図3の各処理部301〜305、および図4の各処理部401〜406)として機能するものとするが、これに限るものではない。   In the present embodiment, the CPU 104 reads and executes a computer program stored in the auxiliary storage device 105 (computer-readable storage medium), whereby the mosaicing processing unit 108 (the processing units 301 to 305 in FIG. It functions as each of the processing units 401 to 406) in FIG. 4, but is not limited thereto.

例えば、モザイキング処理部108(図3の各処理部301〜305、および図4の各処理部401〜406)を、電子回路等のハードウェアで実現するように構成してもよい。   For example, the mosaicing processing unit 108 (the processing units 301 to 305 in FIG. 3 and the processing units 401 to 406 in FIG. 4) may be realized by hardware such as an electronic circuit.

図5のステップS501において、フレーム切り出し部401は、動画像300からフレーム静止画像を一枚ずつ切り出す。   In step S501 in FIG. 5, the frame cutout unit 401 cuts out frame still images from the moving image 300 one by one.

ステップS502において、特徴点抽出部402は、フレーム静止画像から特徴点を抽出する。本実施例では、特徴点の抽出を行う際に、Harrisオペレータと呼ばれる、その点周りにおいて2つの直行する方向で輝度勾配が大きくなっている点を抽出する手法を用いた。例として、図6のような画像についてHarrisオペレータを用いると、図に示されるような特徴点が抽出される。この時、抽出する点の総数Nは自由に設定でき、本実施例ではN=200とする。なお他にも、SIFT等、特徴点の抽出が行えるものであれば何を用いてもよいものとする。   In step S502, the feature point extraction unit 402 extracts feature points from the frame still image. In this embodiment, when extracting feature points, a technique called a Harris operator is used to extract points where the luminance gradient is large in two orthogonal directions around the points. As an example, when the Harris operator is used for an image as shown in FIG. 6, feature points as shown in the figure are extracted. At this time, the total number N of points to be extracted can be freely set. In this embodiment, N = 200. In addition, anything that can extract feature points, such as SIFT, may be used.

ステップ503において、特徴点追跡部403は、1つ前のフレームで特徴点抽出部402によって抽出された特徴点を、1つ前のフレーム、現在のフレーム静止画像間で追跡する。本実施例では、LK法と呼ばれる特徴点追跡アルゴリズムを用いたが、ブロックマッチング法等特徴点の追跡が行えるものであれば、何を用いても良いとする。他にも、両方のフレームそれぞれで特徴点を抽出し、点周りの輝度分布等より対応する点をマッチングすることを特徴点追跡の代用としても良い。   In step 503, the feature point tracking unit 403 tracks the feature point extracted by the feature point extraction unit 402 in the previous frame between the previous frame and the current frame still image. In this embodiment, a feature point tracking algorithm called the LK method is used. However, any feature point tracking algorithm such as a block matching method may be used. Alternatively, feature points may be extracted from both frames, and matching corresponding points based on luminance distribution around the points may be used as a substitute for feature point tracking.

ステップS504において、投影パラメータ推定部404は、ステップS503における特徴点の追跡結果をもとに、現在のフレーム静止画像を重ね合わせ平面上に投影する際に用いる投影パラメータを計算する。図7のように、1つ前のフレームで抽出した特徴点の、現フレームにおける追跡先の座標と重ね合わせ平面上における座標から投影パラメータを計算する。本実施例では、投影の種類として図8の式で表現されるアフィン変換を仮定した。この場合、3つの特徴点の現フレーム、重ね合わせ平面上の座標をもとにパラメータの計算を行う。なお、この時選択する3つの特徴点を何パターンか変えて、投票アルゴリズム等を用いて、すべての特徴点の動きを最もよく表現できるパラメータを探し出しても良いとする。また、投影の種類として透視変換等他のモデルを採用しても良いものとする。   In step S504, the projection parameter estimation unit 404 calculates projection parameters used when projecting the current frame still image on the overlapping plane based on the tracking result of the feature points in step S503. As shown in FIG. 7, the projection parameters are calculated from the coordinates of the tracking destination in the current frame and the coordinates on the overlapping plane of the feature points extracted in the previous frame. In this embodiment, the affine transformation expressed by the expression of FIG. 8 is assumed as the type of projection. In this case, the parameters are calculated based on the coordinates of the three frames on the current frame and the overlapping plane. It is assumed that a parameter that best represents the movement of all feature points may be found using a voting algorithm or the like by changing some patterns of the three feature points selected at this time. In addition, another model such as perspective transformation may be adopted as the type of projection.

ステップS505において、画像重ね合わせ部406は、現在のフレーム静止画像を、ステップS504で推定した投影パラメータを用いて、重ね合わせ平面上に投影し、平面上にすでに存在する画像と重ね合わせる。その結果、図9のように重ね合わせ平面上の画像を更新することができる。   In step S505, the image superimposing unit 406 projects the current frame still image onto the superposition plane using the projection parameters estimated in step S504, and superimposes the image on the plane. As a result, the image on the overlapping plane can be updated as shown in FIG.

全てのフレームを処理していれば、処理を終了する。未処理のフレームがあればステップS501から繰り返す。   If all the frames have been processed, the process ends. If there is an unprocessed frame, the process is repeated from step S501.

以上で、図5の説明を終了する。   This is the end of the description of FIG.

次に、図5中のステップS505の処理の詳細について、図10のフローチャートを用いて説明する。   Next, details of the processing in step S505 in FIG. 5 will be described using the flowchart in FIG.

なお、これ以降の処理は現在のフレーム静止画像内の画素ごとに全画素分行うものとし、ここでは、ある注目画素についての処理について説明する。   It is assumed that the subsequent processing is performed for every pixel in the current frame still image, and here, the processing for a certain pixel of interest will be described.

図10のステップS1001において、距離計算部401は、注目画素から基準画素までの距離を計算する。ここでの距離とは、図11に示すように、画像内で何画素分離れているかを表す値であり、単位はピクセルである。なお、本実施例では基準画素を画像の中心としているが、任意の画素を選んで良いものとする。   In step S1001 of FIG. 10, the distance calculation unit 401 calculates the distance from the target pixel to the reference pixel. The distance here is a value representing how many pixels are separated in the image as shown in FIG. 11, and the unit is a pixel. In this embodiment, the reference pixel is the center of the image, but an arbitrary pixel may be selected.

ステップS1002において、投影部402は、ステップS504で推定した投影パラメータを用いて、注目画素を重ね合わせ平面上に投影する。   In step S1002, the projection unit 402 projects the target pixel on the overlapping plane using the projection parameter estimated in step S504.

ステップS1003において、画素値更新判定部403は、図12に示すような投影後の注目画素と対応する重ね合わせ平面上の画素について、注目画素の値で画素値を更新するか否かを判定する。判定は、ステップS1001で計算された注目画素から基準画素までの距離に注目し、その値と後述するステップS1005で距離記憶部405に記憶されている値とを比較することで行う。注目画素における距離の値の方が小さいと判定された場合はステップS1004へ、大きいと判定された場合はステップS1005の終了時点へ進む。図12の例においては、画素値記憶部405に記憶されているのは、図内の過去フレームAにおける距離であり、注目画素における距離の値の方が小さいため、ステップステップS1004へ進む。   In step S1003, the pixel value update determination unit 403 determines whether or not to update the pixel value with the value of the target pixel for the pixel on the overlapping plane corresponding to the target pixel after projection as illustrated in FIG. . The determination is made by paying attention to the distance from the target pixel calculated in step S1001 to the reference pixel, and comparing the value with the value stored in the distance storage unit 405 in step S1005 described later. If it is determined that the distance value at the target pixel is smaller, the process proceeds to step S1004. If it is determined to be larger, the process proceeds to the end of step S1005. In the example of FIG. 12, what is stored in the pixel value storage unit 405 is the distance in the past frame A in the figure, and the value of the distance at the target pixel is smaller, so the process proceeds to step S1004.

ステップS1004において、画素値設定部404は、投影後の注目画素と対応する重ね合わせ平面上の画素について、注目画素の値で画素値の更新を行う。   In step S1004, the pixel value setting unit 404 updates the pixel value with the value of the target pixel for the pixel on the overlapping plane corresponding to the target pixel after projection.

ステップS1005において、距離記憶部405は、ステップS1001で計算された注目画素から基準画素までの距離の値を記憶する。   In step S1005, the distance storage unit 405 stores the value of the distance from the target pixel to the reference pixel calculated in step S1001.

全画素処理をしていれば処理を終了する。未処理の画素があればステップS1001から繰り返す。   If all the pixels are processed, the process ends. If there is an unprocessed pixel, the process is repeated from step S1001.

以上で、図10の説明を終了する。   Above, description of FIG. 10 is complete | finished.

ここからは、上記の手法で重ね合わせ処理を行うことで得られる効果について説明する。   From here, the effect obtained by performing the superposition process by the above method will be described.

モザイキング処理を行う際の課題として、各フレーム静止画像について、図13に示すようにフレームの中央は明るいが端に行くにつれ暗くなる明るさムラが生じると、構成後の静止画像にも明るさムラが生じ、画質が低下してしまうというものがある。   As a problem when performing mosaicing processing, for each frame still image, as shown in FIG. 13, if uneven brightness occurs in the center of the frame but becomes darker as it goes to the end, brightness unevenness also occurs in the still image after configuration. Occurs, and the image quality deteriorates.

明るさムラの生じているフレーム静止画像を重ね合わせた時の例を図14に示す。ここでは、2枚のフレーム静止画像の重複領域について、どちらかの画像の画素値を優先して用いる例を示しているが、両方の画素値を平均化した場合でも、やはり明るさムラの影響を受けてしまう。   FIG. 14 shows an example when frame still images with uneven brightness are superimposed. Here, an example in which the pixel value of one of the images is used preferentially for the overlapping region of the two frame still images is shown, but even when both pixel values are averaged, the influence of uneven brightness is still the same. Will receive.

本提案手法で重ね合わせ処理を行うと、図15に示すように、重ね合わせ平面上の各画素について、その画素が最もフレームの中央に近い場所に位置しているフレーム静止画像を画素ごとに選択し、そのフレーム静止画像の値で画素値を設定することが可能になる。   When overlay processing is performed using the proposed method, as shown in FIG. 15, for each pixel on the overlay plane, a frame still image in which the pixel is located closest to the center of the frame is selected for each pixel. The pixel value can be set with the value of the frame still image.

こうすることで、フレーム静止画像内の明るさムラの影響、および構成後の静止画像の画質の低下を抑えることが可能になる。   By doing so, it is possible to suppress the influence of brightness unevenness in the frame still image and the deterioration of the image quality of the still image after construction.

[実施例2]
実施例1では、明るさムラの影響を受けにくいように各フレーム静止画像を重ね合わせることで、構成後の静止画像の画質の低下を抑える効果が得られた。
[Example 2]
In Example 1, the effect of suppressing the deterioration of the image quality of the still image after the configuration was obtained by superimposing the still images of the respective frames so as not to be affected by the brightness unevenness.

しかし、構成に用いたフレーム静止画像にノイズが乗った場合、一画素に対して一枚のフレーム静止画像のみを用いて画素値の設定を行っているため、その影響を受けやすいという課題がある。実施例2では、その課題を解決するための処理を行う。   However, when noise is added to the frame still image used in the configuration, since the pixel value is set using only one frame still image for one pixel, there is a problem that it is susceptible to the influence. . In the second embodiment, processing for solving the problem is performed.

初めに、本実施例の概要を説明する。本実施例においては、重ね合わせ平面上の各画素について、注目画素から基準画素までの距離の値が小さい複数枚のフレーム静止画像を用いて画素値の設定を行う。   First, the outline of the present embodiment will be described. In the present embodiment, for each pixel on the overlapping plane, the pixel value is set using a plurality of frame still images having a small distance from the target pixel to the reference pixel.

以下に、処理の流れについて図16を使って説明する。なお、実施例1との重複部分に関しては説明を省略する。   Hereinafter, the flow of processing will be described with reference to FIG. Note that a description of the same parts as those in the first embodiment is omitted.

図16のステップS1603において、画素値更新判定部403は、図12に示すような重ね合わせ平面上における投影後の注目画素と対応する画素について、注目画素の値を用いて画素値を更新するか否かを判定する。判定は、ステップS1601で計算された注目画素から基準画素までの距離に注目し、その値と後述するステップS1605で画素値記憶部405に記憶されているフレーム静止画像N枚分の距離の、下位N番目の値とを比較することで行う。注目画素における距離の値の方が小さいと判定された場合はステップS1604へ、大きいと判定された場合はステップS1605の終了時点へ進む。なお、Nの値は任意の値を用いて構わない。   In step S1603 in FIG. 16, the pixel value update determination unit 403 updates the pixel value using the value of the target pixel for the pixel corresponding to the target pixel after projection on the overlapping plane as illustrated in FIG. Determine whether or not. The determination focuses on the distance from the target pixel calculated in step S1601 to the reference pixel, and the lower value of the value and the distance corresponding to N frame still images stored in the pixel value storage unit 405 in step S1605 described later. This is done by comparing with the Nth value. If it is determined that the distance value at the target pixel is smaller, the process proceeds to step S1604. If it is determined to be larger, the process proceeds to the end point of step S1605. Note that any value may be used as the value of N.

ステップS1604において、画素値設定部403は、画素値記憶部405に記憶されている下位N−1番目までの距離に対応するフレーム静止画像と、現フレーム静止画像の注目画素の画素値を用いて、重ね合わせ平面上における画素値を更新する。この時、更新値は、N枚分の画素値の単純平均値としても良いし、距離をもとにした重み付け平均値としても良いものとする。   In step S <b> 1604, the pixel value setting unit 403 uses the frame still image corresponding to the distance to the lower N−1th distance stored in the pixel value storage unit 405 and the pixel value of the target pixel of the current frame still image. The pixel value on the overlapping plane is updated. At this time, the update value may be a simple average value of N pixel values or a weighted average value based on the distance.

ステップS1605において、距離記憶部405は、ステップS1604で画素値を更新する際に利用した、N枚のフレーム静止画像について、ステップS1601で計算された注目画素から基準画素までの距離の値を記憶する。   In step S1605, the distance storage unit 405 stores the value of the distance from the target pixel to the reference pixel calculated in step S1601 for the N frame still images used when updating the pixel value in step S1604. .

ステップS1606において、画素値記憶部406は、ステップS1604で画素値の更新を行う際に用いたN枚のフレーム静止画像について、画素値の値を記憶する。この時、各画素値はステップS1605で記憶した距離の値と対応させて記憶させておく。   In step S <b> 1606, the pixel value storage unit 406 stores pixel value values for the N frame still images used when updating the pixel values in step S <b> 1604. At this time, each pixel value is stored in correspondence with the distance value stored in step S1605.

以上で、図16の説明を終了する。   This is the end of the description of FIG.

以上のように、注目画素から基準画素までの距離の値が小さい複数枚のフレーム静止画像を用いて画素値の設定を行うことで、フレーム静止画像に乗ったノイズの影響を抑制することが可能になる。   As described above, by setting the pixel value using multiple frame still images with a small distance from the target pixel to the reference pixel, it is possible to suppress the effect of noise on the frame still image become.

100 画像撮影装置
101 動画入力部
102 表示部
DESCRIPTION OF SYMBOLS 100 Image photographing device 101 Movie input part 102 Display part

Claims (7)

撮影された動画像からフレームごとに切り出した複数のフレーム静止画像を1枚の静止画像として構成する画像処理装置であって、
フレーム静止画像内の注目画素から基準画素までの距離を計算する距離計算手段(401)と、上記注目画素を重ね合わせ平面上に投影する投影手段(402)と、投影後の注目画素と対応する重ね合わせ平面上の画素について、上記注目画素の値で画素値の更新を行うか否かを、上記距離計算手段(401)によって計算された注目画素から基準画素までの距離の値をもとに判定する画素値更新判定手段(403)と、投影後の上記注目画素と対応する重ね合わせ平面上の画素について、上記注目画素の値で画素値の更新を行う画素値設定手段(404)と、上記注目画素について、距離計算手段(401)によって計算された注目画素から基準画素までの距離の値を記憶する距離記憶手段(405)
とを有する画像処理装置。
An image processing apparatus that configures a plurality of frame still images cut out for each frame from a captured moving image as one still image,
Corresponding to the distance calculation means (401) for calculating the distance from the target pixel to the reference pixel in the frame still image, the projection means (402) for projecting the target pixel on the overlapping plane, and the target pixel after projection Whether or not to update the pixel value with the value of the target pixel for the pixel on the overlapping plane is determined based on the distance value from the target pixel to the reference pixel calculated by the distance calculation means (401). A pixel value update determining unit (403) for determining, a pixel value setting unit (404) for updating a pixel value with a value of the target pixel for a pixel on the overlapping plane corresponding to the target pixel after projection, Distance storage means (405) for storing the value of the distance from the target pixel to the reference pixel calculated by the distance calculation means (401) for the target pixel.
An image processing apparatus.
前記距離計算手段(401)は、フレーム画像内の基準画素から注目画素までの距離の計算を、前記投影手段(402)によって上記注目画素を重ね合わせ平面上に投影する前に実行することを特徴とする請求項1に記載の画像処理装置。   The distance calculation means (401) calculates the distance from the reference pixel to the target pixel in the frame image before projecting the target pixel on the overlapping plane by the projection means (402). The image processing apparatus according to claim 1. 前記画素値更新判定手段(403)は、前記距離計算手段(401)によって計算された注目画素から基準画素までの距離の値が、前記距離記憶手段(405)に記憶されている距離の値よりも小さかった場合に上記注目画素の値で画素値の更新を行うと判定することを特徴とする請求項1に記載の画像処理装置。 The pixel value update determination means (403) is configured such that the distance value from the target pixel calculated by the distance calculation means (401) to the reference pixel is greater than the distance value stored in the distance storage means (405). 2. The image processing apparatus according to claim 1, wherein a pixel value is determined to be updated with the value of the target pixel when the value is smaller. 撮影された動画像からフレームごとに切り出した複数のフレーム静止画像を1枚の静止画像として構成する画像処理装置であって、
フレーム静止画像内の注目画素から基準画素までの距離を計算する距離計算手段(401)と、上記注目画素を重ね合わせ平面上に投影する投影手段(402)と、投影後の注目画素と対応する重ね合わせ平面上の画素について、上記注目画素を用いて画素値の更新を行うか否かを、上記距離計算手段(401)によって計算された注目画素から基準画素までの距離の値をもとに判定する画素値更新判定手段(403)と、投影後の上記注目画素と対応する重ね合わせ平面上の画素について、上記注目画素、および他のフレーム静止画像の対応画素を用いて画素値の更新を行う画素値設定手段(404)と、上記画素値設定手段(404)によって画素値の更新を行う際に用いた各画素について、距離計算手段(401)によって計算された注目画素から基準画素までの距離の値を記憶する距離記憶手段(405)と、上記画素値設定手段(404)によって画素値の更新を行う際に用いた各画素について、画素値を距離記憶手段(405)によって記憶した距離の値と対応させて記憶する画素値記憶手段(406)
とを有する画像処理装置。
An image processing apparatus that configures a plurality of frame still images cut out for each frame from a captured moving image as one still image,
Corresponding to the distance calculation means (401) for calculating the distance from the target pixel to the reference pixel in the frame still image, the projection means (402) for projecting the target pixel on the overlapping plane, and the target pixel after projection Whether or not the pixel value of the pixel on the overlapping plane is updated using the target pixel is determined based on the distance value from the target pixel to the reference pixel calculated by the distance calculation unit (401). A pixel value update determination unit (403) for determining, and for a pixel on the overlapping plane corresponding to the target pixel after projection, the pixel value is updated using the target pixel and a corresponding pixel of another frame still image. The pixel value setting means (404) to be performed and each pixel used when the pixel value is updated by the pixel value setting means (404) are calculated by the distance calculation means (401). Distance storage means (405) for storing the distance value from the eye pixel to the reference pixel, and distance storage means for each pixel used when the pixel value is updated by the pixel value setting means (404). Pixel value storage means (406) for storing in correspondence with the distance value stored in (405)
An image processing apparatus.
前記距離計算手段(401)は、フレーム画像内の基準画素から注目画素までの距離の計算を、前記投影手段(402)によって上記注目画素を重ね合わせ平面上に投影する前に実行することを特徴とする請求項2に記載の画像処理装置。   The distance calculation means (401) calculates the distance from the reference pixel to the target pixel in the frame image before projecting the target pixel on the overlapping plane by the projection means (402). The image processing apparatus according to claim 2. 前記画素値更新判定手段(403)は、前記距離計算手段(401)によって計算された注目画素から基準画素までの距離の値が、前記距離記憶手段(405)に記憶されている距離の値の最大値よりも小さかった場合に上記注目画素の値を用いて画素値の更新を行うと判定することを特徴とする請求項2に記載の画像処理装置。 The pixel value update determination means (403) is configured such that the distance value from the target pixel calculated by the distance calculation means (401) to the reference pixel is the distance value stored in the distance storage means (405). The image processing apparatus according to claim 2, wherein when the pixel value is smaller than the maximum value, it is determined that the pixel value is updated using the value of the target pixel. 前記画素値設定手段(404)は、上記注目画素および、前記距離記憶手段(405)に記憶されている、前記距離計算手段(401)によって計算された注目画素から基準画素までの距離の値の最大値を持つ画素を除いた全画素を用いて、画素値の更新を行うことを特徴とする請求項2に記載の画像処理装置。
The pixel value setting unit (404) stores the value of the distance from the target pixel and the reference pixel calculated by the distance calculation unit (401) stored in the target pixel and the distance storage unit (405). The image processing apparatus according to claim 2, wherein the pixel value is updated using all the pixels excluding the pixel having the maximum value.
JP2011116443A 2011-05-25 2011-05-25 Image processing device, image processing method, and computer program Withdrawn JP2012247816A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011116443A JP2012247816A (en) 2011-05-25 2011-05-25 Image processing device, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011116443A JP2012247816A (en) 2011-05-25 2011-05-25 Image processing device, image processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2012247816A true JP2012247816A (en) 2012-12-13

Family

ID=47468247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011116443A Withdrawn JP2012247816A (en) 2011-05-25 2011-05-25 Image processing device, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2012247816A (en)

Similar Documents

Publication Publication Date Title
JP3935500B2 (en) Motion vector calculation method and camera shake correction device, imaging device, and moving image generation device using this method
US8274570B2 (en) Image processing apparatus, image processing method, hand shake blur area estimation device, hand shake blur area estimation method, and program
US9191589B2 (en) Image processing device
JP5974250B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
US20150310594A1 (en) Method for imaging processing, and image processing device
JP5569357B2 (en) Image processing apparatus, image processing method, and image processing program
US20150029306A1 (en) Method and apparatus for stabilizing panorama video captured based on multi-camera platform
JP4210954B2 (en) Image processing method, image processing method program, recording medium storing image processing method program, and image processing apparatus
JP2009033392A (en) Panoramic-image generator and program
US8385732B2 (en) Image stabilization
KR20180102639A (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
US20110311150A1 (en) Image processing apparatus
US8644555B2 (en) Device and method for detecting movement of object
JP6825617B2 (en) Image processing equipment, imaging equipment, and image processing methods, and programs
JP2010506482A (en) Method and filter for parallax recovery of video stream
JP6178646B2 (en) Imaging apparatus and image shake correction processing method
JP6231816B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6406044B2 (en) Camera calibration unit, camera calibration method, and camera calibration program
JP6996493B2 (en) Image processing equipment and methods
KR20100088282A (en) Method and apparatus of inpainting for video data
JP2012247816A (en) Image processing device, image processing method, and computer program
JP5391966B2 (en) Image processing apparatus and program for image processing apparatus
JP2013187799A (en) Image processing apparatus, image processing method and computer program
JP2019191724A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805