JP2009044329A - Program, image processing method, and image processor - Google Patents

Program, image processing method, and image processor Download PDF

Info

Publication number
JP2009044329A
JP2009044329A JP2007205679A JP2007205679A JP2009044329A JP 2009044329 A JP2009044329 A JP 2009044329A JP 2007205679 A JP2007205679 A JP 2007205679A JP 2007205679 A JP2007205679 A JP 2007205679A JP 2009044329 A JP2009044329 A JP 2009044329A
Authority
JP
Japan
Prior art keywords
image
frame section
region
overlapping portion
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007205679A
Other languages
Japanese (ja)
Inventor
Keiichi Nitta
啓一 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007205679A priority Critical patent/JP2009044329A/en
Publication of JP2009044329A publication Critical patent/JP2009044329A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate an interpolated image with less sense of incongruity when an imaging range moves between two images. <P>SOLUTION: In a first step, data about a first image and data about a second image picked up after the first image at a state where the imaging range is moved so as to be partially overlapped with an imaging range of the first image are read in an operation part. In a second step, the operation part specifies an overlapped part and a non-overlapped part of the imaging ranges in the first and the second images, respectively. In a third step, the operation part generates an image in a first area corresponding to the overlapped part of the interpolated image for interpolating variation of an object between the first and the second images on the basis of variation of the image with the overlapped part between the first and the second images. In a fourth step, the operation part generates an image in a second area located at a moving destination of the imaging range to the first area of the interpolated image by segmenting the non-overlapped part of the second image. In a fifth step, the operation part generates the interpolated image by connecting the image in the second area to the image in the first area. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、離散的に撮像された2つの画像から被写体の動きを補間する補間画像を生成する画像処理技術に関する。   The present invention relates to an image processing technique for generating an interpolated image for interpolating the motion of a subject from two images captured discretely.

従来から、離散的に撮像された複数の画像を動画として滑らかに再生するために、キーフレームとなる2つの画像間で被写体の動きを補間する補間画像を生成する技術が公知である。例えば、特許文献1には、上記の補間画像を生成するための画像処理技術の一例が開示されている。
特開2003−150972号公報
2. Description of the Related Art Conventionally, a technique for generating an interpolated image that interpolates the movement of a subject between two images serving as key frames is known in order to smoothly reproduce a plurality of discretely captured images as a moving image. For example, Patent Document 1 discloses an example of an image processing technique for generating the above-described interpolation image.
JP 2003-150972 A

しかし、従来の技術では、キーフレームとなる2つの画像間で撮像範囲が移動する場合や、キーフレームとなる2つの画像間で被写体の動き方向に大きな変化がある場合には、動画として鑑賞したときに違和感の大きな補間画像が生成されうる点で改善の余地があった。   However, with the conventional technology, when the imaging range moves between two images that become key frames, or when there is a large change in the direction of movement of the subject between the two images that become key frames, the image is viewed as a movie. There is room for improvement in that an interpolated image with a great sense of discomfort can sometimes be generated.

本発明は上記従来技術の課題を解決するためのものである。本発明の一の目的は、2つの画像間で撮像範囲が移動する場合においても、より違和感の少ない補間画像を生成する手段を提供することである。   The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide a means for generating an interpolated image with less discomfort even when the imaging range moves between two images.

また、本発明の他の目的は、2つの画像間で被写体の動き方向に大きな変化がある場合においても、より違和感の少ない補間画像を生成する手段を提供することである。   Another object of the present invention is to provide means for generating an interpolated image with less discomfort even when there is a large change in the direction of movement of the subject between two images.

本発明の第1の形態は、画像のデータを読み込むデータ読込部と、演算部とを有するコンピュータのプログラムである。このプログラムは以下の第1ステップから第4ステップを演算部に実行させる。第1ステップでは、撮像装置で撮像された第1画像のデータと、第1画像の撮像範囲と一部重複するように撮像装置の撮像範囲を移動させた状態で第1画像の後に撮像された第2画像のデータとをデータ読込部により演算部に読み込む。第2ステップでは、演算部が、第1画像および第2画像における撮像範囲の重複部分と非重複部分とをそれぞれ特定する。第3ステップでは、演算部が、第1画像および第2画像の間で被写体の変化を補間する補間画像のうち、重複部分に対応する第1領域の画像を、第1画像の重複部分と第2画像の重複部分との画像の変化量に基づいて生成する。第4ステップでは、演算部が、補間画像のうち、第1領域に対して撮像範囲の移動先に位置する第2領域の画像を、第2画像の非重複部分を切り出して生成する。第5ステップでは、演算部が、第1領域の画像に第2領域の画像を接続して補間画像を生成する。   A first aspect of the present invention is a computer program having a data reading unit for reading image data and a calculation unit. This program causes the calculation unit to execute the following first to fourth steps. In the first step, the first image data captured by the imaging device is captured after the first image in a state where the imaging range of the imaging device is moved so as to partially overlap the imaging range of the first image. The data of the second image is read into the calculation unit by the data reading unit. In the second step, the calculation unit specifies an overlapping portion and a non-overlapping portion of the imaging range in the first image and the second image, respectively. In the third step, the arithmetic unit interpolates the change of the subject between the first image and the second image, and the first region image corresponding to the overlapping portion is replaced with the overlapping portion of the first image. It generates based on the amount of change of the image with the overlapping part of two images. In the fourth step, the calculation unit generates an image of the second area located at the movement destination of the imaging range with respect to the first area in the interpolated image by cutting out a non-overlapping portion of the second image. In the fifth step, the calculation unit generates an interpolation image by connecting the image of the second area to the image of the first area.

上記の第1の形態において、以下の第6ステップを演算部がさらに実行してもよい。第6ステップでは、演算部が、補間画像のうち、第1領域に対して撮像範囲の移動元に位置する第3領域の画像を、第1画像の非重複部分を切り出して生成する。そして、第5ステップにて、演算部が、第1領域の画像に第3領域の画像をさらに接続して補間画像を生成してもよい。   In the first embodiment, the calculation unit may further execute the following sixth step. In the sixth step, the calculation unit generates an image of the third area located at the movement source of the imaging range with respect to the first area in the interpolated image by cutting out a non-overlapping portion of the first image. In the fifth step, the calculation unit may generate an interpolation image by further connecting the image of the third region to the image of the first region.

上記の第1の形態において、以下の第7ステップを演算部がさらに実行してもよい。第7ステップでは、演算部が、第1画像および第2画像の少なくとも一方に重複部分と非重複部分とを跨いだ共通被写体があるときに、第2領域および第3領域の少なくとも一方に含まれる共通被写体を、第1画像および第2画像の各々の重複部分から求めた共通被写体の変化量に基づいて変形させる。   In the first embodiment, the calculation unit may further execute the following seventh step. In the seventh step, the arithmetic unit is included in at least one of the second region and the third region when there is a common subject straddling the overlapping portion and the non-overlapping portion in at least one of the first image and the second image. The common subject is deformed based on the change amount of the common subject obtained from the overlapping portions of the first image and the second image.

上記の第1の形態において、第1画像、補間画像および第2画像を連続的に再生する第8ステップを演算部がさらに実行してもよい。   In the first embodiment, the arithmetic unit may further execute an eighth step of continuously reproducing the first image, the interpolation image, and the second image.

本発明の第2の形態は、画像のデータを読み込むデータ読込部と、演算部とを有するコンピュータのプログラムである。このプログラムは以下の第1ステップから第5ステップを演算部に実行させる。第1ステップでは、注目被写体を連続的に撮像した複数フレームの画像データ群をデータ読込部により演算部に読み込む。第2ステップでは、演算部が、撮像時点が隣接する2つのフレームを用いて、画像データ群の複数のフレームにおける各フレーム区間毎に注目被写体の動きベクトルを求める。第3ステップでは、演算部が、各々が時間的に連続する第1フレーム区間および第2フレーム区間を抽出し、前の第1フレーム区間の動きベクトルに対して、後の第2フレーム区間の動きベクトルの方向の変化が閾値未満であるかを判定する。第4ステップでは、第3ステップで閾値未満の変化と判定されたときに、演算部が、第2フレーム区間の動きベクトルを用いた内挿によって、第2フレーム区間で注目被写体の変化を補間する補間画像を生成する。第5ステップでは、第3ステップで閾値以上の変化と判定されたときに、演算部が、第2フレーム区間に前後する少なくとも一方のフレーム区間の動きベクトルを用いた外挿によって、第2フレーム区間で注目被写体の変化を補間する補間画像を生成する。   The second aspect of the present invention is a computer program having a data reading unit for reading image data and a calculation unit. This program causes the calculation unit to execute the following first to fifth steps. In the first step, a plurality of frames of image data groups obtained by continuously capturing the subject of interest are read into the calculation unit by the data reading unit. In the second step, the calculation unit obtains the motion vector of the subject of interest for each frame section in the plurality of frames of the image data group, using two frames at which the imaging time points are adjacent. In the third step, the calculation unit extracts a first frame section and a second frame section, each of which is temporally continuous, and the motion of the subsequent second frame section with respect to the motion vector of the previous first frame section. It is determined whether the change in vector direction is less than a threshold value. In the fourth step, when it is determined that the change is less than the threshold value in the third step, the calculation unit interpolates the change of the subject of interest in the second frame section by interpolation using the motion vector of the second frame section. Generate an interpolated image. In the fifth step, when it is determined that the change is equal to or greater than the threshold value in the third step, the calculation unit performs an extrapolation using a motion vector of at least one frame section before and after the second frame section, thereby performing the second frame section. To generate an interpolated image for interpolating the change of the subject of interest.

上記の第2の形態において、第2フレーム区間の2つのフレームの間に補間画像を挿入して画像を連続的に再生する第6ステップを演算部がさらに実行してもよい。   In the second embodiment, the calculation unit may further execute a sixth step of inserting an interpolated image between two frames in the second frame section and continuously reproducing the image.

なお、上記の第1の形態および第2の形態に関する構成を、画像処理方法、画像処理装置、上記のプログラムを記憶した記憶媒体などに変換して表現したものも本発明の具体的態様として有効である。   In addition, what is expressed by converting the configuration related to the first and second embodiments into an image processing method, an image processing apparatus, a storage medium storing the above program, and the like is also effective as a specific aspect of the present invention. It is.

本発明の一の形態では、撮像範囲を移動させて撮像した第1画像および第2画像から補間画像を生成するときに、補間画像の重複部分は第1画像および第2画像の変化量に基づいて生成する一方で、補間画像の一方の非重複部分は第2画像の非重複部分を切り出して生成する。そのため、2つの画像間で撮像範囲が移動する場合において、より違和感の少ない補間画像を生成することができる。   In one embodiment of the present invention, when an interpolated image is generated from the first image and the second image captured by moving the imaging range, the overlapping portion of the interpolated image is based on the amount of change in the first image and the second image. On the other hand, one non-overlapping portion of the interpolated image is generated by cutting out the non-overlapping portion of the second image. Therefore, when the imaging range moves between two images, it is possible to generate an interpolated image with less discomfort.

本発明の他の形態では、各フレーム区間毎に求めた動きベクトルの変化が閾値以上であるときに、所定のフレーム区間の補間画像を、そのフレーム区間に前後する他のフレーム区間の動きベクトルを用いた外挿によって生成する。そのため、2つの画像間で被写体の動き方向に大きな変化がある場合において、より違和感の少ない補間画像を生成することができる。   In another embodiment of the present invention, when the change in the motion vector obtained for each frame section is equal to or greater than the threshold value, the interpolated image of the predetermined frame section is represented as the motion vector of the other frame section before and after the frame section. Generate by extrapolation used. Therefore, when there is a large change in the movement direction of the subject between the two images, it is possible to generate an interpolated image with less discomfort.

<第1実施形態の説明>
図1は第1実施形態の画像処理装置を適用した電子カメラの構成を示すブロック図である。電子カメラは、撮像光学系11と、レンズ駆動部12と、撮像素子13と、撮像素子駆動回路14と、信号処理回路15と、データ処理回路16と、第1メモリ17と、表示制御回路18およびモニタ19と、圧縮/伸長回路20と、記録I/F21と、通信I/F22と、操作部材23と、レリーズ釦24と、振動センサ25と、第2メモリ26と、制御回路27およびバス28とを有している。
<Description of First Embodiment>
FIG. 1 is a block diagram illustrating a configuration of an electronic camera to which the image processing apparatus according to the first embodiment is applied. The electronic camera includes an imaging optical system 11, a lens driving unit 12, an imaging element 13, an imaging element driving circuit 14, a signal processing circuit 15, a data processing circuit 16, a first memory 17, and a display control circuit 18. The monitor 19, the compression / expansion circuit 20, the recording I / F 21, the communication I / F 22, the operation member 23, the release button 24, the vibration sensor 25, the second memory 26, the control circuit 27, and the bus. 28.

ここで、データ処理回路16、第1メモリ17、圧縮/伸長回路20、第2メモリ26および制御回路27はそれぞれバス28を介して相互に接続されている。また、レンズ駆動部12、撮像素子駆動回路14、信号処理回路15、表示制御回路18、記録I/F21、通信I/F22、操作部材23、レリーズ釦24、振動センサ25は、それぞれ制御回路27と接続されている(なお、図1では、信号処理回路15および表示制御回路18と制御回路27との間を結ぶ信号線の図示は簡単のため省略する)。   Here, the data processing circuit 16, the first memory 17, the compression / expansion circuit 20, the second memory 26 and the control circuit 27 are connected to each other via a bus 28. The lens driving unit 12, the image sensor driving circuit 14, the signal processing circuit 15, the display control circuit 18, the recording I / F 21, the communication I / F 22, the operation member 23, the release button 24, and the vibration sensor 25 are each a control circuit 27. (In FIG. 1, signal lines connecting the signal processing circuit 15, the display control circuit 18, and the control circuit 27 are omitted for simplicity).

撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成されており、撮像素子13の撮像面上に被写体像を結像させる役目を果たす。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and serves to form a subject image on the imaging surface of the imaging element 13. For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG.

撮像光学系11の各々のレンズ位置は、レンズ駆動部12によって光軸方向に調整される。このレンズ駆動部12はレンズ駆動機構を含み、制御回路27からのレンズ駆動指令に応じてレンズ位置を調整する。例えば、レンズ駆動部12がフォーカスレンズを光軸方向に進退駆動することで、撮像光学系11のフォーカス調整が行われる。また、レンズ駆動部12がズームレンズを光軸方向に進退駆動することで、撮像光学系11のズーム調整が行われる。   Each lens position of the imaging optical system 11 is adjusted in the optical axis direction by the lens driving unit 12. The lens driving unit 12 includes a lens driving mechanism and adjusts the lens position in accordance with a lens driving command from the control circuit 27. For example, the focus adjustment of the imaging optical system 11 is performed by the lens driving unit 12 driving the focus lens back and forth in the optical axis direction. Further, zoom adjustment of the imaging optical system 11 is performed by the lens driving unit 12 driving the zoom lens to advance and retreat in the optical axis direction.

撮像素子13は、撮像光学系11を通過した光束による被写体像を光電変換してアナログの画像信号を生成する。本実施形態での撮像素子13は、静止画像の単写撮像、静止画像の連写撮像および動画像の撮像が可能である。この撮像素子13の出力は信号処理回路15に接続されている。なお、撮像素子13は、CCDイメージセンサあるいはCMOS型イメージセンサなどで構成される。   The image sensor 13 photoelectrically converts a subject image by a light beam that has passed through the imaging optical system 11 to generate an analog image signal. The image sensor 13 in the present embodiment is capable of single-shot imaging of still images, continuous shooting imaging of still images, and imaging of moving images. The output of the image sensor 13 is connected to the signal processing circuit 15. The image sensor 13 is configured by a CCD image sensor or a CMOS image sensor.

撮像素子駆動回路14は、制御回路27からの指令に応じて所定タイミングの駆動信号を生成し、この駆動信号を撮像素子13に供給する。そして、撮像素子駆動回路14は、上記の駆動信号によって、撮像素子13の電荷蓄積(撮像)および蓄積電荷の読み出しを制御する。   The image sensor drive circuit 14 generates a drive signal at a predetermined timing in accordance with a command from the control circuit 27 and supplies the drive signal to the image sensor 13. Then, the image sensor driving circuit 14 controls charge accumulation (imaging) and reading of the accumulated charges of the image sensor 13 by the drive signal.

信号処理回路15は、撮像素子13の出力に対して各種の信号処理を施すASICである。具体的には、信号処理回路15は、相関二重サンプリング、ゲインの調整、直流再生、A/D変換などを実行する。信号処理回路15でのゲインの調整などのパラメータは、制御回路27からの指令に応じて決定される。なお、信号処理回路15はデータ処理回路16に接続されており、上記信号処理後のデータはデータ処理回路16に出力される。   The signal processing circuit 15 is an ASIC that performs various types of signal processing on the output of the image sensor 13. Specifically, the signal processing circuit 15 performs correlated double sampling, gain adjustment, DC regeneration, A / D conversion, and the like. Parameters such as gain adjustment in the signal processing circuit 15 are determined in accordance with a command from the control circuit 27. The signal processing circuit 15 is connected to the data processing circuit 16, and the data after the signal processing is output to the data processing circuit 16.

データ処理回路16は、信号処理回路15から出力された画像のデータに対してデジタル信号処理を施す回路である。データ処理回路16では、例えば、色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整などの画像処理が実行される。このデータ処理回路16は、表示制御回路18および圧縮/伸長回路20にそれぞれ接続されている。そして、データ処理回路16は、制御回路27からの指令に応じて、画像処理後の記録画像のデータを圧縮/伸長回路20に出力する。   The data processing circuit 16 is a circuit that performs digital signal processing on the image data output from the signal processing circuit 15. In the data processing circuit 16, for example, image processing such as color interpolation processing, gradation conversion processing, contour enhancement processing, and white balance adjustment is executed. The data processing circuit 16 is connected to the display control circuit 18 and the compression / decompression circuit 20, respectively. Then, the data processing circuit 16 outputs the recorded image data after the image processing to the compression / decompression circuit 20 in accordance with a command from the control circuit 27.

また、データ処理回路16は、制御回路27からの指令に応じて、画像の解像度変換(画素数変換)処理を実行する。一例として、モニタ19に再生画像を表示する場合、データ処理回路16は、再生表示しようとする画像のデータに対して、モニタ19の画素数に合わせるための解像度変換(画素数変換)処理を実行する(なお、特に断りのないかぎり、本明細書でモニタ19に画像を表示するときには、データ処理回路16で表示画像の画素数調整が行われているものとする)。そして、データ処理回路16は、解像度変換後の再生画像のデータを表示制御回路18に出力する。また、電子ズーム処理を行う場合、データ処理回路16は、入力される画像のデータに対して解像度変換(画素数変換)処理を実行し、解像度変換後の画像のデータを圧縮/伸長回路20および表示制御回路18にそれぞれ出力する。   Further, the data processing circuit 16 executes image resolution conversion (pixel number conversion) processing in response to a command from the control circuit 27. As an example, when displaying a reproduced image on the monitor 19, the data processing circuit 16 executes resolution conversion (pixel number conversion) processing for matching the number of pixels of the monitor 19 with respect to the data of the image to be reproduced and displayed. (Note that unless otherwise specified, when an image is displayed on the monitor 19 in this specification, the number of pixels of the display image is adjusted by the data processing circuit 16). Then, the data processing circuit 16 outputs the reproduced image data after the resolution conversion to the display control circuit 18. When performing the electronic zoom processing, the data processing circuit 16 executes resolution conversion (pixel number conversion) processing on the input image data, and compresses / decompresses the image data after the resolution conversion. Each is output to the display control circuit 18.

第1メモリ17は、データ処理回路16または圧縮/伸長回路20による処理の前工程や後工程などで画像のデータを一時的に記憶するバッファメモリである。   The first memory 17 is a buffer memory that temporarily stores image data in the pre-process and post-process of the processing by the data processing circuit 16 or the compression / decompression circuit 20.

表示制御回路18は、制御回路27からの指令に応じて、データ処理回路16から入力された画像のデータに所定の信号処理を施してモニタ19へ出力する。表示制御回路18は、さらに上記の画像のデータに撮影メニュー、カーソルなどのオーバーレイ画像データを重畳させる処理を行う。このような制御回路27および表示制御回路18の制御によって、オーバーレイ画像が重畳された被写体画像をモニタ19に表示することができる。なお、本実施形態でのモニタ19は、接眼部を有する電子ファインダや、カメラ筐体の背面などに設けられる液晶表示パネルのいずれで構成されていてもよい。   In response to a command from the control circuit 27, the display control circuit 18 performs predetermined signal processing on the image data input from the data processing circuit 16 and outputs the image data to the monitor 19. The display control circuit 18 further performs processing for superimposing overlay image data such as a shooting menu and a cursor on the image data. By such control of the control circuit 27 and the display control circuit 18, the subject image on which the overlay image is superimposed can be displayed on the monitor 19. Note that the monitor 19 in the present embodiment may be configured with any of an electronic viewfinder having an eyepiece and a liquid crystal display panel provided on the back surface of the camera housing.

圧縮/伸長回路20は、制御回路27からの指令に応じて、データ処理回路16から入力される画像のデータに所定の圧縮処理を施す。この圧縮/伸長回路20は記録I/F21に接続されており、圧縮後の画像のデータは記録I/F21に出力される。また、圧縮/伸長回路20は、圧縮後の画像のデータに対し、圧縮処理の逆処理である復号化処理を実行する。なお、本実施形態の圧縮/伸長回路20は、可逆圧縮(いわゆるロスレス符号化)を行うことが可能な構成となっている。   The compression / decompression circuit 20 performs predetermined compression processing on the image data input from the data processing circuit 16 in response to a command from the control circuit 27. The compression / decompression circuit 20 is connected to the recording I / F 21, and the compressed image data is output to the recording I / F 21. The compression / decompression circuit 20 executes a decoding process that is a reverse process of the compression process on the compressed image data. Note that the compression / decompression circuit 20 of the present embodiment has a configuration capable of performing lossless compression (so-called lossless encoding).

記録I/F21は、記憶媒体29を接続するためのコネクタが形成されている。そして、記録I/F21は、コネクタに接続された記憶媒体29に対してデータの書き込み/読み込みを実行する。上記の記憶媒体29は、小型ハードディスクや、半導体メモリを内蔵したメモリカードや、DVDなどの光ディスクなどで構成される。図1では記憶媒体29の一例としてメモリカードを図示する。なお、記憶媒体29は、電子カメラに内蔵されるものであってもよく、電子カメラに対して着脱可能に装着されるものであってもよい。また、画像のデータを読み書きする記憶媒体として、通信I/F22を介して電気的に接続された外付けの記憶媒体を利用してもよい。   The recording I / F 21 has a connector for connecting the storage medium 29. The recording I / F 21 writes / reads data to / from the storage medium 29 connected to the connector. The storage medium 29 includes a small hard disk, a memory card incorporating a semiconductor memory, an optical disk such as a DVD, and the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 29. The storage medium 29 may be built in the electronic camera or may be detachably attached to the electronic camera. An external storage medium electrically connected via the communication I / F 22 may be used as a storage medium for reading and writing image data.

ここで、電子カメラの動作モードの1つである撮影モードにおいて撮像した画像のデータを記録する場合、制御回路27は、記録画像に対応する再生画像をモニタ19に表示させる。本明細書での記録画像とは、撮像により得られ、最終的に記憶媒体29に記録されるべき(あるいは記憶媒体29に記録された)静止画像データに対応する静止画像を意味するものとする。なお、操作部材23によるユーザーの操作によって、記録画像の非圧縮記録が制御回路27に指示されている場合、圧縮/伸長回路20は圧縮処理を行なわずに、記録画像のデータを記録I/F21に出力する。上記の非圧縮記録の場合にも、制御回路27は、記録画像に対応する再生画像をモニタ19に表示させる。   Here, when recording data of an image captured in a photographing mode which is one of the operation modes of the electronic camera, the control circuit 27 displays a reproduced image corresponding to the recorded image on the monitor 19. The recorded image in this specification means a still image corresponding to still image data obtained by imaging and finally recorded on the storage medium 29 (or recorded on the storage medium 29). . When non-compressed recording of a recorded image is instructed to the control circuit 27 by the user's operation using the operation member 23, the compression / decompression circuit 20 does not perform compression processing and records the recorded image data as a recording I / F 21. Output to. Also in the case of the above uncompressed recording, the control circuit 27 causes the monitor 19 to display a reproduced image corresponding to the recorded image.

また、電子カメラの動作モードの1つである再生モードにおいて、制御回路27は、記憶媒体29に記憶されている画像のデータによる再生画像をモニタ19に表示させる。この再生モードでは、記録I/F21が、制御回路27からの指令に応じて再生対象の画像のデータを記憶媒体29から読み出す。そして、圧縮/伸長回路20は、再生対象の画像のデータに対して復号化処理を施した上で、復号化後の画像のデータをデータ処理回路16に送る。その後、データ処理回路16および表示制御回路18が復号化後の画像のデータに対して上述の処理を実行することで、モニタ19には再生画像が表示される。なお、記憶媒体29から非圧縮の画像データが読み出された場合には、圧縮/伸長回路20は復号化処理を行わずに画像のデータをデータ処理回路16に送る。   In the playback mode, which is one of the operation modes of the electronic camera, the control circuit 27 causes the monitor 19 to display a playback image based on the image data stored in the storage medium 29. In this playback mode, the recording I / F 21 reads data of an image to be played back from the storage medium 29 in response to a command from the control circuit 27. Then, the compression / decompression circuit 20 performs a decoding process on the image data to be reproduced, and sends the decoded image data to the data processing circuit 16. Thereafter, the data processing circuit 16 and the display control circuit 18 execute the above-described processing on the decoded image data, so that the reproduced image is displayed on the monitor 19. When uncompressed image data is read from the storage medium 29, the compression / decompression circuit 20 sends the image data to the data processing circuit 16 without performing the decoding process.

通信I/F22は、有線または無線による公知の通信規格の仕様に準拠して、外部装置30(例えば、パーソナルコンピュータや外付けの記憶媒体)とのデータ送受信を制御する。電子カメラと外部装置30との通信は、有線または無線の通信回線を介して行われる。   The communication I / F 22 controls data transmission / reception with an external device 30 (for example, a personal computer or an external storage medium) in accordance with the specifications of a known communication standard such as wired or wireless. Communication between the electronic camera and the external device 30 is performed via a wired or wireless communication line.

操作部材23は、例えば、コマンドダイヤル、十字状のカーソルキー、ズーム操作釦、決定釦などで構成される。そして、操作部材23は電子カメラの各種入力をユーザーから受け付ける。なお、操作部材23には、後述する補間画像を生成するフレーム数を設定する設定部材を設けるようにしてもよい。   The operation member 23 includes, for example, a command dial, a cross-shaped cursor key, a zoom operation button, a determination button, and the like. The operation member 23 receives various inputs of the electronic camera from the user. The operation member 23 may be provided with a setting member for setting the number of frames for generating an interpolation image, which will be described later.

一例として、制御回路27は、ズーム操作釦からの入力を受け付けるとズームレンズについてのレンズ駆動指令を出力し、レンズ駆動部12にズームレンズを進退駆動させる。これにより、撮像素子13の撮像面上に結像される被写体像が拡大もしくは縮小して撮像光学系11による光学的なズーム調整が行われる。   As an example, when receiving an input from the zoom operation button, the control circuit 27 outputs a lens drive command for the zoom lens and causes the lens drive unit 12 to drive the zoom lens forward and backward. As a result, the subject image formed on the imaging surface of the imaging device 13 is enlarged or reduced, and optical zoom adjustment is performed by the imaging optical system 11.

また、制御回路27は、さらにズーム操作釦からの入力を受け付けるとデータ処理回路16に指令を出力し、画像のデータに対する解像度変換処理の変換比率をユーザーの操作に応じて変化させる。これにより、モニタ19に表示される画像が拡大もしくは縮小して電子的なズーム調整が行われる(電子ズーム)。上記の解像度変換処理の変換比率は、電子ズーム倍率に対応する。データ処理回路16が電子ズーム倍率を高める方向に変換比率を変える場合、モニタ19には再生画像の一部が拡大されて表示される(拡大率が上がる反面、再生画像の表示範囲は狭くなる)。一方、データ処理回路16が電子ズーム倍率を低くする方向に変換比率を変える場合、モニタ19に表示される再生画像の拡大率は低くなるが、再生画像の表示範囲は広くなる。なお、上記の撮影モードでは、モニタ19の表示画像に対応する撮像画像のデータを記憶媒体29に記録することができる。   When the control circuit 27 further receives an input from the zoom operation button, the control circuit 27 outputs a command to the data processing circuit 16 to change the conversion ratio of the resolution conversion processing for the image data in accordance with the user's operation. Thereby, the image displayed on the monitor 19 is enlarged or reduced, and electronic zoom adjustment is performed (electronic zoom). The conversion ratio of the resolution conversion process corresponds to the electronic zoom magnification. When the data processing circuit 16 changes the conversion ratio in the direction of increasing the electronic zoom magnification, a part of the reproduced image is enlarged and displayed on the monitor 19 (while the enlargement ratio is increased, the display range of the reproduced image is narrowed). . On the other hand, when the data processing circuit 16 changes the conversion ratio in the direction of decreasing the electronic zoom magnification, the enlargement ratio of the reproduced image displayed on the monitor 19 is lowered, but the display range of the reproduced image is widened. In the above-described shooting mode, captured image data corresponding to the display image on the monitor 19 can be recorded in the storage medium 29.

レリーズ釦24は、後述する連写撮影モードにおいて、押圧操作によるオートフォーカス(AF)動作開始の指示入力と、撮像動作開始の指示入力とをユーザーから受け付ける。   The release button 24 receives an instruction input for starting an autofocus (AF) operation by a pressing operation and an instruction input for starting an imaging operation from a user in a continuous shooting mode described later.

制御回路27は、レリーズ釦24の押圧操作に応じて、公知のコントラスト検出方式のAF動作を実行する。このAFでは、撮像素子13から読み出される画像信号のなかで、撮影画面内に予め設定されているフォーカス検出領域に対応する信号が用いられる。具体的には、信号処理回路15によって信号処理された画像のデータのうち、フォーカス検出領域に対応するデータについての高周波数成分の積算値(いわゆる焦点評価値)を最大にするように、制御回路27はフォーカスレンズのレンズ駆動指令をレンズ駆動部12に送る。焦点評価値を最大にするフォーカスレンズの位置は、撮像素子13によって撮像される被写体像のエッジのぼけをなくし、画像のコントラストを最大にする(尖鋭度を高める)合焦位置である。   The control circuit 27 executes a known contrast detection AF operation in response to the pressing operation of the release button 24. In this AF, a signal corresponding to a focus detection area set in advance in the shooting screen is used among image signals read from the image sensor 13. Specifically, the control circuit is configured to maximize the integrated value (so-called focus evaluation value) of the high frequency component for the data corresponding to the focus detection area among the data of the image signal processed by the signal processing circuit 15. 27 sends a lens drive command for the focus lens to the lens drive unit 12. The position of the focus lens that maximizes the focus evaluation value is a focus position that eliminates blurring of the edge of the subject image captured by the image sensor 13 and maximizes the contrast of the image (increases sharpness).

振動センサ25は、電子カメラの筐体の振れを直交する2方向について検出する。この振動センサ25は、例えば角速度センサやジャイロセンサなどで構成され、電子カメラの筐体内に配置される。振動センサ25は、撮影モードにおいて電子カメラに加わる振れを検知し、直交する2方向の振れ量データ(振れの方向、振れの大きさ(振れの速度または加速度)を含むデータ)を制御回路27に出力する。制御回路27は、上記の振れ量データに基づいて手ブレ補正を実行する。例えば、撮像光学系11にブレ補正レンズがある場合、制御回路27は、筐体の振れに伴う撮像面上での被写体の移動が打ち消されるように、レンズ駆動部12を介してブレ補正レンズを駆動させることで手ブレ補正を行う。   The vibration sensor 25 detects the shake of the casing of the electronic camera in two directions orthogonal to each other. The vibration sensor 25 is composed of, for example, an angular velocity sensor, a gyro sensor, or the like, and is arranged in the housing of the electronic camera. The vibration sensor 25 detects a shake applied to the electronic camera in the photographing mode, and supplies the control circuit 27 with shake amount data (data including a shake direction and a shake magnitude (a shake speed or acceleration)) in two orthogonal directions. Output. The control circuit 27 performs camera shake correction based on the shake amount data. For example, when the image pickup optical system 11 has a shake correction lens, the control circuit 27 sets the shake correction lens via the lens driving unit 12 so that the movement of the subject on the image pickup surface due to the shake of the housing is canceled. Camera shake correction is performed by driving.

第2メモリ26は、フラッシュメモリ等の不揮発性の記憶媒体である。この第2メモリ26には、各種の設定データなどが記憶されている。   The second memory 26 is a non-volatile storage medium such as a flash memory. The second memory 26 stores various setting data and the like.

制御回路27は、電子カメラの動作を統括的に制御するプロセッサである。例えば、制御回路27は、撮像素子13から出力される信号から被写界の明るさを求める。そして、制御部は、上記の明るさの情報に基づいて公知のAE演算を実行し、撮影モードでの撮像条件(撮像素子13の電荷蓄積時間、絞り(不図示)の絞り値、画像信号の増幅度)を決定する。   The control circuit 27 is a processor that comprehensively controls the operation of the electronic camera. For example, the control circuit 27 obtains the brightness of the object scene from the signal output from the image sensor 13. Then, the control unit executes a known AE calculation based on the brightness information described above, and performs imaging conditions (charge accumulation time of the image sensor 13, aperture value of the aperture (not shown), aperture value of the image signal) in the imaging mode. Amplification) is determined.

また、制御回路27は、第2メモリ26等に記憶されたプログラムを実行することで、後述する補間画像の生成処理を実行する。   Further, the control circuit 27 executes a program stored in the second memory 26 and the like, thereby executing an interpolation image generation process to be described later.

以下、第1実施形態の電子カメラの連写撮影モードの動作と、再生モードの動作とをそれぞれ説明する。   Hereinafter, operations in the continuous shooting mode and playback mode of the electronic camera of the first embodiment will be described.

(連写撮影モードの説明)
連写撮影モードは上記の撮影モードの1つであって、レリーズ釦24が押圧されている間、電子カメラが所定の時間間隔で静止画像の撮像動作を連続的に実行するモードである。なお、連写撮影モードでの制御回路27は、連写撮影される各々の記録画像(連写画像)が静止画としての鑑賞に耐えうるように撮像条件を決定する。例えば、制御回路27は、絞りを絞って被写界深度を深くする。
(Explanation of continuous shooting mode)
The continuous shooting mode is one of the above-described shooting modes, in which the electronic camera continuously executes still image capturing operations at predetermined time intervals while the release button 24 is pressed. Note that the control circuit 27 in the continuous shooting mode determines imaging conditions so that each recorded image (continuous shooting image) that is shot continuously can withstand appreciation as a still image. For example, the control circuit 27 reduces the aperture to increase the depth of field.

具体的には、制御回路27は、レリーズ釦24の押圧操作を検出すると、上記のAF動作を連続的に実行するとともに、記録画像の連写撮影動作を実行する。   Specifically, when detecting the pressing operation of the release button 24, the control circuit 27 continuously performs the AF operation described above and performs a continuous shooting operation of the recorded image.

ここで、連写撮影モードでのAF動作に関し、制御回路27は画面内を移動する特定被写体を追尾してAF動作を行ってもよい。あるいは、制御回路27は、所定の撮影距離の物体に常に合焦するようにAF動作を行ってもよい。なお、制御回路27は、操作部材23を介したユーザーのマニュアル操作によって焦点調整を行うようにしてもよい。   Here, regarding the AF operation in the continuous shooting mode, the control circuit 27 may perform the AF operation by tracking a specific subject moving within the screen. Alternatively, the control circuit 27 may perform the AF operation so that an object at a predetermined shooting distance is always focused. Note that the control circuit 27 may perform focus adjustment by a user's manual operation via the operation member 23.

また、連写撮影モードでの連写撮影動作に関し、制御回路27は、撮像素子駆動回路14に対して、連写撮影動作を実行するための駆動信号の出力を指示する。撮像素子13は、上記の駆動信号を受けて、例えば10fpsのフレームレートで画像信号を出力する。そして、撮像素子13から出力された各フレームの画像信号は、信号処理回路15およびデータ処理回路16で所定の処理が施される。その後、制御回路27は、各フレームに対応する記録画像のデータを第1メモリ17に一時的に記憶させる。   Regarding the continuous shooting operation in the continuous shooting mode, the control circuit 27 instructs the image sensor drive circuit 14 to output a drive signal for executing the continuous shooting operation. The image sensor 13 receives the drive signal and outputs an image signal at a frame rate of 10 fps, for example. The image signal of each frame output from the image sensor 13 is subjected to predetermined processing by the signal processing circuit 15 and the data processing circuit 16. Thereafter, the control circuit 27 temporarily stores recorded image data corresponding to each frame in the first memory 17.

そして、圧縮/伸長回路20は、制御回路27の指令に応じて、連写撮影された各々の記録画像のデータを圧縮する。圧縮/伸長回路20の圧縮率は、操作部材23の操作に応じて制御回路27が変更する。なお、操作部材23の操作によって、非圧縮状態が選択されている状態のときは、制御回路27の指令に応じて、圧縮/伸長回路20は上記の圧縮処理を省略する。   The compression / decompression circuit 20 compresses the data of each recorded image that has been continuously shot in accordance with a command from the control circuit 27. The compression rate of the compression / expansion circuit 20 is changed by the control circuit 27 according to the operation of the operation member 23. When the non-compressed state is selected by operating the operation member 23, the compression / decompression circuit 20 omits the above-described compression processing in response to a command from the control circuit 27.

その後、記録I/F21は、制御回路27の指令に応じて、圧縮後の記録画像のデータを記憶媒体29に記録する。このとき、各々の記録画像のデータには、制御回路27によって、各々の記録画像の撮像条件(撮像光学系11の焦点距離、露出条件、振れ量データなど)を示す付帯情報が対応付けされて記録される。一例として、制御回路27は、Exif(Exchangeable Image File Format)に準拠して、上記の付帯情報を含むヘッダと記録画像のデータとをまとめて各記録画像毎に1つずつ画像ファイルを生成し、この画像ファイルを記憶媒体29に記録する。   Thereafter, the recording I / F 21 records the compressed recording image data in the storage medium 29 in accordance with a command from the control circuit 27. At this time, the data of each recorded image is associated by the control circuit 27 with supplementary information indicating the imaging conditions of each recorded image (focal length of the imaging optical system 11, exposure conditions, shake amount data, etc.). To be recorded. As an example, the control circuit 27, in conformity with Exif (Exchangeable Image File Format), generates a single image file for each recording image by combining the header including the accompanying information and the recording image data. This image file is recorded in the storage medium 29.

なお、連写撮影動作時には、データ処理回路16は、記録画像のデータに解像度変換処理を施し、モニタ19の画素数に合わせたビュー画像のデータを生成する。そして、データ処理回路16は、各フレームのビュー画像のデータを表示制御回路18を介して順次モニタ19に供給する。連写撮影動作時には、表示制御回路18の制御によって、モニタ19には各々のフレームに対応するビュー画像が順次表示される。これにより、ユーザーは、モニタ19のビュー画像を目視することで、被写界の状態と記録画像の構図とを確認することができる。   At the time of continuous shooting operation, the data processing circuit 16 performs resolution conversion processing on the recorded image data, and generates view image data in accordance with the number of pixels of the monitor 19. The data processing circuit 16 sequentially supplies view image data of each frame to the monitor 19 via the display control circuit 18. During the continuous shooting operation, view images corresponding to the respective frames are sequentially displayed on the monitor 19 under the control of the display control circuit 18. Thereby, the user can confirm the state of the object scene and the composition of the recorded image by viewing the view image on the monitor 19.

(再生モードの説明)
図2は、第1実施形態における再生モードでの動作を示す流れ図である。図2の例では、上記の連写撮影モードで生成された記録画像の画像ファイルのうち、撮影時間が隣接する2つの画像ファイルを再生対象とする場合を前提として説明を行う。ここで、再生対象の各画像ファイルに含まれる記録画像はそれぞれ同一画素数の画像である。
(Description of playback mode)
FIG. 2 is a flowchart showing the operation in the reproduction mode in the first embodiment. In the example of FIG. 2, the description will be made on the premise that two image files having adjacent shooting times among the image files of the recorded images generated in the above-described continuous shooting mode are to be reproduced. Here, the recorded images included in each image file to be reproduced are images having the same number of pixels.

ステップS101:制御回路27は、記録I/F21を介して、記憶媒体29から再生対象の2つの画像ファイル(記録画像のデータ)をそれぞれ読み込む。なお、以後の説明では、再生対象の記録画像のうち、前に撮像された記録画像を第1画像と称する。また、後に撮像された記録画像を第2画像と称する。   Step S101: The control circuit 27 reads two image files to be reproduced (recorded image data) from the storage medium 29 via the recording I / F 21, respectively. In the following description, among the recorded images to be reproduced, the previously recorded image is referred to as a first image. A recorded image captured later is referred to as a second image.

ステップS102:制御回路27は、画像ファイルの付帯情報に基づいて、再生対象の記録画像がパンニング撮影(左右方向にカメラを振って撮像範囲をシフトさせる撮影)によるものか否かを判定する。   Step S102: The control circuit 27 determines whether or not the recorded image to be reproduced is based on panning shooting (shooting that shifts the imaging range by shaking the camera in the left-right direction) based on the supplementary information of the image file.

具体的には、制御回路27は、第1画像あるいは第2画像に対応する付帯情報の振れ量データを参照する。そして、制御回路27は、電子カメラに対する振動の周波数特性(振れの周波数の帯域、振れの角度のピークなど)に基づいて、パンニング撮影であるか否かを判定する。   Specifically, the control circuit 27 refers to the shake amount data of the incidental information corresponding to the first image or the second image. Then, the control circuit 27 determines whether or not the panning shooting is performed based on the frequency characteristics (vibration frequency band, shake angle peak, etc.) of vibration with respect to the electronic camera.

そして、パンニング撮影の場合(YES側)にはS103に移行する。一方、パンニング撮影ではない場合(NO側)にはS107に移行する。   In the case of panning shooting (YES side), the process proceeds to S103. On the other hand, if it is not panning shooting (NO side), the process proceeds to S107.

ステップS103:制御回路27は、第1画像および第2画像における撮像範囲の重複部分と非重複部分とをそれぞれ特定する。具体的には、制御回路27は、第1画像および第2画像のマッチング処理を実行する。そして、制御回路27は、2つの画像間で被写体の相関が閾値以上となる範囲を撮像範囲の重複部分として特定する。なお、以下の説明では、第1画像での撮像範囲の重複部分を第1領域S1と称する。また、第2画像での撮像範囲の重複部分を第1領域S2と称する。   Step S103: The control circuit 27 specifies an overlapping portion and a non-overlapping portion of the imaging range in the first image and the second image, respectively. Specifically, the control circuit 27 executes a matching process between the first image and the second image. Then, the control circuit 27 specifies a range in which the subject correlation between the two images is equal to or greater than the threshold as an overlapping portion of the imaging range. In the following description, the overlapping portion of the imaging range in the first image is referred to as a first region S1. In addition, the overlapping portion of the imaging range in the second image is referred to as a first region S2.

そして、制御回路27は、第1画像および第2画像において、撮像範囲の重複部分(第1領域S1,S2)を除いた残りの領域をそれぞれ非重複部分として特定する。なお、以下の説明では、第2画像での撮像範囲の非重複部分を第2領域Xと称する。また、第1画像での撮像範囲の非重複部分を第3領域Yと称する。   And the control circuit 27 specifies the remaining area | region except the overlap part (1st area | region S1, S2) of an imaging range as a non-overlapping part in a 1st image and a 2nd image, respectively. In the following description, a non-overlapping portion of the imaging range in the second image is referred to as a second region X. A non-overlapping portion of the imaging range in the first image is referred to as a third region Y.

ここで、S103での制御回路27は、振れ量データの示す振れの方向および大きさに基づいて、マッチング処理を行う範囲を決定してもよい。一例として、制御回路27は、振れの方向および大きさを所定の換算式で換算することで画像上での被写体移動量を求め、この被写体移動量に基づいてマッチング処理を行う範囲を決定する。   Here, the control circuit 27 in S103 may determine a range in which the matching process is performed based on the direction and magnitude of the shake indicated by the shake amount data. As an example, the control circuit 27 obtains a subject movement amount on the image by converting the direction and magnitude of the shake with a predetermined conversion formula, and determines a range for performing the matching process based on the subject movement amount.

ステップS104:制御回路27は、第1画像に含まれる第1領域S1と、第2画像に含まれる第1領域S2とに対して、それぞれ特徴点抽出処理を実行する。   Step S104: The control circuit 27 performs feature point extraction processing on each of the first region S1 included in the first image and the first region S2 included in the second image.

具体的には、制御回路27は、第1画像の第1領域S1と、第2画像の第1領域S2とからそれぞれエッジ成分を抽出し、例えば抽出したエッジの交点(コーナー)の位置を特徴点として求める。そして、制御回路27は、第1画像および第2画像での特徴点の位置を、第1メモリ17または第2メモリ26に記録する。なお、制御回路27は、ユーザーがモニタ19上で指定した点を特徴点として抽出するようにしてもよい。   Specifically, the control circuit 27 extracts edge components from each of the first region S1 of the first image and the first region S2 of the second image, and features, for example, the position of the intersection (corner) of the extracted edges. Find as a point. Then, the control circuit 27 records the position of the feature point in the first image and the second image in the first memory 17 or the second memory 26. Note that the control circuit 27 may extract points designated by the user on the monitor 19 as feature points.

ステップS105:制御回路27は、第1画像と第2画像との間で被写体の変化を補間する補間画像のうち、第1領域に対応する範囲の補間画像を部分的に生成する。ここで、補間画像の画素数は、第1画像および第2画像と同じ画素数に設定される。また、本実施形態での制御回路27は、被写体像の変形を伴う幾何学的なモーフィング処理や、被写体像が変形せずに移動するモーフィング処理を行って補間画像を生成する。   Step S105: The control circuit 27 partially generates an interpolated image in a range corresponding to the first area among the interpolated images for interpolating the change of the subject between the first image and the second image. Here, the number of pixels of the interpolation image is set to the same number of pixels as the first image and the second image. In addition, the control circuit 27 according to the present embodiment generates an interpolation image by performing a geometric morphing process involving deformation of the subject image or a morphing process in which the subject image moves without being deformed.

具体的には、制御回路27は、以下の(イ)から(ヘ)の手順で、第1領域に対応する補間画像を生成する。また、第1画像と第2画像との間に挿入される補間画像のフレーム数は、ユーザーの入力によって制御回路27が変更する。なお、以下の例では、簡単のため、第1画像と第2画像の間に2フレーム分の補間画像を挿入する場合について説明する。   Specifically, the control circuit 27 generates an interpolated image corresponding to the first region in the following procedures (a) to (f). Further, the number of frames of the interpolated image inserted between the first image and the second image is changed by the control circuit 27 according to user input. In the following example, for the sake of simplicity, a case will be described in which an interpolation image for two frames is inserted between the first image and the second image.

(イ)制御回路27は、第1画像の第1領域S1と、第2画像の第1領域S2とにそれぞれ含まれる特徴点の対応付けを行う。例えば、制御回路27は、上記2つの画像間で相互の特徴点のマッチング処理を実行して、各々の特徴点の対応関係を求める。   (A) The control circuit 27 associates feature points included in the first region S1 of the first image and the first region S2 of the second image, respectively. For example, the control circuit 27 executes a matching process of the feature points between the two images, and obtains a correspondence relationship between the feature points.

(ロ)制御回路27は、上記(イ)で対応付けした一対の特徴点の位置を空間方向に結ぶ関数(モーフィング動作における特徴点の移動軌跡)を求める。ここで、上記の関数は、一対の特徴点を直線で結ぶものであってもよく、あるいは一対の特徴点をスプライン曲線などで結ぶものであってもよい。なお、制御回路27は、第1画像と第2画像との間で対応付けができた全ての特徴点について上記の関数を求める。   (B) The control circuit 27 obtains a function (movement trajectory of the feature point in the morphing operation) that connects the positions of the pair of feature points associated in (a) in the spatial direction. Here, the above function may connect a pair of feature points with a straight line, or may connect a pair of feature points with a spline curve or the like. Note that the control circuit 27 obtains the above function for all feature points associated with each other between the first image and the second image.

(ハ)制御回路27は、上記(ロ)で求めた関数によって、第1領域に対応する補間画像での特徴点の位置を決定する。具体的には、制御回路27は、補間画像の挿入数に応じて上記の関数と一対の特徴点とで定義された区間を内分し、この内分点の位置を第1領域に対応する補間画像での特徴点の位置とする。   (C) The control circuit 27 determines the position of the feature point in the interpolated image corresponding to the first region by the function obtained in (b) above. Specifically, the control circuit 27 internally divides a section defined by the above function and a pair of feature points according to the number of interpolated images inserted, and the position of this internal dividing point corresponds to the first region. The position of the feature point in the interpolated image.

図3は、第1領域に対応する補間画像での特徴点の決定方法の一例を示す説明図である。図3の例では、第1画像の特徴点A,B,Cに対して、第2画像の特徴点D,E,Fがそれぞれ対応する。そして、第1特徴点A,Dを結ぶ一次関数の区間を3つに内分する点(G,J)の位置が、各々の補間画像における第1特徴点の位置となる。なお、補間画像における第2特徴点の位置(H,K)および第3特徴点の位置(I,L)についても、上記の第1特徴点の場合と同様の手順で求めることができる。   FIG. 3 is an explanatory diagram illustrating an example of a method for determining feature points in an interpolated image corresponding to the first region. In the example of FIG. 3, the feature points D, E, and F of the second image correspond to the feature points A, B, and C of the first image, respectively. The position of the point (G, J) that internally divides the section of the linear function connecting the first feature points A and D into three becomes the position of the first feature point in each interpolated image. Note that the position (H, K) of the second feature point and the position (I, L) of the third feature point in the interpolated image can be obtained in the same procedure as in the case of the first feature point.

(ニ)制御回路27は、第1領域に対応する補間画像において、特徴点以外の注目画素の位置をそれぞれ求める。具体的には、制御回路27は、第1画像(または第2画像)における注目画素の位置を特徴点を結ぶベクトルで定義する。そして、制御回路27は、上記のベクトルの定義に基づいて、補間画像上での注目画像の位置を求める。   (D) The control circuit 27 obtains the position of the pixel of interest other than the feature point in the interpolated image corresponding to the first region. Specifically, the control circuit 27 defines the position of the pixel of interest in the first image (or the second image) with a vector connecting feature points. Then, the control circuit 27 obtains the position of the target image on the interpolated image based on the above vector definition.

図4は、第1領域に対応する補間画像での注目画素の決定方法の一例を示す説明図である。   FIG. 4 is an explanatory diagram illustrating an example of a method of determining a target pixel in the interpolation image corresponding to the first region.

Figure 2009044329
Figure 2009044329

したがって、制御回路27は、第1領域に対応する補間画像での各々の注目画素の位置を、上記の方法で求めることができる。   Therefore, the control circuit 27 can obtain the position of each pixel of interest in the interpolated image corresponding to the first region by the above method.

(ホ)制御回路27は、第1領域に対応する補間画像での各画素の階調値の変化を求める。具体的には、第1に、制御回路27は、第1画像の第1領域S1と、第2画像の第1領域S2との間で対応関係を有する画素(注目画素)の階調値をそれぞれ求める。第2に、制御回路27は、2つの階調値の区間を補間画像の挿入数に応じて内分し、補間画像の第1領域における注目画素の階調値を求める。一例として、第1画像および第2画像で注目画素の階調値がそれぞれ130,136であるときに、制御回路27は、階調値130〜136の区間を3つに内分する点を求める。そして、制御回路27は、上記の内分点に対応する階調値(132,134)を、各々の補間画像の第1領域における注目画素の階調値とする。なお、制御回路27は、上記の階調値をRGBまたはYCbCrのそれぞれの値について求める。   (E) The control circuit 27 obtains a change in the gradation value of each pixel in the interpolated image corresponding to the first region. Specifically, first, the control circuit 27 sets the gradation value of a pixel (a target pixel) having a correspondence relationship between the first region S1 of the first image and the first region S2 of the second image. Ask for each. Second, the control circuit 27 internally divides the interval between the two gradation values according to the number of interpolation image insertions, and obtains the gradation value of the target pixel in the first region of the interpolation image. As an example, when the gradation value of the target pixel is 130 and 136 in the first image and the second image, the control circuit 27 obtains a point that internally divides the interval of the gradation values 130 to 136 into three. . Then, the control circuit 27 sets the gradation value (132, 134) corresponding to the above internal dividing point as the gradation value of the target pixel in the first region of each interpolated image. Note that the control circuit 27 obtains the gradation value for each value of RGB or YCbCr.

(ヘ)制御回路27は、上記の工程で生成された補間画像の第1領域のデータを、第1メモリ17または第2メモリ26にそれぞれ記録する。   (F) The control circuit 27 records the data of the first area of the interpolated image generated in the above process in the first memory 17 or the second memory 26, respectively.

ステップS106:制御回路27は、各々の補間画像のうち、第1領域に対して撮像範囲の移動先に位置する第2領域の画像と、第1領域に対して撮像範囲の移動元に位置する第3領域の画像とをそれぞれ生成する。なお、S106の処理後には、制御回路27はS109に移行する。   Step S106: The control circuit 27 is located in the second area image located at the movement destination of the imaging range with respect to the first area and the movement source of the imaging range with respect to the first area among the respective interpolation images. A third region image is generated. Note that after the processing of S106, the control circuit 27 proceeds to S109.

以下、図5を参照しつつ、第2領域および第3領域に対応する補間画像の生成方法を説明する。ここで、図5の例では、右方向から左方向にパンニングして連写撮影した場合について説明する。また、図5の例では、S105と同様に、第1画像と第2画像の間には2フレーム分の補間画像を挿入するものとする。   Hereinafter, a method for generating an interpolation image corresponding to the second region and the third region will be described with reference to FIG. Here, in the example of FIG. 5, a case will be described in which continuous shooting is performed by panning from the right to the left. In the example of FIG. 5, similarly to S <b> 105, two frames of interpolated images are inserted between the first image and the second image.

最初に、第2領域に対応する補間画像の生成方法について説明する。制御回路27は、第2画像の第2領域Xを切り出して、第2領域に対応する補間画像を生成する。具体的には、制御回路27は、第2画像の第2領域Xのうち、画像右側から水平方向に1/3までの範囲を切り出して1フレーム目の第2領域の補間画像を生成する。また、制御回路27は、第2画像の第2領域Xのうち、画像右側から水平方向に2/3までの範囲を切り出して2フレーム目の第2領域の補間画像を生成する。   First, a method for generating an interpolation image corresponding to the second region will be described. The control circuit 27 cuts out the second area X of the second image and generates an interpolation image corresponding to the second area. Specifically, the control circuit 27 cuts out a range from the right side of the image to 1/3 in the horizontal direction from the second region X of the second image to generate an interpolated image of the second region of the first frame. Further, the control circuit 27 cuts out a range from the right side of the image to 2/3 in the horizontal direction in the second region X of the second image to generate an interpolation image of the second region of the second frame.

次に、第3領域に対応する補間画像の生成方法について説明する。制御回路27は、第1画像の第3領域Yを切り出して、第3領域に対応する補間画像を生成する。具体的には、制御回路27は、第1画像の第3領域Yのうち、画像左側から水平方向に2/3までの範囲を切り出して1フレーム目の第3領域の補間画像を生成する。また、制御回路27は、第1画像の第3領域Yのうち、画像右側から水平方向に1/3までの範囲を切り出して2フレーム目の第3領域の補間画像を生成する。   Next, a method for generating an interpolation image corresponding to the third region will be described. The control circuit 27 cuts out the third area Y of the first image and generates an interpolation image corresponding to the third area. Specifically, the control circuit 27 cuts out a range from the left side of the image to 2/3 in the horizontal direction from the third region Y of the first image to generate an interpolation image of the third region of the first frame. Further, the control circuit 27 cuts out a range from the right side of the image to 1/3 in the horizontal direction in the third region Y of the first image to generate an interpolation image of the third region of the second frame.

そして、制御回路27は、1フレーム目の第1領域の補間画像の左側に、1フレーム目の第2領域の補間画像(第2領域Xの右側1/3の画像)を接続する。また、制御回路27は、1フレーム目の第1領域の補間画像の右側に、第3領域の補間画像(第3領域Yの左側2/3の画像)を接続する。   Then, the control circuit 27 connects the interpolation image of the second region of the first frame (the image of the right third of the second region X) to the left of the interpolation image of the first region of the first frame. Further, the control circuit 27 connects the interpolation image of the third region (the image of the left 2/3 of the third region Y) to the right side of the interpolation image of the first region of the first frame.

また、制御回路27は、2フレーム目の第1領域の補間画像の左側に、2フレーム目の第2領域の補間画像(第2領域Xの右側2/3の画像)を接続する。また、制御回路27は、2フレーム目の第1領域の補間画像の右側に、第3領域の補間画像(第3領域Yの左側1/3の画像)を接続する。   The control circuit 27 connects the interpolation image of the second area of the second frame (the image of the right side 2/3 of the second area X) of the second frame to the left side of the interpolation image of the first area of the second frame. Further, the control circuit 27 connects the interpolation image of the third region (the image of the left third of the third region Y) to the right side of the interpolation image of the first region of the second frame.

以上の方法によって、制御回路27は、第1画像および第2画像と同じサイズで2フレーム分の補間画像を生成する。図5に示すように、第1画像と、2フレーム分の補間画像と、第2画像とを比べると、第1領域に対応する範囲が左方向に所定量ずつシフトしていくことが分かる。そのため、補間画像を含めた複数の画像を動画として再生すると、撮像範囲が画面の左方向にパンしていく状況が再現されることとなる。   With the above method, the control circuit 27 generates an interpolation image for two frames with the same size as the first image and the second image. As shown in FIG. 5, when comparing the first image, the interpolated image for two frames, and the second image, it can be seen that the range corresponding to the first region is shifted by a predetermined amount in the left direction. For this reason, when a plurality of images including an interpolation image are reproduced as a moving image, a situation in which the imaging range pans leftward on the screen is reproduced.

ここで、上記した第2領域および第3領域での画像の切り出し量は、補間画像の挿入数に応じてその比率が変化する。一例として、nフレームの補間画像を挿入する場合には、制御回路27は、第2画像の第2領域Xのうち、画像右側から水平方向に1/(n+1)までの範囲を切り出して1フレーム目の第2領域の補間画像を生成する。また、制御回路27は、第1画像の第3領域Yのうち、画像左側から水平方向にn/(n+1)までの範囲を切り出して1フレーム目の第3領域の補間画像を生成する。   Here, the ratio of the cutout amount of the image in the second area and the third area changes according to the number of interpolation images inserted. As an example, when an n-frame interpolated image is inserted, the control circuit 27 cuts out a range from the right side of the image to the 1 / (n + 1) in the second region X of the second image in the horizontal direction. An interpolated image of the second region of the eye is generated. Further, the control circuit 27 cuts out a range from the left side of the image to n / (n + 1) in the horizontal direction from the third region Y of the first image to generate an interpolation image of the third region of the first frame.

また、S106において、第2画像の第1領域S2と第2領域Xとの境界を跨いだ共通被写体があるときに、制御回路27は、補間画像の第2領域に含まれる共通被写体を以下のように変形させてもよい。   In S106, when there is a common subject straddling the boundary between the first region S2 and the second region X of the second image, the control circuit 27 determines the common subject included in the second region of the interpolation image as follows. You may make it deform | transform.

まず、制御回路27は、第1画像の第1領域S1と第2画像の第1領域S2とから、上記の共通被写体に対応する特徴点を特定する。次に、制御回路27は、対応する特徴点を結ぶ関数(S105で求めたもの)から、第1画像から第2画像にかけての共通被写体の変化量を求める。そして、制御回路27は、上記の変化量に基づいて、各々の補間画像で第2領域の共通被写体の大きさを変化させる。   First, the control circuit 27 specifies a feature point corresponding to the common subject from the first region S1 of the first image and the first region S2 of the second image. Next, the control circuit 27 obtains the amount of change of the common subject from the first image to the second image from the function connecting the corresponding feature points (obtained in S105). Then, the control circuit 27 changes the size of the common subject in the second region in each interpolated image based on the above change amount.

一例として、図5において、第2画像の第1領域S2と第2領域Xとの境界を跨いだ共通被写体Zの場合を具体的に説明する。ここで、第1画像の第1領域S1には、共通被写体Zの特徴点BDが含まれている。また、第2画像の第1領域S2には、共通被写体Zの特徴点B’D’が含まれている。さらに、第2画像の第2領域Xには、共通被写体Zの特徴点A’C’が含まれている。   As an example, the case of the common subject Z straddling the boundary between the first region S2 and the second region X of the second image will be specifically described in FIG. Here, the feature point BD of the common subject Z is included in the first region S1 of the first image. In addition, the feature point B'D 'of the common subject Z is included in the first region S2 of the second image. Further, the second region X of the second image includes the feature point A′C ′ of the common subject Z.

(1)まず、制御回路27は、第1画像の特徴点BDの距離と、第2画像の特徴点B’D’の距離との変化量を上記の関数を用いて求める。(2)次に、制御回路27は、第1画像と第2画像との間で全ての特徴点の位置が上記の変化量に応じて変化するとみなして、各々の補間画像で特徴点A’C’に対応する仮想的な特徴点の位置を推定する。(3)そして、制御回路27は、上記の特徴点の位置に基づいて、第2領域に対応する補間画像をそれぞれモーフィングによって生成する。(4)その後、制御回路27は、上記(3)で生成した第2領域の補間画像を所定量切り出して、第1領域の補間画像と接続する。   (1) First, the control circuit 27 obtains the amount of change between the distance between the feature points BD of the first image and the distance between the feature points B′D ′ of the second image using the above function. (2) Next, the control circuit 27 considers that the positions of all feature points change between the first image and the second image in accordance with the amount of change described above, and the feature point A ′ in each interpolated image. The position of the virtual feature point corresponding to C ′ is estimated. (3) Then, the control circuit 27 generates an interpolated image corresponding to the second region by morphing based on the position of the feature point. (4) After that, the control circuit 27 cuts out a predetermined amount of the interpolated image of the second area generated in the above (3) and connects it to the interpolated image of the first area.

上記のように共通被写体を変形させた場合には、補間画像の第1領域と第2領域との境界で共通被写体がずれて接続されるおそれが低くなるので、より違和感の少ない補間画像が生成できるようになる。特に、第1画像と第2画像との間で光学的または電子的なズーミングがなされている場合や、連写撮影時にカメラに対して共通被写体が接近または離間する場合などにその効果が大きい。   When the common subject is deformed as described above, it is less likely that the common subject is shifted and connected at the boundary between the first region and the second region of the interpolated image, so that an interpolated image with less discomfort is generated. become able to. In particular, the effect is great when optical or electronic zooming is performed between the first image and the second image, or when a common subject approaches or separates from the camera during continuous shooting.

なお、第1画像の第1領域S1と第3領域Yとの境界を跨いだ共通被写体があるときにも、制御回路27は、補間画像の第3領域に含まれる共通被写体を上記の要領で変形できることはいうまでもない(この場合の図示は省略する)。   Even when there is a common subject straddling the boundary between the first region S1 and the third region Y of the first image, the control circuit 27 selects the common subject included in the third region of the interpolated image as described above. Needless to say, it can be deformed (illustration is omitted in this case).

ステップS107:制御回路27は、第1画像および第2画像のそれぞれ全領域を対象として特徴点抽出処理を実行する。なお、S107での特徴点抽出処理は、S104のものと共通するため重複説明を省略する。   Step S107: The control circuit 27 executes a feature point extraction process for the entire area of each of the first image and the second image. Note that the feature point extraction process in S107 is the same as that in S104, and thus a duplicate description is omitted.

ステップS108:制御回路27は、第1画像と第2画像との間で被写体の変化を補間する補間画像を生成する。なお、S108での補間画像の生成処理は、第1画像および第2画像の全領域を用いる点を除いて、S105のものと共通するため重複説明は省略する。   Step S108: The control circuit 27 generates an interpolated image for interpolating the change of the subject between the first image and the second image. Note that the interpolation image generation process in S108 is the same as that in S105 except that the entire area of the first image and the second image is used, and therefore a duplicate description is omitted.

ステップS109:制御回路27は、各々の補間画像のデータ(S106またはS108で生成されたもの)を第1メモリ17にバッファリングする。このとき、制御回路27は、生成した補間画像を記録I/F21を介して記憶媒体29に記録してもよい。   Step S109: The control circuit 27 buffers each interpolated image data (generated in S106 or S108) in the first memory 17. At this time, the control circuit 27 may record the generated interpolation image on the storage medium 29 via the recording I / F 21.

ステップS110:制御回路27は、データ処理回路16および表示制御回路18を介して、第1画像と、補間画像と、第2画像とを時系列に沿ってモニタ19で連続的に再生する。以上で、図2の流れ図の説明を終了する。   Step S110: The control circuit 27 continuously reproduces the first image, the interpolated image, and the second image on the monitor 19 in time series via the data processing circuit 16 and the display control circuit 18. Above, description of the flowchart of FIG. 2 is complete | finished.

以下、第1実施形態の作用効果を述べる。第1実施形態の電子カメラでは、パンニングを伴う連写撮影で生成された第1画像と第2画像とから補間画像を生成するときに、補間画像の重複部分は、第1画像および第2画像の重複部分(S1,S2)の変化量に基づいて生成する。一方、補間画像の非重複部分は、第2画像の非重複部分(X)と、第1画像の非重複部分(Y)とをそれぞれ切り出して生成する。そのため、2つの画像間で特徴点の対応付けが困難な領域では元となる画像を切り出して補間画像を生成するため、より違和感の少ない補間画像を生成できる。   Hereinafter, the operational effects of the first embodiment will be described. In the electronic camera according to the first embodiment, when the interpolation image is generated from the first image and the second image generated by the continuous shooting with panning, the overlapping portion of the interpolation image is the first image and the second image. Is generated based on the amount of change in the overlapping portion (S1, S2). On the other hand, the non-overlapping part of the interpolation image is generated by cutting out the non-overlapping part (X) of the second image and the non-overlapping part (Y) of the first image. For this reason, in an area where it is difficult to associate feature points between two images, an original image is cut out and an interpolated image is generated, so that an interpolated image with less discomfort can be generated.

<第2実施形態の説明>
図6は、第2実施形態の電子カメラの再生モードの動作を示す流れ図である。なお、第2実施形態での電子カメラの構成は、図1に示す第1実施形態の電子カメラと共通するので重複説明は省略する。
<Description of Second Embodiment>
FIG. 6 is a flowchart showing the operation of the playback mode of the electronic camera of the second embodiment. The configuration of the electronic camera in the second embodiment is the same as that of the electronic camera of the first embodiment shown in FIG.

ここで、図6の例では、上記の連写撮影モードで生成された記録画像の画像ファイルのうち、撮影時間が隣接する複数の画像ファイルを再生対象とする場合を前提として説明を行う。また、再生対象の各画像ファイルに含まれる記録画像はそれぞれ同一画素数の画像である。なお、以下の説明では、再生対象の記録画像を時系列の順にt0,t1,t2,・・・,tnと表記する。   Here, in the example of FIG. 6, the description will be made on the assumption that among the image files of the recorded images generated in the continuous shooting mode, a plurality of image files having adjacent shooting times are targeted for reproduction. The recorded images included in each image file to be reproduced are images having the same number of pixels. In the following description, recorded images to be reproduced are expressed as t0, t1, t2,.

ステップS201:制御回路27は、操作部材23を介して、画像ファイルの再生指示を受け付けたか否かを判定する。再生指示があった場合(YES側)にはS202に移行する。一方、再生指示がない場合(NO側)には、制御回路27は、再生指示があるまで待機する。   Step S201: The control circuit 27 determines whether or not an image file reproduction instruction has been received via the operation member 23. If there is a reproduction instruction (YES side), the process proceeds to S202. On the other hand, when there is no reproduction instruction (NO side), the control circuit 27 stands by until there is a reproduction instruction.

ステップS202:制御回路27は、操作部材23からのユーザーの入力に基づいて、各々の記録画像の間に挿入される補間画像のフレーム数を設定する。なお、以下の例では、2つの記録画像の間に2フレーム分の補間画像を挿入する場合を説明する。   Step S202: The control circuit 27 sets the number of interpolated image frames to be inserted between the respective recorded images based on the user input from the operation member 23. In the following example, a case where an interpolated image for two frames is inserted between two recorded images will be described.

ステップS203:制御回路27は、記録I/F21を介して、記憶媒体29から再生対象の画像ファイル(記録画像のデータ)をそれぞれ読み込む。   Step S203: The control circuit 27 reads an image file to be reproduced (recorded image data) from the storage medium 29 via the recording I / F 21.

ステップS204:制御回路27は、時間軸方向に隣接する2つの記録画像のフレームを対象として、2つのフレームの間で被写体の動きベクトルを求める。なお、S204での制御回路27は、t0〜tnまでの各々のフレーム区間全てでそれぞれ被写体の動きベクトルを求める。   Step S204: The control circuit 27 obtains the motion vector of the subject between the two frames for two frames of the recorded images adjacent in the time axis direction. Note that the control circuit 27 in S204 obtains the motion vector of the subject in each of the frame sections from t0 to tn.

具体的には、まず、制御回路27は、各々の記録画像(t0〜tn)の全領域を対象として特徴点抽出処理を実行する。この特徴点抽出処理は、第1実施形態のS104と共通するため重複説明を省略する。次に、制御回路27は、時間軸方向に隣接する2つの記録画像について各々の特徴点の対応付けを行なう。そして、制御回路27は、2つの記録画像のフレーム間における特徴点の動きから、そのフレーム区間での被写体の動きベクトルを求める。なお、上記の動きベクトルの算出処理は、パターンマッチングで求めるものであってもよい。   Specifically, first, the control circuit 27 executes feature point extraction processing for the entire area of each recorded image (t0 to tn). Since this feature point extraction process is common to S104 of the first embodiment, redundant description is omitted. Next, the control circuit 27 associates each feature point with respect to two recorded images adjacent in the time axis direction. Then, the control circuit 27 obtains the motion vector of the subject in the frame section from the motion of the feature points between the frames of the two recorded images. Note that the motion vector calculation process described above may be obtained by pattern matching.

ステップS205:制御回路27は、補間画像を生成するフレーム区間を時間軸に沿って指定する。   Step S205: The control circuit 27 designates a frame section for generating an interpolation image along the time axis.

ステップS206:制御回路27は、指定されたフレーム区間(S205)における注目被写体の動きベクトルの方向と、その直前のフレーム区間における注目被写体の動きベクトルの方向とを比較する。そして、制御回路27は、両者の動きベクトルの方向に閾値以上の変化が生じているか否かを判定する。なお、本実施形態での上記の閾値は、例えば、動きベクトルの方向に30°以上の変化がある場合に設定されている。   Step S206: The control circuit 27 compares the direction of the motion vector of the subject of interest in the designated frame section (S205) with the direction of the motion vector of the subject of interest in the immediately preceding frame section. Then, the control circuit 27 determines whether or not a change greater than or equal to the threshold value has occurred in the direction of both motion vectors. Note that the threshold value in the present embodiment is set when there is a change of 30 ° or more in the direction of the motion vector, for example.

動きベクトルの方向の変化が閾値以上の場合(YES側)にはS207に移行する。一方、動きベクトルの方向の変化が閾値未満の場合(NO側)にはS209に移行する。なお、指定されたフレーム区間が最初の記録画像t0を含む場合(すなわち、直前のフレーム区間がない場合)には、制御回路27はS206でNO側と判定してS209に処理を移行する。   If the change in the direction of the motion vector is greater than or equal to the threshold (YES side), the process proceeds to S207. On the other hand, if the change in the direction of the motion vector is less than the threshold (NO side), the process proceeds to S209. When the designated frame section includes the first recorded image t0 (that is, when there is no immediately preceding frame section), the control circuit 27 determines NO in S206 and proceeds to S209.

ステップS207:制御回路27は、指定されたフレーム区間(S205)における注目被写体の動きベクトルの方向と、その直後のフレーム区間における注目被写体の動きベクトルの方向とを比較する。そして、制御回路27は、両者の動きベクトルの方向に閾値以上の変化が生じているか否かを判定する。   Step S207: The control circuit 27 compares the direction of the motion vector of the subject of interest in the designated frame section (S205) with the direction of the motion vector of the subject of interest in the immediately following frame section. Then, the control circuit 27 determines whether or not a change greater than or equal to the threshold value has occurred in the direction of both motion vectors.

動きベクトルの方向の変化が閾値以上の場合(YES側)にはS208に移行する。一方、動きベクトルの方向の変化が閾値未満の場合(NO側)にはS209に移行する。なお、指定されたフレーム区間が最後の記録画像tnを含む場合(すなわち、直後のフレーム区間がない場合)には、制御回路27はS207でNO側と判定してS209に処理を移行する。   If the change in the direction of the motion vector is greater than or equal to the threshold (YES side), the process proceeds to S208. On the other hand, if the change in the direction of the motion vector is less than the threshold (NO side), the process proceeds to S209. When the designated frame section includes the last recorded image tn (that is, when there is no immediately following frame section), the control circuit 27 determines NO in S207 and moves the process to S209.

ステップS208:制御回路27は、指定されたフレーム区間(S205)で被写体の変化を補間する補間画像を、その前後のフレーム区間の動きベクトルを用いた外挿によって生成する。なお、S208の処理後には、制御回路27はS210に移行する。   Step S208: The control circuit 27 generates an interpolated image for interpolating subject changes in the designated frame section (S205) by extrapolation using the motion vectors of the preceding and following frame sections. Note that after the processing of S208, the control circuit 27 proceeds to S210.

図7は、S208での補間画像の生成方法を模式的に示す図である。図7では、注目被写体(ボール)が、指定されたフレーム区間(t2t3)で壁に衝突して跳ね返る例を説明する。なお、図7では、便宜上、各フレームでの注目被写体の空間的な位置変化を1つの画面上で表現している。   FIG. 7 is a diagram schematically illustrating the interpolation image generation method in S208. FIG. 7 illustrates an example in which a subject of interest (ball) rebounds by colliding with a wall in a designated frame section (t2t3). In FIG. 7, for the sake of convenience, the spatial position change of the subject of interest in each frame is represented on one screen.

まず、制御回路27は、指定されたフレーム区間(t2t3)に対して直前のフレーム区間(t1t2)で一対の特徴点の位置を空間方向に結ぶ関数を求める。また、制御回路27は、指定されたフレーム区間(t2t3)に対して直後のフレーム区間(t3t4)で一対の特徴点の位置を空間方向に結ぶ関数を求める。そして、制御回路27は、上記2つの関数を用いた外挿によって、指定されたフレーム区間(t2t3)における補間画像の特徴点の位置を決定する。一例として、制御回路27は、t1t2から求まる関数とt3t4から求まる関数との交点を通過してt2からt3に至る区間を求める。そして制御回路27は、上記の区間を補間画像の挿入数で内分して各々の補間画像での特徴点の位置を決定する。これにより、フレーム区間t2t3に挿入される補間画像のうち、補間画像t2a(フレーム区間t2t3に挿入される1フレーム目の補間画像)は直前のフレーム区間t1t2の動きベクトルにしたがってその位置が決定される。また、補間画像t2b(フレーム区間t2t3に挿入される2フレーム目の補間画像)は直後のフレーム区間t3t4の動きベクトルにしたがってその位置が決定される。   First, the control circuit 27 obtains a function that connects the positions of a pair of feature points in the spatial direction in the immediately preceding frame interval (t1t2) with respect to the designated frame interval (t2t3). In addition, the control circuit 27 obtains a function that connects the positions of the pair of feature points in the spatial direction in the immediately following frame section (t3t4) with respect to the designated frame section (t2t3). Then, the control circuit 27 determines the position of the feature point of the interpolation image in the designated frame section (t2t3) by extrapolation using the above two functions. As an example, the control circuit 27 obtains a section from t2 to t3 through an intersection of a function obtained from t1t2 and a function obtained from t3t4. Then, the control circuit 27 internally divides the above interval by the number of interpolation image insertions, and determines the position of the feature point in each interpolation image. Thereby, among the interpolation images inserted in the frame interval t2t3, the position of the interpolation image t2a (the first frame interpolation image inserted in the frame interval t2t3) is determined according to the motion vector of the immediately preceding frame interval t1t2. . Further, the position of the interpolated image t2b (the interpolated image of the second frame inserted into the frame section t2t3) is determined according to the motion vector of the immediately subsequent frame section t3t4.

また、S208での制御回路27は、補間画像における特徴点以外の注目画素の位置や、各画素の階調値の変化について、第1実施形態のS105の方法を用いて求める。   Further, the control circuit 27 in S208 obtains the position of the pixel of interest other than the feature point in the interpolated image and the change in the gradation value of each pixel using the method in S105 of the first embodiment.

ステップS209:制御回路27は、指定されたフレーム区間(S205)で被写体の変化を補間する補間画像を、そのフレーム区間の動きベクトルを用いた内挿によって生成する。なお、S209での補間画像の生成処理は、第1実施形態のS105とほぼ共通するため重複説明は省略する。   Step S209: The control circuit 27 generates an interpolated image for interpolating the change of the subject in the designated frame section (S205) by interpolation using the motion vector of the frame section. Note that the interpolation image generation processing in S209 is substantially the same as S105 in the first embodiment, and thus a duplicate description is omitted.

ステップS210:制御回路27は、各々の補間画像のデータ(S208またはS209で生成されたもの)を第1メモリ17にバッファリングする。このとき、制御回路27は、生成した補間画像を記録I/F21を介して記憶媒体29に記録してもよい。   Step S210: The control circuit 27 buffers each interpolation image data (generated in S208 or S209) in the first memory 17. At this time, the control circuit 27 may record the generated interpolation image on the storage medium 29 via the recording I / F 21.

ステップS211:制御回路27は、指定されたフレーム区間(S205)が最後のフレーム区間であるか否かを判定する。上記要件を満たす場合(YES側)にはS212に移行する。一方、上記要件を満たさない場合(NO側)にはS205に戻って、制御回路27は上記動作を繰り返す。これにより、各々のフレーム区間で順次補間画像が生成されることとなる。   Step S211: The control circuit 27 determines whether or not the designated frame section (S205) is the last frame section. If the above requirement is satisfied (YES side), the process proceeds to S212. On the other hand, if the above requirement is not satisfied (NO side), the process returns to S205, and the control circuit 27 repeats the above operation. Thereby, an interpolation image is sequentially generated in each frame section.

ステップS212:制御回路27は、データ処理回路16および表示制御回路18を介して、記録画像および補間画像を時系列に沿ってモニタ19で連続的に再生する。以上で、図7の流れ図の説明を終了する。   Step S212: The control circuit 27 continuously reproduces the recorded image and the interpolated image on the monitor 19 in time series via the data processing circuit 16 and the display control circuit 18. Above, description of the flowchart of FIG. 7 is complete | finished.

以下、第2実施形態の作用効果を述べる。第2実施形態の電子カメラでは、記録画像の間で注目被写体の動きが急激に変化している場合には、その前後のフレームの動きベクトルを用いた外挿で補間画像を生成する。一例として、図7において、フレーム区間t2t3の動きベクトルの内挿によるとボールが壁の手前で急に折り返すような補間画像が生成されるが、本実施形態の補間画像ではボールがt2,t3の位置よりも壁に近づくため、注目被写体の挙動がより自然な補間画像を生成することができる。   Hereinafter, the operational effects of the second embodiment will be described. In the electronic camera of the second embodiment, when the movement of the subject of interest changes abruptly between recorded images, an interpolation image is generated by extrapolation using the motion vectors of the previous and subsequent frames. As an example, in FIG. 7, the interpolation of the motion vector in the frame interval t2t3 generates an interpolated image in which the ball suddenly turns back in front of the wall, but in the interpolated image of this embodiment, the ball has t2 and t3. Since the object is closer to the wall than the position, an interpolation image in which the behavior of the subject of interest is more natural can be generated.

(実施形態の補足事項)
(1)上記実施形態の電子カメラでは、位相差AFモジュールを撮像素子13とは別に設け、コントラスト方式のAF動作に加えてさらに公知の瞳分割による位相差AF動作を行うようにしてもよい。また、上記実施形態では、撮像素子13の出力に基づいてAE演算を行う例を説明したが、撮像素子13とは別にAE演算用の測光素子を設けてもよい。
(Supplementary items of the embodiment)
(1) In the electronic camera of the above-described embodiment, a phase difference AF module may be provided separately from the imaging device 13 and a phase difference AF operation by a known pupil division may be performed in addition to a contrast type AF operation. In the above-described embodiment, an example in which AE calculation is performed based on the output of the image sensor 13 has been described. However, a photometric element for AE calculation may be provided separately from the image sensor 13.

(2)上記実施形態では、記録画像のデータから補間画像を生成する例を説明した。しかし、上記実施形態において、例えば、記録画像のデータと、モニタ19の表示サイズ以下に設定されたビュー画像のデータとがグループ化されて記憶媒体29に記録されるときに、制御回路27は、上記のビュー画像のデータを優先的に選択して、このビュー画像のデータから補間画像を生成するようにしてもよい。   (2) In the above embodiment, the example in which the interpolation image is generated from the data of the recording image has been described. However, in the above-described embodiment, for example, when the recorded image data and the view image data set to be smaller than the display size of the monitor 19 are grouped and recorded in the storage medium 29, the control circuit 27 The view image data may be preferentially selected, and an interpolation image may be generated from the view image data.

(3)上記の第1実施形態では、パンニングを伴う連写撮影で生成された画像ファイルを用いる例を説明した。しかし、上下方向にカメラを振って撮像範囲をシフトさせるティルト撮影の場合や、カメラを水平移動させて撮像範囲をシフトさせる場合(いわゆるトラック動作の場合)にも、本発明を同様に適用できる。   (3) In the first embodiment described above, an example in which an image file generated by continuous shooting with panning is used has been described. However, the present invention can be similarly applied to tilt shooting in which the imaging range is shifted by shaking the camera in the vertical direction, or in the case where the imaging range is shifted by moving the camera horizontally (so-called track operation).

(4)上記実施形態では電子カメラの制御回路27が合成画像の生成などを行う例を説明したが、例えば、電子カメラと接続された外部装置30(パーソナルコンピュータなど)が、上記実施形態の制御回路27の処理を実行してもよい。また、上記実施形態で電子カメラの制御回路27が実行する処理の一部を外部装置30に負担させて、電子カメラと外部装置30とを協働させて上記の第1実施形態または第2実施形態で説明したアルゴリズムを実現してもよい。   (4) In the above embodiment, an example in which the control circuit 27 of the electronic camera generates a composite image has been described. For example, an external device 30 (such as a personal computer) connected to the electronic camera controls the control of the above embodiment. The processing of the circuit 27 may be executed. In addition, in the above embodiment, a part of the processing executed by the control circuit 27 of the electronic camera is borne by the external device 30, and the electronic camera and the external device 30 cooperate with each other to perform the first embodiment or the second embodiment. You may implement | achieve the algorithm demonstrated by the form.

なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   It should be noted that the present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

第1実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of 1st Embodiment. 第1実施形態における再生モードでの動作を示す流れ図Flow chart showing the operation in the playback mode in the first embodiment 第1領域に対応する補間画像での特徴点の決定方法の一例を示す説明図Explanatory drawing which shows an example of the determination method of the feature point in the interpolation image corresponding to a 1st area | region. 第1領域に対応する補間画像での注目画素の決定方法の一例を示す説明図Explanatory drawing which shows an example of the determination method of the attention pixel in the interpolation image corresponding to a 1st area | region. 第2領域および第3領域に対応する補間画像の生成方法を模式的に示す図The figure which shows typically the production | generation method of the interpolation image corresponding to a 2nd area | region and a 3rd area | region. 第2実施形態の電子カメラの再生モードの動作を示す流れ図Flowchart showing the operation of the playback mode of the electronic camera of the second embodiment S208での補間画像の生成方法を模式的に示す図The figure which shows typically the production | generation method of the interpolation image in S208

符号の説明Explanation of symbols

19…モニタ、21…記録I/F、22…通信I/F、23…操作部材、27…制御回路、29…記憶媒体、30…外部装置
DESCRIPTION OF SYMBOLS 19 ... Monitor, 21 ... Recording I / F, 22 ... Communication I / F, 23 ... Operation member, 27 ... Control circuit, 29 ... Storage medium, 30 ... External device

Claims (10)

画像のデータを読み込むデータ読込部と、演算部とを有するコンピュータに対して、
撮像装置で撮像された第1画像のデータと、前記第1画像の撮像範囲と一部重複するように前記撮像装置の撮像範囲を移動させた状態で前記第1画像の後に撮像された第2画像のデータとを前記データ読込部により前記演算部に読み込む第1ステップと、
前記第1画像および前記第2画像における前記撮像範囲の重複部分と非重複部分とをそれぞれ特定する第2ステップと、
前記第1画像および前記第2画像の間で被写体の変化を補間する補間画像のうち、前記重複部分に対応する第1領域の画像を、前記第1画像の前記重複部分と前記第2画像の前記重複部分との画像の変化量に基づいて生成する第3ステップと、
前記補間画像のうち、前記第1領域に対して前記撮像範囲の移動先に位置する第2領域の画像を、前記第2画像の前記非重複部分を切り出して生成する第4ステップと、
前記第1領域の画像に前記第2領域の画像を接続して前記補間画像を生成する第5ステップと、
を前記演算部に実行させることを特徴とするプログラム。
For a computer having a data reading unit for reading image data and a calculation unit,
The second image captured after the first image in a state where the imaging range of the imaging device is moved so as to partially overlap the imaging range of the first image and the data of the first image captured by the imaging device A first step of reading image data into the calculation unit by the data reading unit;
A second step of identifying each of an overlapping portion and a non-overlapping portion of the imaging range in the first image and the second image;
Of the interpolated images that interpolate the change of the subject between the first image and the second image, the image of the first region corresponding to the overlapping portion is represented by the overlapping portion of the first image and the second image. A third step of generating based on the amount of change in the image with the overlapping portion;
A fourth step of generating, in the interpolated image, an image of a second region located at a destination of the imaging range with respect to the first region by cutting out the non-overlapping portion of the second image;
A fifth step of generating the interpolated image by connecting the image of the second region to the image of the first region;
Is executed by the calculation unit.
請求項1に記載のプログラムにおいて、
前記補間画像のうち、前記第1領域に対して前記撮像範囲の移動元に位置する第3領域の画像を、前記第1画像の前記非重複部分を切り出して生成する第6ステップを前記演算部がさらに実行し、
前記第5ステップにて、前記第1領域の画像に前記第3領域の画像をさらに接続して前記補間画像を生成することを特徴とするプログラム。
The program according to claim 1,
Sixth step of generating an image of a third region located at a source of movement of the imaging range with respect to the first region in the interpolated image by cutting out the non-overlapping portion of the first image. Runs further,
In the fifth step, the interpolation image is generated by further connecting the image of the third region to the image of the first region.
請求項1または請求項2に記載のプログラムにおいて、
前記第1画像および前記第2画像の少なくとも一方に前記重複部分と前記非重複部分とを跨いだ共通被写体があるときに、前記第2領域および前記第3領域の少なくとも一方に含まれる前記共通被写体を、前記第1画像および前記第2画像の各々の前記重複部分から求めた前記共通被写体の変化量に基づいて変形させる第7ステップを前記演算部がさらに実行することを特徴とするプログラム。
In the program according to claim 1 or 2,
The common subject included in at least one of the second region and the third region when there is a common subject straddling the overlapping portion and the non-overlapping portion in at least one of the first image and the second image The calculation unit further executes a seventh step of deforming the image based on the amount of change of the common subject obtained from the overlapping portion of each of the first image and the second image.
請求項1から請求項3のいずれか1項に記載のプログラムにおいて、
前記第1画像、前記補間画像および前記第2画像を連続的に再生する第8ステップを前記演算部がさらに実行することを特徴とするプログラム。
In the program according to any one of claims 1 to 3,
The computer program further includes an eighth step of continuously reproducing the first image, the interpolated image, and the second image.
少なくとも1以上のコンピュータを用いた画像処理方法であって、
撮像装置で撮像された第1画像のデータと、前記第1画像の撮像範囲と一部重複するように前記撮像装置の撮像範囲を移動させた状態で前記第1画像の後に撮像された第2画像のデータとを前記コンピュータが読み込む第1ステップと、
前記第1画像および前記第2画像における前記撮像範囲の重複部分と非重複部分とを前記コンピュータがそれぞれ特定する第2ステップと、
前記第1画像および前記第2画像の間で被写体の変化を補間する補間画像のうち、前記重複部分に対応する第1領域の画像を、前記第1画像の前記重複部分と前記第2画像の前記重複部分との画像の変化量に基づいて前記コンピュータが生成する第3ステップと、
前記補間画像のうち、前記第1領域に対して前記撮像範囲の移動先に位置する第2領域の画像を、前記第2画像の前記非重複部分を切り出して前記コンピュータが生成する第4ステップと、
前記第1領域の画像に前記第2領域の画像を接続して前記コンピュータが前記補間画像を生成する第5ステップと、
を備えることを特徴とする画像処理方法。
An image processing method using at least one computer,
The second image captured after the first image in a state where the imaging range of the imaging device is moved so as to partially overlap the imaging range of the first image and the data of the first image captured by the imaging device A first step for the computer to read image data;
A second step in which the computer specifies an overlapping portion and a non-overlapping portion of the imaging range in the first image and the second image,
Of the interpolated images that interpolate the change of the subject between the first image and the second image, the image of the first region corresponding to the overlapping portion is represented by the overlapping portion of the first image and the second image. A third step generated by the computer based on the amount of change in the image with the overlapping portion;
A fourth step in which the computer generates an image of a second area located at a destination of the imaging range with respect to the first area in the interpolated image by cutting out the non-overlapping portion of the second image; ,
A fifth step in which the computer generates the interpolated image by connecting the image of the second region to the image of the first region;
An image processing method comprising:
撮像装置で撮像された第1画像のデータと、前記第1画像の撮像範囲と一部重複するように前記撮像装置の撮像範囲を移動させた状態で前記第1画像の後に撮像された第2画像のデータとを読み込むデータ読込部と、
前記第1画像および前記第2画像における前記撮像範囲の重複部分と非重複部分とをそれぞれ特定する画像解析部と、
前記第1画像および前記第2画像の間で被写体の変化を補間する補間画像のうち、前記重複部分に対応する第1領域の画像を、前記第1画像の前記重複部分と前記第2画像の前記重複部分との画像の変化量に基づいて生成する第1演算部と、
前記補間画像のうち、前記第1領域に対して前記撮像範囲の移動先に位置する第2領域の画像を、前記第2画像の前記非重複部分を切り出して生成する第2演算部と、
前記第1領域の画像に前記第2領域の画像を接続して前記補間画像を生成する画像接続部と、
を備えることを特徴とする画像処理装置。
The second image captured after the first image in a state where the imaging range of the imaging device is moved so as to partially overlap the imaging range of the first image and the data of the first image captured by the imaging device A data reading unit for reading image data;
An image analysis unit that respectively identifies an overlapping portion and a non-overlapping portion of the imaging range in the first image and the second image;
Of the interpolated images that interpolate the change of the subject between the first image and the second image, the image of the first region corresponding to the overlapping portion is represented by the overlapping portion of the first image and the second image. A first calculation unit that generates based on an image change amount with the overlapping portion;
A second calculation unit that generates an image of a second region located at a movement destination of the imaging range with respect to the first region of the interpolated image by cutting out the non-overlapping portion of the second image;
An image connecting unit that connects the image of the second region to the image of the first region to generate the interpolated image;
An image processing apparatus comprising:
画像のデータを読み込むデータ読込部と、演算部とを有するコンピュータに対して、
注目被写体を連続的に撮像した複数フレームの画像データ群を前記データ読込部により前記演算部に読み込む第1ステップと、
撮像時点が隣接する2つのフレームを用いて、前記画像データ群の複数のフレームにおける各フレーム区間毎に前記注目被写体の動きベクトルを求める第2ステップと、
各々が時間的に連続する第1フレーム区間および第2フレーム区間を抽出し、前の前記第1フレーム区間の前記動きベクトルに対して、後の前記第2フレーム区間の前記動きベクトルの方向の変化が閾値未満であるかを判定する第3ステップと、
前記第3ステップで閾値未満の変化と判定されたときに、前記第2フレーム区間の前記動きベクトルを用いた内挿によって、前記第2フレーム区間で前記注目被写体の変化を補間する補間画像を生成する第4ステップと、
前記第3ステップで閾値以上の変化と判定されたときに、前記第2フレーム区間に前後する少なくとも一方の前記フレーム区間の前記動きベクトルを用いた外挿によって、前記第2フレーム区間で前記注目被写体の変化を補間する補間画像を生成する第5ステップと、
を前記演算部に実行させることを特徴とするプログラム。
For a computer having a data reading unit for reading image data and a calculation unit,
A first step of reading, by the data reading unit, a plurality of frames of image data groups obtained by continuously capturing the subject of interest into the calculation unit;
A second step of obtaining a motion vector of the subject of interest for each frame section in a plurality of frames of the image data group using two frames at which the imaging time points are adjacent;
A first frame section and a second frame section, each of which is temporally continuous, are extracted, and a change in the direction of the motion vector in the subsequent second frame section with respect to the motion vector in the previous first frame section A third step of determining whether is less than a threshold;
When it is determined in the third step that the change is less than the threshold value, an interpolation image is generated that interpolates the change of the subject of interest in the second frame section by interpolation using the motion vector of the second frame section. And a fourth step
When it is determined in the third step that the change is greater than or equal to the threshold, the subject of interest in the second frame section is extrapolated using the motion vector of at least one of the frame sections preceding and following the second frame section. A fifth step of generating an interpolated image for interpolating the change of
Is executed by the calculation unit.
請求項7に記載のプログラムにおいて、
前記第2フレーム区間の2つのフレームの間に前記補間画像を挿入して画像を連続的に再生する第6ステップを前記演算部がさらに実行することを特徴とするプログラム。
The program according to claim 7,
The program, wherein the arithmetic unit further executes a sixth step of inserting the interpolated image between two frames of the second frame section and continuously reproducing the image.
少なくとも1以上のコンピュータを用いた画像処理方法であって、
注目被写体を連続的に撮像した複数フレームの画像データ群を前記コンピュータが読み込む第1ステップと、
撮像時点が隣接する2つのフレームを用いて、前記画像データ群の複数のフレームにおける各フレーム区間毎に前記注目被写体の動きベクトルを前記コンピュータが求める第2ステップと、
各々が時間的に連続する第1フレーム区間および第2フレーム区間を抽出し、前の前記第1フレーム区間の前記動きベクトルに対して、後の前記第2フレーム区間の前記動きベクトルの方向の変化が閾値未満であるかを前記コンピュータが判定する第3ステップと、
前記第3ステップで閾値未満の変化と判定されたときに、前記第2フレーム区間の前記動きベクトルを用いた内挿によって、前記第2フレーム区間で前記注目被写体の変化を補間する補間画像を前記コンピュータが生成する第4ステップと、
前記第3ステップで閾値以上の変化と判定されたときに、前記第2フレーム区間に前後する少なくとも一方の前記フレーム区間の前記動きベクトルを用いた外挿によって、前記第2フレーム区間で前記注目被写体の変化を補間する補間画像を前記コンピュータが生成する第5ステップと、
を備えることを特徴とする画像処理方法。
An image processing method using at least one computer,
A first step in which the computer reads a plurality of frames of image data obtained by continuously capturing a target object;
A second step in which the computer obtains a motion vector of the subject of interest for each frame section in a plurality of frames of the image data group, using two frames at which imaging points are adjacent;
A first frame section and a second frame section, each of which is temporally continuous, are extracted, and a change in the direction of the motion vector in the subsequent second frame section with respect to the motion vector in the previous first frame section A third step by which the computer determines if is less than a threshold;
When it is determined that the change is less than the threshold in the third step, an interpolation image that interpolates the change of the subject of interest in the second frame section is obtained by interpolation using the motion vector of the second frame section. A fourth step generated by a computer;
When it is determined in the third step that the change is equal to or greater than the threshold value, the subject of interest in the second frame section is extrapolated using the motion vector of at least one of the frame sections preceding and following the second frame section. A fifth step in which the computer generates an interpolated image for interpolating the change of
An image processing method comprising:
注目被写体を連続的に撮像した複数フレームの画像データ群を読み込むデータ読込部と、
撮像時点が隣接する2つのフレームを用いて、前記画像データ群の複数のフレームにおける各フレーム区間毎に前記注目被写体の動きベクトルを求める動きベクトル演算部と、
各々が時間的に連続する第1フレーム区間および第2フレーム区間を抽出し、前の前記第1フレーム区間の前記動きベクトルに対して、後の前記第2フレーム区間の前記動きベクトルの方向の変化が閾値未満であるかを判定する判定部と、
前記注目被写体の変化を補間する補間画像を生成する画像処理部と、を備え、
前記画像処理部は、前記判定部が閾値未満の変化と判定したときに、前記第2フレーム区間の前記動きベクトルを用いた内挿によって、前記第2フレーム区間の前記補間画像を生成し、前記判定部が閾値以上の変化と判定したときに、前記第2フレーム区間に前後する少なくとも一方の前記フレーム区間の前記動きベクトルを用いた外挿によって、前記第2フレーム区間の前記補間画像を生成することを特徴とする画像処理装置。

A data reading unit that reads a plurality of frames of image data obtained by continuously capturing the subject of interest;
A motion vector computing unit that obtains a motion vector of the subject of interest for each frame section in a plurality of frames of the image data group using two frames at which imaging points are adjacent;
A first frame section and a second frame section, each of which is temporally continuous, are extracted, and a change in the direction of the motion vector in the subsequent second frame section with respect to the motion vector in the previous first frame section A determination unit that determines whether is less than a threshold value;
An image processing unit that generates an interpolated image for interpolating the change of the subject of interest,
The image processing unit generates the interpolated image of the second frame section by interpolation using the motion vector of the second frame section when the determination unit determines that the change is less than a threshold, When the determination unit determines that the change is greater than or equal to the threshold, the interpolated image of the second frame section is generated by extrapolation using the motion vector of at least one of the frame sections before and after the second frame section. An image processing apparatus.

JP2007205679A 2007-08-07 2007-08-07 Program, image processing method, and image processor Withdrawn JP2009044329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007205679A JP2009044329A (en) 2007-08-07 2007-08-07 Program, image processing method, and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007205679A JP2009044329A (en) 2007-08-07 2007-08-07 Program, image processing method, and image processor

Publications (1)

Publication Number Publication Date
JP2009044329A true JP2009044329A (en) 2009-02-26

Family

ID=40444612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007205679A Withdrawn JP2009044329A (en) 2007-08-07 2007-08-07 Program, image processing method, and image processor

Country Status (1)

Country Link
JP (1) JP2009044329A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010233001A (en) * 2009-03-27 2010-10-14 Casio Computer Co Ltd Image compositing apparatus, image reproducing apparatus, and program
JP2011118825A (en) * 2009-12-07 2011-06-16 Yamazaki Co Ltd Device for coloring monochrome moving picture, and method for coloring monochrome moving picture
JP2013098750A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Image processing apparatus, image processing method, image processing program
JP2015056695A (en) * 2013-09-10 2015-03-23 株式会社東芝 Moving image reproducing device
JP2016054524A (en) * 2015-11-18 2016-04-14 株式会社ニコン Program and display device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010233001A (en) * 2009-03-27 2010-10-14 Casio Computer Co Ltd Image compositing apparatus, image reproducing apparatus, and program
JP2011118825A (en) * 2009-12-07 2011-06-16 Yamazaki Co Ltd Device for coloring monochrome moving picture, and method for coloring monochrome moving picture
JP2013098750A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Image processing apparatus, image processing method, image processing program
JP2015056695A (en) * 2013-09-10 2015-03-23 株式会社東芝 Moving image reproducing device
US9485453B2 (en) 2013-09-10 2016-11-01 Kabushiki Kaisha Toshiba Moving image player device
JP2016054524A (en) * 2015-11-18 2016-04-14 株式会社ニコン Program and display device

Similar Documents

Publication Publication Date Title
JP4479829B2 (en) Imaging apparatus and imaging method
US20130063555A1 (en) Image processing device that combines a plurality of images
JP5202211B2 (en) Image processing apparatus and electronic apparatus
JP4483501B2 (en) Image processing apparatus, program, and method for performing preprocessing for reproducing still image as moving picture
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP2009147727A (en) Imaging apparatus and image reproducing device
US20120105577A1 (en) Panoramic image generation device and panoramic image generation method
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP2015053741A (en) Image reproduction device
JP6261205B2 (en) Image processing device
JP4742813B2 (en) Image processing apparatus and image processing method
JP5125294B2 (en) Program, image processing apparatus, imaging apparatus, and image processing method
JP2009044329A (en) Program, image processing method, and image processor
JP5402242B2 (en) Image reproduction apparatus, imaging apparatus, image reproduction method, and image reproduction program
JP5126392B2 (en) REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM
JP5402166B2 (en) Image composition apparatus and program
JP2010021710A (en) Imaging device, image processor, and program
JP5267279B2 (en) Image composition apparatus and program
JP5217709B2 (en) Image processing apparatus and imaging apparatus
JP4665826B2 (en) Imaging apparatus and image processing program
JP4967938B2 (en) Program, image processing apparatus, and image processing method
JP2009049457A (en) Imaging device and program
JP5476900B2 (en) Image composition apparatus, image composition method, and program
JP2010045619A (en) Image reproducing device, imaging apparatus, image reproduction method, image reproduction program
JP5041050B2 (en) Imaging apparatus and image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101102