JP2006080844A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2006080844A
JP2006080844A JP2004262157A JP2004262157A JP2006080844A JP 2006080844 A JP2006080844 A JP 2006080844A JP 2004262157 A JP2004262157 A JP 2004262157A JP 2004262157 A JP2004262157 A JP 2004262157A JP 2006080844 A JP2006080844 A JP 2006080844A
Authority
JP
Japan
Prior art keywords
image data
image
electronic camera
unit
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004262157A
Other languages
Japanese (ja)
Inventor
Toru Sugiura
徹 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004262157A priority Critical patent/JP2006080844A/en
Publication of JP2006080844A publication Critical patent/JP2006080844A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera capable of providing a sufficient panning effect without imposing a large burden on a user after photographing and regardless of an exposure condition for photographing time. <P>SOLUTION: The electronic camera has an imaging part for generating a plurality of pieces of image data by consecutive photographing, a movement detecting part and a panning effect imparting part. The movement detecting part uses at least any of the image data as a comparison target to thereby acquire movement information of an object in an image shown by image data later than the image data of the comparison target in photographing time. The panning effect imparting part distinguishes a main object from a background in the image shown by the image data and applies image processing for increasing a blurring amount of the background to the image data to thereby generate corrected image data. Thus, an image with a panning effect can be automatically produced regardless of the exposure condition for photographing time and without requesting operations of the user after photographing. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は電子カメラに関し、特に、流し撮りに関する。   The present invention relates to an electronic camera, and more particularly to panning.

電子カメラを使用して流し撮りを行う場合、通常、主要被写体の動いている方向に合わせて撮影者が電子カメラを振りながら撮影することになる。そのようにすれば、撮像画像における主要被写体以外の部分では、電子カメラを振った方向に隣接する画素間の差分が小さくなり、主要被写体の躍動感を演出できる(以下、流し撮り効果という)。流し撮りの際のシャッタースピードは、通常、躍動感を出すために一般撮影の場合より遅くされる。実際にどの程度のシャッタースピードが適切であるかは、主要被写体の運動速度により様々である。従って、十分な流し撮り効果が得られるように設定することは、熟練していないユーザにとっては容易ではなかった。   When panning is performed using an electronic camera, the photographer usually shoots while shaking the electronic camera in accordance with the direction in which the main subject is moving. By doing so, in a portion other than the main subject in the captured image, the difference between adjacent pixels in the direction in which the electronic camera is shaken is reduced, and a lively feeling of the main subject can be produced (hereinafter referred to as a panning effect). The shutter speed at the time of panning is usually made slower than that at the time of general shooting in order to bring out a lively feeling. The appropriate shutter speed in practice varies depending on the motion speed of the main subject. Therefore, it is not easy for an unskilled user to set so as to obtain a sufficient panning effect.

そこで、特許文献1は、十分な流し撮り効果が得られるシャッタースピードTを自動設定している。具体的には、センサにより検出されるカメラの角速度と、焦点距離との積により、フィルム面上における背景の流れ速度Vを求めている。そして、『希望する背景の流れ量L』を『背景の流れ速度V』で割った値を『シャッタースピードT』としている。この場合、主要被写体に対する背景の流れ量は一定になるので、常に決まった流し撮り効果が得られる。
特開平5−232562号公報
Therefore, Patent Document 1 automatically sets a shutter speed T at which a sufficient panning effect is obtained. Specifically, the flow velocity V of the background on the film surface is obtained from the product of the angular velocity of the camera detected by the sensor and the focal length. A value obtained by dividing “desired background flow amount L” by “background flow velocity V” is defined as “shutter speed T”. In this case, the flow amount of the background with respect to the main subject is constant, so that a constant panning effect is always obtained.
JP-A-5-232562

特許文献1の発明は、上述のように優れた作用効果を有している。しかし、実際の流し撮り撮影では、シャッタースピード等の露出条件に制約がかかる場合が想定される。例えば、周囲が明るいために、シャッタースピードを十分に遅くできないことが考えられる。従って、撮影時の露出条件に拘らずに十分な流し撮り効果を得る方法が望まれていた。
なお、撮影後において、ユーザ自身が撮像画像に画像処理を施すことにより、流し撮り効果を得る方法もある。この方法は、撮像画像において主要被写体と背景とを分離する作業と、背景においてのみ隣接画素間の差分を小さくする作業とが必要になる。このような作業は、熟練していないユーザにとっては必ずしも容易ではなく、作業負担が大きい。
The invention of Patent Document 1 has excellent operational effects as described above. However, in actual panning shooting, there may be a case where exposure conditions such as shutter speed are restricted. For example, the shutter speed cannot be sufficiently slow because the surroundings are bright. Therefore, a method for obtaining a sufficient panning effect regardless of the exposure condition at the time of photographing has been desired.
There is also a method for obtaining a panning effect by performing image processing on a captured image by the user himself / herself after shooting. This method requires the work of separating the main subject and the background in the captured image and the work of reducing the difference between adjacent pixels only in the background. Such work is not always easy for an unskilled user, and the work load is large.

本発明の目的は、撮影後にユーザに大きな負担をかけることなく、且つ、撮影時の露出条件に拘らずに、十分な流し撮り効果が得られる電子カメラを提供することである。   An object of the present invention is to provide an electronic camera capable of obtaining a sufficient panning effect without imposing a heavy burden on the user after shooting and irrespective of the exposure conditions during shooting.

請求項1の電子カメラは、撮像部と、動き検出部と、流し撮り効果付与部とを備えたことを特徴とする。撮像部は、連続撮影により複数の画像データを生成する。動き検出部は、少なくともいずれかの画像データを比較対象として用いることで、比較対象の画像データよりも撮影時刻が後の画像データが示す画像中の被写体の動き情報を取得する。流し撮り効果付与部は、動き情報に基づいて、画像データが示す画像における主要被写体と背景とを判別し、背景のブレ量を増大させる画像処理を画像データに施すことで、修正画像データを生成する。   According to another aspect of the present invention, an electronic camera includes an imaging unit, a motion detection unit, and a panning effect applying unit. The imaging unit generates a plurality of image data by continuous shooting. The motion detection unit uses at least one of the image data as a comparison target, thereby acquiring the motion information of the subject in the image indicated by the image data whose shooting time is later than the image data to be compared. The panning effect adding unit determines the main subject and the background in the image indicated by the image data based on the motion information, and performs image processing for increasing the amount of background blur to generate the corrected image data. To do.

請求項2の発明は、請求項1の電子カメラにおいて、以下の点を特徴とする。即ち、動き情報の取得に際して、動き検出部は、取得対象の画像データと比較して撮影時刻が前であると共に画素数が同じ画像データから、取得対象の画像データと撮影時刻が最も近いものを選択し、選択した画像データと、取得対象の画像データとを比較する。
請求項3の発明は、請求項1の電子カメラにおいて、以下の点を特徴とする。即ち、動き情報の取得に際して、動き検出部は、取得対象の画像データよりも撮影時刻が前である複数の画像データ同士を比較する。
The invention of claim 2 is the electronic camera of claim 1, characterized by the following points. That is, when acquiring the motion information, the motion detection unit compares the image data with the acquisition time closest to the acquisition target image data from the image data having the same shooting time as that of the acquisition target image data and the same number of pixels. The selected image data is compared with the image data to be acquired.
The invention of claim 3 is the electronic camera of claim 1, characterized by the following points. That is, when acquiring the motion information, the motion detection unit compares a plurality of pieces of image data whose shooting time is before the acquisition target image data.

請求項4の電子カメラは、測光部と、撮像部と、動き検出部と、流し撮り効果付与部とを備えたことを特徴とする。測光部は、撮影時に、露出条件を設定するための画像信号を生成する。撮像部は、被写体を撮像して画像データを生成する。動き検出部は、画像信号が示す画像に基づいて、画像データが示す画像中の被写体の動き情報を取得する。流し撮り効果付与部は、動き情報に基づいて、画像データが示す画像における主要被写体と背景とを判別し、背景のブレ量を増大させる画像処理を画像データに施すことで、修正画像データを生成する。   According to a fourth aspect of the present invention, there is provided an electronic camera comprising a photometry unit, an imaging unit, a motion detection unit, and a panning effect applying unit. The photometry unit generates an image signal for setting an exposure condition at the time of shooting. The imaging unit images a subject and generates image data. The motion detection unit acquires motion information of the subject in the image indicated by the image data based on the image indicated by the image signal. The panning effect adding unit determines the main subject and the background in the image indicated by the image data based on the motion information, and performs image processing for increasing the amount of background blur to generate the corrected image data. To do.

請求項5の発明は、請求項1〜請求項4のいずれかの電子カメラにおいて、動き情報により示される動き量が多いほど背景のブレ量が多くなるように、流し撮り効果付与部が前記画像処理を施すことを特徴とする。
請求項6の発明は、請求項1〜請求項5のいずれかの電子カメラにおいて、以下の点を特徴とする。第1に、前記画像処理は、特定の方向に隣接する画素間の差分を小さくするものである。第2に、流し撮り効果付与部は、前記特定の方向を、動き情報により示される被写体の移動方向に合わせる。
According to a fifth aspect of the present invention, in the electronic camera according to any one of the first to fourth aspects, the panning effect imparting unit includes the image so that the amount of background blur increases as the amount of motion indicated by the motion information increases. It is characterized by processing.
The invention according to claim 6 is the electronic camera according to any one of claims 1 to 5, characterized by the following points. First, the image processing is to reduce a difference between pixels adjacent in a specific direction. Second, the panning effect applying unit matches the specific direction with the moving direction of the subject indicated by the motion information.

請求項7の発明は、請求項1〜請求項6のいずれかの電子カメラにおいて、以下の点を特徴とする。第1に、撮影時における電子カメラの手振れを検出する手振れ検出部を有する。第2に、流し撮り効果付与部は、検出された手振れに基づいて動き情報を補正し、補正後の動き情報に基づいて、修正画像データを生成する。   The invention according to claim 7 is the electronic camera according to any one of claims 1 to 6, characterized by the following points. First, a camera shake detection unit that detects camera shake of the electronic camera at the time of shooting is provided. Second, the panning effect imparting unit corrects the motion information based on the detected camera shake, and generates corrected image data based on the corrected motion information.

本発明の一形態では、動き検出部は、連続撮影により生成された画像データの少なくともいずれかを比較対象として用い、比較対象の画像データよりも撮影時刻が後の画像データに対し動き情報を取得する。そして、流し撮り効果付与部は、動き情報に基づいて主要被写体と背景とを判別し、背景のブレ量を増大させる画像処理を施す。従って、撮影時の露出条件に拘らずに、且つ、撮影後にユーザに操作を要求することなく、流し撮り効果のある画像を自動的に作成できる。   In one aspect of the present invention, the motion detection unit uses at least one of image data generated by continuous shooting as a comparison target, and acquires motion information for image data whose shooting time is later than the comparison target image data. To do. Then, the panning effect imparting unit determines the main subject and the background based on the motion information, and performs image processing for increasing the amount of background blur. Therefore, an image having a panning effect can be automatically created regardless of the exposure conditions at the time of shooting and without requiring the user to perform an operation after shooting.

本発明の別の一形態では、動き検出部は、測光部により露出条件の設定用に生成された画像信号が示す画像に基づいて、撮像部により生成された画像データに対し動き情報を取得する。そして、上述と同様に背景のブレ量を増大させる画像処理が施されるので、上述と同様の効果が得られる。   In another aspect of the present invention, the motion detection unit acquires motion information for the image data generated by the imaging unit based on an image indicated by the image signal generated for setting the exposure condition by the photometry unit. . Since the image processing for increasing the amount of background blur is performed in the same manner as described above, the same effect as described above can be obtained.

<第1の実施形態>
図1は、本発明の第1の実施形態における電子カメラ8のブロック図である。第1の実施形態は、請求項1、請求項2、請求項5〜請求項7に対応する。図に示すように、電子カメラ8は、撮影レンズ12と、シャッタ16と、撮像素子20と、アナログ信号処理部24と、画像用A/D変換部26と、条件設定用A/D変換部28と、焦点検出部30と、タイミングジェネレータ32と、シャッタ駆動部36と、MPU(Micro Processor Unit)40と、角速度検出部44と、操作部46と、システムバス48と、画像処理部52と、メモリ56と、記録部64と、交換可能な記録媒体68と、モニタ制御部72と、液晶モニタ76とを有している。なお、シャッタ16に代えて、撮像素子20の駆動制御により電荷蓄積時間を変更する、いわゆる電子シャッターを用いるものであっても、両者を併用するものであってもよい。
<First Embodiment>
FIG. 1 is a block diagram of the electronic camera 8 according to the first embodiment of the present invention. The first embodiment corresponds to claims 1, 2, and 5 to 7. As shown in the figure, the electronic camera 8 includes a photographing lens 12, a shutter 16, an image sensor 20, an analog signal processing unit 24, an image A / D conversion unit 26, and a condition setting A / D conversion unit. 28, focus detection unit 30, timing generator 32, shutter drive unit 36, MPU (Micro Processor Unit) 40, angular velocity detection unit 44, operation unit 46, system bus 48, image processing unit 52, , A memory 56, a recording unit 64, a replaceable recording medium 68, a monitor control unit 72, and a liquid crystal monitor 76. In place of the shutter 16, a so-called electronic shutter that changes the charge accumulation time by driving control of the image sensor 20 may be used, or both may be used in combination.

MPU40は、電子カメラ8のシステム制御を行う。撮影レンズ12は、レンズ群82と、移動したレンズの位置を検出するエンコーダ84と、透過光量を調節する絞り86と、レンズ群82や絞り86を駆動する駆動モータ88と、レンズCPU90とを有している。レンズ群82は、ピントを合わせるための合焦用レンズ、画角調節用に移動可能なズーム用レンズ、手振れ補正用のレンズを有している。   The MPU 40 performs system control of the electronic camera 8. The photographic lens 12 includes a lens group 82, an encoder 84 that detects the position of the moved lens, a diaphragm 86 that adjusts the amount of transmitted light, a drive motor 88 that drives the lens group 82 and the diaphragm 86, and a lens CPU 90. is doing. The lens group 82 includes a focusing lens for focusing, a zoom lens movable for adjusting the angle of view, and a camera shake correction lens.

操作部46は、露出条件や撮影モード等を設定するための釦群や、レリーズ釦、電源釦等を有している(図示せず)。撮像素子20は、連写撮影時には、一定の時間間隔(フレームレート)で電荷の蓄積及び排出を繰り返し、1画像分の画素信号を連続的に出力する。本実施形態の主な特徴は、静止画用に撮像した各画像に対して動きベクトルを算出し、画像処理によって、動きベクトルの算出対象となった画像に流し撮り効果を電子カメラ8が自動的に付与することである。以下、この動きベクトルについて説明する。   The operation unit 46 includes a group of buttons for setting exposure conditions, shooting modes, and the like, a release button, a power button, and the like (not shown). During continuous shooting, the image sensor 20 repeatedly accumulates and discharges charges at a constant time interval (frame rate) and continuously outputs pixel signals for one image. The main feature of this embodiment is that a motion vector is calculated for each image captured for a still image, and the electronic camera 8 automatically applies a panning effect to the image for which the motion vector is calculated by image processing. It is to give to. Hereinafter, this motion vector will be described.

図2は、撮像素子20の露光のタイミングを示し、どの時点で撮影された画像を用いて動きベクトルを算出するかを示す説明図である。時間軸に対する目盛りが太線で示された時刻(t0、t3、t6、t9)には、全有効画素の画素信号が読み出され、画像用A/D変換部26から静止画用の画像データが出力される。時間軸に対する目盛りが細線で示さた時刻(t1、t2、t4、t5、t7、t8、t10)には、間引き読み出しによる画像データが生成され、この画像データは、焦点制御や露出条件の設定に用いられる。t0〜t10の撮影間隔は全て同じであり、この間隔は撮像素子20のフレームレートに相当する。   FIG. 2 is an explanatory diagram showing the timing of exposure of the image sensor 20 and showing at which time point the motion vector is calculated using the image taken. At the time (t0, t3, t6, t9) when the scale with respect to the time axis is indicated by a thick line, the pixel signals of all effective pixels are read, and the image data for the still image is read from the image A / D converter 26. Is output. At time (t1, t2, t4, t5, t7, t8, t10) indicated by thin lines on the time axis, image data is generated by thinning-out readout, and this image data is used for focus control and setting of exposure conditions. Used. The shooting intervals from t0 to t10 are all the same, and this interval corresponds to the frame rate of the image sensor 20.

第1の実施形態では、静止画用に読み出された画像データの内、撮影時刻が最も直前になるものと比較して、動きベクトルを算出する。例えば、時刻t3に撮影された画像と、時刻t6に撮影された画像とを比較して、時刻t6に撮影された画像に対する動きベクトルを算出する。なお、図2では、静止画用に1画像分を読み出した後、2画像を間引き読み出しているが、これは一例であり、連写間隔(静止画用の画像の撮像間隔)は任意に設定可能である。   In the first embodiment, a motion vector is calculated as compared with the image data read out for a still image that has the shooting time immediately before. For example, the image captured at time t3 is compared with the image captured at time t6 to calculate a motion vector for the image captured at time t6. In FIG. 2, after reading out one image for a still image, two images are thinned out and read out. However, this is an example, and the continuous shooting interval (image pickup interval for still images) is arbitrarily set. Is possible.

図3は、動きベクトルの算出方法、及び流し撮り効果を付与する画像処理の説明図である。図3(a)は、図2の時刻t3に撮影された静止画用の画像であり、この例では、画像の中央に写っている走者が主要被写体である。図3(b)は、図2の時刻t6に撮影された静止画用の画像である。説明の簡単化のため、連写撮影時において主要被写体の進行方向に電子カメラ8を振る操作が適切に行われ、連写撮影により生成された各画像内における主要被写体の位置は、殆ど変わらないとする。また、シャッタースピードが速く、図3(a)、(b)のように元の画像では流し撮り効果が十分ではないとする。   FIG. 3 is an explanatory diagram of a motion vector calculation method and image processing for providing a panning effect. FIG. 3A is a still image image taken at time t3 in FIG. 2, and in this example, the runner shown in the center of the image is the main subject. FIG. 3B is a still image image taken at time t6 in FIG. For simplification of explanation, the operation of shaking the electronic camera 8 in the traveling direction of the main subject is appropriately performed during continuous shooting, and the position of the main subject in each image generated by continuous shooting is almost unchanged. And It is also assumed that the shutter speed is fast and the panning effect is not sufficient in the original image as shown in FIGS. 3 (a) and 3 (b).

本実施形態では一例として、公知のブロックマッチング法により動きベクトルを算出する。これにはまず、動きベクトルの算出対象となる画像を多数のブロックに分割する。各ブロックのサイズは例えば、縦方向及び横方向の画素数が4〜16である。そして、動きベクトルの算出対象となる各ブロックとの差分が最も少ない画像領域(前記ブロックと縦横のサイズは同じ)を、比較対象となる画像の中からそれぞれ抽出する。ここでの『差分が少ない』とは、例えばブロック内の各画素同士で色を比較した場合に殆ど変わらないことである。   In this embodiment, as an example, a motion vector is calculated by a known block matching method. In order to do this, first, an image for which a motion vector is to be calculated is divided into a number of blocks. As for the size of each block, for example, the number of pixels in the vertical direction and the horizontal direction is 4 to 16. Then, an image region having the smallest difference from each block that is a motion vector calculation target (the same size as the block in the vertical and horizontal directions) is extracted from each comparison target image. Here, “the difference is small” means that there is almost no change when colors are compared between pixels in a block, for example.

次に、算出対象の各ブロックと、そのブロックに対して抽出された画像領域とで、画像内における位置を比較することで動きベクトルを決定する。即ち、抽出された画像領域の画像内位置を起点とし、算出対象のブロックの画像内位置を終点とするベクトルを、動きベクトルとする。
図3(c)は、時刻t6に撮影された画像(図3(b))における、任意の一ブロックに着目した図である。図3(d)は、時刻t3に撮影された画像(図3(a))において、図3(c)のブロックとの差分が最も少ない画像領域である。そして、図3(c)、(d)を比較することで、図3(c)のブロックに対する動きベクトルは、図3(c)内の矢印に示すようになる。
Next, the motion vector is determined by comparing the position in the image between each block to be calculated and the image region extracted for the block. That is, a vector starting from the position in the image of the extracted image area and ending in the position in the image of the block to be calculated is set as a motion vector.
FIG. 3C is a diagram focusing on an arbitrary block in the image (FIG. 3B) taken at time t6. FIG. 3D shows an image region having the smallest difference from the block in FIG. 3C in the image taken at time t3 (FIG. 3A). Then, by comparing FIG. 3C and FIG. 3D, the motion vector for the block of FIG. 3C becomes as indicated by the arrow in FIG.

なお、図から分かるように、この例での主要被写体は水平方向に右に移動中と考えられるが、動きベクトルの方向は、主要被写体の進行方向とは反対になる。また、主要被写体に対応するブロックでは動きベクトルの大きさ(スカラー量、図3(c)の矢印の長さに相当)は小さくなり、主要被写体以外の部分(背景)では、動きベクトルの大きさは大きくなる。即ち、動きベクトルの大きさは、被写体の移動量(または移動速度)を示す。本実施形態では、動きベクトルの大きさの違いに基づいて画像中のどの領域が主要被写体に対応するかを判別し、背景に対して流し撮り効果を付与する。   As can be seen from the figure, the main subject in this example is considered to be moving rightward in the horizontal direction, but the direction of the motion vector is opposite to the traveling direction of the main subject. In addition, the size of the motion vector (scalar amount, corresponding to the length of the arrow in FIG. 3C) is small in the block corresponding to the main subject, and the size of the motion vector in the portion (background) other than the main subject. Will grow. That is, the magnitude of the motion vector indicates the moving amount (or moving speed) of the subject. In the present embodiment, it is determined which region in the image corresponds to the main subject based on the difference in the magnitude of the motion vector, and a panning effect is given to the background.

次に、流し撮り効果を付与する画像処理について説明する。本実施形態では一例として、移動平均フィルタにより、その画像処理を行う。具体的には、ある画素の画素値は、動きベクトルの方向に隣接する画素の画素値と平均される。図3(e)は、動きベクトルが示す方向が水平に右方向であり、5点移動平均フィルタを用いる場合の処理方法を示す。図に黒く塗り潰した画素の画素値は、それに水平方向右側に位置する4つの画素(図では斜線で示した画素)の画素値と平均される。   Next, image processing for giving a panning effect will be described. In this embodiment, as an example, the image processing is performed by a moving average filter. Specifically, the pixel value of a certain pixel is averaged with the pixel value of a pixel adjacent in the direction of the motion vector. FIG. 3E shows a processing method in the case where the direction indicated by the motion vector is horizontally rightward and a 5-point moving average filter is used. The pixel values of the pixels filled in black in the figure are averaged with the pixel values of four pixels (pixels indicated by hatching in the figure) located on the right side in the horizontal direction.

本実施形態では、背景と認識された全ての画素に対してこのような処理を行い、流し撮り効果を付与する。なお、実際には動きベクトルの方向、即ち、流し撮りの際に撮影者が電子カメラ8を振る方向は、水平方向または垂直方向になるとは限らない。従って、動きベクトルの方向がどの方向であっても、移動平均する方向(移動平均の際に平均に用いられる複数の画素を繋ぐ方向)は、動きベクトルの方向に合わせる。   In the present embodiment, such a process is performed on all pixels recognized as the background to give a panning effect. Actually, the direction of the motion vector, that is, the direction in which the photographer shakes the electronic camera 8 during panning is not always the horizontal direction or the vertical direction. Accordingly, regardless of the direction of the motion vector, the direction in which the moving average is performed (the direction in which a plurality of pixels used for averaging in the moving average are connected) is matched to the direction of the motion vector.

そして、動きベクトルの大きさが大きいほど、平均する画素数を多くして、流し撮り効果を大きくする。これは、動きベクトルの大きさは、撮影時にカメラを振った速さ、即ち、主要被写体の進行速度に比例するので、主要被写体の動きが速いほど流し撮り効果を大きくするのが自然だからである。図3(f)は、時刻t6に撮影された画像(図3(b))の背景に対してのみ、移動平均フィルタを施した修正画像の一例である。   Then, as the size of the motion vector is larger, the average number of pixels is increased to increase the panning effect. This is because the magnitude of the motion vector is proportional to the speed at which the camera is shaken at the time of shooting, that is, the traveling speed of the main subject, so it is natural to increase the panning effect as the main subject moves faster. . FIG. 3F is an example of a modified image in which the moving average filter is applied only to the background of the image taken at time t6 (FIG. 3B).

図4は、電子カメラ8の動作を示す流れ図である。以下、図に示すステップ番号に従って、電子カメラ8の動作を説明する。
[ステップS1]電子カメラ8の電源釦がオンされると、電源オン処理が行われる。この後、ユーザは、操作部46の釦群を操作して、露出条件や撮影モードなどを設定する。ここでは、電子カメラ8が流し撮り用の撮影モードに設定されるものとする。なお、実際には公知の他の撮影モードに設定される場合もあるが、それらは本願には関係がないので、説明を省略する。
FIG. 4 is a flowchart showing the operation of the electronic camera 8. The operation of the electronic camera 8 will be described below according to the step numbers shown in the figure.
[Step S1] When the power button of the electronic camera 8 is turned on, a power-on process is performed. Thereafter, the user operates the button group of the operation unit 46 to set an exposure condition, a shooting mode, and the like. Here, it is assumed that the electronic camera 8 is set to a shooting mode for panning. In practice, other known shooting modes may be set, but they are not relevant to the present application, and thus the description thereof is omitted.

[ステップS2]撮像素子20は、露光されて電荷の蓄積及び排出を繰り返し、画像信号を所定のフレームレートで連続的に出力する。これら画像信号は、アナログ信号処理部24によりクランプ処理や感度補正処理が施された後、画像用A/D変換部26及び条件設定用A/D変換部28に連続的に入力される。画像用A/D変換部26は、A/D変換により動画用の画像データを連続的に生成する。この画像データは、カラープロセス処理等が画像処理部52により施された後、液晶モニタ76に動画表示される。動画表示は、レリーズ釦が全押しされるまで継続される。   [Step S2] The image pickup device 20 repeats accumulation and discharge of charges after exposure, and continuously outputs image signals at a predetermined frame rate. These image signals are subjected to clamp processing and sensitivity correction processing by the analog signal processing unit 24, and then continuously input to the image A / D conversion unit 26 and the condition setting A / D conversion unit 28. The image A / D converter 26 continuously generates moving image data by A / D conversion. The image data is subjected to color process processing or the like by the image processing unit 52 and then displayed as a moving image on the liquid crystal monitor 76. The moving image display is continued until the release button is fully pressed.

また、条件設定用A/D変換部28は、入力される画像信号をA/D変換して、画素数が間引きされた画像データを生成し、焦点検出部30及びMPU40に順次入力する。MPU40は、この画像データに基づいて露出条件等を設定し、焦点検出部30は、この画像データからコントラスト値を求め、MPU40に伝達する。MPU40及びレンズCPU90は、コントラスト値が最大となるように撮影レンズ12の焦点制御を行う。   The condition setting A / D converter 28 A / D converts the input image signal to generate image data with the number of pixels thinned out, and sequentially inputs the image data to the focus detection unit 30 and the MPU 40. The MPU 40 sets exposure conditions and the like based on the image data, and the focus detection unit 30 obtains a contrast value from the image data and transmits it to the MPU 40. The MPU 40 and the lens CPU 90 perform focus control of the photographing lens 12 so that the contrast value becomes maximum.

[ステップS3]レリーズ釦が全押しされると、それに同期して、設定された露出条件で公知の連写撮影が行われて、一定の時間間隔で静止画用の画像データが画像用A/D変換部26から出力される。この画像データは、画像処理部52によりホワイトバランス調整、色補間処理が施された後、メモリ56に記憶される。また、連写の間隔が撮像素子20のフレームレートよりも長く設定されている場合、図2に示したように、静止画用の画像の撮影間隔に、条件設定用A/D変換部28から間引き読み出しされた画像データが出力される。   [Step S3] When the release button is fully pressed, known continuous shooting is performed under the set exposure conditions, and image data for a still image is converted to the image A / It is output from the D converter 26. The image data is subjected to white balance adjustment and color interpolation processing by the image processing unit 52 and then stored in the memory 56. If the continuous shooting interval is set to be longer than the frame rate of the image sensor 20, as shown in FIG. 2, the condition setting A / D conversion unit 28 determines the shooting interval of the still image. The thinned and read image data is output.

同時に、角速度検出部44は、水平方向及び垂直方向の電子カメラ8の振れ(手振れ)を角速度としてそれぞれ検出し、それをMPU40に入力する。なお、本明細書での手振れは、撮影者の意図に反して撮影の瞬間に電子カメラ8がブレてしまうものと、流し撮りの際に撮影者が電子カメラ8を意図的に振ったものの両方を含むものとする。本実施形態では流し撮り撮影を想定しているので、ここでの角速度は主に後者を示し、電子カメラ8をどの方向にどれだけの速さで振ったかが検出される。また、ここでの水平方向及び垂直方向は、互いに直交し、撮像素子20の受光面に平行な方向とする。   At the same time, the angular velocity detection unit 44 detects a shake (hand shake) of the electronic camera 8 in the horizontal direction and the vertical direction as an angular velocity, and inputs it to the MPU 40. Note that the camera shake in this specification includes both a case where the electronic camera 8 shakes at the moment of shooting contrary to the intention of the photographer and a case where the photographer intentionally shakes the electronic camera 8 during the panning. Shall be included. In the present embodiment, panning shot photography is assumed. Therefore, the angular velocity here mainly indicates the latter, and it is detected in which direction and how fast the electronic camera 8 is swung. The horizontal direction and the vertical direction here are orthogonal to each other and parallel to the light receiving surface of the image sensor 20.

[ステップS4]MPU40は、レリーズ釦の押圧が解除されたか否かを随時判定する。解除されない場合、連写撮影を続けさせ、解除された場合、ステップS5に進む。
[ステップS5]MPU40は、レリーズ釦の押圧の解除に同期して、連写撮影を終了させる。
[ステップS6]MPU40は、メモリ56に記憶された静止画用の画像データを読み出し、読み出した各々に対して、ブロック毎の動きベクトルを前述の手順で算出する。
[Step S4] The MPU 40 determines at any time whether or not the release button is released. If not canceled, continuous shooting is continued. If canceled, the process proceeds to step S5.
[Step S5] The MPU 40 ends the continuous shooting in synchronization with the release of the release button.
[Step S6] The MPU 40 reads out still image data stored in the memory 56, and calculates a motion vector for each block for each read out by the above-described procedure.

なお、動きベクトルの算出の際に比較する画像データは、静止画用の画像データの内、撮影時刻が最も直前のものであるため、連写の始めに撮影されたものは、比較すべき静止画用の画像データがない。従って、連写の始めに撮影されたものは、連写開始前、且つ、最後に撮影されたスルー画用の画像データと比較する。その際、連写の始めに撮影された画像データは、比較するものと同じ画素数になるように解像度(画素数)を低減する。動きベクトルは、移動方向と、移動量とに分けて、ブロック毎にデジタルデータとしてメモリ56に一旦記憶される。   Note that the image data to be compared when calculating the motion vector is the image data for the still image that has the most recent shooting time. There is no image data for the image. Therefore, the image captured at the beginning of the continuous shooting is compared with the image data for the through image captured before the start of the continuous shooting and at the end. At that time, the resolution (number of pixels) is reduced so that the image data taken at the beginning of the continuous shooting has the same number of pixels as those to be compared. The motion vector is temporarily stored in the memory 56 as digital data for each block, divided into a moving direction and a moving amount.

[ステップS7]MPU40は、静止画用の各画像データに対して、主要被写体を写しているブロックと、それ以外(背景)を写しているブロックとを判別する。具体的には例えば、動きベクトルの大きさが所定値以下であるブロックを主要被写体のブロックとする。ここでの所定値は例えば、全ブロックの動きベクトルの大きさの平均値に基づいて決定すればよい。   [Step S7] The MPU 40 determines, for each image data for still images, a block showing the main subject and a block showing the rest (background). Specifically, for example, a block having a motion vector magnitude of a predetermined value or less is set as a main subject block. The predetermined value here may be determined based on the average value of the motion vectors of all blocks, for example.

次に、MPU40は、連写撮影時に角速度検出部44が検出した2方向の角速度に基づいて、背景に対応するブロックの動きベクトルを補正する。即ち、背景に対応する各ブロックの動きベクトルの方向は、本来、連写期間中において撮影者が電子カメラ8を振った方向と同じになると考えられる。しかし実際には、主要被写体が移動時に光源の一部を遮った等の様々な原因により、ブロックによっては両者の方向が大きく異なるものが生じると考えられる。そこで本実施形態では、それを補正する。   Next, the MPU 40 corrects the motion vector of the block corresponding to the background based on the two-direction angular velocities detected by the angular velocity detection unit 44 during continuous shooting. That is, it is considered that the direction of the motion vector of each block corresponding to the background is essentially the same as the direction in which the photographer shakes the electronic camera 8 during the continuous shooting period. However, in actuality, it is considered that depending on various causes, such as the main subject obstructing a part of the light source during movement, the direction of both may differ greatly. Therefore, in this embodiment, it is corrected.

具体的には、2方向の角速度により与えられる方向を、『流し撮り方向』とする。そして、流し撮り方向と、背景の各ブロックの動きベクトルが示す方向とを比較し、大きく異なるブロックに対しては、動きベクトルのデータを削除する。或いは、流し撮り方向と大きく異なる動きベクトルは、その周囲の数ブロックの動きベクトルを平均したものに修正してもよい。   Specifically, the direction given by the angular velocity in the two directions is referred to as “panning direction”. Then, the panning direction is compared with the direction indicated by the motion vector of each block of the background, and the motion vector data is deleted for a greatly different block. Alternatively, a motion vector that is significantly different from the panning direction may be corrected to an average of motion vectors of several blocks around it.

[ステップS8]画像処理部52は、MPU40の指令に従って、連写により生成された静止画用の画像データに対して、背景のブロックのみに前述したように移動平均を施すことにより、修正画像データを作成する。ここで、移動平均を施す方向は、例えば、背景の全ブロックの動きベクトルの方向の平均、或いは、最も頻度の多い方向にすればよい。また、背景のブロックの動きベクトルの大きさ(の平均値)が大きいほど、移動平均の際に平均に用いる画素数を多くする。   [Step S8] The image processing unit 52 applies the moving average as described above to only the background block on the image data for the still image generated by the continuous shooting according to the instruction of the MPU 40, thereby correcting the corrected image data. Create Here, the direction in which the moving average is applied may be, for example, the average of the motion vector directions of all blocks in the background or the direction with the highest frequency. In addition, as the motion vector size (average value) of the background block is larger, the number of pixels used for the average in the moving average is increased.

[ステップS9]修正画像データは、画像処理部52によりガンマ補正、輪郭強調、圧縮等が施された後、記録部64を介して記録媒体68に記録される。なお、修正画像データと共に、修正前の静止画用の画像データも共に記録してもよい。以上が本実施形態の動作説明である。
このように第1の実施形態では、連写撮影の直後に、静止画用の各画像データに対してブロック毎に動きベクトルを求め、動きベクトルの大きさの違いに基づいて、主要被写体と背景とを判別する。そして、動きベクトルに基づいて、背景のブロックに対して移動平均を施し、流し撮り効果を付与する。従って、シャッタースピードを十分に遅くできなくても、即ち、露出条件に拘らずに、且つ、撮影後のユーザの操作を要求することなく、流し撮り効果のある画像を自動的に作成できる。
[Step S9] The corrected image data is subjected to gamma correction, contour enhancement, compression, and the like by the image processing unit 52, and then recorded on the recording medium 68 through the recording unit 64. In addition to the corrected image data, the image data for the still image before correction may be recorded together. The above is the description of the operation of the present embodiment.
As described above, in the first embodiment, immediately after continuous shooting, a motion vector is obtained for each block of image data for still images, and the main subject and the background are determined based on the difference in the magnitude of the motion vector. Is determined. Then, based on the motion vector, a moving average is applied to the background block to give a panning effect. Therefore, even if the shutter speed cannot be sufficiently slow, that is, regardless of the exposure conditions, and without requiring user operation after shooting, an image having a panning effect can be automatically created.

また、移動平均を施す方向は動きベクトルの方向に合わせ、動きベクトルの大きさが大きいほど、移動平均の際に平均に用いる画素数を多くする。従って、主要被写体の進行方向及び進行速度に合った躍動感のある画像が得られる。
さらに、角速度検出部44が検出した角速度により与えられる流し撮り方向と比較して、方向が大きく異なる動きベクトルは、削除または修正する。このため、様々な原因によって一部のブロックの動きベクトルの方向が流し撮り方向と大きく異なっても、そのようなブロックの動きベクトルは、移動平均する方向の決定には反映されない。従って、移動平均した方向と、撮影時に電子カメラ8を振った方向とが異なって違和感が生じることはない。
The direction in which the moving average is applied is aligned with the direction of the motion vector, and the larger the size of the motion vector, the larger the number of pixels used for the average in the moving average. Therefore, an image with a feeling of movement matching the traveling direction and traveling speed of the main subject can be obtained.
Furthermore, motion vectors whose directions are significantly different from those of the panning direction given by the angular velocity detected by the angular velocity detection unit 44 are deleted or corrected. For this reason, even if the direction of the motion vector of some blocks differs greatly from the panning direction due to various causes, the motion vector of such a block is not reflected in the determination of the moving average direction. Therefore, the moving average direction is different from the direction in which the electronic camera 8 is shaken at the time of shooting, and there is no sense of incongruity.

以下、第1の実施形態の補足事項を説明する。
第1の実施形態では、背景のブロックのみに移動平均を施す例を述べたが、本発明は、かかる実施形態に限定されるものではない。主要被写体には、背景よりも弱めの移動平均を施して、さらに速度感を演出してもよい(後述の第3の実施形態についても同様)。
また、撮影時刻が前になる1つの画像データとの比較により動きベクトルを算出する例を述べた。本発明は、かかる実施形態に限定されるものではない。算出対象の画像データと、撮影時刻がその前になる複数の画像データとを比較することで動きベクトルを算出してもよい(後述の第2の実施形態についても同様)。
Hereinafter, supplementary items of the first embodiment will be described.
In the first embodiment, the example in which the moving average is performed only on the background block has been described, but the present invention is not limited to such an embodiment. A moving average that is weaker than the background may be applied to the main subject to further produce a sense of speed (the same applies to the third embodiment described later).
In addition, an example has been described in which a motion vector is calculated by comparison with one image data whose shooting time is before. The present invention is not limited to such an embodiment. The motion vector may be calculated by comparing the image data to be calculated with a plurality of image data with the shooting time before (the same applies to the second embodiment described later).

また、静止画用の画像データの内、撮影時刻が最も直前のものと比較することで動きベクトルを算出する例を述べた。本発明は、かかる実施形態に限定されるものではない。例えば、図2において、時刻t4、t5に間引き読み出しされた2つの画像データを比較することで、時刻t6の静止画用の画像データに対する動きベクトルを算出してもよい(後述の第2の実施形態についても同様)。即ち、動きベクトルは、算出対象の画像データの前になる2つの画像データ同士を比較することで求めてもよい。この場合、第1の実施形態は、請求項1、請求項3、請求項5〜請求項7に対応する。   In addition, an example has been described in which a motion vector is calculated by comparing the image data for still images with the latest shooting time. The present invention is not limited to such an embodiment. For example, in FIG. 2, the motion vector for the still image data at time t6 may be calculated by comparing two image data read out at times t4 and t5 (second implementation described later). The same applies to the form). That is, the motion vector may be obtained by comparing two image data before the image data to be calculated. In this case, the first embodiment corresponds to claim 1, claim 3, and claim 5 to claim 7.

或いは、静止画用に読み出された画像データか、間引き読み出しがされた画像データかに拘らず、撮影時刻が直前になる画像データと比較して動きベクトルを算出してもよい(後述の第2の実施形態についても同様)。即ち、図2では、時刻t6の画像データに対する動きベクトルは、時刻t5の画像データ(画素数が間引かれたもの)と比較して求める。この場合、時刻t6の画像データを、時刻t5の画像データと同じ画素数になるように低解像度に変換する処理が必要になる。   Alternatively, the motion vector may be calculated in comparison with the image data immediately before the shooting time regardless of whether the image data is read out for a still image or the image data that has been thinned out. The same applies to the second embodiment). That is, in FIG. 2, the motion vector for the image data at time t6 is obtained by comparison with the image data at time t5 (those with the number of pixels thinned out). In this case, it is necessary to convert the image data at time t6 to a low resolution so as to have the same number of pixels as the image data at time t5.

第1の実施形態では、動きベクトルに基づいて主要被写体と背景とを判別する例を述べたが、本発明は、かかる実施形態に限定されるものではない。例えば、液晶モニタ76をタッチパネル式のもので構成し、レリーズ前にスルー画表示がされているときに、液晶モニタ76上でユーザに主要被写体を選択させてもよい。即ち、液晶モニタ76上でタッチされた領域の輪郭と色とを、主要被写体として画像的に記憶する。そして、記憶した画像に基づいて画像データにおける主要被写体のブロックを判別し、さらに動きベクトルを算出後、動きベクトルの方向及び大きさに合わせて移動平均を施せばよい。   In the first embodiment, the example in which the main subject and the background are determined based on the motion vector has been described. However, the present invention is not limited to such an embodiment. For example, the liquid crystal monitor 76 may be a touch panel type, and the user may select a main subject on the liquid crystal monitor 76 when a live view is displayed before the release. That is, the outline and color of the area touched on the liquid crystal monitor 76 are memorized as the main subject in an image. Then, after determining the block of the main subject in the image data based on the stored image, and further calculating the motion vector, a moving average may be applied according to the direction and size of the motion vector.

なお、図4のステップS6〜S9の処理は、パーソナルコンピュータなどの編集装置で行うものであってもよい。この場合、編集装置には、ステップS6〜S9を実行するプログラムがインストールされ、入力された画像データに対してステップS6〜S9の処理が実行される。この際、編集装置には必要に応じて、角速度検出部44が検出した角速度情報が入力される。   Note that the processing in steps S6 to S9 in FIG. 4 may be performed by an editing apparatus such as a personal computer. In this case, a program for executing steps S6 to S9 is installed in the editing apparatus, and the processes of steps S6 to S9 are executed on the input image data. At this time, the angular velocity information detected by the angular velocity detector 44 is input to the editing apparatus as necessary.

<第2の実施形態>
次に、第2の実施形態を説明する。第1の実施形態との主な違いは、第2の実施形態では修正画像データを作成せず、元の画像データと、それに対して求めた動きベクトルとを1つのファイルにして記録することである。従って、電子カメラの構成は第1の実施形態と同様なので、図1に相当するブロック図等の重複する説明は省略する。
<Second Embodiment>
Next, a second embodiment will be described. The main difference from the first embodiment is that the modified image data is not created in the second embodiment, and the original image data and the motion vector obtained for the original image data are recorded as one file. is there. Therefore, since the configuration of the electronic camera is the same as that of the first embodiment, a duplicate description such as a block diagram corresponding to FIG. 1 is omitted.

図5は、第2の実施形態における電子カメラ8の動作を示す流れ図であり、図中のステップS21〜S27の処理は、第1の実施形態のステップS1〜S7とそれぞれ同様である。従って、ステップS28のみを説明する。
[ステップS28]画像処理部52は、連写により生成された静止画用の全画像データに対して、ガンマ補正、輪郭強調、圧縮等を施す。この後、記録部64は、MPU40の指令に従って、静止画用の画像データと、その画像データに対して算出された全ブロックの動きベクトルとが含まれた1ファイルを作成する。
FIG. 5 is a flowchart showing the operation of the electronic camera 8 in the second embodiment, and the processes in steps S21 to S27 in the figure are the same as steps S1 to S7 in the first embodiment, respectively. Therefore, only step S28 will be described.
[Step S28] The image processing unit 52 performs gamma correction, contour enhancement, compression, and the like on all image data for still images generated by continuous shooting. Thereafter, the recording unit 64 creates one file including the image data for the still image and the motion vectors of all the blocks calculated for the image data in accordance with the command from the MPU 40.

各ブロックの動きベクトルは、例えばファイルのヘッダに含めればよい。ここで、動きベクトルが示す情報は、移動方向と移動量である。従って、ブロックの位置と、そのブロックの動きベクトルが示す移動方向と、移動量とが対応付けられてファイルが作成される。なお、記録される動きベクトルは、ステップS27での補正後であり、全ブロックに対して存在するとは限らない。記録部64は、このようなファイルを静止画用の全画像データに対して作成し、それらを記録媒体68に記録する。即ち、記録部64は、動きベクトルと、その算出対象となった静止画用の画像データとが含まれる1ファイルを生成するファイル生成部として機能する。   What is necessary is just to include the motion vector of each block in the header of a file, for example. Here, the information indicated by the motion vector is a movement direction and a movement amount. Therefore, a file is created by associating the position of the block, the moving direction indicated by the motion vector of the block, and the moving amount. Note that the motion vector to be recorded is after the correction in step S27 and does not necessarily exist for all blocks. The recording unit 64 creates such files for all image data for still images and records them on the recording medium 68. That is, the recording unit 64 functions as a file generation unit that generates one file including the motion vector and the image data for the still image that is the calculation target.

このように第2の実施形態では、連写により生成された各画像データは、ブロック毎の動きベクトルが添付された1ファイルとして記録される。従って、記録媒体68を介してそのファイルをコンピュータ等の画像処理装置に転送後、適切な画像処理を施せば、流し撮り効果のある画像が得られる。従って、撮像画像に対し、事後的な画像処理により流し撮り効果を付与すれば、撮影時の露出条件に拘らずに流し撮り効果のある画像が得られる。   As described above, in the second embodiment, each image data generated by continuous shooting is recorded as one file to which a motion vector for each block is attached. Therefore, after transferring the file to an image processing apparatus such as a computer via the recording medium 68, an image having a panning effect can be obtained by performing appropriate image processing. Therefore, if a panning effect is applied to the captured image by subsequent image processing, an image having a panning effect can be obtained regardless of the exposure conditions at the time of shooting.

そして、流し撮り効果を付与する画像処理は、動きベクトルに基づいて行えば簡単にできるので、手間はかからない。なぜなら、例えば第1の実施形態と同様に、動きベクトルの大きさが所定値以上のブロックを背景とみなし、背景のブロックに対して、最も頻度が多い動きベクトルの方向に移動平均を施すだけでよいからである。即ち、従来は、撮影後の画像処理により流し撮り効果を付与する場合、画像中の被写体の動き情報がなかったので手間を要したが、第2の実施形態では動き情報があるので、撮影後においてユーザに大きな処理負担が要求されることはない。   Then, since the image processing for giving the panning effect can be easily performed based on the motion vector, it does not take time and effort. This is because, for example, as in the first embodiment, a block whose motion vector size is a predetermined value or more is regarded as a background, and a moving average is simply applied to the background block in the direction of the most frequent motion vector. Because it is good. That is, conventionally, when the panning effect is provided by image processing after shooting, there is no movement information of the subject in the image, which is troublesome. However, in the second embodiment, there is movement information. However, a large processing load is not required for the user.

さらに、流し撮り効果を付与する前の元の画像データを記録して残すので、流し撮り効果の大きい修正画像、流し撮り効果の小さい修正画像等、用途に応じた修正画像データを適宜作成できる。
なお、第2の実施形態では、ステップS28で作成したファイルを記録媒体68に記録したが、記録媒体68に記録しないでもよい。その場合、作成したファイルは例えば、無線により電子カメラ8から離れたコンピュータに伝送後、そのコンピュータにおいて流し撮り効果を付与する画像処理を行い、修正画像データを作成すればよい(後述の第4の実施形態についても同様)。
Furthermore, since the original image data before applying the panning effect is recorded and left, it is possible to appropriately create correction image data according to the application such as a correction image having a large panning effect and a correction image having a small panning effect.
In the second embodiment, the file created in step S28 is recorded on the recording medium 68. However, the file may not be recorded on the recording medium 68. In this case, for example, after the created file is wirelessly transmitted to a computer remote from the electronic camera 8, image processing for giving a panning effect is performed in the computer, and corrected image data may be created (fourth described later). The same applies to the embodiment).

さらに、第1及び第2の実施形態の両方を適用することも可能である。即ち、第1の実施形態のステップS9において更に、ステップS28で述べた手順より、修正前の画像データに動きベクトルを添付した1ファイルを作成する。そして、修正前の画像データに動きベクトルが添付されたファイルと、修正画像データのファイルの両方を記録する。この場合、第1及び第2の実施形態の両方の効果が得られる。   Furthermore, it is possible to apply both the first and second embodiments. That is, in step S9 of the first embodiment, one file in which a motion vector is attached to image data before correction is created by the procedure described in step S28. Then, both the file in which the motion vector is attached to the image data before correction and the file of the corrected image data are recorded. In this case, the effects of both the first and second embodiments can be obtained.

なお、図5のステップS26〜S28の処理は、パーソナルコンピュータなどの編集装置で行うものであってもよい。この場合、編集装置には、ステップS26〜S28を実行するプログラムがインストールされ、入力された画像データに対してステップS26〜S28の処理が実行される。この際、編集装置には必要に応じて、角速度検出部44が検出した角速度情報が入力される。   Note that the processing in steps S26 to S28 in FIG. 5 may be performed by an editing apparatus such as a personal computer. In this case, the editing apparatus is installed with a program for executing steps S26 to S28, and the processes of steps S26 to S28 are executed on the input image data. At this time, the angular velocity information detected by the angular velocity detector 44 is input to the editing apparatus as necessary.

<第3の実施形態>
次に、請求項4〜請求項7に対応する第3の実施形態を説明する。第1及び第2の実施形態ではコンパクトタイプの電子カメラでの連写撮影を想定して説明したが、第3の実施形態では、一眼レフタイプの電子カメラでの単写撮影を想定して説明する。第3の実施形態では、ペンタプリズムやファインダ等からなる観察光学系があるのでスルー画表示は行われず、測光部の出力に基づいて動きベクトルを算出する。なお、前述の図1で説明した要素と実質的に同一機能の要素には同一符号を付し、重複する説明を省略する。
<Third Embodiment>
Next, a third embodiment corresponding to claims 4 to 7 will be described. The first and second embodiments have been described assuming continuous shooting with a compact type electronic camera, but the third embodiment will be described assuming single shooting with a single-lens reflex type electronic camera. . In the third embodiment, since there is an observation optical system including a pentaprism, a finder, and the like, a through image display is not performed, and a motion vector is calculated based on the output of the photometry unit. Elements having substantially the same functions as those described in FIG. 1 are denoted by the same reference numerals, and redundant description is omitted.

図6は、第3の実施形態における電子カメラのブロック図である。図に示すように、電子カメラ100は、撮影レンズ12と、観察光学系120と、クイックリターンミラー124と、シャッタ16と、撮像素子20と、アナログ信号処理部24と、A/D変換部128と、タイミングジェネレータ32と、システムバス48と、MPU136と、シャッタ駆動部36と、焦点検出部140と、測光部144と、測色部148と、角速度検出部44と、操作部46と、画像処理部52と、メモリ56と、記録部64と、記録媒体68と、モニタ制御部72と、液晶モニタ76とを有している。   FIG. 6 is a block diagram of an electronic camera according to the third embodiment. As shown in the drawing, the electronic camera 100 includes a photographing lens 12, an observation optical system 120, a quick return mirror 124, a shutter 16, an image sensor 20, an analog signal processing unit 24, and an A / D conversion unit 128. Timing generator 32, system bus 48, MPU 136, shutter drive unit 36, focus detection unit 140, photometry unit 144, color measurement unit 148, angular velocity detection unit 44, operation unit 46, image A processing unit 52, a memory 56, a recording unit 64, a recording medium 68, a monitor control unit 72, and a liquid crystal monitor 76 are provided.

撮影レンズ12は、レンズ群82と、エンコーダ84と、絞り86と、駆動モータ88と、レンズCPU90とを有している。測光部144は、格子状に配列された例えば1000個以上の測光素子を有し、これら測光素子が光電変換により生成する画像信号をMPU136に入力する。なお、各測光素子の受光面上には、3原色のいずれかのカラーフィルタが例えばベイヤー配列されている。従って、測光素子から出力される画像信号に基づいて、カラーの画像データが生成可能である。MPU136は、電子カメラ100のシステム制御を行う。   The taking lens 12 includes a lens group 82, an encoder 84, a diaphragm 86, a drive motor 88, and a lens CPU 90. The photometry unit 144 has, for example, 1000 or more photometry elements arranged in a lattice pattern, and inputs image signals generated by the photometry elements by photoelectric conversion to the MPU 136. In addition, on the light receiving surface of each photometric element, any one of the three primary colors is arranged in a Bayer array, for example. Therefore, color image data can be generated based on the image signal output from the photometric element. The MPU 136 performs system control of the electronic camera 100.

図7は、第3の実施形態の電子カメラ100の動作を示す流れ図である。以下、図中のステップ番号に従って、第3の実施形態の電子カメラ100の動作を説明する。なお、第3の実施形態においても、撮影者が流し撮りを行うものとして説明する。
[ステップS41]第1の実施形態のステップS1と同様の処理が行われる。
[ステップS42]測光部144の各測光素子は、露光され、一定の時間間隔で電荷の蓄積及び排出を繰り返し、画像信号を連続的に出力する。この画像信号は、色補間等が施された後、カラーの画像データに変換される。MPU136は、このカラーの画像データに基づいて露出条件を設定する。
FIG. 7 is a flowchart showing the operation of the electronic camera 100 of the third embodiment. Hereinafter, the operation of the electronic camera 100 of the third embodiment will be described according to the step numbers in the figure. In the third embodiment, it is assumed that the photographer performs panning.
[Step S41] The same processing as step S1 of the first embodiment is performed.
[Step S42] Each photometric element of the photometric unit 144 is exposed, repeatedly accumulates and discharges charges at a constant time interval, and continuously outputs image signals. This image signal is subjected to color interpolation and the like and then converted into color image data. The MPU 136 sets exposure conditions based on the color image data.

また、測色部148は、撮影光源の色温度を検出し、MPU136に伝達する。MPU136は、この色温度に基づいて、ホワイトバランス調整の条件を決定する。さらに、焦点検出部140、MPU136、レンズCPU90、及び駆動モータ88は、公知の位相差方式の焦点検出動作により、選択されているフォーカスエリアの被写体にピントを合わせる。   The color measurement unit 148 detects the color temperature of the photographing light source and transmits it to the MPU 136. The MPU 136 determines white balance adjustment conditions based on this color temperature. Further, the focus detection unit 140, the MPU 136, the lens CPU 90, and the drive motor 88 focus on the subject in the selected focus area by a known phase difference type focus detection operation.

[ステップS43]レリーズ釦が全押しされると、それに同期して、設定された露出条件で撮像素子20が露光され、公知の動作により静止画用の画像データがA/D変換部128から出力される。このとき、測光部144は、継続して画像信号を生成し、MPU136に入力する。静止画用の画像データは、画像処理部52によりホワイトバランス調整、色補間処理が施された後、メモリ56に記憶される。また、レリーズ釦の全押しのタイミングの前後において、角速度検出部44は、水平方向及び垂直方向の電子カメラ100の振れを角速度としてそれぞれ検出し、それをMPU136に入力する。   [Step S43] When the release button is fully pressed, the image sensor 20 is exposed under the set exposure conditions in synchronization with the release button, and image data for a still image is output from the A / D converter 128 by a known operation. Is done. At this time, the photometry unit 144 continuously generates an image signal and inputs it to the MPU 136. The still image data is subjected to white balance adjustment and color interpolation processing by the image processing unit 52 and then stored in the memory 56. Further, before and after the release button is fully pressed, the angular velocity detection unit 44 detects the shake of the electronic camera 100 in the horizontal direction and the vertical direction as the angular velocity, and inputs it to the MPU 136.

[ステップS44]MPU136は、静止画用の画像データに対するブロック毎の動きベクトルを、測光部144からの画像信号により得られる複数の画像データ同士を比較して算出する。ここで、動きベクトルの算出に際しては、例えば以下のタイミングで生成された画像信号を用いればよい。撮像素子20の露光と同じ時刻に測光素子が露光されたことにより測光部144が出力した画像信号と、その直前に測光部144が出力した画像信号とを用いる。或いは、撮像素子20の露光の直前に測光素子が露光されたことにより測光部144が出力した2つの画像信号を用いる。   [Step S44] The MPU 136 calculates a motion vector for each block for the image data for still images by comparing a plurality of image data obtained from the image signal from the photometry unit 144. Here, when calculating the motion vector, for example, an image signal generated at the following timing may be used. The image signal output from the photometry unit 144 when the photometry element is exposed at the same time as the exposure of the image sensor 20 and the image signal output from the photometry unit 144 immediately before are used. Alternatively, two image signals output from the photometry unit 144 when the photometry element is exposed immediately before the exposure of the image sensor 20 are used.

[ステップS45]MPU136は、静止画用の画像データにおいて、主要被写体を写しているブロックと、背景を写しているブロックとを判別する。この判別は、第1の実施形態と同様に動きベクトルに基づいて行われる。そして、MPU136は、角速度検出部44が検出した2方向の角速度に基づいて、背景に対応するブロックの動きベクトルを第1の実施形態と同様に補正する。   [Step S45] The MPU 136 determines, in the image data for still images, a block showing the main subject and a block showing the background. This determination is performed based on the motion vector as in the first embodiment. Then, the MPU 136 corrects the motion vector of the block corresponding to the background in the same manner as in the first embodiment, based on the two-direction angular velocities detected by the angular velocity detection unit 44.

[ステップS46]画像処理部52は、MPU136の指令に従って、静止画用の画像データに対して第1の実施形態と同様に背景のブロックに移動平均を施し、修正画像データを作成する。
[ステップS47]修正画像データは、画像処理部52によりガンマ補正、輪郭強調、圧縮等が施された後、記録部64を介して記録媒体68に記録される。なお、修正画像データと共に、修正前の静止画用の画像データも共に記録してもよい。以上が第3の実施形態の動作説明である。このように第3の実施形態では、撮像素子20の露光により生成される画像データではなく、測光部144の出力から得られる画像データに基づいて動きベクトルを算出するが、第1の実施形態と同様の効果が得られる。
[Step S46] The image processing unit 52 performs correction averaging on the background blocks in the same manner as in the first embodiment in accordance with an instruction from the MPU 136 to create corrected image data.
[Step S47] The corrected image data is subjected to gamma correction, contour enhancement, compression, and the like by the image processing unit 52, and then recorded on the recording medium 68 via the recording unit 64. In addition to the corrected image data, the image data for the still image before correction may be recorded together. The above is the description of the operation of the third embodiment. As described above, in the third embodiment, the motion vector is calculated based on the image data obtained from the output of the photometry unit 144 instead of the image data generated by the exposure of the image sensor 20, Similar effects can be obtained.

<第4の実施形態>
次に、第4の実施形態を説明する。第3の実施形態との主な違いは、第4の実施形態では修正画像データを作成せず、元の画像データと、それに対して求めた動きベクトルとを1つのファイルにして記録することである。従って、電子カメラの構成は第3の実施形態と同様なので、図6に相当するブロック図等の重複する説明は省略する。
<Fourth Embodiment>
Next, a fourth embodiment will be described. The main difference from the third embodiment is that the modified image data is not created in the fourth embodiment, and the original image data and the motion vector obtained for it are recorded as one file. is there. Therefore, since the configuration of the electronic camera is the same as that of the third embodiment, a duplicate description of a block diagram corresponding to FIG. 6 is omitted.

図8は、第4の実施形態の電子カメラの動作を示す流れ図であり、図中のステップS61〜S65の処理は、第3の実施形態のステップS41〜S45とそれぞれ同様である。従って、ステップS66のみを説明する。
[ステップS66]画像処理部52は、静止画用の画像データに対して、ガンマ補正、輪郭強調、圧縮等を施す。この後、記録部64は、MPU136の指令に従って、静止画用の画像データ(移動平均による修正は施されていない)と、それに対して算出された全ブロックの動きベクトルとが含まれた1ファイルを作成する。ここでのファイルの作成方法は、第2の実施形態のステップS28と同様である。このように第4の実施形態では、測光部144の出力から得られる画像データに基づいて動きベクトルを算出するが、第2の実施形態と同様の効果が得られる。
FIG. 8 is a flowchart showing the operation of the electronic camera of the fourth embodiment, and the processes in steps S61 to S65 in the figure are the same as steps S41 to S45 of the third embodiment, respectively. Therefore, only step S66 will be described.
[Step S66] The image processing unit 52 performs gamma correction, contour enhancement, compression, and the like on the image data for the still image. Thereafter, the recording unit 64, in accordance with an instruction from the MPU 136, includes one file containing image data for still images (not corrected by moving average) and motion vectors of all blocks calculated for the image data. Create The file creation method here is the same as step S28 in the second embodiment. Thus, in the fourth embodiment, the motion vector is calculated based on the image data obtained from the output of the photometry unit 144, but the same effect as in the second embodiment can be obtained.

なお、第1及び第2の実施形態の場合と同様に、第3及び第4の実施形態の両方を適用することも可能である。即ち、第3の実施形態のステップS47において更に、ステップS66と同様に修正前の画像データに動きベクトルを添付したファイルを作成する。そして、修正前の画像データに動きベクトルが添付されたファイルと、修正画像データのファイルの両方を記録する。   As in the first and second embodiments, both the third and fourth embodiments can be applied. That is, in step S47 of the third embodiment, a file in which a motion vector is attached to image data before correction is created in the same manner as in step S66. Then, both the file in which the motion vector is attached to the image data before correction and the file of the corrected image data are recorded.

<本発明の補足事項>
第1及び第2の実施形態は、コンパクトタイプの電子カメラ8での連写撮影として説明したが、第3及び第4の実施形態のように単写撮影としても実行可能である。また、第3及び第4の実施形態は、一眼レフタイプの電子カメラ100での単写撮影として説明したが、第1及び第2の実施形態のように連写撮影としても実行可能である。また、以上に開示した『動きベクトルを算出し、それに基づいて撮像画像に自動的に流し撮り効果を付与する技術思想』、及び『動きベクトルが添付されたファイルを作成する技術思想』は、流し撮り以外の撮影形態にも適用可能である。
<Supplementary items of the present invention>
The first and second embodiments have been described as continuous shooting with the compact electronic camera 8, but can be executed as single shooting as in the third and fourth embodiments. Further, although the third and fourth embodiments have been described as single shooting with the single-lens reflex type electronic camera 100, they can also be executed as continuous shooting as in the first and second embodiments. In addition, the “technical idea for calculating a motion vector and automatically adding a panning effect to a captured image based on it” and “technical idea for creating a file with a motion vector attached” disclosed above are The present invention can also be applied to shooting modes other than shooting.

請求項と実施形態との対応関係は、例えば以下の通りである。
請求項記載の撮像部は、シャッタ16、撮像素子20、アナログ信号処理部24、画像用A/D変換部26(またはA/D変換部128)、タイミングジェネレータ32、シャッタ駆動部36と、これらに画像データを生成させるMPU40(136)の機能とに対応する。
The correspondence between the claims and the embodiment is, for example, as follows.
The imaging unit described in the claims includes the shutter 16, the imaging device 20, the analog signal processing unit 24, the image A / D conversion unit 26 (or A / D conversion unit 128), the timing generator 32, and the shutter driving unit 36. This corresponds to the function of the MPU 40 (136) for generating image data.

請求項記載の動き情報は、動きベクトルに対応する。
請求項記載の動き検出部は、動きベクトルを算出するMPU40(136)の機能に対応する。
請求項記載の流し撮り効果付与部は、動きベクトルに基づいて背景のブロックと主要被写体のブロックとを判別するMPU40(136)の機能と、背景のブロックに移動平均を施す画像処理部52の機能と対応する。
The motion information described in the claims corresponds to the motion vector.
The motion detector described in the claims corresponds to the function of the MPU 40 (136) for calculating a motion vector.
The panning effect imparting unit according to the claims includes a function of the MPU 40 (136) that discriminates a background block and a main subject block based on a motion vector, and a function of the image processing unit 52 that performs a moving average on the background block. And corresponding.

請求項記載のブレ検出部は、撮影時における電子カメラ8(100)のブレを2方向の角速度として検出する角速度検出部44の機能に対応する。   The shake detection unit described in the claims corresponds to the function of the angular velocity detection unit 44 that detects the shake of the electronic camera 8 (100) at the time of shooting as the angular velocity in two directions.

以上詳述したように本発明は、電子カメラの分野において大いに利用可能である。   As described above in detail, the present invention can be used greatly in the field of electronic cameras.

本発明の第1の実施形態における電子カメラのブロック図である。It is a block diagram of the electronic camera in the 1st Embodiment of this invention. 撮像素子の露光のタイミングを示し、どの時点で撮影された画像を用いて動きベクトルを算出するかを示す説明図である。It is explanatory drawing which shows the timing of exposure of an image pick-up element, and shows which motion vector is calculated using the image image | photographed at which time. 動きベクトルの算出方法、及び流し撮り効果を付与する方法の説明図である。It is explanatory drawing of the calculation method of a motion vector, and the method of providing a panning effect. 第1の実施形態における電子カメラの動作を示す流れ図である。It is a flowchart which shows operation | movement of the electronic camera in 1st Embodiment. 第2の実施形態における電子カメラの動作を示す流れ図である。It is a flowchart which shows operation | movement of the electronic camera in 2nd Embodiment. 本発明の第3の実施形態における電子カメラのブロック図である。It is a block diagram of the electronic camera in the 3rd Embodiment of this invention. 第3の実施形態における電子カメラの動作を示す流れ図である。It is a flowchart which shows operation | movement of the electronic camera in 3rd Embodiment. 第4の実施形態における電子カメラの動作を示す流れ図である。It is a flowchart which shows operation | movement of the electronic camera in 4th Embodiment.

符号の説明Explanation of symbols

8 電子カメラ
12 撮影レンズ
16 シャッタ
20 撮像素子
24 アナログ信号処理部
26 画像用A/D変換部
28 条件設定用A/D変換部
30 焦点検出部
32 タイミングジェネレータ
36 シャッタ駆動部
40 MPU
44 角速度検出部
46 操作部
48 システムバス
52 画像処理部
56 メモリ
64 記録部
68 記録媒体
72 モニタ制御部
76 液晶モニタ
82 レンズ群
84 エンコーダ
86 絞り
88 駆動モータ
90 レンズCPU
100 電子カメラ
120 観察光学系
124 クイックリターンミラー
128 A/D変換部
136 MPU
140 焦点検出部
144 測光部
148 測色部
8 Electronic Camera 12 Shooting Lens 16 Shutter 20 Image Sensor 24 Analog Signal Processing Unit 26 Image A / D Conversion Unit 28 Condition Setting A / D Conversion Unit 30 Focus Detection Unit 32 Timing Generator 36 Shutter Drive Unit 40 MPU
44 Angular velocity detection unit 46 Operation unit 48 System bus 52 Image processing unit 56 Memory 64 Recording unit 68 Recording medium 72 Monitor control unit 76 Liquid crystal monitor 82 Lens group 84 Encoder 86 Aperture 88 Drive motor 90 Lens CPU
100 Electronic Camera 120 Observation Optical System 124 Quick Return Mirror 128 A / D Converter 136 MPU
140 Focus detection unit 144 Photometry unit 148 Color measurement unit

Claims (7)

連続撮影により複数の画像データを生成する撮像部と、
少なくともいずれかの前記画像データを比較対象として用いることで、比較対象の前記画像データよりも撮影時刻が後の前記画像データが示す画像中の被写体の動き情報を取得する動き検出部と、
前記動き情報に基づいて、前記画像データが示す画像における主要被写体と背景とを判別し、背景のブレ量を増大させる画像処理を前記画像データに施すことで、修正画像データを生成する流し撮り効果付与部と
を備えたことを特徴とする電子カメラ。
An imaging unit that generates a plurality of image data by continuous shooting;
Using at least one of the image data as a comparison target, a motion detection unit that acquires motion information of a subject in an image indicated by the image data whose shooting time is later than the image data to be compared;
Based on the motion information, the main subject and the background in the image indicated by the image data are discriminated, and image processing for increasing the amount of background blur is performed on the image data, thereby producing a panning effect that generates corrected image data An electronic camera comprising: an attaching unit.
請求項1記載の電子カメラにおいて、
前記動き情報の取得に際して、前記動き検出部は、取得対象の前記画像データと比較して撮影時刻が前であると共に画素数が同じ前記画像データから、取得対象の前記画像データと撮影時刻が最も近いものを選択し、選択した前記画像データと、取得対象の前記画像データとを比較する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1.
When acquiring the motion information, the motion detection unit obtains the image data and the shooting time of the acquisition target most from the image data having the same shooting time and the same number of pixels as the image data of the acquisition target. An electronic camera characterized by selecting a close one and comparing the selected image data with the image data to be acquired.
請求項1記載の電子カメラにおいて、
前記動き情報の取得に際して、前記動き検出部は、取得対象の前記画像データよりも撮影時刻が前である複数の前記画像データ同士を比較する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1.
When acquiring the motion information, the motion detection unit compares the plurality of image data whose shooting time is earlier than the image data to be acquired.
撮影時に、露出条件を設定するための画像信号を生成する測光部と、
被写体を撮像して画像データを生成する撮像部と、
前記画像信号が示す画像に基づいて、前記画像データが示す画像中の前記被写体の動き情報を取得する動き検出部と、
前記動き情報に基づいて、前記画像データが示す画像における主要被写体と背景とを判別し、背景のブレ量を増大させる画像処理を前記画像データに施すことで、修正画像データを生成する流し撮り効果付与部と
を備えたことを特徴とする電子カメラ。
A metering unit that generates an image signal for setting exposure conditions during shooting;
An imaging unit that images a subject and generates image data;
A motion detector that acquires motion information of the subject in the image indicated by the image data based on an image indicated by the image signal;
Based on the motion information, the main subject and the background in the image indicated by the image data are discriminated, and image processing for increasing the amount of background blur is performed on the image data, thereby producing a panning effect that generates corrected image data An electronic camera comprising: an attaching unit.
請求項1〜請求項4のいずれか1項に記載の電子カメラにおいて、
前記流し撮り効果付与部は、前記動き情報により示される動き量が多いほど背景のブレ量が多くなるように、前記画像処理を施す
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 4,
The electronic camera, wherein the panning effect imparting unit performs the image processing such that the amount of background blur increases as the amount of motion indicated by the motion information increases.
請求項1〜請求項5のいずれか1項に記載の電子カメラにおいて、
前記画像処理は、特定の方向に隣接する画素間の差分を小さくするものであり、
前記流し撮り効果付与部は、前記特定の方向を、前記動き情報により示される被写体の移動方向に合わせる
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 5,
The image processing is to reduce a difference between pixels adjacent in a specific direction,
The electronic camera, wherein the panning effect imparting unit matches the specific direction with a moving direction of a subject indicated by the motion information.
請求項1〜請求項6のいずれか1項記載の電子カメラにおいて、
撮影時における電子カメラの手振れを検出する手振れ検出部を有し、
前記流し撮り効果付与部は、検出された手振れに基づいて前記動き情報を補正し、補正後の前記動き情報に基づいて、前記修正画像データを生成する
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 6,
A camera shake detection unit that detects the camera shake of the electronic camera at the time of shooting,
The electronic camera, wherein the panning effect imparting unit corrects the motion information based on the detected camera shake and generates the corrected image data based on the corrected motion information.
JP2004262157A 2004-09-09 2004-09-09 Electronic camera Withdrawn JP2006080844A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004262157A JP2006080844A (en) 2004-09-09 2004-09-09 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004262157A JP2006080844A (en) 2004-09-09 2004-09-09 Electronic camera

Publications (1)

Publication Number Publication Date
JP2006080844A true JP2006080844A (en) 2006-03-23

Family

ID=36159940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004262157A Withdrawn JP2006080844A (en) 2004-09-09 2004-09-09 Electronic camera

Country Status (1)

Country Link
JP (1) JP2006080844A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008141675A (en) * 2006-12-05 2008-06-19 Canon Inc Imaging device and control method therefor
US20080309770A1 (en) * 2007-06-18 2008-12-18 Fotonation Vision Limited Method and apparatus for simulating a camera panning effect
JP2009017223A (en) * 2007-07-04 2009-01-22 Sony Corp Imaging device, image processing device, and their image processing method and program
JP2009065573A (en) * 2007-09-10 2009-03-26 Casio Comput Co Ltd Imaging apparatus, focus control method, and focus control program
JP2009296434A (en) * 2008-06-06 2009-12-17 Sharp Corp Imaging device
JP2010187347A (en) * 2009-02-13 2010-08-26 Olympus Corp Apparatus, method and program for image processing
JP2010268441A (en) * 2009-04-16 2010-11-25 Sanyo Electric Co Ltd Image processor, imaging device, and image reproducing device
US7930079B2 (en) * 2006-03-23 2011-04-19 Denso Corporation Software system of electronic control unit for vehicle and design method thereof
JP2013230401A (en) * 2013-08-19 2013-11-14 Nidek Co Ltd Eyeground image processor
JP2015195497A (en) * 2014-03-31 2015-11-05 キヤノン株式会社 Imaging apparatus and control method and control program of the same
JP2017517909A (en) * 2014-03-19 2017-06-29 ソニー株式会社 Control of camera shake blur and motion blur to multiplex pixels
CN107409166A (en) * 2015-04-10 2017-11-28 高通股份有限公司 Panning lens automatically generate
US10063779B2 (en) 2016-02-12 2018-08-28 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2020080518A (en) * 2018-11-14 2020-05-28 キヤノン株式会社 Image processing apparatus

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7930079B2 (en) * 2006-03-23 2011-04-19 Denso Corporation Software system of electronic control unit for vehicle and design method thereof
JP2008141675A (en) * 2006-12-05 2008-06-19 Canon Inc Imaging device and control method therefor
US20080309770A1 (en) * 2007-06-18 2008-12-18 Fotonation Vision Limited Method and apparatus for simulating a camera panning effect
JP2009017223A (en) * 2007-07-04 2009-01-22 Sony Corp Imaging device, image processing device, and their image processing method and program
JP2009065573A (en) * 2007-09-10 2009-03-26 Casio Comput Co Ltd Imaging apparatus, focus control method, and focus control program
US8441539B2 (en) 2008-06-06 2013-05-14 Sharp Kabushiki Kaisha Imaging apparatus
JP2009296434A (en) * 2008-06-06 2009-12-17 Sharp Corp Imaging device
JP2010187347A (en) * 2009-02-13 2010-08-26 Olympus Corp Apparatus, method and program for image processing
JP2010268441A (en) * 2009-04-16 2010-11-25 Sanyo Electric Co Ltd Image processor, imaging device, and image reproducing device
JP2013230401A (en) * 2013-08-19 2013-11-14 Nidek Co Ltd Eyeground image processor
JP2017517909A (en) * 2014-03-19 2017-06-29 ソニー株式会社 Control of camera shake blur and motion blur to multiplex pixels
JP2015195497A (en) * 2014-03-31 2015-11-05 キヤノン株式会社 Imaging apparatus and control method and control program of the same
CN107409166A (en) * 2015-04-10 2017-11-28 高通股份有限公司 Panning lens automatically generate
CN107409166B (en) * 2015-04-10 2021-04-20 高通股份有限公司 Automatic generation of panning shots
US10063779B2 (en) 2016-02-12 2018-08-28 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2020080518A (en) * 2018-11-14 2020-05-28 キヤノン株式会社 Image processing apparatus
JP7143191B2 (en) 2018-11-14 2022-09-28 キヤノン株式会社 Image processing device

Similar Documents

Publication Publication Date Title
JP4522207B2 (en) Camera system, camera body and interchangeable lens
JP5111088B2 (en) Imaging apparatus and image reproduction apparatus
US7817186B2 (en) Camera and image processing method for synthesizing plural images forming one image group to generate a synthesized image
JP5226600B2 (en) Image deformation apparatus and operation control method thereof
JP6062656B2 (en) Imaging apparatus, control method, and program
US8760526B2 (en) Information processing apparatus and method for correcting vibration
US8379096B2 (en) Information processing apparatus and method for synthesizing corrected image data
KR20070088528A (en) Image processor and image processing program
JP2009284394A (en) Imaging apparatus and imaging method
JP2006080844A (en) Electronic camera
JP6932531B2 (en) Image blur correction device, image pickup device, control method of image pickup device
JP2006067452A (en) Video recording apparatus, and electronic camera
KR101538654B1 (en) Digital photographic apparatus of controlling operation of a hand shake correction module and method of controlling the same
JP4953770B2 (en) Imaging device
JP5014267B2 (en) Imaging device
JP5149861B2 (en) Intermediate image generation apparatus and operation control method thereof
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP7346076B2 (en) Control device, lens device, imaging device, control method, and program
JP6702737B2 (en) Image blur correction apparatus and method for controlling image blur correction apparatus
JP6226536B2 (en) Imaging apparatus and control method thereof
JP2022117599A (en) Image processing device, imaging device, control method, and program
JP5415208B2 (en) Imaging device
JP6762843B2 (en) Image processing equipment, image processing methods, and programs
JP6833381B2 (en) Imaging equipment, control methods, programs, and storage media
JP6465553B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204