JP2010273183A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2010273183A
JP2010273183A JP2009124128A JP2009124128A JP2010273183A JP 2010273183 A JP2010273183 A JP 2010273183A JP 2009124128 A JP2009124128 A JP 2009124128A JP 2009124128 A JP2009124128 A JP 2009124128A JP 2010273183 A JP2010273183 A JP 2010273183A
Authority
JP
Japan
Prior art keywords
image
panning
subject
image processing
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009124128A
Other languages
Japanese (ja)
Other versions
JP2010273183A5 (en
JP5326809B2 (en
Inventor
Norikazu Yokonuma
則一 横沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009124128A priority Critical patent/JP5326809B2/en
Publication of JP2010273183A publication Critical patent/JP2010273183A/en
Publication of JP2010273183A5 publication Critical patent/JP2010273183A5/ja
Application granted granted Critical
Publication of JP5326809B2 publication Critical patent/JP5326809B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of easily performing panning. <P>SOLUTION: The imaging apparatus includes: an imaging unit which images a subject and generates an image signal; a first detection unit which detects a moving body based on the image signal; a second detection unit which detects information specifying the moving body detected by the first detection unit in a picked-up image; and an image processing unit which performs image processing on an image other than the image of the image area of the moving body in the picked-up image based on the information detected by the second detection unit and specifying the moving body. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来、撮影者が流し撮りする場合に、シャッター速度を自動算出する技術が知られている(特許文献1参照)。   Conventionally, a technique for automatically calculating a shutter speed when a photographer takes a panning shot is known (see Patent Document 1).

特開平5−232562号公報JP-A-5-232562

しかしながら従来技術にあっては、撮影者が流し撮りする場合には、流し撮りができる程度に長時間の露光をして撮影するために、流し撮り対象被写体に追従させて正常にパンニングできていないと、流し撮りがうまくできないという問題があった。そのため、初心者にとって、流し撮りは難しいという問題があった。   However, in the conventional technique, when the photographer takes a panning shot, the panning is not performed normally by following the subject to be shot in order to shoot with a long exposure to the extent that the panning can be taken. There was a problem that the panning could not be done well. Therefore, for beginners, there is a problem that panning is difficult.

本発明は、このような事情に鑑みてなされたもので、その目的は、容易に流し撮りすることができる撮像装置を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging apparatus that can easily perform panning.

この発明は上述した課題を解決するためになされたもので、被写体を撮像して画像信号を生成する撮像部と、前記画像信号に基づいて、移動体を検出する第1の検出部と、前記撮像する画像内における前記第1の検出部により検出された移動体を特定する情報を検出する第2の検出部と、撮影後に、前記第2の検出部が検出した移動体を特定する情報に基づいて、前記撮影された画像のうち前記移動体の画像領域以外の画像を画像処理する画像処理部と、を備えることを特徴とする撮像装置である。   The present invention has been made to solve the above-described problems, and includes an imaging unit that captures an image of a subject and generates an image signal, a first detection unit that detects a moving body based on the image signal, A second detection unit that detects information that identifies the moving body detected by the first detection unit in the image to be captured, and information that identifies the moving body detected by the second detection unit after shooting. An image processing apparatus comprising: an image processing unit that performs image processing on an image other than the image area of the moving body based on the captured image.

この発明によれば、撮像装置の画像処理部が、撮影後に、移動体を特定する情報に基づいて、撮影された画像のうち移動体の画像領域以外の画像を画像処理することにより、容易に流し撮りすることができる。   According to the present invention, the image processing unit of the imaging device can easily perform image processing on images other than the image area of the moving body among the captured images based on the information specifying the moving body after shooting. You can take a panning shot.

この発明の一実施形態による撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention. パンニングがある場合における撮像装置の動作概要を示す説明図である。It is explanatory drawing which shows the operation | movement outline | summary of an imaging device in case there exists panning. パンニングがない場合における撮像装置の動作概要を示す説明図である。It is explanatory drawing which shows the operation | movement outline | summary of an imaging device in case there is no panning. 図2の場合における流し撮り対象被写体の検出を説明する説明図である。FIG. 3 is an explanatory diagram for explaining detection of a panning target subject in the case of FIG. 2. 図3の場合における流し撮り対象被写体の検出を説明する説明図である。FIG. 4 is an explanatory diagram for explaining detection of a panning target subject in the case of FIG. 3. 本実施形態による撮像装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the imaging device by this embodiment. 本実施形態による撮像装置の画像処理を説明する説明図である。It is explanatory drawing explaining the image processing of the imaging device by this embodiment.

以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の第1の実施形態による撮像装置100の構成を示す概略ブロック図である。撮像装置100は、撮像部10、不揮発メモリー11、バッファメモリー12、操作検出回路13、モニター制御回路14、モニター(表示部)15、メモリー制御回路16、メモリー17、および制御部20を備えている。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of the imaging apparatus 100 according to the first embodiment of the present invention. The imaging apparatus 100 includes an imaging unit 10, a nonvolatile memory 11, a buffer memory 12, an operation detection circuit 13, a monitor control circuit 14, a monitor (display unit) 15, a memory control circuit 16, a memory 17, and a control unit 20. .

撮像部10は、光学系1、角速度センサー2、光学系制御回路3、撮像素子制御回路7、撮像素子8、および、映像回路9を備え、光学系1による光学像(被写体像)を撮像して画像信号を生成して出力する。光学系1は、例えば、撮像素子8への露光を補正する光学素子、焦点を調整する機能を有するフォーカスレンズ、手ブレによる像揺れを補正する機能を有する手ブレ防止レンズ、絞り羽根、および、シャッター等を備えている。   The imaging unit 10 includes an optical system 1, an angular velocity sensor 2, an optical system control circuit 3, an image sensor control circuit 7, an image sensor 8, and a video circuit 9, and takes an optical image (subject image) by the optical system 1. To generate and output an image signal. The optical system 1 includes, for example, an optical element that corrects exposure to the image sensor 8, a focus lens that has a function of adjusting the focus, an anti-shake lens that has a function of correcting image shake due to camera shake, an aperture blade, and A shutter is provided.

角速度センサー2は、撮像装置100の角度変化(移動速度や移動方向を含む)を検出する。この角速度センサー2は、撮像装置100の3軸まわりの回転量を検出する。たとえば流し撮りする場合、流し撮り対象被写体(移動体)に追従して、撮影者により撮像装置100の向きが変えられる。この場合、この角速度センサー2により、撮像装置100の角度変化を検出することにより、流し撮りをしているか否かを検出することができる。   The angular velocity sensor 2 detects an angle change (including a movement speed and a movement direction) of the imaging apparatus 100. The angular velocity sensor 2 detects the amount of rotation about the three axes of the imaging apparatus 100. For example, in the case of panning, the orientation of the imaging device 100 is changed by the photographer following the subject (moving body) to be panned. In this case, it is possible to detect whether or not the panning is being performed by detecting the angular change of the imaging device 100 by the angular velocity sensor 2.

光学系制御回路3は、フォーカスレンズを制御して自動的に焦点を調整するオートフォーカス(以下、AF)制御機能、シャッターの開閉を制御するシャッター制御機能、絞り羽根の絞りを制御して自動的に露出を調整するAE制御機能等を備え、光学系1を駆動させ、撮像素子8への露光を制御する。   The optical system control circuit 3 controls the focus lens to automatically adjust the focus and automatically adjusts the focus (hereinafter referred to as AF) control function, the shutter control function to control the opening / closing of the shutter, and automatically controls the aperture of the aperture blade. AE control function for adjusting the exposure, etc., the optical system 1 is driven, and the exposure to the image sensor 8 is controlled.

撮像素子8は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等であり、光学系1から露光された光学像が結像される受光面を有し、結像された光学像を電気信号に変換してアナログの画像信号を出力する。また、撮像素子8は、撮像素子制御回路7により制御され、シャッターが切られる前においては、入射する光学像に基づきスルー画像信号をフレーム毎に連続して出力し、シャッターが切られたことに応じて、入射する光学像に基づき静止画像用の静止画像信号を出力する。   The image pickup device 8 is a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and has a light receiving surface on which an optical image exposed from the optical system 1 is formed. It converts it into an electrical signal and outputs an analog image signal. Further, the image sensor 8 is controlled by the image sensor control circuit 7, and before the shutter is released, the through image signal is continuously output for each frame based on the incident optical image, and the shutter is released. In response, a still image signal for a still image is output based on the incident optical image.

映像回路9は、撮像素子8から出力される画像信号を増幅し、デジタル信号に変換する。撮像素子制御回路7は、撮像素子8を駆動させ、撮像素子8において結像された光学像の画像信号への変換や、変換された画像信号の出力などの動作を制御する。例えば撮像素子制御回路7は、制御部20によって制御される露光時間で、撮像素子8に光学像を結像させる露光時間制御や、撮像素子8に一定時間tの間隔で複数のスルー画像信号を生成させるスルー画生成制御等を行う。なお一定時間tの間隔とは、例えば1/60秒である。   The video circuit 9 amplifies the image signal output from the image sensor 8 and converts it into a digital signal. The image sensor control circuit 7 drives the image sensor 8 and controls operations such as conversion of an optical image formed on the image sensor 8 into an image signal and output of the converted image signal. For example, the image sensor control circuit 7 performs exposure time control for forming an optical image on the image sensor 8 with an exposure time controlled by the control unit 20, and outputs a plurality of through image signals to the image sensor 8 at intervals of a predetermined time t. Perform through image generation control to be generated. The interval of the fixed time t is, for example, 1/60 seconds.

不揮発メモリー11は、制御部20を動作させるプログラムや、ユーザから入力された各種設定や撮影条件などの情報を記憶する。不揮発メモリー11は、例えば、操作検出回路13から入力される情報に基づき、自動レリーズ設定の有無や、自動レリーズ設定の設定条件等の情報を記憶する。
バッファメモリー12は、制御部20の制御処理に用いられる一時的な情報の記憶領域であって、例えば、撮像素子8から出力されるスルー画像信号や、制御部20によって画像処理された撮影画像信号などが制御部20によって一時的に記憶される。
The nonvolatile memory 11 stores a program for operating the control unit 20 and information such as various settings and shooting conditions input by the user. The non-volatile memory 11 stores information such as the presence / absence of automatic release setting and the setting conditions for automatic release setting based on information input from the operation detection circuit 13, for example.
The buffer memory 12 is a temporary information storage area used for the control process of the control unit 20. For example, the buffer memory 12 is a through image signal output from the image sensor 8 or a captured image signal image-processed by the control unit 20. Etc. are temporarily stored by the control unit 20.

操作検出回路13は、電源スイッチ13a、レリーズスイッチ13b、・・・13n等の入力部を備え、その入力部がユーザによって操作されることに応じて、操作に対応する制御信号を制御部20に出力する。たとえばレリーズスイッチ13bが全押しされたことに応じて、操作検出回路13は、レリーズ信号を制御部20に出力する。   The operation detection circuit 13 includes input units such as a power switch 13a, a release switch 13b,... 13n, and a control signal corresponding to the operation is sent to the control unit 20 in response to the input unit being operated by the user. Output. For example, the operation detection circuit 13 outputs a release signal to the control unit 20 in response to the release switch 13b being fully pressed.

モニター制御回路14は、例えば、モニター15の点灯と消灯および明るさ調整などの表示制御や、制御部20によって画像処理された画像信号をモニター15に表示させる処理を行う。モニター15は、画像信号に応じた画像を表示するディスプレイであり、例えば、LCD(Liquid Crystal Display)などの液晶ディスプレイである。   For example, the monitor control circuit 14 performs display control such as turning on and off the monitor 15 and adjusting brightness, and processing for causing the monitor 15 to display the image signal image-processed by the control unit 20. The monitor 15 is a display that displays an image according to an image signal, and is a liquid crystal display such as an LCD (Liquid Crystal Display).

メモリー制御回路16は、制御部20とメモリー17との情報の入出力を制御し、例えば制御部20によって画像処理された画像信号をメモリー17に記憶させる処理や、メモリー17に記憶されている画像信号等の情報を読み出して制御部20に出力する処理などを行う。メモリー17は、例えば、メモリーカードなど撮像装置100に対して抜き差し可能な記憶媒体であり、制御部20によって画像処理された画像信号などが記憶される。   The memory control circuit 16 controls input / output of information between the control unit 20 and the memory 17. For example, the memory control circuit 16 stores the image signal image-processed by the control unit 20 in the memory 17 or the image stored in the memory 17. A process of reading information such as a signal and outputting the information to the control unit 20 is performed. The memory 17 is a storage medium that can be inserted into and removed from the imaging apparatus 100, such as a memory card, and stores an image signal that has undergone image processing by the control unit 20.

制御部20は、不揮発メモリー11に記憶されたプログラムに基づいて撮像装置100の各部の動作を制御するCPU(Central Processing Unit)等である。例えば、制御部20は、ユーザの操作により操作検出回路13から入力される制御信号に応じて、撮像装置100への電源の投入、光学系制御回路3を介した光学系1の駆動制御、撮像素子制御回路7を介した撮像素子8の駆動制御、または、モニター制御回路14を介したモニター15の表示制御等を行う。   The control unit 20 is a CPU (Central Processing Unit) that controls the operation of each unit of the imaging apparatus 100 based on a program stored in the nonvolatile memory 11. For example, the control unit 20 turns on the power to the imaging apparatus 100, controls the drive of the optical system 1 via the optical system control circuit 3, and captures an image in accordance with a control signal input from the operation detection circuit 13 by a user operation. Drive control of the image sensor 8 via the element control circuit 7 or display control of the monitor 15 via the monitor control circuit 14 is performed.

この制御部20は、画像処理部21と、表示制御部22と、第1の検出部23と、第2の検出部24と、第1画像処理部251および第2画像処理部252を有する撮影後画像処理部25(画像処理部)と、パンニング検出部26と、撮像条件設定部27と、撮影制御部28と、を備えている。   The control unit 20 includes an image processing unit 21, a display control unit 22, a first detection unit 23, a second detection unit 24, a first image processing unit 251, and a second image processing unit 252. A post-image processing unit 25 (image processing unit), a panning detection unit 26, an imaging condition setting unit 27, and an imaging control unit 28 are provided.

画像処理部21は、撮像素子8から映像回路9に出力された画像信号(静止画像信号およびスルー画像信号)に対して画像処理を行う。この画像処理とは、色の調整処理や、ホワイトバランスの調整処理や、ノイズの低減処理などがある。画像処理部21は、例えば、スルー画像信号に対して、動画的にモニター15に表示されるように画像処理を行い、バッファメモリー12に記憶させる。   The image processing unit 21 performs image processing on the image signals (still image signal and through image signal) output from the image sensor 8 to the video circuit 9. The image processing includes color adjustment processing, white balance adjustment processing, noise reduction processing, and the like. For example, the image processing unit 21 performs image processing on the through image signal so as to be displayed on the monitor 15 as a moving image, and stores it in the buffer memory 12.

表示制御部22は、バッファメモリー12に記憶されている、画像処理部21によって画像処理されたスルー画像信号を読み出し、リアルタイムにモニター15に出力する。
パンニング検出部26は、角速度センサー2から出力された3軸まわりの回転量に基づいて、撮像装置100のパンニングを検出する。
The display control unit 22 reads the through image signal that has been image-processed by the image processing unit 21 and is stored in the buffer memory 12 and outputs it to the monitor 15 in real time.
The panning detection unit 26 detects panning of the imaging device 100 based on the rotation amounts around the three axes output from the angular velocity sensor 2.

第1の検出部23は、撮像部10から出力された画像信号に基づいた画像から、被写体の動きベクトルを検出し、当該検出した動きベクトルと、パンニング検出部26が検出したパンニングと検出した動きベクトルとに基づいて、流し撮り対象被写体を検出する。この撮像部10から出力された画像信号に基づいた画像とは、たとえば、画像処理部21により画像処理された画像である。   The first detection unit 23 detects the motion vector of the subject from the image based on the image signal output from the imaging unit 10, the detected motion vector, the panning detected by the panning detection unit 26, and the detected motion Based on the vector, the subject for panning is detected. The image based on the image signal output from the imaging unit 10 is, for example, an image subjected to image processing by the image processing unit 21.

たとえば第1の検出部23は、パンニング検出部26によりパンニングが検出されている場合には、パンニング検出部26に検出されるパンニングと、撮像部10から出力された画像信号に基づいた画像における被写体の動きベクトルとが対応する被写体を、流し撮り対象被写体(主要被写体)として検出する。また第1の検出部23は、パンニング検出部26によりパンニングが検出されていない場合には、撮像部10から出力された画像信号に基づいた画像における被写体の動きベクトルが予め定められている値よりも大きい被写体を、流し撮り対象被写体として検出する。   For example, when the panning is detected by the panning detection unit 26, the first detection unit 23 detects the subject in the image based on the panning detected by the panning detection unit 26 and the image signal output from the imaging unit 10. The subject corresponding to the motion vector is detected as a panning target subject (main subject). Further, the first detection unit 23 determines that the motion vector of the subject in the image based on the image signal output from the imaging unit 10 is a predetermined value when panning is not detected by the panning detection unit 26. Is detected as a subject for panning.

第2の検出部24は、撮像される場合に、当該撮像される画像内における第1の検出部23により検出された流し撮り対象被写体を特定する情報を検出する。この流し撮り対象被写体を特定する情報には、たとえば、撮像された画像内における流し撮り対象被写体の移動方向を示す情報、撮像された画像内における流し撮り対象被写体の位置を示す情報、および、撮像された画像内における流し撮り対象被写体の形状を示す情報が含まれている。また、この流し撮り対象被写体を特定する情報に含まれる各情報は、流し撮り対象被写体の撮影時(露光時)に予測される各情報であってもよい。   The second detection unit 24 detects information specifying the panning target subject detected by the first detection unit 23 in the captured image when the image is captured. The information for specifying the panning target subject includes, for example, information indicating the moving direction of the panning target subject in the captured image, information indicating the position of the panning target subject in the captured image, and imaging. Information indicating the shape of the subject to be shot in the shot image is included. Further, each piece of information included in the information for specifying the panning target subject may be information predicted when the panning target subject is shot (exposure).

撮影後画像処理部25は、撮影後に、第2の検出部24が検出した流し撮り対象被写体を特定する情報に基づいて、撮像された画像のうち流し撮り対象被写体の画像領域以外の画像を画像処理する。   The post-shooting image processing unit 25 captures images other than the image area of the panning target subject among the picked up images based on the information specifying the panning target subject detected by the second detection unit 24 after the shooting. To process.

この撮影後画像処理部25が有する第1画像処理部251は、第2の検出部24が検出した流し撮り対象被写体を特定する情報に基づいて、流し撮り対象被写体以外の画像に対して移動ぼかし処理をする。また、この第1画像処理部251は、流し撮り対象被写体を特定する情報に含まれている流し撮り対象被写体の移動方向を示す情報に基づいて、ぼかす方向を定めて移動ぼかし処理をする。   The first image processing unit 251 included in the post-shooting image processing unit 25 moves and blurs an image other than the panning target subject based on the information specifying the panning target subject detected by the second detection unit 24. Process. In addition, the first image processing unit 251 performs a movement blurring process by determining a blur direction based on information indicating the moving direction of the panning target subject included in the information for specifying the panning target subject.

この撮影後画像処理部25が有する第2画像処理部252は、第1画像処理部251がぼかし処理した画像と、流し撮り対象被写体の画像とを合成する。また、この第2画像処理部252は、合成する場合に、流し撮り対象被写体の画像がぼかし処理した画像の上になるようにして合成する。   The second image processing unit 252 included in the post-shooting image processing unit 25 synthesizes the image blurred by the first image processing unit 251 and the image of the subject to be shot. In addition, the second image processing unit 252 synthesizes so that the image of the subject to be shot is over the blurred image.

撮像条件設定部27は、設定される撮影モードなどの条件に基づいて、撮影条件を設定する。この撮影条件には、高速シャッターが含まれている。ここで高速シャッターとは、流し撮りする場合よりも早いシャッター速度であり、たとえば流し撮り対象被写体が撮像される画面内で静止して撮像されるようなシャッター速度である。   The imaging condition setting unit 27 sets shooting conditions based on conditions such as a set shooting mode. This shooting condition includes a high-speed shutter. Here, the high-speed shutter is a shutter speed that is faster than that in the case of panning, for example, the shutter speed at which a subject to be panned is imaged in a stationary manner.

撮影制御部28は、レリーズ信号が入力されたことに応じて、撮像条件設定部27により設定された撮影条件に基づいて、撮像素子8を制御して画像を撮像させ、この撮像された画像に対して画像処理部21を制御して上述した画像処理を実行させる。また撮影制御部28は、このようにして撮像された画像に対して、撮影後画像処理部25を制御して、第2の検出部24が検出した流し撮り対象被写体を特定する情報に基づいて、撮像された画像のうち流し撮り対象被写体の画像領域以外の画像を画像処理させる。なお、画像処理部21と撮影後画像処理部25とは、画像処理する場合に、バッファメモリー12を作業領域として用いてもよい。   In response to the input of the release signal, the imaging control unit 28 controls the imaging element 8 based on the imaging conditions set by the imaging condition setting unit 27 to capture an image. On the other hand, the image processing unit 21 is controlled to execute the above-described image processing. In addition, the shooting control unit 28 controls the post-shooting image processing unit 25 with respect to the image captured in this manner, and based on the information specifying the panning target subject detected by the second detection unit 24. Then, image processing is performed on images other than the image area of the subject to be panned out of the captured images. Note that the image processing unit 21 and the post-shooting image processing unit 25 may use the buffer memory 12 as a work area when performing image processing.

また撮影制御部28は、撮影後画像処理部25により画像処理された画像を、メモリー制御回路16を介してメモリー17に記憶させる。なお撮影制御部28は、撮影後画像処理部25により画像処理された画像とともに、画像処理部21により画像処理された画像を関連付けて、メモリー制御回路16を介してメモリー17に記憶させてもよい。   Further, the shooting control unit 28 stores the image processed by the post-shooting image processing unit 25 in the memory 17 via the memory control circuit 16. The shooting control unit 28 may associate the image processed by the image processing unit 21 with the image processed by the post-shooting image processing unit 25 and store the image in the memory 17 via the memory control circuit 16. .

次に図2と図3とを用いて、上述した撮像装置100の一例としての動作概要について説明する。図2は、走行している車(図2の符号A参照)に追従させて撮影者が撮像装置100をパンニングして、流し撮りした場合である。図3は、撮影者が撮像装置100を固定しておいて、走行している車(図3の符号A参照)を撮影した場合である。いずれの場合にも、背景に家(図2と図3との符号B参照)がある場合について説明する。この図2と図3との各図は、撮像装置100が撮像する画面内の画像に対応している。   Next, an outline of the operation as an example of the imaging apparatus 100 described above will be described with reference to FIGS. 2 and 3. FIG. 2 shows a case where the photographer pans the imaging apparatus 100 by following a traveling car (see reference A in FIG. 2) and takes a panning shot. FIG. 3 shows a case where the photographer has fixed the imaging device 100 and photographed a traveling car (see reference A in FIG. 3). In any case, a case where there is a house in the background (see reference sign B in FIGS. 2 and 3) will be described. Each of FIGS. 2 and 3 corresponds to an image on the screen captured by the image capturing apparatus 100.

まず図2の場合について説明する。この図2では、撮影者が、左から右へ走行している車に追従させて撮像装置100をパンニングして撮影する。この場合、パンニング検出部26は、このパンニングを検出している。また、第1の検出部23は、フレーム間(図2(a)と(b)を参照)における、各被写体の動きベクトルを検出している(図2(d)参照)。   First, the case of FIG. 2 will be described. In FIG. 2, the photographer pans the image capturing apparatus 100 while following a car traveling from left to right and captures an image. In this case, the panning detection unit 26 detects this panning. The first detection unit 23 detects a motion vector of each subject between frames (see FIGS. 2A and 2B) (see FIG. 2D).

この図2の場合には、撮像装置100がパンニングされているので、背景である家は、画面内で右から左へ移動している(図2(d)の符号B1とB2を参照)。これに対して、車に追従させて撮像装置100はパンニングされているために、車は、画面内で移動していない(図2(d)の符号Aを参照)。よってこの場合、第1の検出部23は、画面内で移動していない被写体である車を、流し撮り対象被写体として検出する。   In the case of FIG. 2, since the imaging apparatus 100 is panned, the house as the background is moving from right to left in the screen (see symbols B1 and B2 in FIG. 2D). On the other hand, since the imaging device 100 is panned by following the vehicle, the vehicle is not moving in the screen (see reference A in FIG. 2D). Therefore, in this case, the first detection unit 23 detects a car that is a subject that has not moved in the screen as a subject to be shot.

その後、撮影者によるレリーズスイッチ13bの押下に応じて、撮像装置100は、高速シャッターでブレの無い静止画を撮像する(図2(c)参照)。撮像後、撮影後画像処理部25の第1画像処理部251が、流し撮り対象被写体以外の背景などの画像(ここでは、家のみを例示)を、パンニングの方向に画像処理してぶらす(図2(e)の符号B3参照)。その後、撮影後画像処理部25の第2画像処理部252が、ぶらした背景と、ぶらしていない流し撮り対象被写体とを、合成する(図2(f)参照)。   Thereafter, in response to the photographer pressing the release switch 13b, the imaging device 100 captures a still image without blurring with a high-speed shutter (see FIG. 2C). After the imaging, the first image processing unit 251 of the post-imaging image processing unit 25 performs image processing on the background or the like other than the panning target subject (here, only the house is illustrated) and hangs it in the panning direction ( (See symbol B3 in FIG. 2 (e)). Thereafter, the second image processing unit 252 of the post-shooting image processing unit 25 synthesizes the hanging background and the non-hanging panning target subject (see FIG. 2F).

このようにして、流し撮り対象被写体に追従させて正常にパンニングできていない場合であっても、静止画として撮像される高速シャッターで撮影することにより、流し撮り対象被写体をぶれずに綺麗に撮像することができる。そして撮影後に、画像処理によって流し撮り対象被写体以外の画像に対して画像処理することにより、流し撮り対象被写体に追従させて正常にパンニングできている場合と同様の撮像をすることができる。   In this way, even if the panning target subject is not followed and panning is not successful, shooting with the high-speed shutter captured as a still image captures the panning subject subject without blurring. can do. Then, by performing image processing on images other than the panning target subject by image processing after shooting, it is possible to capture the same image as when panning is normally performed following the panning target subject.

次に図3の場合について説明する。この図3では、撮影者が、撮像装置100を固定しておき、紙面上、左から右へ移動している車を撮影する。パンニング検出部26は、この撮像装置100が固定されているというパンニングを検出している。第1の検出部23は、フレーム間(図3(a)と(b)とを参照)における、各被写体の移動および動きベクトルを検出している(図3(d)参照)。この図3の場合には、撮像装置100が固定されているので、背景である家は、画面内で移動していない(図3(d)の符号Bを参照)。逆に車は移動しているために、車は、画面内で移動している(図3(d)の符号A1とA2を参照)。よってこの場合は、第1の検出部23は、画面内で移動している被写体である車を、流し撮り対象被写体とする。   Next, the case of FIG. 3 will be described. In FIG. 3, the photographer fixes the imaging device 100 and photographs a car moving from left to right on the paper. The panning detection unit 26 detects panning that the imaging apparatus 100 is fixed. The first detection unit 23 detects the movement and motion vector of each subject between frames (see FIGS. 3A and 3B) (see FIG. 3D). In the case of FIG. 3, since the imaging device 100 is fixed, the house that is the background does not move within the screen (see the symbol B in FIG. 3D). Conversely, since the car is moving, the car is moving within the screen (see symbols A1 and A2 in FIG. 3D). Therefore, in this case, the first detection unit 23 sets a car, which is a subject moving within the screen, as a subject to be shot.

その後、撮影者によるレリーズスイッチ13bの押下に応じて、撮像装置100は、高速シャッターでブレの無い静止画を撮像する(図3(c)参照)。以降、図2(e)と(f)とで説明したのと同様の画像処理が行われる。   Thereafter, in response to the photographer pressing the release switch 13b, the imaging apparatus 100 captures a still image without blurring with a high-speed shutter (see FIG. 3C). Thereafter, image processing similar to that described with reference to FIGS. 2E and 2F is performed.

このようにして、撮像装置100が固定されており、流し撮り対象被写体に追従させてパンニングしていない場合であっても、流し撮り対象被写体に追従させて正常にパンニングできている場合と同様の撮像をすることができる。   In this way, even when the imaging device 100 is fixed and is not panned by following the subject to be shot, it is the same as when panning is normally performed by following the subject to be shot. Imaging can be performed.

次に図4と図5とを用いて、第1の検出部23が、図2と図3とのそれぞれの場合に、流し撮り対象被写体を検出する方法について説明する。この図4と図5とおいては、車を被写体2とし、家などの背景を被写体1として説明する。   Next, with reference to FIG. 4 and FIG. 5, a description will be given of a method in which the first detection unit 23 detects the panning target subject in each of the cases of FIG. 2 and FIG. In FIGS. 4 and 5, a car is assumed to be a subject 2 and a background such as a house is assumed to be a subject 1.

図4は、図2の場合におけるパンニング検出部26が検出したパンニング(カメラパン速度)と、第1の検出部23が検出した被写体毎の移動ベクトルとを、フレーム毎に示してある図である。この場合、カメラパン速度の値が0でないことから、流し撮り対象被写体を追従していると判定することがきる。また、流し撮り対象被写体である被写体2は画面内で移動しておらず、流し撮り対象被写体でない被写体1は画面内で移動していることがわかる。従って、第1の検出部23は、流し撮り対象被写体を追従している場合、すなわち、パンニング検出部26によりパンニングが検出されている場合には、画面内で移動していない被写体である被写体2(車)を、流し撮り対象被写体として検出する。   FIG. 4 is a diagram showing the panning (camera pan speed) detected by the panning detection unit 26 in the case of FIG. 2 and the movement vector for each subject detected by the first detection unit 23 for each frame. . In this case, since the value of the camera pan speed is not 0, it can be determined that the subject to be shot is being followed. In addition, it can be seen that the subject 2 that is the subject of the panning shot does not move within the screen, and the subject 1 that is not the subject of the panning shot moves within the screen. Accordingly, when the first detection unit 23 follows the panning target subject, that is, when panning is detected by the panning detection unit 26, the first subject 2 is a subject that has not moved in the screen. (Car) is detected as a subject for panning.

図5は、図3の場合におけるパンニング検出部26が検出したパンニング(カメラパン速度)と、第1の検出部23が検出した被写体毎の移動ベクトルとを、フレーム毎に示してある図である。この場合、カメラパン速度の値がほぼ0であることから、流し撮り対象被写体を追従していないことがわかる。また、流し撮り対象被写体である被写体2は画面内で移動しており、流し撮り対象被写体でない被写体1は画面内で移動していないことがわかる。従って、第1の検出部23は、流し撮り対象被写体を追従していない場合、すなわち、パンニング検出部26によりパンニングが検出されていない場合には、画面内で移動している被写体である被写体2(車)を、流し撮り対象被写体として検出する。   FIG. 5 is a diagram showing the panning (camera pan speed) detected by the panning detection unit 26 in the case of FIG. 3 and the movement vector for each subject detected by the first detection unit 23 for each frame. . In this case, since the value of the camera pan speed is almost 0, it can be seen that the subject to be shot is not being followed. In addition, it can be seen that the subject 2 that is the subject of the panning shot moves within the screen, and the subject 1 that is not the subject of the panning shot does not move within the screen. Accordingly, when the first detection unit 23 does not follow the subject to be shot, that is, when panning is not detected by the panning detection unit 26, the first detection unit 23 is the subject 2 that is moving within the screen. (Car) is detected as a subject for panning.

なお、図4と図5とにおいては、フレームn+3とn+4との間で、レリーズ動作が開始されて、フレームn+4とn+5との間で露光されて、撮像されている。一般に、レリーズ動作が開始されてから露光されるまでの間には、所定の時間間隔が生じる。そのため、図6または図7に示すように、上述したレリーズ動作が開始から露光までの間に生じる所定の時間間隔で、流し撮り対象被写体の画面内における位置が変化してしまう。よって、レリーズ動作が開始される直前のフレーム(フレームn+3)における流し撮り対象被写体の画面内における位置に基づいて、撮影後画像処理部25は画像処理を実行することができない。   In FIGS. 4 and 5, a release operation is started between frames n + 3 and n + 4, and exposure is performed between frames n + 4 and n + 5 to capture an image. In general, a predetermined time interval occurs between the start of the release operation and the exposure. Therefore, as shown in FIG. 6 or FIG. 7, the position of the panning target subject in the screen changes at a predetermined time interval that occurs between the start of the release operation and the exposure. Therefore, the post-shooting image processing unit 25 cannot perform image processing based on the position of the subject to be shot in the frame immediately before the release operation is started (frame n + 3).

そこで第2の検出部24は、撮影時(露光時)に予測される流し撮り対象被写体の画面内における位置を推測する(図4と図5の被写体2予測位置参照)。そして、撮影後画像処理部25は、第2の検出部24により予測された流し撮り対象被写体の画面内における位置に基づいて、撮影後画像処理部25は画像処理を実行する。これにより、レリーズ動作が開始から露光までの間に生じる所定の時間間隔で、流し撮り対象被写体の画面内における位置が変化する場合であっても、撮影後画像処理部25は画像処理を実行することができる。なお、流し撮り対象被写体の画面内における位置のみではなく、流し撮り対象被写体の画面内における方向および形状を、第2の検出部24は予測してもよい。   Accordingly, the second detection unit 24 estimates the position of the panning target subject predicted during shooting (exposure) in the screen (see the subject 2 predicted position in FIGS. 4 and 5). Then, the post-photographing image processing unit 25 performs image processing based on the position of the panning target subject in the screen predicted by the second detection unit 24. As a result, even if the position of the panning target subject in the screen changes at a predetermined time interval that occurs between the start of the release operation and the exposure, the post-shooting image processing unit 25 executes image processing. be able to. Note that the second detection unit 24 may predict not only the position of the panning target subject in the screen but also the direction and shape of the panning target subject in the screen.

次に図6を用いて、撮像装置100の一例としての動作について説明する。ここでは、ユーザによって電源スイッチ13aが押下され、電源が投入されてからの撮像装置100の動作について説明する。   Next, an operation as an example of the imaging apparatus 100 will be described with reference to FIG. Here, an operation of the imaging apparatus 100 after the user presses the power switch 13a and the power is turned on will be described.

まず撮像装置100の電源がオンされたことに応じて、ステップS001で、回路システムをリセットしてシステムを初期化する。次のステップS003で、撮像素子8を起動し、スルー画像を連続して撮影可能な状態にする。次のステップS004で、モニター15を点灯させ、撮像素子8からのスルー画像をモニター15に表示させる。   First, in response to the power supply of the imaging apparatus 100 being turned on, in step S001, the circuit system is reset to initialize the system. In the next step S003, the image sensor 8 is activated to make it possible to continuously shoot through images. In the next step S004, the monitor 15 is turned on, and a through image from the image sensor 8 is displayed on the monitor 15.

次のステップS021、S022およびS023で、撮像条件設定部27は、AE制御、AWB制御およびAF制御を行い、撮影条件を設定する。この場合は、モニター15に表示する画像の露出、色およびピントが最適となるように制御される。   In the next steps S021, S022, and S023, the imaging condition setting unit 27 performs AE control, AWB control, and AF control, and sets imaging conditions. In this case, the exposure, color, and focus of the image displayed on the monitor 15 are controlled to be optimal.

このAE制御とは、被写体の輝度を測定し、適正露出となるように撮像素子8による撮像速度および光学系1の絞りを調整することである。またAWB制御とは、被写体色を測定して最適な色になるように色毎の増幅率を調整する処理である。またAF制御とは、被写体に焦点を合わせる制御である。   The AE control is to measure the luminance of the subject and adjust the imaging speed of the imaging device 8 and the aperture of the optical system 1 so that the exposure is appropriate. AWB control is a process of measuring the subject color and adjusting the amplification factor for each color so as to obtain an optimum color. The AF control is control for focusing on a subject.

次のステップS024で、制御部20が、レリーズスイッチ13bが半押しされているか否かを判定する。このステップS024でレリーズスイッチ13bが半押しされていない場合には、制御部20は、ステップS021からの処理を繰り返す。一方、このステップS024でレリーズスイッチ13bが半押しされている場合には、制御部20は、ステップS041へ処理を進める。   In the next step S024, the control unit 20 determines whether or not the release switch 13b is half pressed. If the release switch 13b is not half-pressed in step S024, the control unit 20 repeats the processing from step S021. On the other hand, when the release switch 13b is half-pressed in step S024, the control unit 20 advances the process to step S041.

次にステップS041、S042およびS043で、撮像条件設定部27は、再度、AE制御、AWB制御およびAF制御を行い、撮影条件を設定する。この場合は、撮像される画像の露出、色およびピントが最適となるように制御される。   Next, in steps S041, S042, and S043, the imaging condition setting unit 27 performs AE control, AWB control, and AF control again, and sets imaging conditions. In this case, the exposure, color, and focus of the image to be captured are controlled to be optimal.

次にステップS044で、第1の検出部23が、流し撮り対象被写体を検出する。このステップS044において、第1の検出部23は、パンニング検出部26により撮像装置100がパンニングされているか否かを判定し、撮像装置100がパンニングされている場合には、画面内位置の変わらない被写体が存在する場合に、この被写体を流し撮り対象被写体として検出するとともに、流し撮りであるとする。また第1の検出部23は、逆に撮像装置100がパンニングされておらず、撮像装置100が固定されている場合には、画面内位置の変わる被写体が存在する場合に、この被写体を流し撮り対象被写体として検出するとともに、流し撮りであると判定する。   Next, in step S044, the first detection unit 23 detects a panning target subject. In step S044, the first detection unit 23 determines whether or not the imaging device 100 is panned by the panning detection unit 26. If the imaging device 100 is panned, the position in the screen does not change. When a subject exists, it is assumed that this subject is detected as a panning target subject and the panning is performed. On the other hand, when the imaging device 100 is not panned and the imaging device 100 is fixed, the first detection unit 23 takes a shot of the subject when there is a subject whose position in the screen changes. It is detected as a target subject and is determined to be a panning shot.

次にステップS045で、撮像条件設定部27は、上述したステップS044における判定結果が流し撮りである場合には処理をステップS046に進め、流し撮りでない場合には処理をステップS048に進める。   Next, in step S045, the imaging condition setting unit 27 proceeds to step S046 if the determination result in step S044 described above is panning, and proceeds to step S048 if it is not panning.

次にステップS046で、撮像条件設定部27は、高速シャッターに撮影条件を設定する。次にステップS047で、第2の検出部24は、流し撮り対象被写体の画面内位置(被写体位置)、流し撮り対象被写体の形状(被写体形状)、および、流し撮り対象被写体の移動方向または撮像装置100のパンニングの方向を示す情報(被写体移動方向)を、記憶部に記憶させる。この記憶部とは、たとえば、不揮発メモリー11またはバッファメモリー12である。   In step S046, the imaging condition setting unit 27 sets imaging conditions for the high-speed shutter. Next, in step S047, the second detection unit 24 determines the position in the screen of the panning target subject (subject position), the shape of the panning target subject (subject shape), and the moving direction of the panning target subject or the imaging device. Information indicating the panning direction of 100 (subject moving direction) is stored in the storage unit. This storage unit is, for example, the nonvolatile memory 11 or the buffer memory 12.

上述したステップS047において、第2の検出部24は、レリーズ信号が入力されて撮像する場合における流し撮り対象被写体の画面内における予測位置(被写体予測位置)を記憶部に記憶させる。この予測位置は、たとえば第2の検出部24が、過去の流し撮り対象被写体の画面内移動速度から算出する。また、被写体形状と被写体移動方向とを、被写体予測位置と同様に予測する。   In step S047 described above, the second detection unit 24 causes the storage unit to store the predicted position (subject predicted position) in the screen of the panning target subject when the release signal is input for imaging. For example, the second detection unit 24 calculates the predicted position from the moving speed of the past subject to be shot in the screen. Also, the subject shape and the subject moving direction are predicted in the same manner as the subject predicted position.

次にステップS048で、半押しされている状態のレリーズスイッチ13bがさらに押下され、レリーズスイッチ13bからのレリーズ信号が入力されたか否かを、制御部20は判定する。このステップS048でレリーズ信号が入力されていない場合には、ステップS049に進む。   Next, in step S048, the control unit 20 determines whether or not the release switch 13b that has been half-pressed is further pressed and a release signal is input from the release switch 13b. If no release signal is input in step S048, the process proceeds to step S049.

次にステップS049で、レリーズスイッチ13bが半押しされているか否かを判定する。このステップS049でレリーズスイッチ13bが半押しされている場合(レリーズ待機中の場合)には、処理をステップS050に進め、半押しされていない場合にはステップS021からの処理を繰り返す。   In step S049, it is determined whether the release switch 13b is half-pressed. If the release switch 13b is half-pressed in this step S049 (when waiting for release), the process proceeds to step S050, and if it is not half-pressed, the processes from step S021 are repeated.

次にステップS050で、設定されている撮影モードが、流し撮りモードであるか否かを判定する。流し撮りモードでない場合には、ステップS044からの処理を繰り返し、流し撮りモードである場合には、ステップS041からの処理を繰り返す。すなわち、流し撮りモードでない場合には、AE、AEおよびAWBがロックされ、流し撮りモードである場合には、再度AE、AEおよびAWBの制御がされる。   In step S050, it is determined whether the set shooting mode is the panning mode. If it is not the panning mode, the process from step S044 is repeated, and if it is the panning mode, the process from step S041 is repeated. That is, when not in the panning mode, AE, AE and AWB are locked, and when in the panning mode, AE, AE and AWB are controlled again.

一方、上述したステップS048でレリーズ信号が入力されている場合には、上述したステップS041からS043で設定した撮影条件で、1コマの撮影処理を実行する。次にステップS052で、上述したステップS044における判定結果が、流し撮りである場合には処理をステップS053に進め、流し撮りでない場合には処理をステップS054に進める。   On the other hand, when the release signal is input in step S048 described above, one frame shooting process is executed under the shooting conditions set in steps S041 to S043 described above. Next, in step S052, if the determination result in step S044 described above is panning, the process proceeds to step S053. If not, the process proceeds to step S054.

次にステップS053で、撮影後画像処理部25は、上述したステップS047で記憶された被写体位置、被写体形状、および、被写体移動方向を記憶部から読み出し、当該読み出した情報に基づいて、流し撮り対象被写体以外の画像領域に対して画像処理を行い、撮像装置100のパンニングの方向または対象被写体の移動方向に対してブレを生成し、その後流し撮り対象被写体と合成する。このブレは、たとえば、移動平均により生成される。このようなブレを生成する画像処理は、たとえば、画像処理ソフトにおいて、ぼかし(移動)フィルター処理として知れられている。   Next, in step S053, the post-shooting image processing unit 25 reads the subject position, the subject shape, and the subject moving direction stored in step S047 from the storage unit, and based on the read information, Image processing is performed on an image area other than the subject, blurring is generated in the panning direction of the imaging apparatus 100 or the moving direction of the target subject, and thereafter, the image is synthesized with the subject to be shot. This blur is generated by, for example, a moving average. Image processing for generating such blurring is known as blurring (moving) filter processing in image processing software, for example.

次にステップS054で、上述したステップS042で設定されたAWBに基づいて撮像された画像のホワイトバランスを調整し、メモリー17に記録した後、ステップS021からの処理を繰り返す。   Next, in step S054, the white balance of the image captured based on the AWB set in step S042 is adjusted and recorded in the memory 17, and then the processing from step S021 is repeated.

上述した本実施形態による撮像装置100によれば、流し撮りの場合には高速シャッターで撮影し、この撮影後に、流し撮り対象被写体を特定する情報に基づいて、撮像された画像のうち流し撮り対象被写体の画像領域以外の画像を画像処理する。これにより、流し撮り対象被写体に追従させて正常にパンニングできていない、または、流し撮り対象被写体に追従させてパンニングしていない場合であっても、流し撮り対象被写体に追従させて正常にパンニングした場合と同様の流し撮りを、簡易にすることができる。   According to the above-described imaging device 100 according to the present embodiment, in the case of panning, the subject is shot with a high-speed shutter, and after this shooting, based on information for specifying the subject to be shot, the subject of the panning shot Image processing is performed on an image other than the image area of the subject. As a result, the panning target subject has not been properly panned, or even if the panning subject subject has not been panned, the panning target subject has been successfully panned. A panning shot similar to the case can be simplified.

なお図7に示すように、撮影後画像処理部25は、パンニングの方向または対象被写体の移動方向に対して、同じ方向と逆の方向との両方の方向にブレを生成するようにしてもよいし(図7(a)参照)、パンニングの方向または対象被写体の移動方向の逆方向のみにブレを生成するようにしてもよい(図7(b)参照)。また、この移動方向へのブレの大きさは、パンニングの移動量または対象被写体の移動量に基づいて、定められるようにしてもよい。   As shown in FIG. 7, the post-shooting image processing unit 25 may generate blur in both the same direction and the opposite direction with respect to the panning direction or the moving direction of the target subject. However, the blur may be generated only in the panning direction or the direction opposite to the moving direction of the target subject (see FIG. 7B). Further, the magnitude of the blur in the movement direction may be determined based on the movement amount of panning or the movement amount of the target subject.

なお、上述した角速度センサー2およびパンニング検出部26は、手振れ防止機構に用いられていることを用いることが可能である。よって、手振れ防止機構を有している撮像装置を本実施形態による撮像装置のようにする場合には、制御部20の内部構成は変更されるものの、新たな構成の追加がないために、追加される構成のコストの増加を抑えることができる。また、新たに追加される構成が不要であるため、撮像装置全体のサイズを大きくすることがない。   Note that the angular velocity sensor 2 and the panning detection unit 26 described above can be used for a camera shake prevention mechanism. Therefore, when the imaging apparatus having the camera shake prevention mechanism is used as the imaging apparatus according to the present embodiment, the internal configuration of the control unit 20 is changed, but there is no addition of a new configuration. The increase in the cost of the configuration to be performed can be suppressed. In addition, since a newly added configuration is unnecessary, the size of the entire imaging apparatus is not increased.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.

10…撮像部、21…画像処理部、23…第1の検出部、24…第2の検出部、25…撮影後画像処理部、251…第1画像処理部、252…第2画像処理部、26…パンニング検出部、27…撮像条件設定部、28…撮影制御部、100…撮像装置 DESCRIPTION OF SYMBOLS 10 ... Imaging part, 21 ... Image processing part, 23 ... 1st detection part, 24 ... 2nd detection part, 25 ... Image processing part after imaging | photography, 251 ... 1st image processing part, 252 ... 2nd image processing part , 26 ... Panning detection unit, 27 ... Imaging condition setting unit, 28 ... Shooting control unit, 100 ... Imaging device

Claims (5)

被写体を撮像して画像信号を生成する撮像部と、
前記画像信号に基づいて、移動体を検出する第1の検出部と、
前記撮像する画像内における前記第1の検出部により検出された移動体を特定する情報を検出する第2の検出部と、
撮影後に、前記第2の検出部が検出した移動体を特定する情報に基づいて、前記撮影された画像のうち前記移動体の画像領域以外の画像を画像処理する画像処理部と、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject and generates an image signal;
A first detector for detecting a moving body based on the image signal;
A second detection unit for detecting information identifying the moving body detected by the first detection unit in the image to be captured;
An image processing unit that performs image processing on an image other than the image area of the moving body among the captured images based on information that identifies the moving body detected by the second detection unit after shooting;
An imaging apparatus comprising:
請求項1に記載の撮像装置であって、
前記画像処理部は、
前記第2の検出部が検出した移動体を特定する情報に基づいて、前記移動体以外の画像に対して移動ぼかし処理をする第1画像処理部と、
前記第1画像処理部がぼかし処理した画像と、前記移動体の画像とを合成する第2画像処理部と、
を備えることを特徴とする撮像装置。
The imaging apparatus according to claim 1,
The image processing unit
A first image processing unit that performs a movement blurring process on an image other than the moving body based on information identifying the moving body detected by the second detection unit;
A second image processing unit that synthesizes the image blurred by the first image processing unit and the image of the moving body;
An imaging apparatus comprising:
請求項2に記載の撮像装置であって、
前記移動体を特定する情報には、前記移動体の移動方向を示す情報が含まれており、
前記第1画像処理部は、
前記移動体を特定する情報に含まれている前記移動体の移動方向を示す情報に基づいて、ぼかす方向を定めて前記移動ぼかし処理をする、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 2,
The information for specifying the moving body includes information indicating the moving direction of the moving body,
The first image processing unit
Based on the information indicating the moving direction of the moving body included in the information for identifying the moving body, the blurring process is performed by determining a blur direction.
An imaging apparatus characterized by that.
請求項1から請求項3のいずれかに記載の撮像装置であって、
前記第1の検出部は、
前記撮像部から出力された画像信号に基づいて、前記被写体の動きベクトルを検出し、当該検出した動きベクトルに基づいて前記移動体を検出する、
ことを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 3,
The first detection unit includes:
Detecting a motion vector of the subject based on an image signal output from the imaging unit, and detecting the moving body based on the detected motion vector;
An imaging apparatus characterized by that.
請求項4に記載の撮像装置であって、
装置のパンニングを検出するパンニング検出部、
を備え、
前記第1の検出部は、
前記パンニング検出部が検出したパンニングと前記検出した動きベクトルとに基づいて、前記撮像部から出力された画像信号に基づいた画像の中から前記移動体を検出する、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 4,
A panning detector for detecting device panning,
With
The first detection unit includes:
Based on the panning detected by the panning detection unit and the detected motion vector, the moving body is detected from an image based on an image signal output from the imaging unit,
An imaging apparatus characterized by that.
JP2009124128A 2009-05-22 2009-05-22 Imaging device Expired - Fee Related JP5326809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009124128A JP5326809B2 (en) 2009-05-22 2009-05-22 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009124128A JP5326809B2 (en) 2009-05-22 2009-05-22 Imaging device

Publications (3)

Publication Number Publication Date
JP2010273183A true JP2010273183A (en) 2010-12-02
JP2010273183A5 JP2010273183A5 (en) 2013-03-28
JP5326809B2 JP5326809B2 (en) 2013-10-30

Family

ID=43420845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009124128A Expired - Fee Related JP5326809B2 (en) 2009-05-22 2009-05-22 Imaging device

Country Status (1)

Country Link
JP (1) JP5326809B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012133593A (en) * 2010-12-21 2012-07-12 Nikon Systems Inc Image processing apparatus, imaging apparatus and image processing program
JP2012134775A (en) * 2010-12-21 2012-07-12 Nikon Systems Inc Image processing system, imaging apparatus, and image processing program
WO2013150829A1 (en) * 2012-04-03 2013-10-10 ソニー株式会社 Image processing device, image processing device control method, and program
JP5608803B1 (en) * 2013-10-03 2014-10-15 オリンパス株式会社 Imaging device, imaging method, and imaging control program
JP2015088771A (en) * 2013-10-28 2015-05-07 株式会社ニコン Image processing device, imaging apparatus and image processing program
US9489747B2 (en) 2013-06-28 2016-11-08 Canon Kabushiki Kaisha Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006339784A (en) * 2005-05-31 2006-12-14 Casio Comput Co Ltd Imaging apparatus, image processing method, and program
JP2009010645A (en) * 2007-06-27 2009-01-15 Nikon Corp Object detection device, photographing device, program, photographing method, object detecting method, and manufacturing method for object detection device
JP2009065573A (en) * 2007-09-10 2009-03-26 Casio Comput Co Ltd Imaging apparatus, focus control method, and focus control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006339784A (en) * 2005-05-31 2006-12-14 Casio Comput Co Ltd Imaging apparatus, image processing method, and program
JP2009010645A (en) * 2007-06-27 2009-01-15 Nikon Corp Object detection device, photographing device, program, photographing method, object detecting method, and manufacturing method for object detection device
JP2009065573A (en) * 2007-09-10 2009-03-26 Casio Comput Co Ltd Imaging apparatus, focus control method, and focus control program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012133593A (en) * 2010-12-21 2012-07-12 Nikon Systems Inc Image processing apparatus, imaging apparatus and image processing program
JP2012134775A (en) * 2010-12-21 2012-07-12 Nikon Systems Inc Image processing system, imaging apparatus, and image processing program
WO2013150829A1 (en) * 2012-04-03 2013-10-10 ソニー株式会社 Image processing device, image processing device control method, and program
JPWO2013150829A1 (en) * 2012-04-03 2015-12-17 ソニー株式会社 Image processing apparatus, image processing apparatus control method, and program
US9361703B2 (en) 2012-04-03 2016-06-07 Sony Corporation Image processing device, control method of image processing device and program
US9489747B2 (en) 2013-06-28 2016-11-08 Canon Kabushiki Kaisha Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
JP5608803B1 (en) * 2013-10-03 2014-10-15 オリンパス株式会社 Imaging device, imaging method, and imaging control program
US9066010B2 (en) 2013-10-03 2015-06-23 Olympus Corporation Photographing apparatus, photographing method and medium recording photographing control program
JP2015088771A (en) * 2013-10-28 2015-05-07 株式会社ニコン Image processing device, imaging apparatus and image processing program

Also Published As

Publication number Publication date
JP5326809B2 (en) 2013-10-30

Similar Documents

Publication Publication Date Title
JP4434151B2 (en) Imaging device
JP2006317848A (en) Still picture imaging apparatus
JP2018072554A (en) Imaging device and focus adjustment method
JP5326809B2 (en) Imaging device
JP6579807B2 (en) Imaging control apparatus, imaging apparatus, and imaging control program
JP2010250156A (en) Electronic camera
JP2006246354A (en) Imaging unit and imaging program
JP5397078B2 (en) Imaging device
JP2008053811A (en) Electronic camera
JP5316175B2 (en) Electronic camera
JP2021001922A (en) Photographing device and photographing method
JP2016213616A5 (en) Imaging apparatus and imaging control method
JP5326799B2 (en) Imaging device
JP6613149B2 (en) Image blur correction apparatus and control method therefor, imaging apparatus, program, and storage medium
JP2007306436A (en) Imaging apparatus
JP2011041186A (en) Electronic camera
JP2009198950A (en) Camera
JP2007049407A (en) Photographic device
JP5439923B2 (en) Electronic camera
JP2010273182A (en) Imaging apparatus
JP5245644B2 (en) Exposure calculator
JP2010268400A (en) Electronic camera
JP5160155B2 (en) Imaging device
JP2010272953A (en) Electronic camera
JP2009171324A (en) Photographing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130708

R150 Certificate of patent or registration of utility model

Ref document number: 5326809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees