JP2008301161A - Image processing device, digital camera, and image processing method - Google Patents

Image processing device, digital camera, and image processing method Download PDF

Info

Publication number
JP2008301161A
JP2008301161A JP2007144533A JP2007144533A JP2008301161A JP 2008301161 A JP2008301161 A JP 2008301161A JP 2007144533 A JP2007144533 A JP 2007144533A JP 2007144533 A JP2007144533 A JP 2007144533A JP 2008301161 A JP2008301161 A JP 2008301161A
Authority
JP
Japan
Prior art keywords
motion vector
image
face
subject
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007144533A
Other languages
Japanese (ja)
Inventor
Shunichiro Doi
俊一郎 土居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007144533A priority Critical patent/JP2008301161A/en
Publication of JP2008301161A publication Critical patent/JP2008301161A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To interpolate a motion vector that cannot be detected due to moving of an object in perspective direction, in a simple process. <P>SOLUTION: When video recording is started, a face extracting circuit starts an extraction process of a face and stops the process when the face is extracted. A motion detector sequentially detects motion vectors. A motion compensator utilizes the motion vector to track the extracted face. If a face expands/contracts as it moves in such direction as imaging distance fluctuates, a macro block which works as a face cannot be recognized between frames, nor its motion vector is detected. The motion detector stops detection of the motion vector for that frame and the motion compensator stops the process for tracking the face. The face detecting circuit resumes the process for extracting the face, and stops the process when the face is extracted. The motion detector resumes detecting of the motion vector, and the motion compensator resumes the process of tracking the face. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、動きベクトルを補間する画像処理装置、デジタルカメラ、及び画像処理方法に関する。   The present invention relates to an image processing apparatus, a digital camera, and an image processing method for interpolating motion vectors.

従来から、デジタルカメラなどの撮影装置には、手の振れによる写真のボケや映像の揺れを低減する手振れ補正機能を備えたものがある。手振れ補正機能には幾つかの種類があるが、その一つに電子式手振れ補正機能がある(例えば、特許文献1参照)。電子式手振れ補正機能は、撮像された画像をフレーム間で比較して動きベクトルを検出するとともに、その動きベクトルを利用して画像位置を調整することによって手振れ補正する。   2. Description of the Related Art Conventionally, some photographing apparatuses such as digital cameras have a camera shake correction function that reduces blurring of a photograph due to camera shake or image shaking. There are several types of camera shake correction functions, one of which is an electronic camera shake correction function (see, for example, Patent Document 1). The electronic camera shake correction function detects a motion vector by comparing captured images between frames, and corrects camera shake by adjusting the image position using the motion vector.

動きベクトルの検出方法の一つにパターンマッチング法がある。パターンマッチング法は、フレーム間で同一被写体として対応する画素配列を探索し、その対応する画素の空間的距離及び方向を動きベクトルとして検出するものである。
特開2006−287814号公報
One of the motion vector detection methods is a pattern matching method. The pattern matching method searches for a pixel array corresponding to the same subject between frames and detects the spatial distance and direction of the corresponding pixel as a motion vector.
JP 2006-287814 A

しかしながら、遠近方向に移動する被写体は画像内で拡縮するので、パターンマッチング法では、フレーム間で同一被写体として対応する画素配列が識別できず動きベクトルの検出できない虞がある。   However, since the subject moving in the perspective direction is enlarged / reduced in the image, the pattern matching method may not be able to identify the pixel arrangement corresponding to the same subject between frames, and the motion vector may not be detected.

本発明は、上記課題を鑑みてなされたものであり、被写体が遠近方向に移動することに起因して検出できなくなった動きベクトルを補間する画像処理装置、デジタルカメラ、及び画像処理方法を低コストに提供することを目的とする。   The present invention has been made in view of the above problems, and an image processing apparatus, a digital camera, and an image processing method for interpolating a motion vector that can no longer be detected due to a subject moving in a perspective direction are provided at low cost. It is intended to provide to.

上記目的を達成するために、本発明の画像処理装置は、動画撮影によって取得された画像から特定の被写体を抽出する被写体抽出手段と、フレーム間で同一被写体として対応する画素を識別した上でその動きベクトルを検出する動き検出手段と、動き検出手段によって検出された動きベクトルを利用して、フレーム間で移動する被写体を追従する追従手段とを備え、被写体抽出手段によって抽出された被写体に関し、フレーム間で対応する画素が識別されず動きベクトルが検出できなくなった場合、被写体抽出手段が特定の被写体を再度抽出して動きベクトルを補間することを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention identifies a subject extraction unit that extracts a specific subject from an image acquired by moving image shooting, and a pixel corresponding to the same subject between frames, and then identifies the subject. A motion detection unit that detects a motion vector; and a tracking unit that follows a subject that moves between frames using the motion vector detected by the motion detection unit. When the corresponding pixel is not identified between the two and the motion vector cannot be detected, the subject extracting unit extracts the specific subject again and interpolates the motion vector.

なお、被写体抽出手段によって抽出された被写体に関し、フレーム間で対応する画素が識別されなくなった場合、動き検出手段は、そのフレームの画像について動きベクトルの検出を一旦打ち切り、次フレームの画像から動きベクトルの検出を再開することが好ましい。   When the corresponding pixel between the frames is no longer identified for the subject extracted by the subject extraction unit, the motion detection unit temporarily stops detecting the motion vector for the image of the frame, and the motion vector is extracted from the image of the next frame. It is preferable to restart the detection.

また、被写体抽出手段は、人物の顔を抽出する顔抽出手段であることが好ましい。   The subject extracting means is preferably a face extracting means for extracting a person's face.

また、フレーム間における画像同士をパターンマッチングにより比較することが好ましい。   In addition, it is preferable to compare images between frames by pattern matching.

本発明のデジタルカメラは、上記画像処理装置を備えたものである。   A digital camera of the present invention includes the image processing apparatus.

なお、特定の被写体として抽出されなかった画素の動きベクトルを利用した手振れ補正機能を有することが好ましい。   Note that it is preferable to have a camera shake correction function using a motion vector of a pixel that has not been extracted as a specific subject.

本発明の画像処理方法は、動画撮影によって取得された画像から抽出した特定の被写体に関し、フレーム間で対応する画素を識別した上でその動きベクトルを検出し、検出された動きベクトルを利用してフレーム間で移動する被写体を追従する画像処理方法であって、特定の被写体に関し、フレーム間で対応する画素が識別されず動きベクトルが検出できなくなった場合、特定の被写体を抽出し直して動きベクトルを補間することを特徴とする。   The image processing method of the present invention detects a motion vector of a specific subject extracted from an image acquired by moving image shooting, identifies corresponding pixels between frames, and uses the detected motion vector. An image processing method for following an object moving between frames, and for a specific object, if a corresponding pixel is not identified between frames and a motion vector cannot be detected, the specific object is extracted again and the motion vector is extracted. Is interpolated.

なお、特定の被写体に関し、フレーム間で対応する画素が識別されなくなった場合、そのフレームの画像について動きベクトルの検出を一旦打ち切り、次フレームの画像から動きベクトルの検出を再開することが好ましい。   Note that when a pixel corresponding to a specific subject is no longer identified between frames, it is preferable to stop the motion vector detection for the image of the frame and restart the motion vector detection from the image of the next frame.

また、人物の顔を特定の被写体として抽出することが好ましい。   It is also preferable to extract a person's face as a specific subject.

また、フレーム間における画像同士をパターンマッチングにより比較することが好ましい。   In addition, it is preferable to compare images between frames by pattern matching.

本発明の画像処理装置、デジタルカメラ、及び画像処理方法によれば、被写体抽出手段によって抽出された被写体に関し、フレーム間で対応する画素が識別されず動きベクトルが検出できなくなった場合、被写体検出手段が特定の被写体を再度抽出することにより、被写体が遠近方向に移動することに起因して検出できなくなった動きベクトルを低コストに補間することができる。   According to the image processing apparatus, the digital camera, and the image processing method of the present invention, when the motion vector cannot be detected because the corresponding pixels are not identified between frames with respect to the subject extracted by the subject extraction unit, the subject detection unit By extracting a specific subject again, a motion vector that can no longer be detected due to the subject moving in the perspective direction can be interpolated at a low cost.

また、被写体抽出手段によって抽出された被写体に関し、フレーム間で対応する画素が識別されなくなった場合、動き検出手段は、そのフレームの画像について動きベクトルの検出を一旦打ち切り、次フレームの画像から動きベクトルの検出を再開するので、不必要な演算処理を省略することができる。   In addition, regarding the subject extracted by the subject extraction unit, when the corresponding pixel is no longer identified between frames, the motion detection unit temporarily stops detecting the motion vector for the image of the frame, and the motion vector is extracted from the image of the next frame. Therefore, unnecessary calculation processing can be omitted.

以下、本発明のデジタルカメラ21について、図面を参照しながら説明する。図1に示すように、デジタルカメラ21のカメラボディ22前面には、撮影レンズ23が組み込まれたレンズ鏡筒24、及びストロボ発光部25が設けられている。撮影レンズ23は、カメラボディ22内に導光し、撮影を可能にする。ストロボ発光部25は、撮影と同期して発光し、露光量を調節する。   Hereinafter, the digital camera 21 of the present invention will be described with reference to the drawings. As shown in FIG. 1, a lens barrel 24 incorporating a photographing lens 23 and a strobe light emitting unit 25 are provided on the front surface of the camera body 22 of the digital camera 21. The photographing lens 23 guides light into the camera body 22 and enables photographing. The strobe light emitting unit 25 emits light in synchronization with shooting and adjusts the exposure amount.

カメラボディ22の上面には、デジタルカメラ21の電源状態を切り替える電源ボタン26、シャッタレリーズ操作に用いられるシャッタボタン27、及び各種モードを切り替えるモード切替えダイヤル28の各種操作部が設けられている。モードには、静止画を記録する静止画撮影モード、動画を記録する動画撮影モード、記録した画像を再生する再生モード、手動により設定値を変更するメニューモードなどがある。   On the upper surface of the camera body 22, a power button 26 for switching the power state of the digital camera 21, a shutter button 27 used for a shutter release operation, and various operation units for a mode switching dial 28 for switching various modes are provided. The modes include a still image shooting mode for recording still images, a moving image shooting mode for recording moving images, a playback mode for reproducing recorded images, and a menu mode for manually changing setting values.

シャッタボタン27は、2段階の押しボタンとなっており、静止画撮影モードで一定ストローク押圧(半押し)されると、自動焦点調整(AF)や自動露出調整(AE)などの各種撮影準備処理が実行される。この半押しされた状態から更に一定ストローク押圧(全押し)されると、デジタルカメラ21に撮影実行の指示を出し、撮影準備処理が施された1画面分の撮像信号が画像データに変換される。また、動画撮影モードで一定ストローク押圧されると動画撮影が開始され、再度一定ストローク押圧されると動画撮影が終了する。   The shutter button 27 is a two-stage push button, and when a fixed stroke is pressed (half-pressed) in the still image shooting mode, various shooting preparation processes such as automatic focus adjustment (AF) and automatic exposure adjustment (AE). Is executed. When a certain stroke is further pressed (fully pressed) from this half-pressed state, an instruction to execute shooting is issued to the digital camera 21, and the imaging signal for one screen subjected to the shooting preparation process is converted into image data. . In addition, when a certain stroke is pressed in the movie shooting mode, movie shooting starts, and when a certain stroke is pressed again, movie shooting ends.

レンズ鏡筒24は、沈胴式になっており、デジタルカメラ21が電源OFF状態にある際に、カメラボディ22の前面に設けられた鏡筒収納部29内に収納され、電源ONとともに、カメラボディ22の前面から突出して、広角端で停止する。   The lens barrel 24 is of a retractable type and is housed in a lens barrel housing portion 29 provided on the front surface of the camera body 22 when the digital camera 21 is in a power-off state. 22 protrudes from the front surface and stops at the wide-angle end.

また、カメラボディ22の背面には、図2に示すように、液晶表示ディスプレー(LCD)31の他、ズームボタン32、十字キー33、決定ボタン34などの操作部が設けられている。LCD31には、メニューモードでは各種設定画面が表示され、静止画撮影モード及び動画撮影モードの撮影待機状態ではスルー画像が表示される。ユーザは、LCD31に表示されるスルー画像を見ながらシャッタボタン27を押圧して撮影を実行する。また、動画撮影モードの撮影状態では動画像がリアルタイムに表示される。   In addition, as shown in FIG. 2, operation units such as a zoom button 32, a cross key 33, and an enter button 34 are provided on the rear surface of the camera body 22 in addition to a liquid crystal display (LCD) 31. Various settings screens are displayed on the LCD 31 in the menu mode, and through images are displayed in the shooting standby state in the still image shooting mode and the moving image shooting mode. The user performs shooting by pressing the shutter button 27 while viewing the through image displayed on the LCD 31. In addition, the moving image is displayed in real time in the shooting state in the moving image shooting mode.

図3に示すように、デジタルカメラ21(図1及び図2参照)には、ズームレンズ41、絞り42、フォーカスレンズ43、及びCCDイメージセンサ44が設けられている。ズームレンズ41は、変倍用レンズモータ45の駆動によって変倍する。絞り42は、アイリスモータ46の駆動によって口径を変える。フォーカスレンズ43は、合焦用レンズモータ47の駆動によってピントを調整する。これらモータ45〜47は、CPU51に接続されたモータドライバ52を介して駆動が制御される。なお、上述した撮影レンズ23(図1参照)は、ズームレンズ41、絞り42、及びフォーカスレンズ43によって構成される。   As shown in FIG. 3, the digital camera 21 (see FIGS. 1 and 2) is provided with a zoom lens 41, an aperture 42, a focus lens 43, and a CCD image sensor 44. The zoom lens 41 is zoomed by driving the zoom lens motor 45. The aperture 42 changes its aperture by driving the iris motor 46. The focus lens 43 adjusts the focus by driving the focusing lens motor 47. The driving of these motors 45 to 47 is controlled via a motor driver 52 connected to the CPU 51. The above-described photographing lens 23 (see FIG. 1) includes a zoom lens 41, a diaphragm 42, and a focus lens 43.

CCDイメージセンサ44は、撮影レンズ23により結像する被写体像を撮像する。CCDイメージセンサ44には、CPU51によって制御されるタイミングジェネレータ(TG)53が接続され、このTG53から入力されるタイミング信号(クロックパルス)により、電子シャッタのシャッタ速度が決定される。   The CCD image sensor 44 captures a subject image formed by the photographing lens 23. A timing generator (TG) 53 controlled by the CPU 51 is connected to the CCD image sensor 44, and the shutter speed of the electronic shutter is determined by a timing signal (clock pulse) input from the TG 53.

CCDイメージセンサ44から得られる撮像信号は、CDS(相関二重サンプリング回路)54、AMP(増幅器)55に入力される。CDS54は、CCDイメージセンサ44の各セルの蓄積電荷量に正確に対応したR,G,Bの画像データを出力し、AMP55は、画像データを増幅する。増幅された画像データは、A/D変換器56でデジタル信号に変換される。   An imaging signal obtained from the CCD image sensor 44 is input to a CDS (correlated double sampling circuit) 54 and an AMP (amplifier) 55. The CDS 54 outputs R, G, B image data that accurately corresponds to the amount of charge stored in each cell of the CCD image sensor 44, and the AMP 55 amplifies the image data. The amplified image data is converted into a digital signal by the A / D converter 56.

画像入力コントローラ57は、データバス58を介してCPU51に接続され、CPU51の制御命令に応じてCCDイメージセンサ44、CDS54、AMP55、及びA/D変換器56を制御する。A/D変換器56から出力される画像データは、所定間隔毎に出力され、SDRAM59に一時的に格納される。SDRAM59は、作業用メモリである。   The image input controller 57 is connected to the CPU 51 via the data bus 58 and controls the CCD image sensor 44, the CDS 54, the AMP 55, and the A / D converter 56 in accordance with a control command from the CPU 51. The image data output from the A / D converter 56 is output at predetermined intervals and temporarily stored in the SDRAM 59. The SDRAM 59 is a working memory.

画像信号処理回路60は、SDRAM59から画像データを読み出して、階調変換、ホワイトバランス(WB)補正、γ補正などの各種画像処理を施し、この画像データを再度SDRAM59に格納する。YC変換処理回路61は、画像信号処理回路60で各種処理の施された画像データをSDRAM59から読み出して、輝度信号Yと色差信号C,Cとに変換する。 The image signal processing circuit 60 reads the image data from the SDRAM 59, performs various image processing such as gradation conversion, white balance (WB) correction, and γ correction, and stores the image data in the SDRAM 59 again. The YC conversion processing circuit 61 reads the image data subjected to various processes by the image signal processing circuit 60 from the SDRAM 59 and converts it into a luminance signal Y and color difference signals C r and C b .

VRAM62は、液晶表示ディスプレー(LCD)31にスルー画像を出力するためのメモリであり、画像信号処理回路60、YC変換処理回路61を経た画像データが格納される。このVRAM62には、画像データの書込みと読出しとを並行して行えるように、2フレーム分のメモリが確保されている。VRAM62に格納された画像データは、LCDドライバ63でアナログのコンポジット信号に変換され、LCD31にスルー画像として表示される。   The VRAM 62 is a memory for outputting a through image to the liquid crystal display (LCD) 31 and stores image data that has passed through the image signal processing circuit 60 and the YC conversion processing circuit 61. The VRAM 62 has a memory for two frames so that image data can be written and read in parallel. The image data stored in the VRAM 62 is converted into an analog composite signal by the LCD driver 63 and displayed on the LCD 31 as a through image.

圧縮伸長処理回路64は、YC変換処理回路61でYC変換された画像データに対して、所定の圧縮形式(例えば、静止画像であればJPEG形式、動画像であればMPEG形式)で画像圧縮を施す。圧縮された画像データは、メディアコントローラ65を経由して記録媒体であるメモリカード66に記録される。再生モードのときには、メモリカード66から画像データが圧縮伸長処理回路64に読み出され、圧縮伸長処理回路64で伸長処理が施された後にLCD31に記録画像が表示される。なお、圧縮伸長処理回路64は、動きベクトルを検出する動き検出器67と、動きベクトルを利用した動き補償処理をする動き補償器68とを構成に含む。   The compression / decompression processing circuit 64 compresses the image data YC converted by the YC conversion processing circuit 61 in a predetermined compression format (for example, JPEG format for still images and MPEG format for moving images). Apply. The compressed image data is recorded on a memory card 66 that is a recording medium via a media controller 65. In the reproduction mode, the image data is read from the memory card 66 to the compression / decompression processing circuit 64, and after the decompression processing is performed by the compression / decompression processing circuit 64, the recorded image is displayed on the LCD 31. The compression / decompression processing circuit 64 includes a motion detector 67 that detects a motion vector and a motion compensator 68 that performs a motion compensation process using the motion vector.

動き検出器(動き検出手段)67は、第Nフレームの画像に関し、直前の第(N−1)フレームの画像とパターンマッチングにより比較して動きベクトルを検出する。動きベクトルとは、フレーム間で同一のパターンを有したマクロブロック(例えば、8×8画素)の空間的距離及び方向を表すものである。   The motion detector (motion detection means) 67 detects the motion vector by comparing the image of the Nth frame with the image of the immediately preceding (N−1) frame by pattern matching. The motion vector represents the spatial distance and direction of a macroblock (for example, 8 × 8 pixels) having the same pattern between frames.

例えば、図4(A)に示す第(N−1)フレームの画像と、図4(B)に示す第Nフレームの画像とに関し、画像フレームの上端からn個目、左端からm個目の画素をan−1,m−1とすると、第Nフレームにおけるa0,0〜a0,7,a1,0〜a1,7,a2,0〜a2,7,a3,0〜a3,7,a4,0〜a4,7,a5,0〜a5,7,a6,0〜a6,7,a7,0〜a7,7の画素から構成されるマクロブロック101は、第(N−1)フレームにおけるa3,4〜a3,11,a4,4〜a4,11,a5,4〜a5,11,a6,4〜a6,11,a7,4〜a7,11,a8,4〜a8,11,a9,4〜a9,11,a10,4〜a10,11の画素から構成されるマクロブロック102と同一のパターンを有しており、同一被写体として対応する。つまり、第Nフレームにおけるマクロブロック101の動きベクトル103は、左方向に4画素分、上方向に3画素分の距離及び方向を表す。 For example, regarding the image of the (N−1) th frame shown in FIG. 4A and the image of the Nth frame shown in FIG. 4B, the nth frame from the upper end of the image frame and the mth frame from the left end. If the pixel is a n-1, m-1 , a 0,0 ~a 0,7 in the n frame, a 1,0 ~a 1,7, a 2,0 ~a 2,7, a 3, 0 to a 3,7 , a 4,0 to a 4,7 , a 5,0 to a 5,7 , a 6,0 to a 6,7 , a 7,0 to a 7,7 The macroblocks 101 are a 3,4 to a 3,11 , a 4,4 to a 4,11 , a 5,4 to a 5,11 , a 6,4 to, in the (N-1) th frame. a 6,11, a 7,4 ~a 7,11, a 8,4 ~a 8,11, a 9,4 ~a 9,11, composed of pixels of a 10, 4 ~a 10, 11 Black blocks 102 have the same pattern as the corresponding as the same subject. That is, the motion vector 103 of the macroblock 101 in the Nth frame represents the distance and direction for four pixels in the left direction and three pixels in the upward direction.

動き補償器(追従手段)68は、第(N−1)フレームの画像(図4(A)参照)と、動き検出器67によって検出される第Nフレームの動きベクトル103(図4(B)参照)とを受けてフレーム間で空間的に移動する被写体を追従し、第Nフレームの画像(図4(B)参照)を予測してフレーム間の差分画像を求める。   The motion compensator (following means) 68 includes an image of the (N−1) th frame (see FIG. 4A) and a motion vector 103 of the Nth frame detected by the motion detector 67 (FIG. 4B). (See FIG. 4B), and follows a subject that moves spatially between frames, and predicts an image of the Nth frame (see FIG. 4B) to obtain a difference image between frames.

ここで、撮影距離に変動を生じさせない方向に移動する被写体が撮影される場合を例に説明する。なお画像は、4×4個のマクロブロックBLK0〜BLK15に分割されているとする。図5(A)に示す第(N−1)フレームのマクロブロックBLK5に映る猫104は、マクロブロックBLK5の動きベクトル105(図5(B)参照)によって追従され、図5(B)に示す第Nフレームの画像が予測されてフレーム間の差分画像が求められる。このようにフレーム間で共通するデータを差し引いてその差分画像を求めることで、高い圧縮効率を得ることができる。   Here, a case where a subject moving in a direction that does not cause a change in the shooting distance is shot will be described as an example. It is assumed that the image is divided into 4 × 4 macro blocks BLK0 to BLK15. The cat 104 reflected in the macroblock BLK5 of the (N-1) th frame shown in FIG. 5A is followed by the motion vector 105 (see FIG. 5B) of the macroblock BLK5, and is shown in FIG. An image of the Nth frame is predicted, and a difference image between frames is obtained. Thus, high compression efficiency can be obtained by subtracting data that is common between frames and obtaining the difference image.

一方、撮影距離に変動を生じさせる方向に移動する被写体が撮影される場合を例に説明する。なお画像は、4×4個のマクロブロックBLK0〜BLK15に分割されているとする。図6(A)に示す第(N−1)フレームのマクロブロックBLK5に映る人物の顔106は、図6(B)に示す第Nフレームでは拡大されてマクロブロックBLK6,BLK10に映る。つまり、動き検出器67は、パターンマッチングによる画像同士の比較では、人物の顔106として対応するマクロブロックを認識することができず、その動きベクトルを検出することもできない。被写体が拡縮することによりフレーム間で対応するマクロブロックを認識することができない場合、動き検出器67はそのフレームに関し動きベクトルを検出する処理を打ち切る。処理を打ち切り動きベクトルを検出することができないので、動き補償器68は、第Nフレームの画像を予測することができず、フレーム間の差分画像を求めることができない。なお、検出することができない動きベクトルは、詳しくは後述する顔抽出回路75による処理によって補間される。   On the other hand, an example will be described in which a subject moving in a direction that causes a change in the shooting distance is shot. It is assumed that the image is divided into 4 × 4 macro blocks BLK0 to BLK15. The human face 106 shown in the macroblock BLK5 in the (N-1) th frame shown in FIG. 6A is enlarged and shown in the macroblocks BLK6 and BLK10 in the Nth frame shown in FIG. 6B. That is, the motion detector 67 cannot recognize a corresponding macroblock as the human face 106 and cannot detect a motion vector in comparison between images by pattern matching. If the macro block corresponding between the frames cannot be recognized due to the enlargement / reduction of the subject, the motion detector 67 aborts the process of detecting the motion vector for the frame. Since the motion vector cannot be detected and the motion vector cannot be detected, the motion compensator 68 cannot predict the image of the Nth frame and cannot obtain a difference image between frames. Note that motion vectors that cannot be detected are interpolated by processing by a face extraction circuit 75 described later in detail.

また、動きベクトルは電子式の手振れ補正機能に用いられる。手振れ補正機能がON状態のとき、検出された動きベクトルに応じてCCDイメージセンサ44の結像範囲を移動させて画像のブレを防止する。このとき、移動する被写体に関する動きベクトルは利用せず、背景に関する動きベクトルのみを利用することでその精度は向上する。なお、電子式の手振れ補正機能は周知であり、ここでの詳しい説明は省略する。   The motion vector is used for an electronic camera shake correction function. When the camera shake correction function is ON, the image formation range of the CCD image sensor 44 is moved according to the detected motion vector to prevent image blurring. At this time, the accuracy is improved by using only the motion vector regarding the background without using the motion vector regarding the moving subject. Note that the electronic camera shake correction function is well known, and a detailed description thereof is omitted here.

CPU51には、上述した電源ボタン26、シャッタボタン27、モード切替えダイヤル28、ズームボタン32、十字キー33、及び決定ボタン34の他に、EEPROM69が接続されている。EEPROM69には、各種制御用プログラムや設定情報などが記録されている。CPU51は、これらの情報をEEPROM69からSDRAM59に読み出して、各種処理を実行する。   In addition to the power button 26, shutter button 27, mode switching dial 28, zoom button 32, cross key 33, and enter button 34 described above, an EEPROM 69 is connected to the CPU 51. In the EEPROM 69, various control programs and setting information are recorded. The CPU 51 reads these pieces of information from the EEPROM 69 to the SDRAM 59 and executes various processes.

データバス58には、ストロボ発光部25の発光状態を制御するストロボ制御回路71と、ズームレンズ41の合焦位置が適切か否かを検出するAF検出回路72と、CCDイメージセンサ44の電子シャッタのシャッタ速度、撮影感度、及び絞り42の絞り値といった露光条件が撮影に適切か否かを検出するAE検出回路73と、ホワイトバランス補正が撮影に適切か否かを検出するAWB検出回路74とが接続されている。   The data bus 58 includes a strobe control circuit 71 that controls the light emission state of the strobe light emitting unit 25, an AF detection circuit 72 that detects whether the focus position of the zoom lens 41 is appropriate, and an electronic shutter of the CCD image sensor 44. An AE detection circuit 73 that detects whether exposure conditions such as shutter speed, shooting sensitivity, and aperture value of the aperture 42 are appropriate for shooting, and an AWB detection circuit 74 that detects whether white balance correction is appropriate for shooting. Is connected.

各検出回路72〜74は、データバス58を介してCPU51に検出結果を逐次送信する。CPU51は、各検出回路72〜74から送信される検出結果に基づいて、ズームレンズ41、絞り42、フォーカスレンズ43、CCDイメージセンサ44などの動作を個別に制御する。   Each of the detection circuits 72 to 74 sequentially transmits detection results to the CPU 51 via the data bus 58. The CPU 51 individually controls the operations of the zoom lens 41, the diaphragm 42, the focus lens 43, the CCD image sensor 44, and the like based on the detection results transmitted from the detection circuits 72 to 74.

AF検出回路72は、コントラスト検出方式によりフォーカス制御を行う。先ず、画像の合焦状態を評価するために予め設定された1つ又は複数の合焦評価領域(AFエリア)に基づいて人物の顔など被写体までの撮影距離を算出し、フォーカスレンズ43の合焦位置を決定する。なお、静止画撮影モードでは、シャッタボタン27が半押しされると、フォーカス制御が行われる。   The AF detection circuit 72 performs focus control by a contrast detection method. First, a shooting distance to a subject such as a person's face is calculated based on one or a plurality of focus evaluation areas (AF areas) set in advance to evaluate the in-focus state of the image. Determine the focal position. In the still image shooting mode, focus control is performed when the shutter button 27 is half-pressed.

AE・AWB検出回路73,74は、所定間隔毎にVRAM62に格納された画像データの輝度情報に基づいて適正な露光値、及びホワイトバランスの補正量を算出し、これらの情報をCPU51に送る。CPU51は、得られる情報に基づいて電子シャッタ、絞り42、及び画像処理の制御を連続的に行う。   The AE / AWB detection circuits 73 and 74 calculate appropriate exposure values and white balance correction amounts based on the luminance information of the image data stored in the VRAM 62 at predetermined intervals, and send these pieces of information to the CPU 51. The CPU 51 continuously controls the electronic shutter, the aperture 42, and the image processing based on the obtained information.

また、データバス58には、画像から人物の顔を抽出する顔抽出回路(顔抽出手段)75が接続されている。顔抽出回路75は、スルー画像としてLCD31に表示される画像データをVRAM62から読み出して、人物の両眼を抽出することによって人物の顔を抽出する。   The data bus 58 is connected to a face extraction circuit (face extraction means) 75 that extracts a human face from an image. The face extraction circuit 75 reads out the image data displayed on the LCD 31 as a through image from the VRAM 62 and extracts the person's face by extracting both eyes of the person.

具体的には、人物の両眼を抽出するに際し、画像データを格子状に分割し(例えば、16×16)、各分割領域に含まれるR,G,Bの各色信号の信号レベルから皮膚と推定される肌色の画素を多く含む分割領域を抽出する。そして、抽出された領域から眼部の白色の画素と瞳と推定される黒色の画素を有する領域を選別し、その領域から画像上の人物の両眼の位置を求め、両眼の位置の中点を代表点として顔の位置と定める。顔抽出回路75は、顔の位置と定めた周囲の肌色の画素を多く含む領域を顔領域として抽出する。   Specifically, when extracting both eyes of a person, image data is divided into a grid (for example, 16 × 16), and the skin level is determined from the signal levels of the R, G, and B color signals included in each divided region. A divided region including many estimated skin color pixels is extracted. Then, an area having white pixels of the eye part and black pixels estimated to be pupils is selected from the extracted area, and the positions of both eyes of the person on the image are obtained from the areas, and the positions of both eyes are determined. The point is defined as the face position with the representative point. The face extraction circuit 75 extracts an area including a lot of surrounding skin color pixels determined as the face position as a face area.

図6(A)及び図6(B)に示したように、人物の顔106に関して動きベクトルが検出できなくなった場合に、顔抽出回路75が人物の顔106を抽出することで、その動きベクトルを補間することができる。撮影対象を人物の顔に限定することで、その人物の顔が撮影距離に変動を生じさせる方向に移動する場合であっても追従することができる。   As shown in FIGS. 6A and 6B, when a motion vector cannot be detected for the human face 106, the face extraction circuit 75 extracts the human face 106, thereby detecting the motion vector. Can be interpolated. By limiting the shooting target to a person's face, it is possible to follow even if the person's face moves in a direction in which the shooting distance varies.

以下、上記実施形態のデジタルカメラ21(図1及び図2参照)について図7及び図8を参照しながら説明する。先ず、電源ボタン26が操作され、デジタルカメラ21の電源がONに設定される。電源がONに設定されると、静止画撮影モード又は動画撮影モードが設定されている場合にはLCD31にスルー画像が表示され、ユーザがスルー画像を見ながら構図を決定することができる。また、電源がONに設定されると、自動的に手振れ補正機能がONに設定され、手振れにより画像がブレることが防止されている。   Hereinafter, the digital camera 21 (see FIGS. 1 and 2) of the above embodiment will be described with reference to FIGS. First, the power button 26 is operated, and the power of the digital camera 21 is set to ON. When the power is set to ON, a through image is displayed on the LCD 31 when the still image shooting mode or the moving image shooting mode is set, and the user can determine the composition while viewing the through image. Further, when the power is set to ON, the camera shake correction function is automatically set to ON, thereby preventing an image from blurring due to camera shake.

動画撮影モードが設定されている場合には、シャッタボタン27が押圧されて動画撮影が開始されると、顔抽出回路75が駆動して人物の顔を抽出する処理が開始される。人物の顔が抽出されると、顔抽出回路75による処理は停止する。一方、動き検出器67は動きベクトルを逐次検出している。動き補償器68は、その動きベクトルを利用して、顔抽出回路75によって抽出された人物の顔を追従する。追従される人物の顔を除いたマクロブロックの動きベクトルを利用することで精度良く手振れ補正することができる。また、人物の顔を追従することで、フレーム間で共通するデータを差し引いた差分画像を求めることができ、高い圧縮効率を得ることができる。   When the moving image shooting mode is set, when the shutter button 27 is pressed to start moving image shooting, the face extraction circuit 75 is driven to start extracting a person's face. When a person's face is extracted, the processing by the face extraction circuit 75 stops. On the other hand, the motion detector 67 sequentially detects motion vectors. The motion compensator 68 follows the face of the person extracted by the face extraction circuit 75 using the motion vector. By using the motion vector of the macroblock excluding the face of the person to be followed, it is possible to correct camera shake with high accuracy. Further, by following the face of a person, a difference image obtained by subtracting data common between frames can be obtained, and high compression efficiency can be obtained.

撮影距離に変動を生じさせる方向に移動することで人物の顔が拡縮すると、フレーム間で人物の顔として対応するマクロブロックを認識することができず、その動きベクトルを検出することもできない。動きベクトルが検出されないことから追従させることもできない。この場合、動き検出器67はそのフレームに関して動きベクトルの検出を打ち切り、動き補償器68は人物の顔を追従する処理を停止する。一方、顔抽出回路75は、人物の顔を抽出する処理を再開する。   When a person's face is enlarged or reduced by moving in a direction that causes a change in the shooting distance, a macroblock corresponding to the person's face cannot be recognized between frames, and the motion vector cannot be detected. Since no motion vector is detected, it cannot be followed. In this case, the motion detector 67 stops detecting the motion vector for the frame, and the motion compensator 68 stops the process of following the face of the person. On the other hand, the face extraction circuit 75 resumes the process of extracting a person's face.

人物の顔が抽出されると、顔抽出回路75による処理は停止する。そして、動き検出器67は動きベクトルの検出を再開し、動き補償器68は人物の顔を追従する処理を再開する。撮影が終了するまで上記処理を繰り返すことで、人物の顔が撮影距離に変動を生じさせる方向に移動することに起因して検出できなくなった動きベクトルを補間することができる。これにより、人物の顔が撮影距離に変動を生じさせる方向に移動した場合であっても、精度良く移動に追従させることができる。   When a person's face is extracted, the processing by the face extraction circuit 75 stops. Then, the motion detector 67 resumes the detection of the motion vector, and the motion compensator 68 resumes the process of following the human face. By repeating the above process until the photographing is completed, it is possible to interpolate a motion vector that can no longer be detected due to the movement of the person's face in a direction that causes a variation in the photographing distance. Thereby, even if the face of a person moves in a direction that causes a change in the shooting distance, the movement can be accurately followed.

なお、上記実施形態において、デジタルカメラ21の場合を例に説明したが、顔抽出回路75を備え、動きベクトルが検出できなくなった場合に顔を抽出することで動きベクトルを補間することができれば良く、その他の画像処理装置に適用可能である。   In the above-described embodiment, the case of the digital camera 21 has been described as an example. However, it is sufficient if the face extraction circuit 75 is provided and the motion vector can be interpolated by extracting the face when the motion vector cannot be detected. It can be applied to other image processing apparatuses.

また、上記実施形態において、人物の顔を抽出する顔抽出回路75を備えている場合を例に説明したが、これに限定されるのではなく、特定の被写体を抽出する被写体抽出回路を備えていれば良い。   In the above-described embodiment, the case where the face extraction circuit 75 that extracts a person's face is provided has been described as an example. However, the present invention is not limited thereto, and the subject extraction circuit that extracts a specific subject is provided. Just do it.

また、上記実施形態において、フレーム間における画像同士をパターンマッチングにより比較する場合を例に説明したが、動きベクトルが検出することができれば良く、別の方法によって検出するのであっても構わない。   Further, in the above-described embodiment, the case where images between frames are compared by pattern matching has been described as an example. However, it is sufficient if a motion vector can be detected, and another method may be used.

また、上記実施形態において、顔抽出回路75による顔の抽出は、肌色を抽出して顔領域を抽出する場合を例に説明したが、顔領域が抽出できれば良く、例えば、テンプレートを利用したパターン認識によって顔領域を抽出するのでも構わない。   Further, in the above embodiment, the face extraction by the face extraction circuit 75 has been described by taking the case where the face area is extracted by extracting the skin color. However, it is only necessary that the face area can be extracted, for example, pattern recognition using a template. The face area may be extracted by

また、上記実施形態において、人物の顔として対応するマクロブロックを認識することができない場合、動き検出器67は、そのフレーム全体について動きベクトルの検出を打ち切る場合を例に説明したが、人物の顔として対応するマクロブロックのみについて動きベクトルの検出を打ち切るのでも良い。   In the above embodiment, when the macroblock corresponding to the person's face cannot be recognized, the motion detector 67 has been described as an example in which the detection of the motion vector is aborted for the entire frame. The motion vector detection may be aborted only for the corresponding macroblock.

また、上記実施形態において、動画撮影モードで撮影する場合を中心に説明したが、動画撮影によって時間的に連続するフレームの画像が取得できれば良く、静止画撮影モードにおけるスルー画像を動画撮影と解釈することができる。   In the above-described embodiment, the case of shooting in the moving image shooting mode has been mainly described. However, it is only necessary to acquire temporally continuous frame images by moving image shooting, and a through image in the still image shooting mode is interpreted as moving image shooting. be able to.

また、上記実施形態において、マクロブロック単位の動きベクトルを検出する場合を例に説明したが、これに限定されるのではなく、画素単位の動きベクトルを検出するのでも良い。   In the above embodiment, the case where a motion vector in units of macroblocks is detected has been described as an example. However, the present invention is not limited to this, and a motion vector in units of pixels may be detected.

また、上記実施形態において、撮影距離に変動を生じさせる方向に移動することで人物の顔が拡縮する場合に動きベクトルを補間する例に説明したが、これに限定されるのではなく、ズームレンズ41の変倍によって人物の顔が拡縮する場合に動きベクトルを補間するのでも良い。   In the above-described embodiment, the example in which the motion vector is interpolated when the face of the person expands or contracts by moving in the direction in which the shooting distance varies is described. However, the present invention is not limited to this. A motion vector may be interpolated when the face of a person is enlarged or reduced by a scaling of 41.

デジタルカメラの外観斜視図である。It is an external appearance perspective view of a digital camera. デジタルカメラの背面図である。It is a rear view of a digital camera. デジタルカメラの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a digital camera. 動きベクトルの検出方法を説明するための図であり、(A)は第(N−1)フレームの画像を、(B)は第Nフレームの画像をそれぞれ示す。It is a figure for demonstrating the detection method of a motion vector, (A) shows the image of the (N-1) th frame, (B) shows the image of the Nth frame, respectively. 動きベクトルが検出される例を示す図であり、(A)は第(N−1)フレームの画像を、(B)は第Nフレームの画像をそれぞれ示す。It is a figure which shows the example in which a motion vector is detected, (A) shows the image of the (N-1) th frame, (B) shows the image of the Nth frame, respectively. 動きベクトルが検出されない例を示す図であり、(A)は第(N−1)フレームの画像を、(B)は第Nフレームの画像をそれぞれ示す。It is a figure which shows the example in which a motion vector is not detected, (A) shows the image of the (N-1) th frame, (B) shows the image of the Nth frame, respectively. 動き検出器の動作状態と顔のサイズとの関係を示すタイミングチャートである。It is a timing chart which shows the relationship between the operation state of a motion detector, and the size of a face. 画像処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of an image processing apparatus.

符号の説明Explanation of symbols

21 デジタルカメラ
64 圧縮伸長処理回路
67 動き検出器(動き検出手段)
68 動き補償器(追従手段)
75 顔抽出回路(顔抽出手段)
21 Digital Camera 64 Compression / Expansion Processing Circuit 67 Motion Detector (Motion Detection Unit)
68 Motion compensator (Follow-up means)
75 Face extraction circuit (face extraction means)

Claims (10)

動画撮影によって取得された画像から特定の被写体を抽出する被写体抽出手段と、
フレーム間で同一被写体として対応する画素を識別した上でその動きベクトルを検出する動き検出手段と、
前記動き検出手段によって検出された動きベクトルを利用して、フレーム間で移動する被写体を追従する追従手段とを備え、
前記被写体抽出手段によって抽出された被写体に関し、フレーム間で対応する画素が識別されず動きベクトルが検出できなくなった場合、前記被写体抽出手段が特定の被写体を再度抽出して動きベクトルを補間することを特徴とする画像処理装置。
Subject extraction means for extracting a specific subject from an image acquired by video shooting;
Motion detection means for detecting a motion vector after identifying corresponding pixels as the same subject between frames;
Tracking means for following a subject moving between frames using the motion vector detected by the motion detection means;
For the subject extracted by the subject extraction means, if the corresponding pixel is not identified between frames and a motion vector cannot be detected, the subject extraction means re-extracts a specific subject and interpolates the motion vector. A featured image processing apparatus.
前記被写体抽出手段によって抽出された被写体に関し、フレーム間で対応する画素が識別されなくなった場合、前記動き検出手段は、そのフレームの画像について動きベクトルの検出を一旦打ち切り、次フレームの画像から動きベクトルの検出を再開することを特徴とする請求項1記載の画像処理装置。   When a corresponding pixel is no longer identified between frames for the subject extracted by the subject extraction unit, the motion detection unit temporarily stops the motion vector detection for the image of the frame, and the motion vector is extracted from the image of the next frame. The image processing apparatus according to claim 1, wherein the detection of the image is resumed. 前記被写体抽出手段は、人物の顔を抽出する顔抽出手段であることを特徴とする請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the subject extraction unit is a face extraction unit that extracts a human face. フレーム間における画像同士をパターンマッチングにより比較することを特徴とする請求項1乃至3何れか記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein images between frames are compared by pattern matching. 前記1乃至4何れか記載の画像処理装置を備えたデジタルカメラ。   A digital camera comprising the image processing apparatus according to any one of 1 to 4 above. 特定の被写体として抽出されなかった画素の動きベクトルを利用した手振れ補正機能を有することを特徴とする請求項5記載のデジタルカメラ。   6. The digital camera according to claim 5, further comprising a camera shake correction function using a motion vector of a pixel that has not been extracted as a specific subject. 動画撮影によって取得された画像から抽出した特定の被写体に関し、フレーム間で対応する画素を識別した上でその動きベクトルを検出し、検出された動きベクトルを利用してフレーム間で移動する被写体を追従する画像処理方法であって、
特定の被写体に関し、フレーム間で対応する画素が識別されず動きベクトルが検出できなくなった場合、特定の被写体を抽出し直して動きベクトルを補間することを特徴とする画像処理方法。
For a specific subject extracted from an image acquired by moving image shooting, the corresponding pixel is identified between frames and its motion vector is detected. The detected motion vector is used to follow the subject that moves between frames. An image processing method for
An image processing method characterized by reextracting a specific subject and interpolating the motion vector when a motion vector cannot be detected because a corresponding pixel is not identified between frames for the specific subject.
特定の被写体に関し、フレーム間で対応する画素が識別されなくなった場合、そのフレームの画像について動きベクトルの検出を一旦打ち切り、次フレームの画像から動きベクトルの検出を再開することを特徴とする請求項7記載の画像処理方法。   When a corresponding pixel is no longer identified between frames for a specific subject, motion vector detection is temporarily stopped for the image of the frame, and motion vector detection is resumed from the image of the next frame. 8. The image processing method according to 7. 人物の顔を特定の被写体として抽出することを特徴とする請求項7又は8記載の画像処理方法。   9. The image processing method according to claim 7, wherein a person's face is extracted as a specific subject. フレーム間における画像同士をパターンマッチングにより比較することを特徴とする請求項7乃至9何れか記載の画像処理方法。   The image processing method according to claim 7, wherein images between frames are compared by pattern matching.
JP2007144533A 2007-05-31 2007-05-31 Image processing device, digital camera, and image processing method Pending JP2008301161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007144533A JP2008301161A (en) 2007-05-31 2007-05-31 Image processing device, digital camera, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007144533A JP2008301161A (en) 2007-05-31 2007-05-31 Image processing device, digital camera, and image processing method

Publications (1)

Publication Number Publication Date
JP2008301161A true JP2008301161A (en) 2008-12-11

Family

ID=40174255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007144533A Pending JP2008301161A (en) 2007-05-31 2007-05-31 Image processing device, digital camera, and image processing method

Country Status (1)

Country Link
JP (1) JP2008301161A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011254447A (en) * 2010-05-07 2011-12-15 Canon Inc Video playback apparatus and method, program, and recording medium
JP2017098884A (en) * 2015-11-27 2017-06-01 カシオ計算機株式会社 Movement detection device, movement detection method, and program
RU2728819C1 (en) * 2019-03-13 2020-07-31 Мицубиси Электрик Корпорейшн Video display device and a multi-display system
JPWO2021038752A1 (en) * 2019-08-28 2021-03-04

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011254447A (en) * 2010-05-07 2011-12-15 Canon Inc Video playback apparatus and method, program, and recording medium
JP2017098884A (en) * 2015-11-27 2017-06-01 カシオ計算機株式会社 Movement detection device, movement detection method, and program
RU2728819C1 (en) * 2019-03-13 2020-07-31 Мицубиси Электрик Корпорейшн Video display device and a multi-display system
JPWO2021038752A1 (en) * 2019-08-28 2021-03-04
WO2021038752A1 (en) * 2019-08-28 2021-03-04 株式会社ソニー・インタラクティブエンタテインメント Image processing device, system, image processing method and image processing program
JP7304955B2 (en) 2019-08-28 2023-07-07 株式会社ソニー・インタラクティブエンタテインメント Image processing device, system, image processing method and image processing program

Similar Documents

Publication Publication Date Title
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
JP5054583B2 (en) Imaging device
JP4434151B2 (en) Imaging device
JP2008109336A (en) Image processor and imaging apparatus
US20070263106A1 (en) Photographing apparatus and method
TWI459126B (en) Image processing device capable of generating a wide-range image, image processing method and recording medium
JP2006201282A (en) Digital camera
US20080225136A1 (en) Imaging apparatus and automatic exposure controlling method
US9185294B2 (en) Image apparatus, image display apparatus and image display method
TW201301866A (en) Image processing device capable of generating wide-range image, image processing method, and recording medium
JP2013008004A (en) Imaging apparatus
JP2008301162A (en) Photography device, and photographing method
JP2013098792A (en) Imaging device and control method for imaging device
JP5014267B2 (en) Imaging device
JP2008301161A (en) Image processing device, digital camera, and image processing method
JP6758950B2 (en) Imaging device, its control method and program
JP2008263478A (en) Imaging apparatus
JP5354879B2 (en) camera
JP2001255451A (en) Automatic focusing device, digital camera and portable information input device
US9661204B2 (en) Image capturing apparatus and control method thereof
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5414412B2 (en) Imaging apparatus and control method thereof
JP5929362B2 (en) Imaging apparatus and imaging method
JP2011139123A (en) Image processor and image processing program
JP2009194469A (en) Imaging apparatus