JP2009017223A - Imaging device, image processing device, and their image processing method and program - Google Patents

Imaging device, image processing device, and their image processing method and program Download PDF

Info

Publication number
JP2009017223A
JP2009017223A JP2007176539A JP2007176539A JP2009017223A JP 2009017223 A JP2009017223 A JP 2009017223A JP 2007176539 A JP2007176539 A JP 2007176539A JP 2007176539 A JP2007176539 A JP 2007176539A JP 2009017223 A JP2009017223 A JP 2009017223A
Authority
JP
Japan
Prior art keywords
image
unit
imaging
predetermined area
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007176539A
Other languages
Japanese (ja)
Inventor
Yuichi Hasegawa
雄一 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007176539A priority Critical patent/JP2009017223A/en
Publication of JP2009017223A publication Critical patent/JP2009017223A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately correct blurring included in an image. <P>SOLUTION: In an imaging device, an object position determination unit 320 decides a position of an object included in a taken image which is an image taken by an imaging unit 110 using a selection input of the object in an operation reception unit 250. An object movement amount detection unit 330 detects a movement amount of the object included in the taken image. An object region extraction unit 360 extracts the object region. An object movement prediction amount calculation unit 350 predicts a movement amount of the object based on the detected movement amount of the object. A blurring correction unit 381 corrects the taken image and makes a corrected image based on the movement amount of the object. An image composition unit 383 composes the corrected image in the object region extracted by an object image extraction unit 382 on the object region of the taken image. A region boundary correction unit 384 changes and corrects pixel values of the composite image according to a distance from a boundary in a perimeter region of the boundary of a background and the object in the composite image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像装置に関し、特に、撮影画像等のブレを補正する撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that corrects blurring of a captured image, an image processing apparatus, an image processing method therefor, and a program that causes a computer to execute the method.

近年、人物等の被写体を撮像して画像データとして記録するデジタルスチルカメラ等の撮像装置が急速に普及し、これらの撮像装置の高性能化が進んでいる。また、これらの撮像装置の小型化も進んでおり、携帯が可能な撮像装置が各種提案されている。これにより、ユーザが撮像装置を旅行等に携帯して色々な場所で撮影をすることができる。   In recent years, an imaging apparatus such as a digital still camera that captures an image of a subject such as a person and records it as image data has rapidly spread, and the performance of these imaging apparatuses is increasing. In addition, downsizing of these imaging apparatuses is also progressing, and various imaging apparatuses that can be carried have been proposed. Accordingly, the user can take the image pickup device for traveling or the like and take pictures at various places.

これらの撮像装置を手で持って撮影する場合には、撮像装置自体のブレおよび被写体のブレの2種類のブレが主に生じる。   When shooting with these imaging devices held by hand, two types of blurring, namely blurring of the imaging device itself and blurring of the subject, mainly occur.

これらのブレを検出する方法として、振動センサ、速度センサ、加速度センサ、重力センサ等による撮像装置自体のブレの検出方法や、画像処理による動きベクトルの検出方法等の検出方法が主に知られている。   As a method for detecting these shakes, a detection method such as a shake detection method of an imaging apparatus itself using a vibration sensor, a speed sensor, an acceleration sensor, a gravity sensor, or a motion vector detection method using image processing is mainly known. Yes.

これらの検出方法によって検出されたブレ成分を用いて、このブレ成分をキャンセルする方向に撮影画像の位置を移動させることによって撮影画像におけるブレを補正することができる。   Using the blur component detected by these detection methods, the blur in the shot image can be corrected by moving the position of the shot image in a direction to cancel the blur component.

例えば、タイミングジェネレータから供給されるサンプリング信号のうちシャッター速度に応じたサンプルタイミングによって、手振れセンサから供給される手振れ検出情報をサンプリングし、サンプリングされた手振れ検出情報に基づいて、撮像素子によって得られる画像信号の読み出し位置を制御して手振れを補正する撮像装置が提案されている(例えば、特許文献1参照。)。
特開平05−316404号公報(図1)
For example, the image obtained by the image sensor is sampled based on the sampled camera shake detection information by sampling the camera shake detection information supplied from the camera shake sensor at the sample timing corresponding to the shutter speed in the sampling signal supplied from the timing generator. An imaging device that corrects camera shake by controlling a signal readout position has been proposed (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 05-316404 (FIG. 1)

上述の従来技術では、撮影画像に含まれる被写体の動きとは無関係に均一的にブレ補正処理が実施される。これにより、撮影画像全体としての手振れ等のブレを補正することができる。   In the above-described conventional technology, the blur correction process is uniformly performed regardless of the movement of the subject included in the captured image. As a result, it is possible to correct blur such as camera shake as the entire captured image.

一般に、撮像装置が用いられる状況としては、例えば、遊園地の動く乗り物に乗って遊んでいる人物を撮影したり、水族館の水槽で泳ぐ亀等を撮影したりすることも考えられる。このように、移動している物体を撮像装置で撮影する場合には、撮影された画像に含まれる物体がブレてしまう、いわゆる、被写体ブレが生じることが多い。   In general, as a situation where an imaging device is used, for example, it is conceivable to photograph a person playing on a moving vehicle in an amusement park, or to photograph a turtle swimming in an aquarium tank. As described above, when a moving object is photographed by the imaging apparatus, a so-called subject blur is often generated in which the object included in the photographed image is blurred.

しかしながら、これらの補正処理では、撮影画像に含まれる背景や人物が均一に扱われるため、撮影者が被写体として狙っていた人物やその顔、目、鼻、口等にブレ成分が残った状態となることが考えられる。   However, in these correction processes, since the background and the person included in the photographed image are treated uniformly, the blur component remains in the person, the face, eyes, nose, mouth, etc. that the photographer aimed at as the subject. It is possible to become.

そこで、移動している物体を撮影する場合において、移動している物体に合わせて撮像装置のレンズを移動させる、いわゆる、流し撮りを行うことが考えられる。しかしながら、この流し撮りは、難しい技法と言われているため、初心者等にとっては撮影が難しいという問題がある。また、この流し撮りを行うことによって、被写体ブレを軽減させることができるものの、背景がブレてしまうことが多く、写真全体を鮮鋭度の高い画像としたい人の要請に応えることが困難である。   Therefore, when photographing a moving object, it is conceivable to perform so-called panning, in which the lens of the imaging apparatus is moved in accordance with the moving object. However, since panning is said to be a difficult technique, there is a problem that it is difficult for beginners and the like to shoot. Moreover, although the blurring of the subject can be reduced by performing the panning, the background is often blurred, and it is difficult to meet the request of a person who wants to make the entire photograph an image with high sharpness.

このため、例えば、移動している亀を撮影する場合において、画像に含まれるブレを適切に補正し、移動している亀のブレとともに、この亀の背景のブレについても低減させることができれば、ユーザの好みに応じた適切な画像を提供することができると考えられる。   For this reason, for example, in the case of shooting a moving turtle, if the blur included in the image is corrected appropriately and the turtle's background blur can be reduced along with the moving turtle's blur, It is considered that an appropriate image according to the user's preference can be provided.

そこで、本発明は、画像に含まれるブレを適切に補正することを目的とする。   Accordingly, an object of the present invention is to appropriately correct blur included in an image.

本発明は、上記課題を解決するためになされたものであり、その第1の側面は、入射光を撮像データに変換する撮像手段と、上記撮像データに含まれる所定の領域の動き量を検出する動き量検出手段と、上記動き量に基づいて上記撮像データの上記所定の領域を補正して補正画像とする補正手段と、上記補正画像を上記撮像データの上記所定の領域に合成する合成手段とを具備することを特徴とする撮像装置およびその画像処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、撮像データに含まれる所定の領域の動き量を検出し、この動き量に基づいて撮像データの所定の領域を補正して補正画像とし、この補正画像を撮像データの所定の領域に合成するという作用をもたらす。   The present invention has been made in order to solve the above-mentioned problems. The first aspect of the present invention is to detect an amount of motion of a predetermined area included in the imaging data and imaging means for converting incident light into imaging data. Motion amount detecting means for performing correction, correcting means for correcting the predetermined area of the imaged data based on the amount of motion to obtain a corrected image, and combining means for combining the corrected image with the predetermined area of the imaged data And an image processing method thereof, and a program for causing a computer to execute the method. As a result, the amount of motion of a predetermined area included in the imaging data is detected, the predetermined area of the imaging data is corrected based on the amount of movement to obtain a corrected image, and the corrected image is combined with the predetermined area of the imaging data. The effect of doing.

また、この第1の側面において、上記撮像データを記憶する画像記憶手段と、上記検出された動き量を上記所定の領域の画像に関連付けて上記画像記憶手段に記憶する記憶制御手段とをさらに具備し、上記補正手段は、上記画像記憶手段に記憶されている撮像データの上記所定の領域を当該撮像データに対応して上記画像記憶手段に記憶されている動き量に基づいて補正して補正画像とし、上記合成手段は、上記画像記憶手段に記憶されている撮像データの上記所定の領域に上記補正画像を合成することができる。これにより、検出された動き量を所定の領域の画像に関連付けて画像記憶手段に記憶して、この画像記憶手段に記憶されている撮像データの所定の領域を、その撮像データに対応する動き量に基づいて補正して補正画像とし、その撮像データの所定の領域に補正画像を合成するという作用をもたらす。また、この場合において、上記記憶制御手段は、上記所定の領域に関する領域情報を上記所定の領域の画像に関連付けて上記画像記憶手段に記憶することができる。これにより、所定の領域に関する領域情報を、この領域の画像に関連付けて画像記憶手段に記憶するという作用をもたらす。また、この場合において、上記領域情報は、上記所定の領域に含まれる画像の縮小画像を含むことができる。これにより、所定の領域に含まれる画像の縮小画像を、この領域の画像に関連付けて画像記憶手段に記憶するという作用をもたらす。   Further, in the first aspect, the image processing device further includes an image storage unit that stores the imaging data, and a storage control unit that stores the detected motion amount in the image storage unit in association with the image of the predetermined area. The correction unit corrects the predetermined area of the imaging data stored in the image storage unit based on the amount of motion stored in the image storage unit corresponding to the imaging data, and corrects the corrected image. And the said synthetic | combination means can synthesize | combine the said correction | amendment image to the said predetermined area | region of the imaging data memorize | stored in the said image storage means. Thus, the detected amount of motion is stored in the image storage unit in association with the image of the predetermined region, and the predetermined region of the imaging data stored in the image storage unit is converted into the amount of motion corresponding to the imaging data. Thus, the corrected image is corrected to produce a corrected image, and the corrected image is combined with a predetermined area of the imaged data. In this case, the storage control means can store the area information related to the predetermined area in the image storage means in association with the image of the predetermined area. This brings about the effect that the area information relating to the predetermined area is stored in the image storage means in association with the image of this area. In this case, the area information can include a reduced image of an image included in the predetermined area. As a result, the reduced image of the image included in the predetermined region is stored in the image storage unit in association with the image in this region.

また、この第1の側面において、上記撮像手段により撮像された画像の記録操作を受け付ける記録操作受付手段をさらに具備し、上記動き量検出手段は、上記撮像手段により撮像された画像について1フレーム毎に上記所定の領域の動き量を検出し、上記記憶制御手段は、上記記録操作が受け付けられた際に上記撮像手段により撮像された画像を記録するとともに記録操作が受け付けられた際に検出された上記所定の領域の動き量を当該画像に関連付けて上記画像記憶手段に記録することができる。これにより、撮像された画像について1フレーム毎に所定の領域の動き量を検出して、記録操作が受け付けられた際に撮像された画像と、記録操作が受け付けられた際に検出された所定の領域の動き量とを関連付けて画像記憶手段に記録するという作用をもたらす。また、この場合において、上記記録操作が受け付けられた際に検出された上記所定の領域の動き量に基づいて新たな動き量を予測する動き量予測手段をさらに具備し、上記記憶制御手段は、上記記録操作が受け付けられた際に上記撮像手段により撮像された画像を記憶するとともに上記新たな動き量を当該画像に関連付けて上記画像記憶手段に記憶することができる。これにより、記録操作が受け付けられた際に検出された所定の領域の動き量に基づいて新たな動き量を予測して、記録操作が受け付けられた際に撮像された画像と新たな動き量とを関連付けて画像記憶手段に記憶するという作用をもたらす。   Further, in the first aspect, the image processing apparatus further includes a recording operation receiving unit that receives a recording operation of an image captured by the imaging unit, and the motion amount detecting unit is configured to perform frame-by-frame processing on the image captured by the imaging unit. The amount of movement of the predetermined area is detected, and the storage control means records the image picked up by the image pickup means when the recording operation is accepted and is detected when the recording operation is accepted. The amount of motion of the predetermined area can be recorded in the image storage means in association with the image. As a result, the motion amount of a predetermined area is detected for each frame of the captured image, and the image captured when the recording operation is accepted and the predetermined amount detected when the recording operation is accepted. This brings about the effect that the movement amount of the area is associated and recorded in the image storage means. In this case, the apparatus further includes a motion amount predicting unit that predicts a new motion amount based on the motion amount of the predetermined area detected when the recording operation is received, and the storage control unit includes: When the recording operation is accepted, the image picked up by the image pickup means can be stored, and the new motion amount can be associated with the image and stored in the image storage means. Accordingly, a new motion amount is predicted based on the motion amount of the predetermined area detected when the recording operation is accepted, and the image captured when the recording operation is accepted and the new motion amount Are associated and stored in the image storage means.

また、この第1の側面において、上記撮像された画像を表示する表示手段と、上記表示された画像に含まれる特定の物体の選択入力を受け付ける選択受付手段と、上記選択された物体の領域を上記所定の領域として抽出する所定領域抽出手段とをさらに具備することができる。これにより、撮像された画像を表示して、この表示された画像に含まれる特定の物体の選択入力が受け付けられると、この選択された物体の領域を所定の領域として抽出するという作用をもたらす。   In the first aspect, a display unit that displays the captured image, a selection reception unit that receives a selection input of a specific object included in the displayed image, and a region of the selected object. The image processing apparatus may further include predetermined area extraction means for extracting as the predetermined area. As a result, the captured image is displayed, and when a selection input of a specific object included in the displayed image is received, an area of the selected object is extracted as a predetermined area.

また、この第1の側面において、上記合成された画像における上記所定の領域に含まれる画像の境界の周辺領域において当該境界からの距離に応じて上記合成された画像の画素値を変更する境界補正手段をさらに具備することができる。これにより、合成された画像における所定の領域に含まれる画像の境界の周辺領域において、その境界からの距離に応じて、合成された画像の画素値を変更するという作用をもたらす。   Further, in the first aspect, boundary correction for changing a pixel value of the synthesized image according to a distance from the boundary in a peripheral region of the boundary of the image included in the predetermined area in the synthesized image. Means may further be provided. Thereby, in the peripheral region of the boundary of the image included in the predetermined region in the combined image, there is an effect that the pixel value of the combined image is changed according to the distance from the boundary.

また、本発明の第2の側面は、入射光が変換された撮像データと当該撮像データに含まれる所定の領域の動き量とを入力する入力手段と、上記動き量に基づいて上記撮像データの上記所定の領域を補正して補正画像とする補正手段と、上記補正画像を上記撮像データの上記所定の領域に合成する合成手段とを具備することを特徴とする画像処理装置およびその画像処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、撮像データとこれに含まれる所定の領域の動き量とを入力して、この動き量に基づいて撮像データの所定の領域を補正して補正画像とし、この補正画像を撮像データの所定の領域に合成するという作用をもたらす。   According to a second aspect of the present invention, there is provided input means for inputting imaging data obtained by converting incident light and a motion amount of a predetermined area included in the imaging data, and the imaging data based on the motion amount. An image processing apparatus and an image processing method therefor, comprising: a correcting unit that corrects the predetermined region to obtain a corrected image; and a combining unit that combines the corrected image with the predetermined region of the imaging data. And a program for causing a computer to execute the method. As a result, the imaging data and the amount of motion of a predetermined area included therein are input, the predetermined area of the imaging data is corrected based on the amount of motion to obtain a corrected image, and this corrected image is used as the predetermined amount of the imaging data. It brings about the effect of synthesizing in the region of.

本発明によれば、画像に含まれるブレを適切に補正することができるという優れた効果を奏し得る。   According to the present invention, it is possible to achieve an excellent effect that blur included in an image can be corrected appropriately.

次に本発明の実施の形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態における撮像装置100の機能構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a functional configuration example of an imaging apparatus 100 according to an embodiment of the present invention.

撮像装置100は、撮像部110と、CPU120と、RAM130と、カメラ信号処理エンジン140と、対象物検出エンジン150と、対象物領域抽出エンジン160と、動き量検出エンジン180と、ブレ補正エンジン190と、画像表示エンジン200と、表示部210と、メディアコントローラ220と、撮影画像記憶部230と、操作入力コントローラ240と、操作受付部250と、データバス260とを備える。   The imaging apparatus 100 includes an imaging unit 110, a CPU 120, a RAM 130, a camera signal processing engine 140, an object detection engine 150, an object region extraction engine 160, a motion amount detection engine 180, and a shake correction engine 190. The image display engine 200, the display unit 210, the media controller 220, the captured image storage unit 230, the operation input controller 240, the operation reception unit 250, and the data bus 260.

撮像部110は、光学系と撮像素子とから構成され、光学系を通して撮像された画像を画像信号に光電変換し、光電変換された画像信号をカメラ信号処理エンジン140に出力するものである。   The imaging unit 110 includes an optical system and an imaging device, and photoelectrically converts an image captured through the optical system into an image signal, and outputs the photoelectrically converted image signal to the camera signal processing engine 140.

CPU(Central Processing Unit)120は、各種制御プログラムに基づいて撮像装置100全体を制御するものである。   A CPU (Central Processing Unit) 120 controls the entire imaging apparatus 100 based on various control programs.

RAM(Random Access Memory)130は、各種データを格納するメモリであり、画像処理のための各種の画像保存領域を備える。   A RAM (Random Access Memory) 130 is a memory that stores various data, and includes various image storage areas for image processing.

カメラ信号処理エンジン140は、撮像部110から出力された画像信号に対して適正な信号処理を施してデータバス260に出力するものである。   The camera signal processing engine 140 performs appropriate signal processing on the image signal output from the imaging unit 110 and outputs it to the data bus 260.

対象物検出エンジン150は、入力された画像から、被写体の対象となる特定の物体である対象物を検出するものである。例えば、対象物検出エンジン150は、入力された画像に含まれる人の顔を対象物として検出することができる。   The target object detection engine 150 detects a target object that is a specific object that is a target of the subject from the input image. For example, the object detection engine 150 can detect a human face included in the input image as an object.

対象物領域抽出エンジン160は、ユーザにより決定された対象物または対象物検出エンジン150により検出された対象物について、入力された画像における領域を抽出するものである。   The object area extraction engine 160 extracts an area in the input image for the object determined by the user or the object detected by the object detection engine 150.

動き量検出エンジン180は、ユーザにより決定された対象物または対象物検出エンジン150により検出された対象物について、入力された画像における動き量を検出するものである。   The motion amount detection engine 180 detects a motion amount in an input image with respect to an object determined by a user or an object detected by the object detection engine 150.

ブレ補正エンジン190は、ユーザにより決定された対象物または対象物検出エンジン150により検出された対象物について、対象物領域抽出エンジン160により抽出された領域と、動き量検出エンジン180により検出された動き量とに基づいてブレ成分を補正するものである。   The blur correction engine 190 includes an area extracted by the object area extraction engine 160 and a motion detected by the motion amount detection engine 180 for the object determined by the user or the object detected by the object detection engine 150. The blur component is corrected based on the amount.

画像表示エンジン200は、CPU120からの制御に基づいて、各種画像を表示部210に出力するものである。   The image display engine 200 outputs various images to the display unit 210 based on control from the CPU 120.

表示部210は、画像表示エンジン200から出力された各種画像データに対応する画像を表示する画像表示装置である。画像表示装置として、例えば、液晶ディスプレイ(LCD)や電子ビューファインダ(EVF)が用いられる。   The display unit 210 is an image display device that displays images corresponding to various image data output from the image display engine 200. For example, a liquid crystal display (LCD) or an electronic viewfinder (EVF) is used as the image display device.

メディアコントローラ220は、撮影画像記憶部230から入力された画像データをデータバス260を介してRAM130等に出力するとともに、各種画像データを撮影画像記憶部230に出力して記録するものである。   The media controller 220 outputs the image data input from the captured image storage unit 230 to the RAM 130 or the like via the data bus 260 and outputs various image data to the captured image storage unit 230 for recording.

撮影画像記憶部230は、JPEG(Joint Photographic Experts Group)形式の画像データ等の各種データを記録する情報記録媒体である。   The captured image storage unit 230 is an information recording medium for recording various data such as JPEG (Joint Photographic Experts Group) format image data.

操作入力コントローラ240は、操作受付部250において受け付けられた操作入力をデータバス260を介してCPU120に出力するものである。   The operation input controller 240 outputs the operation input received by the operation receiving unit 250 to the CPU 120 via the data bus 260.

操作受付部250は、表示部210に表示されている画像において対象物を指定するための上下左右キーや撮影する際に押下するシャッターボタン等の各種操作部材を備え、これらの操作部材から操作入力を受け付けると、受け付けた操作入力の内容を操作入力コントローラ240に出力するものである。なお、表示部210および操作受付部250については、これらの一部または全部をタッチパネルとして一体で構成するようにしてもよい。   The operation accepting unit 250 includes various operation members such as up / down / left / right keys for designating an object in the image displayed on the display unit 210 and a shutter button to be pressed when taking an image. Is received, the content of the accepted operation input is output to the operation input controller 240. In addition, about the display part 210 and the operation reception part 250, you may make it comprise these one part or all as a touch panel integrally.

図2は、本発明の実施の形態における撮像装置100の機能構成例を示すブロック図である。ここでは、撮像された画像から対象物の動き量および領域情報を検出して、撮像画像と対象物の動き量および領域情報とを関連付けて撮影画像記憶部230に記憶する場合における機能構成例と、撮影画像記憶部230に記憶されている撮像画像について対象物の動き量および領域情報を用いて被写体のブレを補正する場合における機能構成例を示す。   FIG. 2 is a block diagram illustrating a functional configuration example of the imaging apparatus 100 according to the embodiment of the present invention. Here, an example of a functional configuration in the case of detecting the amount of movement and area information of the target object from the captured image, and storing the captured image and the amount of movement of the target object and area information in association with each other in the captured image storage unit 230. An example of a functional configuration in the case of correcting blurring of a subject using the amount of movement of a target object and region information for a captured image stored in a captured image storage unit 230 will be described.

撮像装置100は、撮像部110と、表示部210と、撮影画像記憶部230と、操作受付部250と、画像入力部310と、対象物位置決定部320と、対象物動き量検出部330と、対象物位置更新部340と、対象物動き予測量算出部350と、対象物領域抽出部360と、記憶制御部370と、対象物ブレ補正部380と、表示制御部390とを備える。   The imaging apparatus 100 includes an imaging unit 110, a display unit 210, a captured image storage unit 230, an operation reception unit 250, an image input unit 310, an object position determination unit 320, and an object motion amount detection unit 330. , An object position update unit 340, an object motion prediction amount calculation unit 350, an object region extraction unit 360, a storage control unit 370, an object shake correction unit 380, and a display control unit 390.

撮像部110は、図1に示す撮像部110に対応するものであり、光電変換された画像信号を画像入力部310に出力するものである。   The imaging unit 110 corresponds to the imaging unit 110 illustrated in FIG. 1, and outputs a photoelectrically converted image signal to the image input unit 310.

操作受付部250は、図1に示す操作受付部250に対応するものであり、表示部210に表示されている画像に含まれる対象物を選択する旨の操作入力を対象物位置決定部320に出力するものである。また、操作受付部250は、ユーザによりシャッターボタンが押下された場合には、この押下の際に撮像された画像を記憶する旨の操作入力を記憶制御部370に出力する。さらに、操作受付部250は、撮像部110により撮像された画像を表示部210に表示する旨の操作入力や、対象物ブレ補正部380により補正された画像を表示部210に表示する旨の操作入力を表示制御部390に出力する。   The operation reception unit 250 corresponds to the operation reception unit 250 illustrated in FIG. 1, and an operation input for selecting an object included in the image displayed on the display unit 210 is input to the object position determination unit 320. Output. In addition, when the user presses the shutter button, the operation reception unit 250 outputs an operation input to the storage control unit 370 to store the image captured at the time of the pressing. Further, the operation reception unit 250 performs an operation input for displaying the image captured by the imaging unit 110 on the display unit 210 or an operation for displaying the image corrected by the object blur correction unit 380 on the display unit 210. The input is output to the display control unit 390.

画像入力部310は、撮像部110から出力された画像信号を入力するものであり、入力された画像信号に対応する画像を1フレーム毎に、対象物位置決定部320、対象物領域抽出部360、記憶制御部370および表示制御部390に出力するものである。   The image input unit 310 inputs the image signal output from the imaging unit 110, and an image corresponding to the input image signal is input to the object position determination unit 320 and the object region extraction unit 360 for each frame. The data is output to the storage control unit 370 and the display control unit 390.

対象物位置決定部320は、画像入力部310から出力された画像に含まれる被写体のうちから、操作受付部250からの操作入力に応じて、少なくとも1つの物体を対象物として決定するものであり、決定された対象物の位置を、対象物動き量検出部330および対象物領域抽出部360に出力する。また、対象物位置決定部320は、操作受付部250からの操作入力に応じて対象物が決定された後に、対象物位置更新部340から出力される対象物の位置の更新情報によって、1フレーム毎に対象物の位置を更新して、更新された対象物の位置を、対象物動き量検出部330および対象物領域抽出部360に出力する。なお、対象物位置決定部320による対象物の決定については、図3を参照して詳細に説明する。また、対象物位置決定部320は、対象物検出エンジン150により検出された対象物を決定するようにしてもよい。   The object position determination unit 320 determines at least one object as an object in accordance with an operation input from the operation reception unit 250 among subjects included in the image output from the image input unit 310. The determined position of the object is output to the object movement amount detection unit 330 and the object region extraction unit 360. In addition, the object position determination unit 320 determines one frame based on the update information of the position of the object output from the object position update unit 340 after the object is determined according to the operation input from the operation reception unit 250. The position of the object is updated every time, and the updated position of the object is output to the object movement amount detection unit 330 and the object region extraction unit 360. The determination of the object by the object position determination unit 320 will be described in detail with reference to FIG. Further, the object position determination unit 320 may determine the object detected by the object detection engine 150.

対象物動き量検出部330は、対象物位置決定部320から出力された対象物の位置に基づいて、1フレーム毎に対象物の動き量を検出するものであり、検出された動き量を対象物位置更新部340および対象物動き予測量算出部350に出力するものである。なお、動き量の検出については、図5(a)および(b)を参照して詳細に説明する。   The object movement amount detection unit 330 detects the amount of movement of the object for each frame based on the position of the object output from the object position determination unit 320. This is output to the object position update unit 340 and the target object motion prediction amount calculation unit 350. The detection of the amount of movement will be described in detail with reference to FIGS. 5 (a) and 5 (b).

対象物位置更新部340は、対象物動き量検出部330から出力された対象物の動き量に基づいて、対象物の位置の更新情報を作成し、作成された対象物の位置の更新情報を対象物位置決定部320に出力するものである。   The object position update unit 340 creates update information of the position of the object based on the amount of movement of the object output from the object movement amount detection unit 330, and updates the position information of the created object. This is output to the object position determination unit 320.

対象物動き予測量算出部350は、対象物動き量検出部330から出力された対象物の動き量に基づいて、その対象物について予測される動き量を動き予測量として算出するものであり、算出された動き予測量を記憶制御部370に出力する。なお、動き予測量の算出については、図5(b)および(c)を参照して詳細に説明する。   The target object motion prediction amount calculation unit 350 calculates a motion amount predicted for the target object as a motion prediction amount based on the target motion amount output from the target object motion amount detection unit 330. The calculated motion prediction amount is output to the storage control unit 370. Note that the calculation of the motion prediction amount will be described in detail with reference to FIGS. 5B and 5C.

対象物領域抽出部360は、画像入力部310から出力された画像における対象物位置決定部320により決定された対象物を囲む領域を、対象物位置決定部320から出力された対象物の位置に基づいて抽出するものであり、抽出された対象物を囲む領域に関する情報を記憶制御部370に出力する。対象物を囲む領域に関する情報は、例えば、対象物を囲む領域の座標、形状、縮小画像等である。なお、対象物を囲む領域については、図4を参照して詳細に説明する。   The object area extraction unit 360 sets the area surrounding the object determined by the object position determination unit 320 in the image output from the image input unit 310 to the position of the object output from the object position determination unit 320. Based on this, information relating to the area surrounding the extracted object is output to the storage control unit 370. The information regarding the area surrounding the object is, for example, the coordinates, shape, reduced image, and the like of the area surrounding the object. The area surrounding the object will be described in detail with reference to FIG.

記憶制御部370は、画像入力部310から出力された画像と、この画像に対応して対象物動き予測量算出部350から出力された動き予測量と、この画像に対応して対象物領域抽出部360から出力された対象物を囲む領域に関する情報とを関連付けて撮影画像記憶部230に記憶するものである。   The storage control unit 370 extracts the image output from the image input unit 310, the motion prediction amount output from the target motion prediction amount calculation unit 350 corresponding to the image, and the target region extraction corresponding to the image. The information related to the region surrounding the object output from the unit 360 is associated with the information and stored in the captured image storage unit 230.

撮影画像記憶部230は、撮影画像と、この画像に対応する動き予測量と、この画像に対応する対象物を囲む領域に関する情報とを関連付けて記憶する記憶部であり、記憶されている情報を対象物ブレ補正部380に出力する。なお、撮影画像記憶部230に記録される撮影画像等については、図6を参照して詳細に説明する。   The captured image storage unit 230 is a storage unit that associates and stores a captured image, a motion prediction amount corresponding to the image, and information regarding a region surrounding the object corresponding to the image, and stores the stored information. The image is output to the object blur correction unit 380. Note that captured images and the like recorded in the captured image storage unit 230 will be described in detail with reference to FIG.

対象物ブレ補正部380は、ブレ補正部381と、対象物画像抽出部382と、画像合成部383と、領域境界補正部384とを備える。   The object blur correction unit 380 includes a blur correction unit 381, an object image extraction unit 382, an image composition unit 383, and a region boundary correction unit 384.

ブレ補正部381は、撮影画像記憶部230に記憶されている撮影画像について、この画像に関連付けて記憶されている対象物の動き量に基づいてブレを補正するものであり、ブレが補正されたブレ補正画像を対象物画像抽出部382に出力するものである。このブレ補正については、図7等を参照して詳細に説明する。   The shake correction unit 381 corrects the shake of the captured image stored in the captured image storage unit 230 based on the amount of movement of the object stored in association with the image. The blur correction image is output to the object image extraction unit 382. This blur correction will be described in detail with reference to FIG.

対象物画像抽出部382は、ブレ補正部381から出力されたブレ補正画像について、この画像に関連付けて記憶されている対象物を囲む領域に関する情報に基づいて、ブレ補正画像からその領域内の対象物画像を抽出するものであり、抽出された対象物画像を画像合成部383に出力するものである。この対象物画像抽出については、図8等を参照して詳細に説明する。   The object image extraction unit 382 is configured to detect, from the shake correction image, the object in the area based on the information about the area surrounding the object stored in association with the image of the shake correction image output from the shake correction unit 381. An object image is extracted, and the extracted object image is output to the image composition unit 383. This object image extraction will be described in detail with reference to FIG.

画像合成部383は、撮影画像記憶部230に記憶されている撮影画像に関連付けて記憶されている対象物を囲む領域に関する情報に基づいて、対象物画像抽出部382から出力された対象物画像を、その撮影画像における対象物を囲む領域に合成するものであり、合成された合成画像を領域境界補正部384に出力するものである。この対象物画像合成については、図8等を参照して詳細に説明する。   The image composition unit 383 selects the object image output from the object image extraction unit 382 based on the information related to the area surrounding the object stored in association with the captured image stored in the captured image storage unit 230. Then, the image is synthesized with the area surrounding the object in the captured image, and the synthesized image is output to the area boundary correction unit 384. This object image composition will be described in detail with reference to FIG.

領域境界補正部384は、撮影画像に合成された対象物画像の領域境界において境界補正処理を施すものであり、境界補正処理が施された対象物ブレ補正画像を表示制御部390に出力する。この境界補正処理については、図9乃至11を参照して詳細に説明する。   The region boundary correction unit 384 performs boundary correction processing at the region boundary of the target image combined with the captured image, and outputs the target blur correction image subjected to the boundary correction processing to the display control unit 390. This boundary correction process will be described in detail with reference to FIGS.

表示制御部390は、操作受付部250からの操作入力に応じて、画像入力部310から出力された画像、または領域境界補正部384から出力された対象物ブレ補正画像を表示部210に表示させる制御を実行するものである。   The display control unit 390 causes the display unit 210 to display the image output from the image input unit 310 or the object blur correction image output from the region boundary correction unit 384 in response to an operation input from the operation reception unit 250. Control is executed.

表示部210は、表示制御部390の制御に基づいて、画像入力部310から出力された画像、または領域境界補正部384から出力された対象物ブレ補正画像を表示する。   The display unit 210 displays the image output from the image input unit 310 or the object blur correction image output from the region boundary correction unit 384 based on the control of the display control unit 390.

次に、撮像部110に取り込まれている画像に含まれる対象物を決定する対象物決定方法について図面を参照して詳細に説明する。   Next, an object determination method for determining an object included in an image captured by the imaging unit 110 will be described in detail with reference to the drawings.

図3は、撮像部110に取り込まれている画像を表示部210に表示する場合における表示例を示す図である。図3(a)は、水族館の水槽の中を泳いでいる亀401が表示部210に表示されている場合におけるAFエリアマーク402を含む画像400を示す図であり、図3(b)は、水族館の水槽の中を泳いでいる亀401が表示部210に表示されている場合におけるカーソル406を含む画像405を示す図であり、図3(c)は、山麓を背景にして撮影される人411が表示部210に表示されている場合における画像410を示す図である。   FIG. 3 is a diagram illustrating a display example when an image captured by the imaging unit 110 is displayed on the display unit 210. FIG. 3A is a diagram showing an image 400 including an AF area mark 402 when a turtle 401 swimming in an aquarium tank is displayed on the display unit 210. FIG. FIG. 3C is a diagram showing an image 405 including a cursor 406 when a turtle 401 swimming in an aquarium tank is displayed on the display unit 210. FIG. 4 is a diagram illustrating an image 410 when 411 is displayed on the display unit 210. FIG.

撮像装置100を用いて対象物を撮影する場合には、ユーザが撮像部110のレンズをその対象物に向け、ファインダ(図示せず)または表示部210を見ながら、その対象物が画角の範囲内に入るようにする。対象物が画角の範囲内に入っている場合には、表示部210にその対象物が表示される。例えば、対象物が亀401である場合には、図3(a)および(b)に示すように、亀401が表示部210に表示され、対象物が人411である場合には、図3(c)に示すように、人411が表示部210に表示される。このように、対象物が画角の範囲内に含まれている場合において、その対象物の位置を決定することができる。   When photographing an object using the imaging apparatus 100, the user points the lens of the imaging unit 110 toward the object and looks at a finder (not shown) or the display unit 210 while the object has an angle of view. Try to be within range. When the object is within the range of the angle of view, the object is displayed on the display unit 210. For example, when the object is a turtle 401, as shown in FIGS. 3A and 3B, the turtle 401 is displayed on the display unit 210, and when the object is a person 411, FIG. As shown in (c), the person 411 is displayed on the display unit 210. Thus, when the target object is included in the range of the angle of view, the position of the target object can be determined.

ここで、図3(a)に示す画像400には、対象物である亀401とともに、オートフォーカス時に使用されるAF(Auto-Focus)エリアを示すAFエリアマーク402が含まれる。なお、AFエリアマーク402は、オートフォーカス時の合焦エリアの位置に対応する。また、図3(b)に示す画像405には、対象物である亀401とともに、操作受付部250からの操作入力に応じて移動するカーソル406が含まれる。さらに、図3(c)に示す画像には、対象物である人411とともに、対象物検出エンジン150により検出された人411の顔412の領域を示す顔領域マーク413が含まれる。   Here, an image 400 shown in FIG. 3A includes an AF area mark 402 indicating an AF (Auto-Focus) area used at the time of autofocusing together with the turtle 401 as the object. Note that the AF area mark 402 corresponds to the position of the focus area during autofocus. In addition, the image 405 illustrated in FIG. 3B includes a cursor 406 that moves in response to an operation input from the operation reception unit 250 together with the turtle 401 that is the object. Further, the image shown in FIG. 3C includes a face area mark 413 indicating the area of the face 412 of the person 411 detected by the object detection engine 150 together with the person 411 that is the object.

対象物の決定方法として、例えば、オートフォーカス時に使用されるAFエリアを、対象物の位置として決定することができる。例えば、図3(a)に示すように、AFエリアマーク402が付されている亀401の位置を、対象物の位置として決定する。   As an object determination method, for example, an AF area used during autofocus can be determined as the position of the object. For example, as shown in FIG. 3A, the position of the turtle 401 to which the AF area mark 402 is attached is determined as the position of the object.

また、対象物の決定方法として、例えば、操作受付部250におけるユーザからの操作入力により、その対象物の位置を決定することができる。例えば、図3(b)に示すように、操作受付部250からの操作入力により、亀401に重なるようにカーソル406を移動させ、カーソル406が亀401に重なっている状態で決定ボタン(図示せず)を押下する。これにより、ユーザの対象物である亀401の位置を決定(指定)することができる。なお、表示部210および操作受付部250がタッチパネルとして一体で構成されている場合には、パッチパネルに表示されている対象物の位置をユーザが押下することによって、対象物を決定することができる。   Further, as a method for determining an object, for example, the position of the object can be determined by an operation input from the user in the operation reception unit 250. For example, as shown in FIG. 3B, the cursor 406 is moved so as to overlap the turtle 401 by an operation input from the operation receiving unit 250, and a determination button (not shown) Z)). Thereby, the position of the turtle 401 which is a user's target object can be determined (designated). When the display unit 210 and the operation receiving unit 250 are integrally configured as a touch panel, the target can be determined by the user pressing the position of the target displayed on the patch panel. .

さらに、対象物の決定方法として、例えば、対象物検出エンジン150により検出された人の顔の位置を、対象物の位置として決定することができる。例えば、図3(c)に示すように、顔領域マーク413が付されている人411の顔412の位置を、対象物の位置として決定する。なお、人の顔以外に、ペット等の動物の顔を検出する検出エンジンを用いるようにしてもよい。   Furthermore, as a method for determining an object, for example, the position of a human face detected by the object detection engine 150 can be determined as the position of the object. For example, as shown in FIG. 3C, the position of the face 412 of the person 411 to which the face area mark 413 is attached is determined as the position of the object. In addition to the human face, a detection engine that detects the face of an animal such as a pet may be used.

なお、決定された対象物の位置を示す対象物位置マークを、決定された対象物に付すように表示部210に表示するようにしてもよい。   In addition, you may make it display the target object position mark which shows the position of the determined target object on the display part 210 so that it may attach | subject to the determined target object.

次に、決定された対象物の領域を抽出する領域抽出方法について図面を参照して詳細に説明する。   Next, a region extraction method for extracting the determined region of the object will be described in detail with reference to the drawings.

図4は、撮像部110に取り込まれている画像のうちから決定された対象物の領域の概略を示す図である。図4(a)は、図3(a)および(b)に示す画像400および405における被写体領域情報420を示す図であり、図4(b)は、図3(c)に示す画像410における被写体領域情報430を示す図である。   FIG. 4 is a diagram illustrating an outline of a region of an object determined from images captured in the imaging unit 110. 4A is a diagram showing subject area information 420 in the images 400 and 405 shown in FIGS. 3A and 3B, and FIG. 4B is a diagram in the image 410 shown in FIG. 3C. 5 is a diagram showing subject area information 430. FIG.

撮像部110に取り込まれている画像のうちから対象物が決定された場合には、撮像部110に取り込まれている画像が、その対象物の領域と、その対象物以外の領域とに分割され、その対象物の領域が抽出される。例えば、図3(a)および(b)に示す亀401が対象物として決定された場合には、図4(a)に示すように、図3(a)および(b)に示す画像400および405に対応する被写体領域情報420のうちで、亀401の領域を示す対象物領域421が抽出される。また、図3(c)に示す人411の顔412が対象物として決定された場合には、図4(b)に示すように、図3(c)に示す画像410に対応する被写体領域情報430のうちで、人411の領域を示す対象物領域431が抽出される。   When an object is determined from images captured by the imaging unit 110, the image captured by the imaging unit 110 is divided into an area of the object and an area other than the object. , The region of the object is extracted. For example, when the turtle 401 shown in FIGS. 3 (a) and 3 (b) is determined as an object, as shown in FIG. 4 (a), an image 400 shown in FIGS. 3 (a) and 3 (b) and In the subject area information 420 corresponding to 405, an object area 421 indicating the area of the turtle 401 is extracted. When the face 412 of the person 411 shown in FIG. 3C is determined as the target object, as shown in FIG. 4B, subject area information corresponding to the image 410 shown in FIG. Among the objects 430, the object area 431 indicating the area of the person 411 is extracted.

ここで、対象物の領域抽出について説明する。対象物の領域抽出方法として、例えば、オートフォーカス時に使用されるAFエリアの大きさを、そのまま対象物領域として抽出することができる。例えば、図3(a)に示すように、亀401に付されているAFエリアマーク402の範囲内を、対象物領域として抽出する。   Here, the region extraction of the object will be described. As an object region extraction method, for example, the size of an AF area used during autofocus can be extracted as an object region as it is. For example, as shown in FIG. 3A, the range of the AF area mark 402 attached to the turtle 401 is extracted as the object area.

また、対象物の領域抽出方法として、例えば、対象物検出エンジン150により検出された人の顔の領域を、対象物の領域として抽出することができる。例えば、図3(c)に示すように、人411の顔412に付されている顔領域マーク413の範囲内を、対象物の領域として抽出する   In addition, as an object region extraction method, for example, a human face region detected by the object detection engine 150 can be extracted as a target region. For example, as shown in FIG. 3C, the range of the face area mark 413 attached to the face 412 of the person 411 is extracted as the area of the object.

さらに、対象物の領域抽出方法として、例えば、撮像部110に現在取り込まれている画像を領域分割し、決定された対象物の位置が含まれる領域を対象物領域とすることができる。   Further, as an object region extraction method, for example, an image currently captured by the imaging unit 110 can be divided into regions that include the determined position of the object.

この領域分割は、撮像部110に現在取り込まれている画像の1フレーム前の画像から、決定された対象物の形状を検出し、この形状に基づいて、対象物領域が決定される。このような領域決定のための手法として、例えば、決定木を用いて領域分割を行う手法が知られている(Richard Nock:"Fast and Reliable Color Region Merging inspired by Decision Tree Pruning", IEEE International Conference on Computer Vision and Pattern Recognition, pp.271-276, IEEE CS press, 2001)。   In this area division, the determined shape of the target object is detected from an image one frame before the image currently captured by the imaging unit 110, and the target area is determined based on this shape. As a method for determining such a region, for example, a method of performing region division using a decision tree is known (Richard Nock: “Fast and Reliable Color Region Merging inspired by Decision Tree Pruning”, IEEE International Conference on Computer Vision and Pattern Recognition, pp.271-276, IEEE CS press, 2001).

図4(a)に示す被写体領域情報420は、図3(a)および(b)に示す画像400および405において、関連する領域毎に領域分割がされたものであり、対象物領域421は、決定された対象物である亀401の領域である。ここでは、分割された各領域を色別に示す。   The subject area information 420 shown in FIG. 4A is obtained by dividing an area for each related area in the images 400 and 405 shown in FIGS. 3A and 3B. This is the area of the turtle 401 that is the determined object. Here, each divided area is shown by color.

図4(b)に示す被写体領域情報430は、図3(c)に示す画像410において、関連する領域毎に領域分割がされたものであり、対象物領域431は、決定された対象物である人411の画像の領域である。ここでは、対象物領域431を斜線で示す。   The subject area information 430 shown in FIG. 4B is obtained by dividing an area for each related area in the image 410 shown in FIG. 3C, and the object area 431 is a determined object. This is an image area of a person 411. Here, the object region 431 is indicated by oblique lines.

撮像部110に取り込まれている画像について決定された対象物の領域が抽出された場合には、図4(a)または(b)に示すように、抽出された対象物領域の形状を表示部210の一部の領域に表示するようにしてもよい。また、撮像部110に取り込まれている画像に重ねて表示するようにしてよい。   When the object region determined for the image captured in the imaging unit 110 is extracted, as shown in FIG. 4A or 4B, the shape of the extracted object region is displayed on the display unit. You may make it display on the one part area | region of 210. FIG. Further, the image may be displayed so as to be superimposed on the image captured in the imaging unit 110.

次に、決定された対象物の動き量を検出する動き量検出方法について図面を参照して詳細に説明する。   Next, a motion amount detection method for detecting the determined motion amount of the object will be described in detail with reference to the drawings.

図5は、撮像部110に取り込まれている画像のうちから決定された対象物の動きの変移の概略を示す図である。図5(a)乃至(c)は、図3(a)または(b)に示す画像400または405を簡略化した画像440、450、460を示す図であり、画像400または405に含まれる亀401に対応する亀441の変移の概略を示す図である。   FIG. 5 is a diagram illustrating an outline of the transition of the movement of the object determined from the images captured in the imaging unit 110. FIGS. 5A to 5C are diagrams showing simplified images 440, 450, and 460 of the image 400 or 405 shown in FIG. 3A or 3B, and the turtle included in the image 400 or 405 is shown. It is a figure which shows the outline of the transition of the turtle 441 corresponding to 401. FIG.

撮像部110に取り込まれている画像のうちから対象物が決定された場合には、操作受付部250においてシャッター押下の操作入力がされるまでの間、決定された対象物の対象物領域の更新およびその対象物の動き量の検出が継続して行われる。   When an object is determined from images captured in the imaging unit 110, the object region of the determined object is updated until an operation input for pressing the shutter is performed in the operation reception unit 250. And the detection of the movement amount of the object is continuously performed.

対象物の動き量を検出する動き量検出方法として、例えば、撮像部110から取得された現在の画像と、この画像の1フレーム前の画像とに基づいて、対象物領域の動き量を検出する方法を用いることができる。   As a motion amount detection method for detecting a motion amount of an object, for example, the motion amount of the object region is detected based on a current image acquired from the imaging unit 110 and an image one frame before this image. The method can be used.

例えば、1フレーム前の画像および対象物領域内の画像パターンが、現在の画像中のどの部分に一番似ているかについて、SAD(Sum of Absolute Differences)を類似度としたパターン検出法を用いて、対象物領域の動き量を検出する方法を用いることができる。例えば、次の式1を用いて、RSAD(u,v)を算出する。
For example, by using a pattern detection method using SAD (Sum of Absolute Differences) as a similarity, which part in the current image is most similar to the image in the previous frame and the image pattern in the object area. A method of detecting the amount of movement of the object region can be used. For example, using the following equation 1 to calculate the R SAD (u, v).

ここで、Aは対象物領域に含まれる画素の集合を示し、T(x,y)は1フレーム前の画像の画素値を示し、I(x,y)は現在の画像の画素値を示す。そして、次の式2で示すように、式1を用いて算出されたRSAD(u,v)を最小にする(u,v)を対象物域の動きベクトルV(u,v)とすることができる。ここで、動きベクトルは、動き量の例である。
対象物領域の動きベクトルV(u,v)=min{RSAD(u,v)}…(式2)
Here, A indicates a set of pixels included in the object area, T (x, y) indicates the pixel value of the image one frame before, and I (x, y) indicates the pixel value of the current image. . Then, as shown in the following Expression 2, (u, v) that minimizes R SAD (u, v) calculated using Expression 1 is set as a motion vector V (u, v) of the object area. be able to. Here, the motion vector is an example of a motion amount.
Motion vector of object region V (u, v) = min {R SAD (u, v)} (Expression 2)

例えば、図5(b)に示す画像450を、撮像部110に現在取り込まれている画像とし、図5(a)に示す画像440を、画像450の1フレーム前の画像とする。この場合に、画像450に含まれる亀451における所定位置を対象物位置452とし、画像440に含まれる亀441における対象物位置452に対応する位置を対象物位置442とする。なお、図5(b)に示す画像450において、図5(a)に示す亀441の位置を破線で示す。   For example, an image 450 illustrated in FIG. 5B is an image currently captured by the imaging unit 110, and an image 440 illustrated in FIG. 5A is an image one frame before the image 450. In this case, a predetermined position in the turtle 451 included in the image 450 is set as a target position 452, and a position corresponding to the target position 452 in the turtle 441 included in the image 440 is set as a target position 442. In addition, in the image 450 shown in FIG.5 (b), the position of the turtle 441 shown to Fig.5 (a) is shown with a broken line.

画像440の撮像時刻から画像450の撮像時刻の間に、図5(a)および(b)に示すように、亀が亀441の位置から亀451の位置まで移動している。この亀の移動に対応して、対象物位置452が対象物位置452に移動している。この移動における動き量として、動きベクトル453が検出される。この動き量の検出は、シャッターが押下されるまでの間、継続される。   As shown in FIGS. 5A and 5B, the turtle moves from the position of the turtle 441 to the position of the turtle 451 between the imaging time of the image 440 and the imaging time of the image 450. Corresponding to the movement of the turtle, the object position 452 has moved to the object position 452. A motion vector 453 is detected as the amount of motion in this movement. This detection of the movement amount is continued until the shutter is pressed.

操作受付部250においてシャッターが押下された場合には、シャッター押下の際に検出された動きベクトルに基づいて、亀の動き量を予測し、この予測された動き量および亀の対象物領域が、この押下の際に撮像部110に取り込まれた画像とともに撮影画像記憶部230に記憶される。   When the operation reception unit 250 presses the shutter, the turtle movement amount is predicted based on the motion vector detected when the shutter is pressed, and the predicted movement amount and the turtle target area are The image is stored in the captured image storage unit 230 together with the image captured by the imaging unit 110 at the time of pressing.

図5(c)は、操作受付部250においてシャッターが押下された際に検出された動きベクトルに基づいて予測された亀451の変移の概略を示す図である。例えば、図5(b)に示す画像450を、シャッター押下の際に撮像部110に取り込まれた画像とし、図5(c)に示す画像460を、画像450の1フレーム後に予測される亀451の位置を示す画像とする。ここで、図5(c)に示す画像460において、図5(b)に示す亀451の位置から移動先として予想される亀461の位置を破線で示す。また、予測された動きベクトルを動きベクトル463とする。   FIG. 5C is a diagram showing an outline of the transition of the turtle 451 predicted based on the motion vector detected when the operation receiving unit 250 presses the shutter. For example, an image 450 illustrated in FIG. 5B is an image captured by the imaging unit 110 when the shutter is pressed, and an image 460 illustrated in FIG. An image showing the position of Here, in the image 460 shown in FIG. 5C, the position of the turtle 461 expected as the movement destination from the position of the turtle 451 shown in FIG. Further, the predicted motion vector is set as a motion vector 463.

この予測された動きベクトルは、例えば、シャッターが押下された際に検出された動きベクトルと同じ値を用いることができる。すなわち、動きベクトル463を、動きベクトル453と同じ値とすることができる。また、シャッターが押下された際のフレーム画像から所定枚数前までの各フレーム画像について検出された各動きベクトルの平均を用いることができる。さらに、シャッターが押下された際のフレーム画像から所定枚数前までの各フレーム画像について検出された各動きベクトルの増加または減少等に基づいて予測された動きベクトルの値を算出し、この算出された値を用いることができる。   As the predicted motion vector, for example, the same value as the motion vector detected when the shutter is pressed can be used. That is, the motion vector 463 can be set to the same value as the motion vector 453. Further, the average of the motion vectors detected for each frame image from the frame image when the shutter is pressed to a predetermined number of frames before can be used. Further, a predicted motion vector value is calculated based on an increase or decrease of each motion vector detected for each frame image from the frame image when the shutter is pressed to a predetermined number of frames before, and this calculated A value can be used.

次に、対象物の動き量および対象物領域を撮影画像に関連付けて撮影画像記憶部230に記憶する例について説明する。ここでは、撮影画像の画像ファイルに対象物の動き量および対象物領域を記録する例について説明する。なお、対象物の動き量および対象物領域については、撮影画像と関連付けてメタ情報データベース等に記録するようにしてもよい。   Next, an example in which the amount of movement of the object and the object area are stored in the captured image storage unit 230 in association with the captured image will be described. Here, an example in which the amount of movement of the object and the object area are recorded in the image file of the captured image will be described. Note that the amount of movement of the object and the object area may be recorded in a meta information database or the like in association with the captured image.

図6は、DCF(Design rule for Camera File system)規格により記録される静止画ファイルのファイル構造の概略を示す図である。DCFは、デジタルスチルカメラやプリンタ等の機器間で、記録媒体を介して画像の相互利用を実現するためのファイルシステム規格であり、Exif(Exchangeable image file format)をベースにして記録媒体に記録する場合におけるファイル名の付け方やフォルダの構成が規定されている。このExifは、画像ファイルの中に画像データおよびカメラ情報を付加するための規格であり、画像ファイルを記録するための形式(ファイルフォーマット)を規定するものである。   FIG. 6 is a diagram showing an outline of a file structure of a still image file recorded according to the DCF (Design Rule for Camera File system) standard. DCF is a file system standard for realizing mutual use of images via a recording medium between devices such as a digital still camera and a printer, and records on a recording medium based on the Exif (Exchangeable image file format). In this case, file naming and folder structure are specified. This Exif is a standard for adding image data and camera information to an image file, and defines a format (file format) for recording the image file.

静止画ファイル470は、DCF規格により記録される静止画ファイルであり、図6(a)に示すように、付属情報471および画像情報472から構成されている。画像情報472は、例えば、撮像部110により撮像された画像データである。   The still image file 470 is a still image file recorded according to the DCF standard, and is composed of attached information 471 and image information 472 as shown in FIG. The image information 472 is, for example, image data captured by the imaging unit 110.

付属情報471は、図6(b)に示すように、属性情報473およびメーカーノート(maker note)474から構成されている。属性情報473は、静止画ファイル470に関する属性情報等であり、例えば、撮影更新日時、画サイズ、色空間情報、メーカー名等が含まれる。   As shown in FIG. 6B, the attached information 471 includes attribute information 473 and a maker note 474. The attribute information 473 is attribute information related to the still image file 470 and includes, for example, shooting update date / time, image size, color space information, manufacturer name, and the like.

メーカーノート474は、一般的にユーザ独自のデータが記録される領域であり、各メーカーが自由に情報を記録することができる拡張領域である(TAGID=37500、MakerNote)。この例では、このメーカーノート474に、対象物の動き量および対象物領域が記録される。なお、対象物領域としては、位置情報および大きさが記録されるが、決定された対象物の縮小画像についても記録するようにしてもよい。   The manufacturer note 474 is generally an area where user-specific data is recorded, and is an extended area where each manufacturer can freely record information (TAGID = 37500, MakerNote). In this example, the amount of movement of the object and the object area are recorded in the maker note 474. As the object area, position information and size are recorded, but a reduced image of the determined object may also be recorded.

このように、対象物の動き量および対象物領域が関連付けられた撮影画像が撮影画像記憶部230に記録される。そして、撮影画像記憶部230に記憶されている画像を出力(表示、印刷等)する場合には、例えば、被写体のブレ成分を補正して出力することができる。次に、この補正方法について図面を参照して詳細に説明する。   Thus, the captured image in which the amount of movement of the object and the object region are associated is recorded in the captured image storage unit 230. When an image stored in the captured image storage unit 230 is output (displayed, printed, etc.), for example, the blur component of the subject can be corrected and output. Next, this correction method will be described in detail with reference to the drawings.

図7は、撮影画像記憶部230に記録されている画像について、対象物の動き量に基づいて、補正を施す前の画像と補正を施した後の画像とを示す図である。   FIG. 7 is a diagram showing an image before correction and an image after correction based on the amount of movement of the object with respect to the image recorded in the photographed image storage unit 230.

図7(a)は、撮影画像記憶部230に記録されている画像500を示す図である。例えば、撮像装置100を手で持って固定した状態で、水族館の中を泳ぐ亀を撮影すると、図7(a)に示すように、亀501の背景は静止している状態であるため、くっきりと撮影されるものの、泳いで移動している亀501がブレて撮影されることが多い。このため、本発明の実施の形態では、ブレて撮影される対象物の部分のみを補正する。   FIG. 7A is a diagram showing an image 500 recorded in the captured image storage unit 230. For example, when a turtle swimming in an aquarium is photographed with the imaging device 100 held by hand, the background of the turtle 501 is stationary as shown in FIG. In many cases, the turtle 501 moving while swimming is blurred. For this reason, in the embodiment of the present invention, only the portion of the object to be photographed with blur is corrected.

図7(b)は、図7(a)に示す画像500に、対象物の動き量に基づいてブレ補正が施された画像510を示す図である。例えば、水族館の中を泳いで移動している亀501に基づいて、画像500にブレ補正を施すと、図7(b)に示すように、亀511のブレが補正されるものの、くっきりと撮影されていた亀511の背景についても補正されるため、亀511の背景がブレてしまうことが多い。このため、本発明の実施の形態では、ブレが補正された対象物部分の画像と、補正前の画像に含まれる対象物以外の部分の画像とを合成して補正画像を作成する。この合成による補正画像の作成について図面を参照してさらに詳細に説明する。   FIG. 7B is a diagram illustrating an image 510 obtained by performing blur correction on the image 500 illustrated in FIG. 7A based on the amount of movement of the object. For example, when blur correction is performed on the image 500 based on the turtle 501 swimming and moving in an aquarium, the blur of the turtle 511 is corrected as shown in FIG. Since the background of the turtle 511 that has been corrected is also corrected, the background of the turtle 511 often blurs. For this reason, in the embodiment of the present invention, a corrected image is created by synthesizing an image of an object part in which blurring is corrected and an image of a part other than the object included in the image before correction. The creation of a corrected image by this synthesis will be described in more detail with reference to the drawings.

図8は、ブレが補正された対象物部分の画像と、補正前の画像に含まれる対象物以外の部分の画像とを合成して画像を補正する場合における補正方法の概略を示す図である。   FIG. 8 is a diagram showing an outline of a correction method in a case where an image is corrected by synthesizing an image of an object part whose blurring has been corrected and an image of a part other than the object included in the image before correction. .

図8(a)は、対象物の対象物領域に基づいて、撮影画像記憶部230に記録されている画像から対象物画像が切り出された画像520を示す図である。なお、画像520は、図7(a)に示す画像500に対応するものである。画像520において、対象物画像が切り出された対象物領域521を黒で示す。このように、撮影画像とともに記憶されている亀の対象物領域情報に基づいて、撮影画像から対象物画像が切り取られる。   FIG. 8A is a diagram illustrating an image 520 in which an object image is cut out from an image recorded in the captured image storage unit 230 based on the object region of the object. Note that the image 520 corresponds to the image 500 shown in FIG. In the image 520, the object region 521 from which the object image is cut out is shown in black. In this way, the object image is cut out from the photographed image based on the turtle object region information stored together with the photographed image.

図8(b)は、対象物の対象物領域に基づいて、ブレ補正が施された画像から切り取られた対象物画像530を示す図である。なお、対象物画像530は、図7(b)に示す画像510に含まれる亀511に対応するものである。また、画像510に対応する領域の中で、対象物画像530以外の領域を黒で示す。この切り取られた対象物画像530は、図7(b)に示すように、ブレ補正処理が施されている画像である。このブレ補正処理については、式3乃至式14を用いて詳細に説明する。   FIG. 8B is a diagram showing an object image 530 cut out from an image subjected to blur correction based on the object region of the object. The object image 530 corresponds to the turtle 511 included in the image 510 shown in FIG. Further, in the area corresponding to the image 510, the area other than the object image 530 is shown in black. The cut object image 530 is an image that has been subjected to blur correction processing, as shown in FIG. This blur correction process will be described in detail using Equations 3 to 14.

図8(c)は、ブレ補正が施された対象物画像530と、対象物画像が切り取られた画像520とが合成された画像540を示す図である。このように、ブレ補正が施された対象物画像530とブレが発生していない画像520とを合成することによって、対象物および背景ともブレのない綺麗な画像を生成することができる。   FIG. 8C is a diagram illustrating an image 540 obtained by combining the object image 530 subjected to the blur correction and the image 520 obtained by cutting the object image. In this way, by synthesizing the object image 530 subjected to the blur correction and the image 520 in which no blur has occurred, it is possible to generate a beautiful image in which both the object and the background are not blurred.

次に、撮影画像記憶部230に記録されている撮影画像について、ブレを補正するブレ補正処理について詳細に説明する。   Next, a description will be given in detail of a blur correction process for correcting blur for a shot image recorded in the shot image storage unit 230.

最初に、撮影画像記憶部230に記録されている撮影画像について、輝度成分と色成分とが分離され、輝度成分のみが抽出された輝度画像g(x,y)が生成される。ここで、撮影画像がRGB(G(Green:緑)、R(Red:赤)、B(Blue:青))カラー画像である場合には、次の式3乃至5を用いて、撮影画像中の全画素について、RGBデータからYUV(Y(輝度信号)、U(輝度信号と青色成分の差)、V(輝度信号と赤色成分の差))データが算出される。そして、撮影画像中の全画素の輝度信号Yを、輝度画像g(x,y)とする。   First, with respect to the captured image recorded in the captured image storage unit 230, the luminance component and the color component are separated, and a luminance image g (x, y) in which only the luminance component is extracted is generated. Here, when the photographed image is an RGB (G (Green: Green), R (Red: Red), B (Blue: Blue)) color image, YUV (Y (luminance signal), U (difference between luminance signal and blue component)), V (difference between luminance signal and red component)) data is calculated from RGB data for all pixels. Then, the luminance signal Y of all the pixels in the captured image is set as a luminance image g (x, y).

例えば、輝度画像g(x,y)は、各画素における輝度を8bit符号なし整数で表現されたものなどとすることができる。
Y= 0.299R+0.587G+0.114B …(式3)
U=−0.169R−0.332G+0.500B+127.5 …(式4)
V= 0.500R−0.419G−0.081B+127.5 …(式5)
For example, the luminance image g (x, y) may be one in which the luminance at each pixel is expressed by an 8-bit unsigned integer.
Y = 0.299R + 0.587G + 0.114B (Formula 3)
U = −0.169R−0.332G + 0.500B + 127.5 (Formula 4)
V = 0.500R−0.419G−0.081B + 127.5 (Formula 5)

続いて、撮影画像に対応する動きベクトルに基づいて、次の式6を用いて、この対象物のブレを表す点拡がり関数(PSF:Point Spread Function)h(x,y)が求められる。
h(x,y)=tn・V(x,y) …(式6)
Subsequently, based on the motion vector corresponding to the photographed image, a point spread function (PSF) h (x, y) representing the blur of the object is obtained using the following Expression 6.
h (x, y) = tn · V (x, y) (Formula 6)

ここで、V(x,y)は、撮影画像に記録されている動きベクトルを示し、nは、補正の対象となる撮影画像の解像度が、動きベクトルが検出された際における画像の解像度で除算された値であり、tは、動きベクトルが検出された際における露光時間が、1フレーム時間で除算された値である。   Here, V (x, y) indicates a motion vector recorded in the captured image, and n indicates that the resolution of the captured image to be corrected is divided by the resolution of the image when the motion vector is detected. T is a value obtained by dividing the exposure time when the motion vector is detected by one frame time.

また、点拡がり関数h(x,y)は、いわゆる空間フィルタの形状で、画像座標の原点に1の入力があった場合に、インパルス応答を画像座標系で表現されるもの等を用いることができる。   Further, the point spread function h (x, y) is a so-called spatial filter shape, and when an input of 1 is input to the origin of the image coordinates, an expression in which the impulse response is expressed in the image coordinate system is used. it can.

続いて、タップ数として、撮影画像の幅をMとし、撮影画像の高さをNとし、次の式7を用いて、輝度画像g(x,y)が2次元離散フーリエ変換(2次元DFT)される。
Subsequently, as the number of taps, the width of the captured image is M, the height of the captured image is N, and the luminance image g (x, y) is converted into a two-dimensional discrete Fourier transform (two-dimensional DFT) using the following Expression 7. )

続いて、タップ数として、撮影画像の幅をMとし、撮影画像の高さをNとし、次の式8を用いて、点拡がり関数h(x,y)が2次元離散フーリエ変換(2次元DFT)される。
Subsequently, as the number of taps, the width of the captured image is M, the height of the captured image is N, and the point spread function h (x, y) is converted into a two-dimensional discrete Fourier transform (two-dimensional) using the following Expression 8. DFT).

続いて、式8により求められたH(x,y)から、復元フィルタH(x,y)が、次の式9を用いて求められる。
Subsequently, the restoration filter H w (x, y) is obtained using the following equation 9 from H (x, y) obtained by equation 8.

ここで、Γは定数である。例えば、輝度画像g(x,y)が8bit符号なし整数で表現されている場合には、Γの値として0.01〜0.03程度が好ましい。   Here, Γ is a constant. For example, when the luminance image g (x, y) is expressed by an 8-bit unsigned integer, the value of Γ is preferably about 0.01 to 0.03.

続いて、式7により求められたG(x,y)および復元フィルタH(x,y)に基づいて、次の式10を用いて、ブレ補正画像が2次元離散フーリエ変換された関数F(x,y)が求められる。
Subsequently, based on G (x, y) obtained by Expression 7 and the restoration filter H w (x, y), a function F obtained by performing a two-dimensional discrete Fourier transform on the shake correction image using the following Expression 10: (X, y) is determined.

続いて、式10により求められたF(x,y)が、次の式11を用いて、2次元離散逆フーリエ変換(逆2次元DFT)されて、対象物領域の被写体ブレが補正された輝度画像f(x,y)が算出される。
Subsequently, F (x, y) obtained by Expression 10 is subjected to two-dimensional discrete inverse Fourier transform (inverse two-dimensional DFT) using the following Expression 11 to correct subject blur in the object region. A luminance image f (x, y) is calculated.

続いて、被写体ブレが補正された輝度画像f(x,y)に、式3乃至5を用いて分離された色成分を合わせ、被写体ブレが補正された画像が生成される。   Subsequently, the color image separated using Equations 3 to 5 is combined with the luminance image f (x, y) in which subject blur is corrected, and an image in which subject blur is corrected is generated.

例えば、f(x,y)の各画素位置における値をYとし、式3乃至5を用いて計算された各画素位置におけるU、Vの値からカラー補正画像のRGBの値は、次の式12乃至14を用いて算出される。
R= Y+1.402V …(式12)
G= Y−0.344U−0.714V …(式13)
B= Y+1.772U …(式14)
For example, the value of f (x, y) at each pixel position is Y, and the RGB values of the color-corrected image from the values of U and V at each pixel position calculated using Expressions 3 to 5 are given by It is calculated using 12 to 14.
R = Y + 1.402V (Formula 12)
G = Y−0.344U−0.714V (Formula 13)
B = Y + 1.772U (Formula 14)

このようにして算出されたRGBデータから、例えば、図7(b)に示すように、対象物領域のブレが補正された対象物ブレ補正画像が生成される。   From the RGB data thus calculated, for example, as shown in FIG. 7B, an object blur correction image in which the blur of the object area is corrected is generated.

続いて、図8(a)に示すように、対象物の対象物領域に基づいて、撮影画像記憶部230に記録されている画像から対象物領域521内の対象物画像が切り出される。また、図8(b)に示すように、対象物の対象物領域に基づいて、対象物ブレ補正画像から対象物画像530が取り出される。そして、図8(c)に示すように、対象物画像530が画像520の対象物領域に合成されて合成画像540が作成される。   Subsequently, as illustrated in FIG. 8A, the object image in the object area 521 is cut out from the image recorded in the captured image storage unit 230 based on the object area of the object. Further, as shown in FIG. 8B, an object image 530 is extracted from the object shake correction image based on the object area of the object. Then, as illustrated in FIG. 8C, the target image 530 is combined with the target region of the image 520 to create a composite image 540.

次に、対象物ブレ補正画像に含まれる対象物画像と、補正前の撮影画像とを合成する場合における境界補正処理について図面を参照して詳細に説明する。   Next, boundary correction processing in the case where the object image included in the object blur correction image and the captured image before correction are combined will be described in detail with reference to the drawings.

図9は、原画像600と対象物画像602とを合成する場合について概略的に示す図である。なお、図9では、各画像を簡略化して四角で示す。図9(a)は、撮影画像から対象物画像が切り出された画像である原画像600を示す図である。ここで、対象物画像が取り出された部分を対象物領域601として示す。また、図9(a)に示す原画像600において、対象物領域601以外の領域については、ブレのない画像であるとする。   FIG. 9 is a diagram schematically illustrating a case where the original image 600 and the object image 602 are combined. In addition, in FIG. 9, each image is simplified and shown as a square. FIG. 9A is a diagram illustrating an original image 600 that is an image obtained by cutting out an object image from a captured image. Here, a part from which the object image is extracted is shown as an object area 601. Further, in the original image 600 shown in FIG. 9A, it is assumed that the area other than the object area 601 is an image without blur.

図9(b)は、原画像600にブレ補正処理が施された画像である対象物ブレ補正画像から取り出された対象物画像602を示す図である。対象物画像602の周りの破線603は、原画像600に対応する対象物ブレ補正画像の大きさを示す破線である。   FIG. 9B is a diagram illustrating an object image 602 extracted from an object blur correction image that is an image obtained by performing blur correction processing on the original image 600. A broken line 603 around the object image 602 is a broken line indicating the size of the object shake correction image corresponding to the original image 600.

図9(c)は、原画像600の対象物領域601に、対象物画像602を合成させた画像である合成画像610を示す図である。このように、ブレ補正処理が施された対象物画像602を原画像600の対象物領域601に合成して合成画像610を作成する。これにより、合成画像610全体がブレのない画像となる。   FIG. 9C is a diagram showing a composite image 610 that is an image obtained by combining the object image 602 with the object region 601 of the original image 600. In this way, the composite image 610 is created by compositing the target object image 602 that has been subjected to the blur correction process with the target object region 601 of the original image 600. As a result, the entire composite image 610 becomes a blur-free image.

ここで、現画像と補正画像の対象物領域部分を合成すると、図9(c)に示すように、合成した領域の境界部分が目立って不自然に見えることがある。そこで、図10に示すように、境界部分について画像処理を施す。   Here, when the object region portion of the current image and the corrected image is combined, the boundary portion of the combined region may be noticeable and unnatural as shown in FIG. 9C. Therefore, as shown in FIG. 10, image processing is performed on the boundary portion.

図10は、原画像と対象物画像とを合成する場合に境界部分に施す画像処理の一例を示す図である。図10では、原画像620と対象物画像630とを合成する場合における原画像620と対象物画像630との領域境界を領域境界640とし、領域境界640を中心として原画像620側および対象物画像630側の双方に2n画素の範囲内の領域を補正処理する例について説明する。   FIG. 10 is a diagram illustrating an example of image processing performed on a boundary portion when an original image and an object image are combined. In FIG. 10, the region boundary between the original image 620 and the object image 630 when combining the original image 620 and the object image 630 is defined as the region boundary 640, and the original image 620 side and the object image are centered on the region boundary 640. An example of correcting the region within the range of 2n pixels on both sides of the 630 side will be described.

この例では、次の式15を用いて、合成画像の画素値C(x,y)を求める。
C(x,y)=w(x,y)・A(x,y)+(1.0−w(x,y))・B(x,y) …(式15)
In this example, the pixel value C (x, y) of the composite image is obtained using the following Expression 15.
C (x, y) = w (x, y) .A (x, y) + (1.0-w (x, y)). B (x, y) (Equation 15)

ここで、A(x,y)は、原画像620の画素値であり、B(x,y)は、対象物画像630の画素値である。また、w(x,y)は、0.0〜1.0の範囲内の値をとる重み係数であり、例えば、領域境界640上の値を0.5とし、領域境界640から原画像620側にn画素離れる毎に、w(x,y)の値をkづつ増やすように設定する。そして、原画像620側ではkが1になる範囲まで補正して、対象物画像630側ではkが0になる範囲まで補正する。例えば、原画像620の解像度がVGA(640×480)程度の場合には、n=1、k=0.05程度の値で境界部分を目立たなくすることができる。   Here, A (x, y) is a pixel value of the original image 620, and B (x, y) is a pixel value of the object image 630. Further, w (x, y) is a weighting coefficient that takes a value in the range of 0.0 to 1.0. For example, the value on the region boundary 640 is set to 0.5, and the original image 620 is converted from the region boundary 640. The value of w (x, y) is set to increase by k every n pixels away from the side. Then, the correction is made to the range where k is 1 on the original image 620 side, and the correction is made to the range where k is 0 on the object image 630 side. For example, when the resolution of the original image 620 is about VGA (640 × 480), the boundary portion can be made inconspicuous with values of n = 1 and k = 0.05.

このように、原画像620から対象物画像630方向に、n画素領域621、622、632、632と進むに従って、原画像620と対象物画像630との双方の画素値の変化に応じて画素値を補正することができるため、境界部分を自然に見せることが可能となる。   As described above, the pixel values according to changes in the pixel values of both the original image 620 and the object image 630 as the n pixel regions 621, 622, 632, and 632 progress from the original image 620 toward the object image 630. Therefore, it is possible to make the boundary portion look natural.

図11は、原画像600と対象物画像602との領域境界において境界補正処理が施された場合について概略的に示す図である。なお、図11(a)および(b)は、図9(a)および(b)と同じであるため、ここでの説明を省略する。   FIG. 11 is a diagram schematically illustrating a case where boundary correction processing is performed at the region boundary between the original image 600 and the object image 602. In addition, since FIG. 11 (a) and (b) are the same as FIG. 9 (a) and (b), description here is abbreviate | omitted.

図11(c)は、図11(a)に示す原画像600の対象物領域601に、図11(b)に示す対象物画像602を合成させた画像である合成画像650を示す図である。ここで、図11(c)に示す合成画像650は、原画像600と対象物画像602との領域境界において境界補正処理が施されている点で、図9(c)に示す合成画像610と異なる。なお、図11(c)では、説明のため、領域境界における補正部分を比較的大きく表している。   FIG. 11C is a diagram showing a composite image 650 that is an image obtained by combining the object image 602 shown in FIG. 11B with the object region 601 of the original image 600 shown in FIG. . Here, the composite image 650 shown in FIG. 11C is the same as the composite image 610 shown in FIG. 9C in that boundary correction processing is performed at the region boundary between the original image 600 and the object image 602. Different. In FIG. 11C, for the sake of explanation, the correction portion at the region boundary is shown relatively large.

このように、原画像600と対象物画像602との領域境界に補正処理を施すことによって、原画像600と対象物画像602との領域境界を目立たなくして自然に見せることができる。   In this way, by performing correction processing on the region boundary between the original image 600 and the object image 602, the region boundary between the original image 600 and the object image 602 can be made inconspicuous and appear natural.

次に、本発明の実施の形態における撮像装置100の動作について図面を参照して説明する。   Next, the operation of the imaging apparatus 100 according to the embodiment of the present invention will be described with reference to the drawings.

図12は、撮像装置100による撮像画像記憶処理の処理手順を示すフローチャートである。この例では、画像入力部310から1フレーム毎に画像が入力されている場合について説明する。また、ユーザによる操作受付部250からの操作入力に応じて、表示部210に表示されている撮影画像に含まれる対象物を決定する場合について説明する。   FIG. 12 is a flowchart illustrating a processing procedure of captured image storage processing by the imaging device 100. In this example, a case where an image is input from the image input unit 310 for each frame will be described. In addition, a case will be described in which an object included in a captured image displayed on the display unit 210 is determined in response to an operation input from the operation reception unit 250 by the user.

最初に、表示部210に表示されている撮影画像において、対象物を決定する旨の操作入力が操作受付部250により受け付けられたか否かが判断される(ステップS901)。例えば、図3(b)に示す画像405において、カーソル406を用いて亀401を選択することにより、対象物を決定することができる。対象物を決定する旨の操作入力が受け付けられていなければ(ステップS901)、対象物を決定する旨の操作入力が受け付けられるまで、監視を継続する。   First, it is determined whether or not an operation input for determining an object is received by the operation receiving unit 250 in the captured image displayed on the display unit 210 (step S901). For example, the object can be determined by selecting the turtle 401 using the cursor 406 in the image 405 shown in FIG. If the operation input for determining the object is not received (step S901), the monitoring is continued until the operation input for determining the object is received.

対象物を決定する旨の操作入力が受け付けられた場合には(ステップS901)、その操作入力に対応する対象物の動き量が検出される(ステップS902)。例えば、図5(b)に示すように、亀451の動き量として動きベクトル453が検出される。続いて、その操作入力に対応する対象物の領域が抽出される(ステップS903)。例えば、図4(a)に示すように、亀の領域として対象物領域421が抽出される。   When an operation input for determining an object is received (step S901), the amount of movement of the object corresponding to the operation input is detected (step S902). For example, as shown in FIG. 5B, a motion vector 453 is detected as the amount of movement of the turtle 451. Subsequently, a region of the object corresponding to the operation input is extracted (step S903). For example, as shown in FIG. 4A, the object region 421 is extracted as a turtle region.

続いて、シャッター押下の操作入力が操作受付部250により受け付けられたか否かが判断される(ステップS904)。シャッター押下の操作入力が受け付けられていなければ(ステップS904)、ステップS901で決定された対象物が表示部210に表示されている撮影画像に存在するか否かが判断される(ステップS905)。ステップS901で決定された対象物が表示部210に表示されている撮影画像に存在しなければ(ステップS905)、動き量の検出等をする対象物が存在しないため、ステップS901に戻り、対象物を決定する旨の操作入力が受け付けられるまで監視する。   Subsequently, it is determined whether or not an operation input for pressing the shutter has been received by the operation receiving unit 250 (step S904). If an operation input for pressing the shutter is not accepted (step S904), it is determined whether or not the object determined in step S901 is present in the captured image displayed on the display unit 210 (step S905). If the target object determined in step S901 does not exist in the captured image displayed on the display unit 210 (step S905), there is no target object for detecting the amount of motion, so the process returns to step S901. Monitoring is performed until an operation input for determining is accepted.

一方、ステップS901で決定された対象物が表示部210に表示されている撮影画像に存在する場合には(ステップS905)、ステップS902で検出された対象物の動き量に基づいて、対象物の位置が更新される(ステップS906)。そして、シャッター押下の操作入力が受け付けられるまでの間(ステップS904)、位置が更新された対象物の動き量の検出(ステップS902)、および、その対象物の領域の抽出(ステップS903)が継続される。   On the other hand, when the target object determined in step S901 is present in the captured image displayed on the display unit 210 (step S905), based on the amount of motion of the target object detected in step S902, the target object is detected. The position is updated (step S906). Until the operation input for pressing the shutter is accepted (step S904), the detection of the amount of movement of the object whose position has been updated (step S902) and the extraction of the area of the object (step S903) are continued. Is done.

また、シャッター押下の操作入力が操作受付部250により受け付けられた場合には(ステップS904)、シャッター押下の際に検出された対象物の動き量に基づいて、その対象物の動き量が予測される(ステップS907)。例えば、図5(c)に示すように、亀451の動き予測量として動きベクトル463が算出される。   When an operation input for pressing the shutter is received by the operation receiving unit 250 (step S904), the amount of movement of the target is predicted based on the amount of movement of the target detected when the shutter is pressed. (Step S907). For example, as illustrated in FIG. 5C, the motion vector 463 is calculated as the motion prediction amount of the turtle 451.

続いて、算出された対象物の動き予測量およびシャッター押下の際に抽出された対象物領域が、シャッター押下の際に撮像された画像に関連付けられて撮影画像記憶部230に記憶される(ステップS908)。   Subsequently, the calculated motion estimation amount of the object and the object area extracted when the shutter is pressed are stored in the captured image storage unit 230 in association with the image captured when the shutter is pressed (Step S110). S908).

図13は、撮像装置100による対象物ブレ補正処理の処理手順を示すフローチャートである。この例では、撮影画像記憶部230に記憶されている撮影画像について、この画像に含まれる対象物のブレを補正する場合について説明する。   FIG. 13 is a flowchart illustrating a processing procedure of object blur correction processing by the imaging apparatus 100. In this example, a case will be described in which blurring of an object included in the captured image stored in the captured image storage unit 230 is corrected.

最初に、撮影画像記憶部230に記憶されている撮影画像が入力される(ステップS911)。続いて、入力された撮影画像に、対象物の動き量および対象物領域が記録されているか否かが判断される(ステップS912)。入力された撮影画像に対象物の動き量および対象物領域が記録されていなければ(ステップS912)、対象物ブレ補正処理をせずに、入力された撮影画像が表示部210に表示される(ステップS924)。   First, a captured image stored in the captured image storage unit 230 is input (step S911). Subsequently, it is determined whether or not the amount of movement of the object and the object area are recorded in the input captured image (step S912). If the amount of movement of the object and the object area are not recorded in the input photographed image (step S912), the input photographed image is displayed on the display unit 210 without performing the object blur correction process ( Step S924).

入力された撮影画像に、対象物の動き量および対象物領域が記録されている場合には(ステップS912)、入力された撮影画像について、輝度成分と色成分とが分離され、輝度成分のみが抽出された輝度画像g(x,y)が生成される(ステップS913)。例えば、上述の式3乃至5を用いて、輝度成分と色成分とが分離され、輝度画像g(x,y)が生成される。   When the amount of movement of the object and the object area are recorded in the input captured image (step S912), the luminance component and the color component are separated from the input captured image, and only the luminance component is present. The extracted luminance image g (x, y) is generated (step S913). For example, the luminance component and the color component are separated using the above Equations 3 to 5, and the luminance image g (x, y) is generated.

続いて、入力された撮影画像に記録されている対象物の動き量に基づいて、点拡がり関数h(x,y)が算出される(ステップS914)。例えば、上述の式6を用いて、点拡がり関数h(x,y)が求められる。   Subsequently, a point spread function h (x, y) is calculated based on the amount of movement of the object recorded in the input captured image (step S914). For example, the point spread function h (x, y) is obtained using the above-described Expression 6.

続いて、ステップS913で生成された輝度画像g(x,y)が2次元離散フーリエ変換(2次元DFT)され、G(x,y)が算出される(ステップS915)。例えば、タップ数として、撮影画像の幅をMとし、撮影画像の高さをNとし、上述の式7を用いて、輝度画像g(x,y)が2次元離散フーリエ変換(2次元DFT)される。   Subsequently, the luminance image g (x, y) generated in step S913 is subjected to two-dimensional discrete Fourier transform (two-dimensional DFT), and G (x, y) is calculated (step S915). For example, the number of taps is M, the width of the captured image is M, the height of the captured image is N, and the luminance image g (x, y) is converted into a two-dimensional discrete Fourier transform (two-dimensional DFT) using the above-described equation 7. Is done.

続いて、ステップS914で算出された点拡がり関数h(x,y)が2次元離散フーリエ変換(2次元DFT)され、H(x,y)が算出される(ステップS916)。例えば、タップ数として、撮影画像の幅をMとし、撮影画像の高さをNとし、上述の式8を用いて、点拡がり関数h(x,y)が2次元離散フーリエ変換(2次元DFT)される。   Subsequently, the point spread function h (x, y) calculated in step S914 is subjected to two-dimensional discrete Fourier transform (two-dimensional DFT), and H (x, y) is calculated (step S916). For example, as the number of taps, the width of the captured image is M, the height of the captured image is N, and the point spread function h (x, y) is converted into a two-dimensional discrete Fourier transform (two-dimensional DFT) using Equation 8 above. )

続いて、ステップS916で求められたH(x,y)から、復元フィルタH(x,y)が、算出される(ステップS917)。例えば、式8により求められたH(x,y)から、復元フィルタH(x,y)が、上述の式9を用いて求められる。 Subsequently, the restoration filter H w (x, y) is calculated from H (x, y) obtained in step S916 (step S917). For example, the restoration filter H w (x, y) is obtained by using the above-described Equation 9 from H (x, y) obtained by Equation 8.

続いて、ステップS915で算出されたG(x,y)、およびステップS917で算出された復元フィルタH(x,y)に基づいて、ブレ補正画像が2次元離散フーリエ変換された関数F(x,y)が算出される(ステップS918)。例えば、上述の式7により求められたG(x,y)、および、上述の式9により求められた復元フィルタH(x,y)に基づいて、上述の式10を用いて、ブレ補正画像が2次元離散フーリエ変換された関数F(x,y)が求められる。 Subsequently, based on G (x, y) calculated in step S915 and the restoration filter H w (x, y) calculated in step S917, a function F (2) obtained by performing a two-dimensional discrete Fourier transform on the shake correction image. x, y) is calculated (step S918). For example, based on G (x, y) obtained by the above equation 7 and the restoration filter H w (x, y) obtained by the above equation 9, blur correction is performed using the above equation 10. A function F (x, y) obtained by two-dimensional discrete Fourier transform of the image is obtained.

続いて、ステップS918で算出されたF(x,y)が、2次元離散逆フーリエ変換(逆2次元DFT)されて、対象物領域の被写体ブレが補正された輝度画像f(x,y)が算出される(ステップS919)。例えば、上述の式10により求められたF(x,y)が、上述の式11を用いて、2次元離散逆フーリエ変換(逆2次元DFT)されて、対象物域の被写体ブレが補正された輝度画像f(x,y)が算出される。   Subsequently, F (x, y) calculated in step S918 is subjected to two-dimensional discrete inverse Fourier transform (inverse two-dimensional DFT), and the luminance image f (x, y) obtained by correcting the subject blur in the object region. Is calculated (step S919). For example, F (x, y) obtained by the above-described equation 10 is subjected to a two-dimensional discrete inverse Fourier transform (inverse two-dimensional DFT) using the above-described equation 11 to correct subject blur in the object area. The obtained luminance image f (x, y) is calculated.

続いて、被写体ブレが補正された輝度画像f(x,y)に、ステップS913で分離された色成分を合わせ、被写体ブレが補正された画像が生成される(ステップS920)。例えば、f(x,y)の各画素位置における値をYとし、上述の式3乃至5を用いて計算された各画素位置におけるU、Vの値からカラー補正画像のRGBの値が、上述の式12乃至14を用いて算出される。これにより、例えば、図7(b)に示すように、対象物領域のブレが補正されたブレ補正画像が生成される。   Subsequently, the color component separated in step S913 is combined with the luminance image f (x, y) in which the subject blur is corrected to generate an image in which the subject blur is corrected (step S920). For example, the value of f (x, y) at each pixel position is Y, and the RGB value of the color correction image is calculated from the U and V values at each pixel position calculated using the above-described equations 3 to 5. This is calculated using Equations 12 to 14. Thereby, for example, as shown in FIG. 7B, a shake correction image in which the shake of the object area is corrected is generated.

続いて、入力された撮影画像に記録されている対象物領域に基づいて、ステップS920で生成されたブレ補正画像から対象物画像が取り出され、入力された撮影画像における対象物領域内に、取り出された対象物画像が合成される(ステップS921)。例えば、図8(c)に示すように、入力された撮影画像に対象物画像が合成される。   Subsequently, on the basis of the object area recorded in the input captured image, the object image is extracted from the shake correction image generated in step S920, and is extracted into the object area in the input captured image. The object images thus synthesized are synthesized (step S921). For example, as shown in FIG. 8C, the object image is combined with the input captured image.

続いて、対象物画像が合成された合成画像における対象物画像の領域境界に補正処理が施される(ステップS922)。例えば、図11(c)に示すように、合成画像650における対象物画像651の領域境界に補正処理が施される。   Subsequently, correction processing is performed on the region boundary of the target image in the combined image obtained by combining the target images (step S922). For example, as illustrated in FIG. 11C, correction processing is performed on the region boundary of the target object image 651 in the composite image 650.

続いて、合成画像における対象物画像の領域境界に補正処理が施された対象物ブレ補正画像が表示部210に表示される(ステップS923)。   Subsequently, an object shake correction image obtained by performing correction processing on the region boundary of the object image in the composite image is displayed on the display unit 210 (step S923).

以上で示したように、例えば、ユーザが撮像装置100を固定させた状態で水族館の水槽の中を泳ぐ亀を撮影した場合には、図7(a)の画像500に示すように、亀501の背景はブレが生じていないものの、泳ぐ亀501に被写体ブレが生じて撮影される。そこで、本発明の実施の形態では、撮影時に亀の動き量の検出および領域の抽出が実行され、この亀の動き量および領域を用いて、画像500にブレ補正が施された画像510(図7(b)に示す)が生成される。そして、このブレ補正が施された画像510に含まれる亀511の画像が抽出され、ブレ補正が施されていない画像500の亀501の領域に、抽出された亀511の画像が合成される。これにより、移動している対象物のみのブレを補正して、対象物および背景ともブレのない綺麗な画像を作成することができる。また、ユーザが撮影に関する特別なテクニックを必要とせずに、対象物ブレおよび背景ブレが軽減された画像を容易に取得することができる。   As described above, for example, when the user photographs a turtle swimming in an aquarium tank with the imaging device 100 fixed, the turtle 501 is displayed as shown in an image 500 in FIG. Although there is no blur in the background, the subject is blurred and photographed in the swimming turtle 501. Therefore, in the embodiment of the present invention, detection of the amount of movement of the turtle and extraction of the region are executed at the time of shooting, and the image 510 (see FIG. 7 (b)) is generated. Then, the image of the turtle 511 included in the image 510 subjected to the blur correction is extracted, and the extracted image of the turtle 511 is combined with the region of the turtle 501 of the image 500 that is not subjected to the blur correction. As a result, it is possible to correct the blurring of only the moving object and create a beautiful image without blurring of the object and the background. In addition, it is possible to easily obtain an image with reduced object blur and background blur without requiring a special technique related to shooting.

なお、本発明の実施の形態では、撮影時において対象物の動き量の検出および領域の抽出を実行するが、撮影時には対象物の動き量の検出のみを実行して、対象物ブレ補正処理を行う際に対象物の領域の抽出を行うようにしてもよい。   In the embodiment of the present invention, detection of the amount of movement of the object and extraction of the region are executed at the time of shooting, but only detection of the amount of movement of the target is executed at the time of shooting, and the object shake correction processing is performed. When performing, the region of the object may be extracted.

また、本発明の実施の形態では、撮影時には対象物の動き量および領域を撮影画像と関連付けて撮影画像記憶部230に記録するが、撮影時において、対象物の動き量および領域を用いて、撮影画像に対象物ブレ補正を施し、この対象物ブレ補正が施された画像を撮影画像記憶部230に記録するようにしてもよい。   In the embodiment of the present invention, the amount of movement and the region of the object are associated with the photographed image and recorded in the photographed image storage unit 230 at the time of photographing. An object shake correction may be performed on the captured image, and the image subjected to the object shake correction may be recorded in the captured image storage unit 230.

また、本発明の実施の形態では、対象物動き予測量算出部350により算出された動き予測量を、対象物の動き量として対象物ブレ補正に用いるが、対象物動き量検出部330により検出された動き量を対象物ブレ補正に用いるようにしてもよい。   In the embodiment of the present invention, the motion prediction amount calculated by the object motion prediction amount calculation unit 350 is used as the object motion amount for the object blur correction, but is detected by the object motion amount detection unit 330. You may make it use the made motion amount for object blurring correction.

また、本発明の実施の形態では、撮像装置を例にして説明したが、撮影画像を入力してブレ補正処理を行うことが可能な画像処理装置に本発明の実施の形態を適用することができる。   In the embodiment of the present invention, the imaging apparatus has been described as an example. However, the embodiment of the present invention can be applied to an image processing apparatus that can input a captured image and perform blur correction processing. it can.

なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、以下に示すように特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。   The embodiment of the present invention is an example for embodying the present invention and has a corresponding relationship with the invention-specific matters in the claims as shown below, but is not limited thereto. However, various modifications can be made without departing from the scope of the present invention.

すなわち、請求項1乃至8において、撮像装置は、例えば撮像装置100に対応する。また、請求項9において、画像処理装置は、例えば撮像装置100に対応する。   That is, in claims 1 to 8, the imaging device corresponds to the imaging device 100, for example. Further, in claim 9, an image processing apparatus corresponds to the imaging apparatus 100, for example.

また、請求項1において、撮像手段は、例えば撮像部110に対応する。また、動き量検出手段は、例えば対象物動き量検出部330に対応する。   Further, in claim 1, the imaging unit corresponds to, for example, the imaging unit 110. Also, the motion amount detection means corresponds to the object motion amount detection unit 330, for example.

また、請求項1または請求項9において、補正手段は、例えばブレ補正部381に対応する。また、合成手段は、画像合成部383に対応する。   Further, in claim 1 or claim 9, the correction means corresponds to, for example, the shake correction unit 381. The synthesizing unit corresponds to the image synthesizing unit 383.

また、請求項2において、画像記憶手段は、例えば撮影画像記憶部230に対応する。また、記憶制御手段は、例えば記憶制御部370に対応する。   Further, in claim 2, the image storage means corresponds to, for example, the photographed image storage unit 230. A storage control unit corresponds to the storage control unit 370, for example.

また、請求項5において、記録操作受付手段は、例えば操作受付部250に対応する。   Further, in claim 5, the recording operation reception means corresponds to, for example, the operation reception unit 250.

また、請求項6において、動き量予測手段は、例えば対象物動き予測量算出部350に対応する。   Further, in claim 6, the motion amount prediction means corresponds to, for example, the target object motion prediction amount calculation unit 350.

また、請求項7において、表示手段は、例えば表示部210に対応する。また、選択受付手段は、例えば操作受付部250に対応する。   Further, in claim 7, the display means corresponds to the display unit 210, for example. The selection receiving unit corresponds to the operation receiving unit 250, for example.

また、請求項8において、境界補正手段は、領域境界補正部384に対応する。   Further, in claim 8, the boundary correction means corresponds to the region boundary correction unit 384.

また、請求項9において、入力手段は、例えば画像入力部310に対応する。   Further, in claim 9, input means corresponds to, for example, the image input unit 310.

また、請求項10または請求項11において、撮像手順は、例えばステップS901乃至S906に対応する。また、動き量検出手順は、例えばステップS903に対応する。また、補正手順は、例えばステップS913乃至920に対応する。また、合成手順は、例えばステップS922に対応する。   Further, in claim 10 or claim 11, the imaging procedure corresponds to, for example, steps S901 to S906. The motion amount detection procedure corresponds to step S903, for example. The correction procedure corresponds to, for example, steps S913 to S920. Also, the synthesis procedure corresponds to, for example, step S922.

なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。   The processing procedure described in the embodiment of the present invention may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program May be taken as

撮像装置100の機能構成例を示すブロック図である。2 is a block diagram illustrating a functional configuration example of an imaging apparatus 100. FIG. 撮像装置100の機能構成例を示すブロック図である。2 is a block diagram illustrating a functional configuration example of an imaging apparatus 100. FIG. 撮像部110に取り込まれている画像を表示部210に表示する場合における表示例を示す図である。6 is a diagram illustrating a display example when an image captured by an imaging unit 110 is displayed on a display unit 210. FIG. 撮像部110に取り込まれている画像のうちから決定された対象物の領域の概略を示す図である。3 is a diagram illustrating an outline of a region of an object determined from images captured by an imaging unit 110. FIG. 撮像部110に取り込まれている画像のうちから決定された対象物の動きの変移の概略を示す図である。It is a figure which shows the outline of the transition of the motion of the target object determined from the images taken into the imaging part. DCF規格により記録される静止画ファイルのファイル構造の概略を示す図である。It is a figure which shows the outline of the file structure of the still image file recorded by DCF standard. 撮影画像記憶部230に記録されている画像について、対象物の動き量に基づいて、補正を施す前の画像と補正を施した後の画像とを示す図である。It is a figure which shows the image before correct | amending about the image currently recorded on the picked-up image memory | storage part 230, and the image after correct | amending based on the motion amount of a target object. ブレが補正された対象物部分の画像と、補正前の画像に含まれる対象物以外の部分の画像とを合成して画像を補正する場合における補正方法の概略を示す図である。It is a figure which shows the outline of the correction | amendment method in the case of synthesize | combining the image of the object part in which blurring was correct | amended, and the image of parts other than the object contained in the image before correction | amendment. 原画像600と対象物画像602とを合成する場合について概略的に示す図である。FIG. 6 is a diagram schematically illustrating a case where an original image 600 and an object image 602 are combined. 原画像と対象物画像とを合成する場合に境界部分に施す画像処理の一例を示す図である。It is a figure which shows an example of the image process performed to a boundary part when synthesize | combining an original image and a target object image. 原画像600と対象物画像602との領域境界において境界補正処理が施された場合について概略的に示す図である。FIG. 10 is a diagram schematically illustrating a case where boundary correction processing is performed at a region boundary between an original image and an object image. 撮像装置100による撮像画像記憶処理の処理手順を示すフローチャートである。5 is a flowchart illustrating a processing procedure of a captured image storage process performed by the imaging apparatus 100. 撮像装置100による対象物ブレ補正処理の処理手順を示すフローチャートである。6 is a flowchart illustrating a processing procedure of object blur correction processing by the imaging apparatus.

符号の説明Explanation of symbols

100 撮像装置
110 撮像部
120 CPU
130 RAM
140 カメラ信号処理エンジン
150 対象物検出エンジン
160 対象物領域抽出エンジン
180 動き量検出エンジン
190 ブレ補正エンジン
200 画像表示エンジン
210 表示部
220 メディアコントローラ
230 撮影画像記憶部
240 操作入力コントローラ
250 操作受付部
260 データバス
310 画像入力部
320 対象物位置決定部
330 対象物動き量検出部
340 対象物位置更新部
350 対象物動き予測量算出部
360 対象物領域抽出部
370 記憶制御部
380 対象物ブレ補正部
381 ブレ補正部
382 対象物画像抽出部
383 画像合成部
384 領域境界補正部
390 表示制御部
DESCRIPTION OF SYMBOLS 100 Imaging device 110 Imaging part 120 CPU
130 RAM
DESCRIPTION OF SYMBOLS 140 Camera signal processing engine 150 Object detection engine 160 Object area extraction engine 180 Motion amount detection engine 190 Shake correction engine 200 Image display engine 210 Display unit 220 Media controller 230 Photographed image storage unit 240 Operation input controller 250 Operation reception unit 260 Data Bus 310 Image input unit 320 Object position determination unit 330 Object motion amount detection unit 340 Object position update unit 350 Object motion prediction amount calculation unit 360 Object region extraction unit 370 Storage control unit 380 Object blur correction unit 381 Correction unit 382 Object image extraction unit 383 Image composition unit 384 Region boundary correction unit 390 Display control unit

Claims (11)

入射光を撮像データに変換する撮像手段と、
前記撮像データに含まれる所定の領域の動き量を検出する動き量検出手段と、
前記動き量に基づいて前記撮像データの前記所定の領域を補正して補正画像とする補正手段と、
前記補正画像を前記撮像データの前記所定の領域に合成する合成手段と
を具備することを特徴とする撮像装置。
Imaging means for converting incident light into imaging data;
A motion amount detecting means for detecting a motion amount of a predetermined area included in the imaging data;
Correction means for correcting the predetermined area of the imaging data based on the amount of motion to obtain a corrected image;
An image pickup apparatus comprising: combining means for combining the corrected image with the predetermined area of the image pickup data.
前記撮像データを記憶する画像記憶手段と、
前記検出された動き量を前記所定の領域の画像に関連付けて前記画像記憶手段に記憶する記憶制御手段とをさらに具備し、
前記補正手段は、前記画像記憶手段に記憶されている撮像データの前記所定の領域を当該撮像データに対応して前記画像記憶手段に記憶されている動き量に基づいて補正して補正画像とし、
前記合成手段は、前記画像記憶手段に記憶されている撮像データの前記所定の領域に前記補正画像を合成する
ことを特徴とする請求項1記載の撮像装置。
Image storage means for storing the imaging data;
Storage control means for storing the detected amount of motion in the image storage means in association with the image of the predetermined area;
The correction unit corrects the predetermined area of the imaging data stored in the image storage unit based on the amount of motion stored in the image storage unit corresponding to the imaging data to obtain a corrected image;
2. The imaging apparatus according to claim 1, wherein the synthesizing unit synthesizes the corrected image with the predetermined area of the imaging data stored in the image storage unit.
前記記憶制御手段は、前記所定の領域に関する領域情報を前記所定の領域の画像に関連付けて前記画像記憶手段に記憶する
ことを特徴とする請求項2記載の撮像装置。
The imaging apparatus according to claim 2, wherein the storage control unit stores area information relating to the predetermined area in the image storage unit in association with an image of the predetermined area.
前記領域情報は、前記所定の領域に含まれる画像の縮小画像を含む
ことを特徴とする請求項3記載の撮像装置。
The imaging apparatus according to claim 3, wherein the area information includes a reduced image of an image included in the predetermined area.
前記撮像手段により撮像された画像の記録操作を受け付ける記録操作受付手段をさらに具備し、
前記動き量検出手段は、前記撮像手段により撮像された画像について1フレーム毎に前記所定の領域の動き量を検出し、
前記記憶制御手段は、前記記録操作が受け付けられた際に前記撮像手段により撮像された画像を記録するとともに記録操作が受け付けられた際に検出された前記所定の領域の動き量を当該画像に関連付けて前記画像記憶手段に記録する
ことを特徴とする請求項2記載の撮像装置。
A recording operation receiving unit that receives a recording operation of an image captured by the imaging unit;
The motion amount detection means detects the motion amount of the predetermined area for each frame of the image captured by the imaging means,
The storage control unit records an image captured by the imaging unit when the recording operation is accepted, and associates the amount of motion of the predetermined area detected when the recording operation is accepted with the image. The image pickup apparatus according to claim 2, wherein the image storage unit records the image in the image storage unit.
前記記録操作が受け付けられた際に検出された前記所定の領域の動き量に基づいて新たな動き量を予測する動き量予測手段をさらに具備し、
前記記憶制御手段は、前記記録操作が受け付けられた際に前記撮像手段により撮像された画像を記憶するとともに前記新たな動き量を当該画像に関連付けて前記画像記憶手段に記憶する
ことを特徴とする請求項5記載の撮像装置。
Further comprising a motion amount prediction means for predicting a new motion amount based on the motion amount of the predetermined area detected when the recording operation is received,
The storage control unit stores an image captured by the imaging unit when the recording operation is received, and stores the new amount of movement in the image storage unit in association with the image. The imaging device according to claim 5.
前記撮像された画像を表示する表示手段と、
前記表示された画像に含まれる特定の物体の選択入力を受け付ける選択受付手段と、
前記選択された物体の領域を前記所定の領域として抽出する所定領域抽出手段とをさらに具備する
ことを特徴とする請求項1記載の撮像装置。
Display means for displaying the captured image;
Selection accepting means for accepting selection input of a specific object included in the displayed image;
The imaging apparatus according to claim 1, further comprising a predetermined area extracting unit that extracts the area of the selected object as the predetermined area.
前記合成された画像における前記所定の領域に含まれる画像の境界の周辺領域において当該境界からの距離に応じて前記合成された画像の画素値を変更する境界補正手段をさらに具備する
ことを特徴とする請求項1記載の撮像装置。
The image processing apparatus further comprises boundary correction means for changing a pixel value of the synthesized image in accordance with a distance from the boundary in a peripheral region of the boundary of the image included in the predetermined area in the synthesized image. The imaging apparatus according to claim 1.
入射光が変換された撮像データと当該撮像データに含まれる所定の領域の動き量とを入力する入力手段と、
前記動き量に基づいて前記撮像データの前記所定の領域を補正して補正画像とする補正手段と、
前記補正画像を前記撮像データの前記所定の領域に合成する合成手段と
を具備することを特徴とする画像処理装置。
Input means for inputting imaging data in which incident light is converted and a motion amount of a predetermined area included in the imaging data;
Correction means for correcting the predetermined area of the imaging data based on the amount of motion to obtain a corrected image;
An image processing apparatus comprising: a combining unit that combines the corrected image with the predetermined region of the imaging data.
入射光を撮像データに変換する撮像手順と、
前記撮像データに含まれる所定の領域の動き量を検出する動き量検出手順と、
前記動き量に基づいて前記撮像データの前記所定の領域を補正して補正画像とする補正手順と、
前記補正画像を前記撮像データの前記所定の領域に合成する合成手順と
を具備することを特徴とする画像処理方法。
An imaging procedure for converting incident light into imaging data;
A motion amount detection procedure for detecting a motion amount of a predetermined area included in the imaging data;
A correction procedure for correcting the predetermined area of the imaging data based on the amount of motion to obtain a corrected image;
An image processing method comprising: a combining procedure for combining the corrected image with the predetermined region of the imaging data.
入射光を撮像データに変換する撮像手順と、
前記撮像データに含まれる所定の領域の動き量を検出する動き量検出手順と、
前記動き量に基づいて前記撮像データの前記所定の領域を補正して補正画像とする補正手順と、
前記補正画像を前記撮像データの前記所定の領域に合成する合成手順と
をコンピュータに実行させることを特徴とするプログラム。
An imaging procedure for converting incident light into imaging data;
A motion amount detection procedure for detecting a motion amount of a predetermined area included in the imaging data;
A correction procedure for correcting the predetermined area of the imaging data based on the amount of motion to obtain a corrected image;
A program for causing a computer to execute a synthesis procedure for synthesizing the corrected image with the predetermined region of the imaging data.
JP2007176539A 2007-07-04 2007-07-04 Imaging device, image processing device, and their image processing method and program Pending JP2009017223A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007176539A JP2009017223A (en) 2007-07-04 2007-07-04 Imaging device, image processing device, and their image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007176539A JP2009017223A (en) 2007-07-04 2007-07-04 Imaging device, image processing device, and their image processing method and program

Publications (1)

Publication Number Publication Date
JP2009017223A true JP2009017223A (en) 2009-01-22

Family

ID=40357563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007176539A Pending JP2009017223A (en) 2007-07-04 2007-07-04 Imaging device, image processing device, and their image processing method and program

Country Status (1)

Country Link
JP (1) JP2009017223A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187397A (en) * 2008-02-07 2009-08-20 Olympus Corp Image processor and image processing program
JP2011239055A (en) * 2010-05-07 2011-11-24 Olympus Imaging Corp Imaging apparatus and imaging method
WO2013057907A1 (en) * 2011-10-17 2013-04-25 Necカシオモバイルコミュニケーションズ株式会社 Input device, display processing method, and storage medium in which display processing program is stored
JP2014064194A (en) * 2012-09-21 2014-04-10 Olympus Imaging Corp Imaging device
JP2016038415A (en) * 2014-08-05 2016-03-22 キヤノン株式会社 Imaging apparatus, control method thereof, program, and storage medium
JP2017090711A (en) * 2015-11-11 2017-05-25 キヤノン株式会社 Image tremor correction device, and control method of the same, program thereof, and recording medium
JP6502003B1 (en) * 2018-07-23 2019-04-17 三菱電機株式会社 Image correction apparatus and image correction method
US10827125B2 (en) 2017-08-04 2020-11-03 Samsung Electronics Co., Ltd. Electronic device for playing video based on movement information and operating method thereof
WO2021182066A1 (en) * 2020-03-11 2021-09-16 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing device and medical observation system
WO2022059264A1 (en) * 2020-09-17 2022-03-24 株式会社Jvcケンウッド Image processing device and image processing program
WO2022059265A1 (en) * 2020-09-17 2022-03-24 株式会社Jvcケンウッド Image processing device and image processing program
WO2023026543A1 (en) * 2021-08-27 2023-03-02 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209735A (en) * 2002-01-15 2003-07-25 Hitachi Ltd Monitoring apparatus and storage camera with blur correction function
JP2004048526A (en) * 2002-07-15 2004-02-12 Toshiba Corp Digital camera
JP2005235022A (en) * 2004-02-20 2005-09-02 Toppan Printing Co Ltd Seamless texture composition method, image composition program, and image composition system
JP2005286527A (en) * 2004-03-29 2005-10-13 Matsushita Electric Ind Co Ltd Imaging and recording apparatus
JP2006080844A (en) * 2004-09-09 2006-03-23 Nikon Corp Electronic camera
JP2006310969A (en) * 2005-04-26 2006-11-09 Olympus Imaging Corp Imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209735A (en) * 2002-01-15 2003-07-25 Hitachi Ltd Monitoring apparatus and storage camera with blur correction function
JP2004048526A (en) * 2002-07-15 2004-02-12 Toshiba Corp Digital camera
JP2005235022A (en) * 2004-02-20 2005-09-02 Toppan Printing Co Ltd Seamless texture composition method, image composition program, and image composition system
JP2005286527A (en) * 2004-03-29 2005-10-13 Matsushita Electric Ind Co Ltd Imaging and recording apparatus
JP2006080844A (en) * 2004-09-09 2006-03-23 Nikon Corp Electronic camera
JP2006310969A (en) * 2005-04-26 2006-11-09 Olympus Imaging Corp Imaging apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187397A (en) * 2008-02-07 2009-08-20 Olympus Corp Image processor and image processing program
JP2011239055A (en) * 2010-05-07 2011-11-24 Olympus Imaging Corp Imaging apparatus and imaging method
WO2013057907A1 (en) * 2011-10-17 2013-04-25 Necカシオモバイルコミュニケーションズ株式会社 Input device, display processing method, and storage medium in which display processing program is stored
JP2014064194A (en) * 2012-09-21 2014-04-10 Olympus Imaging Corp Imaging device
JP2016038415A (en) * 2014-08-05 2016-03-22 キヤノン株式会社 Imaging apparatus, control method thereof, program, and storage medium
JP2017090711A (en) * 2015-11-11 2017-05-25 キヤノン株式会社 Image tremor correction device, and control method of the same, program thereof, and recording medium
US10827125B2 (en) 2017-08-04 2020-11-03 Samsung Electronics Co., Ltd. Electronic device for playing video based on movement information and operating method thereof
JP6502003B1 (en) * 2018-07-23 2019-04-17 三菱電機株式会社 Image correction apparatus and image correction method
WO2020021601A1 (en) * 2018-07-23 2020-01-30 三菱電機株式会社 Image correction apparatus and image correction method
CN112425147A (en) * 2018-07-23 2021-02-26 三菱电机株式会社 Image correction device and image correction method
CN112425147B (en) * 2018-07-23 2021-08-27 三菱电机株式会社 Image correction device and image correction method
WO2021182066A1 (en) * 2020-03-11 2021-09-16 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing device and medical observation system
WO2022059264A1 (en) * 2020-09-17 2022-03-24 株式会社Jvcケンウッド Image processing device and image processing program
WO2022059265A1 (en) * 2020-09-17 2022-03-24 株式会社Jvcケンウッド Image processing device and image processing program
WO2023026543A1 (en) * 2021-08-27 2023-03-02 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2009017223A (en) Imaging device, image processing device, and their image processing method and program
JP5036599B2 (en) Imaging device
JP6271990B2 (en) Image processing apparatus and image processing method
JP4760973B2 (en) Imaging apparatus and image processing method
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
KR100840856B1 (en) Image processing apparatus, image processing method, recording medium for recording image processing program, and image pickup apparatus
JP2006174105A (en) Electronic camera and program
JP2009212853A (en) White balance controller, its control method, and imaging apparatus
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP2010239440A (en) Image compositing apparatus and program
JP6261205B2 (en) Image processing device
JP2007104249A (en) Image correcting apparatus, image correcting method, program and recording medium
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP2013110754A (en) Camera device, and photographing method and program of the same
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP6486453B2 (en) Image processing apparatus, image processing method, and program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP2011193066A (en) Image sensing device
JP2009021909A (en) Image adder, method, and program
JP6218520B2 (en) Image processing apparatus, image processing method, and program
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP5301690B2 (en) Imaging apparatus, method, and program
CN109525772B (en) Image processing apparatus, image processing method, and storage medium
KR101423918B1 (en) Digital image processing apparatus which display a boundary image of an object and the controlling method of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111025