JP2013012993A - Image processing device, imaging device, and image processing program - Google Patents

Image processing device, imaging device, and image processing program Download PDF

Info

Publication number
JP2013012993A
JP2013012993A JP2011145537A JP2011145537A JP2013012993A JP 2013012993 A JP2013012993 A JP 2013012993A JP 2011145537 A JP2011145537 A JP 2011145537A JP 2011145537 A JP2011145537 A JP 2011145537A JP 2013012993 A JP2013012993 A JP 2013012993A
Authority
JP
Japan
Prior art keywords
subject
image
unnecessary
subjects
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011145537A
Other languages
Japanese (ja)
Inventor
Yuko Hattori
佑子 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011145537A priority Critical patent/JP2013012993A/en
Publication of JP2013012993A publication Critical patent/JP2013012993A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To estimate a main subject.SOLUTION: An image processing device comprises: an image acquisition unit that acquires plural images captured in time series; a subject extraction unit that extracts plural mutually different subjects included in the plural images; an unnecessary subject estimation unit that estimates which of the plural subjects is an unnecessary subject on the basis of at least any image of the plural images; and a main subject estimation unit that estimates a main subject on the basis of subject candidates obtained by excluding the unnecessary subject from the plural subjects.

Description

本発明は画像処理装置、撮像装置および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program.

時系列的に取得した複数の画像に含まれる変化のない被写体を排除することにより、主要な被写体に適合した撮影条件で撮影するデジタルカメラがある(特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2009−089174号公報
There is a digital camera that shoots under a shooting condition suitable for a main subject by excluding a subject that does not change included in a plurality of images acquired in time series (see Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Unexamined Patent Application Publication No. 2009-089174

しかしながら、撮像間隔が短くなると、画像相互の間で被写体の変化が少なくなる。このため、主要被写体と不要被写体との峻別が難しくなる。   However, when the imaging interval is shortened, changes in the subject between the images are reduced. This makes it difficult to distinguish the main subject from the unnecessary subject.

上記課題を解決すべく、本発明の第一態様として、時系列に撮像された複数の画像を取得する画像取得部と、複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出部と、複数の画像のうちの少なくともいずれかの画像に基づいて、複数の被写体のいずれが不要被写体かを推定する不要被写体推定部と、複数の被写体のうちから不要被写体を除いた被写体候補に基づいて、主要被写体を推定する主要被写体推定部と、を備える画像処理装置が提供される。   In order to solve the above problems, as a first aspect of the present invention, an image acquisition unit that acquires a plurality of images captured in time series, and a subject extraction unit that extracts a plurality of different subjects included in the plurality of images, An unnecessary subject estimation unit that estimates which one of a plurality of subjects is an unnecessary subject based on at least one of the plurality of images, and a subject candidate obtained by removing the unnecessary subject from the plurality of subjects. There is provided an image processing apparatus including a main subject estimation unit that estimates a main subject.

また、本発明の第二態様として、上記画像処理装置と、ユーザから操作されるレリーズボタンと、レリーズボタンの一度の操作に対して、複数の画像を撮像する撮像部とを備える撮像装置が提供される。   According to a second aspect of the present invention, there is provided an imaging apparatus comprising the above image processing apparatus, a release button operated by a user, and an imaging unit that captures a plurality of images in response to a single operation of the release button. Is done.

更に、本発明の第三態様として、 時系列に撮像された複数の画像を取得する画像取得手順と、複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出手順と、複数の画像のうちの少なくともいずれかの画像に基づいて、複数の被写体のいずれが不要被写体かを推定する不要被写体推定手順と、複数の被写体のうちから不要被写体を除いた被写体候補に基づいて、主要被写体を推定する主要被写体推定手順と、を計算機に実行させる画像処理プログラム、が提供される。   Furthermore, as a third aspect of the present invention, an image acquisition procedure for acquiring a plurality of images captured in time series, a subject extraction procedure for extracting a plurality of different subjects included in the plurality of images, Based on at least one of the images, an unnecessary subject estimation procedure for estimating which one of a plurality of subjects is an unnecessary subject, and a main subject is estimated based on subject candidates obtained by removing unnecessary subjects from the plurality of subjects. And an image processing program for causing a computer to execute a main subject estimation procedure.

上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。これら特徴群のサブコンビネーションもまた発明となり得る。   The above summary of the present invention does not enumerate all necessary features of the present invention. A sub-combination of these feature groups can also be an invention.

デジタルカメラ100の斜視図である。1 is a perspective view of a digital camera 100. FIG. デジタルカメラ100の斜視図である。1 is a perspective view of a digital camera 100. FIG. デジタルカメラ100の内部回路200を示すブロック図である。2 is a block diagram showing an internal circuit 200 of the digital camera 100. FIG. 不要被写体推定部260の動作手順を示す流れ図である。5 is a flowchart illustrating an operation procedure of an unnecessary subject estimation unit 260. 撮影画像群410を例示する模式図である。4 is a schematic diagram illustrating a captured image group 410. FIG. 不要被写体推定部260の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the operation of an unnecessary subject estimation unit 260. 不要被写体推定部260の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the operation of an unnecessary subject estimation unit 260. 不要被写体推定部260の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the operation of an unnecessary subject estimation unit 260. 不要被写体推定部260の動作を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the operation of an unnecessary subject estimation unit 260. 主要被写体推定部270の動作手順を示す流れ図である。5 is a flowchart showing an operation procedure of a main subject estimation unit 270. 主要被写体推定部270の動作を模式的に示す図である。FIG. 11 is a diagram schematically showing the operation of a main subject estimation unit 270. 主要被写体推定部270の動作を模式的に示す図である。FIG. 11 is a diagram schematically showing the operation of a main subject estimation unit 270. 主要被写体推定部270の動作を模式的に示す図である。FIG. 11 is a diagram schematically showing the operation of a main subject estimation unit 270. 主要被写体推定部270の動作を模式的に示す図である。FIG. 11 is a diagram schematically showing the operation of a main subject estimation unit 270. 画像選択部280の動作手順を示す流れ図である。5 is a flowchart showing an operation procedure of an image selection unit 280. 画像選択部280の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the image selection part 280. FIG. 画像選択部280の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the image selection part 280. FIG. 画像選択部280の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the image selection part 280. FIG. 画像選択部280の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the image selection part 280. FIG. 画像選択部280の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the image selection part 280. FIG. 画像選択部280の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the image selection part 280. FIG. 画像処理プログラムを実行するパーソナルコンピュータの模式図である。It is a schematic diagram of a personal computer that executes an image processing program.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、撮像装置の一種であるデジタルカメラ100を斜め前方から見た斜視図である。デジタルカメラ100は、前後に薄い立方体の筐体110と、筐体110の前面に配置されたレンズ鏡筒120および発光窓130と、筐体110の上面に配置された電源スイッチ142、レリーズボタン144、ズームレバー146を含む操作部140の一部を備える。   FIG. 1 is a perspective view of a digital camera 100, which is a type of imaging device, as viewed obliquely from the front. The digital camera 100 includes a thin and thin cubic housing 110, a lens barrel 120 and a light emitting window 130 disposed on the front surface of the housing 110, a power switch 142 and a release button 144 disposed on the upper surface of the housing 110. A part of the operation unit 140 including the zoom lever 146 is provided.

レンズ鏡筒120は、筐体110の内部に配置された撮像素子に被写体像を結像する撮影レンズ122を保持する。筐体110の内部に配置された図示していない発光部により発生した光は、発光窓130を介して被写体を照明する。   The lens barrel 120 holds a photographing lens 122 that forms a subject image on an image sensor disposed inside the housing 110. Light generated by a light emitting unit (not shown) disposed inside the housing 110 illuminates the subject through the light emitting window 130.

電源スイッチ142は、押される毎にデジタルカメラ100の電源を断続する。ズームレバー146は、レンズ鏡筒120に保持された撮影レンズの倍率を変化させる。   Each time the power switch 142 is pressed, the power of the digital camera 100 is interrupted. The zoom lever 146 changes the magnification of the photographing lens held in the lens barrel 120.

レリーズボタン144は、ユーザーによって半押しされた場合に、自動合焦部、測光センサ等が駆動されると共に、撮像素子によるスルー画像撮影動作が実行される。これにより、デジタルカメラ100はスルー画像撮影に続く、被写体像の本撮影に備える。レリーズボタン144の全押し操作がなされると、シャッタが開いて被写体像の本撮影動作が実行される。撮影範囲の明るさが暗いなどの場合には、本撮影のタイミングに合わせて発光窓130から光が被写体に向かって投射される。   When the release button 144 is pressed halfway by the user, the automatic focusing unit, the photometric sensor, and the like are driven, and a through image capturing operation by the image sensor is executed. Thereby, the digital camera 100 prepares for the main photographing of the subject image following the through image photographing. When the release button 144 is fully pressed, the shutter is opened and the subject image is actually captured. When the brightness of the shooting range is dark, the light is projected from the light emission window 130 toward the subject in accordance with the timing of the main shooting.

図2は、デジタルカメラ100を斜め後方から見た斜視図である。図1と共通の要素には同じ参照番号を付して重複する説明を省く。   FIG. 2 is a perspective view of the digital camera 100 as viewed obliquely from the rear. Elements that are the same as those in FIG. 1 are given the same reference numerals, and redundant descriptions are omitted.

筐体110の背面には、十字キー141および背面ボタン143を含む操作部140の一部と、背面表示部150とが配される。十字キー141および背面ボタン143は、デジタルカメラ100に各種設定を入力する場合、デジタルカメラ100の動作モードを切り替える場合、レンズ鏡筒の変倍等をリアルタイムで変更する場合等に、ユーザにより操作される。   A part of the operation unit 140 including a cross key 141 and a back button 143 and a back display unit 150 are arranged on the back surface of the housing 110. The cross key 141 and the back button 143 are operated by the user when inputting various settings to the digital camera 100, switching the operation mode of the digital camera 100, changing the magnification of the lens barrel in real time, and the like. The

背面表示部150は、液晶表示パネル等により形成され、筐体110背面の多くの領域を占める。デジタルカメラ100が撮影モードの場合、レンズ鏡筒120に入射する被写体像が撮像素子により連続的に光電変換され、スルー画として背面表示部150に表示される。ユーザは、背面表示部150に表示されたスルー画を観察することにより、有効な撮影範囲を知ることができる。   The rear display unit 150 is formed of a liquid crystal display panel or the like, and occupies many areas on the rear surface of the housing 110. When the digital camera 100 is in the shooting mode, a subject image incident on the lens barrel 120 is continuously photoelectrically converted by the imaging device and displayed on the rear display unit 150 as a through image. The user can know the effective shooting range by observing the through image displayed on the rear display unit 150.

また、背面表示部150には、電池の残量、記憶媒体の残り容量等、デジタルカメラ100の状態が併せて表示される。更に、デジタルカメラ100が再生モードで動作する場合は、再生画像が背面表示部150に表示される。   The rear display unit 150 also displays the status of the digital camera 100 such as the remaining battery level and the remaining capacity of the storage medium. Further, when the digital camera 100 operates in the playback mode, the playback image is displayed on the rear display unit 150.

図3は、デジタルカメラ100の内部回路200を模式的に示すブロック図である。図1および図2と共通の要素には同じ参照番号を付して重複する説明を省く。内部回路200は、制御部201、画像取得部202および撮影画像処理部203を含む。   FIG. 3 is a block diagram schematically showing the internal circuit 200 of the digital camera 100. Elements common to those in FIGS. 1 and 2 are denoted by the same reference numerals, and redundant description is omitted. The internal circuit 200 includes a control unit 201, an image acquisition unit 202, and a captured image processing unit 203.

制御部201には、CPU210、表示駆動部220、プログラムメモリ230およびメインメモリ240で構成される。CPU210は、プログラムメモリ230からメインメモリ240に読み込んだファームウエアに従って、デジタルカメラ100の動作を包括的に制御する。表示駆動部220は、CPU210からの指示に従って表示画像を生成し、生成した画像を背面表示部150に表示する。   The control unit 201 includes a CPU 210, a display driving unit 220, a program memory 230, and a main memory 240. The CPU 210 comprehensively controls the operation of the digital camera 100 according to the firmware read from the program memory 230 to the main memory 240. The display driving unit 220 generates a display image in accordance with an instruction from the CPU 210 and displays the generated image on the rear display unit 150.

画像取得部202は、撮像素子駆動部310、撮像素子312、アナログ/デジタル変換部320、画像処理部330、自動合焦部340および測光センサ350を含む。   The image acquisition unit 202 includes an image sensor driving unit 310, an image sensor 312, an analog / digital conversion unit 320, an image processing unit 330, an automatic focusing unit 340, and a photometric sensor 350.

撮像素子駆動部310は、撮像素子312を駆動して、撮影レンズ122により撮像素子312の撮像面に結像された被写体像を光電変換して画像信号にする。撮像素子312としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を用いることができる。   The image sensor driving unit 310 drives the image sensor 312 to photoelectrically convert the subject image formed on the image pickup surface of the image sensor 312 by the photographing lens 122 into an image signal. As the imaging element 312, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like can be used.

撮像素子312の出力する画像信号は、アナログ/デジタル変換部320により離散化され、画像処理部330により撮影画像データに変換される。画像処理部330は、撮影画像データを生成する過程で、画像のホワイトバランス、シャープネス、ガンマ、階調補正等を調整すると共に、撮影画像データを後述する二次記憶媒体332に記憶する際の圧縮率等を設定する。   The image signal output from the image sensor 312 is discretized by the analog / digital conversion unit 320 and converted into captured image data by the image processing unit 330. The image processing unit 330 adjusts white balance, sharpness, gamma, gradation correction, and the like of the image in the process of generating the captured image data, and compresses the captured image data when it is stored in the secondary storage medium 332 described later. Set the rate, etc.

画像処理部330において生成された画像データは、二次記憶媒体332に格納して保存される。二次記憶媒体332としては、フラッシュメモリカード等の不揮発性記憶素子を備えた媒体が使用される。なお、二次記憶媒体332の少なくとも一部は、デジタルカメラ100から着脱して交換できる。   The image data generated by the image processing unit 330 is stored and stored in the secondary storage medium 332. As the secondary storage medium 332, a medium including a nonvolatile storage element such as a flash memory card is used. Note that at least a part of the secondary storage medium 332 can be detached from the digital camera 100 and replaced.

自動合焦部340は、例えば、撮像素子312の撮像面に配設された位相差方式の焦点検出素子を用いて、周知の位相差方式による自動合焦動作を行う。なおスルー画の合焦領域において、当該画像のコントラストが最も高くなった場合に撮影レンズ122が合焦したと判断するコントラストAF方式を用いるようにしても良い。測光センサ350は、被写体の明るさを計測して、デジタルカメラ100の撮影条件を決定する。変倍駆動部360は、CPU210の指示に従って撮影レンズ122の一部を移動させる。これにより、撮影レンズ122の倍率が変化して、撮影画像の画角が変化する。   The automatic focusing unit 340 performs an automatic focusing operation by a known phase difference method using, for example, a phase difference type focus detection element disposed on the imaging surface of the imaging element 312. It should be noted that a contrast AF method that determines that the photographing lens 122 is in focus when the contrast of the image becomes the highest in the focus area of the through image may be used. The photometric sensor 350 measures the brightness of the subject and determines the shooting conditions of the digital camera 100. The magnification driving unit 360 moves a part of the photographing lens 122 in accordance with an instruction from the CPU 210. As a result, the magnification of the photographic lens 122 changes, and the angle of view of the photographic image changes.

入力部370は、操作部140からの入力を受け付け、デジタルカメラ100に設定された設定値等を保持する。CPU210は、入力部370を参照して、動作条件を決定する。   The input unit 370 receives an input from the operation unit 140 and holds setting values set in the digital camera 100. The CPU 210 refers to the input unit 370 to determine the operation condition.

上記のような内部回路200を有するデジタルカメラ100は、さらにユーザがレリーズボタン144を押し下げる1回の撮影操作(全押し操作)に対して、画像取得部(撮像部)202が複数の画像データを取得する撮影モードを有する。同撮影モードの設定がなされると、CPU210は、撮像素子駆動部310により、撮像素子312が連続撮影を行うよう制御する。これにより、時系列撮影画像(映像)データが取得される。このようにして取得された時系列の撮影画像データは、画像処理部330内のFIFO(First In First Out)メモリに順次入力される。   In the digital camera 100 having the internal circuit 200 as described above, the image acquisition unit (imaging unit) 202 receives a plurality of image data in response to a single shooting operation (full pressing operation) in which the user presses the release button 144. It has a shooting mode to acquire. When the shooting mode is set, the CPU 210 controls the image sensor 312 to perform continuous shooting using the image sensor driving unit 310. Thereby, time-series photographed image (video) data is acquired. The time-series captured image data acquired in this way is sequentially input to a FIFO (First In First Out) memory in the image processing unit 330.

FIFOメモリは、所定の記憶容量を有しており、順次入力される入力データが当該所定の容量に達すると、入力された順に撮影画像データが出力される。上記撮影モードでは、ユーザによるレリーズボタン144の全押し操作から所定時間が経過するまで、時系列の撮影画像データが、順次FIFOメモリに入力され、この間に、FIFOメモリから出力されたデータは削除される。レリーズボタン144の全押し操作がなされてから所定時間が経過すると、FIFOメモリへの撮影画像データの書き込みが禁止される。   The FIFO memory has a predetermined storage capacity, and when input data sequentially input reaches the predetermined capacity, the captured image data is output in the input order. In the shooting mode, time-series shot image data is sequentially input to the FIFO memory until a predetermined time has elapsed since the user fully pressed the release button 144, and during this time, the data output from the FIFO memory is deleted. The When a predetermined time elapses after the release button 144 is fully pressed, writing of the captured image data to the FIFO memory is prohibited.

これにより、FIFOメモリ内には、レリーズボタン144の全押し操作の前後に取得された複数フレームの時系列撮影画像データが保持される。即ち、一度の撮影操作(全押し操作)に対して画像取得部202が時系列で撮像された複数の画像を取得することにより、それら複数の画像から、撮影条件(絞り開度、シャッタ速度、撮像素子感度等)、撮影タイミング等が適していた撮影画像を当該撮影モードで取得された複数フレームの撮影画像の中から選択できる。これにより、撮影の成功率を向上させることができる。   As a result, a plurality of frames of time-series captured image data acquired before and after the release button 144 is fully pressed are held in the FIFO memory. That is, the image acquisition unit 202 acquires a plurality of images captured in time series for a single shooting operation (full press operation), so that shooting conditions (aperture opening, shutter speed, A captured image suitable for the imaging element sensitivity and the like and the photographing timing can be selected from the captured images of a plurality of frames acquired in the photographing mode. Thereby, the success rate of photographing can be improved.

近年、デジタルカメラ100の性能が向上し、ユーザの一度のレリーズボタン操作に対して数十枚にも及ぶ画像データを取得することができるようになってきている。そのような場合には特に、大量の撮影画像データから保存すべき画像データを選択することがユーザの負担になる場合がある。本実施形態によれば、このようなユーザの負担を後述のように軽減することができる。   In recent years, the performance of the digital camera 100 has improved, and it has become possible to acquire several tens of image data in response to a single release button operation by the user. In such a case, it may be a burden on the user to select image data to be stored from a large amount of photographed image data. According to the present embodiment, such a burden on the user can be reduced as described later.

図3に示される、デジタルカメラ100は、撮影画像処理部203を備える。撮影画像処理部203は、被写体抽出部250、不要被写体推定部260、主要被写体推定部270および画像選択部280を有し、複数の撮影画像から、画像としての価値がより高いと推定される撮影画像を選択する。   A digital camera 100 shown in FIG. 3 includes a captured image processing unit 203. The captured image processing unit 203 includes a subject extraction unit 250, an unnecessary subject estimation unit 260, a main subject estimation unit 270, and an image selection unit 280. The captured image processing unit 203 is estimated to have a higher value as an image from a plurality of captured images. Select an image.

ここで、画像としての価値とは、画像データとしての品質の高さの他、撮影内容に対する評価も含む。画像データとしての品質の高さとは、画像の解像が高い、ダイナミックレンジが広い、白とび/黒つぶれ等が生じていない等、デジタルデータとして信号品質に依存する価値の高さを意味する。一方、撮影内容に対する評価とは、ユーザにとって関心が高い被写体が映像に含まれているか、当該被写体にピントがあっているか、当該被写体の露光状態が適切であるか等、ユーザの主観的価値に依存する評価を意味する。以下、撮影画像選択部280の動作について説明する。   Here, the value as an image includes not only the high quality as image data but also the evaluation of the captured content. High quality as image data means high value depending on signal quality as digital data, such as high image resolution, wide dynamic range, no overexposure / blackout, and the like. On the other hand, the evaluation of the shooting content is based on the subjective value of the user, such as whether the subject is highly interested in the video, whether the subject is in focus, or whether the exposure state of the subject is appropriate. Means dependent evaluation. Hereinafter, the operation of the captured image selection unit 280 will be described.

図4は、撮影画像処理部203における被写体抽出部250および不要被写体推定部260の動作手順を示す流れ図である。また、図5から図9は、撮影画像処理部203の被写体抽出部250および不要被写体推定部260において実行される処理を模式的に示す図であり、下記の説明において随時参照する。   FIG. 4 is a flowchart showing an operation procedure of the subject extraction unit 250 and the unnecessary subject estimation unit 260 in the captured image processing unit 203. FIGS. 5 to 9 are diagrams schematically showing processing executed by the subject extraction unit 250 and the unnecessary subject estimation unit 260 of the captured image processing unit 203, and are referred to as needed in the following description.

撮影画像処理部203は、図5に示すように、撮影画像のうち、1回のレリーズ操作により画像取得部202が取得した複数の撮影画像41−1〜41−nを含む撮影画像群410を二次記憶媒体332から取得する(ステップS101)。次に、撮影画像処理部203は、被写体抽出部250において、複数の撮影画像41−1〜41−nのそれぞれに含まれる複数の被写体11〜31を全て抽出する(ステップS102)。   As shown in FIG. 5, the captured image processing unit 203 includes a captured image group 410 including a plurality of captured images 41-1 to 41-n acquired by the image acquisition unit 202 by a single release operation. Obtained from the secondary storage medium 332 (step S101). Next, the captured image processing unit 203 causes the subject extraction unit 250 to extract all of the plurality of subjects 11 to 31 included in each of the plurality of captured images 41-1 to 41-n (step S102).

続いて、被写体抽出部250は、これら被写体11〜31のそれぞれについて顔認識を実行する(ステップS103)。これにより、図5に枠により示すように、顔が認識された被写体15〜31が処理の対象となる被写体とされ、他の人物ではない被写体11〜14は、撮影画像処理部203の処理の対象から除かれる(ステップS104)。   Subsequently, the subject extraction unit 250 performs face recognition for each of the subjects 11 to 31 (step S103). As a result, as shown by the frame in FIG. 5, subjects 15 to 31 whose faces are recognized are set as subjects to be processed, and subjects 11 to 14 that are not other persons are processed by the captured image processing unit 203. It is removed from the target (step S104).

顔認識を実行することにより、処理の対象とされた被写体15〜31については、更に、個体が識別され、不要被写体推定部260は、個々の被写体15〜31について、不要被写体としての評価を実行する(ステップS105)。   By executing the face recognition, individual subjects are further identified for the subjects 15 to 31 to be processed, and the unnecessary subject estimation unit 260 evaluates the individual subjects 15 to 31 as unnecessary subjects. (Step S105).

図6には、不要被写体推定部260による不要被写体としての評価方法のひとつが例示される。即ち、不要被写体推定部260は、既に顔認識されている被写体15〜31のそれぞれについて視線を抽出する。不要被写体推定部260は、抽出された視線がデジタルカメラ100から逸れている被写体15、16、24、25を不要被写体と推定する(ステップS106)。不要被写体15、16、24、25は、不要被写体推定部260の処理の対象から除かれる。   FIG. 6 illustrates one of the evaluation methods as an unnecessary subject by the unnecessary subject estimation unit 260. That is, the unnecessary subject estimation unit 260 extracts the line of sight for each of the subjects 15 to 31 whose faces have already been recognized. The unnecessary subject estimation unit 260 estimates the subjects 15, 16, 24, and 25 whose extracted lines of sight are deviated from the digital camera 100 as unnecessary subjects (step S106). The unnecessary subjects 15, 16, 24, and 25 are excluded from the processing targets of the unnecessary subject estimation unit 260.

不要被写体推定部260は、未評価の被写体がなくなるまで、上記のステップS105およびステップS106を繰り返す(ステップS107:NO)。未評価の被写体がなくなった場合(ステップS107:YES)、不要被写体推定部260は処理を終了する。   The unnecessary subject estimation unit 260 repeats the above step S105 and step S106 until there is no unevaluated subject (step S107: NO). If there are no unevaluated subjects (step S107: YES), the unnecessary subject estimation unit 260 ends the process.

図7には、不要被写体推定部260による不要被写体の他の評価方法が例示される。即ち、不要被写体推定部260は、認識した顔から笑顔の特徴(笑顔の度合い/笑顔度)を抽出する(ステップS105)。この笑顔度の評価自体は周知の技術であるのでここでの説明は省略する。この抽出された笑顔度に基づいて、表情の評価が低い(笑顔度が、予め決められた所定笑顔度よりも低い)被写体21、23、28は不要被写体と推定される(ステップS106)。これら被写体21、23、28は、不要被写体推定部260の処理の対象から除かれる。   FIG. 7 illustrates another unnecessary subject evaluation method by the unnecessary subject estimation unit 260. That is, the unnecessary subject estimation unit 260 extracts a smile feature (smile level / smile level) from the recognized face (step S105). Since the evaluation of the smile level itself is a well-known technique, a description thereof is omitted here. Based on the extracted smile level, subjects 21, 23, and 28 whose facial expression evaluation is low (the smile level is lower than a predetermined smile level determined in advance) are estimated as unnecessary subjects (step S106). These subjects 21, 23, and 28 are excluded from the processing targets of the unnecessary subject estimation unit 260.

なお顔認識している被写体から得られる情報としては、上述したような「視線」や「笑顔度」だけでなく、例えば、「顔の向き」や、「顔の大きさ」などの情報も得られる。これらの情報に基づいて不要被写体推定を行っても良い。   The information obtained from the subject whose face is recognized includes not only the “line of sight” and “smile degree” as described above, but also information such as “face orientation” and “face size”. It is done. Unnecessary subject estimation may be performed based on these pieces of information.

例えば「顔の向き」に関しては、正面を向いていない被写体を不要被写体として推定するようにしても良い。正面を向いているか否かの判別は、例えば上述した「視線」の情報を用いて、両目が写っていない被写体を「正面を向いていない被写体」として推定する。   For example, regarding “face orientation”, a subject not facing the front may be estimated as an unnecessary subject. To determine whether or not the subject is facing the front, for example, using the above-described information of “line of sight”, a subject that does not have both eyes is estimated as a “subject that is not facing the front”.

また「顔の大きさ」に関しては、撮影画面に対してその被写体の顔が占める面積の割合を判別し、その割合が所定割合未満の被写体を不要被写体として推定するようにしても良い。或いは全ての被写体の顔の大きさを相対比較して、相対的に小さい大きさの顔の被写体を不要被写体と推定しても良い。相対比較の方法としては、一番大きい顔から上位5番目までの顔を除いて、残り全てを不要被写体と判定する方法や、或いは被写体全ての顔の大きさの平均値を求め、その平均値よりも小さい顔の被写体を不要被写体として推定する方法など様々な手法が考えられる。   Regarding the “face size”, the ratio of the area occupied by the face of the subject relative to the shooting screen may be determined, and a subject whose ratio is less than a predetermined ratio may be estimated as an unnecessary subject. Alternatively, the face sizes of all the subjects may be relatively compared, and a relatively small face subject may be estimated as an unnecessary subject. As a relative comparison method, a method of determining all remaining subjects as unnecessary subjects except the largest face to the top five faces, or obtaining an average value of the face sizes of all subjects and calculating the average value Various methods such as a method of estimating a subject having a smaller face as an unnecessary subject can be considered.

また、別に手法として、ステップS105において、不要被写体推定部260は、デジタルカメラ100内のRAMなどに予め登録された被写体(人物の顔)を比較情報として用いることによってし、画像に写っている被写体が、予め顔登録されている被写体か否かを判別(評価)するようにしても良い。これによりデジタルカメラ100のユーザとの親近性により不要被写体としての評価を行うことができる。すなわち、予めカメラ登録されていない顔の被写体(例えば被写体22、29)に対して、不要被写体推定部260は、図8に示すように、被写体22、29を不要被写体と推定する(ステップS106)。よって、これら被写体22、29も、不要被写体推定部260の処理の対象から除かれる。   As another method, in step S105, the unnecessary subject estimation unit 260 uses a subject (a person's face) registered in advance in a RAM or the like in the digital camera 100 as comparison information, so that the subject shown in the image is displayed. However, it may be determined (evaluated) whether or not the subject is a face registered in advance. Thereby, evaluation as an unnecessary subject can be performed due to closeness with the user of the digital camera 100. That is, as shown in FIG. 8, the unnecessary subject estimation unit 260 estimates the subjects 22 and 29 as unnecessary subjects for the facial subjects (for example, the subjects 22 and 29) not registered in advance in the camera (step S106). . Therefore, these subjects 22 and 29 are also excluded from the processing target of the unnecessary subject estimation unit 260.

図9には、不要被写体推定部260による不要被写体のまた他の評価方法が例示される。図9は、一連の連続撮影により撮影された画像(フレーム)41−1〜41−nにおいて、どの被写体がどのくらいのフレーム数に撮影されているのかを示す模式図である。   FIG. 9 illustrates another unnecessary object evaluation method by the unnecessary object estimation unit 260. FIG. 9 is a schematic diagram showing which subject is photographed in how many frames in images (frames) 41-1 to 41-n photographed by a series of continuous photographing.

図9の場合には、被写体26が28枚のフレームに写っており、次いで被写体27が25枚のフレームに写っており、以下、被写体30が6枚のフレーム、被写体31が7枚のフレームに写っていることを示す。そして不要被写体推定部260は、この写っているフレーム数の多少に基づいて不要被写体を判定する。   In the case of FIG. 9, the subject 26 is shown in 28 frames, and then the subject 27 is shown in 25 frames. Hereinafter, the subject 30 is shown in 6 frames and the subject 31 is shown in 7 frames. It shows that it is reflected. Then, the unnecessary subject estimation unit 260 determines an unnecessary subject based on the number of frames that are captured.

即ち、不要被写体推定部260は、複数の撮影画像41−1〜41−nについて、未だ不要被写体と認識されていない(換言すれば主要被写体候補として残っている)被写体26、27、30、31に関して個別の(被写体毎の)撮影頻度(撮影されたフレーム数/写っているフレーム数)を抽出して被写体を評価する(ステップS105)。これにより、撮影頻度が低い被写体30、31は、不要被写体推定部260により不要被写体と推定される(ステップS106)。   In other words, the unnecessary subject estimation unit 260 includes the subjects 26, 27, 30, 31 that are not yet recognized as unnecessary subjects (in other words, remain as main subject candidates) for the plurality of captured images 41-1 to 41-n. The individual (for each subject) shooting frequency (number of frames taken / number of frames taken) is extracted to evaluate the subject (step S105). As a result, the subjects 30 and 31 with low photographing frequency are estimated as unnecessary subjects by the unnecessary subject estimation unit 260 (step S106).

よって、これら被写体30、31も、不要被写体推定部260の処理の対象から除かれる。なお「撮影頻度が低いか否か」の判断は、被写体間での相対比較で少ないフレーム数の被写体を「低い」と判断しても良いし、予め決められた所定フレーム数よりも少ないフレーム数の被写体を「低い」と判断しても良い。   Therefore, these subjects 30 and 31 are also excluded from the processing target of the unnecessary subject estimation unit 260. The determination of “whether or not the shooting frequency is low” may be made by determining a subject with a small number of frames as “low” in a relative comparison between subjects, or a number of frames smaller than a predetermined number of frames. May be determined to be “low”.

このように、不要被写体推定部260は、被写体の顔を個別に評価した上で不要被写体を推定する様々な評価項目と評価方法により不要被写体を推定する。評価結果により不要被写体と推定された被写体を除くことにより、後述の処理の負荷を軽減できる。   As described above, the unnecessary subject estimation unit 260 estimates the unnecessary subject using various evaluation items and evaluation methods for estimating the unnecessary subject after individually evaluating the face of the subject. By excluding subjects that are estimated as unnecessary subjects based on the evaluation results, the processing load described later can be reduced.

なお、不要被写体推定部260における不要被写体としての評価項目および評価方法が上記の例に限られないことはもちろんである。また、上記の評価項目を全て実行するとは限らず、その一部を実行してもよい。   Of course, the evaluation items and the evaluation method as the unnecessary subject in the unnecessary subject estimation unit 260 are not limited to the above example. Moreover, not all the evaluation items described above are executed, and some of them may be executed.

次に主要被写体推定処理について、図10を用いて説明する。CPU210は、主要被写体推定部270の処理動作(図10)を、上述した不要被写体推定部260における処理動作(図4)の実行した後に、画像選択部280に実行させる。   Next, the main subject estimation process will be described with reference to FIG. The CPU 210 causes the image selection unit 280 to execute the processing operation (FIG. 10) of the main subject estimation unit 270 after the processing operation (FIG. 4) of the unnecessary subject estimation unit 260 described above.

図10は、撮影画像処理部203における主要被写体推定部270の動作手順を示す流れ図である。なお図11から図14は、撮影画像処理部203の主要被写体推定部270において実行される処理を模式的に示す図であり、下記の説明において随時参照する。   FIG. 10 is a flowchart illustrating an operation procedure of the main subject estimation unit 270 in the captured image processing unit 203. 11 to 14 are diagrams schematically showing processing executed in the main subject estimation unit 270 of the captured image processing unit 203, and are referred to as needed in the following description.

主要被写体推定部270は、まず、既述した不要被写体推定部260が不要被写体であることを推定した被写体11〜14、21〜25、28〜31を主要被写体候補から除外し(ステップS201)、残る被写体を主要被写体推定処理の対象とする。これにより、図11に示すように、主要被写体の候補となる候補被写体26、27が特定される(ステップS202)。   First, the main subject estimation unit 270 excludes the subjects 11 to 14, 21 to 25, and 28 to 31 that the above-described unnecessary subject estimation unit 260 has estimated to be unnecessary subjects from the main subject candidates (step S201). The remaining subject is the subject of the main subject estimation process. Thus, as shown in FIG. 11, candidate subjects 26 and 27 that are candidates for the main subject are identified (step S202).

次に、主要被写体推定部270は、個々の撮影画像41−1〜41−nについて、主要被写体候補の被写体26、27を個別に評価する(ステップS203)。この評価の方法としては、例えば、個々の撮影画像41−1〜41−nにおける候補被写体26、27の位置に基づく方法を例示できる。   Next, the main subject estimation unit 270 individually evaluates the main subject candidate subjects 26 and 27 for each of the captured images 41-1 to 41-n (step S203). As a method for this evaluation, for example, a method based on the positions of the candidate subjects 26 and 27 in the individual captured images 41-1 to 41-n can be exemplified.

図12は、主要被写体推定部270が、被写界421における被写体の位置の履歴に基づいて候補被写体26、27を評価する方法を模式的に示す図である。撮影画像の内容を示す図ではない。   FIG. 12 is a diagram schematically illustrating a method in which the main subject estimation unit 270 evaluates the candidate subjects 26 and 27 based on the subject position history in the object scene 421. It is not a figure which shows the content of a picked-up image.

図示のように、主要被写体推定部270は、デジタルカメラ100の撮影した一連の連写画像(複数の撮影画像)41−1〜41−nにおいて、候補被写体26、27のそれぞれを個別に追尾して、候補被写体26、27の各画像内における存在位置が、撮影画像41−1〜41−nの各画像の中心Cからどれぐらい離れた位置に存在しているか(写っているか)を調べる。   As illustrated, the main subject estimation unit 270 individually tracks each of the candidate subjects 26 and 27 in a series of continuous shot images (a plurality of shot images) 41-1 to 41-n taken by the digital camera 100. Then, it is examined how far the position of the candidate subjects 26 and 27 in each image is located from the center C of each image of the captured images 41-1 to 41-n.

より具体的には、主要被写体推定部270は、複数の撮影画像41−1〜41−nにおいて、候補被写体26が写っている位置(存在位置)を、複数の撮影画像41−1〜41−nの中心Cから候補被写体26のまでの距離d、d、d、・・・、d(xは任意に設定可能でMAXはn)の平均値により評価する。次に、主要被写体推定部270は、他の候補被写体27についても、複数の撮影画像41−1〜41−nの中心Cから候補被写体27のまでの距離D、D、D、・・・、D(xは任意に設定可能でMAXはn)の平均値により評価する。
図12では、一例として、各候補被写体26,27がそれぞれ写っている5枚の画像(全押し操作タイミング近傍の5枚の画像)から、各候補被写体の存在位置の平均値を算出する例を説明している。主要被写体推定部270は、5枚の撮影画像41−1〜41−5において、候補被写体26が写っている存在位置を、5枚の撮影画像41−1〜41−5の中心Cから候補被写体26のまでの距離d、d、d、d、dの平均値により評価する。次に、主要被写体推定部270は、候補被写体27についても、複数の撮影画像41−1〜41−5の中心Cから候補被写体27のまでの距離D、D、D、D、Dの平均値により評価する。
More specifically, the main subject estimation unit 270 determines a position (existing position) where the candidate subject 26 is captured in the plurality of photographed images 41-1 to 41-n. Evaluation is based on an average value of distances d 1 , d 2 , d 3 ,..., d X (x can be arbitrarily set and MAX is n) from the center C of n to the candidate subject 26. Next, for the other candidate subjects 27, the main subject estimation unit 270 also determines the distances D 1 , D 2 , D 3 ,... From the center C of the plurality of captured images 41-1 to 41-n to the candidate subject 27. .., D X (x can be arbitrarily set and MAX is n) is evaluated based on an average value.
In FIG. 12, as an example, an average value of the positions of the candidate subjects is calculated from five images (5 images near the full press operation timing) in which the candidate subjects 26 and 27 are captured. Explains. The main subject estimation unit 270 determines the position where the candidate subject 26 appears in the five photographed images 41-1 to 41-5 from the center C of the five photographed images 41-1 to 41-5. Evaluation is based on an average value of distances d 1 , d 2 , d 3 , d 4 , and d 5 up to 26. Next, for the candidate subject 27, the main subject estimation unit 270 also determines the distances D 1 , D 2 , D 3 , D 4 , from the center C of the plurality of captured images 41-1 to 41-5 to the candidate subject 27. It is evaluated by the average value of D 5.

上記のような評価により、図12に図示した例では、候補被写体27の方が、候補被写体26よりも、撮影画像の中心Cの近くに写っていることが多いと判る。そこで、主要被写体推定部270は、候補被写体27が主要被写体であると推定する。こうして、撮影画像処理部203は、多くの被写体11〜14、21〜31のなかから、主要被写体27を推定する(ステップS202)。   From the above evaluation, in the example illustrated in FIG. 12, it can be seen that the candidate subject 27 is often shown closer to the center C of the captured image than the candidate subject 26. Therefore, the main subject estimation unit 270 estimates that the candidate subject 27 is the main subject. Thus, the captured image processing unit 203 estimates the main subject 27 from among the many subjects 11 to 14 and 21 to 31 (step S202).

以下、主要被写体推定部270は、未評価の候補被写体がなくなるまで、上記のステップS203、S204を繰り返す(ステップS203:NO)。未評価の被写体がなくなった場合(ステップS203:YES)は、主要被写体推定部270における処理は終了する。   Thereafter, the main subject estimation unit 270 repeats the above steps S203 and S204 until there are no unevaluated candidate subjects (step S203: NO). When there are no more unevaluated subjects (step S203: YES), the processing in the main subject estimation unit 270 ends.

図13は、主要被写体推定部270が、被写界422における位置の履歴(各フレームにおける各候補被写体の存在位置の情報)に基づいて、候補被写体26、27を評価する他の方法を模式的に示す図である。図示のように、まず、デジタルカメラ100の被写界422の中央付近に、中心領域Aを設定する。次いで、一連の複数の撮影画像41−1〜41−nにおいて、候補被写体26、27が、中心領域Aに入り込んだ回数を計数する。   FIG. 13 schematically illustrates another method in which the main subject estimation unit 270 evaluates the candidate subjects 26 and 27 based on the position history in the object scene 422 (information on the position of each candidate subject in each frame). FIG. As shown in the figure, first, a center area A is set near the center of the object scene 422 of the digital camera 100. Next, the number of times the candidate subjects 26 and 27 have entered the central area A in the series of the plurality of captured images 41-1 to 41-n is counted.

これにより、例えば図13の例では、候補被写体27の方が、候補被写体26よりも、中心領域A内に写っている回数が多いと判る。そこで、主要被写体推定部270は、候補被写体27が主要被写体であると推定する。   Accordingly, for example, in the example of FIG. 13, it can be understood that the candidate subject 27 is reflected in the central area A more frequently than the candidate subject 26. Therefore, the main subject estimation unit 270 estimates that the candidate subject 27 is the main subject.

このように、撮影画像処理部203は、一連の連写画像間(複数の画像)間における各被写体(候補被写体)の存在位置の履歴に基づいて、主要被写体27を推定する。ただし、主要被写体27を位置の履歴に基づいて推定する場合の評価方法が上記の方法に限らないことはもちろんである。例えば、図12に示した方法において、中心Cとの距離D、D、D、D、Dを評価する場合に、単純平均ではなく、統計的な処理を加えて評価値を算出してもよい。また、中心Cとの距離の被写体27が、時間の経過と共に被写界422の中心に近づいていることを評価してもよい。 As described above, the captured image processing unit 203 estimates the main subject 27 based on the history of the positions of the respective subjects (candidate subjects) between a series of continuous shot images (a plurality of images). However, it goes without saying that the evaluation method used when the main subject 27 is estimated based on the position history is not limited to the above method. For example, in the method shown in FIG. 12, when evaluating the distances D 1 , D 2 , D 3 , D 4 , and D 5 with respect to the center C, the evaluation value is calculated by adding statistical processing instead of simple averaging. It may be calculated. Further, it may be evaluated that the subject 27 at a distance from the center C is approaching the center of the object scene 422 as time passes.

図14は、主要被写体推定部270が、候補被写体26、27を評価する他の方法を模式的に示す図である。既に説明したように、デジタルカメラ100の画像取得部202は、一度の撮像操作に対して時系列で撮像された複数の画像を取得することができる。こうして取得された複数の撮影画像41−1〜41−nのうち、レリーズボタン144が押し下げられたタイミングに対して時間的により近い撮影画像に写っている候補被写体(26、27)は、撮影者が撮影することを意図した被写体である蓋然性が高い。   FIG. 14 is a diagram schematically illustrating another method in which the main subject estimation unit 270 evaluates the candidate subjects 26 and 27. As already described, the image acquisition unit 202 of the digital camera 100 can acquire a plurality of images captured in time series for one imaging operation. Among the plurality of photographed images 41-1 to 41-n acquired in this way, the candidate subjects (26, 27) shown in the photographed image that is closer in time to the timing when the release button 144 is pressed down are photographers. Is likely to be a subject intended to be photographed.

よって、上記のように候補被写体が複数(26、27)存在する場合に、何れが主要被写体であるかを評価する場合には、取得されたタイミングが、レリーズボタン144が押し下げられたタイミングに対して時間的に近い撮影画像に写っている候補被写体の方に重みをつけて評価してもよい。また、レリーズタイミングにより近いタイミングで取得された画像において、被写界421の中心Cにより近い位置に存在している候補被写体の方を、あるいは、レリーズタイミングにより近い画像において、被写界421の中心領域Aに入っていた候補被写体の方に重み付けをしてもよい。これにより、主要被写体の推定精度をより向上させることができる。   Therefore, when there are a plurality of candidate subjects (26, 27) as described above, when evaluating which is the main subject, the acquired timing is relative to the timing when the release button 144 is pressed. Thus, the evaluation may be performed with a weight applied to the candidate subject appearing in the photographed image close in time. In addition, in an image acquired at a timing closer to the release timing, a candidate subject that is located closer to the center C of the object scene 421 or a center of the object scene 421 in an image closer to the release timing. The candidate subjects that have entered the area A may be weighted. Thereby, the estimation accuracy of the main subject can be further improved.

図15は、画像選択部280の動作手順を示す流れ図である。画像選択部280は、まず、撮影画像群410から、複数の選択画像候補を抽出する(ステップS301)。選択画像候補は、例えば、既に推定された主要被写体が写っていることを条件として抽出し、撮影画像41−1〜41−nの各々について選択画像候補となるか否かを調べる。   FIG. 15 is a flowchart showing an operation procedure of the image selection unit 280. First, the image selection unit 280 extracts a plurality of selection image candidates from the captured image group 410 (step S301). For example, the selected image candidate is extracted on the condition that the estimated main subject is already captured, and it is checked whether or not each of the captured images 41-1 to 41-n is a selected image candidate.

以下、画像選択部280は、選択画像候補となり得る撮影画像が無くなるまで、ステップS301を繰り返す(ステップS302:NO)。選択画像候補となり得る撮影画像が無くなった場合(ステップS302:YES)、画像選択部280は、選択画像候補の各々について、不要被写体11〜14、21〜16、28〜31の撮影状態を評価して選択画像を選択する(ステップS303)。   Thereafter, the image selection unit 280 repeats step S301 until there is no captured image that can be a selection image candidate (step S302: NO). When there are no captured images that can be selected image candidates (step S302: YES), the image selection unit 280 evaluates the imaging states of the unnecessary subjects 11 to 14, 21 to 16, and 28 to 31 for each of the selected image candidates. The selected image is selected (step S303).

図16は、画像選択部280が、不要被写体11〜14、21〜16、28〜31の撮影状態により選択画像候補を評価する方法を模式的に示す図である。撮影画像41−2に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。しかしながら、撮影画像41−2においては被写界深度が変化し、不要被写体11〜14、21〜26、28〜31のコントラストが、主要被写体27のコントラストに対して低い。   FIG. 16 is a diagram schematically illustrating a method in which the image selection unit 280 evaluates the selected image candidates based on the shooting states of the unnecessary subjects 11 to 14, 21 to 16, and 28 to 31. The subjects 11 to 14 and 21 to 31 shown in the photographed image 41-2 are common to the first photographed image 41-1 in the photographed image group 410. However, in the captured image 41-2, the depth of field changes, and the contrast of the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 is lower than the contrast of the main subject 27.

このように、撮影画像41−2における不要被写体11〜14、21〜26、28〜31のコントラストがより低い場合に、画像選択部280は、当該画像において主要被写体27が相対的に重視されていると評価し、当該撮影画像41−2を選択する。なお、撮影画像41−2におけるひとつの不要被写体26は、主要被写体27の近くに位置していたので、主要被写体27と同等に高いコントラストで撮影されている。しかしながら、全ての不要被写体11〜14、21〜26、28〜31を総合して評価すると、不要被写体11〜14、21〜26、28〜31のコントラストは、主要被写体27よりも低い。   As described above, when the contrasts of the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 in the captured image 41-2 are lower, the image selection unit 280 emphasizes the main subject 27 relatively in the image. The photographed image 41-2 is selected. Since one unnecessary subject 26 in the photographed image 41-2 is located near the main subject 27, it is photographed with a high contrast equivalent to the main subject 27. However, when all the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 are evaluated as a whole, the contrast of the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 is lower than that of the main subject 27.

図17は、画像選択部280が、不要被写体11〜14、21〜16、28〜31の撮影状態により選択画像候補を評価する他の方法を模式的に示す図である。撮影画像41−3に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。しかしながら、撮影画像41−3においては、不要被写体11〜14、21〜26、28〜31と主要被写体27との位置が変化している。   FIG. 17 is a diagram schematically illustrating another method in which the image selection unit 280 evaluates the selected image candidate based on the shooting states of the unnecessary subjects 11 to 14, 21 to 16, and 28 to 31. The subjects 11 to 14 and 21 to 31 shown in the photographed image 41-3 are common to the first photographed image 41-1 in the photographed image group 410. However, in the captured image 41-3, the positions of the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 and the main subject 27 are changed.

これにより、不要被写体11〜14、21〜26、28〜31が撮影画像41−3において占める面積は、撮影画像41−1に比較すると小さい。このように、撮影画像41−3において不要被写体11〜14、21〜26、28〜31が占める面積が小さい場合に、画像選択部280は、当該撮影画像41−3において主要被写体27が相対的に重視されていると評価し、当該撮影画像41−3を選択画像として選択する。   Accordingly, the area occupied by the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 in the captured image 41-3 is smaller than that of the captured image 41-1. As described above, when the area occupied by the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 in the captured image 41-3 is small, the image selection unit 280 causes the main subject 27 to be relative to the captured image 41-3. The photographed image 41-3 is selected as a selected image.

図18は、画像選択部280が、不要被写体11〜14、21〜16、28〜31の撮影状態により選択画像候補を評価するまた他の方法を模式的に示す図である。撮影画像41−4に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。しかしながら、撮影画像41−4においては、不要被写体11〜14、21〜26、28〜31の位置が分散している。   FIG. 18 is a diagram schematically illustrating another method in which the image selection unit 280 evaluates the selected image candidates based on the shooting states of the unnecessary subjects 11 to 14, 21 to 16, and 28 to 31. The subjects 11 to 14 and 21 to 31 shown in the photographed image 41-4 are common to the first photographed image 41-1 in the photographed image group 410. However, in the captured image 41-4, the positions of unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 are dispersed.

これにより、撮影画像41−4における不要被写体11〜14、21〜26、28〜31の位置は、撮影画像41−1に比較すると、撮影画像41−4の周辺部により接近している。このように、撮影画像41−4における不要被写体11〜14、21〜26、28〜31の位置が周辺部に接近している場合に、画像選択部280は、当該撮影画像41−4において主要被写体27が相対的に強調されていると評価し、当該撮影画像41−4を選択する。   Thereby, the positions of the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 in the captured image 41-4 are closer to the periphery of the captured image 41-4 than the captured image 41-1. As described above, when the positions of the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 in the captured image 41-4 are close to the peripheral portion, the image selection unit 280 performs the main processing in the captured image 41-4. It is evaluated that the subject 27 is relatively emphasized, and the captured image 41-4 is selected.

このように、画像選択部280は、撮影画像41−1〜41−nの各々における不要被写体11〜14、21〜26、28〜31の撮影状態を評価して、ユーザにとってより重要な主要被写体27に対して、不要被写体11〜14、21〜26、28〜31の撮影状態が相対的に劣っている画像を選択する。なお、撮影画像41−1〜41−nを選択する場合の評価項目および評価方法が上記の例に限られないことはもちろんである。また、上記の評価項目を全て実行するとは限らず、その一部を実行してもよい。   As described above, the image selection unit 280 evaluates the shooting states of the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 in each of the shot images 41-1 to 41-n, and is a main subject that is more important for the user. 27, an image in which the shooting conditions of the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 are relatively inferior is selected. Of course, the evaluation items and the evaluation method when selecting the captured images 41-1 to 41-n are not limited to the above example. Moreover, not all the evaluation items described above are executed, and some of them may be executed.

再び図15を参照すると、画像選択部280は、選択画像候補となり得る撮影画像が無くなるまで、ステップS303を繰り返す(ステップS304:NO)。全ての選択画像候補に対して不要被写体11〜14、21〜16、28〜31を評価した場合、(ステップS304:YES)、画像選択部280は、選択画像候補の各々について、主要被写体27の撮影状態を評価して選択画像を選択する(ステップS305)。   Referring to FIG. 15 again, the image selection unit 280 repeats step S303 until there is no captured image that can be a selected image candidate (step S304: NO). When the unnecessary subjects 11 to 14, 21 to 16, and 28 to 31 are evaluated for all the selected image candidates (step S304: YES), the image selection unit 280 sets the main subject 27 for each of the selected image candidates. The selected state is selected by evaluating the shooting state (step S305).

図19は、画像選択部280が、主要27の撮影状態により選択画像候補を評価する方法を模式的に示す図である。撮影画像41−5に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。共通している。しかしながら、撮影画像41−5においては、主要被写体27に対して照明が強く当たっており、他の被写体11〜14、21〜25、28〜31は相対的に暗く写っている。   FIG. 19 is a diagram schematically illustrating a method in which the image selection unit 280 evaluates the selected image candidate based on the main 27 shooting states. The subjects 11 to 14 and 21 to 31 shown in the photographed image 41-5 are common to the first photographed image 41-1 in the photographed image group 410. It is common. However, in the captured image 41-5, the main subject 27 is strongly illuminated, and the other subjects 11 to 14, 21 to 25, and 28 to 31 appear relatively dark.

このように、撮影画像41−5における主要被写体27のコントラストがより高い(大きい)場合に、画像選択部280は、当該画像において主要被写体27が相対的に鮮明に撮影されていると評価し、当該撮影画像41−5を選択する。なお、撮影画像41−5におけるひとつの不要被写体26は、主要被写体27と同等に高いコントラストで撮影されている。しかしながら、全ての不要被写体11〜14、21〜26、28〜31を総合して評価すると、主要被写体27のコントラストは主要被写体27よりも高い。   Thus, when the contrast of the main subject 27 in the captured image 41-5 is higher (large), the image selection unit 280 evaluates that the main subject 27 is captured relatively clearly in the image, The photographed image 41-5 is selected. Note that one unnecessary subject 26 in the photographed image 41-5 is photographed with a high contrast equivalent to the main subject 27. However, when all unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 are evaluated as a whole, the contrast of the main subject 27 is higher than that of the main subject 27.

図20は、画像選択部280が、主要被写体27の撮影状態により選択画像候補を評価する他の方法を模式的に示す図である。撮影画像41−2に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。しかしながら、撮影画像41−5においては、主要被写体27と不要被写体11〜14、21〜26、28〜31の位置関係が何らかの理由で変化している。   FIG. 20 is a diagram schematically illustrating another method in which the image selection unit 280 evaluates the selected image candidate based on the shooting state of the main subject 27. The subjects 11 to 14 and 21 to 31 shown in the photographed image 41-2 are common to the first photographed image 41-1 in the photographed image group 410. However, in the captured image 41-5, the positional relationship between the main subject 27 and the unnecessary subjects 11 to 14, 21 to 26, and 28 to 31 has changed for some reason.

これにより、主要被写体27が撮影画像41−6において占める面積は、撮影画像41−1に比較すると大きい。このように、撮影画像41−6において主要被写体27が占める面積がより大きい場合に、画像選択部280は、当該撮影画像41−6において主要被写体27が相対的に強調されていると評価し、当該撮影画像41−6を選択画像として選択する。   Thus, the area occupied by the main subject 27 in the captured image 41-6 is larger than that of the captured image 41-1. As described above, when the area occupied by the main subject 27 is larger in the captured image 41-6, the image selection unit 280 evaluates that the main subject 27 is relatively emphasized in the captured image 41-6. The photographed image 41-6 is selected as a selected image.

図21は、画像選択部280が、主要被写体27の撮影状態により選択画像候補を評価するまた他の方法を模式的に示す図である。撮影画像41−7に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。略共通している。しかしながら、撮影画像41−7においては、主要被写体27の位置が、被写界中央に移動している。このように、撮影画像41−7における主要被写体27の位置が撮影画像41−7の中央に近づいている場合に、画像選択部280は、当該撮影画像41−7において主要被写体27が相対的に強調されていると評価し、当該撮影画像41−7を選択する。   FIG. 21 is a diagram schematically illustrating another method in which the image selection unit 280 evaluates the selected image candidate based on the shooting state of the main subject 27. The subjects 11 to 14 and 21 to 31 shown in the photographed image 41-7 are common to the first photographed image 41-1 in the photographed image group 410. It is almost common. However, in the photographed image 41-7, the position of the main subject 27 has moved to the center of the object scene. As described above, when the position of the main subject 27 in the captured image 41-7 is approaching the center of the captured image 41-7, the image selection unit 280 makes the main subject 27 relatively in the captured image 41-7. It evaluates that it is emphasized, and the said picked-up image 41-7 is selected.

このように、画像選択部280は、撮影画像41−1〜41−nの各々における主要被写体27の撮影状態を評価して、ユーザにとってより重要な主要被写体27の撮影状態が、不要被写体11〜14、21〜26、28〜31に対して優る画像を選択する。なお、撮影画像41−1〜41−nを選択する場合の評価項目および評価方法が上記の例に限られないことはもちろんである。また、上記の評価項目を全て実行するとは限らず、その一部を実行してもよい。   In this way, the image selection unit 280 evaluates the shooting state of the main subject 27 in each of the shot images 41-1 to 41-n, and the shooting state of the main subject 27 that is more important to the user is the unnecessary subject 11 to 11. 14, 21-26, 28-31 images are selected. Of course, the evaluation items and the evaluation method when selecting the captured images 41-1 to 41-n are not limited to the above example. Moreover, not all the evaluation items described above are executed, and some of them may be executed.

再び図15を参照すると、画像選択部280は、選択画像候補となり得る撮影画像が無くなるまで、ステップS305を繰り返す(ステップS306:NO)。全ての選択画像候補に対して主要被写体27を評価した場合、(ステップS306:YES)、画像選択部280は処理を終了する。   Referring to FIG. 15 again, the image selection unit 280 repeats step S305 until there is no captured image that can be a selected image candidate (step S306: NO). When the main subject 27 is evaluated for all the selected image candidates (step S306: YES), the image selection unit 280 ends the process.

なお、主要被写体の評価による選択(ステップS303)と、不要被写体による選択(ステップS305)は、順序を入れ換えてもよい。また、全ての選択候補画像において不要被写体と主要被写体を両方評価し、総合的な評価結果により撮影画像を選択してもよい。   Note that the order of the selection based on the evaluation of the main subject (step S303) and the selection based on the unnecessary subject (step S305) may be interchanged. Further, both the unnecessary subject and the main subject may be evaluated in all selection candidate images, and the photographed image may be selected based on a comprehensive evaluation result.

以上のようにして画像選択部280が選択した撮影画像41−2〜41−7は、例えば、デジタルカメラ100が再生モードに設定された場合に、優先的にユーザに提示される。これにより、ユーザは、多数の撮影画像から撮影画像を選択する場合の選択作業時間を短縮できる。また、デジタルカメラ100は、特に評価が低かった撮影画像については、自動的に破棄するか、あるいは、ユーザから表示することを指示されるまでは非表示とするようにしてもよい。   The captured images 41-2 to 41-7 selected by the image selection unit 280 as described above are preferentially presented to the user when the digital camera 100 is set to the playback mode, for example. Thereby, the user can shorten the selection work time when selecting a captured image from a large number of captured images. In addition, the digital camera 100 may automatically discard a photographed image that has a particularly low evaluation, or may not display the captured image until it is instructed to be displayed by the user.

図22は、撮影条件設定プログラムを実行するパーソナルコンピュータ500を模式的に示す図である。パーソナルコンピュータ500は、ディスプレイ520、本体部530およびキーボード540を有する。   FIG. 22 is a diagram schematically illustrating a personal computer 500 that executes an imaging condition setting program. The personal computer 500 includes a display 520, a main body 530, and a keyboard 540.

本体部530は、デジタルカメラ100との通信により、デジタルカメラ100から撮影画像の画像データを取得できる。取得した画像データは、パーソナルコンピュータ500の記憶媒体に格納できる。また、パーソナルコンピュータ500は、実行すべきプログラムをロードする場合に用いる光学ドライブ532も備える。   The main body 530 can acquire image data of a photographed image from the digital camera 100 through communication with the digital camera 100. The acquired image data can be stored in a storage medium of the personal computer 500. The personal computer 500 also includes an optical drive 532 used when loading a program to be executed.

上記のようなパーソナルコンピュータ500は、撮影画像処理プログラムを読み込ませることにより、図4、図10および図15に示した手順を実行する撮影画像処理装置として動作する。また、パーソナルコンピュータ500は、ケーブル510を介して、デジタルカメラ100から撮影画像データを取得して処理の対象とすることができる。   The personal computer 500 as described above operates as a photographed image processing apparatus that executes the procedure shown in FIGS. 4, 10, and 15 by reading a photographed image processing program. Further, the personal computer 500 can acquire photographed image data from the digital camera 100 via the cable 510 and make it a target of processing.

即ち、撮影画像処理プログラムは、時系列で撮像された複数の画像を取得する画像取得手順、複数の画像に含まれる複数の被写体を抽出する被写体抽出手順、複数の画像のうちの少なくともいずれかの画像に基づいて複数の被写体のいずれが不要被写体かを推定する不要被写体推定手順、複数の被写体のうちから不要被写体を除いた被写体候補のそれぞれが複数の画像のそれぞれにおいていずれの位置にあるかを評価し、複数の画像間の位置の履歴に基づいて、被写体候補のいずれが主要被写体であるかを推定する主要被写体推定手順とを含む。そして、撮影画像処理プログラムは、これら一連の手順をパーソナルコンピュータ500に実行させる。   That is, the captured image processing program stores at least one of an image acquisition procedure for acquiring a plurality of images captured in time series, a subject extraction procedure for extracting a plurality of subjects included in the plurality of images, and a plurality of images. Unnecessary subject estimation procedure for estimating which one of a plurality of subjects is an unnecessary subject based on an image, and in which position each of the subject candidates excluding the unnecessary subject is located in each of the plurality of images. A main subject estimation procedure for evaluating and estimating which of the subject candidates is the main subject based on a history of positions between a plurality of images. The photographed image processing program causes the personal computer 500 to execute a series of procedures.

これにより、ユーザは、より大きなディスプレイ520およびキーボード540で、操作しやすい。パーソナルコンピュータ500を用いることにより、より大量の画像を高速に処理できる。また、被写体抽出手順、不要被写体推定手順、主要被写体推定手順および画像選択手順の各々における評価項目を増やすと共に、評価単位を細かくしてもよい。これにより、ユーザの意図をより詳細に反映しつつ画像選択を補助できる。   Thus, the user can easily operate with the larger display 520 and the keyboard 540. By using the personal computer 500, a larger amount of images can be processed at high speed. Further, the evaluation items in each of the subject extraction procedure, the unnecessary subject estimation procedure, the main subject estimation procedure, and the image selection procedure may be increased and the evaluation unit may be made finer. Thereby, image selection can be assisted while reflecting the user's intention in more detail.

なお、デジタルカメラ100およびパーソナルコンピュータ500の間の撮影画像データの転送は、図示のようにケーブル510を経由してもよいし、無線通信であってもよい。また、撮影画像データが格納された二次記憶媒体を受け渡すことにより、撮影画像データを取得してもよい。また、撮影画像処理プログラムの実行は、パーソナルコンピュータ500に限られるものではなく、店頭あるいはオンラインのプリントサービス設備等で実行してもよい。   Note that the transfer of captured image data between the digital camera 100 and the personal computer 500 may be via a cable 510 as shown in the figure, or may be wireless communication. Alternatively, the captured image data may be acquired by delivering a secondary storage medium that stores the captured image data. The execution of the photographed image processing program is not limited to the personal computer 500, and may be executed at a storefront or an online print service facility.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

また、特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示していない限り、あるいは、前の処理の出力を後の処理で用いない限り、任意の順序で実現し得ることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するとは限らない。   In addition, the execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the specification, and the drawings is particularly “before”, “ It should be noted that it can be realized in any order unless it is clearly indicated as “prior to” or the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it does not necessarily mean that implementation in this order is essential. Absent.

11〜31 被写体、100 デジタルカメラ、110 筐体、120 鏡筒、122 撮影レンズ、130 発光窓、140 操作部、141 十字キー、142 電源スイッチ、143 背面ボタン、144 レリーズボタン、146 ズームレバー、150 背面表示部、200 内部回路、201 制御部、202 画像取得部、203 撮影画像処理部、210 CPU、220 表示駆動部、230 プログラムメモリ、240 メインメモリ、250 被写体抽出部、260 不要被写体推定部、270 主要被写体推定部、280 画像選択部、310 撮像素子駆動部、312 撮像素子、320 アナログ/デジタル変換部、330 画像処理部、332 二次記憶媒体、340 自動合焦部、350 測光センサ、360 変倍駆動部、370 入力部、410 撮影画像群、41−1、41−2、41−3、41−4、41−5、41−6、41−7・・・41−n 撮影画像、421、422 被写界、500 パーソナルコンピュータ、510 ケーブル、520 ディスプレイ、530 本体部、532 光学ドライブ、540 キーボード 11 to 31 Subject, 100 Digital camera, 110 Case, 120 Lens barrel, 122 Shooting lens, 130 Light emission window, 140 Operation unit, 141 Cross key, 142 Power switch, 143 Rear button, 144 Release button, 146 Zoom lever, 150 Rear display unit, 200 internal circuit, 201 control unit, 202 image acquisition unit, 203 captured image processing unit, 210 CPU, 220 display drive unit, 230 program memory, 240 main memory, 250 subject extraction unit, 260 unnecessary subject estimation unit, 270 Main subject estimation unit, 280 Image selection unit, 310 Image sensor driving unit, 312 Image sensor, 320 Analog / digital conversion unit, 330 Image processing unit, 332 Secondary storage medium, 340 Automatic focusing unit, 350 Photometric sensor, 360 Magnification drive unit, 37 Input unit, 410 photographed image group, 41-1, 41-2, 41-3, 41-4, 41-5, 41-6, 41-7 ... 41-n photographed image, 421, 422 , 500 personal computer, 510 cable, 520 display, 530 main unit, 532 optical drive, 540 keyboard

Claims (13)

時系列に撮像された複数の画像を取得する画像取得部と、
前記複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出部と、
前記複数の画像のうちの少なくともいずれかの画像に基づいて、前記複数の被写体のいずれが不要被写体かを推定する不要被写体推定部と、
前記複数の被写体のうちから前記不要被写体を除いた被写体候補に基づいて、主要被写体を推定する主要被写体推定部と、を有することを特徴とする画像処理装置。
An image acquisition unit for acquiring a plurality of images captured in time series;
A subject extraction unit that extracts a plurality of different subjects included in the plurality of images;
An unnecessary subject estimation unit that estimates which of the plurality of subjects is an unnecessary subject based on at least one of the plurality of images;
An image processing apparatus comprising: a main subject estimation unit configured to estimate a main subject based on subject candidates obtained by removing the unnecessary subject from the plurality of subjects.
前記主要被写体推定部は、前記被写体候補が複数存在する場合において、当該被写体候補のそれぞれが、前記複数の画像のそれぞれにおいていずれの存在位置に存在するかを判断し、前記複数の画像間の前記存在位置の履歴に基づいて、前記被写体候補のいずれが主要被写体であるかを推定することを特徴とする請求項1に記載の画像処理装置。   The main subject estimation unit determines where each of the subject candidates is present in each of the plurality of images when there are a plurality of the subject candidates, and The image processing apparatus according to claim 1, wherein which of the subject candidates is a main subject is estimated based on a history of existing positions. 前記複数の画像のうち、前記不要被写体推定部が推定した前記不要被写体のコントラストがより小さい画像、前記不要被写体の占める面積がより小さい画像、および、前記不要被写体の位置がより周辺に近い画像の少なくともいずれかを選択する画像選択部をさらに備える請求項1又は2に記載の画像処理装置。   Among the plurality of images, an image having a smaller contrast of the unnecessary subject estimated by the unnecessary subject estimation unit, an image having a smaller area occupied by the unnecessary subject, and an image in which the position of the unnecessary subject is closer to the periphery. The image processing apparatus according to claim 1, further comprising an image selection unit that selects at least one of them. 前記画像選択部は、前記複数の画像のうち、不要被写体決定部が推定した前記不要被写体のコントラストがより小さい画像、前記不要被写体の占める面積がより小さい画像、および、前記不要被写体の位置がより周辺に近い画像の少なくともいずれか、であって、かつ、
主要被写体決定部が決定した前記主要被写体のコントラストがより大きい画像、前記主要被写体の占める面積がより大きい画像、および、前記主要被写体の位置がより中央に近い画像の少なくともいずれか
を選択する請求項3に記載の画像処理装置。
The image selection unit includes an image having a smaller contrast of the unnecessary subject estimated by the unnecessary subject determination unit, an image having a smaller area occupied by the unnecessary subject, and a position of the unnecessary subject among the plurality of images. At least one of the images close to the periphery, and
The at least one of an image having a larger contrast of the main subject determined by the main subject determination unit, an image having a larger area occupied by the main subject, and an image in which the position of the main subject is closer to the center is selected. The image processing apparatus according to 3.
前記主要被写体推定部は、前記複数の画像において、前記時系列上で撮像を開始したタイミングにより近い画像に出現する被写体に重みをつけて評価する請求項1から請求項4までのいずれか一項に記載の画像処理装置。   5. The main subject estimation unit weights and evaluates a subject appearing in an image closer to the timing at which imaging is started in the time series in the plurality of images. An image processing apparatus according to 1. 前記被写体抽出部は、前記複数の被写体のそれぞれについて顔を検出し、
前記不要被写体推定部は、前記顔を個別に評価することにより前記不要被写体を推定する請求項1から請求項5までのいずれか一項に記載の画像処理装置。
The subject extraction unit detects a face for each of the plurality of subjects,
The image processing apparatus according to claim 1, wherein the unnecessary subject estimation unit estimates the unnecessary subject by evaluating the face individually.
前記不要被写体推定部は、前記顔における笑顔の特徴を抽出して前記被写体をそれぞれ評価する請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the unnecessary subject estimation unit evaluates the subject by extracting a feature of a smile on the face. 前記不要被写体推定部は、前記被写体が人物である場合には当該人物の視線を抽出して前記被写体の各々を評価する請求項6または請求項7に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein when the subject is a person, the unnecessary subject estimation unit extracts a line of sight of the person and evaluates each of the subjects. 前記不要被写体推定部は、予め登録された被写体であるか否かを示す情報に基づいて、前記被写体をそれぞれ評価する請求項7または請求項8に記載の画像処理装置。   The image processing apparatus according to claim 7 or 8, wherein the unnecessary subject estimation unit evaluates the subject based on information indicating whether or not the subject is registered in advance. 前記不要被写体推定部は、前記複数の画像における被写体毎の撮影頻度に基づいて、前記被写体をそれぞれ評価する請求項7または請求項8に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the unnecessary subject estimation unit evaluates each of the subjects based on a photographing frequency for each subject in the plurality of images. 請求項1から請求項10までのいずれか一項に記載の画像処理装置と、
ユーザから操作されるレリーズボタンと、
前記レリーズボタンの一度の操作に対して、前記複数の画像を撮像する撮像部と
を備える撮像装置。
The image processing apparatus according to any one of claims 1 to 10,
A release button operated by the user,
An imaging apparatus comprising: an imaging unit that captures the plurality of images for one operation of the release button.
時系列に撮像された複数の画像を取得する画像取得手順と、
前記複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出手順と、
前記複数の画像のうちの少なくともいずれかの画像に基づいて、前記複数の被写体のいずれが不要被写体かを推定する不要被写体推定手順と、
前記複数の被写体のうちから前記不要被写体を除いた被写体候補に基づいて、主要被写体を推定する主要被写体推定手順と、
を計算機に実行させる画像処理プログラム。
An image acquisition procedure for acquiring a plurality of images captured in time series;
A subject extraction procedure for extracting a plurality of different subjects included in the plurality of images;
An unnecessary subject estimation procedure for estimating which of the plurality of subjects is an unnecessary subject based on at least one of the plurality of images;
A main subject estimation procedure for estimating a main subject based on subject candidates obtained by removing the unnecessary subject from the plurality of subjects;
An image processing program that causes a computer to execute.
前記主要被写体推定手順は、前記被写体候補が複数存在する場合において、当該被写体候補のそれぞれが、前記複数の画像のそれぞれにおいていずれの存在位置に存在するかを判断し、前記複数の画像間の前記存在位置の履歴に基づいて、前記被写体候補のいずれが主要被写体であるかを推定することを特徴とする請求項12に記載の画像処理プログラム。   In the main subject estimation procedure, when there are a plurality of subject candidates, it is determined in which position each of the subject candidates is present in each of the plurality of images, and the main subject estimation procedure is performed between the plurality of images. The image processing program according to claim 12, wherein which of the subject candidates is a main subject is estimated based on a history of existing positions.
JP2011145537A 2011-06-30 2011-06-30 Image processing device, imaging device, and image processing program Pending JP2013012993A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011145537A JP2013012993A (en) 2011-06-30 2011-06-30 Image processing device, imaging device, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011145537A JP2013012993A (en) 2011-06-30 2011-06-30 Image processing device, imaging device, and image processing program

Publications (1)

Publication Number Publication Date
JP2013012993A true JP2013012993A (en) 2013-01-17

Family

ID=47686482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011145537A Pending JP2013012993A (en) 2011-06-30 2011-06-30 Image processing device, imaging device, and image processing program

Country Status (1)

Country Link
JP (1) JP2013012993A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150070526A1 (en) * 2012-04-09 2015-03-12 Sony Corporation Display control device, display control method, and program
JP2016189544A (en) * 2015-03-30 2016-11-04 富士フイルム株式会社 Image pickup device, image pickup method, program and recording medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142696A (en) * 2003-11-05 2005-06-02 Seiko Epson Corp Still picture data generating apparatus and still picture data generating method
JP2005260894A (en) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd Image pickup device, image pickup method, and image pickup program
JP2005341017A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2007020104A (en) * 2005-07-11 2007-01-25 Fujifilm Holdings Corp Imaging apparatus, and method and program for managing number of photographed pictures
JP2010147715A (en) * 2008-12-17 2010-07-01 Hoya Corp Imager
JP2010239467A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image selection device, method for selecting image and program
JP2010251841A (en) * 2009-04-10 2010-11-04 Nikon Corp Image extraction program and image extraction device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142696A (en) * 2003-11-05 2005-06-02 Seiko Epson Corp Still picture data generating apparatus and still picture data generating method
JP2005260894A (en) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd Image pickup device, image pickup method, and image pickup program
JP2005341017A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2007020104A (en) * 2005-07-11 2007-01-25 Fujifilm Holdings Corp Imaging apparatus, and method and program for managing number of photographed pictures
JP2010147715A (en) * 2008-12-17 2010-07-01 Hoya Corp Imager
JP2010239467A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image selection device, method for selecting image and program
JP2010251841A (en) * 2009-04-10 2010-11-04 Nikon Corp Image extraction program and image extraction device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150070526A1 (en) * 2012-04-09 2015-03-12 Sony Corporation Display control device, display control method, and program
US9712750B2 (en) * 2012-04-09 2017-07-18 Sony Corporation Display control device and associated methodology of identifying a subject in an image
JP2016189544A (en) * 2015-03-30 2016-11-04 富士フイルム株式会社 Image pickup device, image pickup method, program and recording medium

Similar Documents

Publication Publication Date Title
JP5246275B2 (en) Imaging apparatus and program
JP5484631B2 (en) Imaging apparatus, imaging method, program, and program storage medium
TWI549501B (en) An imaging device, and a control method thereof
JP4582212B2 (en) Imaging apparatus and program
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5713055B2 (en) Imaging apparatus, imaging method, and program
JP5789091B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2010177894A (en) Imaging apparatus, image management apparatus, image management method, and computer program
US8411159B2 (en) Method of detecting specific object region and digital camera
US20090190909A1 (en) Imaging apparatus, imaging apparatus control method, and computer program
JP2010252236A (en) Image capturing apparatus and data structure of image file
JP2011077754A (en) Camera, and recording method therefor
US8237802B2 (en) Method and apparatus for determining shaken image by using auto focusing
KR20090095649A (en) Imaging apparatus
JP2010279054A (en) Image pickup device, image processing device, image pickup method, and image processing method
JP5862071B2 (en) Image processing apparatus, imaging apparatus, and program
JP2013012940A (en) Tracking apparatus and tracking method
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP2007049631A (en) Imaging apparatus
JP2009081636A (en) Image recording apparatus and photographing method
JP4567538B2 (en) Exposure amount calculation system, control method therefor, and control program therefor
JP2010028606A (en) Image capturing apparatus and method of controlling the same
JP2013012993A (en) Image processing device, imaging device, and image processing program
JP2008054031A (en) Digital camera and display control method
JP5045538B2 (en) Imaging apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150721