JP2013012993A - Image processing device, imaging device, and image processing program - Google Patents
Image processing device, imaging device, and image processing program Download PDFInfo
- Publication number
- JP2013012993A JP2013012993A JP2011145537A JP2011145537A JP2013012993A JP 2013012993 A JP2013012993 A JP 2013012993A JP 2011145537 A JP2011145537 A JP 2011145537A JP 2011145537 A JP2011145537 A JP 2011145537A JP 2013012993 A JP2013012993 A JP 2013012993A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- unnecessary
- subjects
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は画像処理装置、撮像装置および画像処理プログラムに関する。 The present invention relates to an image processing device, an imaging device, and an image processing program.
時系列的に取得した複数の画像に含まれる変化のない被写体を排除することにより、主要な被写体に適合した撮影条件で撮影するデジタルカメラがある(特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2009−089174号公報
There is a digital camera that shoots under a shooting condition suitable for a main subject by excluding a subject that does not change included in a plurality of images acquired in time series (see Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Unexamined Patent Application Publication No. 2009-089174
しかしながら、撮像間隔が短くなると、画像相互の間で被写体の変化が少なくなる。このため、主要被写体と不要被写体との峻別が難しくなる。 However, when the imaging interval is shortened, changes in the subject between the images are reduced. This makes it difficult to distinguish the main subject from the unnecessary subject.
上記課題を解決すべく、本発明の第一態様として、時系列に撮像された複数の画像を取得する画像取得部と、複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出部と、複数の画像のうちの少なくともいずれかの画像に基づいて、複数の被写体のいずれが不要被写体かを推定する不要被写体推定部と、複数の被写体のうちから不要被写体を除いた被写体候補に基づいて、主要被写体を推定する主要被写体推定部と、を備える画像処理装置が提供される。 In order to solve the above problems, as a first aspect of the present invention, an image acquisition unit that acquires a plurality of images captured in time series, and a subject extraction unit that extracts a plurality of different subjects included in the plurality of images, An unnecessary subject estimation unit that estimates which one of a plurality of subjects is an unnecessary subject based on at least one of the plurality of images, and a subject candidate obtained by removing the unnecessary subject from the plurality of subjects. There is provided an image processing apparatus including a main subject estimation unit that estimates a main subject.
また、本発明の第二態様として、上記画像処理装置と、ユーザから操作されるレリーズボタンと、レリーズボタンの一度の操作に対して、複数の画像を撮像する撮像部とを備える撮像装置が提供される。 According to a second aspect of the present invention, there is provided an imaging apparatus comprising the above image processing apparatus, a release button operated by a user, and an imaging unit that captures a plurality of images in response to a single operation of the release button. Is done.
更に、本発明の第三態様として、 時系列に撮像された複数の画像を取得する画像取得手順と、複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出手順と、複数の画像のうちの少なくともいずれかの画像に基づいて、複数の被写体のいずれが不要被写体かを推定する不要被写体推定手順と、複数の被写体のうちから不要被写体を除いた被写体候補に基づいて、主要被写体を推定する主要被写体推定手順と、を計算機に実行させる画像処理プログラム、が提供される。 Furthermore, as a third aspect of the present invention, an image acquisition procedure for acquiring a plurality of images captured in time series, a subject extraction procedure for extracting a plurality of different subjects included in the plurality of images, Based on at least one of the images, an unnecessary subject estimation procedure for estimating which one of a plurality of subjects is an unnecessary subject, and a main subject is estimated based on subject candidates obtained by removing unnecessary subjects from the plurality of subjects. And an image processing program for causing a computer to execute a main subject estimation procedure.
上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。これら特徴群のサブコンビネーションもまた発明となり得る。 The above summary of the present invention does not enumerate all necessary features of the present invention. A sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、撮像装置の一種であるデジタルカメラ100を斜め前方から見た斜視図である。デジタルカメラ100は、前後に薄い立方体の筐体110と、筐体110の前面に配置されたレンズ鏡筒120および発光窓130と、筐体110の上面に配置された電源スイッチ142、レリーズボタン144、ズームレバー146を含む操作部140の一部を備える。
FIG. 1 is a perspective view of a
レンズ鏡筒120は、筐体110の内部に配置された撮像素子に被写体像を結像する撮影レンズ122を保持する。筐体110の内部に配置された図示していない発光部により発生した光は、発光窓130を介して被写体を照明する。
The
電源スイッチ142は、押される毎にデジタルカメラ100の電源を断続する。ズームレバー146は、レンズ鏡筒120に保持された撮影レンズの倍率を変化させる。
Each time the
レリーズボタン144は、ユーザーによって半押しされた場合に、自動合焦部、測光センサ等が駆動されると共に、撮像素子によるスルー画像撮影動作が実行される。これにより、デジタルカメラ100はスルー画像撮影に続く、被写体像の本撮影に備える。レリーズボタン144の全押し操作がなされると、シャッタが開いて被写体像の本撮影動作が実行される。撮影範囲の明るさが暗いなどの場合には、本撮影のタイミングに合わせて発光窓130から光が被写体に向かって投射される。
When the
図2は、デジタルカメラ100を斜め後方から見た斜視図である。図1と共通の要素には同じ参照番号を付して重複する説明を省く。
FIG. 2 is a perspective view of the
筐体110の背面には、十字キー141および背面ボタン143を含む操作部140の一部と、背面表示部150とが配される。十字キー141および背面ボタン143は、デジタルカメラ100に各種設定を入力する場合、デジタルカメラ100の動作モードを切り替える場合、レンズ鏡筒の変倍等をリアルタイムで変更する場合等に、ユーザにより操作される。
A part of the
背面表示部150は、液晶表示パネル等により形成され、筐体110背面の多くの領域を占める。デジタルカメラ100が撮影モードの場合、レンズ鏡筒120に入射する被写体像が撮像素子により連続的に光電変換され、スルー画として背面表示部150に表示される。ユーザは、背面表示部150に表示されたスルー画を観察することにより、有効な撮影範囲を知ることができる。
The
また、背面表示部150には、電池の残量、記憶媒体の残り容量等、デジタルカメラ100の状態が併せて表示される。更に、デジタルカメラ100が再生モードで動作する場合は、再生画像が背面表示部150に表示される。
The
図3は、デジタルカメラ100の内部回路200を模式的に示すブロック図である。図1および図2と共通の要素には同じ参照番号を付して重複する説明を省く。内部回路200は、制御部201、画像取得部202および撮影画像処理部203を含む。
FIG. 3 is a block diagram schematically showing the
制御部201には、CPU210、表示駆動部220、プログラムメモリ230およびメインメモリ240で構成される。CPU210は、プログラムメモリ230からメインメモリ240に読み込んだファームウエアに従って、デジタルカメラ100の動作を包括的に制御する。表示駆動部220は、CPU210からの指示に従って表示画像を生成し、生成した画像を背面表示部150に表示する。
The
画像取得部202は、撮像素子駆動部310、撮像素子312、アナログ/デジタル変換部320、画像処理部330、自動合焦部340および測光センサ350を含む。
The
撮像素子駆動部310は、撮像素子312を駆動して、撮影レンズ122により撮像素子312の撮像面に結像された被写体像を光電変換して画像信号にする。撮像素子312としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を用いることができる。
The image
撮像素子312の出力する画像信号は、アナログ/デジタル変換部320により離散化され、画像処理部330により撮影画像データに変換される。画像処理部330は、撮影画像データを生成する過程で、画像のホワイトバランス、シャープネス、ガンマ、階調補正等を調整すると共に、撮影画像データを後述する二次記憶媒体332に記憶する際の圧縮率等を設定する。
The image signal output from the
画像処理部330において生成された画像データは、二次記憶媒体332に格納して保存される。二次記憶媒体332としては、フラッシュメモリカード等の不揮発性記憶素子を備えた媒体が使用される。なお、二次記憶媒体332の少なくとも一部は、デジタルカメラ100から着脱して交換できる。
The image data generated by the
自動合焦部340は、例えば、撮像素子312の撮像面に配設された位相差方式の焦点検出素子を用いて、周知の位相差方式による自動合焦動作を行う。なおスルー画の合焦領域において、当該画像のコントラストが最も高くなった場合に撮影レンズ122が合焦したと判断するコントラストAF方式を用いるようにしても良い。測光センサ350は、被写体の明るさを計測して、デジタルカメラ100の撮影条件を決定する。変倍駆動部360は、CPU210の指示に従って撮影レンズ122の一部を移動させる。これにより、撮影レンズ122の倍率が変化して、撮影画像の画角が変化する。
The automatic focusing
入力部370は、操作部140からの入力を受け付け、デジタルカメラ100に設定された設定値等を保持する。CPU210は、入力部370を参照して、動作条件を決定する。
The
上記のような内部回路200を有するデジタルカメラ100は、さらにユーザがレリーズボタン144を押し下げる1回の撮影操作(全押し操作)に対して、画像取得部(撮像部)202が複数の画像データを取得する撮影モードを有する。同撮影モードの設定がなされると、CPU210は、撮像素子駆動部310により、撮像素子312が連続撮影を行うよう制御する。これにより、時系列撮影画像(映像)データが取得される。このようにして取得された時系列の撮影画像データは、画像処理部330内のFIFO(First In First Out)メモリに順次入力される。
In the
FIFOメモリは、所定の記憶容量を有しており、順次入力される入力データが当該所定の容量に達すると、入力された順に撮影画像データが出力される。上記撮影モードでは、ユーザによるレリーズボタン144の全押し操作から所定時間が経過するまで、時系列の撮影画像データが、順次FIFOメモリに入力され、この間に、FIFOメモリから出力されたデータは削除される。レリーズボタン144の全押し操作がなされてから所定時間が経過すると、FIFOメモリへの撮影画像データの書き込みが禁止される。
The FIFO memory has a predetermined storage capacity, and when input data sequentially input reaches the predetermined capacity, the captured image data is output in the input order. In the shooting mode, time-series shot image data is sequentially input to the FIFO memory until a predetermined time has elapsed since the user fully pressed the
これにより、FIFOメモリ内には、レリーズボタン144の全押し操作の前後に取得された複数フレームの時系列撮影画像データが保持される。即ち、一度の撮影操作(全押し操作)に対して画像取得部202が時系列で撮像された複数の画像を取得することにより、それら複数の画像から、撮影条件(絞り開度、シャッタ速度、撮像素子感度等)、撮影タイミング等が適していた撮影画像を当該撮影モードで取得された複数フレームの撮影画像の中から選択できる。これにより、撮影の成功率を向上させることができる。
As a result, a plurality of frames of time-series captured image data acquired before and after the
近年、デジタルカメラ100の性能が向上し、ユーザの一度のレリーズボタン操作に対して数十枚にも及ぶ画像データを取得することができるようになってきている。そのような場合には特に、大量の撮影画像データから保存すべき画像データを選択することがユーザの負担になる場合がある。本実施形態によれば、このようなユーザの負担を後述のように軽減することができる。
In recent years, the performance of the
図3に示される、デジタルカメラ100は、撮影画像処理部203を備える。撮影画像処理部203は、被写体抽出部250、不要被写体推定部260、主要被写体推定部270および画像選択部280を有し、複数の撮影画像から、画像としての価値がより高いと推定される撮影画像を選択する。
A
ここで、画像としての価値とは、画像データとしての品質の高さの他、撮影内容に対する評価も含む。画像データとしての品質の高さとは、画像の解像が高い、ダイナミックレンジが広い、白とび/黒つぶれ等が生じていない等、デジタルデータとして信号品質に依存する価値の高さを意味する。一方、撮影内容に対する評価とは、ユーザにとって関心が高い被写体が映像に含まれているか、当該被写体にピントがあっているか、当該被写体の露光状態が適切であるか等、ユーザの主観的価値に依存する評価を意味する。以下、撮影画像選択部280の動作について説明する。
Here, the value as an image includes not only the high quality as image data but also the evaluation of the captured content. High quality as image data means high value depending on signal quality as digital data, such as high image resolution, wide dynamic range, no overexposure / blackout, and the like. On the other hand, the evaluation of the shooting content is based on the subjective value of the user, such as whether the subject is highly interested in the video, whether the subject is in focus, or whether the exposure state of the subject is appropriate. Means dependent evaluation. Hereinafter, the operation of the captured
図4は、撮影画像処理部203における被写体抽出部250および不要被写体推定部260の動作手順を示す流れ図である。また、図5から図9は、撮影画像処理部203の被写体抽出部250および不要被写体推定部260において実行される処理を模式的に示す図であり、下記の説明において随時参照する。
FIG. 4 is a flowchart showing an operation procedure of the
撮影画像処理部203は、図5に示すように、撮影画像のうち、1回のレリーズ操作により画像取得部202が取得した複数の撮影画像41−1〜41−nを含む撮影画像群410を二次記憶媒体332から取得する(ステップS101)。次に、撮影画像処理部203は、被写体抽出部250において、複数の撮影画像41−1〜41−nのそれぞれに含まれる複数の被写体11〜31を全て抽出する(ステップS102)。
As shown in FIG. 5, the captured
続いて、被写体抽出部250は、これら被写体11〜31のそれぞれについて顔認識を実行する(ステップS103)。これにより、図5に枠により示すように、顔が認識された被写体15〜31が処理の対象となる被写体とされ、他の人物ではない被写体11〜14は、撮影画像処理部203の処理の対象から除かれる(ステップS104)。
Subsequently, the
顔認識を実行することにより、処理の対象とされた被写体15〜31については、更に、個体が識別され、不要被写体推定部260は、個々の被写体15〜31について、不要被写体としての評価を実行する(ステップS105)。
By executing the face recognition, individual subjects are further identified for the
図6には、不要被写体推定部260による不要被写体としての評価方法のひとつが例示される。即ち、不要被写体推定部260は、既に顔認識されている被写体15〜31のそれぞれについて視線を抽出する。不要被写体推定部260は、抽出された視線がデジタルカメラ100から逸れている被写体15、16、24、25を不要被写体と推定する(ステップS106)。不要被写体15、16、24、25は、不要被写体推定部260の処理の対象から除かれる。
FIG. 6 illustrates one of the evaluation methods as an unnecessary subject by the unnecessary
不要被写体推定部260は、未評価の被写体がなくなるまで、上記のステップS105およびステップS106を繰り返す(ステップS107:NO)。未評価の被写体がなくなった場合(ステップS107:YES)、不要被写体推定部260は処理を終了する。
The unnecessary
図7には、不要被写体推定部260による不要被写体の他の評価方法が例示される。即ち、不要被写体推定部260は、認識した顔から笑顔の特徴(笑顔の度合い/笑顔度)を抽出する(ステップS105)。この笑顔度の評価自体は周知の技術であるのでここでの説明は省略する。この抽出された笑顔度に基づいて、表情の評価が低い(笑顔度が、予め決められた所定笑顔度よりも低い)被写体21、23、28は不要被写体と推定される(ステップS106)。これら被写体21、23、28は、不要被写体推定部260の処理の対象から除かれる。
FIG. 7 illustrates another unnecessary subject evaluation method by the unnecessary
なお顔認識している被写体から得られる情報としては、上述したような「視線」や「笑顔度」だけでなく、例えば、「顔の向き」や、「顔の大きさ」などの情報も得られる。これらの情報に基づいて不要被写体推定を行っても良い。 The information obtained from the subject whose face is recognized includes not only the “line of sight” and “smile degree” as described above, but also information such as “face orientation” and “face size”. It is done. Unnecessary subject estimation may be performed based on these pieces of information.
例えば「顔の向き」に関しては、正面を向いていない被写体を不要被写体として推定するようにしても良い。正面を向いているか否かの判別は、例えば上述した「視線」の情報を用いて、両目が写っていない被写体を「正面を向いていない被写体」として推定する。 For example, regarding “face orientation”, a subject not facing the front may be estimated as an unnecessary subject. To determine whether or not the subject is facing the front, for example, using the above-described information of “line of sight”, a subject that does not have both eyes is estimated as a “subject that is not facing the front”.
また「顔の大きさ」に関しては、撮影画面に対してその被写体の顔が占める面積の割合を判別し、その割合が所定割合未満の被写体を不要被写体として推定するようにしても良い。或いは全ての被写体の顔の大きさを相対比較して、相対的に小さい大きさの顔の被写体を不要被写体と推定しても良い。相対比較の方法としては、一番大きい顔から上位5番目までの顔を除いて、残り全てを不要被写体と判定する方法や、或いは被写体全ての顔の大きさの平均値を求め、その平均値よりも小さい顔の被写体を不要被写体として推定する方法など様々な手法が考えられる。 Regarding the “face size”, the ratio of the area occupied by the face of the subject relative to the shooting screen may be determined, and a subject whose ratio is less than a predetermined ratio may be estimated as an unnecessary subject. Alternatively, the face sizes of all the subjects may be relatively compared, and a relatively small face subject may be estimated as an unnecessary subject. As a relative comparison method, a method of determining all remaining subjects as unnecessary subjects except the largest face to the top five faces, or obtaining an average value of the face sizes of all subjects and calculating the average value Various methods such as a method of estimating a subject having a smaller face as an unnecessary subject can be considered.
また、別に手法として、ステップS105において、不要被写体推定部260は、デジタルカメラ100内のRAMなどに予め登録された被写体(人物の顔)を比較情報として用いることによってし、画像に写っている被写体が、予め顔登録されている被写体か否かを判別(評価)するようにしても良い。これによりデジタルカメラ100のユーザとの親近性により不要被写体としての評価を行うことができる。すなわち、予めカメラ登録されていない顔の被写体(例えば被写体22、29)に対して、不要被写体推定部260は、図8に示すように、被写体22、29を不要被写体と推定する(ステップS106)。よって、これら被写体22、29も、不要被写体推定部260の処理の対象から除かれる。
As another method, in step S105, the unnecessary
図9には、不要被写体推定部260による不要被写体のまた他の評価方法が例示される。図9は、一連の連続撮影により撮影された画像(フレーム)41−1〜41−nにおいて、どの被写体がどのくらいのフレーム数に撮影されているのかを示す模式図である。
FIG. 9 illustrates another unnecessary object evaluation method by the unnecessary
図9の場合には、被写体26が28枚のフレームに写っており、次いで被写体27が25枚のフレームに写っており、以下、被写体30が6枚のフレーム、被写体31が7枚のフレームに写っていることを示す。そして不要被写体推定部260は、この写っているフレーム数の多少に基づいて不要被写体を判定する。
In the case of FIG. 9, the subject 26 is shown in 28 frames, and then the subject 27 is shown in 25 frames. Hereinafter, the subject 30 is shown in 6 frames and the subject 31 is shown in 7 frames. It shows that it is reflected. Then, the unnecessary
即ち、不要被写体推定部260は、複数の撮影画像41−1〜41−nについて、未だ不要被写体と認識されていない(換言すれば主要被写体候補として残っている)被写体26、27、30、31に関して個別の(被写体毎の)撮影頻度(撮影されたフレーム数/写っているフレーム数)を抽出して被写体を評価する(ステップS105)。これにより、撮影頻度が低い被写体30、31は、不要被写体推定部260により不要被写体と推定される(ステップS106)。
In other words, the unnecessary
よって、これら被写体30、31も、不要被写体推定部260の処理の対象から除かれる。なお「撮影頻度が低いか否か」の判断は、被写体間での相対比較で少ないフレーム数の被写体を「低い」と判断しても良いし、予め決められた所定フレーム数よりも少ないフレーム数の被写体を「低い」と判断しても良い。
Therefore, these
このように、不要被写体推定部260は、被写体の顔を個別に評価した上で不要被写体を推定する様々な評価項目と評価方法により不要被写体を推定する。評価結果により不要被写体と推定された被写体を除くことにより、後述の処理の負荷を軽減できる。
As described above, the unnecessary
なお、不要被写体推定部260における不要被写体としての評価項目および評価方法が上記の例に限られないことはもちろんである。また、上記の評価項目を全て実行するとは限らず、その一部を実行してもよい。
Of course, the evaluation items and the evaluation method as the unnecessary subject in the unnecessary
次に主要被写体推定処理について、図10を用いて説明する。CPU210は、主要被写体推定部270の処理動作(図10)を、上述した不要被写体推定部260における処理動作(図4)の実行した後に、画像選択部280に実行させる。
Next, the main subject estimation process will be described with reference to FIG. The
図10は、撮影画像処理部203における主要被写体推定部270の動作手順を示す流れ図である。なお図11から図14は、撮影画像処理部203の主要被写体推定部270において実行される処理を模式的に示す図であり、下記の説明において随時参照する。
FIG. 10 is a flowchart illustrating an operation procedure of the main
主要被写体推定部270は、まず、既述した不要被写体推定部260が不要被写体であることを推定した被写体11〜14、21〜25、28〜31を主要被写体候補から除外し(ステップS201)、残る被写体を主要被写体推定処理の対象とする。これにより、図11に示すように、主要被写体の候補となる候補被写体26、27が特定される(ステップS202)。
First, the main
次に、主要被写体推定部270は、個々の撮影画像41−1〜41−nについて、主要被写体候補の被写体26、27を個別に評価する(ステップS203)。この評価の方法としては、例えば、個々の撮影画像41−1〜41−nにおける候補被写体26、27の位置に基づく方法を例示できる。
Next, the main
図12は、主要被写体推定部270が、被写界421における被写体の位置の履歴に基づいて候補被写体26、27を評価する方法を模式的に示す図である。撮影画像の内容を示す図ではない。
FIG. 12 is a diagram schematically illustrating a method in which the main
図示のように、主要被写体推定部270は、デジタルカメラ100の撮影した一連の連写画像(複数の撮影画像)41−1〜41−nにおいて、候補被写体26、27のそれぞれを個別に追尾して、候補被写体26、27の各画像内における存在位置が、撮影画像41−1〜41−nの各画像の中心Cからどれぐらい離れた位置に存在しているか(写っているか)を調べる。
As illustrated, the main
より具体的には、主要被写体推定部270は、複数の撮影画像41−1〜41−nにおいて、候補被写体26が写っている位置(存在位置)を、複数の撮影画像41−1〜41−nの中心Cから候補被写体26のまでの距離d1、d2、d3、・・・、dX(xは任意に設定可能でMAXはn)の平均値により評価する。次に、主要被写体推定部270は、他の候補被写体27についても、複数の撮影画像41−1〜41−nの中心Cから候補被写体27のまでの距離D1、D2、D3、・・・、DX(xは任意に設定可能でMAXはn)の平均値により評価する。
図12では、一例として、各候補被写体26,27がそれぞれ写っている5枚の画像(全押し操作タイミング近傍の5枚の画像)から、各候補被写体の存在位置の平均値を算出する例を説明している。主要被写体推定部270は、5枚の撮影画像41−1〜41−5において、候補被写体26が写っている存在位置を、5枚の撮影画像41−1〜41−5の中心Cから候補被写体26のまでの距離d1、d2、d3、d4、d5の平均値により評価する。次に、主要被写体推定部270は、候補被写体27についても、複数の撮影画像41−1〜41−5の中心Cから候補被写体27のまでの距離D1、D2、D3、D4、D5の平均値により評価する。
More specifically, the main
In FIG. 12, as an example, an average value of the positions of the candidate subjects is calculated from five images (5 images near the full press operation timing) in which the candidate subjects 26 and 27 are captured. Explains. The main
上記のような評価により、図12に図示した例では、候補被写体27の方が、候補被写体26よりも、撮影画像の中心Cの近くに写っていることが多いと判る。そこで、主要被写体推定部270は、候補被写体27が主要被写体であると推定する。こうして、撮影画像処理部203は、多くの被写体11〜14、21〜31のなかから、主要被写体27を推定する(ステップS202)。
From the above evaluation, in the example illustrated in FIG. 12, it can be seen that the
以下、主要被写体推定部270は、未評価の候補被写体がなくなるまで、上記のステップS203、S204を繰り返す(ステップS203:NO)。未評価の被写体がなくなった場合(ステップS203:YES)は、主要被写体推定部270における処理は終了する。
Thereafter, the main
図13は、主要被写体推定部270が、被写界422における位置の履歴(各フレームにおける各候補被写体の存在位置の情報)に基づいて、候補被写体26、27を評価する他の方法を模式的に示す図である。図示のように、まず、デジタルカメラ100の被写界422の中央付近に、中心領域Aを設定する。次いで、一連の複数の撮影画像41−1〜41−nにおいて、候補被写体26、27が、中心領域Aに入り込んだ回数を計数する。
FIG. 13 schematically illustrates another method in which the main
これにより、例えば図13の例では、候補被写体27の方が、候補被写体26よりも、中心領域A内に写っている回数が多いと判る。そこで、主要被写体推定部270は、候補被写体27が主要被写体であると推定する。
Accordingly, for example, in the example of FIG. 13, it can be understood that the
このように、撮影画像処理部203は、一連の連写画像間(複数の画像)間における各被写体(候補被写体)の存在位置の履歴に基づいて、主要被写体27を推定する。ただし、主要被写体27を位置の履歴に基づいて推定する場合の評価方法が上記の方法に限らないことはもちろんである。例えば、図12に示した方法において、中心Cとの距離D1、D2、D3、D4、D5を評価する場合に、単純平均ではなく、統計的な処理を加えて評価値を算出してもよい。また、中心Cとの距離の被写体27が、時間の経過と共に被写界422の中心に近づいていることを評価してもよい。
As described above, the captured
図14は、主要被写体推定部270が、候補被写体26、27を評価する他の方法を模式的に示す図である。既に説明したように、デジタルカメラ100の画像取得部202は、一度の撮像操作に対して時系列で撮像された複数の画像を取得することができる。こうして取得された複数の撮影画像41−1〜41−nのうち、レリーズボタン144が押し下げられたタイミングに対して時間的により近い撮影画像に写っている候補被写体(26、27)は、撮影者が撮影することを意図した被写体である蓋然性が高い。
FIG. 14 is a diagram schematically illustrating another method in which the main
よって、上記のように候補被写体が複数(26、27)存在する場合に、何れが主要被写体であるかを評価する場合には、取得されたタイミングが、レリーズボタン144が押し下げられたタイミングに対して時間的に近い撮影画像に写っている候補被写体の方に重みをつけて評価してもよい。また、レリーズタイミングにより近いタイミングで取得された画像において、被写界421の中心Cにより近い位置に存在している候補被写体の方を、あるいは、レリーズタイミングにより近い画像において、被写界421の中心領域Aに入っていた候補被写体の方に重み付けをしてもよい。これにより、主要被写体の推定精度をより向上させることができる。
Therefore, when there are a plurality of candidate subjects (26, 27) as described above, when evaluating which is the main subject, the acquired timing is relative to the timing when the
図15は、画像選択部280の動作手順を示す流れ図である。画像選択部280は、まず、撮影画像群410から、複数の選択画像候補を抽出する(ステップS301)。選択画像候補は、例えば、既に推定された主要被写体が写っていることを条件として抽出し、撮影画像41−1〜41−nの各々について選択画像候補となるか否かを調べる。
FIG. 15 is a flowchart showing an operation procedure of the
以下、画像選択部280は、選択画像候補となり得る撮影画像が無くなるまで、ステップS301を繰り返す(ステップS302:NO)。選択画像候補となり得る撮影画像が無くなった場合(ステップS302:YES)、画像選択部280は、選択画像候補の各々について、不要被写体11〜14、21〜16、28〜31の撮影状態を評価して選択画像を選択する(ステップS303)。
Thereafter, the
図16は、画像選択部280が、不要被写体11〜14、21〜16、28〜31の撮影状態により選択画像候補を評価する方法を模式的に示す図である。撮影画像41−2に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。しかしながら、撮影画像41−2においては被写界深度が変化し、不要被写体11〜14、21〜26、28〜31のコントラストが、主要被写体27のコントラストに対して低い。
FIG. 16 is a diagram schematically illustrating a method in which the
このように、撮影画像41−2における不要被写体11〜14、21〜26、28〜31のコントラストがより低い場合に、画像選択部280は、当該画像において主要被写体27が相対的に重視されていると評価し、当該撮影画像41−2を選択する。なお、撮影画像41−2におけるひとつの不要被写体26は、主要被写体27の近くに位置していたので、主要被写体27と同等に高いコントラストで撮影されている。しかしながら、全ての不要被写体11〜14、21〜26、28〜31を総合して評価すると、不要被写体11〜14、21〜26、28〜31のコントラストは、主要被写体27よりも低い。
As described above, when the contrasts of the
図17は、画像選択部280が、不要被写体11〜14、21〜16、28〜31の撮影状態により選択画像候補を評価する他の方法を模式的に示す図である。撮影画像41−3に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。しかしながら、撮影画像41−3においては、不要被写体11〜14、21〜26、28〜31と主要被写体27との位置が変化している。
FIG. 17 is a diagram schematically illustrating another method in which the
これにより、不要被写体11〜14、21〜26、28〜31が撮影画像41−3において占める面積は、撮影画像41−1に比較すると小さい。このように、撮影画像41−3において不要被写体11〜14、21〜26、28〜31が占める面積が小さい場合に、画像選択部280は、当該撮影画像41−3において主要被写体27が相対的に重視されていると評価し、当該撮影画像41−3を選択画像として選択する。
Accordingly, the area occupied by the
図18は、画像選択部280が、不要被写体11〜14、21〜16、28〜31の撮影状態により選択画像候補を評価するまた他の方法を模式的に示す図である。撮影画像41−4に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。しかしながら、撮影画像41−4においては、不要被写体11〜14、21〜26、28〜31の位置が分散している。
FIG. 18 is a diagram schematically illustrating another method in which the
これにより、撮影画像41−4における不要被写体11〜14、21〜26、28〜31の位置は、撮影画像41−1に比較すると、撮影画像41−4の周辺部により接近している。このように、撮影画像41−4における不要被写体11〜14、21〜26、28〜31の位置が周辺部に接近している場合に、画像選択部280は、当該撮影画像41−4において主要被写体27が相対的に強調されていると評価し、当該撮影画像41−4を選択する。
Thereby, the positions of the
このように、画像選択部280は、撮影画像41−1〜41−nの各々における不要被写体11〜14、21〜26、28〜31の撮影状態を評価して、ユーザにとってより重要な主要被写体27に対して、不要被写体11〜14、21〜26、28〜31の撮影状態が相対的に劣っている画像を選択する。なお、撮影画像41−1〜41−nを選択する場合の評価項目および評価方法が上記の例に限られないことはもちろんである。また、上記の評価項目を全て実行するとは限らず、その一部を実行してもよい。
As described above, the
再び図15を参照すると、画像選択部280は、選択画像候補となり得る撮影画像が無くなるまで、ステップS303を繰り返す(ステップS304:NO)。全ての選択画像候補に対して不要被写体11〜14、21〜16、28〜31を評価した場合、(ステップS304:YES)、画像選択部280は、選択画像候補の各々について、主要被写体27の撮影状態を評価して選択画像を選択する(ステップS305)。
Referring to FIG. 15 again, the
図19は、画像選択部280が、主要27の撮影状態により選択画像候補を評価する方法を模式的に示す図である。撮影画像41−5に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。共通している。しかしながら、撮影画像41−5においては、主要被写体27に対して照明が強く当たっており、他の被写体11〜14、21〜25、28〜31は相対的に暗く写っている。
FIG. 19 is a diagram schematically illustrating a method in which the
このように、撮影画像41−5における主要被写体27のコントラストがより高い(大きい)場合に、画像選択部280は、当該画像において主要被写体27が相対的に鮮明に撮影されていると評価し、当該撮影画像41−5を選択する。なお、撮影画像41−5におけるひとつの不要被写体26は、主要被写体27と同等に高いコントラストで撮影されている。しかしながら、全ての不要被写体11〜14、21〜26、28〜31を総合して評価すると、主要被写体27のコントラストは主要被写体27よりも高い。
Thus, when the contrast of the main subject 27 in the captured image 41-5 is higher (large), the
図20は、画像選択部280が、主要被写体27の撮影状態により選択画像候補を評価する他の方法を模式的に示す図である。撮影画像41−2に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。しかしながら、撮影画像41−5においては、主要被写体27と不要被写体11〜14、21〜26、28〜31の位置関係が何らかの理由で変化している。
FIG. 20 is a diagram schematically illustrating another method in which the
これにより、主要被写体27が撮影画像41−6において占める面積は、撮影画像41−1に比較すると大きい。このように、撮影画像41−6において主要被写体27が占める面積がより大きい場合に、画像選択部280は、当該撮影画像41−6において主要被写体27が相対的に強調されていると評価し、当該撮影画像41−6を選択画像として選択する。
Thus, the area occupied by the main subject 27 in the captured image 41-6 is larger than that of the captured image 41-1. As described above, when the area occupied by the
図21は、画像選択部280が、主要被写体27の撮影状態により選択画像候補を評価するまた他の方法を模式的に示す図である。撮影画像41−7に写り込んでいる被写体11〜14、21〜31は、撮影画像群410の最初の撮影画像41−1と共通している。略共通している。しかしながら、撮影画像41−7においては、主要被写体27の位置が、被写界中央に移動している。このように、撮影画像41−7における主要被写体27の位置が撮影画像41−7の中央に近づいている場合に、画像選択部280は、当該撮影画像41−7において主要被写体27が相対的に強調されていると評価し、当該撮影画像41−7を選択する。
FIG. 21 is a diagram schematically illustrating another method in which the
このように、画像選択部280は、撮影画像41−1〜41−nの各々における主要被写体27の撮影状態を評価して、ユーザにとってより重要な主要被写体27の撮影状態が、不要被写体11〜14、21〜26、28〜31に対して優る画像を選択する。なお、撮影画像41−1〜41−nを選択する場合の評価項目および評価方法が上記の例に限られないことはもちろんである。また、上記の評価項目を全て実行するとは限らず、その一部を実行してもよい。
In this way, the
再び図15を参照すると、画像選択部280は、選択画像候補となり得る撮影画像が無くなるまで、ステップS305を繰り返す(ステップS306:NO)。全ての選択画像候補に対して主要被写体27を評価した場合、(ステップS306:YES)、画像選択部280は処理を終了する。
Referring to FIG. 15 again, the
なお、主要被写体の評価による選択(ステップS303)と、不要被写体による選択(ステップS305)は、順序を入れ換えてもよい。また、全ての選択候補画像において不要被写体と主要被写体を両方評価し、総合的な評価結果により撮影画像を選択してもよい。 Note that the order of the selection based on the evaluation of the main subject (step S303) and the selection based on the unnecessary subject (step S305) may be interchanged. Further, both the unnecessary subject and the main subject may be evaluated in all selection candidate images, and the photographed image may be selected based on a comprehensive evaluation result.
以上のようにして画像選択部280が選択した撮影画像41−2〜41−7は、例えば、デジタルカメラ100が再生モードに設定された場合に、優先的にユーザに提示される。これにより、ユーザは、多数の撮影画像から撮影画像を選択する場合の選択作業時間を短縮できる。また、デジタルカメラ100は、特に評価が低かった撮影画像については、自動的に破棄するか、あるいは、ユーザから表示することを指示されるまでは非表示とするようにしてもよい。
The captured images 41-2 to 41-7 selected by the
図22は、撮影条件設定プログラムを実行するパーソナルコンピュータ500を模式的に示す図である。パーソナルコンピュータ500は、ディスプレイ520、本体部530およびキーボード540を有する。
FIG. 22 is a diagram schematically illustrating a
本体部530は、デジタルカメラ100との通信により、デジタルカメラ100から撮影画像の画像データを取得できる。取得した画像データは、パーソナルコンピュータ500の記憶媒体に格納できる。また、パーソナルコンピュータ500は、実行すべきプログラムをロードする場合に用いる光学ドライブ532も備える。
The
上記のようなパーソナルコンピュータ500は、撮影画像処理プログラムを読み込ませることにより、図4、図10および図15に示した手順を実行する撮影画像処理装置として動作する。また、パーソナルコンピュータ500は、ケーブル510を介して、デジタルカメラ100から撮影画像データを取得して処理の対象とすることができる。
The
即ち、撮影画像処理プログラムは、時系列で撮像された複数の画像を取得する画像取得手順、複数の画像に含まれる複数の被写体を抽出する被写体抽出手順、複数の画像のうちの少なくともいずれかの画像に基づいて複数の被写体のいずれが不要被写体かを推定する不要被写体推定手順、複数の被写体のうちから不要被写体を除いた被写体候補のそれぞれが複数の画像のそれぞれにおいていずれの位置にあるかを評価し、複数の画像間の位置の履歴に基づいて、被写体候補のいずれが主要被写体であるかを推定する主要被写体推定手順とを含む。そして、撮影画像処理プログラムは、これら一連の手順をパーソナルコンピュータ500に実行させる。
That is, the captured image processing program stores at least one of an image acquisition procedure for acquiring a plurality of images captured in time series, a subject extraction procedure for extracting a plurality of subjects included in the plurality of images, and a plurality of images. Unnecessary subject estimation procedure for estimating which one of a plurality of subjects is an unnecessary subject based on an image, and in which position each of the subject candidates excluding the unnecessary subject is located in each of the plurality of images. A main subject estimation procedure for evaluating and estimating which of the subject candidates is the main subject based on a history of positions between a plurality of images. The photographed image processing program causes the
これにより、ユーザは、より大きなディスプレイ520およびキーボード540で、操作しやすい。パーソナルコンピュータ500を用いることにより、より大量の画像を高速に処理できる。また、被写体抽出手順、不要被写体推定手順、主要被写体推定手順および画像選択手順の各々における評価項目を増やすと共に、評価単位を細かくしてもよい。これにより、ユーザの意図をより詳細に反映しつつ画像選択を補助できる。
Thus, the user can easily operate with the
なお、デジタルカメラ100およびパーソナルコンピュータ500の間の撮影画像データの転送は、図示のようにケーブル510を経由してもよいし、無線通信であってもよい。また、撮影画像データが格納された二次記憶媒体を受け渡すことにより、撮影画像データを取得してもよい。また、撮影画像処理プログラムの実行は、パーソナルコンピュータ500に限られるものではなく、店頭あるいはオンラインのプリントサービス設備等で実行してもよい。
Note that the transfer of captured image data between the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
また、特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示していない限り、あるいは、前の処理の出力を後の処理で用いない限り、任意の順序で実現し得ることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するとは限らない。 In addition, the execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the specification, and the drawings is particularly “before”, “ It should be noted that it can be realized in any order unless it is clearly indicated as “prior to” or the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it does not necessarily mean that implementation in this order is essential. Absent.
11〜31 被写体、100 デジタルカメラ、110 筐体、120 鏡筒、122 撮影レンズ、130 発光窓、140 操作部、141 十字キー、142 電源スイッチ、143 背面ボタン、144 レリーズボタン、146 ズームレバー、150 背面表示部、200 内部回路、201 制御部、202 画像取得部、203 撮影画像処理部、210 CPU、220 表示駆動部、230 プログラムメモリ、240 メインメモリ、250 被写体抽出部、260 不要被写体推定部、270 主要被写体推定部、280 画像選択部、310 撮像素子駆動部、312 撮像素子、320 アナログ/デジタル変換部、330 画像処理部、332 二次記憶媒体、340 自動合焦部、350 測光センサ、360 変倍駆動部、370 入力部、410 撮影画像群、41−1、41−2、41−3、41−4、41−5、41−6、41−7・・・41−n 撮影画像、421、422 被写界、500 パーソナルコンピュータ、510 ケーブル、520 ディスプレイ、530 本体部、532 光学ドライブ、540 キーボード 11 to 31 Subject, 100 Digital camera, 110 Case, 120 Lens barrel, 122 Shooting lens, 130 Light emission window, 140 Operation unit, 141 Cross key, 142 Power switch, 143 Rear button, 144 Release button, 146 Zoom lever, 150 Rear display unit, 200 internal circuit, 201 control unit, 202 image acquisition unit, 203 captured image processing unit, 210 CPU, 220 display drive unit, 230 program memory, 240 main memory, 250 subject extraction unit, 260 unnecessary subject estimation unit, 270 Main subject estimation unit, 280 Image selection unit, 310 Image sensor driving unit, 312 Image sensor, 320 Analog / digital conversion unit, 330 Image processing unit, 332 Secondary storage medium, 340 Automatic focusing unit, 350 Photometric sensor, 360 Magnification drive unit, 37 Input unit, 410 photographed image group, 41-1, 41-2, 41-3, 41-4, 41-5, 41-6, 41-7 ... 41-n photographed image, 421, 422 , 500 personal computer, 510 cable, 520 display, 530 main unit, 532 optical drive, 540 keyboard
Claims (13)
前記複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出部と、
前記複数の画像のうちの少なくともいずれかの画像に基づいて、前記複数の被写体のいずれが不要被写体かを推定する不要被写体推定部と、
前記複数の被写体のうちから前記不要被写体を除いた被写体候補に基づいて、主要被写体を推定する主要被写体推定部と、を有することを特徴とする画像処理装置。 An image acquisition unit for acquiring a plurality of images captured in time series;
A subject extraction unit that extracts a plurality of different subjects included in the plurality of images;
An unnecessary subject estimation unit that estimates which of the plurality of subjects is an unnecessary subject based on at least one of the plurality of images;
An image processing apparatus comprising: a main subject estimation unit configured to estimate a main subject based on subject candidates obtained by removing the unnecessary subject from the plurality of subjects.
主要被写体決定部が決定した前記主要被写体のコントラストがより大きい画像、前記主要被写体の占める面積がより大きい画像、および、前記主要被写体の位置がより中央に近い画像の少なくともいずれか
を選択する請求項3に記載の画像処理装置。 The image selection unit includes an image having a smaller contrast of the unnecessary subject estimated by the unnecessary subject determination unit, an image having a smaller area occupied by the unnecessary subject, and a position of the unnecessary subject among the plurality of images. At least one of the images close to the periphery, and
The at least one of an image having a larger contrast of the main subject determined by the main subject determination unit, an image having a larger area occupied by the main subject, and an image in which the position of the main subject is closer to the center is selected. The image processing apparatus according to 3.
前記不要被写体推定部は、前記顔を個別に評価することにより前記不要被写体を推定する請求項1から請求項5までのいずれか一項に記載の画像処理装置。 The subject extraction unit detects a face for each of the plurality of subjects,
The image processing apparatus according to claim 1, wherein the unnecessary subject estimation unit estimates the unnecessary subject by evaluating the face individually.
ユーザから操作されるレリーズボタンと、
前記レリーズボタンの一度の操作に対して、前記複数の画像を撮像する撮像部と
を備える撮像装置。 The image processing apparatus according to any one of claims 1 to 10,
A release button operated by the user,
An imaging apparatus comprising: an imaging unit that captures the plurality of images for one operation of the release button.
前記複数の画像に含まれる互いに異なる複数の被写体を抽出する被写体抽出手順と、
前記複数の画像のうちの少なくともいずれかの画像に基づいて、前記複数の被写体のいずれが不要被写体かを推定する不要被写体推定手順と、
前記複数の被写体のうちから前記不要被写体を除いた被写体候補に基づいて、主要被写体を推定する主要被写体推定手順と、
を計算機に実行させる画像処理プログラム。 An image acquisition procedure for acquiring a plurality of images captured in time series;
A subject extraction procedure for extracting a plurality of different subjects included in the plurality of images;
An unnecessary subject estimation procedure for estimating which of the plurality of subjects is an unnecessary subject based on at least one of the plurality of images;
A main subject estimation procedure for estimating a main subject based on subject candidates obtained by removing the unnecessary subject from the plurality of subjects;
An image processing program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011145537A JP2013012993A (en) | 2011-06-30 | 2011-06-30 | Image processing device, imaging device, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011145537A JP2013012993A (en) | 2011-06-30 | 2011-06-30 | Image processing device, imaging device, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013012993A true JP2013012993A (en) | 2013-01-17 |
Family
ID=47686482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011145537A Pending JP2013012993A (en) | 2011-06-30 | 2011-06-30 | Image processing device, imaging device, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013012993A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150070526A1 (en) * | 2012-04-09 | 2015-03-12 | Sony Corporation | Display control device, display control method, and program |
JP2016189544A (en) * | 2015-03-30 | 2016-11-04 | 富士フイルム株式会社 | Image pickup device, image pickup method, program and recording medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005142696A (en) * | 2003-11-05 | 2005-06-02 | Seiko Epson Corp | Still picture data generating apparatus and still picture data generating method |
JP2005260894A (en) * | 2004-03-15 | 2005-09-22 | Fuji Photo Film Co Ltd | Image pickup device, image pickup method, and image pickup program |
JP2005341017A (en) * | 2004-05-25 | 2005-12-08 | Casio Comput Co Ltd | Camera apparatus and program |
JP2007020104A (en) * | 2005-07-11 | 2007-01-25 | Fujifilm Holdings Corp | Imaging apparatus, and method and program for managing number of photographed pictures |
JP2010147715A (en) * | 2008-12-17 | 2010-07-01 | Hoya Corp | Imager |
JP2010239467A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Image selection device, method for selecting image and program |
JP2010251841A (en) * | 2009-04-10 | 2010-11-04 | Nikon Corp | Image extraction program and image extraction device |
-
2011
- 2011-06-30 JP JP2011145537A patent/JP2013012993A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005142696A (en) * | 2003-11-05 | 2005-06-02 | Seiko Epson Corp | Still picture data generating apparatus and still picture data generating method |
JP2005260894A (en) * | 2004-03-15 | 2005-09-22 | Fuji Photo Film Co Ltd | Image pickup device, image pickup method, and image pickup program |
JP2005341017A (en) * | 2004-05-25 | 2005-12-08 | Casio Comput Co Ltd | Camera apparatus and program |
JP2007020104A (en) * | 2005-07-11 | 2007-01-25 | Fujifilm Holdings Corp | Imaging apparatus, and method and program for managing number of photographed pictures |
JP2010147715A (en) * | 2008-12-17 | 2010-07-01 | Hoya Corp | Imager |
JP2010239467A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Image selection device, method for selecting image and program |
JP2010251841A (en) * | 2009-04-10 | 2010-11-04 | Nikon Corp | Image extraction program and image extraction device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150070526A1 (en) * | 2012-04-09 | 2015-03-12 | Sony Corporation | Display control device, display control method, and program |
US9712750B2 (en) * | 2012-04-09 | 2017-07-18 | Sony Corporation | Display control device and associated methodology of identifying a subject in an image |
JP2016189544A (en) * | 2015-03-30 | 2016-11-04 | 富士フイルム株式会社 | Image pickup device, image pickup method, program and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5246275B2 (en) | Imaging apparatus and program | |
JP5484631B2 (en) | Imaging apparatus, imaging method, program, and program storage medium | |
TWI549501B (en) | An imaging device, and a control method thereof | |
JP4582212B2 (en) | Imaging apparatus and program | |
JP6267502B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP5713055B2 (en) | Imaging apparatus, imaging method, and program | |
JP5789091B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2010177894A (en) | Imaging apparatus, image management apparatus, image management method, and computer program | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
US20090190909A1 (en) | Imaging apparatus, imaging apparatus control method, and computer program | |
JP2010252236A (en) | Image capturing apparatus and data structure of image file | |
JP2011077754A (en) | Camera, and recording method therefor | |
US8237802B2 (en) | Method and apparatus for determining shaken image by using auto focusing | |
KR20090095649A (en) | Imaging apparatus | |
JP2010279054A (en) | Image pickup device, image processing device, image pickup method, and image processing method | |
JP5862071B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP2013012940A (en) | Tracking apparatus and tracking method | |
US8571404B2 (en) | Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method | |
JP2007049631A (en) | Imaging apparatus | |
JP2009081636A (en) | Image recording apparatus and photographing method | |
JP4567538B2 (en) | Exposure amount calculation system, control method therefor, and control program therefor | |
JP2010028606A (en) | Image capturing apparatus and method of controlling the same | |
JP2013012993A (en) | Image processing device, imaging device, and image processing program | |
JP2008054031A (en) | Digital camera and display control method | |
JP5045538B2 (en) | Imaging apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150721 |