JP5233458B2 - Image editing apparatus and image editing program - Google Patents
Image editing apparatus and image editing program Download PDFInfo
- Publication number
- JP5233458B2 JP5233458B2 JP2008183798A JP2008183798A JP5233458B2 JP 5233458 B2 JP5233458 B2 JP 5233458B2 JP 2008183798 A JP2008183798 A JP 2008183798A JP 2008183798 A JP2008183798 A JP 2008183798A JP 5233458 B2 JP5233458 B2 JP 5233458B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- image data
- information
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、画像編集装置及び画像編集プログラムに関する。 The present invention relates to image picture editing apparatus and an image editing program.
従来、デジタルカメラ等においては、取得された複数の画像の縮小画像(サムネイル画像)をデジタルカメラに設けられたLCDモニタに表示し、ユーザの意図する原画像を表示することが一般的である。この表示により、ユーザは意図する画像を保存或いは消去するなど、画像を選択することができる。 Conventionally, in a digital camera or the like, it is common to display reduced images (thumbnail images) of a plurality of acquired images on an LCD monitor provided in the digital camera and display an original image intended by the user. By this display, the user can select an image, such as saving or deleting the intended image.
最近では、取得された画像データに対して、加工・編集処理を実行可能な画像編集装置が提案されている(例えば特許文献1参照)。この画像編集装置においては、例えば複数の画像データを1画像データ毎に加工・編集処理を実行し、処理後の画像データを表示するようにしている。
しかしながら、ユーザが意図する画像の検索(以下、画像検索)や、画像検索によって得られた画像に対して加工・編集処理を行う場合には、全ての画像から、ユーザの意図する画像であるか否かを確認する必要があることから、数多くの画像を用いた画像検索や加工・編集処理を実行する場合の作業を効率的に行うことは困難である。 However, when searching for an image intended by the user (hereinafter referred to as an image search) or when processing / editing an image obtained by the image search, is the image intended by the user out of all the images? Since it is necessary to confirm whether or not, it is difficult to efficiently perform operations when executing image search and processing / editing processing using a large number of images.
本発明は、上述した課題を解決するために発明されたものであり、取得された画像データの付帯情報を利用して容易に画像検索や画像編集を行うことができるようにした画像編集装置及び画像編集プログラムを提供することを目的とする。 The present invention relates to an image editing to be able to easily perform image retrieval and image editing utilizing the additional information of Der is, acquisition image data which was invented to solve the problems described above An object is to provide an apparatus and an image editing program.
本発明の画像編集装置は、撮影範囲に含まれる被写体の情報と、該被写体の領域における、少なくともデフォーカス量を含む特性情報とが付帯された画像データを複数記憶する記憶手段と、前記記憶手段に記憶された複数の画像データから、指定された被写体が含まれる画像データを抽出するデータ抽出手段と、前記データ抽出手段により抽出された画像データに付帯された前記特性情報に基づいて、前記指定された被写体の領域におけるデフォーカス量が、予め設定された閾値未満となるか否かを判定する第1の判定手段と、前記指定された被写体の領域におけるデフォーカス量が予め設定された閾値未満となる場合に、前記特性情報を用いて画像補正時に使用するパラメータを設定するパラメータ設定手段と、前記パラメータ設定手段により設定された前記パラメータを用いて前記画像データに対する画像補正処理を実行する画像補正手段と、を備えたことを特徴とする。 The image editing apparatus according to the present invention includes a storage unit that stores a plurality of image data supplemented with information on a subject included in a shooting range and characteristic information including at least a defocus amount in the region of the subject, and the storage unit A data extracting means for extracting image data including the designated subject from the plurality of image data stored in the image data, and the designation based on the characteristic information attached to the image data extracted by the data extracting means. A first determination unit that determines whether or not a defocus amount in a region of the subject that is set is less than a preset threshold; and a defocus amount in the region of the specified subject that is less than a preset threshold The parameter setting means for setting the parameters used at the time of image correction using the characteristic information, and the parameter setting means Ri using the parameter set, characterized by comprising an image correcting means for performing image correction processing on the image data.
また、画像データを受け付ける受付手段と、前記画像データに前記付帯情報が付帯されていない場合に、前記画像データを用いて前記被写体の情報を取得する情報取得手段と、前記被写体の領域における前記特性情報を検出する検出手段と、前記画像データに対して前記被写体の情報及び前記特性情報を付帯して、前記記憶手段に記憶する記憶制御手段と、を備えたものである。A receiving unit configured to receive image data; an information acquiring unit configured to acquire information on the subject using the image data when the supplementary information is not attached to the image data; and the characteristic in the region of the subject. Detection means for detecting information, and storage control means for attaching the subject information and the characteristic information to the image data and storing the information in the storage means.
なお、前記画像データは、撮像時の画面範囲を格子状に分割した複数の領域のそれぞれにおけるデフォーカス量の情報を付帯しており、前記検出手段は、前記複数の領域に対するデフォーカス量の情報から、前記被写体の領域に該当するデフォーカスの情報を前記特性情報として検出することが好ましい。The image data includes information on defocus amounts in each of a plurality of areas obtained by dividing the screen range at the time of imaging in a grid pattern, and the detection unit includes information on the defocus amounts for the plurality of areas. Therefore, it is preferable that defocus information corresponding to the subject area is detected as the characteristic information.
また、前記検出手段は、前記デフォーカス量の情報の他に、前記被写体の領域におけるノイズ量を前記特性情報として検出するものである。 In addition to the defocus amount information, the detection means detects a noise amount in the subject area as the characteristic information .
また、前記パラメータ設定手段は、前記特性情報から得られるパラメータが、前記画像補正処理が可能なパラメータの範囲を超える場合に、前記パラメータの範囲の上限値を、前記画像補正処理に用いるパラメータとして設定するものである。The parameter setting means sets an upper limit value of the parameter range as a parameter used for the image correction process when a parameter obtained from the characteristic information exceeds a parameter range that can be subjected to the image correction process. To do.
また、前記画像補正手段により画像補正処理が施された画像データに基づく画像を表示する表示手段を、備えるものである。Further, the image processing apparatus includes display means for displaying an image based on the image data subjected to image correction processing by the image correction means.
また、前記画像補正手段により補正された画像データに基づく画像において、画質破綻が生じる領域が発生したか否かを判定する第2の判定手段と、前記画質破綻が生じている領域があると判定された場合に、前記画質破綻が生じた領域を除いた領域をクロップ領域として設定する領域設定手段と、を備えているものである。In addition, in the image based on the image data corrected by the image correction unit, it is determined that there is a second determination unit that determines whether or not a region where an image quality failure has occurred and an area where the image quality failure occurs. And an area setting unit that sets an area excluding the area where the image quality is broken as a crop area.
また、前記被写体を指定する際に操作される入力操作手段を備えているものである。 In addition, input operation means operated when designating the subject is provided.
また、本発明の画像編集プログラムは、前記被写体を指定する指定工程と、撮影範囲に含まれる被写体の情報と、該被写体の領域における、少なくともデフォーカス量を含む特性情報とが付帯された複数の画像データから、前記指定された被写体が含まれる画像データを抽出するデータ抽出工程と、前記データ抽出工程により抽出された画像データに付帯された前記特性情報に基づいて、前記被写体の領域におけるデフォーカス量が、予め設定された閾値未満となるか否かを判定する判定工程と、前記被写体の領域におけるデフォーカス量が予め設定された閾値未満となる場合に、前記特性情報を用いて画像補正時に使用するパラメータを設定するパラメータ設定工程と、前記パラメータ設定工程により設定された前記パラメータを用いて前記画像データに対する画像補正処理を実行する画像補正工程と、を備えたことを特徴とする。Further, the image editing program of the present invention includes a plurality of steps including a designation step for designating the subject, information on the subject included in the shooting range, and characteristic information including at least a defocus amount in the subject area. A data extraction step for extracting image data including the designated subject from image data, and defocusing in the region of the subject based on the characteristic information attached to the image data extracted by the data extraction step A determination step for determining whether or not the amount is less than a preset threshold value, and when the defocus amount in the subject area is less than a preset threshold value, when performing image correction using the characteristic information A parameter setting step for setting parameters to be used, and the parameters set in the parameter setting step Characterized by comprising an image correcting step of performing the image correction process, the the image data.
また、本発明の画像編集装置や画像編集プログラムによれば、画像の取得時に得られる被写体情報及び特性情報から画像補正時のパラメータを容易に算出することができるので、画像を見ながら適正な画像補正をユーザが指定しなくとも、自動的に効率的な編集作業を行うことができる。 In addition, according to the image editing apparatus and the image editing program of the present invention, it is possible to easily calculate parameters at the time of image correction from subject information and characteristic information obtained at the time of image acquisition. Even if the user does not specify correction, efficient editing can be performed automatically.
図1はデジタルカメラ10の構成の一例を示す概略図である。デジタルカメラ10はカメラ本体11とレンズ鏡胴12とから構成され、レンズ鏡胴12がカメラ本体11に対して着脱可能となっている。レンズ鏡胴12の内部には撮像光学系13が配置される。この撮像光学系13を構成するズームレンズやフォーカスレンズは、レンズ鏡胴12をカメラ本体11に取り付けたときに、カメラ本体11に設けられたレンズ駆動部15によって、光軸Lに沿って移動制御される。
FIG. 1 is a schematic diagram illustrating an example of the configuration of the digital camera 10. The digital camera 10 includes a
カメラ本体11の内部には、撮影機構として、ミラーボックス20、フォーカルプレーンシャッタ21、例えばCCD等の撮像素子22が光軸Lに沿って配置される。
Inside the
ミラーボックス20の内部には、クイックリターンミラー25と、このクイックリターンミラー25の背面に付設されたサブミラー26とが配置される。クイックリターンミラー25は、その中央部が光を透過するハーフミラーになっている。このクイックリターンミラー25は図中実線で示す観察位置と、図中点線で示す退避位置との間で切り替え可能である。なお、符号27はミラー駆動部であり、ミラー駆動部27によって、クイックリターンミラー25が観察位置と退避位置との間で切り替えられる。
Inside the
例えば、クイックリターンミラー25が観察位置にあるときには、クイックリターンミラー25がフォーカルプレーンシャッタ21及び撮像素子22の前方で傾斜しており、撮像光学系12から撮像素子22までの撮像光路に対して交差した状態にある。この状態では、撮像光学系12を通過した光束のうち、クイックリターンミラー25の中央部に到達する光束のみがクイックリターンミラー25を透過し、サブミラー26に導かれる。サブミラー26へと導かれた光束は、サブミラー26にて下方に反射され、後述するAFセンサ30に導かれる。一方、クイックリターンミラー25を透過しない残りの光束は、クイックリターンミラー25により上方に反射される。
For example, when the
また、クイックリターンミラー25が退避位置にあるときには、クイックリターンミラー25は観察位置から上方に跳ね上げられることから、撮像光路から外れる。クイックリターンミラー25が退避位置にある場合には、撮像光学系13を通過した光束はフォーカルプレーンシャッタ21及び撮像素子22に導かれる。
Further, when the
カメラ本体11には、AF(オートフォーカス)センサ30、AF用補助光源31がさらに配置される。AFセンサ30は、撮像光学系13における焦点状態を検出するものである。図2に示すように、AFセンサ30は、撮像素子22の撮像範囲と同一の大きさからなる受光面30aを備えている。このAFセンサ30の受光面30aを例えば縦5個×横5個の計25個の領域(図2中符号35〜59)に分割し、それら分割された領域のそれぞれを、焦点状態の測定(フォーカス測定)を行う領域(AFエリア)としている。図2においては、各AFエリアの中心を+印で示してある。例えばフォーカス制御時の焦点評価領域を指定せずにオートフォーカス制御(自動合焦動作)を行う場合、レリーズボタンが半押し操作されると、焦点評価領域として中央のAFエリア47が指定される。一方、ユーザが焦点評価領域を指定してオートフォーカス制御を行う場合には、焦点評価領域として、ユーザによる操作部71の操作時に選択されたAFエリアが指定される。
The
また、レリーズボタンが全押し操作されたときには、上述した25個のAFエリア35〜59の全てでフォーカス測定される。なお、フォーカス測定の結果は、メモリ77に記憶される。
When the release button is fully pressed, focus measurement is performed in all of the 25
図1に戻って、ミラーボックス20の上方には、焦点光学系として、焦点板65と、コンデンサレンズ66と、ペンタプリズム67と、接眼レンズ68とが配置される。焦点板65は、観察位置にあるクイックリターンミラー25で反射された光束を一旦結像させる。焦点板65上で結像した光束はコンデンサレンズ66およびペンタプリズム67を通過し、ペンタプリズム67の入射面に対して90°偏向した射出面からカメラ本体11の後方に導かれ、接眼レンズ68を介してファインダを覗くユーザの眼に投影される。上述した焦点板65上で結像した光束の一部は、コンデンサレンズ66およびペンタプリズム67を通過した後、ペンタプリズム67の近傍に設けられたAEセンサ69に導かれ、被写体の輝度値の測定を行う。
Returning to FIG. 1, a focusing plate 65, a
液晶モニタ70はカメラ本体11の背面に設けられ、画像表示の他に、操作メニューや設定内容などが表示される。操作部71は、撮像時の設定や、画像表示などの際に操作される。なお、この操作部71は、上述したレリーズボタンを含んで構成される。メモリカードには、後述する画像処理部76において記憶保存用の画像データに画像処理された画像データIDが記憶される。このメモリカード80に記憶される画像データIDは、後述する被写体情報や特性情報を付帯情報とした画像データIDである。
The
このデジタルカメラ10は、制御部75によって統括的に制御される。制御部75は、予め記憶されたプログラムに基づいて、カメラ本体11の各部の動作を制御する。カメラ本体11の各部の動作としては、例えば、使用するフォーカスモードやAFエリアの設定、AF演算やAE演算、液晶モニタ70の表示制御、レンズ駆動部15の制御、ミラー駆動部27の制御などが挙げられる。
The digital camera 10 is comprehensively controlled by the control unit 75. The control unit 75 controls the operation of each unit of the
画像処理部76は、撮像素子22の出力に基づいた画像データIDに対して、輪郭補償、ガンマ補正、ホワイトバランス調整等の処理を行う。この画像処理部76によって画像処理された画像データIDは、メモリ77に記憶される。
The
被写体情報取得部78は、画像データIDから被写体を検出する。被写体を検出する方法としては、例えば被写体が人物である場合には、画像データIDから目、口などの特徴量を求めることで顔検出を行い、被写体を検出することが挙げられる。被写体を検出する方法としては、人物、動物、植物の他に、ランドマーク等の基準パターンを予め記録させておき、この基準パターンを用いたパターンマッチングにより被写体を検出する方法が挙げられる。
The subject
被写体情報取得部78は、画像データIDから被写体が検出されたときに、検出された被写体の領域(以下、被写体領域)を特定する。図3に示すように、例えば画像範囲90を、AFエリアに対応した縦5個×横5個の計25個の領域A1〜A25に分割し、画像P1から検出された被写体が該当する領域を被写体領域として特定する。なお、図3においては、図の煩雑さを解消するために、撮像された画像P1と、複数の領域に分割される画像範囲90とを別個に示している。なお、本実施形態では、画像範囲90を分割して得られる複数の領域のそれぞれの領域は、AFエリアの各エリアと対応している。
When the subject is detected from the image data ID, the subject
例えば撮像された画像P1から被写体として人物X、人物Yが検出された場合には、人物Xの被写体領域は、領域A12,A17,A22となり、人物Yの被写体領域は領域A13,A18,A23となる。この被写体情報取得部78において、被写体(特徴量を含む)が検出され、被写体領域が特定されると、制御部75は、これらを被写体情報として画像データIDに付帯する。これと同時に、制御部75は、特定された被写体領域に対応するAFエリアのデフォーカス量を特性情報の一つとして画像データIDに付帯する。なお、画像データに付帯されるデフォーカス量は、被写体領域に対応するAFエリアのデフォーカス量としているが、全AFエリアのそれぞれのエリアにおけるデフォーカス量を特性情報として付帯してもよい。
For example, when a person X and a person Y are detected as subjects from the captured image P1, the subject areas of the person X are areas A12, A17, and A22, and the subject areas of the person Y are areas A13, A18, and A23. Become. When a subject (including a feature amount) is detected in the subject
ノイズ量算出部79は、被写体領域検出部78において検出された被写体領域におけるノイズ量を算出する。図3に示すように、人物Xの被写体領域が領域A12,A17,A22となる場合には、領域A12,A17,A22におけるノイズ量をそれぞれ算出する。なお、ノイズ量の算出方法としては、以下の方法が挙げられる。
The noise
自動露出(AE)制御時の動作は、測光データに基づいて、絞り、シャッタ速度、画像データの増幅率を適応的に変化させることで実現される。また、個別領域毎の自動露出制御を行う場合には、個別領域の画像データを適応的に増幅することもできる。本実施形態では、例えば画像データの増幅率を用いてノイズ量を算出する。つまり、画像データの増幅率が大きければ大きいほど、ノイズ量が多いと判断する。この場合、予め増幅率とノイズ量とを対応付けたテーブルデータを予め用意しておけばよい。この他に、例えば撮像素子の温度が高いとノイズ量が大きくなることがわかっていることから、撮像時における撮像素子の温度を検出して、検出された温度からノイズ量を求めることも可能である。 The operation during automatic exposure (AE) control is realized by adaptively changing the aperture, shutter speed, and amplification factor of image data based on photometric data. In addition, when performing automatic exposure control for each individual area, the image data of the individual area can be adaptively amplified. In the present embodiment, for example, the amount of noise is calculated using the amplification factor of the image data. That is, it is determined that the larger the amplification factor of the image data, the greater the amount of noise. In this case, table data in which the amplification factor and the noise amount are associated in advance may be prepared in advance. In addition, for example, it is known that the amount of noise increases when the temperature of the image sensor is high. Therefore, it is possible to detect the temperature of the image sensor at the time of imaging and obtain the noise amount from the detected temperature. is there.
なお、このノイズ量算出部79にて算出された各被写体領域のノイズ量は、それぞれ特性情報の一つとして画像データIDに付帯される。
The noise amount of each subject area calculated by the noise
次に、撮像時の操作の流れを図4のフローチャートに基づいて説明する。デジタルカメラ10における撮像処理は以下の手順で実行される。 Next, the flow of operations during imaging will be described based on the flowchart of FIG. The imaging process in the digital camera 10 is executed according to the following procedure.
ステップS301:ユーザは、デジタルカメラ10の撮像光学系13を被写体に向け、操作部71のレリーズボタンを半押しする。
Step S301: The user points the imaging
ステップS302:レリーズボタンの半押し時に得られるAEセンサ69の輝度値情報を用いて、制御部75は、被写体の明るさを判断する。この判断において、被写体が暗い(輝度値が所定値より低い)場合、AF用補助光源31を投光させる。一方、被写体が十分に明るい(輝度値が所定値より高い)と判断した場合は、AF用補助光源31を投光させる処理は省略される。
Step S302: Using the luminance value information of the
ステップS303:レリーズボタンを半押しした状態で、制御部75は、前述のようにAFセンサ30の予め指定したAFエリアからデフォーカス量を取り込んで、撮像光学系13のフォーカスレンズにおける合焦位置を求める。例えば、焦点評価領域を指定せずにオートフォーカス制御を行う場合には、例えば図2に示すAFエリア47におけるデフォーカス量が取り込まれる。一方、マニュアルでフォーカス制御を行う場合には、ユーザが選択したAFエリアにおけるデフォーカス量を取り込んで、撮像光学系13における合焦位置を求める。
Step S303: With the release button half-pressed, the control unit 75 takes in the defocus amount from the pre-designated AF area of the
ステップS304:制御部75は、ステップS303で求めた合焦位置に撮像光学系13を合わせるように、レンズ駆動部15に指令する。
Step S304: The control unit 75 instructs the lens driving unit 15 to align the imaging
ステップS305:レンズ駆動部15により、撮像光学系13のフォーカスレンズを合焦位置に移動させ、フォーカスを固定する。すなわち、レリーズボタンの半押し状態が維持されている間は撮像光学系13のフォーカスレンズの位置が固定され焦点状態が維持されている(フォーカスロック)。なお、フォーカスロック後は、レリーズボタンの半押状態が解除され、再度レリーズボタンが半押しされるまで撮像光学系13のフォーカスレンズにおける焦点調節動作は行われない。
Step S305: The lens driving unit 15 moves the focus lens of the imaging
ステップS306:ユーザは、レリーズボタンを半押ししたままデジタルカメラ10を左右上下に動かして構図を修正する。なお、構図を修正しない場合には、このステップS306は省略される。 Step S306: The user corrects the composition by moving the digital camera 10 left and right and up and down while pressing the release button halfway. If the composition is not corrected, step S306 is omitted.
ステップS307:ユーザは、半押ししていたレリーズボタンをそのまま全押しして撮像動作を行う。レリーズボタンが全押し操作されると、制御部75は、操作部71のレリーズボタンが全押しされたことを認識する。
Step S307: The user performs an imaging operation by fully pressing the release button that has been half-pressed as it is. When the release button is fully pressed, the control unit 75 recognizes that the release button of the
ステップS308:レリーズボタンの全押し操作が認識されると、ステップS302と同様に、被写体が暗い(輝度値が所定値より低い)と判断した場合、AF用補助光源31を投光させる。 Step S308: When the full press operation of the release button is recognized, the AF auxiliary light source 31 is projected when it is determined that the subject is dark (the luminance value is lower than a predetermined value), as in step S302.
ステップS309:制御部75は、AFセンサ30の全AFエリアからデフォーカス量を取り込んで、メモリ77に記憶する。AF補助光源31が投光されている場合は、AFセンサ30によるデフォーカス量の取得が終了した後にAF補助光源31を消灯する。
Step S <b> 309: The control unit 75 takes in the defocus amount from all the AF areas of the
ステップS310:制御部75は、ミラー駆動部27に指令して、ミラーボックス20のクイックリターンミラー25およびサブミラー26を退避位置に移動させる。
Step S310: The control unit 75 instructs the
ステップS311:制御部75は、フォーカルプレーンシャッタ21を所定のシャッタ速度で開く。このフォーカルプレーンシャッタ21が開いたときに、撮像素子22にて光電変換された画像信号を、メモリ77に記憶する。その後、メモリ77に記憶された画像データIDは画像処理部76によって画像処理され、画像処理された後の画像データIDがメモリ77に記憶される。
Step S311: The control unit 75 opens the
ステップS312:制御部75は、フォーカルプレーンシャッタ21を閉じると共に、ミラー駆動部27に指令して、ミラーボックス20のクイックリターンミラー25およびサブミラー26を待避位置から観察位置に復帰させる。
Step S312: The control unit 75 closes the
ステップS313:被写体情報取得部78を制御して、記憶された画像データIDから被写体を検出する。被写体を検出した後、被写体領域が特定される。図3に示すように、画像P1から検出された被写体が人物X,人物Yとすると、これら人物X、人物Yの被写体領域を特定する。画像範囲90をAFエリアのそれぞれに対応するように、複数の領域A1〜A25に分割した場合、人物Xの被写体領域は領域A12,A17,A22、人物Yの被写体領域は、領域A13,A18,A23となる。
Step S313: The subject
ステップS314:ステップS313において特定された被写体領域のそれぞれについてノイズ量を算出する。このステップS314の処理は、例えば予め増幅率とノイズ量とを対応付けたテーブルデータを用いて、画像データの増幅率に対応するノイズ量を求める。 Step S314: A noise amount is calculated for each of the subject areas specified in step S313. In the process of step S314, for example, the noise amount corresponding to the amplification factor of the image data is obtained using table data in which the amplification factor and the noise amount are associated in advance.
ステップS315:制御部75は、ステップS309にて求めたそれぞれのAFエリアのデフォーカス量と、ステップS314にて算出したノイズ量とを、特性情報として画像データIDに付帯する。これと同時に、制御部75は、ステップS313にて検出された被写体の特徴量や被写体領域を被写体情報として画像データIDに付帯する。 Step S315: The control unit 75 attaches the defocus amount of each AF area obtained in step S309 and the noise amount calculated in step S314 to the image data ID as characteristic information. At the same time, the control unit 75 attaches the feature amount or subject area of the subject detected in step S313 to the image data ID as subject information.
以上の撮像動作を終了して、再び、撮像待機状態に戻る。このようにして、撮像される毎に、被写体の検出、被写体領域の特定、ノイズ量の算出が行われ、これら情報が画像データIDに付帯されていく。なお、上述した特性情報や被写体情報が付帯された画像データIDは、メモリカード80に記憶される。
The above imaging operation is terminated, and the imaging standby state is resumed. In this way, each time an image is taken, the subject is detected, the subject area is specified, and the amount of noise is calculated, and these pieces of information are attached to the image data ID. Note that the image data ID accompanied with the above-described characteristic information and subject information is stored in the
尚、上記のフローチャートでは、ステップS307でレリーズボタンを全押し操作してから撮影動作が終了するまでの処理を細かく分けて説明したが、実際には、ステップS307からS315までの動作は、非常に短い時間内に行われる。 In the above flow chart, the processing from the pressing of the release button fully in step S307 to the end of the shooting operation has been described in detail, but actually, the operations from step S307 to S315 are very different. Done in a short time.
次に、上述した撮像処理が行われることで得られた画像データIDを編集する場合について説明する。図5は、画像編集装置100の構成を示す概略図である。なお、図5においては、メモリカード80をメモリスロット115に挿入することで画像データIDを読み出すことができる画像編集装置100としているが、上述したデジタルカメラ10と画像編集装置100とをUSBケーブル等の接続手段を用いて電気的に接続し、メモリカード80に記憶された画像データIDを画像編集装置100にて読み出すようにしてもよい。
Next, a case where the image data ID obtained by performing the above-described imaging process is edited will be described. FIG. 5 is a schematic diagram illustrating the configuration of the image editing apparatus 100. In FIG. 5, the image editing apparatus 100 that can read the image data ID by inserting the
画像編集装置100は、CPU101、データ処理部102、データベース103、LCDモニタ104等を備えており、これらがバス105によって接続されている。CPU101は、予め記憶されたプログラムに基づいて画像編集装置100の各部を制御する。このCPU101はプログラムを実行することで、被写体情報取得部110、ノイズ量算出部111、被写体特定部112及び画像抽出部113として機能する。なお、被写体情報取得部110、ノイズ量検出部111については、図1に示す被写体情報取得部78及びノイズ量検出部79と同一の機能を有していることから、ここでは詳細については省略する。
The image editing apparatus 100 includes a
被写体特定部112は、メモリスロット115に差し込まれたメモリカード80から画像データIDを読み出し、画像データIDに付帯された被写体情報から、画像内に含まれる被写体を特定する。この被写体の特定は、データベース103に格納された基本データ116を用いて実行される。基本データ116は、名称(氏名や通称など)と、名称を示す画像データや特徴量を示すデータが対応付けられたデータである。なお、データベース103には、人物、人物を除く動物、植物、昆虫、ランドマークなどが、それぞれ分類されている。つまり、基本データが人物を示す場合には、画像データとして顔画像データが挙げられ、特徴量としては、目、口、顔の輪郭などが挙げられる。また、対象が人物を除く動物、植物、昆虫及びランドマークとなる場合には、顔画像データの代わりに、これら対象を特定できる画像データが用いられる。被写体特定部112は、被写体情報から被写体の特徴量を読み出し、基本データの特徴量と比較することで、該当する被写体の特定、つまり、被写体の名称(氏名や正式名称など)が特定される。なお、特定された被写体の名称は、画像データIDに付帯された被写体情報に書き加えられる。
The
画像抽出部113は、データベース103に記憶された画像データIDに付帯された被写体情報を参照しながら、指定された被写体(例えば人物の氏名など)が含まれる画像データIDを検索する。なお、被写体の指定は、例えばユーザが操作部116を操作することで実行可能となる。入力された被写体の種類に該当する画像データIDがある場合には、その画像データIDのデータ名をメモリ125に記憶する。
The
データ処理部102は、データベース103に記憶された画像データIDから指定された画像データIDが検索された場合に、検索された画像データIDに対して画像補正を行う。このデータ処理部102は、ハイパスフィルタ120、コアリング回路121、調整回路122及び加算回路123を備えている。
When the designated image data ID is retrieved from the image data ID stored in the
ハイパスフィルタ120は、画像データIDにおける空間周波数のうち、予め設定された遮断周波数よりも低い周波数の帯域を遮断することで、遮断周波数よりも高い周波数を抽出する。コアリング回路121は、ハイパスフィルタ120によって高周波成分が抽出された画像データIDにおけるノイズ成分を除去する。調整回路122は、ハイパスフィルタ120における遮断周波数を調整する他に、コアリング回路121において除去対象となるノイズ成分の波長域を調整する。
The
加算回路123は、データ処理部102に入力された画像データIDに対して、ハイパスフィルタ120及びコアリング回路121によって高周波成分のみが抽出された画像データIDを加算する処理を行う。この加算回路123によって、遮断周波数以上の周波数成分が強調された画像データIDが生成される。なお、このデータ処理部102によって画像補正された画像データIDはメモリ125に記憶される。
The
LCDモニタ104は、入力画面を表示する、又は画像補正された画像データIDを用いた画像表示を行う。なお、符号126は表示制御部であり、この表示制御部126によってLCDモニタ104の表示制御が実行される。データベース103は、画像データIDから検出された被写体の名称を特定するための基本データ116や、デジタルカメラ10にて取得された画像データIDが格納される。操作部127は、意図する画像データIDを検索する際や、検出された画像データIDを選択する等の入力操作を行う。
The
次に、データベース103に画像データIDを記憶する際の手順について図6に示すフローチャートに基づいて説明する。メモリスロット115にメモリカード80が差し込まれると、ステップS401の処理が開始される。
Next, the procedure for storing the image data ID in the
ステップS401:CPU101は、メモリスロット115に差し込まれたメモリカード80から画像データIDを取り込む。
Step S401: The
ステップS402:CPU101は、ステップS401の処理を行うことで取り込まれた画像データIDから付帯情報の読み取りを行う。
Step S402: The
ステップS403:CPU101は、ステップS402の処理で読み取られた画像データIDの付帯情報として被写体情報があるか否かを判定する。このステップS403において、付帯情報として被写体情報がないと判定された場合には、ステップS404に進む。一方、付帯情報として被写体情報があると判定された場合には、ステップS407に進む。
Step S403: The
ステップS404:ステップS403において被写体情報が付帯情報にないと判定された場合の処理である。このステップS404においては、被写体情報取得部110により画像データIDから被写体が検出される。このステップS404の処理は、図4に示すフローチャートのステップS113の被写体を検出する処理と同様であるので、ここでは省略する。
Step S404: This is processing when it is determined in step S403 that the subject information is not included in the supplementary information. In step S404, the subject
ステップS405:ステップS404において被写体が検出された場合に、被写体領域を特定する処理である。このステップS405の処理は、ステップS404の処理と同様に被写体情報取得部110で実行される。図4に示すフローチャートのステップS113の被写体領域を特定する処理と同様であるので、ここでは省略する。
Step S405: Processing for specifying a subject area when a subject is detected in step S404. The processing in step S405 is executed by the subject
ステップS406:ステップS404の処理を実行したときに検出された被写体の特徴量、及びステップS405の処理を実行したときに得られる被写体領域を被写体情報として画像データIDに付帯する処理である。なお、被写体が検出されない場合には、ステップS405及びステップS406の処理は省略される。 Step S406: This is a process for attaching the feature amount of the subject detected when the process of step S404 is executed and the subject area obtained when the process of step S405 is executed to the image data ID as subject information. If no subject is detected, the processes in steps S405 and S406 are omitted.
ステップS407:CPU101は、画像データIDの付帯情報に、特性情報があるか否かを判定する処理である。このステップS407において、付帯情報として特性情報がない場合にはステップS408に進む。一方、付帯情報として特性情報がある場合にはステップS410に進む。
Step S407: The
ステップS408:ノイズ量算出部111は、被写体領域におけるノイズ量を算出する。この処理については、図4に示すフローチャートのステップS314の処理と同一であることから、その詳細を省略する。
Step S408: The noise
ステップS409:CPU101は、算出されたノイズ量を特性情報とする付帯情報を画像データIDに付帯する処理である。つまり、ステップS409の処理が実行されることで、画像データIDの付帯情報が更新される。
Step S409: The
ステップS410:被写体特定部112は、画像データIDの被写体情報を用いて、被写体の特定を行う処理である。このステップS410を行うことで、画像から検出された被写体の名称が特定される。被写体の名称が特定されると、特定された名称が被写体情報に書き加えられ、画像データIDが更新される。
Step S410: The
ステップS411:CPU101は、ステップS410において更新された画像データIDをデータベース103に格納する。なお、この格納方法としては、例えば特定された名称と同一の名称の画像データが格納されている場合には、それら画像データと、新たに格納する画像データとを関連付けて格納される。これにより、データベース103が更新される。
Step S411: The
次に、画像編集装置100を用いて画像検索を行う手順について図7のフローチャートを用いて説明する。 Next, a procedure for performing an image search using the image editing apparatus 100 will be described using the flowchart of FIG.
ステップS501:ユーザが取得したい被写体の名称、つまり検索対象となる名称を入力する処理である。 Step S501: This is a process of inputting the name of the subject that the user wants to acquire, that is, the name to be searched.
ステップS502:画像抽出部113は、データベース103に格納された画像データIDから該当する画像データIDを抽出する。詳細には、画像抽出部113は、画像データIDに付帯された被写体情報を読み出し、ステップS501において入力された名称と合致するか否かによって対象となる画像データIDを抽出する。なお、入力された名称と合致する被写体を有する画像データIDがある場合には、その画像データIDのデータ名をメモリ125に記憶していく。
Step S502: The
図8に示すように、例えば画像P1、P2、P3の3つの画像から対象となる画像を検索する際に人物Xの名称を入力した場合について説明すると、例えば、画像P1には、人物X、人物Y及び花Zが被写体として検出されていることから、画像P1の画像データIDにおける被写体情報として、これら被写体の名称が記憶されている。同様にして、画像P2の場合は、被写体情報として人物Y及び花Zの名称が、画像P3の場合には、被写体情報として花Zの名称が、それぞれ記憶されている。つまり、ステップS501において、人物Xの名称が入力されている場合には、対象となる画像として画像P1、P2が抽出される。 As illustrated in FIG. 8, for example, when a name of a person X is input when searching for a target image from three images P1, P2, and P3, for example, the image P1 includes a person X, Since the person Y and the flower Z are detected as subjects, the names of these subjects are stored as subject information in the image data ID of the image P1. Similarly, in the case of the image P2, the names of the person Y and the flower Z are stored as subject information, and in the case of the image P3, the name of the flower Z is stored as subject information. That is, if the name of the person X is input in step S501, the images P1 and P2 are extracted as target images.
ステップS503:ステップS502における画像検索の結果を参照して、対象となる画像データIDがあるか否かを判定する処理である。この処理において、対象となる画像データIDがない場合には、LCDモニタ104に、対象となる画像データIDがない旨を示す表示を行い、画像検索を終了する。一方、対象となる画像データIDがある場合には、ステップS504に進む。
Step S503: Processing for determining whether or not there is a target image data ID with reference to the image search result in step S502. In this process, if there is no target image data ID, a display indicating that there is no target image data ID is displayed on the
ステップS504:CPU101は、対象となる画像データIDの付帯情報から、焦点情報を読み出す。なお、この焦点情報は、被写体領域におけるデフォーカス量である。図9に示すように、対象となる画像として画像P1が抽出された場合、画像P1は、被写体として人物X、人物Y及び花Zとなるが、人物Xの画像データIDを検索している場合には、画像P1においては、人物Xの被写体領域がA12、A17、A22となることから、デフォーカス量として、A12、A17、A22のデフォーカス量、つまり0.1、0.3、0.3が読み出される。
Step S504: The
ステップS505:CPU101は、ステップS504において読み出された被写体領域におけるデフォーカス量と、予め設定された閾値とを比較する。なお、ステップS501において入力された名称に対する画像データIDを検索することから、この比較においては、入力された名称に該当する被写体領域のデフォーカス量の平均値を閾値と比較することが挙げられる。
Step S505: The
ステップS506:ステップS505における比較結果が被写体領域におけるデフォーカス量が閾値未満となる場合には、ステップS507に進む。一方、ステップS505における比較結果が被写体領域におけるデフォーカス量が閾値以上となる場合には、ステップS512に進む。つまり、デフォーカス量は、その値が大きくなるにしたがい、画像修復の効果が小さくなることから、デフォーカス量を閾値と比較することで、画像修復の効果が有益なものであるか否かの判断を行うことができる。なお、上述した閾値は、予め設定された閾値であってもよいし、検索時にユーザが設定できるようにしてもよい。 Step S506: If the comparison result in step S505 indicates that the defocus amount in the subject area is less than the threshold value, the process proceeds to step S507. On the other hand, if the comparison result in step S505 indicates that the defocus amount in the subject area is equal to or greater than the threshold value, the process proceeds to step S512. In other words, as the defocus amount increases, the effect of image restoration decreases as the value increases. Therefore, comparing the defocus amount with the threshold value determines whether the effect of image restoration is beneficial. Judgment can be made. Note that the above-described threshold value may be a preset threshold value, or may be set by a user at the time of search.
ステップS507:CPU101は、画像データIDの付帯情報から特性情報を読み出す。なお、この特性情報とは、被写体領域におけるノイズ量である。例えば、図9において、人物Xの被写体領域がA12,A17,A22となる場合には、各領域におけるノイズ量は、0.2、0.3、0.4となる。
Step S507: The
ステップS508:CPU101は、被写体領域におけるデフォーカス量とノイズ量とに基づいて、画像補正を行う際のパラメータを設定する。ステップS505においてデフォーカス量の平均値を求めていることから、デフォーカス量の平均値と、被写体領域におけるノイズ量の平均値を算出して、これら平均値に基づいてパラメータを設定する。つまり、このパラメータは、例えば人物Xの被写体領域のデフォーカス量が擬似的に0となるように設定される。なお、パラメータとは、ハイパスフィルタ120における遮断周波数、及びコアリング回路121において除去対象となるノイズ成分の波長域を示すパラメータである。
Step S508: The
ステップS509:CPU101は、ステップS508において、設定されたパラメータが予め設定された範囲(以下、許容範囲)内であるか否かを判定する。なお、このステップS509の処理は、ステップS506の処理を行う場合には実行しなくともよい。また、このステップS509の処理を実行する場合には、上述したステップS506の処理を実行しなくてもよい。
Step S509: The
ステップS510:ステップS509による判定結果に基づいて以降の処理を決定する。ステップS509においてパラメータが許容範囲内である場合には、ステップS511に進む。一方、パラメータが許容範囲外となる場合には、ステップS512に進む。 Step S510: Subsequent processing is determined based on the determination result in step S509. If the parameter is within the allowable range in step S509, the process proceeds to step S511. On the other hand, if the parameter is out of the allowable range, the process proceeds to step S512.
ステップS511:CPU101は、ステップS508において設定されたパラメータをデータ処理部102に出力する。この出力を受けて、調整回路122はハイパスフィルタ120の遮断周波数及びコアリング回路121において除去対象となるノイズ成分の波長域を調整する。これら調整の後、画像データIDの画像補正(画像修復)が実行される。例えば、画像が画像P1となる場合には、画像P1全体に対して画像補正が行われる。この画像補正処理は、ハイパスフィルタ120及びコアリング回路121によってノイズ成分が除去された高周波成分のみのデータを作成し、作成されたデータと、元になる画像データIDとを重ね合わせる処理である。この処理を行うことで、例えば人物Xに対して擬似的に焦点が合った画像が取得される。この場合、人物Xに対する人物Yの焦点状態の相対関係や、人物Xと花Zとの焦点状態の相対関係が維持された状態の画像補正が実行される。
Step S511: The
ステップS512:CPU101は、抽出された全画像データIDに対して、ステップS504〜ステップS511の処理を行ったか否かを判定する。抽出された全画像データIDに対してステップS504〜ステップS511の処理を行った場合には、ステップS513に進む。一方、抽出された全画像データIDに対してステップS504〜ステップS511の処理を実行していない場合には、ステップS504に戻る。
Step S512: The
ステップS513:CPU101は、画像補正された画像データIDがあるか否かを判定する。画像補正された画像データIDがある場合には、ステップS514に進む。画像補正された画像データIDがない場合には、ステップS515に進む。
Step S513: The
ステップS514:画像補正された画像データIDがある場合に、画像補正された画像データIDをLCDモニタ104に表示する。画像補正された画像データIDをLCDモニタ104に表示する方法としては、例えば、検索対象となる被写体の大きさに基づいて表示する、画像補正におけるパラメータの値が小さい順番で表示する、或いは、撮影日時の新しい順番で表示するなど、適宜の方法で表示することが可能である。また、LCDモニタ104に画像補正後の画像データIDを用いた表示としては、画像データ毎に表示する、或いは、画像補正した画像データからサムネイル画像データを作成し、LCDモニタにサムネイル画像を表示することが挙げられる。
Step S514: If there is an image data ID whose image has been corrected, the image data ID whose image has been corrected is displayed on the
ステップS515:ステップS513の処理において、画像補正された画像データIDがない場合に実行される。このステップS515においては、画像補正された画像データIDがない旨をLCDモニタ104に表示する。これにより、データベース103に格納された画像データを参照しなくとも、容易に画像データIDの検索を行うことができる。
Step S515: This is executed when there is no image-corrected image data ID in the processing of step S513. In step S515, the fact that there is no image-corrected image data ID is displayed on the
本実施形態では、図6に示すステップS410の処理を画像編集装置100において実行しているが、これに限定する必要はなく、図6に示すS410の処理を例えばデジタルカメラ10において実行することも可能である。また、同様にして、図7に示す画像検索の処理を画像編集装置100にて実行せずに、デジタルカメラ10で実行できるようにすることも可能である。 In the present embodiment, the process of step S410 shown in FIG. 6 is executed in the image editing apparatus 100. However, the present invention is not limited to this. For example, the process of S410 shown in FIG. Is possible. Similarly, the image search processing shown in FIG. 7 can be executed by the digital camera 10 without being executed by the image editing apparatus 100.
本実施形態では、デフォーカス量とノイズ量とから、ハイパスフィルタ120における遮断周波数、及びコアリング回路121において除去対象となるノイズ成分の波長域を設定しているが、これに限定する必要はなく、デフォーカス量のみを用いてハイパスフィルタ120やコアリング回路121におけるパラメータを設定することも可能である。
In this embodiment, the cutoff frequency in the high-
本実施形態では、対象となる被写体領域が複数の領域に跨っている場合、それぞれの領域におけるデフォーカス量の平均値、ノイズ量の平均値をそれぞれ求め、これら求めた平均値に基づいてパラメータを設定しているが、これに限定される必要はなく、複数の領域のそれぞれにおけるデフォーカス量とノイズ量とから領域毎のパラメータを求め、これらパラメータを用いて、対象となる被写体領域を構成する各領域に対して画像修復を行うことも可能である。 In the present embodiment, when the subject area that is the target extends over a plurality of areas, the average value of the defocus amount and the average value of the noise amount in each area are obtained, and the parameters are determined based on the obtained average values. Although it is set, the present invention is not limited to this. Parameters for each area are obtained from the defocus amount and the noise amount in each of a plurality of areas, and the subject object area is configured using these parameters. It is also possible to perform image restoration on each area.
本実施形態では、画像全体に対して画像修復を行っているが、画像全体に対して画像修復を行うことで画質の破綻を生じる場合には、その画質の破綻が生じる領域に対しては画質の修復処理を行わない、或いは、画質の破綻が生じない範囲で画像修復を行うようにする。つまり、デフォーカス量に対して画像修復が可能となるパラメータの範囲を予め設定しておき、画像全体に対して設定されたパラメータが、上記範囲外となる場合には、その範囲の上限値を用いて画像修復を実行する。 In this embodiment, image restoration is performed on the entire image. However, when image restoration occurs when image restoration is performed on the entire image, the image quality is corrected for an area where the image quality failure occurs. The image restoration is not performed or the image restoration is performed within a range in which the image quality does not fail. That is, a parameter range that allows image restoration is set in advance for the defocus amount, and if the parameter set for the entire image is outside the above range, the upper limit value of the range is set. To perform image restoration.
また、この画像修復を行うことで画質の破綻を生じた場合には、画質の破綻が生じた領域を除いた領域をクロップ領域として設定することも可能である。この場合、画質の破綻が生じた場合には、CPU101は、画質の破綻が生じた領域を除く領域をクロップ領域とした画像を作成し、LCDモニタ104に表示する。この場合、大きさの異なる複数のクロップ領域とした複数の画像を作成してユーザに選択させることも可能である。
In addition, when image quality failure occurs as a result of this image restoration, it is possible to set an area excluding an area where image quality failure has occurred as a crop area. In this case, when image quality failure occurs, the
本実施形態では、対象となる被写体領域(図8の人物X)が擬似的に合焦状態となるようにパラメータを設定しているが、例えば、対象となる被写領域が図8の人物Xとなり、撮像時に合焦状態となる被写体が人物Yとなる画像において、人物Xが擬似的に合焦状態となるように画像補正を行う場合に、補正前の画像データにおいて合焦状態となる人物Yに対しては画像補正を行わないようにする、或いは、人物Xと人物Yとの相対関係を維持するために、人物Yに対する領域に対してぼかし処理を行うことも可能である。このぼかし処理として、周知の畳み込み演算や、デジタルフィルタ処理を行えばよい。 In the present embodiment, the parameters are set so that the subject area (person X in FIG. 8) as a target is in a pseudo-in-focus state. For example, the target subject area is the person X in FIG. When the image correction is performed so that the person X is in the in-focus state in the image in which the subject in the in-focus state is the person Y, the person who is in the in-focus state in the image data before correction In order not to perform image correction on Y, or to maintain the relative relationship between the person X and the person Y, it is also possible to perform a blurring process on the area for the person Y. As this blurring process, a known convolution operation or digital filter process may be performed.
本実施形態では、画像検索を行った後、抽出された画像をLCDモニタ104に表示するしているが、この他に、例えば抽出された画像に対して、画像補正以外の画像処理を実行することも可能である。
In this embodiment, after the image search is performed, the extracted image is displayed on the
本実施形態では、画像編集装置について述べているが、図5に示す信号処理部、被写体情報取得部、ノイズ量算出部、被写体特定部及び画像抽出部の機能や、図6及び図7に示す処理手順をコンピュータに実行させるためのプログラムであってもよい。 In the present embodiment, the image editing apparatus is described, but the functions of the signal processing unit, the subject information acquisition unit, the noise amount calculation unit, the subject specification unit, and the image extraction unit shown in FIG. It may be a program for causing a computer to execute the processing procedure.
10…デジタルカメラ、30…AFセンサ、75…制御部、78,110…被写体情報取得部、79,111…ノイズ量算出部、80…メモリカード、100…画像編集装置、101…CPU、103…データベース、112…被写体特定部、113…画像抽出部 DESCRIPTION OF SYMBOLS 10 ... Digital camera, 30 ... AF sensor, 75 ... Control part, 78, 110 ... Subject information acquisition part, 79, 111 ... Noise amount calculation part, 80 ... Memory card, 100 ... Image editing apparatus, 101 ... CPU, 103 ... Database, 112 ... Subject specifying unit, 113 ... Image extracting unit
Claims (9)
前記記憶手段に記憶された複数の画像データから、指定された被写体が含まれる画像データを抽出するデータ抽出手段と、 Data extraction means for extracting image data including a designated subject from a plurality of image data stored in the storage means;
前記データ抽出手段により抽出された画像データに付帯された前記特性情報に基づいて、前記指定された被写体の領域におけるデフォーカス量が、予め設定された閾値未満となるか否かを判定する第1の判定手段と、 A first determination is made as to whether or not a defocus amount in the area of the designated subject is less than a preset threshold value based on the characteristic information attached to the image data extracted by the data extraction means. Determining means,
前記指定された被写体の領域におけるデフォーカス量が予め設定された閾値未満となる場合に、前記特性情報を用いて画像補正時に使用するパラメータを設定するパラメータ設定手段と、 Parameter setting means for setting a parameter to be used at the time of image correction using the characteristic information when a defocus amount in the designated subject area is less than a preset threshold;
前記パラメータ設定手段により設定された前記パラメータを用いて前記画像データに対する画像補正処理を実行する画像補正手段と、 Image correction means for executing an image correction process on the image data using the parameters set by the parameter setting means;
を備えたことを特徴とする画像編集装置。An image editing apparatus comprising:
画像データを受け付ける受付手段と、
前記画像データに前記付帯情報が付帯されていない場合に、前記画像データを用いて前記被写体の情報を取得する情報取得手段と、
前記被写体の領域における前記特性情報を検出する検出手段と、
前記画像データに対して前記被写体の情報及び前記特性情報を付帯して、前記記憶手段に記憶する記憶制御手段と、
を備えたことを特徴とする画像編集装置。 The image editing apparatus according to claim 1,
Receiving means for receiving image data;
Information acquisition means for acquiring information of the subject using the image data when the auxiliary information is not attached to the image data;
Detecting means for detecting the characteristic information in the area of the subject;
Storage control means for appending the subject information and the characteristic information to the image data and storing them in the storage means;
An image editing apparatus comprising:
前記画像データは、撮像時の画面範囲を格子状に分割した複数の領域のそれぞれにおけるデフォーカス量の情報を付帯しており、
前記検出手段は、前記複数の領域に対するデフォーカス量の情報から、前記被写体の領域に該当するデフォーカスの情報を前記特性情報として検出することを特徴とする画像編集装置。 The image editing apparatus according to claim 2,
The image data is accompanied by information on the defocus amount in each of a plurality of areas obtained by dividing the screen range at the time of imaging in a grid pattern,
The image editing apparatus according to claim 1, wherein the detection unit detects defocus information corresponding to the region of the subject as the characteristic information from defocus amount information for the plurality of regions.
前記検出手段は、前記デフォーカス量の情報の他に、前記被写体の領域におけるノイズ量を前記特性情報として検出することを特徴とする画像編集装置。 In the image editing apparatus according to claim 2 or 3,
The image detecting apparatus, wherein the detection unit detects a noise amount in the region of the subject as the characteristic information in addition to the information on the defocus amount .
前記パラメータ設定手段は、前記特性情報から得られるパラメータが、前記画像補正処理が可能なパラメータの範囲を超える場合に、前記パラメータの範囲の上限値を、前記画像補正処理に用いるパラメータとして設定することを特徴とする画像編集装置。 In the image editing device according to any one of claims 1 to 4,
The parameter setting means sets an upper limit value of the parameter range as a parameter used for the image correction process when a parameter obtained from the characteristic information exceeds a parameter range capable of the image correction process. An image editing apparatus characterized by the above.
前記画像補正手段により画像補正処理が施された画像データに基づく画像を表示する表示手段を、備えていることを特徴とする画像編集装置。 The image editing apparatus according to any one of claims 1 to 5,
An image editing apparatus comprising: display means for displaying an image based on image data subjected to image correction processing by the image correction means .
前記画像補正手段により補正された画像データに基づく画像において、画質破綻が生じる領域が発生したか否かを判定する第2の判定手段と、
前記画質破綻が生じている領域があると判定された場合に、前記画質破綻が生じた領域を除いた領域をクロップ領域として設定する領域設定手段と、
を備えていることを特徴とする画像編集装置。 The image editing apparatus according to any one of claims 1 to 6,
Second determination means for determining whether or not an area in which image quality is broken has occurred in an image based on the image data corrected by the image correction means;
When it is determined that there is an area where the image quality failure has occurred, an area setting means for setting an area excluding the area where the image quality failure has occurred as a crop area;
Image editing apparatus characterized by comprising a.
前記被写体を指定する際に操作される入力操作手段を備えていることを特徴とする画像編集装置。An image editing apparatus comprising input operation means operated when designating the subject.
撮影範囲に含まれる被写体の情報と、該被写体の領域における、少なくともデフォーカス量を含む特性情報とが付帯された複数の画像データから、前記指定された被写体が含まれる画像データを抽出するデータ抽出工程と、 Data extraction for extracting image data including the designated subject from a plurality of image data attached with information on the subject included in the shooting range and characteristic information including at least the defocus amount in the subject region Process,
前記データ抽出工程により抽出された画像データに付帯された前記特性情報に基づいて、前記被写体の領域におけるデフォーカス量が、予め設定された閾値未満となるか否かを判定する判定工程と、 A determination step of determining whether or not a defocus amount in the region of the subject is less than a preset threshold, based on the characteristic information attached to the image data extracted by the data extraction step;
前記被写体の領域におけるデフォーカス量が予め設定された閾値未満となる場合に、前記特性情報を用いて画像補正時に使用するパラメータを設定するパラメータ設定工程と、 A parameter setting step for setting a parameter to be used at the time of image correction using the characteristic information when a defocus amount in the region of the subject is less than a preset threshold;
前記パラメータ設定工程により設定された前記パラメータを用いて前記画像データに対する画像補正処理を実行する画像補正工程と、 An image correction step of performing an image correction process on the image data using the parameters set by the parameter setting step;
を備えたことを特徴とする画像編集プログラム。 An image editing program characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008183798A JP5233458B2 (en) | 2008-07-15 | 2008-07-15 | Image editing apparatus and image editing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008183798A JP5233458B2 (en) | 2008-07-15 | 2008-07-15 | Image editing apparatus and image editing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010028199A JP2010028199A (en) | 2010-02-04 |
JP5233458B2 true JP5233458B2 (en) | 2013-07-10 |
Family
ID=41733656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008183798A Active JP5233458B2 (en) | 2008-07-15 | 2008-07-15 | Image editing apparatus and image editing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5233458B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113170029A (en) * | 2018-12-07 | 2021-07-23 | 索尼半导体解决方案公司 | Image processing apparatus, image processing method, and program |
JP7486419B2 (en) | 2017-11-09 | 2024-05-17 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Computer program and computer system |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2808349B1 (en) | 2012-01-24 | 2017-05-17 | University of Tsukuba | Triblock copolymer and use thereof |
JP6566091B2 (en) * | 2018-06-28 | 2019-08-28 | 株式会社ニコン | Image generation device and image search device |
JP6780748B2 (en) * | 2019-07-30 | 2020-11-04 | 株式会社ニコン | Image processing device and image processing program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003204459A (en) * | 2001-10-23 | 2003-07-18 | Konica Corp | Digital camera and image reproducing apparatus |
JP2003348532A (en) * | 2002-05-24 | 2003-12-05 | Canon Inc | Imaging apparatus |
JP4764924B2 (en) * | 2006-05-18 | 2011-09-07 | パイオニア株式会社 | Data processing apparatus, method thereof, program thereof, and recording medium recording the program |
WO2008044524A1 (en) * | 2006-10-10 | 2008-04-17 | Nikon Corporation | Image classification program, image classification apparatus, and electronic camera |
JP4818957B2 (en) * | 2007-02-27 | 2011-11-16 | 京セラ株式会社 | Imaging apparatus and method thereof |
JP5217709B2 (en) * | 2008-07-09 | 2013-06-19 | 株式会社ニコン | Image processing apparatus and imaging apparatus |
-
2008
- 2008-07-15 JP JP2008183798A patent/JP5233458B2/en active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7486419B2 (en) | 2017-11-09 | 2024-05-17 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Computer program and computer system |
CN113170029A (en) * | 2018-12-07 | 2021-07-23 | 索尼半导体解决方案公司 | Image processing apparatus, image processing method, and program |
EP3893480A4 (en) * | 2018-12-07 | 2022-01-26 | Sony Semiconductor Solutions Corporation | Image processing apparatus and image processing method |
TWI827725B (en) * | 2018-12-07 | 2024-01-01 | 日商索尼半導體解決方案公司 | Image processing device and image processing method |
CN113170029B (en) * | 2018-12-07 | 2024-04-12 | 索尼半导体解决方案公司 | Image processing apparatus and image processing method |
US12056882B2 (en) | 2018-12-07 | 2024-08-06 | Sony Semiconductor Solutions Corporation | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2010028199A (en) | 2010-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10136067B2 (en) | Observation apparatus providing an enlarged display for facilitating changing an image-pickup condition | |
JP2009109714A (en) | Image recognizing device, focus adjusting device, and imaging device | |
JP2009151254A (en) | Photographing device and focus detector | |
JP5950664B2 (en) | Imaging apparatus and control method thereof | |
JP6300670B2 (en) | Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus | |
JP4893334B2 (en) | Image tracking device and imaging device | |
JP2008096582A (en) | Camera | |
JP5233458B2 (en) | Image editing apparatus and image editing program | |
CN107255900B (en) | Control method of photographing apparatus | |
JP5936358B2 (en) | Image display device, image display method, imaging device and control method thereof, program, and storage medium storing the same | |
JP2010091669A (en) | Imaging device | |
JP6525809B2 (en) | Focus detection apparatus and control method thereof | |
JP5056136B2 (en) | Image tracking device | |
JP5403111B2 (en) | Image tracking device | |
JP2010109923A (en) | Imaging apparatus | |
JP4888249B2 (en) | Focus detection apparatus and imaging apparatus | |
US10097748B2 (en) | Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium which are capable of correcting defocus amount | |
JP4985155B2 (en) | Focus adjustment device and imaging device | |
WO2016056089A1 (en) | Camera, and image-capturing method | |
JP6223502B2 (en) | Image processing apparatus, image processing method, program, and storage medium storing the same | |
JP2006201283A (en) | Digital camera | |
JP5447579B2 (en) | Tracking device, focus adjustment device, and photographing device | |
JP2016142777A (en) | Imaging apparatus | |
CN104427248B (en) | Camera device and its control method | |
JP2016080738A (en) | Imaging apparatus and automatic focusing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5233458 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |