JP2012004716A - Imaging apparatus and electronic apparatus - Google Patents
Imaging apparatus and electronic apparatus Download PDFInfo
- Publication number
- JP2012004716A JP2012004716A JP2010136075A JP2010136075A JP2012004716A JP 2012004716 A JP2012004716 A JP 2012004716A JP 2010136075 A JP2010136075 A JP 2010136075A JP 2010136075 A JP2010136075 A JP 2010136075A JP 2012004716 A JP2012004716 A JP 2012004716A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- determination
- scene
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルカメラ等の撮像装置に関する。また本発明は、撮像装置、画像再生装置、情報端末装置等の電子機器に関する。 The present invention relates to an imaging apparatus such as a digital camera. The present invention also relates to an electronic device such as an imaging device, an image reproducing device, and an information terminal device.
デジタルカメラ等の撮像装置で撮影を行う際、特定の撮影シーンでは撮影シーンに応じた最適な撮影条件(シャッタスピード、絞り値、ISO感度等)が存在する。しかし、一般に、撮影条件のマニュアル設定は複雑である。これを考慮し、撮像装置には、撮影シーンを自動的に判定し、撮影条件を自動的に最適化する自動シーン判定機能が搭載されていることが多い。この機能では、撮影範囲内に存在する被写体の種類を判別したり被写体の明るさを検出したりすることで撮影シーンを判定し、判定シーンに基づいて複数の登録撮影モードの中から最適な撮影モードを選択する。そして、選択した撮影モードに従った撮影条件にて撮影を行うことで撮影条件の最適化を図る。 When shooting with an imaging device such as a digital camera, there are optimum shooting conditions (shutter speed, aperture value, ISO sensitivity, etc.) according to the shooting scene in a specific shooting scene. However, in general, manual setting of shooting conditions is complicated. Considering this, an imaging apparatus is often equipped with an automatic scene determination function that automatically determines a shooting scene and automatically optimizes shooting conditions. With this function, the shooting scene is determined by determining the type of subject existing within the shooting range or detecting the brightness of the subject, and the optimal shooting is selected from multiple registered shooting modes based on the determination scene. Select a mode. Then, the shooting conditions are optimized by shooting under the shooting conditions according to the selected shooting mode.
このように、自動シーン判定機能はユーザにとって有益な機能である。しかしながら、被写体の状態によってはユーザが望むシーン判定結果が得難いこともあり、その場合、所望のシーン判定結果が得られるまで、ユーザは撮影構図の調整等を強いられることもある。例えば、図18(a)に示す如く、前景側に位置する花911と背景側に位置する山912及び草原913を被写体として撮影範囲に収めた状態を考える。図18(a)の画像900は、その状態での撮影によって得られた画像である。また、ユーザは、花911を主要被写体として考えていて、自動シーン判定機能による判定シーンが花の撮影に適した花シーンとなることを望んでいるものとする。
Thus, the automatic scene determination function is a useful function for the user. However, depending on the state of the subject, it may be difficult to obtain the scene determination result desired by the user. In this case, the user may be forced to adjust the shooting composition until the desired scene determination result is obtained. For example, as shown in FIG. 18A, a state is considered in which a
自動シーン判定機能を担うシーン判定部(不図示)は、画像900に対してシーン判定処理を行う。画像900には花911、山912及び草原913が存在しているため、画像900の撮影シーンは、花の撮影に適した花シーンであるとも、風景の撮影に適した風景シーンであるとも推定される。シーン判定部は、画像900上における各被写体の位置及び大きさ等を考慮して花シーン及び風景シーンの一方を選択し、選択した方を判定シーンとしてユーザに提示する。図18(b)に、風景シーンが判定シーンとして設定されたときの表示画面を示す。図18(b)において、ドットで満たされた領域は表示部の筐体部分を表しいている(後述の図19(b)も同様)。
A scene determination unit (not shown) having an automatic scene determination function performs a scene determination process on the
図18(b)のような表示が成された際、ユーザは判定シーンが花シーンとなるまで、即ち、判定シーンが花シーンであることを示す図19(b)のような表示が成されるまで撮影構図を調整する必要がある。例えば、図19(a)の撮影画像920が得られるように、花911を撮影範囲の中心に配置させたり、撮影画角を縮小したりする必要がある。
When the display as shown in FIG. 18B is made, the user makes a display as shown in FIG. 19B until the judgment scene becomes a flower scene, that is, the judgment scene is a flower scene. It is necessary to adjust the shooting composition until For example, it is necessary to arrange the
他方、撮像装置等の電子機器において、検索条件に適合した画像を複数の記録画像の中から検索する方法が提案されている。 On the other hand, in an electronic apparatus such as an imaging apparatus, a method for searching for an image that meets a search condition from a plurality of recorded images has been proposed.
例えば、ユーザが図18(a)の画像900に類似する画像を探している場合を考える。この際、ユーザは花911に注目しており、花を被写体に含んだ画像を探しているものとする。この場合、ユーザは、画像900に類似する画像の検索を電子機器に指示することになるが、この指示を受けたとき、電子機器は、ユーザの意図に反し、風景に注目して検索を行うことがある。即ち、花を含まない代わりに、山912及び草原913に対応するような風景を含んだ画像(例えば、図20の画像931や画像932)を検索結果画像として出力する場合がある。
For example, consider a case where the user is searching for an image similar to the
また例えば、ユーザが図19(a)の画像920に類似する画像を探している場合を考える。この際、ユーザは山912及び草原913に対応するような風景を被写体に含んだ画像を探しているものとする。この場合、ユーザは、画像920に類似する画像の検索を電子機器に指示することになるが、この指示を受けたとき、電子機器は、ユーザの意図に反し、花に注目して検索を行うことある。即ち、山912及び草原913に対応するような風景を含まない代わりに、花を含んだ画像(例えば、図21の画像941や画像942)を検索結果画像として出力する場合がある。
For example, consider a case where the user is searching for an image similar to the
尚、下記特許文献1には、測距結果を用いて被写体の種類を識別し、識別した被写体の種類に基づいて撮影モードを設定する方法が提案されている。
上述した従来の自動シーン判定機能では、前景側に位置する被写体や背景側に位置する被写体など、様々な被写体が撮影範囲内に存在しているにも関らず、所定のアルゴリズムに沿って常に単一のシーン判定結果が導出及び表示される。このため、所望のシーン判定結果が得られないときに、上述したような撮影構図の調整等が必要となる。仮に、前景と背景を区別するようなシーン判定を行うことができたならば、このような撮影構図の調整等が不要となり又は軽減され、ユーザの利便性が向上する。尚、特許文献1の方法は、このような利便性向上に寄与する方法ではない。
In the conventional automatic scene determination function described above, various subjects such as a subject located on the foreground side and a subject located on the background side are always present in accordance with a predetermined algorithm even though there are various subjects within the shooting range. A single scene determination result is derived and displayed. For this reason, when a desired scene determination result cannot be obtained, adjustment of the shooting composition as described above is required. If a scene determination that distinguishes the foreground and the background can be performed, such adjustment of the shooting composition is unnecessary or reduced, and the convenience for the user is improved. In addition, the method of
画像検索についても同様である。即ち、上述した従来の画像検索方法では、ユーザの意図に反し、前景側被写体にのみ注目した画像検索や背景側被写体にのみ注目した画像検索が行われることがある。仮に、ユーザの意図に沿って前景と背景を区別するような画像検索を行うことができたならば、ユーザの意図に合致した検索が可能となる。 The same applies to image retrieval. That is, in the above-described conventional image search method, an image search focusing only on the foreground subject or an image search focusing only on the background subject may be performed, contrary to the user's intention. If an image search that distinguishes the foreground and the background according to the user's intention can be performed, a search that matches the user's intention can be performed.
そこで本発明は、前景と背景を区別したようなシーン判定を行いうる撮像装置を提供することを目的とする。また本発明は、前景と背景を区別したような画像検索を行いうる電子機器を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus capable of performing scene determination such that a foreground and a background are distinguished. It is another object of the present invention to provide an electronic device that can perform an image search such that a foreground and a background are distinguished.
本発明に係る撮像装置は、被写体の画像データを出力する撮像素子と、前記撮像素子の出力に基づく判定対象画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、前記複数の分割画像領域の内、2以上の分割画像領域を判定領域とし、判定領域ごとに、当該判定領域内の画像データに基づいて当該判定領域内の画像のシーン判定を行うシーン判定部と、を備えたことを特徴とする。 An imaging device according to the present invention includes an imaging element that outputs image data of a subject, an area dividing unit that divides an entire image area of a determination target image based on an output of the imaging element into a plurality of divided image areas, and the plurality of the plurality of divided image areas. A scene determination unit configured to determine two or more divided image areas of the divided image areas as determination areas, and for each determination area, determine a scene of an image in the determination area based on image data in the determination area; It is characterized by that.
これにより、例えば、前景側の被写体に注目したシーン判定と背景側の被写体に注目したシーン判定を個別に行うことが可能となる。それらのシーン判定の結果を用いて画像データの生成を行うようにすれば、前景側の被写体及び背景側の被写体の画像データを個別に最適化することも可能である。 Thereby, for example, it is possible to individually perform scene determination focused on the foreground subject and scene determination focused on the background subject. If image data is generated using the results of the scene determination, it is possible to individually optimize the image data of the foreground subject and the background subject.
また例えば、各判定領域に対するシーン判定の結果を表示する表示部を更に撮像装置に設けておくとよい。 In addition, for example, a display unit that displays a result of scene determination for each determination region may be further provided in the imaging apparatus.
これにより、ユーザは、各シーン判定の結果を認識することができると共に、それらが所望の結果であるのかを確認することができる。 Thereby, the user can recognize the result of each scene determination, and can confirm whether the result is a desired result.
そして例えば、目標画像の取得を指示する所定の撮影指示が与えられた際、前記撮像素子の出力を用い、各判定領域に対するシーン判定の結果に応じた条件にて前記目標画像の画像データを生成する画像処理部を当該撮像装置に更に設けておくと良い。 Then, for example, when a predetermined shooting instruction for instructing acquisition of a target image is given, the output of the image sensor is used to generate image data of the target image under conditions according to the result of scene determination for each determination region It is preferable to further provide an image processing unit for the imaging apparatus.
これにより、前景側の被写体及び背景側の被写体の画像データを個別に最適化するといったことも可能となる。 As a result, the image data of the foreground subject and the background subject can be individually optimized.
より具体的には例えば、判定領域ごとに、当該判定領域に対するシーン判定の結果に応じた撮影パラメータが設定され、前記画像処理部は、判定領域ごとに、対応する撮影パラメータを用いて当該判定領域に対応する前記目標画像内の画像領域の画像データを生成することで、前記目標画像の全体の画像データを生成する。 More specifically, for example, shooting parameters corresponding to the result of scene determination for the determination region are set for each determination region, and the image processing unit uses the corresponding shooting parameter for each determination region. The image data of the entire target image is generated by generating the image data of the image area in the target image corresponding to.
本発明に係る電子機器は、被写体の画像である基準画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、与えられた選択指示に従って前記複数の分割画像領域の中から検索基準領域を選択し、前記検索基準領域の画像特徴に対応する画像特徴を有する非基準画像を複数の非基準画像の中から検索する検索処理部と、を備えたことを特徴とする。 An electronic apparatus according to the present invention includes an area dividing unit that divides an entire image area of a reference image that is an image of a subject into a plurality of divided image areas, and a search reference from the plurality of divided image areas according to a given selection instruction. A search processing unit that selects a region and searches a plurality of non-reference images for a non-reference image having an image feature corresponding to the image feature of the search reference region.
これにより、例えば、前景側の被写体画像に類似する画像の検索や背景側の被写体画像に類似する画像の検索を区別して行うことが可能となる。 Accordingly, for example, it is possible to distinguish between searching for an image similar to the foreground subject image and searching for an image similar to the background subject image.
また例えば、前記検索は、検索条件に適合する非基準画像を前記複数の非基準画像の中から選ぶ処理であり、前記検索処理部は、前記基準画像の被写体距離情報及び各非基準画像の被写体距離情報をも利用して、各非基準画像が前記検索条件に適合しているか否かを判断するようにしても良い。 Further, for example, the search is a process of selecting a non-reference image that matches a search condition from the plurality of non-reference images, and the search processing unit includes subject distance information of the reference image and subjects of each non-reference image. The distance information may also be used to determine whether each non-reference image meets the search condition.
これにより、例えば、前景側に「花」が位置している画像を検索する或いは背景側に「花」が位置している画像を検索する、といった高度な検索が可能となる。 Thus, for example, an advanced search such as searching for an image having “flower” on the foreground side or searching for an image having “flower” on the background side becomes possible.
また、被写体の画像である複数の被検索画像の中から、検索条件に適合する被検索画像を検索する検索処理部と、被検索画像ごとに、当該被検索画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、を備えた他の電子機器を形成するようにしても良い。当該他の電子機器において、前記検索処理部は、被検索画像ごとに、当該被検索画像の各分割画像領域と前記検索条件との適合性を評価することにより当該被検索画像が前記検索条件に適合しているか否かを判断しても良い。 In addition, a search processing unit that searches for a search target image that satisfies a search condition from a plurality of search target images that are images of a subject, and a whole image area of the search target image for each search target image is divided into a plurality of divisions. You may make it form the other electronic device provided with the area | region division part divided | segmented into an image area | region. In the other electronic device, for each image to be searched, the search processing unit evaluates the suitability between each of the divided image regions of the image to be searched and the search condition, so that the image to be searched satisfies the search condition. It may be determined whether or not it conforms.
これにより、例えば、前景側の被写体が検索条件に適合した画像や背景側の被写体が検索条件に適合した画像等を検索することが可能となり、検索条件によっては、それらの画像を区別して検出することも可能となる。 As a result, for example, it is possible to search for an image in which the foreground subject matches the search condition, an image in which the background subject matches the search condition, etc., and depending on the search condition, these images are distinguished and detected. It is also possible.
この際、例えば、前記検索処理部は、各被検索画像の被写体距離情報をも利用して、各被検索画像が前記検索条件に適合しているか否かを判断すると良い。 At this time, for example, the search processing unit may also determine whether each searched image meets the search condition by using subject distance information of each searched image.
これにより、例えば、前景側に「花」が位置している画像を検索する或いは背景側に「花」が位置している画像を検索する、といった高度な検索が可能となる。 Thus, for example, an advanced search such as searching for an image having “flower” on the foreground side or searching for an image having “flower” on the background side becomes possible.
本発明によれば、前景と背景を区別したようなシーン判定を行いうる撮像装置及び前景と背景を区別したような画像検索を行いうる電子機器を提供することが可能となる。 According to the present invention, it is possible to provide an imaging apparatus capable of performing scene determination in which the foreground and the background are distinguished and an electronic apparatus capable of performing image search in which the foreground and the background are distinguished.
以下、本発明の実施形態の幾つかを、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。 Hereinafter, some embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.
<<第1実施形態>>
本発明の第1実施形態を説明する。図1は、第1実施形態に係る撮像装置1の概略全体ブロック図である。撮像装置1は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。撮像装置1は、携帯電話機などの携帯端末に搭載されるものであっても良い。
<< First Embodiment >>
A first embodiment of the present invention will be described. FIG. 1 is a schematic overall block diagram of an
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、表示部15と、記録媒体16と、操作部17と、を備えている。
The
図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、主制御部13からの制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量(換言すれば、絞り値)を制御する。
FIG. 2 shows an internal configuration diagram of the
撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。
The
AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号をRAWデータとして主制御部13に出力する。AFE12における信号増幅の増幅度は、主制御部13によって制御される。
The
主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等から成る。主制御部13は、AFE12からのRAWデータに基づいて、撮像部11によって撮影された画像(以下、撮影画像とも言う)を表す画像データを生成する。ここで生成される画像データには、例えば、輝度信号及び色差信号が含まれる。但し、RAWデータそのものも画像データの一種であり、撮像部11から出力されるアナログ信号も画像データの一種である。また、主制御部13は、表示部15の表示内容を制御する表示制御手段としての機能をも備え、表示に必要な制御を表示部15に対して行う。
The
内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。表示部15は、液晶ディスプレイパネル等の表示画面を有する表示装置であり、主制御部13の制御の下、撮影された画像や記録媒体16に記録されている画像などを表示する。
The
表示部15にはタッチパネル19が設けられており、ユーザは、表示部15の表示画面を操作体で触れることで撮像装置1に特定の指示を与えることができる。表示部15の表示画面を操作体で触れることによる操作をタッチパネル操作と呼ぶ。操作体と表示部15の表示画面との接触位置をタッチ位置と呼ぶ。操作体が表示部15の表示画面が触れたとき、その触れた位置(即ちタッチ位置)を指し示す座標値が主制御部13に伝達される。操作体は、指やペンなどであるが、以下では主として操作体が指であることを想定する。本明細書において、単に表示及び表示画面と言った場合、それらは、表示部15における表示及び表示画面を指すものとする。
A
記録媒体16は、カード状半導体メモリや磁気ディスク等の不揮発性メモリであり、主制御部13による制御の下、撮影画像などを記憶する。操作部17は、静止画像の撮影指示を受け付けるシャッタボタン20等を備え、外部からの各種操作を受け付ける。操作部17に対する操作を、タッチパネル操作と区別すべく、ボタン操作とも呼ぶ。操作部17に対する操作内容は、主制御部13に伝達される。
The
撮像装置1には、ユーザが撮影しようとするシーンを自動的に判定し、撮影条件を自動的に最適化する機能が備えられている。第1実施形態では、以下、主として、この機能の説明を行う。図3は、この機能の実現に特に関与する部位のブロック図である。シーン判定部51、撮影制御部52、画像処理部53及び表示制御部54は、図1の主制御部13内に設けられる。撮像装置1には、被写体距離情報生成部55が設けられている。被写体距離情報生成部55を図3に示す如く主制御部13外に設けても良いし、主制御部13内に設けるようにしても良い。
The
シーン判定部51には、入力画像の画像データが与えられる。入力画像とは、撮像部11から出力される画像データに基づく二次元画像を指す。RAWデータそのものが入力画像の画像データであっても良いし、RAWデータに対して所定の画像処理(デモザイキング処理、ノイズ低減処理、色補正処理等)を施して得られる画像データが入力画像の画像データであっても良い。撮像部11は所定のフレームレートで撮影を行うことができるため、入力画像も所定のフレームレートで順次得られる。
The
シーン判定部51は、入力画像内にシーン判定領域を設定し、シーン判定領域内の画像データに基づいてシーン判定処理を行う。シーン判定部51は、入力画像ごとにシーン判定処理を行うことができる。被写体距離情報生成部55からの被写体距離情報に基づきシーン判定領域を設定することもできるが、その方法については後述する。
The
図4は、入力画像とシーン判定領域との関係を表している。図4において、符号200は任意の1枚の入力画像を表しており、符号201は入力画像200に設定されたシーン判定領域を表している。シーン判定領域201は、入力画像200の全体画像領域そのもの、又は、入力画像200の全体画像領域の一部である。図4では、シーン判定領域201が、入力画像200の全体画像領域の一部であることが想定されている。以下の説明では、図4に示す如く、シーン判定領域201に代表される任意のシーン判定領域の形状が矩形であることを想定する。但し、シーン判定領域の形状を矩形以外とすることも可能である。
FIG. 4 shows the relationship between the input image and the scene determination area. In FIG. 4,
入力画像に対するシーン判定処理は、入力画像からの画像特徴量の抽出、入力画像の被写体の検出、入力画像の色相の分析、入力画像の撮影時における被写体の光源状態の推定等を用いて実行され、その判定に公知の任意の方法(例えば、特開2008−11289号公報又は特開2009−71666号公報に記載の方法)を用いることができる。 The scene determination process for the input image is performed using extraction of image features from the input image, detection of the subject of the input image, analysis of the hue of the input image, estimation of the light source state of the subject at the time of shooting the input image, and the like. Any known method (for example, the method described in JP2008-11289A or JP2009-71666A) can be used for the determination.
複数の登録シーンが予めシーン判定部51に設定されている。複数の登録シーンには、例えば、人物が注目された撮影シーンであるポートレートシーン、風景が注目された撮影シーンである風景シーン、花が注目された撮影シーンである花シーン、紅葉が注目された撮影シーンである紅葉シーン、動物が注目された撮影シーンである動物シーン、海が注目された撮影シーンである海シーン、日中の撮影状態を表す日中シーン、夜景の撮影状態を表す夜景シーンなどが含まれうる。シーン判定部51は、注目した入力画像の画像データからシーン判定処理に有益な画像特徴量を抽出することで、その注目した入力画像の撮影シーンを上記複数の登録シーンの中から選択し、これによって、注目した入力画像の撮影シーンを判定する。シーン判定部51によって判定された撮影シーンを、判定シーンと呼ぶ。シーン判定部51は、判定シーンを表すシーン判定情報並びにシーン判定領域の位置及び大きさを表す判定領域情報を撮影制御部52及び表示制御部54に与える。尚、シーン判定情報及び判定領域情報は、撮影制御部52及び表示制御部54以外の任意の部位(画像処理部53等)にも与えられうる。
A plurality of registered scenes are set in the
撮影制御部52は、シーン判定情報に基づき、撮影条件を既定する撮影モードを設定する。撮影モードにて既定される撮影条件には、入力画像の撮影時におけるシャッタスピード(即ち、入力画像の画像データを撮像素子33から得るための、撮像素子33の露光時間の長さ)、入力画像の撮影時における絞り値、入力画像の撮影時におけるISO感度、画像処理部53において入力画像に行われるべき画像処理(以下、特定画像処理という)の内容などが含まれる。ISO感度は、ISO(International Organization for Standardization)によって規定された感度を意味し、ISO感度を調節することで入力画像の明るさ(輝度レベル)を調節することができる。実際には、ISO感度に応じてAFE12における信号増幅の増幅度を決定する。撮影制御部52は、撮影モードの設定後、設定した撮影モードの撮影条件で入力画像の画像データが得られるように撮像部11及びAFE12を制御すると共に、画像処理部53を制御する。尚、撮影制御部52は、フォーカス状態及び露光状態を最適化するためのカメラ制御を実行することもできる。
The
画像処理部53は、入力画像に対して特定画像処理を行うことにより出力画像(即ち、特定画像処理後の入力画像)を生成する。撮影制御部52にて設定される撮影モードによっては、特定画像処理が何らなされないこともあり、この場合には、出力画像は入力画像そのものとなる。
The
説明の具体化のため、上記登録シーンの種類がN種類存在するものとする(Nは2以上の整数)。即ち、上記複数の登録シーンの個数がN個であるとする。そして、N種類の登録シーンを第1〜第Nの登録シーンと呼ぶ。また、シーン判定部51による判定シーンが第iの登録シーンであるときに、撮影制御部52により設定される撮影モードを第iの撮影モードと呼ぶ(iは整数)。
For the sake of concrete explanation, it is assumed that there are N types of registered scenes (N is an integer of 2 or more). That is, assume that the number of the plurality of registered scenes is N. N types of registered scenes are referred to as first to Nth registered scenes. The shooting mode set by the
第1〜第Nの撮影モードに関し、第iの撮影モードによって規定される撮影条件と、第jの撮影モードによって規定される撮影条件は互いに異なる。これは、通常、互いに異なる任意の整数i及びjに対して成立するが(但し、i≦N且つj≦N)、第1〜第Nの撮影モードに含まれるNA個の撮影モードの撮影条件は互いに同じでありうる。NAはN未満且つ2以上の整数である。例えば、N=10のとき、第1〜第9の撮影モードについての撮影条件は互いに異なるが、第9及び第10の撮影モードについての撮影条件は互いに同じである、といった場合もある(この場合、NA=2)。 Regarding the first to Nth shooting modes, the shooting conditions defined by the i-th shooting mode and the shooting conditions defined by the j-th shooting mode are different from each other. This is usually true for different arbitrary integer i and j each other (however, i ≦ N and j ≦ N), imaging of the first. 1 to N A number of shooting modes included in the shooting mode of the N Conditions can be the same as each other. N A is an integer of less than N and 2 or more. For example, when N = 10, the shooting conditions for the first to ninth shooting modes are different from each other, but the shooting conditions for the ninth and tenth shooting modes may be the same (in this case). , N A = 2).
被写体距離情報生成部55(以下、生成部55と略記することがある)は、撮像部11の撮影範囲内に収まっている各被写体の被写体距離を検出することで、入力画像上の各位置における被写体の被写体距離を表す被写体距離情報を生成する。或る被写体についての被写体距離とは、その被写体と撮像装置1(より具体的には撮像素子33)との間における実空間上の距離を指す。尚、本明細書において、“距離が大きい”という表現と“距離が長い”という表現は同義であり、“距離が小さい”という表現と“距離が短い”という表現は同義である。被写体距離情報は、自身を形成する各画素値が被写体距離の測定値を持つ距離画像である。被写体距離の検出方法及び被写体距離情報の生成方法として、公知の方法(例えば、特開2009−272799号公報に記載の方法)を含む任意の方法を利用可能である。
The subject distance information generation unit 55 (hereinafter sometimes abbreviated as the generation unit 55) detects the subject distance of each subject that is within the shooting range of the
入力画像の画像データから被写体距離情報を生成するようにしても良いし、入力画像の画像データ以外の情報から被写体距離情報を生成するようにしても良い。例えば、入力画像上の各位置における被写体の被写体距離を測定する測距センサ(不図示)を用いて被写体距離情報を生成することができる。測距センサとして、三角測量法に基づく測距センサ等、公知の任意の測距センサを用いることができる。或いは例えば、複眼カメラを用いて上記距離画像を生成するようにしても良い。或いは例えば、コントラスト検出法を利用するようにしても良い。この場合、例えば、フォーカスレンズ31の位置を所定量ずつ移動させながら順次AFE12より画像データを取得し、取得した画像データの空間周波数成分における高域周波数成分から上記距離画像を生成することができる。
The subject distance information may be generated from the image data of the input image, or the subject distance information may be generated from information other than the image data of the input image. For example, subject distance information can be generated using a distance measuring sensor (not shown) that measures the subject distance of the subject at each position on the input image. As the distance measuring sensor, any known distance measuring sensor such as a distance measuring sensor based on the triangulation method can be used. Alternatively, for example, the distance image may be generated using a compound eye camera. Alternatively, for example, a contrast detection method may be used. In this case, for example, the image data is sequentially acquired from the
或いは例えば、RAWデータに被写体距離を表す情報が含まれるように撮像部11を形成しておき、RAWデータから被写体距離情報を生成するようにしても良い。これを実現するために、例えば“Light Field Photography”と呼ばれる方法(例えば、国際公開第06/039486号パンフレット又は特開2009−224982号公報に記載の方法;以下、Light Field法と呼ぶ)を用いても良い。Light Field法では、開口絞りを有する撮像レンズとマイクロレンズアレイを用いることで、撮像素子から得られる画像信号が、撮像素子の受光面における光の強度分布に加えて光の進行方向の情報をも含むようになっている。従って、図2には表れていないが、Light Field法を用いる場合には、Light Field法の実現に必要な光学部材が撮像部11に設けられる。この光学部材には、マイクロレンズアレイ等が含まれ、被写体からの入射光はマイクロレンズアレイ等を介して撮像素子33の受光面(換言すれば撮像面)に入射する。マイクロレンズアレイは複数のマイクロレンズから成り、撮像素子33上の1又は複数の受光画素に対して1つのマイクロレンズを割り当てられる。これによって、撮像素子33の出力信号が、撮像素子33の受光面における光の強度分布に加えて、撮像素子33への入射光の進行方向の情報をも含むようになる。
Alternatively, for example, the
撮像装置1は、被写体距離情報を利用して特徴的な撮影動作を行うことができる。図5を参照して、この撮影動作を説明する。図5は、撮像装置1の撮影動作の手順を表すフローチャートである。
The
まず、ステップS11において、撮像装置1は、ユーザによる撮影指示の入力を待機し、撮影指示があった場合にステップS12以降の処理を実行する。撮影指示は、例えば、ユーザによるシャッタボタン20を押すボタン操作又は所定のタッチパネル操作である。撮影指示は、目標画像の撮影及び生成の指示に相当する。
First, in step S11, the
ステップS12において、撮影制御部52は、撮像装置1のフォーカス状態及び露光状態等を最適化するためのカメラ制御を実行する。例えば、撮像素子33上の特定領域に結像している被写体にピントが合うようにフォーカスレンズ31の位置を調整すると共に、入力画像の明るさが最適化されるように絞り値やAFE12における信号増幅度を調整する。この際、撮像部11の撮影範囲内における主要被写体に注目してカメラ制御を成すこともできる。即ち、ステップS12のカメラ制御において、主要被写体にピントが合うように且つ入力画像上における主要被写体の像の明るさが最適化されるように、フォーカスレンズ31の位置及び絞り値等を調整するようにしても良い。ユーザは、タッチパネル操作等を利用して主要被写体を指定することもできる。
In step S <b> 12, the
続くステップS13において、被写体距離情報生成部55は、現時点の各被写体の被写体距離を検出することで被写体距離情報を生成する。次に、ステップS14において、主制御部13は、最新の入力画像である現時点の入力画像を判定対象画像に設定し、ステップS13にて得られた被写体距離情報に基づき判定対象画像に対して領域分割処理を実行する。領域分割処理は、シーン判定部51にて行われても良いし、主制御部13に設けられた領域分割部(不図示)にて行われても良い。領域分割処理によって、判定対象画像の全体画像領域が被写体距離情報に基づき複数の分割画像領域に分割される。領域分割処理では、類似した特徴量を持ち且つ空間的に近接した画素の集合が1つのまとまりを形成するように、判定対象画像の全体画像領域を分割する。この集合の形成及び画像領域の分割に、公知の領域統合法(region unification method)等を用いることができる。被写体距離情報に基づく領域分割処理では、被写体距離を特徴量として用いる。
In subsequent step S13, the subject distance
図6に示す如く判定対象画像を符号300によって表し、図7(a)等を参照して判定対象画像300に対する領域分割処理の具体例を説明する。図6において、符号350は、撮影指示に従って得られるべき目標画像を表している。図7(a)に示す判定対象画像300は、前景側に位置する花311と背景側に位置する山312及び草原313を被写体として撮影範囲に収めた状態で撮影された画像である。当然ではあるが、任意の画像において、前景側に位置する被写体の被写体距離は、背景側に位置する被写体のそれよりも短い。従って、判定対象画像300において、花311の被写体距離は山312及び草原313の被写体距離よりも短い。
As shown in FIG. 6, the determination target image is represented by
判定対象画像300にとっての被写体距離情報を表す距離画像320を、図7(b)に示す。任意の距離画像はグレースケール画像である。距離画像において、各画素は、対応する被写体距離が小さいほどゼロに近い画素値を有し、対応する被写体距離が大きいほど大きな画素値を有するものとする。更に、距離画像を示す図面においては、画素値の比較的小さい部分(即ち被写体距離が比較的小さい部分)は比較的黒く示され、画素値の比較的大きい部分(即ち被写体距離が比較的大きい部分)は比較的白く示されている。判定対象画像300に対応する距離画像320では、花311の画像データが存在する部分が比較的黒く図示され、山312及び草原313の画像データが存在する部分が比較的白く図示される。実際には、判定対象画像内の各被写体は様々な被写体距離をとりうるが、今、説明の簡略化上、距離画像320には画素値PVA及びPVBしか含まれておらず、これによって距離画像320の全体画像領域が、図7(b)の黒部分に対応する画像領域321と図7(b)の白部分に対応する画像領域322とに分かれていることを想定する。画像領域321内の各画素の画素値は全てPVAであり、画像領域322内の各画素の画素値は全てPVBである場合を考える。ここで、0≦PVA<PVBである。
A
ステップS14では、距離画像320に基づき判定対象画像300が領域分割され、これによって判定対象画像300の全体画像領域が複数の分割画像領域に分割される。本例では、距離画像320の全体画像領域が2つの画像領域321及び322に分割されているため、図7(c)に示す如く判定対象画像300の全体画像領域も2つの分割画像領域301及び322に分割される。分割画像領域301は、画像領域321に対応する、花311の画像データが存在する画像領域であって、分割画像領域302は、画像領域322に対応する、山312及び草原313の画像データが存在する画像領域である。図7(c)の斜線領域が分割画像領域302に相当する。尚、判定対象画像300において、実際には花311の根元の左右側に位置する草原部分の被写体距離は比較的小さいことが想定され、結果、その草原部分も分割画像領域302に含まれうるが、本例では、説明の簡略化上、その草原部分も分割画像領域301に含まれているものとする。
In step S14, the
図5を再度参照する。ステップS14における領域分割処理が終了すると、ステップS15において、主制御部13は、ステップS14の領域分割処理によって得られる分割画像領域の個数(以下、領域分割数という)が2以上であるか否かを判断する。領域分割数が2以上である場合、即ち、判定対象画像300の全体画像領域が複数の分割画像領域に分割された場合には、以後ステップS16〜S18の処理が実行され、その分割が成されていない場合には、以後ステップS19〜S21の処理が実行される。図7(a)、(b)及び(c)の例の如く、判定対象画像300に分割画像領域301及び302が設定された場合、ステップS16〜S18の処理が実行される。
Please refer to FIG. 5 again. When the region division processing in step S14 is completed, in step S15, the
ステップS16において、シーン判定部51は、判定対象画像の分割画像領域ごとにシーン判定処理を実行する。各シーン判定処理の結果は、表示制御部54による制御の下、判定対象画像と共に表示部15に表示される。判定対象画像が図7(c)の判定対象画像300である場合、シーン判定部51は、分割画像領域301及び302の夫々に対してシーン判定処理を実行する。具体的には、分割画像領域301をシーン判定領域に設定した上で分割画像領域301の画像データに基づきシーン判定領域内の画像のシーン判定を行う(即ち、分割画像領域301をシーン判定領域に設定した上で上述の判定シーンを決定する)。これとは別に、分割画像領域302をシーン判定領域に設定した上で分割画像領域302の画像データに基づきシーン判定領域内の画像のシーン判定を行う(即ち、分割画像領域302をシーン判定領域に設定した上で上述の判定シーンを決定する)。
In step S16, the
今、分割画像領域301に対するシーン判定処理によって決定された判定シーンが花シーンであって、且つ、分割画像領域302に対するシーン判定処理によって決定された判定シーンが風景シーンであるとする。そうすると、ステップS16において、分割画像領域301及び302に対する判定シーンの内容をユーザに知らせる表示が行われる。例えば、図8(a)に示す如く判定対象画像300が指標331と共に表示部15に表示される。図8(a)を含む表示部15の様子を示す図において、ドットで満たされた領域は表示部15の筐体部分を表している。指標331には、花シーン及び風景シーンに対応する文言“花、風景”が記されている。文言ではなく、図形等によって“花”又は“風景”を表現するようにしてもよい(後述の指標332及び333も同様)。或いは例えば、図8(b)に示す如く判定対象画像300を指標332及び333と共に表示部15に表示するようにしても良い。指標332及び333には、夫々、花シーン及び風景シーンに対応する文言“花”及び文言“風景”が記されている。指標332を分割画像領域301内又は分割画像領域301の近傍に配置すると良く、指標333を分割画像領域302内又は分割画像領域302の近傍に配置すると良い。更に、図8(b)に示す如く、分割画像領域301及び302間の境界線334を判定対象画像300に重畳表示するようにしても良い(境界線334の表示は必須ではない)。
Assume that the determination scene determined by the scene determination process for the divided
ステップS17において、撮影制御部52は、ステップS16におけるシーン判定処理の結果に基づいて分割画像領域ごとに撮影モードを設定する。但し、分割画像領域ごとに設定される撮影モードは、画像処理部53における特定画像処理の内容のみを規定する。従って、以下では、ステップS17において分割画像領域ごとに設定されるものは、特定画像処理の内容を規定する画像処理パラメータであると考える。
In step S17, the
一方で、判定対象画像の全体画像領域又は判定対象画像の何れかの分割画像領域をシーン判定領域に設定した上でシーン判定処理が成され、そのシーン判定処理の結果に基づき、撮影制御部52により画像処理パラメータ以外の撮影条件が設定される。ステップS18において、その設定された撮影条件(画像処理パラメータ以外の撮影条件)にて1枚の入力画像を対象入力画像として撮影する。この対象入力画像に対して上記画像処理パラメータに従った特定画像処理を施すことで目標画像の画像データが生成される。
On the other hand, the scene determination process is performed after setting either the entire image area of the determination target image or the divided image area of the determination target image as the scene determination area. Based on the result of the scene determination process, the
例えば、対象入力画像が図9の画像340である場合を考える。また、分割画像領域301に対して設定された画像処理パラメータに従う特定画像処理を第1特定画像処理と呼び、分割画像領域302に対して設定された画像処理パラメータに従う特定画像処理を第2特定画像処理と呼ぶ。この場合、画像処理部53は、判定対象画像300に設定した分割画像領域301及び302と同じ位置及び大きさを持つ分割画像領域341及び342を対象入力画像340に設定する。図9において、斜線領域が分割画像領域342に相当し、非斜線領域が分割画像領域341に相当する。そして、画像処理部53は、対象入力画像340の分割画像領域341の画像データに対して第1特定画像処理を行い、第1特定画像処理後の画像データを目標画像350の分割画像領域341内の画像データとして出力する。同様に、対象入力画像340の分割画像領域342の画像データに対して第2特定画像処理を行い、第2特定画像処理後の画像データを目標画像350の分割画像領域342内の画像データとして出力する。目標画像350の分割画像領域341内の画像データと目標画像350の分割画像領域342内の画像データを合成することで、目標画像350の全体画像領域の画像データが生成される。
For example, consider a case where the target input image is the
複数の分割画像領域間で判定シーンが互いに異なれば、基本的に、その複数の分割画像領域に設定される画像処理パラメータは互いに異なり、複数の分割画像領域に設定される画像処理パラメータが互いに異なれば、各分割画像領域に成される特定画像処理の内容は該複数の分割画像領域間で互いに異なる。上述の例の場合、花シーンに対応する第1特定画像処理と風景シーンに対応する第2特定画像処理は互いに異なる。具体的には、花シーンに対応する第1特定画像処理には彩度向上処理を含め、風景シーンに対応する第2特定画像処理には彩度向上処理を含めないといったことが可能である。彩度向上処理は、特定画像処理の対象となる画像領域内の画像の彩度を高める処理である。また例えば、第1及び第2特定画像処理の双方にノイズ低減処理及び色補正処理を含めつつ、ノイズ低減処理によるノイズ低減の強度又は色補正処理による色の補正内容を第1及び第2特定画像処理間で異ならせるといったことも可能である。何れにせよ、分割画像領域ごとのシーン判定処理の結果に基づき、分割画像領域ごとに最適な特定画像処理が実行されて目標画像が生成される。ステップS18にて得られた目標画像は表示部15に表示されると共に該目標画像の画像データは記録媒体16に記録される。
If the judgment scenes are different among the plurality of divided image areas, basically, the image processing parameters set for the plurality of divided image areas are different from each other, and the image processing parameters set for the plurality of divided image areas are different from each other. For example, the content of the specific image processing performed in each divided image region is different between the plurality of divided image regions. In the case of the above example, the first specific image processing corresponding to the flower scene and the second specific image processing corresponding to the landscape scene are different from each other. Specifically, the first specific image processing corresponding to the flower scene can include saturation improvement processing, and the second specific image processing corresponding to the landscape scene can be excluded from saturation processing. The saturation enhancement process is a process for increasing the saturation of an image in an image area that is a target of specific image processing. Further, for example, while including noise reduction processing and color correction processing in both the first and second specific image processing, the noise reduction intensity by the noise reduction processing or the color correction content by the color correction processing is changed to the first and second specific images. It is also possible to vary between processes. In any case, based on the result of the scene determination process for each divided image region, the optimum specific image processing is executed for each divided image region to generate a target image. The target image obtained in step S18 is displayed on the
ステップS15において、十分に被写体距離の大きい風景しか撮影範囲に含まれていない場合など、判定対象画像における全被写体の被写体距離が同程度である場合には、複数の分割画像領域が得られず、結果、ステップS19〜S21の処理が実行される。ステップS19〜S21では、一般的なシーン判定処理を介して目標画像の撮影が成される。即ち、ステップS19では、判定対象画像の全体画像領域又は一部領域をシーン判定領域に設定した上でシーン判定処理が成され、続くステップS20では、そのシーン判定処理の結果に基づき、撮影制御部52により撮影モードが設定される。この際、ステップS12のカメラ制御において注目された主要被写体を含む画像領域をシーン判定領域に設定するようにしても良い。ステップS20における撮影モードの設定によって、特定画像処理の内容を含む撮影条件が全て設定される。続くステップS21では、ステップS20にて設定された撮影条件にて1枚の入力画像を対象入力画像として撮影し、対象入力画像に対して特定画像処理(ステップS20にて設定された特定画像処理)を施すことで目標画像の画像データが生成される。ステップS18と同様、ステップS21にて得られた目標画像も表示部15に表示されると共に記録媒体16に記録される。
In step S15, when the subject range of all the subjects in the determination target image is approximately the same, such as when the shooting range includes only a sufficiently large subject distance, a plurality of divided image regions cannot be obtained, As a result, steps S19 to S21 are executed. In steps S19 to S21, the target image is shot through a general scene determination process. That is, in step S19, a scene determination process is performed after setting the entire image area or a partial area of the determination target image as a scene determination area. In subsequent step S20, based on the result of the scene determination process, the shooting control unit The shooting mode is set by 52. At this time, an image area including the main subject noted in the camera control in step S12 may be set as the scene determination area. All shooting conditions including the contents of the specific image processing are set by setting the shooting mode in step S20. In subsequent step S21, one input image is photographed as a target input image under the photographing conditions set in step S20, and specific image processing is performed on the target input image (specific image processing set in step S20). As a result, image data of the target image is generated. Similar to step S18, the target image obtained in step S21 is also displayed on the
尚、上述の例では、説明の簡略化上、距離画像320の画像領域321内の画素値が全てPAであると述べたが、画像領域321内にPA以外の画素値が含まれていても良い。画像領域322についても同様である。この場合、画像領域321内の各画素値は画素値PAを基準として或る数値範囲内に収まっていると共に画像領域322内の各画素値は画素値PBを基準として或る数値範囲内に収まっている(前者の数値範囲と後者の数値範囲は互いに異なる)。この際、画像領域321と画像領域322との切り分けに公知の領域統合法(region unification method)等を用いることができる。
In the above example, for simple description, the pixel values in the
また、シーン判定部51にて生成されるシーン判定情報には、各シーン判定領域に対する判定シーンを表す情報が含まれ、シーン判定部51にて生成される判定領域情報には、各シーン判定領域の位置及び大きさを表す情報が含まれている。このシーン判定情報及び判定領域情報を目標画像の画像データと共に、或いは、シーン判定情報及び判定領域情報に加えて被写体距離情報を目標画像の画像データと共に記録媒体16に記録しておくことができる。目標画像を取得する過程で生成されるシーン判定情報、判定領域情報及び被写体距離情報は、判定対象画像に対する情報であると共に目標画像に対する情報でもある。
The scene determination information generated by the
また、領域分割数が2である場合の例を上述したが、領域分割数は3以上になりうる。例えば、距離画像320に互いに画素値PVA、PVB及びPVCか含まれている場合、距離画像320の全体画像領域が、画素値PVAを持つ画素の集合から成る画像領域321aと、画素値PVBを持つ画素の集合から成る画像領域322aと、画素値PVCを持つ画素の集合から成る画像領域323aと、に分割されうる(画像領域321a〜323aについては図示せず)。このような分割が成された場合、判定対象画像300の全体画像領域は、3つの分割画像領域、即ち、画像領域321aに対応する分割画像領域321b、画像領域322aに対応する分割画像領域322b及び画像領域323aに対応する分割画像領域323bに分割される(画像領域321b〜323bも図示せず)。
Moreover, although the example in the case where the number of area divisions is 2 has been described above, the number of area divisions can be 3 or more. For example, when the
領域分割数がMA個である場合にも、MA個の分割画像領域の夫々をシーン判定領域として設定するようにしても良い(MAは3以上に整数)。この場合、MA個の分割画像領域の夫々に対して、シーン判定処理、シーン判定処理の結果表示、撮影モード設定(画像パラメータ設定)及び特定画像処理が実行されることになる。但し、領域分割数がMA個である場合、MA個の分割画像領域の中からMB個の分割画像領域を選択し、MB個の分割画像領域のみをシーン判定領域として設定するようにしても良い。MBは2以上の整数であって、MA>MBである。各分割画像領域の位置及び大きさや、各分割画像領域内の被写体の被写体距離、各分割画像領域内の被写体の種類など、様々な指標に基づいて上記選択を成すことが可能である。 Even when the number of area divisions is M A, each of the M A divided image areas may be set as a scene determination area (M A is an integer of 3 or more). In this case, for each of M A number of divided image areas, the scene determination process, result display of the scene determining process, so that the setting shooting mode (picture parameter set), and the specific image processing is performed. However, if the number of divided regions is M A number, select M B-number of divided image areas from among M A number of divided image areas, to set only the M B-number of divided image areas as a scene determination area Anyway. M B is an integer of 2 or more, and M A > M B. The above selection can be made based on various indices such as the position and size of each divided image area, the subject distance of the subject in each divided image area, and the type of subject in each divided image area.
単純な例として例えば、判定対象画像300の全体画像領域が上記分割画像領域321b〜323bに分割された場合において、分割画像領域323bの大きさが画像領域321b及び322bの大きさよりも十分に小さい場合、画像領域分割画像領域321b及び322bのみをシーン判定領域として設定するようにしても良い。或いは例えば、判定対象画像300上における分割画像領域321b、322b及び323bの中心位置と判定対象画像300の中心との空間距離を求め、分割画像領域323bに対して求められた空間距離が分割画像領域321b及び322bのそれらよりも長い場合、画像領域分割画像領域321b及び322bのみをシーン判定領域として設定するようにしても良い。
As a simple example, for example, when the entire image area of the
上述の如く、本実施形態では、分割画像領域ごとにシーン判定(シーン判定処理)が行われる。分割画像領域を得るための領域分割処理は被写体距離情報に基づいて行われるため、例えば、前景側の被写体に注目したシーン判定と背景側の被写体に注目したシーン判定を個別に行うといったことが可能となる。そして、個別に実行されたシーン判定の結果を用いて目標画像の画像データの生成を行うため、例えば、前景側の被写体及び背景側の被写体の画像データを個別に最適化することも可能となる。 As described above, in the present embodiment, scene determination (scene determination processing) is performed for each divided image region. Since the region division processing for obtaining the divided image region is performed based on the subject distance information, for example, it is possible to separately perform scene determination focusing on the foreground subject and scene determination focusing on the background subject. It becomes. Since the image data of the target image is generated using the result of the scene determination performed individually, for example, the image data of the foreground subject and the background subject can be individually optimized. .
<<第2実施形態>>
本発明の第2実施形態を説明する。第2及び後述の他の実施形態は第1実施形態を基礎とした実施形態であり、第2実施形態及び後述の各実施形態において特に述べない事項に関しては、矛盾なき限り、第1実施形態の記載が第2実施形態及び後述の各実施形態にも適用される。
<< Second Embodiment >>
A second embodiment of the present invention will be described. The second and other embodiments to be described later are embodiments based on the first embodiment, and matters not specifically described in the second embodiment and each of the embodiments to be described later are the same as those of the first embodiment unless otherwise contradicted. The description is also applied to the second embodiment and the following embodiments.
まず、記録媒体16に保存される画像ファイルの構造を説明する。撮像装置1では、任意の画像の画像データを、画像ファイルに格納した上で記録媒体16に記録することができる。図10(a)に、1つの画像ファイルFLの構造を示す。1つの静止画像又は動画像に対して1つの画像ファイルFLを作成することができる。画像ファイルFLの構造を任意の規格に準拠させることができる。画像ファイルFLは、記録対象画像の画像データそのもの或いはその圧縮データが格納されるべき本体領域と、付加データが格納されるべきヘッダ領域と、からなる。共通の画像ファイルFLにおける本体領域内の画像データとヘッダ領域内の付加データは互いに関連付けられている。第2実施形態では、記録対象画像が第1実施形態で述べた目標画像であることを想定する。
First, the structure of the image file stored in the
図10(b)に示す如く、記録対象画像に対する付加データには、被写体距離情報、シーン判定情報及び判定領域情報が含まれ(図3参照)、この他、任意のデータ(記録対象画像の撮影日時、サムネイル等)が含まれうる。記録対象画像が目標画像350である場合、記録対象画像の付加データにおける被写体距離情報、シーン判定情報及び判定領域情報は、目標画像350に対して生成された被写体距離情報、シーン判定情報及び判定領域情報であり、それらは、判定対象画像300に対して生成された被写体距離情報、シーン判定情報及び判定領域情報でもある(図6及び図9等参照)。
As shown in FIG. 10B, the additional data for the recording target image includes subject distance information, scene determination information, and determination area information (see FIG. 3). In addition to this, arbitrary data (shooting of the recording target image) is included. Date, thumbnail, etc.). When the recording target image is the
第2実施形態では、撮像装置1による基準画像の類似画像の検索動作を説明する。この検索動作は、主制御部13に内包される検索処理部60を用いて実現される(図11参照)。基準画像を符号IREFによって参照する。基準画像IREFは任意の画像であるが、ここでは、説明の具体化のため、記録対象画像の1つである目標画像350(図9参照)が基準画像IREFである場合を例にとる。基準画像IREF以外の、記録媒体16に記録された各記録対象画像が非基準画像として機能する。非基準画像を被検索画像と呼ぶこともできる。図12に示す如く、非基準画像はQ枚存在するものとし(Qは2以上の整数)、第1〜第Qの非基準画像を夫々符号I[1]〜I[Q]によって参照すると共に、非基準画像I[1]〜I[Q]の画像データを格納した画像ファイルFLを夫々符号FL[1]〜FL[Q]によって参照する。非基準画像I[1]〜I[Q]の夫々も、第1実施形態で述べた方法に従って得られた目標画像(但し、目標画像350とは異なる)であるとする。従って、画像ファイルFL[i]のヘッダ領域には、非基準画像I[i]に対して生成された被写体距離情報、シーン判定情報及び判定領域情報が保存されている(iは整数)。また、基準画像IREFの画像データを格納した画像ファイルFLを符号FLREFによって参照する。
In the second embodiment, a search operation for a similar image of a reference image by the
図13は、第2実施形態に係る撮像装置1の検索動作のフローチャートである。図14(a)は、図13のフローチャートに対応し、表示部15の表示内容の時間変化等を示す図である。図14(b)も同様である。
FIG. 13 is a flowchart of the search operation of the
まず、ユーザが記録媒体16に保存されている複数の記録対象画像の中から1つの記録対象画像を所定のタッチパネル操作又はボタン操作で選択すると、選択された記録対象画像が基準画像IREFに設定され、ステップS31において基準画像IREFが表示部15に表示される。基準画像IREFが設定されると、ステップS32において基準画像IREFの被写体距離情報が取得される。画像ファイルFLREFから基準画像IREFの被写体距離情報を読み出すことで、それを取得することができる。更にステップS33において基準画像IREFの被写体距離情報に基づき基準画像IREFに対する領域分割処理が実行される。被写体距離情報に基づく基準画像IREFに対する領域分割処理は、第1実施形態で述べた、被写体距離情報に基づく判定対象画像に対する領域分割処理と同様である。ステップS33において、被写体距離情報に基づき実際に領域分割処理を行うことも可能である。しかしながら、画像ファイルFLREFの判定領域情報に基準画像IREFに対する領域分割処理の結果が含まれているため、画像ファイルFLREFの判定領域情報を読み出せば、実際に領域分割処理を行った場合と同様の結果を得ることができる。
First, when a user selects one recording target image from a plurality of recording target images stored in the
ステップS32及びS33の処理によって、基準画像IREFの全体画像領域が、図7(c)の分割画像領域301及び302と同じ位置及び大きさを持つ、分割画像領域401及び402に分割されることになる(図15参照)。図15において、斜線領域が分割画像領域402に相当し、非斜線領域が分割画像領域401に相当する。分割画像領域401には花311の画像データが存在し、分割画像領域402には山312及び草原313の画像データが存在している(図7(a)も参照)。
By the processing in steps S32 and S33, the entire image area of the reference image I REF is divided into divided
この後、ステップS34において、撮像装置1はユーザによる検索用指定操作を受け付ける。続くステップS35において、検索処理部60は、検索用指定操作の内容に基づき検索基準領域を設定する。検索用指定操作をボタン操作によって実現しても良いが、ここでは、検索用指定操作がタッチパネル操作にて実現されるものとする。
Thereafter, in step S34, the
ユーザによる検索用指定操作は、例えば、基準画像IREFを表示している表示画面上の特定点を指にて触れるタッチパネル操作である。この場合、検索処理部60は、基準画像IREFに設定された複数の分割画像領域の中から、特定点を内包する分割画像領域を検索基準領域に設定する。従って例えば、図14(a)に対応する例に如く、指定された特定点が基準画像IREFにおける分割画像領域401内の点である場合には(図15も参照)、ステップS35において分割画像領域401が検索基準領域に設定され、図14(b)に対応する例に如く、指定された特定点が基準画像IREFにおける分割画像領域402内の点である場合には(図15も参照)、ステップS35において分割画像領域402が検索基準領域に設定される。
或いは例えば、表示画面と指との接触状態を保ちつつ指にて検索基準領域に設定されるべき領域を囲むタッチパネル操作が、検索用指定操作であっても良い。この場合例えば、タッチパネル操作で囲まれた領域の全部又は大半が分割画像領域401に内包されるとき或いはタッチパネル操作で囲まれた領域が分割画像領域401の全部又は大半を内包するとき、分割画像領域401を検索基準領域に設定すれば良い。
このように、検索用指定操作は、基準画像IREFに設定された複数の分割画像領域の中から検索基準領域を選択する選択指示として機能する。
The search specification operation by the user is, for example, a touch panel operation in which a specific point on the display screen displaying the reference image I REF is touched with a finger. In this case, the
Alternatively, for example, a touch panel operation surrounding a region to be set as a search reference region with a finger while maintaining a contact state between the display screen and the finger may be a search specifying operation. In this case, for example, when all or most of the area surrounded by the touch panel operation is included in the divided
As described above, the search specifying operation functions as a selection instruction for selecting a search reference area from among a plurality of divided image areas set in the reference image I REF .
また、検索用指定操作を受け付けている期間中、図16に示す如く、基準画像IREFを表示させつつ、基準画像IREFの分割画像領域ごとに基準画像IREFの分割画像領域の画像特徴に応じた指標を表示するようにしても良い。これによって、ユーザによる検索用指定操作が支援され、所望の検索条件を指定しやすくなる。今、基準画像IREFが目標画像350である場合を想定しているため、分割画像領域401及び402に対応する判定シーンは夫々“花シーン”及び“風景シーン”である。従って、図16の例では、図8(b)と同様、検索用指定操作を受け付けている期間中において、基準画像IREFが指標332及び333と共に表示部15に表示される。指標332は、基準画像IREFの分割画像領域401の画像特徴に応じた指標であり、指標333は、基準画像IREFの分割画像領域402の画像特徴に応じた指標である。指標332を分割画像領域401内又は分割画像領域401の近傍に配置すると良く、指標333を分割画像領域402内又は分割画像領域402の近傍に配置すると良い(図15も参照)。更に、分割画像領域401及び402間の境界線334を基準画像IREFに重畳表示するようにしても良い。指標332、333及び境界線334の形成及び表示を、画像ファイルFLREF内のシーン判定情報及び判定領域情報を用いて成すことができる。
Further, during a period in which accepts search for the specified operation, as shown in FIG. 16, while displaying a reference image I REF, for each divided image areas of the reference image I REF to the image feature of the divided image areas of the reference image I REF A corresponding index may be displayed. As a result, the search specifying operation by the user is supported, and it becomes easy to specify a desired search condition. Since it is assumed that the reference image I REF is the
検索基準領域の設定後、ステップS36において、検索処理部60は、検索条件に適合する非基準画像を非基準画像I[1]〜I[Q]から検索する。検索条件に適合する非基準画像とは、検索基準領域内の画像特徴に類似する画像特徴を有する非基準画像である。検索基準領域の設定後に、非基準画像I[1]〜I[Q]の夫々の画像特徴を解析し、その解析結果に基づいて検索基準領域内の画像特徴に類似する画像特徴を有する非基準画像を検索することも可能である。しかしながら、非基準画像の枚数(即ちQの値)が大きい場合において、検索基準領域の設定後に、このような解析を行ったならば検索結果が得られるまでの時間が相当に長くなる。そこで、ステップS36における検索を、画像ファイルFL[1]〜FL[Q]の付加データに基づいて行うようにすると良い。
After setting the search reference area, in step S36, the
例えば、“花シーン”に対応する分割画像領域401が検索基準領域として設定されている場合、画像ファイルFL[1]〜FL[Q]に対する計Q個のシーン判定情報の中から、“花シーン”の判定シーンを内包するシーン判定情報を抽出し、抽出したシーン判定情報に対応する非基準画像が検索条件に適合する非基準画像であると判断すると良い。この場合において、画像ファイルFL[1]〜FL[Q]の内、画像ファイルFL[1]及びFL[2]に対するシーン判定情報にのみ、“花シーン”の判定シーンが内包されているならば、非基準画像I[1]及びI[2]のみが検索条件に適合する非基準画像として検出される。分割画像領域402が検索基準領域として設定されている場合も同様である。即ち、“風景シーン”に対応する分割画像領域402が検索基準領域として設定されている場合、画像ファイルFL[1]〜FL[Q]に対する計Q個のシーン判定情報の中から、“風景シーン”の判定シーンを内包するシーン判定情報を抽出し、抽出したシーン判定情報に対応する非基準画像が検索条件に適合する非基準画像であると判断すると良い。
For example, when the divided
尚、検索条件に適合する非基準画像の検索期間中において、検索条件の内容をユーザに通知するようにしても良い。通知の方法は任意であり、人間の五感(視覚、聴覚等)に訴える任意の方法を採用可能である。例えば、“花シーン”に対応する分割画像領域401が検索基準領域として設定されている場合、花を撮影した画像を検索している旨を表示部15に表示し、“風景シーン”に対応する分割画像領域402が検索基準領域として設定されている場合、風景を撮影した画像を検索している旨を表示部15に表示すると良い。また、上述の例では、画像ファイルFL[i]にシーン判定情報が予め格納されていることを想定しているが、画像ファイルFL[i]にシーン判定情報が格納されてない場合には、ステップS36において、非基準画像I[i]の画像データに基づき非基準画像I[i]の各シーン判定領域に対してシーン判定を行い、これによって非基準画像I[i]に対するシーン判定情報を生成するようにしても良い。
Note that the content of the search condition may be notified to the user during the search period of the non-reference image that matches the search condition. The notification method is arbitrary, and any method that appeals to the human senses (sight, hearing, etc.) can be adopted. For example, when the divided
ステップS36の検索が終了すると、ステップS37において、検索処理部60は、ステップS36の検索の結果を表示部15に表示させる(図14(a)又は図14(b)参照)。ユーザが、検索条件に適合する非基準画像の情報を認識できる限り、この表示の方法は任意である。例えば、検索条件に適合する非基準画像そのもの、検索条件に適合する非基準画像のサムネイル、又は、検索条件に適合する非基準画像のファイル名を表示部15に表示させると良い。検索条件に適合する非基準画像が複数枚存在する場合において、検索条件に適合する非基準画像の全て又は検索条件に適合する非基準画像のサムネイルの全てを同時に表示できない場合には、スライドショーの如く、それらを複数回に分けて表示するようにしても良い。尚、検索条件に適合する非基準画像が1枚も存在しない場合には、その旨をユーザに通知すれば良い。
When the search in step S36 ends, in step S37, the
前景側の被写体に注目した画像検索を行わせたいとき、前景側の被写体が検索基準領域に対応するようにユーザは検索用指定操作を成せばよく、逆に、背景側の被写体に注目した画像検索を行わせたいとき、背景側の被写体が検索基準領域に対応するようにユーザは検索用指定操作を成せばよい。このように、第2実施形態によれば、前景と背景を区別したような画像検索を実行することが可能となる。 When it is desired to perform an image search focusing on the foreground subject, the user only needs to perform a search specifying operation so that the foreground subject corresponds to the search reference area, and conversely, an image focusing on the background subject. When it is desired to perform a search, the user may perform a search specifying operation so that the subject on the background side corresponds to the search reference area. As described above, according to the second embodiment, it is possible to execute an image search in which the foreground and the background are distinguished.
以下、第2実施形態に適用可能な応用検索方法を幾つか説明する。以下に示す複数の応用検索方法を組み合わせて実施することも可能である。
[第1応用検索方法]
第1応用検索方法を説明する。上述の説明では、画像特徴に基づいて各非基準画像が検索条件に適合しているか否かが判断されることになるが、更に基準画像IREFの被写体距離情報及び各非基準画像I[i]の被写体距離情報を用いて、この判断を行うようにしても良い。説明の具体化のため、図15の分割画像領域401が検索基準領域に設定されたことを想定して、この方法を詳説する。
Hereinafter, several application search methods applicable to the second embodiment will be described. It is also possible to implement a combination of a plurality of application search methods shown below.
[First applied search method]
The first applied search method will be described. In the above description, it is determined whether or not each non-reference image meets the search condition based on the image feature. Furthermore, the subject distance information of the reference image I REF and each non-reference image I [i This determination may be made using the subject distance information. For the sake of concrete explanation, this method will be described in detail assuming that the divided
上述したように、検索基準領域としての分割画像領域401には花311の画像データが存在しており、結果、分割画像領域401に対応する判定シーンは“花シーン”である。この場合、検索処理部60は、画像ファイルFL[1]〜FL[Q]に対する計Q個のシーン判定情報の中から、“花シーン”の判定シーンを内包するシーン判定情報を抽出する。ここで抽出したシーン判定情報に対応する非基準画像は、検索条件に適合する非基準画像の候補として取り扱われる。今、非基準画像I[1]及びI[2]のみが検索条件に適合する非基準画像の候補として取り扱われたとする。
As described above, the image data of the
上述したように、基準画像IREFにおいて、検索基準領域内の被写体である花311は前景側の被写体である。そして、今、非基準画像I[1]において“花シーン”の判定シーンに対応するシーン判定領域内の被写体が前景側の被写体であって、且つ、非基準画像I[2]において“花シーン”の判定シーンに対応するシーン判定領域内の被写体が背景側の被写体であったとする。この場合、検索条件に適合する非基準画像の候補の内、“花シーン”に対する被写体(即ち花)を前景側の被写体として持つ非基準画像のみを、即ち非基準画像I[1]のみを、検索条件に適合する非基準画像として検出するようにする。この方法によれば、前景側に「花」が位置している非基準画像を検索する、或いは、背景側に「花」が位置している非基準画像を検索する、といった高度な検索が可能となる。
As described above, in the reference image I REF , the
基準画像IREFの被写体距離情報から基準画像IREF上の任意の被写体が前景側及び背景側のどちらの被写体であるかを判断することができ、非基準画像I[i]の被写体距離情報から非基準画像I[i]上の任意の被写体が前景側及び背景側のどちらの被写体であるかを判断することができる。単純には例えば、任意の注目画像に2種類の被写体が含まれている場合、被写体距離の短い方の被写体を前景側の被写体と捉えることができると共に被写体距離の長い方の被写体を背景側の被写体と捉えることができる。また例えば、
任意の注目画像において、注目画像の全被写体の被写体距離の平均を求め、該平均よりも短い被写体距離を有する被写体を前景側の被写体と捉えることができ、該平均よりも長い被写体距離を有する被写体を背景側の被写体と捉えることができる。
Can any subject in the reference image I REF of the object distance reference image from the information I REF to determine whether it is the object of the foreground side and the background side, the object distance information of non-reference image I [i] It can be determined whether an arbitrary subject on the non-reference image I [i] is a foreground side subject or a background side subject. For example, when two types of subjects are included in an arbitrary image of interest, a subject with a shorter subject distance can be regarded as a subject on the foreground side, and a subject with a longer subject distance is placed on the background side. It can be seen as a subject. For example,
In any target image, an average of the subject distances of all subjects in the target image can be obtained, and a subject having a subject distance shorter than the average can be regarded as a foreground subject, and a subject having a subject distance longer than the average Can be regarded as a subject on the background side.
[第2応用検索方法]
第2応用検索方法を説明する。上述の説明では、基準画像IREFに対して検索基準領域が1つだけ設定されているが、ユーザは、検索用指定操作により基準画像IREFに対して複数の検索基準領域を設定することもできる。例えば、基準画像IREFの全体画像領域が第1〜第5分割画像領域に分割され且つ各分割画像領域に対して判定シーンが求められている場合において、ユーザの検索用指定操作により、第1及び第2分割画像領域が検索基準領域に設定された場合を考える。
[Second application search method]
The second applied search method will be described. In the above description, only one search reference area is set for the reference image I REF , but the user may set a plurality of search reference areas for the reference image I REF by a search specifying operation. it can. For example, when the entire image area of the reference image I REF is divided into first to fifth divided image areas and a determination scene is obtained for each divided image area, the first operation for specifying the search is performed by the user. Consider the case where the second divided image region is set as the search reference region.
この場合、検索処理部60は、非基準画像I[i]のシーン判定情報が以下の第1及び第2条件を満たすか否かを判断する。
第1条件は、非基準画像I[i]のシーン判定情報が、基準画像IREFの第1分割画像領域に対する判定シーンと同一の判定シーンを内包しているという条件である。
第2条件は、非基準画像I[i]のシーン判定情報が、基準画像IREFの第2分割画像領域に対する判定シーンと同一の判定シーンを内包しているという条件である。
In this case, the
The first condition is a condition that the scene determination information of the non-reference image I [i] includes the same determination scene as the determination scene for the first divided image area of the reference image IREF .
The second condition is a condition that the scene determination information of the non-reference image I [i] includes the same determination scene as the determination scene for the second divided image area of the reference image I REF .
そして、検索処理部60は、非基準画像I[i]のシーン判定情報が上記第1及び第2条件の双方を満たしている場合にのみ、非基準画像I[i]が検索条件に適合していると判断する。或いは、非基準画像I[i]のシーン判定情報が上記第1及び第2条件の少なくとも一方を満たしている場合にのみ、非基準画像I[i]が検索条件に適合していると判断するようにしても良い。
The
[第3応用検索方法]
第3応用検索方法を説明する。シーン判定情報に基づいて又はシーン判定情報及び被写体距離情報に基づいて検索条件に適合する非基準画像を検出した後、更に、画像解析等を用いて検索条件に適合する非基準画像を絞り込むようにしても良い。例えば、“花シーン”に対応する分割画像領域401が検索基準領域として設定されている場合において、画像ファイルFL[1]及びFL[2]に対するシーン判定情報に“花シーン”の判定シーンが内包されているとき、一旦、非基準画像I[1]及びI[2]を検索条件に適合する非基準画像の候補として検出する。その後、基準画像IREFの分割画像領域401内の画像データと非基準画像I[1]及びI[2]の画像データに基づき、基準画像IREFの分割画像領域401内の画像と非基準画像I[1]内の“花シーン”に対応する部分の画像との間の類似度、及び、基準画像IREFの分割画像領域401内の画像と非基準画像I[2]内の“花シーン”に対応する部分の画像との間の類似度を求め、前者の類似度が所定の基準類似度よりも高い場合に限って非基準画像I[1]は検索条件に適合する非基準画像であると判断するようにしても良く、同様に、後者の類似度が所定の基準類似度よりも高い場合に限って非基準画像I[2]は検索条件に適合する非基準画像であると判断するようにしても良い。これにより例えば、基準画像IREFの分割画像領域401内の花が“ひまわり”であるとき、“ひまわり”の花を撮影した非基準画像が検索条件に適合すると判断され、“あじさい”の花を撮影した非基準画像は検索条件に適合していないと判断される。
[Third applied search method]
A third applied search method will be described. After detecting the non-reference image that matches the search condition based on the scene determination information or based on the scene determination information and the subject distance information, the non-reference image that matches the search condition is further narrowed down using image analysis or the like. May be. For example, when the divided
<<第3実施形態>>
本発明の第3実施形態を説明する。第3実施形態は第1及び第2実施形態を基礎とした実施形態であり、第3実施形態において特に述べない事項に関しては、矛盾なき限り、第1及び第2実施形態の記載が第3実施形態にも適用される。第3実施形態においても、第2実施形態と同様、検索条件に適合する画像の検索動作を説明する。但し、第3実施形態に係る検索方法では、基準画像IREFが必要とならない。図17を参照して、第3実施形態に係る検索動作を説明する。図17は、この検索動作の手順を表すフローチャートである。
<< Third Embodiment >>
A third embodiment of the present invention will be described. The third embodiment is an embodiment based on the first and second embodiments. For matters not specifically described in the third embodiment, the description of the first and second embodiments is the third embodiment as long as there is no contradiction. Also applies to form. In the third embodiment, as in the second embodiment, an image search operation that matches the search condition will be described. However, in the search method according to the third embodiment, the reference image I REF is not necessary. A search operation according to the third embodiment will be described with reference to FIG. FIG. 17 is a flowchart showing the procedure of this search operation.
まず、ステップS51において、撮像装置1は、ユーザによる検索条件の入力を受け付ける。ユーザは、タッチパネル操作又はボタン操作等を用いて検索条件を入力することができる。続くステップS52において、検索処理部60又は図示されない領域分割部は、記録媒体16から各非基準画像の被写体距離情報を読み出し、各非基準画像の被写体距離情報に基づき各非基準画像に対する領域分割処理を実行する。これによって、被検索画像としての非基準画像I[i]内に複数の分割画像領域が設定される。但し、非基準画像I[i]に対する領域分割処理によって設定されるべき非基準画像I[i]の各分割画像領域の位置及び大きさは、基本的に、非基準画像I[i]の画像ファイルFL[i]の判定領域情報によって規定されている。従って、画像ファイルFL[i]から判定領域情報を読み出すことで、非基準画像I[i]に対する領域分割処理を完了させることもできる。
First, in step S51, the
その後、ステップS53において、検索処理部60は、非基準画像ごとに且つ分割画像領域ごとに検索条件の適合性を評価することで、各非基準画像が検索条件に適合しているのか否かを判断する。この判断を、各非基準画像のシーン判定情報を用いて行うことができる。最後にステップS54において、検索処理部60は、ステップS53の検索の結果を表示部15に表示させる。この表示の方法は、第2実施形態のステップS37におけるそれと同様である。ユーザが、検索条件に適合する非基準画像の情報を認識できる限り、この表示の方法は任意である。
After that, in step S53, the
具体例を挙げる。例えば、“撮影シーンが花シーンである非基準画像”、即ち例えば“花を被写体として含む非基準画像”又は“花に注目して撮影した非基準画像”をユーザが探している場合、ユーザは、その旨を表す文言を直接撮像装置1に入力する、或いは、予め設けられた複数の項目の中からその旨を表す項目を選択する。これによって、入力文言又は選択項目に応じた検索条件が設定される。検索条件の設定後、非基準画像I[1]〜I[Q]の夫々の画像特徴を解析し、その解析結果に基づいて検索条件に適合する非基準画像を検索することも可能である。しかしながら、非基準画像の枚数(即ちQの値)が大きい場合において、検索条件の設定後にこのような解析を行うと、検索結果が得られるまでの時間が相当に長くなる。
A specific example is given. For example, when the user is searching for “a non-reference image in which the shooting scene is a flower scene”, for example, “a non-reference image including a flower as a subject” or “a non-reference image taken by focusing on flowers”, the user A word indicating that is directly input to the
そこで、記録媒体16内の付加データを読み出し、非基準画像I[1]のシーン判定情報が“花シーン”を内包している場合(即ち、非基準画像I[1]の何れかの分割画像領域の判定シーンが“花シーン”である場合)には、非基準画像I[1]は検索条件に適合すると判断し、非基準画像I[1]のシーン判定情報が“花シーン”を内包していない場合には、非基準画像I[1]は検索条件に適合していないと判断すると良い。非基準画像I[2]〜I[Q]についても同様である。
Therefore, when the additional data in the
尚、上述の第1応用検索方法の如く、検索条件に被写体距離に関する条件を付加するようにしても良い。この場合、各非基準画像I[i]の被写体距離情報をも用いて、各非基準画像I[i]に対する検索条件の適合/不適合が判断されるようになる。例えば、“撮影シーンが花シーンであって且つ花が前景側の被写体であること”を、ユーザは検索条件として指定することができる。この場合、非基準画像I[1]のシーン判定情報が“花シーン”を内包している場合であっても、非基準画像I[1]の“花シーン”に対応する分割画像領域内の花が背景側の被写体である場合には、非基準画像I[1]は検索条件に適合していないと判断され、非基準画像I[1]の“花シーン”に対応する分割画像領域内の花が前景側の被写体である場合にのみ、非基準画像I[1]が検索条件に適合していると判断されるようになる。非基準画像I[2]〜I[Q]についても同様である。この方法によれば、前景側に「花」が位置している非基準画像を検索する、或いは、背景側に「花」が位置している非基準画像を検索する、といった高度な検索が可能となる。 Note that, as in the first applied search method described above, a condition related to the subject distance may be added to the search condition. In this case, the suitability / nonconformity of the search condition for each non-reference image I [i] is determined using the subject distance information of each non-reference image I [i]. For example, the user can specify “the shooting scene is a flower scene and the flower is a foreground subject” as a search condition. In this case, even if the scene determination information of the non-reference image I [1] includes “flower scene”, the image in the divided image region corresponding to the “flower scene” of the non-reference image I [1]. When the flower is the subject on the background side, it is determined that the non-reference image I [1] does not meet the search condition, and the image is within the divided image region corresponding to the “flower scene” of the non-reference image I [1]. Only when the flower is a foreground subject, it is determined that the non-reference image I [1] meets the search condition. The same applies to the non-reference images I [2] to I [Q]. According to this method, it is possible to search for a non-reference image in which “flower” is located on the foreground side or a non-reference image in which “flower” is located on the background side. It becomes.
ユーザは様々な形態の検索条件を指定することができる。
例えば、“花及び動物を被写体として含むこと”を検索条件に指定することもでき、この指定が成された場合、非基準画像I[1]のシーン判定情報が“花シーン”及び“動物シーン”の双方を内包している場合にのみ、非基準画像I[1]は検索条件に適合すると判断し、それ以外の場合には、非基準画像I[1]は検索条件に適合していないと判断すると良い。非基準画像I[2]〜I[Q]についても同様である。
また例えば、“動物を前景側の被写体として含み且つ海を背景側の被写体として含むこと”を検索条件に指定することもできる。この指定が成された場合、非基準画像I[1]のシーン判定情報が“動物シーン”及び“海シーン”の双方を内包していて、且つ、非基準画像I[1]の“動物シーン”に対応する分割画像領域内の動物が前景側の被写体である共に非基準画像I[1]の“海シーン”に対応する分割画像領域内の海が背景側の被写体である場合にのみ、非基準画像I[1]は検索条件に適合すると判断し、それ以外の場合には、非基準画像I[1]は検索条件に適合していないと判断すると良い。非基準画像I[2]〜I[Q]についても同様である。
The user can specify various types of search conditions.
For example, “include flowers and animals as subjects” can be specified as a search condition. When this specification is made, the scene determination information of the non-reference image I [1] is “flower scene” and “animal scene”. Only when both of "" are included, it is determined that the non-reference image I [1] meets the search condition. In other cases, the non-reference image I [1] does not meet the search condition. It is good to judge. The same applies to the non-reference images I [2] to I [Q].
Further, for example, “include animals as foreground subjects and sea as background subjects” can be specified as a search condition. When this designation is made, the scene determination information of the non-reference image I [1] includes both the “animal scene” and the “sea scene”, and the “animal scene” of the non-reference image I [1] Only when the animal in the divided image region corresponding to “” is the foreground subject and the sea in the divided image region corresponding to the “sea scene” of the non-reference image I [1] is the background subject. It may be determined that the non-reference image I [1] matches the search condition, and otherwise, it is determined that the non-reference image I [1] does not match the search condition. The same applies to the non-reference images I [2] to I [Q].
上述の説明から理解されるように、第3実施形態によれば、例えば、前景側の被写体が検索条件に適合した画像や背景側の被写体が検索条件に適合した画像等を検索することが可能となり、検索条件によっては、それらの画像を区別して検出することも可能となる。 As can be understood from the above description, according to the third embodiment, for example, it is possible to search for an image in which the foreground subject matches the search condition, an image in which the background subject matches the search condition, and the like. Thus, depending on the search condition, it is possible to distinguish and detect these images.
<<変形等>>
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施の形態は、あくまでも、本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以上の実施の形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態に適用可能な注釈事項として、以下に、注釈1及び注釈2を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The embodiments of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims. The above embodiment is merely an embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the above embodiment. The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As annotations applicable to the above-described embodiment,
[注釈1]
第2又は第3実施形態に係る検索動作を、撮像装置1と異なる電子機器(不図示)において実行することもできる。電子機器は、例えば、パーソナルコンピュータ等の画像再生装置、PDA(Personal Digital Assistant)等の情報端末装置である。尚、撮像装置も電子機器の一種である。第2又は第3実施形態に係る検索動作を撮像装置1と異なる電子機器において実行する場合、撮像装置1に設けられた、第2又は第3実施形態の動作に必要な部位(検索処理部60、表示部15、領域分割部等)を、当該電機子器にも設けておくと良い。
[Note 1]
The search operation according to the second or third embodiment can also be executed in an electronic device (not shown) different from the
[注釈2]
図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい。
[Note 2]
The
1 撮像装置
11 撮像部
15 表示部
19 タッチパネル
51 シーン判定部
52 撮影制御部
53 画像処理部
54 表示制御部
55 被写体距離情報生成部
DESCRIPTION OF
Claims (6)
前記撮像素子の出力に基づく判定対象画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、
前記複数の分割画像領域の内、2以上の分割画像領域を判定領域とし、判定領域ごとに、当該判定領域内の画像データに基づいて当該判定領域内の画像のシーン判定を行うシーン判定部と、を備えた
ことを特徴とする撮像装置。 An image sensor that outputs image data of a subject;
An area dividing unit that divides the entire image area of the determination target image based on the output of the imaging element into a plurality of divided image areas;
A scene determination unit configured to determine two or more divided image areas among the plurality of divided image areas as determination areas, and for each determination area, determine a scene of an image in the determination area based on image data in the determination area; An imaging apparatus comprising:
ことを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, further comprising a display unit that displays a result of scene determination for each determination region.
ことを特徴とする請求項1又は請求項2に記載の撮像装置。 Image processing for generating image data of the target image under a condition corresponding to a result of scene determination for each determination region using an output of the image sensor when a predetermined shooting instruction for instructing acquisition of the target image is given The imaging apparatus according to claim 1, further comprising a unit.
前記画像処理部は、判定領域ごとに、対応する撮影パラメータを用いて当該判定領域に対応する前記目標画像内の画像領域の画像データを生成することで、前記目標画像の全体の画像データを生成する
ことを特徴とする請求項3に記載の撮像装置。 For each determination area, shooting parameters are set according to the scene determination result for the determination area,
The image processing unit generates image data of the entire target image by generating image data of the image area in the target image corresponding to the determination area using the corresponding shooting parameter for each determination area. The imaging apparatus according to claim 3, wherein:
与えられた選択指示に従って前記複数の分割画像領域の中から検索基準領域を選択し、前記検索基準領域の画像特徴に対応する画像特徴を有する非基準画像を複数の非基準画像の中から検索する検索処理部と、を備えた
ことを特徴とする電子機器。 An area dividing unit that divides the entire image area of the reference image that is the image of the subject into a plurality of divided image areas;
A search reference area is selected from the plurality of divided image areas in accordance with a given selection instruction, and a non-reference image having an image feature corresponding to the image feature of the search reference area is searched from the plurality of non-reference images. An electronic apparatus comprising: a search processing unit.
前記検索処理部は、前記基準画像の被写体距離情報及び各非基準画像の被写体距離情報をも利用して、各非基準画像が前記検索条件に適合しているか否かを判断する
ことを特徴とする請求項5に記載の電子機器。 The search is a process of selecting a non-reference image that matches a search condition from the plurality of non-reference images,
The search processing unit also uses subject distance information of the reference image and subject distance information of each non-reference image to determine whether each non-reference image meets the search condition. The electronic device according to claim 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010136075A JP2012004716A (en) | 2010-06-15 | 2010-06-15 | Imaging apparatus and electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010136075A JP2012004716A (en) | 2010-06-15 | 2010-06-15 | Imaging apparatus and electronic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012004716A true JP2012004716A (en) | 2012-01-05 |
Family
ID=45536237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010136075A Pending JP2012004716A (en) | 2010-06-15 | 2010-06-15 | Imaging apparatus and electronic apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012004716A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013247590A (en) * | 2012-05-28 | 2013-12-09 | Canon Inc | Imaging apparatus and method of controlling the same |
CN103440672A (en) * | 2013-07-19 | 2013-12-11 | 南京农业大学 | Flowering plant flower image division extracting method |
DE102013226831A1 (en) | 2012-12-27 | 2014-07-03 | Canon K.K. | Imaging apparatus and method for controlling the same |
US8994874B2 (en) | 2012-12-25 | 2015-03-31 | Canon Kabushiki Kaisha | Image capture apparatus and control method therefor |
CN104980651A (en) * | 2014-04-04 | 2015-10-14 | 佳能株式会社 | Image processing apparatus and control method |
US9378422B2 (en) | 2013-10-23 | 2016-06-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008011289A (en) * | 2006-06-30 | 2008-01-17 | Sanyo Electric Co Ltd | Digital camera |
WO2009013850A1 (en) * | 2007-07-23 | 2009-01-29 | Panasonic Corporation | Imaging device |
JP2009071676A (en) * | 2007-09-14 | 2009-04-02 | Casio Comput Co Ltd | Imaging apparatus, and program and method for controlling the same |
JP2009171282A (en) * | 2008-01-17 | 2009-07-30 | Nikon Corp | Electronic camera |
JP2009177272A (en) * | 2008-01-22 | 2009-08-06 | Sony Corp | Imaging apparatus, and control method and program thereof |
JP2010045613A (en) * | 2008-08-13 | 2010-02-25 | Ntt Docomo Inc | Image identifying method and imaging device |
-
2010
- 2010-06-15 JP JP2010136075A patent/JP2012004716A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008011289A (en) * | 2006-06-30 | 2008-01-17 | Sanyo Electric Co Ltd | Digital camera |
WO2009013850A1 (en) * | 2007-07-23 | 2009-01-29 | Panasonic Corporation | Imaging device |
JP2009071676A (en) * | 2007-09-14 | 2009-04-02 | Casio Comput Co Ltd | Imaging apparatus, and program and method for controlling the same |
JP2009171282A (en) * | 2008-01-17 | 2009-07-30 | Nikon Corp | Electronic camera |
JP2009177272A (en) * | 2008-01-22 | 2009-08-06 | Sony Corp | Imaging apparatus, and control method and program thereof |
JP2010045613A (en) * | 2008-08-13 | 2010-02-25 | Ntt Docomo Inc | Image identifying method and imaging device |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013247590A (en) * | 2012-05-28 | 2013-12-09 | Canon Inc | Imaging apparatus and method of controlling the same |
US8994874B2 (en) | 2012-12-25 | 2015-03-31 | Canon Kabushiki Kaisha | Image capture apparatus and control method therefor |
DE102013226831A1 (en) | 2012-12-27 | 2014-07-03 | Canon K.K. | Imaging apparatus and method for controlling the same |
US9635238B2 (en) | 2012-12-27 | 2017-04-25 | Canon Kabushiki Kaisha | Imaging apparatus and method for controlling the same |
DE102013226831B4 (en) | 2012-12-27 | 2019-08-14 | Canon K.K. | Imaging apparatus and method for controlling the same |
CN103440672A (en) * | 2013-07-19 | 2013-12-11 | 南京农业大学 | Flowering plant flower image division extracting method |
US9378422B2 (en) | 2013-10-23 | 2016-06-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
CN104980651A (en) * | 2014-04-04 | 2015-10-14 | 佳能株式会社 | Image processing apparatus and control method |
US9665939B2 (en) | 2014-04-04 | 2017-05-30 | Canon Kabushiki Kaisha | Image processing apparatus, control method, and recording medium |
KR101803712B1 (en) * | 2014-04-04 | 2017-12-01 | 캐논 가부시끼가이샤 | Image processing apparatus, control method, program, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10477093B2 (en) | Method for capturing image and image capturing apparatus for capturing still images of an object at a desired time point | |
JP5159515B2 (en) | Image processing apparatus and control method thereof | |
CN104159021B (en) | Imaging device, imaging method and computer-readable medium | |
JP5834410B2 (en) | Imaging apparatus and imaging method | |
CN101213828B (en) | Method and apparatus for incorporating iris color in red-eye correction | |
JP5299912B2 (en) | Imaging device and data structure of image file | |
US8582891B2 (en) | Method and apparatus for guiding user with suitable composition, and digital photographing apparatus | |
US20120105590A1 (en) | Electronic equipment | |
US9137457B2 (en) | Electronic apparatus and method of controlling the same | |
US20130162672A1 (en) | Image processing device, image processing method, and program | |
US20120194707A1 (en) | Image pickup apparatus, image reproduction apparatus, and image processing apparatus | |
JP2013029656A (en) | Image pickup apparatus | |
JP2012004716A (en) | Imaging apparatus and electronic apparatus | |
US20120188396A1 (en) | Digital photographing apparatuses, methods of controlling the same, and computer-readable storage media | |
CN103179345A (en) | Digital photographing apparatus and method of controlling the same | |
JP2015040941A (en) | Image-capturing device, control method therefor, and program | |
JP2013106284A (en) | Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus | |
US8237802B2 (en) | Method and apparatus for determining shaken image by using auto focusing | |
JP2012175533A (en) | Electronic apparatus | |
KR20150114897A (en) | Image pickup apparatus generating focus changeable image, control method for image pickup apparatus, and storage medium | |
KR20110023081A (en) | Method for controlling a digital photographing apparatus having memory, medium for recording the method, and digital photographing apparatus | |
JP5045538B2 (en) | Imaging apparatus and program | |
JP6099973B2 (en) | Subject area tracking device, control method thereof, and program | |
JP2011193066A (en) | Image sensing device | |
JP2012050121A (en) | Imaging device, imaging method and imaging program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130404 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140708 |