JP2012004716A - Imaging apparatus and electronic apparatus - Google Patents

Imaging apparatus and electronic apparatus Download PDF

Info

Publication number
JP2012004716A
JP2012004716A JP2010136075A JP2010136075A JP2012004716A JP 2012004716 A JP2012004716 A JP 2012004716A JP 2010136075 A JP2010136075 A JP 2010136075A JP 2010136075 A JP2010136075 A JP 2010136075A JP 2012004716 A JP2012004716 A JP 2012004716A
Authority
JP
Japan
Prior art keywords
image
area
determination
scene
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010136075A
Other languages
Japanese (ja)
Inventor
Toshiki Kuma
俊毅 隈
Masahiko Yamada
晶彦 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010136075A priority Critical patent/JP2012004716A/en
Publication of JP2012004716A publication Critical patent/JP2012004716A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform scene determination by discriminating a foreground from a background.SOLUTION: The photographing image of subjects (a flower 311, a mountain 312, and a field 313) is acquired as a determination target image (300). Subject distance information (a distance image 320) expressing a subject distance of each subject is acquired. Then, the determination target image is divided into areas, based on the subject distance information. For example, the whole image area of the determination target image is segmented into a division image area (301) where image data of the subject positioned on a foreground side exists and a division image area (302) where image data of the subject positioned on a background side exists. Scene determination is performed by each division image area, so as to perform image processing corresponding to a scene determination result by each division image area.

Description

本発明は、デジタルカメラ等の撮像装置に関する。また本発明は、撮像装置、画像再生装置、情報端末装置等の電子機器に関する。   The present invention relates to an imaging apparatus such as a digital camera. The present invention also relates to an electronic device such as an imaging device, an image reproducing device, and an information terminal device.

デジタルカメラ等の撮像装置で撮影を行う際、特定の撮影シーンでは撮影シーンに応じた最適な撮影条件(シャッタスピード、絞り値、ISO感度等)が存在する。しかし、一般に、撮影条件のマニュアル設定は複雑である。これを考慮し、撮像装置には、撮影シーンを自動的に判定し、撮影条件を自動的に最適化する自動シーン判定機能が搭載されていることが多い。この機能では、撮影範囲内に存在する被写体の種類を判別したり被写体の明るさを検出したりすることで撮影シーンを判定し、判定シーンに基づいて複数の登録撮影モードの中から最適な撮影モードを選択する。そして、選択した撮影モードに従った撮影条件にて撮影を行うことで撮影条件の最適化を図る。   When shooting with an imaging device such as a digital camera, there are optimum shooting conditions (shutter speed, aperture value, ISO sensitivity, etc.) according to the shooting scene in a specific shooting scene. However, in general, manual setting of shooting conditions is complicated. Considering this, an imaging apparatus is often equipped with an automatic scene determination function that automatically determines a shooting scene and automatically optimizes shooting conditions. With this function, the shooting scene is determined by determining the type of subject existing within the shooting range or detecting the brightness of the subject, and the optimal shooting is selected from multiple registered shooting modes based on the determination scene. Select a mode. Then, the shooting conditions are optimized by shooting under the shooting conditions according to the selected shooting mode.

このように、自動シーン判定機能はユーザにとって有益な機能である。しかしながら、被写体の状態によってはユーザが望むシーン判定結果が得難いこともあり、その場合、所望のシーン判定結果が得られるまで、ユーザは撮影構図の調整等を強いられることもある。例えば、図18(a)に示す如く、前景側に位置する花911と背景側に位置する山912及び草原913を被写体として撮影範囲に収めた状態を考える。図18(a)の画像900は、その状態での撮影によって得られた画像である。また、ユーザは、花911を主要被写体として考えていて、自動シーン判定機能による判定シーンが花の撮影に適した花シーンとなることを望んでいるものとする。   Thus, the automatic scene determination function is a useful function for the user. However, depending on the state of the subject, it may be difficult to obtain the scene determination result desired by the user. In this case, the user may be forced to adjust the shooting composition until the desired scene determination result is obtained. For example, as shown in FIG. 18A, a state is considered in which a flower 911 located on the foreground side, a mountain 912 and a meadow 913 located on the background side are taken as subjects in the photographing range. An image 900 in FIG. 18A is an image obtained by shooting in that state. In addition, it is assumed that the user considers the flower 911 as a main subject and desires that the determination scene by the automatic scene determination function is a flower scene suitable for shooting a flower.

自動シーン判定機能を担うシーン判定部(不図示)は、画像900に対してシーン判定処理を行う。画像900には花911、山912及び草原913が存在しているため、画像900の撮影シーンは、花の撮影に適した花シーンであるとも、風景の撮影に適した風景シーンであるとも推定される。シーン判定部は、画像900上における各被写体の位置及び大きさ等を考慮して花シーン及び風景シーンの一方を選択し、選択した方を判定シーンとしてユーザに提示する。図18(b)に、風景シーンが判定シーンとして設定されたときの表示画面を示す。図18(b)において、ドットで満たされた領域は表示部の筐体部分を表しいている(後述の図19(b)も同様)。   A scene determination unit (not shown) having an automatic scene determination function performs a scene determination process on the image 900. Since the image 900 includes a flower 911, a mountain 912, and a meadow 913, the shooting scene of the image 900 is estimated to be a flower scene suitable for shooting a flower or a landscape scene suitable for shooting a landscape. Is done. The scene determination unit selects one of the flower scene and the landscape scene in consideration of the position and size of each subject on the image 900, and presents the selected one to the user as a determination scene. FIG. 18B shows a display screen when a landscape scene is set as a determination scene. In FIG. 18B, a region filled with dots represents a housing portion of the display unit (the same applies to FIG. 19B described later).

図18(b)のような表示が成された際、ユーザは判定シーンが花シーンとなるまで、即ち、判定シーンが花シーンであることを示す図19(b)のような表示が成されるまで撮影構図を調整する必要がある。例えば、図19(a)の撮影画像920が得られるように、花911を撮影範囲の中心に配置させたり、撮影画角を縮小したりする必要がある。   When the display as shown in FIG. 18B is made, the user makes a display as shown in FIG. 19B until the judgment scene becomes a flower scene, that is, the judgment scene is a flower scene. It is necessary to adjust the shooting composition until For example, it is necessary to arrange the flower 911 at the center of the shooting range or reduce the shooting angle of view so that the shot image 920 of FIG.

他方、撮像装置等の電子機器において、検索条件に適合した画像を複数の記録画像の中から検索する方法が提案されている。   On the other hand, in an electronic apparatus such as an imaging apparatus, a method for searching for an image that meets a search condition from a plurality of recorded images has been proposed.

例えば、ユーザが図18(a)の画像900に類似する画像を探している場合を考える。この際、ユーザは花911に注目しており、花を被写体に含んだ画像を探しているものとする。この場合、ユーザは、画像900に類似する画像の検索を電子機器に指示することになるが、この指示を受けたとき、電子機器は、ユーザの意図に反し、風景に注目して検索を行うことがある。即ち、花を含まない代わりに、山912及び草原913に対応するような風景を含んだ画像(例えば、図20の画像931や画像932)を検索結果画像として出力する場合がある。   For example, consider a case where the user is searching for an image similar to the image 900 of FIG. At this time, it is assumed that the user pays attention to the flower 911 and is looking for an image including the flower as a subject. In this case, the user instructs the electronic device to search for an image similar to the image 900. When this instruction is received, the electronic device performs a search focusing on the landscape against the user's intention. Sometimes. That is, an image including a landscape corresponding to the mountain 912 and the meadow 913 (for example, the image 931 and the image 932 in FIG. 20) may be output as a search result image instead of including a flower.

また例えば、ユーザが図19(a)の画像920に類似する画像を探している場合を考える。この際、ユーザは山912及び草原913に対応するような風景を被写体に含んだ画像を探しているものとする。この場合、ユーザは、画像920に類似する画像の検索を電子機器に指示することになるが、この指示を受けたとき、電子機器は、ユーザの意図に反し、花に注目して検索を行うことある。即ち、山912及び草原913に対応するような風景を含まない代わりに、花を含んだ画像(例えば、図21の画像941や画像942)を検索結果画像として出力する場合がある。   For example, consider a case where the user is searching for an image similar to the image 920 in FIG. At this time, it is assumed that the user is searching for an image including a landscape corresponding to the mountain 912 and the meadow 913 as a subject. In this case, the user instructs the electronic device to search for an image similar to the image 920, but when receiving this instruction, the electronic device performs a search focusing on flowers against the user's intention. There is. That is, instead of not including a landscape corresponding to the mountain 912 and the grassland 913, an image including a flower (for example, the image 941 and the image 942 in FIG. 21) may be output as a search result image.

尚、下記特許文献1には、測距結果を用いて被写体の種類を識別し、識別した被写体の種類に基づいて撮影モードを設定する方法が提案されている。   Patent Document 1 below proposes a method of identifying the type of a subject using a distance measurement result and setting a shooting mode based on the identified type of the subject.

特開2009−272799号公報JP 2009-272799 A

上述した従来の自動シーン判定機能では、前景側に位置する被写体や背景側に位置する被写体など、様々な被写体が撮影範囲内に存在しているにも関らず、所定のアルゴリズムに沿って常に単一のシーン判定結果が導出及び表示される。このため、所望のシーン判定結果が得られないときに、上述したような撮影構図の調整等が必要となる。仮に、前景と背景を区別するようなシーン判定を行うことができたならば、このような撮影構図の調整等が不要となり又は軽減され、ユーザの利便性が向上する。尚、特許文献1の方法は、このような利便性向上に寄与する方法ではない。   In the conventional automatic scene determination function described above, various subjects such as a subject located on the foreground side and a subject located on the background side are always present in accordance with a predetermined algorithm even though there are various subjects within the shooting range. A single scene determination result is derived and displayed. For this reason, when a desired scene determination result cannot be obtained, adjustment of the shooting composition as described above is required. If a scene determination that distinguishes the foreground and the background can be performed, such adjustment of the shooting composition is unnecessary or reduced, and the convenience for the user is improved. In addition, the method of patent document 1 is not a method which contributes to such a convenience improvement.

画像検索についても同様である。即ち、上述した従来の画像検索方法では、ユーザの意図に反し、前景側被写体にのみ注目した画像検索や背景側被写体にのみ注目した画像検索が行われることがある。仮に、ユーザの意図に沿って前景と背景を区別するような画像検索を行うことができたならば、ユーザの意図に合致した検索が可能となる。   The same applies to image retrieval. That is, in the above-described conventional image search method, an image search focusing only on the foreground subject or an image search focusing only on the background subject may be performed, contrary to the user's intention. If an image search that distinguishes the foreground and the background according to the user's intention can be performed, a search that matches the user's intention can be performed.

そこで本発明は、前景と背景を区別したようなシーン判定を行いうる撮像装置を提供することを目的とする。また本発明は、前景と背景を区別したような画像検索を行いうる電子機器を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus capable of performing scene determination such that a foreground and a background are distinguished. It is another object of the present invention to provide an electronic device that can perform an image search such that a foreground and a background are distinguished.

本発明に係る撮像装置は、被写体の画像データを出力する撮像素子と、前記撮像素子の出力に基づく判定対象画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、前記複数の分割画像領域の内、2以上の分割画像領域を判定領域とし、判定領域ごとに、当該判定領域内の画像データに基づいて当該判定領域内の画像のシーン判定を行うシーン判定部と、を備えたことを特徴とする。   An imaging device according to the present invention includes an imaging element that outputs image data of a subject, an area dividing unit that divides an entire image area of a determination target image based on an output of the imaging element into a plurality of divided image areas, and the plurality of the plurality of divided image areas. A scene determination unit configured to determine two or more divided image areas of the divided image areas as determination areas, and for each determination area, determine a scene of an image in the determination area based on image data in the determination area; It is characterized by that.

これにより、例えば、前景側の被写体に注目したシーン判定と背景側の被写体に注目したシーン判定を個別に行うことが可能となる。それらのシーン判定の結果を用いて画像データの生成を行うようにすれば、前景側の被写体及び背景側の被写体の画像データを個別に最適化することも可能である。   Thereby, for example, it is possible to individually perform scene determination focused on the foreground subject and scene determination focused on the background subject. If image data is generated using the results of the scene determination, it is possible to individually optimize the image data of the foreground subject and the background subject.

また例えば、各判定領域に対するシーン判定の結果を表示する表示部を更に撮像装置に設けておくとよい。   In addition, for example, a display unit that displays a result of scene determination for each determination region may be further provided in the imaging apparatus.

これにより、ユーザは、各シーン判定の結果を認識することができると共に、それらが所望の結果であるのかを確認することができる。   Thereby, the user can recognize the result of each scene determination, and can confirm whether the result is a desired result.

そして例えば、目標画像の取得を指示する所定の撮影指示が与えられた際、前記撮像素子の出力を用い、各判定領域に対するシーン判定の結果に応じた条件にて前記目標画像の画像データを生成する画像処理部を当該撮像装置に更に設けておくと良い。   Then, for example, when a predetermined shooting instruction for instructing acquisition of a target image is given, the output of the image sensor is used to generate image data of the target image under conditions according to the result of scene determination for each determination region It is preferable to further provide an image processing unit for the imaging apparatus.

これにより、前景側の被写体及び背景側の被写体の画像データを個別に最適化するといったことも可能となる。   As a result, the image data of the foreground subject and the background subject can be individually optimized.

より具体的には例えば、判定領域ごとに、当該判定領域に対するシーン判定の結果に応じた撮影パラメータが設定され、前記画像処理部は、判定領域ごとに、対応する撮影パラメータを用いて当該判定領域に対応する前記目標画像内の画像領域の画像データを生成することで、前記目標画像の全体の画像データを生成する。   More specifically, for example, shooting parameters corresponding to the result of scene determination for the determination region are set for each determination region, and the image processing unit uses the corresponding shooting parameter for each determination region. The image data of the entire target image is generated by generating the image data of the image area in the target image corresponding to.

本発明に係る電子機器は、被写体の画像である基準画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、与えられた選択指示に従って前記複数の分割画像領域の中から検索基準領域を選択し、前記検索基準領域の画像特徴に対応する画像特徴を有する非基準画像を複数の非基準画像の中から検索する検索処理部と、を備えたことを特徴とする。   An electronic apparatus according to the present invention includes an area dividing unit that divides an entire image area of a reference image that is an image of a subject into a plurality of divided image areas, and a search reference from the plurality of divided image areas according to a given selection instruction. A search processing unit that selects a region and searches a plurality of non-reference images for a non-reference image having an image feature corresponding to the image feature of the search reference region.

これにより、例えば、前景側の被写体画像に類似する画像の検索や背景側の被写体画像に類似する画像の検索を区別して行うことが可能となる。   Accordingly, for example, it is possible to distinguish between searching for an image similar to the foreground subject image and searching for an image similar to the background subject image.

また例えば、前記検索は、検索条件に適合する非基準画像を前記複数の非基準画像の中から選ぶ処理であり、前記検索処理部は、前記基準画像の被写体距離情報及び各非基準画像の被写体距離情報をも利用して、各非基準画像が前記検索条件に適合しているか否かを判断するようにしても良い。   Further, for example, the search is a process of selecting a non-reference image that matches a search condition from the plurality of non-reference images, and the search processing unit includes subject distance information of the reference image and subjects of each non-reference image. The distance information may also be used to determine whether each non-reference image meets the search condition.

これにより、例えば、前景側に「花」が位置している画像を検索する或いは背景側に「花」が位置している画像を検索する、といった高度な検索が可能となる。   Thus, for example, an advanced search such as searching for an image having “flower” on the foreground side or searching for an image having “flower” on the background side becomes possible.

また、被写体の画像である複数の被検索画像の中から、検索条件に適合する被検索画像を検索する検索処理部と、被検索画像ごとに、当該被検索画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、を備えた他の電子機器を形成するようにしても良い。当該他の電子機器において、前記検索処理部は、被検索画像ごとに、当該被検索画像の各分割画像領域と前記検索条件との適合性を評価することにより当該被検索画像が前記検索条件に適合しているか否かを判断しても良い。   In addition, a search processing unit that searches for a search target image that satisfies a search condition from a plurality of search target images that are images of a subject, and a whole image area of the search target image for each search target image is divided into a plurality of divisions. You may make it form the other electronic device provided with the area | region division part divided | segmented into an image area | region. In the other electronic device, for each image to be searched, the search processing unit evaluates the suitability between each of the divided image regions of the image to be searched and the search condition, so that the image to be searched satisfies the search condition. It may be determined whether or not it conforms.

これにより、例えば、前景側の被写体が検索条件に適合した画像や背景側の被写体が検索条件に適合した画像等を検索することが可能となり、検索条件によっては、それらの画像を区別して検出することも可能となる。   As a result, for example, it is possible to search for an image in which the foreground subject matches the search condition, an image in which the background subject matches the search condition, etc., and depending on the search condition, these images are distinguished and detected. It is also possible.

この際、例えば、前記検索処理部は、各被検索画像の被写体距離情報をも利用して、各被検索画像が前記検索条件に適合しているか否かを判断すると良い。   At this time, for example, the search processing unit may also determine whether each searched image meets the search condition by using subject distance information of each searched image.

これにより、例えば、前景側に「花」が位置している画像を検索する或いは背景側に「花」が位置している画像を検索する、といった高度な検索が可能となる。   Thus, for example, an advanced search such as searching for an image having “flower” on the foreground side or searching for an image having “flower” on the background side becomes possible.

本発明によれば、前景と背景を区別したようなシーン判定を行いうる撮像装置及び前景と背景を区別したような画像検索を行いうる電子機器を提供することが可能となる。   According to the present invention, it is possible to provide an imaging apparatus capable of performing scene determination in which the foreground and the background are distinguished and an electronic apparatus capable of performing image search in which the foreground and the background are distinguished.

本発明の第1実施形態に係る撮像装置の概略全体ブロック図である。1 is a schematic overall block diagram of an imaging apparatus according to a first embodiment of the present invention. 図1に示される撮像部の内部構成図である。It is an internal block diagram of the imaging part shown by FIG. 図1の撮像装置に内包される、自動シーン判定及び撮影条件の最適化に寄与する部分のブロック図である。FIG. 2 is a block diagram of a part that contributes to automatic scene determination and imaging condition optimization included in the imaging apparatus of FIG. 1. 入力画像とシーン判定領域との関係を表す図である。It is a figure showing the relationship between an input image and a scene determination area | region. 本発明の第1実施形態に係る撮影動作の手順を表すフローチャートである。It is a flowchart showing the procedure of the imaging | photography operation | movement which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係り、判定対象画像及び目標画像の関係を示す図である。It is a figure which concerns on 1st Embodiment of this invention and shows the relationship between a determination target image and a target image. 本発明の第1実施形態に係り、判定対象画像を示す図(a)と、距離画像を示す図(b)と、距離画像に基づいて判定対象画像が領域分割される様子を示す図(c)である。The figure (a) which shows a judgment object picture, the figure (b) which shows a distance picture concerning a 1st embodiment of the present invention, and the figure (c) showing signs that a judgment target picture is divided into areas based on a distance picture ). 本発明の第1実施形態に係り、シーン判定処理の結果が表示される様子を示す図である。It is a figure which shows a mode that the result of a scene determination process is displayed concerning 1st Embodiment of this invention. 本発明の第1実施形態に係り、撮像素子の出力に基づく対象入力画像に第1及び第2特定画像処理を適用することによって目標画像が生成される様子を示した図である。It is a figure concerning a 1st embodiment of the present invention and showing signs that a target picture is generated by applying the 1st and 2nd specific image processing to the object input picture based on the output of an image sensor. 本発明の第2実施形態に係り、画像ファイルの構造を示す図(a)と、付加データの構成を示す図(b)である。FIG. 7A is a diagram illustrating a structure of an image file and FIG. 8B is a diagram illustrating a configuration of additional data according to the second embodiment of the present invention. 本発明の第2実施形態に係り、図1の主制御部に検索処理部が内包されている様子を示す図である。It is a figure which shows a mode that the search process part is included in the main control part of FIG. 1 in connection with 2nd Embodiment of this invention. 本発明の第2実施形態に係り、記録媒体に保存された複数の画像ファイルを示す図である。FIG. 9 is a diagram illustrating a plurality of image files stored in a recording medium according to the second embodiment of the present invention. 本発明の第2実施形態に係る検索動作の手順を表すフローチャートである。It is a flowchart showing the procedure of the search operation | movement which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係り、表示部の表示内容の時間変化等を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the time change etc. of the display content of a display part. 本発明の第2実施形態に係り、基準画像が領域分割される様子を示す図である。It is a figure which shows a mode that the reference | standard image is divided into areas according to 2nd Embodiment of this invention. 本発明の第2実施形態に係り、表示画面の例を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the example of a display screen. 本発明の第3実施形態に係る検索動作の手順を表すフローチャートである。It is a flowchart showing the procedure of the search operation | movement which concerns on 3rd Embodiment of this invention. 従来技術に係り、自動シーン判定の対象となる画像を示す図(a)と、その自動シーン判定の結果が表示される様子を示す図(b)である。FIG. 4A is a diagram illustrating an image that is a target of automatic scene determination according to the related art, and FIG. 5B is a diagram illustrating a state in which a result of the automatic scene determination is displayed. 従来技術に係り、自動シーン判定の対象となる画像を示す図(a)と、その自動シーン判定の結果が表示される様子を示す図(b)である。FIG. 4A is a diagram illustrating an image that is a target of automatic scene determination according to the related art, and FIG. 5B is a diagram illustrating a state in which a result of the automatic scene determination is displayed. 従来の画像検索方法によって検索された画像例を示す図である。It is a figure which shows the example of an image searched by the conventional image search method. 従来の画像検索方法によって検索された画像例を示す図である。It is a figure which shows the example of an image searched by the conventional image search method.

以下、本発明の実施形態の幾つかを、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。   Hereinafter, some embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.

<<第1実施形態>>
本発明の第1実施形態を説明する。図1は、第1実施形態に係る撮像装置1の概略全体ブロック図である。撮像装置1は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。撮像装置1は、携帯電話機などの携帯端末に搭載されるものであっても良い。
<< First Embodiment >>
A first embodiment of the present invention will be described. FIG. 1 is a schematic overall block diagram of an imaging apparatus 1 according to the first embodiment. The imaging device 1 is a digital still camera capable of capturing and recording still images, or a digital video camera capable of capturing and recording still images and moving images. The imaging device 1 may be mounted on a mobile terminal such as a mobile phone.

撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、表示部15と、記録媒体16と、操作部17と、を備えている。   The imaging device 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a main control unit 13, an internal memory 14, a display unit 15, a recording medium 16, and an operation unit 17.

図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、主制御部13からの制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量(換言すれば、絞り値)を制御する。   FIG. 2 shows an internal configuration diagram of the imaging unit 11. The imaging unit 11 drives and controls the optical system 35, the diaphragm 32, the imaging element 33 such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and the optical system 35 or the diaphragm 32. And a driver 34. The optical system 35 is formed from a plurality of lenses including the zoom lens 30 and the focus lens 31. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction. The driver 34 drives and controls the positions of the zoom lens 30 and the focus lens 31 and the opening degree of the diaphragm 32 based on the control signal from the main control unit 13, so that the focal length (view angle) and focus of the imaging unit 11 are controlled. The position and the amount of light incident on the image sensor 33 (in other words, the aperture value) are controlled.

撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。   The image sensor 33 photoelectrically converts an optical image representing a subject incident through the optical system 35 and the diaphragm 32 and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the image sensor 33 includes a plurality of light receiving pixels arranged two-dimensionally in a matrix, and in each photographing, each light receiving pixel stores a signal charge having a charge amount corresponding to the exposure time. An analog signal from each light receiving pixel having a magnitude proportional to the amount of stored signal charge is sequentially output to the AFE 12 in accordance with a drive pulse generated in the imaging device 1.

AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号をRAWデータとして主制御部13に出力する。AFE12における信号増幅の増幅度は、主制御部13によって制御される。   The AFE 12 amplifies the analog signal output from the imaging unit 11 (image sensor 33), and converts the amplified analog signal into a digital signal. The AFE 12 outputs this digital signal to the main control unit 13 as RAW data. The amplification degree of signal amplification in the AFE 12 is controlled by the main control unit 13.

主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等から成る。主制御部13は、AFE12からのRAWデータに基づいて、撮像部11によって撮影された画像(以下、撮影画像とも言う)を表す画像データを生成する。ここで生成される画像データには、例えば、輝度信号及び色差信号が含まれる。但し、RAWデータそのものも画像データの一種であり、撮像部11から出力されるアナログ信号も画像データの一種である。また、主制御部13は、表示部15の表示内容を制御する表示制御手段としての機能をも備え、表示に必要な制御を表示部15に対して行う。   The main control unit 13 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Based on the RAW data from the AFE 12, the main control unit 13 generates image data representing an image captured by the imaging unit 11 (hereinafter also referred to as a captured image). The image data generated here includes, for example, a luminance signal and a color difference signal. However, the RAW data itself is a kind of image data, and an analog signal output from the imaging unit 11 is also a kind of image data. The main control unit 13 also has a function as display control means for controlling the display content of the display unit 15, and performs control necessary for display on the display unit 15.

内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。表示部15は、液晶ディスプレイパネル等の表示画面を有する表示装置であり、主制御部13の制御の下、撮影された画像や記録媒体16に記録されている画像などを表示する。   The internal memory 14 is formed by SDRAM (Synchronous Dynamic Random Access Memory) or the like, and temporarily stores various data generated in the imaging device 1. The display unit 15 is a display device having a display screen such as a liquid crystal display panel, and displays captured images, images recorded on the recording medium 16, and the like under the control of the main control unit 13.

表示部15にはタッチパネル19が設けられており、ユーザは、表示部15の表示画面を操作体で触れることで撮像装置1に特定の指示を与えることができる。表示部15の表示画面を操作体で触れることによる操作をタッチパネル操作と呼ぶ。操作体と表示部15の表示画面との接触位置をタッチ位置と呼ぶ。操作体が表示部15の表示画面が触れたとき、その触れた位置(即ちタッチ位置)を指し示す座標値が主制御部13に伝達される。操作体は、指やペンなどであるが、以下では主として操作体が指であることを想定する。本明細書において、単に表示及び表示画面と言った場合、それらは、表示部15における表示及び表示画面を指すものとする。   A touch panel 19 is provided on the display unit 15, and the user can give a specific instruction to the imaging apparatus 1 by touching the display screen of the display unit 15 with an operating tool. An operation by touching the display screen of the display unit 15 with an operating body is referred to as a touch panel operation. A contact position between the operating tool and the display screen of the display unit 15 is referred to as a touch position. When the operating body touches the display screen of the display unit 15, coordinate values indicating the touched position (ie, touch position) are transmitted to the main control unit 13. The operation body is a finger, a pen, or the like. In the following, it is mainly assumed that the operation body is a finger. In this specification, when it is simply referred to as a display and a display screen, they refer to a display and a display screen in the display unit 15.

記録媒体16は、カード状半導体メモリや磁気ディスク等の不揮発性メモリであり、主制御部13による制御の下、撮影画像などを記憶する。操作部17は、静止画像の撮影指示を受け付けるシャッタボタン20等を備え、外部からの各種操作を受け付ける。操作部17に対する操作を、タッチパネル操作と区別すべく、ボタン操作とも呼ぶ。操作部17に対する操作内容は、主制御部13に伝達される。   The recording medium 16 is a non-volatile memory such as a card-like semiconductor memory or a magnetic disk, and stores a photographed image or the like under the control of the main control unit 13. The operation unit 17 includes a shutter button 20 that receives a still image shooting instruction, and receives various operations from the outside. The operation on the operation unit 17 is also referred to as a button operation in order to distinguish it from the touch panel operation. The content of the operation on the operation unit 17 is transmitted to the main control unit 13.

撮像装置1には、ユーザが撮影しようとするシーンを自動的に判定し、撮影条件を自動的に最適化する機能が備えられている。第1実施形態では、以下、主として、この機能の説明を行う。図3は、この機能の実現に特に関与する部位のブロック図である。シーン判定部51、撮影制御部52、画像処理部53及び表示制御部54は、図1の主制御部13内に設けられる。撮像装置1には、被写体距離情報生成部55が設けられている。被写体距離情報生成部55を図3に示す如く主制御部13外に設けても良いし、主制御部13内に設けるようにしても良い。   The imaging apparatus 1 has a function of automatically determining a scene to be photographed by a user and automatically optimizing photographing conditions. In the first embodiment, the function will be mainly described below. FIG. 3 is a block diagram of a part particularly involved in realizing this function. The scene determination unit 51, the imaging control unit 52, the image processing unit 53, and the display control unit 54 are provided in the main control unit 13 of FIG. The imaging apparatus 1 is provided with a subject distance information generation unit 55. The subject distance information generation unit 55 may be provided outside the main control unit 13 as shown in FIG. 3 or may be provided inside the main control unit 13.

シーン判定部51には、入力画像の画像データが与えられる。入力画像とは、撮像部11から出力される画像データに基づく二次元画像を指す。RAWデータそのものが入力画像の画像データであっても良いし、RAWデータに対して所定の画像処理(デモザイキング処理、ノイズ低減処理、色補正処理等)を施して得られる画像データが入力画像の画像データであっても良い。撮像部11は所定のフレームレートで撮影を行うことができるため、入力画像も所定のフレームレートで順次得られる。   The scene determination unit 51 is provided with image data of an input image. The input image refers to a two-dimensional image based on image data output from the imaging unit 11. The RAW data itself may be image data of the input image, or image data obtained by performing predetermined image processing (demosaicing processing, noise reduction processing, color correction processing, etc.) on the RAW data It may be image data. Since the imaging unit 11 can perform shooting at a predetermined frame rate, input images can also be sequentially obtained at a predetermined frame rate.

シーン判定部51は、入力画像内にシーン判定領域を設定し、シーン判定領域内の画像データに基づいてシーン判定処理を行う。シーン判定部51は、入力画像ごとにシーン判定処理を行うことができる。被写体距離情報生成部55からの被写体距離情報に基づきシーン判定領域を設定することもできるが、その方法については後述する。   The scene determination unit 51 sets a scene determination area in the input image, and performs a scene determination process based on image data in the scene determination area. The scene determination unit 51 can perform a scene determination process for each input image. The scene determination area can be set based on the subject distance information from the subject distance information generation unit 55, and the method will be described later.

図4は、入力画像とシーン判定領域との関係を表している。図4において、符号200は任意の1枚の入力画像を表しており、符号201は入力画像200に設定されたシーン判定領域を表している。シーン判定領域201は、入力画像200の全体画像領域そのもの、又は、入力画像200の全体画像領域の一部である。図4では、シーン判定領域201が、入力画像200の全体画像領域の一部であることが想定されている。以下の説明では、図4に示す如く、シーン判定領域201に代表される任意のシーン判定領域の形状が矩形であることを想定する。但し、シーン判定領域の形状を矩形以外とすることも可能である。   FIG. 4 shows the relationship between the input image and the scene determination area. In FIG. 4, reference numeral 200 represents an arbitrary input image, and reference numeral 201 represents a scene determination area set in the input image 200. The scene determination area 201 is the entire image area of the input image 200 or a part of the entire image area of the input image 200. In FIG. 4, it is assumed that the scene determination area 201 is a part of the entire image area of the input image 200. In the following description, as shown in FIG. 4, it is assumed that the shape of an arbitrary scene determination area represented by the scene determination area 201 is a rectangle. However, the shape of the scene determination area can be other than a rectangle.

入力画像に対するシーン判定処理は、入力画像からの画像特徴量の抽出、入力画像の被写体の検出、入力画像の色相の分析、入力画像の撮影時における被写体の光源状態の推定等を用いて実行され、その判定に公知の任意の方法(例えば、特開2008−11289号公報又は特開2009−71666号公報に記載の方法)を用いることができる。   The scene determination process for the input image is performed using extraction of image features from the input image, detection of the subject of the input image, analysis of the hue of the input image, estimation of the light source state of the subject at the time of shooting the input image, and the like. Any known method (for example, the method described in JP2008-11289A or JP2009-71666A) can be used for the determination.

複数の登録シーンが予めシーン判定部51に設定されている。複数の登録シーンには、例えば、人物が注目された撮影シーンであるポートレートシーン、風景が注目された撮影シーンである風景シーン、花が注目された撮影シーンである花シーン、紅葉が注目された撮影シーンである紅葉シーン、動物が注目された撮影シーンである動物シーン、海が注目された撮影シーンである海シーン、日中の撮影状態を表す日中シーン、夜景の撮影状態を表す夜景シーンなどが含まれうる。シーン判定部51は、注目した入力画像の画像データからシーン判定処理に有益な画像特徴量を抽出することで、その注目した入力画像の撮影シーンを上記複数の登録シーンの中から選択し、これによって、注目した入力画像の撮影シーンを判定する。シーン判定部51によって判定された撮影シーンを、判定シーンと呼ぶ。シーン判定部51は、判定シーンを表すシーン判定情報並びにシーン判定領域の位置及び大きさを表す判定領域情報を撮影制御部52及び表示制御部54に与える。尚、シーン判定情報及び判定領域情報は、撮影制御部52及び表示制御部54以外の任意の部位(画像処理部53等)にも与えられうる。   A plurality of registered scenes are set in the scene determination unit 51 in advance. Among the registered scenes, for example, portrait scenes, which are shooting scenes that attract attention of people, landscape scenes, which are shooting scenes that attract attention of scenery, flower scenes, which are shooting scenes that attract attention of flowers, and autumn leaves Autumn scene, which is a shooting scene, animal scene, which is a shooting scene where animals are attracting attention, sea scene, which is a shooting scene where the sea is focused, daytime scenes that indicate shooting conditions during the day, and night scenes that indicate shooting conditions of the night view Scenes can be included. The scene determination unit 51 extracts an image feature amount useful for scene determination processing from the image data of the focused input image, thereby selecting a shooting scene of the focused input image from the plurality of registered scenes. Thus, the shooting scene of the focused input image is determined. The shooting scene determined by the scene determination unit 51 is called a determination scene. The scene determination unit 51 provides the shooting control unit 52 and the display control unit 54 with scene determination information indicating the determination scene and determination region information indicating the position and size of the scene determination region. The scene determination information and the determination area information can be given to any part (image processing unit 53 and the like) other than the imaging control unit 52 and the display control unit 54.

撮影制御部52は、シーン判定情報に基づき、撮影条件を既定する撮影モードを設定する。撮影モードにて既定される撮影条件には、入力画像の撮影時におけるシャッタスピード(即ち、入力画像の画像データを撮像素子33から得るための、撮像素子33の露光時間の長さ)、入力画像の撮影時における絞り値、入力画像の撮影時におけるISO感度、画像処理部53において入力画像に行われるべき画像処理(以下、特定画像処理という)の内容などが含まれる。ISO感度は、ISO(International Organization for Standardization)によって規定された感度を意味し、ISO感度を調節することで入力画像の明るさ(輝度レベル)を調節することができる。実際には、ISO感度に応じてAFE12における信号増幅の増幅度を決定する。撮影制御部52は、撮影モードの設定後、設定した撮影モードの撮影条件で入力画像の画像データが得られるように撮像部11及びAFE12を制御すると共に、画像処理部53を制御する。尚、撮影制御部52は、フォーカス状態及び露光状態を最適化するためのカメラ制御を実行することもできる。   The shooting control unit 52 sets a shooting mode for setting shooting conditions based on the scene determination information. The shooting conditions defined in the shooting mode include the shutter speed at the time of shooting the input image (that is, the length of the exposure time of the image sensor 33 for obtaining the image data of the input image from the image sensor 33), the input image. The aperture value at the time of shooting, the ISO sensitivity at the time of shooting the input image, the content of image processing (hereinafter referred to as specific image processing) to be performed on the input image by the image processing unit 53, and the like are included. The ISO sensitivity means sensitivity defined by ISO (International Organization for Standardization), and the brightness (luminance level) of the input image can be adjusted by adjusting the ISO sensitivity. Actually, the amplification factor of the signal amplification in the AFE 12 is determined according to the ISO sensitivity. After setting the shooting mode, the shooting control unit 52 controls the imaging unit 11 and the AFE 12 so that the image data of the input image can be obtained under the shooting conditions of the set shooting mode, and also controls the image processing unit 53. Note that the photographing control unit 52 can also execute camera control for optimizing the focus state and the exposure state.

画像処理部53は、入力画像に対して特定画像処理を行うことにより出力画像(即ち、特定画像処理後の入力画像)を生成する。撮影制御部52にて設定される撮影モードによっては、特定画像処理が何らなされないこともあり、この場合には、出力画像は入力画像そのものとなる。   The image processing unit 53 generates an output image (that is, an input image after the specific image processing) by performing specific image processing on the input image. Depending on the shooting mode set by the shooting control unit 52, no specific image processing may be performed. In this case, the output image is the input image itself.

説明の具体化のため、上記登録シーンの種類がN種類存在するものとする(Nは2以上の整数)。即ち、上記複数の登録シーンの個数がN個であるとする。そして、N種類の登録シーンを第1〜第Nの登録シーンと呼ぶ。また、シーン判定部51による判定シーンが第iの登録シーンであるときに、撮影制御部52により設定される撮影モードを第iの撮影モードと呼ぶ(iは整数)。   For the sake of concrete explanation, it is assumed that there are N types of registered scenes (N is an integer of 2 or more). That is, assume that the number of the plurality of registered scenes is N. N types of registered scenes are referred to as first to Nth registered scenes. The shooting mode set by the shooting control unit 52 when the scene determined by the scene determination unit 51 is the i-th registered scene is referred to as the i-th shooting mode (i is an integer).

第1〜第Nの撮影モードに関し、第iの撮影モードによって規定される撮影条件と、第jの撮影モードによって規定される撮影条件は互いに異なる。これは、通常、互いに異なる任意の整数i及びjに対して成立するが(但し、i≦N且つj≦N)、第1〜第Nの撮影モードに含まれるNA個の撮影モードの撮影条件は互いに同じでありうる。NAはN未満且つ2以上の整数である。例えば、N=10のとき、第1〜第9の撮影モードについての撮影条件は互いに異なるが、第9及び第10の撮影モードについての撮影条件は互いに同じである、といった場合もある(この場合、NA=2)。 Regarding the first to Nth shooting modes, the shooting conditions defined by the i-th shooting mode and the shooting conditions defined by the j-th shooting mode are different from each other. This is usually true for different arbitrary integer i and j each other (however, i ≦ N and j ≦ N), imaging of the first. 1 to N A number of shooting modes included in the shooting mode of the N Conditions can be the same as each other. N A is an integer of less than N and 2 or more. For example, when N = 10, the shooting conditions for the first to ninth shooting modes are different from each other, but the shooting conditions for the ninth and tenth shooting modes may be the same (in this case). , N A = 2).

被写体距離情報生成部55(以下、生成部55と略記することがある)は、撮像部11の撮影範囲内に収まっている各被写体の被写体距離を検出することで、入力画像上の各位置における被写体の被写体距離を表す被写体距離情報を生成する。或る被写体についての被写体距離とは、その被写体と撮像装置1(より具体的には撮像素子33)との間における実空間上の距離を指す。尚、本明細書において、“距離が大きい”という表現と“距離が長い”という表現は同義であり、“距離が小さい”という表現と“距離が短い”という表現は同義である。被写体距離情報は、自身を形成する各画素値が被写体距離の測定値を持つ距離画像である。被写体距離の検出方法及び被写体距離情報の生成方法として、公知の方法(例えば、特開2009−272799号公報に記載の方法)を含む任意の方法を利用可能である。   The subject distance information generation unit 55 (hereinafter sometimes abbreviated as the generation unit 55) detects the subject distance of each subject that is within the shooting range of the imaging unit 11, and thereby at each position on the input image. Object distance information representing the object distance of the object is generated. The subject distance for a certain subject refers to the distance in real space between the subject and the imaging device 1 (more specifically, the imaging device 33). In the present specification, the expression “the distance is large” and the expression “the distance is long” are synonymous, and the expression “the distance is small” and the expression “the distance is short” are synonymous. The subject distance information is a distance image in which each pixel value forming the subject has a subject distance measurement value. Any method including a known method (for example, a method described in Japanese Patent Application Laid-Open No. 2009-272799) can be used as a method for detecting a subject distance and a method for generating subject distance information.

入力画像の画像データから被写体距離情報を生成するようにしても良いし、入力画像の画像データ以外の情報から被写体距離情報を生成するようにしても良い。例えば、入力画像上の各位置における被写体の被写体距離を測定する測距センサ(不図示)を用いて被写体距離情報を生成することができる。測距センサとして、三角測量法に基づく測距センサ等、公知の任意の測距センサを用いることができる。或いは例えば、複眼カメラを用いて上記距離画像を生成するようにしても良い。或いは例えば、コントラスト検出法を利用するようにしても良い。この場合、例えば、フォーカスレンズ31の位置を所定量ずつ移動させながら順次AFE12より画像データを取得し、取得した画像データの空間周波数成分における高域周波数成分から上記距離画像を生成することができる。   The subject distance information may be generated from the image data of the input image, or the subject distance information may be generated from information other than the image data of the input image. For example, subject distance information can be generated using a distance measuring sensor (not shown) that measures the subject distance of the subject at each position on the input image. As the distance measuring sensor, any known distance measuring sensor such as a distance measuring sensor based on the triangulation method can be used. Alternatively, for example, the distance image may be generated using a compound eye camera. Alternatively, for example, a contrast detection method may be used. In this case, for example, the image data is sequentially acquired from the AFE 12 while moving the position of the focus lens 31 by a predetermined amount, and the distance image can be generated from the high frequency component in the spatial frequency component of the acquired image data.

或いは例えば、RAWデータに被写体距離を表す情報が含まれるように撮像部11を形成しておき、RAWデータから被写体距離情報を生成するようにしても良い。これを実現するために、例えば“Light Field Photography”と呼ばれる方法(例えば、国際公開第06/039486号パンフレット又は特開2009−224982号公報に記載の方法;以下、Light Field法と呼ぶ)を用いても良い。Light Field法では、開口絞りを有する撮像レンズとマイクロレンズアレイを用いることで、撮像素子から得られる画像信号が、撮像素子の受光面における光の強度分布に加えて光の進行方向の情報をも含むようになっている。従って、図2には表れていないが、Light Field法を用いる場合には、Light Field法の実現に必要な光学部材が撮像部11に設けられる。この光学部材には、マイクロレンズアレイ等が含まれ、被写体からの入射光はマイクロレンズアレイ等を介して撮像素子33の受光面(換言すれば撮像面)に入射する。マイクロレンズアレイは複数のマイクロレンズから成り、撮像素子33上の1又は複数の受光画素に対して1つのマイクロレンズを割り当てられる。これによって、撮像素子33の出力信号が、撮像素子33の受光面における光の強度分布に加えて、撮像素子33への入射光の進行方向の情報をも含むようになる。   Alternatively, for example, the imaging unit 11 may be formed so that the RAW data includes information representing the subject distance, and the subject distance information may be generated from the RAW data. In order to realize this, for example, a method called “Light Field Photography” (for example, a method described in International Publication No. 06/039486 pamphlet or Japanese Patent Application Laid-Open No. 2009-224982; hereinafter referred to as “Light Field method”) is used. May be. In the light field method, by using an imaging lens having an aperture stop and a microlens array, the image signal obtained from the imaging device has information on the light traveling direction in addition to the light intensity distribution on the light receiving surface of the imaging device. It comes to include. Therefore, although not shown in FIG. 2, when the light field method is used, an optical member necessary for realizing the light field method is provided in the imaging unit 11. The optical member includes a microlens array or the like, and incident light from the subject enters the light receiving surface (in other words, the imaging surface) of the image sensor 33 via the microlens array or the like. The microlens array is composed of a plurality of microlenses, and one microlens is assigned to one or a plurality of light receiving pixels on the image sensor 33. As a result, the output signal of the image sensor 33 includes information on the traveling direction of the incident light to the image sensor 33 in addition to the light intensity distribution on the light receiving surface of the image sensor 33.

撮像装置1は、被写体距離情報を利用して特徴的な撮影動作を行うことができる。図5を参照して、この撮影動作を説明する。図5は、撮像装置1の撮影動作の手順を表すフローチャートである。   The imaging apparatus 1 can perform a characteristic shooting operation using subject distance information. With reference to FIG. 5, this photographing operation will be described. FIG. 5 is a flowchart illustrating the procedure of the shooting operation of the imaging apparatus 1.

まず、ステップS11において、撮像装置1は、ユーザによる撮影指示の入力を待機し、撮影指示があった場合にステップS12以降の処理を実行する。撮影指示は、例えば、ユーザによるシャッタボタン20を押すボタン操作又は所定のタッチパネル操作である。撮影指示は、目標画像の撮影及び生成の指示に相当する。   First, in step S11, the imaging apparatus 1 stands by for input of a shooting instruction by the user, and executes the processes in and after step S12 when there is a shooting instruction. The shooting instruction is, for example, a button operation by the user to press the shutter button 20 or a predetermined touch panel operation. The shooting instruction corresponds to an instruction for shooting and generating a target image.

ステップS12において、撮影制御部52は、撮像装置1のフォーカス状態及び露光状態等を最適化するためのカメラ制御を実行する。例えば、撮像素子33上の特定領域に結像している被写体にピントが合うようにフォーカスレンズ31の位置を調整すると共に、入力画像の明るさが最適化されるように絞り値やAFE12における信号増幅度を調整する。この際、撮像部11の撮影範囲内における主要被写体に注目してカメラ制御を成すこともできる。即ち、ステップS12のカメラ制御において、主要被写体にピントが合うように且つ入力画像上における主要被写体の像の明るさが最適化されるように、フォーカスレンズ31の位置及び絞り値等を調整するようにしても良い。ユーザは、タッチパネル操作等を利用して主要被写体を指定することもできる。   In step S <b> 12, the imaging control unit 52 executes camera control for optimizing the focus state, the exposure state, and the like of the imaging device 1. For example, the position of the focus lens 31 is adjusted so that the subject imaged in a specific area on the image sensor 33 is in focus, and the aperture value and the signal in the AFE 12 are optimized so that the brightness of the input image is optimized. Adjust the amplification. At this time, it is also possible to perform camera control while paying attention to the main subject within the imaging range of the imaging unit 11. That is, in the camera control in step S12, the position of the focus lens 31, the aperture value, and the like are adjusted so that the main subject is in focus and the brightness of the main subject image on the input image is optimized. Anyway. The user can also specify the main subject using a touch panel operation or the like.

続くステップS13において、被写体距離情報生成部55は、現時点の各被写体の被写体距離を検出することで被写体距離情報を生成する。次に、ステップS14において、主制御部13は、最新の入力画像である現時点の入力画像を判定対象画像に設定し、ステップS13にて得られた被写体距離情報に基づき判定対象画像に対して領域分割処理を実行する。領域分割処理は、シーン判定部51にて行われても良いし、主制御部13に設けられた領域分割部(不図示)にて行われても良い。領域分割処理によって、判定対象画像の全体画像領域が被写体距離情報に基づき複数の分割画像領域に分割される。領域分割処理では、類似した特徴量を持ち且つ空間的に近接した画素の集合が1つのまとまりを形成するように、判定対象画像の全体画像領域を分割する。この集合の形成及び画像領域の分割に、公知の領域統合法(region unification method)等を用いることができる。被写体距離情報に基づく領域分割処理では、被写体距離を特徴量として用いる。   In subsequent step S13, the subject distance information generation unit 55 generates subject distance information by detecting the current subject distance of each subject. Next, in step S14, the main control unit 13 sets the current input image, which is the latest input image, as the determination target image, and sets a region for the determination target image based on the subject distance information obtained in step S13. Split processing is executed. The area division process may be performed by the scene determination unit 51 or may be performed by an area division unit (not shown) provided in the main control unit 13. Through the region division processing, the entire image region of the determination target image is divided into a plurality of divided image regions based on the subject distance information. In the region division processing, the entire image region of the determination target image is divided so that a set of pixels having similar feature amounts and spatially close together forms one unit. A known region unification method or the like can be used for forming the set and dividing the image area. In the region division processing based on the subject distance information, the subject distance is used as a feature amount.

図6に示す如く判定対象画像を符号300によって表し、図7(a)等を参照して判定対象画像300に対する領域分割処理の具体例を説明する。図6において、符号350は、撮影指示に従って得られるべき目標画像を表している。図7(a)に示す判定対象画像300は、前景側に位置する花311と背景側に位置する山312及び草原313を被写体として撮影範囲に収めた状態で撮影された画像である。当然ではあるが、任意の画像において、前景側に位置する被写体の被写体距離は、背景側に位置する被写体のそれよりも短い。従って、判定対象画像300において、花311の被写体距離は山312及び草原313の被写体距離よりも短い。   As shown in FIG. 6, the determination target image is represented by reference numeral 300, and a specific example of region division processing for the determination target image 300 will be described with reference to FIG. In FIG. 6, reference numeral 350 represents a target image to be obtained in accordance with the photographing instruction. A determination target image 300 illustrated in FIG. 7A is an image captured in a state where a flower 311 located on the foreground side, a mountain 312 and a meadow 313 located on the background side are included in the photographing range as subjects. Of course, in any image, the subject distance of the subject located on the foreground side is shorter than that of the subject located on the background side. Accordingly, in the determination target image 300, the subject distance of the flower 311 is shorter than the subject distances of the mountain 312 and the meadow 313.

判定対象画像300にとっての被写体距離情報を表す距離画像320を、図7(b)に示す。任意の距離画像はグレースケール画像である。距離画像において、各画素は、対応する被写体距離が小さいほどゼロに近い画素値を有し、対応する被写体距離が大きいほど大きな画素値を有するものとする。更に、距離画像を示す図面においては、画素値の比較的小さい部分(即ち被写体距離が比較的小さい部分)は比較的黒く示され、画素値の比較的大きい部分(即ち被写体距離が比較的大きい部分)は比較的白く示されている。判定対象画像300に対応する距離画像320では、花311の画像データが存在する部分が比較的黒く図示され、山312及び草原313の画像データが存在する部分が比較的白く図示される。実際には、判定対象画像内の各被写体は様々な被写体距離をとりうるが、今、説明の簡略化上、距離画像320には画素値PVA及びPVBしか含まれておらず、これによって距離画像320の全体画像領域が、図7(b)の黒部分に対応する画像領域321と図7(b)の白部分に対応する画像領域322とに分かれていることを想定する。画像領域321内の各画素の画素値は全てPVAであり、画像領域322内の各画素の画素値は全てPVBである場合を考える。ここで、0≦PVA<PVBである。 A distance image 320 representing subject distance information for the determination target image 300 is shown in FIG. The arbitrary distance image is a gray scale image. In the distance image, each pixel has a pixel value closer to zero as the corresponding subject distance is smaller, and has a larger pixel value as the corresponding subject distance is larger. Further, in the drawing showing the distance image, a portion having a relatively small pixel value (that is, a portion having a relatively small subject distance) is shown in black, and a portion having a relatively large pixel value (that is, a portion having a relatively large subject distance). ) Is shown relatively white. In the distance image 320 corresponding to the determination target image 300, a portion where the image data of the flower 311 exists is illustrated in a relatively black color, and a portion where the image data of the mountain 312 and the meadow 313 exists is illustrated in a relatively white color. Actually, each subject in the determination target image can take various subject distances. However, for simplification of explanation, the distance image 320 includes only the pixel values PV A and PV B. Assume that the entire image area of the distance image 320 is divided into an image area 321 corresponding to the black part in FIG. 7B and an image area 322 corresponding to the white part in FIG. Consider a case in which the pixel values of each pixel in the image area 321 are all PV A and the pixel values of each pixel in the image area 322 are all PV B. Here, 0 ≦ PV A <PV B.

ステップS14では、距離画像320に基づき判定対象画像300が領域分割され、これによって判定対象画像300の全体画像領域が複数の分割画像領域に分割される。本例では、距離画像320の全体画像領域が2つの画像領域321及び322に分割されているため、図7(c)に示す如く判定対象画像300の全体画像領域も2つの分割画像領域301及び322に分割される。分割画像領域301は、画像領域321に対応する、花311の画像データが存在する画像領域であって、分割画像領域302は、画像領域322に対応する、山312及び草原313の画像データが存在する画像領域である。図7(c)の斜線領域が分割画像領域302に相当する。尚、判定対象画像300において、実際には花311の根元の左右側に位置する草原部分の被写体距離は比較的小さいことが想定され、結果、その草原部分も分割画像領域302に含まれうるが、本例では、説明の簡略化上、その草原部分も分割画像領域301に含まれているものとする。   In step S14, the determination target image 300 is divided into regions based on the distance image 320, whereby the entire image region of the determination target image 300 is divided into a plurality of divided image regions. In this example, since the entire image area of the distance image 320 is divided into two image areas 321 and 322, the entire image area of the determination target image 300 is also divided into two divided image areas 301 and 322 as shown in FIG. It is divided into 322. The divided image area 301 is an image area corresponding to the image area 321 where the image data of the flower 311 exists, and the divided image area 302 includes image data of the mountain 312 and the meadow 313 corresponding to the image area 322. This is an image area to be processed. The hatched area in FIG. 7C corresponds to the divided image area 302. Note that in the determination target image 300, it is assumed that the subject distance of the grassland portion actually located on the left and right sides of the base of the flower 311 is relatively small, and as a result, the grassland portion can also be included in the divided image region 302. In this example, for the sake of simplification of description, it is assumed that the grassland portion is also included in the divided image region 301.

図5を再度参照する。ステップS14における領域分割処理が終了すると、ステップS15において、主制御部13は、ステップS14の領域分割処理によって得られる分割画像領域の個数(以下、領域分割数という)が2以上であるか否かを判断する。領域分割数が2以上である場合、即ち、判定対象画像300の全体画像領域が複数の分割画像領域に分割された場合には、以後ステップS16〜S18の処理が実行され、その分割が成されていない場合には、以後ステップS19〜S21の処理が実行される。図7(a)、(b)及び(c)の例の如く、判定対象画像300に分割画像領域301及び302が設定された場合、ステップS16〜S18の処理が実行される。   Please refer to FIG. 5 again. When the region division processing in step S14 is completed, in step S15, the main control unit 13 determines whether or not the number of divided image regions (hereinafter referred to as region division number) obtained by the region division processing in step S14 is two or more. Judging. When the number of area divisions is 2 or more, that is, when the entire image area of the determination target image 300 is divided into a plurality of divided image areas, the processes of steps S16 to S18 are executed thereafter to perform the division. If not, the processes in steps S19 to S21 are subsequently executed. When the divided image regions 301 and 302 are set in the determination target image 300 as in the examples of FIGS. 7A, 7B, and 7C, the processes of steps S16 to S18 are executed.

ステップS16において、シーン判定部51は、判定対象画像の分割画像領域ごとにシーン判定処理を実行する。各シーン判定処理の結果は、表示制御部54による制御の下、判定対象画像と共に表示部15に表示される。判定対象画像が図7(c)の判定対象画像300である場合、シーン判定部51は、分割画像領域301及び302の夫々に対してシーン判定処理を実行する。具体的には、分割画像領域301をシーン判定領域に設定した上で分割画像領域301の画像データに基づきシーン判定領域内の画像のシーン判定を行う(即ち、分割画像領域301をシーン判定領域に設定した上で上述の判定シーンを決定する)。これとは別に、分割画像領域302をシーン判定領域に設定した上で分割画像領域302の画像データに基づきシーン判定領域内の画像のシーン判定を行う(即ち、分割画像領域302をシーン判定領域に設定した上で上述の判定シーンを決定する)。   In step S16, the scene determination unit 51 executes a scene determination process for each divided image area of the determination target image. The result of each scene determination process is displayed on the display unit 15 together with the determination target image under the control of the display control unit 54. When the determination target image is the determination target image 300 in FIG. 7C, the scene determination unit 51 performs a scene determination process on each of the divided image regions 301 and 302. Specifically, after setting the divided image area 301 as a scene determination area, scene determination of an image in the scene determination area is performed based on the image data of the divided image area 301 (that is, the divided image area 301 is set as a scene determination area). After setting, the above-mentioned judgment scene is determined). Separately, the divided image area 302 is set as a scene determination area, and scene determination of an image in the scene determination area is performed based on the image data of the divided image area 302 (that is, the divided image area 302 is set as a scene determination area). After setting, the above-mentioned judgment scene is determined).

今、分割画像領域301に対するシーン判定処理によって決定された判定シーンが花シーンであって、且つ、分割画像領域302に対するシーン判定処理によって決定された判定シーンが風景シーンであるとする。そうすると、ステップS16において、分割画像領域301及び302に対する判定シーンの内容をユーザに知らせる表示が行われる。例えば、図8(a)に示す如く判定対象画像300が指標331と共に表示部15に表示される。図8(a)を含む表示部15の様子を示す図において、ドットで満たされた領域は表示部15の筐体部分を表している。指標331には、花シーン及び風景シーンに対応する文言“花、風景”が記されている。文言ではなく、図形等によって“花”又は“風景”を表現するようにしてもよい(後述の指標332及び333も同様)。或いは例えば、図8(b)に示す如く判定対象画像300を指標332及び333と共に表示部15に表示するようにしても良い。指標332及び333には、夫々、花シーン及び風景シーンに対応する文言“花”及び文言“風景”が記されている。指標332を分割画像領域301内又は分割画像領域301の近傍に配置すると良く、指標333を分割画像領域302内又は分割画像領域302の近傍に配置すると良い。更に、図8(b)に示す如く、分割画像領域301及び302間の境界線334を判定対象画像300に重畳表示するようにしても良い(境界線334の表示は必須ではない)。   Assume that the determination scene determined by the scene determination process for the divided image region 301 is a flower scene, and the determination scene determined by the scene determination process for the divided image region 302 is a landscape scene. Then, in step S16, a display for informing the user of the contents of the determination scene for the divided image areas 301 and 302 is performed. For example, as shown in FIG. 8A, the determination target image 300 is displayed on the display unit 15 together with the index 331. In the figure showing the state of the display unit 15 including FIG. 8A, the region filled with dots represents the casing portion of the display unit 15. In the index 331, the wording “flower, landscape” corresponding to the flower scene and the landscape scene is written. Instead of words, “flowers” or “scenery” may be expressed by graphics or the like (the same applies to indices 332 and 333 described later). Alternatively, for example, as illustrated in FIG. 8B, the determination target image 300 may be displayed on the display unit 15 together with the indexes 332 and 333. In the indexes 332 and 333, the wording “flower” and the wording “landscape” corresponding to the flower scene and the landscape scene are written, respectively. The index 332 may be arranged in the divided image area 301 or in the vicinity of the divided image area 301, and the index 333 may be arranged in the divided image area 302 or in the vicinity of the divided image area 302. Furthermore, as shown in FIG. 8B, the boundary line 334 between the divided image regions 301 and 302 may be displayed in a superimposed manner on the determination target image 300 (display of the boundary line 334 is not essential).

ステップS17において、撮影制御部52は、ステップS16におけるシーン判定処理の結果に基づいて分割画像領域ごとに撮影モードを設定する。但し、分割画像領域ごとに設定される撮影モードは、画像処理部53における特定画像処理の内容のみを規定する。従って、以下では、ステップS17において分割画像領域ごとに設定されるものは、特定画像処理の内容を規定する画像処理パラメータであると考える。   In step S17, the shooting control unit 52 sets a shooting mode for each divided image area based on the result of the scene determination process in step S16. However, the shooting mode set for each divided image region defines only the content of the specific image processing in the image processing unit 53. Therefore, in the following, it is considered that what is set for each divided image region in step S17 is an image processing parameter that defines the content of the specific image processing.

一方で、判定対象画像の全体画像領域又は判定対象画像の何れかの分割画像領域をシーン判定領域に設定した上でシーン判定処理が成され、そのシーン判定処理の結果に基づき、撮影制御部52により画像処理パラメータ以外の撮影条件が設定される。ステップS18において、その設定された撮影条件(画像処理パラメータ以外の撮影条件)にて1枚の入力画像を対象入力画像として撮影する。この対象入力画像に対して上記画像処理パラメータに従った特定画像処理を施すことで目標画像の画像データが生成される。   On the other hand, the scene determination process is performed after setting either the entire image area of the determination target image or the divided image area of the determination target image as the scene determination area. Based on the result of the scene determination process, the shooting control unit 52 Thus, shooting conditions other than the image processing parameters are set. In step S18, one input image is shot as a target input image under the set shooting conditions (shooting conditions other than image processing parameters). Image data of the target image is generated by performing specific image processing according to the image processing parameters on the target input image.

例えば、対象入力画像が図9の画像340である場合を考える。また、分割画像領域301に対して設定された画像処理パラメータに従う特定画像処理を第1特定画像処理と呼び、分割画像領域302に対して設定された画像処理パラメータに従う特定画像処理を第2特定画像処理と呼ぶ。この場合、画像処理部53は、判定対象画像300に設定した分割画像領域301及び302と同じ位置及び大きさを持つ分割画像領域341及び342を対象入力画像340に設定する。図9において、斜線領域が分割画像領域342に相当し、非斜線領域が分割画像領域341に相当する。そして、画像処理部53は、対象入力画像340の分割画像領域341の画像データに対して第1特定画像処理を行い、第1特定画像処理後の画像データを目標画像350の分割画像領域341内の画像データとして出力する。同様に、対象入力画像340の分割画像領域342の画像データに対して第2特定画像処理を行い、第2特定画像処理後の画像データを目標画像350の分割画像領域342内の画像データとして出力する。目標画像350の分割画像領域341内の画像データと目標画像350の分割画像領域342内の画像データを合成することで、目標画像350の全体画像領域の画像データが生成される。   For example, consider a case where the target input image is the image 340 of FIG. In addition, the specific image processing according to the image processing parameter set for the divided image region 301 is referred to as first specific image processing, and the specific image processing according to the image processing parameter set for the divided image region 302 is referred to as the second specific image. This is called processing. In this case, the image processing unit 53 sets the divided image areas 341 and 342 having the same position and size as the divided image areas 301 and 302 set in the determination target image 300 as the target input image 340. In FIG. 9, the hatched area corresponds to the divided image area 342, and the non-hatched area corresponds to the divided image area 341. Then, the image processing unit 53 performs the first specific image processing on the image data of the divided image area 341 of the target input image 340, and the image data after the first specific image processing is stored in the divided image area 341 of the target image 350. Output as image data. Similarly, the second specific image processing is performed on the image data in the divided image region 342 of the target input image 340, and the image data after the second specific image processing is output as image data in the divided image region 342 of the target image 350. To do. By combining the image data in the divided image area 341 of the target image 350 and the image data in the divided image area 342 of the target image 350, image data of the entire image area of the target image 350 is generated.

複数の分割画像領域間で判定シーンが互いに異なれば、基本的に、その複数の分割画像領域に設定される画像処理パラメータは互いに異なり、複数の分割画像領域に設定される画像処理パラメータが互いに異なれば、各分割画像領域に成される特定画像処理の内容は該複数の分割画像領域間で互いに異なる。上述の例の場合、花シーンに対応する第1特定画像処理と風景シーンに対応する第2特定画像処理は互いに異なる。具体的には、花シーンに対応する第1特定画像処理には彩度向上処理を含め、風景シーンに対応する第2特定画像処理には彩度向上処理を含めないといったことが可能である。彩度向上処理は、特定画像処理の対象となる画像領域内の画像の彩度を高める処理である。また例えば、第1及び第2特定画像処理の双方にノイズ低減処理及び色補正処理を含めつつ、ノイズ低減処理によるノイズ低減の強度又は色補正処理による色の補正内容を第1及び第2特定画像処理間で異ならせるといったことも可能である。何れにせよ、分割画像領域ごとのシーン判定処理の結果に基づき、分割画像領域ごとに最適な特定画像処理が実行されて目標画像が生成される。ステップS18にて得られた目標画像は表示部15に表示されると共に該目標画像の画像データは記録媒体16に記録される。   If the judgment scenes are different among the plurality of divided image areas, basically, the image processing parameters set for the plurality of divided image areas are different from each other, and the image processing parameters set for the plurality of divided image areas are different from each other. For example, the content of the specific image processing performed in each divided image region is different between the plurality of divided image regions. In the case of the above example, the first specific image processing corresponding to the flower scene and the second specific image processing corresponding to the landscape scene are different from each other. Specifically, the first specific image processing corresponding to the flower scene can include saturation improvement processing, and the second specific image processing corresponding to the landscape scene can be excluded from saturation processing. The saturation enhancement process is a process for increasing the saturation of an image in an image area that is a target of specific image processing. Further, for example, while including noise reduction processing and color correction processing in both the first and second specific image processing, the noise reduction intensity by the noise reduction processing or the color correction content by the color correction processing is changed to the first and second specific images. It is also possible to vary between processes. In any case, based on the result of the scene determination process for each divided image region, the optimum specific image processing is executed for each divided image region to generate a target image. The target image obtained in step S18 is displayed on the display unit 15, and the image data of the target image is recorded on the recording medium 16.

ステップS15において、十分に被写体距離の大きい風景しか撮影範囲に含まれていない場合など、判定対象画像における全被写体の被写体距離が同程度である場合には、複数の分割画像領域が得られず、結果、ステップS19〜S21の処理が実行される。ステップS19〜S21では、一般的なシーン判定処理を介して目標画像の撮影が成される。即ち、ステップS19では、判定対象画像の全体画像領域又は一部領域をシーン判定領域に設定した上でシーン判定処理が成され、続くステップS20では、そのシーン判定処理の結果に基づき、撮影制御部52により撮影モードが設定される。この際、ステップS12のカメラ制御において注目された主要被写体を含む画像領域をシーン判定領域に設定するようにしても良い。ステップS20における撮影モードの設定によって、特定画像処理の内容を含む撮影条件が全て設定される。続くステップS21では、ステップS20にて設定された撮影条件にて1枚の入力画像を対象入力画像として撮影し、対象入力画像に対して特定画像処理(ステップS20にて設定された特定画像処理)を施すことで目標画像の画像データが生成される。ステップS18と同様、ステップS21にて得られた目標画像も表示部15に表示されると共に記録媒体16に記録される。   In step S15, when the subject range of all the subjects in the determination target image is approximately the same, such as when the shooting range includes only a sufficiently large subject distance, a plurality of divided image regions cannot be obtained, As a result, steps S19 to S21 are executed. In steps S19 to S21, the target image is shot through a general scene determination process. That is, in step S19, a scene determination process is performed after setting the entire image area or a partial area of the determination target image as a scene determination area. In subsequent step S20, based on the result of the scene determination process, the shooting control unit The shooting mode is set by 52. At this time, an image area including the main subject noted in the camera control in step S12 may be set as the scene determination area. All shooting conditions including the contents of the specific image processing are set by setting the shooting mode in step S20. In subsequent step S21, one input image is photographed as a target input image under the photographing conditions set in step S20, and specific image processing is performed on the target input image (specific image processing set in step S20). As a result, image data of the target image is generated. Similar to step S18, the target image obtained in step S21 is also displayed on the display unit 15 and recorded on the recording medium 16.

尚、上述の例では、説明の簡略化上、距離画像320の画像領域321内の画素値が全てPAであると述べたが、画像領域321内にPA以外の画素値が含まれていても良い。画像領域322についても同様である。この場合、画像領域321内の各画素値は画素値PAを基準として或る数値範囲内に収まっていると共に画像領域322内の各画素値は画素値PBを基準として或る数値範囲内に収まっている(前者の数値範囲と後者の数値範囲は互いに異なる)。この際、画像領域321と画像領域322との切り分けに公知の領域統合法(region unification method)等を用いることができる。 In the above example, for simple description, the pixel values in the image region 321 of the distance image 320 have stated that all of the P A, contains the pixel value other than P A in the image area 321 May be. The same applies to the image area 322. In this case, each pixel value in the image region 321 is the pixel value in the image region 322 with falls within certain numerical range, based on the pixel value P A is within a certain value range based on the pixel value P B (The former numerical range and the latter numerical range are different from each other.) At this time, a known region unification method or the like can be used to separate the image region 321 and the image region 322.

また、シーン判定部51にて生成されるシーン判定情報には、各シーン判定領域に対する判定シーンを表す情報が含まれ、シーン判定部51にて生成される判定領域情報には、各シーン判定領域の位置及び大きさを表す情報が含まれている。このシーン判定情報及び判定領域情報を目標画像の画像データと共に、或いは、シーン判定情報及び判定領域情報に加えて被写体距離情報を目標画像の画像データと共に記録媒体16に記録しておくことができる。目標画像を取得する過程で生成されるシーン判定情報、判定領域情報及び被写体距離情報は、判定対象画像に対する情報であると共に目標画像に対する情報でもある。   The scene determination information generated by the scene determination unit 51 includes information representing a determination scene for each scene determination region, and the determination region information generated by the scene determination unit 51 includes each scene determination region. The information indicating the position and size of is included. The scene determination information and the determination area information can be recorded on the recording medium 16 together with the image data of the target image, or the subject distance information can be recorded together with the image data of the target image in addition to the scene determination information and the determination area information. The scene determination information, determination area information, and subject distance information generated in the process of acquiring the target image is information regarding the determination target image and information regarding the target image.

また、領域分割数が2である場合の例を上述したが、領域分割数は3以上になりうる。例えば、距離画像320に互いに画素値PVA、PVB及びPVCか含まれている場合、距離画像320の全体画像領域が、画素値PVAを持つ画素の集合から成る画像領域321aと、画素値PVBを持つ画素の集合から成る画像領域322aと、画素値PVCを持つ画素の集合から成る画像領域323aと、に分割されうる(画像領域321a〜323aについては図示せず)。このような分割が成された場合、判定対象画像300の全体画像領域は、3つの分割画像領域、即ち、画像領域321aに対応する分割画像領域321b、画像領域322aに対応する分割画像領域322b及び画像領域323aに対応する分割画像領域323bに分割される(画像領域321b〜323bも図示せず)。 Moreover, although the example in the case where the number of area divisions is 2 has been described above, the number of area divisions can be 3 or more. For example, when the distance image 320 includes pixel values PV A , PV B, and PV C , the entire image area of the distance image 320 includes an image area 321 a composed of a set of pixels having the pixel value PV A , and a pixel an image area 322a comprising a set of pixels having values PV B, can be divided and an image area 323a comprising a set of pixels having a pixel value PV C, (not shown for the image area 321a~323a). When such division is performed, the entire image area of the determination target image 300 is divided into three divided image areas, that is, a divided image area 321b corresponding to the image area 321a, a divided image area 322b corresponding to the image area 322a, and The image is divided into divided image areas 323b corresponding to the image areas 323a (the image areas 321b to 323b are not shown).

領域分割数がMA個である場合にも、MA個の分割画像領域の夫々をシーン判定領域として設定するようにしても良い(MAは3以上に整数)。この場合、MA個の分割画像領域の夫々に対して、シーン判定処理、シーン判定処理の結果表示、撮影モード設定(画像パラメータ設定)及び特定画像処理が実行されることになる。但し、領域分割数がMA個である場合、MA個の分割画像領域の中からMB個の分割画像領域を選択し、MB個の分割画像領域のみをシーン判定領域として設定するようにしても良い。MBは2以上の整数であって、MA>MBである。各分割画像領域の位置及び大きさや、各分割画像領域内の被写体の被写体距離、各分割画像領域内の被写体の種類など、様々な指標に基づいて上記選択を成すことが可能である。 Even when the number of area divisions is M A, each of the M A divided image areas may be set as a scene determination area (M A is an integer of 3 or more). In this case, for each of M A number of divided image areas, the scene determination process, result display of the scene determining process, so that the setting shooting mode (picture parameter set), and the specific image processing is performed. However, if the number of divided regions is M A number, select M B-number of divided image areas from among M A number of divided image areas, to set only the M B-number of divided image areas as a scene determination area Anyway. M B is an integer of 2 or more, and M A > M B. The above selection can be made based on various indices such as the position and size of each divided image area, the subject distance of the subject in each divided image area, and the type of subject in each divided image area.

単純な例として例えば、判定対象画像300の全体画像領域が上記分割画像領域321b〜323bに分割された場合において、分割画像領域323bの大きさが画像領域321b及び322bの大きさよりも十分に小さい場合、画像領域分割画像領域321b及び322bのみをシーン判定領域として設定するようにしても良い。或いは例えば、判定対象画像300上における分割画像領域321b、322b及び323bの中心位置と判定対象画像300の中心との空間距離を求め、分割画像領域323bに対して求められた空間距離が分割画像領域321b及び322bのそれらよりも長い場合、画像領域分割画像領域321b及び322bのみをシーン判定領域として設定するようにしても良い。   As a simple example, for example, when the entire image area of the determination target image 300 is divided into the divided image areas 321b to 323b, the size of the divided image area 323b is sufficiently smaller than the sizes of the image areas 321b and 322b. Only the image area divided image areas 321b and 322b may be set as the scene determination area. Alternatively, for example, the spatial distance between the center position of the divided image areas 321b, 322b, and 323b on the determination target image 300 and the center of the determination target image 300 is obtained, and the spatial distance obtained for the divided image area 323b is the divided image area. When longer than those of 321b and 322b, only the image area divided image areas 321b and 322b may be set as the scene determination area.

上述の如く、本実施形態では、分割画像領域ごとにシーン判定(シーン判定処理)が行われる。分割画像領域を得るための領域分割処理は被写体距離情報に基づいて行われるため、例えば、前景側の被写体に注目したシーン判定と背景側の被写体に注目したシーン判定を個別に行うといったことが可能となる。そして、個別に実行されたシーン判定の結果を用いて目標画像の画像データの生成を行うため、例えば、前景側の被写体及び背景側の被写体の画像データを個別に最適化することも可能となる。   As described above, in the present embodiment, scene determination (scene determination processing) is performed for each divided image region. Since the region division processing for obtaining the divided image region is performed based on the subject distance information, for example, it is possible to separately perform scene determination focusing on the foreground subject and scene determination focusing on the background subject. It becomes. Since the image data of the target image is generated using the result of the scene determination performed individually, for example, the image data of the foreground subject and the background subject can be individually optimized. .

<<第2実施形態>>
本発明の第2実施形態を説明する。第2及び後述の他の実施形態は第1実施形態を基礎とした実施形態であり、第2実施形態及び後述の各実施形態において特に述べない事項に関しては、矛盾なき限り、第1実施形態の記載が第2実施形態及び後述の各実施形態にも適用される。
<< Second Embodiment >>
A second embodiment of the present invention will be described. The second and other embodiments to be described later are embodiments based on the first embodiment, and matters not specifically described in the second embodiment and each of the embodiments to be described later are the same as those of the first embodiment unless otherwise contradicted. The description is also applied to the second embodiment and the following embodiments.

まず、記録媒体16に保存される画像ファイルの構造を説明する。撮像装置1では、任意の画像の画像データを、画像ファイルに格納した上で記録媒体16に記録することができる。図10(a)に、1つの画像ファイルFLの構造を示す。1つの静止画像又は動画像に対して1つの画像ファイルFLを作成することができる。画像ファイルFLの構造を任意の規格に準拠させることができる。画像ファイルFLは、記録対象画像の画像データそのもの或いはその圧縮データが格納されるべき本体領域と、付加データが格納されるべきヘッダ領域と、からなる。共通の画像ファイルFLにおける本体領域内の画像データとヘッダ領域内の付加データは互いに関連付けられている。第2実施形態では、記録対象画像が第1実施形態で述べた目標画像であることを想定する。   First, the structure of the image file stored in the recording medium 16 will be described. In the imaging apparatus 1, image data of an arbitrary image can be recorded in the recording medium 16 after being stored in an image file. FIG. 10A shows the structure of one image file FL. One image file FL can be created for one still image or moving image. The structure of the image file FL can be made to conform to an arbitrary standard. The image file FL includes a main body area in which image data itself of the recording target image or its compressed data is to be stored, and a header area in which additional data is to be stored. The image data in the main body area and the additional data in the header area in the common image file FL are associated with each other. In the second embodiment, it is assumed that the recording target image is the target image described in the first embodiment.

図10(b)に示す如く、記録対象画像に対する付加データには、被写体距離情報、シーン判定情報及び判定領域情報が含まれ(図3参照)、この他、任意のデータ(記録対象画像の撮影日時、サムネイル等)が含まれうる。記録対象画像が目標画像350である場合、記録対象画像の付加データにおける被写体距離情報、シーン判定情報及び判定領域情報は、目標画像350に対して生成された被写体距離情報、シーン判定情報及び判定領域情報であり、それらは、判定対象画像300に対して生成された被写体距離情報、シーン判定情報及び判定領域情報でもある(図6及び図9等参照)。   As shown in FIG. 10B, the additional data for the recording target image includes subject distance information, scene determination information, and determination area information (see FIG. 3). In addition to this, arbitrary data (shooting of the recording target image) is included. Date, thumbnail, etc.). When the recording target image is the target image 350, subject distance information, scene determination information, and determination region information in the additional data of the recording target image are subject distance information, scene determination information, and determination region generated for the target image 350. The information includes subject distance information, scene determination information, and determination area information generated for the determination target image 300 (see FIGS. 6 and 9).

第2実施形態では、撮像装置1による基準画像の類似画像の検索動作を説明する。この検索動作は、主制御部13に内包される検索処理部60を用いて実現される(図11参照)。基準画像を符号IREFによって参照する。基準画像IREFは任意の画像であるが、ここでは、説明の具体化のため、記録対象画像の1つである目標画像350(図9参照)が基準画像IREFである場合を例にとる。基準画像IREF以外の、記録媒体16に記録された各記録対象画像が非基準画像として機能する。非基準画像を被検索画像と呼ぶこともできる。図12に示す如く、非基準画像はQ枚存在するものとし(Qは2以上の整数)、第1〜第Qの非基準画像を夫々符号I[1]〜I[Q]によって参照すると共に、非基準画像I[1]〜I[Q]の画像データを格納した画像ファイルFLを夫々符号FL[1]〜FL[Q]によって参照する。非基準画像I[1]〜I[Q]の夫々も、第1実施形態で述べた方法に従って得られた目標画像(但し、目標画像350とは異なる)であるとする。従って、画像ファイルFL[i]のヘッダ領域には、非基準画像I[i]に対して生成された被写体距離情報、シーン判定情報及び判定領域情報が保存されている(iは整数)。また、基準画像IREFの画像データを格納した画像ファイルFLを符号FLREFによって参照する。 In the second embodiment, a search operation for a similar image of a reference image by the imaging apparatus 1 will be described. This search operation is realized using the search processing unit 60 included in the main control unit 13 (see FIG. 11). The reference image is referred to by the symbol I REF . The reference image I REF is an arbitrary image, but here, for the purpose of concrete description, a case where the target image 350 (see FIG. 9), which is one of the recording target images, is the reference image I REF is taken as an example. . Each recording target image recorded on the recording medium 16 other than the reference image I REF functions as a non-reference image. A non-reference image can also be called an image to be searched. As shown in FIG. 12, it is assumed that there are Q non-reference images (Q is an integer equal to or greater than 2), and the first to Q-th non-reference images are referred to by symbols I [1] to I [Q], respectively. The image files FL storing the image data of the non-reference images I [1] to I [Q] are referred to by the symbols FL [1] to FL [Q], respectively. It is assumed that each of the non-reference images I [1] to I [Q] is a target image (which differs from the target image 350) obtained according to the method described in the first embodiment. Accordingly, the subject distance information, scene determination information, and determination area information generated for the non-reference image I [i] are stored in the header area of the image file FL [i] (i is an integer). Also, the image file FL storing the image data of the reference image I REF referred to by numeral FL REF.

図13は、第2実施形態に係る撮像装置1の検索動作のフローチャートである。図14(a)は、図13のフローチャートに対応し、表示部15の表示内容の時間変化等を示す図である。図14(b)も同様である。   FIG. 13 is a flowchart of the search operation of the imaging apparatus 1 according to the second embodiment. FIG. 14A corresponds to the flowchart of FIG. 13 and shows a change over time in the display content of the display unit 15. The same applies to FIG.

まず、ユーザが記録媒体16に保存されている複数の記録対象画像の中から1つの記録対象画像を所定のタッチパネル操作又はボタン操作で選択すると、選択された記録対象画像が基準画像IREFに設定され、ステップS31において基準画像IREFが表示部15に表示される。基準画像IREFが設定されると、ステップS32において基準画像IREFの被写体距離情報が取得される。画像ファイルFLREFから基準画像IREFの被写体距離情報を読み出すことで、それを取得することができる。更にステップS33において基準画像IREFの被写体距離情報に基づき基準画像IREFに対する領域分割処理が実行される。被写体距離情報に基づく基準画像IREFに対する領域分割処理は、第1実施形態で述べた、被写体距離情報に基づく判定対象画像に対する領域分割処理と同様である。ステップS33において、被写体距離情報に基づき実際に領域分割処理を行うことも可能である。しかしながら、画像ファイルFLREFの判定領域情報に基準画像IREFに対する領域分割処理の結果が含まれているため、画像ファイルFLREFの判定領域情報を読み出せば、実際に領域分割処理を行った場合と同様の結果を得ることができる。 First, when a user selects one recording target image from a plurality of recording target images stored in the recording medium 16 by a predetermined touch panel operation or button operation, the selected recording target image is set as the reference image I REF . In step S31, the reference image I REF is displayed on the display unit 15. When the reference image I REF is set, subject distance information of the reference image I REF is acquired in step S32. By reading the object distance information of the reference image I REF from the image file FL REF, it is possible to get it. Area division processing for the reference image I REF based on the object distance information of the reference image I REF is performed in further step S33. The region dividing process for the reference image I REF based on the subject distance information is the same as the region dividing process for the determination target image based on the subject distance information described in the first embodiment. In step S33, it is possible to actually perform the region division processing based on the subject distance information. However, since the determination region information of the image file FL REF includes the result of region division processing for the reference image I REF , if the determination region information of the image file FL REF is read, the region division processing is actually performed Similar results can be obtained.

ステップS32及びS33の処理によって、基準画像IREFの全体画像領域が、図7(c)の分割画像領域301及び302と同じ位置及び大きさを持つ、分割画像領域401及び402に分割されることになる(図15参照)。図15において、斜線領域が分割画像領域402に相当し、非斜線領域が分割画像領域401に相当する。分割画像領域401には花311の画像データが存在し、分割画像領域402には山312及び草原313の画像データが存在している(図7(a)も参照)。 By the processing in steps S32 and S33, the entire image area of the reference image I REF is divided into divided image areas 401 and 402 having the same position and size as the divided image areas 301 and 302 in FIG. (See FIG. 15). In FIG. 15, the hatched area corresponds to the divided image area 402, and the non-hatched area corresponds to the divided image area 401. In the divided image area 401, image data of a flower 311 exists, and in the divided image area 402, image data of a mountain 312 and a meadow 313 exist (see also FIG. 7A).

この後、ステップS34において、撮像装置1はユーザによる検索用指定操作を受け付ける。続くステップS35において、検索処理部60は、検索用指定操作の内容に基づき検索基準領域を設定する。検索用指定操作をボタン操作によって実現しても良いが、ここでは、検索用指定操作がタッチパネル操作にて実現されるものとする。   Thereafter, in step S34, the imaging apparatus 1 accepts a search specifying operation by the user. In subsequent step S35, the search processing unit 60 sets a search reference area based on the content of the search designation operation. Although the search designation operation may be realized by a button operation, it is assumed here that the search designation operation is realized by a touch panel operation.

ユーザによる検索用指定操作は、例えば、基準画像IREFを表示している表示画面上の特定点を指にて触れるタッチパネル操作である。この場合、検索処理部60は、基準画像IREFに設定された複数の分割画像領域の中から、特定点を内包する分割画像領域を検索基準領域に設定する。従って例えば、図14(a)に対応する例に如く、指定された特定点が基準画像IREFにおける分割画像領域401内の点である場合には(図15も参照)、ステップS35において分割画像領域401が検索基準領域に設定され、図14(b)に対応する例に如く、指定された特定点が基準画像IREFにおける分割画像領域402内の点である場合には(図15も参照)、ステップS35において分割画像領域402が検索基準領域に設定される。
或いは例えば、表示画面と指との接触状態を保ちつつ指にて検索基準領域に設定されるべき領域を囲むタッチパネル操作が、検索用指定操作であっても良い。この場合例えば、タッチパネル操作で囲まれた領域の全部又は大半が分割画像領域401に内包されるとき或いはタッチパネル操作で囲まれた領域が分割画像領域401の全部又は大半を内包するとき、分割画像領域401を検索基準領域に設定すれば良い。
このように、検索用指定操作は、基準画像IREFに設定された複数の分割画像領域の中から検索基準領域を選択する選択指示として機能する。
The search specification operation by the user is, for example, a touch panel operation in which a specific point on the display screen displaying the reference image I REF is touched with a finger. In this case, the search processing unit 60 sets a divided image area including a specific point as a search reference area from among a plurality of divided image areas set in the reference image I REF . Therefore, for example, when the specified specific point is a point in the divided image area 401 in the reference image I REF (see also FIG. 15) as in the example corresponding to FIG. When the region 401 is set as the search reference region and the specified specific point is a point in the divided image region 402 in the reference image I REF as in the example corresponding to FIG. 14B (see also FIG. 15). In step S35, the divided image area 402 is set as a search reference area.
Alternatively, for example, a touch panel operation surrounding a region to be set as a search reference region with a finger while maintaining a contact state between the display screen and the finger may be a search specifying operation. In this case, for example, when all or most of the area surrounded by the touch panel operation is included in the divided image area 401, or when the area surrounded by the touch panel operation includes all or most of the divided image area 401, the divided image area 401 may be set as the search reference area.
As described above, the search specifying operation functions as a selection instruction for selecting a search reference area from among a plurality of divided image areas set in the reference image I REF .

また、検索用指定操作を受け付けている期間中、図16に示す如く、基準画像IREFを表示させつつ、基準画像IREFの分割画像領域ごとに基準画像IREFの分割画像領域の画像特徴に応じた指標を表示するようにしても良い。これによって、ユーザによる検索用指定操作が支援され、所望の検索条件を指定しやすくなる。今、基準画像IREFが目標画像350である場合を想定しているため、分割画像領域401及び402に対応する判定シーンは夫々“花シーン”及び“風景シーン”である。従って、図16の例では、図8(b)と同様、検索用指定操作を受け付けている期間中において、基準画像IREFが指標332及び333と共に表示部15に表示される。指標332は、基準画像IREFの分割画像領域401の画像特徴に応じた指標であり、指標333は、基準画像IREFの分割画像領域402の画像特徴に応じた指標である。指標332を分割画像領域401内又は分割画像領域401の近傍に配置すると良く、指標333を分割画像領域402内又は分割画像領域402の近傍に配置すると良い(図15も参照)。更に、分割画像領域401及び402間の境界線334を基準画像IREFに重畳表示するようにしても良い。指標332、333及び境界線334の形成及び表示を、画像ファイルFLREF内のシーン判定情報及び判定領域情報を用いて成すことができる。 Further, during a period in which accepts search for the specified operation, as shown in FIG. 16, while displaying a reference image I REF, for each divided image areas of the reference image I REF to the image feature of the divided image areas of the reference image I REF A corresponding index may be displayed. As a result, the search specifying operation by the user is supported, and it becomes easy to specify a desired search condition. Since it is assumed that the reference image I REF is the target image 350, the determination scenes corresponding to the divided image regions 401 and 402 are “flower scene” and “landscape scene”, respectively. Therefore, in the example of FIG. 16, the reference image I REF is displayed on the display unit 15 together with the indexes 332 and 333 during the period when the search designation operation is accepted, as in FIG. The index 332 is an index corresponding to the image feature of the divided image area 401 of the reference image I REF , and the index 333 is an index corresponding to the image feature of the divided image area 402 of the reference image I REF . The index 332 may be arranged in the divided image area 401 or in the vicinity of the divided image area 401, and the index 333 may be arranged in the divided image area 402 or in the vicinity of the divided image area 402 (see also FIG. 15). Furthermore, the boundary line 334 between the divided image areas 401 and 402 may be displayed in a superimposed manner on the reference image I REF . Formation and display of the indicators 332 and 333 and the boundary line 334 can be performed using the scene determination information and the determination area information in the image file FL REF .

検索基準領域の設定後、ステップS36において、検索処理部60は、検索条件に適合する非基準画像を非基準画像I[1]〜I[Q]から検索する。検索条件に適合する非基準画像とは、検索基準領域内の画像特徴に類似する画像特徴を有する非基準画像である。検索基準領域の設定後に、非基準画像I[1]〜I[Q]の夫々の画像特徴を解析し、その解析結果に基づいて検索基準領域内の画像特徴に類似する画像特徴を有する非基準画像を検索することも可能である。しかしながら、非基準画像の枚数(即ちQの値)が大きい場合において、検索基準領域の設定後に、このような解析を行ったならば検索結果が得られるまでの時間が相当に長くなる。そこで、ステップS36における検索を、画像ファイルFL[1]〜FL[Q]の付加データに基づいて行うようにすると良い。   After setting the search reference area, in step S36, the search processing unit 60 searches the non-reference images I [1] to I [Q] for non-reference images that meet the search conditions. The non-reference image that matches the search condition is a non-reference image having an image feature similar to the image feature in the search reference region. After setting the search reference region, each image feature of the non-reference images I [1] to I [Q] is analyzed, and a non-reference having an image feature similar to the image feature in the search reference region based on the analysis result. It is also possible to search for images. However, when the number of non-reference images (that is, the value of Q) is large, if such an analysis is performed after setting the search reference area, the time until the search result is obtained becomes considerably long. Therefore, the search in step S36 may be performed based on the additional data of the image files FL [1] to FL [Q].

例えば、“花シーン”に対応する分割画像領域401が検索基準領域として設定されている場合、画像ファイルFL[1]〜FL[Q]に対する計Q個のシーン判定情報の中から、“花シーン”の判定シーンを内包するシーン判定情報を抽出し、抽出したシーン判定情報に対応する非基準画像が検索条件に適合する非基準画像であると判断すると良い。この場合において、画像ファイルFL[1]〜FL[Q]の内、画像ファイルFL[1]及びFL[2]に対するシーン判定情報にのみ、“花シーン”の判定シーンが内包されているならば、非基準画像I[1]及びI[2]のみが検索条件に適合する非基準画像として検出される。分割画像領域402が検索基準領域として設定されている場合も同様である。即ち、“風景シーン”に対応する分割画像領域402が検索基準領域として設定されている場合、画像ファイルFL[1]〜FL[Q]に対する計Q個のシーン判定情報の中から、“風景シーン”の判定シーンを内包するシーン判定情報を抽出し、抽出したシーン判定情報に対応する非基準画像が検索条件に適合する非基準画像であると判断すると良い。   For example, when the divided image area 401 corresponding to “flower scene” is set as the search reference area, “flower scene” is selected from Q scene determination information for the image files FL [1] to FL [Q]. It is preferable to extract the scene determination information including the determination scene “” and determine that the non-reference image corresponding to the extracted scene determination information is a non-reference image that meets the search condition. In this case, if the determination scene of “flower scene” is included only in the scene determination information for the image files FL [1] and FL [2] among the image files FL [1] to FL [Q]. Only the non-reference images I [1] and I [2] are detected as non-reference images that meet the search condition. The same applies when the divided image area 402 is set as the search reference area. That is, when the divided image area 402 corresponding to “landscape scene” is set as the search reference area, “landscape scene” is selected from Q scene determination information for the image files FL [1] to FL [Q]. It is preferable to extract the scene determination information including the determination scene “” and determine that the non-reference image corresponding to the extracted scene determination information is a non-reference image that meets the search condition.

尚、検索条件に適合する非基準画像の検索期間中において、検索条件の内容をユーザに通知するようにしても良い。通知の方法は任意であり、人間の五感(視覚、聴覚等)に訴える任意の方法を採用可能である。例えば、“花シーン”に対応する分割画像領域401が検索基準領域として設定されている場合、花を撮影した画像を検索している旨を表示部15に表示し、“風景シーン”に対応する分割画像領域402が検索基準領域として設定されている場合、風景を撮影した画像を検索している旨を表示部15に表示すると良い。また、上述の例では、画像ファイルFL[i]にシーン判定情報が予め格納されていることを想定しているが、画像ファイルFL[i]にシーン判定情報が格納されてない場合には、ステップS36において、非基準画像I[i]の画像データに基づき非基準画像I[i]の各シーン判定領域に対してシーン判定を行い、これによって非基準画像I[i]に対するシーン判定情報を生成するようにしても良い。   Note that the content of the search condition may be notified to the user during the search period of the non-reference image that matches the search condition. The notification method is arbitrary, and any method that appeals to the human senses (sight, hearing, etc.) can be adopted. For example, when the divided image area 401 corresponding to “flower scene” is set as the search reference area, the display unit 15 displays that the image obtained by photographing the flower is searched, and corresponds to “landscape scene”. When the divided image area 402 is set as a search reference area, it is preferable to display on the display unit 15 that an image obtained by capturing a landscape is being searched. In the above example, it is assumed that the scene determination information is stored in advance in the image file FL [i]. However, when the scene determination information is not stored in the image file FL [i], In step S36, scene determination is performed for each scene determination area of the non-reference image I [i] based on the image data of the non-reference image I [i], thereby obtaining scene determination information for the non-reference image I [i]. You may make it produce | generate.

ステップS36の検索が終了すると、ステップS37において、検索処理部60は、ステップS36の検索の結果を表示部15に表示させる(図14(a)又は図14(b)参照)。ユーザが、検索条件に適合する非基準画像の情報を認識できる限り、この表示の方法は任意である。例えば、検索条件に適合する非基準画像そのもの、検索条件に適合する非基準画像のサムネイル、又は、検索条件に適合する非基準画像のファイル名を表示部15に表示させると良い。検索条件に適合する非基準画像が複数枚存在する場合において、検索条件に適合する非基準画像の全て又は検索条件に適合する非基準画像のサムネイルの全てを同時に表示できない場合には、スライドショーの如く、それらを複数回に分けて表示するようにしても良い。尚、検索条件に適合する非基準画像が1枚も存在しない場合には、その旨をユーザに通知すれば良い。   When the search in step S36 ends, in step S37, the search processing unit 60 displays the search result in step S36 on the display unit 15 (see FIG. 14A or FIG. 14B). As long as the user can recognize the information of the non-reference image that matches the search condition, this display method is arbitrary. For example, the display unit 15 may display the non-reference image itself that matches the search condition, the thumbnail of the non-reference image that matches the search condition, or the file name of the non-reference image that matches the search condition. If there are multiple non-reference images that meet the search criteria, and if you cannot display all of the non-reference images that meet the search criteria or all of the non-reference image thumbnails that meet the search criteria at the same time, like a slideshow These may be displayed in a plurality of times. Note that if there is no non-reference image that matches the search condition, it is sufficient to notify the user to that effect.

前景側の被写体に注目した画像検索を行わせたいとき、前景側の被写体が検索基準領域に対応するようにユーザは検索用指定操作を成せばよく、逆に、背景側の被写体に注目した画像検索を行わせたいとき、背景側の被写体が検索基準領域に対応するようにユーザは検索用指定操作を成せばよい。このように、第2実施形態によれば、前景と背景を区別したような画像検索を実行することが可能となる。   When it is desired to perform an image search focusing on the foreground subject, the user only needs to perform a search specifying operation so that the foreground subject corresponds to the search reference area, and conversely, an image focusing on the background subject. When it is desired to perform a search, the user may perform a search specifying operation so that the subject on the background side corresponds to the search reference area. As described above, according to the second embodiment, it is possible to execute an image search in which the foreground and the background are distinguished.

以下、第2実施形態に適用可能な応用検索方法を幾つか説明する。以下に示す複数の応用検索方法を組み合わせて実施することも可能である。
[第1応用検索方法]
第1応用検索方法を説明する。上述の説明では、画像特徴に基づいて各非基準画像が検索条件に適合しているか否かが判断されることになるが、更に基準画像IREFの被写体距離情報及び各非基準画像I[i]の被写体距離情報を用いて、この判断を行うようにしても良い。説明の具体化のため、図15の分割画像領域401が検索基準領域に設定されたことを想定して、この方法を詳説する。
Hereinafter, several application search methods applicable to the second embodiment will be described. It is also possible to implement a combination of a plurality of application search methods shown below.
[First applied search method]
The first applied search method will be described. In the above description, it is determined whether or not each non-reference image meets the search condition based on the image feature. Furthermore, the subject distance information of the reference image I REF and each non-reference image I [i This determination may be made using the subject distance information. For the sake of concrete explanation, this method will be described in detail assuming that the divided image area 401 in FIG. 15 is set as the search reference area.

上述したように、検索基準領域としての分割画像領域401には花311の画像データが存在しており、結果、分割画像領域401に対応する判定シーンは“花シーン”である。この場合、検索処理部60は、画像ファイルFL[1]〜FL[Q]に対する計Q個のシーン判定情報の中から、“花シーン”の判定シーンを内包するシーン判定情報を抽出する。ここで抽出したシーン判定情報に対応する非基準画像は、検索条件に適合する非基準画像の候補として取り扱われる。今、非基準画像I[1]及びI[2]のみが検索条件に適合する非基準画像の候補として取り扱われたとする。   As described above, the image data of the flower 311 exists in the divided image area 401 as the search reference area, and as a result, the determination scene corresponding to the divided image area 401 is “flower scene”. In this case, the search processing unit 60 extracts scene determination information including a determination scene of “flower scene” from a total of Q scene determination information for the image files FL [1] to FL [Q]. The non-reference image corresponding to the scene determination information extracted here is handled as a non-reference image candidate that matches the search condition. Now, it is assumed that only the non-reference images I [1] and I [2] are handled as non-reference image candidates that meet the search condition.

上述したように、基準画像IREFにおいて、検索基準領域内の被写体である花311は前景側の被写体である。そして、今、非基準画像I[1]において“花シーン”の判定シーンに対応するシーン判定領域内の被写体が前景側の被写体であって、且つ、非基準画像I[2]において“花シーン”の判定シーンに対応するシーン判定領域内の被写体が背景側の被写体であったとする。この場合、検索条件に適合する非基準画像の候補の内、“花シーン”に対する被写体(即ち花)を前景側の被写体として持つ非基準画像のみを、即ち非基準画像I[1]のみを、検索条件に適合する非基準画像として検出するようにする。この方法によれば、前景側に「花」が位置している非基準画像を検索する、或いは、背景側に「花」が位置している非基準画像を検索する、といった高度な検索が可能となる。 As described above, in the reference image I REF , the flower 311 that is the subject in the search reference region is the foreground subject. Now, the subject in the scene determination area corresponding to the determination scene of “flower scene” in the non-reference image I [1] is the foreground subject, and “flower scene” in the non-reference image I [2]. Assume that the subject in the scene determination area corresponding to the determination scene “” is the subject on the background side. In this case, among the non-reference image candidates that match the search condition, only the non-reference image having the subject (that is, the flower) for the “flower scene” as the foreground side subject, that is, only the non-reference image I [1], A non-reference image that matches the search condition is detected. According to this method, it is possible to search for a non-reference image in which “flower” is located on the foreground side or a non-reference image in which “flower” is located on the background side. It becomes.

基準画像IREFの被写体距離情報から基準画像IREF上の任意の被写体が前景側及び背景側のどちらの被写体であるかを判断することができ、非基準画像I[i]の被写体距離情報から非基準画像I[i]上の任意の被写体が前景側及び背景側のどちらの被写体であるかを判断することができる。単純には例えば、任意の注目画像に2種類の被写体が含まれている場合、被写体距離の短い方の被写体を前景側の被写体と捉えることができると共に被写体距離の長い方の被写体を背景側の被写体と捉えることができる。また例えば、
任意の注目画像において、注目画像の全被写体の被写体距離の平均を求め、該平均よりも短い被写体距離を有する被写体を前景側の被写体と捉えることができ、該平均よりも長い被写体距離を有する被写体を背景側の被写体と捉えることができる。
Can any subject in the reference image I REF of the object distance reference image from the information I REF to determine whether it is the object of the foreground side and the background side, the object distance information of non-reference image I [i] It can be determined whether an arbitrary subject on the non-reference image I [i] is a foreground side subject or a background side subject. For example, when two types of subjects are included in an arbitrary image of interest, a subject with a shorter subject distance can be regarded as a subject on the foreground side, and a subject with a longer subject distance is placed on the background side. It can be seen as a subject. For example,
In any target image, an average of the subject distances of all subjects in the target image can be obtained, and a subject having a subject distance shorter than the average can be regarded as a foreground subject, and a subject having a subject distance longer than the average Can be regarded as a subject on the background side.

[第2応用検索方法]
第2応用検索方法を説明する。上述の説明では、基準画像IREFに対して検索基準領域が1つだけ設定されているが、ユーザは、検索用指定操作により基準画像IREFに対して複数の検索基準領域を設定することもできる。例えば、基準画像IREFの全体画像領域が第1〜第5分割画像領域に分割され且つ各分割画像領域に対して判定シーンが求められている場合において、ユーザの検索用指定操作により、第1及び第2分割画像領域が検索基準領域に設定された場合を考える。
[Second application search method]
The second applied search method will be described. In the above description, only one search reference area is set for the reference image I REF , but the user may set a plurality of search reference areas for the reference image I REF by a search specifying operation. it can. For example, when the entire image area of the reference image I REF is divided into first to fifth divided image areas and a determination scene is obtained for each divided image area, the first operation for specifying the search is performed by the user. Consider the case where the second divided image region is set as the search reference region.

この場合、検索処理部60は、非基準画像I[i]のシーン判定情報が以下の第1及び第2条件を満たすか否かを判断する。
第1条件は、非基準画像I[i]のシーン判定情報が、基準画像IREFの第1分割画像領域に対する判定シーンと同一の判定シーンを内包しているという条件である。
第2条件は、非基準画像I[i]のシーン判定情報が、基準画像IREFの第2分割画像領域に対する判定シーンと同一の判定シーンを内包しているという条件である。
In this case, the search processing unit 60 determines whether the scene determination information of the non-reference image I [i] satisfies the following first and second conditions.
The first condition is a condition that the scene determination information of the non-reference image I [i] includes the same determination scene as the determination scene for the first divided image area of the reference image IREF .
The second condition is a condition that the scene determination information of the non-reference image I [i] includes the same determination scene as the determination scene for the second divided image area of the reference image I REF .

そして、検索処理部60は、非基準画像I[i]のシーン判定情報が上記第1及び第2条件の双方を満たしている場合にのみ、非基準画像I[i]が検索条件に適合していると判断する。或いは、非基準画像I[i]のシーン判定情報が上記第1及び第2条件の少なくとも一方を満たしている場合にのみ、非基準画像I[i]が検索条件に適合していると判断するようにしても良い。   The search processing unit 60 then matches the non-reference image I [i] with the search condition only when the scene determination information of the non-reference image I [i] satisfies both the first and second conditions. Judge that Alternatively, only when the scene determination information of the non-reference image I [i] satisfies at least one of the first and second conditions, it is determined that the non-reference image I [i] meets the search condition. You may do it.

[第3応用検索方法]
第3応用検索方法を説明する。シーン判定情報に基づいて又はシーン判定情報及び被写体距離情報に基づいて検索条件に適合する非基準画像を検出した後、更に、画像解析等を用いて検索条件に適合する非基準画像を絞り込むようにしても良い。例えば、“花シーン”に対応する分割画像領域401が検索基準領域として設定されている場合において、画像ファイルFL[1]及びFL[2]に対するシーン判定情報に“花シーン”の判定シーンが内包されているとき、一旦、非基準画像I[1]及びI[2]を検索条件に適合する非基準画像の候補として検出する。その後、基準画像IREFの分割画像領域401内の画像データと非基準画像I[1]及びI[2]の画像データに基づき、基準画像IREFの分割画像領域401内の画像と非基準画像I[1]内の“花シーン”に対応する部分の画像との間の類似度、及び、基準画像IREFの分割画像領域401内の画像と非基準画像I[2]内の“花シーン”に対応する部分の画像との間の類似度を求め、前者の類似度が所定の基準類似度よりも高い場合に限って非基準画像I[1]は検索条件に適合する非基準画像であると判断するようにしても良く、同様に、後者の類似度が所定の基準類似度よりも高い場合に限って非基準画像I[2]は検索条件に適合する非基準画像であると判断するようにしても良い。これにより例えば、基準画像IREFの分割画像領域401内の花が“ひまわり”であるとき、“ひまわり”の花を撮影した非基準画像が検索条件に適合すると判断され、“あじさい”の花を撮影した非基準画像は検索条件に適合していないと判断される。
[Third applied search method]
A third applied search method will be described. After detecting the non-reference image that matches the search condition based on the scene determination information or based on the scene determination information and the subject distance information, the non-reference image that matches the search condition is further narrowed down using image analysis or the like. May be. For example, when the divided image region 401 corresponding to “flower scene” is set as the search reference region, the determination scene of “flower scene” is included in the scene determination information for the image files FL [1] and FL [2]. When it is, the non-reference images I [1] and I [2] are once detected as non-reference image candidates that meet the search conditions. Thereafter, based on the image data in the divided image region 401 of the reference image I REF and the image data of the non-reference images I [1] and I [2], the image in the divided image region 401 of the reference image I REF and the non-reference image The similarity between the image corresponding to the “flower scene” in I [1] and the image in the divided image area 401 of the reference image I REF and the “flower scene in the non-reference image I [2] The non-reference image I [1] is a non-reference image that meets the search condition only when the similarity between the image and the portion corresponding to "is obtained and the former similarity is higher than the predetermined reference similarity. Similarly, it may be determined that the non-reference image I [2] is a non-reference image that meets the search condition only when the similarity of the latter is higher than a predetermined reference similarity. You may make it do. Thereby, for example, when the flower in the divided image area 401 of the reference image I REF is “sunflower”, it is determined that the non-reference image obtained by photographing the “sunflower” flower satisfies the search condition, and the “hydrangea” flower is selected. It is determined that the captured non-reference image does not meet the search condition.

<<第3実施形態>>
本発明の第3実施形態を説明する。第3実施形態は第1及び第2実施形態を基礎とした実施形態であり、第3実施形態において特に述べない事項に関しては、矛盾なき限り、第1及び第2実施形態の記載が第3実施形態にも適用される。第3実施形態においても、第2実施形態と同様、検索条件に適合する画像の検索動作を説明する。但し、第3実施形態に係る検索方法では、基準画像IREFが必要とならない。図17を参照して、第3実施形態に係る検索動作を説明する。図17は、この検索動作の手順を表すフローチャートである。
<< Third Embodiment >>
A third embodiment of the present invention will be described. The third embodiment is an embodiment based on the first and second embodiments. For matters not specifically described in the third embodiment, the description of the first and second embodiments is the third embodiment as long as there is no contradiction. Also applies to form. In the third embodiment, as in the second embodiment, an image search operation that matches the search condition will be described. However, in the search method according to the third embodiment, the reference image I REF is not necessary. A search operation according to the third embodiment will be described with reference to FIG. FIG. 17 is a flowchart showing the procedure of this search operation.

まず、ステップS51において、撮像装置1は、ユーザによる検索条件の入力を受け付ける。ユーザは、タッチパネル操作又はボタン操作等を用いて検索条件を入力することができる。続くステップS52において、検索処理部60又は図示されない領域分割部は、記録媒体16から各非基準画像の被写体距離情報を読み出し、各非基準画像の被写体距離情報に基づき各非基準画像に対する領域分割処理を実行する。これによって、被検索画像としての非基準画像I[i]内に複数の分割画像領域が設定される。但し、非基準画像I[i]に対する領域分割処理によって設定されるべき非基準画像I[i]の各分割画像領域の位置及び大きさは、基本的に、非基準画像I[i]の画像ファイルFL[i]の判定領域情報によって規定されている。従って、画像ファイルFL[i]から判定領域情報を読み出すことで、非基準画像I[i]に対する領域分割処理を完了させることもできる。   First, in step S51, the imaging apparatus 1 accepts input of search conditions by the user. The user can input a search condition using a touch panel operation or a button operation. In subsequent step S52, the search processing unit 60 or an area division unit (not shown) reads out subject distance information of each non-reference image from the recording medium 16, and performs area division processing on each non-reference image based on the subject distance information of each non-reference image. Execute. Thereby, a plurality of divided image areas are set in the non-reference image I [i] as the search target image. However, the position and size of each divided image area of the non-reference image I [i] to be set by the area division processing for the non-reference image I [i] is basically the image of the non-reference image I [i]. It is defined by the determination area information of the file FL [i]. Therefore, by reading the determination area information from the image file FL [i], the area division process for the non-reference image I [i] can be completed.

その後、ステップS53において、検索処理部60は、非基準画像ごとに且つ分割画像領域ごとに検索条件の適合性を評価することで、各非基準画像が検索条件に適合しているのか否かを判断する。この判断を、各非基準画像のシーン判定情報を用いて行うことができる。最後にステップS54において、検索処理部60は、ステップS53の検索の結果を表示部15に表示させる。この表示の方法は、第2実施形態のステップS37におけるそれと同様である。ユーザが、検索条件に適合する非基準画像の情報を認識できる限り、この表示の方法は任意である。   After that, in step S53, the search processing unit 60 evaluates the suitability of the search condition for each non-reference image and for each divided image region, thereby determining whether each non-reference image meets the search condition. to decide. This determination can be made using the scene determination information of each non-reference image. Finally, in step S54, the search processing unit 60 causes the display unit 15 to display the search result of step S53. This display method is the same as that in step S37 of the second embodiment. As long as the user can recognize the information of the non-reference image that matches the search condition, this display method is arbitrary.

具体例を挙げる。例えば、“撮影シーンが花シーンである非基準画像”、即ち例えば“花を被写体として含む非基準画像”又は“花に注目して撮影した非基準画像”をユーザが探している場合、ユーザは、その旨を表す文言を直接撮像装置1に入力する、或いは、予め設けられた複数の項目の中からその旨を表す項目を選択する。これによって、入力文言又は選択項目に応じた検索条件が設定される。検索条件の設定後、非基準画像I[1]〜I[Q]の夫々の画像特徴を解析し、その解析結果に基づいて検索条件に適合する非基準画像を検索することも可能である。しかしながら、非基準画像の枚数(即ちQの値)が大きい場合において、検索条件の設定後にこのような解析を行うと、検索結果が得られるまでの時間が相当に長くなる。   A specific example is given. For example, when the user is searching for “a non-reference image in which the shooting scene is a flower scene”, for example, “a non-reference image including a flower as a subject” or “a non-reference image taken by focusing on flowers”, the user A word indicating that is directly input to the imaging apparatus 1 or an item indicating that is selected from a plurality of items provided in advance. Thereby, a search condition corresponding to the input wording or the selection item is set. After setting the search conditions, it is also possible to analyze the image features of each of the non-reference images I [1] to I [Q] and search for a non-reference image that meets the search conditions based on the analysis result. However, when the number of non-reference images (that is, the value of Q) is large, if such an analysis is performed after setting the search conditions, the time until the search result is obtained becomes considerably long.

そこで、記録媒体16内の付加データを読み出し、非基準画像I[1]のシーン判定情報が“花シーン”を内包している場合(即ち、非基準画像I[1]の何れかの分割画像領域の判定シーンが“花シーン”である場合)には、非基準画像I[1]は検索条件に適合すると判断し、非基準画像I[1]のシーン判定情報が“花シーン”を内包していない場合には、非基準画像I[1]は検索条件に適合していないと判断すると良い。非基準画像I[2]〜I[Q]についても同様である。   Therefore, when the additional data in the recording medium 16 is read and the scene determination information of the non-reference image I [1] includes “flower scene” (that is, any divided image of the non-reference image I [1]). When the determination scene of the region is “flower scene”), it is determined that the non-reference image I [1] satisfies the search condition, and the scene determination information of the non-reference image I [1] includes “flower scene”. If not, it may be determined that the non-reference image I [1] does not meet the search condition. The same applies to the non-reference images I [2] to I [Q].

尚、上述の第1応用検索方法の如く、検索条件に被写体距離に関する条件を付加するようにしても良い。この場合、各非基準画像I[i]の被写体距離情報をも用いて、各非基準画像I[i]に対する検索条件の適合/不適合が判断されるようになる。例えば、“撮影シーンが花シーンであって且つ花が前景側の被写体であること”を、ユーザは検索条件として指定することができる。この場合、非基準画像I[1]のシーン判定情報が“花シーン”を内包している場合であっても、非基準画像I[1]の“花シーン”に対応する分割画像領域内の花が背景側の被写体である場合には、非基準画像I[1]は検索条件に適合していないと判断され、非基準画像I[1]の“花シーン”に対応する分割画像領域内の花が前景側の被写体である場合にのみ、非基準画像I[1]が検索条件に適合していると判断されるようになる。非基準画像I[2]〜I[Q]についても同様である。この方法によれば、前景側に「花」が位置している非基準画像を検索する、或いは、背景側に「花」が位置している非基準画像を検索する、といった高度な検索が可能となる。   Note that, as in the first applied search method described above, a condition related to the subject distance may be added to the search condition. In this case, the suitability / nonconformity of the search condition for each non-reference image I [i] is determined using the subject distance information of each non-reference image I [i]. For example, the user can specify “the shooting scene is a flower scene and the flower is a foreground subject” as a search condition. In this case, even if the scene determination information of the non-reference image I [1] includes “flower scene”, the image in the divided image region corresponding to the “flower scene” of the non-reference image I [1]. When the flower is the subject on the background side, it is determined that the non-reference image I [1] does not meet the search condition, and the image is within the divided image region corresponding to the “flower scene” of the non-reference image I [1]. Only when the flower is a foreground subject, it is determined that the non-reference image I [1] meets the search condition. The same applies to the non-reference images I [2] to I [Q]. According to this method, it is possible to search for a non-reference image in which “flower” is located on the foreground side or a non-reference image in which “flower” is located on the background side. It becomes.

ユーザは様々な形態の検索条件を指定することができる。
例えば、“花及び動物を被写体として含むこと”を検索条件に指定することもでき、この指定が成された場合、非基準画像I[1]のシーン判定情報が“花シーン”及び“動物シーン”の双方を内包している場合にのみ、非基準画像I[1]は検索条件に適合すると判断し、それ以外の場合には、非基準画像I[1]は検索条件に適合していないと判断すると良い。非基準画像I[2]〜I[Q]についても同様である。
また例えば、“動物を前景側の被写体として含み且つ海を背景側の被写体として含むこと”を検索条件に指定することもできる。この指定が成された場合、非基準画像I[1]のシーン判定情報が“動物シーン”及び“海シーン”の双方を内包していて、且つ、非基準画像I[1]の“動物シーン”に対応する分割画像領域内の動物が前景側の被写体である共に非基準画像I[1]の“海シーン”に対応する分割画像領域内の海が背景側の被写体である場合にのみ、非基準画像I[1]は検索条件に適合すると判断し、それ以外の場合には、非基準画像I[1]は検索条件に適合していないと判断すると良い。非基準画像I[2]〜I[Q]についても同様である。
The user can specify various types of search conditions.
For example, “include flowers and animals as subjects” can be specified as a search condition. When this specification is made, the scene determination information of the non-reference image I [1] is “flower scene” and “animal scene”. Only when both of "" are included, it is determined that the non-reference image I [1] meets the search condition. In other cases, the non-reference image I [1] does not meet the search condition. It is good to judge. The same applies to the non-reference images I [2] to I [Q].
Further, for example, “include animals as foreground subjects and sea as background subjects” can be specified as a search condition. When this designation is made, the scene determination information of the non-reference image I [1] includes both the “animal scene” and the “sea scene”, and the “animal scene” of the non-reference image I [1] Only when the animal in the divided image region corresponding to “” is the foreground subject and the sea in the divided image region corresponding to the “sea scene” of the non-reference image I [1] is the background subject. It may be determined that the non-reference image I [1] matches the search condition, and otherwise, it is determined that the non-reference image I [1] does not match the search condition. The same applies to the non-reference images I [2] to I [Q].

上述の説明から理解されるように、第3実施形態によれば、例えば、前景側の被写体が検索条件に適合した画像や背景側の被写体が検索条件に適合した画像等を検索することが可能となり、検索条件によっては、それらの画像を区別して検出することも可能となる。   As can be understood from the above description, according to the third embodiment, for example, it is possible to search for an image in which the foreground subject matches the search condition, an image in which the background subject matches the search condition, and the like. Thus, depending on the search condition, it is possible to distinguish and detect these images.

<<変形等>>
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施の形態は、あくまでも、本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以上の実施の形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態に適用可能な注釈事項として、以下に、注釈1及び注釈2を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The embodiments of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims. The above embodiment is merely an embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the above embodiment. The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As annotations applicable to the above-described embodiment, annotation 1 and annotation 2 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
第2又は第3実施形態に係る検索動作を、撮像装置1と異なる電子機器(不図示)において実行することもできる。電子機器は、例えば、パーソナルコンピュータ等の画像再生装置、PDA(Personal Digital Assistant)等の情報端末装置である。尚、撮像装置も電子機器の一種である。第2又は第3実施形態に係る検索動作を撮像装置1と異なる電子機器において実行する場合、撮像装置1に設けられた、第2又は第3実施形態の動作に必要な部位(検索処理部60、表示部15、領域分割部等)を、当該電機子器にも設けておくと良い。
[Note 1]
The search operation according to the second or third embodiment can also be executed in an electronic device (not shown) different from the imaging device 1. The electronic device is, for example, an image reproduction device such as a personal computer or an information terminal device such as a PDA (Personal Digital Assistant). An imaging device is also a type of electronic device. When the search operation according to the second or third embodiment is executed in an electronic device different from the imaging device 1, a part (search processing unit 60) provided in the imaging device 1 and necessary for the operation of the second or third embodiment. , The display unit 15, the region dividing unit, and the like) may be provided in the armature.

[注釈2]
図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい。
[Note 2]
The imaging apparatus 1 in FIG. 1 can be configured by hardware or a combination of hardware and software. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. A function realized using software may be described as a program, and the function may be realized by executing the program on a program execution device (for example, a computer).

1 撮像装置
11 撮像部
15 表示部
19 タッチパネル
51 シーン判定部
52 撮影制御部
53 画像処理部
54 表示制御部
55 被写体距離情報生成部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 15 Display part 19 Touch panel 51 Scene determination part 52 Shooting control part 53 Image processing part 54 Display control part 55 Subject distance information generation part

Claims (6)

被写体の画像データを出力する撮像素子と、
前記撮像素子の出力に基づく判定対象画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、
前記複数の分割画像領域の内、2以上の分割画像領域を判定領域とし、判定領域ごとに、当該判定領域内の画像データに基づいて当該判定領域内の画像のシーン判定を行うシーン判定部と、を備えた
ことを特徴とする撮像装置。
An image sensor that outputs image data of a subject;
An area dividing unit that divides the entire image area of the determination target image based on the output of the imaging element into a plurality of divided image areas;
A scene determination unit configured to determine two or more divided image areas among the plurality of divided image areas as determination areas, and for each determination area, determine a scene of an image in the determination area based on image data in the determination area; An imaging apparatus comprising:
各判定領域に対するシーン判定の結果を表示する表示部を更に備えた
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, further comprising a display unit that displays a result of scene determination for each determination region.
目標画像の取得を指示する所定の撮影指示が与えられた際、前記撮像素子の出力を用い、各判定領域に対するシーン判定の結果に応じた条件にて前記目標画像の画像データを生成する画像処理部を更に備えた
ことを特徴とする請求項1又は請求項2に記載の撮像装置。
Image processing for generating image data of the target image under a condition corresponding to a result of scene determination for each determination region using an output of the image sensor when a predetermined shooting instruction for instructing acquisition of the target image is given The imaging apparatus according to claim 1, further comprising a unit.
判定領域ごとに、当該判定領域に対するシーン判定の結果に応じた撮影パラメータが設定され、
前記画像処理部は、判定領域ごとに、対応する撮影パラメータを用いて当該判定領域に対応する前記目標画像内の画像領域の画像データを生成することで、前記目標画像の全体の画像データを生成する
ことを特徴とする請求項3に記載の撮像装置。
For each determination area, shooting parameters are set according to the scene determination result for the determination area,
The image processing unit generates image data of the entire target image by generating image data of the image area in the target image corresponding to the determination area using the corresponding shooting parameter for each determination area. The imaging apparatus according to claim 3, wherein:
被写体の画像である基準画像の全体画像領域を複数の分割画像領域に分割する領域分割部と、
与えられた選択指示に従って前記複数の分割画像領域の中から検索基準領域を選択し、前記検索基準領域の画像特徴に対応する画像特徴を有する非基準画像を複数の非基準画像の中から検索する検索処理部と、を備えた
ことを特徴とする電子機器。
An area dividing unit that divides the entire image area of the reference image that is the image of the subject into a plurality of divided image areas;
A search reference area is selected from the plurality of divided image areas in accordance with a given selection instruction, and a non-reference image having an image feature corresponding to the image feature of the search reference area is searched from the plurality of non-reference images. An electronic apparatus comprising: a search processing unit.
前記検索は、検索条件に適合する非基準画像を前記複数の非基準画像の中から選ぶ処理であり、
前記検索処理部は、前記基準画像の被写体距離情報及び各非基準画像の被写体距離情報をも利用して、各非基準画像が前記検索条件に適合しているか否かを判断する
ことを特徴とする請求項5に記載の電子機器。
The search is a process of selecting a non-reference image that matches a search condition from the plurality of non-reference images,
The search processing unit also uses subject distance information of the reference image and subject distance information of each non-reference image to determine whether each non-reference image meets the search condition. The electronic device according to claim 5.
JP2010136075A 2010-06-15 2010-06-15 Imaging apparatus and electronic apparatus Pending JP2012004716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010136075A JP2012004716A (en) 2010-06-15 2010-06-15 Imaging apparatus and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010136075A JP2012004716A (en) 2010-06-15 2010-06-15 Imaging apparatus and electronic apparatus

Publications (1)

Publication Number Publication Date
JP2012004716A true JP2012004716A (en) 2012-01-05

Family

ID=45536237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010136075A Pending JP2012004716A (en) 2010-06-15 2010-06-15 Imaging apparatus and electronic apparatus

Country Status (1)

Country Link
JP (1) JP2012004716A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013247590A (en) * 2012-05-28 2013-12-09 Canon Inc Imaging apparatus and method of controlling the same
CN103440672A (en) * 2013-07-19 2013-12-11 南京农业大学 Flowering plant flower image division extracting method
DE102013226831A1 (en) 2012-12-27 2014-07-03 Canon K.K. Imaging apparatus and method for controlling the same
US8994874B2 (en) 2012-12-25 2015-03-31 Canon Kabushiki Kaisha Image capture apparatus and control method therefor
CN104980651A (en) * 2014-04-04 2015-10-14 佳能株式会社 Image processing apparatus and control method
US9378422B2 (en) 2013-10-23 2016-06-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011289A (en) * 2006-06-30 2008-01-17 Sanyo Electric Co Ltd Digital camera
WO2009013850A1 (en) * 2007-07-23 2009-01-29 Panasonic Corporation Imaging device
JP2009071676A (en) * 2007-09-14 2009-04-02 Casio Comput Co Ltd Imaging apparatus, and program and method for controlling the same
JP2009171282A (en) * 2008-01-17 2009-07-30 Nikon Corp Electronic camera
JP2009177272A (en) * 2008-01-22 2009-08-06 Sony Corp Imaging apparatus, and control method and program thereof
JP2010045613A (en) * 2008-08-13 2010-02-25 Ntt Docomo Inc Image identifying method and imaging device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011289A (en) * 2006-06-30 2008-01-17 Sanyo Electric Co Ltd Digital camera
WO2009013850A1 (en) * 2007-07-23 2009-01-29 Panasonic Corporation Imaging device
JP2009071676A (en) * 2007-09-14 2009-04-02 Casio Comput Co Ltd Imaging apparatus, and program and method for controlling the same
JP2009171282A (en) * 2008-01-17 2009-07-30 Nikon Corp Electronic camera
JP2009177272A (en) * 2008-01-22 2009-08-06 Sony Corp Imaging apparatus, and control method and program thereof
JP2010045613A (en) * 2008-08-13 2010-02-25 Ntt Docomo Inc Image identifying method and imaging device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013247590A (en) * 2012-05-28 2013-12-09 Canon Inc Imaging apparatus and method of controlling the same
US8994874B2 (en) 2012-12-25 2015-03-31 Canon Kabushiki Kaisha Image capture apparatus and control method therefor
DE102013226831A1 (en) 2012-12-27 2014-07-03 Canon K.K. Imaging apparatus and method for controlling the same
US9635238B2 (en) 2012-12-27 2017-04-25 Canon Kabushiki Kaisha Imaging apparatus and method for controlling the same
DE102013226831B4 (en) 2012-12-27 2019-08-14 Canon K.K. Imaging apparatus and method for controlling the same
CN103440672A (en) * 2013-07-19 2013-12-11 南京农业大学 Flowering plant flower image division extracting method
US9378422B2 (en) 2013-10-23 2016-06-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN104980651A (en) * 2014-04-04 2015-10-14 佳能株式会社 Image processing apparatus and control method
US9665939B2 (en) 2014-04-04 2017-05-30 Canon Kabushiki Kaisha Image processing apparatus, control method, and recording medium
KR101803712B1 (en) * 2014-04-04 2017-12-01 캐논 가부시끼가이샤 Image processing apparatus, control method, program, and recording medium

Similar Documents

Publication Publication Date Title
US10477093B2 (en) Method for capturing image and image capturing apparatus for capturing still images of an object at a desired time point
JP5159515B2 (en) Image processing apparatus and control method thereof
CN104159021B (en) Imaging device, imaging method and computer-readable medium
JP5834410B2 (en) Imaging apparatus and imaging method
CN101213828B (en) Method and apparatus for incorporating iris color in red-eye correction
JP5299912B2 (en) Imaging device and data structure of image file
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
US20120105590A1 (en) Electronic equipment
US9137457B2 (en) Electronic apparatus and method of controlling the same
US20130162672A1 (en) Image processing device, image processing method, and program
US20120194707A1 (en) Image pickup apparatus, image reproduction apparatus, and image processing apparatus
JP2013029656A (en) Image pickup apparatus
JP2012004716A (en) Imaging apparatus and electronic apparatus
US20120188396A1 (en) Digital photographing apparatuses, methods of controlling the same, and computer-readable storage media
CN103179345A (en) Digital photographing apparatus and method of controlling the same
JP2015040941A (en) Image-capturing device, control method therefor, and program
JP2013106284A (en) Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus
US8237802B2 (en) Method and apparatus for determining shaken image by using auto focusing
JP2012175533A (en) Electronic apparatus
KR20150114897A (en) Image pickup apparatus generating focus changeable image, control method for image pickup apparatus, and storage medium
KR20110023081A (en) Method for controlling a digital photographing apparatus having memory, medium for recording the method, and digital photographing apparatus
JP5045538B2 (en) Imaging apparatus and program
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
JP2011193066A (en) Image sensing device
JP2012050121A (en) Imaging device, imaging method and imaging program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140708