JP2011160044A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2011160044A JP2011160044A JP2010017984A JP2010017984A JP2011160044A JP 2011160044 A JP2011160044 A JP 2011160044A JP 2010017984 A JP2010017984 A JP 2010017984A JP 2010017984 A JP2010017984 A JP 2010017984A JP 2011160044 A JP2011160044 A JP 2011160044A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- target
- subject
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、デジタルカメラ等の撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital camera.
近年のデジタルカメラには、撮影モードを自動的に選択して対象画像の撮影を行う機能が備えられていることが多い(例えば特許文献1参照)。この機能では、被写体や撮影シーンをカメラ側で自動的に認識して複数の撮影モードの中から最適な撮影モードを選択し、選択撮影モードに規定された撮影条件(フォーカス、ISO感度、信号処理等の条件)にて対象画像の撮影を行う。しかしながら、最適な撮影モードとしての選択撮影モードに規定される撮影条件は、カメラメーカ側が予め設定したものである。このため、ユーザによっては、選択撮影モードによるカメラ制御が行われた後、真に希望する撮影条件が設定されるように、手動操作を成す必要があった。 In recent years, digital cameras are often provided with a function of automatically selecting a shooting mode and shooting a target image (see, for example, Patent Document 1). This function automatically recognizes the subject and shooting scene on the camera side, selects the optimum shooting mode from a plurality of shooting modes, and sets the shooting conditions (focus, ISO sensitivity, signal processing) specified in the selected shooting mode. The target image is taken under the above conditions. However, the shooting conditions defined in the selected shooting mode as the optimum shooting mode are preset by the camera manufacturer. For this reason, some users need to perform a manual operation so that a truly desired shooting condition is set after camera control in the selected shooting mode is performed.
このような問題に対応する方法として、ユーザに質問形式で最適な処理を選択させる方法が提案されている(例えば特許文献2参照)。しかしながら、この方法は、返答操作の負担をユーザに課すことになる。 As a method for dealing with such a problem, a method for allowing a user to select an optimum process in a question format has been proposed (for example, see Patent Document 2). However, this method places a burden on the response operation on the user.
また、被写体をきめ細かく分類し、分類結果に応じて撮影条件の制御を行う方法も提案されている(例えば特許文献3参照)。しかしながら、この方法では、固有の被写体に撮影モードが個別に設定されるのみであり、注目被写体がどの被写体と共に写っているのか、どういう撮影シーンの中で写っているのか等を考慮した制御ができない。即ち例えば、人物が犬と共に写っているときに適用されるべき最適な撮影条件と人物が山と共に写ってときに適用されるべき最適な撮影条件は異なる場合があり、また、最適な撮影条件の具体的内容はユーザによってまちまちであるが、上記方法では、個々のユーザの好みに対応することはできない。 There has also been proposed a method for finely classifying subjects and controlling shooting conditions according to the classification result (see, for example, Patent Document 3). However, with this method, only the shooting mode is individually set for a specific subject, and control that takes into account the subject with which the subject of interest is captured and in what kind of shooting scene cannot be performed. . That is, for example, the optimal shooting conditions to be applied when a person is photographed with a dog may differ from the optimal shooting conditions to be applied when a person is photographed with a mountain. Although the specific contents vary depending on the user, the above method cannot cope with individual user preferences.
ユーザに格別の負担を強いることなく、ユーザの好み(嗜好性)に沿った撮影制御を成すことは重要である。 It is important to perform shooting control according to the user's preference (preference) without imposing a special burden on the user.
同様に、音響信号を伴った画像を取得する際、ユーザに格別の負担を強いることなく、ユーザの好み(嗜好性)に沿った音声制御を成すことができれば有益である。 Similarly, when acquiring an image accompanied by an acoustic signal, it would be beneficial if voice control according to the user's preference (preference) could be achieved without imposing a special burden on the user.
そこで本発明は、ユーザに格別の負担を強いることなくユーザの好みに沿った撮影制御又は音声制御を成しうる撮像装置を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus that can perform imaging control or audio control in accordance with user preferences without imposing a special burden on the user.
本発明に係る撮像装置は、被写体の光学像を光電変換して得た信号を出力する撮像素子を有し、所定操作が成された際に得られる前記撮像素子の出力信号から対象画像を生成する撮像装置において、前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、当該撮像装置は、前記撮像素子の出力信号に基づく画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、前記第1対象画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせを特定組み合わせとし、前記第1対象画像の特徴又は前記第1対象画像の生成条件に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像を評価用画像とし、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像の生成を行う撮影制御部と、を備えたことを特徴とする。 An image pickup apparatus according to the present invention includes an image pickup device that outputs a signal obtained by photoelectrically converting an optical image of a subject, and generates a target image from an output signal of the image pickup device obtained when a predetermined operation is performed. In the imaging device, a plurality of target images including the first and second target images are generated by repeating the predetermined operation, the second target image is generated after the first target image, and the imaging device A subject detection unit that detects and classifies each subject present on an image based on an output signal of the image sensor into any of a plurality of categories, and detection of the subject detection unit for a plurality of subjects on the first target image A memory unit that stores a combination of categories as a specific combination and stores learning information according to the characteristics of the first target image or the generation conditions of the first target image in association with the specific combination; An image based on an output signal of the imaging element after the generation of the first target image and before the generation of the second target image is used as an evaluation image, and the detection category of the subject detection unit for a plurality of subjects on the evaluation image And a shooting control unit that generates the second target image using the learning information when the combination matches the specific combination.
これにより、ユーザの好みを反映した学習情報を用いて対象画像の生成を行うことが可能となる。つまり、ユーザに格別の負担を強いることなくユーザの好みに沿った撮影制御を学習情報から再現することが可能となる。 This makes it possible to generate a target image using learning information that reflects user preferences. That is, it is possible to reproduce shooting control according to the user's preference from the learning information without imposing a special burden on the user.
具体的には例えば、前記学習情報は、前記第1対象画像の特徴に応じた情報であって、前記第1対象画像上の複数の被写体の内、何れのカテゴリの被写体にピントがあっているかを表すフォーカス情報を含む。 Specifically, for example, the learning information is information according to the characteristics of the first target image, and which category of subjects among the plurality of subjects on the first target image is in focus. Contains focus information that represents.
これにより、フォーカスに関するユーザの好みを、学習情報から再現することが可能となる。 As a result, the user's preference regarding the focus can be reproduced from the learning information.
また例えば、前記学習情報は、更に、前記第1対象画像上のピントの合っている被写体の大きさを表すサイズ情報を含む。 For example, the learning information further includes size information indicating the size of the subject in focus on the first target image.
また例えば、前記学習情報は、更に、前記第1対象画像上のピントの合っている被写体の位置を表す位置情報を含む。 For example, the learning information further includes position information indicating the position of the focused subject on the first target image.
これらにより、被写体の大きさや構図に関するユーザの好みを、学習情報から再現することが可能となる。 Thus, the user's preference regarding the size and composition of the subject can be reproduced from the learning information.
また例えば、当該撮像装置は、前記第1対象画像の生成条件の指定を受け付ける操作部を更に備えて、前記操作部を介して指定された前記第1対象画像の生成条件に従って前記第1対象画像を生成し、前記学習情報は、前記第1対象画像の生成条件に応じた情報である。 In addition, for example, the imaging apparatus further includes an operation unit that receives specification of a generation condition for the first target image, and the first target image is set according to the generation condition for the first target image specified via the operation unit. The learning information is information according to the generation condition of the first target image.
これにより、操作部を介したユーザの指定内容を学習情報に保存することができ、以後、ユーザの好みに沿った撮影制御を学習情報から再現することが可能となる。 As a result, the user-specified content via the operation unit can be stored in the learning information, and thereafter, the shooting control according to the user's preference can be reproduced from the learning information.
具体的には例えば、前記撮影制御部は、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記第1対象画像の特徴に応じた前記学習情報に基づき、前記第2対象画像が前記第1対象画像の特徴に応じた特徴を有するように、前記第2対象画像に対するフォーカス制御及びズーム制御を行う、或いは、前記第1対象画像の生成条件に応じた前記学習情報に基づき、前記第1対象画像の生成条件に応じた生成条件にて前記第2対象画像を生成する。 Specifically, for example, when the combination of detection categories of the subject detection unit for a plurality of subjects on the evaluation image matches the specific combination, the shooting control unit responds to the characteristics of the first target image. Based on the learning information, focus control and zoom control are performed on the second target image so that the second target image has characteristics according to the characteristics of the first target image, or the first target image Based on the learning information according to the generation condition, the second target image is generated under a generation condition according to the generation condition of the first target image.
本発明に係る他の撮像装置は、被写体の光学像を光電変換して得た信号を出力する撮像素子を有し、所定操作が成された際に得られる前記撮像素子の出力信号から対象画像を生成する撮像装置において、前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、当該撮像装置は、前記撮像素子の出力信号に基づく画像上に存在する被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、前記撮像素子の出力信号に基づく画像の撮影シーンを複数の登録シーンの中から選択することで判定するシーン判定部と、前記第1対象画像上の被写体に対する前記被写体検出部の検出カテゴリと前記第1対象画像に対する前記シーン判定部の判定シーンとの組み合わせを特定組み合わせとし、前記第1対象画像の特徴又は前記第1対象画像の生成条件に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像を評価用画像とし、前記評価用画像上の被写体に対する前記被写体検出部の検出カテゴリと前記評価用画像に対する前記シーン判定部の判定シーンとの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像の生成を行う撮影制御部と、を備えたことを特徴とする。 Another imaging apparatus according to the present invention includes an imaging element that outputs a signal obtained by photoelectrically converting an optical image of a subject, and a target image is obtained from an output signal of the imaging element that is obtained when a predetermined operation is performed. The plurality of target images including the first and second target images are generated by repeating the predetermined operation, and the second target image is generated after the first target image, and the imaging device Includes a subject detection unit that detects a subject existing on an image based on an output signal of the image sensor by classifying it into any of a plurality of categories, and a plurality of registration scenes of an image based on the output signal of the image sensor A scene determination unit for determining by selecting from the scenes, a detection category of the subject detection unit for a subject on the first target image, and a determination scenario of the scene determination unit for the first target image. A memory unit that stores learning information according to characteristics of the first target image or generation conditions of the first target image in association with the specific combination, and generation of the first target image An image based on the output signal of the image sensor after and before the generation of the second target image is used as an evaluation image, and the detection category of the subject detection unit for the subject on the evaluation image and the scene determination for the evaluation image And a shooting control unit that generates the second target image using the learning information when the combination with the determination scene matches the specific combination.
これにより、ユーザの好みを反映した学習情報を用いて対象画像の生成を行うことが可能となる。つまり、ユーザに格別の負担を強いることなくユーザの好みに沿った撮影制御を学習情報から再現することが可能となる。 This makes it possible to generate a target image using learning information that reflects user preferences. That is, it is possible to reproduce shooting control according to the user's preference from the learning information without imposing a special burden on the user.
本発明に係る更に他の撮像装置は、被写体の光学像を光電変換して得た信号を出力する撮像素子及び複数のマイクロホンから成るマイク部を有し、所定操作が成された際、前記撮像素子の出力信号から対象画像を生成する一方で前記複数のマイクロホンの出力音響信号に基づき対象音響信号を生成して該対象音響信号を前記対象画像に対応付ける撮像装置において、前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、当該撮像装置は、前記撮像素子の出力信号に基づく画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、前記第1対象画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせを特定組み合わせとし、前記第1対象画像に対応付けられた対象音響信号の特徴に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像又は前記第2対象画像を評価用画像とし、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像に対応付けられるべき対象音響信号の生成を行う対象音響信号生成部と、を備えたことを特徴とする。 Still another imaging device according to the present invention includes an imaging device that outputs a signal obtained by photoelectrically converting an optical image of a subject and a microphone unit including a plurality of microphones. When a predetermined operation is performed, the imaging device In the imaging device that generates a target image from the output signals of the plurality of microphones and generates a target sound signal based on the output sound signals of the plurality of microphones and associates the target sound signal with the target image, the first operation is repeated. A plurality of target images including a first target image and a second target image are generated, the second target image is generated after the first target image, and the imaging device is present on an image based on an output signal of the imaging element A combination of a subject detection unit that detects each subject to be classified into any of a plurality of categories and a detection category of the subject detection unit for a plurality of subjects on the first target image A memory unit that stores learning information corresponding to the characteristics of the target acoustic signal associated with the first target image in association with the specific combination, and after the generation of the first target image and the first The image based on the output signal of the image sensor before the generation of the two target images or the second target image is used as the evaluation image, and the combination of detection categories of the subject detection unit for the plurality of subjects on the evaluation image is the specified And a target acoustic signal generation unit configured to generate a target acoustic signal to be associated with the second target image using the learning information when matching the combination.
これにより、ユーザの好みを反映した学習情報を用いて対象音響信号の生成を行うことが可能となる。つまり、ユーザに格別の負担を強いることなくユーザの好みに沿った音声制御を学習情報から再現することが可能となる。 Thereby, it becomes possible to generate the target acoustic signal using the learning information reflecting the user's preference. That is, it is possible to reproduce the voice control according to the user's preference from the learning information without imposing a special burden on the user.
本発明によれば、ユーザに格別の負担を強いることなくユーザの好みに沿った撮影制御又は音声制御を成しうる撮像装置を提供することが可能である。 ADVANTAGE OF THE INVENTION According to this invention, it is possible to provide the imaging device which can perform imaging | photography control or audio | voice control according to a user's liking without imposing a special burden on a user.
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。 The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .
以下、本発明の一実施形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.
図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、符号11〜28によって参照される各部位を有する。撮像装置1は、デジタルビデオカメラであり、動画像及び静止画像を撮影可能となっていると共に動画像撮影中に静止画像を同時に撮影することも可能となっている。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。尚、表示部27及び/又はスピーカ28は撮像装置1の外部装置(不図示)に設けられたものである、と解釈することも可能である。
FIG. 1 is an overall block diagram of an
撮像部11は、撮像素子を用いて被写体の撮影を行う。図2は、撮像部11の内部構成図である。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子(固体撮像素子)33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、撮像部11の画角を調節するためのズームレンズ30及び焦点を合わせるためのフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。CPU23からの撮影制御信号に基づき、光学系35内におけるズームレンズ30及びフォーカスレンズ31の位置並びに絞り32の開度が制御される。
The imaging unit 11 captures a subject using an imaging element. FIG. 2 is an internal configuration diagram of the imaging unit 11. The imaging unit 11 includes an
撮像素子33は、水平及び垂直方向に複数の受光画素が配列されることによって形成される。撮像素子33の各受光画素は、光学系35及び絞り32を介して入射した被写体の光学像を光電変換し、該光電変換によって得られた電気信号をAFE12(Analog Front End)に出力する。
The
AFE12は、撮像素子33(各受光画素)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから画像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU(Central Processing Unit)23によって制御される。画像信号処理部13は、AFE12の出力信号によって表される画像に対して必要な画像処理を施し、画像処理後の画像を表す画像信号を生成する。画像信号は、例えば、輝度信号及び色差信号を含む。マイク部14は、撮像装置1の周辺音をアナログの音響信号に変換し、音響信号処理部15は、このアナログの音響信号をデジタルの音響信号に変換する。
The
圧縮処理部16は、画像信号処理部13からの画像信号及び音響信号処理部15からの音響信号を、所定の圧縮方式を用いて圧縮する。内部メモリ17は、DRAM(Dynamic Random Access Memory)などから成り、各種のデータを一時的に保存する。記録媒体としての外部メモリ18は、半導体メモリや磁気ディスクなどの不揮発性メモリであり、圧縮処理部16による圧縮後の画像信号及び音響信号などの各種信号を記録することができる。
The
伸張処理部19は、外部メモリ18から読み出された圧縮された画像信号及び音響信号を伸張する。伸張処理部19による伸張後の画像信号又は画像信号処理部13からの画像信号は、表示処理部20を介して、液晶ディスプレイ等から成る表示部27に送られて画像として表示される。また、伸張処理部19による伸張後の音響信号は、音響信号出力回路21を介してスピーカ28に送られて音として出力される。
The
TG(タイミングジェネレータ)22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。CPU23は、撮像装置1内の各部位の動作を統括的に制御する。操作部26は、動画像の撮影及び記録の開始/終了を指示するための録画ボタン26a、静止画像の撮影及び記録を指示するためのシャッタボタン26b、並びに、ズーム倍率を指定するためのズームボタン26c等を有し、ユーザによる各種操作を受け付ける。操作部26に対する操作内容はCPU23に伝達される。
The TG (timing generator) 22 generates a timing control signal for controlling the timing of each operation in the
撮像装置1の動作モードには、画像(静止画像又は動画像)の撮影及び記録が可能な撮影モードと、外部メモリ18に記録された画像(静止画像又は動画像)を表示部27に再生表示する再生モードと、が含まれる。操作部26に対する操作に応じて、各モード間の遷移は実施される。撮影モードにおいて、撮像装置1は、所定のフレーム周期にて周期的に被写体の撮影を行って被写体の撮影画像を順次取得することができる。
The operation mode of the
尚、本明細書では、或る画像の画像信号のことを単に画像と言うこともある。また、画像信号及び音響信号の圧縮及び伸張は、本発明の本質とは関係ないため、以下の説明では、特に必要のない限り、画像信号及び音響信号の圧縮及び伸張の存在を無視する。従って例えば、或る画像についての圧縮された画像信号を記録することを、単に、画像信号を記録する又は画像を記録すると表現することがある(音響信号についても同様)。また、或る画像の大きさ又は画像領域の大きさを、画像サイズとも呼ぶ。注目画像又は注目画像領域の画像サイズを、注目画像を形成する画素の数又は注目画像領域に属する画素の数にて表現することができる。また、本明細書において、信号又は情報のメモリへの記録を保存と表現することもある。また、本明細書では、記号又は符号を示すことによって、その記号又は符号に対応する用語の名称を略記することがある。従って例えば、外部メモリ18とメモリ18は同じものを指す。
In the present specification, an image signal of a certain image may be simply referred to as an image. In addition, since the compression and expansion of the image signal and the sound signal are not related to the essence of the present invention, the presence of the compression and expansion of the image signal and the sound signal is ignored in the following description unless otherwise required. Thus, for example, recording a compressed image signal for an image may be simply expressed as recording an image signal or recording an image (the same applies to an acoustic signal). Further, the size of a certain image or the size of an image area is also referred to as an image size. The image size of the target image or target image area can be expressed by the number of pixels forming the target image or the number of pixels belonging to the target image area. In this specification, recording of a signal or information in a memory may be expressed as storage. Moreover, in this specification, the name of the term corresponding to the symbol or code | symbol may be abbreviated by showing a symbol or code | symbol. Therefore, for example, the
撮像装置1には、過去の撮影結果及びマニュアル操作等から撮影者としてのユーザの嗜好性に関する情報を抽出し、その情報に基づき、現時点において該嗜好性に合致した撮影結果が再現されるように撮影制御を行う特殊機能が備えられている。撮影モードの一種である、上記特殊機能が働く撮像装置1の動作モードを特殊撮影モードと呼ぶ。
The
図3に示す如く、特殊撮影モードにおける動作は、ユーザの嗜好性を学習する学習段階動作と、その学習結果を用いて撮影制御を行う制御段階動作とに大別される。制御段階動作は、学習段階動作を経て実行される。学習段階動作が一旦完了して制御段階動作の実行が可能になってからも、ユーザの嗜好性の学習を継続し、学習結果を更新していくことができる。 As shown in FIG. 3, the operation in the special shooting mode is roughly divided into a learning stage operation for learning the user's preference and a control stage operation for performing shooting control using the learning result. The control phase operation is executed through a learning phase operation. Even after the learning stage operation is once completed and the control stage operation can be executed, the user's preference learning can be continued and the learning result can be updated.
以下、特殊撮影モードに関連する、撮像装置1の動作及び構成例を第1〜第13実施例として説明する。矛盾なき限り、或る実施例について記載した事項を他の実施例に適用することが可能であると共に、第1〜第13実施例の内の複数の実施例を組み合わせて実施することも可能である。以下の説明は、特に記述なき限り、特殊撮影モードにおける撮像装置1の動作の説明である。
Hereinafter, operations and configuration examples of the
<<第1実施例>>
第1実施例を説明する。図4は、特殊撮影モードの動作に特に関与する部位のブロック図である。被写体検出部51、特徴情報生成部52、メモリ制御部53及び撮影制御部55を、画像信号処理部13によって、或いは、画像信号処理部13とCPU23の組み合わせによって実現することができる。学習メモリ54は、内部メモリ17に設けられたフラッシュメモリ等の不揮発性メモリから形成される。
<< First Example >>
A first embodiment will be described. FIG. 4 is a block diagram of a part particularly related to the operation in the special imaging mode. The
1フレーム分のAFE12の出力信号によって表される画像そのもの、或いは、その画像に対して所定の画像処理(デモザイキング処理やノイズ低減処理など)を施して得られる静止画像を入力画像と呼ぶ。更に、所定のシャッタ操作に従って得られた入力画像を特に対象入力画像と呼ぶ。シャッタ操作とは、シャッタボタン26bを押下する操作である。但し、シャッタ操作は、シャッタボタン26bを押下する操作以外の操作(例えば所定のタッチパネル操作)であっても良い。
An image itself represented by the output signal of the
[学習段階動作]
図5は、第1実施例に係る学習段階動作の手順を表すフローチャートであり、学習段階動作ではステップS11〜S14の各処理が実行される。ステップS11では、ユーザがシャッタ操作を成すことにより対象入力画像が取得される。ステップS12では、被写体検出部51により、対象入力画像の被写体検出及び被写体のカテゴリ分類が行われる。ステップS13では、特徴情報生成部52により対象入力画像からユーザの嗜好性に関する情報とも言える特徴情報が抽出及び生成される。ステップS14では、ステップS12及びS13の処理結果が学習メモリ54の記録内容に反映される(単純には例えば、ステップS13にて生成された特徴情報が学習メモリ54にそのまま保存される)。学習メモリ54に対する情報の記録制御はメモリ制御部53によって行われる。図4に示される各部位の内、撮影制御部55のみに関しては、制御段階動作に有益に機能する。以下、対象入力画像の具体例を挙げつつ、図4の各部位の動作を詳細に説明する。
[Learning stage operation]
FIG. 5 is a flowchart showing the procedure of the learning stage operation according to the first embodiment. In the learning stage operation, each process of steps S11 to S14 is executed. In step S11, the target input image is acquired by the user performing a shutter operation. In step S12, the
図6(a)において、符号300は、ステップS11にて取得された対象入力画像の例を表している。人物及び山を被写体として撮影範囲内に含めた状態でシャッタ操作を成すことにより、対象入力画像300が得られたものとする。図6(a)において、符号301及び302は対象入力画像300の被写体を表している。被写体301及び302は、夫々、人物及び山である。
In FIG. 6A,
被写体検出部51及び特徴情報生成部52には、対象入力画像を含む各入力画像の画像信号が入力される。被写体検出部51は、入力画像の画像信号に基づき、入力画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する。即ち、入力画像上に存在する被写体ごとに、被写体が何れのカテゴリに属する被写体であるのかを検出する。カテゴリを種類とも読み替えることができる。上記複数のカテゴリは、被写体検出部51に予め登録されたカテゴリであり、人物、犬、猫、鳥、自動車、山、海、空、花などを含む。入力画像の画像信号に基づいて入力画像上の各被写体のカテゴリを検出する処理(顔検出処理等)は公知であるため、ここでは詳細な説明を割愛する。
An image signal of each input image including the target input image is input to the
対象入力画像300の画像信号が被写体検出部51に入力されると、被写体検出部51は、対象入力画像300の画像信号に基づき、対象入力画像300から被写体301及び302を検出して被写体301及び302が存在する画像領域を夫々被写体領域311及び312として抽出すると共に、被写体301及び302が何れのカテゴリに分類される被写体であるのかを検出する(図6(b)参照)。上述したように、被写体301及び302は夫々人物及び山であるため、被写体検出部51は、被写体301及び302のカテゴリが夫々人物及び山であると検出する。
When the image signal of the
尚、被写体領域311は、被写体301としての人物の全体像が表れている画像領域であっても良いが、本例では、人物の顔の部分だけを含む画像領域が被写体領域311として抽出されるものとする(後述の他の実施例においても同様)。また、図6(b)では、抽出される各被写体領域が矩形領域となっているが、各被写体領域は矩形領域以外であっても構わない(後述の他の実施例においても同様)。
Note that the
特徴情報生成部52は、1枚の入力画像に対して、フォーカス情報、合焦被写体サイズ情報、合焦被写体位置情報を生成することができる。フォーカス情報は、入力画像上における合焦被写体のカテゴリを表す。合焦被写体とは、ピントが合っている被写体を指す。或る入力画像に関し、その入力画像の撮影時に撮像装置1の被写界深度内に位置している被写体は、ピントが合っている被写体に含まれる。合焦被写体サイズ情報(以下、サイズ情報と略記することがある)は、入力画像上における合焦被写体の大きさを表す。或る被写体の大きさとは、例えば、その被写体の被写体領域の画像サイズを指す。合焦被写体位置情報(以下、位置情報と略記することがある)は、入力画像上における合焦被写体の位置を表す。或る被写体の位置とは、厳密には例えば、その被写体の被写体領域の中心位置を指す。
The feature
或る入力画像に対する特徴情報は、その入力画像に対するフォーカス情報、合焦被写体サイズ情報及び合焦被写体位置情報から成り、該特徴情報に必要に応じて付加情報が付加される(図7参照)。付加情報も特徴情報の一部であると考えることも可能であるが、本例においては、付加情報は特徴情報の構成要素ではないと考える。付加情報に、入力画像の撮影時における時刻、天候の情報など、任意の情報を内包させることができる。メモリ制御部53は、対象入力画像に対して被写体検出部51により検出された複数の被写体のカテゴリの組み合わせに注目し、注目した組み合わせに対して対象入力画像に対する特徴情報を関連付けた上でそれらを学習メモリ54に保存する。
The feature information for an input image includes focus information, focused subject size information, and focused subject position information for the input image, and additional information is added to the feature information as necessary (see FIG. 7). Although it is possible to consider that the additional information is also a part of the feature information, in this example, it is considered that the additional information is not a component of the feature information. Arbitrary information can be included in the additional information, such as the time at the time of shooting the input image and weather information. The
図7に、対象入力画像300に対する、学習メモリ54の保存内容を示す。今、対象入力画像300上においてピントの合っている被写体が被写体301であって(被写体302にはピントが合っていない)、且つ、対象入力画像300上における被写体領域311の画像サイズがSIZEA1であって、且つ、対象入力画像300上における被写体領域311の中心位置がブロックBL5に属しているものとする。そうすると、対象入力画像300に対するフォーカス情報は被写体301のカテゴリである人物であり、且つ、対象入力画像300に対するサイズ情報及び位置情報は夫々SIZEA1及びBL5とされる。フォーカス情報が人物であるとは、フォーカス情報によって指し示される、ピントの合っている被写体のカテゴリが人物である、ことを意味する。
FIG. 7 shows the contents stored in the
ブロックBL5の意義について説明する。図8に、注目した1枚の入力画像を示す。注目した入力画像を水平及び垂直方向の夫々に沿って3等分することにより注目した入力画像の全体画像領域を9等分し、得られた9つの画像領域をブロックBL1〜BL9と定義する。上述のブロックBL5は、ブロックBL1〜BL9の1つである。尚、入力画像の分割数(即ち、上記ブロックの個数)としての9は勿論例示であり、それを9以外とすることもできるが、以下の説明では、それが9であるものとする。 The significance of the block BL 5 will be described. FIG. 8 shows a focused input image. By dividing the noted input image into three equal parts along the horizontal and vertical directions, the entire image area of the noted input image is divided into nine equal parts, and the nine obtained image areas are defined as blocks BL 1 to BL 9. To do. The block BL 5 described above is one of the blocks BL 1 to BL 9 . It should be noted that 9 as the number of divisions of the input image (that is, the number of the blocks) is, of course, an example, and can be other than 9. However, in the following description, it is assumed to be 9.
特徴情報生成部52は、対象入力画像300のフォーカス情報、サイズ情報及び位置情報を含む特徴情報305を生成し、メモリ制御部53は、この特徴情報305を、対象入力画像300上の被写体のカテゴリの組み合わせに関連付けて学習メモリ54に保存する。対象入力画像300上の被写体のカテゴリの組み合わせとは、被写体301及び302のカテゴリの組み合わせ、即ち、「人物」と「山」の組み合わせである。以下、被写体のカテゴリの組み合わせを、カテゴリ組み合わせとも表記する。従って、「人物」と「山」の組み合わせは、カテゴリ組み合わせ「人物及び山」と表記される。
The feature
特徴情報生成部52は、被写体領域311に対するAF評価値と被写体領域312に対するAF評価値とを比較し、前者が後者よりも大きければ被写体301を合焦被写体と判断する一方、後者が前者よりも大きければ被写体302を合焦被写体と判断して、その判断結果から対象入力画像300のフォーカス情報を生成する。本例では、前者が後者よりも大きいために、被写体301が合焦被写体であると判断される。尚、被写体検出部51により検出される、対象入力画像300上の複数の被写体の中に、ピントが合っている被写体が必ず含まれているものとする(他の対象入力画像及び合焦被写体が議論される任意の入力画像についても同様)。
The feature
AF評価値は、画像信号処理部13内のAF評価部(不図示)によって算出される。該AF評価部が特徴情報生成部52に内在していると考えても構わない。AF評価部は、AF評価値算出の対象となる入力画像の全体画像領域を複数のAF評価ブロックに分割し、AF評価ブロックごとに、AF評価ブロック内の画像のコントラスト量に応じたAF評価値を算出する。撮像装置1は、このAF評価値に基づき、コントラスト検出法によるオートフォーカス制御を実施することができる。或るAF評価ブロックのAF評価値は、そのAF評価ブロック内の画像のコントラスト(換言すれば、エッジの強度)が大きいほど大きくなる。
The AF evaluation value is calculated by an AF evaluation unit (not shown) in the image
対象入力画像300に関しては、被写体領域311に属するAF評価ブロックのAF評価値の平均値を被写体領域311のAF評価値として取り扱い、且つ、被写体領域312に属するAF評価ブロックのAF評価値の平均値を被写体領域312のAF評価値として取り扱えば良い(各被写体領域に複数のAF評価ブロックが属していると仮定)。或いは、被写体領域311及び312を第1及び第2のAF評価ブロックとして取り扱って、夫々のAF評価値を算出するようにしても良い。尚、或る入力画像に対して算出された複数のAF評価値の内、最大のAF評価値に対応するAF評価ブロック、又は、所定の閾値以上のAF評価値に対応するAF評価ブロックが、合焦被写体の存在する画像領域であると判断することもできる。
Regarding the
上述のようにして対象入力画像300の合焦被写体が被写体301であると検出した後、特徴情報生成部52は、被写体301の画像信号が存在する画像領域である被写体領域311の大きさ及び中心位置を検出することで、対象入力画像300に対するサイズ情報(SIZEA1)及び位置情報(BL5)を生成する。尚、被写体領域311の大きさ及び中心位置の検出自体は被写体検出部51にて行われる、と考えても良い。
After detecting that the focused subject of the
学習段階動作では、ステップS11〜S14から成る一連の処理を繰り返し実行することで、ユーザの嗜好性を繰り返し学習する。1つのカテゴリ組み合わせについて、学習段階動作から制御段階動作へ移行するために必要な学習回数をLNUMにて表す。LNUMは1以上の整数に設定されるが、説明の具体化のため、LNUM=3である場合を考える。図9は、対象入力画像300の取得後、対象入力画像300a、300b、330、330a、330b、331及び331a(全て不図示)が更に取得された後の、学習メモリ54の記録内容を示している。対象入力画像300a及び300bの夫々のカテゴリ組み合わせは「人物及び山」であり、且つ、対象入力画像330、330a、330bの夫々のカテゴリ組み合わせは「犬及び海」であり、且つ、対象入力画像331及び331aの夫々のカテゴリ組み合わせは「人及び海」であるとする。
In the learning stage operation, the user's preference is repeatedly learned by repeatedly executing a series of processes consisting of steps S11 to S14. For one category combination, the number of learnings required to shift from the learning stage operation to the control stage operation is represented by LNUM . L NUM is set to an integer equal to or greater than 1. For the sake of concrete explanation, consider the case where L NUM = 3. FIG. 9 shows the recorded contents of the learning
特徴情報生成部52は、対象入力画像300の特徴情報305を生成する方法と同様の方法にて、対象入力画像300aの特徴情報305a及び対象入力画像300bの特徴情報305bを生成する。メモリ制御部53は、特徴情報305、305a及び305bが生成されると、それらをカテゴリ組み合わせ「人物及び山」に関連付けつつ学習メモリ54に保存する。一方で、特徴情報生成部52又はメモリ制御部53は、特徴情報305、305a及び305bに一致又は類似する特徴情報W1Aを統計学に基づいて作成し、特徴情報W1Aもカテゴリ組み合わせ「人物及び山」に関連付けて学習メモリ54に保存する。1枚1枚の対象入力画像の特徴情報を特に要素特徴情報とも呼び、複数枚の対象入力画像の特徴情報から統計学に基づき生成された特徴情報を特に総合特徴情報とも呼ぶ。本例において、特徴情報305、305a及び305bの夫々は要素特徴情報であり、特徴情報W1Aは総合特徴情報である。
The feature
図9の要素特徴情報305は、図7に示すそれと同じである。更に、図9に示す如く、要素特徴情報305aにおけるフォーカス情報、サイズ情報及び位置情報が、夫々、人物、SIZEA2及びBL5であって、要素特徴情報305bにおけるフォーカス情報、サイズ情報及び位置情報が、夫々、人物、SIZEA3及びBL4である場合を考える。この場合、総合特徴情報W1Aにおけるフォーカス情報、サイズ情報及び位置情報は、夫々、人物、SIZEA及びBL5とされる。情報W1Aに付随する付加情報には、カテゴリ組み合わせ「人物及び山」に対する学習回数が記録される。情報W1Aは、3回分の学習結果に基づき、即ち特徴情報305、305a及び305bを元に生成される。従って、情報W1Aの付加情報には、学習回数を表す数値として3が記録される。
The
総合特徴情報W1Aの元となる要素特徴情報のフォーカス情報の内、最も頻度の多いフォーカス情報を、総合特徴情報W1Aのフォーカス情報とすることができる。図9の例では、要素特徴情報305、305a及び305bのフォーカス情報が全て「人物」であるため、総合特徴情報W1Aのフォーカス情報も「人物」とされる。仮に、要素特徴情報305、305a及び305bのフォーカス情報の内、2つのみが「人物」であっても、総合特徴情報W1Aのフォーカス情報は「人物」とされる。
総合特徴情報W1Aにおけるサイズ情報SIZEAは、例えば、総合特徴情報W1Aの元となる要素特徴情報のサイズ情報の平均(即ち、SIZEA1〜SIZEA3の平均)とされる。但し、フォーカス情報において総合特徴情報W1Aと一致しない要素特徴情報のサイズ情報は、サイズ情報SIZEAに反映されないものとする。従って仮に、要素特徴情報305、305a及び305bのフォーカス情報が夫々「人物」、「人物」及び「山」であるならば、要素特徴情報305、305aのサイズ情報の平均(即ち、SIZEA1及びSIZEA2の平均)がサイズ情報SIZEAとなる。
総合特徴情報W1Aの元となる要素特徴情報の位置情報の内、最も頻度の多い位置情報を、総合特徴情報W1Aの位置情報とすることができる。但し、フォーカス情報において総合特徴情報W1Aと一致しない要素特徴情報の位置情報は、総合特徴情報W1Aの位置情報に反映されないものとする。図9の例では、要素特徴情報305、305a及び305bのフォーカス情報が全て「人物」であるため、要素特徴情報305、305a及び305bの位置情報の内、最も頻度が多い位置情報BL5が総合特徴情報W1Aの位置情報とされる。仮に、要素特徴情報305、305a及び305bのフォーカス情報が夫々「人物」、「山」及び「人物」であるならば、要素特徴情報305の位置情報BL5又は要素特徴情報305bの位置情報BL4が総合特徴情報W1Aの位置情報とされる。この場合において、対象入力画像300の撮影後に対象入力画像300bが撮影されていたのならば、新しく撮影された方の対象入力画像300bを優先し、要素特徴情報305bの位置情報BL4を総合特徴情報W1Aの位置情報にするようにしてもよい。
Of focus information elements characteristic information as the original overall characteristic information W1 A, the most frequent more focus information may be the focus information comprehensive feature information W1 A. In the example of FIG. 9, since the focus information of the
Size information SIZE A in General characteristic information W1 A is, for example, a mean size information elements characteristic information as the original overall characteristic information W1 A (i.e., the average of the SIZE A1 ~SIZE A3). However, the size information of the element feature information that does not match the general feature information W1 A in the focus information is not reflected in the size information SIZE A. Therefore, if the focus information of the
Of the positional information of the element characteristic information as the original overall characteristic information W1 A, the most frequent more location information may be a position information of the overall characteristic information W1 A. However, the position information of the element characteristic information that does not match the overall characteristic information W1 A in the focus information shall not reflected in the position information of the overall characteristic information W1 A. In the example of FIG. 9, since the focus information of the
図9において、中央部分に示された特徴情報群は、上記の対象入力画像330、330a及び330b(不図示)に基づく、カテゴリ組み合わせ「犬及び海」についての特徴情報群である。W1Bは、上記の対象入力画像330、330a及び330bの要素特徴情報に基づく、カテゴリ組み合わせ「犬及び海」についての総合特徴情報である。総合特徴情報W1Bも、総合特徴情報W1Aと同様にして作成される。図9において、下方部分に示された特徴情報群は、上記の対象入力画像331及び331a(不図示)に基づく、カテゴリ組み合わせ「人及び海」についての特徴情報群である。図9に示す状態において、カテゴリ組み合わせ「人及び海」についての要素特徴情報は2つしかないため、カテゴリ組み合わせ「人及び海」については学習段階動作から制御段階動作へ移行することができないが、カテゴリ組み合わせ「人及び山」と「犬及び海」については学習回数が必要学習回数LNUM(=3)に達しているため制御段階動作を実行することができる。 In FIG. 9, the feature information group shown in the central portion is a feature information group for the category combination “dog and sea” based on the target input images 330, 330 a, and 330 b (not shown). W1 B is comprehensive feature information for the category combination “dog and sea” based on the element feature information of the target input images 330, 330a, and 330b. The comprehensive feature information W1 B is also created in the same manner as the comprehensive feature information W1 A. In FIG. 9, the feature information group shown in the lower part is a feature information group for the category combination “person and sea” based on the target input images 331 and 331 a (not shown). In the state shown in FIG. 9, since there is only two element feature information for the category combination “person and sea”, the category combination “person and sea” cannot shift from the learning stage operation to the control stage operation. For the category combination “people and mountains” and “dogs and the sea”, the number of learning times has reached the required number of learning times L NUM (= 3), so that the control stage operation can be executed.
対象入力画像300、300a及び300bの撮影後、更に、カテゴリ組み合わせが「人及び山」となる対象入力画像300c(不図示)が撮影された場合には、その最新の対象入力画像300cの特徴情報を用いて総合特徴情報W1Aを更新すると良い。例えば、画像300、300a、300b及び300cの要素特徴情報を元にして、或いは、画像300a、300b及び300cの要素特徴情報を元にして、総合特徴情報W1Aを再作成することができる。更に或いは、対象入力画像300cが撮影された時点では総合特徴情報W1Aを更新せず、カテゴリ組み合わせが「人及び山」となる対象入力画像300d及び300eが更に撮影された時点で、対象入力画像300c、300d及び300eの要素特徴情報を元に総合特徴情報W1Aを再作成するようにしてもよい。
After the
[制御段階動作]
カテゴリ組み合わせ「人及び山」について、要素特徴情報305、305a及び305bに基づく図9の総合特徴情報W1Aが学習メモリ54に保存され、且つ、総合特徴情報W1A以外の幾つかの総合特徴情報(情報W1Bを含む)が学習メモリ54に保存されている状態を、便宜上、図9の学習状態と呼ぶ。第1実施例では、以下、図9の学習状態の下における制御段階動作の説明を行う。図10は、第1実施例に係る制御段階動作の手順を表すフローチャートであり、制御段階動作ではステップS21〜S28の各処理が実行される。
[Control stage operation]
For the category combination “people and mountains”, the comprehensive feature information W1 A of FIG. 9 based on the
まず、ステップS21において、図1のCPU23又は図4の撮影制御部55によりシャッタボタン26bが半押し状態となっているかが確認され、それが半押し状態になっている場合には、ステップS21からステップS22へ移行してステップS22〜S27の処理が順次実行される一方、それが半押し状態となっていない場合には、ステップS21の確認動作が繰り返し実行される。シャッタボタン26bは2段階の押下操作が可能となっており、ユーザがシャッタボタン26bを軽く押すとシャッタボタン26bの状態は半押し状態となり、その状態から更にシャッタボタン26bを押し込むとシャッタボタン26bの状態は全押し状態となる。シャッタボタン26bの状態を全押し状態にする操作がシャッタ操作である。シャッタボタン26bの状態を半押し状態にする操作を半押し操作と呼ぶ。
First, in step S21, it is confirmed by the
尚、半押し操作が成されたか否かではなく、撮像装置1の筐体の静止状態(換言すれば動き状態)に基づいて、ステップS21からステップS22への移行可否を決定しても良い。即ち例えば、ステップS21において、撮像装置1の筐体が一定時間継続して静止していると判断される場合に、ステップS21からステップS22への移行を実行するようにしても良い。撮像装置1の筐体の動きの大きさを表す動き量が一定時間継続して所定値以下であるとき、撮像装置1の筐体が一定時間継続して静止していると判断することができる。撮像装置1の筐体の動きを検出する動きセンサ(不図示)を撮像装置1に設けておけば、動きセンサの検出結果を用いて上記動き量を検出することができる。或いは、時間的に隣接して取得された入力画像間のオプティカルフローに基づいて上記動き量を検出することもできる。動きセンサは、例えば、撮像装置1の筐体の角速度を検出する角速度センサ、又は、撮像装置1の筐体の加速度を検出する加速度センサである。
Whether or not to move from step S21 to step S22 may be determined on the basis of the stationary state (in other words, the moving state) of the housing of the
特殊撮影モードを含む撮影モードでは、所定のフレーム周期(例えば、1/60秒)にて周期的に被写体の撮影が行われて入力画像を順次取得され、順次取得された入力画像は次々と表示部27上に更新表示される(学習段階動作においても同様、且つ、後述の他の実施例においても同様)。ステップS22において、図4の被写体検出部51は、最新の入力画像を評価用画像として取り扱い、その評価用画像に対して、上述の被写体検出及び被写体のカテゴリ分類を行う。即ち、評価用画像の画像信号に基づき、評価用画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する。これにより、上述と同様の方法にて、評価用画像についてのカテゴリ組み合わせが決定する。
In the shooting modes including the special shooting mode, the subject is periodically shot at a predetermined frame period (for example, 1/60 seconds) to sequentially acquire the input images, and the sequentially acquired input images are displayed one after another. It is updated and displayed on the section 27 (the same is true in the learning stage operation, and the same is true in other embodiments described later). In step S22, the
ステップS22に続くステップS23において、図4の撮影制御部55は、評価用画像のカテゴリ組み合わせに一致するカテゴリ組み合わせの総合特徴情報を、学習メモリ54から読み出す。例えば、評価用画像の組み合わせカテゴリが「人物及び山」であったならば総合特徴情報W1Aが読み出され、評価用画像の組み合わせカテゴリが「犬及び海」であったならば総合特徴情報W1Bが読み出される(図9参照)。以下では、評価用画像が図11の画像350である場合を考える。画像上350には人物である被写体351及び山である被写体352の画像信号が存在している。その結果、評価用画像350の組み合わせカテゴリは「人物及び山」であると判断されたものとする。そうすると、ステップS23において総合特徴情報W1Aが読み出される。以下、ステップS23にて読み出される総合特徴情報を、読み出し特徴情報とも呼ぶ。
In step S23 subsequent to step S22, the
ステップS23に続くステップS24において、撮影制御部55は、読み出し特徴情報のフォーカス情報に示された被写体(読み出し特徴情報のフォーカス情報に示されたカテゴリの被写体)を主要被写体として設定する。読み出し特徴情報である総合特徴情報W1Aのフォーカス情報に示された被写体のカテゴリは「人物」であるため、人物が主要被写体として設定される。
In step S24 subsequent to step S23, the
図11の画像領域361は、被写体351の画像信号が存在する被写体領域である。図6(b)の被写体領域311の検出方法と同様の方法にて、評価用画像350の画像信号に基づき被写体領域361が検出される。評価用画像350上における被写体領域361の画像サイズがSIZEA’であるものとする。ステップS24に続くステップS25において、撮影制御部55は、読み出し特徴情報のサイズ情報であるSIZEAと、上記のSIZEA’とに基づき、ズーム自動制御とも言うべき画角自動調整を実行する。
An
画角自動調整では、主要被写体の大きさを示す画像サイズをSIZEA’からSIZEAへと変更するために必要な光学ズーム倍率を目標ズーム倍率として算出し、実際の光学ズーム倍率を目標ズーム倍率に向かって変更する。実際の光学ズーム倍率が目標ズーム倍率と一致するように光学ズーム倍率が変更されたならば、その変更後に得られる入力画像上の主要被写体の大きさ(主要被写体の被写体領域の画像サイズ)は、理想的にはSIZEAとなる。光学ズーム倍率の変更は図2のズームレンズ30の位置変更によって実現され、光学ズーム倍率の変更によって、入力画像の画角とも言うべき撮像部11の撮影画角が変更される。具体的には例えば、主要被写体の被写体領域の面積として表されるSIZEA’がSIZEAの1/4であるなら、画角自動調整によって光学ズーム倍率を2倍にする(光学ズーム倍率が2倍になれば、主要被写体の被写体領域の面積は4倍になるからである)。図12の画像370は、画角自動調整前のそれとの対比において、光学ズーム倍率を1.5倍にする画角自動調整を経て得られる入力画像を表している。
The angle automatic adjustment, the optical zoom magnification required to change the image size indicating the size of the main object SIZE A 'to SIZE A was calculated as the target zoom magnification, the target zoom magnification of the actual optical zoom magnification Change towards If the optical zoom magnification is changed so that the actual optical zoom magnification matches the target zoom magnification, the size of the main subject (image size of the subject area of the main subject) on the input image obtained after the change is Ideally SIZE A. The change of the optical zoom magnification is realized by changing the position of the
但し、画角自動調整は、主要被写体の位置が、読み出し特徴情報の位置情報に示されたブロックからはみ出さないという前提の下で行われ、そのようなはみ出しが生じる場合には、そのようなはみ出しが生じる直前にて画角自動調整は強制的に終了される。主要被写体の位置とは、厳密には例えば、主要被写体の被写体領域の中心位置である。例えば、評価用画像350上における主要被写体の位置(被写体領域361の中心位置)がブロックBL5に属しており、且つ、評価用画像350の撮影時における光学ズーム倍率がZF1であって、且つ、SIZEA>SIZEA’であるとき、ZF1よりも大きな目標ズーム倍率ZF2が設定され、目標ズーム倍率ZF2に向かって光学ズーム倍率の増大が成されるが、その増大の過程において、最新の入力画像上における主要被写体の位置がブロックBL5からはみ出しそうになったとき、そのはみ出しが生じる直前において光学ズーム倍率の増大を中止して光学ズーム倍率を固定する。この場合、ステップS25の画角自動調整後の光学ズーム倍率は、ZF1よりも大きいがZF2よりも小さくなる。
However, the automatic adjustment of the angle of view is performed on the assumption that the position of the main subject does not protrude from the block indicated in the position information of the readout feature information. The automatic adjustment of the angle of view is forcibly terminated immediately before the protrusion occurs. Strictly speaking, the position of the main subject is, for example, the center position of the subject area of the main subject. For example, the position of the main subject (the center position of the subject area 361) on the
ステップS25の画角自動調整の終了後、ステップS26において、撮影制御部55は、主要被写体にピントが合うようにフォーカス自動調整を実行する。フォーカス自動調整を、上述のAF評価値を用いたコントラスト検出法によるオートフォーカス制御により実現できる。つまり、主要被写体の被写体領域のAF評価値が最大化されるように図2のフォーカスレンズ31の位置を調整することにより、主要被写体にピントを合わせることができる。
After the automatic adjustment of the angle of view in step S25, in step S26, the
フォーカス自動調整中に取得される各入力画像に対して被写体検出を継続的に行うことで、それらの入力画像の夫々からAF評価値が最大化されるべき主要被写体の被写体領域を逐次検出し、その逐次検出の結果を用いてフォーカス自動調整を行うようにしても良い。或いは、評価用画像の撮影時における光学ズーム倍率及び現時点の光学ズーム倍率と、評価用画像上における主要被写体の位置から、現時点の入力画像上における主要被写体の位置を推定し、その推定の結果を用いてフォーカス自動調整を行うようにしても良い。 By continuously performing subject detection for each input image acquired during automatic focus adjustment, the subject area of the main subject for which the AF evaluation value should be maximized is sequentially detected from each of the input images, Automatic focus adjustment may be performed using the result of the sequential detection. Alternatively, the position of the main subject on the current input image is estimated from the optical zoom magnification at the time of shooting the evaluation image and the current optical zoom magnification and the position of the main subject on the evaluation image, and the result of the estimation is obtained. It may be used to perform automatic focus adjustment.
ステップS26のフォーカス自動調整後、ステップS27において、シャッタボタン26bが全押し状態になるのを待機し、それが全押し状態になったことが確認されるとステップS27からステップS28へ移行して、新たな対象入力画像の撮影を行う。ステップS28で得られた対象入力画像は外部メモリ18に記録される。
After the automatic focus adjustment in step S26, in step S27, the process waits for the
尚、上述の説明では、入力画像の画角を決定するズーム倍率が光学ズームによる光学ズーム倍率であることを想定している。しかしながら、入力画像の画角を決定するズーム倍率を電子ズームによる電子ズーム倍率とし、電子ズームによって画角自動調整を実現するようにしても良い。同様に考えて、光学ズームと電子ズームとの組み合わせによって画角自動調整を実現するようにしても良い。 In the above description, it is assumed that the zoom magnification for determining the angle of view of the input image is the optical zoom magnification by the optical zoom. However, the zoom magnification for determining the angle of view of the input image may be an electronic zoom magnification by electronic zoom, and automatic adjustment of the angle of view may be realized by electronic zoom. In the same way, automatic adjustment of the angle of view may be realized by a combination of optical zoom and electronic zoom.
学習メモリ54に記録された特徴情報は、過去に撮影された対象入力画像の特徴を表している。ここで、対象入力画像の特徴には、対象入力画像上の複数の被写体の内、何れのカテゴリの被写体が合焦被写体(ピントが合っている被写体)であるのかを表す第1特徴、対象入力画像上の合焦被写体の大きさ及び位置を表す第2及び第3特徴が含まれる。第1〜第3特徴は、夫々、フォーカス情報、サイズ情報及び位置情報によって示される。
The feature information recorded in the
フォーカス情報を学習メモリ54に記録することで、フォーカスに関するユーザの好みを再現することが可能となり、サイズ情報及び位置情報を学習メモリ54に記録することで、合焦被写体の大きさ及び構図に関するユーザの好みを再現することが可能となる。つまり、制御段階動作では、現時点の被写体のカテゴリに応じた特徴情報を学習メモリ54から読み出してズーム制御(画角自動調整)及びフォーカス制御(フォーカス自動調整)を行うことで、ユーザの嗜好性に適合した画角設定、構図設定及びフォーカス設定を自動的に再現する。これにより、ユーザの嗜好性に適合した画角設定、構図設定及びフォーカス設定が支援され、ユーザの利便性向上が図られる。
By recording the focus information in the
以下の第2〜第7実施例には、第1実施例に適用可能な、第1実施例に対する変形技術が示される。但し、矛盾無き限り、第2〜第7実施例に示された技術を、第1実施例以外の他の実施例に適用することも可能である。 In the following second to seventh embodiments, modifications to the first embodiment that can be applied to the first embodiment are shown. However, as long as there is no contradiction, the techniques shown in the second to seventh embodiments can be applied to other embodiments other than the first embodiment.
<<第2実施例>>
第2実施例を説明する。第1実施例では、必要学習回数LNUMが3であることを想定しているが、必要学習回数LNUMは1であってもよく、LNUM=1のときは、学習段階動作において図6(a)の対象入力画像300が取得されて要素特徴情報305(図7及び図9参照)が生成された時点で、その要素特徴情報305が総合特徴情報W1Aとして機能することとなる。但し、制御段階動作においてユーザの嗜好性を適切に再現するためには、LNUMを2以上に設定することが望ましい。
<< Second Example >>
A second embodiment will be described. In the first embodiment, it is assumed that the required number of learning times L NUM is 3. However, the required number of learning times L NUM may be 1, and when L NUM = 1, in the learning stage operation, FIG. when the
<<第3実施例>>
第3実施例を説明する。入力画像において人物が存在する場合、その人物の個人認識処理を行って個人認識処理の結果に応じたカテゴリ分類を行うようにしても良い。個人認識処理では、例えば、複数の登録人物の顔画像の画像信号に応じた顔辞書データベースを予め被写体検出部51内に用意しておき、顔辞書データベースと入力画像の画像信号に基づいて、入力画像上に存在する人物が何れかの登録人物であるかを認識する。そして、入力画像上に存在する人物が第i登録人物であると認識したならば、その人物のカテゴリは第i登録人物であると検出するようにしてもよい(iは整数)。
<< Third Example >>
A third embodiment will be described. When a person is present in the input image, the person may be subjected to personal recognition processing and categorized according to the result of the personal recognition processing. In the personal recognition processing, for example, a face dictionary database corresponding to the image signals of a plurality of registered person's face images is prepared in the
第1入力画像上の人物が第1登録人物であって且つ第2入力画像上の人物が第2登録人物である場合、第1入力画像上の人物のカテゴリと第2入力画像上の人物のカテゴリは、互いに異なると判断され、結果、第1及び2入力画像間においてカテゴリ組み合わせは異なると判断される。i及びjが互いに異なる整数である場合、第i登録人物と第j登録人物は互いに異なる人物であるとする。 When the person on the first input image is the first registered person and the person on the second input image is the second registered person, the category of the person on the first input image and the person on the second input image The categories are determined to be different from each other, and as a result, the category combination is determined to be different between the first and second input images. When i and j are different integers, it is assumed that the i-th registered person and the j-th registered person are different persons.
<<第4実施例>>
第4実施例を説明する。第1実施例で想定されている入力画像では、人物が一人しか存在していないが、人物が複数存在する場合には、複数の人物をまとめて1つのカテゴリに分類するようにしてもよい。
<< 4th Example >>
A fourth embodiment will be described. In the input image assumed in the first embodiment, there is only one person. However, when there are a plurality of persons, the plurality of persons may be grouped into one category.
例えば、図13に示す画像400が入力画像として被写体検出部51に入力された場合を考える。入力画像400には、二人の人物である被写体401及び402と山である被写体403の画像信号が存在しており、被写体検出部51によって、被写体401〜403の被写体領域411〜413が入力画像400から抽出される。被写体検出部51は、被写体401及び402をまとめて1つのカテゴリ「人物二人」に分類し、特徴情報生成部52は、入力画像400に対するカテゴリ組み合わせを「人物二人と山」とみなすことができる。
For example, consider a case where an
図14の特徴情報405は、入力画像400に対して生成される特徴情報の例を示している。入力画像400における合焦被写体が被写体401及び402であるものとする。そうすると、要素特徴情報405におけるフォーカス情報は人物二人とされ、要素特徴情報405におけるサイズ情報は、入力画像400上における被写体401及び402の大きさの平均(厳密には例えば、被写体領域411の画像サイズと被写体領域412の画像サイズの平均)SIZEDとされ、要素特徴情報405における位置情報は、入力画像400上における被写体401及び402の位置とされる。入力画像400上における被写体領域411及び412の中心位置が、夫々、入力画像400上のブロックBL4及びBL5内に位置していたものとする。そうすると、図14に示す如く、要素特徴情報405における位置情報はBL4及びBL5となる。
今、説明の簡略化上、特徴情報405そのものが、カテゴリ組み合わせ「人物二人と山」についての総合特徴情報として機能していた場合を考える。この場合において、制御段階動作中に、カテゴリ組み合わせが「人物二人と山」である評価用画像が取得されたとき、特徴情報405が読み出し特徴情報として学習メモリ54から読み出され(図10のステップS23)、特徴情報405のフォーカス情報に基づき人物二人が主要被写体として設定され(ステップS24)、画角自動調整後の入力画像上における人物二人の大きさの平均(人物二人の被写体領域の画像サイズ平均)がSIZEDとなるように画角自動調整が成され(ステップS25)、人物二人にピントが合うようにフォーカス自動調整が成される(ステップS26)。その後、シャッタボタン26bの全押しが成されると(ステップS27のY)、新たな対象入力画像の撮影及び記録が成される(ステップS28)。
Now, for simplification of description, consider the case where the
但し、画角自動調整の過程において、入力画像上の一方の人物の位置がブロックBL4内に位置し且つ他方の人物の位置がブロックBL5内に位置するという条件の成否が確認され、その条件が成り立たなくなると判断されると、その時点で、第1実施例で述べたように画角自動調整による光学ズーム倍率(又は電子ズーム倍率)の変更は終了される。 However, in the process of automatic angle of view adjustment, whether or not the condition that one person's position on the input image is located in the block BL 4 and the other person's position is located in the block BL 5 is confirmed. If it is determined that the condition does not hold, the change of the optical zoom magnification (or electronic zoom magnification) by the automatic adjustment of the angle of view is ended at that time as described in the first embodiment.
<<第5実施例>>
第5実施例を説明する。第1実施例(及び上述の他の実施例)では、カテゴリ組み合わせを形成するカテゴリの個数が2であることを想定しているが、その個数は3以上でも良い。例えば、その個数が3である場合において、学習段階動作中に、人、犬及び山を被写体として含む対象入力画像が取得された場合、その対象入力画像のカテゴリ組み合わせは「人、犬及び山」となり、その対象入力画像の特徴情報がカテゴリ組み合わせ「人、犬及び山」に関連付けて学習メモリ54に保存される。
<< 5th Example >>
A fifth embodiment will be described. In the first embodiment (and the other embodiments described above), it is assumed that the number of categories forming the category combination is 2, but the number may be 3 or more. For example, when the number is 3, and a target input image including a person, a dog, and a mountain as subjects is acquired during the learning stage operation, the category combination of the target input image is “person, dog, and mountain”. Thus, the feature information of the target input image is stored in the
カテゴリ組み合わせ「人、犬及び山」についての総合特徴情報が生成された後、制御段階動作中に、人、犬及び山を被写体として含む入力画像が評価用画像として取得されると、カテゴリ組み合わせ「人、犬及び山」についての総合特徴情報が読み出し特徴情報として読み出されて、図10のステップS24以降の各処理が実行される。 After the comprehensive feature information about the category combination “people, dogs and mountains” is generated, when an input image including people, dogs and mountains as subjects is acquired during the control phase operation, the category combination “ The comprehensive feature information about “people, dogs and mountains” is read as read feature information, and the processes after step S24 in FIG. 10 are executed.
<<第6実施例>>
第6実施例を説明する。カテゴリ組み合わせを形成するカテゴリの個数が2である場合において、学習段階動作中に、カテゴリ組み合わせ「人及び犬」の総合特徴情報420、カテゴリ組み合わせ「犬及び山」の総合特徴情報421、カテゴリ組み合わせ「人及び山」の総合特徴情報422が生成されて学習メモリ54に保存された場合を考える(総合特徴情報420〜422は図示せず)。
<< Sixth Example >>
A sixth embodiment will be described. When the number of categories forming the category combination is 2, during the learning stage operation, the comprehensive feature information 420 of the category combination “people and dogs”, the comprehensive feature information 421 of the category combination “dogs and mountains”, the category combination “ Consider a case where the comprehensive feature information 422 of “people and mountains” is generated and stored in the learning memory 54 (the comprehensive feature information 420 to 422 is not shown).
この場合において、制御段階動作中に、人と犬と山を被写体として含む評価用画像(不図示)が取得された場合、総合特徴情報420〜422の何れかが、図10のステップS23にて読み出される。この際、総合特徴情報420〜422の付加情報に格納されている学習回数を参照し、学習回数が最も多い総合特徴情報を、ステップS23にて読み出すようにすると良い。 In this case, when an evaluation image (not shown) including a person, a dog, and a mountain as subjects is acquired during the control stage operation, any of the comprehensive feature information 420 to 422 is obtained in step S23 of FIG. Read out. At this time, referring to the number of learnings stored in the additional information of the general feature information 420 to 422, the general feature information with the largest number of learnings may be read in step S23.
総合特徴情報420〜422の中に、学習回数が同数の総合特徴情報が複数存在していた場合、最も新しい学習時刻に学習された総合特徴情報をステップS23にて読み出すようにすると良い。これを実現すべく、学習メモリ54の各付加情報に学習時刻を付与しておくと良い。或る特徴情報の学習時刻とは、その特徴情報の元となる対象入力画像の撮影時刻を表す。例えば、総合特徴情報420〜422の学習回数が夫々「3」、「4」及び「4」である場合、総合特徴情報421の元となる4つの要素特徴情報の学習時刻の内、最新の学習時刻を第1学習時刻として抽出する一方で、総合特徴情報422の元となる4つの要素特徴情報の学習時刻の内、最新の学習時刻を第2学習時刻として抽出する。そして、第1学習時刻が第2学習時刻よりも遅ければ総合特徴情報421をステップS23にて読み出し、逆に第2学習時刻が第1学習時刻よりも遅ければ総合特徴情報422をステップS23にて読み出せばよい。
When there are a plurality of pieces of the total feature information having the same number of times of learning in the total feature information 420 to 422, the total feature information learned at the latest learning time may be read in step S23. In order to realize this, a learning time may be given to each additional information in the
<<第7実施例>>
第7実施例を説明する。第1実施例では、フォーカス情報、サイズ情報及び位置情報を特徴情報に含めることで、制御段階動作において画角自動調整及びフォーカス自動調整を実現している。
<< Seventh Embodiment >>
A seventh embodiment will be described. In the first embodiment, by including focus information, size information, and position information in the feature information, automatic adjustment of the angle of view and automatic adjustment of the focus are realized in the control stage operation.
しかしながら、特徴情報からサイズ情報及び位置情報を削除することで、制御段階動作において画角自動調整の実行を割愛するようにしてもよい(図10参照)。特徴情報からサイズ情報及び位置情報を削除した場合、制御段階動作においてステップ25の画角自動調整が実行されず、フォーカス情報に基づくフォーカス自動調整を経てから(ステップS26)、ステップS28の対象入力画像の撮影が成される。
However, by deleting the size information and the position information from the feature information, execution of the automatic adjustment of the angle of view may be omitted in the control stage operation (see FIG. 10). When the size information and the position information are deleted from the feature information, the angle of view automatic adjustment in
或いは、特徴情報から位置情報のみを削除するようにしても良い。第1実施例では、主要被写体の位置が、読み出し特徴情報の位置情報に示されたブロックからはみ出さないという前提の下で画角自動調整が行われ、そのようなはみ出しが生じる場合には、そのようなはみ出しが生じる直前にて画角自動調整が強制的に終了されるが、特徴情報から位置情報を削除した場合には、そのような強制的な終了は発生しなくなる。つまり、特徴情報から位置情報を削除した場合には、入力画像上の主要被写体の位置に関係なく、ステップS28の対象入力画像上の主要被写体の大きさが読み出し特徴情報のサイズ情報に従った大きさとなるように画角自動調整が成される。 Alternatively, only the position information may be deleted from the feature information. In the first embodiment, the angle of view is automatically adjusted under the assumption that the position of the main subject does not protrude from the block indicated by the position information of the readout feature information. Although the automatic adjustment of the angle of view is forcibly terminated immediately before such protrusion, such forcible termination does not occur when the position information is deleted from the feature information. That is, when the position information is deleted from the feature information, the size of the main subject on the target input image in step S28 is the size according to the size information of the read feature information regardless of the position of the main subject on the input image. The angle of view is automatically adjusted so that
<<第8実施例>>
第8実施例を説明する。第8実施例では、学習段階動作中に生成される対象入力画像の生成条件が、ユーザのマニュアル操作によって指定されていることを想定する。マニュアル操作は、ユーザによる操作部26への操作である。表示部27にタッチパネル機能が備えられている場合においては、タッチパネル操作によってマニュアル操作が実現されても良い。この場合、表示部27は、対象入力画像の生成条件の指定を受け付ける第2操作部としても機能する。
<< Eighth Example >>
An eighth embodiment will be described. In the eighth embodiment, it is assumed that the generation condition of the target input image generated during the learning stage operation is designated by the user's manual operation. The manual operation is an operation on the
対象入力画像の生成条件には、対象入力画像の画質を変化させる(より広くいえば、対象入力画像の画像信号を変化させる)任意の条件が含まれる。指定された生成条件に依存して、手ぶれ補正のON/OFF、AFE12の増幅率、対象入力画像の生成過程においてAFE12の出力信号に成される画像処理(鮮鋭化処理やホワイトバランス調整用処理)の内容などが規定される。より具体的には、対象入力画像の生成条件には、対象入力画像の生成時に手ぶれ補正を成すか否かを既定する手ぶれ補正ON/OFF条件、対象入力画像の感度を既定する感度条件、対象入力画像の鮮鋭度合いを既定する鮮鋭化条件、対象入力画像のホワイトバランスの状態を規定するホワイトバランス条件などが含まれる。
The generation conditions for the target input image include any condition that changes the image quality of the target input image (more broadly, changes the image signal of the target input image). Depending on the specified generation conditions, camera shake correction ON / OFF,
手ぶれ補正がOFFとなっている場合、対象入力画像の画像信号を得るために撮像素子33にて実施された露光の期間中に撮像装置1の筐体が動けば、撮像素子33上の像がぶれて、そのぶれが対象入力画像に混入する。手ぶれ補正がONとなっている場合には、対象入力画像に混入するおそれのあるぶれが、公知の方法を用いて光学的又は電子的に除去される。
感度条件にて規定される感度は、ISO感度である。ISO感度は、ISO(International Organization for Standardization)によって規定された感度を意味し、ISO感度を調節することで対象入力画像の明るさ(輝度レベル)を調節することができる。実際には、ISO感度に応じてAFE12における信号増幅の増幅度を決定する。
AFE12の出力信号そのものによって表される画像に対して鮮鋭化処理を施すことで対象入力画像を生成することができる。鮮鋭化条件によって、鮮鋭化処理そのものを実行するのか否かを含め、鮮鋭化処理の内容が規定される。
ホワイトバランス条件によって、オートホワイトバランス制御を用いて対象入力画像を生成するのか否か等が規定される。
When camera shake correction is OFF, if the housing of the
The sensitivity specified by the sensitivity condition is ISO sensitivity. The ISO sensitivity means sensitivity defined by ISO (International Organization for Standardization), and the brightness (luminance level) of the target input image can be adjusted by adjusting the ISO sensitivity. Actually, the amplification factor of the signal amplification in the
A target input image can be generated by performing a sharpening process on the image represented by the output signal itself of the
Whether or not to generate a target input image using auto white balance control is defined by the white balance condition.
第8実施例における以下の説明では、説明の簡略化上、手ぶれ補正ON/OFF条件及び感度条件のみがマニュアル操作によって指定されることを想定する。 In the following description of the eighth embodiment, it is assumed that only the camera shake correction ON / OFF condition and the sensitivity condition are designated by a manual operation for the sake of simplicity.
図15は、第8実施例に係る特殊撮影モードの動作に特に関与する部位のブロック図である。生成条件情報生成部56は、後述の生成条件情報を生成する。生成条件情報生成部56を、画像信号処理部13によって、或いは、画像信号処理部13とCPU23の組み合わせによって実現することができる。
FIG. 15 is a block diagram of a portion particularly related to the operation in the special imaging mode according to the eighth embodiment. The generation condition
[学習段階動作]
図16は、第8実施例に係る学習段階動作の手順を表すフローチャートであり、学習段階動作ではステップS51〜S54の各処理が実行される。ステップS51では、シャッタ操作に先立ち、撮像装置1は、上記マニュアル操作による対象入力画像の生成条件の指定を受け付け、その後、ステップS52においてユーザによりシャッタ操作が成されると、指定された生成条件にて対象入力画像を生成する。対象入力画像の生成後、ステップS53において、被写体検出部51により、対象入力画像の被写体検出及び被写体のカテゴリ分類が行われる。最後に、ステップS54では、対象入力画像のカテゴリ組み合わせに関連付けた状態で、対象入力画像の生成条件を表す生成条件情報が学習メモリ54の記録内容に反映される。
[Learning stage operation]
FIG. 16 is a flowchart showing the procedure of the learning stage operation according to the eighth embodiment. In the learning stage operation, each process of steps S51 to S54 is executed. In step S51, prior to the shutter operation, the
例えば、ステップS51において、ユーザのマニュアル操作によりISO感度を「ISO100」にすべきこと及び手ぶれ補正をONとすべきことが指定され、その指定内容に従って、図6(a)の対象入力画像300が生成された場合を考える。この場合、対象入力画像300に対するマニュアル操作の内容に基づいて図17に示す生成条件情報505が生成され、生成条件情報505が対象入力画像300の組み合わせカテゴリ「人物及び山」と関連付けた状態で学習メモリ54に保存される。組み合わせカテゴリの検出方法は、第1実施例で述べた通りである。
For example, in step S51, it is specified by the user's manual operation that the ISO sensitivity should be set to “ISO 100” and camera shake correction should be turned on, and the
或る入力画像に対する生成条件情報は、感度条件を表す感度情報及び手ぶれ補正ON/OFF条件を表す手ぶれ補正情報から成り、該生成条件情報に必要に応じて、上述したような付加情報が付加される(図17参照)。付加情報も生成条件情報の一部であると考えることも可能であるが、本例においては、付加情報は生成条件情報の構成要素ではないと考える。生成条件情報505において、感度情報は「ISO100」であり、手ぶれ補正情報は「ON」である。
The generation condition information for a certain input image is composed of sensitivity information indicating sensitivity conditions and camera shake correction information indicating camera shake correction ON / OFF conditions. Additional information as described above is added to the generation condition information as necessary. (See FIG. 17). Although it is possible to consider that the additional information is also a part of the generation condition information, in this example, it is considered that the additional information is not a component of the generation condition information. In the
学習段階動作では、ステップS51〜S54から成る一連の処理を繰り返し実行することで、ユーザの嗜好性を繰り返し学習する。LNUMを1以上の任意の整数とすることができるが、今、LNUMが3であるとする。LNUMの意義は上述した通りである。図18は、対象入力画像300の取得後、図9の情報の生成元となった上述の対象入力画像300a、300b、330、330a、330b、331及び331a(全て不図示)が更に取得された後の、学習メモリ54の記録内容を示している。
In the learning stage operation, the user's preference is repeatedly learned by repeatedly executing a series of processes consisting of steps S51 to S54. L NUM can be any integer greater than or equal to 1, but now assume that L NUM is 3. The significance of LNUM is as described above. In FIG. 18, after the
生成条件情報生成部56は、対象入力画像300の生成条件情報505を生成する方法と同様の方法にて、対象入力画像300a及び300bに対するマニュアル操作の内容に基づき、対象入力画像300aの生成条件情報505a及び対象入力画像300bの生成条件情報505bを生成する。メモリ制御部53は、生成条件情報505、505a及び505bが生成されると、それらをカテゴリ組み合わせ「人物及び山」に関連付けつつ学習メモリ54に保存する。一方で、生成条件情報生成部56又はメモリ制御部53は、生成条件情報505、505a及び505bに一致又は類似する生成条件情報W2Aを統計学に基づいて作成し、生成条件情報W2Aもカテゴリ組み合わせ「人物及び山」に関連付けて学習メモリ54に保存する。1枚1枚の対象入力画像の生成条件情報を特に要素生成条件情報とも呼び、複数枚の対象入力画像の生成条件情報から統計学に基づき生成された生成条件情報を特に総合生成条件情報とも呼ぶ。本例において、生成条件情報505、505a及び505bの夫々は要素生成条件情報であり、生成条件情報W2Aは総合生成条件情報である。
The generation condition
要素生成条件情報505、505a及び505bにおいて、感度情報は、夫々、「ISO100」、「ISO100」及び「ISO200」であり、手ぶれ補正情報は、夫々、「ON」、「OFF」及び「ON」である。複数の要素特徴情報のフォーカス情報から総合特徴情報のフォーカス情報を生成する方法(第1実施例で述べた方法)と同様の方法にて(図9参照)、情報505、505a及び505bの感度情報から情報W2Aの感度情報を生成することができると共に、情報505、505a及び505bの手ぶれ補正情報から情報W2Aの手ぶれ補正情報を生成することができる。即ち例えば、情報W2Aの元となる要素生成条件情報の感度情報の内、最も頻度の多い感度情報を、情報W2Aの感度情報とすることができる(手ぶれ補正情報も同様)。従って、情報W2Aにおける感度情報及び手ぶれ補正情報は、夫々、「ISO100」及び「ON」となる。情報W2Aに付随する付加情報には、カテゴリ組み合わせ「人物及び山」に対する学習回数が記録される。情報W2Aは、3回分の学習結果に基づき、即ち情報505、505a及び505bを元に生成される。従って、情報W2Aの付加情報には、学習回数を表す数値として3が記録される。
In the element
図18において、中央部分に示された生成条件情報群はカテゴリ組み合わせ「犬及び海」についての生成条件情報群であり、W2Bは、カテゴリ組み合わせ「犬及び海」についての総合生成条件情報である。総合生成条件情報W2Bも、総合生成条件情報W2Aと同様にして作成される。図18において、下方部分に示された生成条件情報群はカテゴリ組み合わせ「人及び海」についての生成条件情報群である。図18に示す状態において、カテゴリ組み合わせ「人物及び山」と「犬及び海」については学習回数が必要学習回数LNUM(=3)に達しているため制御段階動作を実行することができる。 18, indicated generation condition information group in the central portion is a generation condition information group for the category combinations "dog and sea", W2 B is a comprehensive generation condition information about the category combinations "dog and sea" . The total generation condition information W2 B is also created in the same manner as the total generation condition information W2 A. In FIG. 18, the generation condition information group shown in the lower part is a generation condition information group for the category combination “person and sea”. In the state shown in FIG. 18, for the category combination “person and mountain” and “dog and sea”, the number of learning times has reached the required number of learning times L NUM (= 3), so that the control stage operation can be executed.
尚、第1実施例で述べたように、対象入力画像300、300a及び300bの撮影後、更に、カテゴリ組み合わせが「人物及び山」となる対象入力画像300c(不図示)が撮影された場合には、その最新の対象入力画像300cの生成条件情報を用いて総合生成条件情報W2Aを更新すると良い。
As described in the first embodiment, after the
[制御段階動作]
カテゴリ組み合わせ「人物及び山」について、要素生成条件情報505、505a及び505bに基づく図18の総合生成条件情報W2Aが学習メモリ54に保存され、且つ、総合生成条件情報W2A以外の幾つかの総合生成条件情報(情報W2Bを含む)が学習メモリ54に保存されている状態を、便宜上、図18の学習状態と呼ぶ。第8実施例では、以下、図18の学習状態の下における制御段階動作の説明を行う。図19は、第8実施例に係る制御段階動作の手順を表すフローチャートであり、制御段階動作ではステップS61〜S65の各処理が実行される。
[Control stage operation]
For category combinations "People and Mountain", General generation condition information W2 A of Figure 18 based on the element generating condition information 505,505a and 505b are stored in the
ステップS61及びS62の処理内容は、図10のステップS21及びS22のそれと同じである。従って、シャッタボタン26bが半押し状態になっている場合、或いは、撮像装置1の筐体が一定時間継続して静止していると判断される場合、ステップS61からステップS62への移行が成され、被写体検出部51は、最新の入力画像を評価用画像として取り扱って、評価用画像の画像信号に基づき、評価用画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する。これにより、上述と同様の方法にて、評価用画像についてのカテゴリ組み合わせが決定する。
The processing contents of steps S61 and S62 are the same as those of steps S21 and S22 of FIG. Accordingly, when the
ステップS62に続くステップS63において、図4の撮影制御部55は、評価用画像のカテゴリ組み合わせに一致するカテゴリ組み合わせの総合生成条件情報を、学習メモリ54から読み出す。例えば、評価用画像の組み合わせカテゴリが「人物及び山」であったならば情報W2Aが読み出され、評価用画像の組み合わせカテゴリが「犬及び海」であったならば情報W2Bが読み出される(図18参照)。以下では、評価用画像が図11の画像350である場合を考える。評価用画像350の組み合わせカテゴリは「人物及び山」であるため、ステップS63において総合生成条件情報W2Aが読み出される。以下、ステップS63にて読み出される総合生成条件情報を、読み出し生成条件情報とも呼ぶ。
In step S <b> 63 following step S <b> 62, the
ステップS63の読み出し処理の後、ステップS64において、シャッタボタン26bが全押し状態になるのを待機し、それが全押し状態になったことが確認されるとステップS64からステップS65へ移行して、新たな対象入力画像の撮影を行い、その対象入力画像の画像信号を外部メモリ18に記録する。ステップS65にて取得される対象入力画像の生成条件は、読み出し生成条件情報に従ったものとされる。即ち、読み出し生成条件情報が情報W2Aであるならば、ステップS65にて取得される対象入力画像のISO感度は「ISO100」とされ、且つ、手ぶれ補正をONにした状態でステップS65の対象入力画像の撮影が成される。
After the reading process in step S63, in step S64, the process waits for the
学習メモリ54に記録された生成条件情報には、ユーザの嗜好性が反映されている。制御段階動作では、現時点の被写体のカテゴリに応じた生成条件情報を学習メモリ54から読み出すことで、ユーザの嗜好性に適合した生成条件(ISO感度等)を自動的に再現する。これにより、ユーザの嗜好性に適合した生成条件(ISO感度等)の設定が支援され、ユーザの利便性向上が図られる。
The generation condition information recorded in the
<<第9実施例>>
第9実施例を説明する。上述の各実施例では、複数の被写体を関係付けることでカテゴリ組み合わせを形成しているが、シーン判定を利用し、入力画像上の被写体と入力画像に対して判定されたシーンとを関係付けることでカテゴリ組み合わせを形成しても良い。この方法を具体的に説明する。
<< Ninth Embodiment >>
A ninth embodiment will be described. In each of the embodiments described above, category combinations are formed by associating a plurality of subjects. However, using scene determination, the subject on the input image and the scene determined for the input image are related. A category combination may be formed. This method will be specifically described.
第9実施例では、図20に示すシーン判定部58が利用される。シーン判定部58を、図1の画像信号処理部13に設けておくことができる。シーン判定部58は、入力画像の画像信号に基づいて入力画像の撮影シーンを判定する。この判定を、入力画像ごとに行うことができる。入力画像の撮影シーンの判定は、入力画像の被写体の検出、入力画像の被写体のカテゴリ分類、入力画像の色相の分析、入力画像の撮影時における被写体の光源状態の推定等を用いて実行され、その判定に公知の任意の方法(例えば、特開2009−71666号公報に記載の方法)を用いることができる。
In the ninth embodiment, a
複数の登録シーンが予めシーン判定部58に設定されている。複数の登録シーンには、例えば、人物が注目された撮影シーンであるポートレートシーン、山が注目された撮影シーンである山シーン、海が注目された撮影シーンである海シーン、日中の撮影状態を表す日中シーン、夜景の撮影状態を表す夜景シーンなどが含まれうる。シーン判定部58は、注目した入力画像の画像信号からシーン判定に有効な特徴データを抽出することで、その注目した入力画像の撮影シーンを上記複数の登録シーンの中から選択し、これによって、注目した入力画像の撮影シーンを判定する。シーン判定部58によって判定された撮影シーンを、判定シーンと呼ぶ。
A plurality of registered scenes are set in the
シーン判定部58を第1又は第8実施例に適用する方法を説明する。判定シーンを表す判定シーン情報は、図4の特徴情報生成部52又は図15の生成条件情報生成部56に伝達される。特徴情報生成部52又は生成条件情報生成部56は、任意の入力画像に対する被写体検出部51の検出結果と判定シーン情報に基づき、その入力画像に対するカテゴリ組み合わせを設定する。例えば、図6(a)の対象入力画像300に関し、対象入力画像300上の被写体301が被写体検出部51により検出され且つ対象入力画像300の撮影シーンがシーン判定部58により山シーンと判定されると、被写体301のカテゴリである人物と山シーンとを関係付け、「人物」及び「山シーン」の組み合わせを、対象入力画像300のカテゴリ組み合わせとして設定する。「人物」及び「山シーン」の組み合わせは、カテゴリ組み合わせ「人物及び山シーン」と表記される。同様に例えば、或る対象入力画像から犬のカテゴリの被写体が検出されると共に該対象入力画像の判定シーンが海シーンであると判断されると、その対象入力画像のカテゴリ組み合わせは、カテゴリ組み合わせ「犬及び海シーン」となる。
A method of applying the
カテゴリ組み合わせの設定方法が第1又は第8実施例と異なるだけで、シーン判定部58を第1又は第8実施例に適用した場合における学習段階動作及び制御段階動作は、第1又は第8実施例のそれと同様である。即ち例えば、第1又は第8実施例の記述中の文言「山」及び「海」をそれぞれ文言「山シーン」及び「海シーン」に適宜読みかえた上で、第1又は第8実施例にて述べた事項を第9実施例に適用することができる(第2〜第7実施例についても同様)。
The learning stage operation and the control stage operation when the
第1実施例が適用される場合、学習段階動作において、対象入力画像を繰り返し撮影することで各対象入力画像の特徴情報を生成し、被写体のカテゴリと判定シーンとの組み合わせであるカテゴリ組み合わせに各特徴情報を関連付けて学習メモリ54に保存してゆく。学習メモリ54に総合特徴情報が生成されると、制御段階動作に移行する。制御段階動作では(図10参照)、評価用画像に対して被写体のカテゴリ分類を行うと共にシーン判定部58による判定を行うことで評価用画像のカテゴリ組み合わせ(評価用画像の被写体のカテゴリと評価用画像の判定シーンとの組み合わせ)を決定し、決定したカテゴリ組み合わせに対応する総合特徴情報を学習メモリ54から読み出す。そして、読み出した総合特徴情報に基づき、第1実施例で述べた方法に従って主要被写体に注目した画角自動調整及びフォーカス自動調整を行い、その後、新たな対象入力画像を撮影すればよい。
When the first embodiment is applied, feature information of each target input image is generated by repeatedly capturing the target input image in the learning stage operation, and each category combination that is a combination of the category of the subject and the determination scene is set. The feature information is associated and stored in the
第8実施例が適用される場合、学習段階動作において、対象入力画像をマニュアル操作を介して繰り返し撮影することで各対象入力画像の生成条件情報を生成し、被写体のカテゴリと判定シーンとの組み合わせであるカテゴリ組み合わせに各生成条件情報を関連付けて学習メモリ54に保存してゆく。学習メモリ54に総合生成条件情報が生成されると、制御段階動作に移行する。制御段階動作では(図19参照)、評価用画像に対して被写体のカテゴリ分類を行うと共にシーン判定部58による判定を行うことで評価用画像のカテゴリ組み合わせ(評価用画像の被写体のカテゴリと評価用画像の判定シーンとの組み合わせ)を決定し、決定したカテゴリ組み合わせに対応する総合生成条件情報を学習メモリ54から読み出す。そして、第8実施例で述べた方法に従い、読み出した総合生成条件情報に規定された生成条件にて、新たな対象入力画像を撮影すればよい。
When the eighth embodiment is applied, in the learning stage operation, the target input image is repeatedly photographed through manual operation to generate the generation condition information of each target input image, and the combination of the subject category and the determination scene Each generation condition information is associated with the category combination and stored in the
<<第10実施例>>
第10実施例を説明する。第10実施例では、音響信号に対して特徴的な制御を行う。図1のマイク部14は、複数のマイクロホンから形成される。今、図21に示す如く、マイク部14は、2つのマイクロホン14L及び14Rから成るものとする。マイクロホン14L及び14Rとして指向性を有する有指向性マイクロホンを採用することも可能であるが、マイクロホン14L及び14Rは、指向性を有さない無指向性マイクロホンであるとする。
<< Tenth Embodiment >>
A tenth embodiment will be described. In the tenth embodiment, characteristic control is performed on the acoustic signal. The
図22は、撮像装置1の外観斜視図である。マイクロホン14L及び14Rは、撮像装置1の筐体上の互いに異なる位置に設置される。図22に示す如く、マイクロホン14Lは撮像装置1の筐体上の左側に設置され、マイクロホン14Rは撮像装置1の筐体上の右側に設置される。図22に示す如く、撮像部11にて撮影可能な被写体が存在する方向を前方と定義し、その逆の方向を後方と定義する。前方及び後方は、撮像部11の光軸に沿った方向である。また、右及び左とは、後方側から前方側を見たときの右及び左を意味するものとする。
FIG. 22 is an external perspective view of the
マイクロホン14L及び14Rの夫々は、自身が収音した音をアナログの音響信号に変換して出力する。図1の音響信号処理部15は、マイクロホン14L及び14Rから出力されるアナログの音響信号をデジタルの音響信号に変換する。この変換によって得られた、マイクロホン14L及び14Rの出力信号に基づくデジタルの音響信号を夫々左原信号及び右原信号と呼ぶ。音響信号処理部15は、左原信号及び右原信号に対して公知の指向性制御を施すことにより指向性を持った音響信号を生成することができる。
Each of the
また、撮像装置1は、音声付静止画像を生成する機能が備えられている。即ち、シャッタ操作に従って対象入力画像を撮影した際、その対象入力画像の撮影時刻を基準とした一定期間中の音響信号を対象音響信号として生成し、対象音響信号を対象入力画像の画像信号に対応付けて該画像信号と共に外部メモリ18に記録することができる。対象音響信号の生成は、図1の音響信号処理部15に内在する対象音響信号生成部(不図示)によって成される。再生モードにおいて、対象入力画像の再生が指示されると、対象入力画像が表示部27にて表示再生されると共に対象音響信号が音としてスピーカ28により再生される。
Moreover, the
更に、撮像装置1は、音声付静止画像を生成する際、指向性制御によって、対象入力画像上の強調対象被写体の方向に指向性を持った音響信号を対象音響信号として生成することができ、ユーザは、何れの被写体を強調対象被写体とすべきかを操作部26等を用いて指定することができる。対象入力画像上の強調対象被写体の方向に指向性を持った音響信号を対象音響信号として生成するための指向性制御を、特に、特定方向強調制御と呼ぶ。撮像装置1は、ユーザの指定内容を音に関するユーザの嗜好性情報と捉えて学習し、以降の撮影に役立てることができる。以下、このような方法の詳細な実現法を説明する。尚、第10実施例においても、図4又は図15に示される各部位が利用される。
Furthermore, when generating the still image with sound, the
[学習段階動作]
まず、学習段階動作について説明する。学習段階動作では、シャッタ操作に従って対象入力画像が撮影される。図23に示す対象入力画像600が得られた場合を考える。対象入力画像600は、第3実施例で述べた第1及び第2登録人物を被写体に含んだ状態で撮影された入力画像であり、被写体601及び602は、夫々、対象入力画像600上における第1及び第2登録人物である。被写体検出部51は、対象入力画像600から被写体601及び602を検出して被写体601及び602が人物であると検出すると共に、互いに異なる被写体領域611及び612を設定する。被写体領域611及び612は、夫々、被写体601及び602の画像信号が存在する画像領域である。更に、対象入力画像600の画像信号に基づく上記の個人認識処理によって(第3実施例参照)、被写体検出部51は、被写体601及び602が夫々第1及び第2登録人物であると認識する。
[Learning stage operation]
First, the learning stage operation will be described. In the learning stage operation, the target input image is taken according to the shutter operation. Consider a case where a
被写体検出部51において、第1及び第2登録人物は互いに異なるカテゴリの被写体であるとみなされる。今、ユーザが、第1登録人物を強調対象被写体とすべきことを操作部26等を用いて指定したとする。この指定は、対象入力画像600の撮影前に行うこともできるし、対象入力画像600の撮影後に行うこともできる。この指定によって、被写体600が強調対象被写体として設定される。音響信号処理部15は、対象入力画像600の撮影時刻を基準とする抽出期間P600を設定し、抽出期間P600中の左原信号及び右原信号から特定方向強調制御によって被写体601から到来する音の成分を強調した音響信号を対象音響信号SD600として生成する。この対象音響信号SD600は、対象入力画像600に対応付けられて対象入力画像600の画像信号と共に外部メモリ18に記録される。
In the
或る入力画像の撮影時刻とは、厳密には例えば、その入力画像の画像信号を取得するために撮像素子33で実施される露光の開始時刻、中間時刻又は終了時刻を指す。或る撮影時刻を基準とする抽出期間とは、該撮影時刻からΔtA秒だけ前の時刻を始期とし且つ該撮影時刻からΔtB秒だけ後の時刻を終期とする期間をさす(ΔtA及びΔtBは所定の正の値)。一定時間分の左原信号及び右原信号を内部メモリ17に記録しておくようにすれば、対象入力画像600の撮影後に強調対象被写体の指定が行われたとしても、内部メモリ17の記録信号から対象音響信号SD600を作り出すことができる(他の対象音響信号についても同様)。
Strictly speaking, the shooting time of an input image refers to, for example, the start time, intermediate time, or end time of exposure performed by the
音響信号処理部15は、対象入力画像600上における被写体領域611の位置と、対象入力画像600の撮影時刻における焦点距離(撮像部11の焦点距離)から、撮像装置1から見た被写体601の方向を推定し、推定方向から到来する音の信号成分(即ち、音源としての被写体601から到来する音の信号成分)が強調されるように対象音響信号SD600を生成する。推定方向から到来する音の信号成分を抽出期間P600中の左原信号及び右原信号から必要成分として抽出し、抽出した必要成分そのものを対象音響信号SD600とすることができる。或いは、その必要成分を抽出期間P600中の左原信号及び右原信号から抽出する一方で、必要成分以外の信号成分を抽出期間P600中の左原信号及び右原信号から不必要成分として抽出した後、必要成分の混合比率が比較的大きくなるように必要成分と不必要成分を加重加算することで対象音響信号SD600を生成しても良い。つまり、0<kB<kAを満たす係数kA及びkBを設定し、上記必要成分に係数kAを乗じた信号と上記不必要成分に係数kBを乗じた信号とを足し合わせた信号を対象音響信号SD600として生成しても良い。
The acoustic
音響信号処理部15は、対象音響信号SD600’の代わりに、指向性制御の一種であるスレテオ化制御によって抽出期間P600中の左原信号及び右原信号から対象音響信号SD600’を作り出すこともできる。スレテオ化制御による対象音響信号は、強調対象被写体の位置に関係なく生成されたL信号とR信号から成るステレオ信号である。L信号及びR信号は、互いに異なる方向に指向軸を有する、指向性を持った音響信号である。信号SD600’が生成された場合には、信号SD600の代わりに信号SD600’が、対象入力画像600に対応付けられて対象入力画像600の画像信号と共に外部メモリ18に記録される。
Sound
被写体検出部51によって対象入力画像600のカテゴリ組み合わせとしてカテゴリ組み合わせ「第1及び第2登録人物」が設定され、メモリ制御部53によって、対象入力画像600の対象音響信号の指向性に関する音制御情報がカテゴリ組み合わせ「第1及び第2登録人物」に関連付けた状態で学習メモリ54に記録される。例えば、図24に示す音制御情報605が対象入力画像600のカテゴリ組み合わせ「第1及び第2登録人物」に関連付けた状態で学習メモリ54に記録される。音制御情報は、例えば、図1のCPU23に内在する音制御情報生成部(不図示)によって生成される。
The category combination “first and second registered persons” is set as the category combination of the
或る入力画像に対する音制御情報は、特定方向強調制御のON/OFFを表す制御ON/OFF情報及び強調対象被写体を表す強調対象情報から成り、その音制御情報に必要に応じて、上述したような付加情報が付加される(図24参照)。付加情報も音制御情報の一部であると考えることも可能であるが、本例においては、付加情報は音制御情報の構成要素ではないと考える。 The sound control information for a certain input image is composed of control ON / OFF information indicating ON / OFF of specific direction emphasis control and emphasis target information indicating an emphasis target subject, and the sound control information is as described above as necessary. Additional information is added (see FIG. 24). Although it is possible to consider that the additional information is also a part of the sound control information, in this example, it is considered that the additional information is not a component of the sound control information.
制御ON/OFF情報はON又はOFFとされる。制御ON/OFF情報がONであることは、対応する対象入力画像に対して特定方向強調制御を用いて対象音響信号が生成されていることを意味し、制御ON/OFF情報がOFFであることは、対応する対象入力画像に対してステレオ化制御を用いて対象音響信号が生成されていることを意味する。
強調対象情報は、対象入力画像上の何れのカテゴリの被写体が強調対象被写体であるかを示しており、制御ON/OFF情報がONのときにのみ、意義のあるデータを持つ。
対象入力画像600に対して対象音響信号SD600が生成されたものとする。そうすると、音制御情報605において、制御ON/OFF情報は「ON」であり、強調対象情報は「第1登録人物」である。
Control ON / OFF information is set to ON or OFF. When the control ON / OFF information is ON, it means that the target acoustic signal is generated using the specific direction enhancement control for the corresponding target input image, and the control ON / OFF information is OFF. Means that the target acoustic signal is generated using the stereo control for the corresponding target input image.
The emphasis target information indicates which category of subject on the target input image is the emphasis target subject, and has meaningful data only when the control ON / OFF information is ON.
It is assumed that the target acoustic signal SD 600 is generated for the
学習段階動作では、対象入力画像の撮影を繰り返し実行することで、ユーザの嗜好性を繰り返し学習する。LNUMを1以上の任意の整数とすることができるが、今、LNUMが3であるとする。LNUMの意義は上述した通りである。図25は、対象入力画像600の取得後、対象入力画像600a及び600b(全て不図示)が更に取得された後の、学習メモリ54の記録内容を示している。対象入力画像600a及び600bの夫々には、第1及び第2登録人物が被写体として含まれていて、対象入力画像600a及び600bの夫々の組み合わせカテゴリは「第1及び第2登録人物」であるとする。更に、対象入力画像600の場合と同様にして、対象入力画像600a及び600bの夫々に対しても対象音響信号が生成されているものとする。
In the learning stage operation, the user's preference is repeatedly learned by repeatedly performing capturing of the target input image. L NUM can be any integer greater than or equal to 1, but now assume that L NUM is 3. The significance of LNUM is as described above. FIG. 25 shows the recorded contents of the learning
CPU23は、対象入力画像600の音制御情報605を生成する方法と同様の方法にて、対象入力画像600aの音制御情報605a及び対象入力画像600bの音制御情報605bを生成する。メモリ制御部53は、音制御情報605、605a及び605bが生成されると、それらをカテゴリ組み合わせ「第1及び第2登録人物」に関連付けつつ学習メモリ54に保存する。一方で、CPU23又はメモリ制御部53は、音制御情報605、605a及び605bに一致又は類似する音制御情報W3Aを統計学に基づいて作成し、音制御情報W3Aもカテゴリ組み合わせ「第1及び第2登録人物」に関連付けて学習メモリ54に保存する。1枚1枚の対象入力画像の音制御情報を特に要素音制御情報とも呼び、複数枚の対象入力画像の音制御情報から統計学に基づき生成された音制御情報を特に総合音制御情報とも呼ぶ。本例において、音制御情報605、605a及び605bの夫々は要素音制御情報であり、音制御情報W3Aは総合音制御情報である。
The
要素音制御情報605、605a及び605bにおいて、制御ON/OFF情報は、夫々、「ON」、「ON」及び「OFF」であり、要素音制御情報605及び605aにおける強調対象情報は共に「第1登録人物」である。複数の要素特徴情報のフォーカス情報から総合特徴情報のフォーカス情報を生成する方法(第1実施例で述べた方法)と同様の方法にて(図9参照)、情報605、605a及び605bの制御ON/OFF情報から情報W3Aの制御ON/OFF情報を生成することができると共に、情報605、605a及び605bの強調対象情報から情報W3Aの強調対象情報を生成することができる。即ち例えば、情報W3Aの元となる要素音制御情報の強調対象情報の内、最も頻度の多い強調対象情報を、情報W3Aの強調対象情報とすることができる(制御ON/OFF情報も同様)。従って、情報W3Aにおける制御ON/OFF情報及び強調対象情報は、夫々、「ON」及び「第1登録人物」とされる。情報W3Aに付随する付加情報には、カテゴリ組み合わせ「第1及び第2登録人物」に対する学習回数が記録される。情報W3Aは、3回分の学習結果に基づき、即ち情報605、605a及び605bを元に生成される。従って、情報W3Aの付加情報には、学習回数を表す数値として3が記録される。
In the element
尚、第1実施例で述べたように、対象入力画像600、600a及び600bの撮影後、更に、カテゴリ組み合わせが「第1及び第2登録人物」となる対象入力画像600c(不図示)が対象音響信号と共に生成された場合には、その最新の対象入力画像600cの音制御情報を用いて総合音制御情報W3Aを更新すると良い。
As described in the first embodiment, after the
[制御段階動作]
カテゴリ組み合わせ「第1及び第2登録人物」について、要素音制御情報605、605a及び605bに基づく図25の総合音制御情報W3Aが学習メモリ54に保存され、且つ、総合音制御情報W3A以外の幾つかの総合音制御情報が学習メモリ54に保存されている状態を想定し、この想定状態の下における制御段階動作の説明を行う。図26は、第10実施例に係る制御段階動作の手順を表すフローチャートであり、制御段階動作ではステップS81〜S84の各処理が実行される。
[Control stage operation]
For the category combination “first and second registered persons”, the integrated sound control information W3 A of FIG. 25 based on the element
制御段階動作においてシャッタ操作が成されると、ステップS81において、新たな対象入力画像が撮影される一方で評価用画像に対して被写体検出部51による検出処理が成される。ここにおける評価用画像は、通常、ステップS81にて撮影される対象入力画像である。但し、制御段階動作中に得られた入力画像であって且つステップS81の対象入力画像の撮影前に撮影された入力画像(例えば、ステップS81の対象入力画像の撮影直前に撮影された入力画像)を、評価用画像としても良い。被写体検出部51は、評価用画像の画像信号に基づき、評価用画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する。これにより、上述と同様の方法にて、評価用画像についてのカテゴリ組み合わせが決定する。
When the shutter operation is performed in the control stage operation, in step S81, a new target input image is captured, while the
ステップS81に続くステップS82において、音響信号処理部15は、評価用画像のカテゴリ組み合わせに一致するカテゴリ組み合わせの総合音制御情報を、学習メモリ54から読み出す。例えば、評価用画像の組み合わせカテゴリが「第1及び第2登録人物」であったならば情報W3Aが読み出され、評価用画像の組み合わせカテゴリが「第3及び第4登録人物」であったならば組み合わせカテゴリ「第3及び第4登録人物」に対応する総合音制御情報が読み出される。以下では、評価用画像が図27の画像650である場合を考える。更に、評価用画像650は、ステップS81にて撮影される対象入力画像であるとする。画像上650には第1登録人物である被写体651及び第2登録人物である被写体652の画像信号が存在している。そうすると、評価用画像650の組み合わせカテゴリは「第1及び第2登録人物」となるため、ステップS82において総合音制御情報W3Aが読み出される。以下、ステップS82にて読み出される総合音制御情報を、読み出し音制御情報とも呼ぶ。図27の画像650上の被写体領域661及び662は、夫々、被写体651及び652の画像信号が存在する画像領域である。
In step S <b> 82 following step S <b> 81, the acoustic
ステップS82の読み出し処理の後、ステップS83において、音響信号処理部15は、ステップS81にて撮影される対象入力画像の撮影時刻を基準とした抽出期間P650を設定し、ステップS81の対象入力画像に対応付けられるべき対象音響信号SD650を生成する。対象音響信号SD650の生成方法は上述した通りであるが、対象音響信号SD650は、読み出し音制御情報に規定された条件に従って生成される。
After the reading process in step S82, in step S83, the acoustic
今、読み出し音制御情報が情報W3Aであることが想定されているため(図25参照)、強調対象被写体が第1登録人物であるとみなした上で抽出期間P650中の左原信号及び右原信号に上述の特定方向強調制御を施すことで対象音響信号SD650を生成する。対象入力画像と評価用画像650が同じである場合、評価用画像650と一致する対象入力画像上における被写体領域661の位置と、ステップS81の対象入力画像の撮影時刻における焦点距離(撮像部11の焦点距離)から、撮像装置1から見た被写体651の方向を推定し、推定方向から到来する音の信号成分(即ち、音源としての被写体651から到来する音の信号成分)が強調されるように対象音響信号SD650を生成する。尚、上記の想定とは異なるが、仮に読み出し音制御情報における制御ON/OFF情報が「OFF」であるならば、スレテオ化制御によって抽出期間P650中の左原信号及び右原信号から対象音響信号SD650が生成される。
Now, since it reads sound control information is information W3 A is assumed (see Fig. 25), the left original signal during the extraction period P 650 on the emphasis target object is considered to be the first registered person and The target acoustic signal SD 650 is generated by performing the above-described specific direction emphasis control on the right original signal. When the target input image and the
その後、ステップS84では、ステップS81にて撮影された対象入力画像の画像信号とステップS83にて生成された対象音響信号が互いに対応付けられて外部メモリ18に記録される。
Thereafter, in step S84, the image signal of the target input image taken in step S81 and the target acoustic signal generated in step S83 are associated with each other and recorded in the
学習メモリ54に記録された音制御情報には、ユーザの音に関する嗜好性が反映されている。制御段階動作では、現時点の被写体のカテゴリに応じた音制御情報を学習メモリ54から読み出すことで、ユーザの嗜好性に適合した音の特徴を自動的に再現する。これにより、ユーザの利便性向上が図られる。
The sound control information recorded in the
尚、上述の具体的動作例では個人認識処理の利用が想定されているが、個人認識処理の利用がない状態でも同様の処理が可能である。例えば、学習段階動作中に得られた対象入力画像のカテゴリ組み合わせが「人物及び犬」であるときに人物が強調対象被写体として指定されると、「ON」の制御ON/OFF情報と「人物」の強調対象情報を内包する音制御情報が作成され、その音制御情報がカテゴリ組み合わせ「人物及び犬」に関連付けられた状態で学習メモリ54に保存される。対象入力画像の撮影の繰り返しによって、カテゴリ組み合わせ「人物及び犬」についての総合音制御情報が学習メモリ54上に生成された後、制御段階動作のステップS81においてカテゴリ組み合わせが「人物及び犬」となる対象入力画像(又は評価用画像)が撮影されると、カテゴリ組み合わせ「人物及び犬」に対応する総合音制御情報が読み出し音制御情報として読み出される。そして、その読み出し音制御情報における制御ON/OFF情報及び強調対象情報が夫々「ON」及び「人物」であるならば、ステップS81の対象入力画像上の人物を強調対象被写体とみなした上で特定方向強調制御を用いてステップS83の対象音響信号を生成すればよい。
In the above-described specific operation example, the use of the personal recognition process is assumed, but the same process can be performed even when the personal recognition process is not used. For example, if a person is designated as an object to be emphasized when the category combination of the target input image obtained during the learning stage operation is “person and dog”, control ON / OFF information of “ON” and “person” are designated. The sound control information including the emphasis target information is created, and the sound control information is stored in the
また、上述の方法を動画像に対しても適用することができる。対象動画像の画像信号に基づき対象動画像上の被写体の検出及びカテゴリ分類を行うことで、静止画像としての対象入力画像と同様、対象動画像のカテゴリ組み合わせも設定することができる。対象動画像の撮影の繰り返しによって、カテゴリ組み合わせ「人物及び犬」についての総合音制御情報が学習メモリ54上に生成された後、制御段階動作においてカテゴリ組み合わせが「人物及び犬」となる対象動画像が撮影されると、カテゴリ組み合わせ「人物及び犬」に対応する総合音制御情報が読み出し音制御情報として読み出される。そして、その読み出し音制御情報における制御ON/OFF情報及び強調対象情報が夫々「ON」及び「人物」であるならば、制御段階動作中に撮影される対象動画像上の人物を強調対象被写体とみなした上で特定方向強調制御を用いて対象音響信号を生成すればよい。この場合、強調対象被写体からの音を追尾したような対象音響信号が生成されて対象動画像に対応付けられる。
The above-described method can also be applied to moving images. By performing subject detection and category classification on the target moving image based on the image signal of the target moving image, a category combination of the target moving image can be set as in the case of the target input image as a still image. After the comprehensive sound control information for the category combination “person and dog” is generated on the learning
尚、第10実施例で述べた方法は、他の実施例で述べた方法と組み合わせて実施することができる。 The method described in the tenth embodiment can be implemented in combination with the methods described in other embodiments.
<<第11実施例>>
第11実施例を説明する。学習段階動作において、学習段階動作から制御段階動作へ移行するために必要な残りの学習回数をユーザに提示するようにしても良い。
<< Eleventh embodiment >>
An eleventh embodiment will be described. In the learning phase operation, the remaining number of learnings necessary for shifting from the learning phase operation to the control phase operation may be presented to the user.
例えば、第1実施例においてカテゴリ組み合わせが「人物及び山」である対象入力画像をあとm1回撮影すれば学習段階動作から制御段階動作へ移行することができる場合、m1回を示す第1指標を、表示部27に表示すると良い(m1は自然数)。LNUM=3であって且つ図9の特徴情報305及び305aのみが学習メモリ54に記録されている場合には、m1=1である。
同様に例えば、第8実施例においてカテゴリ組み合わせが「人物及び山」である対象入力画像をあとm2回撮影すれば学習段階動作から制御段階動作へ移行することができる場合、m2回を示す第2指標を、表示部27に表示すると良い(m2は自然数)。LNUM=3であって且つ図18の生成条件情報505及び505aのみが学習メモリ54に記録されている場合には、m2=1である。
同様に例えば、第10実施例においてカテゴリ組み合わせが「第1及び第2登録人物」である対象入力画像をあとm3回撮影すれば学習段階動作から制御段階動作へ移行することができる場合、m3回を示す第3指標を、表示部27に表示すると良い(m3は自然数)。LNUM=3であって且つ図25の音制御情報605及び605aのみが学習メモリ54に記録されている場合には、m3=1である。
m1〜m3の値は、学習メモリ54の記録内容を参照すれば容易に判明する。
For example, if the can transition category combinations to control stage operation from the learning stage operation when photographing once more m the target input image is a "person and mountains" in the first embodiment, the indicating once
Similarly, for example, if the target input image whose category combination is “person and mountain” is photographed m 2 more times in the eighth embodiment, the learning phase operation can be shifted to the control phase operation, indicating m 2 times. The second index may be displayed on the display unit 27 (m 2 is a natural number). When L NUM = 3 and only the
Similarly, for example, in the tenth embodiment, if the target input image whose category combination is “first and second registered persons” is photographed m 3 more times, the learning stage operation can be shifted to the control stage operation. A third index indicating 3 times may be displayed on the display unit 27 (m 3 is a natural number). When L NUM = 3 and only the
The values of m 1 to m 3 can be easily determined by referring to the recorded contents of the learning
上記の第1指標を、図28(a)に示すように文字で構成しても良いし、或いは、図28(b)に示すように図形で構成しても良いし、或いは、文字と図形の組み合わせで構成しても良い。第2及び第3指標についても同様である。図28(a)及び(b)は、第1指標が表示されている状態の表示画面例を示す図である。特に記述なき限り、表示画面とは、表示部27の表示画面を指す。また、上述の複数の実施例(例えば、第1、第8及び第10実施例)の動作を実現可能なように撮像装置1が形成されている場合には、第1〜第3指標の内の2以上の指標を同時に表示するようにしても良い。
The first index may be composed of characters as shown in FIG. 28 (a), may be composed of figures as shown in FIG. 28 (b), or may be composed of characters and figures. You may comprise by the combination of these. The same applies to the second and third indices. FIGS. 28A and 28B are diagrams illustrating display screen examples in a state where the first index is displayed. Unless otherwise specified, the display screen refers to the display screen of the
<<第12実施例>>
第12実施例を説明する。第12実施例では、マニュアル操作に関する第8実施例に適用可能な技術を説明する。
<< Twelfth embodiment >>
A twelfth embodiment will be described. In the twelfth embodiment, a technique applicable to the eighth embodiment regarding manual operation will be described.
説明の便宜上、第12実施例では、各生成条件情報に、感度情報及び手ぶれ補正情報に加えて、鮮鋭化条件を表す鮮鋭化情報が含まれていることを想定する(鮮鋭化条件の意義は、第8実施例で述べられている)。 For convenience of explanation, in the twelfth embodiment, it is assumed that each generation condition information includes sharpening information representing a sharpening condition in addition to sensitivity information and camera shake correction information (the significance of the sharpening condition is , Described in the eighth embodiment).
ユーザは、学習段階動作においてマニュアル操作を成すことで、各対象入力画像の感度条件、鮮鋭化条件及び手ぶれ補正ON/OFF条件の全部又は一部を初期条件から変更することができる。それらの変更が成された際、図15のメモリ制御部53は、変更が成された条件が何であるか及び条件ごとの変更回数を学習メモリ54の付加情報に記録しておく。CPU23は、その付加情報に基づき、ユーザが比較的頻繁に変更する条件を特定条件として設定する。そして、特定条件の設定後には、特定条件の変更が容易となるようなユーザインターフェースを実現する。
The user can change all or a part of the sensitivity condition, the sharpening condition, and the camera shake correction ON / OFF condition of each target input image from the initial conditions by performing a manual operation in the learning stage operation. When those changes are made, the
具体例を説明する。学習段階動作の開始直後において、カテゴリ組み合わせが「人物及び山」となる入力画像が撮影されると、図29(a)に示す如く、単に該入力画像が表示部27に表示される。仮に、この状態において、ユーザが感度条件の変更を希望する場合、感度条件、鮮鋭化条件及び手ぶれ補正ON/OFF条件を変更可能な操作メニューを表示させるための第1操作を成した後、感度条件、鮮鋭化条件及び手ぶれ補正ON/OFF条件の中から感度条件を選択する第2操作と、ISO感度の具体的数値を指定するための第3操作を順次成す必要がある。この第1〜第3操作から成る一連の操作を総称して基本操作と呼ぶ。
A specific example will be described. Immediately after the start of the learning stage operation, when an input image with the category combination “person and mountain” is photographed, the input image is simply displayed on the
学習段階動作において、カテゴリ組み合わせが「人物及び山」となるn枚の対象入力画像が撮影されたとし、そのn枚の対象入力画像の撮影時の夫々において、対象入力画像の生成条件を変更するためのマニュアル操作が成されたものとする(nは2以上の整数)。但し、この変更は感度条件のみに対する変更であり、鮮鋭化条件はn枚の対象入力画像間で一定であったとする。この場合、CPU23は、学習メモリ54の付加情報に基づき、感度条件に対する変更回数(即ちn回)が、鮮鋭化条件及び手ぶれ補正ON/OFF条件に対する変更回数(即ち0回)よりも多いと判断し、結果、感度条件を特定条件に設定する。そして、その設定後、制御段階動作(又は学習段階動作)において、カテゴリ組み合わせが「人物及び山」となる入力画像が取得された場合、撮像装置1は、図29(b)に示す如く、表示部27上に入力画像と共に操作アイコン721を表示させる(例えば入力画像上に操作アイコン721を重畳表示させる)。図29(b)は、操作アイコン721が表示されている状態の表示画面である。ユーザは、操作部26に対する操作やタッチパネル操作により操作アイコン721を選択した後、第3操作のみを成すことで感度情報の指定を完了することができる。即ち、ユーザによる第1操作が不要となり、また、基本操作と比べて第2操作も簡単となる。尚、上述の想定とは異なるが、鮮鋭化条件に対する変更回数も比較的多いならば、鮮鋭化条件の変更指示用のアイコン(不図示)も操作アイコン721に並んで表示される。
In the learning stage operation, n target input images having a category combination of “person and mountain” are captured, and the generation conditions of the target input images are changed at the time of capturing the n target input images. It is assumed that a manual operation is performed (n is an integer of 2 or more). However, this change is a change with respect to only the sensitivity condition, and it is assumed that the sharpening condition is constant among n target input images. In this case, the
ユーザにより操作アイコン721が選択された場合、CPU23は、学習メモリ54内の各感度情報から、ユーザが比較的頻繁に設定するISO感度の値を抽出し、その抽出結果を用いた表示を表示部27に行わせる。例えば、上記n枚の対象入力画像の撮影時におけるISO感度が、ISO50又はISO100であった場合、操作アイコン721を選択する操作を受けると、図29(b)の表示画面を図29(c)の表示画面に変更する。図29(c)の表示画面では、「ISO50」についてのアイコン731と「ISO100」についてのアイコン732が現在の入力画像と共に示されている。
When the operation icon 721 is selected by the user, the
図29(c)の表示が成されている状態において、ユーザは、アイコン731を選択する操作を成すだけで現在のISO感度を「ISO50」に設定することができ、或いは、アイコン732を選択する操作を成すだけで現在のISO感度を「ISO100」に設定することができる。この設定内容は、即時、入力画像の生成条件に反映されるため、ユーザは反映結果を表示画面上で容易に確認することができる。基本操作における第3操作では、3以上(10個程度)のISO感度の中から希望のISO感度を選択する必要があるが、図29(c)に示すような表示を成すことで第3操作が基本操作よりも簡単となる。
In the state where the display of FIG. 29C is made, the user can set the current ISO sensitivity to “ISO50” simply by performing an operation of selecting the
また、図29(c)の表示を成す場合において、比較的頻繁に設定されるISO感度のアイコンが表示画面の上方に配置されるように、表示画面上におけるアイコン731及び732の並び方を学習メモリ54内の各感度情報に基づいて決定するようにしても良い。例えば、上記n枚の対象入力画像の内、n1枚の対象入力画像についてのISO感度が「ISO50」であって且つn2枚の対象入力画像についてのISO感度が「ISO100」である場合において(n1及びn2は整数であってn1+n2=n)、n1>n2なら、図29(c)に示す如く表示画面上においてアイコン731をアイコン732よりも上方に表示し、逆に、n2>n1なら、表示画面上においてアイコン732をアイコン731よりも上方に表示すると良い。これにより、より頻繁に設定されるISO感度が、より少ない操作数で選択できるようになる。尚、ここでは、表示画面上において上方に配置されているアイコンの方が下方に配置されているアイコンよりも少ない操作数で選択できることを想定している。
Further, in the case of the display of FIG. 29C, the learning memory is used to arrange the
<<第13実施例>>
第13実施例を説明する。上述の特徴情報、生成条件情報及び音制御情報(図9、図18及び図25参照)を、まとめて学習情報と呼ぶことができる。上述してきた方法では、カテゴリ組み合わせごとに学習情報を生成してゆくため、全てのカテゴリ組み合わせについての学習情報を生成するまでに相応の時間(相応の撮影回数)を要し、分類検出されるカテゴリの種類が多くなると、その時間も長期化する。
<< Thirteenth embodiment >>
A thirteenth embodiment will be described. The above-described feature information, generation condition information, and sound control information (see FIGS. 9, 18, and 25) can be collectively referred to as learning information. In the method described above, learning information is generated for each category combination. Therefore, it takes a certain amount of time (corresponding to the number of times of photographing) to generate learning information for all category combinations, and the category that is classified and detected. As the number of types increases, the time also increases.
第13実施例では、学習情報の生成に必要な時間(撮影回数)を短縮するための技術を説明する。第13実施例で述べた技術は、上述してきた任意の実施例に適用することができる。説明の簡略化上、カテゴリ組み合わせを形成するカテゴリの個数が2であるとし、また、本実施例の技術を第1実施例に係る特徴情報に適用する方法を説明する。 In the thirteenth embodiment, a technique for reducing the time (number of times of photographing) necessary for generating learning information will be described. The technique described in the thirteenth embodiment can be applied to any of the embodiments described above. For simplification of description, it is assumed that the number of categories forming the category combination is 2, and a method of applying the technique of this embodiment to the feature information according to the first embodiment will be described.
今、図30(a)〜(c)に示す総合特徴情報801及び802と特徴情報803が、学習メモリ54に保存されていることを想定する。
Assume that the
総合特徴情報801は、カテゴリ組み合わせ「自動車及び山」に対する総合特徴情報であり、総合特徴情報802は、カテゴリ組み合わせ「自動車及び人物」に対する総合特徴情報である。総合特徴情報801において、フォーカス情報、サイズ情報及び位置情報は、夫々、「自動車」、「SIZE1」及び「BL5」であり、総合特徴情報802において、フォーカス情報、サイズ情報及び位置情報は、夫々、「自動車」、「SIZE2」及び「BL6」である。また、総合特徴情報801は、カテゴリ組み合わせ「自動車及び山」についてのN1個の要素特徴情報に基づいて作成されたものとし、総合特徴情報802は、カテゴリ組み合わせ「自動車及び人物」についてのN2個の要素特徴情報に基づいて作成されたものとする。即ち、総合特徴情報801及び802の学習回数は夫々N1及びN2である(N1及びN2は自然数)。
The
第13実施例では、単一のカテゴリについての特徴情報も特徴情報生成部52(図4参照)において生成されて、学習メモリ54に保存されるものとする。図30(c)の学習情報803は、単一のカテゴリについての特徴情報である。学習段階動作において被写体検出部51及び特徴情報生成部52により、或る対象入力画像から自動車のみが検出され、且つ、その対象入力画像の合焦被写体が自動車であることが検出され、且つ、その対象入力画像上における自動車の大きさ(自動車の被写体領域の画像サイズ)がSIZE3であることが検出され、且つ、その対象入力画像上における自動車の位置がブロックBL5に属していると検出されたものとする。そうすると、特徴情報生成部52は、フォーカス情報、サイズ情報及び位置情報が夫々「自動車」、「SIZE3」及び「BL5」となる特徴情報803を生成し、特徴情報803は単一のカテゴリ「自動車」に関連付けられて学習メモリ54に保存される。
In the thirteenth embodiment, feature information for a single category is also generated by the feature information generation unit 52 (see FIG. 4) and stored in the
学習メモリ54に、情報801〜803のみが保存されている状態において、特徴情報生成部52は、情報801〜803に基づき、カテゴリ組み合わせ「人物及び山」に対する特徴情報804を擬似的に生成することができる。図31に、擬似的に生成された特徴情報804を示す。この生成は、以下のように成される。
In a state where only the
特徴情報生成部52は、まず、情報801及び802に基づき、ピントが合わせられるべき被写体の優先順位を判断し、その判断結果から、特徴情報804のフォーカス情報を生成する。情報801〜803の生成を実現したユーザにとっては、山よりも自動車の方にピントを合わせることの方が好ましいことが情報801から推定されると共に、人物よりも自動車の方にピントを合わせることの方が好ましいことが情報802から推定される。従って、自動車、人物及び山の内、自動車の優先順位が最も高い。一方で、人物と山との間の優劣は、情報801及び802だけでは推定できない。但し、人物と人物以外の被写体とを比較した場合、通常は、人物の方にピントを合わせることが望まれやすい。これを考慮し、特徴情報生成部52は、特徴情報804のフォーカス情報を「人物」とする。尚、上述の想定とは異なるが、仮に情報801のフォーカス情報が「山」であるのであれば、情報802をも参照すると優先順位は「山>自動車>人物」となるため、特徴情報804のフォーカス情報は「山」とされる。以下では、特徴情報804のフォーカス情報は「人物」であるとする。
The feature
情報801におけるサイズ情報SIZE1は、画像上における、山の大きさを基準とした自動車の大きさである、と考えることもできる。同様に、情報802におけるサイズ情報SIZE2は、画像上における、人物の大きさを基準とした自動車の大きさである、と考えることもできる。これを考慮すれば、SIZE1とSIZE2の比から、山の大きさを基準とした人物の大きさを推定することができる。但し、この際、自動車の大きさの基準値として、特徴情報803のサイズ情報SIZE3を用いる。即ち、“SIZE4=(SIZE1/SIZE2)×SIZE3”に従って求められたサイズ情報SIZE4を、特徴情報804のサイズ情報とすることができる。
The size information SIZE 1 in the
情報801及び802の位置情報から、合焦被写体の配置位置の好み(ユーザの好み)を推定することができる。仮に、情報801及び802間で位置情報が同じならば、それらと同じ位置情報を特徴情報804に含めれば足るが、位置情報が情報801及び802間で異なる場合、学習回数が多いほうの位置情報を特徴情報804の位置情報として採用する。本例では、N1>N2であることを想定する。そうすると、情報801の位置情報BL5が特徴情報804の位置情報に代入される(仮に、N1<N2であれば、情報802の位置情報BL6が特徴情報804の位置情報に代入される)。
From the position information of the
特徴情報804の生成後、特徴情報804を総合特徴情報とみなして学習段階動作から制御段階動作へ移行することができ、制御段階動作においてカテゴリ組み合わせが「人物及び山」となる入力画像が評価用画像として取得されたならば(図10)、特徴情報804を読み出し特徴情報として学習メモリ54から読み出して第1実施例で述べた動作を成すことができる。
After the generation of the
ここで、擬似的に生成された特徴情報804の学習回数N4は、便宜上、0<N4<1を満たすように設定される(例えば、N4=0.5)。このように設定しておくことで、制御段階動作において、人物、山及び自動車が同時に被写体に含められたとき、第6実施例の方法よって特徴情報804が読み出し特徴情報として読み出されることはない(この場合、N1>N2>N4なので、第6実施例の方法によって特徴情報801が読み出し特徴情報として読み出される)。
Here, the number of learning times N 4 of the artificially generated
特徴情報804の生成後、カテゴリ組み合わせが「人物及び山」となる対象入力画像が実際に撮影されたならば、その対象入力画像に基づく特徴情報が生成される。この際、特徴情報804を破棄して、その対象入力画像に基づく特徴情報をカテゴリ組み合わせ「人物及び山」の特徴情報として学習メモリ54に保存することができる。この場合、カテゴリ組み合わせ「人物及び山」についての学習回数N4は1に変更される。或いは、その対象入力画像に基づく特徴情報と特徴情報804から、カテゴリ組み合わせ「人物及び山」についての特徴情報を再作成するようにしてもよい(換言すれば、対象入力画像に基づく特徴情報を用いて特徴情報804を修正するようにしても良い)。この場合、N4=1、又は、1<N4<2とされる。
After the
特徴情報を擬似的に生成する方法を説明したが、同様にして、生成条件情報及び音制御情報(図18及び図25参照)も擬似的に生成することが可能である。 Although the method of generating feature information in a pseudo manner has been described, generation condition information and sound control information (see FIGS. 18 and 25) can also be generated in a similar manner.
<<変形等>>
上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values.
図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい。
The
1 撮像装置
11 撮像部
13 画像信号処理部
14 マイク部
15 音響信号処理部
30 ズームレンズ
31 フォーカスレンズ
32 絞り
33 撮像素子
51 被写体検出部
52 特徴情報生成部
53 メモリ制御部
54 学習メモリ
55 撮影制御部
56 生成条件情報生成部
58 シーン判定部
DESCRIPTION OF
Claims (6)
前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、
当該撮像装置は、
前記撮像素子の出力信号に基づく画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、
前記第1対象画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせを特定組み合わせとし、前記第1対象画像の特徴又は前記第1対象画像の生成条件に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、
前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像を評価用画像とし、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像の生成を行う撮影制御部と、を備えた
ことを特徴とする撮像装置。 In an imaging apparatus that has an image sensor that outputs a signal obtained by photoelectrically converting an optical image of a subject and generates a target image from an output signal of the image sensor that is obtained when a predetermined operation is performed.
By repeating the predetermined operation, a plurality of target images including the first and second target images are generated, and the second target image is generated after the first target image,
The imaging device
A subject detection unit that classifies and detects each subject present on the image based on the output signal of the image sensor into any of a plurality of categories;
A combination of detection categories of the subject detection unit for a plurality of subjects on the first target image is set as a specific combination, and learning information according to characteristics of the first target image or generation conditions of the first target image is used as the specific combination. A memory part to be stored in association with
An image based on an output signal of the image sensor after generation of the first target image and before generation of the second target image is used as an evaluation image, and a detection category of the subject detection unit for a plurality of subjects on the evaluation image An imaging apparatus comprising: an imaging control unit configured to generate the second target image using the learning information when the combination matches the specific combination.
前記第1対象画像上の複数の被写体の内、何れのカテゴリの被写体にピントがあっているかを表すフォーカス情報を含む
ことを特徴とする請求項1に記載の撮像装置。 The learning information is information corresponding to the characteristics of the first target image,
The imaging apparatus according to claim 1, further comprising: focus information indicating which category of subjects in the plurality of subjects on the first target image is in focus.
前記学習情報は、前記第1対象画像の生成条件に応じた情報である
ことを特徴とする請求項1に記載の撮像装置。 The imaging apparatus further includes an operation unit that receives specification of a generation condition of the first target image, and generates the first target image according to the generation condition of the first target image specified via the operation unit. ,
The imaging apparatus according to claim 1, wherein the learning information is information according to a generation condition of the first target image.
前記第1対象画像の特徴に応じた前記学習情報に基づき、前記第2対象画像が前記第1対象画像の特徴に応じた特徴を有するように、前記第2対象画像に対するフォーカス制御及びズーム制御を行う、或いは、
前記第1対象画像の生成条件に応じた前記学習情報に基づき、前記第1対象画像の生成条件に応じた生成条件にて前記第2対象画像を生成する
ことを特徴とする請求項1〜請求項3の何れかに記載の撮像装置。 When the combination of detection categories of the subject detection unit for the plurality of subjects on the evaluation image matches the specific combination,
Based on the learning information according to the characteristics of the first target image, focus control and zoom control for the second target image are performed so that the second target image has characteristics according to the characteristics of the first target image. Do or
The second target image is generated under a generation condition according to the generation condition of the first target image based on the learning information according to the generation condition of the first target image. Item 4. The imaging device according to any one of Items 3 to 3.
前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、
当該撮像装置は、
前記撮像素子の出力信号に基づく画像上に存在する被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、
前記撮像素子の出力信号に基づく画像の撮影シーンを複数の登録シーンの中から選択することで判定するシーン判定部と、
前記第1対象画像上の被写体に対する前記被写体検出部の検出カテゴリと前記第1対象画像に対する前記シーン判定部の判定シーンとの組み合わせを特定組み合わせとし、前記第1対象画像の特徴又は前記第1対象画像の生成条件に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、
前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像を評価用画像とし、前記評価用画像上の被写体に対する前記被写体検出部の検出カテゴリと前記評価用画像に対する前記シーン判定部の判定シーンとの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像の生成を行う撮影制御部と、を備えた
ことを特徴とする撮像装置。 In an imaging apparatus that has an image sensor that outputs a signal obtained by photoelectrically converting an optical image of a subject and generates a target image from an output signal of the image sensor that is obtained when a predetermined operation is performed.
By repeating the predetermined operation, a plurality of target images including the first and second target images are generated, and the second target image is generated after the first target image,
The imaging device
A subject detection unit for classifying and detecting a subject existing on an image based on an output signal of the image sensor into any of a plurality of categories;
A scene determination unit for determining by selecting a shooting scene of an image based on an output signal of the image sensor from a plurality of registered scenes;
The combination of the detection category of the subject detection unit for the subject on the first target image and the determination scene of the scene determination unit for the first target image is a specific combination, and the characteristics of the first target image or the first target A memory unit that stores learning information according to image generation conditions in association with the specific combination;
An image based on an output signal of the imaging element after the generation of the first target image and before the generation of the second target image is used as an evaluation image, and the detection category of the subject detection unit for the subject on the evaluation image and the A shooting control unit configured to generate the second target image using the learning information when a combination of the determination scene of the scene determination unit with respect to the evaluation image matches the specific combination; An imaging device.
前記所定操作の繰り返しにより第1及び第2対象画像を含む複数の対象画像が生成され、前記第2対象画像は前記第1対象画像よりも後に生成され、
当該撮像装置は、
前記撮像素子の出力信号に基づく画像上に存在する各被写体を複数のカテゴリの何れかに分類して検出する被写体検出部と、
前記第1対象画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせを特定組み合わせとし、前記第1対象画像に対応付けられた対象音響信号の特徴に応じた学習情報を前記特定組み合わせに関連付けて保存するメモリ部と、
前記第1対象画像の生成後且つ前記第2対象画像の生成前における前記撮像素子の出力信号に基づく画像又は前記第2対象画像を評価用画像とし、前記評価用画像上の複数の被写体に対する前記被写体検出部の検出カテゴリの組み合わせが前記特定組み合わせと一致する場合、前記学習情報を用いて前記第2対象画像に対応付けられるべき対象音響信号の生成を行う対象音響信号生成部と、を備えた
ことを特徴とする撮像装置。 An image sensor that outputs a signal obtained by photoelectrically converting an optical image of a subject and a microphone unit that includes a plurality of microphones, and generates a target image from an output signal of the image sensor when a predetermined operation is performed. In the imaging device that generates a target acoustic signal based on the output acoustic signals of the plurality of microphones and associates the target acoustic signal with the target image,
By repeating the predetermined operation, a plurality of target images including the first and second target images are generated, and the second target image is generated after the first target image,
The imaging device
A subject detection unit that classifies and detects each subject present on the image based on the output signal of the image sensor into any of a plurality of categories;
A combination of detection categories of the subject detection unit for a plurality of subjects on the first target image is set as a specific combination, and learning information corresponding to the characteristics of the target acoustic signal associated with the first target image is set as the specific combination. A memory portion to store in association;
An image based on an output signal of the imaging element after the generation of the first target image and before the generation of the second target image or the second target image is used as an evaluation image, and the plurality of subjects on the evaluation image are selected. A target acoustic signal generation unit configured to generate a target acoustic signal to be associated with the second target image using the learning information when a combination of detection categories of the subject detection unit matches the specific combination. An imaging apparatus characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010017984A JP2011160044A (en) | 2010-01-29 | 2010-01-29 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010017984A JP2011160044A (en) | 2010-01-29 | 2010-01-29 | Imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011160044A true JP2011160044A (en) | 2011-08-18 |
Family
ID=44591662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010017984A Pending JP2011160044A (en) | 2010-01-29 | 2010-01-29 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011160044A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013190756A (en) * | 2012-03-15 | 2013-09-26 | Omron Corp | Photographing device, photographing device controlling method, photographing device controlling program, and computer-readable recording medium in which said program is recorded |
JP2014036257A (en) * | 2012-08-07 | 2014-02-24 | Nikon Corp | Reproduction processing apparatus, imaging apparatus, and reproduction processing program |
JP2015141262A (en) * | 2014-01-28 | 2015-08-03 | カシオ計算機株式会社 | Imaging device, imaging method, and program |
JP2016061884A (en) * | 2014-09-17 | 2016-04-25 | カシオ計算機株式会社 | Photographing device, photographing method, and program |
JP2017204869A (en) * | 2017-06-29 | 2017-11-16 | 株式会社ニコン | Reproduction processing apparatus, imaging apparatus, and reproduction processing program |
JP2018113660A (en) * | 2017-01-13 | 2018-07-19 | キヤノン株式会社 | Information processing device, information processing method, and system |
JP2019118097A (en) * | 2017-12-26 | 2019-07-18 | キヤノン株式会社 | Image processing method, image processing system, imaging apparatus, program, storage medium |
WO2020045598A1 (en) * | 2018-08-31 | 2020-03-05 | ソニーセミコンダクタソリューションズ株式会社 | Electronic apparatus and solid-state image capture device |
JP2020156076A (en) * | 2019-03-13 | 2020-09-24 | パナソニックIpマネジメント株式会社 | Photographing device |
WO2022004303A1 (en) * | 2020-06-30 | 2022-01-06 | 富士フイルム株式会社 | Information processing device, learning machine, imaging device, information processing device control method and program |
US11463615B2 (en) | 2019-03-13 | 2022-10-04 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus |
-
2010
- 2010-01-29 JP JP2010017984A patent/JP2011160044A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013190756A (en) * | 2012-03-15 | 2013-09-26 | Omron Corp | Photographing device, photographing device controlling method, photographing device controlling program, and computer-readable recording medium in which said program is recorded |
US9253408B2 (en) | 2012-03-15 | 2016-02-02 | Omron Corporation | Photographing device, photographing device controlling method, photographing device controlling program, and computer-readable recording medium in which photographing device controlling program is recorded |
JP2014036257A (en) * | 2012-08-07 | 2014-02-24 | Nikon Corp | Reproduction processing apparatus, imaging apparatus, and reproduction processing program |
JP2015141262A (en) * | 2014-01-28 | 2015-08-03 | カシオ計算機株式会社 | Imaging device, imaging method, and program |
US9936120B2 (en) | 2014-01-28 | 2018-04-03 | Casio Computer Co., Ltd. | Image capture apparatus performing interval shooting, image capture method and storage medium |
JP2016061884A (en) * | 2014-09-17 | 2016-04-25 | カシオ計算機株式会社 | Photographing device, photographing method, and program |
JP2018113660A (en) * | 2017-01-13 | 2018-07-19 | キヤノン株式会社 | Information processing device, information processing method, and system |
JP2017204869A (en) * | 2017-06-29 | 2017-11-16 | 株式会社ニコン | Reproduction processing apparatus, imaging apparatus, and reproduction processing program |
JP2019118097A (en) * | 2017-12-26 | 2019-07-18 | キヤノン株式会社 | Image processing method, image processing system, imaging apparatus, program, storage medium |
WO2020045598A1 (en) * | 2018-08-31 | 2020-03-05 | ソニーセミコンダクタソリューションズ株式会社 | Electronic apparatus and solid-state image capture device |
EP3846442A4 (en) * | 2018-08-31 | 2021-09-15 | Sony Semiconductor Solutions Corporation | Electronic apparatus and solid-state image capture device |
JPWO2020045598A1 (en) * | 2018-08-31 | 2021-09-24 | ソニーセミコンダクタソリューションズ株式会社 | Electronic equipment and solid-state image sensor |
JP7386792B2 (en) | 2018-08-31 | 2023-11-27 | ソニーセミコンダクタソリューションズ株式会社 | Electronic equipment and solid-state imaging devices |
US11889177B2 (en) | 2018-08-31 | 2024-01-30 | Sony Semiconductor Solutions Corporation | Electronic device and solid-state imaging device |
JP2020156076A (en) * | 2019-03-13 | 2020-09-24 | パナソニックIpマネジメント株式会社 | Photographing device |
US11463615B2 (en) | 2019-03-13 | 2022-10-04 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus |
JP7217471B2 (en) | 2019-03-13 | 2023-02-03 | パナソニックIpマネジメント株式会社 | Imaging device |
WO2022004303A1 (en) * | 2020-06-30 | 2022-01-06 | 富士フイルム株式会社 | Information processing device, learning machine, imaging device, information processing device control method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011160044A (en) | Imaging device | |
US8570422B2 (en) | Apparatus, method, and recording medium containing program for photographing | |
JP4957943B2 (en) | Imaging apparatus and program thereof | |
US7668451B2 (en) | System for and method of taking image | |
US7652714B2 (en) | Imaging device and image processing method | |
US20110007187A1 (en) | Imaging Device And Image Playback Device | |
US20010035909A1 (en) | Image recording apparatus and method | |
US20110102621A1 (en) | Method and apparatus for guiding photographing | |
CN103227902A (en) | Imaging device, display control method, and program | |
KR101739379B1 (en) | Digital photographing apparatus and control method thereof | |
JP4974812B2 (en) | Electronic camera | |
EP2573758B1 (en) | Method and apparatus for displaying summary video | |
JP2007215091A (en) | Imaging apparatus and program therefor | |
US8081804B2 (en) | Electronic camera and object scene image reproducing apparatus | |
JP4639965B2 (en) | Imaging apparatus, image processing method, and program | |
US8687076B2 (en) | Moving image photographing method and moving image photographing apparatus | |
KR101737086B1 (en) | Digital photographing apparatus and control method thereof | |
US7796163B2 (en) | System for and method of taking image based on objective body in a taken image | |
JP4683337B2 (en) | Image display device and image display method | |
KR20120011920A (en) | Digital image signal processing apparatus, digital image signal processing method and medium for recording the method | |
JP4591120B2 (en) | Imaging apparatus, autofocus control method, and autofocus control program | |
JP4842232B2 (en) | Imaging apparatus and image reproduction apparatus | |
JP6590681B2 (en) | Image processing apparatus, image processing method, and program | |
JP2008028956A (en) | Imaging apparatus and method for generating image signal for detecting target therein | |
KR101946574B1 (en) | Apparatus and method for reproducing image and computer-readable storage medium |