JP5440588B2 - Composition determination apparatus, composition determination method, and program - Google Patents
Composition determination apparatus, composition determination method, and program Download PDFInfo
- Publication number
- JP5440588B2 JP5440588B2 JP2011245273A JP2011245273A JP5440588B2 JP 5440588 B2 JP5440588 B2 JP 5440588B2 JP 2011245273 A JP2011245273 A JP 2011245273A JP 2011245273 A JP2011245273 A JP 2011245273A JP 5440588 B2 JP5440588 B2 JP 5440588B2
- Authority
- JP
- Japan
- Prior art keywords
- composition
- subject
- subjects
- composition determination
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、例えば静止画としての画像データを対象として、その画内容が有する構図を判定するようにされた装置である、構図判定装置とその方法に関する。また、このような装置が実行するプログラムに関する。 The present invention relates to a composition determination apparatus and method for determining, for example, image data as a still image and determining the composition of the image content. The present invention also relates to a program executed by such a device.
例えば、良い印象を与えることのできる写真を撮影するためのテクニック的な一要素として、構図設定が挙げられる。ここでいう構図は、フレーミングともいわれるもので、例えば写真としての画面内における被写体の配置をいう。
良好な構図とするための一般的、基本的な手法はいくつかあるものの、一般のカメラユーザが良い構図の写真を撮影することは、写真撮影に関する充分な知識、技術を持っていない限り、決して簡単なことではない。このことからすると、例えば良好な構図の写真画像を手軽で簡単に得ることのできる技術構成が求められることになる。
For example, composition setting is one of the technical elements for taking a photo that can give a good impression. The composition here is also referred to as framing, and means, for example, the arrangement of the subject in the screen as a photograph.
Although there are several general and basic methods for achieving a good composition, it is never possible for a general camera user to take a photo with a good composition unless they have sufficient knowledge and skills regarding photography. It ’s not easy. From this, for example, a technical configuration capable of easily and easily obtaining a photographic image having a good composition is required.
例えば特許文献1には、自動追尾装置として、一定時間間隔の画像間の差を検出して、画像間の差の重心を算出し、この重心の移動量、移動方向から被写体画像の撮像画面に対する移動量、移動方向を検出して撮像装置を制御し、被写体画像を撮像画面の基準領域内に設定する技術構成が開示されている。
また、特許文献2には、自動追尾装置として、人物を自動追尾する場合に、人物の顔が画面中央となるように画面上の人物像全体の面積に対してその人物上の上側から20%の面積となる位置を画面中央にして追尾することによって人物の顔を確実に撮影しながら追尾できるようにした技術構成が開示されている。
これらの技術構成を構図決定の観点から見れば、人物としての被写体を自動的に探索して、撮影画面において或る決まった構図でその被写体を配置させることが可能となっている。
For example, in
In
If these technical configurations are viewed from the viewpoint of composition determination, it is possible to automatically search for a subject as a person and place the subject in a certain composition on the shooting screen.
例えば被写体に関する所定の状況、状態などに対応しては、最適構図も異なってくることがあると考えられる。しかし、上記特許文献による技術では、追尾した被写体をある固定的な構図で配置させることしかできない。従って、被写体の状況などに対応して構図を変更して撮影するようなことはできないことになる。
そこで、本願発明では、例えば写真などとしての画像について良好な構図が手軽に得られるようにするための技術を提案することを目指すこととしたうえで、その際において、被写体の状況・状態の変化にも適応してより高度で柔軟性のある構図の決定が行われるようにすることを目的とする。
For example, it is considered that the optimum composition may differ depending on a predetermined situation and state regarding the subject. However, with the technique according to the above-mentioned patent document, it is only possible to arrange the tracked subject with a certain fixed composition. Therefore, it is impossible to change the composition in accordance with the subject situation or the like.
Therefore, in the present invention, for example, the aim is to propose a technique for easily obtaining a good composition for an image such as a photograph. The purpose is to make it possible to determine a more sophisticated and flexible composition.
そこで本発明は上記した課題を考慮して、構図判定装置として次のように構成する。
つまり、画像データに基づく画像中における特定の被写体の存在を検出する被写体検出手段と、上記被写体検出手段により検出された被写体である検出被写体の数に応じて構図を判定する構図判定手段と、を備え、上記構図判定手段は、上記検出被写体の数が所定値以上である場合左右両端に位置する被写体間の距離に基づいて、長方形の上記画像を、縦長と横長の何れとするのかを判定することとした。
In view of the above-described problems, the present invention is configured as follows as a composition determination apparatus.
That is, subject detection means for detecting the presence of a specific subject in an image based on image data, and composition determination means for determining the composition according to the number of detected subjects that are the subjects detected by the subject detection means. And the composition determination means determines whether the rectangular image is portrait or landscape based on the distance between the subjects located at the left and right ends when the number of detected subjects is equal to or greater than a predetermined value. It was decided.
上記構成では、画像データに基づく画像中において検出される被写体の数に応じて最適とされる構図の判定が行われる。例えば1画面内において存在する被写体の数に応じて、最適とされる構図は異なってくるものであるが、本願発明によれば、被写体数という状況の変化に適応して最適構図が得られることになるものである。 In the above-described configuration, the optimum composition is determined according to the number of subjects detected in the image based on the image data. For example, the optimum composition varies depending on the number of subjects existing in one screen. However, according to the present invention, an optimum composition can be obtained by adapting to changes in the situation of the number of subjects. It will be.
このようにして本発明によっては、画像データが有する画像の内容について、被写体数に応じた最適構図を得ることが可能となる。つまり、単純に或る固定的な構図による被写体の配置が行われる場合と比較して、より高度で柔軟性のある構図決定が自動的に行われる。これにより、本願発明を適用した装置を利用するユーザは、面倒な手間を掛けることなく、最適構図の画像を得ることが可能になるものであり、例えばこれまでよりも高い利便性を提供できることになる。 In this way, according to the present invention, it is possible to obtain an optimal composition corresponding to the number of subjects with respect to the content of the image included in the image data. In other words, a more advanced and flexible composition determination is automatically performed as compared to the case where the subject is simply arranged with a certain fixed composition. As a result, a user who uses the apparatus to which the present invention is applied can obtain an image with the optimum composition without troublesome work. For example, it is possible to provide higher convenience than before. Become.
以下、本願発明を実施するための最良の形態(以下、実施の形態という)について説明を行う。本実施の形態としては、本願発明に基づく構成を、デジタルスチルカメラと、このデジタルスチルカメラが取り付けられる雲台とからなる撮像システムに適用した場合を例に挙げることとする。 Hereinafter, the best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described. As an example of the present embodiment, the configuration based on the present invention is applied to an imaging system including a digital still camera and a camera platform to which the digital still camera is attached.
図1は、本実施の形態としての撮像システムの外観構成例を、正面図により示している。
この図に示されるように、本実施の形態の撮像システムは、デジタルスチルカメラ1と雲台10とから成る。
デジタルスチルカメラ1は、本体正面側のパネルに設けられているレンズ部3によって撮像して得られる撮像光に基づいて静止画像データを生成し、これを内部に装填されている記憶媒体に記憶させることが可能とされている。つまり、写真として撮影した画像を、静止画像データとして記憶媒体に記憶保存させる機能を有する。このような写真撮影を手動で行うときには、ユーザは、本体上面部に設けられているシャッター(レリーズ)ボタンを押し操作する。
FIG. 1 is a front view showing an example of the external configuration of an imaging system according to the present embodiment.
As shown in this figure, the imaging system of the present embodiment includes a
The
雲台10には、上記デジタルスチルカメラ1を固定するようにして取り付けることができる。つまり、雲台10とデジタルスチルカメラ1は、相互の取り付けを可能とするための機構部位を備えている。
The digital
そして、雲台10においては、取り付けられたデジタルスチルカメラ1を、パン方向(水平方向)とチルト方向との両方向により動かすためのパン・チルト機構を備える。
雲台10のパン・チルト機構により与えられるデジタルスチルカメラ1のパン方向、チルト方向それぞれの動き方は例えば図2(a)(b)に示されるものとなる。図2(a)(b)は、雲台10に取り付けられているとされるデジタルスチルカメラ1を抜き出して、それぞれ、平面方向、側面方向より見たものである。
先ずパン方向については、デジタルスチルカメラ1の本体横方向と図2(a)に示される直線X1とが同じ向きとなる位置状態を基準にして、例えば回転軸Ct1を回転中心として回転方向+αに沿った回転が行われることで、右方向へのパンニングの動きが与えられる。また、回転方向−αに沿った回転が行われることで、左方向へのパンニングの動きが与えられる。
また、チルト方向については、デジタルスチルカメラ1の本体縦方向が垂直方向の直線Y1と一致する一状態を基準にして、例えば回転軸Ct2を回転中心として回転方向+βへの回転が行われることで、下方向へのパンニングの動きが与えられる。また、回転方向−βへの回転が行われることで、上方向へのパンニングの動きが与えられる。
なお、図2(a)(b)に示される、±α方向、及び±β方向のそれぞれにおける最大可動回転角度については言及していないが、被写体の捕捉の機会をできるだけ多くするべきことを考慮するのであれば、できるだけ最大可動回転角度を大きく取ることが好ましいことになる。
The pan /
For example, FIGS. 2A and 2B show how the digital
First, regarding the pan direction, for example, the rotation direction + α is set with the rotation axis Ct1 as the rotation center with reference to the position state in which the horizontal direction of the main body of the digital
With respect to the tilt direction, for example, the rotation in the rotation direction + β is performed with the rotation axis Ct2 as the rotation center with reference to one state where the vertical direction of the main body of the digital
Although the maximum movable rotation angle in each of the ± α direction and the ± β direction shown in FIGS. 2A and 2B is not mentioned, it should be considered that the number of opportunities for capturing the subject should be increased as much as possible. If so, it is preferable to make the maximum movable rotation angle as large as possible.
図3のブロック図は、本実施の形態のデジタルスチルカメラ1の内部構成例を示している。
この図において、先ず、光学系部21は、例えばズームレンズ、フォーカスレンズなども含む所定枚数の撮像用のレンズ群、絞りなどを備えて成り、入射された光を撮像光としてイメージセンサ22の受光面に結像させる。
また、光学系部21においては、上記のズームレンズ、フォーカスレンズ、絞りなどを駆動させるための駆動機構部も備えられているものとされる。これらの駆動機構部は、例えば制御部27が実行するとされるズーム(画角)制御、自動焦点調整制御、自動露出制御などのいわゆるカメラ制御によりその動作が制御される。
The block diagram of FIG. 3 shows an internal configuration example of the digital
In this figure, first, the
The
イメージセンサ22は、上記光学系部21にて得られる撮像光を電気信号に変換する、いわゆる光電変換を行う。このために、イメージセンサ22は、光学系部21からの撮像光を光電変換素子の受光面にて受光し、受光された光の強さに応じて蓄積される信号電荷を、所定タイミングにより順次出力するようにされる。これにより、撮像光に対応した電気信号(撮像信号)が出力される。なお、イメージセンサ22として採用される光電変換素子(撮像素子)としては、特に限定されるものではないが、現状であれば、例えばCMOSセンサやCCD(Charge Coupled Device)などを挙げることができる。また、CMOSセンサを採用する場合には、イメージセンサ22に相当するデバイス(部品)として、次に述べるA/Dコンバータ23に相当するアナログ−デジタル変換器も含めた構造とすることができる。
The
上記イメージセンサ22から出力される撮像信号は、A/Dコンバータ23に入力されることで、デジタル信号に変換され、信号処理部24に入力される。
信号処理部24では、A/Dコンバータ23から出力されるデジタルの撮像信号について、例えば1つの静止画 (フレーム画像)に相当する単位で取り込みを行い、このようにして取り込んだ静止画単位の撮像信号について所要の信号処理を施すことで、1枚の静止画に相当する画像信号データである撮像画像データ(撮像静止画像データ)を生成することができる。
The imaging signal output from the
In the
上記のようにして信号処理部24にて生成した撮像画像データを、画像情報として記憶媒体(記憶媒体装置)であるメモリカード40に記録させる場合には、例えば1つの静止画に対応する撮像画像データを信号処理部24からエンコード/デコード部25に対して出力するようにされる。
エンコード/デコード部25は、信号処理部24から出力されてくる静止画単位の撮像画像データについて、所定の静止画像圧縮符号化方式により圧縮符号化を実行したうえで、例えば制御部27の制御に応じてヘッダなどを付加して、所定形式に圧縮された撮像画像データの形式に変換する。そして、このようにして生成した撮像画像データをメディアコントローラ26に転送する。メディアコントローラ26は、制御部27の制御に従って、メモリカード40に対して、転送されてくる撮像画像データを書き込んで記録させる。この場合のメモリカード40は、例えば所定規格に従ったカード形式の外形形状を有し、内部には、フラッシュメモリなどの不揮発性の半導体記憶素子を備えた構成を採る記憶媒体である。なお、画像データを記憶させる記憶媒体については、上記メモリカード以外の種別、形式などとされてもよい。
When the captured image data generated by the
The encoding /
また、本実施の形態としての信号処理部24は、先の説明のようにして取得される撮像画像データを利用して、被写体検出としての画像処理を実行することも可能とされている。本実施の形態における被写体検出処理がどのようなものであるのかについては後述する。
In addition, the
また、デジタルスチルカメラ1は信号処理部24にて得られる撮像画像データを利用して表示部33により画像表示を実行させることで、現在撮像中の画像であるいわゆるスルー画を表示させることが可能とされる。例えば信号処理部24においては、先の説明のようにしてA/Dコンバータ23から出力される撮像信号を取り込んで1枚の静止画相当の撮像画像データを生成するのであるが、この動作を継続することで、動画におけるフレーム画像に相当する撮像画像データを順次生成していく。そして、このようにして順次生成される撮像画像データを、制御部27の制御に従って表示ドライバ32に対して転送する。これにより、スルー画の表示が行われる。
Further, the digital
表示ドライバ32では、上記のようにして信号処理部24から入力されてくる撮像画像データに基づいて表示部33を駆動するための駆動信号を生成し、表示部33に対して出力していくようにされる。これにより、表示部33においては、静止画単位の撮像画像データに基づく画像が順次的に表示されていくことになる。これをユーザが見れば、そのときに撮像しているとされる画像が表示部33において動画的に表示されることになる。つまり、モニタ画像が表示される。なお、先の図1で説明した表示画面部5が、ここでの表示部33の画面部分に相当する。
The
また、デジタルスチルカメラ1は、メモリカード40に記録されている撮像画像データを再生して、その画像を表示部33に対して表示させることも可能とされる。
このためには、制御部27が撮像画像データを指定して、メディアコントローラ26に対してメモリカード40からのデータ読み出しを命令する。この命令に応答して、メディアコントローラ26は、指定された撮像画像データが記録されているメモリカード40上のアドレスにアクセスしてデータ読み出しを実行し、読み出したデータを、エンコード/デコード部25に対して転送する。
The digital
For this purpose, the
エンコード/デコード部25は、例えば制御部27の制御に従って、メディアコントローラ26から転送されてきた撮像画像データから圧縮静止画データとしての実体データを取り出し、この圧縮静止画データについて、圧縮符号化に対する復号処理を実行して、1つの静止画に対応する撮像画像データを得る。そして、この撮像画像データを表示ドライバ32に対して転送する。これにより、表示部33においては、メモリカード40に記録されている撮像画像データの画像が再生表示されることになる。
The encode /
また表示部33に対しては、上記のモニタ画像や撮像画像データの再生画像などとともに、ユーザインターフェイス画像も表示させることができる。この場合には、例えばそのときの動作状態などに応じて制御部27が必要なユーザインターフェイス画像としての表示用画像データを生成し、これを表示ドライバ32に対して出力するようにされる。これにより、表示部33においてユーザインターフェイス画像が表示されることになる。なお、このユーザインターフェイス画像は、例えば特定のメニュー画面などのようにモニタ画像や撮像画像データの再生画像とは個別に表示部33の表示画面に表示させることも可能であるし、モニタ画像や撮像画像データの再生画像上の一部において重畳・合成されるようにして表示させることも可能である。
In addition to the monitor image and the reproduced image of the captured image data, a user interface image can be displayed on the
制御部27は、例えば実際においてはCPU(Central Processing Unit)を備えて成るもので、ROM28、RAM29などとともにマイクロコンピュータを構成する。ROM28には、例えば制御部27としてのCPUが実行すべきプログラムの他、デジタルスチルカメラ1の動作に関連した各種の設定情報などが記憶される。RAM29は、CPUのための主記憶装置とされる。
また、この場合のフラッシュメモリ30は、例えばユーザ操作や動作履歴などに応じて変更(書き換え)の必要性のある各種の設定情報などを記憶させておくために使用する不揮発性の記憶領域として設けられるものである。なおROM28について、例えばフラッシュメモリなどをはじめとする不揮発性メモリを採用することとした場合には、フラッシュメモリ30に代えて、このROM28における一部記憶領域を使用することとしてもよい。
The
Further, the
操作部31は、デジタルスチルカメラ1に備えられる各種操作子と、これらの操作子に対して行われた操作に応じた操作情報信号を生成してCPUに出力する操作情報信号出力部位とを一括して示している。制御部27は、操作部31から入力される操作情報信号に応じて所定の処理を実行する。これによりユーザ操作に応じたデジタルスチルカメラ1の動作が実行されることになる。
The
雲台対応通信部34は、雲台10側とデジタルスチルカメラ1側との間での所定の通信方式に従った通信を実行する部位であり、例えばデジタルスチルカメラ1が雲台10に対して取り付けられた状態において、雲台10側の通信部との間での有線若しくは無線による通信信号の送受信を可能とするための物理層構成と、これより上位となる所定層に対応する通信処理を実現するための構成とを有して成る。
The pan
図4は、雲台10の構成例をブロック図により示している。
先に述べたように、雲台10は、パン・チルト機構を備えるものであり、これに対応する部位として、パン機構部53、パン用モータ55、チルト機構部56、チルト用モータ57を備える。
パン機構部53は、雲台10に取り付けられたデジタルスチルカメラ1について、図2(a)に示したパン(横)方向の動きを与えるための機構を有して構成され、この機構の動きは、パン用モータ54が正逆方向に回転することによって得られる。同様にして、チルト機構部53は、雲台10に取り付けられたデジタルスチルカメラ1について、図2(b)に示したチルト(縦)方向の動きを与えるための機構を有して構成され、この機構の動きは、チルト用モータ57が正逆方向に回転することによって得られる。
FIG. 4 is a block diagram illustrating a configuration example of the
As described above, the
The
制御部51は、例えばCPU、ROM、RAMなどが組み合わされて形成されるマイクロコンピュータを有して成り、上記パン機構部53、チルト機構部56の動きをコントロールする。例えば制御部51がパン機構部53の動きを制御するときには、パン機構部53に必要な移動量と移動方向に対応した制御信号をパン用駆動部55に対して出力する。パン用駆動部55は、入力される制御信号に対応したモータ駆動信号を生成してパン用モータ55に出力する。このモータ駆動信号によりパン用モータ55が、例えば所要の回転方向及び回転角度で回転し、この結果、パン機構部53も、これに対応した移動量と移動方向により動くようにして駆動される。
同様にして、チルト機構部56の動きを制御するときには、制御部51は、チルト機構部56に必要な移動量と移動方向に対応した制御信号をチルト用駆動部58に対して出力する。チルト用駆動部58は、入力される制御信号に対応したモータ駆動信号を生成してチルト用モータ57に出力する。このモータ駆動信号によりチルト用モータ57が、例えば所要の回転方向及び回転角度で回転し、この結果、チルト機構部56も、これに対応した移動量と移動方向により動くようにして駆動される。
The
Similarly, when controlling the movement of the
通信部52は、雲台10に取り付けられたデジタルスチルカメラ1内の雲台対応通信部34との間で所定の通信方式に従った通信を実行する部位であり、雲台対応通信部34と同様にして、相手側通信部と有線若しくは無線による通信信号の送受信を可能とするための物理層構成と、これより上位となる所定層に対応する通信処理を実現するための構成とを有して成る。
The
上記した構成のデジタルスチルカメラ1と雲台10から成る撮像システムでは、例えば、人を主体的な被写体(以降は単に被写体という)として扱うこととしたうえで、この被写体を検出するための探索を行うとともに、被写体の存在が検出されたのであれば、この被写体が写っている画像として最適とされる構図(最適構図)が得られるように(フレーミングが行われるように)して雲台10のパン・チルト機構を駆動する。そして、最適構図が得られたタイミングで、そのときの撮像画像データを記憶媒体(メモリカード40)に記録することが行われる。
つまり、本実施の形態の撮像システムでは、デジタルスチルカメラによる写真撮影を行うのにあたり、探索された被写体について最適構図を決定(判定)して撮影記録を行うという動作が自動的に実行される。これにより、ユーザ自身が構図を判断して撮影を行わなくとも、相応に良質な写真の画像を得ることが可能になる。また、このようなシステムでは、誰かがカメラを持って撮影する必要が無くなるので、その撮影が行われる場所に居る全員が被写体となることができる。また、被写体となるユーザが、カメラの視野角範囲に入ろうと特に意識しなくとも、被写体が収まった写真が得られることになる。つまり、その撮影場所に居る人の自然な様子を撮影する機会が増えるものであり、これまでにはあまりなかった雰囲気の写真を多く得ることができる。
また、最適構図というものは、被写体数に応じては異なってくるものであるとの考え方をとることもできるが、本実施の形態における構図決定に関しては、検出された被写体の数に基づいて異なる最適構図を判定できるようにして構成される。これにより、例えば被写体数を考慮せずに構図決定を行うこととした場合と比較すれば、総合的には、本実施の形態のほうがより良質な画像を得ることが可能となる。
In the imaging system including the digital
That is, in the imaging system of the present embodiment, when taking a picture with a digital still camera, an operation of determining (determining) an optimum composition for the searched subject and performing shooting and recording is automatically executed. Accordingly, it is possible to obtain a correspondingly high quality photographic image without the user himself / herself judging the composition and taking a picture. Also, in such a system, it is not necessary for someone to take a picture with a camera, so that everyone in the place where the picture is taken can be a subject. Further, even if the user who is the subject is not particularly conscious of entering the viewing angle range of the camera, a photograph containing the subject can be obtained. In other words, the opportunity to shoot the natural appearance of the person at the shooting location increases, and it is possible to obtain many photographs with an atmosphere that did not exist so far.
In addition, it can be considered that the optimal composition differs depending on the number of subjects, but the composition determination in the present embodiment differs based on the number of detected subjects. An optimum composition can be determined. As a result, compared with the case where composition determination is performed without considering the number of subjects, for example, it is possible to obtain a better quality image in the present embodiment as a whole.
以降においては、本実施の形態における構図制御に関する説明を行っていく。
図5は、デジタルスチルカメラ1側が備える、本実施の形態の構図制御に対応した機能部位についての構成例を示している。
この図において被写体検出処理ブロック61は、イメージセンサ22にて得られる撮像信号に基づいて信号処理部24にて得られる撮像画像データを利用して、被写体の探索制御を含む、被写体検出処理を実行する部位とされる。ここでの被写体検出処理は、先ず撮像画像データの画面の画内容から、人としての被写体を弁別して検出する処理をいうものであり、ここでの検出結果として得られる情報(検出情報)は、人としての被写体の数と、個々の被写体(個別被写体)ごとについての画面内での位置情報、及び個別被写体ごとについての画像内におけるサイズ(占有面積)などとなる。なお、構図判定のアルゴリズムなどの構成によっては、被写体の数のみが検出情報として得られるようにされれば、本実施の形態としての構図制御は実現可能である。
また、ここでの被写体検出処理の具体的手法としては、顔検出の技術を用いることができる。また、顔検出の方式、手法もいくつか知られているが、本実施の形態においてはどの方式を採用するのかについては特に限定されるべきものではなく、検出精度や設計難易度などを考慮して適当とされる方式が採用されればよい。
また、この被写体検出処理ブロック61が実行する被写体検出処理は、信号処理部24における画像信号処理として実現することができる。先の説明のようにして信号処理部24がDSPにより構成される場合、この被写体検出処理は、信号処理部24としてのDSPに与えるプログラム、インストラクションにより実現されることになる。
また、被写体探索制御時においては、雲台10のパン・チルト機構を制御するために、通信制御処理ブロック63経由で、上記パン・チルト機構を駆動するための制御信号を出力する。
Hereinafter, the composition control in the present embodiment will be described.
FIG. 5 shows a configuration example of functional parts corresponding to the composition control of the present embodiment, which is provided on the digital
In this figure, a subject
Further, as a specific technique for subject detection processing here, a face detection technique can be used. Also, some face detection methods and methods are known, but in this embodiment, which method should be adopted is not particularly limited, considering detection accuracy and design difficulty. It is only necessary to adopt an appropriate method.
The subject detection processing executed by the subject
At the time of subject search control, a control signal for driving the pan / tilt mechanism is output via the communication
被写体検出処理ブロック61の被写体検出処理結果である検出情報は、構図制御処理ブロック62に対して入力される。
構図制御処理ブロック62は、入力された被写体についての検出情報を利用して、最適であるとしてみなされる構図(最適構図)を決定する。そして、決定した最適構図を得るための制御(構図制御)を実行する。この場合の構図制御としては、画角(本実施の形態では、例えばズームレンズの制御に応じて変更可能な視野角をいう)の変更制御と、パン(左右)方向に沿った撮像方向の制御(パン制御)と、チルト(上下)方向に沿った撮像方向の制御(チルト制御)から成る。画角変更のためには、デジタルスチルカメラ1の光学系部21におけるズームレンズを移動するズーム制御、若しくは撮像画像データに対する画像切り出しなどの画像信号処理の少なくとも何れか一方を行う。また、パン制御、チルト制御は、雲台10のパン・チルト機構を制御して動かすことにより行う。パン・チルト機構の制御を行うとき、構図制御処理ブロック62は、パン・チルト機構をしかるべき位置状態とするための制御信号を、通信制御処理ブロック63を経由して、雲台10側に送信させる。
なお、上記構図制御処理ブロック62が実行する構図決定と構図制御の処理は、例えば、制御部27(CPU)がプログラムに基づいて実行するように構成することができる。あるいは、これに信号処理部24がプログラムに基づいて実行する処理を併用した構成とすることも考えられる。また、通信制御処理ブロック63は、雲台10側の通信部52との通信処理を所定のプロトコルに従って実行するようにして構成される部位であり、雲台対応通信部34に対応する機能部位となる。
Detection information that is a result of subject detection processing in the subject
The composition
The composition determination and composition control processing executed by the composition
次に、図6を参照して、被写体検出処理ブロック61が実行するとされる被写体検出処理の事例を挙げておく。
ここで、被写体検出処理ブロック61が、図6(a)に示す画内容の撮像画像データを取り込んだとする。この撮像画像データの画内容としては、人としての被写体が1つ存在した画を撮影して得られたものである。また、図6(a)(及び図6(b))には、1画面をマトリクス状に区切った状態を示しているが、これは、撮像画像データとしての画面が、所定数による水平・垂直画素の集合から成るものであることを模式的に示している。
図6(a)に示す画内容の撮像画像データを対象に被写体検出(顔検出)を行うことによっては、図において示される1つの個別被写体SBJの顔が検出されることになる。即ち、顔検出処理によって1つの顔が検出されることを以て、ここでは1つの個別被写体が検出されることとしている。そして、このようにして個別被写体を検出した結果としては、先にも述べたように個別被写体の数、位置、サイズの情報を得るようにされる。
先ず、個別被写体数に関しては、例えば顔検出により検出された顔の数を求めればよい。図6(a)の場合には、検出される顔が1つであるから、個別被写体数としても1であるとの結果が得られる。
また、個別被写体ごとの位置情報に関しては、少なくとも、撮像画像データとしての画像内における個別被写体SBJの重心G(X,Y)を求めることとする。なお、この場合の重心G(X,Y)の基準となる撮像画像データの画面上のX,Y原点座標P(0,0)は、例えば図7に示すようにして、画面サイズに対応したX軸方向(水平方向)の幅(水平画サイズ)Cxの中間点と、Y軸方向(垂直方向)の幅(垂直画サイズ)Cyの中間点との交点であることとしている。
また、この重心Gについての個別被写体の画像内における位置の定義であるとか、重心Gをどのようにして設定するのかについては、例えばこれまでに知られている被写体重心検出方式を採用することができる。
また、個別被写体ごとのサイズについては、例えば顔検出処理により顔部分であるとして特定、検出される領域の画素数を求めるようにすればよい。
Next, referring to FIG. 6, an example of subject detection processing that is executed by the subject
Here, it is assumed that the subject
By performing subject detection (face detection) on the captured image data of the image content shown in FIG. 6A, the face of one individual subject SBJ shown in the figure is detected. That is, one individual subject is detected here by detecting one face by the face detection process. As a result of detecting the individual subject in this manner, information on the number, position, and size of the individual subject is obtained as described above.
First, regarding the number of individual subjects, for example, the number of faces detected by face detection may be obtained. In the case of FIG. 6A, since one face is detected, the result that the number of individual subjects is 1 is also obtained.
Further, regarding the position information for each individual subject, at least the centroid G (X, Y) of the individual subject SBJ in the image as the captured image data is obtained. In this case, the X, Y origin coordinates P (0,0) on the screen of the captured image data serving as a reference for the center of gravity G (X, Y) in this case correspond to the screen size as shown in FIG. 7, for example. It is assumed that it is the intersection of the intermediate point of the width (horizontal image size) Cx in the X-axis direction (horizontal direction) and the intermediate point of the width (vertical image size) Cy in the Y-axis direction (vertical direction).
In addition, as to the definition of the position of the individual subject in the image with respect to the center of gravity G and how to set the center of gravity G, for example, a known subject center of gravity detection method may be adopted. it can.
As for the size of each individual subject, for example, the number of pixels in a region that is identified and detected as a face portion by face detection processing may be obtained.
また、図6(b)に示す撮像画像データを取り込んで被写体検出処理ブロック61が被写体検出処理を実行したとされると、先ずは、顔検出により2つの顔の存在することが特定されることになるので、個別被写体数については2であるとの結果が得られることになる。ここでは、2つの個別被写体のうち、左側を個別被写体SBJ0、右側を個別被写体SBJ1として識別性を持たせている。また、個別被写体SBJ0、SBJ1ごとに求めた重心の座標については、それぞれ、G0(X0,Y0)、G1(X1,Y1)として示されている。
また、このようにして、2以上の個別被写体が検出される場合には、これら複数の個別被写体をひとまとまりの被写体(総合被写体)としてみた場合の重心である、総合被写体重心Gt(Xg,Yg)を求めるようにされる。
この総合被写体重心Gtをどのようにして設定するのかについては、いくつか考えることができるが、ここでは、最も簡易な例として、検出された複数の個別被写体のうちで、画面の左端と右端の両端に位置する個別被写体の重心を結ぶ線分上の中間点を総合被写体重心Gtとして設定した場合を示している。この総合被写体重心Gtは、例えば後述するようにして構図制御において利用することができる情報であり、個別被写体の重心の情報が取得されれば演算により求められる情報である。従って、総合被写体重心Gtについては、被写体検出処理ブロック61により求め、これを検出情報として出力することとしてもよいが、構図制御処理ブロック62が、検出情報として取得した個別被写体の重心の位置を示す情報のうちから、左右両端に位置する個別被写体の重心に関する情報を利用して求めるようにしてもよい。
なお、ほかには例えば、複数の個別被写体のサイズに応じて重み付け係数を与え、この重み付け係数を利用して、例えばサイズの大きな個別被写体に総合被写体重心Gtの位置が近くなるように配慮した設定手法も考えることができる。
また、個別被写体のサイズについては、例えば個別被写体SBJ0、SBJ1ごとに、その検出された顔が占有するとされる画素数を求めることとすればよい。
If it is assumed that the captured image data shown in FIG. 6B is captured and the subject
When two or more individual subjects are detected in this way, the total subject center of gravity Gt (Xg, Yg), which is the center of gravity when these individual subjects are viewed as a group of subjects (total subjects). ).
There are several ways to set the total subject gravity center Gt, but here, as the simplest example, among the detected individual subjects, the left and right edges of the screen In this example, an intermediate point on a line segment connecting the centroids of the individual subjects located at both ends is set as the total subject centroid Gt. The total subject gravity center Gt is information that can be used in composition control, for example, as will be described later, and is information obtained by calculation if information on the center of gravity of an individual subject is acquired. Accordingly, the total subject gravity center Gt may be obtained by the subject
In addition, for example, a weighting coefficient is given according to the sizes of a plurality of individual subjects, and the setting is made with consideration given so that the position of the total subject gravity center Gt is close to, for example, a large individual subject. A method can also be considered.
As for the size of the individual subject, for example, for each of the individual subjects SBJ0 and SBJ1, the number of pixels that the detected face occupies may be obtained.
続いては、図8〜図10を参照して、本実施の形態における第1例としての構図制御により得られる構図についての説明を行う。
図8(a)には、構図制御前の被写体検出の結果により得られた撮像画像データとして、1つの個別被写体SBJ0が撮像された画内容が得られた場合を示している。なお、本実施の形態にあっては、デジタルスチルカメラ1を取り付けた雲台10を通常に設置した場合には、横長の画像が撮像されるようにしてデジタルスチルカメラ1の向きが設定される。従って、第1例にあっては、撮像により横長の画像が得られることを前提とする。
Subsequently, a composition obtained by composition control as a first example in the present embodiment will be described with reference to FIGS.
FIG. 8A shows a case where image content obtained by capturing one individual subject SBJ0 is obtained as captured image data obtained as a result of subject detection before composition control. In the present embodiment, when the
上記図8(a)に示したようにして1つの個別被写体が検出された場合には、例えば図8(a)から図8(b)への遷移として示すようにして、この個別被写体SBJの、撮像画像データの画面内における占有率が所定値となるようにして画角を狭くしていくズーム制御を実行させ、個別被写体のサイズを変更するようにされる。なお、図8(a)(b)では、個別被写体SBJ0のサイズを拡大するために画角を狭くする方向での変更を行っている場合を示しているが、個別被写体が検出された段階において、その個別被写体の画面内における占有率が上記の所定値を越えていた場合には、この占有率が所定値にまで小さくなるようにして、画角を広くしていくズーム制御を実行させることになる。
また、個別被写体が1つである場合の画面内におけるその位置についてであるが、本実施の形態の場合、左右方向に関しては、ほぼ中央となるように位置させることとしている。このためには、例えば個別被写体SJB0の重心Gの左右方向における位置を、ほぼ中央となるようにすればよい。
When one individual subject is detected as shown in FIG. 8A, for example, as shown as a transition from FIG. 8A to FIG. 8B, the individual subject SBJ is detected. Then, zoom control is performed to narrow the angle of view so that the occupation ratio of the captured image data in the screen becomes a predetermined value, and the size of the individual subject is changed. 8A and 8B show a case where the change is made in the direction of narrowing the angle of view in order to enlarge the size of the individual subject SBJ0, but at the stage where the individual subject is detected. When the occupancy ratio of the individual subject in the screen exceeds the predetermined value, zoom control is performed to increase the angle of view by reducing the occupancy ratio to the predetermined value. become.
Further, regarding the position in the screen when there is one individual subject, in the case of the present embodiment, the position is set so as to be substantially in the center in the left-right direction. For this purpose, for example, the position of the center of gravity G of the individual subject SJB0 in the left-right direction may be set substantially at the center.
次に、図9(a)に示すようにして、2つの個別被写体が検出された場合には、構図制御として、先ず、これら2つの個別被写体SBJ0、SBJ1間の距離(被写体間距離)Kを求める。この距離Kは、例えば個別被写体SBJ0の重心G0のX座標(X0)と個別被写体SBJ1の重心G1のX座標(X1)との差(X1−X0)により表現することができる。そして、上記のようにして求められる被写体間距離Kが、図9(b)に示すようにして、水平画サイズCxの1/3(K=Cx/3)となるように画角の調整を行う。また、この場合においても、2つの個別被写体SBJ0、SBJ1が写る領域は、左右方向においてほぼ画面の中央となるようにして配置するようにされており、このためには、例えば、これらの個別被写体SBJ0、SBJ1についての総合被写体重心Gtを、左右方向における中央の位置に配置するようにされる。
なお、被写体間距離Kを水平画サイズCxの1/3とするのは、三分割法といわれる構図設定の手法に基づいている。三分割法は、最も基本的な構図設定手法の1つであり、方形の画面を垂直方向と水平方向のそれぞれに沿って三等分する仮想線上に被写体を位置させることにより良好な構図を得ようとするものである。被写体間距離K=Cx/3となるようにしたうえで、上記のようにして総合被写体重心Gtを左右方向における中央に位置させると、個別被写体SBJ0の重心G0は、画面縦方向に沿った左側の仮想線上にほぼ位置することとなり、また、個別被写体SBJ1の重心G1は、画面縦方向に沿った右側の仮想線上にほぼ位置することとなる。つまり三分割法に従った構図が得られることになる。
Next, as shown in FIG. 9A, when two individual subjects are detected, as a composition control, first, a distance (distance between subjects) K between these two individual subjects SBJ0 and SBJ1 is set. Ask. This distance K can be expressed, for example, by the difference (X1−X0) between the X coordinate (X0) of the centroid G0 of the individual subject SBJ0 and the X coordinate (X1) of the centroid G1 of the individual subject SBJ1. Then, the angle of view is adjusted so that the inter-subject distance K obtained as described above is 1/3 of the horizontal image size Cx (K = Cx / 3) as shown in FIG. 9B. Do. Also in this case, the area where the two individual subjects SBJ0 and SBJ1 are shown is arranged so as to be substantially at the center of the screen in the left-right direction. For this purpose, for example, these individual subjects are arranged. The total subject gravity center Gt for SBJ0 and SBJ1 is arranged at the center position in the left-right direction.
The inter-subject distance K is set to 1/3 of the horizontal image size Cx based on a composition setting method called a three-division method. The three-division method is one of the most basic composition setting methods, and a good composition is obtained by positioning the subject on a virtual line that divides the rectangular screen into three equal parts along the vertical and horizontal directions. It is about to try. When the inter-subject distance K = Cx / 3 and the total subject gravity center Gt is positioned at the center in the left-right direction as described above, the center G0 of the individual subject SBJ0 is the left side in the vertical direction of the screen. The center of gravity G1 of the individual subject SBJ1 is substantially located on the right virtual line along the vertical direction of the screen. That is, a composition according to the three-division method is obtained.
また、図10(a)のようにして、3つの個別被写体が検出された場合の構図制御としては、画面内において最も左側に位置する個別被写体SBJ0と、最も右側に位置する個別被写体SBJ2との間の被写体間距離Kを求める。つまり、被写体間距離Kを求めるのには、個別被写体がn個検出されている場合に、画面左から右にかけての個別被写体に0番からn−1番までの番号を割り当てることとした上で、画面において最も左側に位置する個別被写体SBJ0の重心G0のX座標を(X0)、画面において最も右側に位置する個別被写体SBJ(n-1)の重心Gn-1のX座標を(Xn-1)として、(Xn-1)−(X0)により表される一般式で求めることができる。
そして、この場合には、この被写体間距離Kについて、図9(b)に示すようにして、水平画サイズCxの1/2となるようにして画角の制御を行う。また、左右における被写体位置については、総合被写体Gtが画面左右方向におけるほぼ中央に位置するようにして、3つ個別被写体が存在する領域部分が、画面左右方向においてほぼ中央にくるようにする。本実施の形態としては、3以上の個別被写体が検出された場合において、この図10に示される構図制御を行うこととする。
3以上の個別被写体が画面内に在る場合には、例えば三分割法に忠実に従って被写体間距離Kを水平画サイズCxの1/3とするよりも、さらに水平画サイズCxに対する被写体間距離Kの比率を大きくとったほうが一般的には良い構図が得られる。そこで、本実施の形態としては、上記のようにして、3以上の個別被写体が検出された場合には、被写体間距離K=Cx/2となる構図を形成することとしている。
このようにして本実施の形態では、検出される個別被写体が1の場合と、2の場合と、3以上の場合とで、それぞれ異なる画角の調整による構図制御を行うようにされている。
In addition, as shown in FIG. 10A, composition control when three individual subjects are detected includes an individual subject SBJ0 located on the leftmost side in the screen and an individual subject SBJ2 located on the rightmost side. A distance K between the subjects is obtained. In other words, the distance K between the subjects is obtained by assigning
In this case, the angle of view is controlled so that the distance K between the subjects is ½ of the horizontal image size Cx as shown in FIG. 9B. As for the subject position in the left and right directions, the general subject Gt is positioned substantially at the center in the horizontal direction of the screen so that the area portion where the three individual subjects are present is approximately at the center in the horizontal direction of the screen. In the present embodiment, the composition control shown in FIG. 10 is performed when three or more individual subjects are detected.
When there are three or more individual subjects in the screen, for example, the subject-to-subject distance K with respect to the horizontal image size Cx is more than the subject-to-subject distance K is set to 1/3 of the horizontal image size Cx according to the three-division method In general, a better composition can be obtained by increasing the ratio of. Therefore, in the present embodiment, as described above, when three or more individual subjects are detected, a composition in which the inter-subject distance K = Cx / 2 is formed.
In this way, in the present embodiment, composition control is performed by adjusting the different angle of view for each of the detected
図11は、上記図8〜図10により説明した第1例としての構図制御に対応して、図5に示した被写体検出処理ブロック61、構図制御処理ブロック62、及び通信制御処理ブロック63が実行するものとされる手順例を示している。また、この図に示す処理は、DSPとしての信号処理部24、制御部27におけるCPUがプログラムを実行することで実現されるものとしてみることができる。このようなプログラムは、例えばROMなどに対して製造時などに書き込んで記憶させるほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインストール(アップデートも含む)させるようにしてDSP対応の不揮発性の記憶領域やフラッシュメモリ30などに記憶させることが考えられる。また、USBやIEEE1394などのデータインターフェース経由により、他のホストとなる機器からの制御によってプログラムのインストールを行えるようにすることも考えられる。さらに、ネットワーク上のサーバなどにおける記憶装置に記憶させておいたうえで、デジタルスチルカメラ1にネットワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成することも考えられる。
FIG. 11 is executed by the subject
先ず、ステップS101〜ステップS106までは、被写体を探索して検出するための手順となり、主に被写体検出処理ブロック61が実行するものとされる。
ステップS101では、イメージセンサ22からの撮像信号に基づいた撮像画像データを取り込んで取得する。ステップS102では、上記ステップS101により取得した撮像画像データを利用して被写体検出処理を実行する。ここでの被写体検出処理としては、例えば先ず、先に述べた顔検出などの手法により、撮像画像データとしての画面内容において個別被写体が存在するか否かについての検出を行うものであり、個別被写体が存在する場合には、少なくとも個別被写体数、個別被写体ごとの位置(重心)、サイズを検出情報として得るようにされる。
First, steps S101 to S106 are procedures for searching for and detecting a subject, and the subject
In step S101, captured image data based on the imaging signal from the
ステップS103では、上記ステップS102による被写体検出処理の結果として、個別被写体の存在が検出されたか否かについての判別を行う。ここで個別被写体の存在が検出されなかった(検出される個別被写体数が0である)として否定の判別結果が得られた場合には、ステップS104に進み、画角を広くするためのズームレンズの移動制御(ズームアウト制御)を実行する。このようにして画角を広くすることで、より広い範囲が撮像されることになるので、それだけ個別被写体を補足しやすくなる。また、これとともに、ステップS105により、被写体探索のために雲台10のパン・チルト機構を動かすための制御(パン・チルト制御)を実行する。このときには、被写体検出処理ブロック61がパン・チルト制御のための制御信号を通信制御処理ブロック63に渡し、雲台10の通信部52に対して送信されるようにして制御を行う。
なお、上記被写体探索のためのパン・チルト制御として、雲台10のパン・チルト機構をどのようなパターンで動かすのかについては、例えば探索が効率的に行われることを配慮して決めることとすればよい。
また、ステップS106においては、モードフラグfについて0を設定(f=0)し、ステップS101に戻るようにされる。
このようにして、撮像画像データの画内容において少なくとも1つの個別被写体が検出されるまでは、ステップS101〜ステップS106の手順が繰り返される。このとき、デジタルスチルカメラ1と雲台10から成るシステムは、被写体探索のために、デジタルスチルカメラ1がパン方向及びチルト方向に動かされている状態となっている。
In step S103, it is determined whether or not the presence of an individual subject has been detected as a result of the subject detection process in step S102. If a negative determination result is obtained because the presence of the individual subject is not detected (the number of detected individual subjects is 0), the process proceeds to step S104, and the zoom lens for widening the field angle is obtained. The movement control (zoom-out control) is executed. By widening the angle of view in this way, a wider range is imaged, so that it becomes easier to capture individual subjects. At the same time, in step S105, control (pan / tilt control) for moving the pan / tilt mechanism of the pan /
As the pan / tilt control for searching for the subject, the pattern in which the pan / tilt mechanism of the pan /
In step S106, 0 is set for the mode flag f (f = 0), and the process returns to step S101.
In this manner, the procedure from step S101 to step S106 is repeated until at least one individual subject is detected in the image content of the captured image data. At this time, the system including the digital
そして、ステップS103において個別被写体の存在が検出されたとして肯定の判別結果が得られたとされると、ステップS107以降の手順に進む。ステップS107以降の手順は、主に構図制御処理ブロック62が実行するものとなる。
If it is determined that the presence of the individual subject is detected in step S103 and a positive determination result is obtained, the process proceeds to step S107 and subsequent steps. The procedure after step S107 is mainly executed by the composition
ステップS107においては、現在のモードフラグfに設定されている値が何であるのかを判別する。
f==0であると判別された場合には、構図制御として、最初のラフな被写体捕捉モードを実行すべき場合であることを示すものであり、図のようにしてステップS108から始まる手順を実行する。
ステップS108においては、総合被写体重心Gtが、撮像画像データの画面(撮像画像データの画内容を表したとするときに得られる画面)における原点座標P(0,0)(図7参照)に位置しているか否かについての判別を行う。ここで、総合被写体重心Gtは、未だ原点座標に位置していないとして否定の判別結果が得られた場合には、ステップS109により、総合被写体重心Gtが原点座標に位置するようにして、雲台10のパン・チルト機構を動かすための制御を実行し、ステップS101に戻る。このようにして、個別被写体の存在が検出されている状態での最初の構図制御の手順である捕捉モードは、総合被写体重心Gtを、先ずは初期の基準位置である原点座標に対して位置させるようにして雲台10のパン・チルト機構を制御することで、検出された個別被写体が写っているとされる画像領域を画面内の中央に位置させようとするものである。
In step S107, it is determined what the current mode flag f is.
If it is determined that f == 0, this indicates that the first rough subject capturing mode should be executed as composition control, and the procedure starting from step S108 as shown in FIG. Run.
In step S108, the total subject gravity center Gt is located at the origin coordinate P (0,0) (see FIG. 7) on the screen of the captured image data (screen obtained when the image content of the captured image data is represented). It is determined whether or not it is. Here, if a negative determination result is obtained because the total subject gravity center Gt is not yet located at the origin coordinates, in step S109, the total subject gravity center Gt is located at the origin coordinates, and the pan head Control for moving the pan /
なお、上記ステップS109としてのパン・チルト制御を実際に行うのにあたってのアルゴリズムの一例をここで示しておく。
モードフラグf==0の状態で個別被写体が検出される状態では、被写体検出処理ブロック61は、下記の(数1)により示される演算を行って、パン方向における必要移動量Spanとチルト方向における必要移動量Stiltを求めるようにされる。下記の(数1)において、nは検出された個別被写体数を示し、p(Xi,Yi)は0番からn−1番までの番号が与えられた個別被写体のうちのi番目の個別被写体の重心のX,Y座標を示す。確認のために、図7に示したように、この場合における原点座標(0,0)は、画面における水平方向における中点と垂直方向における中点との交点となる。
In the state in which the individual subject is detected with the mode flag f == 0, the subject
例えばステップS108では、上記のようにして求められる必要移動量Span,Stiltの絶対値が所定値以内(厳密には0となるが、0より大きな値とされてもよい)であるか否かを判別することを以て、総合被写体重心Gtが原点座標Pに在るか否かと同等の判別を行うことができる。そして、ステップS109においては、必要移動量Span,Stiltの絶対値が所定範囲内となるようにしてパン・チルト制御を実行するようにされる。なお、このときのパン・チルト制御に際してのパン機構部53、チルト機構部56の速度は一定としても良いのであるが、例えば、必要移動量Span,Stiltが大きくなるのに応じて速度を高くしていくなどして可変させることが考えられる。このようにすれば、パンニングあるいはチルティングによる必要移動量が大きくなったときも、比較的短時間で総合被写体重心Gtを原点座標に近づけることが可能になる。
そして、ステップS108において、総合被写体重心Gtが原点座標に位置したとして肯定の判別結果が得られたとされると、ステップS110によりモードフラグfについて1を設定(f=1)してステップS101に戻る。このステップS109によりモードフラグfについて1が設定された状態は、構図制御における最初の手順である捕捉モードは完了し、次の第1の構図の調整制御(構図調整モード)を実行すべき状態であることを示す。
For example, in step S108, it is determined whether or not the absolute values of the necessary movement amounts Span and Stilt obtained as described above are within a predetermined value (strictly, it is 0, but may be a value larger than 0). By determining, it is possible to perform determination equivalent to whether or not the total subject gravity center Gt is at the origin coordinate P. In step S109, pan / tilt control is executed such that the absolute values of the necessary movement amounts Span and Stilt are within a predetermined range. Note that the speeds of the
If it is determined in step S108 that the total subject gravity center Gt is located at the origin coordinate and a positive determination result is obtained, step S110 sets 1 for the mode flag f (f = 1), and the process returns to step S101. . The state in which 1 is set for the mode flag f in step S109 is a state in which the capture mode, which is the first procedure in composition control, is completed, and the next first composition adjustment control (composition adjustment mode) is to be executed. Indicates that there is.
そして、モードフラグf==1とされて第1の構図調整モードを実行すべき場合には、ステップS107からステップS111に進むことになる。第1の構図調整モードは、以降の説明からも理解されるように、検出された個別被写体数ごとに応じた最適構図を得るためのズーム(画角)調整となるものである。なお、画角調整によっては画面内における個別被写体のサイズであるとか、複数の個別被写体間の距離が変化する結果を生じる。 When the mode flag f == 1 and the first composition adjustment mode is to be executed, the process proceeds from step S107 to step S111. As will be understood from the following description, the first composition adjustment mode is a zoom (view angle) adjustment for obtaining an optimum composition according to the number of detected individual subjects. Depending on the angle of view adjustment, the size of the individual subject in the screen or the distance between the plurality of individual subjects may change.
ステップS111においては、現在検出されている個別被写体数がいくつであるのかについて判別することとしており、1であればステップS112から始まる手順を実行することになる。
ステップS112においては、検出されている個別被写体のサイズがOKであるか否かについて判別する。個別被写体のサイズがOKである状態とは、図8(b)に示したように、個別被写体としての画像部分の画面内での占有率が所定の範囲値に収まっている状態である。ステップS112において否定の判別結果が得られた場合には、ステップS113に進み、上記の占有率が所定範囲値内となる(所定の範囲値内に収まる)ようにしてズームレンズの駆動制御(ズーム制御)を実行し、ステップS101に戻る。なお、このときには、個別被写体の重心G(総合被写体重心Gt)の水平方向(左右方向)における位置に関しては、ステップS109にて設定されたX座標(X=0)に対応する位置を維持するようにしてズーム制御を行うようにされる。これにより、個別被写体を左右方向においてほぼ中央に位置させた状態を維持することができる。また、被写体探索、検出動作の実行時においては、ステップS104によりズームアウト制御が行われるので、ステップS113としてのズーム制御に際してはズームイン制御となる場合が多いと考えられる。しかし、何らかの原因で上記の占有率が所定範囲値を越えるような画面内容の状態であることに応じてステップS112にて否定の判別結果が得られた場合、ステップS113ではズームアウトを実行させて占有率が所定範囲値内に収まるように制御することになる。
そして、ステップS112において肯定の判別結果が得られたのであればステップS114に進み、モードフラグfについて2を設定してステップS101に戻るようにされる。なお、モードフラグf==2は、以降の説明からも理解されるように、第1の構図調整が完了して、次の第2の構図調整を実行したうえでレリーズ動作を実行すべきであることを示す。
In step S111, it is determined how many individual subjects are currently detected. If the number is 1, the procedure starting from step S112 is executed.
In step S112, it is determined whether or not the size of the detected individual subject is OK. The state where the size of the individual subject is OK is a state where the occupation ratio of the image portion as the individual subject within the screen is within a predetermined range value as shown in FIG. 8B. If a negative determination result is obtained in step S112, the process proceeds to step S113, and the zoom lens drive control (zoom) is performed so that the occupation ratio falls within the predetermined range value (contains within the predetermined range value). Control), and the process returns to step S101. At this time, the position corresponding to the X coordinate (X = 0) set in step S109 is maintained with respect to the position of the center G of the individual subject (total subject center Gt) in the horizontal direction (left-right direction). Thus, zoom control is performed. As a result, it is possible to maintain a state in which the individual subject is positioned substantially at the center in the left-right direction. Further, since zoom-out control is performed in step S104 when subject search and detection operations are performed, it is considered that zoom-in control is often performed during zoom control in step S113. However, if a negative determination result is obtained in step S112 in response to the screen content state such that the occupation ratio exceeds the predetermined range value for some reason, zoom-out is executed in step S113. Control is performed so that the occupation ratio falls within a predetermined range value.
If a positive determination result is obtained in step S112, the process proceeds to step S114, 2 is set for the mode flag f, and the process returns to step S101. Note that the mode flag f == 2 should be executed after the first composition adjustment is completed and the next second composition adjustment is performed, as will be understood from the following description. Indicates that there is.
また、ステップS111において個別被写体数が2であるとして判別された場合には、ステップS115から始まる手順を実行する。
ステップS115においては、撮像画像データの画面における2つの個別被写体の被写体間距離Kが、図9(b)に示したようにして、水平画サイズCxの1/3となっている状態(K==Cx/3)にあるか否かについての判別を行うようにされる。ここで否定の判別結果が得られた場合には、ステップS116に進み、上記のK==Cx/3の状態となるようにズーム制御を実行する。なお、このときにも、総合被写体重心Gtの水平方向における位置については、ステップS109にて設定されたX座標(X=0)を維持するようにしてズーム制御を行うようにされる。この点については後述するステップS119も同様である。そして、ステップS115によりK==Cx/3の状態になっているとして肯定の判別結果が得られた場合には、ステップS117に進んでモードフラグfについて2を設定してステップS101に戻る。
If it is determined in step S111 that the number of individual subjects is 2, the procedure starting from step S115 is executed.
In step S115, the distance K between the two individual subjects on the captured image data screen is 1/3 of the horizontal image size Cx as shown in FIG. 9B (K = = Cx / 3) is determined. If a negative determination result is obtained here, the process proceeds to step S116, and zoom control is executed so that the state of K == Cx / 3 is obtained. At this time as well, the zoom control is performed so as to maintain the X coordinate (X = 0) set in step S109 for the position of the total subject gravity center Gt in the horizontal direction. This also applies to step S119 described later. If a positive determination result is obtained in step S115 that K == Cx / 3, the process proceeds to step S117, where 2 is set for the mode flag f, and the process returns to step S101.
また、ステップS111において個別被写体数が3以上であるとして判別された場合には、ステップS118から始まる手順を実行する。
ステップS118においては、撮像画像データの画面における被写体間距離K(この場合には、画面内における最も左の個別被写体の重心から、画面内における最も右の個別被写体の重心までの距離となる)が、図10(b)に示したようにして、水平画サイズCxの1/2となっている状態(K==Cx/2)にあるか否かについての判別を行う。ここで否定の判別結果が得られた場合には、ステップS119に進み、K==Cx/2となるようにズーム制御を実行する。そして、K==Cx/3の状態になっているとして肯定の判別結果が得られた場合には、ステップS120に進んでモードフラグfについて2を設定してステップS101に戻るようにされる。
If it is determined in step S111 that the number of individual subjects is 3 or more, the procedure starting from step S118 is executed.
In step S118, the distance K between subjects on the screen of the captured image data (in this case, the distance from the center of gravity of the leftmost individual subject in the screen to the center of gravity of the rightmost individual subject in the screen). As shown in FIG. 10B, it is determined whether or not the horizontal image size Cx is half (K == Cx / 2). If a negative determination result is obtained here, the process proceeds to step S119, and zoom control is executed so that K == Cx / 2. If a positive determination result is obtained assuming that K == Cx / 3, the process proceeds to step S120, 2 is set for the mode flag f, and the process returns to step S101.
このようにして、モードフラグfについて2が設定された状態では、図8〜図10により説明した、個別被写体が1つ、2つ、若しくは3以上の場合に対応した構図制御までの手順が完了した状態であることになる。そこで、ステップS107にてモードフラグfが2であると判別された場合には、ステップS121以降の手順により、第2の構図調整モードを実行する。 In this way, in the state where 2 is set for the mode flag f, the procedure up to composition control corresponding to the case where one, two, or three or more individual subjects are described with reference to FIGS. 8 to 10 is completed. Will be in the state. Therefore, when it is determined in step S107 that the mode flag f is 2, the second composition adjustment mode is executed according to the procedure after step S121.
例えば、図8〜図10での構図制御の説明にあっては、その説明を簡単なものとするために、画面上下方向における個別被写体の重心の位置をどのようにして設定するのかについては言及していないが、実際においては、画面の中央から例えば或る必要量だけ上方向に移動(オフセット)させたほうが、より良い構図となる場合がある。そこで、本実施の形態の構図制御の実際としては、最適構図としてより良好なものが得られるようにして総合被写体重心Gtの縦(垂直)方向のオフセット量を設定できるようになっている。このための手順が、第2の構図調整モードとなるものであり、ステップS121及び次に説明するステップS122として実行される。
ステップS121では、総合被写体重心Gt(個別被写体が1つの場合はその個別被写体の重心Gとなる)の位置について、画面上の原点座標Pを通過する水平直線(X軸)から所定のオフセット量だけオフセットしている状態にあるか否か(重心オフセットがOKであるか否か)を判別する。
ステップS121にて否定の判別結果が得られた場合には、ステップS122により、設定されたオフセット量だけ重心がオフセットされるようにして、雲台10のチルト機構が動くようにチルト制御を実行し、ステップS101に戻る。そして、ステップS121において肯定の判別結果が得られた段階では、個別被写体数に応じた最適構図が得られているものとされる状態が得られたことになる。
なお、このステップ121、S122に対応した重心オフセットとしてのオフセット量の値をどのようにして設定するのかについては、いくつかの手法が考えられることから、ここでは特に限定されるべきものではない。最も簡単な設定の1つとしては、例えば三分割法に基づいて、縦方向における中心位置から、垂直画サイズCyの1/6に相当する長さのオフセット値を与えることが考えられる。もちろん、例えば個別被写体数に応じた異なるオフセット値を所定の規則に従って設定するように構成することも考えられる。
For example, in the description of the composition control in FIGS. 8 to 10, reference is made to how to set the position of the center of gravity of the individual subject in the vertical direction of the screen in order to simplify the description. In practice, however, it may be better to move (offset), for example, a certain required amount upward from the center of the screen. Therefore, in the actual composition control of the present embodiment, the offset amount in the vertical (vertical) direction of the total subject gravity center Gt can be set so that a better optimal composition can be obtained. The procedure for this is the second composition adjustment mode, and is executed as step S121 and step S122 described next.
In step S121, the position of the total subject center of gravity Gt (or the center of gravity G of the individual subject when there is one individual subject) is a predetermined offset amount from the horizontal straight line (X axis) passing through the origin coordinate P on the screen. It is determined whether or not there is an offset state (whether or not the gravity center offset is OK).
If a negative determination result is obtained in step S121, tilt control is executed so that the tilt mechanism of the
Note that there are several methods for setting the value of the offset amount as the center-of-gravity offset corresponding to these steps 121 and S122, and therefore there is no particular limitation here. One of the simplest settings is to give an offset value having a length corresponding to 1/6 of the vertical image size Cy from the center position in the vertical direction based on, for example, a three-division method. Of course, for example, it may be configured to set different offset values according to the number of individual subjects according to a predetermined rule.
そして、ステップS121により肯定の判別結果が得られた場合には、ステップS123から始まる、レリーズ動作に対応した処理手順を実行する。ここでのレリーズ動作とは、そのときに得られている撮像画像データを、静止画像データとして記憶媒体(メモリカード40)に記憶させるための動作をいう。つまり、手動によるシャッター操作を行っている場合では、このシャッター操作に応答して、そのときに得られていた撮像画像データを静止画像データとして記憶媒体に対して記録する動作にあたる。 If a positive determination result is obtained in step S121, the processing procedure corresponding to the release operation starting from step S123 is executed. Here, the release operation refers to an operation for storing the captured image data obtained at that time in a storage medium (memory card 40) as still image data. In other words, when a manual shutter operation is performed, the captured image data obtained at that time is recorded on the storage medium as still image data in response to the shutter operation.
ステップS123においては、現在においてレリーズ動作を実行可能な条件を満たしているか否かを判別する。条件としては例えば、合焦状態にあること(オートフォーカス制御が有効に設定されている場合)、雲台10のパン・チルト機構が停止状態にあること、などを挙げることができる。
上記ステップS123で否定の判別結果が得られた場合には、ステップS101に戻る。これにより、レリーズ動作を実行できる条件が満たされる状態となるのを待機することができる。そして、ステップS123において肯定の判別結果が得られると、ステップS104によりレリーズ動作を実行する。このようにして、本実施の形態では、最適構図の撮像画像データを記録することができる。
レリーズ動作が終了したとされると、ステップS125により所要のパラメータについて初期設定を行う。この処理により、モードフラグfについては初期値の0が設定される。また、ズームレンズの位置も、予め設定された初期位置に戻される。
そして、ステップS125の処理を実行した後はステップS101に戻る。このようにしてステップS125からステップS101に戻ることにより、被写体を探索し、この探索により検出されることとなった個別被写体数に応じた最適構図を得て撮像記録(レリーズ動作)を行うという動作が、自動的に繰り返し実行されることになる。
In step S123, it is determined whether or not the conditions under which the release operation can be currently performed are satisfied. Examples of conditions include being in focus (when autofocus control is set to be effective), pan / tilt mechanism of
If a negative determination result is obtained in step S123, the process returns to step S101. Accordingly, it is possible to wait for the condition for executing the release operation to be satisfied. If a positive determination result is obtained in step S123, the release operation is executed in step S104. In this way, in this embodiment, captured image data having an optimal composition can be recorded.
When the release operation is finished, initial setting is performed for necessary parameters in step S125. By this process, the
And after performing the process of step S125, it returns to step S101. By returning from step S125 to step S101 in this manner, an object is searched for, and an optimum composition corresponding to the number of individual objects detected by this search is obtained and image recording (release operation) is performed. Will be automatically and repeatedly executed.
なお、上記図11の場合におけるレリーズ動作は、撮像画像から静止画像を記録媒体に記録する動作となるものであるが、本実施の形態におけるレリーズ動作は、より広義には、上記の静止画像を記録媒体に記録することを含め、例えば撮像画像から必要な静止画像データを取得することを指す。従って、例えば本実施の形態のデジタルスチルカメラ1により、データインターフェースなどを経由して他の記録装置などに伝送するために、撮像画像から静止画像データを取得するような動作も、レリーズ動作となるものである。
Note that the release operation in the case of FIG. 11 is an operation for recording a still image from a captured image on a recording medium. However, the release operation in the present embodiment is a broader sense of the above still image. Including recording on a recording medium, for example, it means obtaining necessary still image data from a captured image. Therefore, for example, an operation of acquiring still image data from a captured image so as to be transmitted to another recording apparatus or the like via the data interface by the digital
また、上記図11において、ステップS111による判別結果に応じて、ステップS112、S113に対応するズーム制御、ステップS115、S116に対応するズーム制御、あるいはステップS118、S119によるズーム制御を実行するという構成は、現在検出されている個別被写体数に応じて構図判定方法を変更しているものであるとみることができる。
ここでいう構図判定方法の変更とは、例えば構図判定、構図制御のためのアルゴリズムを変更すること、あるいは構図判定、構図制御のためのパラメータを変更することをいう。ステップS111により検出される個別被写体数が1であると判別した場合には、ステップS112、S113により、個別被写体としての画像部分の画面内での占有率に基づいてズーム制御を行うのに対して、ステップS111により検出される個別被写体数が2以上であると判別した場合には、上記の占有率ではなく、被写体間距離Kに基づいてズーム制御を行う。これは、個別被写体のサイズを調整に関する構図判定、構図制御にあたり、そのためのアルゴリズムを、検出される個別被写体数に応じて変更しているといえる。さらに、検出される個別被写体数が2以上である場合においては、個別被写体数が2の場合と3以上の場合とで、最適構図であると判定される被写体間距離Kについて、Cx/3とCx/2のようにして異なる値が設定される。これは、検出される個別被写体数に応じて、個別被写体のサイズを調整に関する構図判定、構図制御のためのパラメータを変更しているといえる。
Further, in FIG. 11, the zoom control corresponding to steps S112 and S113, the zoom control corresponding to steps S115 and S116, or the zoom control corresponding to steps S118 and S119 is executed according to the determination result in step S111. Thus, it can be considered that the composition determination method is changed according to the number of individual subjects currently detected.
The change of the composition determination method here means, for example, changing an algorithm for composition determination and composition control, or changing parameters for composition determination and composition control. When it is determined that the number of individual subjects detected in step S111 is 1, zoom control is performed based on the occupation ratio of the image portion as an individual subject in the screen in steps S112 and S113. When it is determined that the number of individual subjects detected in step S111 is 2 or more, zoom control is performed based on the inter-subject distance K instead of the above occupancy rate. It can be said that the algorithm for the composition determination and composition control related to the adjustment of the size of the individual subject is changed according to the number of detected individual subjects. Further, in the case where the number of detected individual subjects is 2 or more, the distance K between subjects determined to be the optimal composition between the case where the number of individual subjects is 2 and the case where it is 3 or more is Cx / 3. Different values are set like Cx / 2. It can be said that the parameters for composition determination and composition control relating to the adjustment of the size of the individual subject are changed according to the number of detected individual subjects.
続いては、本実施の形態における第2の構図制御について説明する。第2の構図制御では、検出される個別被写体数に応じて、以降説明するようにして撮像画像データとしての画面設定(構図)について縦長と横長とで切り換えを行う。
第2の構図制御にあっては、先ず、初期状態として横長の構図が設定された状態で被写体の検出を行うものとする。
そして、例えば図12(a)に示すようにして撮像画像データの画面内において1つの個別被写体SBJ0が検出されたとする。このようにして検出された個別被写体数が1つの場合、第2の構図制御にあっては、図12(a)から図12(b)への遷移として示すように、構図を縦長に設定するようにされる。
そのうえで、個別被写体SBJ0については、画面内における占有率が所定範囲値内となるようにしてサイズの調整(ズーム)制御を行うようにされる。また、この場合には、個別被写体SBJ0の水平方向における位置はほぼ中央となるようにしており、垂直方向における位置は、所定規則に従って中央よりも上方向にオフセットされるようにして在るようにされる。
Subsequently, the second composition control in the present embodiment will be described. In the second composition control, the screen setting (composition) as captured image data is switched between portrait and landscape according to the number of detected individual subjects as described below.
In the second composition control, first, an object is detected in a state where a horizontally long composition is set as an initial state.
For example, it is assumed that one individual subject SBJ0 is detected in the captured image data screen as shown in FIG. When the number of individual subjects detected in this way is one, in the second composition control, the composition is set to be vertically long as shown as a transition from FIG. 12 (a) to FIG. 12 (b). To be done.
In addition, for the individual subject SBJ0, size adjustment (zoom) control is performed so that the occupation ratio in the screen is within a predetermined range value. Further, in this case, the position of the individual subject SBJ0 in the horizontal direction is substantially the center, and the position in the vertical direction is offset upward from the center according to a predetermined rule. Is done.
被写体が1つの場合の構図に関して、特に人物の場合には、縦長よりも横長の構図としたほうが、全体的、総合的な構図も良好になるとの考え方をとることができる。そこで、第2の構図制御にあっては、この考え方に基づいて、個別被写体が1つのときには、縦長の構図としたうえで、個別被写体のサイズ、位置調整を行うという構図制御を行うこととしているものである。 Regarding the composition in the case of one subject, it can be considered that, in particular, in the case of a person, the overall composition becomes better when the composition is landscape rather than portrait. Therefore, in the second composition control, based on this concept, when there is one individual subject, the composition control is performed such that the composition and the position and the position of the individual subject are adjusted after having a vertically long composition. Is.
なお、本実施の形態において、上記のようにして構図を横長から縦長に変更するためには、例えば横長の構図として得られる撮像画像データから縦長サイズ分の画像領域を切り出し、このようして得られた縦長サイズの画像データ部分を利用することが考えられる。
或いは、例えば雲台10について、デジタルスチルカメラ1を横置きに対応する状態と縦置きにする状態との間で動かすことのできるような機構を設けることとしたうえで、この機構を駆動制御することで構図を変更可能とした構成も考えることができる。
In the present embodiment, in order to change the composition from landscape to portrait as described above, for example, an image area corresponding to the portrait size is cut out from captured image data obtained as a landscape composition, and thus obtained. It is conceivable to use the vertically long image data portion.
Alternatively, for example, the
また、図13(a)に示すようにして、撮像画像データの画面内において2つの個別被写体SBJ0、SBJ1が検出されたとする。第2の構図制御では、このようにして2つの個別被写体数が検出された場合には、その検出時に対応したときのままの画角での、被写体間距離Kが所定の閾値以下であるかどうかについての判断を行うようにされる。
被写体間距離Kが閾値以下である場合には、2つの個別被写体は、互いに相当に近い状態にあるということになる。このような状態であれば、構図としては、横長とするよりも縦長としたほうが好ましいとの考え方をとることができる。そこで、この場合には、図13(a)から図13(b)への遷移として示すようにして、構図を縦長に変更する。なお、構図を変更するための手法としては、例えば上記したとおりである。そのうえで、個別被写体SBJ0、SBJ1のサイズと位置が適切なものとなるようにして、ズーム制御やパン・チルト制御を行うようにされる。この場合にも、画面内での個別被写体SBJ0、SBJ1から成るとされる画像部分の水平方向における位置はほぼ中央となるようにしており、垂直方向における位置は、所定規則に従って中央よりも上方向に在るようにされている。
一方、検出された2つの個別被写体SBJ0、SBJ1の被写体間距離Kが閾値を越えている場合には、2つの個別被写体は、互いに相応に離れていることになるが、この場合には、構図としては、横長とすることが好ましいということになる。そこで、この場合には、先に図9により説明したのと同様の構図制御を行うようにされる。
Also, assume that two individual subjects SBJ0 and SBJ1 are detected in the screen of the captured image data as shown in FIG. In the second composition control, when the number of two individual subjects is detected in this way, is the subject-to-subject distance K at or below the predetermined threshold at the angle of view corresponding to the detection time? Judgment about whether or not.
When the inter-subject distance K is equal to or less than the threshold value, the two individual subjects are in a substantially close state to each other. In such a state, it is possible to take the idea that it is preferable to use a vertically long composition rather than a horizontally long composition. Therefore, in this case, the composition is changed to be vertically long as shown as a transition from FIG. 13 (a) to FIG. 13 (b). For example, the method for changing the composition is as described above. In addition, zoom control and pan / tilt control are performed so that the sizes and positions of the individual subjects SBJ0 and SBJ1 are appropriate. Also in this case, the position in the horizontal direction of the image portion composed of the individual subjects SBJ0 and SBJ1 in the screen is set substantially at the center, and the position in the vertical direction is higher than the center according to a predetermined rule To be in.
On the other hand, when the inter-subject distance K between the two detected individual subjects SBJ0 and SBJ1 exceeds the threshold value, the two individual subjects are separated from each other accordingly. Therefore, it is preferable to set it horizontally long. Therefore, in this case, composition control similar to that described above with reference to FIG. 9 is performed.
また、撮像画像データの画面内において3以上の個別被写体SBJ0〜SBJn(nは3以上の自然数)が検出されたとする。ここでは、3人以上の個別被写体が検出された場合には、構図については、横長とすることのほうが全体構図としてみたときに好ましいとの考え方を採る。そこで、この場合には、第2の構図制御としても、例えば図10により説明したのと同様の構図制御を行うようにされる。 Also, it is assumed that three or more individual subjects SBJ0 to SBJn (n is a natural number of 3 or more) are detected in the screen of the captured image data. Here, when three or more individual subjects are detected, it is assumed that the composition is preferably in landscape orientation when viewed as an overall composition. Therefore, in this case, the same composition control as described with reference to FIG. 10 is performed as the second composition control.
図14は、第2の構図制御に対応して図5に示した被写体検出処理ブロック61、構図制御処理ブロック62、及び通信制御処理ブロック63が実行するものとされる手順例を示している。
この図において、ステップS201〜S210までの手順は、図11のステップS101〜S110までの手順と同様となる。ただし、ステップS204においては、ステップS104と同様にズームアウト制御を実行するほか、これまでに設定されていた構図が縦長であったときには、初期状態である横長に設定しなおすための制御も実行するようにされる。
FIG. 14 shows an example of a procedure that is executed by the subject
In this figure, the procedure from step S201 to S210 is the same as the procedure from step S101 to S110 in FIG. However, in step S204, zoom-out control is executed in the same manner as in step S104, and when the composition set so far is vertically long, control for resetting it to the horizontally long initial state is also executed. To be done.
モードフラグf==1の状態では、ステップS111と同様にして、ステップS211により、検出された個別被写体数について、1であるのか、2であるのか、あるいは3以上であるのかを判定するようにされている。
先ず、ステップS211にて個別被写体数が1であると判別された場合には、ステップS212から始まる手順を実行する。
ステップS212においては、これまでにおいて設定されていた構図が横長である場合には、これを縦長に変更するための制御を実行する。この処理として、例えば先の説明のようにして、横長の構図として得られる撮像画像データから縦長サイズ分の画像領域を切り出すための信号処理を実行すればよい。このような処理は、信号処理部24における構図制御処理ブロック62としての機能により実現すべきものとなる。ステップS212の手順を実行すると、ステップS213に進む。
ステップS213〜ステップS215は、それぞれ、図11のステップS112〜S114と同じとなる。
上記ステップS212〜S215までの手順により、図12により説明した構図制御(個別被写体についての上方向へのオフセットを除く)が行われたこととなる。
In the state where the mode flag f == 1, it is determined in step S211 whether the number of detected individual subjects is 1 or 2 or 3 or more in the same manner as in step S111. Has been.
First, when it is determined in step S211 that the number of individual subjects is 1, a procedure starting from step S212 is executed.
In step S212, if the composition set so far is horizontally long, control for changing it to vertically long is executed. As this processing, for example, as described above, signal processing for cutting out an image area of a vertically long size from captured image data obtained as a horizontally long composition may be executed. Such processing should be realized by the function as the composition
Steps S213 to S215 are the same as steps S112 to S114 in FIG. 11, respectively.
The composition control described with reference to FIG. 12 (excluding the upward offset for the individual subject) is performed by the procedure from step S212 to step S215.
また、ステップS211にて個別被写体数が2であると判別された場合には、ステップS216から始まる手順を実行する。
ステップS216においては、検出された2つの個別被写体についての個別被写体間距離Kが閾値以下であるか否かについて判別する。ここで、肯定の判別結果が得られた場合には、ステップS217に進み、これまでにおいて設定されていた構図が横長である場合には、これを縦長に変更するための制御を実行する。そして、ステップS213〜S215の手順を実行することになる。
ただし、ステップS217からステップS213に至った場合、ステップS213〜S215の手順を実行する際には、個別被写体が2つであることに対応して設定された、個別被写体が1つのときとは異なる占有率についての所定範囲値が設定される。そして、2つの個別被写体の占有率が、この所定範囲値内に収まったとされると、個別被写体の適正サイズが得られたとして、ステップS215においてモードフラグfについて2を設定することになる。
一方、ステップS216において、否定の判別結果が得られた場合には、ステップS218からはじまる手順を実行するようにされる。
ステップS218では、これまでにおいて設定されていた構図が縦長であった場合には、これを横長に変更するための制御を実行する。これに続くステップS219〜S221の手順は、図11のステップS115〜S117と同様となる。
上記ステップS216〜S221までの手順、及びステップS217から続くステップS213〜S215の手順により、個別被写体数が2である場合の第2例の構図制御が行われる。つまり、被写体間距離Kが短いとされる場合の画面を縦長とする構図制御と、被写体間距離Kが長いとされる場合の画面を横長とする構図制御との使い分けが行われる。
If it is determined in step S211 that the number of individual subjects is 2, the procedure starting from step S216 is executed.
In step S216, it is determined whether or not the individual subject distance K between the two detected individual subjects is equal to or less than a threshold value. If an affirmative determination result is obtained, the process proceeds to step S217. If the composition set so far is horizontally long, control for changing it to vertically long is executed. Then, steps S213 to S215 are executed.
However, when the process from step S217 to step S213 is performed, when executing the procedure of steps S213 to S215, it is different from the case where the number of individual objects is one, which is set corresponding to the fact that there are two individual objects. A predetermined range value for the occupation ratio is set. If the occupation ratios of the two individual subjects are within the predetermined range value, 2 is set for the mode flag f in step S215, assuming that the appropriate size of the individual subject is obtained.
On the other hand, if a negative determination result is obtained in step S216, the procedure starting from step S218 is executed.
In step S218, if the composition set so far is vertically long, control is performed to change it to horizontally long. Subsequent steps S219 to S221 are the same as steps S115 to S117 in FIG.
The composition control of the second example when the number of individual subjects is 2 is performed by the procedure from step S216 to S221 and the procedure from step S217 to step S213 to S215. In other words, the composition control in which the screen when the inter-subject distance K is short is vertically long and the composition control in which the screen is horizontal when the inter-subject distance K is long are selectively used.
なお、構図を縦長と横長のどちらに設定するのかに関して、ステップS216においては、画面水平方向に対応する個別被写体間距離Kのみを判定の要素としている。しかし、実際においては、例えば、画面水平(左右)方向に対応する個別被写体間距離Kに加えて、画面垂直(上下)方向に対応する個別被写体間距離(Kv)も判定要素に加えることが考えられる。個別被写体間距離(Kv)は、画面において最も上に位置する個別被写体の重心と最も下に位置する個別被写体の重心との間の距離として定義できる。
例えば、実際の画面においては、上下方向において2つの個別被写体間の距離が相当に離れている場合がある。このようなときには、たとえ左右方向における2つの個別被写体間の距離が在る程度離れているとしても、縦長の構図としたほうが良好な全体構図となる場合があると考えられる。
ステップS216として、画面水平方向に対応する個別被写体間距離Kとともに、画面垂直方向に対応する個別被写体間距離Kvを判定要素に利用する場合のアルゴリズムの例を挙げておく。
例えば、画面水平方向に対応する個別被写体間距離Kと画面垂直方向に対応する個別被写体間距離Kvについての比としてK/Kvを求める。そして、このK/Kvについて、所定の閾値以上であるか否かについて判別する。K/Kvが閾値以上である場合には、上下方向における個別被写体間の距離と比べれば、水平方向における2つの個別被写体間の距離のほうが相応に広いということになる。この場合には、ステップS218により横長の構図を設定する。これに対して、K/Kvが閾値未満である場合には、上下方向における個別被写体間の距離が相応に離れていることになる。そこで、この場合には、ステップS217により縦長の構図を設定する。
あるいは、先の説明と同様に、画面水平方向に対応する個別被写体間距離Kと所定の閾値を比較し、個別被写体間距離Kが閾値以下であれば、このときには、ステップS217に進んで縦長の構図を設定する。これに対して、個別被写体間距離Kが閾値を越えた場合には、次に画面垂直方向に対応する個別被写体間距離Kvについて、所定の閾値と比較する。なお、個別被写体間距離Kvと比較する閾値は、個別被写体間距離Kに対応する閾値と同じ値である必要はなく、個別被写体間距離Kvに対応して適切に設定された値を利用すればよい。そして、個別被写体間距離Kvが閾値以内であれば、ステップS218により横長の構図を設定するが、閾値を越えるのであれば、ステップS217により縦長の構図を設定する。
Note that regarding whether to set the composition to portrait or landscape, in step S216, only the individual subject distance K corresponding to the horizontal direction of the screen is used as a determination element. However, in practice, for example, in addition to the distance K between individual subjects corresponding to the horizontal (left and right) direction of the screen, the distance between individual subjects (Kv) corresponding to the vertical (vertical) direction of the screen may be added to the determination element. It is done. The distance between individual subjects (Kv) can be defined as the distance between the center of gravity of the individual subject located at the top of the screen and the center of gravity of the individual subject located at the bottom.
For example, on an actual screen, the distance between two individual subjects may be considerably separated in the vertical direction. In such a case, even if the distance between the two individual subjects in the left-right direction is as far as possible, it may be considered that the overall composition may be better when the composition is vertically long.
As step S216, an example of an algorithm in the case where the individual subject distance Kv corresponding to the screen vertical direction and the individual subject distance Kv corresponding to the screen vertical direction are used as determination elements will be described.
For example, K / Kv is obtained as a ratio between the distance K between individual subjects corresponding to the horizontal direction of the screen and the distance Kv between individual subjects corresponding to the vertical direction of the screen. And it is discriminate | determined about this K / Kv being more than a predetermined threshold value. If K / Kv is equal to or larger than the threshold, compared with the distance between the individual subjects in the vertical direction, the more the distance between two individual subjects in the horizontal direction becomes correspondingly wider gutters Ukoto. In this case, a landscape composition is set in step S218. On the other hand, when K / Kv is less than the threshold, the distance between the individual subjects in the vertical direction is correspondingly increased. Therefore, in this case, a vertically long composition is set in step S217.
Alternatively, as in the previous description, the distance between individual subjects K corresponding to the horizontal direction of the screen is compared with a predetermined threshold value. Set the composition. On the other hand, when the distance K between individual subjects exceeds the threshold value, the individual subject distance Kv corresponding to the vertical direction of the screen is compared with a predetermined threshold value. Note that the threshold value to be compared with the individual subject distance Kv does not have to be the same value as the threshold value corresponding to the individual subject distance K, and if a value appropriately set corresponding to the individual subject distance Kv is used. Good. Then, if it is within the threshold value is subject-to-subject distance Kv, is to set the horizontal composition in step S218, if the exceeding the threshold value, to set the portrait composition in step S217.
ステップS211にて個別被写体数が3であると判別された場合には、ステップS222から始まる手順を実行する。ステップS222では、これまでにおいて設定されていた構図が縦長であった場合には、これを横長に変更するための制御を実行する。これに続くステップS223〜S225の手順は、図11のステップS118〜S120と同様となる。 If it is determined in step S211 that the number of individual subjects is 3, the procedure starting from step S222 is executed. In step S222, if the composition set so far is vertically long, control is performed to change it to horizontally long. Subsequent steps S223 to S225 are the same as steps S118 to S120 in FIG.
これまでの手順を経た結果として、モードフラグfについて2が設定された状態では、ステップS226から始まる手順を実行することになる。
ステップS226、S227による手順は、図11のS121、S122と同様となる。この手順が実行されることで、例えば先に図12、図13により述べたようにして、個別被写体が画面内において、中央よりも上側に位置するような構図を得ることができる。
As a result of the procedure so far, in a state where 2 is set for the mode flag f, the procedure starting from step S226 is executed.
The procedures in steps S226 and S227 are the same as S121 and S122 in FIG. By executing this procedure, for example, as described above with reference to FIGS. 12 and 13, it is possible to obtain a composition in which the individual subject is positioned above the center in the screen.
ステップS228〜S230は、図11のステップS123〜S125と同様にして、レリーズ動作に関連した手順となる。この手順が実行されることで、構図制御によって最適構図が得られている撮像画像データを記憶媒体に記録できることになる。 Steps S228 to S230 are procedures related to the release operation in the same manner as steps S123 to S125 of FIG. By executing this procedure, captured image data for which an optimum composition is obtained by composition control can be recorded in a storage medium.
なお、先の図11及び上記図14に示される各構図制御の手順は、その全体の流れからしてみると、検出される個別被写体の数に応じて最適とみなされる構図を判定、決定し、この判定した構図の撮像画像データが実際に得られる(反映される)ようにして、ズーム制御、及びパン・チルト制御を適宜実行しているものであるとみることができる。 Note that the composition control procedures shown in FIG. 11 and FIG. 14 are determined and determined based on the overall flow in accordance with the number of individual subjects detected. Thus, it can be considered that the zoom control and the pan / tilt control are appropriately executed so that the captured image data of the determined composition is actually obtained (reflected).
また、図11及び図14に示される各構図制御の手順にあっては、基本的には、検出される個別被写体数が1つの場合、2つの場合、3以上の場合の3つの条件分岐に対応させて構図を判定するようにしている。しかし、これはあくまでも一例であって、例えば個別被写体数が3以上の場合において、さらに具体的な個別被写体数ごとに区分して構図が判定されるように構成してもよい。
例えば、縦長と横長の何れの構図を設定するのか、という構図判定のアルゴリズムに関して、図14の場合には、検出される個別被写体数が2のときには、個別被写体間距離Kに応じて縦長と横長の何れかが選択されるが、検出される個別被写体数が3以上の場合には、一律に横長を設定することとしている。しかし、例えば、検出される個別被写体数が3以上の場合であっても、検出される個別被写体数ごとに適合するようにして設定した閾値と、そのときの個別被写体間距離Kとを比較した結果に基づいて、横長と縦長の何れの構図とするのかを決定するように構成してもよい。つまり、検出される個別被写体数が2以上であれば、個別被写体間距離Kに基づいた縦長構図と横長構図の判定を行うようにして構成できる。また、このときにも、先にステップS216において述べた、垂直方向に対応する個別被写体間距離Kvを判定要素に加えることができる。
In each composition control procedure shown in FIGS. 11 and 14, basically, when the number of detected individual subjects is one, two cases are divided into three conditional branches in the case of three or more. The composition is determined in correspondence. However, this is merely an example. For example, when the number of individual subjects is three or more, the composition may be determined by further dividing the number of individual subjects.
For example , regarding the composition determination algorithm for determining which composition is portrait or landscape, in the case of FIG. 14, when the number of detected individual subjects is 2, portrait and landscape are selected according to the distance K between the individual subjects. However, when the number of detected individual subjects is 3 or more, the landscape is uniformly set. However, for example, even when the number of detected individual subjects is 3 or more, the threshold set so as to be adapted to each detected number of individual subjects was compared with the distance K between the individual subjects at that time. Based on the result, it may be configured to determine whether the composition is landscape or portrait. In other words, when the number of detected individual subjects is two or more, the composition can be configured such that the portrait composition and landscape composition are determined based on the distance K between the individual subjects. Also at this time, the individual subject distance Kv corresponding to the vertical direction described above in step S216 can be added to the determination element.
ところで、本実施の形態の撮像システムを利用するのにあたって、その周囲において相応に多くの人がいる環境の中で、特定の1又は複数の人物のみ対象にして構図制御を実行させたいような状況もあると考えられる。しかしながら、被写体検出処理が顔検出技術に基づくものであるとして、単純に検出された顔を全て個別被写体数として認識してしまうようなアルゴリズム構成であると、上記のようにして、特定人物のみを対象とする構図制御は適正に行われなくなってしまう。特に、本実施の形態の構図制御は、個別被写体数に応じて異なる構図を設定するので、ユーザが望まない構図となる結果が生じる可能性も相応に高くなると考えられる。 By the way, when using the imaging system of the present embodiment, there is a situation in which composition control is performed only on one or more specific persons in an environment where there are correspondingly many people. It is believed that there is. However, assuming that the subject detection processing is based on face detection technology, the algorithm configuration that simply recognizes all detected faces as the number of individual subjects, as described above, only a specific person is detected. The target composition control is not performed properly. In particular, since the composition control according to the present embodiment sets different compositions according to the number of individual subjects, it is considered that the possibility of producing a result that the user does not want is likely to increase accordingly.
そこで、本実施の形態として上記のような状況に対応させる場合には、図11のステップS102若しくは図14のステップS202における被写体検出処理において、次のような被写体の弁別処理が可能なように構成することができる。 Therefore, when the present embodiment is adapted to the above situation, the subject detection process in step S102 of FIG. 11 or step S202 of FIG. 14 is configured such that the following subject discrimination process is possible. can do.
この場合には、先ず、例えばデジタルスチルカメラ1に対する操作により、構図制御の対象とする個別被写体(対象個別被写体)の上限数を設定できるようにしておく。設定された対象個別被写体上限数の情報は、例えば被写体検出処理ブロック61が保持しておくようにされる。ここでは、具体例として、対象個別被写体上限数として2が設定されているものとする。
そして、例えば被写体探索動作(ステップ105、S205)を実行した結果、図15(a)に示す画内容の撮像画像データが得られたとする。これに対応するステップS101若しくはS202の被写体検出処理としては、顔検出により4つの個別被写体の存在を検出することになる。この段階において検出される個別被写体は、ここでは、「被写体候補」として扱われる。図では、画面内の4つの被写体候補について、左から右にかけて、被写体候補DSBJ0、DSBJ1、DSBJ2、DSBJ3と符号を付している。
In this case, first, an upper limit number of individual subjects (target individual subjects) to be subject to composition control can be set by, for example, an operation on the digital
For example, assume that captured image data having the image content shown in FIG. 15A is obtained as a result of executing the subject search operation (step 105, S205). Corresponding to the subject detection processing in step S101 or S202, the presence of four individual subjects is detected by face detection. The individual subject detected at this stage is treated as a “subject candidate” here. In the figure, the four candidate subjects in the screen are labeled with subject candidates DSBJ0, DSBJ1, DSBJ2, and DSBJ3 from left to right.
このようにして、単純に顔検出を行った結果としては4つの被写体(候補被写体)が検出される。しかし、上記したように、この場合においては対象個別被写体上限数として2が設定されていることとしている。このことに基づいて、被写体検出処理ブロック61は、4つの候補被写体DSBJ0、DSBJ1、DSBJ2、DSBJ3のうちで、サイズの大きなほうから順に2つの候補被写体を選び、これらの候補被写体を対象個別被写体とする。この場合には、候補被写体DSBJ0、DSBJ1、DSBJ2、DSBJ3のうちで、サイズの最も大きな2つは、候補被写体DSBJ2、DSBJ3であることになる。そこで、被写体検出処理ブロック61は、図15(b)に示すようにして、候補被写体DSBJ2、DSBJ3を、それぞれ、対象個別被写体SBJ0、SBJ1として扱うこととして、候補被写体DSBJ0、DSBJ1については、対象個別被写体ではないものとして無視する。そして、図11のステップS107以降若しくは図14のS207以降の構図制御のための手順を実行する際には、対象個別被写体のみを制御の対象とするようにされる。このような被写体の弁別が行われることで、例えば多くの人が周囲にいるような環境、状況であっても、撮像システムに対して最も手前の位置に構図制御の対象としたい人物が居るようにすることで、これらの人物のみを対象とした適正な構図制御による撮影が行えることになる。
In this way, four subjects (candidate subjects) are detected as a result of simple face detection. However, as described above, in this case, 2 is set as the target individual subject upper limit number. Based on this, the subject
図16のフローチャートは、図11のステップS102或いは図14のステップS202の被写体検出処理の一部として実行される、上記の被写体弁別のための手順例を示している。
この処理にあっては、例えば先ず、顔検出処理により検出された全ての被写体を被写体候補として扱うこととしている。そして、ステップS301においては、この被写体候補が少なくとも1つ検出されるのを待機しており、被写体候補が検出されたのであれば、ステップS302に進む。
The flowchart in FIG. 16 shows an example of the procedure for subject discrimination described above, which is executed as part of the subject detection process in step S102 in FIG. 11 or step S202 in FIG.
In this process, for example, first, all subjects detected by the face detection process are treated as subject candidates. In step S301, the process waits until at least one subject candidate is detected. If a subject candidate is detected, the process proceeds to step S302.
ステップS302においては、現在において設定されている対象個別被写体上限数が、上記ステップS301に対応して検出された被写体候補数以上であるか否かについて判別することとしている。
ステップS302において肯定の判別結果が得られた場合には、被写体候補の数が対象個別被写体上限数を超えていないことになる。そこで、この場合には、ステップS303により、検出された全ての被写体候補を対象個別被写体として扱うものとして設定する。
これに対して、ステップS302において否定の判別結果が得られた場合には、被写体候補の数が対象個別被写体上限数よりも多いことになる。この場合には、ステップS304により、検出された被写体候補のサイズの大きい順から、対象個別被写体上限数分の被写体候補を選別する。そして、ステップS305により選別した被写体候補を、対象個別被写体として扱うものとして設定する。これにより、被写体弁別が行われたこととなる。
このような図16の手順を経ることで、図11のステップS102或いは図14のステップS202の被写体検出処理の結果としては、上記ステップS303又はステップS205により設定された対象個別被写体の数、対象個別被写体ごとのサイズ、位置などの情報を、検出情報として構図制御処理ブロック62に出力することになる。構図制御処理ブロック62は、この検出情報を利用して、図11のステップS107以降、或いは図14のステップS207以降の構図制御を実行する。
In step S302, it is determined whether or not the currently set target individual subject upper limit number is equal to or greater than the number of subject candidates detected corresponding to step S301.
If a positive determination result is obtained in step S302, the number of subject candidates does not exceed the target individual subject upper limit number. Therefore, in this case, all detected subject candidates are set to be handled as target individual subjects in step S303.
On the other hand, if a negative determination result is obtained in step S302, the number of subject candidates is larger than the target individual subject upper limit number. In this case, in step S304, subject candidates corresponding to the upper limit number of target individual subjects are selected in descending order of the size of the detected subject candidates. Then, the subject candidates selected in step S305 are set to be handled as target individual subjects. As a result, subject discrimination is performed.
Through the procedure of FIG. 16, the result of the subject detection process in step S102 of FIG. 11 or step S202 of FIG. 14 is the number of target individual subjects set in step S303 or step S205. Information such as the size and position of each subject is output to the composition
図17は、本実施の形態の撮像システムの変形例としての構成例を示している。
この図では、先ず、デジタルスチルカメラ1から通信制御処理ブロック63を経由して、撮像に基づいて信号処理部24にて生成される撮像画像データを、雲台10に対して送信するようにされている。
この図においては、雲台10の構成として通信制御処理ブロック71、パン・チルト制御処理ブロック72、被写体検出処理ブロック73、及び構図制御処理ブロック74が示されている。
通信制御処理ブロック71は、図4の通信部52に対応する機能部位であって、デジタルスチルカメラ1側の通信制御処理ブロック部63(雲台対応通信部34)との通信処理を所定のプロトコルに従って実行するようにして構成される部位である。
通信制御処理ブロック71により受信された撮像画像データは、被写体検出処理ブロック73に渡される。この被写体検出ブロッ73は、例えば図5に示した被写体検出処理ブロック61と同等の被写体検出処理が少なくとも可能なだけの信号処理部を備えて構成され、取り込んだ撮像画像データを対象として被写体検出処理を実行し、その検出情報を構図制御処理ブロック74に出力する。
構図制御処理ブロック74は、図4の構図制御処理ブロック62と同等の構図制御を実行可能とされており、この構図制御処理の結果としてパン制御、チルト制御を行うときには、そのための制御信号をパン・チルト制御処理ブロック72に対して出力する。
パン・チルト制御処理ブロック72は、例えば図4における制御部51が実行する制御処理のうちで、パン・チルト制御に関する処理の実行機能に対応するもので、入力される制御信号に応じてパン機構部53、チルト機構部56の動きをコントロールするための信号をパン用駆動部55、チルト用駆動部58に対して出力する。これにより、構図制御処理ブロック62にて判定した構図が得られるようにしてパンニング、チルティングが行われる。
このようにして、図17に示す撮像システムは、デジタルスチルカメラ1から雲台10に撮像画像データを送信させることとして、雲台10側により、取り込んだ撮像画像データに基づく被写体検出処理と構図制御とを実行するようにして構成しているものである。
FIG. 17 shows a configuration example as a modified example of the imaging system of the present embodiment.
In this figure, first, the captured image data generated by the
In this figure, a communication
The communication
The captured image data received by the communication
The composition
The pan / tilt
In this manner, the imaging system shown in FIG. 17 transmits the captured image data from the digital
図18は、本実施の形態の撮像システムについての他の変形例としての構成例を示している。なお、この図において、図17と同一部分には同一符号を付して説明を省略する。
このシステムにおいては、雲台10側において撮像部75が備えられる。この撮像部75は、例えば撮像のための光学系と撮像素子(イメージャ)を備えて、撮像光に基づいた信号(撮像信号)を得るようにされているとともに、この撮像信号から撮像画像データを生成するための信号処理部から成る。これは、例えば図1に示した光学系部21、イメージセンサ22、A/Dコンバータ23、及び信号処理部24において撮像画像データを得るまでの信号処理段から成る部位に対応する構成となる。撮像部75により生成される撮像画像データは被写体検出処理ブロック73に出力される。なお、撮像部75が撮像光を取り込む方向(撮像方向)は、例えば雲台10に載置されるデジタルスチルカメラ1の光学系部21(レンズ部3)の撮像方向とできるだけ一致するようにして設定される。
FIG. 18 shows a configuration example as another modified example of the imaging system of the present embodiment. In this figure, the same parts as those in FIG.
In this system, an
この場合の被写体検出処理ブロック73及び構図制御処理ブロック74は、上記図17と同様にして被写体検出処理、構図制御処理を実行する。但し、この場合の構図制御処理ブロック73は、パン・チルト制御に加えて、レリーズ動作を実行させるタイミングに対応してはレリーズ指示信号を、通信制御処理ブロック71からデジタルスチルカメラ1に対して送信させる。デジタルスチルカメラ1では、レリーズ指示信号が受信されることに応じてレリーズ動作を実行するようにされる。
このようにして他の変形例では、被写体検出処理と構図制御に関して、レリーズ動作自体に関する以外の全ての制御・処理を雲台10側で完結して行うことができる。
In this case, the subject
In this way, in another modified example, regarding the subject detection processing and composition control, all control / processing other than the release operation itself can be completed on the
さらに、本実施の形態の撮像システムによる被写体検出であるとか構図制御については、下記のような変形を考えることもできる。
例えば、これまでにおいては、特に水平方向(左右方向)に関しての構図制御に関しては述べていないが、例えば三分割法などによれば、被写体を中央に配置するのではなく、左右何れかの方向に偏らせることによっても良い構図が得られるものとされている。そこで、実際においては、個別被写体数に応じた構図制御として、例えば被写体重心(個別被写体重心、総合被写体重心)についての左右方向における所要量の移動が行われるように構成することとしてもよい。
Furthermore, the following modifications can be considered for subject detection and composition control by the imaging system of the present embodiment.
For example, the composition control in the horizontal direction (left and right direction) has not been described so far. For example, according to the three-division method or the like, the subject is not placed in the center but in the left or right direction. A good composition can be obtained by biasing. Therefore, in actuality, as composition control according to the number of individual subjects, for example, a required amount of movement in the left-right direction with respect to the subject gravity center (individual subject gravity center, total subject gravity center) may be performed.
また、図11、図14に示される構図制御において実行されるパン制御、チルト制御は、雲台10のパン・チルト機構の動きを制御することにより行うこととしているが、雲台10に代えて、例えば、デジタルスチルカメラ1のレンズ部3に対しては、反射鏡により反射された撮像光が入射されるようにしたうえで、撮像光に基づいて得られる画像についてパンニング・チルティングされた結果が得られるようにして上記反射光を動かす構成を採用することも考えられる。
また、デジタルスチルカメラ1のイメージセンサ22から画像として有効な撮像信号を取り込むための画素領域を水平方向と垂直方向にシフトさせるという制御を行うことによっても、パンニング・チルティングが行われるのと同等の結果を得ることができる。この場合には、雲台若しくはこれに準ずる、デジタルスチルカメラ1以外のパン・チルトのための装置部を用意する必要が無く、デジタルスチルカメラ1単体により本実施の形態としての構図制御を完結させることが可能となる。
また、光学系部21におけるレンズの光軸を水平・垂直方向に変更することのできる機構を備えて、この機構の動きを制御するように構成しても、パンニング・チルティングを行うことが可能である。
In addition, the pan control and tilt control executed in the composition control shown in FIGS. 11 and 14 are performed by controlling the movement of the pan / tilt mechanism of the
Further, by performing control of shifting a pixel region for capturing an effective imaging signal as an image from the
In addition, it is possible to perform panning and tilting even if a mechanism is provided that can change the optical axis of the lens in the
また、本願発明に基づく構図判定のための構成は、これまでに実施の形態として説明してきた撮像システム以外にも適用することができる。そこで以降、本願発明による構図判定の適用例について述べる。 Further, the configuration for composition determination based on the present invention can be applied to other than the imaging system described as the embodiment so far. Therefore, hereinafter, application examples of composition determination according to the present invention will be described.
先ず、図19は、本願発明による構図判定を、デジタルスチルカメラなどの撮像装置単体に対して適用したもので、例えば撮像モード時において撮像装置により撮像している画像が適正な構図になったときに、このことを表示によってユーザに通知しようとするものである。
このために撮像装置が備えるべき構成として、ここでは被写体検出・構図判定処理ブロック81、通知制御処理ブロック82、表示部83を示している。
被写体検出・構図判定処理ブロック81は、撮像画像データを取り込んで、例えば図5の被写体検出処理ブロック61と同等の被写体検出処理と、この被写体検出処理の結果としての検出情報を利用して、例えば図5と同等の構図判定のための処理とを行うようにされた部位である。
例えばユーザは、撮像装置を撮像モードに設定したうえで、撮像装置を手に持っており、いつでもレリーズ操作(シャッターボタン操作)を行えば撮像画像の記録が行える状況にあるものとする。
このような状態の下、被写体検出・構図判定処理ブロック81では、そのときに撮像して得られる撮像画像データを取り込んで被写体検出を行う。すると構図制御処理によっては、先ず、検出された個別被写体の数等に応じて最適構図がどのようなものであるのかが特定されることになるが、この場合の構図判定処理としては、そのときに得られている撮像画像データの画内容の構図と、最適構図との一致性、類似度を求めるようにされる。そして、例えば類似度が一定以上になったときに、実際に撮影して得られている撮像画像データの画内容が最適構図になったと判定するようにされる。なお、例えば実際においては、撮像画像データの画内容の構図と最適構図とが一致したとみなされる程度の、所定以上の類似度が得られたら、最適構図と判断するようにしてアルゴリズムを構成することが考えられる。また、ここでの一致性、類似度をどのようにして求めるのかについては多様なアルゴリズムを考えることができるので、ここでは、その具体例については特に言及しない。
このようにして撮像画像データの画面内容が最適構図になったことの判定結果の情報は通知制御処理ブロック82に対して出力される。通知制御処理ブロック82は、上記の情報の入力に応じて、現在において撮像されている画像が最適構図であることをユーザに通知するための所定態様による表示が表示部83にて行われるように表示制御を実行する。なお、通知制御処理ブロック82は、撮像装置が備えるマイクロコンピュータ(CPU)などによる表示制御機能と、表示部83に対する画像表示を実現するための表示用画像処理機能などにより実現される。なお、ここでの最適構図であることのユーザへの通知は、電子音、若しくは合成音声などをはじめとした音により行われるように構成してもよい。
また、表示部83は、例えば本実施の形態のデジタルスチルカメラ1の表示部33に対応するもので、例えば撮像装置における所定位置に対してそのディスプレイパネルが表出するようにして設けられ、撮影モード時にはいわゆるスルー画といわれる、そのときに撮像されている画像が表示されることが一般的である。従って、この撮像装置の実際にあっては、表示部83において、スルー画に対して重畳される態様で最適構図であることを通知する内容の画像が表示されることになる。ユーザは、この最適構図であることを通知する表示が現れたときにレリーズ操作を行うようにされる。これにより、写真撮影の知識や技術に長けていないようなユーザであっても、良好な構図の写真撮影を簡単に行うことが可能になる。
First, FIG. 19 shows a case where the composition determination according to the present invention is applied to a single imaging apparatus such as a digital still camera. For example, when an image captured by the imaging apparatus in an imaging mode becomes an appropriate composition. In addition, this is to be notified to the user by display.
For this purpose, the object detection / composition
The subject detection / composition
For example, it is assumed that the user sets the imaging device in the imaging mode, holds the imaging device in his hand, and can record the captured image at any time by performing a release operation (shutter button operation).
Under such a state, the subject detection / composition
Information on the determination result that the screen content of the captured image data has the optimum composition in this way is output to the notification
The
また、図20も、上記図19と同様にデジタルスチルカメラなどの撮像装置単体に対して本願発明による構図判定を適用したものとなる。
先ず、この図に示す構成においては、図19と同様に、被写体検出・構図判定処理ブロック81により、そのときの撮像により得られる撮像画像データを取り込んで被写体検出処理を行うとともに、被写体検出情報に基づいて、上記の撮像画像データの画内容が最適構図であるか否かを判定するようにされる。そして、最適構図になったことを判定すると、このことをレリーズ制御処理ブロック84に対して通知する。
レリーズ制御処理ブロック84は、撮像画像データを記録するための制御を実行する部位とされ、例えば撮像装置が備えるマイクロコンピュータが実行する制御などにより実現される。上記の通知を受けたレリーズ制御処理ブロック84は、そのときに得られている撮像画像データが、例えば記憶媒体に記憶されるようにして画像信号処理、記録制御処理を実行する。
このような構成であれば、例えば最適な構図の画像が撮像されたときには、自動的にその撮像画像の記録が行われるようにした撮像装置を得ることができる。
FIG. 20 also applies the composition determination according to the present invention to a single imaging apparatus such as a digital still camera as in FIG.
First, in the configuration shown in this figure, as in FIG. 19, the subject detection / composition
The release
With such a configuration, for example, when an image with an optimal composition is captured, an imaging apparatus can be obtained in which the captured image is automatically recorded.
なお、上記図19及び図20の構成は、例えばスチルカメラの範疇であれば、例えば図1により示されるような構成のデジタルスチルカメラに適用できるほか、銀塩フィルムなどに撮像画像を記録するいわゆる銀塩カメラといわれるものにも、例えば光学系により得られた撮像光を分光して取り入れるイメージセンサと、このイメージセンサからの信号を入力して処理するデジタル画像信号処理部などを設けることで適用が可能である。 19 and 20 can be applied to, for example, a digital still camera having a configuration as shown in FIG. 1, for example, in the category of a still camera, or so-called recording a captured image on a silver salt film or the like. Also applied to what is called a silver halide camera by providing an image sensor that spectrally captures imaged light obtained by an optical system and a digital image signal processing unit that inputs and processes signals from this image sensor Is possible.
また、図21は、既に存在する画像データに対して画像編集を行う編集装置に本願発明を適用した例である。
この図においては編集装置90が示されている。ここでの編集装置90は、既に存在する画像データとして、例えば記憶媒体に記憶されていたものを再生して得た画像データ(再生画像データ)を得るようにされている。なお、記憶媒体から再生したものの他に、例えばネットワーク経由でダウンロードしたものを取り込んでもよい。即ち、編集装置90が取り込むべき撮像画像データをどのような経路で取得するのかについては、特に限定されるべきものではない。
FIG. 21 shows an example in which the present invention is applied to an editing apparatus that performs image editing on already existing image data.
In this figure, an editing device 90 is shown. Here, the editing device 90 is configured to obtain image data (reproduced image data) obtained by reproducing, for example, data stored in a storage medium, as already existing image data. In addition to the data reproduced from the storage medium, for example, data downloaded via a network may be imported. That is, the route through which the captured image data to be captured by the editing apparatus 90 is acquired is not particularly limited.
編集装置90が取り込んだとされる再生撮像画像データは、トリミング処理ブロック91と被写体検出・構図判定処理ブロック92のそれぞれに対して入力される。
先ず、被写体検出・構図判定処理ブロック92は、例えば先ず、図19、図20と同様の被写体検出処理を実行して検出情報を出力する。そして、この検出情報を利用した構図判定処理として、この場合には、入力される再生撮像画像データとしての全画面において、最適構図が得られるとされる所定の縦横比による画像部分(最適構図の画像部分)がどこであるのかを特定する。そして、最適構図の画像部分が特定されると、例えばその画像部分の位置を示す情報(トリミング指示情報)をトリミング処理ブロック91に対して出力する。
トリミング処理ブロック91は、上記のようにしてトリミング指示情報が入力されたことに応答して、入力される再生撮像画像データから、トリミング指示情報が示す画像部分を抜き出すための画像処理を実行し、抜き出した画像部分を1つの独立した画像データとして出力する。これが編集撮像画像データとなる。
このような構成であれば、例えば画像データの編集処理として、元々ある画像データの画内容から最適構造となる部分を抜き出した内容の画像データを新規に得るというトリミングが自動的に行われることになる。このような編集機能は、例えばパーソナルコンピュータなどにインストールされる画像データ編集のためのアプリケーションであるとか、画像データを管理するアプリケーションにおける画像編集機能などで採用することが考えられる。
Reproduced captured image data taken by the editing device 90 is input to the
First, the subject detection / composition
In response to the input of the trimming instruction information as described above, the trimming
With such a configuration, for example, as image data editing processing, trimming is automatically performed in which image data having a content obtained by extracting a portion having an optimal structure from the image content of the original image data is newly obtained. Become. Such an editing function may be adopted, for example, as an image data editing application installed in a personal computer or an image editing function in an application for managing image data.
図22は、本願発明の構図判定をデジタルスチルカメラなどの撮像装置に適用した構成の一例である。
ここでは図示していない撮像部により撮像して得られる撮像画像データは、撮像装置100内の被写体検出・構図判定処理ブロック101、ファイル作成処理ブロック103とに対して入力することとしている。なお、この場合において、撮像装置100内に入力された撮像画像データは、例えばレリーズ操作などに応じて記憶媒体に記憶されるべきこととなった撮像画像データであり、ここでは図示していない、撮像部での撮像により得られた撮像信号を基に生成されたものである。
先ず被写体検出・構図判定処理ブロック101では、入力された撮像画像データを対象に被写体検出を行い、その検出情報に基づいて最適構図がどのようなものであるのかを判定するようにされる。具体的には、例えば図21の場合と同様にして、入力された撮像画像データの全画面において最適構図となる画像部分を特定した情報が得られるようにされればよい。そして、このようにして得た最適構図についての判定結果を表す情報を、メタデータ作成処理ブロック102に対して出力する。
メタデータ作成処理ブロック102では、入力された情報に基づいて、対応する撮像画像データから最適構図を得るために必要な情報から成るメタデータ(構図編集メタデータ)を作成し、ファイル作成処理ブロック103に対して出力する。この構図編集メタデータの内容としては、例えば、対応する撮像画像データとしての画面においてトリミングする画像領域部分がどこであるのかを示し得る位置情報などとなる。
この図に示す撮像装置100では、撮像画像データについて、所定形式による静止画像ファイルとして管理されるようにして記憶媒体に記録するものとされる。これに対応して、ファイル作成処理ブロック103は、撮像画像データを、静止画像ファイル形式に変換(作成)する。
ファイル作成処理ブロック103は、先ず、入力される撮像画像データについて、画像ファイル形式に対応した画像圧縮符号化を行い、撮像画像データから成るファイル本体部分を作成する。これとともに、メタデータ作成処理ブロック102から入力された構図編集メタデータを、所定の格納位置に対して格納するようにしてヘッダ及び付加情報ブロックなどのデータ部分を作成する。そして、これらファイル本体部分、ヘッダ、付加情報ブロックなどから静止画像ファイルを作成し、これを出力する。これにより、図示するようにして、記憶媒体に記録すべき静止画像ファイルとしては、撮像画像データとともにメタデータ(構図編集メタデータ)が含まれる構造を有したものが得られることになる。
FIG. 22 shows an example of a configuration in which the composition determination of the present invention is applied to an imaging apparatus such as a digital still camera.
Here, captured image data obtained by imaging by an imaging unit (not shown) is input to the subject detection / composition
First, in the subject detection / composition
In the metadata
In the imaging apparatus 100 shown in this figure, captured image data is recorded on a storage medium so as to be managed as a still image file in a predetermined format. In response to this, the file
First, the file
図23は、上記図22の装置により作成された静止画像ファイルについて編集を行う編集装置の構成例を示している。
図に示す編集装置110は、静止画像ファイルのデータを取り込んで、先ずメタデータ分離処理ブロック111に入力する。メタデータ分離処理ブロック111は、静止画像ファイルのデータから、ファイル本体部分に相当する撮像画像データとメタデータとを分離する。分離して得られたメタデータについてはメタデータ解析処理ブロック112に対して出力し、撮像画像データについてはトリミング処理ブロック113に対して出力する。
FIG. 23 shows a configuration example of an editing apparatus that edits a still image file created by the apparatus of FIG.
The editing apparatus 110 shown in the drawing takes in still image file data and first inputs it to the metadata
メタデータ解析処理ブロック112は、取り込んだメタデータを解析する処理を実行する部位とされる。そして、解析処理として、構図編集メタデータについては、その内容である最適構図を得るための情報から、すくなくとも、対応の撮像画像データを対象としてトリミングを行う画像領域を特定する。そして、この特定された画像領域のトリミングを指示するトリミング指示情報をトリミング処理ブロック113に対して出力する。
トリミング処理ブロック113は、先の図21のトリミング処理ブロック91と同様に、メタデータ分離処理ブロック111側から入力した撮像画像データから、上記メタデータ分離処理ブロック112から入力されるトリミング指示情報が示す画像部分を抜き出すための画像処理を実行し、抜き出した画像部分を1つの独立した画像データである、編集撮像画像データとして出力する。
The metadata
The trimming
上記図22、図23に示される撮像装置と編集装置から成るシステムによれば、例えば撮影などにより得たオリジナルの静止画像データ(撮像画像データ)はそのまま無加工で保存しておけるようにしたうえで、このオリジナル静止画像データからメタデータを利用して、最適構図となる画像を抜き出す編集が行えることになる。また、このような最適構図に対応した抜き出し画像部分の決定は、自動的に行われるものとなる。 According to the system including the imaging device and the editing device shown in FIGS. 22 and 23, original still image data (captured image data) obtained by, for example, photographing can be stored as it is without being processed. Thus, editing can be performed to extract an image having the optimum composition from the original still image data by using metadata. Further, the extraction image portion corresponding to such an optimal composition is automatically determined.
図24は、ビデオカメラなどとしての動画像の撮影記録が可能な撮像装置に本願発明を適用した例である。
この図に示す撮像装置120には、動画像データが入力される。この動画像データは、例えば同じ撮像装置120が有するとされる撮像部により撮像を行って得られる撮像信号に基づいて生成されるものである。この動画像データは、撮像装置120における被写体検出・構図判定処理ブロック122、及びファイル作成・記録処理ブロック124に対して入力される。
この場合の被写体検出・構図判定処理ブロック122は、入力されてくる動画像データについての構図の良否判定を行う。例えば、被写体検出・構図判定処理ブロック122では、予め良好とされる構図がどのようなものであるのかについてのパラメータ(良好構図対応パラメータ)を保持している。このパラメータとしては、検出される個別被写体数ごとに応じて適切であるとして設定された画面内における個別被写体の占有率、被写体間距離Kなどとなる、そして、被写体検出・構図判定処理ブロック122は、入力されてくる動画像データについて、例えば継続的にどのような構図となっているかについての構図判定を行う(例えば動画像データにおける実際の個別被写体の占有率、被写体間距離Kなどの構図パラメータを求める)と共に、この判定結果として得られた動画像データの構図パラメータと、上記の良好構図パラメータとを比較する。そして、動画像データの構図パラメータが良好構図対応パラメータに対して一定以上の類似度を有していれば良好な構図であると判定され、上記類似度が一定以下であれば、良好な構図ではないと判定される。
被写体検出・構図判定処理ブロック122は、上記のようにして動画像データについて良好な構図が得られていると判定したときには、メタデータ作成処理ブロック123に対して、動画像データにおいて、今回、上記の良好な構図が得られていると判定した画像区間(良好構図画像区間)がどこであるのかを示す情報(良好構図画像区間指示情報)を出力する。良好構図画像区間指示情報)は、例えば動画像データにおける良好構図画像区間としての開始位置と終了位置を示す情報などとされる。
FIG. 24 shows an example in which the present invention is applied to an imaging apparatus capable of capturing and recording moving images as a video camera or the like.
Moving image data is input to the imaging device 120 shown in this figure. This moving image data is generated based on an imaging signal obtained by imaging by an imaging unit assumed to be included in the same imaging device 120, for example. This moving image data is input to the subject detection / composition
In this case, the subject detection / composition
When the subject detection / composition
この場合のメタデータ作成処理ブロック123は、次に説明する動画像記録処理ブロック124により記憶媒体にファイルとして記録される動画像データについての、各種所要のメタデータを生成するものとされる。そのうえで、上記のようにして被写体検出・構図判定処理ブロック122から良好構図画像区間指示情報を入力した場合には、入力された良好構図画像区間指示情報が示す画像区間が良好な構図であることを示すメタデータを生成し、動画像記録処理ブロック124に対して出力する。
動画像記録処理ブロック124は、入力された動画像データについて、所定形式による動画像ファイルとして管理されるようにして記憶媒体に記録するための制御を実行する。そして、メタデータ作成処理ブロック123からメタデータが出力されてきた場合には、このメタデータが、動画像ファイルに付随するメタデータに含められるようにして記録されるようにするための制御を実行する。
これにより、図示するようにして、記憶媒体に記録される動画像ファイルは、撮像により得られたとする動画像データに、良好な構図が得られている画像区間を示すメタデータが付随された内容を有することになる。
なお、上記のようにしてメタデータにより示される、良好な構図が得られている画像区間は、或る程度の時間幅を有する動画像による画像区間とされてもよいし、動画像データから抜き出した静止画像によるものとされてもよい。また、上記のメタデータに代えて、良好な構図が得られている画像区間の動画像データ若しくは静止画像データを生成して、これを動画像ファイルに付随する副次的な画像データ静止画像データ(或いは動画像ファイルと独立したファイル)として記録する構成も考えられる。
また、図24に示されるようにして、撮像装置120に対して被写体検出・構図判定処理ブロック122を備える構成では、被写体検出・構図判定処理ブロック122により良好構図画像区間であると判定された動画像の区間のみを動画像ファイルとして記録するように構成することも考えられる。さらには、被写体検出・構図判定処理ブロック122により良好構図であると判定された画像区間に対応する画像データを、データインターフェースなどを経由して外部機器に出力するような構成も考えることができる。
In this case, the metadata
The moving image
As a result, as shown in the figure, the moving image file recorded on the storage medium includes the moving image data obtained by imaging accompanied by metadata indicating an image section in which a good composition is obtained. Will have.
It should be noted that the image section in which a good composition is obtained, which is indicated by the metadata as described above, may be an image section based on a moving image having a certain time width, or extracted from the moving image data. It may be based on a still image. Also, in place of the above metadata, moving image data or still image data of an image section in which a good composition is obtained is generated, and this is added to secondary image data still image data attached to the moving image file. A configuration of recording as a file (or a file independent of a moving image file) is also conceivable.
Also, as shown in FIG. 24, in the configuration in which the imaging apparatus 120 includes the subject detection / composition
図25は、印刷を行う印刷装置に本願発明を適用した例である。
この場合には、印刷装置130が、印刷すべき画像内容を有する画像データ(静止画)を取り込むこととされており、このようにして取り込んだデータは、トリミング処理ブロック131、及び被写体検出・構図判定処理ブロック132に対して入力される。
先ず、被写体検出・構図判定処理ブロック132は、図21の被写体検出・構図判定処理ブロック92と同様の被写体検出処理・構図判定処理を実行することで、入力される画像データの全画面における最適構図の画像部分を特定する処理を実行し、この処理結果に応じた内容のトリミング指示情報を生成してトリミング処理ブロック131に対して出力する。
トリミング処理ブロック131は、図21のトリミング処理ブロック91と同様にして、入力した画像データから、トリミング指示情報が示す画像部分を抜き出すための画像処理を実行する。そして、この抜き出した画像部分のデータを、印刷用画像データとして印刷制御処理ブロック133に対して出力する。
印刷制御処理ブロック133は、入力された印刷用画像データを利用して、ここでは図示していない印刷機構を動作させるための制御を実行する。
このような動作により、印刷装置130によっては、入力した画像データの画内容から、最適構図が得られているとされる画像部分が自動的に抜き出されて、1枚の画として印刷されることになる。
FIG. 25 shows an example in which the present invention is applied to a printing apparatus that performs printing.
In this case, the printing apparatus 130 captures image data (still image) having the image content to be printed. The captured data includes the trimming
First, the subject detection / composition
The trimming
The print
With such an operation, depending on the printing apparatus 130, the image portion that is said to have the optimum composition is automatically extracted from the image content of the input image data and printed as a single image. It will be.
図26に示される例は、例えば静止画像ファイルを多数記憶し、これらの静止画像ファイルを利用したサービスを提供するための装置、システムに適用して好適である。
記憶部141には、多数の静止画像ファイルが記憶される。
被写体検出・構図判定処理ブロック142は、所定のタイミングで、記憶部141に記憶されている静止画ファイルを取り込み、そのファイル本体部に格納される静止画像データを取り出す。そして、この静止画像データを対象として、例えば図22の被写体検出・構図判定処理ブロック101と同様の処理を実行して最適構図についての判定結果を表す情報を得て、この情報をメタデータ作成処理ブロック143に対して出力する。
The example shown in FIG. 26 is suitable for application to, for example, an apparatus and system for storing a large number of still image files and providing services using these still image files.
A large number of still image files are stored in the
The subject detection / composition
メタデータ作成処理ブロック143は、入力された情報に基づいて、先の図22のメタデータ作成処理ブロック102と同様に、メタデータ(構図編集メタデータ)を作成する。その上で、この場合には、作成したメタデータを、記憶部141に記憶されるメタデータテーブルに登録する。このメタデータテーブルは、同じ記憶部141に記憶される静止画像データとの対応関係が示されるようにしてメタデータを格納して成る情報単位とされる。つまり、メタデータテーブルによっては、メタデータ(構図編集メタデータ)と、このメタデータを作成するために被写体検出・構図判定処理ブロック101により被写体検出処理及び構図判定処理の対象となった静止画像ファイルとの対応が示される。
Based on the input information, the metadata
そして、例えば外部からの静止画ファイルの要求に応じて、記憶部141に記憶されている静止画像ファイルを出力する(例えばサーバであれば、クライアントからのダウンロード要求に応じて静止画像ファイルをダウンロードする場合などとなる)際には、静止画ファイル出力処理ブロック144が、記憶部141から要求された静止画像ファイルを検索して取り込むとともに、この検索した静止画ファイルに対応するメタデータ(構図編集メタデータ)も、メタデータテーブルから検索して取り込むようにされる。
Then, for example, a still image file stored in the
そして、この静止画像ファイル出力処理ブロック144は、例えば図23に示したメタデータ解析処理ブロック112、及びトリミング処理ブロック113に相当する機能ブロックを少なくとも有して成る。
静止画像ファイル出力処理ブロック144においては、内部のメタデータ作成処理ブロックにより、取り込んだメタデータを解析してトリミング指示情報を得る。そして、同じ内部のトリミング処理ブロックにより、取り込んだ静止画像ファイルに格納される静止画像データを対象として、上記トリミング指示情報に応じたトリミングを実行する。そして、トリミングにより得られた画像部分を改めて1つの静止画像データとして生成し、これを出力する。
The still image file
In the still image file
上記図26のシステム構成は、多様なサービスへの適用を考えることができる。
例えば、1つにはネットワーク経由での写真のプリントサービスに適用できる。つまり、ユーザは、プリントサービスのサーバに、プリント(印刷)してもらいたい画像データ(静止画像ファイル)をネットワーク経由でアップロードする。サーバでは、このようしてアップロードされてきた静止画像ファイルを記憶部141に記憶しておき、このファイルに対応するメタデータも作成してメタデータテーブルに登録しておく。そして、実際に印刷出力するときには、静止画像ファイル出力処理ブロック144により、最適構図を抜き出した静止画像データを印刷用の画像データとして出力する。つまり、このサービスによっては、写真プリントを依頼すると、最適構図に補正されてプリントされたものが送られてくるものである。
The system configuration shown in FIG. 26 can be applied to various services.
For example, one can be applied to a photo print service via a network. That is, the user uploads image data (still image file) desired to be printed (printed) to the print service server via the network. In the server, the still image file uploaded in this way is stored in the
また1つには、例えばブログなどのサーバにも適用することができる。記憶部141には、ブログのテキストのデータと共にアップロードされた画像データを記憶させることとする。これにより、例えばブログのページには、ユーザがアップロードした画像データから最適構図を抜き出した画像を貼り付けさせることが可能になる。
For example, it can be applied to a server such as a blog. The
なお、上記図17〜図26により説明した例は一部であって、本願発明による構図判定を適用できる装置、システム、アプリケーションソフトウェアなどはほかにも考えられる。 The examples described with reference to FIGS. 17 to 26 are only a part, and other devices, systems, application software, and the like to which the composition determination according to the present invention can be applied are also conceivable.
また、これまでの実施の形態の説明にあっては、被写体(個別被写体)は、人であることを前提としているが、例えば、動物や植物であるとか、人以外の種類のものを被写体とする場合にも、本願発明を適用することが考えられる。
また、被写体検出の対象となる画像データは、撮像に由来して得られるもの(撮像画像データ)のみに限定されるべきものではなく、例えば、絵であるとかデザイン画などの画内容を有する画像データを対象とすることも考えられる。
また、本願発明のもとで判定される構図(最適構図)は、必ずしも、三分割法のみに基づいて決まるものに限定されない。例えば、三分割法とともに、黄金率による構図設定の手法も知られているが、黄金率などの他の手法を採用することについても特に支障はない。さらには、上記三分割法であるとか、黄金率など、一般的に良いとされる構図のみに限定されるものではない。例えば一般的には良くないとされる構図であっても、構図の設定次第では、ユーザがおもしろみを感じたり、かえって良いと感じるような場合もあると考えられる。従って、本願発明のもとで判定される構図(最適構図)としては、実用性、エンタテイメント性などを考慮して任意に設定されればよく、実際においては特に制限はない。
Further, in the description of the embodiments so far, it is assumed that the subject (individual subject) is a person. For example, an object such as an animal or a plant, In this case, it is conceivable to apply the present invention.
Further, the image data to be subject to object detection should not be limited to only those obtained from imaging (captured image data), for example, images having image contents such as pictures or design images. It is also possible to target data.
Further, the composition (optimum composition) determined under the present invention is not necessarily limited to that determined based only on the three-division method. For example, a composition setting method based on the golden rate is known along with the three-division method, but there is no particular problem in adopting other methods such as the golden rate. Furthermore, the composition is not limited to the generally good composition such as the above three-division method or the golden rate. For example, even if the composition is generally not good, depending on the composition setting, it may be considered that the user may find it interesting or feel good. Therefore, the composition (optimum composition) determined under the present invention may be arbitrarily set in consideration of practicality and entertainment properties, and is not particularly limited in practice.
1 デジタルスチルカメラ、2 シャッターボタン、3 レンズ部、10 雲台、21 光学系、22 イメージセンサ、23 A/Dコンバータ、24 信号処理部、25 エンコード/デコード部、26 メディアコントローラ、27 制御部、28 ROM、29 RAM、30 フラッシュメモリ、31 操作部、32 表示ドライバ、33 表示部、34 雲台対応通信部、40 メモリカード、51 制御部、52 通信部、53 パン機構部、54 パン用モータ、55 パン用駆動部、56 チルト機構部、57 チルト用モータ、58 チルト用駆動部、61 被写体検出処理ブロック、62 構図制御処理ブロック、63 通信制御処理ブロック、SBJ(SBJ0〜n) 個別被写体、71 通信制御処理ブロック、72 パン・チルト制御処理ブロック、73 被写体検出処理ブロック、74 構図制御処理ブロック、75 撮像部、81・92・101・122・132・142 被写体検出・構図判定処理ブロック、82 通知制御処理ブロック、83 表示部、84 レリーズ制御処理ブロック、91・131 トリミング処理ブロック、102・123・143 メタデータ作成処理ブロック、103 ファイル作成処理ブロック、111 メタデータ分離処理ブロック、112 メタデータ解析処理ブロック、113 トリミング処理ブロック、124 ファイル作成・記録処理ブロック、133 印刷制御処理ブロック、141 記憶部、144 静止画ファイル出力処理ブロック DESCRIPTION OF SYMBOLS 1 Digital still camera, 2 Shutter button, 3 Lens part, 10 Head, 21 Optical system, 22 Image sensor, 23 A / D converter, 24 Signal processing part, 25 Encoding / decoding part, 26 Media controller, 27 Control part, 28 ROM, 29 RAM, 30 Flash memory, 31 Operation section, 32 Display driver, 33 Display section, 34 Pan head compatible communication section, 40 Memory card, 51 Control section, 52 Communication section, 53 Bread mechanism section, 54 Bread motor , 55 Pan drive unit, 56 Tilt mechanism unit, 57 Tilt motor, 58 Tilt drive unit, 61 Subject detection processing block, 62 Composition control processing block, 63 Communication control processing block, SBJ (SBJ0-n) Individual subject, 71 Communication control processing block, 72 Pan / tilt control Physical block, 73 Subject detection processing block, 74 Composition control processing block, 75 Imaging unit, 81, 92, 101, 122, 132, 142 Subject detection / composition determination processing block, 82 Notification control processing block, 83 Display unit, 84 Release Control processing block, 91/131 trimming processing block, 102/123/143 metadata creation processing block, 103 file creation processing block, 111 metadata separation processing block, 112 metadata analysis processing block, 113 trimming processing block, 124 file creation Recording processing block, 133 print control processing block, 141 storage unit, 144 still image file output processing block
Claims (15)
上記被写体検出手段により検出された被写体である検出被写体の数に応じて構図を判定する構図判定手段と、
を備え、
上記構図判定手段は、
上記構図判定手段は、
上記検出被写体の数が所定値以上である場合左右両端に位置する被写体間の距離に基づいて、長方形の上記画像を、縦長と横長の何れとするのかを判定する
構図判定装置。 Subject detection means for detecting the presence of a specific subject in the image based on the image data;
Composition determining means for determining the composition according to the number of detected subjects that are the subjects detected by the subject detecting means;
With
The composition determination means is
The composition determination means is
A composition determination device that determines whether the rectangular image is portrait or landscape based on the distance between subjects located at both left and right ends when the number of detected subjects is equal to or greater than a predetermined value .
請求項1に記載の構図判定装置。 When the number of detected subjects is equal to or greater than a predetermined value and the composition determination means is a predetermined value equal to or greater than 2, the composition determination means determines the rectangular image based on the distance between the subjects located at the left and right ends. It is designed to determine whether it is portrait or landscape.
The composition determination apparatus according to claim 1 .
構図制御の対象とする被写体の上限数を設定することができる
請求項1または2に記載の構図判定装置。 The composition determination means is
Composition determination device according to claim 1 or 2 can be set the maximum number of the object of interest of configuration diagram control.
上記検出被写体のうち、上記設定された上限数に基づいて上記検出被写体のサイズが大きなものから順に上記構図制御の対象とする
請求項3に記載の構図判定装置。 The composition determination device
The composition determination apparatus according to claim 3 , wherein among the detected subjects, the composition control target is set in descending order of the size of the detected subject based on the set upper limit number.
上記被写体の数が1の場合、
長方形の上記画像を縦長にする
請求項1に記載の構図判定装置。 The composition determination means is
If the number of subjects is 1,
The composition determination apparatus according to claim 1 , wherein the rectangular image is vertically long.
上記被写体の数が2のとき、
上記被写体間の距離と所定の閾値との関係に基づいて、長方形の上記画像を縦長または横長とする
請求項2に記載の構図判定装置。 The composition determination means is
When the number of subjects is 2,
The composition determination apparatus according to claim 2 , wherein the rectangular image is vertically long or horizontally long based on a relationship between a distance between the subjects and a predetermined threshold.
上記被写体の数が3の場合、
長方形の上記画像を横長にする
請求項2に記載の構図判定装置。 The composition determination means is
If the number of subjects is 3,
The composition determination apparatus according to claim 2 , wherein the rectangular image is horizontally long.
上記検出被写体の数が所定値以上である場合においては、左右両端に位置する被写体間の距離と上下両端に位置する被写体間の距離とに基づいて、長方形の上記画像を、縦長と横長の何れとするのかを判定するようにされている、
請求項1に記載の構図判定装置。 The composition determination means is
When the number of detected subjects is equal to or greater than a predetermined value, the rectangular image is displayed either vertically or horizontally based on the distance between subjects located at both left and right ends and the distance between subjects located at both top and bottom ends. To determine whether or not
The composition determination apparatus according to claim 1.
請求項8に記載の構図判定装置。 When the number of detected subjects is equal to or greater than a predetermined value and the composition determination means has a predetermined value equal to or greater than 2, the distance between subjects located at both left and right ends and the distance between subjects located at both upper and lower ends Based on the above, it is determined whether the rectangular image is vertical or horizontal,
The composition determination apparatus according to claim 8 .
請求項1に記載の構図判定装置。 The composition determination apparatus according to claim 1, further comprising mechanism control means for controlling the mechanism so that the composition determined by the composition determination means is obtained.
請求項1に記載の構図判定装置。 The composition determination apparatus according to claim 1, further comprising notification control means for notifying a user when the determined composition is reached.
上記検出被写体の数に応じて構図判定方法を変更し、
上記検出被写体の数が2以上である場合において、左右両端に位置する被写体間の距離の、画像水平方向の長さに対する比率について、上記検出被写体の数に応じて異なる値を用いる
請求項1に記載の構図判定装置。 The composition determination means is
Change the composition determination method according to the number of detected subjects,
In case the number of the detected subject is 2 or more, the distance between the object located in the left and right ends, the ratio of the length of the image horizontal direction, in claim 1 using a different value depending on the number of the detected subject The composition determination device described.
上記検出被写体の数が増加するにつれ上記比率を増加する
請求項12に記載の構図判定装置。 The composition determination means is
The composition determination apparatus according to claim 12 , wherein the ratio is increased as the number of detected subjects increases.
上記被写体検出手順により検出された被写体である検出被写体の数に応じて構図を判定する構図判定手順と、
を実行し、
上記構図判定手順は、
上記検出被写体の数が所定値以上である場合左右両端に位置する被写体間の距離に基づいて、長方形の上記画像を、縦長と横長の何れとするのかを判定する
構図判定方法。 A subject detection procedure for detecting the presence of a specific subject in an image based on image data;
A composition determination procedure for determining the composition according to the number of detected subjects that are the subjects detected by the subject detection procedure;
Run
The composition determination procedure is as follows:
A composition determination method for determining whether the rectangular image is portrait or landscape based on the distance between subjects located at the left and right ends when the number of detected subjects is a predetermined value or more .
上記被写体検出手順により検出された被写体である検出被写体の数に応じて構図を判定する構図判定手順と、
を構図判定装置に実行させ、
上記構図判定手順は、
上記検出被写体の数が所定値以上である場合左右両端に位置する被写体間の距離に基づいて、長方形の上記画像を、縦長と横長の何れとするのかを判定する
プログラム。 A subject detection procedure for detecting the presence of a specific subject in an image based on image data;
A composition determination procedure for determining the composition according to the number of detected subjects that are the subjects detected by the subject detection procedure;
Is executed by the composition determination device,
The composition determination procedure is as follows:
A program for determining whether the rectangular image is portrait or landscape based on the distance between subjects located at the left and right ends when the number of detected subjects is equal to or greater than a predetermined value .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011245273A JP5440588B2 (en) | 2011-11-09 | 2011-11-09 | Composition determination apparatus, composition determination method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011245273A JP5440588B2 (en) | 2011-11-09 | 2011-11-09 | Composition determination apparatus, composition determination method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007270392A Division JP4894712B2 (en) | 2007-10-17 | 2007-10-17 | Composition determination apparatus, composition determination method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012029338A JP2012029338A (en) | 2012-02-09 |
JP5440588B2 true JP5440588B2 (en) | 2014-03-12 |
Family
ID=45781648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011245273A Expired - Fee Related JP5440588B2 (en) | 2011-11-09 | 2011-11-09 | Composition determination apparatus, composition determination method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5440588B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6593460B2 (en) * | 2018-01-11 | 2019-10-23 | キヤノンマーケティングジャパン株式会社 | IMAGING SYSTEM, IMAGING SYSTEM CONTROL METHOD, AND PROGRAM |
JP7086752B2 (en) * | 2018-06-28 | 2022-06-20 | セコム株式会社 | Monitoring device |
US20230054623A1 (en) | 2019-12-17 | 2023-02-23 | Nec Corporation | Image processing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3647168B2 (en) * | 1996-10-31 | 2005-05-11 | キヤノン株式会社 | Imaging device |
JP2009088710A (en) * | 2007-09-27 | 2009-04-23 | Fujifilm Corp | Photographic apparatus, photographing method, and photographing program |
-
2011
- 2011-11-09 JP JP2011245273A patent/JP5440588B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012029338A (en) | 2012-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4894712B2 (en) | Composition determination apparatus, composition determination method, and program | |
JP5115139B2 (en) | Composition determination apparatus, composition determination method, and program | |
US8594390B2 (en) | Composition determination device, composition determination method, and program | |
JP4640456B2 (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method, and program | |
JP5359645B2 (en) | Composition determination apparatus, imaging system, composition determination method, and program | |
US8810673B2 (en) | Composition determination device, composition determination method, and program | |
JP2010073002A (en) | Image processor and camera | |
JP2007324965A (en) | Digital camera, photography control method, and image output system | |
JP5440588B2 (en) | Composition determination apparatus, composition determination method, and program | |
JP2014050022A (en) | Image processing device, imaging device, and program | |
JP6104077B2 (en) | Photographing equipment and photographing method | |
JP2010074399A (en) | Device for determining composition, method of determining composition, image processing unit, method of processing image, and program | |
JP5098917B2 (en) | Composition determination apparatus, composition determination method, and program | |
WO2022030275A1 (en) | Imaging device, information processing device, information processing method, and program | |
JP2011061857A (en) | Image processing apparatus, image processing method, program, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131009 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131202 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5440588 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |