JP2009231922A - 構図判定装置、構図判定方法、プログラム - Google Patents
構図判定装置、構図判定方法、プログラム Download PDFInfo
- Publication number
- JP2009231922A JP2009231922A JP2008071721A JP2008071721A JP2009231922A JP 2009231922 A JP2009231922 A JP 2009231922A JP 2008071721 A JP2008071721 A JP 2008071721A JP 2008071721 A JP2008071721 A JP 2008071721A JP 2009231922 A JP2009231922 A JP 2009231922A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- detected
- information
- composition
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000203 mixture Substances 0.000 title claims abstract description 539
- 238000000034 method Methods 0.000 title claims description 268
- 238000012545 processing Methods 0.000 claims abstract description 549
- 238000001514 detection method Methods 0.000 claims abstract description 424
- 230000008569 process Effects 0.000 claims description 150
- 238000003384 imaging method Methods 0.000 claims description 149
- 230000033001 locomotion Effects 0.000 claims description 74
- 230000000873 masking effect Effects 0.000 claims description 62
- 230000007246 mechanism Effects 0.000 claims description 61
- 230000003068 static effect Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 8
- 230000005484 gravity Effects 0.000 description 76
- 210000003128 head Anatomy 0.000 description 45
- 238000004891 communication Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 25
- 238000003860 storage Methods 0.000 description 25
- 238000004091 panning Methods 0.000 description 24
- 230000001133 acceleration Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 22
- 230000008859 change Effects 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 14
- 238000009966 trimming Methods 0.000 description 14
- 238000000926 separation method Methods 0.000 description 13
- 230000008921 facial expression Effects 0.000 description 12
- 241000272165 Charadriidae Species 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000007639 printing Methods 0.000 description 4
- 101150051935 angR gene Proteins 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000009432 framing Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- -1 silver halide Chemical class 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
【解決手段】取り込んだ画像データに基づく画像内における被写体を検出する被写体検出処理と、
画像データに基づく画像、又は被写体検出処理により検出される被写体を対象として静止の状態を検出する静止検出処理と、この静止検出処理の検出結果に基づいて、被写体検出処理により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定処理とを実行するようにして構成する。
【選択図】図35
Description
良好な構図とするための一般的、基本的な手法はいくつかあるものの、一般のカメラユーザが良い構図の写真を撮影することは、写真撮影に関する充分な知識、技術を持っていない限り、決して簡単なことではない。このことからすると、例えば良好な構図の写真画像を手軽で簡単に得ることのできる技術が求められることになる。
また、特許文献2には、自動追尾装置として、人物を自動追尾する場合に、人物の顔が画面中央となるように画面上の人物像全体の面積に対してその人物上の上側から20%の面積となる位置を画面中央にして追尾することによって人物の顔を確実に撮影しながら追尾できるようにした技術が開示されている。
これらの技術構成を構図決定の観点から見れば、人物としての被写体を自動的に探索して、撮影画面において或る決まった構図でその被写体を配置させることが可能となる。
また、特許文献3には、監視カメラにより撮像される画像により顔認識を行う場合において、ポスターや立て看板などに含まれる顔画像を効果的にマスキングするための技術として、例えば遊技店において遊技者や従業員が存在しない時間帯において、撮像により得た画像の一部をマスキングするマスキングパターンを発生させ、顔画像抽出手段により、画像より到来者ではない顔画像が抽出できない状態までマスキングパターンを変化させながら繰り返し、このマスキングパターンを用いて、画像がマスキングされることにより画像より到来者ではない顔画像が抽出できない状態となったマスキングパターンを記憶し、この記憶したマスキングパターンにより画像にマスキングを施して顔画像検出を行う構成が開示されている。
つまり、取り込んだ画像データに基づく画像内における被写体を検出する被写体検出手段と、画像データに基づく画像、又は被写体検出手段により検出される被写体を対象として静止しているか否かを検出する静止検出手段と、この静止検出手段の検出結果に基づいて、上記被写体検出手段により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定手段とを備えることとした。
このように本願発明の構図判定処理では、現実被写体、若しくは非現実被写体のいずれかのみを構図判定の対象とするのにあたり、画像若しくは被写体についての静止検出を利用している。このようして静止検出を利用することにより、例えば画像内において、同じ被写体として、現実に存在するものと、例えば単なる像などとして現実には存在しないものとが混在する状態であっても、的確に、そのいずれかを構図判定の対象とすることが可能になる。
構図は、フレーミングともいわれるもので、例えば画枠内における被写体の配置状態をいう。
画枠は、例えば画像が嵌め込まれるようにしてみえる一画面相当の領域範囲をいい、一般には縦長若しくは横長の長方形としての外枠形状を有する。
画角は、ズーム角などともいわれるもので、撮像装置の光学系におけるズームレンズの位置によって決まる画枠に収まる範囲を角度により表したものである。一般的には、撮像光学系の焦点距離と、像面(イメージセンサ、フィルム)のサイズによって決まるものとされているが、ここでは、焦点距離に対応して変化し得る要素を画角といっている。
撮像視野角は、定位置に置かれた撮像装置により撮像して得られる画像の画枠に収まる範囲について、上記の画角に加え、パン(水平)方向における振り角度と、チルト(垂直)方向における角度(仰角、俯角)により決まるものをいう。
例えば、構図は、画像視野角によって決まる画枠内に収まる被写体の配置状態を指すものとなる。
そして、構図判定処理のアルゴリズムとしては、例えば図1(a)に示される画像から、先ず、被写体301が1つ存在することを検出し、この検出結果に基づいて、この被写体301が写っている画像として最適とされる構図(最適構図)は、図1(b)に示すものであるとして判定するように構成できる。例えば、この場合には、画枠300内の被写体301を或るサイズにまで拡大してほぼ中央に位置させた配置状態(構図)となっている。
つまり、例えば図3に示すようにして、画枠300内において、現実には人である被写体301とともに、人物の顔が写されている(描かれている)ようなポスター(顔画像ポスター)302も存在するような場合、被写体検出として顔検出技術を用いている場合には、構図判定に利用すべき被写体として、被写体301だけではなく、顔画像ポスター302に写っている顔の部分も被写体であるとして検出することになる。
この場合、正しくは現実の人としての被写体は1つのみであるから、本来であれば、図1(b)に準じて被写体301のみをクローズアップするような構図判定結果が得られるべきである。しかし、実際には2つの被写体が存在すると検出したことに基づいて、構図判定結果としても、例えば図2(b)に準じて、被写体301と顔画像ポスター302の顔とを共にクローズアップするような画を最適構図であるとして判定してしまうことになる。
この図には、構図判定を実行する部位として構図判定ブロック200が示されている。この構図判定ブロック200は、画像データを取り込んで構図判定を実行するものとされており、図示するようにして、被写体検出処理部201、静止検出処理部202、構図判定処理部203から成るものとしている。
ここでの被写体検出処理は、先ず画像データの画内容から、人としての被写体を弁別して検出する処理をいうものであり、ここでの検出結果として得られる情報(個別被写体検出情報)は、人としての被写体の数と、個々の被写体(個別被写体)ごとについての画枠内での位置情報(例えば画枠内の位置であれば画素のマトリクスの下でのX座標、Y座標により表現できる)、及び個別被写体ごとについての画像内におけるサイズ(占有面積)などとなる。
また、この段階での被写体検出処理の手法、アルゴリズムは、現実の人として存在しているものが写った現実被写体と、非現実被写体とを区別することなく被写体として検出するものであってよい。
そして、この場合の被写体検出処理部201は、上記個別被写体検出情報の集合から成る情報を検出被写体情報として出力する。
ここでの静止検出処理部202は、例えば画像信号処理によって、取り込んだ画像データの画像(画枠)において、動きが無く、静止しているとされる領域(静止領域)を検出する処理を実行する。この検出処理によっては、画像データの画像において静止領域の位置、分布を示す情報(検出静止領域情報)が得られる。なお、検出静止領域情報としては、例えば静止領域として検出された画素についての分布を示すものを考えることができる。
なお、構図判定処理部203としての構図判定の処理は、例えばCPU(Central Processing Unit)がプログラムを実行することにより実現できる。つまり、ソフトウェアにより実現できる。また、必要に応じて、ソフトウェア若しくはハードウェアによる画像信号処理を併用する構成とされてもよい。
なお、この図に示す処理手順例は、あくまでも一例であり、図4に示す構図判定ブロック200が実行する処理手順は、これに限定されるべきではない。図4としては、あくまでも、結果的に、構図判定処理部203が、被写体検出処理部201からの出被写体情報と、静止検出処理部202からの検出静止領域情報とに基づいて現実被写体のみを対象として最適構図を判定するようにさればよい。この点については、以降説明する第2例〜第6例についても同様である。
また、ここで述べている、図4におけるブロック構成と図10のステップとの対応関係は、順当に考えられる1つの例であって、それ以外の対応が採られてよい。この点についても、以降において説明するブロック図とフローチャートとの関係において、同様である。
被写体検出処理部201は、ステップS102により上述の被写体検出処理を実行し、ステップS103により、その検出結果である検出被写体情報を出力する。
ステップS104では、入力した画像データの画枠内の画像における静止領域を検出する。
この第1例に対応する静止領域の検出には、例えば、動き検出の手法を応用することができる。つまり、例えばフレーム(あるいはフィールド)に相当する時間的に前後する画像において変化(動き)量が一定以下である領域を検出するようにされる。そして、ステップS105により検出結果である検出静止領域情報を出力する。
ステップS106として、構図判定処理部203は、ステップS103により出力される検出被写体情報と、ステップS105により出力される検出静止領域情報とを入力することになる。そのうえで、先ず、構図判定処理部203は、検出被写体情報が示す個別被写体(検出個別被写体)のうちから、非現実被写体を除外して、現実被写体のみを選別する処理(選別処理)を実行する。
これに対して、非現実被写体に相当するポスターや立て看板の顔などは、上記の現実の人のような動きが全くないことから、上記の静止検出処理によっては、非現実被写体が検出された位置を含む領域は、静止領域として検出されることになる。
そして、構図判定処理部203は、上記のようにして選別した現実被写体のみを、構図判定に利用すべき個別被写体(対象個別被写体)として設定する。
ステップS107では、上記ステップS106により設定された対象個別被写体の検出被写体情報を利用して、所定のアルゴリズムにより構図判定のための処理を実行する。
なお、構図判定のアルゴリズムについての例、また、構図判定の結果の利用例などについては後述する。
この図における構図判定ブロック200も、図4の第1例と同様に、被写体検出処理部201、静止検出処理部202、及び構図判定処理部203を備えて成る。
この場合には、先ず、被写体検出処理部201が画像データを取り込んで個別被写体(現実被写体と非現実被写体を含む)の検出を行い、その検出結果である検出被写体情報を、構図判定処理部203と、静止検出処理部202とに対して出力する。
ここでの第2例における静止被写体の検出にも、例えば、1つには動き検出を用いることができる。つまり、前後の検出個別被写体のサンプルタイミングにより得られる検出被写体情報が示す位置情報の変化を検知することとして、その変化量が一定以下となるものを静止被写体であるとして検出すればよい。
1つには、表情検出の手法を応用できる。顔の表情に関しては、現実被写体であれば当然変化し得るが、非現実被写体では顔の表情が変化することはないからである。
例えば、被写体検出処理部201が所定方式による顔検出処理により個別被写体検出を行うものとしたうえで、この顔検出処理により検出された個別被写体の顔の画像部分を抜き出した画像(顔画像)の情報を、静止検出処理部202が受け取るようにする。静止検出処理部202は、受け取った顔画像を対象として、表情の変化量を求め、この変化量が一定以下となる顔画像に対応する検出個別被写体を、静止被写体であるとして検出する。
なお、一例として、上記の表情検出については、先に本出願人が出願した特開2008−42319号公報に記載される表情評価の手法を適用できる。ここでの表情評価は、正規化した顔画像と判別軸情報を基に、顔画像における顔の表情の度合いを評価する演算を行い、表情評価値を得ようとするものである。例えば、単位時間における表情評価値の変化量を求めることとして、この変化量が一定以下である顔画像に対応する検出個別被写体を静止被写体であるとして検出することができる。
この場合にも、例えば、被写体検出処理部201が所定方式による顔検出処理により個別被写体検出を行うものとしたうえで、この顔検出処理により検出された個別被写体の顔の画像部分を抜き出した画像(顔画像)の情報を、静止検出処理部202が受け取るようにする。静止検出処理部202は、受け取った顔画像から目の部分をさらに抜き出す。そして、この抜き出した目画像のうちで瞬きをしないと判定したものに対応する検出個別被写体を、静止被写体であるとして検出するものである。
このような瞬き検出の手法として、1つには、先に本出願人が出願した特開2004−343315号公報に記載される手法を適用できる。ここでの手法は、先ず肌色検出を含む顔検出処理により顔検出を行い、検出された肌色領域内の白色の領域(白領域)、つまり目の部分を検出し、この目の部分を含む領域(目領域)を取り込む。そして、この目領域における白の情報の割合を算出する。この算出結果としては、時間経過に応じて、瞬きをしていない状態では白の情報の割合が多く、瞬きしたことに応じてまぶたが閉じたときには白の情報が最小となるようにして変化するものとなる。そして、例えば、時間経過に応じた白の情報の算出結果が一定であって、上記のような変化を生じることがない目領域に対応する検出個別被写体を静止被写体として検出すればよい。
そして、静止検出処理部202は、上記のようにして検出した静止被写体ごとの検出個別被写体情報を有して成る情報を、検出静止被写体情報として出力する。
このための構図判定処理部203の処理例としては、先ず、現実被写体を選別する処理を実行する。この処理としては、取り込んだ検出被写体情報が示す検出個別被写体の位置情報と、検出静止被写体情報が示す静止被写体の位置情報とを比較する。このようにして比較を行い、検出被写体情報が示す検出個別被写体のうちで、その位置情報が検出静止被写体情報が示す静止被写体の位置情報と一致したものが非現実被写体であり、一致しないものが現実被写体であることになる。
そして、現実被写体であるとして認識された検出個別被写体を対象個別被写体として設定する。
そのうえで、構図判定処理部203は、入力した検出被写体情報のうちから、対象個別被写体とされた個別被写体についての個別被写体検出情報を取り出して、この個別被写体検出情報を利用して構図判定処理を実行する。
なお、図5の構成においても、構図判定処理部203は、被写体検出処理部201からの検出被写体情報と、静止検出処理部202からの検出静止被写体情報とを利用して最終的に、現実被写体を対象とする構図判定が行われるようにされればよいものであり、図11により示す処理の手順は、あくまでも一例となるものである。
ステップS202では、入力した画像データを基に被写体検出処理を実行し、ステップS203によりその検出結果である検出被写体情報を出力する。
ステップS204では、上記ステップS203により被写体検出処理部201から出力される検出被写体情報を入力し、上記のようにして、検出被写体情報が示す検出個別被写体のうちから静止被写体を検出し、ステップS205により、この検出結果を示す検出静止被写体情報を出力する。
ステップS206では、ステップS203により被写体検出処理部201から出力された検出被写体情報と、ステップS205により静止検出処理部202から出力された検出静止被写体情報とを入力したうえで、これらの情報に基づいて、図5による説明のようにして検出被写体情報が示す検出個別被写体のうちから現実被写体を選別し、選別した現実被写体を、対象個別被写体として設定する。そして、ステップS207により、上記対象個別被写体の検出個別被写体情報に基づいて、構図判定の処理を実行する。
つまり、この場合においては、先ず、図4と同様に、被写体検出処理部201が取り込んだ画像データに基づいて被写体検出処理を行って検出被写体情報を出力し、静止検出処理部202も、取り込んだ画像データに基づいて、画枠内における静止領域の検出を行って検出静止領域情報を出力する。
ステップS301〜S305までの手順は、図10のステップS101〜S105と同様にして、画像データの取り込みを実行したうえで、この画像データに基づいて、被写体検出処理部201が被写体検出処理を行って検出被写体情報を出力し、また、静止検出処理部202静止領域の検出を行って検出静止領域情報を出力するものとなる。
ステップS306においては、図10のステップS106として説明したのと同様の処理による選別処理を実行して、検出個別被写体のうちから現実被写体を選別する。
そのうえで、ステップS306においては、検出被写体情報を成す検出個別被写体情報のうちから、上記選別処理により現実被写体として選別された検出個別被写体の検出個別被写体情報を、構図判定処理部204に対して出力する。
この場合には、先ず、被写体検出処理部201が画像データを取り込んで、図5と同様の被写体検出処理を実行する。そして、その検出結果である検出被写体情報を、この場合には、静止検出処理部202と、被写体検出処理部204に対して出力する。
静止検出処理部202は、図5と同様の静止被写体の検出処理を実行し、その検出結果である検出静止被写体情報を被写体選別処理部204に対して出力する。
構図判定処理部203は、上記被写体選別処理部204からの検出個別被写体情報を、対象個別被写体に対応する検出個別被写体情報として入力し、この検出個別被写体情報に基づいて構図判定を行う。
ステップS401〜S405までの手順は、図11のステップS201〜S205と同様にして、画像データの取り込みを実行したうえで、この画像データに基づいて、被写体検出処理部201が被写体検出処理を行って検出被写体情報を出力し、また、静止検出処理部202静止領域の検出を行って検出静止領域情報を出力するものとなる。
ステップS406においては、図11のステップS206として説明したのと同様の処理による選別処理を実行して、検出個別被写体のうちから現実被写体を選別する。
そのうえで、ステップS406においては、検出被写体情報を成す検出個別被写体情報のうちから、上記選別処理により現実被写体として選別された検出個別被写体の検出個別被写体情報を、構図判定処理部204に対して出力する。
この図に示す構図判定ブロック200は、被写体検出処理部201、静止検出処理部202、及び構図判定処理部203に加え、マスキング処理部205が備えられて成る。
静止検出処理部202は、取り込んだ画像データの画像(画枠)における静止領域を検出し、その検出結果である検出静止領域情報を、マスキング処理部205に出力する。
次にマスキング処理部205は、マスキング処理として、入力した画像データについて、上記のようにして設定した検出対象無効領域を反映させる処理を実行する。つまり、この場合の、被写体検出処理部201は、被写体検出処理を実行するのにあたり、検出対象無効領域を対象としては被写体検出処理を実行しないように構成するのであるが、被写体検出処理部201により、画像データにおける検出対象無効領域が認識できるようにするための処理を実行する。このような処理の具体例として、1つには、画像データのメタデータとして、検出対象無効領域となる画素範囲を示すデータ(あるいは逆に検出対象有効領域となる画素範囲を示すデータとされてもよい)を付加することが考えられる。あるいは、画像データについて、検出対象無効領域については例えば所定の固定色に書き換えるなど、被写体が現れないような内容に変更してしまう画像処理を実行することも考えられる。
そして、マスキング処理部205は、上記のマスキング処理が施された画像データ(マスキング画像データ)を被写体検出処理部201に対して出力する。
マスキング画像データについては、上記したようにマスキング処理によって、静止状態にある画像領域は、被写体検出処理の対象とならないようにされている。従って、被写体検出処理部201は、動きのあるとされる画像領域のみを対象として被写体検出処理を実行することになる。従って、この場合の被写体検出処理によっては、検出された個別被写体が、そのまま現実被写体であることになる。つまり、この図に示される構成では、静止検出の結果に基づいてマスキング処理部205がマスキング処理を実行することを以て、検出個別被写体から、非現実被写体を除外して現実被写体のみを選別する処理(即ち、検出個別被写体であるか非現実被写体であるのかの判定処理)を行っているものとみることができる。
そこで、この場合の被写体検出処理部201は、上記のようにして検出した個別被写体ごとの個別被写体情報から成る検出被写体情報を、構図判定処理部203に出力する。
ステップS501においては、静止検出処理部202とマスキング処理部205とが画像データの取り込みを行う。
ステップS502は、現在において静止検出処理部202から入力している検出静止領域情報に基づいて先の図8における説明のようにして検出無効領域を設定し、ステップS503により、同じく図8により説明したマスキング処理を実行する。そして、ステップS504によりマスキング処理を経た画像データであるマスキング画像データを出力する。
ステップS505は、ステップS501により取り込んで入力した画像データから静止領域を検出し、ステップS506は、その検出結果である検出静止領域情報を、マスキング処理部205に対して出力する。確認のために、ステップS502では、このようにして出力される検出静止領域情報を利用している。
ステップS507は、ステップS504により出力されたマスキング画像データを対象にして、先の図8による説明のようにして被写体検出処理を実行し、ステップS508により、その検出結果である検出被写体情報を構図判定処理部203に対して出力する。
この図に示す構図判定ブロック200も、被写体検出処理部201、静止検出処理部202、及び構図判定処理部203、及びマスキング処理部205を有して形成されている点では、図8の第5例と同様であるが、そのうえで、第6例にあっては、次のような構成を有する。
構図判定処理部203は、入力した検出被写体情報に基づいて構図判定処理を実行する。
そして、構図判定処理部203は、このようにして検出された個別被写体の検出個別被写体情報に基づいて構図判定を実行することになる。つまり、現実被写体のみを対象とした構図判定が適正に行われることになる。
なお、このような構成では、適切な所定のトリガ、タイミングでもって、マスキング処理部205での検出対象無効領域の設定をクリアする。
この場合のステップS601は、マスキング処理部205が画像データを取り込んで入力する手順となる。
次に、マスキング処理部205は、ステップS602〜S604の手順を実行する。
ステップS602では、現在において静止検出処理部202から出力されている検出静止被写体情報を入力して、入力した画像データの画像におけるマスキング領域(検出対象無効領域)を設定し、ステップ603により、設定したマスキング領域を反映させるためのマスキング処理を画像データに施してマスキング画像データを得て、ステップS603にてマスキング画像データを出力する。
ステップS605では、上記ステップS604により出力されたマスキング画像データを入力して被写体検出処理605を実行し、ステップS606により、検出された個別被写体ごとの検出個別被写体情報から成る検出被写体情報を出力する。このようにして出力される検出個別被写体情報を、構図判定処理部203が実行するステップS609と、静止検出処理部202が実行するステップS607にて利用することになる。
また、構図判定処理部203は、入力した検出被写体情報に基づいて構図判定処理を実行する。
そのうえで、現実被写体と非現実被写体とを選別するのにあたっては、画像データの画像、若しくは検出被写体についての静止検出の結果、即ち、画像の動きに関する検出を利用することとしている。従って、画像データの画内容が時間進行に応じて変化したとしても、そのときの画内容に応じて静止している領域又は被写体をダイナミックに特定していくことが可能であり、常に、現実被写体と非現実被写体とを的確に選別することが可能となる。
例えば、特許文献3においては、顔画像検出に際して、ポスターの顔などの顔画像(本実施の形態の非現実被写体に相当)が検出されないようにマスキングパターンを発生させる構成が記載されている。しかし、この構成では、段落0060にも記載されているように、適切なマスキングパターンの発生は、本実施の形態での現実被写体に相当する遊技者や従業員などの現実の人の顔が検出対象の画像内に存在していない条件で、キャリブレーション(初期設定)として行われるべきものであり、換言すれば、非現実被写体と現実被写体が混在する画像内容に対応しては、適切なマスキングパターンを発生させることは難しい。
これに対して、本実施の形態では、上記もしたように、画像(画枠)内に現実被写体と非現実被写体とが混在し、なおかつ、時間経過に応じて画内容が変化する状況にも対応して、適切にマスキング処理が行われ、結果として、現実被写体のみを対象とした構図判定を実行させることができる。これにより、本実施の形態としては、例えば、特許文献1などにおける定点監視システムなどに適用した場合にも、上記のようなキャリブレーション的な動作を予め実行させる必要が無く、また、何らかの事情で、営業時間中にポスターが貼られたような状況にも対応して、ポスターの顔などは除外できることになる。このようにして、本実施の形態の構成は、これまでよりも使い易く、性能的にも優れたものを提供できる。
そこで、続いては、本実施の形態の構図判定の構成を適用した装置例、システム構成例をいくつか挙げていくこととする。
この図に示されるように、本実施の形態の撮像システムは、デジタルスチルカメラ1と雲台10とから成る。
デジタルスチルカメラ1は、本体正面側のパネルに設けられているレンズ部3によって撮像して得られる撮像光に基づいて静止画像データを生成し、これを内部に装填されている記憶媒体に記憶させることが可能とされている。つまり、写真として撮影した画像を、静止画像データとして記憶媒体に記憶保存させる機能を有する。このような写真撮影を手動で行うときには、ユーザは、本体上面部に設けられているシャッター(レリーズ)ボタンを押し操作する。
雲台10のパン・チルト機構により与えられるデジタルスチルカメラ1のパン方向、チルト方向それぞれの動き方は例えば図17(a)(b)に示されるものとなる。図17(a)(b)は、雲台10に取り付けられているとされるデジタルスチルカメラ1を抜き出して、それぞれ、平面方向、側面方向より見たものである。
先ずパン方向については、デジタルスチルカメラ1の本体横方向と図17(a)に示される直線X1とが同じ向きとなる位置状態を基準にして、例えば回転軸Ct1を回転中心として回転方向+αに沿った回転が行われることで、右方向へのパンニングの動きが与えられる。また、回転方向−αに沿った回転が行われることで、左方向へのパンニングの動きが与えられる。
また、チルト方向については、デジタルスチルカメラ1の本体縦方向が垂直方向の直線Y1と一致する位置状態を基準にして、例えば回転軸Ct2を回転中心として回転方向+βへの回転が行われることで、下方向へのパンニングの動きが与えられる。また、回転方向−βへの回転が行われることで、上方向へのパンニングの動きが与えられる。
なお、図17(a)(b)に示される、±α方向、及び±β方向のそれぞれにおける最大可動回転角度については言及していないが、被写体の捕捉の機会をできるだけ多くするべきことを考慮するのであれば、できるだけ最大可動回転角度を大きく取ることが好ましいことになる。
この図において、デジタルスチルカメラ1は、撮像ブロック61、構図判定ブロック62、パン・チルト・ズーム制御ブロック63、及び通信制御処理ブロック64を備えて成るものとされている。
つまり、判定結果が示す構図となる撮像方向をデジタルスチルカメラ1が向くための、雲台10のパン・チルト機構についての移動量を求め、この求めた移動量に応じた移動を指示するパン・チルト制御信号を生成する。
また、判定結果が示す構図となる画角を得るためのズーム位置を求め、このズーム位置となるようにして、撮像ブロック61が備えるとされるズーム機構を制御する。
通信制御ブロック71は、デジタルスチルカメラ1側の通信制御ブロック64との間での通信を実行するための部位であり、上記のパン・チルト制御信号を受信した場合には、このパン・チルト制御信号をパン・チルト制御処理ブロック72に対して出力する。
このパン・チルト制御処理ブロック72は、入力したパン・チルト制御信号に応じて、ここでは図示していないパン駆動機構部、チルト駆動機構部を制御する。これにより、判定された構図に応じた水平視野角と垂直視野角を得るためのパンニング、チルティングが行われる。
また、被写体が向いているとされる方向により、最適とされる構図は異なってくるとの考え方をとることができるが、本実施の形態によれば、複数の被写体が存在する場合の、これら被写体の向いている方向の関係性に応じて、異なる最適構図が決定されるようにして構成される。これにより、本実施の形態に対応する構成の装置を利用するユーザは、面倒な手間を掛けることなく、最適構図の画像を得ることが可能になる。
この図では、先ず、デジタルスチルカメラ1において、撮像ブロック61により得られる撮像画像データを、通信制御処理ブロック64から雲台10側の通信制御ブロック71に対して送信するようにされている。
通信制御処理ブロック71により受信された撮像画像データは、構図判定ブロック73に対して出力される。この構図判定ブロック73も、先に図4〜図9により示した構図判定ブロック200のいずれかの構成が適用されるもので、入力した撮像画像データを基として現実被写体のみを対象とする構図判定処理を実行する。そして、この場合には、構図判定結果に基づいて、例えば、図18のパン・チルト・ズーム制御ブロック63のようにして、判定された構図が得られる撮像方向とするためのパン機構部とチルト機構部の移動量を求め、この移動量を指示するパン・チルト制御信号をパン・チルト制御処理ブロック72に対して出力する。これにより、構図制御処理ブロック73にて判定した構図が得られるようにしてパンニング、チルティングが行われる。
このようにして、図19に示す撮像システムは、デジタルスチルカメラ1から雲台10に撮像画像データを送信させることとして、雲台10側により、取り込んだ撮像画像データに基づく構図判定とこれに応じたパン・チルト制御(構図制御)とを実行するようにして構成しているものである。また、この図19に示す構成においては、撮像視野角の制御(構図制御)として、ズーム(画角)制御を行っていないが、これは、実施の形態のもとでは、構図制御として、パン・チルト・ズームの各制御が必須ではないことを示している。例えば、条件・状況に応じては、パン制御のみ、チルト制御のみ、あるいはズーム制御のみによっても、判定された構図に応じた構図制御を実現できるものである。
このシステムにおいては、雲台10側において撮像ブロック75が備えられる。この撮像ブロック75は、例えば図18、図19の撮像ブロックと同様に、撮像のための光学系と撮像素子(イメージセンサ)を備えて、撮像光に基づいた信号(撮像信号)を得るようにされているとともに、この撮像信号から撮像画像データを生成するための信号処理部から成る。
撮像ブロック75により生成される撮像画像データは、構図判定ブロック73に出力される。
なお、撮像ブロック75が撮像光を取り込む方向(撮像方向)は、例えば雲台10に載置されるデジタルスチルカメラの撮像方向とできるだけ一致するようにして設定することが好ましい。
但し、この場合の構図判定ブロック73は、デジタルスチルカメラ1にレリーズ動作を実行させるタイミング(撮像ブロック75からの撮像画像データの画像について、判定構図が得られたとするタイミング)に対応しては、通信制御処理ブロック71経由でデジタルスチルカメラ1に対して、レリーズ指示信号を送信させる。デジタルスチルカメラ1では、レリーズ指示信号が受信されることに応じてレリーズ動作を実行し、そのときに撮像ブロック75により得られているとされる撮像画像データを基とした画像データの撮像記録を実行する。
このようにして他の変形例では、構図判定及び構図制御に関して、レリーズ動作自体に関する以外の全ての制御・処理を雲台10側で完結して行うことができる。
また、デジタルスチルカメラ1の撮像素子(イメージセンサ22)から画像として有効な撮像信号を取り込むための画素領域を水平方向と垂直方向にシフトさせるという制御を行うことによっても、パンニング・チルティングが行われるのと同等の結果を得ることができる。この場合には、雲台10若しくはこれに準ずる、デジタルスチルカメラ1以外のパン・チルトのための装置部を用意する必要が無く、デジタルスチルカメラ1単体により本実施の形態としての構図制御を完結させることが可能となる。
また、画角制御(ズーム制御)についても、ズームレンズの駆動に代えて、撮像画像データから一部画像領域を切り出すという画像処理を実行することによって実現可能である。
また、デジタルスチルカメラ1の光学系部におけるレンズの光軸を水平・垂直方向に変更することのできる機構を備えて、この機構の動きを制御するように構成しても、パンニング・チルティングを行うことが可能である。
先ず、図21は、実施の形態としての構図判定を、デジタルスチルカメラなどの撮像装置単体に対して適用したもので、例えば撮像モード時において撮像装置により撮像している画像が、判定結果に応じた適正な構図になったときに、このことを表示によってユーザに通知しようとするものである。
このために撮像装置が備えるべき構成として、ここでは構図判定ブロック81、通知制御処理ブロック82、表示部83を示している。ここでの構図判定ブロック81が、図4〜図9に示した構図判定ブロック200としてのいずれかの構成を採るものとされる。
例えばユーザは、撮像装置を撮像モードに設定したうえで、撮像装置を手に持っており、いつでもレリーズ操作(シャッターボタン操作)を行えば撮像画像の記録が行える状況にあるものとする。
このような状態の下、構図判定ブロック81では、先ず、そのときに撮像して得られる撮像画像データを取り込んで、先に述べた一連の構図判定の処理を実行して、最適構図を判定する。
そのうえで、さらに、この場合の構図判定ブロック81としては、そのときに実際に得られている撮像画像データの画内容の構図と、判定された最適構図との一致性、類似度を求めるようにされる。そして、例えば類似度が一定以上になったときに、実際に撮影して得られている撮像画像データの画内容が最適構図になったと判定する。なお、例えば実際においては、撮像画像データの画内容の構図と最適構図とが一致したとみなされる程度の、所定以上の類似度が得られたら、最適構図と判断するようにしてアルゴリズムを構成することが考えられる。また、ここでの一致性、類似度をどのようにして求めるのかについては多様なアルゴリズムを考えることができるので、ここでは、その具体例については特に言及しない。
このようにして撮像画像データの画面内容が最適構図になったことの判定結果の情報は通知制御処理ブロック82に対して出力される。通知制御処理ブロック82は、上記の情報の入力に応じて、現在において撮像されている画像が最適構図であることをユーザに通知するための所定態様による表示が表示部83にて行われるように表示制御を実行する。なお、通知制御処理ブロック82は、撮像装置が備えるマイクロコンピュータ(CPU)などによる表示制御機能と、表示部83に対する画像表示を実現するための表示用画像処理機能などにより実現される。なお、ここでの最適構図であることのユーザへの通知は、電子音、若しくは合成音声などをはじめとした音により行われるように構成してもよい。
また、表示部83は、例えば本実施の形態のデジタルスチルカメラ1の表示部33に対応するもので、例えば撮像装置における所定位置に対してそのディスプレイパネルが表出するようにして設けられ、撮影モード時にはいわゆるスルー画といわれる、そのときに撮像されている画像が表示されることが一般的である。従って、この撮像装置の実際にあっては、表示部83において、スルー画に対して重畳される態様で最適構図であることを通知する内容の画像が表示されることになる。ユーザは、この最適構図であることを通知する表示が現れたときにレリーズ操作を行うようにされる。これにより、写真撮影の知識や技術に長けていないようなユーザであっても、良好な構図の写真撮影を簡単に行うことが可能になる。
先ず、この図に示す構成においては、図21と同様に、構図判定ブロック81により、入力される撮像画像データを基にして最適構図を判定する処理を実行するとともに、その後のタイミングにおいて得られる撮像画像データの画内容が上記の最適構図であるか否かを判定するようにされる。そして、最適構図になったことを判定すると、このことをレリーズ制御処理ブロック84に対して通知する。
レリーズ制御処理ブロック84は、撮像画像データを記録するための制御を実行する部位とされ、例えば撮像装置が備えるマイクロコンピュータが実行する制御などにより実現される。上記の通知を受けたレリーズ制御処理ブロック84は、そのときに得られている撮像画像データが、例えば記憶媒体に記憶されるようにして画像信号処理、記録制御処理を実行する。
このような構成であれば、例えば最適な構図の画像が撮像されたときには、自動的にその撮像画像の記録が行われるようにした撮像装置を得ることができる。
ファイル作成処理ブロック103は、先ず、入力される撮像画像データについて、画像ファイル形式に対応した画像圧縮符号化を行い、撮像画像データから成るファイル本体部分を作成する。これとともに、メタデータ作成処理ブロック102から入力された構図編集メタデータを、所定の格納位置に対して格納するようにしてヘッダ及び付加情報ブロックなどのデータ部分を作成する。そして、これらファイル本体部分、ヘッダ、付加情報ブロックなどから静止画像ファイルを作成し、これを出力する。これにより、図示するようにして、記憶媒体に記録すべき静止画像ファイルとしては、撮像画像データとともにメタデータ(構図編集メタデータ)が含まれる構造を有したものが得られることになる。
図に示す編集装置110は、静止画像ファイルのデータを取り込んで、先ずメタデータ分離処理ブロック111に入力する。メタデータ分離処理ブロック111は、静止画像ファイルのデータから、ファイル本体部分に相当する撮像画像データとメタデータとを分離する。分離して得られたメタデータについてはメタデータ解析処理ブロック112に対して出力し、撮像画像データについてはトリミング処理ブロック113に対して出力する。
トリミング処理ブロック113は、先の図23のトリミング処理ブロック91と同様に、メタデータ分離処理ブロック111側から入力した撮像画像データから、上記メタデータ分離処理ブロック112から入力されるトリミング指示情報が示す画像部分を抜き出すための画像処理を実行し、抜き出した画像部分を1つの独立した画像データである、編集撮像画像データとして出力する。
なお、図24に示す編集装置としての機能は、例えばパーソナルコンピュータなどにインストールされる画像データ編集のためのアプリケーションであるとか、画像データを管理するアプリケーションにおける画像編集機能などで採用することが考えられる。
この図に示す撮像装置120には、動画像データが入力される。この動画像データは、例えば同じ撮像装置120が有するとされる撮像部により撮像を行って得られる撮像信号に基づいて生成されるものである。この動画像データは、撮像装置120における構図判定ブロック122、及びファイル作成・記録処理ブロック124に対して入力される。
この場合の構図判定ブロック122は、先に図4〜図9のいずれかに示した構成により、入力されてくる動画像データの画像について、現実被写体のみを対象とする構図判定を行って最適構図を求める。そのうえで、さらに、上記動画像データの画像の実際に構図について、判定した最適構図との差違を比較することにより、良否判定を行う。例えば後述する構図判定の具体例との対応では、構図判定により、最適構図に対応した、画像内の対象個別被写体の占有率(サイズ)、被写体間距離などのパラメータが求められる。そこで、上記の比較の際には、これらの最適構図に対応するパラメータと、動画像データの画像において現に得られているパラメータとを比較すればよい。
そして、この比較結果として双方のパラメータが一定以上の類似度を有していれば良好な構図であると判定され、上記類似度が一定以下であれば、良好な構図ではないと判定される。
構図判定ブロック122は、上記のようにして動画像データについて良好な構図が得られていると判定したときには、メタデータ作成処理ブロック123に対して、動画像データにおいて、今回、上記の良好な構図が得られていると判定した画像区間(良好構図画像区間)がどこであるのかを示す情報(良好構図画像区間指示情報)を出力する。良好構図画像区間指示情報)は、例えば動画像データにおける良好構図画像区間としての開始位置と終了位置を示す情報などとされる。
動画像記録処理ブロック124は、入力された動画像データについて、所定形式による動画像ファイルとして管理されるようにして記憶媒体に記録するための制御を実行する。そして、メタデータ作成処理ブロック123からメタデータが出力されてきた場合には、このメタデータが、動画像ファイルに付随するメタデータに含められるようにして記録されるようにするための制御を実行する。
これにより、図示するようにして、記憶媒体に記録される動画像ファイルは、撮像により得られたとする動画像データに、良好な構図が得られている画像区間を示すメタデータが付随された内容を有することになる。
なお、上記のようにしてメタデータにより示される、良好な構図が得られている画像区間は、或る程度の時間幅を有する動画像による画像区間とされてもよいし、動画像データから抜き出した静止画像によるものとされてもよい。また、上記のメタデータに代えて、良好な構図が得られている画像区間の動画像データ若しくは静止画像データを生成して、これを動画像ファイルに付随する副次的な画像データ(或いは動画像ファイルと独立したファイル)として記録する構成も考えられる。
また、図25に示されるようにして、撮像装置120に対して構図判定ブロック122を備える構成では、構図判定ブロック122により良好構図画像区間であると判定された動画像の区間のみを動画像ファイルとして記録するように構成することも考えられる。さらには、構図判定ブロック122により良好構図であると判定された画像区間に対応する画像データを、データインターフェースなどを経由して外部機器に出力するような構成も考えることができる。
この場合には、印刷装置130が、印刷すべき画像として、静止画像ファイルを取り込むこととされている。この静止画像ファイルは、例えば撮像装置100により生成して記録されたものを含み、図示するようにして、静止画としての画像データの実体と、メタデータとを有する構造を持っている。従って、このメタデータは、図23、図24に示した静止画像ファイルにおけるものと同意義の内容の構図編集メタデータを含んでいるものである。
このような動作により、印刷装置130によっては、入力した画像データの画内容から、最適構図が得られているとされる画像部分が自動的に抜き出されて、1枚の画として印刷されることになる。
先ず、図27により、デジタルスチルカメラ1についてのより実際的な内部構成例をブロックとして示す。
この図において、先ず、光学系部21は、例えばズームレンズ、フォーカスレンズなども含む所定枚数の撮像用のレンズ群、絞りなどを備えて成り、入射された光を撮像光としてイメージセンサ22の受光面に結像させる。
また、光学系部21においては、上記のズームレンズ、フォーカスレンズ、絞りなどを駆動させるための駆動機構部も備えられているものとされる。これらの駆動機構部は、例えば制御部27が実行するとされるズーム(画角)制御、自動焦点調整制御、自動露出制御などのいわゆるカメラ制御によりその動作が制御される。
信号処理部24では、A/Dコンバータ23から出力されるデジタルの撮像信号について、例えば1つの静止画 (フレーム画像)に相当する単位で取り込みを行い、このようにして取り込んだ静止画単位の撮像信号について所要の信号処理を施すことで、1枚の静止画に相当する画像信号データである撮像画像データ(撮像静止画像データ)を生成することができる。
エンコード/デコード部25は、信号処理部24から出力されてくる静止画単位の撮像画像データについて、所定の静止画像圧縮符号化方式により圧縮符号化を実行したうえで、例えば制御部27の制御に応じてヘッダなどを付加して、所定形式に圧縮された撮像画像データの形式に変換する。そして、このようにして生成した撮像画像データをメディアコントローラ26に転送する。メディアコントローラ26は、制御部27の制御に従って、メモリカード40に対して、転送されてくる撮像画像データを書き込んで記録させる。この場合のメモリカード40は、例えば所定規格に従ったカード形式の外形形状を有し、内部には、フラッシュメモリなどの不揮発性の半導体記憶素子を備えた構成を採る記憶媒体である。なお、画像データを記憶させる記憶媒体については、上記メモリカード以外の種別、形式などとされてもよい。
このためには、制御部27が撮像画像データを指定して、メディアコントローラ26に対してメモリカード40からのデータ読み出しを命令する。この命令に応答して、メディアコントローラ26は、指定された撮像画像データが記録されているメモリカード40上のアドレスにアクセスしてデータ読み出しを実行し、読み出したデータを、エンコード/デコード部25に対して転送する。
また、この場合のフラッシュメモリ30は、例えばユーザ操作や動作履歴などに応じて変更(書き換え)の必要性のある各種の設定情報などを記憶させておくために使用する不揮発性の記憶領域として設けられるものである。なおROM28について、例えばフラッシュメモリなどをはじめとする不揮発性メモリを採用することとした場合には、フラッシュメモリ30に代えて、このROM28における一部記憶領域を使用することとしてもよい。
先に述べたように、雲台10は、パン・チルト機構を備えるものであり、これに対応する部位として、パン機構部53、パン用モータ54、チルト機構部56、チルト用モータ57を備える。
パン機構部53は、雲台10に取り付けられたデジタルスチルカメラ1について、図17(a)に示したパン(横)方向の動きを与えるための機構を有して構成され、この機構の動きは、パン用モータ54が正逆方向に回転することによって得られる。同様にして、チルト機構部56は、雲台10に取り付けられたデジタルスチルカメラ1について、図17(b)に示したチルト(縦)方向の動きを与えるための機構を有して構成され、この機構の動きは、チルト用モータ57が正逆方向に回転することによって得られる。
同様にして、チルト機構部56の動きを制御するときには、制御部51は、チルト機構部56に必要な移動量と移動方向に対応した制御信号をチルト用駆動部58に対して出力する。チルト用駆動部58は、入力される制御信号に対応したモータ駆動信号を生成してチルト用モータ57に出力する。このモータ駆動信号によりチルト用モータ57が、例えば所要の回転方向及び回転角度で回転し、この結果、チルト機構部56も、これに対応した移動量と移動方向により動くようにして駆動される。
図18のデジタルスチルカメラ1における撮像ブロック61は、例えば図27における光学系部21、イメージセンサ22、A/Dコンバータ23、及び信号処理部24において撮像画像データを得るまでの信号処理段から成る部位が対応する。
図18のデジタルスチルカメラ1における構図判定ブロック62は、例えば図27の信号処理部24における被写体検出、静止検出、被写体選別、マスキングなどを始めとする所要の処理に対応する画像信号処理機能と、制御部(CPU)27が実行するものとされる構図判定に関連する所要の処理機能が対応する。
図18のパン・チルト・ズーム制御処理ブロック63は、例えば図27における制御部27がパン・チルト・ズーム制御のために実行する処理機能が対応する。
図18のデジタルスチルカメラ1における通信制御処理ブロック64は、例えば図27における雲台対応通信部34と、この雲台対応通信部34を利用する通信のために制御部27が実行する処理機能が対応する。
図18の雲台10における通信制御ブロック71は、例えば図28における通信部52と、この通信部を利用した通信のために制御部51が実行する処理が対応する。
図18のパン・チルト制御処理ブロック72は、例えば図28における制御部51が実行する制御処理のうちで、パン・チルト制御に関する処理の実行機能に対応するもので、入力される制御信号に応じてパン機構部53、チルト機構部56の動きをコントロールするための信号をパン用駆動部55、チルト用駆動部58に対して出力する。
しかし、例えばここで挙げている撮像システムは、先にも述べたように、雲台10のパン・チルト機構を動かしながら被写体探索を行い、被写体が検出されたのであれば実施の形態の構図判定を実行し、その判定結果に応じたパン・チルト・ズーム制御により構図合わせを行って撮像記録をするというものである。
しかし、この撮像システムの場合、デジタルスチルカメラ1は、定点に置かれた雲台10の上でパンニング、チルティング、さらにはズーム可変が行われることで、撮像方向、撮像視野角が変更されることになる。従って、被写体探索が可能な範囲は、そのときの撮像システムの配置に応じて決まってくることになる。そして、この被写体探索可能範囲においてポスターの顔などの非現実被写体が存在しているとすると、例えば被写体探索において、この非現実被写体が個別被写体として検出される都度、静止検出処理により非現実被写体であるとして除外する処理を実行することになる。
この場合において、非現実被写体は、撮像システムの周囲において固定した位置において存在するものであり、この点で、その位置が不定の存在ではない。このように位置が固定であるのにもかかわらず、その非現実被写体が検出個別被写体として検出される都度、静止検出処理を伴って、これを非現実被写体として除外する処理を実行しなければならないのは、効率的ではない。そこで、本実施の形態としては、これまでの構図判定に加えて、一度、非現実被写体であるとして選別したものについては、以降において、再度、静止検出処理を用いての非現実被写体であるか否かの判定に相当する処理を実行することなく、対象個別被写体から除外できる機能(重複検出回避機能)が与えられるように構成する。以下、この点について説明する。
静止検出処理に際しては、先ず、図7の場合と同様にして、被写体検出処理部201が撮像画像データを取り込んで入力して被写体検出処理を実行し、検出した個別被写体ごとの検出個別被写体情報から成る検出被写体情報を静止検出処理部202に対して出力する。
静止検出処理部202は、入力した検出被写体情報に基づいて、個々の検出個別被写体ごとについての静止検出を実行し、その検出結果である静止被写体情報を得る。そして、この場合には、このようにして得た静止被写体情報を、静止被写体情報保持部210に対して保持させる。
なお、静止被写体情報保持部210は、例えば、制御部27と接続されるRAM29に設定した静止被写体情報を保持するための領域とされる。これにより静止被写体情報保持部210には、静止被写体、即ち非現実被写体についての検出個別被写体情報が保持されることになる。
このようにして、静止検出処理部202が、先ず、静止被写体情報保持部210にて保持されている静止被写体の検出個別被写体情報を利用して静止検出処理を実行することによって、静止検出処理としては、これまでにおいて一度静止被写体であると検出された検出個別被写体については改めて静止検出を実行する必要がない。このようにして、重複検出回避機能が実現されている。
このような比較対象となる情報として、1つには、その静止被写体の位置情報を挙げることができる。ただし、実施の形態として挙げている撮像システムは、パン・チルト・ズームによって画枠に収まる撮像視野角が変化するので、ここでの位置情報について、単純に撮像画像内における静止被写体の位置を示すものであるとすると、パン・チルト・ズームの位置状態によって変化してしまう。そこで、比較対象となる位置情報としては、そのときに撮像システムが設置されている状態での、静止被写体についての絶対的な位置を示し得る情報(絶対位置情報)を利用する。
なお、絶対位置情報の求め方の手法例については後述する。
上記検出被写体情報は、被写体選別処理部211が取り込む。被写体選別処理部211は、基本的には、図7の場合と同様の検出アルゴリズムにより被写体選別の処理を実行する。但し、この場合の被写体選別処理部211は、選別処理に際して、静止検出処理部202による検出結果を(静止被写体の検出個別被写体情報)を直接に利用するのではなく、静止被写体情報保持部210において保持されている静止被写体の検出個別被写体情報を下記のように利用する。
そこで、被写体選別処理部211は、図7の場合と同様の検出アルゴリズムにより被写体選別の処理を実行するのにあたって、静止被写体の検出個別被写体情報は、この静止被写体情報保持部210に保持されているものを取り込んで利用する。
これに対して、静止被写体情報保持部210に保持される静止被写体の検出個別被写体情報は、これまでに静止被写体であるとして検出された被写体についてのものとなる。図29(b)の被写体選別処理部211が、これらの静止被写体の検出個別被写体情報により被写体選別処理を行うことによっては、現時点に対応するまでのタイミングにおいて、静止被写体であると検出されたものについては全て非現実被写体として除外され、ここから残ったものが現実被写体として選別される結果となる。つまり、過去において一度静止被写体であるとして検出されたものを除外するという選別が行われるものであり、現在おいて検出される被写体のうちで、現実被写体とされるもののみが的確に選別される結果が得られることとなる。
また、ここでは、構図判定ブロック62として、図29(a)と図29(b)とで、静止検出処理と、被写体選別・構図判定処理とを分けて示しているが、これは、構図判定ブロック62において、静止検出処理と、被写体選別・構図判定処理とを、それぞれ独立して実行させることが可能であることを示している。よって、例えば図29(a)と図29(b)の構成を1つにまとめて示すこともできる。この場合には、図29(b)の構成において、静止検出処理部202を備えることとして、被写体検出処理部201からの出力を、被写体選別処理部211と静止検出処理部202とに対して分岐して入力させる。また、静止検出処理部202が静止被写体情報保持部210にアクセスして静止被写体情報(静止被写体の個別被写体情報)の読み出し、書き込みができるようにして接続する。
先ずは、被写体検出処理部201が、ステップS701により撮像画像データを取り込み、ステップS702により被写体検出処理を実行する。
また、ここでは、被写体検出処理部201は、上記ステップS702による検出処理の結果として、少なくとも1つの個別被写体が検出されたか否かについての判別を行うこととしており、ここで個別被写体が1つも検出されないとして否定の判別結果が得られたのであれば、ステップS701に戻ることで、撮像画像データの取り込みと被写体検出処理を繰り返すようにされる。
ステップS704以降の手順は、静止検出処理部202によるものとなる。ステップS704では、最後のステップS702により検出された個別被写体に付すべき番号を示す変数nについて、1を代入する初期化を行う。なお、変数nの最大値は、最後のステップS702により検出された個別被写体数(検出個別被写体情報数)となる。
これに対して、ステップS709において肯定の判別結果が得られた場合には、n番目の被写体は、はじめて静止被写体であるとして検出されたことになる。そこで、この場合にはステップS710により、このn番目の個別被写体の検出個別被写体情報を、静止被写体情報保持部210に対して書き込んで保持させる。これにより、静止被写体情報保持部210に対して、新規に、1つの静止被写体が登録されることとなる。
そして、全ての検出個別被写体を対象とする静止検出処理を実行したとして、ステップS711にて肯定の判別結果が得られたとされると、ステップS701に戻る。
この図では、先ず、被写体検出処理部201が、ステップS801〜S803により、図30のステップS701、S802、S803と同様にして、撮像画像データの取り込み、被写体検出処理、及び個別被写体の検出の有無を判別する。
この被写体探索の結果として、ステップS803にて少なくとも1つの個別被写体が検出されたことで肯定の判別結果が得られたのであれば、ステップS804以降の手順に進む。
ステップS804では、静止被写体情報保持部210から静止被写体情報の読み込みを行い、ステップS805により、上記の静止被写体情報を成す静止被写体ごとの検出個別被写体情報と、被写体検出処理部201からの検出被写体情報を成す検出個別被写体情報とを利用して、被写体選別処理を実行する。先に図29(b)においても述べたように、ここで実行される被写体選別処理によっては、被写体検出処理部201により検出された個別被写体のうちで、これまでにおいて静止被写体であるとして検出されたものは全て除外されることになる。
ステップS806においては、今回、被写体検出処理部201により検出された個別被写体のうちで、対象個別被写体、即ち現実被写体が残っているか否かについて判別する。構図判定処理部203は、上記ステップS805の選別処理によって選別された検出個別被写体の検出個別被写体情報の取り込みを行うが、その結果として、有効な検出個別被写体情報が1つも存在しない場合には、対象個別被写体(現実被写体)は残っていないということになる。これに対して、有効な検出個別被写体情報が存在しているのであれば、対象個別被写体は残っていることになる。
ここで、対象個別被写体が残っていないとして否定の判別結果が得られた場合には、ステップS811により被写体探索を指示した上で、ステップS801に戻る。これに対して、ステップS806において肯定の判別結果が得られた場合には、ステップS807に進む。
ステップS808は、パン・チルト・ズーム制御ブロック63における処理となる。つまり、パン・チルト・ズーム制御ブロック63は、構図判定結果に応じた撮像視野角が得られるようにするための、即ち構図合わせのためのパン・チルト・ズーム制御を実行する。
上記ステップS808の構図合わせの処理が開始されて以降においては、ステップS809により、実際にそのときの撮像画像データの画像として得られている構図が、ステップS807により判定した構図と同じであるみなされる状態(例えば一定以上の近似度となる状態)となったか否か(構図がOKであるか否か)を判別することとしている。なお、この判別は、例えば構図判定処理部203において、構図判定結果を出力した後に得られる対象個別被写体の検出個別被写体情報の位置情報の変化などを検出することで実現できる。
これに対して、ステップS809において構図がOKになったとの判別結果が得られた場合には、ステップS810により、レリーズ動作、つまり、そのときに得られている撮像画像データを静止画として記録する動作の実行を指示する。このレリーズ指示の処理も、例えばここでは、構図判定処理部203が実行するものとして捉えればよい。
また、上記のようにして静止検出処理及び被写体判別処理に、静止被写体情報保持部210にて保持している静止被写体情報(静止被写体の検出個別被写体情報)を利用する構成においては、個別被写体情報における位置情報は、そのときのデジタルスチルカメラ1の配置位置を基本とする絶対位置情報であるとした。
すると、上記のようにして、デジタルスチルカメラ1(及び雲台10)の位置が動かされた段階で、静止被写体情報保持部210に保持されている静止被写体情報(静止被写体の個別被写体情報)が有している絶対位置情報は誤ったものとなってしまうので、以降において、この絶対位置情報を利用することは避けなければならない。このためには、例えばユーザが、デジタルスチルカメラ1(及び雲台10)を動かして置き直した後、例えばデジタルスチルカメラ1に対する所定操作により、静止被写体情報保持部210にこれまで保持させていた静止被写体情報をクリア(消去)させて、改めて、静止検出を伴う静止被写体情報保持部210への静止被写体の登録処理をはじめから実行させるようにすることが考えられる。
そして、この考え方をさらに推し進めれば、デジタルスチルカメラ1(及び雲台10)が動かされたことに応じた静止被写体情報保持部210の静止被写体情報のクリアが自動実行されるようにして、そのための操作を不要とすれば、ユーザへの便宜が図られることになる。
クリア制御部212は、先ず、ステップS901により加速度センサ213から出力されている検出信号の取り込みを実行し、ステップS902において、取り込んだ検出信号が示す加速度値が、所定の閾値以上であるか否かを判別する。このステップS902において設定される閾値は、例えばデジタルスチルカメラ1を人が持って動かしたとするときに加速度センサ213により検出される一般的、平均的な加速度値を基にして設定される。つまり、ステップS901においては、そのときのデジタルスチルカメラ1の状態として、人が持って動かしたとする場合に対応した程度の動きをしているか否かを判別するものである。
これに対して、ステップS902において肯定の判別結果が得られた場合には、ステップS903以降の手順を実行する。
ステップS904にて否定の判別結果が得られた場合には、ステップS905、S906をスキップしてステップS907に進むが、肯定の判別結果が得られたのであれば、ステップS905、S906の手順を実行する。
このために、ステップS905においては、期待加速度値を算出する。この期待加速度値は、デジタルスチルカメラ1を固定した雲台10が人為的に動かされずに定位置にて静止した状態の下で現在のパンニング・チルティングを実行しているときに得られるものとして推定、期待される加速度値のことをいう。この期待加速度値は、例えばステップS903にて取り込んだパン・チルト制御信号が示す移動量と、パンニング・チルティングの移動速度をパラメータとして所定の関数を用いた演算を実行することで得ることが可能である。パン・チルト制御信号が示す移動量と、パンニング・チルティングの移動速度に対応して、加速度センサ123にて検出される加速度値はほぼ決まるものとしてみることができる。なお、パンニング・チルティングの移動速度は、雲台10において採用されるパン機構部、チルト機構部の構造であるとか、各機構部のモータを駆動する電圧、電流などにより一義的に求めることができる。
ステップS906にて否定の判別結果が得られた場合には、雲台10は人為的に動かされておらず静止しておかれた状態で、パンニング・チルティングの動作を実行中であることになる。この場合には、そのままステップS901に戻る。これに対してステップS906にて肯定の判別結果が得られた場合には、雲台10はパンニング・チルティングの動作を実行中であり、かつ、雲台10とこれに固定されているデジタルスチルカメラ1が人為的に動かされている状態であることになる。この場合には、ステップS907に進む。このようにして、本実施の形態では、パンニング・チルティングの動作が実行中であっても、的確に、雲台10とこれに固定されているデジタルスチルカメラ1自体が、雲台10のパン・チルト機構(可動機構部)以外の力により動かされている状態であることを検知できるようになっている。
なお、図34において、図29と同一部分には同一符号を付して重複する説明については省略する。また、静止被写体情報保持部210の静止被写体情報を自動的にクリアする構成は、ここでは省略しているが、この構成については、図32及び図33により説明した構成を適用すればよい。
先ずステップS1001、ステップS1002によっては、図31のステップS801、S802と同様にして、被写体検出処理部201が撮像画像データを取り込んで被写体検出処理を実行する。
被写体選別処理部211は、ステップS1003により、静止被写体情報保持部210において現在保持されている静止被写体情報の読み込みを行う。続いて、ステップS1004により、被写体検出処理部201から取り込んだ検出被写体情報を形成する検出個別被写体情報と、読み込んだ静止被写体情報を形成する個別被写体情報とを利用して、図31のステップS805と同様の被写体選別処理を実行する。
これに対してステップS1005において肯定の判別結果が得られたのであれば、ステップS1006以降の手順に進む。
従って、この場合の被写体選別処理部211が被写体選別処理によって選別した個別被写体には、今回の被写体選別処理のために取り込んだ検出個別被写体情報を得るための被写体検出処理よりも前のタイミングで行われた静止検出処理により検出された(静止被写体情報保持部210に登録された)静止被写体については除外されているが、最後の被写体検出処理の対象となった撮像画像データにはじめて現れたもので、未だ静止被写体情報保持部210には未登録の非現実被写体は、除外されることなく選別されて残っている可能性がある。
そこで、次に述べるようにして、静止被写体情報保持部210は、静止被写体の検出と、これに応じた静止被写体情報保持部210への登録処理を実行するとともに、静止被写体の検出結果を用いて、被写体検出処理部211を経るまでの段階では除外されずに残っている非現実被写体を、この段階で改めて除外する。
先ず、ステップS1006では、被写体選別処理部211にて選別された個別被写体(現実被写体の候補)に付す番号を示す変数nについて、1を代入する初期化を行う。
次に、ステップS1007においては、n番目の個別被写体について静止検出処理を実行する。このときの静止検出処理は、例えば所定の検出期間内において、被写体選別処理部211から取り込むn番目の個別被写体についての検出個別被写体情報の変化(例えば絶対位置情報の変化)を検出し、その変化量に基づいて、n番目の個別被写体は静止被写体であるか否かの判定を行うようにして実行される。
ステップS1008にて肯定の判別結果が得られた場合には、ステップS1009に進んで、n番目の個別被写体に対応する検出個別被写体情報を静止被写体情報保持部に対して登録したうえでステップS1011に進む。これに対して、否定の判別結果が得られたのであれば、ステップS1010に進み、n番目の個別被写体を、後段の構図判定処理の対象である対象個別被写体として設定して、ステップS1011に進む。
これに対して、ステップS1011にて肯定の判別結果が得られた場合には、静止検出処理の対象となる個別被写体の全てについての静止検出処理を完了したことになるので、ステップS1013以降の手順に進む。
ステップS1011にて肯定の判別結果が得られた段階では、ステップS1010までの手順が実行されていることにより、対象個別被写体として設定された個別被写体についての検出個別被写体情報が、構図判定処理部203にて取り込まれている状態にある。そこで、ステップS1013においては、構図判定処理部203は、検出個別被写体情報の取り込み状況から、対象個別被写体が存在するか否かについて判別する。このときに構図判定処理部203が、対象個別被写体として有効な検出個別被写体情報を、1つも取り込んでいなければ、ステップS1003では否定の判別結果が得られ、1つでも取り込んでいれば、肯定の判別結果が得られる。
ステップS1014〜S1017は、図31におけるステップS807〜S810と同様となる。つまり、構図判定処理部203は、対象個別被写体の検出個別被写体情報に基づいて構図判定処理を実行し、この判定結果に応じてパン・チルト・ズーム制御ブロック63により、構図合わせのためのパン・チルト・ズーム制御を実行させる。そして、このパン・チルト・ズーム制御により撮像視野角が変化された結果、構図がOKであると判定されたのであれば、レリーズ動作を指示して、そのときの撮像画像データから静止画像データを取り出して記録させる。
また、ここでは、設定している画角(ズーム角)を、画角中央angC、画角左端angL、画角右端angRにより表現している。なお、画角中央angCは、デジタルスチルカメラ1の撮像光軸と一致するものであり、画角中央angCから画角左端angLまでの角度の大きさと、画角中央angCから画角右端angRまでの角度の大きさは同じになる。
なお、ここで設定されている画角は、被写体探索動作の実行時において設定される画角であるとする。被写体探索時においては、できるだけ効率よく被写体が探索(検出)できるようにすることを配慮して、広めであるとしてみることのできる所定の画角に設定される。
また、このデジタルスチルカメラ1及び雲台10が設置されている周囲において、図示するように、デジタルスチルカメラ1に対して、紙面上で右手前となる方向の位置に1つの被写体SBJsが存在しているものとする。
例えば、上記図36(a)から図36(b)への遷移へと示すようにして、はじめて撮像画像の画枠内に被写体SBJsが現れてこれが被写体として検出されたタイミングで静止検出を実行し、その静止検出結果に基づいて、この被写体SBJsが静止被写体であるか否かを判定するようにする。ここでは、被写体SBJsは非現実被写体であるとしているから、静止被写体であるとして判定されることになる。このようにして静止被写体であると判定したのであれば、この被写体SBJsについての検出個別被写体情報として、画枠内に被写体SBJsがはじめて現れたときのパン角度αleftを含めるようにされる。そして、この検出個別被写体情報を、静止被写体情報保持部210に登録するようにされる。そして、例えば被写体選別処理では、静止被写体情報において示されるパン角度が得られているときに、はじめて画枠内に入ってきて検出される個別被写体については、選別対象から除外するという処理を実行させる。なお、この被写体選別処理を被写体探索時においてのみ実行させることとすれば、パン角度も被写体探索時の画角のもとで得られたものであるから、被写体選別は適正に行われる。
このようにして、上記の処理にあっては、静止被写体として検出される個別被写体がはじめて撮像画像の画枠内に収まることとなるパン角度(パン位置)を、絶対位置情報として扱うようにされる。
上記図36によれば、被写体SBJsは、パン角度αleft°〜αright°までのパン位置の範囲において撮像されて、撮像画像の画枠内において例えば見切られることなく収まっていることになる。
そこで、この被写体SBJsの絶対位置情報として、上記したパン角度αleft°、αright°のような点としての情報ではなく、パン角度αleft°〜αright°までの角度範囲を示す情報とすることが考えられる。
ただし、場合によっては、パン方向とチルト方向のいずれかのみが可変とされる雲台10の構成を考えることもできるが、この場合には、可変となる方向に応じて、パン角度とチルト角度のいずれかを絶対位置情報とすればよい。この点については、次に説明する絶対位置情報に関しても同様である。
図37(a)は、デジタルスチルカメラ1が、基準線Lに対して時計回りの方向にパン角度αx°分回転した位置にあって、かつ、水平画角内において被写体SBJsが撮像されている状態が示されている。この場合において、水平画角はθx°により表しており、また、被写体SBJsは、中心画角angCから反時計回りの方向に角度βx°だけ回転した角度に対応する線上に、その水平方向における中心位置(重心)が対応するようにして位置している。
ここで、基準線Lは、そのときの雲台10の配置の状態に応じて決まる絶対的なものとなる。従って、上記の角度γx°によって示される被写体SBJsの位置は、基準線Lを基とする絶対的なものとなる。つまり、絶対位置情報として扱うことができる。なお、以降、この角度γx°のようにして、被写体の絶対的位置を示し得る角度については、絶対位置対応角度ということにする。また、角度βx°については、そのときのパン角度αx°のもとで、中心画角angCを基にして決まる被写体SBJsの位置を示すものであるから、相対位置対応角度ということにする。
図37(b)は、上記図37(a)に示した位置状態のデジタルスチルカメラ1により撮像して得られる撮像画像を示している。
ここで、撮像画像の画枠300における水平画枠サイズ(例えば画素数により表現できる)をCxとし、この水平画枠サイズにおける中点を通過する垂直線をMとして、この垂直線Mを撮像画像の画枠における水平方向の基準(X軸座標の基準:X=0)とする。水平方向に沿ったX軸座標としては、垂直線Mより右の領域が正となり、左の領域が負となる。そして、撮像画像の画枠300内において存在する被写体SBJsについての、水平方向における座標値はX=aとして表している。なお、図37(b)の場合のX座標値aは、負の数となる。
よって、相対位置角度βx°は、
βx°=(a/Cx)*θx・・・(式1)
により表される。
また、図37(b)によれば、パン角度αx°、相対位置対応角度βx°、及び絶対位置対応角度γx°の関係は、
αx°=γx°−βx°・・・(式2)
で表される。
よって、絶対位置対応角度γ°としては、下記のようにして求めることができる。
γx°=(a/Cx)*θx°+αx°・・・(式3)
ここで、上記パラメータのうち、水平画枠サイズCxは既知であり、撮像画像の画枠内における被写体SBJsのX座標値βは、撮像画像内にて検出される被写体についての水平方向における位置情報に他ならないから、本実施の形態の被写体検出処理により得ることできる。また、水平画角θx°の情報は、画角(ズーム)制御の情報に基づいて得ることができる。より具体的には、例えば光学系部21が備えるズームレンズのズーム倍率1倍を設定しているときの標準画角の情報を保持しておいたうえで、ズーム制御に応じて得られるズーム位置と、上記標準画角とを利用して求めることができる。また、パン角度αx°についてもパン制御の情報として得ることができる。
このようにして、本実施の形態の撮像システムでは、絶対位置対応角度γx°について、特に支障なく簡単に求めることができる。
また、このような絶対位置対応角度は、画枠300の端に対応した限界位置付近ではなく、画枠300におけるより内側の領域にて被写体を検出しているときにも、上記のパラメータさえ取得できれば的確に求めることができる。従って、動きのある現実被写体についても、逐次、追跡するようにして、その絶対位置対応角度を求めていくことが可能である。
また、実際においては、同様にして、垂直方向における絶対位置対応角度(γy°)も求めるようにされる。確認のために、垂直方向における絶対位置対応角度γy°は、垂直画枠サイズCy、撮像画像の画枠内における被写体SBJsのY座標値b(垂直画枠サイズCyの中点をY=0とする)、垂直画角θy°、及びチルト角度αy°のパラメータにより、
γy°=(b/Cy)*θy°+αy°・・・(式4)
により求めることができる。
被写体位置算出部221は、検出個別被写体ごとの位置情報として、上記の撮像画像内位置情報を取り込むこととしている。
このようにして求められた検出個別被写体ごとの絶対位置情報(水平・垂直絶対位置対応角度)は被写体選別処理部211にあるとされる選別処理部222に対して渡される。
このための仕組みは、例えば次のようになる。つまり、図29(a)に示される静止検出の構成を例に採ると、被写体検出処理部201では、静止検出処理部202に渡すべき検出個別被写体情報位置情報として、上記被写体位置算出部221により算出した絶対位置情報(水平・垂直絶対位置対応角度)を含めるようにされる。そして、静止検出処理部202は、検出した静止被写体ごとの個別被写体情報を静止被写体情報保持部210に保持させるのにあたり、その個別被写体情報に、上記の絶対値位置情報を含めるようにされる。これにより、図38の選別処理部222は、静止被写体情報保持部210から、静止被写体として登録されている被写体ごとの位置情報として、絶対値位置情報を取り込むことができる。
このような被写体検出処理によって得られる検出個別被写体情報としては、例えばこれまでに説明した位置情報をはじめとする情報のほかに、個別認識を可能とするための属性情報(例えばその個別被写体の画像的特徴を表す情報)を含めるようにされる。
そこで、図39における選別処理部223は、被写体検出処理部211から、検出個別被写体ごとの検出個別被写体情報として、上記した検出個別被写体ごとの属性情報(検出個別被写体属性情報)を取り込む。
また、この場合において、静止被写体情報保持部210が保持する静止被写体ごとの個別被写体情報にも、上記の属性情報が含まれるようにする仕組みを与えておくこととする。この仕組みは、例えば図38において説明した、静止被写体ごとの個別被写体情報に、絶対位置情報を含めるための構成に準ずればよい。
選別処理部223は、検出個別被写体属性情報とともに、静止被写体情報保持部210から、静止被写体ごとの個別被写体情報に含まれる属性情報(静止被写体属性情報)を取り込む。
位置情報変換部224は、選別処理部223から出力される検出個別被写体属性情報と、全ての検出個別被写体の検出個別被写体位置情報とを取り込む。そして、取り込んだ検出個別被写体位置情報のうちから、選別処理部223から取り込んだ検出個別被写体属性情報と対応付けられているものを選択する。そして、選択した検出個別被写体位置情報を、対象個別被写体位置情報として、構図判定処理部203に対して出力する。
なお、ここで挙げる例は、あくまでも一例であって、例えば静止被写体(非現実被写体)を除外した現実被写体のみを対象とする限り、構図制御の具体例については多様に考えることができるものである。
ここで、被写体検出処理部201が、図40(a)に示す画内容の撮像画像データを取り込んだとする。この撮像画像データの画内容としては、人としての被写体が1つ存在した画を撮影して得られたものである。また、図40(a)(及び図40(b))には、1画面をマトリクス状に区切った状態を示しているが、これは、撮像画像データとしての画面が、所定数による水平・垂直画素の集合から成るものであることを模式的に示している。
図40(a)に示す画内容の撮像画像データを対象に被写体検出(顔検出)を行うことによっては、図において示される1つの個別被写体SBJの顔が検出されることになる。即ち、顔検出処理によって1つの顔が検出されることを以て、ここでは1つの個別被写体が検出されることとしている。そして、このようにして個別被写体を検出した結果としては、個別被写体の数、向き、位置、サイズの情報を得るようにされる。
また、個別被写体数に関しては、例えば顔検出により検出された顔の数を求めればよい。図40(a)の場合には、検出される顔が1つであるから、個別被写体数としても1であるとの結果が得られる。
また、個別被写体ごとの位置情報としては、先に述べたように、画枠内の位置情報、また絶対位置情報となるが、これらの位置情報が具体的に示すものとしては、個別被写体SBJの重心であることとする。
例えば、撮像画像の画枠内における個別被写体SBJの重心Gとしては、先にも述べたように、(X,Y)により表現されることになる。なお、確認のために、この場合の重心G(X,Y)の基準となる撮像画像データの画面上のX,Y原点座標P(0,0)は、例えば図41に示すようにして、画面サイズに対応したX軸方向(水平方向)の幅(水平画サイズ)Cxの中間点と、Y軸方向(垂直方向)の幅(垂直画サイズ)Cyの中間点との交点であることとしている。
また、この重心Gについての個別被写体の画像内における位置の定義であるとか、重心Gをどのようにして設定するのかについては、例えばこれまでに知られている被写体重心検出方式を採用することができる。
また、個別被写体ごとのサイズについては、例えば顔検出処理により顔部分であるとして特定、検出される領域の画素数を求めるようにすればよい。
また、個別被写体ごとの顔方向に関しては、先にも述べたように、顔検出処理に基づいて、例えば左、右の何れであるのかが検出されることになる。
また、このようにして、2以上の個別被写体が検出される場合には、これら複数の個別被写体をひとまとまりの被写体(総合被写体)としてみた場合の重心である、総合被写体重心Gt(Xg,Yg)を求めるようにされる。
この総合被写体重心Gtをどのようにして設定するのかについては、いくつか考えることができるが、ここでは、最も簡易な例として、検出された複数の個別被写体のうちで、画面の左端と右端の両端に位置する個別被写体の重心を結ぶ線分上の中間点を総合被写体重心Gtとして設定した場合を示している。この総合被写体重心Gtは、例えば後述するようにして構図制御において利用することができる情報であり、個別被写体の重心の情報が取得されれば演算により求められる情報である。従って、総合被写体重心Gtについては、被写体検出処理部201により求め、これを検出情報として出力することとしてもよいが、構図制御処理ブロック62が、検出情報として取得した個別被写体の重心の位置を示す情報のうちから、左右両端に位置する個別被写体の重心に関する情報を利用して求めるようにしてもよい。
なお、ほかには例えば、複数の個別被写体のサイズに応じて重み付け係数を与え、この重み付け係数を利用して、例えばサイズの大きな個別被写体に総合被写体重心Gtの位置が近くなるように配慮した設定手法も考えることができる。
また、個別被写体のサイズについては、例えば個別被写体SBJ0、SBJ1ごとに、その検出された顔が占有するとされる画素数を求めることとすればよい。
確認のために、ここでの構図制御とは、構図判定処理と、この構図判定処理により判定した最適構図となるように構図合わせを行うための制御処理とを合わせていう。
なお、例えばこの図に示される画枠内においては、実際には、非現実被写体として検出された個別被写体が存在している可能性があるが、ここでは、例えば図を見やすくすることの便宜などを考えて、ここでの非現実被写体の図示は省略している。
また、本実施の形態にあっては、デジタルスチルカメラ1を取り付けた雲台10を通常に設置した場合には、横長の画像が撮像されるようにしてデジタルスチルカメラ1の向きが設定される。従って、第1例や後述する第2例の構図制御にあっては、撮像により横長の画像が得られることを前提とする。
構図判定としてこの被写体位置の判定に関しては、検出された顔方向の情報を利用する。この図42の場合の対象個別被写体SBJs0は、顔方向が左であるとして検出されているものとする。このとき、この図42に示される画内容の画面を実際に見たとした場合、これを見る者からは、画面において、対象個別被写体SBJs0の顔が左側を向いているようにして見えることになる。ちなみに、この対象個別被写体SBJs0としての実際の人物自身は、現実には、撮像を行った撮像装置と相対する方向を正面として、これより右側を向いていることになる。
また、この被写体位置調整にあたっては、画像中の原点座標P(0,0)を通過する垂直線、即ちY軸線と一致する直線であって、被写体位置調整の基準線となる画像領域分割線Ldを仮想的に設定する。
そして、この場合のようにして顔方向が左であると検出された場合には、対象個別被写体SBJs0の重心Gが、上記画像領域分割線Ldに対応する位置(X=0)から、水平オフセット量Δxで表される右方向への移動量に従って移動させた位置(水平シフト位置)となるのが最適構図であると判定する。そして、この位置に上記重心Gを配置させるための構図合わせを行う。このためには、重心Gが、上記水平シフト位置にくるようにして、雲台10のパン機構を駆動させる制御を実行する。
そのうえで、さらに、本実施の形態では、図42に例示するように、対象個別被写体の顔方向が左であれば、その重心Gの水平方向における位置について、Y軸線に沿った画像領域分割線Ldにより2分割される左右の画像領域(分割領域)のうちで、顔方向が示す「左」とは反対側の「右」側の画像領域に在るようにさせることで、画面においては、検出被写体SBJの顔が向いている方向である左側において空間が得られるようにしている。このような構図とすることで、例えば、顔方向が左であるとされる対象個別被写体SBJsの重心Gを、左右方向における画面中央に対応させた(一致させた)被写体位置とする場合や、画像領域分割線Ldに対して左方向の画像領域とするような場合と比較して、より良好な構図を得ることができる。
例えば、図42は、水平画枠サイズCxを三等分するようにされた画面縦方向に沿った2本の仮想線のうち、右側の仮想線上において重心Gが位置するようにして、水平オフセット量Δxが設定されているものである。これにより、個別被写体の顔方向に応じた水平方向における被写体位置として最適とされる構図の1つが得られることになるわけである。
なお、上記の総合被写体画像部分をどのようにして定義してそのサイズを求めるのかについてはいくつか考えられるが、例えば、検出された複数の対象個別被写体ごとの画像部分のサイズを足し合わせるようにして求めることができる。あるいは、検出された複数の個別被写体が全て含まれるようにして仮想的に描いた線により囲まれる画像部分のサイズとして求めることも考えられる。
この図43(a)に示される2つの対象個別被写体SBJs0、SBJs1の顔方向は、何れも左であると検出されているものとする。つまり、2つある対象個別被写体の全ての顔方向が同一とされており、これらの顔方向がこの場合には左とされているものである。
この場合には、図42に示した1つの対象個別被写体SBJsの顔方向が左であった場合に準じて、画面左側に空間ができるように、対象個別被写体SBJs0、SBJs1から成る総合被写体画像部分を、顔方向が示す「左」とは反対となる、画像領域分割線Ldの右側に寄せて位置させるようにする。つまり、この被写体配置が最適構図であるとしてこの場合には判定されているものである。このためには、例えば図示しているように、右側に所定量ずらすための水平オフセット量Δxを設定した上で、2つの対象個別被写体SBJs0、SBJs1から成る総合被写体画像部分の重心である、総合被写体重心Gtについて、画像領域分割線Ldである原点座標P(0,0)を通過する垂直線(Y軸線)から水平オフセット量Δxだけ移動した位置にくるように、パン制御を行うようにされる。
また、図示はしていないが、2つの対象個別被写体SBJs0、SBJs1の顔方向が何れも右で同一である場合には、図43(a)の位置に対して、画像領域分割線Ldを基準にして線対称となる位置(Y軸線に対して左側の画面領域において同じ水平オフセット量Δxの絶対値分移動した位置)に総合被写体重心Gtが在る状態を最適構図として判定するので、この状態となるようにしてパン制御を行うことになる。
この場合の水平方向における総合被写体画像部分の位置については、図示するようにして、2つの対象個別被写体SBJs0、SBJs1の総合被写体重心Gtが、画像領域分割線Ld上に位置する状態が最適構図であると判定し、この状態となるようにして調整(パン制御)を行う。
これにより得られる構図では、2つの対象個別被写体SBJs0、SBJs1から成る総合被写体画像部分は、水平方向において画面のほぼ中央に位置することとなる。しかし、被写体が複数とされて、かつ、これらの被写体が同一の方向を向いていないような画の場合、総合被写体画像部分が中央にきたとしても、その構図は相応に良好なものとなる。
この場合の構図制御としても、先ず、対象個別被写体SBJs0、SBJs1、SBJs2から成る総合被写体画像部分のサイズについて、個別被写体数が3である場合に対応して最適であるとして設定された値となるようにして調整(ズーム制御)を行う。
この場合には、図43(a)の場合に準じて、対象個別被写体SBJs0、SBJs1から成る画像領域部分を画像領域分割線Ldよりも右側の画像領域に寄せて位置させるようにして、水平オフセット量Δxの設定(判定)と、これによって決まる(判定される)所要位置への総合被写体重心Gtの移動のためのパン制御を行うようにされる。また、仮に3つの対象個別被写体SBJs0、SBJs1、SBJs2の顔方向が全て右で同一である場合には、総合被写体重心Gtは、図44の位置に対して、画像領域分割線Ldを基準にして線対称となる水平位置に在るようにしてパン制御が行われることになる。
また、このときに設定される水平オフセット量Δxは、図43(a)の対象個別被写体が2つの場合よりも、小さな絶対値を設定するようにされる。これにより、例えば対象個別被写体数が3とされる場合に応じて、水平方向における被写体位置はより最適となって、良好な構図が得られることになる。
そして、構図制御として、対象個別被写体数が複数(2以上)の場合には、対象個別被写体の顔方向が全て同一ならば、上記の位置調整に倣い、総合被写体重心Gtの水平オフセットを行うようにされ、全て同一でないならば、水平オフセットを行うことなく、総合被写体重心Gtには画像領域分割線Ldに対応したX座標を与えて、総合被写体画像部分が画面内のほぼ中央に在るようにする。
ステップS1101では、イメージセンサ22からの撮像信号に基づいた撮像画像データを取り込んで取得する。ステップS1102では、上記ステップS1101により取得した撮像画像データを利用して被写体検出処理、及び被写体選別処理を実行する。ここでの被写体検出処理は、これまでの説明のようにして、被写体検出処理部201が実行するものとなる。また、ここでの被写体検出処理では、先にも述べたように、検出個別被写体ごとの顔方向についても検出して、その情報を得るようにされている。また、被写体選別処理は、これまでの説明に従って被写体選別処理部211が実行するものとなる。
なお、上記被写体探索のためのパン・チルト制御として、雲台10のパン・チルト機構をどのようなパターンで動かすのかについては、例えば探索が効率的に行われることを配慮して決めることとすればよい。
また、ステップS1106においては、モードフラグfについて0を設定(f=0)し、ステップS1101に戻るようにされる。
このようにして、撮像画像データの画内容において少なくとも1つの個別被写体が検出されるまでは、ステップS1101〜ステップS1106の手順が繰り返される。このとき、デジタルスチルカメラ1と雲台10から成るシステムは、被写体探索のために、デジタルスチルカメラ1がパン方向及びチルト方向に動かされている状態となっている。
f==0であると判別された場合には、構図制御として、最初のラフな被写体捕捉モードを実行すべき場合であることを示すものであり、図のようにしてステップS1108から始まる手順を実行する。
ステップS1108においては、総合被写体重心Gtが、撮像画像データの画面(撮像画像データの画内容を表したとするときに得られる画面)における原点座標P(0,0)(図41参照)に位置しているか否かについての判別を行う。ここで、総合被写体重心Gtは、未だ原点座標に位置していないとして否定の判別結果が得られた場合には、ステップS1109により、総合被写体重心Gtが原点座標に位置するようにして、雲台10のパン・チルト機構を動かすための制御を実行し、ステップS1101に戻る。このようにして、個別被写体の存在が検出されている状態での最初の構図制御の手順である捕捉モードは、総合被写体重心Gtを、先ずは初期の基準位置である原点座標に対して位置させるようにして雲台10のパン・チルト機構を制御することで、検出された対象個別被写体が写っているとされる画像領域を画面内の中央に位置させようとするものである。
モードフラグf==0の状態で個別被写体が検出される状態では、被写体検出処理部201は、下記の(数1)により示される演算を行って、パン方向における必要移動量Spanとチルト方向における必要移動量Stiltを求めるようにされる。下記の(数1)において、nは選別された対象対象個別被写体数を示し、P(Xi,Yi)は0番からn−1番までの番号が与えられた対象個別被写体のうちのi番目の対象個別被写体の重心のX,Y座標を示す。確認のために、図41に示したように、この場合における原点座標(0,0)は、画面における水平方向における中点と垂直方向における中点との交点となる。
そして、ステップS1108において、総合被写体重心Gtが原点座標に位置したとして肯定の判別結果が得られたとされると、ステップS1110によりモードフラグfについて1を設定(f=1)してステップS1101に戻る。このステップS1110によりモードフラグfについて1が設定された状態は、構図制御における最初の手順である捕捉モードは完了し、次の第1の構図の調整制御(構図調整モード)を実行すべき状態であることを示す。
ステップS1112においては、検出されている対象個別被写体数が1であることに対応した目標被写体サイズを設定する。ここでの目標被写体サイズとは、画面における総合被写体画像部分のサイズとして構図的に最適であるとみなされるものをいい、例えば図42との対応では、「(1つの)対象個別被写体SBJs0の撮像画像データの画面内における占有率が、最適とみなされる所定の範囲値」に相当する。
なお、このときには、総合被写体重心Gtの水平方向(左右方向)における位置に関しては、ステップS1109にて設定されたX座標(X=0)に対応する位置を維持するようにしてズーム制御を行うようにされる。これにより、対象個別被写体を左右方向においてほぼ中央に位置させた状態を維持することができる。また、被写体探索動作の実行時においては、ステップS1104によりズームアウト制御が行われるので、ステップS1114としてのズーム制御に際してはズームイン制御となる場合が多いと考えられる。しかし、何らかの原因で、そのときに検出された個別被写体のサイズが、目標被写体サイズよりも大きくなっている状態に応じてステップS1113にて否定の判別結果が得られた場合、ステップS1114ではズームアウトを実行させて、実際の対象個別被写体のサイズが目標被写体サイズとなるように制御することになる。
そして、ステップS1113において肯定の判別結果が得られたのであればステップS1115以降の手順に進むようにされる。
ここで、本実施の形態における第1例の構図制御にあっては、水平オフセット量Δxについては、下記の(式1)により求めるものとする。
θx=D×(Cx/6)/n・・・(式5)
上記(式5)において、Dは、顔方向若しくは複数の顔方向の組み合わせ(関係性)に基づいて、+1、−1、0のいずれかが設定される係数である。Cxは、水平画サイズを示す。Cx/6の項は、三分割法に基づいて得られる縦方向に沿った仮想線のX座標に対応したものである。nは、選別(設定)されている対象個別被写体数を示す。
すると、選別された1つの対象個別被写体の顔方向が左である場合には、θx=−Cx/6となる。この水平オフセット量Δxは、原点座標P(0,0)を通過する垂直線(画像領域分割線Ld:Y軸線)から、Cx/6だけ右に移動した垂直線の位置を示すことになるが、この垂直線の位置は、ちょうど、三分割法に従った2本の仮想線のうち、右側にある仮想線と同じになる。
一方、選別された1つの対象個別被写体の顔方向が右である場合には、水平オフセット量Δx=Cx/6となり、原点座標P(0,0)を通過する垂直線(画像領域分割線Ld:Y軸線)から、Cx/6だけ左に移動した垂直線の位置を示すことになる。そして、この垂直線の位置は、ちょうど、三分割法に従った2本の仮想線のうち、左側にある仮想線と同じになる。
ステップS1117では、水平オフセット量Δxに対応するX座標上に総合被写体重心Gtが位置する状態となるようにパン制御を実行し、ステップS1101に戻る。
そして、上記ステップS1117の制御により、水平オフセット量Δxに対応するX座標上に総合被写体重心Gtが位置する状態に至ったとされると、ステップS1116にて肯定の判別結果が得られることになる。このようにしてステップS1116にて肯定の判別結果が得られたときには、対象個別被写体(SBJ)の重心は、図42により示したようにして、その顔方向に応じて、画像領域分割線Ldから水平オフセット量Δxだけ左又は右に移動した位置にあることになる。
ステップS1119においては、目標被写体サイズを設定する処理を行う。対象個別被写体数が2以上とされる場合、最適構図を得るための目標被写体サイズは、例えば対象個別被写体数に応じて異なってくるものとされる。そこで、ステップS1119においては、ステップS1102において検出された個別被写体数に応じた所定の目標被写体サイズを設定する。また、確認のために述べておくと、対象個別被写体数が2以上の場合の目標被写体サイズは、検出されている全ての個別被写体から成る総合被写体画像部分を対象としたものとなる。
ステップS1120において否定の判別結果が得られた場合には、ステップS1121に進む。ステップS1121においては、ステップS1114に準じて、このとき検出されている対象個別被写体の総合被写体画像部分のサイズが、ステップS1119により設定された目標被写体サイズとなるようにズームレンズの駆動制御(ズーム制御)を実行し、ステップS1101に戻る。
これに対して、ステップS1120において肯定の判別結果が得られた場合には、ステップS1122に進む。
先ず、ステップS1122において肯定の判別結果が得られた場合には、ステップS1123以降の手順を実行する。ステップS1123においては、先に述べた(式5)により水平オフセット量Δxを設定する。
この場合には、(式5)における係数Dには、検出されている同一の顔方向が、左、右の何れを示しているのかに応じて、+1と−1のいずれかが代入される。また、nには、検出されている対象個別被写体数に応じた2以上の数が代入されることになる。このことからも理解されるように、(式5)によっては、対象個別被写体数が多くなるのに応じて、求められるθxの絶対値は小さくなる。つまり、図42、図43(a)、図44によっても説明したように、対象個別被写体数が多くなるのに応じて、総合被写体画像部分の左右における画像領域分割線Ldからのオフセット量は少なくなっていくようにされる。
なお、このステップS1124の処理にあっても、(式5)による演算を行うことで、θx=0を設定することができる。つまり、ステップS1122にて否定の判別結果が得られた場合(即ち複数の顔方向が同一でない場合)には、ステップS1124にて、係数Dについて0を代入して(式5)の演算を行うようにアルゴリズムを構成するものである。
ステップS1123、又はステップS1124の手順を実行した後は、ステップS1125以降の手順に進む。
ステップS1128にて否定の判別結果が得られた場合には、ステップS1129により、設定された垂直オフセット量Δyだけ重心がオフセットされるようにして、雲台10のチルト機構が動くようにチルト制御を実行し、ステップS1101に戻る。そして、ステップS1128において肯定の判別結果が得られた段階では、総合被写体画像部分の水平方向における位置と、垂直方向における位置との双方について、最適構図に対応したものが得られている、さらに、総合被写体画像部分のサイズも最適構図に対応したものが得られていることになる。即ち、最適構図が得られている状態となる。
上記ステップS1130で否定の判別結果が得られた場合には、処理をステップS1101へ戻す。これにより、レリーズ動作を実行できる条件が満たされる状態となるのを待機することができる。そして、ステップS1130において肯定の判別結果が得られると、ステップS1131によりレリーズ動作を実行する。このようにして、本実施の形態では、最適構図の撮像画像データを記録することができる。
レリーズ動作が終了したとされると、ステップS1132により所要のパラメータについて初期設定を行う。この処理により、モードフラグfについては初期値の0が設定される。また、ズームレンズの位置も、予め設定された初期位置に戻される。
そして、ステップS1132の処理を実行した後は処理をステップS1101へ戻す。このようにして処理をステップS1132からステップS1101へ戻すことにより、被写体を探索し、この探索により検出されることとなった対象個別被写体の向いている方向と対象個別被写体数に応じた最適構図を得て撮像記録(レリーズ動作)を行うという動作が、自動的に繰り返し実行されることになる。
このことからすると、図45の手順におけるパン・チルト制御は、
第2例の構図制御に対応する事例として、図46には、3つの対象個別被写体SBJs0、SBJs1、SBJs2が選別された状態を示している。これらの対象個別被写体のうち、対象個別被写体SBJs0、SBJs2について検出されている顔方向は左であるのに対して、対象個別被写体SBJs1について検出されている顔方向は右であるものとする。この場合、全ての対象個別被写体の顔方向が同一にはなっていないので、第1の構図制御の場合であれば、図43(b)などで説明したように、総合被写体重心Gtは、原点座標Pを通過する垂直線(画像領域分割線Ld:Y軸線)上に在るように構図が設定される。
この図47に示される手順のうちで、ステップS1221−1、S1222−2を除くステップS1201〜S1232までの手順は、図45におけるステップS1101〜S1132までの手順と、それぞれ同じとなる。
そして、ステップS1221−1とこれに続くステップS1222−2は、ステップS1222において否定の判別結果が得られた場合において実行すべき手順として挿入されている。つまり、ステップS1222−1、S1222−2は、対象個別被写体数が複数の場合であって、先ずは、総合被写体画像部分のサイズ調整が完了した段階において、これらの個別被写体の顔方向の関係性として、全ての顔方向が同一ではなかった場合に実行されるものである。
このためには、例えば、先にも述べたように、検出されている複数の対象個別被写体ごとの顔方向の関係性として、同一の顔方向を持つ対象個別被写体の組のうちで、その組を成す対象個別被写体数が、全ての対象個別被写体数における所定割合以上を示すものがあるかどうかについて判断し、このような対象個別被写体の組があれば、この組の対象個別被写体の顔方向を、有効な基準顔方向として決定するようにされる。また、このような対象個別被写体の組が無ければ、基準顔方向も無いものとする決定を行うようにされる。
なお、上記の所定割合について、実際にどのような値を設定するのかについては、実際における対象個別被写体数及び対象個別被写体ごとの顔方向の関係性との対応で、どのような構図が適当となるのかを考慮したうえで、適宜決定されて良い。また、この所定割合としての値は、基本的には固定の1つの値が設定されればよいが、例えば、決定された対象個別被写体数などに応じて、異なる所定値が設定されるようにされてもよい。
ここで、肯定の判別結果が得られた場合には、ステップS1223に進む。この場合のステップS1223においては、ステップS1222−1にて決定された基準顔方向に基づいて係数Dを決定して、水平オフセット量Δxを求めて設定する。
一方、ステップS1222−2において否定の判別結果が得られた場合には、先のステップS1222−1にて、左若しくは右を示す有効な基準顔方向を決定することができなかったことになる。そこで、この場合には、ステップS1224に進むことで、水平オフセット量Δxについては0を設定する。このようにして、ステップS1222−1、S1222−2を挿入することで、図46により説明したような第2例の構図制御が実現されることになるものである。
例えば図42のようにして1つの対象個別被写体が検出された場合において、さらに顔方向については正面であることが検出された場合であるが、1つには、水平方向における被写体位置を、画面のほぼ中央に位置させる(重心Gがほぼ画像領域分割線Ld(Y軸線)上に在るようにする)ことが考えられる。しかし、このような構図は、良くない構図の代表的なものとされることが多い。そこで、検出される個別被写体が1つである場合において、顔方向が正面の場合には、図42と同様の構図、若しくは、図42の構図に対して画像領域分割線Ldを基準に線対称となるような構図とするようにして水平オフセット量Δxを決定することも考えられる。このようにすれば、三分割法に則った良好な構図が得られる。
また、2以上の対象個別被写体が検出されている場合に、例えば全ての対象個別被写体の顔方向が正面を示している、あるいは基準顔方向が正面である場合には、(式1)の係数Dを0に設定したうえでの水平オフセット量θを求めるようにして構成することが考えられる。
また、顔方向として上下方向についても検出可能とされている場合には、この上下方向における顔方向の検出結果に応じて、本願発明に基づいた構図制御を行うことも可能である。この場合には、水平方向に沿った画像領域分割線Ld(例えば原点座標を通過する水平方向の線(X軸線)とすることができる)を基準にして、上下方向での総合被写体重心Gtの移動を行うことになる。
さらに、顔方向について、左右方向と上下方向とを合成した斜め方向の検出も可能とされているときには、この斜め方向が検出された顔方向に応じた構図制御も行うことが可能である。この場合には、検出された斜めの顔方向に直交して画面を横切る線((例えば原点座標を通過する線)を画像領域分割線Ldとして設定し、この画像領域分割線Ldにより分割された画像領域の何れか一方の側に総合被写体重心Gtを移動させるようにすることが考えられる。
さらに、例えば、顔方向について、左右方向(あるいは上下方向)において、例えば2段階、若しくは3段階よりも多い段階により、向きの検出を行えるようにされている場合には、このようにして検出された向きの段階(度合い)に応じて水平オフセット量Δx(若しくは垂直オフセット量Δy)を可変するようなアルゴリズムを採用することが考えられる。
また、基準線の通過する基準点は、この場合には、図41にて示したように、画面における原点座標としているが、この基準点の位置については、例えばより良好な構図を得ることなどを目的として、原点座標以外の位置が設定されても良いものである。
また、本願発明のもとで判定される構図(最適構図)は、必ずしも、三分割法などの構図設定手法に対して、対象個別被写体の数の要素を加味する手法によって決定された構図に限定されるものではない。例えば一般的には良くないとされる構図であっても、構図の設定次第では、ユーザがおもしろみを感じたり、かえって良いと感じるような場合もあると考えられる。従って、本願発明のもとで判定される構図(最適構図)としては、実用性、エンタテイメント性などを考慮して任意に設定されればよく、実際においては特に制限はない。
しかし、これまでの説明から自明なように、本願発明に基づいては、非現実被写体(静止被写体)のほうを構図判定の対象とするように構成することも当然に可能である。現実被写体を選別することによっては、非現実被写体も選別しているものとしてみることができるからである。そして、このような構成も、本願発明に基づく構図判定の構成として各種の装置に適用できるものであり、その用途によって有用となるものである。
また、このことに関して、本願発明に基づく構図判定としては、例えばユーザ操作や、所定の機器の動作条件などに基づいた判別に応じて、構図判定の対象とする被写体を、現実被写体と非現実被写体とで切り換えられるようにする構成も考えることができる。
例えば、温度にも基づいた弁別の仕方を考えることができる。つまり、現実の人である現実被写体は体温相当の温度を有しているので、周囲温度とは異なる温度となっていることが通常である。これに対して、ポスターなどの非現実被写体は、物であることから周囲温度と同じになることが通常である。このことに基づいて、現実被写体と非現実被写体とを弁別できる。
そのための構成の一例としては、いわゆるサーモグラフィの技術を採り入れるなどして,撮像画像の画枠内における温度分布を検知することが考えられる。画枠内にて検出される個別被写体のうちで周囲と温度が同じものについては非現実被写体(静止被写体)として、同じでないものについては現実被写体であるとして弁別すればよい。
このようなプログラムは、例えばROMなどに対して製造時などに書き込んで記憶させるほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインストール(アップデートも含む)させるようにしてDSP対応の不揮発性の記憶領域やフラッシュメモリ30などに記憶させることが考えられる。また、USBやIEEE1394などのデータインターフェース経由により、他のホストとなる機器からの制御によってプログラムのインストールを行えるようにすることも考えられる。さらに、ネットワーク上のサーバなどにおける記憶装置に記憶させておいたうえで、デジタルスチルカメラ1にネットワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成することも考えられる。
Claims (16)
- 取り込んだ画像データに基づく画像内における被写体を検出する被写体検出手段と、
上記画像データに基づく画像、又は上記被写体検出手段により検出される被写体を対象として静止の状態を検出する静止検出手段と、
上記静止検出手段の検出結果に基づいて、上記被写体検出手段により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定手段と、
を備えることを特徴とする構図判定装置。 - 上記静止検出手段は、画像データに基づく画像を対象とする検出結果として、この画像内において静止しているとされる静止領域を検出するとともに、
上記静止検出手段による静止領域の検出結果に基づいて、上記被写体検出手段により検出される被写体について、現実被写体と非現実被写体とを選別する選別手段をさらに備え、
上記構図判定手段は、上記選別手段により選別された現実被写体、若しくは非現実被写体を対象として構図を判定する、
ことを特徴とする請求項1に記載の構図判定装置。 - 上記静止検出手段は、上記被写体検出手段により検出される被写体を対象とする検出結果として、静止しているとされる静止被写体を検出するとともに、
上記被写体検出手段により検出される被写体について、上記静止被写体として検出された被写体については非現実被写体とし、上記静止被写体として検出されない被写体については現実被写体として選別する選別手段をさらに備え、
上記構図判定手段は、上記選別手段により選別された現実被写体、若しくは非現実被写体を対象として構図を判定する、
ことを特徴とする請求項1に記載の構図判定装置。 - 上記静止検出手段は、画像データに基づく画像を対象とする検出結果として、この画像内において静止しているとされる静止領域を検出するとともに、
上記画像データの画面から上記静止領域又は静止領域以外を被写体判定のための対象から除外するマスキング処理を実行するマスキング手段をさらに備え、
上記被写体検出手段は、上記マスキング手段によるマスキング処理が施された画像データを取り込んで被写体検出を実行することで、現実被写体又は非現実被写体のいずれかのみを被写体として検出するようにされ、
上記構図判定手段は、上記被写体検出手段により検出される被写体を対象として構図を判定する、
ことを特徴とする請求項1に記載の構図判定装置。 - 上記静止検出手段は、上記被写体検出手段により検出される被写体を対象とする検出結果として、静止しているとされる静止被写体を検出するとともに、
上記画像データの画面から上記静止被写体の領域、又は上記静止被写体以外の領域を被写体判定のための対象から除外するマスキング処理を実行するマスキング手段をさらに備え、
上記被写体検出手段は、上記マスキング手段によるマスキング処理が施された画像データを取り込んで被写体検出を実行することで、現実被写体又は非現実被写体のいずれかのみを被写体として検出するようにされ、
上記構図判定手段は、上記被写体検出手段により検出される被写体を対象として構図を判定する、
ことを特徴とする請求項1に記載の構図判定装置。 - 上記静止検出手段は、上記被写体検出手段により検出される被写体を対象とする検出結果として、静止しているとされる静止被写体を検出するとともに、
上記静止被写体ごとに関連した所定の情報から成る静止被写体関連情報を保持する情報保持手段と、
上記静止被写体関連情報に基づいて、上記被写体検出手段により検出される被写体から、上記静止被写体と一致するとされる被写体を非現実被写体とし、上記静止被写体と一致しないとされる被写体を現実被写体として選別する選別手段とをさらに備え、
上記構図判定手段は、上記選別手段により選別された現実被写体、若しくは非現実被写体を対象として構図を判定する、
ことを特徴とする請求項1に記載の構図判定装置。 - 上記静止検出手段は、上記被写体検出手段により検出されたうえで、さらに上記選別手段により選別された上記静止被写体と一致するとされる現実被写体の候補を対象として静止被写体を検出するようにされ、
上記構図判定手段は、上記静止検出手段により検出された静止被写体を、対象の現実被写体として構図を判定する、
ことを特徴とする請求項6に記載の構図判定装置。 - この構図判定装置自体の動きを検出する動き状態検出手段と、
上記動き状態検出手段により、上記構図判定装置自体の動きが検出されたことに応じて、上記情報保持手段にて保持されている静止被写体関連情報を消去する消去手段とをさらに備える、
ことを特徴とする請求項6に記載の構図判定装置。 - 上記動き状態検出手段は、
この構図判定装置を所定の態様で動かすことのできる可動機構部の動作のみによる、上記構図判定装置自体の動きについては、動きであると検出しないようにされ、
上記可動機構部が動作中であり、かつ、この可動機構部以外の力によっても上記構図判定装置自体が動かされるときには、上記動きであると検出するようにされている、
ことを特徴とする請求項8に記載の構図判定装置。 - パン方向及び/又はチルト方向に沿って撮像視野角が変更される撮像装置が撮像することにより上記撮像画像データを得るようにされているうえで、
上記静止検出手段により検出される上記静止被写体の位置情報として、上記撮像画像データに基づく画像の画枠内における水平及び/又は垂直方向における限界位置にて上記静止被写体が位置しているときの、上記撮像装置のパン位置及び/又はチルト位置を示すパン・チルト位置情報を設定するようにされた位置情報設定手段をさらに備える、
ことを特徴とする請求項1に記載の構図判定装置。 - 上記情報保持手段は、上記静止被写体関連情報として上記パン・チルト位置情報を含むものとされ、
上記選別手段は、上記静止被写体関連情報に含まれる静止被写体ごとの上記パン・チルト位置情報と、上記被写体検出手段により上記限界位置にて検出された被写体についての上記パン・チルト位置情報とを比較し、上記静止被写体関連情報に含まれるパン・チルト位置情報と一致するとされる被写体を非現実被写体とし、上記静止被写体関連情報に含まれるパン・チルト位置情報と一致しないとされる被写体を現実被写体として選別する、
ことを特徴とする請求項10に記載の構図判定装置。 - パン方向及び/又はチルト方向に沿って撮像視野角が変更される撮像装置が撮像することにより上記撮像画像データを得るようにされているうえで、
上記撮像画像データに基づく画像の水平及び/又は垂直方向における画枠サイズと、この上記撮像画像データに基づく画像内において検出された被写体の位置とに基づいて、パン方向及び/又は垂直方向における絶対的な角度を示す絶対位置対応角度情報を求め、この絶対位置対応角度情報を、被写体検出手段により検出される被写体についての位置情報とする、位置情報設定手段をさらに備える、
ことを特徴とする請求項1に記載の構図判定装置。 - 上記情報保持手段は、上記静止被写体関連情報として上記絶対位置対応角度情報の位置情報を含むものとされ、
上記選別手段は、上記静止被写体関連情報に含まれる静止被写体ごとの上記絶対位置対応角度情報の位置情報と、上記被写体検出手段により上記限界位置にて検出された被写体についての上記絶対位置対応角度情報の位置情報とを比較し、上記静止被写体関連情報に含まれる絶対位置対応角度情報の位置情報と一致するとされる被写体を非現実被写体とし、上記静止被写体関連情報に含まれる絶対位置対応角度情報の位置情報と一致しないとされる被写体を現実被写体として選別する、
ことを特徴とする請求項12に記載の構図判定装置。 - 上記被写体検出手段は、被写体ごとの特徴を個別に認識して被写体検出を行って、検出情報として、被写体を個別に認識可能とする個別認識情報を含めるようにされているとともに、
上記情報保持手段は、上記静止被写体関連情報として、上記静止被写体ごとの個別認識情報を含むものとされ、
上記選別手段は、上記静止被写体関連情報に含まれる静止被写体ごとの個別認識情報と、上記被写体検出手段の検出情報に含まれる被写体ごとの個別認識情報とを比較し、上記静止被写体関連情報に含まれる個別認識情報と一致するとされる被写体を非現実被写体とし、上記静止被写体関連情報に含まれる個別認識情報と一致しないとされる被写体を現実被写体として選別する、
ことを特徴とする請求項1に記載の構図判定装置。 - 取り込んだ画像データに基づく画像内における被写体を検出する被写体検出手順と、
上記画像データに基づく画像、又は上記被写体検出手順により検出される被写体を対象として静止の状態を検出する静止検出手順と、
上記静止検出手順の検出結果に基づいて、上記被写体検出手順により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定手順と、
を実行することを特徴とする構図判定方法。 - 取り込んだ画像データに基づく画像内における被写体を検出する被写体検出手順と、
上記画像データに基づく画像、又は上記被写体検出手順により検出される被写体を対象として静止の状態を検出する静止検出手順と、
上記静止検出手順の検出結果に基づいて、上記被写体検出手順により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定手順と、
を構図判定装置に実行させるプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008071721A JP4508257B2 (ja) | 2008-03-19 | 2008-03-19 | 構図判定装置、構図判定方法、プログラム |
KR1020090016148A KR20090100242A (ko) | 2008-03-19 | 2009-02-26 | 구도 판정 장치, 구도 판정 방법, 프로그램 |
TW098108465A TWI398826B (zh) | 2008-03-19 | 2009-03-16 | 構圖判定裝置、構圖判定方法、程式 |
US12/381,982 US8810673B2 (en) | 2008-03-19 | 2009-03-18 | Composition determination device, composition determination method, and program |
EP09155492A EP2104336A3 (en) | 2008-03-19 | 2009-03-18 | Composition determination device, composition determination method, and program |
CN2009101288689A CN101540844B (zh) | 2008-03-19 | 2009-03-19 | 构图确定设备和构图确定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008071721A JP4508257B2 (ja) | 2008-03-19 | 2008-03-19 | 構図判定装置、構図判定方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009231922A true JP2009231922A (ja) | 2009-10-08 |
JP4508257B2 JP4508257B2 (ja) | 2010-07-21 |
Family
ID=40707663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008071721A Expired - Fee Related JP4508257B2 (ja) | 2008-03-19 | 2008-03-19 | 構図判定装置、構図判定方法、プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US8810673B2 (ja) |
EP (1) | EP2104336A3 (ja) |
JP (1) | JP4508257B2 (ja) |
KR (1) | KR20090100242A (ja) |
CN (1) | CN101540844B (ja) |
TW (1) | TWI398826B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023248806A1 (ja) * | 2022-06-20 | 2023-12-28 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5206095B2 (ja) | 2008-04-25 | 2013-06-12 | ソニー株式会社 | 構図判定装置、構図判定方法、プログラム |
JP5189913B2 (ja) * | 2008-07-14 | 2013-04-24 | イーストマン コダック カンパニー | 画像処理装置 |
JP5159515B2 (ja) * | 2008-08-26 | 2013-03-06 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP5434339B2 (ja) * | 2009-07-29 | 2014-03-05 | ソニー株式会社 | 撮像制御装置、撮像システム、撮像方法、プログラム |
JP5434338B2 (ja) | 2009-07-29 | 2014-03-05 | ソニー株式会社 | 撮像制御装置、撮像方法、プログラム |
WO2011025234A2 (en) * | 2009-08-24 | 2011-03-03 | Samsung Electronics Co., Ltd. | Method for transmitting image and image pickup apparatus applying the same |
EP2701123B1 (en) * | 2011-04-20 | 2018-10-17 | NEC Corporation | Individual identification character display system, terminal device, individual identification character display method, and computer program |
CN102819725A (zh) * | 2011-06-07 | 2012-12-12 | 鸿富锦精密工业(深圳)有限公司 | 疲劳状态检测系统及方法 |
TWI446087B (zh) * | 2012-08-03 | 2014-07-21 | Wistron Corp | 具有自動對焦功能之影像擷取裝置及自動對焦方法 |
US8825664B2 (en) * | 2012-08-17 | 2014-09-02 | Splunk Inc. | Indexing preview |
KR101800617B1 (ko) | 2013-01-02 | 2017-12-20 | 삼성전자주식회사 | 디스플레이 장치 및 이의 화상 통화 방법 |
CN104655288A (zh) * | 2013-11-25 | 2015-05-27 | 杭州美盛红外光电技术有限公司 | 热像检测装置和热像检测方法 |
US10235587B2 (en) * | 2014-03-04 | 2019-03-19 | Samsung Electronics Co., Ltd. | Method and system for optimizing an image capturing boundary in a proposed image |
US10776754B2 (en) * | 2014-11-26 | 2020-09-15 | Adobe Inc. | Content creation, deployment collaboration, and subsequent marketing activities |
WO2016125352A1 (ja) * | 2015-02-02 | 2016-08-11 | 富士フイルム株式会社 | カメラ装置、撮像システム、制御方法及びプログラム |
CN105991925A (zh) * | 2015-03-06 | 2016-10-05 | 联想(北京)有限公司 | 场景构图指示方法和指示装置 |
CN105323491B (zh) * | 2015-11-27 | 2019-04-23 | 小米科技有限责任公司 | 图像拍摄方法及装置 |
KR20170131101A (ko) * | 2016-05-20 | 2017-11-29 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
JP6745682B2 (ja) * | 2016-08-30 | 2020-08-26 | キヤノン株式会社 | 撮像装置、制御方法、プログラム、及び記憶媒体 |
CN106973224B (zh) * | 2017-03-09 | 2020-08-07 | Oppo广东移动通信有限公司 | 辅助构图的控制方法、控制装置及电子装置 |
JP6843439B2 (ja) * | 2017-05-17 | 2021-03-17 | エバ・ジャパン 株式会社 | 情報探索システム及び方法、情報探索プログラム |
JP6938270B2 (ja) * | 2017-08-09 | 2021-09-22 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
CN109963068A (zh) * | 2017-12-25 | 2019-07-02 | 深圳市优必选科技有限公司 | 一种图像处理方法、系统及终端设备 |
JP6951753B2 (ja) * | 2018-03-27 | 2021-10-20 | エバ・ジャパン 株式会社 | 情報探索システム及びプログラム |
CN108307120B (zh) * | 2018-05-11 | 2020-07-17 | 阿里巴巴(中国)有限公司 | 图像拍摄方法、装置及电子终端 |
JP7456385B2 (ja) * | 2018-10-25 | 2024-03-27 | ソニーグループ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
WO2020131037A1 (en) * | 2018-12-18 | 2020-06-25 | Rovi Guides, Inc. | Systems and methods for automated tracking on a handheld device using a remote camera |
CN110248104B (zh) * | 2019-07-22 | 2021-03-19 | 联想(北京)有限公司 | 一种图像处理方法、装置及电子设备 |
CN111263063A (zh) * | 2020-02-17 | 2020-06-09 | 深圳传音控股股份有限公司 | 拍摄图像的方法、装置及设备 |
CN114025097B (zh) * | 2020-03-09 | 2023-12-12 | Oppo广东移动通信有限公司 | 构图指导方法、装置、电子设备及存储介质 |
CN114764891A (zh) | 2021-09-16 | 2022-07-19 | 杭州天眼智联科技有限公司 | 用于确定物料构成的方法、装置、电子设备和可读介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001245278A (ja) * | 2000-02-28 | 2001-09-07 | Ty Assist:Kk | 監視装置及び方法 |
JP2004151523A (ja) * | 2002-10-31 | 2004-05-27 | Mitsubishi Electric Corp | 地図データ更新装置 |
JP2004356718A (ja) * | 2003-05-27 | 2004-12-16 | Sony Corp | 情報記録制御装置および情報記録制御方法、記録媒体、並びにプログラム |
JP2007179569A (ja) * | 2007-03-09 | 2007-07-12 | Toshiba Corp | 人物認識装置、人物認識方法および通行制御装置 |
JP2008042729A (ja) * | 2006-08-09 | 2008-02-21 | Matsushita Electric Ind Co Ltd | ネットワークカメラ |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59898A (ja) | 1982-06-28 | 1984-01-06 | 松下電工株式会社 | 高圧放電灯点灯装置 |
JPH0614698B2 (ja) | 1983-05-13 | 1994-02-23 | 株式会社日立製作所 | 自動追尾カメラ |
TW373396B (en) * | 1997-10-30 | 1999-11-01 | Hewlett Packard Co | Automatic digital camera image rotation |
EP1033879A4 (en) * | 1998-09-18 | 2004-05-19 | Mitsubishi Electric Corp | CAMERA CONTROL SYSTEM |
EP1107584B1 (en) | 1999-12-03 | 2008-08-27 | Fujinon Corporation | Automatic following device |
JP2001268425A (ja) | 2000-03-16 | 2001-09-28 | Fuji Photo Optical Co Ltd | 自動追尾装置 |
US6516154B1 (en) | 2001-07-17 | 2003-02-04 | Eastman Kodak Company | Image revising camera and method |
US20040207743A1 (en) * | 2003-04-15 | 2004-10-21 | Nikon Corporation | Digital camera system |
JP2004343315A (ja) | 2003-05-14 | 2004-12-02 | Sony Corp | 撮像装置 |
US7317815B2 (en) | 2003-06-26 | 2008-01-08 | Fotonation Vision Limited | Digital image processing composition using face detection information |
US7453506B2 (en) * | 2003-08-25 | 2008-11-18 | Fujifilm Corporation | Digital camera having a specified portion preview section |
US7349020B2 (en) * | 2003-10-27 | 2008-03-25 | Hewlett-Packard Development Company, L.P. | System and method for displaying an image composition template |
JP4489608B2 (ja) * | 2004-03-31 | 2010-06-23 | 富士フイルム株式会社 | ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法 |
US8289399B2 (en) * | 2004-08-09 | 2012-10-16 | Hewlett-Packard Development Company, L.P. | System and method for image capture device |
JP2006140695A (ja) * | 2004-11-11 | 2006-06-01 | Konica Minolta Photo Imaging Inc | 撮像装置 |
JP4623368B2 (ja) * | 2005-03-16 | 2011-02-02 | ソニー株式会社 | 移動物体検出装置、移動物体検出方法及びプログラム |
JP4779610B2 (ja) | 2005-12-02 | 2011-09-28 | オムロン株式会社 | 画像処理装置および方法、並びにプログラム |
JP4457358B2 (ja) * | 2006-05-12 | 2010-04-28 | 富士フイルム株式会社 | 顔検出枠の表示方法、文字情報の表示方法及び撮像装置 |
JP4197019B2 (ja) | 2006-08-02 | 2008-12-17 | ソニー株式会社 | 撮像装置および表情評価装置 |
JP2008071721A (ja) | 2006-09-15 | 2008-03-27 | Furukawa Electric Co Ltd:The | 絶縁電線およびその製造方法 |
US20080166052A1 (en) * | 2007-01-10 | 2008-07-10 | Toshinobu Hatano | Face condition determining device and imaging device |
GB2448221B (en) * | 2007-04-02 | 2012-02-01 | Samsung Electronics Co Ltd | Method and apparatus for providing composition information in digital image processing device |
CN100514353C (zh) * | 2007-11-26 | 2009-07-15 | 清华大学 | 一种基于人脸生理性运动的活体检测方法及系统 |
-
2008
- 2008-03-19 JP JP2008071721A patent/JP4508257B2/ja not_active Expired - Fee Related
-
2009
- 2009-02-26 KR KR1020090016148A patent/KR20090100242A/ko not_active Application Discontinuation
- 2009-03-16 TW TW098108465A patent/TWI398826B/zh not_active IP Right Cessation
- 2009-03-18 US US12/381,982 patent/US8810673B2/en active Active
- 2009-03-18 EP EP09155492A patent/EP2104336A3/en not_active Withdrawn
- 2009-03-19 CN CN2009101288689A patent/CN101540844B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001245278A (ja) * | 2000-02-28 | 2001-09-07 | Ty Assist:Kk | 監視装置及び方法 |
JP2004151523A (ja) * | 2002-10-31 | 2004-05-27 | Mitsubishi Electric Corp | 地図データ更新装置 |
JP2004356718A (ja) * | 2003-05-27 | 2004-12-16 | Sony Corp | 情報記録制御装置および情報記録制御方法、記録媒体、並びにプログラム |
JP2008042729A (ja) * | 2006-08-09 | 2008-02-21 | Matsushita Electric Ind Co Ltd | ネットワークカメラ |
JP2007179569A (ja) * | 2007-03-09 | 2007-07-12 | Toshiba Corp | 人物認識装置、人物認識方法および通行制御装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023248806A1 (ja) * | 2022-06-20 | 2023-12-28 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
EP2104336A2 (en) | 2009-09-23 |
US20090256925A1 (en) | 2009-10-15 |
CN101540844B (zh) | 2011-12-14 |
TWI398826B (zh) | 2013-06-11 |
KR20090100242A (ko) | 2009-09-23 |
US8810673B2 (en) | 2014-08-19 |
TW200947356A (en) | 2009-11-16 |
CN101540844A (zh) | 2009-09-23 |
EP2104336A3 (en) | 2010-04-28 |
JP4508257B2 (ja) | 2010-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4508257B2 (ja) | 構図判定装置、構図判定方法、プログラム | |
JP5206095B2 (ja) | 構図判定装置、構図判定方法、プログラム | |
JP4640456B2 (ja) | 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム | |
US10419672B2 (en) | Methods and apparatus for supporting burst modes of camera operation | |
JP4586709B2 (ja) | 撮像装置 | |
JP2009100301A (ja) | 構図判定装置、構図判定方法、プログラム | |
JP2009100300A (ja) | 構図判定装置、構図判定方法、プログラム | |
JP2005128156A (ja) | 焦点調節装置及び焦点調節方法 | |
JP5378135B2 (ja) | 画像レイアウト決定方法ならびにそのプログラムおよび情報処理装置 | |
JP2018050146A (ja) | 探索装置及び、その撮像装置及び、探索方法 | |
JP2008109552A (ja) | 追跡機能付き撮像装置 | |
JP2007081682A (ja) | 画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラム | |
JP2020053774A (ja) | 撮像装置および画像記録方法 | |
JP2008172342A (ja) | 立体画像記録装置および立体画像記録方法 | |
JP5440588B2 (ja) | 構図判定装置、構図判定方法、プログラム | |
CN115812177A (zh) | 图像处理装置、摄像装置、图像处理方法及程序 | |
JP5383207B2 (ja) | 情報処理装置、制御方法、コンピュータプログラム、および記憶媒体 | |
JP6545229B2 (ja) | 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム | |
JP2020043544A (ja) | 撮像装置およびその制御方法、プログラムならびに記憶媒体 | |
JP2011061857A (ja) | 画像処理装置、画像処理方法、プログラム、撮像装置 | |
JP2023166863A (ja) | 画像処理装置、画像処理方法および撮像装置 | |
JP2020043528A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
JP2019049643A (ja) | 画像処理装置、システム、およびそれらの制御方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100319 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100413 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100426 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |