JPWO2014109124A1 - 画像処理装置、画像処理方法、プログラム - Google Patents
画像処理装置、画像処理方法、プログラム Download PDFInfo
- Publication number
- JPWO2014109124A1 JPWO2014109124A1 JP2014556330A JP2014556330A JPWO2014109124A1 JP WO2014109124 A1 JPWO2014109124 A1 JP WO2014109124A1 JP 2014556330 A JP2014556330 A JP 2014556330A JP 2014556330 A JP2014556330 A JP 2014556330A JP WO2014109124 A1 JPWO2014109124 A1 JP WO2014109124A1
- Authority
- JP
- Japan
- Prior art keywords
- determination
- main subject
- zoom
- pan
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 289
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims abstract description 104
- 238000004091 panning Methods 0.000 claims abstract description 90
- 238000000034 method Methods 0.000 claims description 230
- 230000008569 process Effects 0.000 claims description 221
- 230000007704 transition Effects 0.000 claims description 118
- 230000004044 response Effects 0.000 claims description 31
- 230000001186 cumulative effect Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 description 69
- 230000003287 optical effect Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000005484 gravity Effects 0.000 description 9
- 239000000203 mixture Substances 0.000 description 8
- LLYXJBROWQDVMI-UHFFFAOYSA-N 2-chloro-4-nitrotoluene Chemical compound CC1=CC=C([N+]([O-])=O)C=C1Cl LLYXJBROWQDVMI-UHFFFAOYSA-N 0.000 description 7
- 230000001276 controlling effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 101150090324 Slc28a3 gene Proteins 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000005401 electroluminescence Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 101100328518 Caenorhabditis elegans cnt-1 gene Proteins 0.000 description 3
- 108700041400 F 382 Proteins 0.000 description 3
- 101150044602 Slc28a2 gene Proteins 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 108700025474 F 372 Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/71—Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
また例えば上記特許文献2,3,4に開示された技術を用いれば、任意の被写体の全身枠を取り囲んだ被写体追尾が実現できる。
また、オートフォーカス・自動露光などは、撮像画像内の所望の領域を検出・追跡し、その領域がもっとも好適になるように光学系等を制御するような機能も存在する。
これらのように、撮像画像内で、ユーザが主要被写体として指定した画像、例えば顔等の画像領域を追尾したり、顔領域にフォーカスを合わせたりする等の技術が知られている。
例えばカメラを所持した状態で、画面表示されたスルー画(シャッタ操作時点以外に表示される被写体のモニタリング画像)に写されている複数の顔の中からタッチパネルによって任意の顔を選択するというような行為で主要被写体が選定される。あるいはユーザ指定のタイミング(シャッタ半押し等)で所定の領域内に存在する被写体を主要被写体とするなどである。
たとえば動き回る被写体に焦点を合わせ続けたいためにこの機能を使いたいのに、ユーザがカメラを構えて被写体を狙いながら指で選択すること自体が難しい。
例を挙げれば、被写体の変化(移動)に対するユーザの反応速度により、指定が困難なこともある。例えば動き回る被写体を、スルー画の画面上でうまく指定できないような場合である。
また、そもそもカメラを手に持って、被写体に向けて被写体を選定しているような状況で、ユーザが画面上で主要被写体を指で選択する行為自体が難しい。特に被写体を追っているような状況、例えばカメラがパンニングやチルティングとしての動きをするようにユーザが撮像方向を変化させている状況では、主要被写体を選択することはほぼ無理に近い。
またタッチパネルを配した表示画面の解像度によって、ユーザにとって被写体が選択しにくいことがある。
また、タッチパネルを配した表示画面上の被写体サイズとユーザの指の大きさ(太さ)によっては、所望の被写体を適切に指定できないこともある。
また、カメラシステム上のタイムラグ、例えば実際の光景と撮像画像のスルー画のタイムラグによって、ユーザが適切に被写体を指定しにくいこともある。
そこで本開示では、撮像者等のユーザが意図的に被写体を選択する行為を行わなくとも、ユーザの求める対象被写体を主要被写体と判定する技術を実現することを目的とする。
本開示の画像処理方法は、撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定し、上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する。
本開示のプログラムは、上記画像処理装置又は画像処理方法を実現する処理を演算処理装置に実行させるプログラムである。
例えばユーザが撮像装置を構えて撮像を行う場合において、通常ユーザは、主要と考える被写体、つまり静止画として撮像目的としたい被写体や、動画として撮像し続けたい被写体が撮像画像内に捉えられるようにカメラワークを行う。なおカメラワークとは、撮像者たるユーザが被写体を撮像画像内に捉えるための動作・操作や、意図する構図や合焦状態を探すための動作・操作のことをいい、具体的にはパンニング、チルティング、ズーミング、マニュアルフォーカス等がある。パンニング(パン)とは、撮像者が手持ちの撮像装置を略水平方向に動かしたり、三脚、雲台等に設置した撮像装置の撮像方向を水平方向に動かすことである。チルティング(チルト)とは、撮像者が手持ちの撮像装置を略上下方向に動かしたり、三脚、雲台等に設置した撮像装置の撮像方向を上下方向に動かすことである。ズーミング(ズーム)とは、撮像者が撮像装置のズームレバー(ワイドキー・テレキー)を操作したりマニュアル操作でズームレンズを移動させて画角を変化させる動作である。マニュアルフォーカスとは、撮像者がフォーカスレンズを移動させて合焦位置を変化させる動作である。
ユーザがこれらのカメラワークを行っているということは、或る目的の被写体を狙って撮像方向、画角、焦点位置等を調整していると考えることができ、つまり撮像画像(例えばスルー画)内に主要と考える被写体が存在すると推定できる。
そこで画像処理装置では、カメラワーク判定を行い、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する。そして判定開始タイミングからの1又
は複数のフレームの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定するようにする。これにより自動的な主要被写体判定として確度の高い判定が可能となる。
<1.実施の形態の画像処理装置の構成>
<2.実施の形態の撮像装置の構成>
<3.主要被写体判定機会/目的等>
<4.第1の処理例(パン動作判定)>
<5.第2の処理例(パン後判定)>
<6.第3の処理例(ズーム動作判定)>
<7.第4の処理例(ズーム後判定)>
<8.第5の処理例(パン後ズーム動作判定)>
<9.第6の処理例(パン後ズーム後判定)>
<10.第7の処理例(ズーム後パン動作判定)>
<11.第8の処理例(ズーム後パン後判定)>
<12.第9の処理例(合焦判定)>
<13.プログラム及びコンピュータ装置への適用>
<14.変形例>
図1に、実施の形態の画像処理装置の構成例を示す。
画像処理装置1は、主要被写体判定部2と、カメラワーク判定部3を有する。
カメラワークとは、撮像者たるユーザが被写体を撮像画像内に捉えるための動作・操作や、意図する構図や合焦状態を探すための動作・操作のことである。具体的にはパンニング(パン)、チルティング(チルト)、ズーミング(ズーム)、マニュアルフォーカス等となる。従って検出情報Idとは、例えば撮像者のズーム、マニュアルフォーカス等の操作の検出情報であったり、角速度センサ(ジャイロセンサ)や加速度センサ等の撮像装置自体の動きを検出するセンサの検出情報などである。
体を主要被写体と設定する。
そして主要被写体判定部2は判定結果として、主要被写体情報Dmを出力する。
またCPU等で主要被写体判定部2としての機能を実現し、CPUと接続された画像処理用DSP等、もしくはその連携処理としてカメラワーク判定部3の機能を実現することも考えられる。
ステップF1としてカメラワーク判定部3が、撮像者によるカメラワークを判定する。そしてステップF2として所定のカメラワーク状況を検出したら、カメラワーク判定部3はステップF3で判定開始タイミング設定を行う。例えば判定実行フラグをオンに設定する。
これに応じて主要被写体判定部2はステップF4で主要被写体判定処理を実行し、所定の条件に合致した被写体を主要被写体と判定する。
そしてステップF5で主要被写体判定部2は、主要被写体判定結果である主要被写体情報Dmを出力しアプリケーションプログラム等に受け渡す。
アプリケーションプログラム等では、主要被写体画像が特定されたことに応じた処理を行う。例えば、フォーカス制御、追尾処理、画像効果処理などである。
1.パン動作判定:パン動作が開始されたことを判定し、パン動作中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
2.パン後判定:パン動作が実行され終了されたことを判定し、パン動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
3.ズーム動作判定:ズーム動作が開始されたことを判定し、ズーム動作中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
4.ズーム後判定:ズーム動作が実行され終了されたことを判定し、ズーム動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
5.パン後ズーム動作判定:パン動作が実行され終了された後、さらにズーム動作が開始されたことを判定し、そのズーム中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
6.パン後ズーム後判定:パン動作が実行され終了された後、さらにズーム動作が実行され、該ズーム動作が終了されたことを判定し、そのズーム後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
7.ズーム後パン動作判定:ズーム動作が実行され終了された後、さらにパン動作が開始されたことを判定し、そのパン中に主要被写体判定処理が行われるように判定開始タイミングを設定する。
8.ズーム後パン後判定:ズーム動作が実行され終了された後、さらにパン動作が実行され、該パン動作が終了されたことを判定し、そのパン後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
9.マニュアルフォーカス後判定:マニュアルフォーカス動作が実行され終了されたことを判定し、マニュアルフォーカス動作終了後に主要被写体判定処理が行われるように判定開始タイミングを設定する。
以上の各処理の詳細は撮像装置10の第1〜第9の処理例として後述する。
以下では、上記のような画像処理装置を内蔵した撮像装置10を例に挙げ、主要被写体判定動作について詳しく説明する。
実施の形態の撮像装置10の構成例を図3に示す。なお、この構成例は後述する第1の処理例〜第8の処理例に適したものである。第9の処理例の場合の撮像装置10の構成例については後述する。
この撮像装置10はいわゆるデジタルスチルカメラ或いはデジタルビデオカメラとされ、静止画や動画の撮像/記録を行う機器であり、請求項でいう画像処理装置を内蔵するものである。
イメージャ12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal OxideSemiconductor)型などの撮像素子を有する。
このイメージャ12では、撮像素子での光電変換で得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のデジタル信号処理部20に出力する。
なお、フォーカスレンズに関しては、ユーザの操作によるマニュアルフォーカスとしてのレンズ移動も可能とされている。ユーザはレンズ鏡筒に形成されたフォーカスレンズ移送機構を操作することで合焦位置を任意に設定できる。
また光学系駆動部13は、制御部30の制御に基づいて、光学系11における絞り機構を駆動し、露光調整を実行する。
さらに光学系駆動部13は、制御部30の制御に基づいて、光学系11におけるズームレンズを駆動し、ズーム動作を実行する。ユーザは後述する操作部35のズームレバーの操作により、ズーム動作を指示できる。これによりユーザは任意の画角状態を得ることができる。
例えばデジタル信号処理部20は、前処理部21、同時化部22、YC生成部23、解像度変換部24、コーデック部25、候補検出部27を備えている。
同時化部22は、各画素についての画像データが、R,G,B全ての色成分を有するようにするデモザイク処理を施す。
YC生成部23は、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換部24は、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
コーデック部25は、解像度変換された画像データについて、例えば記録用や通信用の符号化処理を行う。
なお、顔検出、人体検出等は、撮像画像データに対しての画像解析におけるパターンマッチングの手法などで可能であるが、パターンマッチングに用いる辞書さえ差し替えれば他の検出器も原理的には実現可能である。例えば(特定種の)犬検出・猫検出などとして主要被写体の候補画像を抽出してもよい。
また例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体を候補画像とすることも考えられるし、セイレンシ(Saliency)と呼ばれる注視領域抽出の手法を用いてもよい。候補画像の抽出、選定の手法は多様に考えられる。
抽出した候補画像については、その候補画像枠の位置情報(画面上でのx,y座標値、被写体距離の情報等)や、サイズ情報(例えば候補画像枠の幅、高さ、ピクセル数等)を、候補画像情報として制御部30に受け渡す。なお、ここでは、候補画像となる画像領域の枠を示す情報であることから、候補画像情報のことを「候補画像枠情報」ともいうこととする。
また、候補検出部27は、画像に平滑化処理、アウトライヤ(outlier)除去等の処理を行って、候補画像枠情報を生成してもよい。
なお候補検出部27は、この図3の例ではデジタル信号処理部20で実行される機能構成として示しているが、これは一例であり、制御部30によって候補検出部27の処理が実行されてもよい。
CPUがROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置10全体を統括的に制御する。
RAMは、CPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
ROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。例えば本例において後述する主要被写体判定のための処理を実行するためのプログラムや、さらに主要被写体判定結果を利用するアプリケーションプログラム等が記憶される。
この図3の構成の場合、カメラワーク判定部30bは、上述のパン動作判定、パン後判定、ズーム動作判定、ズーム後判定、パン後ズーム動作判定、パン後ズーム後判定、ズーム後パン動作判定、ズーム後パン後判定のいずれかを行う。そして主要被写体判定処理の開始タイミングを設定する。具体的には判定実行フラグ(後述する判定実行フラグFDon)をオンとする。
主要被写体判定部30aは、カメラワーク判定部30bの判定結果に基づく開始タイミングの設定に応じて候補画像の中で主要被写体を判定する処理を行う。
この表示部34は、上記のディスプレイデバイスと、該ディスプレイデバイスに表示を実行させる表示ドライバとから成る。表示ドライバは、制御部30の指示に基づいて、ディスプレイデバイス上に各種表示を実行させる。例えば表示ドライバは、撮像して記録媒体に記録した静止画や動画を再生表示させたり、レリーズ(シャッタ操作)待機中に撮像される各フレームの撮像画像データによる動画としてのスルー画(被写体モニタリング画像)をディスプレイデバイスの画面上に表示させる。また各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。本実施の形態の場合、例えばスルー画や再生画上で、主要被写体判定による判定結果がユーザにわかるような表示も実行される。
この操作部35としては、例えば撮像装置10の筐体上に設けられた各種操作子や、表示部34に形成されたタッチパネルなどとして実現される。
筐体上の操作子としては、再生メニュー起動ボタン、決定ボタン、十字キー、キャンセルボタン、ズームレバー、スライドキー、シャッターボタン(レリーズボタン)等が設けられる。
またタッチパネルと表示部34に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
本実施の形態の場合、例えばズームレバー(ワイドキー、テレキー)の操作はカメラワーク判定に用いられる。制御部30はズームレバーの操作をUIコントローラ32を介して検知し、またその操作情報に応じて光学系駆動部13を制御してズームレンズ駆動を実行させる。
画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange
Format)等の形式で記憶される。
記録部15の実際の形態は多様に考えられる。例えば記録部15は、撮像装置10に内蔵されるフラッシュメモリでもよいし、撮像装置10に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置10に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
また、本例において後述するカメラワーク判定処理及び主要被写体判定処理を実行するためのプログラムは、記録部15に記憶されてもよい。
例えば外部の表示装置、記録装置、再生装置等の間で撮像画像データ(静止画ファイルや動画ファイル)の通信を行う。
また、ネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
センサ部14としては例えば手ぶれ、或いは撮像装置10の姿勢や移動(パン移動、チルト移動等)等、撮像装置10の全体の動きを検出するためのジャイロセンサ(角速度センサ)、加速度センサ等が設けられる。例えば制御部30は、ジャイロセンサの検出信号により、撮像装置10がパン又はチルトされていることを検知できる。
またセンサ部14として、光学系11におけるズームレンズの位置を検出するズームレンズ位置センサ、フォーカスレンズの位置を検出するフォーカスレンズ位置センサが設けられる。或いはフォーカスレンズのマニュアル操作(鏡筒リングの操作)を検出するセンサが設けられる場合もある。制御部30は、フォーカスレンズ位置センサの検出情報や、フォーカスレンズのマニュアル操作を検出するセンサの情報により、ユーザのマニュアルフォーカス操作を検知できる。
またセンサ部14として、メカアイリス(絞り機構)の開口量を検出するセンサが設けられる場合もある。
またセンサ部14として、露光調整等のための外部照度を検出する照度センサ、さらには被写体距離を測定する測距センサが設けられてもよい。
図1の画像処理装置1における主要被写体判定部2に相当する構成は、撮像装置10の制御部30において主要被写体判定部30aとしてソフトウエアにより実装される。またカメラワーク判定部3に相当する構成は、制御部30におけるカメラワーク判定部30b
としてソフトウエアにより実装される。
制御部30は、請求項でいうプログラムに基づく処理を実行することで、請求項でいう画像処理方法としての動作を実行制御することになる。
本実施の形態では、後述の第1〜第9の処理例として説明するように主要被写体判定が行われるが、撮像装置10において主要被写体判定を行う機会や目的等について説明しておく。
主要被写体判定は、例えばユーザ(撮像者)がシャッタタイミング(レリーズタイミング)を狙っている際に実行されるが、制御部30は主要被写体を自動的に判定した後、次のような処理を行うことができる。
撮像される各フレームにおいて設定された主要被写体を追尾する。例えばスルー画表示上でユーザに主要被写体を明示して、ユーザの画角調整(例えばカメラを手に持っている状態における被写体決め)の用に供する。
なお、主要被写体の提示としては、表示部34でのスルー画表示上で主要被写体の枠を強調表示することが考えられる。また、強調表示等は、判定直後の一定期間でもよいし、スルー画内に主要被写体が存在する限り実行させてもよい。
主要被写体にオートフォーカス制御する。また、追尾処理と合わせて、主要被写体が動き回っていても、フォーカスが、その主要被写体に追尾して調整されるようにする。
・露光調整
主要被写体の明るさ(輝度)に基づいて自動露光調整を行う。
・指向性調整
撮像(例えば動画撮像)とともにマイクロホンにより音声収音を行う場合、画角空間内での主要被写体の方向に応じて、指向性調整を行う。
・ズーム制御
主要被写体に対応したオートズーム制御する。例えば主要被写体が常に所定以上のサイズで撮像画像で映り込むように自動的なズームレンズ駆動を行う。追尾処理と合わせて、主要被写体との距離が変化に応じたズームによる画角調整を行うようにしてもよい。
・録画スタート制御
動画撮像の開始のトリガーとする。例えば主要被写体が決定されたことに応じて、動画撮像記録を開始する。
・画像効果処理
撮像される各フレームにおいて主要被写体の領域にのみ、画質調整、ノイズリダクション、肌色調整などの画像処理を加える。
或いは、主要被写体の領域以外に、画像効果、例えばモザイク処理、ぼかし処理、塗りつぶし処理等を加えることも考えられる。
撮像画像、もしくは記録された画像について、フレーミング、クロッピング等の編集処理を加える。
例えば主要被写体を含むフレーム内の一部領域の切り出しや、拡大等の処理を行うことができる。
また、撮像画像データのうちで、主要被写体が画像の中心に配置されるように画像周辺部のカット等を行い、構図調整を行うことができる。
例えば撮像装置10が電源オンとされて、撮像を行っているとき(表示部34にスルー画を表示している期間)は、常時カメラワーク判定と、それに基づいたタイミングでの主要被写体判定処理を行っていてもよい。
また、主要被写体を判定したら、追尾処理を行う場合、追尾が外れた時点で、再度カメラワーク判定及び主要被写体判定処理を行うようにしてもよい。
また、ユーザ操作によりカメラワーク判定及び主要被写体判定処理が開始されるようにしてもよい。またユーザが、判定実行モードを選択しているときに常時カメラワーク判定及び主要被写体判定処理が実行されたり、追尾が外れたときに実行されるなどとしてもよい。またユーザ操作にかかわらず、自動的にカメラワーク判定及び主要被写体判定処理が起動されることも考えられる。
先に述べたように、撮像者が撮像装置10を構えて被写体を狙っているときには、そもそも主要被写体を指定するような操作は難しい。
特にパンニングやチルティングのように撮像方向を継続的に一定方向に変化させている場合、或いは一定方向ではなくとも、撮像方向を変化させている場合は、主要被写体を指定する操作はユーザにとって困難である。
また何度も主要被写体を指定する行為は面倒である。
主要被写体判定を自動的に実行することによれば、このようなことが解消され、ユーザストレスの低減効果が得られる。
またユーザが通常使用するデジタルスチルカメラ、携帯電話機内蔵カメラなど、ユーザが携帯して使用する撮像装置10としては、表示部34も小型であり、ユーザが主要被写体を画面上で指定する操作を行ったとしても、正確に行いにくい。本実施の形態のように自動判定することで、誤指定ということもなくなる。
また撮像装置10を自然に用いていれば主役を撮れる、という感覚で使用できるため、撮像機会の増加、対応ユースケースの増加ということができ、使いやすいカメラをユーザに提供できることにもなる。
実施の形態の撮像装置10の第1の処理例としてカメラワーク判定及び主要被写体判定
の動作を説明する。これはパン動作中に主要被写体判定を実行する例である。即ちカメラワーク判定部30bは、ユーザが撮像装置10を略水平方向に移動させるパン動作を判定する。そしてそのパン動作中に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
主要被写体判定処理としては、画像データ内で候補画像を抽出し、安定的に所定の判定基準点に近い状態にある候補画像を主要被写体と判定する例を挙げる。
この図4には、撮像装置10の光学系11,イメージャ12の動作によりデジタル信号処理部20に入力される撮像画像信号の各フレームFR1,FR2,FR3・・・を示している。候補検出部27は、このような順次入力される連続した各フレームのそれぞれ(或いは間欠的な各フレームについて)について候補画像の検出を行う。例えば図示のように、フレームFR1について、3人の人が存在していた場合、それぞれの顔画像部分を候補画像として抽出し、その候補画像枠E1,E2,E3についての候補画像枠情報を出力する。例えば候補画像枠E1の候補画像枠情報は、例えばこの候補画像枠E1の画像内での位置情報(x,y位置情報、被写体距離情報)、サイズ情報(枠の幅、高さ、ピクセル数)、属性情報等である。
候補検出部27は、このような候補画像枠情報を、候補画像枠E2,E3についても生成し、制御部30(主要被写体判定部30a)に受け渡す。
一方で制御部30(カメラワーク判定部30b)は、検出情報Icに基づいてカメラワーク(例えばパン、ズーム)を検出し、それに応じて判定開始タイミングを設定する。具体的には判定実行フラグFdonを「1」とする。これに応じて、制御部30(主要被写体判定部30a)は、候補画像枠情報を用いた主要被写体判定処理を実行する。
図5Aに判定基準点SPの例を示している。これは画像中央を判定基準点SPとした例である。判定基準点SPのxy座標値を(Cx,Cy)とする。
例えばフレームFR1の時点で、候補画像枠E1,E2,E3のそれぞれの候補画像枠情報が取り込まれた場合、制御部30は、図示する各候補画像枠E1,E2,E3の重心Gから判定基準点SPの距離Diff1、Diff2、Diff3を算出する。
例えば図5Bのように、中央よりやや左上方の位置に判定基準点SPを設定してもよい。例えば静止画の構図を考えた場合、このような中央でない位置に主たる被写体を配置するとよい場合が多々考えられるからである。
この図5Bの場合も、各候補画像枠(例えばE4,E5)と判定基準点SPの距離(例えばDiff4、Diff5)を算出するようにする。
即ち判定基準点SPについては、
・画像中央位置、或いは中央よりずれた位置などとして、予め決められた固定的な位置に設定される。
・ユーザが任意に指定する。
・いくつかの候補点をユーザに提示し、ユーザが選択することで設定される。
・制御部30が画像内容に応じて最適位置を判定し、自動的に可変設定する。
などが考えられる。
制御部30(主要被写体判定部30a)は、パン動作中に、各候補画像枠E(n)についての位置状態としての距離Diff(n)を監視し、平均的、累積的、又は継続的に判定基準点SPに近い候補画像枠を判定し、それを主要被写体とする。主要被写体判定部30aは、この処理をカメラワーク判定部30bによるパン動作の検知に応じて行う。この動作を図6に示す。
或る時点でユーザが撮像装置10を略水平方向に移動させるパン動作が行われたとする(パン期間tpan)。カメラワーク判定部30bは、パンが開始されてからのパン判定期間Tponにパン動作を検知し、パン実行フラグFponを「1」とする。第1の処理例ではパン実行フラグFponに応じて判定実行フラグFdonを「1」にセットする。
判定実行フラグFdon=1となることに応じて、主要被写体判定部30aでの主要被写体判定処理が開始される。なお、このタイミングで開始される主要被写体判定処理とは、判定のための実質的な処理を指す。主要被写体判定処理としてのルーチンの起動はそれ以前であっても良い。例えば後述の図8の処理例では、候補画像枠情報の取り込みのみは、判定実行フラグFdon=1となる前から行われている例としている。もちろん候補画像枠情報の取り込みも含めて、判定実行フラグFdon=1となることに応じて開始されるものとしてもよい。
図6Cには、距離Diff1、Diff2、Diff3の各時点での、距離閾値Thr-diff以内か否かの判定結果を示している。距離Diff(n)が距離閾値Thr-diff以下であれば、近い=「1」とされることとする。この判定結果「1」を各時点で累積加算していった値が時間閾値を越えたものが主要被写体と判定される。
のカウント閾値Tht)に達した候補画像が発見された場合が主要被写体判定の終了のタイミングとなる。
例えば図6Cの例では、候補画像枠E3は、継続して「1(=判定基準点SPに近い)」と判定されるが、この累積加算値が或る所定値に達した時点で、判定が終了され、候補画像枠E3が主要被写体と判定されることとなる。
図7Bはパン動作中であることの検出動作を示している。センサ部14におけるジャイロセンサの出力(検出信号Sg)は、特に大きな動きがなければ基準レベルSc(例えばゼロレベル)近辺となっているが、パン動作中(例えばユーザが撮像装置10を略水平方向に動かしている場合)は、検出信号Sgはある正又は負の或る程度のレベルで略一定の値を継続的に示すことになる。そこで基準レベルScを中心として、正負の値の範囲で閾値範囲Sthを設定する。
通常期間tnorは、検出信号Sgは基準レベルScの近辺となるが、パン期間tpanでは閾値範囲Sthを越えるレベルが継続して観測されることとなる。
そこで、検出信号Sgが閾値範囲Sthを越えた状態が、パン判定期間Tponとして設定したある程度の時間以上継続したら、パンが実行されていると判断し、パン実行フラグFponを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
なお、パン判定期間Tponは、瞬間的に検出信号Sgが高くなった状態をパン動作と誤判定しないために設けられる期間である。つまり検出信号Sgが高い値の状態の継続性をもってパンと判定するための期間である。
制御部30は、ステップF200でセンサ部14のジャイロセンサで検出される角速度情報を検出信号Sgとして取得する。
ステップF201で制御部30は、Sg>Sc+Sth/2、又はSg<Sc−Sth/2のいずれかが成り立つか否かを判定する。即ち図7Bに示した基準レベルSc、閾値範囲Sthの値を用いて、検出信号Sgが正又は負の値として閾値範囲Sthを越えた値になっているか否かを判定する処理である。
そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
そしてステップF203で制御部30は、カウント値PanOnCntとパン判定期間Tponを比較する。カウント値PanOnCntが、パン判定期間Tponに達していなければ、ステップF205でパン実行フラグFponをゼロとする。そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合も、判定実行フラグFdon=0である。
そしてステップF207でパン実行フラグFponの値を判定実行フラグFdonに代入する。この場合、判定実行フラグFdon=1となる。つまりパン動作中であることで、主要被写体判定処理が開始される状態となる。
その後、パン動作が終了すると、ステップF201→F206→F207と進む処理となるため、判定実行フラグFdon=0となる。
この例では、主要被写体判定に関し、制御部30は候補画像枠情報の取り込みについては継続して行っていき、上述の判定実行フラグFdon=1となることに応じて、実質的な判定処理(ステップF105〜F115)を開始する処理例としている。
制御部30は例えば1フレームタイミング毎にステップF101〜F104及びF116(判定実行フラグFdon=1の期間はステップF101〜F116)の処理を行う。
変数TSFとは、主要被写体設定済みか否かを示すフラグである。TSF=「0」は、主要被写体が未判定の状態を示すこととなる。
またカウント値Cnt(n)は、図6で説明した距離Diffの距離閾値Thr-diffとの比較判定結果の値を加算するカウンタの値である。
また、同様に距離Diff(n)とは、3つの候補画像枠E1,E2,E3の判定基準点SPからの距離Diff1、Diff2、Diff3を総称して表すものとしており、距離Diff(n)についての処理とは、例えば距離Diff1、Diff2、Diff3のそれぞれについての処理という意味で用いている。
近接フラグFlg(n)、オフセット値OFS(n)も同様とする。
なお、候補画像枠情報には被写体距離(上記二次元(x−y)座標平面に直交するz軸方向の値で表される、カメラ位置に対する被写体の相対的な距離:z値)やピクセル数等も含まれていてもよい。
例えば候補画像枠情報によっては、候補画像枠のx,y座標値として、方形の候補画像枠の左上頂点の座標値が与えられるとする。このx,y座標値を(E(n)_x,E(n)_y)とする。また図5Aに示したように、x,y座標は画面平面の左上を原点O(x,y座標値が(0,0))とする。
また候補画像枠E(n)の幅wをE(n)_w、高さhをE(n)_hとする。
そして候補画像枠E(n)の重心Gの座標値を(E(n)_cx,E(n)_cy)とすると、重心Gの座標値は、
E(n)_cx=E(n)_cx+E(n)_w/2
E(n)_cy
=E(n)_cy+E(n)_h/2
として求められる。
Diff(n)=√{(E(n)_cx−Cx)2+(E(n)_cy−Cy)2}
で求められる。
例えば主要被写体判定が行われた後であったり、動作モード設定等で主要被写体判定処理が不要な期間などは、変数TSF=1とされていることで、主要被写体判定処理が行われない。
またユーザ操作や自動的な起動判断で、必要時に図6の主要被写体判定処理を実行するようにする場合などではステップF104の処理は不要としてもよい。
さらに本例の場合、パン動作中に主要被写体判定を行うものとするため、判定実行フラグFdon=0であるときは、主要被写体判定処理を行わない。
即ち判定基準点SPまでの距離Diff(n)が、判定基準点SPに近いか近くないかを、距離閾値Thr-diffを用いて判定する。
このため制御部30はステップF105で、各候補画像枠E(n)の判定基準点SPまでの距離Diff(n)と距離閾値Thr-diffを比較し、Diff(n)<Thr-diffであればステップF106で近接フラグFlg(n)=1(近い)とする。またDiff(m)<Thr-diffでなければステップF107で近接フラグFlg(n)=0(近くない)とする。
近接フラグFlg(n)は図6Cで説明した「1」「0」の判定結果に相当する。
例えば制御部30は、近接フラグFlg(n)=1であればステップF109でオフセット値OFS(n)=αとする。αはカウンタをインクリメントする所定値である。例えばα
=1とする。
また制御部30は、近接フラグFlg(n)=0であればステップF110でオフセット値OFS(n)=βとする。βはカウント値をキープ、又はカウント値をデクリメントするための所定値である。カウント値をキープする場合は、β=0とする。カウンタをデクリメントする場合は、例えばβ=−1とする。
CNT(n)=CNT(n)+OFS(n)
とする。
上記のステップF109でα=1とされて、オフセット値OFS(n)が設定される場合、カウント値CNT(n)はインクリメントされる。
ステップF110でβ=0(又はβ=−1)とされて、オフセット値OFS(n)が設定される場合、カウント値CNT(n)はキープ(又はデクリメント)される。
このようなカウント値CNT(n)は、近接状態が検出された際にインクリメントされるため、候補画像枠E(n)の被写体が、判定基準点SPに近い状態が検出された期間の長さに相当する値となる。つまりカウント値Cnt(n)は、候補画像枠E(m)が判定基準点SPに「近い」状態の頻度を表す値となる。
Cnt(n)≧Thtでなければ、つまり各候補画像枠E(n)のカウント値Cnt(n)のいずれもが、カウント閾値Thtに達していなければ、ステップF113で変数TSF=0のままとし、ステップF116で判定終了とは判断せず、ステップF101に戻る。この場合、次のフレームについて入力される候補画像枠情報に基づいて、ステップF101以降の処理を上記同様に実行していく。
詳しい説明は省略するが、本例の自動的な主要被写体判定とは並行して、例えばユーザが主要被写体を表示部34の画面上のタッチ操作、或いは被写体を画面上に所定位置に合わせてシャッタボタンを半押しするなどの操作として、主要被写体選択ができるようにしてもよい。図8の処理の実行中に、ユーザがこのような指定操作を行った場合、ユーザの操作を優先することが好ましい。そこで、そのようなマニュアル操作として主要被写体設定が行われた場合、変数TSF=1とする。この場合、図8の処理はステップF104,F116の判断により、処理を終了(中断終了)することとすればよい。
すると或る時点で、カウント値Cnt3がカウント閾値Thtに最初に到達することとな
る。
このような場合、制御部30は処理をステップF112からF114に進める。
そしてステップF115で主要被写体情報が出力され、例えば主要被写体情報を用いるアプリケーションプログラムや制御プログラムに受け渡される。
なお、この処理例では変数TSF=1となるまで続けられることになるが、パン動作が終了されると実質的な判定処理(ステップF105〜F115)は終了となる。
図7Aのカメラワーク判定処理は継続して行われており、パン動作が終了されるとステップF206でパン実行フラグFpon=0となり、ステップF207で判定実行フラグFdon=0とされる。つまり図7Bのようにパン後に通常期間tnorに至ると判定実行フラグFdon=0となる。その場合、図8の処理はステップF104からF116に進むこととなるためである。
このためパン動作が終了されるまでの間にカウント値Cnt(n)がカウント閾値Thtに達した候補画像枠E(n)が観測されない場合は、主要被写体判定はできなかったということとなる。
なお、図8には示していないが、このようにパン動作が終了されて判定実行フラグFdon=0となったことで判定が行われなかった場合は、カウント値Cnt(n)はゼロにリセットするとよい。次のパン期間にカウント値を引き継がないようにするためである。一方で、候補画像枠E(n)の個人対応が継続できるのであれば、カウント値Cnt(n)はそのまま維持しておき、次のパン期間にカウント値を引き継がせることも考えられる。
例えば図8のステップF110でβ=0とすると、カウント値CNT(n)は、累積的に判定基準点SPに近い状態が検出された回数の累積値に相当するものとなる。
また図8のステップF110でβ=−1とすると、カウント値CNT(n)は、平均的に判定基準点SPに近い状態が検出された値とみることができる。
つまりこのような場合、ステップF112の判定は、累積的或いは平均的に判定基準点SPに近い状態の判定となる。
これに対して、所定期間以上、継続的に判定基準点SPに近い状態にあることを条件としてもよい。そのためには、ステップF108で近接フラグFlg(n)=1とされた場合にはカウント値CNT(n)をインクリメントし、ステップF108で近接フラグFlg(n)=0とされた場合にはカウント値CNT(n)をゼロにリセットする。すると、近接フラグFlg(n)=1の状態が継続的に所定時間に達した場合、ステップF112でカウント値Cn t(n)がカウント閾値Thtに達して、候補画像枠E(n)が主要被写体と判定されることになる。
なお、以上の累積判断、平均判断、継続判断の場合では、それぞれカウント閾値Thtに相当する具体的な判断値は異なることが適切である。
一般に撮像者が被写体を狙ってカメラワークを行う場合、最初は主役としたい被写体を画像中央などの所望の位置にとらえられず、撮像者が徐々にカメラの向きを調整していく。例えばパンニング過程で被写体を画像中央に捉えていく。このことを考慮すると、最初は、撮像者が「主要被写体」と念頭においている被写体は、時間が進むにつれ徐々に画像中央にとらえられるようになる。
従って、主要被写体判定処理の実行中に、時間が進むほど、判定基準点SPに近いということの価値を重くすることは、撮像者の考えに合致した主要被写体判定ができる可能性を高めることになる。具体的にはステップF109でオフセット値OFS(n)に代入する値αを段階的に大きくする。このようにすることで、撮像者の考えに合致した主要被写体判定ができる可能性を高めることになる。
例えば画像中央などの正方形や円形等の領域を設定し、それを判定基準領域とする。各候補画像枠E(n)の判定基準領域との位置関係とは、例えば、
・重心が判定基準領域に入っているか否か
・全体が判定基準領域に入っているか否か
・少なくとも一部が判定基準領域に入っているか否か
・判定基準領域の外縁との距離が所定以内か否かなどとする。
このような位置関係の条件が、平均的、累積的、又は継続的に満たされる候補画像枠E(n)を主要被写体と判定してもよい。
第2の処理例として、パン動作後に主要被写体判定を実行する例を説明する。なお、以降第2〜第8の処理例について、主要被写体判定処理は上記図8と同様として説明を省略し、主にカメラワーク判定処理について述べることとする。
第2の処理例では、制御部30(カメラワーク判定部30b)が、ユーザが撮像装置10を略水平方向に移動させるパン動作を終了させたことを判定する。そしてそのパン動作終了後に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
パン動作中の判定、即ちパン実行フラグFponについては、上記第1の処理例と同様に、ジャイロセンサからの検出信号Sgを閾値範囲Sthと比較することで設定する。
ここで、パン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン実行フラグFponは「1」又は「0」であるため、このパン実行フラグFponの1つ前の時点の値から現在値とを減算すると、「0」「+1」「−1」のいずれかとなる。つまりパン実行フラグFponが立ち上がる時点では0−1でパン遷移フラグFp_trans=−1となり、パン実行フラグFponが立ち下がる時点では1−0でパン遷移フラグFp_trans=+1となる。それ以外は0−0、又は1−1でパン遷移フラグFp_trans=0となる。
つまりパン遷移フラグFp_transは、パン実行フラグFponの微分情報となり、具体的にはパンの開始、終了を検出した情報となる。そしてこの場合、パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
また、上限期間TdonEndが設定され、判定実行フラグFdonは、パン遷移フラグFp_trans=+1となった時点から上限期間TdonEndを経た時点で「0」とされる。このように判定実行フラグFdon=0とされることで、実質的な主要被写体判定処理を行う期間が制限される。
判定開始待機期間TdonStart、及び上限期間TdonEndは例えば固定値とされる。
図10においてステップF200〜F206は、図7AのステップF200〜F206と同様である。即ちジャイロセンサの検出信号Sgに応じてパン実行フラグFponを設定する。
パン遷移フラグFp_trans=(前回パン実行フラグFpon_1)−(パン実行フラグFpon)
とする。前回パン実行フラグFpon_1は、前回のステップF210の時点でのパン実行フラグFponの値である。従ってパン遷移フラグFp_transは、図9で説明した「0」「+1」「−1」のいずれかとなる。
また次回のステップF210において前回パン実行フラグFpon_1として用いるため、今回のパン実行フラグFponの値を前回パン実行フラグFpon_1に代入する。
このカウントフラグFcntupは、パン遷移フラグFp_transが「1」となってから上限期間TdonEndに達するまでの期間のみ「1」である。従ってパン遷移フラグFp_transが「1」となる以前はカウントフラグFcntupは「0」である。
そして制御部30はステップF217で判定実行フラグFdon=0と設定する。
この場合、パン遷移フラグFp_trans=1であることで制御部30はステップF211からF212に進み、カウント値Fdoncntをインクリメントする。またカウントフラグFcntup=1とする。
ステップF213では、カウント値Fdoncntについて、図9に示した判定開始待機期間TdonStartと比較する。
パン遷移フラグFp_trans=1となった当初は、カウント値Fdoncntは判定開始待機期間TdonStartを越えていないため、ステップF215に進み、判定実行フラグFdon=0とされる。
つまりパン遷移フラグFp_trans=1となった以降は、カウントフラグFcntup=1であることで、連続してステップF212へ処理が進む状態とされる。
これにより、図8に示した主要被写体判定処理では、実質的な判定処理(ステップF105〜F115)が開始されることとなる。
その後、或る時点のステップF216で、カウント値Fdoncntが上限期間TdonEndを越える。この場合、制御部30はステップF219に進んで、判定実行フラグFdon=0とする。従って、もし図8の処理で主要被写体判定処理が完了していなかったとしても、この時点で実質的な判定処理(ステップF105〜F115)は終了されることとなる。
またステップF220でカウントフラグFcntupを「0」とする。
なお、ステップF219で判定実行フラグFdon=0とされた後は、次にパン遷移フラグFp_trans=1となるまでは、ステップF214,F217の処理が行われることとなり、判定実行フラグFdon=0の状態が継続する。
なお、場合によっては、判定開始待機期間TdonStart=0とすることも考えられる。このようにすれば、パン遷移フラグFp_trans=1となった時点、つまりパン終了が検出された時点から、主要被写体判定処理が実行されることとなる。例えば三脚や雲台に乗せた撮像装置10でパンニングした場合などで、パン直後に画像の揺れが少ないと考えられる場合などは、このようにパン後に即座に主要被写体判定を実行してもよい。
なおもちろん、上限を設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておく処理例も考えられる。
第3の処理例を説明する。これはズーム動作中に主要被写体判定を実行する例である。即ちカメラワーク判定部30bは、ユーザが撮像装置10のズーム動作を実行させている状況を判定する。そしてそのズーム動作中に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
ユーザがズームレバーを操作すると、撮像装置10の動作としては図11Bの通常期間tnorからズーム期間tzmに移行する。即ちズームレンズ移動が開始される。制御部30(カメラワーク判定部30b)は、ズームレバー操作が検出される状態が、ズーム判定期間Tzonとして設定したある程度の時間以上継続したら、ズームが実行されていると判断し、ズーム実行フラグFzonを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
なお、ズーム判定期間Tzonは、継続的なズーム動作が行われていることを判定するために設けられる期間である。つまりユーザがわずかな時間だけズームレバーを操作したような場合を除外するための期間である。
制御部30は、ステップF300でズームレバーの操作状態を取得し、変数Szoomを設定する。例えばズームレバーが操作されていれば変数Szoom=1とし、操作されていなければ変数Szoom=0とする。
ステップF301では、変数Szoomを参照して、現在ズームレバーが押されている状態であるか否か、つまりズーム動作が実行されているか否かを判定する。
変数Szoom=0で現在ズームレバーが押されていなければ制御部30はステップF306に進み、カウント値ZoomOnCntをゼロとし、またズーム実行フラグFzonをゼロとする。なお、カウント値ZoomOnCntは、ズーム判定期間Tzonを越えたか否かを判定するためのカ
ウント値である。
そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
そしてステップF303で制御部30は、カウント値ZoomOnCntとズーム判定期間Tzonを比較する。カウント値ZoomOnCntがズーム判定期間Tzonに達していなければ、ステップF305でズーム実行フラグFzonをゼロとする。そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。この場合も、判定実行フラグFdon=0である。
そしてステップF307でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。この場合、判定実行フラグFdon=1となる。
なお、その後もズームが継続されている間は、このステップF303→F304→F307と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。その後、ズーム動作が終了すると、ステップF301→F306→F307と進む処理となるため、判定実行フラグFdon=0となる。
図8の主要被写体判定処理では、判定実行フラグFdon=1の期間に実質的な主要被写体判定が行われるため(図8のステップF104参照)、主要被写体判定はズームが継続される期間を限度として実行されることとなる。
第4の処理例として、ズーム動作後に主要被写体判定を実行する例を説明する。この場合、制御部30(カメラワーク判定部30b)が、ユーザが撮像装置10のズーム動作を終了させたことを判定する。そしてそのズーム動作終了後に、主要被写体判定部30aで主要被写体判定処理が行われるようにする。
ズーム動作中の判定、即ちズーム実行フラグFzonについては、上記第3の処理例と同様に、ユーザのズームレバーの継続的な操作の検出によって設定する。
ここで、ズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム実行フラグFzonは「1」又は「0」であるため、このズーム実行フラグFzonの1つ前の時点の値から現在値とを減算すると、「0」「+1」「−1」のいずれかとなる。つまりズーム実行フラグFzonが立ち上がる時点では 0−1でズーム遷移フラグFz_trans=−1となり、ズーム実行フラグFzonが立ち下がる時点では1−0でズーム遷移フラグFz_trans=+1となる。それ以外は0−0、又は1−1でズーム遷移フラグFz_trans=0となる。
つまりズーム遷移フラグFz_transは、ズーム実行フラグFzonの微分情報となり、具体的には継続的なズーム動作の開始、終了を検出した情報となる。そしてこの場合、ズーム遷移フラグFz_trans=+1がズーム終了時点を示す情報となる。
また、上限期間TdonEndが設定され、判定実行フラグFdonは、ズーム遷移フラグFz_trans=+1となった時点から上限期間TdonEndを経た時点で「0」とされる。このように判定実行フラグFdon=0とされることで、実質的な主要被写体判定処理を行う期間が制限される。判定開始待機期間TdonStart、及び上限期間TdonEndは例えば固定値とされる。
図13においてステップF300〜F306は、図11AのステップF300〜F306と同様である。即ちズームレバーのズーム判定期間Tzonを越える継続的な操作を検出した場合にズーム実行フラグFzon=1とし、該検出前、及びズームレーバー非操作時にズーム実行フラグFzon=0とする処理である。
ズーム遷移フラグFz_trans=(前回ズーム実行フラグFzon_1)−(ズーム実行フラグFzon)
とする。前回ズーム実行フラグFzon_1は、前回のステップF310の時点でのズーム実行フラグFzonの値である。従ってズーム遷移フラグFz_transは、図12で説明した「0」「+1」「−1」のいずれかとなる。
また次回のステップF310において前回ズーム実行フラグFzon_1として用いるため、今回のズーム実行フラグFzonの値を前回ズーム実行フラグFzon_1に代入する。
このカウントフラグFcntupは、ズーム遷移フラグFz_transが「1」となってから上限期間TdonEndに達するまでの期間のみ「1」である。従ってズーム遷移フラグFz_transが「1」となる以前はカウントフラグFcntupは「0」である。
そして制御部30はステップF317で判定実行フラグFdon=0と設定する。
この場合、ズーム遷移フラグFz_trans=1であることで制御部30はステップF311からF312に進み、カウント値Fdoncntをインクリメントする。またカウントフラグFcntup=1とする。
ステップF313では、カウント値Fdoncntについて、図12に示した判定開始待機期間TdonStartと比較する。
ズーム遷移フラグFz_trans=1となった当初は、カウント値Fdoncntは判定開始待機期間TdonStartを越えていないため、ステップF315に進み、判定実行フラグFdon=0とされる。
つまりズーム遷移フラグFz_trans=1となった以降は、カウントフラグFcntup=1であることで、連続してステップF312へ処理が進む状態とされる。
これにより、図8に示した主要被写体判定処理では、実質的な判定処理(ステップF105〜F115)が開始されることとなる。
その後、或る時点のステップF316で、カウント値Fdoncntが上限期間TdonEndを越える。この場合、制御部30はステップF319に進んで、判定実行フラグFdon=0とする。従って、もし図8の処理で主要被写体判定処理が完了していなかったとしても、この時点で実質的な判定処理(ステップF105〜F115)は終了されることとなる。
またステップF320でカウントフラグFcntupを「0」とする。
なお、ステップF319で判定実行フラグFdon=0とされた後は、次にズーム遷移フラグFz_trans=1となるまでは、ステップF314,F317の処理が行われることとなり、判定実行フラグFdon=0の状態が継続する。
このような判定開始待機期間TdonStartを適切に設定することで、主要被写体判定の確度をより高めることができる。なお、上記第2の処理例でパン遷移フラグFp_trans=1の後にも判定開始待機期間TdonStartを用いたが、パン後の撮像画像の揺らぎより、ズーム
後の撮像画像の揺らぎの方が小さいと考えられる。そこで、この第4の処理例の場合の判定開始待機期間TdonStartは、第2の処理例の判定開始待機期間TdonStartよりも短く設定することが好ましい。
なお、場合によっては、判定開始待機期間TdonStart=0とすることも考えられる。このようにすれば、ズーム遷移フラグFz_trans=1となった時点、つまりズーム終了が検出された時点から、主要被写体判定処理が実行されることとなる。主要被写体判定を早く実行させたい場合に好適である。
なおもちろん、上限を設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておく処理例も考えられる。
第5の処理例として、パン動作後に引き続きズーム動作が行われた場合に、そのズーム動作中に主要被写体判定を実行する例を説明する。
図14にパン後ズーム動作判定の動作を示している。
まずパン動作の終了の判定は第2の処理例で説明した考え方を用いる。即ちパン実行フラグFponについては、第1の処理例と同様に、ジャイロセンサからの検出信号Sgと閾値範囲Sthとの比較結果に基づいて設定する。そしてパン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
ズーム動作の検知は、第3の処理例で説明した考え方を用いる。即ちズームレバー操作が検出される状態が、ズーム判定期間Tzonとして設定したある程度の時間以上継続したら、ズームが実行されていると判断し、ズーム実行フラグFzonを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
図15のステップF350〜F357は、図10のステップF200〜F206、F210と同様であるため重複説明を避けるが、パン遷移フラグFp_transを設定し、パン遷移フラグFp_trans=+1となるパン終了時点を検出する処理である。
カウントフラグFpe_cntup=0であってパン遷移フラグFp_transが「0」又は「−1」の場合、つまりパン終了が検出されるまでは、制御部30はステップF358からF360に進み、カウント値PanEndCntをゼロにリセットし、またカウントフラグFpe_cntupを「0」とする。カウント値PanEndCntは、図14に示した移行限度期間Tpan_zoomを計数するカウンタの値である。
そして制御部30はステップF361で判定実行フラグFdon=0と設定する。
そしてステップF362で制御部30は、ズーム中判定処理を行う。ズーム中判定処理は図16に示している。
なお次の時点の図15の処理では、パン遷移フラグFp_transは「0」に戻るが、カウントフラグFpe_cntupは「1」となっているため、制御部30は前回と同様にステップF358からF359,F362に進む。カウントフラグFpe_cntupは移行限度期間Tpan_zoom内にズーム動作が検出されなかった場合、或いはズーム動作が終了した場合に「0」とされるが、それまでは、ステップF359(カウント値PanEndCntのインクリメント),F362(ズーム中判定処理)が繰り返し行われることとなる。
制御部30は、図16のステップF370でズームレバーの操作状態を取得し、変数Szoomを設定する。例えばズームレバーが操作されていれば変数Szoom=1とし、操作されていなければ変数Szoom=0とする。そしてステップF371では、変数Szoomを参照して、現在ズームレバーが押されている状態であるか否かを判定する。
パン終了直後で、まだズームが行われていない期間は、制御部30はステップF371からF376に進み、カウント値PanEndCntが移行限度期間Tpan_zoomに達していないか否かを確認する。
パン直後で移行限度期間Tpan_zoomに達していなければ、ステップF376からF377に進むが、その時点ではズーム実行フラグFzon=0であるので、ステップF378へ進み、カウント値ZoomOnCntをゼロとし、またズーム実行フラグFzonをゼロとする。カウント値ZoomOnCntは、ユーザのズーム操作の検知からズーム判定期間Tzonを越えたか否かを判定するため(継続的なズーム操作判定のため)のカウント値である。
そしてステップF379でズーム実行フラグFzonの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
なお、移行限度期間Tpan_zoom内に一瞬ズーム操作が検知されても、ズーム操作がズーム判定期間Tzonに至らずに終了された場合、その一瞬の操作の終了後において処理はステ
ップF371→F376と進む。従って、そのままズーム操作がなされずに移行限度期間Tpan_zoomに達した場合は、図15のステップF360に進み、パン後ズーム動作が検出されなかったこととなる(判定実行フラグFdon=0)。
なお、その後もズームが継続されている間は、このステップF373→F374→F379と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。
その後、ズーム動作が終了すると、ステップF371→F376と進む処理となる。この場合は、カウント値PanEndCntが移行限度期間Tpan_zoom以上となっているか、もしくは移行限度期間Tpan_zoomに達していなくともズーム実行フラグFzon=1となっているため、ステップF376又はF377から図15のステップF360、F361に進む。従ってカウント値PanEndCntがゼロリセットされ、カウントフラグFpe_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はズームが継続される期間を限度として実行されることとなる。
また上記処理例では、パンからズームへの移行限度期間Tpan_zoomを設けて判断しているため、パン→ズームという連続的な動作を的確に判断できる。
第6の処理例として、パン動作後に引き続きズーム動作が行われた場合に、そのズーム動作終了後に主要被写体判定を実行する例を説明する。
図17にパン後ズーム後判定の動作を示している。
まずパン動作の終了の判定(パン実行フラグFpon、パン遷移フラグFp_transの処理)、及びパン終了から移行限度期間Tpan_zoom内でのズーム動作の判定(ズーム実行フラグFzonの処理)については、第5の処理例と同様である。
パン後のズーム動作の終了を検出するため、第4の処理例で説明した考え方を用いる。即ちズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム遷移フラグFz_trans=+1がズーム終了時点を示す情報となる。
図18のステップF350〜F361は、図15と同様であり、同一のステップ番号としている。即ち制御部30は、ステップF350〜F357として、パン遷移フラグFp_transを設定し、パン終了時点を検出する。パン終了が検出されるまでは、ステップF358→F360→F361と進み、判定実行フラグFdon=0とする。
この図18では、パン終了が検出された以降において、制御部30はステップF358→F359→F365と進むことになり、ステップF365として図19のズーム後判定処理を行う。
パン後において移行限度期間Tpan_zoom内にズームが行われなければ、ステップF376からF379に進む。この時点ではカウント値FdonCnt=0である。カウント値FdonCntはズーム終了時点からステップF382でカウントアップされるためである。そのためこの時点ではステップF379から図18のステップF360に進む。この場合、パン後ズーム動作が検出されなかったこととなる。判定実行フラグFdonは「0」のままとなる。
ズーム開始前、及び動作中は、制御部30はステップF381→F384→F387と進み、カウント値Fdoncnt=0、カウントフラグFcntup=0、判定実行フラグFdon=0とする。
ズーム終了時点では、ズーム遷移フラグFz_trans=1となることで、制御部30はステップF381からF382に進み、カウント値Fdoncntをインクリメントし、またカウントフラグFcntup=1とする。以降もカウントフラグFcntup=1であることで制御部30はステップF381からF382に進み、カウント値Fdoncntのインクリメントが継続される。但し判定開始待機期間TdonStartを越えるまではステップF383からF385に進み、判定実行フラグFdon=0とされる。
なお、ズーム終了時点以降は、図19の処理はステップF371→F376と進み、カウント値PanEndCntが移行限度期間Tpan_zoomを越えている場合が多いが、カウント値Fdoncntのインクリメントが開始された以降であるため、ステップF379→F378→F380→F381→F382のように処理が進められる。
その後、カウント値Fdoncntが上限期間TdonEndを越えると、制御部30はステップF389でカウントフラグFcntup=0とし、さらに図18のステップF360、F361に進んで、カウント値PanEndCnt=0、カウントフラグFpe_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はパン後ズーム後に上限期間TdonEndを限度として実行される。
また上記処理例では、パンからズームへの移行限度期間Tpan_zoomを設けて判断しているため、パン→ズームという連続的な動作を的確に判断できる。
なお判定開始待機期間TdonStart=0とすることも考えられる。この場合、パン後のズーム終了が検出された時点から即座に主要被写体判定処理が実行されることとなる。
また上限期間TdonEndを設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておくようにしてもよい。
第7の処理例として、ズーム動作後に引き続きパン動作が行われた場合に、そのパン動作中に主要被写体判定を実行する例を説明する。
図20にズーム後パン動作判定の動作を示している。
まずズーム動作の終了の判定は第4の処理例で説明した考え方を用いる。即ちズーム実行フラグFzonについて、ユーザのズームレバー操作の継続性の判定により設定する。そしてズーム実行フラグFzonについて、現在の値と1つ前の値を比較(減算)して、ズーム遷移フラグFz_transを設定する。ズーム遷移フラグFz_trans=+1がパン終了時点を示す情報となる。
パン動作の検知は、第1の処理例で説明した考え方を用いる。即ちパン実行フラグFponを、ジャイロセンサからの検出信号Sgと閾値範囲Sthとの比較結果に基づいて設定する。検出信号Sgが、パン判定期間Tponとして設定したある程度の時間以上継続して閾値範囲Sthを越えていたら、パンが実行されていると判断し、パン実行フラグFponを「1」とする。これに応じて主要被写体判定開始を制御する判定実行フラグFdonを「1」とする。判定実行フラグFdon=1の際に主要被写体判定処理が行われる。
図21のステップF400〜F407は、図13のステップF300〜F306、F310と同様であるため重複説明を避けるが、ズーム遷移フラグFz_transを設定し、ズーム遷移フラグFz_trans=+1となるズーム終了時点を検出する処理である。
カウントフラグFze_cntup=0であってズーム遷移フラグFz_transが「0」又は「−1」の場合、つまりズーム終了が検出されるまでは、制御部30はステップF408からF
410に進み、カウント値ZoomEndCntをゼロにリセットし、またカウントフラグFze_cntupを「0」とする。カウント値ZoomEndCntは、図20に示した移行限度期間Tzoom_panを計数するカウンタの値である。
そして制御部30はステップF411で判定実行フラグFdon=0と設定する。
そしてステップF412で制御部30は、パン中判定処理を行う。パン中判定処理は図22に示している。
なお次の時点の図21の処理では、ズーム遷移フラグFz_transは「0」に戻るが、カウントフラグFze_cntupは「1」となっているため、制御部30は前回と同様にステップF408からF409,F412に進む。カウントフラグFze_cntupは移行限度期間Tzoom_pan内にパン動作が検出されなかった場合、或いはパン動作が終了した場合に「0」とされるが、それまでは、ステップF409(カウント値ZoomEndCntのインクリメント),F412(パン中判定処理)が繰り返し行われることとなる。
制御部30は、図22のステップF420でセンサ部14のジャイロセンサで検出される角速度情報を検出信号Sgとして取得する。ステップF421で制御部30は、Sg>Sc+Sth/2、又はSg<Sc−Sth/2のいずれかが成り立つか否かを判定する。即ち図7Bに示した基準レベルSc、閾値範囲Sthの値を用いて、検出信号Sgが正又は負の値として閾値範囲Sthを越えた値になっているか否かを判定する。
パン直後で移行限度期間Tzoom_panに達していなければ、ステップF426からF427に進むが、その時点ではパン実行フラグFpon=0であるので、ステップF428へ進み、カウント値PanOnCntをゼロとし、またパン実行フラグFponをゼロとする。カウント値PanOnCntは、パン動作の検知からパン判定期間Tponを越えたか否かを判定するためのカウント値である。
そしてステップF429でパン実行フラグFponの値を判定実行フラグFdonに代入する。つまりこの場合は、判定実行フラグFdon=0となる。
なお、移行限度期間Tzoom_pan内に一瞬検出信号Sgが閾値範囲Sthを越えても、パンとしての動きがパン判定期間Tponに至らずに終了された場合、その一瞬のパン動作の終
了後において処理はステップF421→F426と進む。従って、そのままパン動作がなされずに移行限度期間Tzoom_panに達した場合は、図21のステップF410に進み、ズーム後パン動作が検出されなかったこととなる(判定実行フラグFdon=0)。
なお、その後もパンが継続されている間は、このステップF423→F424→F429と進む処理が繰り返されることになり、判定実行フラグFdon=1の状態が維持される。
その後、パン動作が終了すると、ステップF421→F426と進む処理となる。この場合は、カウント値ZoomEndCntが移行限度期間Tzoom_pan以上となっているか、もしくは移行限度期間Tzoom_panに達していなくともパン実行フラグFpon=1となっているため、ステップF426又はF427から図21のステップF410、F411に進む。従ってカウント値ZoomEndCntがゼロリセットされ、カウントフラグFze_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はパンが継続される期間を限度として実行されることとなる。
また上記処理例では、ズームからパンへの移行限度期間Tzoom_panを設けて判断しているため、ズーム→パンという連続的な動作を的確に判断できる。
第8の処理例として、ズーム動作後に引き続きパン動作が行われた場合に、そのパン動作終了後に主要被写体判定を実行する例を説明する。
図23にズーム後パン後判定の動作を示している。
ズーム動作の終了の判定(ズーム実行フラグFzon、ズーム遷移フラグFz_transの処理)、及びズーム終了から移行限度期間Tzoom_pan内でのパン動作の判定(パン実行フラグFponの処理)については、第7の処理例と同様である。
ズーム後のパン動作の終了を検出するため、第2の処理例で説明した考え方を用いる。即ちパン実行フラグFponについて、現在の値と1つ前の値を比較(減算)して、パン遷移フラグFp_transを設定する。パン遷移フラグFp_trans=+1がパン終了時点を示す情報となる。
図24のステップF400〜F411は、図21と同様であり、同一のステップ番号としている。即ち制御部30は、ステップF400〜F407として、ズーム遷移フラグFz_transを設定し、ズーム終了時点を検出する。ズーム終了が検出されるまでは、ステップF408→F410→F411と進み、判定実行フラグFdon=0とする。
この図24では、ズーム終了が検出された以降において、制御部30はステップF408→F409→F415と進むことになり、ステップF415として図25のパン後判定処理を行う。
ズーム後において移行限度期間Tzoom_pan内にパンが行われなければ、ステップF426からF429に進む。この時点ではカウント値FdonCnt=0である。カウント値FdonCntはパン終了時点からステップF432でカウントアップされるためである。そのためこの時点ではステップF429から図24のステップF410に進む。この場合、ズーム後パン動作が検出されなかったこととなる。判定実行フラグFdonは「0」のままとなる。
パン開始前、及び動作中は、制御部30はステップF431→F434→F437と進み、カウント値Fdoncnt=0、カウントフラグFcntup=0、判定実行フラグFdon=0とする。
パン終了時点では、パン遷移フラグFp_trans=1となることで、制御部30はステップF431からF432に進み、カウント値Fdoncntをインクリメントし、またカウントフラグFcntup=1とする。以降もカウントフラグFcntup=1であることで制御部30はステップF431からF432に進み、カウント値Fdoncntのインクリメントが継続される。但し判定開始待機期間TdonStartを越えるまではステップF433からF435に進み、判定実行フラグFdon=0とされる。
なお、パン終了時点以降は、図25の処理はステップF421→F426と進み、カウント値ZoomEndCntが移行限度期間Tzoom_panを越えている場合が多いが、カウント値Fdoncntのインクリメントが開始された以降であるため、ステップF429→F428→F430→F431→F432のように処理が進められる。
その後、カウント値Fdoncntが上限期間TdonEndを越えると、制御部30はステップF439でカウントフラグFcntup=0とし、さらに図24のステップF410、F411に進んで、カウント値ZoomEndCnt=0、カウントフラグFze_cntup=0とされ、さらに判定実行フラグFdon=0とされる。つまり主要被写体判定はズーム後パン後に上限期間TdonEndを限度として実行される。
また上記処理例では、ズームからパンへの移行限度期間Tzoom_panを設けて判断しているため、ズーム→パンという連続的な動作を的確に判断できる。
なお判定開始待機期間TdonStart=0とすることも考えられる。この場合、ズーム後のパン終了が検出された時点から即座に主要被写体判定処理が実行されることとなる。
また上限期間TdonEndを設けず、主要被写体判定がなされるまで判定実行フラグFdon=1の状態を維持させておくようにしてもよい。
第9の処理例としてのカメラワーク判定及び主要被写体判定を説明する。この例は、制御部30(カメラワーク判定部30b)は、撮像装置10のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する。
制御部30(主要被写体判定部30a)は、判定開始タイミングからの少なくとも1フレームの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する。
例えば特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である。
さらにこのような合焦条件に加えて、特定の位置条件に合致した被写体のうちで主要被写体を判定するようにしてもよい。
この第9の処理例の場合、撮像装置10としての構成は図26のようになる。図26において図3と同一部分は同一符号を付し、説明を省略する。
合焦度の判定技術としては、例えば公知のオートフォーカス検波の技術を用いることができる。例えば輝度信号のエッジ成分を検出し、これに積分処理等を施すことで、合焦している程高い数値となる値、つまり合焦度合いに応じた値を求めることができる。
また図26の構成では、図3と同じく候補検出部27を備え、候補画像枠を抽出するようにしている。
なお、候補検出部27及び合焦度判定部28としての機能は、制御部30においてソフトウエアにより実装してもよい。
図27には撮像装置10の光学系11,イメージャ12の動作によりデジタル信号処理部20に入力される撮像画像信号の各フレームFR1,FR2,FR3・・・を示している。
第1の処理例で説明したものと同様、候補検出部27は、このような順次入力される連続した各フレームのそれぞれ(或いは間欠的な各フレームについて)から候補画像(例えば候補画像枠E1,E2,E3)の検出を行う。そして候補画像枠情報を制御部30(主要被写体判定部30a)に受け渡す。制御部30は、主要被写体判定処理の際に、各候補画像枠E1,E2,E3の重心Gから判定基準点SPまでの距離Diff1、Diff2、Diff3の算出等を行う。
図では分割領域としてのブロックの例を示している。1つの画像データを、破線で示すように多数のブロックに分割する。各ブロックを説明上、ブロックBK(BK1、BK2・・・BK(M))とする。
合焦度判定部28は、各ブロックBK1、BK2・・・BK(M)のそれぞれについての合焦度を例えば数値情報として求める。図示のように、例えばブロックBK1は合焦度「10」、ブロックBK2は合焦度「22」などと求められる。なおこの例では、合焦度は「100」を最高値としており、例えば「80」以上であれば合焦状態と判定するものとする。
合焦度判定部28は、例えばフレーム毎にこのように各ブロックBKについて合焦度を求め、制御部30に受け渡す。
いま、図28Aのように、被写体としての人物H1,H2,H3が、撮像装置10からの距離としてそれぞれ距離D1,D2,D3の位置に居るとする。この場合に撮像者がマニュアルフォーカス操作を行い、合焦位置をニア側とファー側の間で変化させたとする。
ニア側に合焦させると、図28Bの上図のように、人物H1に焦点が合い、一方人物H2,H3はボケた状態(図では点線で示している)となる。このときの撮像画像のフレームでは、図28Bの下図のように、人物H1が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
マニュアルフォーカス操作で中間的な距離に合焦させると、図28Cの上図のように、人物H2に焦点が合い、人物H1,H3はボケた状態となる。このときの撮像画像のフレームでは、図28Cの下図のように、人物H2が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
さらにファー側に合焦させると、図28Dの上図のように、人物H3に焦点が合い、人物H1,H2はボケた状態となる。このときの撮像画像のフレームでは、図28Dの下図のように、人物H3が位置するブロックBK(斜線のブロック)において合焦度の値が高くなる。
そこで、第9の処理例では、まずカメラワーク判定部30bが、マニュアルフォーカス操作を検出し、マニュアルフォーカス終了後のタイミングを主要被写体判定部30aに通知する。主要被写体判定部30aは、当該タイミングのフレーム画像データにおいて、候補画像のうちで、合焦度の高いブロックBKに位置している候補画像を、主要被写体と判定するものである。
図29は、図28の例においてニア側からファー側へマニュアルフォーカスが行われた場合を示している。人物H1,H2,H3が、それぞれ候補画像枠E1,E2,E3とされているとし、各候補画像枠の部分の合焦度を例示している。
マニュアルフォーカス期間tmfとしてニア側からファー側へフォーカスレンズが移動されるに従って、合焦度が高い被写体は候補画像枠E1→E2→E3の順番で遷移する。
知された時点で、マニュアルフォーカス実行フラグFmfonが「1」とされる。
その後フォーカス操作が終了され、通常期間tnorに移行したとする。この場合にカメラワーク判定部30bはマニュアルフォーカス後のタイミングをフォーカス終了フラグFmfend=+1として発生させる。これに応じて判定実行フラグFdon=1となる。この判定実行フラグFdon=1に応じて主要被写体判定部30aで主要被写体判定が行われる。
ステップF500で制御部30は、例えばセンサ部14における、フォーカスレンズのマニュアル操作(鏡筒リングの操作)を検出するセンサから情報、もしくはフォーカスレンズ位置センサの情報を取得し、ユーザ操作に基づくマニュアルフォーカス操作状態を取得して、変数Smfを設定する。例えばマニュアルフォーカス操作がされていれば変数Smf=1とし、操作されていなければ変数Smf=0とする。
変数Smf=0で現在マニュアルフォーカス操作が行われていなければ制御部30はステップF506に進み、カウント値MfOnCntをゼロとし、またマニュアルフォーカス実行フラグFmfonをゼロとする。なお、カウント値MfOnCntは、マニュアルフォーカス判定期間Tmfonを越えたか否かを判定するためのカウント値である。
フォーカス終了フラグFmfend=(前回マニュアルフォーカス実行フラグFmfon_1)−(マニュアルフォーカス実行フラグFmfon)
とする。前回マニュアルフォーカス実行フラグFmfon_1は、前回のステップF507の時点でのマニュアルフォーカス実行フラグFmfonの値である。従ってフォーカス終了フラグFmfendは、図29に示した「0」「+1」「−1」のいずれかとなる。
また次回のステップF507において前回マニュアルフォーカス実行フラグFmfon_1として用いるため、今回のマニュアルフォーカス実行フラグFmfonの値を前回マニュアルフォーカス実行フラグFmfon_1に代入する。
そしてステップF508でフォーカス終了フラグFmfendの値を判定実行フラグFdonに代入する。従ってマニュアルフォーカス操作が行われる前の時点では、判定実行フラグFdon=0となる。
そしてステップF503で制御部30は、カウント値MfOnCntとマニュアルフォーカス判定期間Tmfonを比較する。カウント値MfOnCntがマニュアルフォーカス判定期間Tmfonに達していなければ、ステップF505でマニュアルフォーカス実行フラグFmfonをゼロとする。そしてステップF507でフォーカス終了フラグFmfendを設定し、ステップF508で判定実行フラグFdonに代入する。判定実行フラグFdon=0となる。
そしてステップF507でフォーカス終了フラグFmfendを設定し、ステップF508で判定実行フラグFdonに代入する。判定実行フラグFdonはマニュアルフォーカス実行フラグFmfon=1とされた時点では「−1」となり、その後、マニュアルフォーカス実行フラグF mfon=1が継続されているときは「0」となる。
この場合ステップF507でフォーカス終了フラグFmfend=1とされ、ステップF508で判定実行フラグFdon=1となる。
これにより、後述の図31において実質的な主要被写体判定(ステップF605〜F610)が行われることになる。
なお、その後、マニュアルフォーカス実行フラグFmfon=0が継続するため、次の時点のステップF507でフォーカス終了フラグFmfend=0とされ、ステップF508で判定実行フラグFdon=0となる。
この例は、主要被写体判定に関して制御部30は候補検出部27からの候補画像枠情報の取り込みは継続して行っていることは図8と同様としている。そして上述の判定実行フラグFdon=1となることに応じて、合焦度判定部28による合焦度の情報を用いて実質的な判定処理(ステップF605〜F611)を開始する処理例としている。
制御部30は例えば1フレームタイミング毎にステップF601〜F604及びF612(判定実行フラグFdon=1の期間はステップF601〜F612)の処理を行う。
ステップF601、F602、F603は図8のステップF101、F102、F103と同様、或るフレームについての候補画像枠情報を取り込み、各候補画像枠E(n)について、重心Gの座標を算出し、さらに各候補画像枠E(n)の重心Gから判定基準点SPまでの距離Diff(n)を算出する。
ステップF604で制御部30は、判定実行フラグFdon及び変数TSFを確認する。変数TSF=0であって、かつ判定実行フラグFdon=1であればステップF605に進む。これ以外の場合は実質的な判定処理(F605〜F611)を行わずにステップF612→F601と処理を進める。
上述のように合焦度判定部28では、各ブロックBK毎の合焦度の値を算出している。合焦度が求められた各ブロックBKとしての領域と、候補画像枠E(n)の領域は一致しているわけではない。そこで、各候補画像枠E(n)が、どこのブロックBKに対応しているか、さらには、各候補画像枠E(n)の合焦度は、どのブロックBKを用いて求めるかを選択することとなる。
図32で説明する。図32Aは、各候補画像枠E1,E2,E3と、ブロックBKの関係を示している。
今、現在のフレームでは、候補画像枠E1は、図32BのようにブロックBK8,BK9,BK15,BK16にまたがって存在しているとする。同様に図32Cのように候補画像枠E2はブロックBK11,BK12,BK18,BK19に存在し、図32Dのように候補画像枠E3はブロックBK6,BK7,BK13,BK14に存在しているとする。図32B,図32C,図32Dには、各ブロックBK内の数値として、そのブロックBKの合焦度の値を示している。
図32Bの候補画像枠E1について説明すれば、まず候補画像枠E1が含まれるブロックBK8,BK9,BK15,BK16を選択する。そしてその中で、候補画像枠E1の面積占有率が最も高いブロックBK(この例ではブロックBK8)を合焦度判定ブロックとするものである。なお、各ブロックBKは固定的に画像を分割したものであるため、各ブロックBKの範囲は制御部30にとって既知である。また各候補画像枠E(n)については、候補画像枠情報として、二次元(x−y)座標値としてのx値、y値、候補画像枠の幅w、高さhの情報が候補検出部27から供給される。従って制御部30は、各候補画像枠E(n)について面積占有率が最も高いブロックBKを判定できる。
ステップF607で制御部30は、各候補画像枠E(n)についてステップF603で算出した、各候補画像枠E(n)の重心Gから判定基準点SPまでの距離Diff(n)が、判定基準距離DiffMINより小さいか否かを判定する。つまり、各候補画像枠E(n)が例えば画面中央点などと設定された判定基準点SPに近いものであるか否かを判定する。
一方、ステップF606で判断した合焦条件、又はステップF607で判断した位置条件が共のいずれか一方でも満たされなかった候補画像枠E(n)については、ステップF608の処理を行わず、つまり主要被写体とは判定しないこととなる。
例えば図32Bの候補画像枠E1は、合焦度判定ブロックBK8の合焦度が「90」であって合焦していると判定されるが、距離Diff(n)が判定基準距離DiffMINより長いとして主要被写体と判定されない。
図32Cの候補画像枠E2は、合焦度判定ブロックBK12の合焦度が「95」であって合焦していると判定され、さらに距離Diff(n)が判定基準距離DiffMINより短いとして主要被写体と判定される。
図32Dの候補画像枠E3は、合焦度判定ブロックBK7の合焦度が「30」であって合焦していないと判定されることで、主要被写体と判定されない。
まずステップF605について、候補画像枠E(n)について占有率で1つの合焦度判定ブロックを選択したが、他の選択手法もある。
例えば候補画像枠E(n)の重心又は中心が位置するブロックを合焦度判定ブロックとしてもよい。
候補画像枠の抽出条件によるが、候補画像の中の特定部分が位置するブロックを合焦度判定ブロックとしてもよい。例えば候補画像として身体画像を抽出する場合に、顔画像が位置するブロックとするなどである。
また候補画像枠E(n)を含む複数ブロックBKのうちで、最も合焦度の値の高いブロック(又は最も合焦度の低いブロック)を合焦度判定ブロックとしてもよい。
また候補画像枠E(n)を含む複数ブロックBKのうちで、最も判定基準点SPに近いブロック(又は最も遠いブロック)など、位置条件で合焦度判定ブロックを選択してもよい。
この場合、1つのブロックを合焦度判定ブロックとするための占有率の演算等は不要となり演算負荷が軽くできる。
即ちステップF606で合焦していると判定された候補画像枠E(n)は、すべて主要被写体と判定してもよい。
或いは、ステップF606で合焦していると判定された候補画像枠E(n)が複数ある場合は、そのうちで最も合焦度の高い1つの候補画像枠E(n)を主要被写体と判定してもよい。
また合焦条件の判定は、複数フレームでの合焦度の値を用いて行ってもよい。例えば合焦度判定ブロックについて連続する複数フレームでの合焦度の値の平均値、又は最大値、又は最小値を計算し、その値が例えば「80」以上であれば合焦していると判定するなどである。
さらには、画像上の縁部ではない候補画像枠E(n)、特定のブロック範囲の候補画像枠E(n)などとして位置条件を設定しても良い。
28や制御部30の処理負荷の軽減にもなる。
上記例ではブロックBK1〜BK(M)として説明したが、分割数は4分割、6分割、8分割、9分割・・・30分割、40分割など多様に考えられる。
ブロック数が多いほど、合焦度算出や合焦度判定ブロックの選択などの処理負担は増えるが、ズーム状態や被写体が小さいことなどによって候補画像が小さい場合でも確度の高い主要被写体判定ができる。逆にブロック数が少ないほど処理負担は軽くなる。
以上、画像処理装置1、撮像装置10の実施の形態を説明してきたが、上述した主要被写体判定処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
即ちこのプログラムは、撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する処理と、判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する処理とを演算処理装置に実行させるプログラムである。
具体的には、実施の形態のプログラムは、図2や第1〜第9の処理例として説明した処理を演算処理装置に実行させるプログラムとすればよい。
このようなプログラムにより、上述した主要被写体判定を実行する装置を、演算処理装置を用いて実現できる。
あるいはまた、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
例えば、図33に示されるようなコンピュータ装置において、図1の画像処理装置1や撮像装置10における主要被写体判定処理と同様の処理が実行されるようにすることもできる。
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インターフェース75も接続されている。
この記録媒体は、例えば図33に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(ブルーレイディスク、CD−ROM、DVDを含む)、光磁気ディスク(MD(Mini
Disc)を含む)、若しくは半導体メモリなどよりなるリムーバブルメディア81により構成される。或いは、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM72や、記憶部78に含まれるハードディスクなどでも構成される。
なお、この場合、過去になされた撮像時のカメラワークを判定する必要がある。CPU71は、フレーム画像データの解析で、パン、ズーム、フォーカス(合焦位置の変化)を検出することができる。例えばフレーム相互間の画像の動き、サイズ、合焦状態変化から、入力データにおいて撮像時にパン、ズーム、マニュアルフォーカスされていた期間を判定することが可能である。
或いはまた、撮像時に各フレーム画像データに対応するメタデータとして、カメラワークの情報が付加されていれば、CPU71はそのメタデータを参照してカメラワークを判定できることとなる。
上述の実施の形態は、各種の変形例が考えられる。
画像処理装置1、撮像装置10、コンピュータ装置70としての各例において、全ての場合に、チルト動作を判定することも当然に考えられる。チルト動作の判定(チルト動作中判定やチルト後判定)については、上述のパン動作判定と全く同様に行うことができる。ジャイロセンサ等による角速度検出を、チルト方向に対応したものとすればよいものである。従ってカメラワーク判定処理として、チルト動作、チルト後、チルト後ズーム動作、チルト後ズーム後、ズーム後チルト動作、ズーム後チルト後、チルト後パン動作、チルト後パン後、パン後チルト動作、パン後チルト後なども判定でき、それらの場合に主要被写体判定が行われるようにすることもできる。
例えばズーム後のマニュアルフォーカスを判定して、そのマニュアルフォーカス後に合焦条件を用いて主要被写体判定を行うなどである。
例えば候補画像のサイズが所定ピクセル以上などとするサイズ条件、被写体距離(撮像装置10と被写体の相対距離)が所定範囲内などの距離条件などを単独もしくは複合的に用いて主要被写体判定を行ってもよい。
また画像サイズや被写体距離の時間的な変化により判定しても良い。
また候補画像の属性を主要被写体判定条件として用いても良い。例えば被写体画像について、子供、大人、男性、女性、人、犬、猫などの属性を判定する。例えば子供であることを主要被写体の条件とするなどである。またこのような属性条件をユーザが撮像目的に応じて選択できるようにするとよい。
このような再生画像を対象とする主要被写体判定処理は、図1の画像処理装置、図32の情報処理装置などにおいても当然に想定される。
また、スルー画を表示させ、同時に主要被写体判定処理を行っている間に、撮像者の操作による主要被写体指定操作を可能としてもよい。
(1)撮像時のカメラワークを判定し、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定するカメラワーク判定部と、
上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する主要被写体判定部と、を備えた画像処理装置。
(2)上記主要被写体判定部は、上記判定開始タイミングからの複数のフレームの画像データにおける被写体位置状態を観測し、特定の位置条件に合致した被写体のうちで主要被写体を判定する上記(1)に記載の画像処理装置。
(3)上記特定の位置条件は、画像上での所定の位置状態を満たす状況が、複数フレームにおいて平均的、累積的、もしくは継続的に得られることである上記(2)に記載の画像処理装置。
(4)上記主要被写体判定部は、上記判定開始タイミングからの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する上記(1)に記載の画像処理装置。
(5)上記特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である上記(4)に記載の画像処理装置。
(6)上記主要被写体判定部は、上記特定の合焦条件に合致する被写体のうちであって、さらに特定の位置条件に合致した被写体のうちで主要被写体を判定する上記(4)又は(5)に記載の画像処理装置。
(7)上記カメラワーク判定部は、撮像装置のパン又チルト動作を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(8)上記カメラワーク判定部は、撮像装置のパン又チルト動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(9)上記カメラワーク判定部は、撮像装置のズーム動作を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(10)上記カメラワーク判定部は、撮像装置のズーム動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(11)上記カメラワーク判定部は、撮像装置のパン動作からズーム動作への遷移を検出することに応じて、もしくは該ズーム動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(12)上記カメラワーク判定部は、撮像装置のズーム動作からパン動作への遷移を検出することに応じて、もしくは該パン動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)乃至(3)のいずれかに記載の画像処理装置。
(13)上記カメラワーク判定部は、撮像装置のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する上記(1)又は(4)又は(5)又は(6)に記載の画像処理装置。
Claims (15)
- 撮像時のカメラワークを判定し、該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定するカメラワーク判定部と、
上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する主要被写体判定部と、を備えた
画像処理装置。 - 上記主要被写体判定部は、上記判定開始タイミングからの複数のフレームの画像データにおける被写体位置状態を観測し、特定の位置条件に合致した被写体のうちで主要被写体を判定する
請求項1に記載の画像処理装置。 - 上記特定の位置条件は、画像上での所定の位置状態を満たす状況が、複数フレームにおいて平均的、累積的、もしくは継続的に得られることである
請求項2に記載の画像処理装置。 - 上記主要被写体判定部は、上記判定開始タイミングからの画像データにおける被写体の合焦状態を観測し、特定の合焦条件に合致した被写体のうちで主要被写体を判定する
請求項1に記載の画像処理装置。 - 上記特定の合焦条件に合致する被写体とは、画像データの分割領域毎に計測した合焦度データが所定値以上となっている分割領域に位置する被写体である
請求項4に記載の画像処理装置。 - 上記主要被写体判定部は、上記特定の合焦条件に合致する被写体のうちであって、さらに特定の位置条件に合致した被写体のうちで主要被写体を判定する
請求項4に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のパン又チルト動作を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のパン又チルト動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のズーム動作を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のズーム動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のパン動作からズーム動作への遷移を検出することに応じて、もしくは該ズーム動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のズーム動作からパン動作への遷移を検出することに応じて、もしくは該パン動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 上記カメラワーク判定部は、撮像装置のマニュアルフォーカス動作の終了を検出することに応じて判定開始タイミングを設定する
請求項1に記載の画像処理装置。 - 撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定し、
上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する
画像処理方法。 - 撮像時のカメラワークを判定して該判定に基づいて画像データに対する主要被写体の判定開始タイミングを設定する処理と、
上記判定開始タイミングからの画像データから、該画像データに含まれる被写体のうちで主要被写体を判定する処理と、
を演算処理装置に実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001799 | 2013-01-09 | ||
JP2013001799 | 2013-01-09 | ||
PCT/JP2013/080605 WO2014109124A1 (ja) | 2013-01-09 | 2013-11-12 | 画像処理装置、画像処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014109124A1 true JPWO2014109124A1 (ja) | 2017-01-19 |
JP6337779B2 JP6337779B2 (ja) | 2018-06-06 |
Family
ID=51166789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014556330A Active JP6337779B2 (ja) | 2013-01-09 | 2013-11-12 | 画像処理装置、画像処理方法、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9942460B2 (ja) |
EP (1) | EP2945365B1 (ja) |
JP (1) | JP6337779B2 (ja) |
CN (1) | CN104956659B (ja) |
WO (1) | WO2014109124A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017116840A (ja) * | 2015-12-25 | 2017-06-29 | オリンパス株式会社 | 撮像装置 |
US11032523B2 (en) * | 2016-11-30 | 2021-06-08 | Ncr Corporation | Automated image metadata processing |
CN109561249A (zh) * | 2017-09-26 | 2019-04-02 | 北京小米移动软件有限公司 | 调整焦距的方法及装置 |
CN110225235B (zh) * | 2018-03-01 | 2021-03-09 | 浙江宇视科技有限公司 | 变倍跟随方法及电动镜头 |
US20190379819A1 (en) * | 2018-06-12 | 2019-12-12 | Sony Corporation | Detection of main object for camera auto focus |
CN110505401A (zh) * | 2019-08-16 | 2019-11-26 | 维沃移动通信有限公司 | 一种摄像头控制方法及电子设备 |
WO2023058328A1 (ja) * | 2021-10-04 | 2023-04-13 | ソニーグループ株式会社 | 撮像装置、制御方法、プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008028758A (ja) * | 2006-07-21 | 2008-02-07 | Canon Inc | 撮像装置、その制御方法およびコンピュータプログラム |
JP2008205650A (ja) * | 2007-02-16 | 2008-09-04 | Sony Corp | 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム |
JP2010191073A (ja) * | 2009-02-17 | 2010-09-02 | Canon Inc | 焦点調節装置及び焦点調節方法 |
JP2011223174A (ja) * | 2010-04-06 | 2011-11-04 | Canon Inc | 撮像装置及びその制御方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3302104B2 (ja) * | 1993-06-30 | 2002-07-15 | キヤノン株式会社 | 撮像装置 |
US6081668A (en) * | 1997-10-31 | 2000-06-27 | Canon Kabushiki Kaisha | Camera |
JP4655054B2 (ja) * | 2007-02-26 | 2011-03-23 | 富士フイルム株式会社 | 撮像装置 |
JP5380784B2 (ja) * | 2007-04-12 | 2014-01-08 | ソニー株式会社 | オートフォーカス装置、撮像装置及びオートフォーカス方法 |
US20080278589A1 (en) * | 2007-05-11 | 2008-11-13 | Karl Ola Thorn | Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products |
JP5157256B2 (ja) * | 2007-05-28 | 2013-03-06 | 株式会社ニコン | 画像追尾装置および撮像装置 |
JP5088118B2 (ja) * | 2007-12-07 | 2012-12-05 | 株式会社ニコン | 焦点調節装置 |
JP5517435B2 (ja) | 2008-10-22 | 2014-06-11 | キヤノン株式会社 | 自動合焦装置および自動合焦方法、ならびに、撮像装置 |
JP5339954B2 (ja) | 2009-02-17 | 2013-11-13 | キヤノン株式会社 | 焦点調節装置及び焦点調節方法 |
JP5446546B2 (ja) * | 2009-07-28 | 2014-03-19 | ソニー株式会社 | 撮像制御装置、撮像制御方法、プログラム、撮像システム |
US8611584B2 (en) * | 2009-08-17 | 2013-12-17 | Avago Technologies General Ip (Singapore) Pte. Ltd. | System and method for performing optical navigation using portions of captured frames of image data |
JP2011146826A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011146827A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011160379A (ja) | 2010-02-04 | 2011-08-18 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011166305A (ja) | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置および撮像装置 |
JP5589527B2 (ja) * | 2010-04-23 | 2014-09-17 | 株式会社リコー | 撮像装置および追尾被写体検出方法 |
AU2010201740B2 (en) * | 2010-04-30 | 2013-03-07 | Canon Kabushiki Kaisha | Method, apparatus and system for performing a zoom operation |
JP5246275B2 (ja) * | 2011-01-25 | 2013-07-24 | 株式会社ニコン | 撮像装置およびプログラム |
JP5932226B2 (ja) * | 2011-02-24 | 2016-06-08 | キヤノン株式会社 | 撮像装置 |
JP5455961B2 (ja) * | 2011-04-04 | 2014-03-26 | キヤノン株式会社 | 撮像装置およびその制御方法 |
-
2013
- 2013-11-12 CN CN201380069160.5A patent/CN104956659B/zh active Active
- 2013-11-12 WO PCT/JP2013/080605 patent/WO2014109124A1/ja active Application Filing
- 2013-11-12 US US14/655,626 patent/US9942460B2/en active Active
- 2013-11-12 EP EP13870437.4A patent/EP2945365B1/en active Active
- 2013-11-12 JP JP2014556330A patent/JP6337779B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008028758A (ja) * | 2006-07-21 | 2008-02-07 | Canon Inc | 撮像装置、その制御方法およびコンピュータプログラム |
JP2008205650A (ja) * | 2007-02-16 | 2008-09-04 | Sony Corp | 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム |
JP2010191073A (ja) * | 2009-02-17 | 2010-09-02 | Canon Inc | 焦点調節装置及び焦点調節方法 |
JP2011223174A (ja) * | 2010-04-06 | 2011-11-04 | Canon Inc | 撮像装置及びその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US9942460B2 (en) | 2018-04-10 |
US20150350524A1 (en) | 2015-12-03 |
EP2945365B1 (en) | 2021-06-16 |
EP2945365A1 (en) | 2015-11-18 |
EP2945365A4 (en) | 2016-07-06 |
WO2014109124A1 (ja) | 2014-07-17 |
JP6337779B2 (ja) | 2018-06-06 |
CN104956659A (zh) | 2015-09-30 |
CN104956659B (zh) | 2018-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6337779B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
WO2013153919A1 (ja) | 画像処理装置、画像処理方法、プログラム | |
US11012614B2 (en) | Image processing device, image processing method, and program | |
EP3329666B1 (en) | Method and electronic device for stabilizing video | |
KR102008040B1 (ko) | 화상 처리 장치, 화상 처리 방법, 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체 | |
JP5987306B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP6131948B2 (ja) | 表示制御装置、表示制御方法、プログラム | |
JP6094359B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2007166269A (ja) | 画像処理装置、撮像装置および画像処理方法 | |
JPWO2017037978A1 (ja) | 検出装置、検出方法、検出プログラムおよび撮像装置 | |
JP6274272B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2017098635A (ja) | 撮影装置、画像評価方法及びプログラム | |
JP2010263548A (ja) | 撮像装置、その制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180423 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6337779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |