JP2017225084A - 撮像素子、電子機器、撮像方法、およびプログラム - Google Patents
撮像素子、電子機器、撮像方法、およびプログラム Download PDFInfo
- Publication number
- JP2017225084A JP2017225084A JP2016120933A JP2016120933A JP2017225084A JP 2017225084 A JP2017225084 A JP 2017225084A JP 2016120933 A JP2016120933 A JP 2016120933A JP 2016120933 A JP2016120933 A JP 2016120933A JP 2017225084 A JP2017225084 A JP 2017225084A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- area
- subject
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 495
- 238000012545 processing Methods 0.000 claims description 210
- 238000000034 method Methods 0.000 claims description 166
- 230000008569 process Effects 0.000 claims description 145
- 238000001514 detection method Methods 0.000 claims description 122
- 230000033001 locomotion Effects 0.000 claims description 103
- 238000000605 extraction Methods 0.000 claims description 58
- 239000000284 extract Substances 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 description 135
- 238000012986 modification Methods 0.000 description 110
- 230000004048 modification Effects 0.000 description 110
- 238000006243 chemical reaction Methods 0.000 description 58
- 239000013598 vector Substances 0.000 description 54
- 230000035945 sensitivity Effects 0.000 description 42
- 238000010586 diagram Methods 0.000 description 38
- 230000000875 corresponding effect Effects 0.000 description 37
- 238000012217 deletion Methods 0.000 description 35
- 230000037430 deletion Effects 0.000 description 35
- 230000008859 change Effects 0.000 description 28
- 238000004364 calculation method Methods 0.000 description 25
- 230000015654 memory Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 14
- 230000000694 effects Effects 0.000 description 13
- 230000007423 decrease Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 238000009825 accumulation Methods 0.000 description 11
- 235000013399 edible fruits Nutrition 0.000 description 11
- 238000012546 transfer Methods 0.000 description 11
- 229920006395 saturated elastomer Polymers 0.000 description 9
- 238000012937 correction Methods 0.000 description 8
- 239000004065 semiconductor Substances 0.000 description 8
- 238000012935 Averaging Methods 0.000 description 7
- 241001465754 Metazoa Species 0.000 description 6
- 230000009467 reduction Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000005375 photometry Methods 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000002161 passivation Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 150000004767 nitrides Chemical class 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明の第2の態様による電子機器は、第1の態様による撮像素子と、前記表示部とを備える。
本発明の第3の態様による撮像方法は、面上に複数の画素が配置され、被写体を撮像する撮像素子の撮像方法であって、前記複数の画素のうち、第1露光時間で撮像し第1画像信号を生成し、前記複数の画素のうち、前記第1露光時間より長い第2露光時間で撮像し前記被写体に関する情報が抽出される第2画像信号を生成する。
本発明の第4の態様によるプログラムは、面上に複数の画素が配置され、被写体を撮像する撮像素子を制御するコンピュータに実行させるプログラムであって、前記複数の画素のうち、第1露光時間で撮像し第1画像信号を生成させる処理と、
前記複数の画素のうち、前記第1露光時間より長い第2露光時間で撮像し前記被写体に関する情報が抽出される第2画像信号を生成させる処理とをコンピュータに実行させる。
本発明の第5の態様による撮像素子は、面上に複数の画素が配置され、被写体を撮像する撮像素子であって、前記複数の画素のうち、撮像を行い、第1画像信号を生成する第1画素領域と、前記複数の画素のうち、前記第1画像信号に基づく画像によって検出された前記被写体に対して設定された露光時間で撮像を行い、前記被写体に関する情報が抽出される第2画像信号を生成する第2領域とを備える。
本発明の第6の態様による電子機器は、第5の態様による撮像素子と、他の電子機器と通信を行う通信部と、前記第2画像信号と前記第1画像信号とを前記通信部を介して前記他の電子機器に送信する制御部とをさらに備える。
本発明の第7の態様による撮像方法は、面上に複数の画素が配置され、被写体を撮像する撮像方法であって、前記複数の画素のうち、撮像を行い、第1画像信号を生成し、前記複数の画素のうち、前記第1画像信号に基づく画像によって検出された前記被写体に対して設定された露光時間で撮像を行い、前記被写体に関する情報が抽出される第2画像信号を生成する。
本発明の第8の態様によるプログラムは、面上に複数の画素が配置され、被写体を撮像する撮像素子を制御するコンピュータに実行させるプログラムであって、前記複数の画素のうち、撮像を行い、第1画像信号を生成させる処理と、前記複数の画素のうち、前記第1画像信号に基づく画像によって検出された前記被写体に対して設定された露光時間で撮像を行い、前記被写体に関する情報が抽出される第2画像信号を生成させる処理とをコンピュータに実行させる。
第1の実施の形態による撮像素子、およびこの撮像素子を搭載する電子機器について説明する。図1のデジタルカメラ1(以降、カメラ1と称する)は、電子機器の一例である。カメラ1には、イメージセンサの一例として撮像素子32aが搭載される。撮像素子32aは、撮像面の領域ごとに異なる条件で撮像を行うことが可能に構成される。カメラ1の画像処理部33は、撮像条件が異なる領域に対して、それぞれ適切な処理を行う。このようなカメラ1の詳細について、図面を参照して説明する。
図1は、カメラ1の構成を例示するブロック図である。図1において、カメラ1は、撮像光学系31と、撮像部32と、画像処理部33と、制御部34と、表示部35と、操作部材36と、記録部37と、送受信部38とを有する。
なお、タッチパネル36Aに代えて、撮像素子32aとは別に設けられた小型カメラモジュールによって、ユーザの指等の位置を検出する装置であってもよい。このような小型カメラモジュールによって、ユーザの指等の位置を検出し、表示面に対する指の接触を検出してもよい。もちろん、小型カメラモジュールによって、上記したようなユーザによる非接触の操作を検出してもよい。小型カメラモジュールは、例えば、カメラ筐体内に配置され、表示部35の表示面付近に配置されており、撮像素子32aが撮像する方向とは反対側を撮像する。
なお、カメラ1と外部機器との間の通信は、ケーブルを介した有線通信でも電波等による無線通信でもよい。
電子機器に搭載される撮像素子32aの一例として、積層型の撮像素子100について説明する。図2は、撮像素子100の断面図である。撮像素子100は、撮像チップ111と、信号処理チップ112と、メモリチップ113とを備える。撮像チップ111は、信号処理チップ112に積層されている。信号処理チップ112は、メモリチップ113に積層されている。撮像チップ111および信号処理チップ112、信号処理チップ112およびメモリチップ113は、それぞれ接続部109により電気的に接続されている。接続部109は、例えばバンプや電極である。撮像チップ111は、被写体からの光像を撮像して画像データを生成する。撮像チップ111は、画像データを撮像チップ111から信号処理チップ112へ出力する。信号処理チップ112は、撮像チップ111から出力された画像データに対して信号処理を施す。メモリチップ113は、複数のメモリを有し、画像データを記憶する。なお、撮像素子100は、撮像チップおよび信号処理チップで構成されてもよい。撮像素子100が撮像チップおよび信号処理チップで構成されている場合、画像データを記憶するための記憶部は、信号処理チップに設けられてもよいし、撮像素子100とは別に設けていてもよい。
また、演算回路415は、後段の制御部、画像処理部等の機能を含めた構成としてもよい。
本実施の形態では、撮像素子32aにおける複数のブロックごとに撮像条件を設定可能に構成される。制御部34(撮像制御部34c)は、上記複数の領域を上記ブロックに対応させて、ブロックごとに設定された撮像条件で撮像を行わせる。
ブロックを構成する画素の数はいくらでもよく、例えば1000画素でもよいし、1画素でもよい。
なお、第1画像を表示用以外の用途として、例えば焦点検出等に用いてもよい。また、第1画像をライブビュー画像として表示部35に表示させる代わりに、カメラ1の外部にあるモニタに、カメラ1から第1画像を送信し、外部のモニタに第1画像を表示させてもよい。このようにすることで、外部のモニタでカメラ1で撮像された画像がリアルタイムで表示されるようになる。
図7は、カメラ1による撮像画面における被写体領域を例示する図である。図7において、被写体領域には、人物61と、自動車62と、バッグ63と、山64と、雲65、雲66とが含まれている。人物61は、バッグ63を両手で抱えている。人物61の右後方に、自動車62が止まっている。第1領域B1と第2領域B2とを例えば、図6(a)、図6(b)または図6(c)のように定めると、第1領域B1による第1画像は、図7に示したようなライブビュー表示用の画像となり、第2領域B2による第2画像も、図7に示したような検出用の画像となる。
そこで、本実施の形態では、撮像素子32aの第2領域B2に対し、検出用の第2画像を取得するための第2撮像条件を適切に設定することにより、領域抽出処理、焦点検出処理、および露出演算処理を適切に行うことを可能にする。本実施の形態では、第2撮像条件を以下のように設定する。
被写体とみられる領域の抽出を正確に行うことができると、被写体ごとに分割した被写体領域に対する撮像条件の変更を適切に行うことが可能になる。
ただし、第2画像を撮像する方法として、第2露光時間を長くする代わりに第2画像用のゲインを増幅し、明るい画像を撮像する方法であってもよい。
第2露光時間を長くすることで、撮像部32の発熱による熱雑音(暗電流に起因する)が大きくなるとも考えられる。しかしながら、第2露光時間を長くしても撮像部32による熱の発生を抑える制御を行うとともに、発生した熱を効率よく逃がして温度上昇を抑えることによって熱雑音を抑制することができる。例えば、ヒートシンクを用いて撮像部32の熱を放熱する。これにより、第2露光時間を長くした場合に生じるノイズを、第2画像用のゲインを増幅させた場合の増幅後のノイズよりも小さくすることができる。このように、ライブビュー表示用の第1画像の第1露光時間に比べて長い第2露光時間を設定することで、ノイズが発生しづらい第2画像を得ることができる。
図9は、領域を抽出する処理の流れを説明するフローチャートである。例えば、カメラ1のメインスイッチがオン操作されると、制御部34は、図9に示す処理を実行するプログラムを起動させる。ステップS1において、制御部34は、撮像素子32aに第1領域B1および第2領域B2(例えば図6(a))をセットしてステップS3へ進む。上述したように、第1領域B1は、ライブビュー表示用の第1画像を撮像する領域である。第2領域B2は、検出用の第2画像を撮像する領域である。
設定部34bは、領域抽出部34aによって抽出された被写体に基づいて、撮像部32で取得された画像を分割する。図7の例では、例えば人物61の領域と、自動車62の領域と、バッグ63の領域と、山64の領域と、雲65の領域と、雲66の領域と、その他の領域とに分割される。制御部34は、領域抽出部34aによって領域抽出処理が行われ、設定部34bによって画像(例えば第1画像)が自動で分割されると、図10に例示するような設定画面を表示部35に表示させる。図10において、第1画像に基づくライブビュー画像60aが表示部35に表示され、ライブビュー画像60aの右側に撮像条件の設定画面70が表示される。
以降の説明では、タッチ操作を前提としてカメラ1の説明を行うが、操作部材36を構成するボタン等の操作により、撮像条件の設定(変更)を行うようにしてもよい。
また、タッチパネル36Aは、非接触操作を検出して撮像条件の設定(変更)を行うようにしてもよい。制御部34は、例えば、ユーザの視線位置を検出し、ユーザが注視している領域を検出する。視線検出には、例えば赤外光をユーザの角膜で反射させて視線方向を検出する角膜反射法や、ユーザの眼球の映像をカメラで撮像して画像処理により視線を検出する画像解析法などがあり、いずれの視線検出方法を用いてもよい。なお、タッチパネル36Aに代えて、先に説明した、小型カメラモジュールを用いて、非接触操作を検出してもよい。この場合、小型カメラモジュールでユーザの指の位置を検出し、ユーザの指の位置が表示部35の表示面上のどこに位置するか決定する。制御部34は、ユーザの指先の延長上に位置する表示部35の表示面上の位置にある被写体を操作しているみなし、その被写体の撮像条件の設定を行う。
強調表示されていない領域(人物61以外の他の領域)については、設定されている撮像条件が維持される。
なお、レリーズボタン36Bまたはレリーズアイコン74が操作された場合に、撮像面の画素領域の全画素を用いて撮像を行わせる本撮像以外の撮像を行ってもよい。本撮像以外の撮像として、例えば撮像素子32aの第1領域B1のみで撮像を行ったり、撮像素子32aの第2領域B2のみで撮像を行ったりしてよい。
検出用の第2画像については、記録部37によって記録媒体に記録してもよい。静止画を撮像する場合には、本撮像した画像に対して、検出用に撮像した第2画像(例えば、本撮像の前に撮像した複数枚の第2画像)の全てを関連づけて記録してもよいし、本撮像を行った画像の前に撮像した第2画像のみを関連づけて記録してもよい。
なお、第2画像をそのまま記録すると、記録媒体の使用容量が大きくなる場合があるため、第2画像そのものではなく、主要な被写体とみられる領域を示す情報のみを本撮像した画像に関連づけて記録してもよい。例えば、図7における人物61の位置を示す座標と、自動車62の位置を示す座標を、本撮像した画像に関連付けて記録する。
動画像を撮像する場合も同様に、動画像に関連付けて第2画像、または第2画像における主要な被写体の位置を示す情報を記録してもよい。
図11は、領域ごとに撮像条件を設定して撮像するカメラ1の処理の流れを説明するフローチャートである。カメラ1のメインスイッチがオン操作されると、制御部34は、図11に示す処理を実行するプログラムを起動させる。ステップS310において、制御部34は、撮像素子32aに第1領域B1および第2領域B2(例えば図6(a))をセットしてステップS320へ進む。上述したように、第1領域B1はライブビュー表示用の第1画像を撮像する領域であり、第2領域B2は検出用の第2画像を撮像する領域である。
なお、領域の抽出は、図9による処理に代えて、後述する第1の実施の形態の変形例1〜変形例11のいずれかの処理を行ってもよい。
なお、制御部34は、ユーザの指で表示画面上の他の被写体の表示位置がタッチ操作された場合は、その被写体を含む領域を撮像条件の設定(変更)の対象となる領域に変更して強調表示させる。
制御部34は、変更処理を終了するとステップS340へ戻り、変更処理後の領域を表示部35に表示させる。
(1)カメラ1の撮像素子32aは、撮像面上の画素領域に複数の画素が配置されており、被写体を撮像する。撮像素子32aは、複数の画素のうち、第1露光時間で撮像し、第1画像信号を生成する第1領域B1と、第1露光時間より長い第2露光時間で撮像し、検出用の第2画像信号を生成する第2領域B2とを有する。これにより、第1画像が暗く撮像されるとしても、第1画像の第1露光時間よりも長い第2露光時間で第2画像を取得することにより、第1画像より明るい第2画像に基づいて情報、例えば、被写体とみられる領域を抽出することができる。
撮像素子32aの第2領域B2に設定する第2露光時間を、以下に説明する内容に基づいて設定してもよい。以下に、撮像された画像内に発生するブレに基づく第2露光時間の設定について説明する。
<ブレに基づく露光時間設定>
カメラ1の制御部34は、撮像部32によって撮像された画面上の被写体の動きに関する情報を取得する。被写体の動きは、被写体に動きがある場合や、手持ちされたカメラ1が揺動していることによって被写体が相対的に動いて見える場合を含む。
制御部34は、取得した動きベクトルの大きさが所定の閾値よりも小さい場合、図6(a)の撮像素子32aの第2領域B2で検出用の第2画像を得るための第2露光時間を、より長い第2A露光時間にする。これは、被写体の動きが小さいため、より長い第2A露光時間を設定したとしても、ブレによって被写体の検出がしづらくならないからである。
制御部34は、このように撮像素子32aの第2領域B2に検出用の第2画像を得るための第2A露光時間を設定すると、第2領域B2で第2画像の撮像を開始させる。
制御部34は、例えば、撮像素子32aの第1領域B1でライブビュー表示用として第1画像を露光時間10msecで撮像し、この第1画像に基づいて環境の明るさを取得する。制御部34は、環境の明るさに基づいて、検出用の第2画像を得るための第2A露光時間として20msecから50msecの範囲内が適していると判断したとする。次に、制御部34は、上記第1画像に基づいて動きベクトルを取得する。制御部34は、取得した動きベクトルに基づき、すなわちブレに基づき、検出用の第2画像を得るための第2A露光時間として25msec以下であることが適していると判断したとする。設定例1の場合、制御部34は、明るさとブレとに基づき、検出用の第2画像を得るための第2A露光時間を25msecに設定する。
制御部34は、設定例1の場合と同様に、環境の明るさに基づいて検出用の第2画像を得るための第2A露光時間として20msecから50msecの範囲内が適していると判断したとする。次に、制御部34は、ブレに基づいて検出用の第2画像を得るための第2A露光時間として15msec以下であることが適していると判断したとする。設定例2の場合、制御部34は、明るさおよびブレに基づき、検出用の第2画像を得るための第2A露光時間を15msecに設定するとともに、不足する明るさを補うために、第2画像用のゲインを増幅させる(例えばISO感度を上げる)。
制御部34は、取得した動きベクトルの大きさが所定の閾値よりも大きい場合には、動きベクトルの時間変化を検出し、動きベクトルが動く範囲を検出する。制御部34は、動きベクトルの動く範囲が広い場合と狭い場合とで、以下のように異なる処理を行う。
制御部34は、動きベクトルが動く範囲が狭い、例えば動きベクトルが所定範囲内を移動している場合は、動きが大きい場合(早い動き)であったとしても第2露光時間を短くする必要がないという考え方に基づき、検出用の第2画像を得るための第2露光時間を、より長い第2A露光時間にする。これは、被写体が動く範囲が限られているため、より長い第2A露光時間を設定したとしても、ブレによって被写体の検出がしづらくならないからである。
制御部34は、このように撮像素子32aの第2領域B2に検出用の第2画像を得るための第2A露光時間を設定すると、第2領域B2で第2画像の撮像を開始させる。
一方、制御部34は、動きベクトルが動く範囲が広い、例えば動きベクトルが所定範囲から外れて移動している場合は、動きが大きく(早い動き)、広い範囲を移動していることから、第2露光時間を短めに設定する必要があるという考え方に基づき、検出用の第2画像を得るための第2露光時間を、より短い第2B露光時間にする。なお、基本的には、第2B露光時間は、動きベクトルの取得に用いたライブビュー表示用の第1画像を取得する場合の第1露光時間よりも長く設定する。
ただし、動きベクトルがあまりに大きく動く場合には、被写体のブレが必要以上に大きくなるのを避けるため、検出用の第2画像を得るための第2B露光時間を、動きベクトルの取得に用いたライブビュー表示用の第1画像を取得する場合の第1露光時間よりも短く設定してもよい。
制御部34は、このように撮像素子32aの第2領域B2で検出用の第2画像を得るための第2B露光時間を設定すると、第2領域B2で第2画像の撮像を開始させる。
図12(a)は、短い露光時間で撮像した滝を例示する図、図12(b)は、図12(a)の場合より長い露光時間で撮像した滝を例示する図である。制御部34は、滝を被写体にする場合のように、物体の動き(水の流れ)が画面の一定の範囲の中を継続して動く場合は、常に一定の範囲内で継続した動きが発生する。これにより、短い露光時間で撮像した図12(a)と、長い露光時間で撮像した図12(b)との間では、画像における滝の領域の範囲は変わらない。そのため、制御部34は、撮像素子32aの第2領域B2で検出用の第2画像を得るための第2露光時間を、より長い第2A露光時間にする。
上述した説明では、動きベクトルが一定の範囲で継続して動く場合として滝を例示したが、例えば、ベルトコンベアー、(飛行機等の)プロペラ、道路上の走行している車の列についても同様である。
また、撮像素子32aの第1領域B1、撮像素子32aの第2領域B2以外の画素領域で、動きの情報を取得するための撮像を行うようにしてもよい。
なお、撮像素子32aをTOFセンサに利用してもよい。
図13は、第1の実施の形態の変形例1において、制御部34が、ブレに基づき領域を抽出する処理の流れを説明するフローチャートである。制御部34は、図11におけるステップS320の処理として、図13の処理を行う。図13のステップS10において、制御部34は、撮像素子32aの第1領域B1に、あらかじめ用意されている初期値(露光時間、フレームレート、ゲイン(ISO感度)など)を設定してステップS20へ進む。初期値は、例えば、明るい室内でライブビュー表示用の第1画像を取得する場合に適した撮像条件を、撮像素子32aの第1領域B1に一様に設定する。
なお、ステップS50の処理を省略し、ステップS40を肯定判定した場合にステップS60へ進むように構成してもよい。
(1)カメラ1の撮像素子32aは、取得した被写体の動きに関する情報、例えば動きベクトルに基づいて設定された第2露光時間(第2A露光時間または第2B露光時間)で、第2領域B2の撮像を行う。これにより、被写体が動くことによるブレを抑えた適切な第2露光時間で撮像した第2画像を得ることができる。
また、一定方向に動く被写体については、第2露光時間を長くすることができるようになり、被写体とみられる領域の抽出に適した第2画像を得ることができる。
制御部34は、図13のステップS60およびS70の代わりに、第2画像を得るための第2露光時間(第2A露光時間または第2B露光時間)を以下のように設定してもよい。
(被写体ブレについて)
動きのある被写体を撮像する場合、第2露光時間を長くすることによって、撮像部32で撮像される被写体の像がブレる。第1の実施の形態の変形例2では、そのブレを利用することによって、検出用の第2画像に基づいて被写体に対応する領域を抽出しやすくする。例えば、被写体に動きがある場合や、手持ちされたカメラ1が揺動していることによって被写体が相対的に動いて見える場合には、第2画像において細かい画像構造や色の平均化が生じる。つまり、第2画像の解像度が低下する。
第1の実施の形態の変形例2によれば、露光開始から面積の増加が止まるまでの時間を第2露光時間(第2A露光時間または第2B露光時間)として設定することにより、平均化された領域を抽出しやすくすることができる。
なお、上述では、ステップS60およびS70の代わりに、第2画像を得るための第2露光時間(第2A露光時間または第2B露光時間)を以下のように設定してもよいと記載したが、ステップS70はそのままにして、ステップS60の代わりに上記のような露光時間の設定を行ってもよいし、ステップS60はそのままにして、ステップS70の代わりに上記のような露光時間の設定を行ってもよい。
<領域内で異なる露光時間を設定>
第1の実施の形態の変形例1では、検出用の第2画像を得るために撮像素子32aの第2領域B2に第2露光時間を設定する場合において、第2領域B2を構成する全てのブロックに同じ第2露光時間を設定(すなわち、第2画像の画面全体で一様に設定)する例を説明した。この代わりに、第2領域B2を構成するブロック間で異なる第2露光時間を設定(すなわち、第2画像の画面内の領域間で異なる設定)してもよい。以下の処理は、上述した図13のステップS60で行ってもよいし、ステップS70で行ってもよいし、S60とS70との両方で行ってもよい。
図14は、第1画像に基づいて取得した動きベクトルを例示する図である。制御部34は、上述した被写体の動きの情報に基づいて第2露光時間を設定する場合において、取得した動きベクトルの中に、向きおよび大きさの少なくとも一方が異なる動きベクトルが存在する場合には、第2領域B2を複数の小領域、すなわち複数のグループに分け、複数のグループ間で異なる第2露光時間を設定する。具体的には、図14の動きベクトルの向きと大きさが同程度のベクトルをグルーピングして、第1グループ14Aと第2グループ14Bとに分ける。そして、グループごとに第2露光時間を設定する。例えば、撮像素子32aの第2領域B2を、動きベクトルの大きさが大きい第1グループ14Aに対応する領域と、動きベクトルの大きさが小さい第2グループ14Bに対応する領域と、に分ける。
制御部34は、このように撮像素子32aの第2領域B2に検出用の第2画像を得るための第2露光時間(第2A露光時間または第2B露光時間)を設定し、第2領域B2で第2画像の撮像を開始させる。
なお、第2露光時間を第2A露光時間と第2B露光時間とに2段階に分ける場合を例示したが、動きベクトルの大きさや動きベクトルが動く範囲により、第2露光時間を3段階またはそれ以上に分けてもよい。
制御部34は、撮像素子32aの第2領域B2でフレーム毎に第2露光時間を変えながら、複数フレームの第2画像を検出用画像として取得させてもよい。例えば、制御部34は、撮像素子32aの第2領域B2を構成する全てのブロックに対して第2B露光時間を設定して1フレームの撮像を行い、さらに上記第2領域B2を構成する全てのブロックに対して第2B露光時間より長い第2A露光時間を設定して次フレームの撮像を行う。これは、撮像素子32aの第2領域B2をグループ分けしない点で、第2領域B2内をグループに分け、グループ間で異なる第2露光時間を設定する上記(例1)とは異なる。
制御部34は、このように検出用の第2画像を得るための第2露光時間を設定すると、撮像素子32aの第2領域B2で第2画像の撮像を開始させる。
なお、撮像素子32aの第2領域B2に対して第2A露光時間および第2B露光時間を設定して2フレームの第2画像を撮像させる場合を例示したが、第2露光時間が異なる3フレームまたはそれ以上のフレーム数の第2画像を撮像させてもよい。
また、撮像素子32aの第2領域B2内を複数のグループに分ける代わりに、撮像素子32aの第1領域B1を複数のグループに分けてもよい。さらにまた、第2領域B2に対してフレーム間で異なる第2露光時間を設定して複数フレームの画像を取得する代わりに、第1領域B1に対してフレーム間で異なる第1露光時間を設定して複数フレームの画像を取得してもよい。
(1)カメラ1の撮像素子32aは、撮像素子32aの第2領域B2の中で異なる第2露光時間を設定して第2画像を撮像する。例えば、人物61や自動車62ごとに適切な露光時間を設定することで、各被写体を明るく撮像でき、第2画像の全体を明るくすることができる。また、各被写体のブレを抑えることができる。
検出用の第2画像を撮像する場合に、撮像素子32aの第2領域B2に対してゲインの設定を行ってもよい。ゲインの設定を行う場合は、第2領域B2で設定可能な第2露光時間に基づいて行うとよい。例えば、制御部34がブレに基づいて、検出用の第2画像を得るための第2露光時間として20msecから50msecの範囲内が適していると判断したとする。制御部34は、環境の明るさに基づいてISO感度200、かつ、第2露光時間25msecで明るく撮像できる場合でも、できる限りISO感度を下げて第2画像を撮像するために、第2露光時間をブレに基づく限界の50msecに設定するとともに、ISO感度を200から100へ下げる設定を行う。これは、なるべく低いゲインを設定するのは、検出用としてノイズの少ない好適な第2画像を得るためである。
(1)撮像素子32aは、第2画像信号に対して、第2領域B2において設定された第2画像用のゲインで増幅する。これにより、光電変換信号の飽和を避けて、検出用に適した第2画像を得ることができる。
<第3画像で第2露光時間を設定>
また、カメラ1の制御部34は、第2画像を得るための第2露光時間を、第3画像に基づいて設定してもよい。第3画像は、明るさ情報の取得のための画像である。
制御部34は、撮像素子32aにより少なくとも1フレームの撮像を行うまでは、環境の明るさが判らないので、撮像素子32aの第2領域B2で検出用の第2画像を取得する前に、撮像素子32aの第2領域B2で明るさ情報の取得のために撮像を行わせ、取得した第3画像に基づいて明るさを取得する。第3画像に基づいて取得した環境の明るさに基づいて、第2画像を得るための第2露光時間を設定する。
第3画像については、フレームレートを高く設定して撮像するのが好ましい。第1の実施の形態の変形例5では、ライブビュー表示用の第1画像や検出用の第2画像を撮像する場合のフレームレートよりも、第3画像を撮像する場合のフレームレートを高く設定する(例えば120fps)。これにより、動きの速い被写体を正確に捉えることが可能になる。
図16は、第1の実施の形態の変形例5において、制御部34が、第3画像を用いて領域を抽出する処理の流れを説明するフローチャートである。制御部34は、図11におけるステップS320の処理として、図16の処理を行う。図16のステップS110において、制御部34は、撮像素子32aの第1領域B1および第2領域B2に、あらかじめ用意されている初期値を設定してステップS120へ進む。初期値は、撮像素子32aの第1領域B1、第2領域B2において、それぞれ一様に設定する。例えば、第1領域B1に第1露光時間を、第2領域B2に第3露光時間を、第1領域B1にフレームレート60fpsを、第2領域B2にフレームレート120fpsを、第1領域B1および第2領域B2にISO感度100を、それぞれ設定する。ステップS120において、制御部34は、撮像素子32aの第2領域B2に、上記第1領域B1に設定したゲインよりも高いゲイン(例えばISO25600)を設定してステップS125へ進む。高いゲインは、撮像素子32aの第2領域B2に一様に設定する。これにより、1フレームの撮像を行った撮像素子32aの第2領域B2から読み出した光電変換信号に基づき、第3画像が生成される。
なお、ステップS120では第2領域B2に対して高いゲインを設定したが、第3領域を第2領域B2以外の他の領域で構成する場合には、第2領域B2とは異なる領域である第3領域に対して高いゲインを設定してよい。すなわち、ステップS120において、第2領域B2以外の他の領域において、高いゲインを設定するような制御を行ってもよい。もちろん、この第2領域B2とは異なる領域である第3領域は、第1領域B1であってもよいし、第1領域B1でなくてもよい。
第3画像では、上記ステップS120において撮像素子32aの第2領域B2に、ISO感度を高く、例えばISO25600以上に設定する。一般に、高いISO感度を設定するとノイズが発生しやすくなる。このため、第3画像に含まれるノイズを誤って被写体と判別してしまう可能性がある。そこで、第3画像を取得した場合には、その後に取得した検出用の第2画像に基づいて被写体とみられる領域を抽出する前に、実際に被写体らしきものが写っているか否かを第2画像に基づいて判別してもよい。
(例1)制御部34は、その領域に対する第2C露光時間を、その領域近くの領域に設定されている第2A露光時間と同じ設定にする。近くの領域であれば、環境の明るさ等もほぼ同様となり、時間が経過し、その領域に被写体が存在するようになっても、検出用の第2画像に基づいて検出することができるからである。
(例2)制御部34は、その領域に対する第2C露光時間を、その領域で得られる明るさが所定値以上になるように設定する。検出用の第2画像において所定値以上の明るさが得られるようにしておくと、時間が経過し、その領域に被写体が存在するようになっても、第2画像に基づいて検出することができるからである。
(例3)制御部34は、その領域に対する第2C露光時間を、検出用の第2画像を得るために第2領域B2に設定する第2露光時間の平均値に設定する。検出用の第2画像において平均的な明るさが得られるようにしておくと、時間が経過し、その領域に被写体が存在するようになっても、第2画像に基づいて検出することができるからである。
(例4)制御部34は、その領域に対する第2C露光時間を、検出用の第2画像を得るために第2領域B2に設定する第2露光時間の最も長い露光時間に合わせて設定する。検出用の第2画像において最大の明るさが得られるようにしておくと、時間が経過し、その領域に被写体が存在するようになっても、第2画像に基づいて検出することができるからである。
制御部34は、(例1)〜(例4)のうち、例えば設定メニューにおいて選択されている処理を行う。
なお、制御部34は、(例1)〜(例4)のうち、実行する処理を自動で選択してもよい。
また、制御部34は、(例1)〜(例4)を適宜組み合わせた処理を実行するように構成してもよい。
(1)第2画像用の第2A露光時間(ステップS70において設定する露光時間)よりも短い第3露光時間を設定することにより、第2画像を取得する場合よりも短い時間で第3画像を取得できる。第3画像を短時間で取得したことにより、例えば、この第3画像に基づくことによって被写体の存在を短い時間で判別できる。
第3画像の取得を、以下に例示するタイミングで行ってもよい。すなわち、上述した図16のステップS125において取得する第3画像とは、異なるタイミングで取得してもよい。
(例1)ライブビュー表示用の第1画像を取得する撮像素子32aの第1領域B1と、検出用の第2画像を取得する撮像素子32aの第2領域B2とは異なる第3領域を撮像素子32aに設け、第1画像や第2画像の取得と並行して第3領域において第3画像を取得できるように構成する。そして、ライブビュー表示用の第1画像の取得や、検出用の第2画像の取得と並行して、第3画像を常に取得する。これにより、検出用の第2画像を得るための第2露光時間を、常に、適切に設定することが可能になる。
制御部34は、(例1)〜(例3)のうち、例えば設定メニューにおいて選択されているタイミングで第3画像を取得してよい。
第3画像を取得する領域を以下のように設定してもよい。すなわち、第3画像を取得する撮像素子32aの第3領域を、撮像素子32aの撮像面の画素領域の全部を一様に用いて構成してもよいし、一部の画素領域を用いて構成してもよい。
ここで、第3画像を得るために、撮像素子32aの第3領域に対して通常よりもISO感度、例えばゲインを高く設定するので、環境の明るさが明るい領域については、読み出した光電変換信号が飽和してしまい、被写体とみられる領域を判別しづらくなってしまうことも想定される。
なお、環境の明るさの取得については、図16のステップS130において取得されるライブビュー表示用の第1画像に基づいて取得してもよいし、撮像部32と別に設けた測光装置による測光結果に基づいて明るさを取得してもよい。また、例えば図16のステップS120の処理を行う前において撮像素子32aの第2領域B2で明るさ取得用の撮像を行わせて、この場合に取得された明るさ取得用の画像に基づいて明るさを取得してもよい。制御部34は、撮像画角内で明るさが所定値に満たない領域を検出してから、検出した領域を対象に図16のステップS120およびS125の処理を行うことにより、撮像素子32aの撮像面の一部の領域によって第3画像を取得する。
第3画像の明るさを、領域によって異ならせてもよい。上述した説明では、第3画像を取得する場合において、撮像素子32aの撮像面の画素領域の全部を一様に用いて、ISO感度(例えば25600)を一様に設定する例を説明した。この代わりに、撮像素子32aの第3領域を複数の領域に分けて、複数の領域においてそれぞれ異なるISO感度を設定してもよい。
なお、環境の明るさの取得については、第1の実施の形態の変形例7と同様に、ライブビュー表示用の第1画像に基づいて明るさを取得してもよいし、撮像部32と別に設けた測光装置による測光結果に基づいて明るさを取得してもよい。また、例えば図16のステップS120の処理を行う前において撮像素子32aの第2領域B2で明るさ取得用の撮像を行わせて、この場合に取得された明るさ取得用の画像に基づいて明るさを取得してもよい。
なお、撮像素子32aの第2領域B2に対して第1領域B1に設定するゲインよりも高いゲインを設定すると記載したが、領域の明るさによっては、第1領域B1に設定するゲインよりも第2領域B2に設定するゲインを高くする必要は必ずしもない。
制御部34は、図16のステップS140において、検出用の第2画像を得るための第2露光時間を設定する場合に、設定した第2露光時間に基づいてフレームレートを設定する。具体的には、設定した第2露光時間で撮像を繰り返すことが可能な程度に速いフレームレートを決定する。例えば、第2露光時間が25msecの場合にはフレームレートは40fpsである。検出用の第2画像をできるだけ多く記憶しておけるように、可能な限りフレームレートを速くしておく方がよい。
例えば、カメラ1を後述する監視カメラ等に利用する場合においては、フレームレートが遅いと移動速度が速い物体の検出を捉えられずに逃してしまう可能性があるため、できるだけ速いフレームレートを設定して撮像することが好ましい。
上述した説明では、被写体の動きに関する情報を得る一例として、ライブビュー表示用の第1画像に基づいて動きベクトルを取得する例を説明した。この代わりに、上記第3画像に基づいて動きベクトルを取得してもよい。つまり、第3画像から取得した動きベクトルにより、検出用の第2画像を得るための第2露光時間を設定する。
ステップS80以降の処理は図13の処理と同様であるため説明を省略する。
上述で説明したように、制御部34は、被写体を認識する場合に、ノイズによって誤認識する場合、または認識できない場合がある。そこで制御部34は、ノイズの一つであるランダムノイズへの対処として以下の処理を行ってもよい。
制御部34は、例えば第3画像を時系列に連続して撮像している場合、撮像した複数の第3画像を利用して被写体を判別する。処理1では、時系列に撮像した複数フレームの第3画像の画素値をそれぞれ加算し、加算した枚数分だけ除算を行う、加算平均によるノイズキャンセルを行う。時系列に撮像した第3画像に含まれる被写体が静止している場合、被写体に対応する画素値は加算平均による減増はほとんどない。一方、第3画像に重畳するランダムノイズの画素値は、各画像に重畳するノイズがランダムなため、加算平均によってランダムなノイズが平均化され一様になる。そのため、加算後の画素値は、被写体に対応する画素値の方がノイズに対応する画素値に比べて相対的に大きくなる。
以上説明した処理1によれば、加算後の第3画像に基づいて被写体を判別することにより、誤って被写体と判別してしまう可能性を低く抑えることができる。
制御部34は、例えば第3画像を時系列に連続して撮像している場合、撮像した複数の第3画像の差分に基づいて動きベクトルを取得する。処理2では、動きベクトルの変化が特徴的な動きを示す場合には、たとえ第3画像に基づいて被写体を判別しなかったとしても、第3画像に被写体が存在するものとみなす。例えば、カメラ1を監視カメラのような定点カメラとして利用する場合において、動きベクトルの軌跡が道に沿って移動している場合、被写体が人や動物、車などである可能性が高い。このような場合、制御部34は、第3画像に基づいて被写体を判別できなかったとしても、被写体が存在するものとみなし、動きベクトルの軌跡が移動した領域(向きと大きさが同程度の動きベクトルの集合)に対して、検出用の第2画像を取得するための第2露光時間を設定する。
以上説明した処理2によれば、第3画像に基づいて被写体を判別できなかったとしても、適切に第2画像を取得するための露光時間を設定できる。
また、被写体の存在が既知とされている領域については、上記処理を行わなくてもよい。すなわち、被写体の存在が不明であって、被写体の判別に用いる画像(第2画像または第3画像)に所定の明るさよりも暗い領域が存在する場合に、上記処理1または処理2を行ってもよい。
制御部34は、第3画像に基づいて被写体を判別する前に、第3画像において所定の明るさより暗い(画素値が所定の判定閾値より小さい)領域のみに特別な処理を施してもよい。例えば、上記所定の明るさより暗い領域を二つの領域3A、3Bとに分ける。領域3Aは例えば複数の小領域3aからなり、すなわち複数の小領域3aの集合体であり、領域3Bも例えば複数の小領域3bからなり、すなわち複数の小領域3bの集合体である。小領域3aと小領域3bは、例えば、図6(a)のように、上記の暗い領域を市松模様のように分割しても良いし、図6(b)または図6(c)のように、上記の暗い領域に左右方向または上下方向に交互に配置されても良い。
以上説明した処理3によれば、第3B画素に対して露光時間を第3A画素に比べて長く設定するために、第3画像を取得する場合よりも遅いフレームレートで撮像することになるものの、ノイズを誤って被写体と判別する可能性を低減することができる。
なお、上述したように、撮像素子32aの第2領域B2を第3領域として兼用し、兼用する領域を、領域3Aと領域3Bとに分ける構成としてもよい。
もちろん、撮像素子32aの第1領域B1を第3領域として兼用してもよいし、第1領域B1および第2領域B2以外の領域を第3領域とし、この第3領域を、領域3Aと領域3Bとに分ける構成としてもよい。
第1の実施の形態および変形例1〜変形例10では、検出用の第2画像を必ず取得する例を説明した。しかし、検出用の第2画像を必ず取得する必要がなく、以下の(例1)〜(例5)に例示する所定の条件を満たした場合に第2画像を取得するようにしてもよい。
また、(例1)および(例2)において検出用の第2画像の撮像を開始した以降は、継続して第2画像の撮像を繰り返してもよいが、ライブビュー表示用に並行して撮像される第1画像の中に所定の明るさよりも暗い領域が存在しなくなった場合には、以降の検出用の第2画像の撮像をやめてもよい。また、第2画像の撮像を開始後所定時間経過した場合に第2画像の撮像をやめてもよい。
これにより、第1画像に基づく上記領域の抽出精度が低下した場合には、第1画像の第1露光時間に比べて長い第2露光時間を設定した第2画像に基づいて、被写体とみられる領域を好適に抽出することが可能になる。
第1画像に基づく動きベクトルの大きさが所定値以上に変化した場合には、被写体が急に暗い環境下へ移動するなどして、撮像される第1画像に基づく領域の抽出精度が低下することも考えられる。しかしながら、第2画像の撮像を開始させておくことで、第1画像の第1露光時間に比べて長い第2露光時間を設定した明るい第2画像に基づき、被写体とみられる領域を好適に抽出することが可能になる。
(1)(例1)〜(例5)のいずれの場合にも、第2画像を常に取得し続ける場合と比べて省電力化につながる。また、検出用の第2画像を不図示のメモリ等に記憶する場合には、第2画像を常に取得し続ける場合と比べて、メモリ等の記憶容量を節約することもできる。
第1の実施の形態の変形例12の処理では、図11のステップS370で行った処理である、自動分割した領域に対する変更処理の別の方法について説明する。第1の実施の形態の変形例12の処理では、制御部34が、ユーザによるタッチ位置に基づいて、ある被写体の領域に別の領域を追加し、ある被写体の領域と別の領域とを一つの領域とする処理を行ったり、ある被写体の領域から一部の領域を削除し、ある被写体の領域と別の領域とを別々の領域として扱う処理を行ったりする。このように、制御部34が共通の被写体として扱う領域を設定することで、共通の被写体として扱う領域の撮像条件を、一度の操作で変更する事などができるようになる。
第1の実施の形態の変形例12の処理として、例えば、ある被写体の領域に別の領域が追加されていない場合に、ユーザによって別の領域にタッチ操作が行われた場合には、ある被写体の領域に別の領域を追加する処理(共通化する処理)を行う。一方、ある被写体の領域に別の領域が既に追加されている場合に、ユーザによって別の領域にタッチ操作が行われた場合には、ある被写体の領域から別の領域を削除(追加のキャンセルを)する処理を行う。このように、一回のタッチ操作で、領域の追加、または領域の削除を行うことについて説明をする。
なお、変形例12の説明に先立ち、領域抽出部34aによって抽出された被写体に基づき、撮像部32で取得された画像が設定部34bによって図10のように分割されているものとする。図10の例では、例えば人物61の領域と、自動車62の領域と、バッグ63の領域と、山64の領域と、雲65の領域と、雲66の領域と、その他の領域とに分割されており、ある被写体の領域(例えば人物61の領域)が選択されている。
なお、第1の実施の形態の変形例12では、表示画面におけるバッグ63の領域がタッチ操作された場合に、バッグ63の領域全体を追加する例を説明するが、バッグ63の領域全体ではなく、バッグ63の領域のうちのタッチされた領域のみ、またはタッチされた領域の周辺を追加するようにしてもよい。
一方、制御部34は、終了操作が行われない場合にステップS371へ戻る。ステップS371へ戻った制御部34は、上述した処理を繰り返す。
人物61の領域の撮像条件と同じ条件をバッグ63の領域に適用するタイミングは、例えば、バッグ63の領域が人物61の領域に追加された時点でよい。
なお、上記タイミングとは別のタイミングの例として、バッグ63の領域が人物61の領域に追加された後、ユーザ操作により人物61の領域に対する撮像条件が変更された時点で、人物61の領域の撮像条件と同じ条件をバッグ63の領域に適用してもよい。
人物61の領域とバッグ63の領域とで異なる撮像条件を適用するタイミングは、例えば、バッグ63の領域が人物61の領域から削除された後、ユーザ操作により人物61の領域またはバッグ63の領域に対する撮像条件が変更された時点でよい。
(1)カメラ1の制御部34は、領域抽出部34aによって抽出された被写体の領域のうち、表示部35の表示画面におけるタッチ位置に基づいて領域を検出する。制御部34はさらに、タッチ位置を含む領域(例えばバッグ63の領域)が、人物61の領域と一つの領域として扱う追加判定する領域か、人物61の領域と別個の領域として扱う削除判定する領域かを判定する。これにより、一回のタッチ操作で、人物61の領域にバッグ63の領域を追加したり、人物61の領域からバッグ63の領域を削除したりすることが可能になるため、操作を容易にすることができる。従来は、例えば、領域追加用/領域削除用の操作ボタンを表示部35に表示させて、この操作ボタンがタッチ操作されることによって領域追加モードから領域削除モードへのモード切り替え、または、領域削除モードから領域追加モードへのモード切り替えを行う必要があった。しかしながら、第1の実施の形態の変形例12によれば、このようなモード切り替えをすることなく、一回のタッチ操作によって、領域を追加または領域を削除(追加のキャンセルを)することができる。
第1の実施の形態の変形例13の処理では、第1の実施の形態の変形例12と別の方法として、制御部34が、ユーザによるタッチ位置、タッチ位置の画像の色、およびタッチ位置からの距離に基づいて、ある被写体の領域に別の領域を追加したり、ある被写体の領域から一部の領域を削除したりする。第1の実施の形態の変形例12との違いとして、第1の実施の形態の変形例13において、ある被写体の領域に追加される領域の大きさは、タッチ位置と、タッチ位置の色と近い色の領域、かつ、タッチ位置の近くに位置する領域によって決定される(後述の範囲情報Mで説明)。タッチ位置の色と異なる色の領域や、タッチ位置から遠くに位置する領域については、ある被写体の領域に追加されない。
このように、タッチ位置の色やタッチ位置からの距離を考慮しつつ、一回のタッチ操作で、タッチ位置を含む領域の大きさを決定し、領域の追加、または領域の削除を行うことについて説明する。
また、第1の実施の形態の変形例13において、制御部34は、タッチ操作された領域をある被写体の領域(人物61の領域)に追加する追加判定、または、タッチ操作された領域をある被写体の領域(人物61の領域)から削除する削除判定、を行うために判定値mを用いる。判定値mには、例えば、表示部35に表示する画像の各画素位置の画素値pを用いる。
なお、制御部34は、上記範囲情報Mの値が所定値に満たない場合には、タッチ位置のみを追加判定する。
一方、制御部34は、ステップS372の判定により、タッチ位置が選択されている領域である(既に追加されている)と判定した場合は、タッチ位置を含む被写体の領域を削除する削除判定を行う。例えば、人物61の領域にバッグ63の領域の一部が既に追加されていた場合には、人物61の領域から追加されていた領域を削除(追加のキャンセルを)する削除判定を行う。
これとは反対に、ステップS373で削除判定をした場合には、バッグ63の領域のうち追加されていた領域の表示をカラー画像の表示からモノクロ画像の表示に変更することにより、削除候補であることを示す。
一方、制御部34は、ステップS373で削除判定をした場合は、削除する領域の各画素位置において、判定値mから上記所定値Vを減算することにより、判定値mを各画素位置の画素値pに戻す。図19における他のステップの処理については、既述の通りであるので説明を省略する。
すなわち、制御部34は、少なくともユーザによるタッチ位置と、タッチ位置における画像の色とに基づいて、追加候補/削除候補の判断を行うようにしてもよい。タッチ位置における画像の色に基づくことで、制御部34は、タッチ位置における色と近い色の領域を、適切に判断することができる。これにより、タッチ位置(例えばバッグ63の領域)の色と異なった色の領域が、ユーザの意図に反して、ある被写体(本例では人物61)の領域への追加候補にされることを避けることができる。
第1の実施の形態の変形例14の処理では、制御部34が、ある被写体の領域に別の被写体の領域を追加する場合において、追加する別の被写体の領域に対し、ある被写体の領域の画像処理条件を適用する。
人物61の領域と同じ画像処理条件をバッグ63の領域に適用するタイミングは、例えば、バッグ63の領域が人物61の領域に追加された時点でよい。
なお、上記タイミングとは別のタイミングの例として、バッグ63の領域が人物61の領域に追加された後、ユーザ操作により人物61の領域に対する画像処理条件が変更された時点で、人物61の領域の画像処理条件と同じ条件をバッグ63の領域に適用してもよい。
人物61の領域とバッグ63の領域とで異なる画像処理条件を適用するタイミングは、例えば、バッグ63の領域が人物61の領域から削除された後、ユーザ操作により人物61の領域またはバッグ63の領域に対する画像処理条件が変更された時点でよい。
第1の実施の形態の変形例15の処理では、制御部34が、ユーザによるフリック操作に基づいて、ある被写体の領域に別の領域を追加したり、ある被写体の領域から一部の領域を削除したりする。
(1)制御部34は、ユーザによるフリック操作に基づいて、ある被写体の領域(例えば人物61の領域)に別の被写体の領域(例えばバッグ63の領域)を追加することなく、別の被写体の領域(バッグ63の領域)に適用される撮像条件を、ある被写体の領域(人物61の領域)に適用される撮像条件と同じ条件に変更してもよい。
(2)また、制御部34は、ユーザによるフリック操作に基づいて、ある被写体の領域(人物61の領域)から別の被写体の領域(バッグ63の領域)を削除することなく、別の被写体の領域(バッグ63の領域)に適用される撮像条件を、ある被写体の領域(人物61の領域)に適用される撮像条件と別の条件に変更してもよい。
なお、上記タイミングとは別のタイミングの例として、上記フリック操作が行われた後、ユーザ操作によってある被写体の領域(人物61の領域)に対する撮像条件が変更されたタイミングで、別の被写体の領域(バッグ63の領域)の撮像条件を、ある被写体の領域(人物61の領域)の撮像条件と同じ条件に変更してもよい。
また、制御部34は、上記(2)の場合に別の被写体の領域(バッグ63の領域)の撮像条件を変更するのは、上記フリック操作が行われた後、ユーザ操作によって別の被写体の領域(バッグ63の領域)に対する撮像条件が変更されたタイミングとする。
第1の実施の形態の変形例16の処理では、制御部34が、ユーザによるタッチ操作に基づいて、ある被写体の領域に適用された撮像条件と同じ条件を、別の被写体の領域の撮像条件に適用する場合において、複数の被写体の領域の中から、どの被写体の領域の撮像条件と同じ条件を適用するかを、ユーザによるタッチ位置に基づいて決定する。
制御部34が、タッチされている被写体の領域(バッグ63の領域)に適用される撮像条件を、上記被写体の領域(人物61の領域)に適用される撮像条件と別の条件に変更するのは、ユーザの指で被写体の領域(バッグ63の領域)にタッチ操作が行われた後、ユーザ操作によって被写体の領域(バッグ63の領域)に対する撮像条件が変更されたタイミングである。制御部34は、ユーザ操作によって、被写体の領域(バッグ63の領域)の撮像条件を変更し、一番近い被写体の領域(人物61の領域)と別の条件に設定する。
また、被写体の領域(人物61の領域)を強調表示することにより、候補に選んだ撮像条件が被写体の領域(人物61の領域)の撮像条件と同じであることを、ユーザにわかりやすく示すことができる。
第1の実施の形態の変形例17の処理では、制御部34が、ユーザによるタッチ位置における画像の色に基づき、複数の被写体の領域の中から、どの被写体の領域の撮像条件と同じ条件を適用するかを決定する。
また、撮像素子は、湾曲した曲面形状に構成されていてもよい。
また、上記の電子機器は、撮像素子32aに加え、第1の実施の形態に記載された構成を適宜追加して備えてもよい。例えば、電子機器は、制御部34、表示部35、タッチパネル36A等の検出部等をさらに備えてもよい。
第2の実施の形態による撮像素子、およびこの撮像素子を搭載する監視カメラについて説明する。監視カメラ10(以降、カメラ10と称する)は、電子機器の一例である。カメラ10には、イメージセンサの一例として撮像素子32aが搭載される。撮像素子32aは、第1の実施の形態によるカメラ1に搭載されたものと同様である。したがって、以下に記載されている内容のうち、第1の実施の形態に関連する内容は、適宜第1の実施の形態、または第1の実施の形態の変形例を適宜適用することができる。例えば、第1の実施の形態に記載された第2画像の露光時間の設定等を、適宜第2の実施の形態または、第2の実施の形態の各変形例に適用することができる。
なお、複数台のカメラ10を説明するために、便宜上カメラ10A、カメラ10Bと称するが、これらは同じ機種のカメラであってもよい。
また、監視カメラシステムを構成するカメラ10の数は2台に限らず、例えば1台でも10台でも、それ以上であってもよい。
図22は、カメラ10の構成を例示するブロック図である。図22において、カメラ10は、撮像光学系31と、撮像部32と、画像処理部33と、制御部34と、操作部材36と、送受信部38と、記憶部39とを有する。
上述した監視カメラシステムによる処理手順について、図23のフローチャートを参照して説明する。図23において、左側にカメラ10による処理の流れを示し、右側にサーバ2による処理の流れを示す。
カメラ10の制御部34は、例えば、電源が供給されると、図23による処理を開始する。図23のステップS510において、制御部34は、撮像素子32aに第1領域B1および第2領域B2をセットしてステップS520へ進む。第1領域B1および第2領域B2は、例えば図6(a)を参照して説明した領域である。
なお、ステップS530において、必ずしも撮像素子32aの第1領域B1を、上記第2領域B2に設定するゲインよりも高いゲイン、かつ速いフレームレートにしなくてもよい。いずれか一方だけ高く設定してもよいし、両方とも設定しなくてもよい。
また、撮像素子32aの第1領域B1に設定するゲインは、第1領域B1において一様な値でなくてもよく、第1領域B1内で異なる値のゲインを設定してもよい。制御部34は、例えば、検出した撮像画角内の明るさによって、第1領域B1における領域ごとに異なるゲインを設定する。監視画像信号を増幅するゲインの値を第1領域B1の中で異ならせるのは、環境の明るさが明るい領域、暗い領域にそれぞれ適した監視画像を得るためである。
なお、ステップS580における画像処理は、カメラ側10で行わず、サーバ2側で行ってもよい。
なお、第2画像の第2露光時間の設定は上記のように行わず、監視画像で設定した露光時間に基づいて決定してもよい。すなわち、制御部34は、監視画像の露光時間よりも長くなるように、第2画像の第2露光時間を設定してもよい。
ステップS580において、制御部34は画像処理部33へ指示を送り、第2画像のデータに対して所定の画像処理を行わせてステップS590へ進む。画像処理は、例えば画素欠陥補正処理、色補間処理、輪郭強調処理、ノイズ低減処理等を含む。ステップS590において、制御部34は送受信部38へ指示を送り、画像処理後の第2画像のデータをサーバ2へ送信させてステップS600へ進む。
なお、ステップS580における画像処理は、カメラ側10で行わず、サーバ2側で行ってもよい。
なお、ステップS540〜ステップS560と、ステップS570〜ステップS590との順序を変えて、ステップS570〜ステップS590を先に行ってもよい。これは、第1領域、第2領域のそれぞれで撮像されたタイミングで、適宜画像処理、サーバへの送信を行えばよい。
サーバ2は、図23による処理を実行する。図23のステップS710において、サーバ2は、カメラ10から監視画像のデータを受信したか否かを判定する。サーバ2は、カメラ10から監視画像のデータを受信した場合にステップS710を肯定判定してステップS720へ進む。サーバ2は、カメラ10から監視画像のデータを受信しない場合には、ステップS710を否定判定してステップS740へ進む。
なお、ステップS710〜ステップS730と、ステップS740〜ステップS750との順序を変えて、ステップS740〜ステップS750を先に行ってもよい。これらステップに対する処理は、カメラ10から画像が送信されたタイミングで、適宜処理を行えばよい。
(1)カメラ10の撮像素子32aは、撮像面上の画素領域に複数の画素が配置されており、被写体を撮像する。撮像素子32aは、複数の画素のうち、撮像して監視画像信号を生成する第1領域B1と、複数の画素のうち、監視画像信号に基づく監視画像によって検出された被写体に対して設定された第2露光時間で撮像し、被写体に関する情報が抽出される第2画像信号を生成する第2領域B2とを有する。これにより、監視画像によって被写体を検出し、検出された被写体に対して適切に設定された露光時間で撮像された第2画像信号を生成することができるため、ノイズが少ない画像を生成することができる。
(第2の実施の形態の変形例1)
第2画像に基づいて関連情報(ログ情報とも称する)を生成してもよい。ログ情報は、第2画像に基づいて抽出した監視対象物を撮像した時刻と、監視対象物とを関連づける情報のことをいう。第2の実施の形態の変形例1に係る監視カメラシステムの構成は、第2の実施形態の監視カメラシステムの全体構成(図21)と同様である。第2の実施の形態の変形例1に係るカメラ10は、以下に説明する機能を備える。
図24は、第2の実施の形態の変形例1に係る監視カメラシステムのカメラ10の構成を例示するブロック図である。図24のカメラ10は、第2の実施形態のカメラ10(図22)と同様に、撮像光学系31と、撮像部32と、画像処理部33と、操作部材36と、送受信部38と、記憶部39とを有する。また、図24のカメラ10は、制御部34Sを備え、この制御部34Sに情報生成部34fが設けられている点において、第2の実施形態のカメラ10(図22)と相違する。このため、図22のカメラ10と相違する点を中心に説明を行う。
第2の実施の形態の変形例1に係る監視カメラシステムによる処理手順について、図25のフローチャートを参照して説明する。図25において、左側にカメラ10による処理の流れを示し、右側にサーバ2による処理の流れを示す。
カメラ10の制御部34は、例えば、電源が供給されると、図25による処理を開始する。図25のフローチャートは、図23のフローチャートに比べてステップS585およびS595が追加され、ステップS590が省略されている点において相違するので、これらの相違点を中心に説明する。
以上の説明では、カメラ10の制御部34の情報生成部34fによってログ情報の生成を行うようにしたが、サーバ2においてログ情報の生成を行ってもよい。サーバ2でログ情報を生成する場合は、制御部34は、ステップS585の処理を行わない。そして、ステップS595の処理に代えて、制御部34が送受信部38へ指示を送り、監視画像のデータおよび第2画像のデータをサーバ2へ送信させてステップS600へ進む。
サーバ2は、図25による処理を実行する。図25のフローチャートは、図23のフローチャートに比べてステップS730B、およびS770〜S790が追加され、ステップS730〜S750が省略されている点において相違するので、これらの相違点を中心に説明する。
なお、サーバ2は、カメラ10から送信された第2画像がある程度溜まった段階で、適宜ログ情報を生成としたが、カメラ10から第2画像が送信された段階で、逐一ログ情報を生成してもよい。
(1)監視カメラシステムのカメラ10は、撮像素子32aと、サーバ2と通信を行う送受信部38と、第2画像信号と監視画像信号とを送受信部38を介してサーバ2に送信する制御部34を備えるので、撮像素子32aで生成された第2画像信号と監視画像信号とをサーバ2へ送信できる。
図26(a)は、第2の実施の形態の変形例2における撮像素子32aの画素領域の部分拡大図であり、単位領域131のカラーフィルタ配列を説明する図である。図26(a)の単位領域131は、赤外画素IR、青色画素B、赤色画素R、および緑色画素Grの4画素から成る配列を内包する。緑色画素Grは、カラーフィルタとして緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。青色画素Bは、カラーフィルタとして青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素Rは、カラーフィルタとして赤色フィルタを有する画素であって赤色波長帯の光を受光する。赤外画素IRは、カラーフィルタとして赤外光フィルタを有する画素であり、入射光のうち赤外波長帯の光を受光する。
また、制御部34は、赤外画素IRに基づいて第1の実施の形態の変形例5で説明した第3画像を取得することにより、第3画像から得られる明るさに基づいて第2画像を得るための第2露光時間を決定してよい。第3画像は暗い環境下でも短時間で取得できるので、撮像素子32aの第2領域B2に含まれる赤外画素IRに対し、第2画像を取得するための第2露光時間の設定を早く行うことができるようになる。
第2の実施の形態の変形例3において、制御部34は、赤外画素IRに基づく赤外画像を取得させる場合に、青色画素B、赤色画素R、および緑色画素Grに基づくRGB表色系の画像も取得させる。RGB表色系の画像も取得するので、赤外画像を取得中にも、RGB表色系の監視画像をモニタ3に再生表示することができる。
赤外画素IRと、画素B、R、Grとでは、異なった露光時間を設定することができる。このように、単位領域131内の青色画素B、赤色画素R、および緑色画素Grの露光時間(およびゲイン)と赤外画素IRの露光時間(およびゲイン)とを異ならせる場合には、可視光用の単位領域には、青色画素B、赤色画素R、および緑色画素Grの3画素を内包し、赤外光用の単位領域には、赤外画素IRの1画素を内包するとよい。
また、RGB表色系の監視画像については、ISO感度を高く設定して撮像しているため、第1露光時間を短くして撮像する。なお、第1露光時間をブレない程度に長くして、なるべく明るいRGB表色系の画像を撮像してもよい。
また、赤外画像として第2画像を取得するように構成したので、可視光域の明るさが不足する状況でも、第2画像を好適に撮像することができる。例えば、赤外画素IRに対して長い第2露光時間を設定して赤外画像を取得する場合には、被写体の領域を好適に検出することができる。
そこで、制御部34は、RGB表色系の監視画像が暗い場合に、赤外画像の明るさの情報を用いて、RGB表色系の監視画像を明るく補正する。このようにRGB表色系の監視画像の明るさを補正することによって、ユーザにとって視認しやすい監視画像をモニタ3に表示させることができる。
例えば、制御部34は、撮像素子32aの第1の領域B1の画素B、R、Grに基づいて、第1の実施の形態の変形例5で説明した第3画像を取得する。そして、制御部34は、RGB表色系の第3画像から得られる明るさに基づいて、第2領域B2の赤外画素IRに基づいて第2画像を得るための第2露光時間を決定する。
このような制御を行うことによって、第2領域B2に含まれる赤外画素IRに対し、赤第2画像を取得するための第2露光時間の設定を早く行うことができる。
以上の説明では、図26(a)に例示した単位領域131を有する撮像素子32aの場合を説明したが、赤外画素IRのみを有する単位領域131を有する撮像素子32aであってもよい。図26(b)は、赤外画素IRのみを有する撮像素子32aの画素領域の部分拡大図である。図26(b)の単位領域131は、赤外画素IRのみの4画素を内包する。
第2の実施の形態による監視カメラシステムにおいて、監視画像に写る被写体、例えば監視対象物を検出するだけでなく監視対象物を認識したい場合がある。そこで、例えば特定の人物、動物、物などを、第2画像に基づいて認識する。
なお、監視カメラ10を例に説明したが、第1の実施の形態で説明した種々の電子機器に対し、第2の実施の形態およびその変形例の撮像素子32aを適用してもよい。
また、監視カメラ10を例に監視用途として説明したが、監視用途としては上記の例に限られず、医療用に病巣を監視検出する用途にも適用することができる。
画像に写る被写体ごとに分割した領域を変更する機能を備えた画像処理装置を構成してもよい。図28は、第3の実施の形態による画像処理装置500を例示するブロック図である。画像処理装置500は、例えばコンピュータシステムによって構成されており、操作部材501と、制御装置502と、メモリカードスロット503と、表示部504とを備えている。コンピュータシステムとは、OS(Operating System)や周辺機器のハードウェアを含むものとする。
演算部502aは、ユーザ操作に基づき、ある被写体の領域に別の領域を追加したり、ある被写体の領域から一部の領域を削除したりする。演算部502aが分割した領域の範囲を変更する理由は、演算部502aが共通の被写体として扱う(例えば、同じレタッチ処理を適用する)範囲を変更するためである。領域の範囲を変更する処理は、上述した第1の実施の形態の変形例12〜変形例17の場合と同様に行ってよい。
また、フリック操作によるフリック操作開始位置、フリック操作終了位置として、本実施の形態におけるポインティングデバイス(マウス、タッチパッド等)によるドラッグ操作の開始時のポインタ位置、ドラッグ操作の終了時のポインタ位置を用いてもよい。
表示部504をタッチ操作可能な表示パネルで構成する場合において、第1の実施の形態の変形例12〜変形例17の内容についても、第3の実施の形態に適用してもよい。これにより、第1の実施の形態の変形例12〜変形例17の場合と同様の作用効果を得ることができる。
上述した画像処理装置500を構成するコンピュータシステムへのプログラムの供給は、例えば図30に例示するように、プログラムを格納したCD−ROMなどの記録媒体204を画像処理装置500にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法で画像処理装置500へローディングしてもよい。通信回線201を経由する場合は、当該通信回線に接続されたサーバー202のストレージ装置203などにプログラムを格納しておく。
32…撮像部
32a、100…撮像素子
33…画像処理部
34…制御部
34a…領域抽出部
34b…設定部
34c…撮像制御部
34d…AF演算部
35…表示部
111…撮像チップ
112…信号処理チップ
113…メモリチップ
131…単位領域
415…演算回路
Claims (40)
- 面上に複数の画素が配置され、被写体を撮像する撮像素子であって、
前記複数の画素のうち、第1露光時間で撮像し、第1画像信号を生成する第1画素領域と、
前記複数の画素のうち、前記第1露光時間より長い第2露光時間で撮像し、前記被写体に関する情報が抽出される第2画像信号を生成する第2領域とを備える撮像素子。 - 請求項1に記載の撮像素子であって、
前記第2領域は、取得した被写体の動きに関する情報に基づいて設定された前記第2露光時間で撮像を行う撮像素子。 - 請求項2に記載の撮像素子であって、
前記第2露光時間は、さらに前記被写体が動く範囲に基づいて設定される撮像素子。 - 請求項3に記載の撮像素子であって、
前記第2露光時間は、前記被写体の動きに関する情報が所定の閾値よりも小さい場合、第3露光時間に設定され、前記被写体の動きに関する情報が前記所定の閾値よりも大きい場合、前記被写体が動く範囲に基づいて第4露光時間に設定される撮像素子。 - 請求項4に記載の撮像素子であって、
前記第4露光時間は、所定時間内に前記被写体が動く範囲が第1所定範囲よりも広い場合、前記第3露光時間よりも短い時間に設定される撮像素子。 - 請求項2から請求項5の少なくとも一項に記載の撮像素子であって、
前記被写体の動きに関する情報は、前記第1画像信号に基づいて取得される撮像素子。 - 請求項1に記載の撮像素子であって、
前記第2領域は、さらに前記第2露光時間とは異なる第3露光時間で撮像を行う撮像素子。 - 請求項7に記載の撮像素子であって、
前記第2領域は、前記第2露光時間で撮像され生成された前記第2画像信号と、前記第3露光時間で撮像され生成された第3画像信号とに基づいて、前記第2領域内の露光時間の設定を行う撮像素子。 - 請求項8に記載の撮像素子であって、
前記第2領域は、前記第2画像信号に基づいて生成された画像と、前記第3画像信号に基づいて生成された画像とに含まれる被写体のブレに基づいて、前記第2領域内の露光時間の設定を行う撮像素子。 - 請求項7に記載の撮像素子であって、
前記第2領域は、前記第2露光時間で撮像を行う画素領域と、前記第2露光時間とは異なる第3露光時間で撮像を行う画素領域とを有する撮像素子。 - 請求項10に記載の撮像素子であって、
前記第2領域は、取得された前記被写体の動きに関する情報に基づいて、前記第2露光時間で撮像を行う画素領域と、前記第2露光時間とは異なる第3露光時間で撮像を行う画素領域とが設定される撮像素子。 - 請求項1に記載の撮像素子であって、
前記複数の画素のうち、撮像を行い、第3画像信号を生成する第3画素領域をさらに備え、
前記第2領域は、前記第3画像信号に基づく画像によって検出された前記被写体に対して前記第2露光時間が設定される撮像素子。 - 請求項12に記載の撮像素子であって、
前記第3画素領域は、前記第1画像信号、または前記第2画像信号よりもゲインを上げた第3画像信号を生成する撮像素子。 - 請求項13に記載の撮像素子であって、
前記第2領域は、前記第3画像信号に基づいて前記第2露光時間が設定される撮像素子。 - 請求項13または請求項14に記載の撮像素子であって、
前記第3画素領域は、前記第2領域に含まれる領域であり、
前記第2領域は、前記第3画像信号を生成する画素領域と、前記第2画像信号を生成する画素領域とを有する撮像素子。 - 請求項13から請求項15の少なくとも一項に記載された撮像素子であって、
前記第3画素領域は、取得された前記第3画素領域内の明るさに基づいて、前記第3画像信号を増幅するゲインの値を前記第3画素領域内で異ならせる撮像素子。 - 請求項12から請求項16の少なくとも一項に記載の撮像素子であって、
前記第3画素領域は、前記第1画像信号、または前記第2画像信号よりもフレームレートを高くして撮像し前記第3画像信号を生成する撮像素子。 - 請求項1に記載の撮像素子であって、
前記第2領域は、前記第2画像信号に対して、設定された第2ゲインで増幅する撮像素子。 - 請求項18に記載の撮像素子であって、
前記第2ゲインは、前記第2露光時間に基づいて設定される撮像素子。 - 請求項19に記載の撮像素子であって、
前記第2ゲインは、前記第1画像信号に対して増幅される第1ゲインよりも小さい撮像素子。 - 請求項1に記載の撮像素子であって、
前記第2領域は、制御部による撮像開始の制御に基づいて撮像を行う撮像素子。 - 請求項21に記載の撮像素子であって、
前記第2領域は、前記第1画像信号に基づく画像の明るさに基づいて、前記制御部による撮像開始の制御が行われ、撮像を行う撮像素子。 - 請求項1から請求項22の少なくとも一項に記載の撮像素子であって、
前記第1画像信号は、前記第1画像信号に基づく画像が生成され表示部に表示される撮像素子。 - 請求項23に記載の撮像素子と、
前記表示部とを備える電子機器。 - 請求項24に記載の電子機器であって、
前記第2露光時間を設定する制御部をさらに備える電子機器。 - 請求項25に記載の電子機器であって、
前記第2露光時間で撮像された第2画像信号に基づく画像に含まれる前記被写体の領域を抽出する抽出部をさらに備える電子機器。 - 請求項26に記載の電子機器であって、
前記抽出部によって抽出された前記被写体の領域ごとに撮像条件を設定する設定部と、
前記設定部によって設定された撮像条件に基づいて、前記第1画素領域で撮像される撮像条件を制御する制御部とをさらに備える電子機器。 - 請求項27に記載の電子機器であって、
前記抽出部によって抽出された前記被写体の領域のうち、ユーザによって選択された選択領域を検出する検出部をさらに備え、
前記制御部は、前記検出部によって検出された前記選択領域が第1処理を行う領域か第2処理を行う領域かを判定する電子機器。 - 請求項28に記載の電子機器であって、
前記制御部は、前記選択領域が前記第1処理を行う領域の場合、前記抽出部によって抽出された前記被写体の領域のうちの特定の被写体領域と前記選択領域とを1つの領域とする処理を行い、前記選択領域が前記第2処理を行う領域の場合、前記特定の被写体領域と前記選択領域とを異なる領域とする処理を行う電子機器。 - 請求項29に記載の電子機器であって、
前記設定部は、前記選択領域が前記第2処理を行う領域の場合に、前記特定の被写体領域の撮像条件を設定した場合、前記選択領域の撮像条件を前記特定の被写体領域の撮像条件と同じ撮像条件に設定する電子機器。 - 面上に複数の画素が配置され、被写体を撮像する撮像素子の撮像方法であって、
前記複数の画素のうち、第1露光時間で撮像し第1画像信号を生成し、
前記複数の画素のうち、前記第1露光時間より長い第2露光時間で撮像し前記被写体に関する情報が抽出される第2画像信号を生成する撮像方法。 - 面上に複数の画素が配置され、被写体を撮像する撮像素子を制御するコンピュータに実行させるプログラムであって、
前記複数の画素のうち、第1露光時間で撮像し第1画像信号を生成させる処理と、
前記複数の画素のうち、前記第1露光時間より長い第2露光時間で撮像し前記被写体に関する情報が抽出される第2画像信号を生成させる処理とをコンピュータに実行させるプログラム。 - 面上に複数の画素が配置され、被写体を撮像する撮像素子であって、
前記複数の画素のうち、撮像を行い、第1画像信号を生成する第1画素領域と、
前記複数の画素のうち、前記第1画像信号に基づく画像によって検出された前記被写体に対して設定された露光時間で撮像を行い、前記被写体に関する情報が抽出される第2画像信号を生成する第2領域とを備える撮像素子。 - 請求項33に記載の撮像素子であって、
前記第1画素領域は、前記第2画像信号よりもゲインを上げた前記第1画像信号を生成する撮像素子。 - 請求項33または請求項34に記載の撮像素子であって、
前記第2領域は、前記第1画像信号に基づいて前記露光時間が設定される撮像素子。 - 請求項33から請求項35の少なくとも一項に記載の撮像素子であって、
前記第1画素領域は、取得された前記第1画素領域内の明るさに基づいて、前記第1画像信号を増幅するゲインの値を前記第1画素領域内で異ならせる撮像素子。 - 請求項33から請求項36の少なくとも一項に記載の撮像素子であって、
前記第1画素領域は、前記第2領域よりもフレームレートを高くして撮像する撮像素子。 - 請求項33から請求項37の少なくとも一項に記載の撮像素子と、
他の電子機器と通信を行う通信部と、
前記第2画像信号と前記第1画像信号とを前記通信部を介して前記他の電子機器に送信する制御部とをさらに備える電子機器。 - 面上に複数の画素が配置され、被写体を撮像する撮像方法であって、
前記複数の画素のうち、撮像を行い、第1画像信号を生成し、
前記複数の画素のうち、前記第1画像信号に基づく画像によって検出された前記被写体に対して設定された露光時間で撮像を行い、前記被写体に関する情報が抽出される第2画像信号を生成する撮像方法。 - 面上に複数の画素が配置され、被写体を撮像する撮像素子を制御するコンピュータに実行させるプログラムであって、
前記複数の画素のうち、撮像を行い、第1画像信号を生成させる処理と、
前記複数の画素のうち、前記第1画像信号に基づく画像によって検出された前記被写体に対して設定された露光時間で撮像を行い、前記被写体に関する情報が抽出される第2画像信号を生成させる処理とをコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016120933A JP6808993B2 (ja) | 2016-06-17 | 2016-06-17 | 撮像素子、電子機器、撮像方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016120933A JP6808993B2 (ja) | 2016-06-17 | 2016-06-17 | 撮像素子、電子機器、撮像方法、およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020204479A Division JP7151756B2 (ja) | 2020-12-09 | 2020-12-09 | 撮像素子および撮像装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017225084A true JP2017225084A (ja) | 2017-12-21 |
JP6808993B2 JP6808993B2 (ja) | 2021-01-06 |
Family
ID=60688591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016120933A Active JP6808993B2 (ja) | 2016-06-17 | 2016-06-17 | 撮像素子、電子機器、撮像方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6808993B2 (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533692A (zh) * | 2019-08-21 | 2019-12-03 | 深圳新视达视讯工程有限公司 | 一种面向无人机航拍视频中移动目标的自动跟踪方法 |
JP2020096282A (ja) * | 2018-12-12 | 2020-06-18 | キヤノン株式会社 | 撮像装置及びその制御方法並びにプログラム |
JP2020095325A (ja) * | 2018-12-10 | 2020-06-18 | 株式会社サンライン | 画像識別システム |
JPWO2021010355A1 (ja) * | 2019-07-16 | 2021-01-21 | ||
JP2021081790A (ja) * | 2019-11-14 | 2021-05-27 | キヤノン株式会社 | 認識装置、認識方法 |
CN113038028A (zh) * | 2021-03-24 | 2021-06-25 | 浙江光珀智能科技有限公司 | 一种图像生成方法及系统 |
CN113766152A (zh) * | 2020-06-05 | 2021-12-07 | 原相科技股份有限公司 | 使用时间差分像素的动作传感器及导航装置 |
CN114830628A (zh) * | 2019-11-25 | 2022-07-29 | 富士胶片株式会社 | 影像制作方法 |
JP2022118085A (ja) * | 2019-09-24 | 2022-08-12 | カシオ計算機株式会社 | 撮像装置、撮像方法及びプログラム |
US11509823B2 (en) | 2018-12-27 | 2022-11-22 | Fujifilm Corporation | Imaging element, imaging apparatus, imaging method, and program |
US12041357B2 (en) | 2020-12-23 | 2024-07-16 | Denso Corporation | In-vehicle camera |
JP7527947B2 (ja) | 2020-12-14 | 2024-08-05 | キヤノン株式会社 | 撮像装置、その制御方法およびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014133076A1 (ja) * | 2013-02-27 | 2014-09-04 | 株式会社ニコン | 撮像素子および電子機器 |
JP2014179778A (ja) * | 2013-03-14 | 2014-09-25 | Nikon Corp | 信号処理装置、撮像素子、撮像装置および電子機器 |
WO2015022900A1 (ja) * | 2013-08-12 | 2015-02-19 | 株式会社ニコン | 電子機器、電子機器の制御方法、及び制御プログラム |
-
2016
- 2016-06-17 JP JP2016120933A patent/JP6808993B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014133076A1 (ja) * | 2013-02-27 | 2014-09-04 | 株式会社ニコン | 撮像素子および電子機器 |
JP2014179778A (ja) * | 2013-03-14 | 2014-09-25 | Nikon Corp | 信号処理装置、撮像素子、撮像装置および電子機器 |
WO2015022900A1 (ja) * | 2013-08-12 | 2015-02-19 | 株式会社ニコン | 電子機器、電子機器の制御方法、及び制御プログラム |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020095325A (ja) * | 2018-12-10 | 2020-06-18 | 株式会社サンライン | 画像識別システム |
JP7349653B2 (ja) | 2018-12-10 | 2023-09-25 | 株式会社サンライン | 画像識別システム |
JP7281897B2 (ja) | 2018-12-12 | 2023-05-26 | キヤノン株式会社 | 撮像装置及びその制御方法並びにプログラム |
JP2020096282A (ja) * | 2018-12-12 | 2020-06-18 | キヤノン株式会社 | 撮像装置及びその制御方法並びにプログラム |
US11509823B2 (en) | 2018-12-27 | 2022-11-22 | Fujifilm Corporation | Imaging element, imaging apparatus, imaging method, and program |
US11758292B2 (en) | 2018-12-27 | 2023-09-12 | Fujifilm Corporation | Imaging element, imaging apparatus, imaging method, and program |
JP7384204B2 (ja) | 2019-07-16 | 2023-11-21 | 株式会社ニコン | 撮像装置及び撮像方法 |
WO2021010355A1 (ja) * | 2019-07-16 | 2021-01-21 | 株式会社ニコン | 撮像装置及び撮像方法 |
JPWO2021010355A1 (ja) * | 2019-07-16 | 2021-01-21 | ||
CN110533692A (zh) * | 2019-08-21 | 2019-12-03 | 深圳新视达视讯工程有限公司 | 一种面向无人机航拍视频中移动目标的自动跟踪方法 |
CN110533692B (zh) * | 2019-08-21 | 2022-11-11 | 深圳新视达视讯工程有限公司 | 一种面向无人机航拍视频中移动目标的自动跟踪方法 |
JP2022118085A (ja) * | 2019-09-24 | 2022-08-12 | カシオ計算機株式会社 | 撮像装置、撮像方法及びプログラム |
JP7306535B2 (ja) | 2019-09-24 | 2023-07-11 | カシオ計算機株式会社 | 撮像装置、撮像方法及びプログラム |
JP2021081790A (ja) * | 2019-11-14 | 2021-05-27 | キヤノン株式会社 | 認識装置、認識方法 |
JP7444585B2 (ja) | 2019-11-14 | 2024-03-06 | キヤノン株式会社 | 認識装置、認識方法 |
CN114830628A (zh) * | 2019-11-25 | 2022-07-29 | 富士胶片株式会社 | 影像制作方法 |
CN114830628B (zh) * | 2019-11-25 | 2024-04-26 | 富士胶片株式会社 | 影像制作方法 |
CN113766152A (zh) * | 2020-06-05 | 2021-12-07 | 原相科技股份有限公司 | 使用时间差分像素的动作传感器及导航装置 |
JP7527947B2 (ja) | 2020-12-14 | 2024-08-05 | キヤノン株式会社 | 撮像装置、その制御方法およびプログラム |
US12041357B2 (en) | 2020-12-23 | 2024-07-16 | Denso Corporation | In-vehicle camera |
JP7537274B2 (ja) | 2020-12-23 | 2024-08-21 | 株式会社デンソー | 車載用カメラ |
CN113038028B (zh) * | 2021-03-24 | 2022-09-23 | 浙江光珀智能科技有限公司 | 一种图像生成方法及系统 |
CN113038028A (zh) * | 2021-03-24 | 2021-06-25 | 浙江光珀智能科技有限公司 | 一种图像生成方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP6808993B2 (ja) | 2021-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6808993B2 (ja) | 撮像素子、電子機器、撮像方法、およびプログラム | |
JP6610751B2 (ja) | 電子機器 | |
KR102661185B1 (ko) | 전자 장치 및 그의 이미지 촬영 방법 | |
KR102424984B1 (ko) | 복수 개의 카메라를 포함하는 전자 장치 및 그 동작 방법 | |
CN108156378B (zh) | 拍照方法、移动终端及计算机可读存储介质 | |
CN103299227A (zh) | 图像捕获设备和图像捕获方法 | |
JP6977759B2 (ja) | 電子機器 | |
US12003867B2 (en) | Electronic device and method for displaying image in electronic device | |
US20200154057A1 (en) | Imaging control device and imaging control method | |
JP2011223294A (ja) | 撮像装置 | |
JP6270578B2 (ja) | 撮像装置、撮像装置の制御方法及びプログラム | |
WO2017128914A1 (zh) | 一种拍摄方法及装置 | |
KR20100091844A (ko) | 촬상 장치 및 촬상 방법 | |
WO2021014867A1 (ja) | 撮像装置およびその制御方法 | |
JP2023169254A (ja) | 撮像素子、撮像素子の作動方法、プログラム、及び撮像システム | |
JP7151756B2 (ja) | 撮像素子および撮像装置 | |
US11689816B2 (en) | Imaging apparatus, operation method of imaging apparatus, and program | |
CN112640429A (zh) | 成像元件、摄像装置、图像数据处理方法及程序 | |
CN112640430B (zh) | 成像元件、摄像装置、图像数据处理方法及存储介质 | |
JP6679430B2 (ja) | 撮像装置、撮像装置の制御方法及びプログラム | |
US20230122606A1 (en) | Image capturing system, control method, and storage medium | |
US10771675B2 (en) | Imaging control apparatus and imaging control method | |
KR20100118888A (ko) | 촬영 장치 및 촬영 대상 표시방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200624 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201123 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6808993 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |