JP2021119684A - カメラを自動設定するための方法及びシステム - Google Patents
カメラを自動設定するための方法及びシステム Download PDFInfo
- Publication number
- JP2021119684A JP2021119684A JP2021070557A JP2021070557A JP2021119684A JP 2021119684 A JP2021119684 A JP 2021119684A JP 2021070557 A JP2021070557 A JP 2021070557A JP 2021070557 A JP2021070557 A JP 2021070557A JP 2021119684 A JP2021119684 A JP 2021119684A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- value
- values
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000005286 illumination Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 11
- 230000006870 function Effects 0.000 description 86
- 230000007613 environmental effect Effects 0.000 description 65
- 230000033001 locomotion Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 17
- 230000001419 dependent effect Effects 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 235000001537 Ribes X gardonianum Nutrition 0.000 description 5
- 235000001535 Ribes X utile Nutrition 0.000 description 5
- 235000016919 Ribes petraeum Nutrition 0.000 description 5
- 244000281247 Ribes rubrum Species 0.000 description 5
- 235000002355 Ribes spicatum Nutrition 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 101100476202 Caenorhabditis elegans mog-2 gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
−オートモードの品質を改善するためにカメラ設定を微調整することは、時間がかかり、カメラの能力及び設定インタフェースに関する特定の技能及び良好な知識を必要とし、
−ほとんどのカメラ設置者はその設定を修正せず、デフォルトの工場出荷時の自動モードに維持し、
−動きぼけなどのいくつかの問題は、自動設定では解決できず、
−関心領域(ROI)内の画像を最適化するために使用されるカメラオートモードは(もしあっても)非常に少なく、これは露光不良問題及び最適ではない品質につながり、
−カメラオートモードは、そのカメラオートモードが適している主流の使用と同じ制約を必ずしも有するわけではない、特定のタスク又はミッションに適応されないからである。
−絞り値を増加させることは、センサに到達する光量を増加させることを意味し、これはより明るい画像をもたらすが、被写界深度がより小さい画像ももたらし(焦点ぼけを増加させ)、
−ゲイン値を増加させることは、画像のダイナミックを増加させることを意味し、これはより明るい画像をもたらすが、より多くのノイズを有する画像をもたらし、
−シャッタ速度値を増加させること(すなわち、露光時間を増加させること)は、センサに到達する光量を増加させることを意味し、これはより明るい画像をもたらすが、動きぼけを増加させもする。
第1の照明条件でカメラによって撮像された画像の画像特性値の第1のセットを得る工程であって、画像特性値はカメラパラメータに依存し、第1のセットの少なくとも2つの画像特性値が同じカメラパラメータの少なくとも2つの異なる値にそれぞれ対応する、得る工程と、
少なくとも1つの第2の照明条件でカメラによって撮像された画像から得られた画像特性値の第1のセットの値を適応させる工程により、画像特性値の少なくとも1つの第2のセットを決定する工程であって、第2のセットの少なくとも2つの画像特性値が同じカメラパラメータの少なくとも2つの異なる値にそれぞれ対応する、決定する工程と、
画像特性値の決定された少なくとも1つの第2のセットに基づいて、カメラのカメラパラメータ値を選択する工程と、選択されたカメラパラメータ値の関数としてカメラの設定を修正する工程であって、カメラパラメータは絞り、ゲイン、及び/又はシャッタ速度を含む、修正する工程と、を備える、カメラのカメラパラメータを設定する方法が提供される。
少なくとも1つの第2の照明条件でカメラによって撮像された画像から得られた画像特性値の第1のセットの値を適応させる工程によって、画像特性値の少なくとも1つの第2のセットを決定する工程であって、第2のセットの少なくとも2つの画像特性値が同じカメラパラメータの少なくとも2つの異なる値にそれぞれ対応する、決定する工程と、
画像特性値の決定された少なくとも1つの第2のセットに基づいて、カメラのカメラパラメータ値を選択する工程と、選択されたカメラパラメータ値の関数としてカメラの設定を修正する工程であって、カメラパラメータは絞り、ゲイン、及び/又はシャッタ速度を含む、修正する工程と、を実行するマイクロプロセッサを備える、カメラのカメラパラメータを設定するためのデバイスが提供される。
−CPUと呼ばれる、マイクロプロセッサのような中央処理装置210。
−外部のデバイスからデータを受信し、外部のデータにデータを送信するためのI/Oモジュール220。特に、これはソースデバイスから画像を取り出すために使用されてもよい。
−実施形態を実現するためのコンピュータプログラムを格納するための、ROMで示される読み出し専用メモリ230。
−HDで示される、ハードディスク240。
−本発明の実施形態の方法の実行可能コード、特に自動設定アルゴリズムを、変数及びパラメータを記録するように適合されたレジスタと同様に格納する、RAMで示されるランダムアクセスメモリ250。
−本発明の実施形態の入力パラメータを構成するために使用される、UIで示されるユーザインタフェース260。上述のように、管理ユーザインタフェースは、ビデオ監視システムのアドミニストレータによって使用されてもよい。
fquality(missions)(image quality,scene)であり、
ここで、missionsはミッションのタイプであり、
image qualityは、ぼけ値、ノイズ値、及びコントラスト値を含み得るパラメータのセットであり、
sceneは、ターゲットサイズ、ターゲット速度、及び/又はターゲット距離を含み得るパラメータのセットである。
fquality(missions)(noise,blur,contrast,target_size,target_velocity,target_distance)
fquality(quality,scene)
又は、与えられた例によれば、
fquality(noise,blur,contrast,target_size,target_velocity,target_distance)
[シーン関連パラメータ]
target_size
target_speed
target_distance
[画質]
noise=fnoise_calibration(gain,shutter_speed,aperture)
blur=fblur_calibration(gain,shutter_speed,aperture)
contrast=fcontrast_calibration(gain,shutter_speed,aperture)
[画質メトリック]
luminance=fluminance_calibration(gain,shutter_speed,aperture)
ビデオ監視カメラは、全く異なる状況で、すなわち、異なる「ミッション」又は「タスク」を行うために使用されてもよい。例えば、いくつかのカメラは、全体的なビューを提供するために使用されてもよく、例えば群衆管理又は侵入者の検出のために、広い領域を解析することを可能にし、一方で、他のカメラは、詳細なビューを提供するために使用されてもよく、例えば、顔又はナンバープレートを認識することを可能にし、他のカメラは、例えば工場において、機械の適切な機能を制御するために使用されてもよい。ミッションのタイプに応じて、カメラに関連する制約は全く異なる可能性がある。特に、ノイズ、ぼけ、及び/又はコントラストの影響は、ミッションによっては同じではない。例えば、ぼけは、一般に、詳細が重要であるミッションに対して、例えば、顔又はナンバープレートの可読性に対して高い影響を有する。他の事例では、ノイズは、例えば、シーンが人間によって連続的に監視されるときに(ノイズの多いビデオで経験されるより高い眼精疲労を原因として)、より大きな影響を有し得る。
−カメラによって提供される画像の品質を表し、カメラの設定に依存するパラメータ。そのようなパラメータは、ノイズ、ぼけ、及び/又はコントラストを含んでいてもよい。
−以下、シーン依存パラメータと呼ばれ、それらの値はシーン値と呼ばれる、シーン及び行われるミッションに向けられるパラメータ。それらの数及び性質は、ミッションのタイプに依存する。これらのパラメータは、ターゲットのサイズ、及び/又はターゲットの速度、及び/又はカメラからのターゲットの距離を含んでいてもよい。これらのパラメータの値は予め決定されてもよく、ユーザによって決定されてもよく、又は、例えば画像解析によって推定されてもよい。それらは、画質に直接的な影響を有さないが、ミッションを果たすことがどれほど困難であるかにおいて役割を果たす。例えば、ノイズはより大きなターゲットよりもより小さなターゲットに多くの影響を及ぼすので、ノイズの多い画像の知覚される品質は、ターゲットがより小さい場合に低下するであろう。
fquality(missions)(noise,blur,contrast,target_size,target_velocity,target_distance)、
又は関数のセット(ミッションのタイプごとに1つの関数がミッション<i>と表記される)。
mission<i>についてのfquality(noise,blur,contrast,target_size,target_velocity,target_distance)、
又はビデオ監視システムが使用される所定のタイプのミッションに対応する関数。
fquality(noise,blur,contrast,target_size,target_velocity,target_distance)。
blur=blurA+blurS
であり、ここで、blurAは焦点ぼけの値を表し、blurSは動きぼけの値を表す。
較正フェーズの目的は、学習フェーズ中に決定されたfquality関数から品質値を計算するために必要とされる全てのデータを、実際のカメラ及び実際のシーン上でその場で測定することである。
−シーン依存パラメータ、例えば、ターゲットサイズ、ターゲット速度、及びターゲット距離を決定又は測定することと、
−焦点を設定することと、
−各画質パラメータ(例えば、ノイズ、ぼけ、及びコントラスト)とカメラ設定(例えば、ゲイン(G)、シャッタ速度(S)、及び絞り(A))との関連を以下のように、つまり、
noise=fnoise_calibration(G,S,A)、略してnoisecal(G,S,A)
blur=fblur_calibration(G,S,A)、略してblurcal(G,S,A)
contrast=fcontrast_calibration(G,S,A)、略してcontrastcal(G,S,A)
のように確立するために関数を推定することと、
−画像メトリック(例えば、輝度)とカメラ設定(例えば、ゲイン(G)、シャッタ速度(S)、及び絞り(A))との関連を確立する関数を推定することと、を含む。実施形態によれば、輝度は、シーン照明が修正されたときに新しい較正関数を推論するために動作フェーズ中に使用される。これは次のように表されてもよい。すなわち、
luminance=fluminance_calibration(G,S,A)、略してIcal(G,S,A)
S0=min(S)、及びSi+1=Si×2
であり、その結果、Sn<=max(S)及びSn+1>max(S)であり、
ここで、min(S)は最小シャッタ速度であり、max(S)は最大シャッタ速度である。
G0=min(G)、及び、
Gi+1は、
ここで、Iが画像の輝度である場合、min(G)が最小ゲインであり、max(G)がより高いゲインである。
−絞りがその最小値(min(A))に設定され、
−ゲインがその最小値(min(G))に設定され、シャッタ速度の選択された全ての値が、それらの昇順に従って(min(S)からmax(S)へと)次々に設定され、値(G,S,A)の各三つ組について3〜10の数の画像が得られ、
−ゲインの値がその次の選択された値に設定され、シャッタ速度の選択された全ての値が、それらの降順に従って(max(S)からmin(S)へと)次々に設定され、値の(G,S,A)の各対について3〜10の数の画像が得られ、
−ゲイン及びシャッタ速度の選択された全ての値について画像が取得されてしまうまで、その次のゲインの値を用いて上のステップが繰り返され、
−ゲイン、シャッタ速度、及び絞りの選択された全ての値について画像が取得されるまで、その次の絞りの値を用いて上の3つのステップが繰り返される。
−各チャンネルについて(すなわち各成分について)、画像画素値のヒストグラムを決定すること、すなわち、可能な画素値それぞれについて(例えば、各成分が8ビットで符号化されている場合、0から255まで変化するiについて)、画素数ciを数えることと、
−以下の関係、すなわち、
−動き画素、すなわち、移動中のオブジェクトに対応する画素を除去すること、又は換言すれば前景を除去すること、
−各画素についての時間的分散(すなわち、各チャネルについての、経時的な各画素値の変動の分散)を算出すること、及び、
−すべての画素とすべてのチャネルとの間の算出された分散の平均値として、画像のセットについてのグローバルノイズ値を算出すること、である。
1/dF+1/v=1/F
であり、移動ターゲットでは、
argminxは演算子「x変数のargmin」に対応し、
1/dFは焦点距離、すなわち、カメラからのオブジェクトの実際の距離であり、そこで、画像内の表現が現在の焦点値の場合に鮮明となる。それは、利用可能でない場合、以下の関係に従って、レンズとセンサとの間の距離に対応する、表示された画像距離から取り出すことができる。すなわち、以下の関係とは、
1/dF+1/v=1/F
であり、静止ターゲットでは、
−得られた画像それぞれのエントロピーを測定することと、
−この測定されたエントロピー値と、カメラ設定、例えばゲイン、シャッタ速度、及び絞りと、の間の、Ecal(G,S,A)で示される関係を決定することと、
−輝度値と、カメラ設定、例えばゲイン、シャッタ速度、及び絞りと、の間の、Ical(G,S,A)で示される事前に決定された関係を得ることと、
−所定のノイズ閾値を超えるノイズ値をもたらすゲイン値に対応する選択されたカメラ設定を破棄することと(ノイズが大きすぎる場合、そのノイズはエントロピーに影響を及ぼす可能性があり、したがって、ノイズを所定の閾値、例えば5〜10未満の分散値に制限することによって、その影響が顕著に低減される)、
−同じカメラ設定を共有するエントロピー値及び輝度値の低減されたデータ収集を得るために、ゲイン、シャッタ速度、及び絞り値に関連する残りのエントロピー値並びに輝度値を集めることであって、このデータ収集は、例えばエントロピー値及び輝度値に対する線形補間のような単純な回帰関数を使用することによって、エントロピー値と輝度値との関係を確立することを可能にする、集めることと、
−例えば、以下の関係に従って、輝度の関数としてコントラストとエントロピーとの関係を決定することと、である。以下の関係とは、
αはステップ455で得られたカメラに対する検出されたターゲットの角度である。
real_sizeはターゲットの(ターゲットに関する先天的知識を使用することによって統計的に決定することができ、例えば、成人の平均サイズは〜1.75mであると設定することができる)実世界サイズである。そのような値の精度を高めるために、ターゲットの中央値サイズ又は任意の統計的サイズの派生物を使用することもでき、
ステップ465の間に算出されるように、考慮される関心領域の各点からpixel_sizeが得られる。その結果は、考慮される関心領域の各位置(x,y)についての距離マップ、すなわち、関数distance=(x,)である。
前述のように、動作フェーズは、カメラの設定を顕著に混乱させることなく、カメラ設定を改善すること、好ましくは現在のミッション及び現在の環境条件での最適な(又は最適に近い)カメラ設定を決定することを目的とする。そのために、この動作フェーズは、(探索/測定機構ではなく)予測機構に基づく。これは、特に、学習フェーズにおいて決定された品質関数(fquality)、較正フェーズ中に決定された画質パラメータとカメラ設定との関係(例えば、noisecal(G,S,A)、blurcal(G,S,A)、及びcontrastcal(G,S,A))、較正フェーズ中に決定されもしたシーン依存パラメータ、及び現在のカメラ設定で得られた画像に関する画像メトリックを使用する。
noisecurrent(G)=noisecal(G)
であり、ここで、与えられたゲイン値に関連するノイズ値は、このゲイン及びそれに関連するすべてのシャッタ速度値の平均ノイズに対応する。
blurcurrent(G,S,A)=blurcal(S,A)
contrastcurrent(G,S,A)=contrastcurrent(Icurrent(G,S,A))
である。
Iact=Icurrent(Gact,Sact,Aact)=Ical(Gact,Sact+ΔS,Aact)
であり、ここで、(Gact,Sact,Aact)は現在のカメラ設定であり、ΔSはシャッタ速度変化である。
−連続又は擬似連続関数を得るために、算出された輝度値Ical(G,S,A)を補間し、
−現在のゲインGactについて、例えば、(現在のゲインGactについて)シャッタ速度の関数として表される輝度の逆関数、すなわち輝度の関数として表されるシャッタ速度を使用し、ΔSをΔS=S(Iact)−Sactとして算出することによって、ΔS(Gact,Sact+ΔS,Aact)=iactとなるようにΔSを決定し、
−式Icurrent(G,S,A)=Ical(G,S+ΔS,A)を用いることによって全関数Icurrent(G,S,A)を決定する。
−異なる(Gpred,Spred,Apred)三つ組の3D格子を生成するために、可能なゲイン、シャッタ速度、及び絞り値の多様体をサンプリングすることと、
−(Gpred,i,Spred,j,Apred,j)で示される(Gpred,Spred,Apred)三つ組のそれぞれについて、以前の予測(noisecurrent(Gpred,i)、blurcurrent(Spred,j,Apred,k)、及びcontrastcurrent(I(Gpred,i,Spred,j,Apred,k))に従って画質パラメータの値を算出することと、
−(Gpred,i,Spred,j,Apred,k)三つ組ごとに、学習フェーズ中に決定された品質関数、現在のミッション(missionact)、及び算出された画質パラメータの値に応じて、以下のように、つまり
scorei,j,k=fquality(missionact)(noisecurrent(Gpred,i),blurcurrent(Spred,i,Apred,k)、及びcontrastcurrent(I(Gpred,i,Spred,i,Apred,k),target_size,target_velocity)
のようにスコアを算出することと、
使用されるカメラ設定、すなわち(Gnext,Snext,Anext)=argmax(scorei,j,k)を決定するために、最良のスコア(又は最良のスコアのうちの1つ)、すなわちmax(scorei,j)を識別することと、である。
−現在のカメラ設定で設定されたカメラから画像を取得し(ステップ600)、そこから実際の輝度(Iact)が算出されてもよく、
−これらのカメラ設定、すなわち、与えられた例では実際のゲイン、シャッタ速度、及び絞り(Gact,Sact,Aact)を得て、
−コントラストと較正環境条件との関係(contrastcal(G,S,A))、コントラストと輝度との関係(contrast(I))、及び較正環境条件のカメラ設定との間のコントラストとカメラ設定との関係(Ical(G,S,A))を得る(ステップ615)。
i=argmini(|Iact−Ii cal(Gact,Sact,Aact)|)
となるように、現状の環境条件で使用される輝度とカメラ設定との関係が選択されうる。
−全動作フェーズが自動化され、ユーザの決定なしに連続的に実行されることができ、
−カメラ設定の変更を加えるのに要する時間は、変更の決定と変更自体との間で大幅に短縮され、
−このような自動設定監視システムは、オン/オフ照明などの環境条件の突然の変更に非常に迅速に反応できることである。
(Gnext,Snext,Anext)=best_camera_settings(G,S,A,I)
[付録]
第1の照明条件において撮像された画像に基づいて、前記画像を撮像したカメラのカメラパラメータに依存する画像特性値を含む第1のセットを取得する取得工程であって、前記第1のセットに含まれる少なくとも2つの画像特性値は1つのカメラパラメータに含まれる少なくとも2つの異なる値とそれぞれ対応し、
少なくとも1つの第2の照明条件において前記カメラが撮像した画像に基づいて取得された前記第1のセットの値を適応させることによって、少なくとも2つの画像特性値が1つのカメラパラメータに含まれる少なくとも2つの異なる値にそれぞれ対応する第2のセットを決定する決定工程と、
前記決定された第2のセットに基づいて、前記カメラのカメラパラメータ値を選択する選択工程と、
前記選択されたカメラパラメータ値の関数に基づいて前記カメラの設定を修正する修正工程と、を含み、
前記カメラパラメータは絞り、ゲイン、及び/又はシャッタ速度を含む
ことを特徴とする、カメラパラメータを設定する方法が提供される。
Claims (1)
- 第1の照明条件でカメラによって撮像された画像の画像特性値の第1のセットを得る工程であって、前記画像特性値はカメラパラメータに依存し、前記第1のセットの少なくとも2つの画像特性値が同じカメラパラメータの少なくとも2つの異なる値とそれぞれ対応する、得る工程と、
少なくとも1つの第2の照明条件で前記カメラによって撮像された画像から、得られた画像特性値の前記第1のセットの値を適応させる工程により、画像特性値の少なくとも1つの第2のセットを決定する工程であって、前記第2のセットの少なくとも2つの画像特性値が同じカメラパラメータの少なくとも2つの異なる値にそれぞれ対応する、決定する工程と、
画像特性値の前記決定された少なくとも1つの第2のセットに基づいて、前記カメラのカメラパラメータ値を選択する工程と、
前記選択されたカメラパラメータ値の関数として前記カメラの設定を修正する工程であって、前記カメラパラメータは絞り、ゲイン、及び/又はシャッタ速度を含む、修正する工程と、
を備える、カメラのカメラパラメータを設定する方法。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1710675.8A GB2564387B (en) | 2017-07-03 | 2017-07-03 | Method and system for auto-setting of cameras |
GB1710675.8 | 2017-07-03 | ||
GB1801110.6 | 2018-01-23 | ||
GB1801112.2A GB2570448B (en) | 2018-01-23 | 2018-01-23 | Method and system for improving auto-setting of cameras |
GB1801112.2 | 2018-01-23 | ||
GB1801110.6A GB2587769B (en) | 2018-01-23 | 2018-01-23 | Method and system for updating auto-setting of cameras |
JP2019563052A JP6872039B2 (ja) | 2017-07-03 | 2018-07-02 | カメラを自動設定するための方法及びシステム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563052A Division JP6872039B2 (ja) | 2017-07-03 | 2018-07-02 | カメラを自動設定するための方法及びシステム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021119684A true JP2021119684A (ja) | 2021-08-12 |
JP2021119684A5 JP2021119684A5 (ja) | 2022-01-04 |
JP7245280B2 JP7245280B2 (ja) | 2023-03-23 |
Family
ID=62874881
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563052A Active JP6872039B2 (ja) | 2017-07-03 | 2018-07-02 | カメラを自動設定するための方法及びシステム |
JP2021070557A Active JP7245280B2 (ja) | 2017-07-03 | 2021-04-19 | カメラを自動設定するための方法及びシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563052A Active JP6872039B2 (ja) | 2017-07-03 | 2018-07-02 | カメラを自動設定するための方法及びシステム |
Country Status (4)
Country | Link |
---|---|
US (2) | US11284012B2 (ja) |
EP (1) | EP3649774A1 (ja) |
JP (2) | JP6872039B2 (ja) |
WO (1) | WO2019007919A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3649774A1 (en) | 2017-07-03 | 2020-05-13 | C/o Canon Kabushiki Kaisha | Method and system for auto-setting cameras |
US20190289263A1 (en) * | 2018-03-19 | 2019-09-19 | Netgear, Inc. | Notifications by a network-connected security system based on content analysis |
US11394863B2 (en) | 2018-09-06 | 2022-07-19 | Arlo Technologies, Inc. | No-reference image quality assessment for iterative batch video analysis |
JP7368822B2 (ja) * | 2019-05-31 | 2023-10-25 | i-PRO株式会社 | カメラパラメータ設定システムおよびカメラパラメータ設定方法 |
GB2587206B (en) * | 2019-09-17 | 2021-12-22 | Milestone Systems As | Method, device, and computer program for setting parameters values of a video source device |
US11854252B1 (en) | 2019-09-24 | 2023-12-26 | Hrl Laboratories, Llc | Automated probabilistic axiom generation and incremental updates |
US11350039B2 (en) * | 2019-09-24 | 2022-05-31 | Hrl Laboratories, Llc | Contrast and entropy based perception adaptation using probabilistic signal temporal logic based optimization |
US11941870B1 (en) | 2019-09-24 | 2024-03-26 | Hrl Laboratories, Llc | System for action recognition error detection and correction using probabilistic signal temporal logic |
WO2021132960A1 (en) * | 2019-12-24 | 2021-07-01 | Samsung Electronics Co., Ltd. | Method and device for capturing images in an internet of things environment |
CN111402341A (zh) * | 2020-03-10 | 2020-07-10 | 创新奇智(广州)科技有限公司 | 相机参数确定方法、装置、电子设备及可读存储介质 |
EP3979618A1 (en) * | 2020-10-01 | 2022-04-06 | Axis AB | A method of configuring a camera |
WO2023003317A1 (en) * | 2021-07-21 | 2023-01-26 | Samsung Electronics Co., Ltd. | Method and electronic device for capturing media using under display camera |
CN115474006B (zh) * | 2022-02-22 | 2023-10-24 | 重庆紫光华山智安科技有限公司 | 图像抓拍方法、系统、电子设备及可读存储介质 |
JP2024030179A (ja) * | 2022-08-23 | 2024-03-07 | 京セラ株式会社 | 推定方法、照明制御方法、推定プログラム、制御装置、及び照明制御システム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009273050A (ja) * | 2008-05-09 | 2009-11-19 | Toshiba Corp | 撮像装置 |
JP2012156658A (ja) * | 2011-01-25 | 2012-08-16 | Hitachi Kokusai Electric Inc | Cctvシステム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4345825A (en) | 1979-12-13 | 1982-08-24 | Eastman Kodak Company | Apparatus for automatic control of a photographic camera |
US5751844A (en) | 1992-04-20 | 1998-05-12 | International Business Machines Corporation | Method and apparatus for image acquisition with adaptive compensation for image exposure variation |
US6301440B1 (en) | 2000-04-13 | 2001-10-09 | International Business Machines Corp. | System and method for automatically setting image acquisition controls |
GB2404511B (en) * | 2003-07-26 | 2007-08-22 | Hewlett Packard Development Co | Image capture device having a learning function |
US7916173B2 (en) * | 2004-06-22 | 2011-03-29 | Canon Kabushiki Kaisha | Method for detecting and selecting good quality image frames from video |
US20060082672A1 (en) * | 2004-10-14 | 2006-04-20 | M-Systems Flash Disk Pioneers Ltd. | Filtering digital images |
KR100780438B1 (ko) * | 2006-08-22 | 2007-11-29 | 삼성전자주식회사 | 휴대용 단말기에서 카메라의 촬영정보를 설정하는 방법 및장치 |
US20090160970A1 (en) * | 2007-12-20 | 2009-06-25 | Fredlund John R | Remote determination of image-acquisition settings and opportunities |
TW200930063A (en) * | 2007-12-26 | 2009-07-01 | Altek Corp | Auto-selection method of scene modes |
KR101434564B1 (ko) * | 2008-02-13 | 2014-08-29 | 삼성전자 주식회사 | 촬영 정보 자동 추출 시스템 및 방법 |
SE1150505A1 (sv) * | 2011-05-31 | 2012-12-01 | Mobile Imaging In Sweden Ab | Metod och anordning för tagning av bilder |
US9277148B2 (en) * | 2012-06-06 | 2016-03-01 | Board Of Regents, The University Of Texas System | Maximizing perceptual quality and naturalness of captured images |
US9723200B2 (en) * | 2014-10-15 | 2017-08-01 | Microsoft Technology Licensing, Llc | Camera capture recommendation for applications |
US9826149B2 (en) * | 2015-03-27 | 2017-11-21 | Intel Corporation | Machine learning of real-time image capture parameters |
CN105491285B (zh) * | 2015-12-03 | 2019-02-15 | 浙江宇视科技有限公司 | 一种pir摄像机工作模式切换方法及装置 |
KR102327511B1 (ko) | 2016-11-01 | 2021-11-17 | 스냅 인코포레이티드 | 고속 비디오 캡처 및 센서 조절 |
CN108174185B (zh) * | 2016-12-07 | 2021-03-30 | 中兴通讯股份有限公司 | 一种拍照方法、装置及终端 |
US10530991B2 (en) | 2017-01-28 | 2020-01-07 | Microsoft Technology Licensing, Llc | Real-time semantic-aware camera exposure control |
EP3649774A1 (en) | 2017-07-03 | 2020-05-13 | C/o Canon Kabushiki Kaisha | Method and system for auto-setting cameras |
GB2564387B (en) | 2017-07-03 | 2021-12-22 | Canon Kk | Method and system for auto-setting of cameras |
KR102438201B1 (ko) * | 2017-12-01 | 2022-08-30 | 삼성전자주식회사 | 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템 |
-
2018
- 2018-07-02 EP EP18739794.8A patent/EP3649774A1/en active Pending
- 2018-07-02 US US16/627,998 patent/US11284012B2/en active Active
- 2018-07-02 WO PCT/EP2018/067856 patent/WO2019007919A1/en unknown
- 2018-07-02 JP JP2019563052A patent/JP6872039B2/ja active Active
-
2021
- 2021-04-19 JP JP2021070557A patent/JP7245280B2/ja active Active
-
2022
- 2022-02-09 US US17/668,252 patent/US11943541B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009273050A (ja) * | 2008-05-09 | 2009-11-19 | Toshiba Corp | 撮像装置 |
JP2012156658A (ja) * | 2011-01-25 | 2012-08-16 | Hitachi Kokusai Electric Inc | Cctvシステム |
Also Published As
Publication number | Publication date |
---|---|
WO2019007919A1 (en) | 2019-01-10 |
JP7245280B2 (ja) | 2023-03-23 |
JP6872039B2 (ja) | 2021-05-19 |
US11943541B2 (en) | 2024-03-26 |
EP3649774A1 (en) | 2020-05-13 |
US20200221009A1 (en) | 2020-07-09 |
US20220272247A1 (en) | 2022-08-25 |
JP2020523814A (ja) | 2020-08-06 |
US11284012B2 (en) | 2022-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6872039B2 (ja) | カメラを自動設定するための方法及びシステム | |
US11288101B2 (en) | Method and system for auto-setting of image acquisition and processing modules and of sharing resources in large scale video systems | |
US10430667B2 (en) | Method, device, and computer program for re-identification of objects in images obtained from a plurality of cameras | |
US10511776B2 (en) | Image fusion method and apparatus, and terminal device | |
KR102668130B1 (ko) | 이벤트 카메라를 이용한 정적 이미지들의 생성 | |
US11558549B2 (en) | Methods and devices for capturing high-speed and high-definition videos | |
WO2021004216A1 (zh) | 深度传感器的参数调整方法、装置以及电子设备 | |
US10410065B2 (en) | Dynamic parametrization of video content analytics systems | |
US11921416B2 (en) | Method, device, and non-transitory computer-readable medium for setting parameters values of a video source device | |
JP2015211469A (ja) | 露出設定を決定するための方法及び装置 | |
GB2564387A (en) | Method and system for auto-setting of cameras | |
GB2570448A (en) | Method and system for improving auto-setting of cameras | |
JP2019121069A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4875564B2 (ja) | フリッカ補正装置及びフリッカ補正方法 | |
GB2587769A (en) | Method and system for updating auto-setting of cameras | |
WO2017045468A1 (zh) | 一种位置误差的矫正方法及装置 | |
US11924404B2 (en) | Method, device, and non-transitory computer-readable medium for setting parameters values of a video source device | |
US9621780B2 (en) | Method and system of curve fitting for common focus measures | |
US9392158B2 (en) | Method and system for intelligent dynamic autofocus search | |
JP2021093694A (ja) | 情報処理装置およびその制御方法 | |
JP6959444B2 (ja) | 計測情報処理装置 | |
WO2022149466A1 (ja) | 信号処理装置および方法、並びにプログラム | |
KR20230157237A (ko) | 카메라 이미지의 흐림 영역을 탐지하기 위한 방법, 시스템, 비일시성의 컴퓨터 판독가능 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210702 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230310 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7245280 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |