JP7414551B2 - 制御装置および制御方法 - Google Patents

制御装置および制御方法 Download PDF

Info

Publication number
JP7414551B2
JP7414551B2 JP2020010098A JP2020010098A JP7414551B2 JP 7414551 B2 JP7414551 B2 JP 7414551B2 JP 2020010098 A JP2020010098 A JP 2020010098A JP 2020010098 A JP2020010098 A JP 2020010098A JP 7414551 B2 JP7414551 B2 JP 7414551B2
Authority
JP
Japan
Prior art keywords
area
difference
change
amount
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020010098A
Other languages
English (en)
Other versions
JP2021117333A (ja
Inventor
俊之 土橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020010098A priority Critical patent/JP7414551B2/ja
Priority to EP21151885.7A priority patent/EP3855724B1/en
Priority to US17/154,518 priority patent/US11587324B2/en
Publication of JP2021117333A publication Critical patent/JP2021117333A/ja
Application granted granted Critical
Publication of JP7414551B2 publication Critical patent/JP7414551B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation

Description

本発明は、制御装置および制御方法に関する。
従来より、検出した顔領域の輝度値と、画像を領域分割した各領域の輝度値との差が所定の値より小さい領域を測光領域に設定する技術が知られている(例えば、特許文献1参照)。
国際公開第2013/094212号
本発明が解決しようとする課題は、被写体の撮像に適した測光領域を設定することである。
上記目的を達成するために、本発明の1つの態様による制御装置は、撮像装置が撮像した画像内で被写体領域を検出する検出手段と、前記画像を複数の分割領域に分割する分割手段と、前記被写体領域の輝度値と、前記分割領域の輝度値との差分である輝度差を算出する第1の算出手段と、前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記被写体領域の輝度値の差分である第1の変化量と、前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記分割領域の輝度値の差分である第2の変化量とをそれぞれ算出する第2の算出手段と、前記第1の変化量と、前記第2の変化量と、前記輝度差とに基づいて、前記撮像装置が露光制御を行う際に用いる測光領域を決定する決定手段と、を有する。
本発明の実施形態1に係る撮像制御システムの構成を示すブロック図。 実施形態1に係る監視カメラの内部構成を示すブロック図。 実施形態1に係るクライアント装置の内部構成を示すブロック図。 図3のクライアント装置が実行する機能・構成を例示的に説明する図。 測光モードと測光領域の関係について例示的に説明する図。 実施形態1に係る測光領域設定処理を例示的に説明するフローチャート。 実施形態1に係る画像の領域分割について例示的に説明する図。 実施形態1に係る自動露出制御前後の輝度値の関係を例示的に説明する図。 実施形態2に係る監視カメラの内部構成を示すブロック図。 図9の監視カメラの撮像素子の内部構成を示すブロック図。 光束が撮像素子に入射する様子を概念的に示す図。 実施形態2に係る測光領域設定処理を例示的に説明するフローチャート。 実施形態3に係る測光領域設定処理を例示的に説明するフローチャート。 ユーザが手動で操作可能なUIを例示的に説明する図。 表示装置において入力画像に重畳表示された領域候補を説明する図。
以下に、本発明の実施形態を、図面を参照して詳細に説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正又は変更され得る。本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。
なお、後述する図に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。したがって、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。ASICは、Application Specific Integrated Circuit(特定用途向け集積回路)の略である。CPUはCentral Processing Unitの略である。MPUはMicro-Processing Unitの略である。
<実施形態1>
図1~図8を参照して実施形態1を説明する。
(基本構成)
図1は、本発明の実施形態1に係る撮像制御システム100の構成を例示的に説明する図である。
撮像制御システム100は、監視カメラ101と、ネットワーク102と、クライアント装置103と、入力装置104と、表示装置105とを有する。監視カメラ101は、動画像を取得するための撮像装置であり、被写体の撮像および画像処理が可能な装置である。監視カメラ101とクライアント装置103とは、ネットワーク102を介して相互に通信可能な状態で接続されている。クライアント装置103は、入力装置104と表示装置105に通信可能な状態で接続されている。クライアント装置103は、種々の情報を処理する装置であるので、情報処理装置と称してもよい。また、クライアント装置103は、監視カメラ101の撮像を制御する装置であるので、制御装置と称してもよい。
入力装置104は、マウスやキーボード等から構成され、クライアント装置103のユーザにより操作される。
表示装置105は、クライアント装置103から受信した画像を表示するモニタ等を備える装置である。なお、表示装置105はタッチパネルなどのUIとして機能することもできる。この場合、表示装置105は、クライアント装置103へ指示、情報、データ等を入力する入力装置としても機能できることになる。UIはUser Interfaceの略である。
図1では、クライアント装置103と入力装置104と表示装置105とがそれぞれ独立した装置として描かれているが、本実施形態はこのような構成に限定されない。例えば、クライアント装置103と表示装置105とが、一体化されていてもよいし、入力装置104と表示装置105とが一体化されていてもよい。また、クライアント装置103と入力装置104と表示装置105とが、一体化されていてもよい。クライアント装置103と表示装置105とが一体化される場合、一体化された装置は、例えば、パーソナルコンピュータ、タブレット端末、スマートフォンのような形態をとる。
(監視カメラの構造)
図2は、監視カメラ101の内部構成を例示的に説明するブロック図である。監視カメラ101は、撮像光学系201、撮像素子202、カメラCPU203、ROM204、、RAM205、撮像系制御部206、通信制御部207、A/D変換部208、画像処理部209、エンコーダ部210およびネットワークI/F211を有する。監視カメラ101の各部(203~211)は、システムバス212により相互接続されている。ROMはRead Only Memoryの略である。RAMはRandom Access Memoryの略である。A/DはAnalog/Digitalの略である。I/Fはインターフェースの略である。
撮像光学系201はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、シャッターなどから構成され、被写体の光情報を集光する光学部材群である。撮像光学系201は撮像素子202に接続されている。
撮像素子202は、撮像光学系201で集光される光束を電流値(信号値)へと変換するCMOSやCCDなどの電荷蓄積型の固体撮像素子であって、カラーフィルタなどと組み合わせることで色情報を取得する撮像部である。CMOSはComplementary Metal Oxide Semiconductorの略である。CCDはCharge-Coupled Deviceの略である。撮像素子202はA/D変換部208に接続されている。
カメラCPU203は、監視カメラ101の動作を統括的に制御する制御部である。カメラCPU203は、ROM204やRAM205に格納された命令を読み込み、その結果に従って処理を実行する。
撮像系制御部206は、カメラCPU203からの指示に基づいて、監視カメラ101の各部の制御を行う。例えば、撮像系制御部206は、撮像光学系201に対して、フォーカス制御、シャッター制御、絞り調整などの制御を行う。
通信制御部207は、クライアント装置103との通信によって、クライアント装置103から監視カメラ101の各部への制御命令(制御信号)をカメラCPU203に伝達するための制御を行う。
A/D変換部208は、撮像素子202で検知した被写体の光量をデジタル信号(画像データ)に変換する。A/D変換部208は、当該デジタル信号を画像処理部209に送信する。
画像処理部209は、撮像素子202から受信したデジタル信号の画像データに対して、画像処理を行う。画像処理部209はエンコーダ部210に接続されている。
エンコーダ部210は、画像処理部209で処理された画像データをMotion JpegやH264、H265などのファイルフォーマットに変換する処理を行う。エンコーダ部210はネットワークI/F211に接続されている。
ネットワークI/F211は、クライアント装置103等の外部の装置とのネットワーク102を介した通信に利用されるインターフェースであって、通信制御部207により制御される。
ネットワーク102は、監視カメラ101と、クライアント装置103を接続するIPネットワークである。ネットワーク102は、例えばEthernet(登録商標)等の通信規格に適合する複数のルータ、スイッチ、ケーブル等から構成される。本実施形態では、ネットワーク102は、監視カメラ101とクライアント装置103との間の通信を行うことができるものであればよく、その通信規格、規模、構成などを問わない。例えば、ネットワーク102は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。
(クライアント装置の構成)
図3は、クライアント装置103の内部構成を例示的に説明するブロック図である。
クライアント装置103は、クライアントCPU301、主記憶装置302、補助記憶装置303、入力I/F304、出力I/F305およびネットワークI/F306を有する。クライアント装置103の各要素は、システムバス307を介して、相互に通信可能に接続されている。
クライアントCPU301は、クライアント装置103の動作を統括的に制御する中央演算装置である。なお、クライアントCPU301によって、ネットワーク102を介して監視カメラ101の統括的な制御を実行してもよい。
主記憶装置302は、クライアントCPU301のデータの一時的な記憶場所として機能するRAM等の記憶装置である。例えば、主記憶装置302は、クライアント装置103が顔検出や人体検出を行う際に使用するパターンマッチング用のパターン(顔の特徴部分や人体の特徴部分に対応するパターン)を予め格納している。
補助記憶装置303は、各種プログラム、各種設定データ等を記憶するHDD、ROM、SSD等の記憶装置である。HDDはHard Disk Driveの略である。SSDはSolid State Deviceの略である。
入力I/F304は、クライアント装置103が入力装置104等からの入力(信号)を受取る際に利用されるインターフェースである。
出力I/F305は、クライアント装置103から表示装置105等への情報(信号)を出力する際に利用されるインターフェースである。
ネットワークI/F306は、監視カメラ101等の外部の装置とのネットワーク102を介した通信に利用されるインターフェースである。
クライアントCPU301が、補助記憶装置303に記憶されたプログラムに基づき処理を実行することによって、図4に示すクライアント装置103の機能及び処理が実現される。この詳細については後述する。
(クライアント装置の機能)
図4は、クライアント装置103が実行する機能を例示的に説明する図である。換言すると、図4に図示する各部(機能ブロック)は、クライアントCPU301により実行され得る機能であって、当該各部はクライアントCPU301と同義である。
図4に示すように、クライアント装置103のクライアントCPU301は、入力情報取得部401、通信制御部402、入力画像取得部403、カメラ情報取得部404および検出方法設定部405を含む。またクライアントCPU301は、被写体検出部406、測光領域設定部407および表示制御部408を含む。なお、クライアント装置103は、クライアントCPU301とは別のハードウェア(またはソフトウェア)により、図4に図示する各部401~408の機能を実行してもよい。
入力信号取得部401は、入力装置104を介したユーザからの入力を受け付ける。
通信制御部402は、監視カメラ101から送信された画像(監視カメラ101により撮影された画像)を、ネットワーク102を介して受信するための制御を実行する。また、通信制御部402は、クライアント装置103から監視カメラ101への制御命令を、ネットワーク102を介して送信するための制御を実行する。
入力画像取得部403は、通信制御部402を介して監視カメラ101から受信した画像を、被写体の検出処理の対象である画像(被写体検出処理を適用する画像)として取得する。検出処理の詳細については後述する。
カメラ情報取得部404は、通信制御部402を介して、監視カメラ101により被写体を撮像する際のカメラ情報(撮像情報)を取得する。カメラ情報(撮像情報)は、被写体を撮像して画像を取得する際の種々の情報である。カメラ情報は、例えば、絞り値などの露出パラメータである。
検出方法設定部405は、入力画像取得部403により取得された画像に対して、顔領域の検出(顔検出)や人体領域の検出(人体検出)を含む様々な検出方法の中から、所定の(適切な)検出方法を設定する。顔検出を行う場合、後述する被写体検出部406は、画像における顔領域を優先して検出する。人体検出を行う場合、被写体検出部406は、画像における人体領域を優先して検出する。
本実施形態では、検出方法設定部405は、顔検出の検出方法または人体検出の検出方法を設定(選択)するとする。なお、本実施形態はこのような設定に限定されない。例えば、人物の上半身、顏の目、鼻、口などの一部領域などの人物の一部分の特徴領域を検出する検出方法を設定してもよい(選択できるようにしてもよい)。また、本実施形態では、検出対象の被写体は人物であるが、人物以外の所定の被写体に係る特定領域を検出可能な構成であってもよい。例えば、動物の顔や自動車など、クライアント装置103において予め設定された所定の被写体を検出可能な構成にしてもよい。
被写体検出部406は、検出方法設定部405で設定された検出方法に基づいて、所定の被写体領域の検出を行う。
測光領域設定部407は、監視カメラ101がカスタム測光モードの場合、自動露出制御(AE)に用いる領域を、監視カメラ101に対して設定する。AEはAutomatic Exposureの略である。図5は、本実施形態に係る測光モードと測光領域の関係について例示的に説明する図である。
本実施形態の監視カメラ101は、カスタム測光モードと中央重点測光モードとを有するとする。
カスタム測光モードとは、画像(画面)内の任意の位置に、ユーザが測光領域を指定(設定)できる測光モードである。カスタム測光モードの場合、例えば、図5(a)に示すように、ユーザは測光領域601を画像の左上の位置に設定することができる。カスタム測光モードにおいては、ユーザが意図する撮像(監視)の対象が、ユーザによって設定された測光領域(特定領域)に含まれる可能性が高いと考えられる。なお、図5(a)は、人物602が屋外603から屋内604に入る際の画像である。屋内604には消火器605が置かれている。図5(a)の2つの白矢印は、透明ガラスからなる自動ドア606が開動作をしたことを示している。室内604の上部604aは、例えば、黒色の壁である。監視カメラ101は室内604に設置されて、屋外603に向けてられている。人物602は、本実施形態において被写体と称する場合がある。画像中、人物602が写っている領域を被写体領域と称することができる。
中央重点測光モードとは、図5(b)に示すように、画像の中央付近に測光領域601が設定される測光モードである。中央重点測光モードの場合、ユーザが意図する撮像(監視)の対象が画像の略中央部に存在する可能性が高いと考えられる。
監視カメラ101は、設定された領域の測光結果に基づいて、露出制御を実行する。具体的には、測光結果の輝度値に対して、Av値(絞り値)、Tv値(シャッタースピード)、Sv値(撮影感度、ISO感度)等の露出パラメータの適切な組合せを演算する。図5(a)および図5(b)においては、測光領域601が屋外領域に設定されているため、露出制御を行うと逆光状態となり、人物602や屋内604が暗く撮影される。
表示制御部409は、クライアントCPU301からの指示に従い、監視カメラ101から取得した画像を表示装置105へ出力する。
(被写体の検出処理・露出決定処理)
以下、図6に示すフローチャートを参照して、本実施形態に係る測光領域選択処理(測光領域設定処理)について説明する。なお、図1の撮像制御システム100において、監視カメラ101、クライアント装置103、入力装置104および表示装置105の電源がオンされ、監視カメラ101とクライアント装置103の接続(通信)が確立しているとする。また、この状態で、監視カメラ101による所定の更新周期で被写体の撮像、監視カメラ101からクライアント装置103への画像データの送信、表示装置105での画像表示が繰り返されているものとする。監視カメラ101は、初期設定として、中央重点測光モードに設定されているものとする。そして、ネットワーク102を介して監視カメラ101からクライアント装置103に被写体の撮像画像が入力されたことに応じて、図6のフローチャートの処理がクライアントCPU301により開始されるものとする。以下の説明において、Sはステップの略である。
まず、S501において、クライアント装置103は、通信制御部402を介して監視カメラ101と通信を行い、監視カメラ101を中央重点測光モード(初期設定モード)からカスタム測光モードに設定(変更)する。
次に、S502において、クライアント装置103は、画像データから被写体の検出を行う。本実施形態では、顔または人体の検出を行う。クライアント装置103の主記憶装置302には、顏の特徴部分や人体の特徴部分に対応するそれぞれのパターンが予め格納されており、被写体検出部406は、当該パターンに基づくパターンマッチングにより顔領域と人体領域を検出する。顔領域を検出する場合は、一般的には、顏を高精度に検出することができ、被写体の顔領域と顔領域以外の領域とを明確に識別することができる。しかしながら、顏の向き、顏の大きさ、顏の明るさなどが顔検出に適した条件でない場合、顔領域を正確に検出することはできない。これに対して、人体検出を行う場合は、顏の向き、顏の大きさ、顏の明るさなどによらず人物が存在する領域を検出することができる。
なお、被写体の検出方法としてパターンマッチング法を採用する場合、パターンマッチングで使用するパターンとして、統計学習を使って作成されたパターン(識別器)を用いてもよい。あるいは、パターンマッチング以外の方法で被写体検出を行ってもよい。例えば、局所領域内の輝度勾配を用いて被写体検出を行ってもよい。すなわち、被写体の検出方法は特定の検出方法に限定されるものではなく、機械学習をベースにした検出や、距離情報に基づく検出など、種々の方法を採用できる。
S503において、被写体検出部406は、顔または人体の検出がなされたかどうかを判定する。検出されていればS504に進み、そうでなければ本処理を終了する。
S504において、測光領域設定部407は、被写体検出部406から得られる検出結果に基づいて、顔または人体の平均輝度値を算出する。具体的には、露出決定部407は、被写体検出部406から得られる検出結果に基づいて、顔または人体の検出数(検出された数)、検出位置、検出サイズに関する情報を下記の式(1)に適用する。算出された値は、AE前の平均輝度値として保持する。
Figure 0007414551000001
式(1)
ここで、I(x、y)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置(x、y)の輝度値を表す。また、fは検出された顔または人体の検出数を表し、(v、h)は顔または人体が検出された中心座標を表し、kは水平方向の被写体の検出サイズを表し、lは垂直方向の被写体の検出サイズを表す。なお、検出された人体部分のうち、既に検出されている顔に対応する人体部分については、式(1)における演算から除外してよい。
次に、S505において、測光領域設定部407は、入力画像の領域分割を行う。本実施形態では、図7(a)に示すように、画像を5ブロック×5ブロックの領域に分割するものとする。25個のブロック(領域)は全て同一の矩形状である。25個のブロックは、分割領域と称してもよい。本実施形態では、25個の領域のうち、3つの領域に符号701、702および703を付けた。図7(a)の領域701は図5の室内上部604aの一部であり、黒色の壁などの、逆光状態や順光状態にかかわらず輝度の低い領域である。領域702は室内の左側の領域であり、室内に入り込む外光により、領域701より少し明るい。領域703は屋外の一部であり、領域702より明るい。なお、領域704は分割領域ではなく、後述する顔人体領域(人物の顔と人体を含む領域)である。領域704は、人物602の領域なので、被写体領域と称してもよい。領域704は、少なくとも人物の顔または人体を含む。
次に、S506において、測光領域設定部407は、S505で分割した各領域rの平均輝度値を式(2)を用いて算出し、算出結果をAE前の平均輝度値として保持する。

Figure 0007414551000002
式(2)
ここで、I(x、y)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置(x、y)の輝度値を表す。また、(p、q)は各領域の中心座標を表し、mは水平方向の各領域のサイズを表し、nは垂直方向の各領域のサイズを表す。
次に、S507において、測光領域設定部407は、S502で検出された顔または人体領域を測光領域として、監視カメラ101に設定する。S507で設定される領域が、図7の顔人体領域704となる。
S508において、測光領域設定部407は、監視カメラ101に対し、AEの実行を指示する。
S509では、測光領域設定部407は、監視カメラ101のAEが完了するまで待機する。監視カメラ101のAEが完了したか否かは、例えば、クライアント装置103が監視カメラ101からAE完了通知を受け取ったか否かにより判定する。あるいは、監視カメラ101のAEが完了したか否かは、監視カメラ101からクライアント装置103へ入力される入力画像の輝度変化が安定したかどうかによって判定してもよい。
S510において、測光領域設定部407は、S504と同様に、顔または人体の平均輝度値を算出する。算出した値は、AE後の平均輝度値として保持する。
S511において、測光領域設定部407は、S506と同様に、分割した各領域の平均輝度値を算出する。算出した値は、AE後の平均輝度値として保持する。
S512において、測光領域設定部407は、顔人体領域704および各分割領域のそれぞれについて、AE後の平均輝度値からAE前の平均輝度値を引くことで、輝度変化量ΔIobjectおよびΔIareaを算出する。ΔIobjectは顔人体領域704のAE前後の平均輝度値の差であり、ΔIareaは各分割領域のAE前後の平均輝度値の差である。図8は、AE前の図7(a)の領域701~704と、AE後の図7(b)の領域701~704の輝度値の例を示している。AE前の輝度値のみに注目すると、顔人体領域704と最も近い輝度値を有する領域は領域701である。しかし、領域701のような黒色の領域(物体)の場合、AE後の輝度値は、顔人体領域704ほど上昇しない。また、明るい領域が多いシーンなどで、顔人体領域以外の領域の輝度値が飽和して白飛びしてしまう場合、AE後の輝度値のみに注目すると、適切な領域選択が行えない。適切な領域選択を行うために、本実施形態では、S513~S515の処理を行う。つまり、本実施形態では、AE前後の輝度変化量まで考慮して測光領域を設定する。
S513において、測光領域設定部407は、式(3)を満たす領域、すなわちS512で算出したΔIobjectとΔIareaの絶対値差分が閾値Th以下の領域を領域候補として抽出する。本実施形態では、領域702と領域703が式(3)を満たしたとする。
なお、閾値(パラメータ)Thが大きく設定すると、測光領域として設定される領域候補は増えるが、その反面、精度の低下が懸念される。閾値Thは、監視カメラ101の設置環境等に応じてユーザが適宜設定してもよいし、初期値として低い値を設定しておき、領域候補が所定数抽出されるまで徐々に値を増大させるようにしてもよい。
Figure 0007414551000003
式(3)
次に、S514において、測光領域設定部407は、S513で抽出された領域候補に対し、式(4)のように、S510において算出されるAE後の顔人体平均輝度値Iobjectと、S511において算出される各領域のAE後の平均輝度値Iareaとの差分値(輝度差)ΔIrを算出する。
Figure 0007414551000004
式(4)
次に、S515において、測光領域設定部407は、式(5)のように、S514で算出した差分値ΔIrが最小となる領域rを抽出し、カスタム測光モードにおける測光領域として監視カメラ101に設定し、本処理を終了する。本実施形態では、2つの領域候補である領域702と領域703のうち、領域702の差分値ΔIrが領域703の差分値ΔIrより小さいので、領域702がカスタム測光モードにおける測光領域として監視カメラ101に設定される。
Figure 0007414551000005
式(5)
以上説明したように、本実施形態の撮像制御システム100では、顔・人体の輝度に近い領域がカスタム測光の測光領域として自動的に設定(決定)される。このように測光領域を決定することで、AEによって顔・人体の検出に適した輝度に常に露出制御することができる。例えば、ガラス扉を採用した店舗入口やスタジアムゲートなど、天候や時刻で逆光と順光が変わることで来店者や来場者被写体(人物)の顔の明るさが変動したり、顔が長時間映らない時間帯が存在するような環境でも、適切な測光領域の設定が可能となる。よって、撮像画像において人物の顔が黒くつぶれるようなことはない。
従来、強い逆光状態で人物の顔が黒つぶれしてしまうような場合、黒色の物体(例えば、領域701)が測光領域として設定されてしまい、適切な露出調整が行えない場合がある。本実施形態によれば、領域701が選択されることはない。
なお、本実施形態では、輝度変化量の差分値が閾値(所定値)Th以下の領域のみを対象として測光領域を設定しているが、必ずしもこのようにする必要はない。例えば、輝度変化量の差分を、S514で算出される平均輝度値の差分値ΔIrに重みづけするようにしてもよい。
また、本実施形態では、顔または人体を検出するたびに(S503の判定結果がYesになるたびに)S504~S515の処理を行っているが、必ずしもこのようにする必要はない。例えば、動きの少ない人物を検出した場合にのみ図6の処理を実行してもよい。この場合、例えば、S501とS502の間に、被写体の移動速度を検出するステップを追加し、当該移動速度が所定値以下の場合にのみS502に進むようにする。動きの少ない安定した被写体に対して図6の処理を行うと、より精度よく処理を実行することができる。また、図6の処理は、監視カメラ101の設置時などに、図5のように逆光状態で人を立たせて一度だけ行ってもよい。
<実施形態2>
以下に、図1、図3~図5および図9~図12を参照して、本発明の実施形態2を説明する。本実施形態では、被写体602の距離情報(監視カメラ101から被写体までの距離)を用いることで、カスタム測光の測光領域として、顔や人体が検出される領域に近い領域を自動的に選択する方法を説明する。なお、実施形態1と同様の構成および処理については、同一の符号を付し、詳細な説明を省略する。
図9は、実施形態2に係る監視カメラ101の内部構成を例示的に説明するブロック図である。図9に示す監視カメラ101と実施形態1の監視カメラ101(図2)との相違点は、図9に示す監視カメラ101が撮像素子902と距離情報算出部912を備えていることである。
撮像素子902は、撮像光学系201で集光される光束を電流値(信号値)へと変換するCMOSやCCDなどの電荷蓄積型の固体撮像素子であって、カラーフィルタなどと組み合わせることで色情報を取得する撮像部である。本実施形態の撮像素子902は、後述する構成(図10および図11)を持つ像面位相差センサとしても機能する。
距離情報算出部912は、A/D変換部208より取得した画像信号から、画像中の各画素における距離情報を算出する。ここで、距離情報の算出について図10および図11を用いて説明する。図10は撮像素子902の1つの画素1001の構成を概略的に示した図である。画素1001は、マイクロレンズ1002を有する。また画素1001は、複数の光電変換領域としての複数のフォトダイオード(以下、「PD」と記載する)を有する。図10では、1つの画素1001が2つのPD1003、1004を有する例を示している。なお、PDの数は2つ以上であればよい。
図11は、撮像光学系201の射出瞳1106から出射した光束Lが撮像素子902の1つの画素1001に入射する様子を概念的に示した図である。図11には、撮像素子902の画素アレイ1101の断面が概略的に示されている。画素アレイ1101には、マイクロレンズ1002と、PD1003と、PD1004と、カラーフィルタ1005が含まれている。
図11では、マイクロレンズ1002を有する画素1001に対して、射出瞳1106から出射した光束Lの中心を、光軸1109で示している。射出瞳1106から出射した光束Lは光軸1109を中心として撮像素子902に入射する。
符号1107および1108は撮像光学系201の射出瞳1106の一部領域を示す。射出瞳1106の一部領域1107を通過する光の最外周の光線を符号1110および1111で示し、射出瞳1106の一部領域1108を通過する光の最外周の光線を符号1112および1113で示す。図11から分かるように、射出瞳1106から出射する光束Lのうち、光軸1109を境にして、上側の光束はPD1004に入射し、下側の光束はPD1003に入射する。つまり、PD1003、1004はそれぞれ撮像光学系201の射出瞳1106の異なる領域の光を受光している。ここで、PD1003で受光した光の信号をA像とし、PD1004で受光した光の信号をB像とすると、A像とB像の対の信号の視差に基づいてデフォーカス量を算出することができる。そして、デフォーカス量から距離情報を取得することができる。デフォーカス量は位相ずれ量(位相差)量である。このように、撮像素子902は、A像とB像を検出する像面位相差センサとして機能することができる。
以下、図12に図示するフローチャートを参照して、本実施形態に係る測光領域選択処理について説明する。なお、処理の開始タイミングについては実施形態1と同様なので説明は省略する。本実施形態においては、監視カメラ101の距離情報算出部912で算出された距離情報が、画像データとともに所定の更新周期でクライアント装置103へ送信されているものとする。
図12のフローチャートを図6のフローチャート(実施形態1)と比較すると分かるように、図12では、S503の次にS507~S510を実行し、S510の後にS505を実行し、S505の次にS511を実行する。また、実施形態2では、S511の次にS1201~S1207を実行する。S501~S503、S505、S507~S511の処理は実施形態1と同様なので、説明を省略する。実施形態2では、AE前の顔または人体の平均輝度を使用しないので、S504を実行しない。また、実施形態2では、AE前の分割領域の平均輝度を使用しないので、S506を実行しない。
S1201では、測光領域設定部407は、式(6)のように、監視カメラ101から得た距離情報から、顔または人体領域の平均距離Dobjectを算出する。
Figure 0007414551000006
式(6)
ここで、D(x、y)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置(x、y)の距離情報(m)を表す。また、fは検出された顔または人体の検出数を表し、(v、h)は顔または人体が検出された中心座標を表し、kは水平方向の被写体の検出サイズを表し、lは垂直方向の被写体の検出サイズを表す。なお、検出された人体部分のうち、既に検出されている顔に対応する人体部分については、式(6)における演算から除外してもよい。
次に、S1202において、測光領域設定部407は、距離情報の領域分割を行う。S1202の領域分割は、S505と同一数および同一サイズで行う。
S1203において、測光領域設定部407は、式(7)のように、S1202で分割した各領域(分割領域)の平均距離Dareaを算出する。
Figure 0007414551000007
式(7)
ここで、D(x、y)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置(x、y)の距離情報(m)を表す。また、(p、q)は各領域の中心座標を表し、mは水平方向の各領域のサイズを表し、nは垂直方向の各領域のサイズを表す。
次に、S1204において、測光領域設定部407は、式(8)のように、S1201において算出される顔人体領域の平均距離Dobjectと、S1203において算出される各領域の平均距離Dareaとの差分値ΔDrを算出する。
Figure 0007414551000008
式(8)
S1205において、測光領域設定部407は、式(9)のように、S510において算出されるAE後の顔人体平均輝度値Iobjectと、S511において算出される各領域のAE後の平均輝度値Iareaとの差分値ΔIrを算出する。
Figure 0007414551000009
式(9)
最後に、S1206およびS1207において、式(10)のように、平均輝度値の差分値ΔIrと平均距離の差分値ΔDrに基づいて、以下のように測光領域を選択する。
すなわち、S1206において、測光領域設定部407は、S1205で算出した平均輝度値の差分値ΔIrに対し、S1204で算出した平均距離の差分値ΔDrで重みづけを行う。本実施形態では、平均距離の差分値ΔDrの重みは、パラメータαを用いて調整する。例えば、環境光などの影響が顔人体領域と近い領域を優先して選択させる場合は、パラメータαを大きく設定する。つまり、ΔIr+ΔDr×αを算出する。
S1207において、測光領域設定部407は、S1206で重みづけした後の値(ΔIr+ΔDr×α)が最も小さい領域rを抽出し(式(10))、測光領域として監視カメラ101に設定し、本処理を終了する。
Figure 0007414551000010
式(10)
以上説明したように、実施形態2によれば、顔や人体が検出される領域と近い距離の領域が優先して測光領域として選択される。領域同士の距離が近いほど、周辺の環境光(外光、室内灯など)による影響も近くなると考えられる。本実施形態のような処理を行うことにより、周辺の環境光の影響が顔や人体が検出される領域と近い領域でAEが行われるようになり、環境光の変化が発生した場合でも、精度低下を抑制することができる。
なお、本実施形態では、像面位相差センサ(撮像素子902)から取得した奥行方向(例えば、図7の紙面に垂直な方向)の距離情報に基づいてS1201~S1207の処理を実行しているが、本実施形態はこれに限定されない。奥行方向の距離情報が得られないセンサ(撮像素子)を使用する監視カメラ101であれば、画角と画像の画素位置に基づいて横方向の距離を算出し、本実施形態の処理を適用してもよい。さらに、奥行方向と横方向との両方の距離情報から斜め方向の距離を算出し、本実施形態の処理を適用することもできる。
また、本実施形態の処理と実施形態1の処理とを組み合わせることで、より精度を向上させることも可能である。この場合、実施形態1におけるS515において、本実施形態におけるS1206~S1207と同様に、平均距離差ΔDrで重みづけを行えばよい。
<実施形態3>
以下に、図1~図4および図13~図15を参照して、本発明の実施形態3を説明する。実施形態1では、図6の処理により、監視カメラ101が露光制御を行う際に用いる測光領域を、クライアント装置103が自動的に設定(決定)した。本実施形態では、監視カメラ101が露光制御を行う際に用いる測光領域を、ユーザが決定できる態様を説明する。なお、実施形態1と同様の構成および処理については、同一の符号を付し、詳細な説明を省略する。
図13に図示するフローチャートを参照して、本実施形態に係る測光領域選択処理について説明する。図13のフローチャートを図6のフローチャートと比較すると分かるように、実施形態3(図13)では、S501の前にS1301を実行し、次にS501~S514を実行し、S514の後にS1303~S1304を実行する。実施形態1で実行したS515は、実施形態3では実行しない。S501~S514の処理は実施形態1と同様なので、説明を省略する。
ユーザが入力装置104を操作して監視カメラ101の測光モードを手動で設定するための指示をクライアント装置103に入力すると、S1301において、測光領域設定部407は、図14に示すようなGUI105aを表示装置105に表示する。GUIはGraphical User Interfaceの略である。GUI105aにより、表示装置105は、ユーザに測光領域設定処理の開始を促す。開始ボタン1401が押下されると、S501に進む。そして、S501~S514の処理が行われる。S514の後、S1302に進む。
S1302において、測光領域設定部407は、S513で抽出された領域について、S514で算出した差分値に基づいて、昇順ソート処理(差分値が小さいものから順に並び替え)を行う。
S1303において、測光領域設定部407は、S1302で並び変えた領域のうち、上位から所定数の領域を表示装置105に領域候補として、入力画像(監視カメラ101の撮像画像)に重畳させて表示し、ユーザに選択を促す。図15は、所定数を3としたとき(つまり、3つの領域候補がある場合)の表示装置105の画面(選択画面)を示す。表示装置105の画面には、ユーザに選択を促すメッセージが表示されている。領域1501は、上位1番目の領域候補であり、領域1502は上位2番目の領域候補であり、領域1503は上位3番目の領域候補である。本実施形態では、領域1501~1503の中に、候補順位を表す数字「1」、「2」、「3」を表示している。当該数字により、ユーザが直感的に領域を選択しやすいようにしている。つまり、領域候補(分割領域)が2つ以上ある場合、当該2つ以上の領域候補の表示形態を変えることにより、ユーザが領域を選択しやすいようにしている。
ユーザは入力装置104を用いて、領域1501~1503のいずれか1つを選択する。当該選択は、例えば、入力装置104のマウスをクリックすること、キーボードのカーソルキーを操作すること、タッチパネルへ触れること等によって行われる。例えば、ユーザは領域1501を選択する。
最後に、測光領域設定部407は、S1303で選択された領域を、測光領域として監視カメラ101に設定し、本処理を終了する。
以上、本実施形態によれば、ユーザと対話式で測光領域設定を行うことができる。本実施形態では、所定数の領域候補を入力画像に重畳させて表示し、その中から1つの領域をユーザに選択させている。このようにすることで、ユーザは領域候補の中から変動の少ない領域を直感的に選択することができる。このような領域が測光領域として設定されることで、より安定したAEが行われるようになり、顔や人体の検出性能低下を抑制することができる。
なお、上記した実施形態では、ユーザが領域1501を選択するとしたが、他の領域候補を選択する場合も有り得る。例えば、領域1501に消火器ではなく段ボール箱がある場合、段ボール箱は領域1501から撤去される可能性がある。段ボール箱が領域1501から撤去されると、領域1501の輝度が変化し得るので、ユーザは領域1501を測光領域として選択することが不適当であると考える場合がある。このような場合、ユーザは領域1502を選択してよい。
また、表示装置105に表示する領域候補の数は3としたが、1以上であればよい。
実施形態3は実施形態1との比較で説明されたが、実施形態3のような手動設定は、実施形態2にも適用できる。この場合、例えば、S1206で得られるΔIr+ΔDr×αの値が所定値以下の分割領域を領域候補として表示装置105に表示する。そして、S1207を実行することなく、表示装置105に領域候補を表示し、ユーザに選択を促す。領域候補が複数ある場合は、領域候補の表示形態を変える。
上記した実施形態では、監視カメラ101が説明されたが、監視カメラ101以外の撮像装置を使用してもよい。また、監視カメラ101とクライアント装置103が別々の装置であるとして説明されているが、クライアント装置103と監視カメラ101を一体化してもよい。この場合、クライアント装置103と監視カメラ101を一体化してできる撮像装置が図6、図12または図13の測光領域の設定処理を行う。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:監視カメラ、103:クライアント装置、105:表示装置、301:CPU、403:入力画像取得部、406:被写体検出部、407:測光領域設定部、602:人物(被写体)、701~703:ブロック(分割領域)、704:顔人体領域

Claims (13)

  1. 撮像装置が撮像した画像内で被写体領域を検出する検出手段と、
    前記画像を複数の分割領域に分割する分割手段と、
    前記被写体領域の輝度値と、前記分割領域の輝度値との差分である輝度差を算出する第1の算出手段と、
    前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記被写体領域の輝度値の差分である第1の変化量と、前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記分割領域の輝度値の差分である第2の変化量とをそれぞれ算出する第2の算出手段と、
    前記第1の変化量と、前記第2の変化量と、前記輝度差とに基づいて、前記撮像装置が露光制御を行う際に用いる測光領域を決定する決定手段と、
    を有することを特徴とした制御装置。
  2. 前記決定手段は、前記複数の分割領域のうち、前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域の輝度値と、前記被写体領域の輝度値との差分とに基づいて、前記測光領域を決定する請求項1に記載の制御装置。
  3. 前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域が2つ以上ある場合、前記決定手段は、前記2つ以上の分割領域のうち、前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域の輝度値と、前記被写体領域の輝度値との差分が最も小さい分割領域を、前記測光領域として決定する請求項1または2に記載の制御装置。
  4. 前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域を表示する表示手段をさらに有する請求項1または2に記載の制御装置。
  5. 前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域が2つ以上ある場合、前記表示手段は、前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域の輝度値と、前記被写体領域の輝度値との差分とに基づいて、前記2つ以上の分割領域の表示形態を変える請求項に記載の制御装置。
  6. 撮像装置が撮像した画像内で被写体領域を検出する検出手段と、
    前記画像を複数の分割領域に分割する分割手段と、
    前記被写体領域の輝度値と、前記分割領域の輝度値との差分を輝度差として算出する第1の算出手段と、
    前記撮像装置から前記被写体領域までの距離と、前記撮像装置から前記分割領域までの距離との差分を距離差として算出する第2の算出手段と、
    前記輝度差と前記距離差に基づいて、前記撮像装置が露制御を行う際に用いる測光領域を決定する決定手段と、
    を有することを特徴とした制御装置。
  7. 前記第1の算出手段は、前記撮像装置が前記被写体領域を測光領域として露出制御を行った後における前記被写体領域の輝度値と前記分割領域の輝度値との差分を前記輝度差として算出する請求項に記載の制御装置。
  8. 前記検出手段は、前記被写体領域として、少なくとも人物の顔または人体を検出する請求項1~のいずれか一項に記載の制御装置。
  9. 前記露光制御は、前記画像中の任意の位置に測光領域を設定できる露光制御である請求項1~のいずれか一項に記載の制御装置。
  10. 画像を撮像する撮像手段と、
    前記撮像手段が撮像した画像に基づいて、前記撮像手段の測光領域を決定する請求項1~のいずれか一項に記載の制御装置と、
    を備える装置。
  11. 撮像装置が撮像した画像内で被写体領域を検出するステップと、
    前記画像を複数の分割領域に分割するステップと、
    前記被写体領域の輝度値と、前記分割領域の輝度値との差分である輝度差を算出するステップと、
    前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記被写体領域の輝度値の差分である第1の変化量と、前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記分割領域の輝度値の差分である第2の変化量とをそれぞれ算出するステップと、
    前記第1の変化量と、前記第2の変化量と、前記輝度差とに基づいて、前記撮像装置が露光制御を行う際に用いる測光領域を決定するステップと、
    を有することを特徴とした制御方法。
  12. 撮像装置が撮像した画像内で被写体領域を検出する検出ステップと、
    前記画像を複数の分割領域に分割するステップと、
    前記被写体領域の輝度値と、前記分割領域の輝度値との差分を輝度差として算出するステップと、
    前記撮像装置から前記被写体領域までの距離と、前記撮像装置から前記分割領域までの距離との差分を距離差として算出するステップと、
    前記輝度差と前記距離差に基づいて、前記撮像装置が露出制御を行う際に用いる測光領域を決定するステップと、
    を有することを特徴とした制御方法。
  13. コンピュータを、請求項1からのいずれか1項に記載の制御装置の各手段として機能させるためのプログラム。
JP2020010098A 2020-01-24 2020-01-24 制御装置および制御方法 Active JP7414551B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020010098A JP7414551B2 (ja) 2020-01-24 2020-01-24 制御装置および制御方法
EP21151885.7A EP3855724B1 (en) 2020-01-24 2021-01-15 Control apparatus, control method, storage medium, and imaging control system
US17/154,518 US11587324B2 (en) 2020-01-24 2021-01-21 Control apparatus, control method, storage medium, and imaging control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020010098A JP7414551B2 (ja) 2020-01-24 2020-01-24 制御装置および制御方法

Publications (2)

Publication Number Publication Date
JP2021117333A JP2021117333A (ja) 2021-08-10
JP7414551B2 true JP7414551B2 (ja) 2024-01-16

Family

ID=74186521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010098A Active JP7414551B2 (ja) 2020-01-24 2020-01-24 制御装置および制御方法

Country Status (3)

Country Link
US (1) US11587324B2 (ja)
EP (1) EP3855724B1 (ja)
JP (1) JP7414551B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094212A1 (ja) 2011-12-22 2013-06-27 パナソニック株式会社 露光制御装置、撮像装置、画像表示装置及び露光制御方法
JP2015050733A (ja) 2013-09-04 2015-03-16 キヤノン株式会社 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置
JP2017003709A (ja) 2015-06-08 2017-01-05 キヤノン株式会社 撮像装置、発光制御方法、プログラム
WO2018150768A1 (ja) 2017-02-20 2018-08-23 ソニー株式会社 測光装置、測光方法、プログラムおよび撮像装置
JP2019028378A (ja) 2017-08-03 2019-02-21 株式会社シグマ 撮像装置及び撮像装置の制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280359A (en) * 1991-04-05 1994-01-18 Matsushita Electric Industrial Co., Ltd. Image pick-up device with auto lens control for freely selecting photometric area
US6765608B1 (en) * 1999-03-09 2004-07-20 Minolta Co., Ltd. Image processing apparatus and system executing predetermined image processing on image data shot by camera, and image recording medium recorded with image processing program
JP3926572B2 (ja) * 2001-03-02 2007-06-06 株式会社日立製作所 画像監視方法、画像監視装置及び記憶媒体
US7447418B2 (en) * 2003-01-17 2008-11-04 Matsushita Electric Industrial Co., Ltd. Image reproducing device and image recording/reproducing device
JP2006287589A (ja) * 2005-03-31 2006-10-19 Canon Inc 画像処理方法、画像処理装置
JP4022249B2 (ja) * 2005-12-28 2007-12-12 松下電器産業株式会社 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム
US7646549B2 (en) * 2006-12-18 2010-01-12 Xceed Imaging Ltd Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging
JP4212109B2 (ja) * 2007-03-20 2009-01-21 パナソニック株式会社 撮影装置および撮影方法
JP4626632B2 (ja) * 2007-06-25 2011-02-09 株式会社日立製作所 映像監視システム
JP4756660B2 (ja) * 2008-03-14 2011-08-24 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP5361528B2 (ja) * 2009-05-15 2013-12-04 キヤノン株式会社 撮像装置およびプログラム
JP5824972B2 (ja) * 2010-11-10 2015-12-02 カシオ計算機株式会社 撮像装置、フレームレート制御装置、撮像制御方法及びプログラム
JP2016045874A (ja) * 2014-08-26 2016-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094212A1 (ja) 2011-12-22 2013-06-27 パナソニック株式会社 露光制御装置、撮像装置、画像表示装置及び露光制御方法
JP2015050733A (ja) 2013-09-04 2015-03-16 キヤノン株式会社 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置
JP2017003709A (ja) 2015-06-08 2017-01-05 キヤノン株式会社 撮像装置、発光制御方法、プログラム
WO2018150768A1 (ja) 2017-02-20 2018-08-23 ソニー株式会社 測光装置、測光方法、プログラムおよび撮像装置
JP2019028378A (ja) 2017-08-03 2019-02-21 株式会社シグマ 撮像装置及び撮像装置の制御方法

Also Published As

Publication number Publication date
JP2021117333A (ja) 2021-08-10
EP3855724B1 (en) 2024-03-27
US20210232827A1 (en) 2021-07-29
US11587324B2 (en) 2023-02-21
EP3855724A1 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
KR102010228B1 (ko) 화상처리장치, 화상처리방법, 및 프로그램
CN111107276B (zh) 信息处理设备及其控制方法、存储介质以及摄像系统
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
CN101854484B (zh) 图像选择装置、图像选择方法
US20160119550A1 (en) Image processing device, image capturing device including image processing device, image processing method, and program
JP2010010729A (ja) 撮像装置及びプログラム
KR20110025621A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 기억 매체
JP2006211416A (ja) 画像処理装置及び方法
JP2016100696A (ja) 画像処理装置、画像処理方法、及び画像処理システム
KR101206389B1 (ko) 화상 처리장치, 화상 처리방법 및 기억매체
CN107968913B (zh) 显示控制设备、显示控制设备的控制方法和存储介质
CN104754212A (zh) 电子装置以及通过使用该电子装置捕获移动对象的方法
CN103096094A (zh) 视觉识别装置和方法
WO2015194091A1 (ja) 撮像装置および撮像方法
JP6270578B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP7414551B2 (ja) 制御装置および制御方法
JP5000699B2 (ja) 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム
JP5359930B2 (ja) 撮像装置、表示方法、および、プログラム
JP2023090492A (ja) 画像処理装置および画像処理方法、撮像装置
JP7353864B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム、撮像システム
JP2021136671A (ja) 情報処理装置、撮像装置、方法、プログラム及び記憶媒体
JP6625093B2 (ja) 表示制御装置および撮像装置
JP2019033470A (ja) 画像処理システム、撮像装置、画像処理装置、制御方法およびプログラム
EP3442218A1 (en) Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner
US20240031683A1 (en) Image capturing apparatus, control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R151 Written notification of patent or utility model registration

Ref document number: 7414551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151