JP2023047757A - Information processing device, imaging apparatus, method, and storage medium - Google Patents
Information processing device, imaging apparatus, method, and storage medium Download PDFInfo
- Publication number
- JP2023047757A JP2023047757A JP2021156855A JP2021156855A JP2023047757A JP 2023047757 A JP2023047757 A JP 2023047757A JP 2021156855 A JP2021156855 A JP 2021156855A JP 2021156855 A JP2021156855 A JP 2021156855A JP 2023047757 A JP2023047757 A JP 2023047757A
- Authority
- JP
- Japan
- Prior art keywords
- exposure
- exposure correction
- value
- unit
- correction value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 72
- 230000010365 information processing Effects 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title claims description 19
- 238000012937 correction Methods 0.000 claims abstract description 77
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 238000001514 detection method Methods 0.000 claims description 35
- 210000000746 body region Anatomy 0.000 claims description 11
- 238000012545 processing Methods 0.000 description 35
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
Images
Abstract
Description
情報処理装置、撮像装置、方法及び記憶媒体に関する。 The present invention relates to an information processing device, an imaging device, a method, and a storage medium.
従来、撮像装置が撮像した画像から特定の領域を検出し(例えば人体や顔の領域)、特定の領域に関する情報(例えば輝度値)に基づいて、撮像装置の露出値や露出情報(露光時間、ゲイン、絞り値など)を制御する技術が開示されている。 Conventionally, a specific region is detected from an image captured by an imaging device (for example, a human body or face region), and based on information about the specific region (for example, luminance value), the exposure value and exposure information (exposure time, exposure time, gain, aperture value, etc.) is disclosed.
本発明が解決しようとする課題は、複数の特定の領域が検出された場合に、より好適に撮像装置の露出値や露出情報を制御することである。 The problem to be solved by the present invention is to more preferably control the exposure value and exposure information of an imaging device when a plurality of specific regions are detected.
上記課題を解決するために、本発明の一態様に係る撮像装置は、撮像装置が撮像した画像を取得する取得部と、前記取得部が取得した前記画像から特定の領域を検出する検出部と、前記検出部が検出した前記特定の領域の輝度情報に基づいて、前記撮像装置の現在の露出値と目標の露出値との差分である露出補正値を算出する算出部であって、前記検出部が複数の特定の領域を検出した場合に、該複数の特定の領域毎の輝度情報に対応する複数の露出補正値を算出する算出部と、前記複数の露出補正値から絶対値が最小の露出補正値を決定する決定部と、を有することを特徴とする情報処理装置。 To solve the above problems, an imaging device according to an aspect of the present invention includes an acquisition unit that acquires an image captured by the imaging device, and a detection unit that detects a specific region from the image acquired by the acquisition unit. a calculating unit for calculating an exposure correction value, which is a difference between a current exposure value of the imaging device and a target exposure value, based on the luminance information of the specific region detected by the detecting unit, a calculating unit for calculating a plurality of exposure correction values corresponding to luminance information for each of the plurality of specific regions when the unit detects a plurality of specific regions; and a determination unit that determines an exposure correction value.
本発明によれば、複数の特定の領域が検出された場合に、より好適に撮像装置の露出補正値や露出情報を制御することである。 According to the present invention, when a plurality of specific areas are detected, the exposure correction value and exposure information of the imaging device are more preferably controlled.
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiments described below are examples of means for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions, and the present invention is the following embodiments. is not limited to Also, a part of each embodiment described later may be appropriately combined.
<実施形態1>
(システム構成)
図1は、本実施形態に係る撮像制御システムの構成の一例を示すブロック図である。図1に示す撮像制御システムは、撮像装置101と、ネットワーク102、クライアント装置103と、入力装置104、表示装置105から構成されている。なお、撮像装置101は、動画像を取得するための被写体の撮像および画像処理が可能な装置である。そして、撮像装置101とクライアント装置103とは、ネットワーク102を介して相互に通信可能な状態で接続されている。
<
(System configuration)
FIG. 1 is a block diagram showing an example of the configuration of an imaging control system according to this embodiment. The imaging control system shown in FIG. 1 includes an
(装置構成)
図2は、本実施形態に係る監視カメラの装置構成の一例を示すブロック図である。撮像光学系201はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞りやシャッターなどから構成され、被写体の光情報を集光する光学部材群である。
(Device configuration)
FIG. 2 is a block diagram showing an example of the device configuration of the monitoring camera according to this embodiment. An imaging
撮像素子202は、撮像光学系201にて集光される光束を電流値(信号値)へと変換するCMOSやCCDなどの電荷蓄積型の固体撮像素子であって、カラーフィルタなどと組み合わせることで色情報を取得する撮像部である。なお、撮像素子202は、画素に対して任意の露光時間を設定可能な撮像センサーである。
The
CPU203は、撮像装置101の動作を統括的に制御する制御部である。CPU203は、ROM(Read Only Memory)204や、RAM(Random Access Memory)205に格納された命令を読み込み、その命令に従って処理を実行する。また、撮像系制御部206は、撮像光学系201に対して、フォーカス制御、シャッター制御、絞り調整などの(CPU203から指示に基づく)撮像装置101の各部の制御を行う。通信制御部207は、クライアント装置103との通信によって、撮像装置101の各部に係る制御をCPU203に伝達するための制御を行う。
A
A/D変換部208は、撮像素子202にて検知した被写体の光量をデジタル信号値に変換する。画像処理部209は、撮像素子202から出力されたデジタル信号の画像データに対して、画像処理を行う画像処理手段である。エンコーダー部210は、画像処理部209にて処理された画像データをMotion JpegやH264、H265などのファイルフォーマットに変換処理を行う変換手段である。ネットワークI/F211は、クライアント装置103等の外部の装置とのネットワーク102を介した通信に利用されるインターフェースであって、通信制御部207により制御される。
An A/
ネットワーク102は、撮像装置101と、クライアント装置103を接続するIPネットワークである。ネットワークは、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。本実施形態では、ネットワーク102は、撮像装置101とクライアント装置103との間の通信を行うことができるものであればよく、その通信規格、規模、構成などを問わない。例えば、ネットワーク102は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。
A
図3は、本実施形態に係る情報処理装置の装置構成の一例を示すブロック図である。クライアント装置103は、クライアントCPU301、主記憶装置302、補助記憶装置303、入力I/F304、出力I/F305、ネットワークI/F306を含む。各要素は、システムバスを介して、相互に通信可能に接続されている。
FIG. 3 is a block diagram showing an example of the configuration of the information processing apparatus according to this embodiment. The
クライアントCPU301は、クライアント装置103の動作を統括的に制御する中央演算装置である。なお、クライアントCPU301によって、ネットワーク102を介して撮像装置101の統括的な制御を実行する構成であってもよい。主記憶装置302は、クライアントCPU301のデータの一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置303は、各種プログラム、各種設定データ等を記憶するHDD、ROM、SSD等の記憶装置である。入力I/F304は、入力装置104等からの入力を受付ける際に利用されるインターフェースである。出力I/F305は、表示装置105等への情報の出力に利用されるインターフェースである。ネットワークI/F306は、撮像装置101等の外部の装置とのネットワーク102を介した通信に利用されるインターフェースである。
The
クライアントCPU301が、補助記憶装置303に記憶されたプログラムに基づき処理を実行することによって、図4に示すクライアント装置103の機能及び処理が実現される。この詳細については後述する。
The
図1に図示するように、入力装置104は、マウスやキーボード等から構成される入力装置である。表示装置105は、クライアント装置103出力した画像を表示するモニタ等の表示装置である。本実施形態では、クライアント装置103と入力装置104と表示装置105とがそれぞれ独立した構成であるがこれに限定されるものではない。例えば、クライアント装置103と表示装置105とが、一体化されていてもよいし、入力装置104と表示装置105とが一体化されていてもよい。また、クライアント装置103と入力装置104と表示装置105とが、一体化されていてもよい。また、コンシューマカメラのように撮像装置101、クライアント装置103、入力装置104及び表示装置105が一体化されていてもよい。その場合は、図4に図示するクライアント装置103の機能構成を撮像装置101が有する。
As shown in FIG. 1, the
図4は、本実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。換言すると、図4に図示する各部は、クライアントCPU301により実行され得る機能・構成であって、これらの各部はクライアントCPU301と同義である。すなわち、クライアント装置103のクライアントCPU301は、入力信号取得部401、通信制御部402、入力画像取得部403、カメラ情報取得部404、被写体検出部405、露出算出部406、露出決定部407、表示制御部408を含む。なお、クライアント装置103が、クライアントCPU301とは別の構成として、図4に図示する各部を備える構成であってもよい。
FIG. 4 is a block diagram showing an example of the functional configuration of the information processing apparatus according to this embodiment. In other words, each unit illustrated in FIG. 4 is a function/configuration that can be executed by the
入力信号取得部401は、入力装置104を介したユーザによる入力を受け付ける入力手段である。
The input
通信制御部402は、撮像装置101から送信された画像を、ネットワーク102を介して受信するための制御を実行する。また、通信制御部402は、撮像装置101への制御命令を、ネットワーク102を介して送信するための制御を実行する。
A
入力画像取得部(取得部)403は、通信制御部402を介して、撮像装置101により撮影された画像を、被写体の検出処理の対象である画像として取得する画像取得手段である。検出処理の詳細については後述する。カメラ情報取得部404は、通信制御部402を介して、撮像装置101による被写体を撮像する際のカメラ情報(撮像情報)を取得する取得手段である。カメラ情報(撮像情報)は、被写体を撮像して画像を取得する際の種々の情報であり、撮像装置101に設定された現在の露出値や露出情報(露光時間、ゲイン、絞り値など)を含む。
An input image acquisition unit (acquisition unit) 403 is an image acquisition unit that acquires an image captured by the
被写体検出部(検出部)405は、入力画像取得部403により取得された画像から特定の領域を検出する。特定の領域とは、例えば顔領域、顔器官領域、人体領域などである。本実施形態では、特定の領域として顔及び人体の領域を例として説明するが、動物や自動車等の被写体の領域を検出する構成であってもよい。 A subject detection unit (detection unit) 405 detects a specific area from the image acquired by the input image acquisition unit 403 . A specific region is, for example, a face region, a facial organ region, a human body region, or the like. In this embodiment, regions of a face and a human body are described as examples of specific regions, but the configuration may be such that a region of a subject such as an animal or a car is detected.
露出算出部(算出部)406は、被写体検出部405から得られる検出結果に基づき、被写体を撮像し画像を取得する際の目標露出を算出する。目標露出は、クライアント装置103に予め記録された露出制御用のプログラム線図に従う露出値であり、被写体検出部405が検出した特定の領域の輝度情報(例えば輝度値)に基づいて算出される。この目標露出は被写体単位に決定される。例えば3つの被写体がある場合は被写体それぞれに目標露出が決定され合計3つの目標露出が算出される。露出算出部406は、入力画像取得部が取得した現在の露出値と目標露出の値との差分である露出補正値も算出する。目標露出と同様に、複数の特定の領域が検出された場合は、複数の特定の領域毎に対応する複数の露出補正値を算出する。目標露出或いは露出補正値は補助記憶装置303などに一時的に記憶される。
An exposure calculation unit (calculation unit) 406 calculates a target exposure when capturing an image of a subject and obtaining an image based on the detection result obtained from the
露出決定部(決定部)407は記憶された目標露出(露出補正値)から所定の条件により露出を決定する。露出算出部406、露出決定部407の動作に係る詳細な処理については、図5のフローチャートを参照して後述する。表示制御部408は、クライアントCPU301からの指示に従い、露出決定部407で決定された露出が反映された画像を表示装置105へ出力する表示制御手段である。
An exposure determining unit (determining unit) 407 determines exposure according to predetermined conditions from the stored target exposure (exposure correction value). Detailed processing related to the operations of the
(被写体の検出処理・露出決定処理)
以下、図5に図示するフローチャートを参照して、本実施形態に係る被写体の検出処理および露出決定処理について説明する。図5は、本実施形態に係る情報処理装置の露出決定処理の一例を示すフローチャートである。なお、図1に図示する撮像システムにおいて、各装置の電源がオンされ、撮像装置101とクライアント装置103の接続(通信)が確立した状態を前提とする。そして、この状態で、当該撮像システムにおいて所定の更新周期で被写体の撮像および画像データの送信、表示装置での画像表示が繰り返されているものとする。そして、ネットワーク102を介して撮像装置101からクライアント装置103のクライアントCPU301が、被写体を撮像することで得られた画像が入力されたことに応じて、図5に図示するフローチャートが開始されるものとする。
(Subject detection processing/exposure determination processing)
Subject detection processing and exposure determination processing according to the present embodiment will be described below with reference to the flowchart shown in FIG. FIG. 5 is a flowchart showing an example of exposure determination processing of the information processing apparatus according to this embodiment. In the imaging system illustrated in FIG. 1, it is assumed that each device is powered on and the connection (communication) between the
まず、ステップS501において、カメラ情報取得部404から、撮像装置101によって被写体を撮像して画像を取得した際のカメラ情報(撮像情報)を取得する。
First, in step S<b>501 , the camera information (imaging information) obtained when the
ステップS502において、被写体検出部405は被写体(特定の領域)の検出を行う。顔検出領域と人体検出領域とでは、画像に適用する検出方法が異なる。例えば、顔検出領域や人体検出領域においては、顏の特徴部分や人体の特徴部分に対応するそれぞれのパターンが予めクライアント装置103側に格納されており、このパターンに基づくパターンマッチングにより顔領域と人体領域を検出する。顔領域を検出する場合は、顏を高精度に検出することができ、顔領域と顔以外の被写体とを明確に識別することができる。しかしながら、顏の向きや顏の大きさ、顏の明るさなどが顔検出に適した条件でない場合、顔領域を正確に検出することはできない。これに対して、人体検出を行う場合は、顏の向きや顏の大きさ、顏の明るさなどによらず人物が存在する領域を検出することができる。
In step S502, the
なお、被写体の検出方法としては、前述したパターンマッチング方法として統計学習を使って作成されたパターン(識別器)を用いてもよいし、パターンマッチング以外の方法として、局所領域内の輝度勾配を用いた被写体検出を行う構成でもよい。すなわち、検出方法として限定されるものではなく、機械学習をベースにした検出や、距離情報に基づく検出など、種々の方法を採用できる。 As a method for detecting an object, a pattern (discriminator) created using statistical learning may be used as the pattern matching method described above, or a luminance gradient in a local region may be used as a method other than pattern matching. The configuration may be such that the subject is detected. That is, the detection method is not limited, and various methods such as detection based on machine learning and detection based on distance information can be employed.
次に、ステップS503において、露出算出部406は、被写体検出部405から得られる検出結果に基づいて、各顔領域の平均輝度値Ifaceおよび各人体領域Ibodyの平均輝度値を算出する。具体的に、露出算出部406は、被写体検出部405から得られる検出結果に基づいて、顔および人体が検出された検出位置や、検出サイズに関する情報を下記の式(1)および式(2)に適用する。なお、本実施形態では、輝度値の単位としては、APEX(ADDITIVE SYSTEM OF PHOTOGRAPHIC EXPOSURE)単位におけるBV値として算出する。
Next, in step S<b>503 , the
ここで、I(x、y)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置(x、y)の輝度値を表す。また、(v、h)は顔および人体が検出された中心座標を表し、k、lはそれぞれ水平方向および、垂直方向の被写体の検出サイズを表す。 Here, I(x, y) represents the luminance value of the two-dimensional coordinate position (x, y) in the horizontal direction (x-axis direction) and vertical direction (y-axis direction) in the image. Also, (v, h) represent the center coordinates at which the face and human body are detected, and k and l represent the detected size of the subject in the horizontal and vertical directions, respectively.
次に、ステップS504において、露出算出部406は、式(3)のように、予め定められた顔領域の目標輝度値IfacetargetとIfaceとの差分値ΔDifffaceを算出する。又、式(4)のように、予め定められた人体領域の目標輝度値IbodytargetとIbodyとの差分値ΔDiffbodyを算出する。
Next, in step S504, the
ここで、顔領域の目標輝度値Ifacetargetおよび人体領域の目標輝度値Ibodytargetは、ユーザが予め設定した目標値であってもよいし、ハードウェア上に予め設定される固定値であってもよい。 Here, the target luminance value Ifacetarget of the face region and the target luminance value Ibodytarget of the human body region may be target values preset by the user or may be fixed values preset on hardware.
次に、ステップS505において、露出算出部406は人体領域と顔領域の輝度情報である差分値ΔDifffaceおよびΔDiffbodyと、予め定められた閾値Thと現在の露出に係る露出値EVcurrentに基づき、露出の補正量(目標露出)EVcorrectionを算出する。例えば、式(5)のように補正量EVcorrectionを算出する。なお、EVcurrentは、被写体輝度値(BV値)に基づくAPEX換算のEV値であって、クライアント装置103に予め格納された、露出制御に係るプログラム線図に基づいて設定される。
Next, in step S505, the
ここで、パラメータβおよびγは現在の露出値EVcurrentと目標露出EVcоrrectiоnとの差分である露出補正値である。露出補正値は、現在の露出値EVcurrentを中心とし、露出のアンダー側あるいは露出のオーバー側に露出を補正する際の補正度合(速度)に影響を与える係数である。βおよびγは正の値でβ<γの関係にある。このパラメータβおよびγは、差分ΔDiffが、設定された閾値2Th又はTh以上であった場合に、現在の露出値EVcurrentに対する露出の補正値として設定される。ΔDiffの絶対値が大きいほど露出補正値の絶対値も大きくなる。 where the parameters β and γ are exposure correction values that are the difference between the current exposure value EVcurrent and the target exposure EVcorrection. The exposure correction value is a coefficient that affects the degree of correction (speed) when correcting the exposure to the underexposure side or the overexposure side centering on the current exposure value EVcurrent. β and γ are positive values and have a relationship of β<γ. The parameters β and γ are set as exposure correction values for the current exposure value EVcurrent when the difference ΔDiff is equal to or greater than the set threshold 2Th or Th. The larger the absolute value of ΔDiff, the larger the absolute value of the exposure correction value.
次に、ステップS506で露出決定部407は、各顔領域と各人体領域毎に算出された露出補正値をカウントする。図6は、本実施形態に係る情報処理装置において、算出された露出補正値に対応する特定の領域の数(顔領域と人体領域の数)をカウントした結果の一例を示す図である。領域数はその露出補正値が算出された顔領域数と人体領域数の合計である。この図6の場合、露出補正値が-γとなる顔領域と人体領域の合計が2、露出補正値が+βとなる顔領域と人体領域の合計が2、露出補正値が+γとなる顔領域と人体領域の合計が1となる。
Next, in step S506, the
次に、ステップS507で露出決定部407撮像装置に設定する露出補正値を決定する。図6の例で説明すると、露出補正値の絶対値が最小のものは-βと+βとなる。ここでは、露出補正値-βとなる領域数は便宜上0としているが、露出算出部406によって算出されなかった値である。従って、ステップS506で領域数をカウントする前に、絶対値が最小の露出補正値を決定してもよい。即ち、-βは露出算出部406によって算出されないため、必然的に絶対値が最小の露出補正値である+βを撮像装置101に設定する露出補正値に決定する。図6において、仮に露出補正値が-βとなる領域が1以上存在する場合は-βの領域数と+βの領域数を比較して露出補正値が最多の露出補正値に決定する。例えば、-βの領域数が1だった場合、+βの領域数の方が多いため、撮像装置101に設定する露出補正値を+βに決定する。領域数が同数だった場合はその他に算出された露出補正値の分布に基づいて撮像装置101に設定する露出補正値を決定する。例えば、-βの領域数が2だった場合は、露出補正値0を基準に露出補正値が正の値となる領域数と負の値となる領域数を露出決定部407が算出する。即ち、露出補正値が正となる領域数が3あり、負となる領域数が4つあるため、撮像装置101に設定する露出補正値は-βに決定される。尚、露出補正値の分布も正の露出補正値と負の露出補正値とで均等であった場合は、ユーザ或いは設計者が設定した条件(例えば、負の露出補正値に決定するなど)に基づいて撮像装置101に設定する露出補正値を決定する。
Next, in step S507, an exposure correction value to be set in the
ステップS508では、露出決定部407によって決定された露出補正値は、不図示の出力部がネットワーク102を介して撮像装置101に出力して設定する。撮像装置101は出力された露出補正値から露光時間やゲインなどの露出情報を決定し、露出制御を実行する。本実施形態では、クライアント装置103が露出補正値を決定し、撮像装置101で露出情報を決定する構成とした。しかしながら、露出決定部407が露出補正値に基づいて、撮像装置101に設定する露光時間、ゲイン及び絞り値の少なくとも1つを含む露出情報をさらに決定してもよい。
In step S508, the exposure correction value determined by the
以上説明したように、本実施形態の撮像システムでは、撮像画像の顔領域および人体領域を検出し、領域毎に目標露出を算出し、目標露出から露出補正値を決定し、撮像装置に露出補正値を設定する。従って、複数の特定の領域(顔領域や人体領域)が検出された場合に、より好適に撮像装置の露出値や露出情報を制御することができる。複数の被写体の顔がある場合に効率よく顔領域の露出補正を行うことが出来、それにより、顔領域を顔認証に適したものに効率よくすることが出来る。その結果、顔認証を効率よく出来る。 As described above, the imaging system of this embodiment detects the face area and the human body area in the captured image, calculates the target exposure for each area, determines the exposure correction value from the target exposure, and sends the exposure correction to the imaging device. set the value. Therefore, when a plurality of specific areas (face area and human body area) are detected, the exposure value and exposure information of the imaging device can be more preferably controlled. To efficiently perform exposure correction of a face area when there are a plurality of faces of subjects, thereby efficiently making the face area suitable for face authentication. As a result, face authentication can be performed efficiently.
<実施形態2>
本実施形態では検出した顔領域を顔認証部701で顔認証処理し、顔認証処理した顔領域は以降の露出補正の対象から除外する構成について説明する。なお、本実施形態に係る撮像システムを構成する撮像装置101、ネットワーク102、入力装置104、表示装置105の構成については、前述した第1の実施形態と同一なので説明を省略する。クライアント装置103には図7のように第1の実施形態に係る情報処理装置の構成に顔認証部701が追加されている。
<
In this embodiment, a configuration will be described in which the
以下、図8に図示するフローチャートを参照して、本実施形態に係る被写体の検出処理および露出決定処理について説明する。図8は、本実施形態に係る情報処理装置の露出決定処理の一例を示すフローチャートである。なお、処理の開始タイミングについては第1の実施形態と同様なので説明は省略する。また、ステップS803及びステップS804以外の各ステップは実施形態1と同様であるため、説明を省略する。 Subject detection processing and exposure determination processing according to the present embodiment will be described below with reference to the flowchart shown in FIG. FIG. 8 is a flowchart showing an example of exposure determination processing of the information processing apparatus according to this embodiment. Note that the processing start timing is the same as in the first embodiment, so the description is omitted. Also, since each step other than steps S803 and S804 is the same as in the first embodiment, description thereof is omitted.
ステップS803では顔認証部701で認証された人物の顔領域の情報を取得する。顔認証部701での顔認証処理は後述する。
In step S803, information on the face area of the person authenticated by the
ステップS804ではステップS802で検出した被写体の顔領域から、ステップS803で取得した認証された人物の顔領域および人体領域を除外する。図9は、本実施形態に係る情報処理装置の顔認証された人物を除外する処理の一例を示す図である。AからIまでの9人の被写体の人物がフレーム50の取得画像に撮像されている。顔認証部701から取得した情報では人物B、D、F、Hが顔認証されている。そこで以降の処理では人物B、D、F、Hを処理対象から除外する。次のフレーム51でも同様にAからIまでの9人の被写体の人物が取得画像に撮像されている。前フレームで認証された人物B、D、F、Hと推定される顔領域を処理の対象から除外する。フレーム50とフレーム51で同一人物と推定する方法は、画像の人物追尾等を利用する。その手段は特に問わない。人物B、D、F、Hは認証済みのため露出の対象とする必要がない。以降の処理は除外されていない領域のみを対象として実行する。
In step S804, the face area and human body area of the authenticated person acquired in step S803 are excluded from the subject's face area detected in step S802. FIG. 9 is a diagram illustrating an example of processing for excluding a face-authenticated person of the information processing apparatus according to the present embodiment. Nine subject persons, A through I, are imaged in the acquired image of frame 50 . According to the information acquired from the
次に、図10に図示するフローチャートを参照して、顔認証処理について説明する。図10は、本実施形態に係る情報処理装置の顔認証処理の一例を示すフローチャートである。なお、処理の開始タイミングについては図8のフローチャートと同様に、被写体を撮像することで得られた画像が入力されたことに応じて開始する。 Next, face authentication processing will be described with reference to the flowchart shown in FIG. FIG. 10 is a flowchart showing an example of face authentication processing of the information processing apparatus according to this embodiment. It should be noted that the start timing of the processing is started in response to input of an image obtained by imaging a subject, as in the flowchart of FIG. 8 .
ステップS1001において、被写体検出部405は顔領域の検出を行う。顏の特徴部分に対応するそれぞれのパターンが予めクライアント装置103側に格納されており、このパターンに基づくパターンマッチングにより顔領域を検出する。それにより、顏を高精度に検出することができ、顔領域と顔以外の被写体とを明確に識別することができる。しかしながら、顏の向きや顏の大きさ、顏の明るさなどが顔検出に適した条件でない場合、顔領域を正確に検出することはできない。
In step S1001, the
次に、ステップS1002において検出した顔領域を顔認証部701は顔認証処理を実行する。
Next, the
次に、ステップS1003において顔領域と認証された人物を紐づけてデータとして保存する。 Next, in step S1003, the face area and the authenticated person are linked and stored as data.
以上により、顔認証済みの顔領域を以後の処理から除外することでより効率的な顔認証に適した露出制御を行うことが出来る。 As described above, exposure control suitable for more efficient face authentication can be performed by excluding the face area for which face authentication has been completed from subsequent processing.
<その他の実施形態>
本発明は、上述の実施形態1の1以上の機能を実現するプログラムを読み出し実行する処理によって実現可能である。このプログラムは、ネットワークまたは記憶媒体を介してシステム又は装置に供給され、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサによって読み出され、実行される。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention can be implemented by reading and executing a program that implements one or more functions of the first embodiment described above. This program is supplied to a system or device via a network or storage medium and read and executed by one or more processors in the computer of the system or device. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
101 撮像装置
102 ネットワーク
103 クライアント装置
403 入力画像取得部
405 被写体検出部
406 露出算出部
407 露出決定部
101
Claims (17)
前記取得部が取得した前記画像から特定の領域を検出する検出部と、
前記検出部が検出した前記特定の領域の輝度情報に基づいて、前記撮像装置の現在の露出値と目標の露出値との差分である露出補正値を算出する算出部であって、前記検出部が複数の特定の領域を検出した場合に、該複数の特定の領域毎の輝度情報に対応する複数の露出補正値を算出する算出部と、
前記複数の露出補正値から絶対値が最小の露出補正値を決定する決定部と、
を有することを特徴とする情報処理装置。 an acquisition unit that acquires an image captured by the imaging device;
a detection unit that detects a specific area from the image acquired by the acquisition unit;
a calculation unit that calculates an exposure correction value that is a difference between a current exposure value of the imaging device and a target exposure value based on the luminance information of the specific area detected by the detection unit, the detection unit comprising: A calculation unit that calculates a plurality of exposure correction values corresponding to luminance information for each of the plurality of specific regions when the detects a plurality of specific regions;
a determination unit that determines an exposure correction value having a minimum absolute value from the plurality of exposure correction values;
An information processing device comprising:
前記取得工程で取得した前記画像から特定の領域を検出する検出工程と、
前記検出工程で検出した前記特定の領域の輝度情報に基づいて、前記撮像装置の現在の露出値と目標の露出値との差分である露出補正値を算出する算出工程であって、前記検出工程で複数の特定の領域を検出した場合に、該複数の特定の領域毎の輝度情報に対応する複数の露出補正値を算出する算出工程と、
前記複数の露出補正値から絶対値が最小の露出補正値を決定する決定工程と、
を有することを特徴とする方法。 an acquisition step of acquiring an image captured by the imaging device;
a detection step of detecting a specific region from the image acquired in the acquisition step;
a calculating step of calculating an exposure correction value, which is a difference between a current exposure value of the imaging device and a target exposure value, based on the luminance information of the specific region detected in the detecting step, the detecting step a calculation step of calculating a plurality of exposure correction values corresponding to luminance information for each of the plurality of specific regions when detecting a plurality of specific regions in
a determination step of determining an exposure correction value having a minimum absolute value from the plurality of exposure correction values;
A method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156855A JP2023047757A (en) | 2021-09-27 | 2021-09-27 | Information processing device, imaging apparatus, method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156855A JP2023047757A (en) | 2021-09-27 | 2021-09-27 | Information processing device, imaging apparatus, method, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023047757A true JP2023047757A (en) | 2023-04-06 |
Family
ID=85779261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021156855A Pending JP2023047757A (en) | 2021-09-27 | 2021-09-27 | Information processing device, imaging apparatus, method, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023047757A (en) |
-
2021
- 2021-09-27 JP JP2021156855A patent/JP2023047757A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5398156B2 (en) | WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE | |
US11089228B2 (en) | Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system | |
JP4940164B2 (en) | Imaging apparatus and imaging method | |
JP2011172226A (en) | Method and system for obtaining point spread function using motion information, and computer program | |
US20160189392A1 (en) | Object tracking apparatus, control method therefor and storage medium | |
JP2015144475A (en) | Imaging apparatus, control method of the same, program and storage medium | |
JP2018191178A (en) | Image processing device, and image processing method and program | |
US11575841B2 (en) | Information processing apparatus, imaging apparatus, method, and storage medium | |
JP4871315B2 (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP2015019231A (en) | Imaging apparatus and image blurring correction method | |
US20120188437A1 (en) | Electronic camera | |
JP2023047757A (en) | Information processing device, imaging apparatus, method, and storage medium | |
US11727716B2 (en) | Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection | |
JP2022184134A (en) | Imaging apparatus and control method thereof | |
JP2022045567A (en) | Imaging control device, imaging control method, and program | |
US20230276134A1 (en) | Information processing apparatus, imaging apparatus, method, and storage medium | |
US20220078323A1 (en) | Apparatus, method, and storage medium | |
JP2021061458A (en) | Information processor, information processing method and program | |
US20220360701A1 (en) | Imaging control apparatus for controlling exposure of imaging apparatus based on subject authentication result, imaging control method, and storage medium | |
JP2022045532A (en) | Imaging control device, imaging control method, and program | |
JP2021150947A (en) | Information processing apparatus, imaging apparatus, method, program, and storage medium | |
JP2023026185A (en) | Imaging apparatus, control method, program and storage medium | |
JP2022045757A (en) | Imaging control device and control method of the same | |
JP2020072469A (en) | Information processing apparatus, control method and program of the same, and imaging system | |
JP2023110779A (en) | Image capturing apparatus, information processing apparatus, control method, program and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |