JP2023047757A - Information processing device, imaging apparatus, method, and storage medium - Google Patents

Information processing device, imaging apparatus, method, and storage medium Download PDF

Info

Publication number
JP2023047757A
JP2023047757A JP2021156855A JP2021156855A JP2023047757A JP 2023047757 A JP2023047757 A JP 2023047757A JP 2021156855 A JP2021156855 A JP 2021156855A JP 2021156855 A JP2021156855 A JP 2021156855A JP 2023047757 A JP2023047757 A JP 2023047757A
Authority
JP
Japan
Prior art keywords
exposure
exposure correction
value
unit
correction value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021156855A
Other languages
Japanese (ja)
Inventor
太一 松井
Taichi Matsui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021156855A priority Critical patent/JP2023047757A/en
Publication of JP2023047757A publication Critical patent/JP2023047757A/en
Pending legal-status Critical Current

Links

Images

Abstract

To control exposure values of and exposure information on an imaging apparatus more suitably when a plurality of specific areas are detected.SOLUTION: An information processing device has an acquiring unit 403, a detecting unit 405, a calculation unit 406, and a determining unit 407. The acquiring unit acquires an image captured by an imaging apparatus 101. The detecting unit detects a specific area from the image acquired by the acquiring unit 403. The calculation unit 406 calculates an exposure correction value which is the difference between a current exposure value and a target exposure value for imaging apparatus 1010 on the basis of luminance information on the specific area detected by the detecting unit 405. The calculation unit calculates a plurality of exposure correction values corresponding to the luminance information for each of the plurality of specific areas when the detecting unit 405 detects the plurality of specific areas. The determining unit determines an exposure correction value with the minimum absolute value from the plurality of exposure correction values.SELECTED DRAWING: Figure 1

Description

情報処理装置、撮像装置、方法及び記憶媒体に関する。 The present invention relates to an information processing device, an imaging device, a method, and a storage medium.

従来、撮像装置が撮像した画像から特定の領域を検出し(例えば人体や顔の領域)、特定の領域に関する情報(例えば輝度値)に基づいて、撮像装置の露出値や露出情報(露光時間、ゲイン、絞り値など)を制御する技術が開示されている。 Conventionally, a specific region is detected from an image captured by an imaging device (for example, a human body or face region), and based on information about the specific region (for example, luminance value), the exposure value and exposure information (exposure time, exposure time, gain, aperture value, etc.) is disclosed.

特開2020-72469JP 2020-72469

本発明が解決しようとする課題は、複数の特定の領域が検出された場合に、より好適に撮像装置の露出値や露出情報を制御することである。 The problem to be solved by the present invention is to more preferably control the exposure value and exposure information of an imaging device when a plurality of specific regions are detected.

上記課題を解決するために、本発明の一態様に係る撮像装置は、撮像装置が撮像した画像を取得する取得部と、前記取得部が取得した前記画像から特定の領域を検出する検出部と、前記検出部が検出した前記特定の領域の輝度情報に基づいて、前記撮像装置の現在の露出値と目標の露出値との差分である露出補正値を算出する算出部であって、前記検出部が複数の特定の領域を検出した場合に、該複数の特定の領域毎の輝度情報に対応する複数の露出補正値を算出する算出部と、前記複数の露出補正値から絶対値が最小の露出補正値を決定する決定部と、を有することを特徴とする情報処理装置。 To solve the above problems, an imaging device according to an aspect of the present invention includes an acquisition unit that acquires an image captured by the imaging device, and a detection unit that detects a specific region from the image acquired by the acquisition unit. a calculating unit for calculating an exposure correction value, which is a difference between a current exposure value of the imaging device and a target exposure value, based on the luminance information of the specific region detected by the detecting unit, a calculating unit for calculating a plurality of exposure correction values corresponding to luminance information for each of the plurality of specific regions when the unit detects a plurality of specific regions; and a determination unit that determines an exposure correction value.

本発明によれば、複数の特定の領域が検出された場合に、より好適に撮像装置の露出補正値や露出情報を制御することである。 According to the present invention, when a plurality of specific areas are detected, the exposure correction value and exposure information of the imaging device are more preferably controlled.

第1の実施形態に係る撮像制御システムの構成の一例を示すブロック図である。1 is a block diagram showing an example configuration of an imaging control system according to a first embodiment; FIG. 第1の実施形態に係る監視カメラの装置構成の一例を示すブロック図である。1 is a block diagram showing an example of the device configuration of a monitoring camera according to the first embodiment; FIG. 第1の実施形態に係る情報処理装置の装置構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an information processing apparatus according to a first embodiment; FIG. 第1の実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of an information processing device according to a first embodiment; FIG. 第1の実施形態に係る情報処理装置の露出決定処理の一例を示すフローチャートである。4 is a flowchart showing an example of exposure determination processing of the information processing apparatus according to the first embodiment; 第1の実施形態に係る情報処理装置において、算出された露出補正値に対応する特定の領域の数をカウントした結果の一例を示す図である。FIG. 7 is a diagram showing an example of a result of counting the number of specific regions corresponding to calculated exposure correction values in the information processing apparatus according to the first embodiment; 第2の実施形態に係る情報処理装置の機能構成の一例を示す図である。It is a figure showing an example of functional composition of an information processor concerning a 2nd embodiment. 第2の実施形態に係る情報処理装置の露出決定処理の一例を示すフローチャートである。9 is a flow chart showing an example of exposure determination processing of an information processing apparatus according to a second embodiment; 第2の実施形態に係る情報処理装置の顔認証された人物を除外する処理の一例を示す図である。It is a figure which shows an example of the process which excludes the face authenticated person of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る情報処理装置の顔認証処理の一例を示すフローチャートである。9 is a flow chart showing an example of face authentication processing of the information processing apparatus according to the second embodiment;

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiments described below are examples of means for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions, and the present invention is the following embodiments. is not limited to Also, a part of each embodiment described later may be appropriately combined.

<実施形態1>
(システム構成)
図1は、本実施形態に係る撮像制御システムの構成の一例を示すブロック図である。図1に示す撮像制御システムは、撮像装置101と、ネットワーク102、クライアント装置103と、入力装置104、表示装置105から構成されている。なお、撮像装置101は、動画像を取得するための被写体の撮像および画像処理が可能な装置である。そして、撮像装置101とクライアント装置103とは、ネットワーク102を介して相互に通信可能な状態で接続されている。
<Embodiment 1>
(System configuration)
FIG. 1 is a block diagram showing an example of the configuration of an imaging control system according to this embodiment. The imaging control system shown in FIG. 1 includes an imaging device 101 , a network 102 , a client device 103 , an input device 104 and a display device 105 . Note that the imaging device 101 is a device capable of imaging a subject and performing image processing for obtaining a moving image. The imaging device 101 and the client device 103 are connected via a network 102 so as to be able to communicate with each other.

(装置構成)
図2は、本実施形態に係る監視カメラの装置構成の一例を示すブロック図である。撮像光学系201はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞りやシャッターなどから構成され、被写体の光情報を集光する光学部材群である。
(Device configuration)
FIG. 2 is a block diagram showing an example of the device configuration of the monitoring camera according to this embodiment. An imaging optical system 201 is a group of optical members that includes a zoom lens, a focus lens, a blur correction lens, an aperture, a shutter, and the like, and collects optical information of a subject.

撮像素子202は、撮像光学系201にて集光される光束を電流値(信号値)へと変換するCMOSやCCDなどの電荷蓄積型の固体撮像素子であって、カラーフィルタなどと組み合わせることで色情報を取得する撮像部である。なお、撮像素子202は、画素に対して任意の露光時間を設定可能な撮像センサーである。 The image pickup device 202 is a charge storage type solid-state image pickup device such as a CMOS or CCD that converts the luminous flux condensed by the image pickup optical system 201 into a current value (signal value). An imaging unit that acquires color information. Note that the image pickup device 202 is an image sensor capable of setting an arbitrary exposure time for pixels.

CPU203は、撮像装置101の動作を統括的に制御する制御部である。CPU203は、ROM(Read Only Memory)204や、RAM(Random Access Memory)205に格納された命令を読み込み、その命令に従って処理を実行する。また、撮像系制御部206は、撮像光学系201に対して、フォーカス制御、シャッター制御、絞り調整などの(CPU203から指示に基づく)撮像装置101の各部の制御を行う。通信制御部207は、クライアント装置103との通信によって、撮像装置101の各部に係る制御をCPU203に伝達するための制御を行う。 A CPU 203 is a control unit that controls the operation of the imaging apparatus 101 in an integrated manner. The CPU 203 reads instructions stored in a ROM (Read Only Memory) 204 or a RAM (Random Access Memory) 205 and executes processing according to the instructions. In addition, the imaging system control unit 206 controls each unit of the imaging apparatus 101 (based on instructions from the CPU 203) such as focus control, shutter control, and aperture adjustment for the imaging optical system 201. FIG. A communication control unit 207 performs control for transmitting control related to each unit of the imaging apparatus 101 to the CPU 203 through communication with the client apparatus 103 .

A/D変換部208は、撮像素子202にて検知した被写体の光量をデジタル信号値に変換する。画像処理部209は、撮像素子202から出力されたデジタル信号の画像データに対して、画像処理を行う画像処理手段である。エンコーダー部210は、画像処理部209にて処理された画像データをMotion JpegやH264、H265などのファイルフォーマットに変換処理を行う変換手段である。ネットワークI/F211は、クライアント装置103等の外部の装置とのネットワーク102を介した通信に利用されるインターフェースであって、通信制御部207により制御される。 An A/D conversion unit 208 converts the amount of light of a subject detected by the image sensor 202 into a digital signal value. The image processing unit 209 is image processing means for performing image processing on the image data of the digital signal output from the image sensor 202 . The encoder unit 210 is conversion means for converting the image data processed by the image processing unit 209 into a file format such as Motion Jpeg, H264, H265, or the like. A network I/F 211 is an interface used for communication with an external device such as the client device 103 via the network 102 and is controlled by the communication control unit 207 .

ネットワーク102は、撮像装置101と、クライアント装置103を接続するIPネットワークである。ネットワークは、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。本実施形態では、ネットワーク102は、撮像装置101とクライアント装置103との間の通信を行うことができるものであればよく、その通信規格、規模、構成などを問わない。例えば、ネットワーク102は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。 A network 102 is an IP network that connects the imaging device 101 and the client device 103 . A network is composed of a plurality of routers, switches, cables, etc. that satisfy a communication standard such as Ethernet (registered trademark), for example. In this embodiment, the network 102 may be any network that allows communication between the imaging device 101 and the client device 103, regardless of its communication standard, scale, configuration, and the like. For example, the network 102 may be configured by the Internet, a wired LAN (Local Area Network), a wireless LAN (Wireless LAN), a WAN (Wide Area Network), or the like.

図3は、本実施形態に係る情報処理装置の装置構成の一例を示すブロック図である。クライアント装置103は、クライアントCPU301、主記憶装置302、補助記憶装置303、入力I/F304、出力I/F305、ネットワークI/F306を含む。各要素は、システムバスを介して、相互に通信可能に接続されている。 FIG. 3 is a block diagram showing an example of the configuration of the information processing apparatus according to this embodiment. The client device 103 includes a client CPU 301 , main storage device 302 , auxiliary storage device 303 , input I/F 304 , output I/F 305 and network I/F 306 . Each element is communicably connected to each other via a system bus.

クライアントCPU301は、クライアント装置103の動作を統括的に制御する中央演算装置である。なお、クライアントCPU301によって、ネットワーク102を介して撮像装置101の統括的な制御を実行する構成であってもよい。主記憶装置302は、クライアントCPU301のデータの一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置303は、各種プログラム、各種設定データ等を記憶するHDD、ROM、SSD等の記憶装置である。入力I/F304は、入力装置104等からの入力を受付ける際に利用されるインターフェースである。出力I/F305は、表示装置105等への情報の出力に利用されるインターフェースである。ネットワークI/F306は、撮像装置101等の外部の装置とのネットワーク102を介した通信に利用されるインターフェースである。 The client CPU 301 is a central processing unit that centrally controls the operation of the client device 103 . Note that the client CPU 301 may be configured to execute overall control of the imaging apparatus 101 via the network 102 . The main storage device 302 is a storage device such as a RAM that functions as a temporary storage location for data of the client CPU 301 . The auxiliary storage device 303 is a storage device such as an HDD, ROM, SSD, etc. that stores various programs, various setting data, and the like. The input I/F 304 is an interface used when receiving input from the input device 104 or the like. The output I/F 305 is an interface used to output information to the display device 105 or the like. A network I/F 306 is an interface used for communication with an external device such as the imaging device 101 via the network 102 .

クライアントCPU301が、補助記憶装置303に記憶されたプログラムに基づき処理を実行することによって、図4に示すクライアント装置103の機能及び処理が実現される。この詳細については後述する。 The client CPU 301 executes processing based on the programs stored in the auxiliary storage device 303, thereby realizing the functions and processing of the client device 103 shown in FIG. Details of this will be described later.

図1に図示するように、入力装置104は、マウスやキーボード等から構成される入力装置である。表示装置105は、クライアント装置103出力した画像を表示するモニタ等の表示装置である。本実施形態では、クライアント装置103と入力装置104と表示装置105とがそれぞれ独立した構成であるがこれに限定されるものではない。例えば、クライアント装置103と表示装置105とが、一体化されていてもよいし、入力装置104と表示装置105とが一体化されていてもよい。また、クライアント装置103と入力装置104と表示装置105とが、一体化されていてもよい。また、コンシューマカメラのように撮像装置101、クライアント装置103、入力装置104及び表示装置105が一体化されていてもよい。その場合は、図4に図示するクライアント装置103の機能構成を撮像装置101が有する。 As shown in FIG. 1, the input device 104 is an input device including a mouse, keyboard, and the like. A display device 105 is a display device such as a monitor that displays an image output from the client device 103 . In this embodiment, the client device 103, the input device 104, and the display device 105 are configured independently, but the present invention is not limited to this. For example, the client device 103 and display device 105 may be integrated, or the input device 104 and display device 105 may be integrated. Also, the client device 103, the input device 104, and the display device 105 may be integrated. Further, like a consumer camera, the imaging device 101, the client device 103, the input device 104, and the display device 105 may be integrated. In that case, the imaging device 101 has the functional configuration of the client device 103 illustrated in FIG.

図4は、本実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。換言すると、図4に図示する各部は、クライアントCPU301により実行され得る機能・構成であって、これらの各部はクライアントCPU301と同義である。すなわち、クライアント装置103のクライアントCPU301は、入力信号取得部401、通信制御部402、入力画像取得部403、カメラ情報取得部404、被写体検出部405、露出算出部406、露出決定部407、表示制御部408を含む。なお、クライアント装置103が、クライアントCPU301とは別の構成として、図4に図示する各部を備える構成であってもよい。 FIG. 4 is a block diagram showing an example of the functional configuration of the information processing apparatus according to this embodiment. In other words, each unit illustrated in FIG. 4 is a function/configuration that can be executed by the client CPU 301 , and these units are synonymous with the client CPU 301 . That is, the client CPU 301 of the client device 103 includes an input signal acquisition unit 401, a communication control unit 402, an input image acquisition unit 403, a camera information acquisition unit 404, an object detection unit 405, an exposure calculation unit 406, an exposure determination unit 407, and a display control unit. A portion 408 is included. Note that the client device 103 may have a configuration that includes each unit illustrated in FIG. 4 as a configuration different from that of the client CPU 301 .

入力信号取得部401は、入力装置104を介したユーザによる入力を受け付ける入力手段である。 The input signal acquisition unit 401 is input means for receiving input from the user via the input device 104 .

通信制御部402は、撮像装置101から送信された画像を、ネットワーク102を介して受信するための制御を実行する。また、通信制御部402は、撮像装置101への制御命令を、ネットワーク102を介して送信するための制御を実行する。 A communication control unit 402 executes control for receiving an image transmitted from the imaging device 101 via the network 102 . Also, the communication control unit 402 executes control for transmitting a control command to the imaging apparatus 101 via the network 102 .

入力画像取得部(取得部)403は、通信制御部402を介して、撮像装置101により撮影された画像を、被写体の検出処理の対象である画像として取得する画像取得手段である。検出処理の詳細については後述する。カメラ情報取得部404は、通信制御部402を介して、撮像装置101による被写体を撮像する際のカメラ情報(撮像情報)を取得する取得手段である。カメラ情報(撮像情報)は、被写体を撮像して画像を取得する際の種々の情報であり、撮像装置101に設定された現在の露出値や露出情報(露光時間、ゲイン、絞り値など)を含む。 An input image acquisition unit (acquisition unit) 403 is an image acquisition unit that acquires an image captured by the imaging device 101 via the communication control unit 402 as an image to be subjected to subject detection processing. Details of the detection process will be described later. A camera information acquisition unit 404 is an acquisition unit that acquires camera information (imaging information) when an image of a subject is captured by the imaging device 101 via the communication control unit 402 . Camera information (imaging information) is various information when capturing an image of a subject to obtain an image, and includes the current exposure value and exposure information (exposure time, gain, aperture value, etc.) set in the imaging device 101 . include.

被写体検出部(検出部)405は、入力画像取得部403により取得された画像から特定の領域を検出する。特定の領域とは、例えば顔領域、顔器官領域、人体領域などである。本実施形態では、特定の領域として顔及び人体の領域を例として説明するが、動物や自動車等の被写体の領域を検出する構成であってもよい。 A subject detection unit (detection unit) 405 detects a specific area from the image acquired by the input image acquisition unit 403 . A specific region is, for example, a face region, a facial organ region, a human body region, or the like. In this embodiment, regions of a face and a human body are described as examples of specific regions, but the configuration may be such that a region of a subject such as an animal or a car is detected.

露出算出部(算出部)406は、被写体検出部405から得られる検出結果に基づき、被写体を撮像し画像を取得する際の目標露出を算出する。目標露出は、クライアント装置103に予め記録された露出制御用のプログラム線図に従う露出値であり、被写体検出部405が検出した特定の領域の輝度情報(例えば輝度値)に基づいて算出される。この目標露出は被写体単位に決定される。例えば3つの被写体がある場合は被写体それぞれに目標露出が決定され合計3つの目標露出が算出される。露出算出部406は、入力画像取得部が取得した現在の露出値と目標露出の値との差分である露出補正値も算出する。目標露出と同様に、複数の特定の領域が検出された場合は、複数の特定の領域毎に対応する複数の露出補正値を算出する。目標露出或いは露出補正値は補助記憶装置303などに一時的に記憶される。 An exposure calculation unit (calculation unit) 406 calculates a target exposure when capturing an image of a subject and obtaining an image based on the detection result obtained from the subject detection unit 405 . The target exposure is an exposure value according to an exposure control program diagram prerecorded in the client device 103, and is calculated based on luminance information (for example, luminance value) of a specific area detected by the subject detection unit 405. This target exposure is determined for each subject. For example, when there are three subjects, a target exposure is determined for each subject and a total of three target exposures are calculated. The exposure calculation unit 406 also calculates an exposure correction value, which is the difference between the current exposure value acquired by the input image acquisition unit and the target exposure value. Similar to the target exposure, when multiple specific areas are detected, multiple exposure correction values corresponding to each of the multiple specific areas are calculated. The target exposure or exposure correction value is temporarily stored in the auxiliary storage device 303 or the like.

露出決定部(決定部)407は記憶された目標露出(露出補正値)から所定の条件により露出を決定する。露出算出部406、露出決定部407の動作に係る詳細な処理については、図5のフローチャートを参照して後述する。表示制御部408は、クライアントCPU301からの指示に従い、露出決定部407で決定された露出が反映された画像を表示装置105へ出力する表示制御手段である。 An exposure determining unit (determining unit) 407 determines exposure according to predetermined conditions from the stored target exposure (exposure correction value). Detailed processing related to the operations of the exposure calculation unit 406 and the exposure determination unit 407 will be described later with reference to the flowchart of FIG. A display control unit 408 is display control means for outputting an image reflecting the exposure determined by the exposure determination unit 407 to the display device 105 according to an instruction from the client CPU 301 .

(被写体の検出処理・露出決定処理)
以下、図5に図示するフローチャートを参照して、本実施形態に係る被写体の検出処理および露出決定処理について説明する。図5は、本実施形態に係る情報処理装置の露出決定処理の一例を示すフローチャートである。なお、図1に図示する撮像システムにおいて、各装置の電源がオンされ、撮像装置101とクライアント装置103の接続(通信)が確立した状態を前提とする。そして、この状態で、当該撮像システムにおいて所定の更新周期で被写体の撮像および画像データの送信、表示装置での画像表示が繰り返されているものとする。そして、ネットワーク102を介して撮像装置101からクライアント装置103のクライアントCPU301が、被写体を撮像することで得られた画像が入力されたことに応じて、図5に図示するフローチャートが開始されるものとする。
(Subject detection processing/exposure determination processing)
Subject detection processing and exposure determination processing according to the present embodiment will be described below with reference to the flowchart shown in FIG. FIG. 5 is a flowchart showing an example of exposure determination processing of the information processing apparatus according to this embodiment. In the imaging system illustrated in FIG. 1, it is assumed that each device is powered on and the connection (communication) between the imaging device 101 and the client device 103 is established. In this state, it is assumed that the imaging system repeats imaging of a subject, transmission of image data, and image display on a display device at a predetermined update cycle. 5 is started in response to input of an image obtained by imaging a subject from the imaging apparatus 101 to the client CPU 301 of the client apparatus 103 via the network 102. do.

まず、ステップS501において、カメラ情報取得部404から、撮像装置101によって被写体を撮像して画像を取得した際のカメラ情報(撮像情報)を取得する。 First, in step S<b>501 , the camera information (imaging information) obtained when the imaging device 101 captures an image of a subject and obtains an image is obtained from the camera information obtaining unit 404 .

ステップS502において、被写体検出部405は被写体(特定の領域)の検出を行う。顔検出領域と人体検出領域とでは、画像に適用する検出方法が異なる。例えば、顔検出領域や人体検出領域においては、顏の特徴部分や人体の特徴部分に対応するそれぞれのパターンが予めクライアント装置103側に格納されており、このパターンに基づくパターンマッチングにより顔領域と人体領域を検出する。顔領域を検出する場合は、顏を高精度に検出することができ、顔領域と顔以外の被写体とを明確に識別することができる。しかしながら、顏の向きや顏の大きさ、顏の明るさなどが顔検出に適した条件でない場合、顔領域を正確に検出することはできない。これに対して、人体検出を行う場合は、顏の向きや顏の大きさ、顏の明るさなどによらず人物が存在する領域を検出することができる。 In step S502, the subject detection unit 405 detects a subject (specific area). The detection method applied to the image differs between the face detection area and the human body detection area. For example, in the face detection region and the human body detection region, respective patterns corresponding to the characteristic portion of the face and the characteristic portion of the human body are stored in the client device 103 in advance. Detect regions. When the face area is detected, the face can be detected with high precision, and the face area and subjects other than the face can be clearly distinguished. However, if the direction of the face, the size of the face, the brightness of the face, etc. are not suitable conditions for face detection, the face region cannot be detected accurately. On the other hand, when detecting a human body, it is possible to detect a region in which a person exists regardless of the direction of the face, the size of the face, the brightness of the face, and the like.

なお、被写体の検出方法としては、前述したパターンマッチング方法として統計学習を使って作成されたパターン(識別器)を用いてもよいし、パターンマッチング以外の方法として、局所領域内の輝度勾配を用いた被写体検出を行う構成でもよい。すなわち、検出方法として限定されるものではなく、機械学習をベースにした検出や、距離情報に基づく検出など、種々の方法を採用できる。 As a method for detecting an object, a pattern (discriminator) created using statistical learning may be used as the pattern matching method described above, or a luminance gradient in a local region may be used as a method other than pattern matching. The configuration may be such that the subject is detected. That is, the detection method is not limited, and various methods such as detection based on machine learning and detection based on distance information can be employed.

次に、ステップS503において、露出算出部406は、被写体検出部405から得られる検出結果に基づいて、各顔領域の平均輝度値Ifaceおよび各人体領域Ibodyの平均輝度値を算出する。具体的に、露出算出部406は、被写体検出部405から得られる検出結果に基づいて、顔および人体が検出された検出位置や、検出サイズに関する情報を下記の式(1)および式(2)に適用する。なお、本実施形態では、輝度値の単位としては、APEX(ADDITIVE SYSTEM OF PHOTOGRAPHIC EXPOSURE)単位におけるBV値として算出する。 Next, in step S<b>503 , the exposure calculation unit 406 calculates the average luminance value Iface of each face area and the average luminance value of each human body area Ibody based on the detection result obtained from the subject detection unit 405 . Specifically, based on the detection result obtained from the subject detection unit 405, the exposure calculation unit 406 calculates the detection position at which the face and the human body are detected and the information regarding the detection size using the following formulas (1) and (2). apply to In this embodiment, the unit of luminance value is calculated as a BV value in APEX (ADDITIVE SYSTEM OF PHOTOGRAPHIC EXPOSURE) unit.

Figure 2023047757000002
Figure 2023047757000002

Figure 2023047757000003
Figure 2023047757000003

ここで、I(x、y)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置(x、y)の輝度値を表す。また、(v、h)は顔および人体が検出された中心座標を表し、k、lはそれぞれ水平方向および、垂直方向の被写体の検出サイズを表す。 Here, I(x, y) represents the luminance value of the two-dimensional coordinate position (x, y) in the horizontal direction (x-axis direction) and vertical direction (y-axis direction) in the image. Also, (v, h) represent the center coordinates at which the face and human body are detected, and k and l represent the detected size of the subject in the horizontal and vertical directions, respectively.

次に、ステップS504において、露出算出部406は、式(3)のように、予め定められた顔領域の目標輝度値IfacetargetとIfaceとの差分値ΔDifffaceを算出する。又、式(4)のように、予め定められた人体領域の目標輝度値IbodytargetとIbodyとの差分値ΔDiffbodyを算出する。 Next, in step S504, the exposure calculation unit 406 calculates a difference value ΔDiffface between a predetermined target luminance value Ifacetarget of the face region and Iface, as shown in Equation (3). Also, as shown in equation (4), a difference value ΔDiffbody between a predetermined target luminance value Ibodytarget of the human body region and Ibody is calculated.

Figure 2023047757000004
Figure 2023047757000004

Figure 2023047757000005
Figure 2023047757000005

ここで、顔領域の目標輝度値Ifacetargetおよび人体領域の目標輝度値Ibodytargetは、ユーザが予め設定した目標値であってもよいし、ハードウェア上に予め設定される固定値であってもよい。 Here, the target luminance value Ifacetarget of the face region and the target luminance value Ibodytarget of the human body region may be target values preset by the user or may be fixed values preset on hardware.

次に、ステップS505において、露出算出部406は人体領域と顔領域の輝度情報である差分値ΔDifffaceおよびΔDiffbodyと、予め定められた閾値Thと現在の露出に係る露出値EVcurrentに基づき、露出の補正量(目標露出)EVcorrectionを算出する。例えば、式(5)のように補正量EVcorrectionを算出する。なお、EVcurrentは、被写体輝度値(BV値)に基づくAPEX換算のEV値であって、クライアント装置103に予め格納された、露出制御に係るプログラム線図に基づいて設定される。 Next, in step S505, the exposure calculation unit 406 corrects the exposure based on the difference values ΔDiffface and ΔDiffbody, which are luminance information between the human body region and the face region, a predetermined threshold value Th, and the exposure value EVcurrent related to the current exposure. Calculate the amount (target exposure) EVcorrection. For example, the correction amount EVcorrection is calculated as in Equation (5). Note that EVcurrent is an APEX-converted EV value based on the subject brightness value (BV value), and is set based on a program diagram relating to exposure control, which is stored in advance in the client device 103 .

Figure 2023047757000006
Figure 2023047757000006

ここで、パラメータβおよびγは現在の露出値EVcurrentと目標露出EVcоrrectiоnとの差分である露出補正値である。露出補正値は、現在の露出値EVcurrentを中心とし、露出のアンダー側あるいは露出のオーバー側に露出を補正する際の補正度合(速度)に影響を与える係数である。βおよびγは正の値でβ<γの関係にある。このパラメータβおよびγは、差分ΔDiffが、設定された閾値2Th又はTh以上であった場合に、現在の露出値EVcurrentに対する露出の補正値として設定される。ΔDiffの絶対値が大きいほど露出補正値の絶対値も大きくなる。 where the parameters β and γ are exposure correction values that are the difference between the current exposure value EVcurrent and the target exposure EVcorrection. The exposure correction value is a coefficient that affects the degree of correction (speed) when correcting the exposure to the underexposure side or the overexposure side centering on the current exposure value EVcurrent. β and γ are positive values and have a relationship of β<γ. The parameters β and γ are set as exposure correction values for the current exposure value EVcurrent when the difference ΔDiff is equal to or greater than the set threshold 2Th or Th. The larger the absolute value of ΔDiff, the larger the absolute value of the exposure correction value.

次に、ステップS506で露出決定部407は、各顔領域と各人体領域毎に算出された露出補正値をカウントする。図6は、本実施形態に係る情報処理装置において、算出された露出補正値に対応する特定の領域の数(顔領域と人体領域の数)をカウントした結果の一例を示す図である。領域数はその露出補正値が算出された顔領域数と人体領域数の合計である。この図6の場合、露出補正値が-γとなる顔領域と人体領域の合計が2、露出補正値が+βとなる顔領域と人体領域の合計が2、露出補正値が+γとなる顔領域と人体領域の合計が1となる。 Next, in step S506, the exposure determination unit 407 counts the exposure correction values calculated for each face region and each human body region. FIG. 6 is a diagram showing an example of the result of counting the number of specific regions (the number of face regions and human body regions) corresponding to the calculated exposure correction value in the information processing apparatus according to the present embodiment. The number of regions is the sum of the number of face regions and the number of human body regions for which the exposure correction values have been calculated. In the case of FIG. 6, the sum of the face region and the human body region where the exposure correction value is -γ is 2, the sum of the face region and the human body region where the exposure correction value is +β is 2, and the face region where the exposure correction value is +γ. and the human body region is 1.

次に、ステップS507で露出決定部407撮像装置に設定する露出補正値を決定する。図6の例で説明すると、露出補正値の絶対値が最小のものは-βと+βとなる。ここでは、露出補正値-βとなる領域数は便宜上0としているが、露出算出部406によって算出されなかった値である。従って、ステップS506で領域数をカウントする前に、絶対値が最小の露出補正値を決定してもよい。即ち、-βは露出算出部406によって算出されないため、必然的に絶対値が最小の露出補正値である+βを撮像装置101に設定する露出補正値に決定する。図6において、仮に露出補正値が-βとなる領域が1以上存在する場合は-βの領域数と+βの領域数を比較して露出補正値が最多の露出補正値に決定する。例えば、-βの領域数が1だった場合、+βの領域数の方が多いため、撮像装置101に設定する露出補正値を+βに決定する。領域数が同数だった場合はその他に算出された露出補正値の分布に基づいて撮像装置101に設定する露出補正値を決定する。例えば、-βの領域数が2だった場合は、露出補正値0を基準に露出補正値が正の値となる領域数と負の値となる領域数を露出決定部407が算出する。即ち、露出補正値が正となる領域数が3あり、負となる領域数が4つあるため、撮像装置101に設定する露出補正値は-βに決定される。尚、露出補正値の分布も正の露出補正値と負の露出補正値とで均等であった場合は、ユーザ或いは設計者が設定した条件(例えば、負の露出補正値に決定するなど)に基づいて撮像装置101に設定する露出補正値を決定する。 Next, in step S507, an exposure correction value to be set in the exposure determination unit 407 imaging device is determined. In the example of FIG. 6, the minimum absolute values of the exposure correction values are -β and +β. Here, the number of regions with the exposure correction value −β is set to 0 for convenience, but it is a value not calculated by the exposure calculation unit 406 . Therefore, the exposure correction value with the minimum absolute value may be determined before counting the number of regions in step S506. That is, since −β is not calculated by the exposure calculation unit 406, the exposure correction value to be set in the imaging apparatus 101 is determined to be +β, which is the exposure correction value with the minimum absolute value. In FIG. 6, if there are one or more areas with an exposure correction value of −β, the number of areas with −β and the number of areas with +β are compared to determine the exposure correction value with the largest exposure correction value. For example, when the number of -β regions is 1, the number of +β regions is larger, so the exposure correction value to be set in the imaging device 101 is determined to be +β. If the number of regions is the same, the exposure correction value to be set in the imaging apparatus 101 is determined based on the distribution of the calculated exposure correction value. For example, if the number of regions of −β is 2, the exposure determination unit 407 calculates the number of regions with positive exposure correction values and the number of regions with negative exposure correction values based on the exposure correction value of 0. That is, since there are 3 regions with positive exposure correction values and 4 regions with negative exposure correction values, the exposure correction value to be set in the imaging apparatus 101 is determined to be -β. If the distribution of the exposure compensation values is also equal between the positive exposure compensation value and the negative exposure compensation value, the conditions set by the user or the designer (for example, determining the negative exposure compensation value, etc.) Based on this, an exposure correction value to be set in the imaging apparatus 101 is determined.

ステップS508では、露出決定部407によって決定された露出補正値は、不図示の出力部がネットワーク102を介して撮像装置101に出力して設定する。撮像装置101は出力された露出補正値から露光時間やゲインなどの露出情報を決定し、露出制御を実行する。本実施形態では、クライアント装置103が露出補正値を決定し、撮像装置101で露出情報を決定する構成とした。しかしながら、露出決定部407が露出補正値に基づいて、撮像装置101に設定する露光時間、ゲイン及び絞り値の少なくとも1つを含む露出情報をさらに決定してもよい。 In step S508, the exposure correction value determined by the exposure determination unit 407 is output to the imaging apparatus 101 via the network 102 by an output unit (not shown) and set. The imaging apparatus 101 determines exposure information such as exposure time and gain from the output exposure correction value, and executes exposure control. In this embodiment, the client apparatus 103 determines the exposure correction value, and the imaging apparatus 101 determines the exposure information. However, the exposure determination unit 407 may further determine exposure information including at least one of the exposure time, gain, and aperture value to be set in the imaging device 101 based on the exposure correction value.

以上説明したように、本実施形態の撮像システムでは、撮像画像の顔領域および人体領域を検出し、領域毎に目標露出を算出し、目標露出から露出補正値を決定し、撮像装置に露出補正値を設定する。従って、複数の特定の領域(顔領域や人体領域)が検出された場合に、より好適に撮像装置の露出値や露出情報を制御することができる。複数の被写体の顔がある場合に効率よく顔領域の露出補正を行うことが出来、それにより、顔領域を顔認証に適したものに効率よくすることが出来る。その結果、顔認証を効率よく出来る。 As described above, the imaging system of this embodiment detects the face area and the human body area in the captured image, calculates the target exposure for each area, determines the exposure correction value from the target exposure, and sends the exposure correction to the imaging device. set the value. Therefore, when a plurality of specific areas (face area and human body area) are detected, the exposure value and exposure information of the imaging device can be more preferably controlled. To efficiently perform exposure correction of a face area when there are a plurality of faces of subjects, thereby efficiently making the face area suitable for face authentication. As a result, face authentication can be performed efficiently.

<実施形態2>
本実施形態では検出した顔領域を顔認証部701で顔認証処理し、顔認証処理した顔領域は以降の露出補正の対象から除外する構成について説明する。なお、本実施形態に係る撮像システムを構成する撮像装置101、ネットワーク102、入力装置104、表示装置105の構成については、前述した第1の実施形態と同一なので説明を省略する。クライアント装置103には図7のように第1の実施形態に係る情報処理装置の構成に顔認証部701が追加されている。
<Embodiment 2>
In this embodiment, a configuration will be described in which the face authentication unit 701 performs face authentication processing on a detected face area, and excludes the face area subjected to the face authentication process from subsequent exposure correction targets. Note that the configurations of the imaging device 101, the network 102, the input device 104, and the display device 105, which constitute the imaging system according to the present embodiment, are the same as those of the first embodiment described above, so description thereof will be omitted. As shown in FIG. 7, the client device 103 has a face authentication unit 701 added to the configuration of the information processing device according to the first embodiment.

以下、図8に図示するフローチャートを参照して、本実施形態に係る被写体の検出処理および露出決定処理について説明する。図8は、本実施形態に係る情報処理装置の露出決定処理の一例を示すフローチャートである。なお、処理の開始タイミングについては第1の実施形態と同様なので説明は省略する。また、ステップS803及びステップS804以外の各ステップは実施形態1と同様であるため、説明を省略する。 Subject detection processing and exposure determination processing according to the present embodiment will be described below with reference to the flowchart shown in FIG. FIG. 8 is a flowchart showing an example of exposure determination processing of the information processing apparatus according to this embodiment. Note that the processing start timing is the same as in the first embodiment, so the description is omitted. Also, since each step other than steps S803 and S804 is the same as in the first embodiment, description thereof is omitted.

ステップS803では顔認証部701で認証された人物の顔領域の情報を取得する。顔認証部701での顔認証処理は後述する。 In step S803, information on the face area of the person authenticated by the face authentication unit 701 is obtained. Face authentication processing in the face authentication unit 701 will be described later.

ステップS804ではステップS802で検出した被写体の顔領域から、ステップS803で取得した認証された人物の顔領域および人体領域を除外する。図9は、本実施形態に係る情報処理装置の顔認証された人物を除外する処理の一例を示す図である。AからIまでの9人の被写体の人物がフレーム50の取得画像に撮像されている。顔認証部701から取得した情報では人物B、D、F、Hが顔認証されている。そこで以降の処理では人物B、D、F、Hを処理対象から除外する。次のフレーム51でも同様にAからIまでの9人の被写体の人物が取得画像に撮像されている。前フレームで認証された人物B、D、F、Hと推定される顔領域を処理の対象から除外する。フレーム50とフレーム51で同一人物と推定する方法は、画像の人物追尾等を利用する。その手段は特に問わない。人物B、D、F、Hは認証済みのため露出の対象とする必要がない。以降の処理は除外されていない領域のみを対象として実行する。 In step S804, the face area and human body area of the authenticated person acquired in step S803 are excluded from the subject's face area detected in step S802. FIG. 9 is a diagram illustrating an example of processing for excluding a face-authenticated person of the information processing apparatus according to the present embodiment. Nine subject persons, A through I, are imaged in the acquired image of frame 50 . According to the information acquired from the face authentication unit 701, faces of persons B, D, F, and H have been authenticated. Therefore, in subsequent processing, persons B, D, F, and H are excluded from processing targets. Similarly, in the next frame 51, nine subjects A to I are captured in the acquired image. Face areas presumed to be persons B, D, F, and H authenticated in the previous frame are excluded from processing targets. A method of estimating that the person is the same person in frames 50 and 51 uses image person tracking or the like. The method is not particularly limited. Persons B, D, F, and H do not need to be exposed because they have already been authenticated. Subsequent processing is performed only for areas that have not been excluded.

次に、図10に図示するフローチャートを参照して、顔認証処理について説明する。図10は、本実施形態に係る情報処理装置の顔認証処理の一例を示すフローチャートである。なお、処理の開始タイミングについては図8のフローチャートと同様に、被写体を撮像することで得られた画像が入力されたことに応じて開始する。 Next, face authentication processing will be described with reference to the flowchart shown in FIG. FIG. 10 is a flowchart showing an example of face authentication processing of the information processing apparatus according to this embodiment. It should be noted that the start timing of the processing is started in response to input of an image obtained by imaging a subject, as in the flowchart of FIG. 8 .

ステップS1001において、被写体検出部405は顔領域の検出を行う。顏の特徴部分に対応するそれぞれのパターンが予めクライアント装置103側に格納されており、このパターンに基づくパターンマッチングにより顔領域を検出する。それにより、顏を高精度に検出することができ、顔領域と顔以外の被写体とを明確に識別することができる。しかしながら、顏の向きや顏の大きさ、顏の明るさなどが顔検出に適した条件でない場合、顔領域を正確に検出することはできない。 In step S1001, the subject detection unit 405 detects a face area. Each pattern corresponding to the characteristic portion of the face is stored in advance on the client device 103 side, and the face area is detected by pattern matching based on this pattern. As a result, the face can be detected with high accuracy, and the face area and subjects other than the face can be clearly distinguished. However, if the direction of the face, the size of the face, the brightness of the face, etc. are not suitable conditions for face detection, the face region cannot be detected accurately.

次に、ステップS1002において検出した顔領域を顔認証部701は顔認証処理を実行する。 Next, the face authentication unit 701 performs face authentication processing on the face area detected in step S1002.

次に、ステップS1003において顔領域と認証された人物を紐づけてデータとして保存する。 Next, in step S1003, the face area and the authenticated person are linked and stored as data.

以上により、顔認証済みの顔領域を以後の処理から除外することでより効率的な顔認証に適した露出制御を行うことが出来る。 As described above, exposure control suitable for more efficient face authentication can be performed by excluding the face area for which face authentication has been completed from subsequent processing.

<その他の実施形態>
本発明は、上述の実施形態1の1以上の機能を実現するプログラムを読み出し実行する処理によって実現可能である。このプログラムは、ネットワークまたは記憶媒体を介してシステム又は装置に供給され、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサによって読み出され、実行される。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention can be implemented by reading and executing a program that implements one or more functions of the first embodiment described above. This program is supplied to a system or device via a network or storage medium and read and executed by one or more processors in the computer of the system or device. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

101 撮像装置
102 ネットワーク
103 クライアント装置
403 入力画像取得部
405 被写体検出部
406 露出算出部
407 露出決定部
101 imaging device 102 network 103 client device 403 input image acquisition unit 405 subject detection unit 406 exposure calculation unit 407 exposure determination unit

Claims (17)

撮像装置が撮像した画像を取得する取得部と、
前記取得部が取得した前記画像から特定の領域を検出する検出部と、
前記検出部が検出した前記特定の領域の輝度情報に基づいて、前記撮像装置の現在の露出値と目標の露出値との差分である露出補正値を算出する算出部であって、前記検出部が複数の特定の領域を検出した場合に、該複数の特定の領域毎の輝度情報に対応する複数の露出補正値を算出する算出部と、
前記複数の露出補正値から絶対値が最小の露出補正値を決定する決定部と、
を有することを特徴とする情報処理装置。
an acquisition unit that acquires an image captured by the imaging device;
a detection unit that detects a specific area from the image acquired by the acquisition unit;
a calculation unit that calculates an exposure correction value that is a difference between a current exposure value of the imaging device and a target exposure value based on the luminance information of the specific area detected by the detection unit, the detection unit comprising: A calculation unit that calculates a plurality of exposure correction values corresponding to luminance information for each of the plurality of specific regions when the detects a plurality of specific regions;
a determination unit that determines an exposure correction value having a minimum absolute value from the plurality of exposure correction values;
An information processing device comprising:
前記決定部は、前記絶対値が最小の露出補正値が複数ある場合に、前記絶対値が最小の露出補正値に対応する前記特定の領域の数をカウントし、前記特定の領域の数が最多で前記絶対値が最小の露出補正値を決定すること特徴とする請求項1に記載の情報処理装置。 The determination unit counts the number of the specific regions corresponding to the exposure correction value with the minimum absolute value when there are a plurality of exposure correction values with the minimum absolute value, and the number of the specific regions is the largest. 2. The information processing apparatus according to claim 1, wherein the exposure correction value having the minimum absolute value is determined by: 前記決定部は、前記特定の領域の数が最多で前記絶対値が最小の露出補正値が複数ある場合に、前記絶対値よりも大きい露出補正値に対応する前記特定の領域の数に基づいて、前記露出補正値を決定することを特徴とする請求項2に記載の情報処理装置。 When there are a plurality of exposure correction values having the largest number of the specific regions and the smallest absolute value, the determining unit determines based on the number of the specific regions corresponding to the exposure correction values larger than the absolute value. 3. The information processing apparatus according to claim 2, wherein the exposure correction value is determined. 前記決定部が決定した前記絶対値が最小の露出補正値を前記撮像装置に出力する出力部を有することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 4. The information processing apparatus according to any one of claims 1 to 3, further comprising an output unit that outputs the exposure correction value having the minimum absolute value determined by the determination unit to the imaging device. 前記決定部は、前記決定部が決定した露出補正値に基づいて、前記画像の露光時間、ゲイン及び絞り値の少なくとも1つを含む露出情報をさらに決定することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 5. The determining unit further determines exposure information including at least one of exposure time, gain and aperture value of the image based on the exposure correction value determined by the determining unit. The information processing device according to any one of . 前記決定部が決定した前記露出情報を前記撮像装置に出力する出力部を有することを特徴とする請求項5に記載の情報処理装置。 6. The information processing apparatus according to claim 5, further comprising an output section that outputs the exposure information determined by the determination section to the imaging device. 前記特定の領域は、顔または人体の領域であることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 7. The information processing apparatus according to any one of claims 1 to 6, wherein the specific area is an area of a face or a human body. 請求項1から7のいずれか1項に記載の情報処理装置を有する撮像装置。 An imaging device comprising the information processing device according to any one of claims 1 to 7. 撮像装置が撮像した画像を取得する取得工程と、
前記取得工程で取得した前記画像から特定の領域を検出する検出工程と、
前記検出工程で検出した前記特定の領域の輝度情報に基づいて、前記撮像装置の現在の露出値と目標の露出値との差分である露出補正値を算出する算出工程であって、前記検出工程で複数の特定の領域を検出した場合に、該複数の特定の領域毎の輝度情報に対応する複数の露出補正値を算出する算出工程と、
前記複数の露出補正値から絶対値が最小の露出補正値を決定する決定工程と、
を有することを特徴とする方法。
an acquisition step of acquiring an image captured by the imaging device;
a detection step of detecting a specific region from the image acquired in the acquisition step;
a calculating step of calculating an exposure correction value, which is a difference between a current exposure value of the imaging device and a target exposure value, based on the luminance information of the specific region detected in the detecting step, the detecting step a calculation step of calculating a plurality of exposure correction values corresponding to luminance information for each of the plurality of specific regions when detecting a plurality of specific regions in
a determination step of determining an exposure correction value having a minimum absolute value from the plurality of exposure correction values;
A method comprising:
前記決定工程では、前記絶対値が最小の露出補正値が複数ある場合に、前記絶対値が最小の露出補正値に対応する前記特定の領域の数をカウントし、前記特定の領域の数が最多で前記絶対値が最小の露出補正値を決定すること特徴とする請求項9に記載の方法。 In the determining step, when there are a plurality of exposure correction values with the smallest absolute value, the number of the specific regions corresponding to the exposure correction value with the smallest absolute value is counted, and the number of the specific regions is the largest. 10. The method of claim 9, wherein the minimum absolute value of the exposure correction value is determined by . 前記決定工程では、前記特定の領域の数が最多で前記絶対値が最小の露出補正値が複数ある場合に、前記絶対値よりも大きい露出補正値に対応する前記特定の領域の数に基づいて、前記露出補正値を決定することを特徴とする請求項10に記載の方法。 In the determining step, when there are a plurality of exposure correction values having the largest number of the specific regions and the smallest absolute value, based on the number of the specific regions corresponding to the exposure correction value larger than the absolute value 11. The method of claim 10, further comprising determining the exposure correction value. 前記決定工程で決定した前記絶対値が最小の露出補正値を前記撮像装置に出力する出力工程を有することを特徴とする請求項9から11のいずれか1項に記載の方法。 12. The method according to any one of claims 9 to 11, further comprising an output step of outputting the minimum absolute exposure correction value determined in the determination step to the imaging device. 前記決定工程では、前記決定工程で決定した露出補正値に基づいて、前記画像の露光時間、ゲイン及び絞り値の少なくとも1つを含む露出情報をさらに決定することを特徴とする請求項9から12のいずれか1項に記載の方法。 13. The determining step further determines exposure information including at least one of an exposure time, a gain and an aperture value of the image based on the exposure correction value determined in the determining step. A method according to any one of 前記決定工程で決定した前記露出情報を前記撮像装置に出力する出力工程を有することを特徴とする請求項13に記載の方法。 14. A method according to claim 13, further comprising an outputting step of outputting said exposure information determined in said determining step to said imaging device. 前記特定の領域は、顔または人体の領域であることを特徴とする請求項9から14のいずれか1項に記載の方法。 15. A method according to any one of claims 9 to 14, wherein said specific region is a face or a human body region. 請求項9から15のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method according to any one of claims 9 to 15. 請求項16に記載のプログラムを記憶したコンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 16.
JP2021156855A 2021-09-27 2021-09-27 Information processing device, imaging apparatus, method, and storage medium Pending JP2023047757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021156855A JP2023047757A (en) 2021-09-27 2021-09-27 Information processing device, imaging apparatus, method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021156855A JP2023047757A (en) 2021-09-27 2021-09-27 Information processing device, imaging apparatus, method, and storage medium

Publications (1)

Publication Number Publication Date
JP2023047757A true JP2023047757A (en) 2023-04-06

Family

ID=85779261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021156855A Pending JP2023047757A (en) 2021-09-27 2021-09-27 Information processing device, imaging apparatus, method, and storage medium

Country Status (1)

Country Link
JP (1) JP2023047757A (en)

Similar Documents

Publication Publication Date Title
JP5398156B2 (en) WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
US11089228B2 (en) Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system
JP4940164B2 (en) Imaging apparatus and imaging method
JP2011172226A (en) Method and system for obtaining point spread function using motion information, and computer program
US20160189392A1 (en) Object tracking apparatus, control method therefor and storage medium
JP2015144475A (en) Imaging apparatus, control method of the same, program and storage medium
JP2018191178A (en) Image processing device, and image processing method and program
US11575841B2 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP4871315B2 (en) Compound eye photographing apparatus, control method therefor, and program
JP2015019231A (en) Imaging apparatus and image blurring correction method
US20120188437A1 (en) Electronic camera
JP2023047757A (en) Information processing device, imaging apparatus, method, and storage medium
US11727716B2 (en) Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection
JP2022184134A (en) Imaging apparatus and control method thereof
JP2022045567A (en) Imaging control device, imaging control method, and program
US20230276134A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
US20220078323A1 (en) Apparatus, method, and storage medium
JP2021061458A (en) Information processor, information processing method and program
US20220360701A1 (en) Imaging control apparatus for controlling exposure of imaging apparatus based on subject authentication result, imaging control method, and storage medium
JP2022045532A (en) Imaging control device, imaging control method, and program
JP2021150947A (en) Information processing apparatus, imaging apparatus, method, program, and storage medium
JP2023026185A (en) Imaging apparatus, control method, program and storage medium
JP2022045757A (en) Imaging control device and control method of the same
JP2020072469A (en) Information processing apparatus, control method and program of the same, and imaging system
JP2023110779A (en) Image capturing apparatus, information processing apparatus, control method, program and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213