JP2022126383A - Imaging control device, imaging control method, and program - Google Patents

Imaging control device, imaging control method, and program Download PDF

Info

Publication number
JP2022126383A
JP2022126383A JP2021024417A JP2021024417A JP2022126383A JP 2022126383 A JP2022126383 A JP 2022126383A JP 2021024417 A JP2021024417 A JP 2021024417A JP 2021024417 A JP2021024417 A JP 2021024417A JP 2022126383 A JP2022126383 A JP 2022126383A
Authority
JP
Japan
Prior art keywords
authentication
area
imaging control
image
authentication target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021024417A
Other languages
Japanese (ja)
Inventor
結子 福井
Yuiko Fukui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021024417A priority Critical patent/JP2022126383A/en
Publication of JP2022126383A publication Critical patent/JP2022126383A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

To optimize each exposure correction of an area in which an authentication object is detected and an area in which an authentication object is not detected yet.SOLUTION: An imaging control device according to one embodiment comprises: detection means which detects an authentication object from an image; setting means which sets a first area including the authentication object detected by the detection means, to the image; and adjustment means which adjusts each exposure time of the first area set by the setting means and a second area in which the authentication object is not detected yet.SELECTED DRAWING: Figure 1

Description

本発明は、撮像制御装置、撮像制御方法およびプログラムに関する。 The present invention relates to an imaging control device, an imaging control method, and a program.

特許文献1には、被写体の顔領域の輝度情報に基づいて決定した露出条件を用いて撮像を行って得られた画像に対し、露出条件の決定に用いた輝度情報に基づいて輝度補正を行う技術が開示されている。 Japanese Patent Application Laid-Open No. 2002-200000 discloses that brightness correction is performed based on brightness information used to determine the exposure condition for an image obtained by imaging using the exposure condition determined based on the brightness information of the face area of the subject. Techniques are disclosed.

特開2014-187722号公報JP 2014-187722 A

本発明が解決しようとする課題は、認証対象が検出された領域と、認証対象が未検出の領域のそれぞれの露出補正を適正化することである。 The problem to be solved by the present invention is to optimize the exposure correction for each of an area where an authentication target is detected and an area where an authentication target is not detected.

本発明の1つの態様による撮像制御装置は、画像から認証対象を検出する検出手段と、前記検出手段で検出された前記認証対象を含む第1領域を前記画像に設定する設定手段と、前記設定手段で設定された前記第1領域と、前記認証対象が未検出の第2領域のそれぞれの露光時間を調整する調整手段と、を備える。 An imaging control apparatus according to one aspect of the present invention includes detection means for detecting an authentication target from an image; setting means for setting a first area including the authentication target detected by the detection means in the image; adjusting means for adjusting the exposure time of each of the first area set by means and the second area in which the authentication target is not detected.

認証対象が検出された領域と、認証対象が未検出の領域のそれぞれの露出補正を適正化することができる。 It is possible to optimize the exposure correction for each of the area where the authentication target is detected and the area where the authentication target is not detected.

第1実施形態に係る撮像装置の構成例を示すブロック図。1 is a block diagram showing a configuration example of an imaging device according to a first embodiment; FIG. 第1実施形態に係る認証時の撮像画像の一例を示す図。FIG. 5 is a diagram showing an example of a captured image at the time of authentication according to the first embodiment; 第1実施形態に係る認証時の撮像画像の輝度値の一例を示す図。FIG. 5 is a diagram showing an example of luminance values of a captured image during authentication according to the first embodiment; 第1実施形態に係る認証領域設定後の撮像画像および輝度値の一例を示す図。FIG. 4 is a diagram showing an example of a captured image and luminance values after authentication area setting according to the first embodiment; 第1実施形態に係る認証領域の移動時の撮像画像の一例を示す図。FIG. 7 is a diagram showing an example of a captured image when the authentication area is moved according to the first embodiment; 第1実施形態に係る認証領域が複数ある時の撮像画像の一例を示す図。FIG. 5 is a diagram showing an example of a captured image when there are multiple authentication areas according to the first embodiment; 第1実施形態に係る撮像制御方法を示すフローチャート。4 is a flowchart showing an imaging control method according to the first embodiment; 第2実施形態に係る認証領域設定後の撮像画像および輝度値の一例を示す図。FIG. 11 is a diagram showing an example of a captured image and luminance values after authentication area setting according to the second embodiment; 第2実施形態に係る認証領域の移動時の撮像画像の一例を示す図。FIG. 11 is a diagram showing an example of a captured image when an authentication area is moved according to the second embodiment; 第2実施形態に係る認証領域が複数ある時の撮像画像の一例を示す図。FIG. 11 is a diagram showing an example of a captured image when there are multiple authentication areas according to the second embodiment; 第3実施形態に係る認証前後の撮像画像の一例を示す図。FIG. 11 is a diagram showing an example of captured images before and after authentication according to the third embodiment; 実施形態に係る撮像制御部のハードウェア構成例を示すブロック図。FIG. 2 is a block diagram showing a hardware configuration example of an imaging control unit according to the embodiment;

以下、添付図面を参照して本発明の実施形態を詳細に説明する。なお、以下の実施形態は本発明を限定するものではなく、また、実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正または変更され得る。本発明の技術的範囲は、特許請求の範囲によって確定され、以下の個別の実施形態によって限定されない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the embodiments are essential for solving means of the present invention. The configuration of the embodiment can be appropriately modified or changed according to the specifications of the device to which the present invention is applied and various conditions (use conditions, use environment, etc.). The technical scope of the present invention is defined by the claims and is not limited by the following individual embodiments.

<第1実施形態>
図1は、第1実施形態に係る撮像装置の構成例を示すブロック図である。
図1に示す各機能ブロックのうち、ソフトウェアにより実現される機能については、各機能ブロックの機能を提供するためのプログラムがROM(Read Only Memory)等のメモリに記憶される。そして、そのプログラムをRAM(Random Access Memory)に読み出してCPU(Central Processing Unit)が実行することにより実現される。ハードウェアにより実現される機能については、例えば、所定のコンパイラを用いることで、各機能ブロックの機能を実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてゲートアレイ回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。なお、図1に示した機能ブロックの構成は一例であり、複数の機能ブロックが1つの機能ブロックを構成するようにしてもよいし、いずれかの機能ブロックが複数の機能を行うブロックに分かれてもよい。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration example of an imaging device according to the first embodiment.
Of the functional blocks shown in FIG. 1, for functions realized by software, a program for providing the function of each functional block is stored in a memory such as a ROM (Read Only Memory). Then, the program is read into a RAM (Random Access Memory) and executed by a CPU (Central Processing Unit). For the functions realized by hardware, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on the FPGA from a program for realizing the function of each functional block. FPGA is an abbreviation for Field Programmable Gate Array. Also, a gate array circuit may be formed in the same manner as the FPGA and implemented as hardware. Also, it may be realized by an ASIC (Application Specific Integrated Circuit). Note that the configuration of the functional blocks shown in FIG. 1 is an example, and a plurality of functional blocks may constitute one functional block, or one of the functional blocks may be divided into blocks that perform a plurality of functions. good too.

図1において、撮像装置11は、撮像部12、画像処理部13、撮像制御部14、ネットワーク処理部15、システム制御部16および認証部17を備える。撮像制御部14は、認証対象検出部14a、認証領域設定部14b、露光時間調整部14cおよび輝度平均算出部14dを備える。撮像部12は、レンズ群12a、撮像素子12bおよび増幅器12cを備える。撮像装置11は、ネットワーク18を介して不図示のクライアント装置と接続されている。 In FIG. 1 , an imaging device 11 includes an imaging unit 12 , an image processing unit 13 , an imaging control unit 14 , a network processing unit 15 , a system control unit 16 and an authentication unit 17 . The imaging control unit 14 includes an authentication target detection unit 14a, an authentication area setting unit 14b, an exposure time adjustment unit 14c, and a brightness average calculation unit 14d. The imaging unit 12 includes a lens group 12a, an imaging element 12b, and an amplifier 12c. The imaging device 11 is connected to a client device (not shown) via a network 18 .

撮像部12は、被写体からの光に基づいて撮像を行う。レンズ群12aは、被写体からの光を撮像素子12bの受光面に集光する。図1では、1枚のレンズのみ示しているが、複数のレンズを備えてもよく、例えば、ズームレンズ、フォーカスレンズおよびぶれ補正レンズなどが含まれていてもよい。撮像素子12bは、被写体からの光を画素ごとに電気信号に変換して出力する。撮像素子12bは、画像を複数の領域に分割した分割領域ごとに露光時間を変更可能である。分割領域は、1以上の画素で構成することができる。撮像素子12bは、例えば、CCD(Charge Coupled Device)センサまたはCMOS(Complementary Metal Oxide Semiconductor)センサなどの半導体素子および周辺回路である。増幅器12cは、撮像素子12bから出力された電気信号を増幅して撮像信号を出力する。 The imaging unit 12 performs imaging based on the light from the subject. The lens group 12a collects light from a subject on the light receiving surface of the imaging device 12b. Although only one lens is shown in FIG. 1, a plurality of lenses may be provided, and may include, for example, a zoom lens, a focus lens, and a blur correction lens. The imaging element 12b converts light from a subject into an electric signal for each pixel and outputs the electric signal. The imaging element 12b can change the exposure time for each divided area obtained by dividing the image into a plurality of areas. A divided area can be composed of one or more pixels. The imaging element 12b is, for example, a semiconductor element such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor and peripheral circuits. The amplifier 12c amplifies the electrical signal output from the imaging device 12b and outputs an imaging signal.

画像処理部13は、撮像部12からの撮像信号を受け、不図示の映像処理部で現像処理等の画像処理を行い、撮像画像を生成する。例えば、画像処理部13は、撮像部12からの撮像信号をA/D変換してデジタルデータに変換した後、デモザイキング処理、ホワイトバランス処理、ガンマ処理などを含む信号処理を行ってデジタル画像を生成する。 The image processing unit 13 receives an imaging signal from the imaging unit 12, performs image processing such as development processing in a video processing unit (not shown), and generates a captured image. For example, the image processing unit 13 converts the imaging signal from the imaging unit 12 into digital data by A/D conversion, and then performs signal processing including demosaicing processing, white balance processing, gamma processing, and the like to generate a digital image. Generate.

撮像制御部14は、ズームおよびフォーカスのためのレンズ群12aを駆動したり、撮像素子12bの領域ごとのゲインおよび露光時間を制御したり、指定されたタイミングで撮像素子12bに撮像を行わせたりする。このとき、撮像制御部14は、撮像画像から検出された認証対象を含む第1領域と、認証対象が未検出の第2領域のそれぞれについて露光時間を調整し、第1領域および第2領域のそれぞれの露光量を適正化することができる。また、撮像制御部14は、撮像範囲全体に露出補正された撮像画像に認証対象が含まれない場合、第1領域および第2領域のそれぞれの露光時間の調整をスキップすることができる。撮像制御部14は、認証対象を含む認証領域を第1領域として設定することができる。撮像制御部14は、認証対象を含まない非認証領域を第2領域として設定することができ、非認証領域、例えば、風景などの背景領域である。あるいは、撮像制御部14は、認証対象の検出前の全体画像を第2領域として設定してもよい。認証対象の検出前の全体画像には、認証対象が含まれていてもよいし、認証対象が含まれていなくてもよい。 The imaging control unit 14 drives the lens group 12a for zooming and focusing, controls the gain and exposure time for each region of the imaging element 12b, and causes the imaging element 12b to perform imaging at designated timing. do. At this time, the imaging control unit 14 adjusts the exposure time for each of the first region including the authentication target detected from the captured image and the second region where the authentication target is not detected, and Each exposure amount can be optimized. In addition, the imaging control unit 14 can skip adjusting the exposure times of the first area and the second area when the authentication target is not included in the captured image that has undergone exposure correction over the entire imaging range. The imaging control unit 14 can set an authentication area including an authentication target as the first area. The imaging control unit 14 can set a non-authentication area that does not include an authentication target as the second area, and the non-authentication area is, for example, a background area such as scenery. Alternatively, the imaging control unit 14 may set the entire image before detection of the authentication target as the second area. The whole image before detection of the authentication target may or may not include the authentication target.

ここで、撮像制御部14は、第1領域については、認証中に認証対象の特徴点を精度よく検出可能となるように、第1領域の露光時間を調整することができる。また、撮像制御部14は、第2領域については、例えば、撮像画像が監視画像として用いられる場合、照度が高い領域と低い領域が混在する環境においても被写体の視認が可能となるように、第2領域の露光時間を調整することができる。例えば、撮像制御部14は、第2領域については、照度が高い領域は露光時間を短くして撮像させ、照度が低い領域は露光時間を長くして撮像させることで、照度が高い領域と低い領域のどちらの被写体も視認可能とすることができる。 Here, for the first area, the imaging control unit 14 can adjust the exposure time of the first area so that the feature points to be authenticated can be accurately detected during authentication. In addition, for the second area, for example, when the captured image is used as a monitoring image, the imaging control unit 14 controls the second area so that the subject can be visually recognized even in an environment where areas with high illuminance and areas with low illuminance coexist. The exposure time of the two areas can be adjusted. For example, for the second region, the imaging control unit 14 captures a region with high illuminance with a short exposure time and captures a region with low illuminance with a long exposure time. Either subject in the area can be visible.

認証対象検出部14aは、撮像画像から認証対象を検出する。認証対象の検出方法は、例えば、顔認証においては顔に特徴的な輪郭などの形状を検出する方法がある。認証対象およびその検出方法は、これ以外であってもよい。
認証領域設定部14bは、認証対象を含む認証領域を撮像画像に設定する。このとき、認証領域設定部14bは、撮像画像を分割した分割領域を単位として認証領域を設定することができる。また、認証領域設定部14bは、認証対象の移動量および移動方向に基づいて、認証領域を撮像画像上で移動させることができる。認証領域設定部14bは、認証対象の大きさが変化した場合、撮像画像上で認証領域を再設定することができる。
The authentication target detection unit 14a detects an authentication target from the captured image. As a method of detecting an authentication target, for example, in face authentication, there is a method of detecting a shape such as a contour characteristic of a face. The object to be authenticated and its detection method may be other than this.
The authentication area setting unit 14b sets an authentication area including an authentication target in the captured image. At this time, the authentication area setting unit 14b can set the authentication area in units of divided areas obtained by dividing the captured image. Further, the authentication area setting unit 14b can move the authentication area on the captured image based on the amount and direction of movement of the object to be authenticated. The authentication area setting unit 14b can reset the authentication area on the captured image when the size of the authentication object changes.

輝度平均算出部14cは、撮像画像の輝度値を算出し、撮像画像の露出量を適正化するための露出補正値を算出する。このとき、輝度平均算出部14cは、認証領域が撮像画像に設定されている場合、認証領域と非認証領域のそれぞれの輝度の平均値を算出し、それぞれの輝度の平均値に基づいて、認証領域と非認証領域のそれぞれの露出補正値を算出することができる。 The brightness average calculator 14c calculates the brightness value of the captured image and calculates an exposure correction value for optimizing the exposure amount of the captured image. At this time, if the authentication area is set in the captured image, the average brightness calculation unit 14c calculates the average brightness of each of the authentication area and the non-authentication area, and performs the authentication based on the average brightness of each of the authentication areas and the non-authentication area. An exposure correction value can be calculated for each of the area and the non-authentication area.

露光時間調整部14dは、輝度平均算出部14で算出した露出補正値に合わせ、露光時間を調整する。このとき、露光時間調整部14dは、認証領域が撮像画像に設定されている場合、認証領域と非認証領域のそれぞれの露出補正値に合わせ、認証領域と非認証領域のそれぞれの露光時間を調整することができる。 The exposure time adjustment unit 14d adjusts the exposure time according to the exposure correction value calculated by the luminance average calculation unit 14. FIG. At this time, when the authentication area is set in the captured image, the exposure time adjustment unit 14d adjusts the exposure time of each of the authentication area and the non-authentication area according to the exposure correction value of each of the authentication area and the non-authentication area. can do.

ネットワーク処理部15は、画像処理部13からの撮像画像をネットワークプロトコルに準拠して変換し、ネットワーク18に配信する。
システム制御部16は、CPUおよびメモリを含み、撮像装置11の各構成要素を統括的に制御し、各種パラメータの設定を行う。このとき、システム制御部16は、撮像部12、画像処理部13、撮像制御部14およびネットワーク処理部15が協調して動作ように統括的に制御する。
The network processing unit 15 converts the captured image from the image processing unit 13 in compliance with the network protocol and distributes it to the network 18 .
The system control unit 16 includes a CPU and a memory, controls each component of the imaging device 11 in an integrated manner, and sets various parameters. At this time, the system control unit 16 comprehensively controls the imaging unit 12, the image processing unit 13, the imaging control unit 14, and the network processing unit 15 so as to cooperate with each other.

認証部17は、撮像画像から検出された認証対象を認証する。このとき、認証部17は、認証一覧に登録された登録画像と、撮像画像から検出された認証対象の整合性を確認することで、認証対象を認証することができる。 The authentication unit 17 authenticates the authentication target detected from the captured image. At this time, the authentication unit 17 can authenticate the authentication target by confirming the consistency between the registered image registered in the authentication list and the authentication target detected from the captured image.

ネットワーク18は、例えば、ローカルエリアネットワーク(LAN)であり、Ethernet(登録商標)等の通信規格を満足するルータ等を備える。撮像装置11および不図示のクライアント装置は、LANケーブル等によってネットワーク18に接続される。 The network 18 is, for example, a local area network (LAN), and includes routers and the like that satisfy communication standards such as Ethernet (registered trademark). The imaging device 11 and a client device (not shown) are connected to a network 18 via a LAN cable or the like.

図2は、第1実施形態に係る認証時の撮像画像の一例を示す図である。なお、図2(A)は、認証対象24が存在しない場合の露出補正前の撮像画像21A、図2(B)は、認証対象24が存在しない場合の露出補正後の撮像画像21Bを示す。図2(C)は、認証対象24が存在する場合の露出補正前の撮像画像21C、図2(D)は、認証対象24が存在する場合の露出補正後の撮像画像21Dを示す。図2(C)および図2(D)では、背景以外の被写体を認証対象24とした。 FIG. 2 is a diagram showing an example of a captured image during authentication according to the first embodiment. 2A shows a captured image 21A before exposure correction when the authentication target 24 does not exist, and FIG. 2B shows a captured image 21B after exposure correction when the authentication target 24 does not exist. FIG. 2C shows a captured image 21C before exposure correction when the authentication target 24 exists, and FIG. 2D shows a captured image 21D after exposure correction when the authentication target 24 exists. In FIGS. 2(C) and 2(D), a subject other than the background is set as the authentication target 24 .

図2(A)および図2(C)において、露出補正を行わずに撮像すると、露出が適切でないため、露出アンダーの領域と露出オーバーの領域を含む撮像画像21A、21Cが得られる。露出が適切でない撮像画像21A、21Cでは、認証対象24が存在しても、認証対象24を検出できない可能性がある。 In FIGS. 2(A) and 2(C), if an image is captured without exposure correction, the exposure is not appropriate, resulting in captured images 21A and 21C that include an underexposed area and an overexposed area. Even if the authentication target 24 exists in the captured images 21A and 21C with inappropriate exposure, the authentication target 24 may not be detected.

このため、図1の撮像制御部14は、撮像範囲全体が最適露出になるよう露出補正を行う。このとき、図2(B)および図2(D)に示すように、撮像範囲全体に渡って露光量が適正化された撮像画像21B、21Dが得られる。図1の認証対象検出部14aは、露光量が適正化された撮像画像21B、21Dのそれぞれについて、認証対象24の有無を確認する。認証対象24の検出方法は実施する認証により異なるが、露出補正を行った撮像画像21B、21Dであれば、認証対象検出部14aは、認証対象24の有無を判断できる。このとき、認証対象検出部14aは、撮像画像21Bにおいて認証対象24は存在しないと判断し、撮像画像21Dにおいて認証対象24は存在すると判断できる。 Therefore, the imaging control unit 14 in FIG. 1 performs exposure correction so that the entire imaging range is optimally exposed. At this time, as shown in FIGS. 2(B) and 2(D), captured images 21B and 21D in which the exposure amount is optimized over the entire imaging range are obtained. The authentication target detection unit 14a in FIG. 1 checks whether or not there is an authentication target 24 in each of the captured images 21B and 21D with the appropriate exposure amount. Although the method of detecting the authentication object 24 differs depending on the authentication to be performed, the authentication object detection unit 14a can determine whether or not the authentication object 24 exists in the exposure-corrected captured images 21B and 21D. At this time, the authentication target detection unit 14a can determine that the authentication target 24 does not exist in the captured image 21B, and can determine that the authentication target 24 exists in the captured image 21D.

図3は、第1実施形態に係る認証時の撮像画像の輝度値の一例を示す図である。なお、図3(A)は、図2(A)の撮像画像21Aの枠22A内の輝度値を示し、図3(B)は、図2(B)の撮像画像21Bの枠22B内の輝度値を示す。 FIG. 3 is a diagram showing an example of luminance values of a captured image during authentication according to the first embodiment. 3A shows the luminance values within the frame 22A of the captured image 21A of FIG. 2A, and FIG. 3B shows the luminance values within the frame 22B of the captured image 21B of FIG. 2B. indicate a value.

図3(A)において、図2(A)の撮像画像21Aでは、X軸23方向の0からX1の範囲は輝度値が適正値を下回り、X1からX2の範囲は輝度値が適正値を上回る。
このため、撮像制御部14は、X軸23方向の0からX1の範囲は輝度値を上げる方向に領域ごとに露出補正を行い、X1からX2の範囲は輝度値を下げる方向に領域ごとに露出補正を行う。この結果、図3(B)に示すように、0からX2の範囲に渡って輝度値が適正値に補正された図2(B)の撮像画像21Bが得られる。
In FIG. 3A, in the captured image 21A of FIG. 2A, the luminance value is below the appropriate value in the range from 0 to X1 in the direction of the X axis 23, and the luminance value is above the appropriate value in the range from X1 to X2. .
For this reason, the imaging control unit 14 performs exposure correction for each area in the direction of increasing the luminance value in the range from 0 to X1 in the direction of the X axis 23, and performs exposure compensation for each area in the direction of decreasing the luminance value in the range from X1 to X2. Make corrections. As a result, as shown in FIG. 3(B), the captured image 21B of FIG. 2(B) is obtained in which the luminance value has been corrected to an appropriate value over the range of 0 to X2.

図4は、第1実施形態に係る認証領域設定後の撮像画像および輝度値の一例を示す図である。なお、図4(A)は、認証領域31と背景領域32の設定後の撮像画像21D、図4(B)は、認証領域31と背景領域32に露出補正を行った後の撮像画像21Eを示す。図4(C)は、図4(B)の撮像画像21Eの枠22E内の輝度値を示す。 FIG. 4 is a diagram showing an example of a captured image and luminance values after authentication area setting according to the first embodiment. 4A shows a captured image 21D after setting the authentication area 31 and the background area 32, and FIG. 4B shows a captured image 21E after performing exposure correction on the authentication area 31 and the background area 32. show. FIG. 4(C) shows luminance values within the frame 22E of the captured image 21E of FIG. 4(B).

図4(A)において、認証対象24が撮像画像21Dから検出されると、認証領域設定部14bは、認証対象24を含む認証領域31と、認証対象24を含まない背景領域32に撮像画像21Dを分割する。認証領域31は、認証対象24の周辺の所定範囲とし、背景領域32は、認証領域31以外の領域とすることができる。認証領域31周辺の所定範囲は、認証対象によって範囲を変更してよい。 In FIG. 4A, when the authentication target 24 is detected from the captured image 21D, the authentication region setting unit 14b sets the authentication region 31 including the authentication target 24 and the background region 32 not including the authentication target 24 to the captured image 21D. split the The authentication area 31 can be a predetermined range around the authentication target 24 , and the background area 32 can be an area other than the authentication area 31 . The predetermined range around the authentication area 31 may be changed depending on the authentication target.

次に、輝度平均算出部14cは、認証領域31と背景領域32のそれぞれの輝度の平均値を算出し、露出補正値を設定する。そして、露光時間調整部14dは、露出補正値に基づいて露光時間を調整し、認証領域31と背景領域32のそれぞれについて露出補正された画像を撮像させることで、図4(B)の撮像画像21Eが得られる。図4(B)の撮像画像21Eでは、認証領域31が露出補正されないように露出設定した場合を示したが、認証領域31の露出設定はこれに限定されない。 Next, the brightness average calculation unit 14c calculates the brightness average value of each of the authentication area 31 and the background area 32, and sets an exposure correction value. Then, the exposure time adjustment unit 14d adjusts the exposure time based on the exposure correction value, and captures an exposure-corrected image for each of the authentication region 31 and the background region 32, thereby obtaining the captured image of FIG. 21E is obtained. Although the captured image 21E in FIG. 4B shows the case where the exposure is set so that the authentication area 31 is not subjected to exposure correction, the exposure setting of the authentication area 31 is not limited to this.

このとき、図4(C)に示すように、図4(B)のX軸23方向の0からX3の範囲は、露出補正が行われない認証領域31に該当するため、輝度値が適正値を下回る。X3からX2の範囲は、背景領域32に該当するため、輝度値が適正値になる。 At this time, as shown in FIG. 4C, since the range from 0 to X3 in the direction of the X-axis 23 in FIG. below. Since the range from X3 to X2 corresponds to the background area 32, the brightness value is a proper value.

ここで、図4(B)の撮像画像21Eの認証領域31では、露出補正が行われないようにすることにより、認証領域31以外の領域の輝度値の影響を受けて、認証領域31が露出アンダーとなったり、露出オーバーとなったりするのを防止することができる。このため、認証領域31の露出補正に起因して認証領域31の階調がつぶれ、認証対象24の特徴点の抽出精度が低下するのを防止することができ、認証精度の低下するのを防止することができる。 Here, in the authentication area 31 of the captured image 21E in FIG. 4B, by not performing exposure correction, the authentication area 31 is exposed under the influence of the luminance value of the area other than the authentication area 31. Underexposure and overexposure can be prevented. Therefore, it is possible to prevent the gradation of the authentication area 31 from being distorted due to the exposure correction of the authentication area 31 and the deterioration of the accuracy of extracting the feature points of the authentication target 24, thereby preventing the deterioration of the authentication accuracy. can do.

一方、図4(A)の撮像画像21Dでは、認証領域31を含む撮像領域全体に露出補正が行われるようにすることにより、認証対象24を注視しやすくなるように輝度値を適正化することができる。このため、撮像画像21D内の認証対象24の監視精度を向上させることができ、認証対象24の抽出精度を向上させることができる。 On the other hand, in the captured image 21D of FIG. 4A, the brightness value is optimized so that the authentication target 24 can be easily gazed at by performing exposure correction on the entire imaging region including the authentication region 31. can be done. Therefore, the accuracy of monitoring the authentication target 24 in the captured image 21D can be improved, and the extraction accuracy of the authentication target 24 can be improved.

図5は、第1実施形態に係る認証領域の移動時の撮像画像の一例を示す図である。なお、図5(A)は、認証対象24の移動前の撮像画像21F、図5(B)および図5(C)は、認証対象24の移動後の撮像画像21G、24Hを示す。 FIG. 5 is a diagram showing an example of a captured image when the authentication area is moved according to the first embodiment. 5A shows a captured image 21F before the authentication target 24 is moved, and FIGS. 5B and 5C show captured images 21G and 24H after the authentication target 24 is moved.

図5(A)において、認証領域設定部14bは、認証領域31と背景領域32の設定時、動体検出領域41~43を撮像画像21Fの認証対象24の周辺に設定する。認証領域設定部14bは、認証対象24によって動体検出領域41~43の大きさおよび位置を変更してもよい。 In FIG. 5A, when setting the authentication area 31 and the background area 32, the authentication area setting unit 14b sets moving object detection areas 41 to 43 around the authentication target 24 in the captured image 21F. The authentication area setting unit 14b may change the sizes and positions of the moving object detection areas 41 to 43 according to the authentication object 24. FIG.

図5(B)に示すように、認証領域設定部14bは、認証対象24が移動した撮像画像21Gにおいて、動体検出領域41、43では動体を検出せず、動体検出領域42では動体を検出したものとする。このとき、認証領域設定部14bは、認証対象24がX軸23方向のX2方向に移動したと判断し、動体の移動量と同じだけ認証領域31と動体検出領域41~43を撮像画像21G上で移動させる。 As shown in FIG. 5B, the authentication area setting unit 14b does not detect a moving object in the moving object detection areas 41 and 43, but detects a moving object in the moving object detection area 42 in the captured image 21G in which the authentication object 24 has moved. shall be At this time, the authentication area setting unit 14b determines that the authentication target 24 has moved in the X2 direction of the X axis 23, and places the authentication area 31 and the moving object detection areas 41 to 43 on the captured image 21G by the same amount as the moving amount of the moving object. to move.

図5(C)に示すように、認証領域設定部14bは、認証対象24が移動した撮像画像21Hにおいて、動体検出領域41、42では動体を検出せず、動体検出領域43では動体を検出したものとする。このとき、認証領域設定部14bは、認証対象24がY軸44方向のY1方向に移動したと判断し、動体の移動量と同じだけ認証領域31と動体検出領域41~43を撮像画像21G上で移動させる。 As shown in FIG. 5C, the authentication area setting unit 14b does not detect a moving object in the moving object detection areas 41 and 42, but detects a moving object in the moving object detection area 43 in the captured image 21H in which the authentication target 24 has moved. shall be At this time, the authentication area setting unit 14b determines that the authentication target 24 has moved in the Y1 direction of the Y axis 44, and places the authentication area 31 and the moving body detection areas 41 to 43 on the captured image 21G by the same amount as the moving amount of the moving body. to move.

認証対象24の移動により認証対象24の大きさが変化する場合は、認証領域設定部14bは、認証領域31と背景領域32を分割し直す。例えば、図5(C)に示すように、認証対象24が撮像画像21Hの奥に移動する場合は、被写体の大きさが小さくなるため、認証領域設定部14bは、認証領域31が小さくなるように撮像画像21Hを再分割する。 When the size of the authentication object 24 changes due to the movement of the authentication object 24, the authentication area setting unit 14b divides the authentication area 31 and the background area 32 again. For example, as shown in FIG. 5C, when the authentication target 24 moves to the back of the captured image 21H, the size of the subject becomes smaller. The captured image 21H is subdivided into .

ここで、認証領域設定部14bは、認証対象24の移動に追従するように認証領域31を移動させることにより、認証対象24が移動する場合においても、認証対象24の露光量を適正化することができ、認証精度の低下を防止することができる。 Here, the authentication area setting unit 14b moves the authentication area 31 so as to follow the movement of the authentication object 24, thereby optimizing the exposure amount of the authentication object 24 even when the authentication object 24 moves. It is possible to prevent deterioration of authentication accuracy.

図6は、第1実施形態に係る認証領域が複数ある時の撮像画像の一例を示す図である。なお、図6(A)は、認証対象24、51が互いに離れた位置にいる撮像画像21J、図6(B)は、認証対象24、51が互いに近い位置にいる撮像画像21Kを示す。 FIG. 6 is a diagram showing an example of a captured image when there are multiple authentication areas according to the first embodiment. 6A shows a captured image 21J in which the authentication targets 24 and 51 are separated from each other, and FIG. 6B shows a captured image 21K in which the authentication targets 24 and 51 are close to each other.

図6(A)および図6(B)において、複数の認証対象24、54が存在する場合、認証領域設定部14bは、認証対象24、54の距離が所定値以下かどうか判断する。そして、認証領域設定部14bは、認証対象24、54の距離によって認証領域の設定方法を変更する。例えば、認証領域設定部14bは、認証対象24、54の距離に基づいて、認証対象24、54が独立しているか、重なっているかを判断することができる。 6A and 6B, when there are a plurality of authentication targets 24 and 54, the authentication area setting unit 14b determines whether the distance between the authentication targets 24 and 54 is equal to or less than a predetermined value. Then, the authentication area setting unit 14b changes the setting method of the authentication area according to the distance between the authentication targets 24 and 54. FIG. For example, based on the distance between the authentication targets 24 and 54, the authentication area setting unit 14b can determine whether the authentication targets 24 and 54 are independent or overlapping.

図6(A)に示すように、各認証対象24、54が独立している場合、認証領域設定部14bは、認証対象24、54のそれぞれについて認証領域31、51を撮像画像21Jに個別に設定する。これにより、認証領域31、51ごとに露出補正を適正化することができ、各認証対象24、54の認証精度を向上させることができる。 As shown in FIG. 6A, when each of the authentication targets 24 and 54 is independent, the authentication region setting unit 14b individually sets the authentication regions 31 and 51 for each of the authentication targets 24 and 54 on the captured image 21J. set. Thereby, the exposure correction can be optimized for each of the authentication areas 31 and 51, and the authentication accuracy of each of the authentication targets 24 and 54 can be improved.

一方、図6(B)に示すように、各認証対象24、54が重なっている場合、認証領域設定部14bは、認証対象24、54を包括する認証領域55を撮像画像21Kに設定する。これにより、認証対象24、54の重なり部分について露出補正を適正化することができ、各認証対象24、54の認証精度の低下を抑制することができる。 On the other hand, as shown in FIG. 6B, when the authentication targets 24 and 54 overlap each other, the authentication region setting unit 14b sets an authentication region 55 including the authentication targets 24 and 54 in the captured image 21K. As a result, the exposure correction can be optimized for the overlapping portions of the authentication targets 24 and 54, and a decrease in authentication accuracy of the authentication targets 24 and 54 can be suppressed.

図7は、第1実施形態に係る撮像制御方法を示すフローチャートである。
なお、図7の各ステップは、図1の撮像装置11の記憶部に記憶されたプログラムを撮像制御部14が読み出し、実行することで実現される。また、図7に示すフローチャートの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASICにより実現するようにしてもよい。
この場合、図7に示すフローチャートにおける各ブロックは、ハードウェアブロックと見做すことができる。なお、複数のブロックをまとめて1つのハードウェアブロックとして構成してもよく、1つのブロックを複数のハードウェアブロックとして構成してもよい。
FIG. 7 is a flow chart showing the imaging control method according to the first embodiment.
Each step in FIG. 7 is realized by the imaging control unit 14 reading and executing a program stored in the storage unit of the imaging apparatus 11 in FIG. Also, at least part of the flowchart shown in FIG. 7 may be implemented by hardware. When implemented by hardware, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on an FPGA from a program for implementing each step. Also, a Gate Array circuit may be formed in the same manner as the FPGA and implemented as hardware. Also, it may be realized by an ASIC.
In this case, each block in the flowchart shown in FIG. 7 can be regarded as a hardware block. A plurality of blocks may be collectively configured as one hardware block, or one block may be configured as a plurality of hardware blocks.

図7のステップS61において、図1の撮像制御部14は、撮像範囲全体に対し露出補正を行う。
次に、ステップS62において、撮像制御部14は、撮像範囲全体に対し露出補正された撮像画像を画像処理部13から取得する。
次に、ステップS63において、撮像制御部14は、撮像画像内の認証対象の有無を確認する。撮像画像内に認証対象が存在しない場合、撮像制御部14は、ステップS64~66の処理をスキップし、処理を終了させる。
In step S61 of FIG. 7, the imaging control unit 14 of FIG. 1 performs exposure correction for the entire imaging range.
Next, in step S<b>62 , the imaging control unit 14 acquires from the image processing unit 13 a captured image whose exposure has been corrected for the entire imaging range.
Next, in step S63, the imaging control unit 14 checks whether there is an authentication target in the captured image. When the authentication target does not exist in the captured image, the imaging control unit 14 skips the processing of steps S64 to S66 and terminates the processing.

一方、撮像画像内に認証対象が存在する場合、撮像制御部14は、ステップS64に進み、認証領域と背景領域を撮像画像内に設定する。
次に、ステップS65において、撮像制御部14は、認証領域と背景領域のそれぞれの輝度の平均値に基づいて、認証領域と背景領域それぞれの露出補正値を算出する。
次に、ステップS66において、撮像制御部14は、認証領域と背景領域のそれぞれの露出補正値に合わせて撮像を行わせ、撮像画像を画像処理部13から取得する。
On the other hand, if there is an authentication target in the captured image, the imaging control unit 14 proceeds to step S64 and sets the authentication area and the background area in the captured image.
Next, in step S65, the imaging control unit 14 calculates exposure correction values for each of the authentication area and the background area based on the luminance average values of the authentication area and the background area.
Next, in step S<b>66 , the image capturing control unit 14 performs image capturing according to the exposure correction values of the authentication area and the background area, and acquires the captured image from the image processing unit 13 .

以上説明したように、上述した第1実施形態によれば、撮像制御部は、認証対象を含む第1領域と、認証対象が未検出の第2領域のそれぞれの露光時間を調整することができる。このため、撮像制御部は、第1領域と第2領域のそれぞれの露出補正を適正化することができ、画像からの認証対象の検出精度を向上させることが可能となるとともに、認証対象の認証精度を向上させることができる。 As described above, according to the first embodiment described above, the imaging control unit can adjust the exposure time of each of the first area including the authentication target and the second area where the authentication target is not detected. . Therefore, the imaging control unit can optimize the exposure correction of each of the first area and the second area, and can improve the detection accuracy of the authentication target from the image. Accuracy can be improved.

<第2実施形態>
図8は、第2実施形態に係る認証領域設定後の撮像画像および輝度値の一例を示す図である。この第2実施形態では、認証対象74が顔画像である場合を示す。なお、図8(A)は、顔認証領域71と顔背景領域72の設定後の撮像画像71D、図8(B)は、顔認証領域71と顔背景領域72に露出補正を行った後の撮像画像71Eを示す。図8(C)は、図8(B)の撮像画像71Eの枠72E内の輝度値を示す。
<Second embodiment>
FIG. 8 is a diagram showing an example of a captured image and luminance values after authentication area setting according to the second embodiment. This second embodiment shows a case where the authentication object 74 is a face image. Note that FIG. 8A shows a photographed image 71D after setting the face authentication area 71 and the face background area 72, and FIG. A captured image 71E is shown. FIG. 8(C) shows luminance values within a frame 72E of the captured image 71E of FIG. 8(B).

図8(A)において、認証対象74が撮像画像71Dから検出されると、図1の認証領域設定部14bは、認証対象74を含む顔認証領域71と、認証対象74を含まない顔背景領域72に撮像画像71Dを分割する。顔認証領域71は、顔画像の周辺の所定範囲とし、顔背景領域72は、顔認証領域71以外の領域とすることができる。 In FIG. 8A, when the authentication target 74 is detected from the captured image 71D, the authentication region setting unit 14b of FIG. The captured image 71 D is divided into 72 . The face authentication area 71 can be a predetermined range around the face image, and the face background area 72 can be an area other than the face authentication area 71 .

次に、輝度平均算出部14cは、顔認証領域71と顔背景領域72のそれぞれの輝度の平均値を算出し、露出補正値を設定する。そして、露光時間調整部14dは、露出補正値に基づいて露光時間を調整し、顔認証領域71と顔背景領域72のそれぞれについて露出補正された画像を撮像させることで、図8(B)の撮像画像71Eが得られる。図8(B)の撮像画像71Eでは、顔認証領域71が露出補正されないように露出設定した場合を示したが、顔認証領域71の露出設定はこれに限定されない。 Next, the brightness average calculation unit 14c calculates the brightness average value of each of the face authentication area 71 and the face background area 72, and sets an exposure correction value. Then, the exposure time adjustment unit 14d adjusts the exposure time based on the exposure correction value, and captures an exposure-corrected image for each of the face authentication area 71 and the face background area 72, thereby obtaining the image shown in FIG. 8B. A captured image 71E is obtained. Although the captured image 71E in FIG. 8B shows the case where the exposure is set so that the exposure of the face authentication area 71 is not corrected, the exposure setting of the face authentication area 71 is not limited to this.

このとき、図8(C)に示すように、図8(B)のX軸23方向の0からX4の範囲は、露出補正が行われない顔認証領域71に該当するため、輝度値が適正値を下回る。X4からX2の範囲は、顔背景領域72に該当するため、輝度値が適正値になる。 At this time, as shown in FIG. 8C, the range from 0 to X4 in the direction of the X-axis 23 in FIG. below the value. Since the range from X4 to X2 corresponds to the face background area 72, the luminance value is an appropriate value.

図9は、第2実施形態に係る認証領域の移動時の撮像画像の一例を示す図である。
図9において、なお、図9(A)は、認証対象74の移動前の撮像画像71F、図9(B)および図9(C)は、認証対象74の移動後の撮像画像71G、74Hを示す。
FIG. 9 is a diagram showing an example of a captured image when the authentication area is moved according to the second embodiment.
9A shows a captured image 71F before the authentication target 74 is moved, and FIGS. 9B and 9C show captured images 71G and 74H after the authentication target 74 is moved. show.

図9(A)において、認証領域設定部14bは、顔認証領域71と顔背景領域72の設定時、動体検出領域81~84を撮像画像71Fの認証対象74の周辺に設定する。認証領域設定部14bは、認証対象74によって動体検出領域71~74の大きさおよび位置を変更してもよい。 In FIG. 9A, when the face authentication region 71 and the face background region 72 are set, the authentication region setting unit 14b sets moving object detection regions 81 to 84 around the authentication target 74 in the captured image 71F. The authentication area setting unit 14b may change the sizes and positions of the moving object detection areas 71 to 74 depending on the authentication target 74. FIG.

図9(B)に示すように、認証領域設定部14bは、認証対象74が移動した撮像画像71Gにおいて、動体検出領域81、83、84では動体を検出せず、動体検出領域82では動体を検出したものとする。このとき、認証領域設定部14bは、認証対象74がX軸23方向のX2方向に移動したと判断し、動体の移動量と同じだけ認証領域71と動体検出領域81~84を撮像画像71G上で移動させる。 As shown in FIG. 9B, the authentication area setting unit 14b does not detect a moving object in moving object detection areas 81, 83, and 84, and detects a moving object in a moving object detection area 82 in a captured image 71G in which an authentication target 74 has moved. shall be detected. At this time, the authentication area setting unit 14b determines that the authentication object 74 has moved in the X2 direction of the X axis 23, and places the authentication area 71 and the moving object detection areas 81 to 84 on the captured image 71G by the same amount as the moving amount of the moving object. to move.

図9(C)に示すように、認証領域設定部14bは、認証対象74が移動した撮像画像71Hにおいて、動体検出領域81、82、84では動体を検出せず、動体検出領域83では動体を検出したものとする。このとき、認証領域設定部14bは、認証対象74がY軸44方向のY1方向に移動したと判断し、動体の移動量と同じだけ顔認証領域71と動体検出領域81~84を撮像画像71G上で移動させる。 As shown in FIG. 9C, the authentication area setting unit 14b does not detect a moving object in moving object detection areas 81, 82, and 84, and detects a moving object in a moving object detection area 83 in a captured image 71H in which an authentication target 74 has moved. shall be detected. At this time, the authentication area setting unit 14b determines that the authentication object 74 has moved in the Y1 direction of the Y axis 44, and sets the face authentication area 71 and the moving object detection areas 81 to 84 by the same amount as the amount of movement of the moving object in the captured image 71G. move up.

認証対象74の移動により認証対象74の大きさが変化する場合は、認証領域設定部14bは、顔認証領域71と顔背景領域72を分割し直す。例えば、図9(C)に示すように、認証対象74が撮像画像71Hの奥に移動する場合は、顔画像の大きさが小さくなるため、認証領域設定部14bは、顔認証領域71が小さくなるように撮像画像71Hを再分割する。 When the size of the authentication object 74 changes due to the movement of the authentication object 74, the authentication area setting unit 14b divides the face authentication area 71 and the face background area 72 again. For example, as shown in FIG. 9C, when the authentication target 74 moves to the back of the captured image 71H, the size of the face image becomes smaller. The captured image 71H is subdivided so that

図10は、第2実施形態に係る認証領域が複数ある時の撮像画像の一例を示す図である。なお、図10(A)は、認証対象74、94が互いに離れた位置にいる撮像画像71J、図10(B)は、認証対象74、94が互いに近い位置にいる撮像画像71Kを示す。 FIG. 10 is a diagram showing an example of a captured image when there are multiple authentication areas according to the second embodiment. 10A shows a captured image 71J in which the authentication targets 74 and 94 are separated from each other, and FIG. 10B shows a captured image 71K in which the authentication targets 74 and 94 are close to each other.

図10(A)および図10(B)において、複数の認証対象74、94が存在する場合、認証領域設定部14bは、認証対象74、94の距離が所定値以下かどうか判断する。そして、認証領域設定部14bは、認証対象74、94の距離によって認証領域の設定方法を変更する。例えば、認証領域設定部14bは、認証対象74、94の距離に基づいて、認証対象74、94が独立しているか、重なっているかを判断することができる。 10A and 10B, when there are a plurality of authentication targets 74 and 94, the authentication area setting unit 14b determines whether the distance between the authentication targets 74 and 94 is equal to or less than a predetermined value. Then, the authentication area setting unit 14b changes the setting method of the authentication area according to the distance between the authentication targets 74 and 94. FIG. For example, based on the distance between the authentication targets 74 and 94, the authentication area setting unit 14b can determine whether the authentication targets 74 and 94 are independent or overlapping.

図10(A)に示すように、各認証対象74、94が独立している場合、認証領域設定部14bは、認証対象74、94のそれぞれに認証領域71、91を撮像画像71Jに個別に設定する。一方、図10(B)に示すように、各認証対象74、94が重なっている場合、認証領域設定部14bは、認証対象74、94を包括する認証領域95を撮像画像71Kに設定する。 As shown in FIG. 10A, when the authentication targets 74 and 94 are independent, the authentication region setting unit 14b sets the authentication regions 71 and 91 for the authentication targets 74 and 94, respectively, on the captured image 71J. set. On the other hand, as shown in FIG. 10B, when the authentication targets 74 and 94 overlap each other, the authentication region setting unit 14b sets an authentication region 95 including the authentication targets 74 and 94 in the captured image 71K.

以上説明したように、上述した第2実施形態によれば、撮像制御部は、顔画像を含む第1領域と、顔画像が未検出の第2領域のそれぞれの露光時間を調整することができる。このため、撮像制御部は、第1領域と第2領域のそれぞれの露出補正を適正化することができ、画像からの顔画像の検出精度を向上させることが可能となるとともに、顔認証精度を向上させることができる。 As described above, according to the second embodiment described above, the imaging control unit can adjust the exposure time of each of the first area including the face image and the second area where the face image is not detected. . Therefore, the imaging control unit can optimize the exposure correction of each of the first area and the second area, thereby improving the detection accuracy of the face image from the image, and improving the face authentication accuracy. can be improved.

<第3実施形態>
図11は、第3実施形態に係る認証前後の撮像画像の一例を示す図である。なお、図11(A)および図11(B)は、認証一覧101に登録されている被写体と一致する認証対象が存在する撮像画像、図11(C)および図11(D)は、認証一覧101に登録されている被写体と一致する認証対象が存在しない撮像画像を示す。
<Third Embodiment>
11A and 11B are diagrams illustrating examples of captured images before and after authentication according to the third embodiment. Note that FIGS. 11A and 11B are captured images in which an authentication target that matches a subject registered in the authentication list 101 exists, and FIGS. 11C and 11D are the authentication list 101 shows a captured image in which there is no authentication target that matches the subject registered in 101. FIG.

図11(A)において、撮像画像71Dでは、認証対象74を含む顔認証領域71が設定されている。そして、認証部17は、顔認証領域71に含まれる認証対象74と一致する被写体が認証一覧101に登録されているかどうかを確認する。そして、認証部17は、顔認証領域71に含まれる認証対象74と一致する被写体102が認証一覧101に登録されていることを確認すると、認証を完了する。この場合、撮像制御部14は、認証後に顔認証領域71を露出補正せず撮像させる。すなわち、撮像制御部14は、認証後に顔認証領域71の輝度の平均値に基づいて顔認証領域71の露光時間を調整する。このとき、図11(B)に示すように、認証後の撮像では、顔背景領域72のみ露出補正された撮像画像71Eが得られる。 In FIG. 11A, a face authentication area 71 including an authentication target 74 is set in a captured image 71D. Then, the authentication unit 17 confirms whether or not a subject that matches the authentication target 74 included in the face authentication area 71 is registered in the authentication list 101 . After confirming that the subject 102 matching the authentication target 74 included in the face authentication area 71 is registered in the authentication list 101, the authentication unit 17 completes the authentication. In this case, the image capturing control unit 14 captures an image of the face recognition area 71 without exposure correction after authentication. That is, the imaging control unit 14 adjusts the exposure time of the face authentication area 71 based on the average luminance value of the face authentication area 71 after authentication. At this time, as shown in FIG. 11(B), a photographed image 71E in which only the face background area 72 is subjected to exposure correction is obtained in photographing after authentication.

図11(C)において、撮像画像71Lでは、認証対象114を含む顔認証領域111が設定されている。そして、認証部17は、顔認証領域111に含まれる認証対象114と一致する被写体が認証一覧101に登録されているかどうかを確認する。そして、認証部17は、顔認証領域111に含まれる認証対象114と一致する被写体が認証一覧101に登録されていないことを確認したものとする。この場合、撮像制御部14は、認証後も認証対象114を注視できるようにするため、認証後に顔認証領域111を露出補正して撮像させる。すなわち、撮像制御部14は、認証後に画像全体の輝度の平均値に基づいて顔認証領域111の露光時間を調整する。このとき、図11(D)に示すように、認証後の撮像では、認証前の撮像と同様に、顔認証領域111および顔背景領域72が露出補正された撮像画像71Lが得られる。 In FIG. 11C, a face authentication area 111 including an authentication target 114 is set in the captured image 71L. Then, the authentication unit 17 confirms whether or not a subject that matches the authentication target 114 included in the face authentication area 111 is registered in the authentication list 101 . Assume that the authentication unit 17 has confirmed that the subject matching the authentication target 114 included in the face authentication area 111 is not registered in the authentication list 101 . In this case, the imaging control unit 14 performs exposure correction of the face authentication area 111 after authentication so that the user can gaze at the authentication target 114 even after authentication. That is, the imaging control unit 14 adjusts the exposure time of the face authentication area 111 based on the average luminance value of the entire image after authentication. At this time, as shown in FIG. 11D, in the post-authentication imaging, similarly to the pre-authentication imaging, a captured image 71L in which the face authentication area 111 and the face background area 72 are exposure-corrected is obtained.

以上説明したように、上述した第3実施形態によれば、撮像制御部は、認証対象の認証後は、認証結果に応じて認証領域の露出設定を変更する。これにより、撮像制御部は、認証結果に応じて、認証対象の視認性を向上させたり、認証対象の認証精度を向上させることができる。 As described above, according to the third embodiment described above, the imaging control unit changes the exposure setting of the authentication area according to the authentication result after authentication of the authentication target. Thereby, the imaging control unit can improve the visibility of the authentication target and improve the authentication accuracy of the authentication target according to the authentication result.

<その他の実施形態>
図12は、実施形態に係る撮像制御部のハードウェア構成例を示すブロック図である。
<Other embodiments>
12 is a block diagram illustrating a hardware configuration example of an imaging control unit according to the embodiment; FIG.

図12において、撮像制御部14は、プロセッサ131、通信制御部132、通信インタフェース133、主記憶部134、補助記憶部135および入出力インタフェース137を備える。プロセッサ131、通信制御部132、通信インタフェース133、主記憶部134、補助記憶部135および入出力インタフェース137は、内部バス136を介して相互に接続されている。主記憶部134および補助記憶部135は、プロセッサ131からアクセス可能である。 12, the imaging control section 14 includes a processor 131, a communication control section 132, a communication interface 133, a main storage section 134, an auxiliary storage section 135, and an input/output interface 137. FIG. Processor 131 , communication control unit 132 , communication interface 133 , main storage unit 134 , auxiliary storage unit 135 and input/output interface 137 are interconnected via internal bus 136 . Main memory 134 and auxiliary memory 135 are accessible from processor 131 .

また、撮像制御部14の外部には、入力装置140および表示装置141が設けられている。入力装置140および表示装置141は、入出力インタフェース137を介して内部バス136に接続されている。入力装置140は、例えば、キーボード、マウス、タッチパネル、カードリーダ、音声入力装置等である。表示装置141は、例えば、液晶モニタ、有機ELディスプレイ、マイクロLEDディスプレイである。 Also, an input device 140 and a display device 141 are provided outside the imaging control unit 14 . Input device 140 and display device 141 are connected to internal bus 136 via input/output interface 137 . The input device 140 is, for example, a keyboard, mouse, touch panel, card reader, voice input device, or the like. The display device 141 is, for example, a liquid crystal monitor, an organic EL display, or a micro LED display.

プロセッサ131は、撮像制御部14全体の動作制御を司る。プロセッサ131は、CPUであってもよいし、GPU(Graphics Processing Unit)であってもよい。プロセッサ131は、シングルコアプロセッサであってもよいし、マルチコアプロセッサであってもよい。プロセッサ131は、処理の一部を高速化するアクセラレータなどのハードウェア回路(例えば、FPGAまたはASIC)を備えていてもよい。 The processor 131 controls the operation of the imaging control unit 14 as a whole. The processor 131 may be a CPU or a GPU (Graphics Processing Unit). Processor 131 may be a single-core processor or a multi-core processor. Processor 131 may include a hardware circuit (eg, FPGA or ASIC) such as an accelerator that speeds up some of the processing.

主記憶部134は、例えば、SRAM(Static Randam Access Memory)またはDRAM(Dynamic Randam Access Memory)などの半導体メモリから構成することができる。主記憶部134には、プロセッサ131が実行中のプログラムを格納したり、プロセッサ131がプログラムを実行するためのワークエリアを設けたりすることができる。 The main storage unit 134 can be composed of a semiconductor memory such as an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory). The main storage unit 134 can store a program being executed by the processor 131 and can provide a work area for the processor 131 to execute the program.

補助記憶部135は、不揮発性記憶デバイスであり、例えば、ROM、ハードディスク装置またはSSD(Solid State Drive)である。補助記憶部135は、各種プログラムの実行ファイルやプログラムの実行に用いられるデータを保持することができる。 The auxiliary storage unit 135 is a non-volatile storage device, such as a ROM, hard disk device, or SSD (Solid State Drive). The auxiliary storage unit 135 can hold executable files of various programs and data used for executing the programs.

通信制御部132は、外部との通信を制御する機能を備えるハードウェアである。通信制御部132は、通信インタフェース133を介してネットワーク139に接続される。ネットワーク139は、インターネットであってもよいし、WANであってもよいし、WiFiまたはイーサネット(登録商標)などのLANであってもよいし、インターネットとWANとLANが混在していてもよい。 The communication control unit 132 is hardware having a function of controlling communication with the outside. Communication control unit 132 is connected to network 139 via communication interface 133 . The network 139 may be the Internet, a WAN, a LAN such as WiFi or Ethernet (registered trademark), or a mixture of the Internet, WAN, and LAN.

入出力インタフェース137は、入力装置140から入力されるデータをプロセッサ131が処理可能なデータ形式に変換したり、プロセッサ131から出力されるデータを表示装置141が処理可能なデータ形式に変換したりする。 The input/output interface 137 converts data input from the input device 140 into a data format processable by the processor 131, and converts data output from the processor 131 into a data format processable by the display device 141. .

プロセッサ131は、補助記憶部135に記憶されたプログラムを主記憶部134に読み出して実行することにより、図7の処理を実現することができる。
なお、図7の処理を実現するためのプログラムの実行は、複数のプロセッサやコンピュータに分担させてもよい。あるいは、プロセッサ131は、図7の処理を実現するためのプログラムの全部または一部の実行を、ネットワーク139を介してクラウドコンピュータなどに指示し、その実行結果を受け取るようにしてもよい。
The processor 131 can implement the processing in FIG. 7 by reading the program stored in the auxiliary storage unit 135 to the main storage unit 134 and executing the program.
Execution of the program for realizing the processing in FIG. 7 may be shared among a plurality of processors or computers. Alternatively, the processor 131 may instruct a cloud computer or the like via the network 139 to execute all or part of the program for realizing the processing of FIG. 7, and receive the execution result.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給してもよい。そして、上述の実施形態の1以上の機能は、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、FPGAまたはASIC)でも実現可能である。 The present invention may supply a program that implements one or more functions of the above-described embodiments to a system or device via a network or storage medium. One or more functions of the above-described embodiments can also be realized by a process in which one or more processors in the computer of the system or device read and execute the program. It can also be implemented in a circuit (eg FPGA or ASIC) that implements one or more functions.

11 撮像装置、12 撮像部、13 画像処理部、14 撮像制御部、14a 認証対象検出部、14b 認証対象設定出部、14c 輝度平均算出部、14d 露光時間調整部、15 ネットワーク処理部、16 システム制御部 11 imaging device, 12 imaging unit, 13 image processing unit, 14 imaging control unit, 14a authentication target detection unit, 14b authentication target setting output unit, 14c luminance average calculation unit, 14d exposure time adjustment unit, 15 network processing unit, 16 system control unit

Claims (13)

画像から認証対象を検出する検出手段と、
前記検出手段で検出された前記認証対象を含む第1領域を前記画像に設定する設定手段と、
前記設定手段で設定された前記第1領域と、前記認証対象が未検出の第2領域のそれぞれの露光時間を調整する調整手段と、
を備えることを特徴とする撮像制御装置。
detection means for detecting an authentication target from an image;
setting means for setting, in the image, a first area including the authentication target detected by the detection means;
adjusting means for adjusting the exposure time of each of the first area set by the setting means and the second area in which the authentication target is not detected;
An imaging control device comprising:
前記第1領域と前記第2領域のそれぞれの輝度の平均値を算出する算出手段をさらに備え、
前記調整手段は、前記第1領域の輝度の平均値に基づいて前記第1領域の露光時間を調整し、前記第2領域の輝度の平均値に基づいて前記第2領域の露光時間を調整することを特徴とする請求項1に記載の撮像制御装置。
Further comprising calculating means for calculating an average luminance value of each of the first region and the second region,
The adjusting means adjusts the exposure time of the first region based on the average luminance value of the first region, and adjusts the exposure time of the second region based on the average luminance value of the second region. 2. The imaging control device according to claim 1, wherein:
前記設定手段は、前記認証対象の移動量および移動方向に基づいて、前記第1領域を移動させることを特徴とする請求項1または2に記載の撮像制御装置。 3. The imaging control apparatus according to claim 1, wherein the setting unit moves the first area based on the amount and direction of movement of the authentication object. 前記設定手段は、前記認証対象の大きさが変化した場合、前記第1領域を再設定することを特徴とする請求項1から3のいずれか1項に記載の撮像制御装置。 4. The imaging control apparatus according to any one of claims 1 to 3, wherein the setting unit resets the first area when the size of the authentication object changes. 前記検出手段が前記画像から複数の認証対象を検出した場合、前記設定手段は、前記認証対象間の距離に基づいて前記第1領域を設定することを特徴とする請求項1から4のいずれか1項に記載の撮像制御装置。 5. The first area according to any one of claims 1 to 4, wherein when said detecting means detects a plurality of authentication objects from said image, said setting means sets said first area based on a distance between said objects to be authenticated. 1. The imaging control device according to item 1. 前記認証対象間の距離が所定値以下の場合、前記設定手段は、前記複数の認証対象を包括する前記第1領域を設定し、
前記認証対象間の距離が所定値を超える場合、前記設定手段は、前記複数の認証対象ごとに前記第1領域を設定することを特徴とする請求項5に記載の撮像制御装置。
when the distance between the authentication targets is equal to or less than a predetermined value, the setting means sets the first region including the plurality of authentication targets;
6. The imaging control apparatus according to claim 5, wherein when the distance between the authentication targets exceeds a predetermined value, the setting unit sets the first area for each of the plurality of authentication targets.
撮像範囲全体に露出補正された画像から前記認証対象が検出された場合、前記調整手段は、前記第1領域および前記第2領域のそれぞれ露出量が適正化されるように、前記第1領域および前記第2領域のそれぞれの露光時間を調整することを特徴とする請求項1から6のいずれか1項に記載の撮像制御装置。 When the authentication object is detected from the image whose exposure has been corrected over the entire imaging range, the adjusting means adjusts the first area and the second area so that the respective exposure amounts of the first area and the second area are optimized. 7. The imaging control device according to any one of claims 1 to 6, wherein the exposure time of each of the second regions is adjusted. 撮像範囲全体に露出補正された画像から前記認証対象が検出されない場合、前記調整手段は、前記第1領域および前記第2領域のそれぞれの露光時間の調整をスキップすることを特徴とする請求項1から7のいずれか1項に記載の撮像制御装置。 2. When the authentication target is not detected from the image whose exposure has been corrected over the entire imaging range, the adjustment means skips the adjustment of the exposure time of each of the first area and the second area. 8. The imaging control device according to any one of 7. 登録画像と一致する認証対象が検出された場合、前記調整手段は、認証後に前記第1領域の輝度の平均値に基づいて前記第1領域の露光時間を調整し、
登録画像と一致する認証対象が検出されない場合、前記調整手段は、認証後に画像全体の輝度の平均値に基づいて前記第1領の露光時間を調整することを特徴とする請求項1から8のいずれか1項に記載の撮像制御装置。
When an authentication target that matches the registered image is detected, the adjustment means adjusts the exposure time of the first area based on the average luminance value of the first area after authentication,
9. The method according to any one of claims 1 to 8, characterized in that, when an authentication target that matches the registered image is not detected, the adjustment means adjusts the exposure time of the first area based on an average luminance value of the entire image after authentication. The imaging control device according to any one of claims 1 to 3.
前記認証対象は顔画像であることを特徴とする請求項1から9のいずれか1項に記載の撮像制御装置。 10. The imaging control apparatus according to any one of claims 1 to 9, wherein the authentication target is a face image. 前記第2領域は、前記認証対象の検出前の全体画像または前記認証対象の背景である背景画像であることを特徴とする請求項1から10のいずれか1項に記載の撮像制御装置。 11. The imaging control apparatus according to any one of claims 1 to 10, wherein the second area is an entire image of the authentication target before detection or a background image that is a background of the authentication target. 画像から認証対象を検出するステップと、
前記認証対象を含む第1領域を前記画像に設定するステップと、
前記第1領域と、前記認証対象が未検出の第2領域のそれぞれの露光時間を調整するステップと、
を備えることを特徴とする撮像制御方法。
a step of detecting an authentication target from an image;
setting a first area including the authentication target in the image;
adjusting the exposure time of each of the first region and the second region where the authentication target is not detected;
An imaging control method comprising:
コンピュータを請求項1から11のいずれか1項に記載の撮像制御装置として動作させるためのプログラム。 A program for operating a computer as the imaging control device according to any one of claims 1 to 11.
JP2021024417A 2021-02-18 2021-02-18 Imaging control device, imaging control method, and program Pending JP2022126383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021024417A JP2022126383A (en) 2021-02-18 2021-02-18 Imaging control device, imaging control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021024417A JP2022126383A (en) 2021-02-18 2021-02-18 Imaging control device, imaging control method, and program

Publications (1)

Publication Number Publication Date
JP2022126383A true JP2022126383A (en) 2022-08-30

Family

ID=83058798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021024417A Pending JP2022126383A (en) 2021-02-18 2021-02-18 Imaging control device, imaging control method, and program

Country Status (1)

Country Link
JP (1) JP2022126383A (en)

Similar Documents

Publication Publication Date Title
US20200084401A1 (en) Correcting pixel defects based on defect history in an image processing pipeline
US9479695B2 (en) Generating a high dynamic range image using a temporal filter
US9787922B2 (en) Pixel defect preprocessing in an image signal processor
RU2528590C2 (en) Image capturing device, method of controlling same and storage medium
US20170256036A1 (en) Automatic microlens array artifact correction for light-field images
JP6249638B2 (en) Image processing apparatus, image processing method, and program
JP2009212853A (en) White balance controller, its control method, and imaging apparatus
US10972676B2 (en) Image processing method and electronic device capable of optimizing hdr image by using depth information
US11838649B2 (en) Image capturing device and control method thereof and medium
US20230090876A1 (en) Apparatus, method of controlling the same, and storage medium
WO2019128539A1 (en) Image definition obtaining method and apparatus, storage medium, and electronic device
US10373293B2 (en) Image processing apparatus, image processing method, and storage medium
US20220021800A1 (en) Image capturing apparatus, method of controlling image capturing apparatus, and storage medium
JP2014127773A5 (en)
US11991454B2 (en) Image capturing control apparatus, image capturing apparatus, control method, and storage medium
US8786737B2 (en) Image correction device and image correction method
JP2022126383A (en) Imaging control device, imaging control method, and program
US20160037058A1 (en) Providing frame delay using a temporal filter
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2017229025A (en) Image processing apparatus, image processing method, and program
US20190052803A1 (en) Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium
US11838645B2 (en) Image capturing control apparatus, image capturing control method, and storage medium
CN108171230A (en) Image processing method and device
US20230274470A1 (en) Imaging apparatus, information processing apparatus, control method, and storage medium
JP2018190201A (en) Image processing device, image processing method and program