JP2021061546A - Imaging apparatus, control method of the same, and program - Google Patents

Imaging apparatus, control method of the same, and program Download PDF

Info

Publication number
JP2021061546A
JP2021061546A JP2019185391A JP2019185391A JP2021061546A JP 2021061546 A JP2021061546 A JP 2021061546A JP 2019185391 A JP2019185391 A JP 2019185391A JP 2019185391 A JP2019185391 A JP 2019185391A JP 2021061546 A JP2021061546 A JP 2021061546A
Authority
JP
Japan
Prior art keywords
image
parameter
imaging
recognition
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019185391A
Other languages
Japanese (ja)
Other versions
JP7401246B2 (en
JP2021061546A5 (en
Inventor
野村 修
Osamu Nomura
修 野村
加藤 政美
Masami Kato
政美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019185391A priority Critical patent/JP7401246B2/en
Publication of JP2021061546A publication Critical patent/JP2021061546A/en
Publication of JP2021061546A5 publication Critical patent/JP2021061546A5/ja
Application granted granted Critical
Publication of JP7401246B2 publication Critical patent/JP7401246B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

To make it possible to determine better adapted imaging parameters for an image to be captured based on the imaging parameters.SOLUTION: An imaging apparatus includes image acquisition means (10) for acquiring an image through image capturing, image generation means (20) for generating a prediction image based on the acquired image, image recognition means (30) for performing image recognition on the prediction image, parameter determination means (40) for determining imaging parameters based on the results of image recognition, and parameter setting means (50) for setting the determined imaging parameters to the image acquisition means.SELECTED DRAWING: Figure 1

Description

本発明は、撮像時に用いられる撮像パラメータの制御技術に関する。 The present invention relates to a technique for controlling imaging parameters used during imaging.

撮像装置において、所望の画像を取得することを可能とする撮像パラメータを制御する技術として、画像に対して認識処理を実行し、得られた認識結果を基にして撮像パラメータを制御する技術が広く提案されている。特許文献1には、監視装置等のカメラが撮像した画像を用いた人物の顔認識結果を基に、その人物の顔を確認し易くするようにカメラの上下方向、水平方向、回転方向等の撮影方向、及び画角の少なくとも一つの撮像パラメータを決定する技術が開示されている。 As a technique for controlling an imaging parameter that makes it possible to acquire a desired image in an imaging device, there is a wide range of techniques for executing recognition processing on an image and controlling the imaging parameter based on the obtained recognition result. Proposed. Patent Document 1 describes the vertical direction, horizontal direction, rotation direction, etc. of the camera so that the face of the person can be easily confirmed based on the face recognition result of the person using the image captured by the camera of the monitoring device or the like. A technique for determining at least one imaging parameter of an imaging direction and an angle of view is disclosed.

特開2014−64083号公報Japanese Unexamined Patent Publication No. 2014-64083

前述した画像認識結果に基づく撮像パラメータ制御技術の場合、認識処理を適用する対象となる画像は既に取得済みの画像である。このため、画像認識結果を基に撮像パラメータを制御した場合、当該撮像パラメータを反映した上で新たに取得した画像において、認識対象物の画像上の位置および画素レベルの輝度データは、既に変化している可能性が有る。この場合、顔画像のような所望の画像を取得するために制御した撮像パラメータの値は、その撮像パラメータを基に新たに撮像される画像に対して適当でない値となってしまってしまうことが有り得る。つまり、その撮像パラメータは、新たに撮像される画像に対して適合していない可能性がある。 In the case of the imaging parameter control technology based on the image recognition result described above, the image to which the recognition process is applied is an image that has already been acquired. Therefore, when the imaging parameters are controlled based on the image recognition result, the position on the image of the recognition target and the brightness data at the pixel level have already changed in the newly acquired image after reflecting the imaging parameters. There is a possibility that it is. In this case, the value of the imaging parameter controlled to acquire a desired image such as a face image may become an inappropriate value for an image newly imaged based on the imaging parameter. It is possible. That is, the imaging parameters may not be compatible with the newly captured image.

そこで、本発明は、撮像パラメータを基に撮像される画像に対して、より適合した撮像パラメータを決定可能にすることを目的とする。 Therefore, an object of the present invention is to make it possible to determine a more suitable imaging parameter for an image captured based on the imaging parameter.

本発明の撮像装置は、撮像によって画像を取得する画像取得手段と、前記取得された画像を基に予測画像を生成する画像生成手段と、前記予測画像に対して画像認識を実行する画像認識手段と、前記画像認識の結果に基づいて撮像パラメータを決定するパラメータ決定手段と、前記決定した撮像パラメータを前記画像取得手段に対して設定するパラメータ設定手段と、を有することを特徴とする。 The image pickup apparatus of the present invention includes an image acquisition means for acquiring an image by imaging, an image generation means for generating a predicted image based on the acquired image, and an image recognition means for executing image recognition on the predicted image. It is characterized by having a parameter determining means for determining an imaging parameter based on the result of the image recognition, and a parameter setting means for setting the determined imaging parameter with respect to the image acquiring means.

本発明によれば、撮像パラメータを基に撮像される画像に対して、より適合した撮像パラメータを決定することができる。 According to the present invention, it is possible to determine a more suitable imaging parameter for an image captured based on the imaging parameter.

実施形態1に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the image pickup apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る処理フローチャートである。It is a processing flowchart which concerns on Embodiment 1. 実施形態1に係る予測画像生成処理を実現する構成例を示す図である。It is a figure which shows the configuration example which realizes the prediction image generation processing which concerns on Embodiment 1. 実施形態1に係る画像認識処理を実現する構成例を示す図である。It is a figure which shows the configuration example which realizes the image recognition processing which concerns on Embodiment 1. 実施形態1に係る画像認識処理の説明図である。It is explanatory drawing of the image recognition processing which concerns on Embodiment 1. FIG. 実施形態2に係る処理フローチャートである。It is a processing flowchart which concerns on Embodiment 2. 実施形態2に係る画像認識処理を実現する構成例を示す図である。It is a figure which shows the configuration example which realizes the image recognition processing which concerns on Embodiment 2. 実施形態2に係る画像認識処理(物体認識処理)の説明図である。It is explanatory drawing of the image recognition processing (object recognition processing) which concerns on Embodiment 2. 実施形態2に係る画像認識処理(物体姿勢認識処理)の説明図である。It is explanatory drawing of the image recognition processing (object posture recognition processing) which concerns on Embodiment 2. 実施形態2に係る人体頭部中心位置の算出方法の説明図である。It is explanatory drawing of the calculation method of the human body head center position which concerns on Embodiment 2. 実施形態2に係る撮像領域の説明図である。It is explanatory drawing of the imaging region which concerns on Embodiment 2. 実施形態3に係る処理フローチャートである。It is a processing flowchart which concerns on Embodiment 3. 実施形態3に係る画像認識処理の説明図である。It is explanatory drawing of the image recognition processing which concerns on Embodiment 3. 実施形態4に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the image pickup apparatus which concerns on Embodiment 4. FIG. 実施形態4に係る処理フローチャートである。It is a processing flowchart which concerns on Embodiment 4. 実施形態5に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the image pickup apparatus which concerns on Embodiment 5. 実施形態5に係る処理フローチャートである。It is a processing flowchart which concerns on Embodiment 5.

以下、本発明の実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
<実施形態1>
まず、本発明に係る実施形態1について説明する。図1は、本実施形態に係る撮像装置の構成例を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.
<Embodiment 1>
First, the first embodiment according to the present invention will be described. FIG. 1 is a block diagram showing a configuration example of an imaging device according to the present embodiment.

図1に示すように、本実施形態の撮像装置は、画像センサ部10、画像生成部20、画像認識部30、パラメータ決定部40、パラメータ設定部50、RAM80、画像バス120、およびCPUバス170を有する。さらに撮像装置は、ブリッジ130、DMAC(Direct Memory Access Controller)70、CPU(Central Processing Unit)140、ROM150、及びRAM160を有している。画像センサ部10、画像生成部20、画像認識部30、パラメータ決定部40、パラメータ設定部50及びDMAC70は、画像バス120を介して互いに接続されている。またCPU140、ROM150及びRAM160は、CPUバス170を介して互いに接続されている。ブリッジ130は、画像バス120とCPUバス170との間のデータ転送を可能にする。 As shown in FIG. 1, the image pickup apparatus of this embodiment includes an image sensor unit 10, an image generation unit 20, an image recognition unit 30, a parameter determination unit 40, a parameter setting unit 50, a RAM 80, an image bus 120, and a CPU bus 170. Has. Further, the image pickup apparatus includes a bridge 130, a DMAC (Direct Memory Access Controller) 70, a CPU (Central Processing Unit) 140, a ROM 150, and a RAM 160. The image sensor unit 10, the image generation unit 20, the image recognition unit 30, the parameter determination unit 40, the parameter setting unit 50, and the DMAC 70 are connected to each other via the image bus 120. The CPU 140, ROM 150, and RAM 160 are connected to each other via the CPU bus 170. The bridge 130 enables data transfer between the image bus 120 and the CPU bus 170.

画像センサ部10は、光学系、撮像センサ、撮像センサを制御するドライバー回路、撮像センサにて取得された撮像信号をデジタル信号に変換するA/D変換回路、および、デジタル信号に変換された撮像信号を画像として現像する現像回路等を備えている。撮像センサは、例えばCMOS(Complementary Metal Oxide Semiconductor)センサからなる。 The image sensor unit 10 includes an optical system, an imaging sensor, a driver circuit that controls the imaging sensor, an A / D conversion circuit that converts an imaging signal acquired by the imaging sensor into a digital signal, and an imaging that is converted into a digital signal. It is equipped with a development circuit that develops the signal as an image. The imaging sensor is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor.

ここで、画像センサ部10は、撮像センサの動作特性を決定する撮像パラメータを制御する機能を有する。撮像パラメータを制御する機能は、画像センサ部10内の例えばドライバー回路が担っている。撮像パラメータは、露光パラメータ、フォーカスパラメータ、ダイナックレンジパラメータ、ゲインパラメータ、フレームレートパラメータ、撮像領域パラメータ、解像度パラメータ等からなる。露光パラメータは、撮像センサにおける露光時間等を制御するパラメータである。フォーカスパラメータは、撮像センサ上でフォーカス用の画素等の動作を制御するパラメータである。ゲインパラメータは、撮像センサにより撮像された信号のゲインを制御するパラメータである。フレームレートパラメータは、撮像センサにおける撮像時のフレームレートを制御するパラメータである。撮像領域パラメータは、撮像センサ上で撮像する領域を制御するパラメータである。解像度パラメータは、撮像センサの解像度を制御するパラメータである。撮像パラメータによる制御機能の具体例については後述する。 Here, the image sensor unit 10 has a function of controlling an imaging parameter that determines the operating characteristics of the imaging sensor. For example, a driver circuit in the image sensor unit 10 is responsible for the function of controlling the imaging parameters. The imaging parameters include exposure parameters, focus parameters, dynac range parameters, gain parameters, frame rate parameters, imaging area parameters, resolution parameters, and the like. The exposure parameter is a parameter that controls the exposure time of the image sensor. The focus parameter is a parameter that controls the operation of the focus pixel or the like on the image sensor. The gain parameter is a parameter that controls the gain of the signal captured by the image pickup sensor. The frame rate parameter is a parameter that controls the frame rate at the time of imaging in the imaging sensor. The image pickup area parameter is a parameter that controls the area to be imaged on the image pickup sensor. The resolution parameter is a parameter that controls the resolution of the image pickup sensor. Specific examples of the control function based on the imaging parameters will be described later.

画像生成部20は、画像センサ部10により取得された少なくとも1枚の画像データから、将来の画像として予測される予測画像を生成する機能を有する。画像生成部20における予測画像生成機能の詳細については後述する。
画像認識部30は、画像生成部20によって生成された予測画像に対して所定の画像認識処理を実行する機能を有する。なお実施形態1では、画像認識部30が画像認識処理として領域分割処理を実行する場合に関して説明する。画像認識部30における画像認識処理機能(領域分割処理機能)の詳細については後述する。
The image generation unit 20 has a function of generating a predicted image predicted as a future image from at least one image data acquired by the image sensor unit 10. The details of the predicted image generation function in the image generation unit 20 will be described later.
The image recognition unit 30 has a function of executing a predetermined image recognition process on the predicted image generated by the image generation unit 20. In the first embodiment, a case where the image recognition unit 30 executes the area division process as the image recognition process will be described. The details of the image recognition processing function (area division processing function) in the image recognition unit 30 will be described later.

パラメータ決定部40は、画像認識部30による認識結果を基に、画像センサ部10の撮像センサを制御するための撮像パラメータの種類およびその値を決定する。パラメータ決定部40における撮像パラメータ決定機能の詳細については後述する。
パラメータ設定部50は、パラメータ決定部40により決定された撮像パラメータの値を、画像センサ部10に対して設定する。パラメータ設定部50における撮像パラメータ設定機能の詳細については後述する。
The parameter determination unit 40 determines the type and value of the image pickup parameter for controlling the image sensor of the image sensor unit 10 based on the recognition result by the image recognition unit 30. The details of the imaging parameter determination function in the parameter determination unit 40 will be described later.
The parameter setting unit 50 sets the value of the imaging parameter determined by the parameter determination unit 40 with respect to the image sensor unit 10. The details of the imaging parameter setting function in the parameter setting unit 50 will be described later.

DMAC70は、画像センサ部10、画像生成部20、画像認識部30、パラメータ決定部40、パラメータ設定部50、及びCPUバス170との間のデータ転送を司る。
ROM(Read Only Memory)150は、CPU140が実行するプログラム、CPU140の動作を規定する命令、パラメータデータ、重み係数等を格納している。
CPU140は、ROM150から、それらプログラムや命令、パラメータデータ等を読み出しつつ、当該撮像装置の全体の動作を制御したり、様々な演算を行ったりする。なお、CPU140はブリッジ130を介して画像バス120上のRAM80にアクセスすることも可能である。
RAM160は、CPU140が撮像装置を制御等する際に、当該CPU140の作業領域として使用される。
The DMAC 70 controls data transfer between the image sensor unit 10, the image generation unit 20, the image recognition unit 30, the parameter determination unit 40, the parameter setting unit 50, and the CPU bus 170.
The ROM (Read Only Memory) 150 stores a program executed by the CPU 140, an instruction defining the operation of the CPU 140, parameter data, a weighting coefficient, and the like.
The CPU 140 controls the overall operation of the image pickup apparatus and performs various calculations while reading the programs, instructions, parameter data, and the like from the ROM 150. The CPU 140 can also access the RAM 80 on the image bus 120 via the bridge 130.
The RAM 160 is used as a work area of the CPU 140 when the CPU 140 controls an imaging device or the like.

次に、図1に示した構成を有する撮像装置の動作について説明する。
図2は、本実施形態に係る撮像装置の動作を示すフローチャートである。なお図2に示した処理フロー全体の制御は、事前に設定されたプログラムに基づいてCPU140により実行される。
Next, the operation of the image pickup apparatus having the configuration shown in FIG. 1 will be described.
FIG. 2 is a flowchart showing the operation of the image pickup apparatus according to the present embodiment. The control of the entire processing flow shown in FIG. 2 is executed by the CPU 140 based on a preset program.

先ずステップS180において、CPU140は、撮像処理の開始に先立ち、撮像装置における各種初期化処理を実行する。例えば、CPU140は、画像認識部30および画像生成部20の動作に必要な重み係数をROM150からRAM160に転送すると共に、画像認識部30および画像生成部20の動作を定義する為の各種レジスタ設定を行う。具体的には、CPU140は、画像認識部30および画像生成部20内の制御部に存在する複数のレジスタに所定の値を設定する。同様に、CPU140は、画像センサ部10に対しても動作に必要な値を書き込む。この時、画像センサ部10の撮像センサを制御するための撮像パラメータの値としては、事前に決定された所定の初期値またはユーザが設定した初期値が設定される。 First, in step S180, the CPU 140 executes various initialization processes in the image pickup apparatus prior to the start of the image pickup process. For example, the CPU 140 transfers the weighting coefficients necessary for the operation of the image recognition unit 30 and the image generation unit 20 from the ROM 150 to the RAM 160, and sets various registers for defining the operations of the image recognition unit 30 and the image generation unit 20. Do. Specifically, the CPU 140 sets predetermined values in a plurality of registers existing in the image recognition unit 30 and the control unit in the image generation unit 20. Similarly, the CPU 140 writes a value required for operation to the image sensor unit 10. At this time, as the value of the image pickup parameter for controlling the image sensor of the image sensor unit 10, a predetermined initial value determined in advance or an initial value set by the user is set.

次にステップS181において、画像センサ部10は、撮像処理を実行して撮像画像データを取得する。
続いてステップS182において、画像生成部20は、画像センサ部10にて取得された画像データを内部のフレームバッファにフレーム単位で格納する。ここで、本実施形態の場合、画像生成部20は、5フレーム分の画像データが入力されてから、1フレーム分の予測画像の生成および出力を開始するものとする。このため、画像生成部20は、画像センサ部10からフレーム単位で画像データを取得し、ステップS183において予測画像の生成を開始するか判定する。画像生成部20は、5フレーム分の画像データを取得できた場合には、ステップS183において予測画像の生成を開始し、1フレーム分の予測画像を生成して出力する。一方、画像生成部20は、5フレーム分の画像データが取得できていない場合には、予測画像の生成を開始せずに、画像センサ部10によるステップS181の画像取得処理に戻す。なお本実施形態において、画像生成部20は、次のフレームの画像データを取得するまでの間に、既にフレームバッファに格納された画像データに対して、所定の処理(特徴抽出処理など、予測画像生成に必要な各種の処理)を実行するものとする。画像生成部20における予測画像生成処理の詳細については後述する。
Next, in step S181, the image sensor unit 10 executes an imaging process to acquire captured image data.
Subsequently, in step S182, the image generation unit 20 stores the image data acquired by the image sensor unit 10 in the internal frame buffer in frame units. Here, in the case of the present embodiment, it is assumed that the image generation unit 20 starts the generation and output of the predicted image for one frame after the image data for five frames is input. Therefore, the image generation unit 20 acquires image data from the image sensor unit 10 in frame units, and determines in step S183 whether to start generating the predicted image. When the image generation unit 20 can acquire the image data for 5 frames, the image generation unit 20 starts the generation of the predicted image in step S183, generates the predicted image for 1 frame, and outputs the predicted image. On the other hand, when the image data for 5 frames has not been acquired, the image generation unit 20 returns to the image acquisition process in step S181 by the image sensor unit 10 without starting the generation of the predicted image. In the present embodiment, the image generation unit 20 performs predetermined processing (prediction image such as feature extraction processing, etc.) on the image data already stored in the frame buffer until the image data of the next frame is acquired. Various processes required for generation) shall be executed. The details of the predicted image generation process in the image generation unit 20 will be described later.

ステップS183で予測画像の生成処理が開始されて予測画像が生成されると、CPU140は、画像認識部30にて行われるステップS184に処理を進める。
ステップS184に進むと、画像認識部30は、画像生成部20で生成された予測画像を用いた画像認識処理を行う。本実施形態の場合、画像認識部30は、画像認識処理を実行し、画像生成部20で生成された予測画像を複数の領域に分割した分割領域の単位で画像認識結果を出力する。そして、画像認識部30は、画像認識処理の結果として、画像(予測画像)上における、分割領域の座標値(画像上の画素の位置を示す座標値)を出力する。
When the prediction image generation process is started in step S183 and the prediction image is generated, the CPU 140 proceeds to step S184 performed by the image recognition unit 30.
Proceeding to step S184, the image recognition unit 30 performs an image recognition process using the predicted image generated by the image generation unit 20. In the case of the present embodiment, the image recognition unit 30 executes the image recognition process and outputs the image recognition result in units of the divided regions in which the predicted image generated by the image generation unit 20 is divided into a plurality of regions. Then, the image recognition unit 30 outputs the coordinate value of the divided region (coordinate value indicating the position of the pixel on the image) on the image (predicted image) as a result of the image recognition process.

次にステップS185の撮像パラメータ決定処理として、パラメータ決定部40は、画像センサ部10の動作特性を決定する前述した撮像パラメータの値を決定する。本実施形態の場合、パラメータ決定部40は、ステップS184の画像認識処理による認識結果として算出された、画像上における分割領域の座標値の情報と、ステップS182の画像生成処理で生成された予測画像とに基づいて、撮像パラメータの値を決定する。撮像パラメータ値の決定方法の具体例については後述する。 Next, as the image pickup parameter determination process in step S185, the parameter determination unit 40 determines the value of the above-mentioned image pickup parameter that determines the operating characteristics of the image sensor unit 10. In the case of the present embodiment, the parameter determination unit 40 has information on the coordinate values of the divided region on the image calculated as the recognition result by the image recognition process in step S184, and the predicted image generated by the image generation process in step S182. Based on the above, the value of the imaging parameter is determined. A specific example of the method for determining the imaging parameter value will be described later.

次にステップS186の撮像パラメータ設定処理として、パラメータ設定部50は、ステップS185で決定された撮像パラメータの値を、画像センサ部10に対して設定する。
ステップS186による撮像パラメータの設定が完了すると、CPU140は、ステップS187において終了通知の発行(例えばユーザによる終了指示に基づく、CPU140に対する割り込み信号)を確認する。CPU140は、終了通知が発行されていない場合には撮像装置の処理をステップS181の画像取得処理に戻して、ステップS181以降の処理を継続させる。一方、CPU140は、終了通知の発行を確認すると、図2のフローチャートの処理を終了する。
Next, as the image pickup parameter setting process in step S186, the parameter setting unit 50 sets the value of the image pickup parameter determined in step S185 to the image sensor unit 10.
When the setting of the imaging parameter in step S186 is completed, the CPU 140 confirms the issuance of the end notification (for example, an interrupt signal to the CPU 140 based on the end instruction by the user) in step S187. If the end notification is not issued, the CPU 140 returns the processing of the imaging device to the image acquisition processing of step S181, and continues the processing after step S181. On the other hand, when the CPU 140 confirms the issuance of the end notification, the CPU 140 ends the process of the flowchart of FIG.

なお前述の説明では、画像生成部20は、5フレーム分の画像データが入力されてから、1フレーム分の予測画像の出力を開始するものとしたが、この例に限定されるものではない。例えば、画像生成部20は、過去の任意のnフレーム分の画像データが入力されてから1フレーム分の予測画像の出力を開始するものであっても良い。この場合の過去の任意のnフレーム分の"n"は1以上の値である。例えば"n"が1である場合、画像生成部20は過去の1フレーム分の画像データを基に、予測画像を生成することになる。また本実施形態において、画像生成部20は、1フレーム分の予測画像を出力するものとしたが、複数フレーム分の予測画像を生成して出力するものであっても良い。複数フレーム分の予測画像は、時系列順の複数のフレームの予測画像であっても良いし、同フレーム時間に相当する複数の予測画像であっても良い。同フレーム時間に相当する複数の予測画像は、例えば撮像で取得された画像から予測される確率順(例えば予測される確率が高い順)の複数パターンの予測画像であっても良い。 In the above description, the image generation unit 20 starts outputting the predicted image for one frame after the image data for five frames is input, but the present invention is not limited to this example. For example, the image generation unit 20 may start outputting the predicted image for one frame after the image data for any n frames in the past is input. In this case, "n" for any n frames in the past is a value of 1 or more. For example, when "n" is 1, the image generation unit 20 will generate a predicted image based on the image data for one frame in the past. Further, in the present embodiment, the image generation unit 20 outputs the predicted image for one frame, but may generate and output the predicted image for a plurality of frames. The predicted images for a plurality of frames may be predicted images of a plurality of frames in chronological order, or may be a plurality of predicted images corresponding to the same frame time. The plurality of predicted images corresponding to the same frame time may be, for example, a plurality of patterns of predicted images in the order of probability predicted from the image acquired by imaging (for example, in order of high probability of prediction).

次に、前述した画像生成部20で実行される画像生成処理に関して、図3を用いて詳細に説明する。図3は、予測画像を生成する画像生成処理を実現するニューラルネットワーク(以下、NNと表記する)の構成を模式的に示した図である。
なお、本実施形態で用いるNN(ニューラルネットワーク)に関しては、下記の参考文献1において詳細に開示されているものを適用可能であり、画像生成部20は、当該NNを適用して、複数フレームの画像データを基に予測画像を生成する機能を有する。本実施形態では、画像生成処理の実現方法として、参考文献1に開示されている手法を適用することを想定しているが、この手法に限定されるものではない。例えば下記の参考文献2に開示されるような手法が用いられてもよい。また本実施形態における画像生成処理の実現方法は、それら参考文献1や参考文献2に開示された手法だけでなく、その他の手法を用いるものであっても構わない。
Next, the image generation process executed by the image generation unit 20 described above will be described in detail with reference to FIG. FIG. 3 is a diagram schematically showing the configuration of a neural network (hereinafter, referred to as NN) that realizes an image generation process for generating a predicted image.
As for the NN (neural network) used in the present embodiment, the one disclosed in detail in Reference 1 below can be applied, and the image generation unit 20 applies the NN to a plurality of frames. It has a function to generate a predicted image based on the image data. In the present embodiment, it is assumed that the method disclosed in Reference 1 is applied as a method for realizing the image generation processing, but the method is not limited to this method. For example, a method as disclosed in Reference 2 below may be used. Further, the method for realizing the image generation processing in the present embodiment may be a method using not only the methods disclosed in References 1 and 2 but also other methods.

参考文献1:Xingjian Shi, Zhourong Chen, Hao Wang, Dit-Yan Yeung, "Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting", arXiv 2015 Reference 1: Xingjian Shi, Zhourong Chen, Hao Wang, Dit-Yan Yeung, "Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting", arXiv 2015

参考文献2:William Lotter, Gabriel Kreiman, David Cox, "Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning", arXiv 2017 Reference 2: William Lotter, Gabriel Kreiman, David Cox, "Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning", arXiv 2017

画像生成部20は、画像センサ部10から入力された画像データXtを、内部のフレームバッファに一旦格納した後、図3に示すように、畳み込みLSTMモジュールに入力する。畳み込みLSTMモジュールは、時系列データに対して、時系列情報を含んだ処理を実行するNNである。畳み込みLSTMモジュールは、広く利用されているLSTM(long short-term memory)を時系列画像データに拡張したものである。前述の参考文献1には、畳み込みLSTMに関して詳細に説明されている。 The image generation unit 20 temporarily stores the image data X t input from the image sensor unit 10 in the internal frame buffer, and then inputs the image data X t to the convolution RSTM module as shown in FIG. The convolutional LSTM module is an NN that executes processing including time series information on time series data. The convolutional LSTM module is an extension of the widely used LSTM (long short-term memory) to time-series image data. Reference 1 above describes in detail the convolutional LSTM.

畳み込みLSTMにおける処理は、以下の式(1)で表される。前述したように、畳み込みLSTMは、時系列画像データを使用して事前に学習することにより、所望の出力を得ることが可能なNNある。本実施形態においては、式(1)に基づいて、過去の5フレーム分の時系列画像データX0〜X4から次のフレームの予測画像X5を生成するように、事前に学習が行われる。 The processing in the convolutional LSTM is represented by the following equation (1). As described above, the convolutional LSTM is an NN capable of obtaining a desired output by learning in advance using time series image data. In the present embodiment, learning is performed in advance so as to generate the predicted image X 5 of the next frame from the time series image data X 0 to X 4 for the past 5 frames based on the equation (1). ..

Figure 2021061546
Figure 2021061546

ここで、式(1)中の各記号が示す内容は以下の通りである。なお、アダマール積については式(1)中に記載している。
X:入力データ
C:セル出力データ
H:隠れ層の状態
i:入力ゲート
f:忘却ゲート
o:出力ゲート
t:時間(フレーム)
xo:入力荷重マトリクス(出力ゲート)
ho:状態荷重マトリクス(出力ゲート)
co:セル出力荷重マトリクス(出力ゲート)
o:バイアス(出力ゲート)
xc:入力荷重マトリクス(セル出力)
hc:状態荷重マトリクス(セル出力)
c:バイアス(セル出力)
xf:入力荷重マトリクス(忘却ゲート)
hf:状態荷重マトリクス(忘却ゲート)
cf:セル出力荷重マトリクス(忘却ゲート)
f:バイアス(忘却ゲート)
xi:入力荷重マトリクス(入力ゲート)
hi:状態荷重マトリクス(入力ゲート)
ci:セル出力荷重マトリクス(入力ゲート)
i:バイアス(入力ゲート)
*:畳み込み演算
Here, the contents indicated by each symbol in the equation (1) are as follows. The Hadamard product is described in equation (1).
X: Input data C: Cell output data H: State of hidden layer i: Input gate f: Oblivion gate o: Output gate t: Time (frame)
W xo : Input load matrix (output gate)
W ho : State load matrix (output gate)
W co : Cell output load matrix (output gate)
bo : Bias (output gate)
W xc : Input load matrix (cell output)
W hc : State load matrix (cell output)
b c : Bias (cell output)
W xf : Input load matrix (forgetting gate)
W hf : State load matrix (forgetting gate)
W cf : Cell output load matrix (forgetting gate)
b f : Bias (forgetting gate)
W xi : Input load matrix (input gate)
W hi : State load matrix (input gate)
W ci : Cell output load matrix (input gate)
b i: bias (input gate)
*: Convolution operation

本実施形態の画像生成部20は、前述したように畳み込みLSTMを用いて構成されているものとしたが、これに限るものではない。予測画像を生成する手法に関しては、前述の手法以外にも非特許文献2など様々な手法が提案されており、他の手法が用いられても構わない。 The image generation unit 20 of the present embodiment is configured by using the convolutional LSTM as described above, but the present invention is not limited to this. Regarding the method for generating the predicted image, various methods such as Non-Patent Document 2 have been proposed in addition to the above-mentioned method, and other methods may be used.

図3に示したNNの構成において、畳み込みLSTMは、過去の5フレーム分の画像を基にして1フレーム分の予測画像を出力する。なお図3の例においても、画像生成処理として、過去の任意のnフレーム分の画像を基にして1レーム分の予測画像を出力するものであっても良いし、複数フレーム分の予測画像を出力するものであっても良い。畳み込みLSTMによって生成された画像は、一旦フレームバッファに格納され、図2におけるステップS184の画像認識処理に入力される。 In the NN configuration shown in FIG. 3, the convolutional LSTM outputs a predicted image for one frame based on the images for the past five frames. In the example of FIG. 3, as the image generation process, a predicted image for one frame may be output based on an image for an arbitrary n frames in the past, or a predicted image for a plurality of frames may be output. It may be output. The image generated by the convolutional LSTM is temporarily stored in the frame buffer and input to the image recognition process in step S184 in FIG.

次に、前述した画像認識部30で実行されるステップS184の画像認識処理に関して、図4を用いて詳細に説明する。図4は、入力された予測画像に対して、所定の画像認識処理を実現するNNの構成例を模式的に示した図である。
図4に示すNNは、階層型畳み込みNN(ニューラルネットワーク)モジュール190と階層型逆畳み込みNNモジュール191とで構成され、各層は畳み込み演算素子401〜408により構成されている。この図4に示したようなNNに関しては、下記の参考文献3に詳細に開示されているものである。画像認識部30は、図4のようなNNにより、入力された予測画像データに対して、画像内の物体毎の画像認識処理(認識結果として分割領域を得る処理)を実行する機能を有する。
Next, the image recognition process of step S184 executed by the image recognition unit 30 described above will be described in detail with reference to FIG. FIG. 4 is a diagram schematically showing a configuration example of an NN that realizes a predetermined image recognition process for an input predicted image.
The NN shown in FIG. 4 is composed of a hierarchical convolution NN (neural network) module 190 and a hierarchical deconvolution NN module 191, and each layer is composed of convolution arithmetic elements 401 to 408. The NN as shown in FIG. 4 is disclosed in detail in Reference 3 below. The image recognition unit 30 has a function of executing an image recognition process (a process of obtaining a divided region as a recognition result) for each object in the image with respect to the input predicted image data by the NN as shown in FIG.

参考文献3:Hyeonwoo Noh, Seunghoon Hong, Bohyung Han, "Learning Deconvolution Network for Semantic Segmentation", ICCV 2015 Reference 3: Hyeonwoo Noh, Seunghoon Hong, Bohyung Han, "Learning Deconvolution Network for Semantic Segmentation", ICCV 2015

画像認識部30は、入力された予測画像データを内部のフレームバッファに一旦格納した後、図4に示す階層型畳み込みNNモジュール190に入力し、更に階層型逆畳み込みNNモジュール191に入力する。階層型畳み込みNNモジュール190と階層型逆畳み込みNNモジュール191とから構成されるNNは、画像処理に広く利用されている。特に本実施形態のように、領域分割が適用される例は、参考文献3において詳細に説明されている。 The image recognition unit 30 temporarily stores the input predicted image data in the internal frame buffer, inputs the input to the hierarchical convolution NN module 190 shown in FIG. 4, and further inputs the input to the hierarchical deconvolution NN module 191. The NN composed of the hierarchical convolution NN module 190 and the hierarchical deconvolution NN module 191 is widely used for image processing. In particular, an example in which the region division is applied as in the present embodiment is described in detail in Reference 3.

階層型畳み込みNNモジュール190における処理は、以下の式(2)で表される。 The process in the hierarchical convolutional NN module 190 is represented by the following equation (2).

Figure 2021061546
Figure 2021061546

ここで式(2)中の各記号が示す内容は以下の通りである。
x:入力データ
y:出力データ
w:畳み込みフィルタ
v:畳み込みフィルタの高さ
h:畳み込みフィルタの幅
m:前段層特徴面インデックス
n:後段層特徴面インデックス
i:前段層演算位置y座標
j:前段層演算位置x座標
i':前段層演算位置y座標
j':後段層演算位置x座標
k:畳み込みフィルタy座標
l(t):畳み込みフィルタx座標
Here, the contents indicated by each symbol in the equation (2) are as follows.
x: Input data y: Output data w: Convolution filter v: Convolution filter height h: Convolution filter width m: Front layer feature surface index n: Rear layer feature surface index i: Front layer calculation position y coordinates j: Front stage Layer calculation position x coordinates i': Previous layer calculation position y coordinates j': Rear layer calculation position x coordinates k: Convolution filter y coordinates l (t): Convolution filter x coordinates

また階層型逆畳み込みNNモジュール191は、式(3)で表される。 The hierarchical deconvolutional NN module 191 is represented by the equation (3).

Figure 2021061546
Figure 2021061546

ここで式(3)中の各記号が示す内容は以下の通りである。
x:入力データ(前段層特徴面にゼロ値を挿入して拡大したデータ)
y:出力データ
w:逆畳み込みフィルタ
v:逆畳み込みフィルタの高さ
h:逆畳み込みフィルタの幅
m:前段層特徴面インデックス
n:後段層特徴面インデックス
i:前段層演算位置y座標
j:前段層演算位置x座標
i':前段層演算位置y座標
j':後段層演算位置x座標
k:逆畳み込みフィルタy座標
l(t):逆畳み込みフィルタx座標
Here, the contents indicated by each symbol in the equation (3) are as follows.
x: Input data (data enlarged by inserting a zero value in the feature plane of the previous layer)
y: Output data w: Deconvolution filter v: Deconvolution filter height h: Deconvolution filter width m: Front layer feature surface index n: Rear layer feature surface index i: Front layer calculation position y coordinates j: Front layer Calculation position x coordinates i': Previous layer calculation position y coordinates j': Rear layer calculation position x coordinates k: Deconvolution filter y coordinates l (t): Deconvolution filter x coordinates

本実施形態では、これら階層型畳み込みNNモジュール190と階層型逆畳み込みNNモジュール191から構成されるNNに対し、領域分割に関する教師データを有する画像データを用いた事前学習が行われることにより、所望の出力を得ることが可能となる。学習処理に関しては、一般的な学習手法を適用することが可能であり、詳細な学習手法に関する説明は省略する。 In the present embodiment, a desired NN composed of the hierarchical convolution NN module 190 and the hierarchical deconvolution NN module 191 is subjected to pre-learning using image data having teacher data related to region division. It is possible to obtain the output. A general learning method can be applied to the learning process, and a detailed description of the learning method will be omitted.

なお本実施形態における画像認識部30は、前述したように階層型畳み込みNNモジュール190と階層型逆畳み込みNNモジュール191とから構成されるNNを用いて構成するものとしたが、この例に限られるものではない。領域分割を伴う画像認識処理を実現する手法に関しては、これ以外にも参考文献3を含む様々な手法が提案されており、その他の手法を用いたものであっても構わない。 The image recognition unit 30 in the present embodiment is configured by using the NN composed of the hierarchical convolution NN module 190 and the hierarchical deconvolution NN module 191 as described above, but is limited to this example. It's not a thing. As for the method for realizing the image recognition processing accompanied by the region division, various methods including Reference 3 have been proposed in addition to this, and other methods may be used.

前述した図2のステップS184の画像認識処理において、画像認識部30は、入力された予測画像に対して領域分割処理を実行し、予測画像内の物体毎に定義される分割領域を認識結果として算出する処理を行う。具体的には、画像認識部30は、図5に示すように、予測画像500の中に含まれる物体の各領域の境界線510に相当する画素の座標を出力する。 In the image recognition process of step S184 of FIG. 2 described above, the image recognition unit 30 executes the area division process on the input predicted image, and uses the divided area defined for each object in the predicted image as the recognition result. Perform the calculation process. Specifically, as shown in FIG. 5, the image recognition unit 30 outputs the coordinates of the pixels corresponding to the boundary line 510 of each region of the object included in the predicted image 500.

次に、前述したパラメータ決定部40で実行されるステップS185の撮像パラメータ決定処理に関して説明する。
パラメータ決定部40は、まず、予測画像内の物体毎に定義された領域情報と、予想画像のデータとを基にして、図5に示す予測画像500の中の各領域内の輝度値の平均値を算出する。
Next, the imaging parameter determination process of step S185 executed by the parameter determination unit 40 described above will be described.
First, the parameter determination unit 40 averages the brightness values in each region in the predicted image 500 shown in FIG. 5 based on the region information defined for each object in the predicted image and the data of the predicted image. Calculate the value.

ここで撮像パラメータとして例えば露光パラメータを決定する場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切な露光時間の値をLUT(ルックアップテーブル)として保持している。パラメータ決定部40は、このLUTを用い、算出された輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎の露光時間を決める露光パラメータを決定する。 Here, when, for example, an exposure parameter is determined as an imaging parameter, the parameter determination unit 40 sets an appropriate exposure time value determined in advance corresponding to the range of the average value of the brightness values in each region to a LUT (lookup table). ) Is held as. The parameter determination unit 40 uses this LUT to determine an exposure parameter that determines the exposure time for each pixel circuit corresponding to each region of the image sensor of the image sensor unit 10 based on the calculated average value of the brightness values. ..

また撮像パラメータとして例えばダイナミックレンジパラメータを決定する場合、パラメータ決定部40は、前述のように算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎のダイナミックレンジを決定する。この場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切なダイナミックレンジの値をLUTとして保持している。そして、パラメータ決定部40は、そのLUTを用い、算出された輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎のダイナミックレンジを決めるダイナミックレンジパラメータを決定する。 When, for example, a dynamic range parameter is determined as an image pickup parameter, the parameter determination unit 40 is a pixel circuit corresponding to each region of the image sensor of the image sensor unit 10 based on the average value of the brightness values calculated as described above. Determine the dynamic range for each. In this case, the parameter determination unit 40 holds as a LUT an appropriate dynamic range value determined in advance corresponding to the range of the average value of the brightness values in each region. Then, the parameter determination unit 40 uses the LUT and determines the dynamic range for each pixel circuit corresponding to each region of the image sensor of the image sensor unit 10 based on the calculated average value of the luminance values. To determine.

また撮像パラメータとして例えばゲインパラメータを決定する場合、パラメータ決定部40は、前述のように算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの出力値に対して各領域に対応する画素毎にゲイン値を決定する。この場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切なゲイン値をLUTとして保持している。そして、パラメータ決定部40は、そのLUTを用い、算出された輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素毎にゲイン値を決めるゲインパラメータを決定する。 Further, when determining, for example, a gain parameter as an imaging parameter, the parameter determining unit 40 sets each region with respect to the output value of the imaging sensor of the image sensor unit 10 based on the average value of the brightness values calculated as described above. The gain value is determined for each corresponding pixel. In this case, the parameter determination unit 40 holds an appropriate gain value determined in advance corresponding to the range of the average value of the brightness values in each region as the LUT. Then, the parameter determination unit 40 uses the LUT to determine a gain parameter that determines the gain value for each pixel corresponding to each region of the image sensor of the image sensor unit 10 based on the calculated average value of the luminance values. To do.

その後、ステップS185の撮像パラメータ決定処理において、パラメータ決定部40は、前述したように決定した撮像パラメータをステップS186の撮像パラメータ設定処理に対して出力する。
なお、フォーカスパラメータ、フレームレートパラメータ、撮像領域パラメータ、解像度パラメータについては後述する他の実施形態において説明する。
After that, in the image pickup parameter determination process of step S185, the parameter determination unit 40 outputs the image pickup parameter determined as described above to the image pickup parameter setting process of step S186.
The focus parameter, frame rate parameter, imaging area parameter, and resolution parameter will be described in other embodiments described later.

また本実施形態では、前述したように分割領域毎に撮像パラメータを決定する例を挙げて説明したが、この例に限定されるものではない。撮像パラメータ決定処理は、特定の領域より決定された撮像パラメータを全領域に対して使用する撮像パラメータとして決定する処理でであっても良い。例えば図5において、予測画像500の中の自動車の領域から決定された撮像パラメータを全領域に対する撮像パラメータとするものであっても良い。また、前述した分割領域毎に撮像パラメータを決定する場合と、全領域について使用する撮像パラメータを決定する場合とを切り替えても良い。例えば、所定のフレーム周期のみで全領域について使用する撮像パラメータを決定し、それ以外では分割領域毎に撮像パラメータを決定しても良い。 Further, in the present embodiment, as described above, an example of determining the imaging parameter for each divided region has been described, but the present embodiment is not limited to this example. The imaging parameter determination process may be a process of determining an imaging parameter determined from a specific region as an imaging parameter to be used for the entire region. For example, in FIG. 5, the imaging parameter determined from the region of the automobile in the predicted image 500 may be used as the imaging parameter for the entire region. Further, the case where the imaging parameter is determined for each of the above-mentioned divided regions and the case where the imaging parameter used for the entire region may be determined may be switched. For example, the imaging parameters to be used for the entire region may be determined only in a predetermined frame period, and the imaging parameters may be determined for each divided region in other cases.

次に、パラメータ設定部50で実行されるステップS186の撮像パラメータ設定処理に関して説明する。
パラメータ設定部50は、パラメータ決定部40から入力された撮像パラメータを、画像センサ部10に対して設定するような撮像パラメータ設定機能を有する。
撮像パラメータとして露光パラメータが入力された場合、パラメータ設定部50は、露光パラメータによって領域毎に決定された露光時間を基にして、ドライバー回路の、撮像センサの画素毎の露光時間制御に関わるレジスタに、露光時間を設定する。
Next, the imaging parameter setting process of step S186 executed by the parameter setting unit 50 will be described.
The parameter setting unit 50 has an image pickup parameter setting function that sets the image pickup parameters input from the parameter determination unit 40 to the image sensor unit 10.
When an exposure parameter is input as an imaging parameter, the parameter setting unit 50 enters a register related to exposure time control for each pixel of the imaging sensor in the driver circuit based on the exposure time determined for each region by the exposure parameter. , Set the exposure time.

またダイナミックレンジパラメータが入力された場合、パラメータ設定部50は、領域毎に決定されたダイナミックレンジを基にして、ドライバー回路の、絶像センサの画素毎のダイナミックレンジ制御に関わるレジスタに、ダイナミックレンジの値を設定する。 When a dynamic range parameter is input, the parameter setting unit 50 registers the dynamic range in the register related to the dynamic range control for each pixel of the image sensor in the driver circuit based on the dynamic range determined for each area. Set the value of.

またゲインパラメータが入力された場合、パラメータ設定部50は、領域毎に決定されたゲイン値を基にして、ドライバー回路の、画像センサの画素毎のゲイン値制御に関わるレジスタに、ゲイン値を設定する。 When a gain parameter is input, the parameter setting unit 50 sets the gain value in the register related to the gain value control for each pixel of the image sensor in the driver circuit based on the gain value determined for each region. To do.

そして画像センサ部10は、前述したようにレジスタに設定された値(露光時間を示す値、ダイナミックレンジの値、およびゲイン値)に基づいて、ドライバー回路が撮像センサの動作を制御する。
なお本実施形態における撮像センサは、画素毎に露光時間、ダイナミックレンジ、およびゲイン値を制御可能な構成を有しており、それら露光時間、ダイナミックレンジ、およびゲイン値の設定を行うことができるとする。すなわち本実施形態における撮像センサは、画素毎にフォトダイオードのリセットタイミングを設定可能な構成を取ることにより、画素毎に露光時間を制御することが可能である。また、撮像センサは、画素毎に独立したA/D変換回路を構成することにより、ダイナミックレンジおよびゲイン値を画素毎に制御することが可能である。
Then, in the image sensor unit 10, the driver circuit controls the operation of the image sensor based on the values (value indicating the exposure time, the value of the dynamic range, and the gain value) set in the register as described above.
The image sensor in the present embodiment has a configuration in which the exposure time, dynamic range, and gain value can be controlled for each pixel, and the exposure time, dynamic range, and gain value can be set. To do. That is, the image sensor in the present embodiment can control the exposure time for each pixel by adopting a configuration in which the reset timing of the photodiode can be set for each pixel. Further, the image sensor can control the dynamic range and the gain value for each pixel by forming an independent A / D conversion circuit for each pixel.

また撮像パラメータ決定処理において、例えば特定の領域より決定された撮像パラメータを全領域に対して使用する撮像パラメータとして決定された場合、パラメータ設定部50は、入力された撮像パラメータを撮像センサの全領域に対して設定する。具体的には、ドライバー回路の、撮像センサの全領域の制御に関わるレジスタに、それぞれの撮像パラメータを設定する。 Further, in the imaging parameter determination process, for example, when the imaging parameter determined from a specific region is determined as the imaging parameter to be used for the entire region, the parameter setting unit 50 uses the input imaging parameter as the entire region of the imaging sensor. Set for. Specifically, each imaging parameter is set in the register related to the control of the entire area of the imaging sensor in the driver circuit.

以上説明したように、本実施形態の撮像装置は、過去の撮像画像から予測画像を生成し、その予測画像に対する画像認識処理結果を基にして撮像パラメータを制御する。これにより、実施形態の撮像装置によれば、過去の画像から推測した画像認識処理結果を基にして、将来の画像に対する撮像パラメータを制御する場合に生じ得る、撮像パラメータの不適合を防止することができる。すなわち本実施形態によれば、将来の画像に適合した撮像パラメータの制御を実現することが可能である。例えば、画像内の物体毎の領域が画像フレーム毎に変化する場合、過去の画像から得られる物体毎の領域は、将来の画像においてずれてしまう可能性があり、結果として撮像パラメータの調整領域もずれてしまうことが有り得る。これに対し、本実施形態の撮像装置では、予測画像の画像認識処理結果を基にして物体毎の領域の撮像パラメータを決定するため、画像内で物体毎の領域が画像フレーム毎に変化する場合でも、より適切な撮像パラメータを設定することが可能となる。 As described above, the imaging device of the present embodiment generates a predicted image from the past captured images, and controls the imaging parameters based on the image recognition processing result for the predicted image. Thereby, according to the image pickup apparatus of the embodiment, it is possible to prevent nonconformity of the image pickup parameters that may occur when the image pickup parameters for the future image are controlled based on the image recognition processing result estimated from the past image. it can. That is, according to the present embodiment, it is possible to realize control of imaging parameters suitable for future images. For example, if the area of each object in the image changes for each image frame, the area of each object obtained from the past image may shift in the future image, and as a result, the adjustment area of the imaging parameter also becomes. It is possible that it will shift. On the other hand, in the imaging device of the present embodiment, since the imaging parameter of the region for each object is determined based on the image recognition processing result of the predicted image, the region for each object in the image changes for each image frame. However, it is possible to set more appropriate imaging parameters.

なお前述したように、実施形態1では、予測画像に対する認識結果を基にして撮像センサの撮像パラメータを制御するが、予測画像の生成方法、予測画像に対する認識処理手法、認識処理結果に基づく撮像パラメータの決定および設定手法に特に限定はない。特に、認識処理結果に基づく撮像パラメータの決定および設定手法に関しては、下記の参考文献4のように認識処理結果に基づく手法が多数開示されており、それらは本実施形態における予測画像に対する認識処理結果に基づく手法に対しても同様に適用可能である。 As described above, in the first embodiment, the imaging parameters of the imaging sensor are controlled based on the recognition result for the predicted image, but the method for generating the predicted image, the recognition processing method for the predicted image, and the imaging parameters based on the recognition processing result. There is no particular limitation on the determination and setting method of. In particular, regarding the determination and setting method of the imaging parameter based on the recognition processing result, many methods based on the recognition processing result are disclosed as in Reference 4 below, and these are the recognition processing results for the predicted image in the present embodiment. It is also applicable to the method based on.

参考文献4:特開2011−130031号公報 Reference 4: Japanese Patent Application Laid-Open No. 2011-130031

<実施形態2>
次に、実施形態2について説明する。
実施形態1では、画像認識処理の結果を基に分割領域(又は画像全体の領域)に対する撮像パラメータを設定する例を挙げた。これに対し、実施形態2の場合は、図1に示した画像認識部30が、画像認識処理として物体認識処理を実行する点と、パラメータ決定部40が、物体認識処理で決定された認識対象物体の領域に対して所定の撮像パラメータを決定する点が、実施形態1と相違する。以下、実施形態1と相違する部分についてのみ説明を行い、その他の部分に関しては実施形態1と同様であるため説明を省略する。
<Embodiment 2>
Next, the second embodiment will be described.
In the first embodiment, an example of setting the imaging parameters for the divided region (or the region of the entire image) based on the result of the image recognition processing has been given. On the other hand, in the case of the second embodiment, the image recognition unit 30 shown in FIG. 1 executes the object recognition process as the image recognition process, and the parameter determination unit 40 is the recognition target determined by the object recognition process. It differs from the first embodiment in that a predetermined imaging parameter is determined for a region of an object. Hereinafter, only the parts different from the first embodiment will be described, and the other parts will be the same as those of the first embodiment, and thus the description thereof will be omitted.

本実施形態の撮像装置において、図1の画像認識部30は、画像生成部20で生成された予測画像から、事前に設定された特定の物体を認識するような画像認識処理機能を有する。事前に設定された特定物体は、本実施形態では人体とするが、その他、自動車、自転車または信号機等、事前に学習した任意の物体を認識することが可能である。 In the image pickup apparatus of the present embodiment, the image recognition unit 30 of FIG. 1 has an image recognition processing function for recognizing a specific object set in advance from the predicted image generated by the image generation unit 20. Although the specific object set in advance is a human body in the present embodiment, it is possible to recognize any object learned in advance such as a car, a bicycle, or a traffic light.

図6は、本実施形態における撮像装置の動作を示すフローチャートである。
図6において、ステップS180からステップS183の処理は、前述した実施形態1において述べた処理と同様であるため、それらの詳細な説明は省略する。
FIG. 6 is a flowchart showing the operation of the image pickup apparatus according to the present embodiment.
In FIG. 6, since the processes of steps S180 to S183 are the same as the processes described in the above-described first embodiment, detailed description thereof will be omitted.

実施形態2の場合、ステップS183で予測画像の生成処理が開始されて予測画像が生成されると、CPU140は、画像認識部30にて行われるステップS188に処理を進める。
ステップS188の物体認識処理に進むと、画像認識部30は、画像生成部20にて生成された予測画像に対して、人体の認識処理を実行する。そして、画像認識部30は、画像認識処理の結果として、認識された人体に対して推定された矩形領域の画像上の座標値(左上画素位置と右下画素位置)を出力する。予測画像から人体を認識する処理の詳細は後述する。ステップS188の処理後は、ステップS185に進む。
In the case of the second embodiment, when the prediction image generation process is started in step S183 and the prediction image is generated, the CPU 140 proceeds to step S188 performed by the image recognition unit 30.
Proceeding to the object recognition process in step S188, the image recognition unit 30 executes the human body recognition process on the predicted image generated by the image generation unit 20. Then, the image recognition unit 30 outputs the coordinate values (upper left pixel position and lower right pixel position) on the image of the rectangular region estimated for the recognized human body as a result of the image recognition process. The details of the process of recognizing the human body from the predicted image will be described later. After the process of step S188, the process proceeds to step S185.

ステップS185の撮像パラメータ決定処理に進むと、パラメータ決定部40は、ステップS188の物体認識処理で得られた人体の矩形領域の座標値の情報と、ステップS182の画像生成処理で生成された予測画像とを基に、撮像パラメータ値を決定する。撮像パラメータ値の決定方法の詳細は後述する。 Proceeding to the imaging parameter determination process of step S185, the parameter determination unit 40 determines the information of the coordinate values of the rectangular region of the human body obtained by the object recognition process of step S188 and the predicted image generated by the image generation process of step S182. Based on the above, the imaging parameter value is determined. Details of the method for determining the imaging parameter value will be described later.

続いて、実施形態2の画像認識部30で実行されるステップS188の画像認識処理に関して、図7を用いて詳細に説明する。図7は、入力された予測画像(X)に対して、所定の画像認識処理を実現するNNの構成例を模式的に示した図である。 Subsequently, the image recognition process of step S188 executed by the image recognition unit 30 of the second embodiment will be described in detail with reference to FIG. 7. FIG. 7 is a diagram schematically showing a configuration example of an NN that realizes a predetermined image recognition process for the input predicted image (X).

本実施形態における画像認識処理は、認識処理技術として広く応用されている階層型畳み込みNNにより構成されており、前述の実施形態1で説明したNNに含まれる図4の階層型畳み込みNNモジュール190と同様の演算処理を実行する。階層型畳み込みNNモジュールの各層は畳み込み演算素子701〜704により構成されている。 The image recognition process in the present embodiment is composed of a hierarchical convolutional NN widely applied as a recognition processing technique, and includes the hierarchical convolutional NN module 190 of FIG. 4 included in the NN described in the above-described first embodiment. Perform the same arithmetic processing. Each layer of the hierarchical convolutional NN module is composed of convolutional arithmetic elements 701 to 704.

画像認識部30は、入力された予測画像データを内部のフレームバッファに一旦格納した後、階層型畳み込みNNモジュールに入力し、人体を認識する処理を実行する。ここで、階層型畳み込みNNモジュールにおける処理は、一般的な物体認識処理と同様に、画像内の所定領域を順に走査することにより実行される。 The image recognition unit 30 temporarily stores the input predicted image data in the internal frame buffer, then inputs the input to the hierarchical convolutional NN module, and executes a process of recognizing the human body. Here, the processing in the hierarchical convolutional NN module is executed by sequentially scanning a predetermined area in the image in the same manner as the general object recognition processing.

階層型畳み込みNNにおける処理は、実施形態1における階層型畳み込みNNにおける処理と同様に式(2)で表される。実施形態2の場合、人体の画像上の位置およびサイズに関する教師データを有する画像データを使用して事前に学習することにより、画像中の人体を認識することが可能である。 The process in the hierarchical convolutional NN is represented by the equation (2) in the same manner as the process in the hierarchical convolutional NN in the first embodiment. In the case of the second embodiment, it is possible to recognize the human body in the image by learning in advance using the image data having the teacher data regarding the position and size of the human body on the image.

なお本実施形態における画像認識部30は、階層型畳み込みNNモジュールを用いて構成するものとしたがこれに限るものではなく、特定の物体を認識する手法は、これ以外にも様々な手法が提案されており、他の手法が用いられても良い。 The image recognition unit 30 in the present embodiment is configured by using a hierarchical convolutional NN module, but the present invention is not limited to this, and various methods for recognizing a specific object have been proposed. And other methods may be used.

図6のステップS188の物体認識処理において、画像認識部30は、入力された予測画像に対して人体を認識する処理を実行し、その予測画像内の人体位置・サイズを推定する。具体的には、画像認識部30は、図8に示すように、予測画像800から、認識された人体に対して推定された矩形領域810の画像上の座標値(左上画素位置811と右下画素位置812)を出力する。 In the object recognition process of step S188 of FIG. 6, the image recognition unit 30 executes a process of recognizing a human body with respect to the input predicted image, and estimates the position and size of the human body in the predicted image. Specifically, as shown in FIG. 8, the image recognition unit 30 has coordinate values (upper left pixel position 811 and lower right) on the image of the rectangular region 810 estimated from the predicted image 800 with respect to the recognized human body. The pixel position 812) is output.

また、画像認識部30は、ステップS188の画像認識処理として、人体認識処理に加えて、さらに人体姿勢認識処理を実行することも可能である。人体姿勢認識処理は、前述した階層型畳み込みNNモジュールによって演算することが可能である。この場合、ステップS188の物体認識処理において、画像認識部30は、前述のように推定した矩形領域の画像上の座標値に加えて、図9に示すように予測画像900から人体各部位の位置910〜915を示す各座標値を算出する。図9の例では、予測画像900の人体の頭部中心位置911、胴体中心位置910、左手位置912、右手位置913、左足位置914、右足位置915のぞれぞれの座標値が出力される。なお、認識する対象は人体の姿勢に限るものではなく、任意の物体の姿勢を認識する物体姿勢認識処理が実行されても良い。例えば自動車の姿勢を認識する場合は、ヘッドランプ位置、タイヤ位置、ルーフ位置等の各部位を認識することができる。 Further, the image recognition unit 30 can further execute the human body posture recognition process in addition to the human body recognition process as the image recognition process in step S188. The human body posture recognition process can be calculated by the above-mentioned hierarchical convolutional NN module. In this case, in the object recognition process of step S188, the image recognition unit 30 adds the coordinate values on the image of the rectangular region estimated as described above, and as shown in FIG. 9, the position of each part of the human body from the predicted image 900. Each coordinate value indicating 910 to 915 is calculated. In the example of FIG. 9, the coordinate values of the head center position 911, the torso center position 910, the left hand position 912, the right hand position 913, the left foot position 914, and the right foot position 915 of the predicted image 900 are output. .. The object to be recognized is not limited to the posture of the human body, and an object posture recognition process for recognizing the posture of an arbitrary object may be executed. For example, when recognizing the posture of an automobile, it is possible to recognize each part such as a headlamp position, a tire position, and a roof position.

次に、実施形態2においてパラメータ決定部40で実行されるステップS185の撮像パラメータ決定処理に関して説明する。
パラメータ決定部40は、図8の予測画像800内の人体に関して推定された矩形領域810の画像上の座標値(左上画素位置811と右下画素位置812)の情報と、予測画像800のデータを基にして、各領域内の輝度値の平均値を算出する。
Next, the imaging parameter determination process of step S185 executed by the parameter determination unit 40 in the second embodiment will be described.
The parameter determination unit 40 obtains information on the coordinate values (upper left pixel position 811 and lower right pixel position 812) on the image of the rectangular region 810 estimated for the human body in the predicted image 800 of FIG. 8 and the data of the predicted image 800. Based on this, the average value of the brightness values in each region is calculated.

露光パラメータを決定する場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切な露光時間をLUTとして保持している。そして、パラメータ決定部40は、そのLUTを用い、算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎の露光時間を決めることで露光パラメータを決定する。 When determining the exposure parameter, the parameter determination unit 40 holds as a LUT an appropriate exposure time determined in advance corresponding to the range of the average value of the luminance values in each region. Then, the parameter determination unit 40 uses the LUT and determines the exposure time for each pixel circuit corresponding to each region of the image sensor of the image sensor unit 10 based on the calculated average value of the luminance values, thereby determining the exposure parameter. To determine.

またダイナミックレンジパラメータを決定する場合、パラメータ決定部40は、前述のように算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎のダイナミックレンジを決定する。この場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切なダイナミックレンジをLUTとして保持している。そして、パラメータ決定部40は、そのLUTを用い、算出した輝度値の平均値を基にして、画像センサ部10の画像センサの各領域に対応する画素回路毎のダイナミックレンジを決めることでダイナミックレンジパラメータを決定する。 When determining the dynamic range parameter, the parameter determination unit 40 determines the dynamic range for each pixel circuit corresponding to each region of the image sensor of the image sensor unit 10 based on the average value of the luminance values calculated as described above. To determine. In this case, the parameter determination unit 40 holds an appropriate dynamic range determined in advance corresponding to the range of the average value of the luminance values in each region as the LUT. Then, the parameter determination unit 40 uses the LUT to determine the dynamic range for each pixel circuit corresponding to each region of the image sensor of the image sensor unit 10 based on the calculated average value of the luminance values, thereby determining the dynamic range. Determine the parameters.

またゲインパラメータを決定する場合、パラメータ決定部40は、前述のように算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの出力値に対して、各領域に対応する画素毎にゲイン値を決定する。この場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切なゲイン値をLUTとして保持している。パラメータ決定部40は、そのLUTを用い、算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素毎にゲイン値を決めることでゲインパラメータを決定する。 When determining the gain parameter, the parameter determination unit 40 determines the pixels corresponding to each region with respect to the output value of the image sensor of the image sensor unit 10 based on the average value of the brightness values calculated as described above. The gain value is determined for each. In this case, the parameter determination unit 40 holds an appropriate gain value determined in advance corresponding to the range of the average value of the brightness values in each region as the LUT. The parameter determination unit 40 determines the gain parameter by using the LUT and determining the gain value for each pixel corresponding to each region of the image sensor of the image sensor unit 10 based on the calculated average value of the brightness values. ..

実施形態2においても、パラメータ決定部40は、前述したようにして決定された各撮像パラメータを、ステップS186の撮像パラメータ設定処理として、パラメータ設定部50に送る。 Also in the second embodiment, the parameter determination unit 40 sends each imaging parameter determined as described above to the parameter setting unit 50 as the imaging parameter setting process in step S186.

また実施形態2の場合、パラメータ決定部40は、人体に対して推定された矩形領域の画像上の座標値(左上画素位置と右下画素位置)を基に、撮像パラメータとして、撮像領域パラメータ(撮像センサで撮像する領域)を決定することも出来る。そして、パラメータ設定部50によって撮像領域パラメータが設定された場合、画像センサ部10は、後述するように、その撮像領域パラメータにより定義される領域の画像のみを取得することになる。 Further, in the case of the second embodiment, the parameter determination unit 40 sets the imaging region parameter (imaging region parameter (upper left pixel position and lower right pixel position) as the imaging parameter based on the coordinate values (upper left pixel position and lower right pixel position) on the image of the rectangular region estimated for the human body. It is also possible to determine the area to be imaged by the image sensor). Then, when the imaging region parameter is set by the parameter setting unit 50, the image sensor unit 10 acquires only the image of the region defined by the imaging region parameter, as will be described later.

また実施形態2において、パラメータ決定部40は、人体に対して推定された矩形領域の画像上の座標値(左上画素位置と右下画素位置)を基にして、フォーカスを合わせる画素位置を算出することもできる。例えば、パラメータ決定部40は、人体頭部の中心位置、例えば図10に示すように人体に対して推定された矩形領域1011の上部から1/10で且つ左右の中心位置1010を算出し、それを基に、フォーカス位置を決めるフォーカスパラメータを決定する。そして、パラメータ設定部50によってフォーカスパラメータが設定された場合、画像センサ部10は、そのフォーカスパラメータにより設定されるフォーカス位置でフォーカスを合わせを行うことが可能となる。 Further, in the second embodiment, the parameter determination unit 40 calculates the pixel position to be focused based on the coordinate values (upper left pixel position and lower right pixel position) on the image of the rectangular region estimated with respect to the human body. You can also do it. For example, the parameter determination unit 40 calculates the center position of the human body head, for example, 1/10 from the upper part of the rectangular region 1011 estimated with respect to the human body and the left and right center positions 1010 as shown in FIG. Based on, the focus parameter that determines the focus position is determined. Then, when the focus parameter is set by the parameter setting unit 50, the image sensor unit 10 can perform focusing at the focus position set by the focus parameter.

実施形態2において、画像認識部30は、人体認識処理に加えてさらに人体姿勢認識処理を実行した場合、事前に設定された部位、またはユーザに指定された部位に基づいて、入力された人体各部位の座標値の中から一つを選択することもできる。この場合、パラメータ決定部40は、事前に設定された部位、またはユーザに指定された部位(例えば人体頭部中心位置)を、フォーカス位置を決めるフォーカスパラメータとして決定することも可能である。 In the second embodiment, when the image recognition unit 30 further executes the human body posture recognition process in addition to the human body recognition process, each of the input human bodies is based on a preset part or a part designated by the user. You can also select one from the coordinate values of the part. In this case, the parameter determination unit 40 can also determine a preset portion or a portion designated by the user (for example, the center position of the human body head) as a focus parameter for determining the focus position.

実施形態2の場合も、パラメータ設定部50は、図6のステップS186の撮像パラメータ設定処理として、パラメータ決定部40にて決定された撮像パラメータを、画像センサ部10に対して設定する。 Also in the case of the second embodiment, the parameter setting unit 50 sets the image pickup parameter determined by the parameter determination unit 40 to the image sensor unit 10 as the image pickup parameter setting process in step S186 of FIG.

例えば撮像領域パラメータを設定する場合、パラメータ設定部50は、パラメータ決定部40にて決定された撮像領域パラメータに基づき、画像センサ部10のドライバー回路の、撮像センサの撮像領域制御に関わるレジスタに、撮像領域(ROI)を設定する。 For example, when setting the image pickup area parameter, the parameter setting unit 50 sets the register of the driver circuit of the image sensor unit 10 related to the image pickup area control of the image sensor based on the image pickup area parameter determined by the parameter determination unit 40. Set the imaging region (ROI).

またフォーカスパラメータを設定する場合、パラメータ設定部50は、パラメータ決定部40にて決定されたフォーカスパラメータに基づき、ドライバー回路の撮像センサのオートフォーカス制御に関わるレジスタに、フォーカスパラメータを設定する。
なお、パラメータ設定部50で実行される、これら以外の撮像パラメータ設定処理に関しては、前述の実施形態1と同様であるため、それらの説明は省略する。
When setting the focus parameter, the parameter setting unit 50 sets the focus parameter in the register related to the autofocus control of the image sensor of the driver circuit based on the focus parameter determined by the parameter determination unit 40.
The other imaging parameter setting processes executed by the parameter setting unit 50 are the same as those in the first embodiment, and thus the description thereof will be omitted.

そして画像センサ部10では、前述の実施形態1と同様に、レジスタに設定された値に基づいて、ドライバー回路が撮像センサの動作を制御する。
なお、本実施形態における撮像センサは、前述同様に、画素毎に露光時間、ダイナミックレンジ、およびゲイン値を制御することが可能な構成を有するものとする。また、本実施形態における撮像センサは、設定された撮像領域に基づき、当該領域のみ撮像する機能を有する。例えば図11に示すように、実施形態2おける撮像センサは、ドライバー回路の制御に基づき、予測画像から認識した人体領域(図11中の黒色矩形で囲まれた領域1110)のみを撮像し、画像データとして取得する。また本実施形態の撮像センサは、設定されたフォーカス位置に基づき、光学系の制御を含んだオートフォーカス処理を実現する機能を有する。
Then, in the image sensor unit 10, the driver circuit controls the operation of the image sensor based on the value set in the register, as in the first embodiment.
The image sensor in the present embodiment has a configuration capable of controlling the exposure time, the dynamic range, and the gain value for each pixel, as described above. Further, the image sensor in the present embodiment has a function of imaging only the area based on the set image area. For example, as shown in FIG. 11, the image sensor in the second embodiment captures only the human body region (region 1110 surrounded by the black rectangle in FIG. 11) recognized from the predicted image based on the control of the driver circuit, and images the image. Get as data. Further, the image sensor of the present embodiment has a function of realizing autofocus processing including control of the optical system based on the set focus position.

以上説明したように、実施形態2の撮像装置は、過去の画像から生成した予測画像に対する画像認識結果を基に、将来の画像に対する撮像パラメータを制御する。これにより、前述の実施形態1同様に、過去の画像における認識結果を基にして将来の画像に対する撮像パラメータを制御する場合に生じ得る、撮像パラメータの不適合を防止することができる。実施形態2のように人物の画像認識を行う場合、人体等の物体の位置・サイズが画像フレーム毎に変化すると、過去の画像から推測される人体等の領域は、将来の画像においてずれてしまう可能性があり、撮像パラメータの調整範囲もずれる可能性がある。また、画像中の人体等のサイズおよび姿勢が変化する場合は、過去の画像から推定した領域に基づく特定部位の位置、および物体の姿勢に基づく特定部位の位置も、将来の画像においてずれてしまう可能性がある。これに対し、本実施形態では、予測画像を基にして将来の画像における人体等の領域および姿勢を推定できるため、人体等の位置・サイズおよび姿勢が画像フレーム毎に変化する場合でも、領域および姿勢に対して適切な撮像パラメータを設定可能となる。 As described above, the image pickup apparatus of the second embodiment controls the image pickup parameters for the future image based on the image recognition result for the predicted image generated from the past image. Thereby, as in the above-described first embodiment, it is possible to prevent the nonconformity of the imaging parameters that may occur when the imaging parameters for the future image are controlled based on the recognition result in the past image. In the case of performing image recognition of a person as in the second embodiment, if the position / size of an object such as the human body changes for each image frame, the area of the human body or the like estimated from the past image shifts in the future image. There is a possibility that the adjustment range of the imaging parameters may shift. In addition, when the size and posture of the human body, etc. in the image change, the position of the specific part based on the area estimated from the past image and the position of the specific part based on the posture of the object will also shift in the future image. there is a possibility. On the other hand, in the present embodiment, since the region and posture of the human body or the like in the future image can be estimated based on the predicted image, even if the position, size and posture of the human body or the like change for each image frame, the region and the posture can be estimated. Appropriate imaging parameters can be set for the posture.

なお本実施形態では、予測画像に対する認識結果を基にして画像センサ部の撮像パラメータを制御するが、実施形態1と同様、予測画像の生成方法、予測画像に対する認識処理手法、認識処理結果に基づく撮像パラメータの決定および設定手法は限定されない。認識処理結果に基づく撮像パラメータの決定および設定手法に関しては、認識処理結果に基づく各種手法を、本実施形態における測画像の認識処理結果に基づく手法にも適用可能である。 In the present embodiment, the imaging parameters of the image sensor unit are controlled based on the recognition result for the predicted image, but as in the first embodiment, the method for generating the predicted image, the recognition processing method for the predicted image, and the recognition processing result are used. The method for determining and setting the imaging parameters is not limited. Regarding the method of determining and setting the imaging parameter based on the recognition processing result, various methods based on the recognition processing result can also be applied to the method based on the recognition processing result of the measurement image in the present embodiment.

<実施形態3>
次に実施形態3について説明する。実施形態3は、画像認識部30が、認識処理としてどのようなシーン(場面)か認識するシーン認識処理を実行する点と、パラメータ決定部40が、シーン認識処理で認識されたシーンに応じて所定の撮像パラメータを決定する点が実施形態2と相違する。以下、実施形態2と相違する部分についてのみ説明を行い、その他の構成等に関しては実施形態2と同様であるため説明を省略する。
<Embodiment 3>
Next, the third embodiment will be described. In the third embodiment, the image recognition unit 30 executes a scene recognition process for recognizing what kind of scene (scene) is performed as the recognition process, and the parameter determination unit 40 determines the scene according to the scene recognized in the scene recognition process. It differs from the second embodiment in that a predetermined imaging parameter is determined. Hereinafter, only the parts different from the second embodiment will be described, and the other configurations and the like are the same as those of the second embodiment, so the description thereof will be omitted.

実施形態2の撮像装置は、図1の画像認識部30が、画像生成部20にて生成された予測画像から、事前に設定された特定のシーンを認識する。本実施形態の場合、事前に設定された特定のシーンは、例えば"歩行者の飛び出し"とするが、その他に"自動車の飛び出し"、"自転車の飛び出し"または"歩行者の転倒"等、事前に学習した任意のシーンでも良い。画像認識部30は、これら特定のシーンを認識する画像認識処理を行う。 In the image pickup apparatus of the second embodiment, the image recognition unit 30 of FIG. 1 recognizes a specific preset scene from the predicted image generated by the image generation unit 20. In the case of the present embodiment, the specific scene set in advance is, for example, "pedestrian jumping out", but in addition, "car jumping out", "bicycle jumping out", "pedestrian falling out", etc. It may be any scene learned in. The image recognition unit 30 performs an image recognition process for recognizing these specific scenes.

図12は、本実施形態における撮像装置の動作を示すフローチャートである。
図12におけるステップS180からステップS183までの処理、およびステップS185からステップS187の処理は実施形態2と同様であるため、詳細な説明を省略する。
FIG. 12 is a flowchart showing the operation of the image pickup apparatus according to the present embodiment.
Since the processes from step S180 to step S183 and the processes from steps S185 to S187 in FIG. 12 are the same as those in the second embodiment, detailed description thereof will be omitted.

実施形態3の場合、ステップS183で予測画像の生成処理が開始されて予測画像が生成されると、CPU140は、画像認識部30にて行われるステップS189に処理を進める。
ステップS189のシーン認識処理に進むと、画像認識部30は、画像生成部20にて生成された予測画像に対して、"歩行者の飛び出し"シーンの認識処理を実行する。画像認識部30は、画像認識処理の結果として、"歩行者の飛び出し"シーンの画像認識について真/偽(True/False)フラグと、認識されたシーンに対して推定された矩形領域の画像上の座標値(左上画素位置と右下画素位置)とを出力する。ステップS189の処理後は、ステップS185に進む。
In the case of the third embodiment, when the prediction image generation process is started in step S183 and the prediction image is generated, the CPU 140 proceeds to step S189 performed by the image recognition unit 30.
Proceeding to the scene recognition process of step S189, the image recognition unit 30 executes the recognition process of the "pedestrian jumping out" scene on the predicted image generated by the image generation unit 20. As a result of the image recognition processing, the image recognition unit 30 sets a True / False flag for image recognition of the "pedestrian pop-out" scene and the image of the rectangular area estimated for the recognized scene. (Upper left pixel position and lower right pixel position) are output. After the process of step S189, the process proceeds to step S185.

ステップS185の撮像パラメータ決定処理に進むと、パラメータ決定部40は、ステップS189のシーン認識処理で算出された、特定のシーンの認識結果の情報(真/偽フラグ:True/Falseフラグ)に基づいて撮像パラメータ値を決定する。本実施形態における撮像パラメータ値は、画像センサ部10において取得する画像のフレームレートの値とする。フレームレートパラメータ値の決定方法の詳細は後述する。 Proceeding to the imaging parameter determination process of step S185, the parameter determination unit 40 is based on the recognition result information (true / false flag: True / False flag) of the specific scene calculated in the scene recognition process of step S189. Determine the imaging parameter value. The imaging parameter value in this embodiment is a value of the frame rate of the image acquired by the image sensor unit 10. Details of the method for determining the frame rate parameter value will be described later.

次に前述した画像認識部30で実行されるシーン認識処理に関して、詳細に説明する。
本実施形態におけるシーン認識処理は、認識処理技術として広く応用されている階層型畳み込みNNによって行われ、実施形態2で説明した図7に示す階層型畳み込みNNと同様の演算処理により実行される。
Next, the scene recognition process executed by the image recognition unit 30 described above will be described in detail.
The scene recognition process in the present embodiment is performed by a hierarchical convolutional NN widely applied as a recognition processing technique, and is executed by the same arithmetic processing as the hierarchical convolutional NN shown in FIG. 7 described in the second embodiment.

画像認識部30は、入力された予測画像のデータをフレームバッファに一旦格納した後、階層型畳み込みNNモジュールに入力し、"歩行者の飛び出し"シーンを認識する処理を実行する。階層型畳み込みNNモジュールにおける処理は、実施形態2における階層型畳み込みNNにおける処理と同様に、式(2)で表される。実施形態3の場合は、"歩行者の飛び出し"シーンに関する教師データを有する画像データを使用して事前に学習することにより、画像中の"歩行者の飛び出し"シーンを認識することが可能である。 The image recognition unit 30 temporarily stores the input predicted image data in the frame buffer, then inputs the input to the hierarchical convolution NN module, and executes a process of recognizing the "pedestrian jumping out" scene. The process in the hierarchical convolutional NN module is represented by the equation (2) in the same manner as the process in the hierarchical convolutional NN in the second embodiment. In the case of the third embodiment, it is possible to recognize the "pedestrian jumping out" scene in the image by learning in advance using the image data having the teacher data regarding the "pedestrian jumping out" scene. ..

なお本実施形態における画像認識部30は、階層型畳み込みNNモジュールを用いて構成するものとしたが、この例に限るものではなく、特定のシーンを認識する手法はこれ以外の様々な手法が用いられてもよい。 The image recognition unit 30 in the present embodiment is configured by using a hierarchical convolutional NN module, but the present invention is not limited to this example, and various other methods are used as a method for recognizing a specific scene. May be done.

前述したようにステップS189のシーン認識処理において、画像認識部30は、入力された予測画像に対して"歩行者の飛び出し"シーンを認識する処理を実行し、予測画像内に当該シーンが存在するかどうかを推定する。画像認識部30は、図13に示すように予測画像1300内に"歩行者の飛び出し"シーンが存在するかを示す真/偽フラグと、認識されたシーンで推定された矩形領域1310の画像上の座標値(左上画素位置1311と右下画素位置1312)とを出力する。 As described above, in the scene recognition process of step S189, the image recognition unit 30 executes a process of recognizing the "pedestrian jumping out" scene for the input predicted image, and the scene exists in the predicted image. Estimate whether or not. As shown in FIG. 13, the image recognition unit 30 has a true / false flag indicating whether or not a “pedestrian pop-out” scene exists in the predicted image 1300, and an image of the rectangular region 1310 estimated in the recognized scene. (Upper left pixel position 1311 and lower right pixel position 1312) are output.

次に、パラメータ決定部40で実行される撮像パラメータ決定処理に関して説明する。
パラメータ決定部40は、予測画像内の"歩行者の飛び出し"シーンの有無に関して推定された真/偽フラグと、認識されたシーンに対して推定された矩形領域の画像上の座標値の情報とを基に、画像センサ部10で取得する画像のフレームレートを決定する。
Next, the imaging parameter determination process executed by the parameter determination unit 40 will be described.
The parameter determination unit 40 includes information on the estimated true / false flag regarding the presence or absence of the "pedestrian jumping out" scene in the predicted image, and the information on the coordinate value on the image of the estimated rectangular area for the recognized scene. Based on the above, the frame rate of the image acquired by the image sensor unit 10 is determined.

パラメータ決定部40は、"歩行者の飛び出し"シーンの有無(真/偽フラグ)に対応して事前に決定した画像のフレームレートをLUTとして保持しており、シーンの有無を基にして、画像センサ部10の撮像センサのフレームレートを決定する。例えば、予測画像において"歩行者の飛び出し"シーンが認識された(真フラグが入力された)場合、パラメータ決定部40は、画像センサ部10の通常動作時のフレームレート(60fps)から240fpsへ変更することを決める。そして、パラメータ決定部40は、その変更後のフレームレートパラメータを決定する。 The parameter determination unit 40 holds the frame rate of the image determined in advance corresponding to the presence / absence (true / false flag) of the "pedestrian pop-out" scene as a LUT, and based on the presence / absence of the scene, the image The frame rate of the image sensor of the sensor unit 10 is determined. For example, when a "pedestrian jumping out" scene is recognized in the predicted image (a true flag is input), the parameter determination unit 40 changes the frame rate (60 fps) of the image sensor unit 10 during normal operation to 240 fps. Decide to do. Then, the parameter determination unit 40 determines the frame rate parameter after the change.

パラメータ設定部50は、前述のように決定された撮像パラメータ(フレームレートパラメータ)を、ステップS186の撮像パラメータ設定処理において画像センサ部10に設定する。
なお本実施形態では、撮像パラメータ決定処理で決定する撮像パラメータを画像センサ部10の撮像センサのフレームレートとした、これには限定されない。例えば"歩行者の飛び出し"シーンに対して推定された矩形領域の画像上の座標値の情報を基に、実施形態2と同様に、画像センサ部10の撮像センサの各領域に対応する画素回路毎の露光時間、ダイナミックレンジおよびゲイン値が決定されてもよい。
図12のステップS186においてパラメータ設定部で実行される撮像パラメータ設定処理に関しては、実施形態2と同様であるため、説明を省略する。
The parameter setting unit 50 sets the image pickup parameter (frame rate parameter) determined as described above in the image sensor unit 10 in the image pickup parameter setting process of step S186.
In the present embodiment, the image pickup parameter determined by the image pickup parameter determination process is the frame rate of the image sensor of the image sensor unit 10, and the present invention is not limited to this. For example, based on the information of the coordinate values on the image of the rectangular region estimated for the "pedestrian jumping out" scene, the pixel circuit corresponding to each region of the image sensor of the image sensor unit 10 is similar to the second embodiment. Each exposure time, dynamic range and gain value may be determined.
Since the imaging parameter setting process executed by the parameter setting unit in step S186 of FIG. 12 is the same as that of the second embodiment, the description thereof will be omitted.

シーン認識処理の場合も、過去の画像から推定したシーンの有無およびシーンが認識された領域は、将来の画像におけるシーンの有無およびシーンの認識領域と異なる可能性が有り、その結果、撮像パラメータの調整が実際のシーンに適合しなくなることがある。これに対し、本実施形態の場合、予測画像を基にして特定のシーンの有無およびシーンの領域を決定するため、シーンが画像フレーム毎に変化する場合でも、より適切なシーンの有無および領域に対して、撮像パラメータを設定することが可能となる。また、パラメータ決定部40は、認識されたシーンに応じて、撮像パラメータの中の特定の撮像パラメータの値を制御するようなパラメータ決定処理を行っても良い。例えば、"歩行者の飛び出し"シーンが認識された場合に、前述のようにフレームレートを上げるフレームレートパラメータを決定する例の他に、歩行者の領域を読み出すような撮像領域パラメータを決定するようにしても良い。さらにその他にも、"歩行者の飛び出し"シーンが認識された場合に、撮像センサにおける解像度を上げるように制御する解像度パラメータを決定してもよい。 Even in the case of the scene recognition process, the presence / absence of the scene and the area where the scene is recognized may be different from the presence / absence of the scene and the recognition area of the scene in the future image, and as a result, the imaging parameter Adjustments may not fit the actual scene. On the other hand, in the case of the present embodiment, since the presence / absence of a specific scene and the area of the scene are determined based on the predicted image, even if the scene changes for each image frame, the presence / absence and area of a more appropriate scene can be obtained. On the other hand, it is possible to set the imaging parameters. Further, the parameter determination unit 40 may perform a parameter determination process for controlling the value of a specific imaging parameter among the imaging parameters according to the recognized scene. For example, when a "pedestrian pop-out" scene is recognized, in addition to the example of determining the frame rate parameter for increasing the frame rate as described above, the imaging region parameter for reading the pedestrian region is determined. You can do it. Furthermore, when a "pedestrian jumping out" scene is recognized, a resolution parameter that controls to increase the resolution of the image sensor may be determined.

なお実施形態3においても、前述同様に、予測画像の生成方法、予測画像に対する認識処理手法、認識処理結果に基づく撮像パラメータの決定および設定手法は限定されない。特に、認識処理結果に基づく撮像パラメータの決定および設定手法、予測画像に対する認識処理結果に基づく手法は、実施形態2と同様に様々な手法を適用することが可能である。 Also in the third embodiment, similarly to the above, the method of generating the predicted image, the method of recognizing the predicted image, and the method of determining and setting the imaging parameter based on the recognition processing result are not limited. In particular, various methods can be applied to the method of determining and setting the imaging parameter based on the recognition processing result and the method based on the recognition processing result for the predicted image, as in the second embodiment.

<実施形態4>
次に実施形態4について説明する。
図14は、実施形態4に係る撮像装置の構成例を示したブロック図である。図1の構成例と比較してわかるように、図14に示した実施形態4の撮像装置は、図1の構成にベクトル算出部200が追加されている。
<Embodiment 4>
Next, the fourth embodiment will be described.
FIG. 14 is a block diagram showing a configuration example of the image pickup apparatus according to the fourth embodiment. As can be seen in comparison with the configuration example of FIG. 1, the image pickup apparatus of the fourth embodiment shown in FIG. 14 has a vector calculation unit 200 added to the configuration of FIG.

ここで、ベクトル算出部200は、画像センサ部10にて撮像された画像から、動きベクトルを検出(算出)する動きベクトル検出機能を有する。そして、実施形態4の画像生成部210は、入力された画像データと、その画像データからベクトル算出部200が検出(算出)した動きベクトルとを基に、予測画像を生成する機能を有する。ベクトル算出部200、および画像生成部210以外の他の各部に関しては、実施形態1と同様の機能を有するものとして詳細な説明を省略する。 Here, the vector calculation unit 200 has a motion vector detection function that detects (calculates) a motion vector from the image captured by the image sensor unit 10. Then, the image generation unit 210 of the fourth embodiment has a function of generating a predicted image based on the input image data and the motion vector detected (calculated) by the vector calculation unit 200 from the image data. The vector calculation unit 200 and the other units other than the image generation unit 210 are assumed to have the same functions as those in the first embodiment, and detailed description thereof will be omitted.

次に、図14に示した構成を有する実施形態4の撮像装置の動作について説明する。図15は、本実施形態に係る撮像装置の動作を示すフローチャートである。
図15のステップS180とステップS181、およびステップS183からステップS187までの各処理は、実施形態1と同様であるため、詳細な説明を省略する。
実施形態4の場合、ステップS181の処理後、CPU140は、ベクトル算出部200にて行われるステップS201に処理を進める。
Next, the operation of the image pickup apparatus of the fourth embodiment having the configuration shown in FIG. 14 will be described. FIG. 15 is a flowchart showing the operation of the image pickup apparatus according to the present embodiment.
Since each process of step S180 and step S181 of FIG. 15 and steps S183 to S187 is the same as that of the first embodiment, detailed description thereof will be omitted.
In the case of the fourth embodiment, after the processing of step S181, the CPU 140 proceeds to the processing of step S201 performed by the vector calculation unit 200.

ステップS201に進むと、ベクトル算出部200は、動きベクトル算出処理として、画像センサ部10で取得された、時間的に連続した2フレーム分の画像データを基にして、動きベクトルを算出する処理を実行する。そして、ベクトル算出部200は、動きベクトル算出処理の結果として、画像の各画素位置における動きベクトル(動きの方向と、動きの大きさの情報を含む)を出力する。 Proceeding to step S201, the vector calculation unit 200 calculates the motion vector as the motion vector calculation process based on the image data for two time-continuous frames acquired by the image sensor unit 10. Execute. Then, the vector calculation unit 200 outputs a motion vector (including information on the direction of motion and the magnitude of motion) at each pixel position of the image as a result of the motion vector calculation process.

続いてステップS202に進むと、画像生成部210は、まず画像センサ部10で取得された画像データ、およびベクトル算出部200で算出された動きベクトルデータとを、内部のフレームバッファにフレーム単位で格納する。そして、画像生成部21は、それら画像データと動きベクトルデータとを基に予測画像を生成する。 Subsequently, in step S202, the image generation unit 210 first stores the image data acquired by the image sensor unit 10 and the motion vector data calculated by the vector calculation unit 200 in the internal frame buffer in frame units. To do. Then, the image generation unit 21 generates a predicted image based on the image data and the motion vector data.

以下、画像生成部210で実行されるステップS202の画像生成処理に関して説明する。画像生成部210は、画像センサ部10から入力された画像データと、ベクトル算出部200で算出された動きベクトルデータとを基に、予測画像を生成する点が、前述の実施形態1〜3とは異なっている。 Hereinafter, the image generation process of step S202 executed by the image generation unit 210 will be described. The point that the image generation unit 210 generates a predicted image based on the image data input from the image sensor unit 10 and the motion vector data calculated by the vector calculation unit 200 is the above-described first to third embodiments. Is different.

実施形態4の画像生成部210における画像生成処理は、実施形態1〜3で説明した畳み込みLSTMを行うNNモジュールの入力端子を拡張することで容易に実現される。画像生成部210で実行される演算および学習処理は、実施形態1〜3と同様である。なお本実施形態では、画像生成処理の実現方法として、前述の参考文献1に開示されている手法を用いることを想定しているが、これに限定するものではないことは実施形態1〜3と同様である。 The image generation process in the image generation unit 210 of the fourth embodiment is easily realized by expanding the input terminal of the NN module that performs the convolutional LSTM described in the first to third embodiments. The calculation and learning processes executed by the image generation unit 210 are the same as those in the first to third embodiments. In the present embodiment, it is assumed that the method disclosed in Reference 1 described above is used as the method for realizing the image generation processing, but the method is not limited to this, as in the first to third embodiments. The same is true.

実施形態4の場合、過去の画像および動きベクトルから予測画像を生成し、予測画像に対する認識結果を基にして、将来の画像に対する撮像パラメータを制御する。実施形態4の場合も、過去の画像から生成した認識結果を基にして、将来の画像に対する撮像パラメータを制御する場合に生じ得る、撮像パラメータの不適合を防止することができる。 In the case of the fourth embodiment, the predicted image is generated from the past image and the motion vector, and the imaging parameters for the future image are controlled based on the recognition result for the predicted image. Also in the case of the fourth embodiment, it is possible to prevent the nonconformity of the imaging parameters that may occur when the imaging parameters for the future image are controlled based on the recognition result generated from the past image.

なお本実施形態では、実施形態1の構成に対して更にベクトル算出部(動きベクトル算出処理)が追加された例に関して説明を行ったが、実施形態2および実施形態3に対しても同様にベクトル算出部(動きベクトル算出処理)が追加されてもよい。これらの例に関しては、本実施形態から容易に拡張可能なものとして、詳細な説明を省略する。 In the present embodiment, an example in which a vector calculation unit (motion vector calculation process) is further added to the configuration of the first embodiment has been described, but the same vector is applied to the second and third embodiments. A calculation unit (motion vector calculation process) may be added. These examples will be omitted in detail as they can be easily extended from the present embodiment.

また本実施形態では、ベクトル算出部200によって動きベクトルデータを算出し、画像生成部210の入力データとして与える例に関して説明を行ったが、画像生成部210において将来の画像における動きベクトルデータを予測(算出)することも可能である。参考文献5には、将来の画像における予測動きベクトルデータを算出する手法が開示されており、この手法を用いて本実施形態における画像生成部を実現することも可能である。 Further, in the present embodiment, the example in which the motion vector data is calculated by the vector calculation unit 200 and given as the input data of the image generation unit 210 has been described, but the image generation unit 210 predicts the motion vector data in the future image ( It is also possible to calculate). Reference 5 discloses a method for calculating predicted motion vector data in a future image, and it is also possible to realize an image generation unit in the present embodiment by using this method.

参考文献5:Xiaodan Liang, Lisa Lee, Wei Dai, Eric P. Xing, "Dual Motion GAN for Future-Flow Embedded Video Prediction", ICCV 2017 Reference 5: Xiaodan Liang, Lisa Lee, Wei Dai, Eric P. Xing, "Dual Motion GAN for Future-Flow Embedded Video Prediction", ICCV 2017

また本実施形態の変形例として、画像認識部30に対して、予測画像と共に予測した動きベクトルの情報を入力することも可能である。これは、実施形態1〜3で説明した画像認識部30の入力端子をさらに予測動きベクトル情報の入力用に拡張することで容易に実現される。 Further, as a modification of the present embodiment, it is also possible to input the predicted motion vector information together with the predicted image to the image recognition unit 30. This can be easily realized by further expanding the input terminal of the image recognition unit 30 described in the first to third embodiments for inputting the predicted motion vector information.

本実施形態によれば、画像データに加えて動きベクトルデータを用いて予測画像を生成することにより、特に動きを伴う画像の予測画像精度が向上するため、より将来の画像に適合した撮像パラメータの設定が可能となる。 According to the present embodiment, by generating a predicted image using motion vector data in addition to the image data, the predicted image accuracy of the image accompanied by motion is improved, so that the imaging parameters more suitable for future images can be obtained. It can be set.

<実施形態5>
次に実施形態5について説明する。図16は、実施形態5に係る撮像装置の構成例を示したブロック図である。
図1の構成例と比較してわかるように、図16に示した実施形態5の撮像装置は、実施形態1〜3における画像認識部30とRAM80が複数設けられて構成されている。図16の画像認識部30Aは実施形態1で説明した画像認識処理(領域分割処理)を担当し、画像認識部30Bは実施形態2の画像認識処理(物体認識処理)を担当し、画像認識部30Cは実施形態3の画像認識処理(シーン認識処理)を担当する。
<Embodiment 5>
Next, the fifth embodiment will be described. FIG. 16 is a block diagram showing a configuration example of the image pickup apparatus according to the fifth embodiment.
As can be seen in comparison with the configuration example of FIG. 1, the image pickup apparatus of the fifth embodiment shown in FIG. 16 is configured by providing a plurality of image recognition units 30 and RAM 80 of the first to third embodiments. The image recognition unit 30A of FIG. 16 is in charge of the image recognition process (area division process) described in the first embodiment, and the image recognition unit 30B is in charge of the image recognition process (object recognition process) of the second embodiment. 30C is in charge of the image recognition process (scene recognition process) of the third embodiment.

また、図17は、実施形態5の係る撮像装置の動作を示すフローチャートを示す。図17に示したフローチャートの場合、実施形態1〜3において、画像認識処理として説明したステップS184の領域分割処理、ステップS188の物体認識処理、およびステップS189のシーン認識処理が全て含まれている。 Further, FIG. 17 shows a flowchart showing the operation of the image pickup apparatus according to the fifth embodiment. In the case of the flowchart shown in FIG. 17, in the first to third embodiments, the area division process of step S184, the object recognition process of step S188, and the scene recognition process of step S189 described as the image recognition process are all included.

図17において、ステップS183で予測画像が生成されると、CPU140は、ステップS184の画像認識処理(領域分割処理)、ステップS188の画像認識処理(物体認識処理)、ステップS189の画像認識処理(シーン認識処理)に処理を進める。 In FIG. 17, when the predicted image is generated in step S183, the CPU 140 performs the image recognition process (region division process) in step S184, the image recognition process (object recognition process) in step S188, and the image recognition process (scene) in step S189. Proceed to the recognition process).

ステップS184では画像認識部30Aが画像認識処理(領域分割処理)を実行し、ステップS183では画像認識部30Bが画像認識処理(物体認識処理)を実行し、ステップS189では画像認識部30Cが画像認識処理(シーン認識処理)を実行する。そして、それらステップS184、ステップS188、およびステップS189の後、パラメータ決定部40にて行われるステップS185に処理が進められる。ステップS184、ステップS188、ステップS189の各画像認識処理は、前述の各実施形態でそれぞれ説明したのと同様の処理であるため、説明を省略する。なお、実施形態5において、ステップS188の物体認識処理に加えて、さらに物体姿勢認識処理を実行することが可能であることも実施形態2と同様である。 In step S184, the image recognition unit 30A executes image recognition processing (area division processing), in step S183, the image recognition unit 30B executes image recognition processing (object recognition processing), and in step S189, the image recognition unit 30C performs image recognition. Execute processing (scene recognition processing). Then, after the steps S184, S188, and S189, the process proceeds to step S185 performed by the parameter determination unit 40. Since each image recognition process of step S184, step S188, and step S189 is the same process as described in each of the above-described embodiments, the description thereof will be omitted. In the fifth embodiment, it is possible to further execute the object posture recognition process in addition to the object recognition process in step S188, which is the same as the second embodiment.

また、図17のステップS185の撮像パラメータ決定処理及びステップS186の撮像パラメータ設定処理で行われる処理は、実施形態1〜3で説明した処理から適宜一部の処理を実行する処理でも良いし、複数の処理を組み合わせた処理でも良い。例えば、背景領域(例えば空領域)のダイナミックレンジに関しては、実施形態1で説明した処理により撮像パラメータの値を決定してもよい。また例えば、人体領域のダイナミックレンジに関しては、実施形態2で説明した処理により撮像パラメータの値を決定してもよい。さらに、フレームレートに関しては、実施形態3で説明した手法により撮像パラメータの値を決定する処理でもよい。また、実施形態5の撮像装置においても、ベクトル算出部を追加して、実施形態4と同様に動きベクトルデータを基に処理を実行することも当然可能である。 Further, the processing performed in the imaging parameter determination process in step S185 and the imaging parameter setting process in step S186 in FIG. 17 may be a process of appropriately executing a part of the processes described in the first to third embodiments, or a plurality of processes. The process may be a combination of the above processes. For example, with respect to the dynamic range of the background region (for example, the empty region), the value of the imaging parameter may be determined by the process described in the first embodiment. Further, for example, with respect to the dynamic range of the human body region, the value of the imaging parameter may be determined by the process described in the second embodiment. Further, the frame rate may be a process of determining the value of the imaging parameter by the method described in the third embodiment. Further, also in the image pickup apparatus of the fifth embodiment, it is naturally possible to add a vector calculation unit and execute the process based on the motion vector data as in the fourth embodiment.

このように、実施形態5に係る撮像装置は、まず画像生成部20によって予測画像を生成し、その予測画像に対して画像認識部30A,30B,30Cがそれぞれ画像認識処理を実行する。そして、パラメータ決定部40が、それらの画像認識処理の実行結果に応じて撮像パラメータを決定する。また実施形態5の場合、画像認識処理として複数種類の処理が実行される。また実施形態5の場合は、一旦予測画像を生成すれば、その生成した予測画像に対して適用される画像認識処理が前述した実施形態1〜4のようにそれぞれ限定されることはない。このため、実施形態5の場合は、実施形態1〜4、さらには本実施形態における各画像認識処理以外の処理を実行することも可能となる。例えば、前述した画像認識処理とは異なる認識処理として、人物や自動車等の異常行動を検知する移動行動検知処理等を実行することも可能となる。また実施形態5においても、実行する画像認識処理に対応して、実施形態1〜4で説明した撮像パラメータ、またはその他の撮像パラメータを制御することができる。この場合も、実施形態1〜4で説明した撮像パラメータは一例であり、本発明は撮像パラメータの種類は特に限定されるものではない。 As described above, in the image pickup apparatus according to the fifth embodiment, the image generation unit 20 first generates a predicted image, and the image recognition units 30A, 30B, and 30C execute image recognition processing on the predicted image, respectively. Then, the parameter determination unit 40 determines the imaging parameters according to the execution result of those image recognition processes. Further, in the case of the fifth embodiment, a plurality of types of processes are executed as the image recognition process. Further, in the case of the fifth embodiment, once the predicted image is generated, the image recognition process applied to the generated predicted image is not limited as in the above-described first to fourth embodiments. Therefore, in the case of the fifth embodiment, it is possible to execute the processes other than the image recognition processes of the first to fourth embodiments and the present embodiment. For example, as a recognition process different from the image recognition process described above, it is possible to execute a movement action detection process or the like for detecting an abnormal behavior of a person, a car, or the like. Further, also in the fifth embodiment, the imaging parameters described in the first to fourth embodiments or other imaging parameters can be controlled in response to the image recognition process to be executed. Also in this case, the imaging parameters described in the first to fourth embodiments are examples, and the types of imaging parameters in the present invention are not particularly limited.

前述した各実施形態の画像処理装置の構成または各フローチャートの処理は、ハードウェア構成により実現されてもよいし、例えばCPUが本実施形態に係るプログラムを実行することによりソフトウェア構成により実現されてもよい。また、一部がハードウェア構成で残りがソフトウェア構成により実現されてもよい。ソフトウェア構成のためのプログラムは、予め用意されている場合だけでなく、不図示の外部メモリ等の記録媒体から取得されたり、不図示のネットワーク等を介して取得されたりしてもよい。 The configuration of the image processing device of each of the above-described embodiments or the processing of each flowchart may be realized by a hardware configuration, or may be realized by a software configuration by, for example, a CPU executing a program according to the present embodiment. Good. Further, a part may be realized by a hardware configuration and the rest may be realized by a software configuration. The program for software configuration may be acquired not only when it is prepared in advance, but also from a recording medium such as an external memory (not shown) or via a network (not shown).

本発明に係る制御処理における1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給可能であり、そのシステム又は装置のコンピュータの1つ以上のプロセッサにより読また出し実行されることで実現可能である。
前述の各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
A program that realizes one or more functions in the control process according to the present invention can be supplied to a system or device via a network or storage medium, and is read and executed by one or more processors of the computer of the system or device. It is feasible by being done.
Each of the above-described embodiments is merely an example of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

10:画像センサ部、20:画像生成部、30:画像認識部、40:パラメータ決定部、50:パラメータ設定部、80,160:RAM、140:CPU、150:ROM 10: Image sensor unit, 20: Image generation unit, 30: Image recognition unit, 40: Parameter determination unit, 50: Parameter setting unit, 80, 160: RAM, 140: CPU, 150: ROM

Claims (17)

撮像によって画像を取得する画像取得手段と、
前記取得された画像を基に予測画像を生成する画像生成手段と、
前記予測画像に対して画像認識処理を実行する画像認識手段と、
前記画像認識処理の結果に基づいて撮像パラメータを決定するパラメータ決定手段と、
前記決定した撮像パラメータを前記画像取得手段に対して設定するパラメータ設定手段と、
を有することを特徴とする撮像装置。
Image acquisition means for acquiring images by imaging,
An image generation means for generating a predicted image based on the acquired image, and
An image recognition means that executes image recognition processing on the predicted image, and
A parameter determining means for determining imaging parameters based on the result of the image recognition process, and
A parameter setting means for setting the determined imaging parameters for the image acquisition means, and
An imaging device characterized by having.
前記画像認識手段は、前記予測画像を分割した領域に対応した画像認識結果を出力することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the image recognition means outputs an image recognition result corresponding to a region in which the predicted image is divided. 前記画像認識手段は、前記予測画像の中の所定の物体を認識する物体認識処理を実行することを特徴とする請求項1または2に記載の撮像装置。 The imaging device according to claim 1 or 2, wherein the image recognition means executes an object recognition process for recognizing a predetermined object in the predicted image. 前記画像認識手段は、前記予測画像の中の所定の物体の姿勢を認識する物体姿勢認識処理を実行することを特徴とする請求項1から3のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 3, wherein the image recognition means executes an object posture recognition process for recognizing the posture of a predetermined object in the predicted image. 前記画像認識手段は、前記予測画像を基にシーンを認識するシーン認識処理を実行することを特徴とする請求項1から4のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 4, wherein the image recognition means executes a scene recognition process for recognizing a scene based on the predicted image. 前記パラメータ決定手段は、前記シーン認識処理で認識されたシーンに応じて、特定の撮像パラメータを制御するように決定することを特徴とする請求項5に記載の撮像装置。 The imaging device according to claim 5, wherein the parameter determining means determines to control a specific imaging parameter according to the scene recognized by the scene recognition process. 前記画像認識手段は、複数の異なる画像認識処理を実行することを特徴とする請求項1から6のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 6, wherein the image recognition means executes a plurality of different image recognition processes. 前記画像生成手段は、前記取得された少なくとも1枚の画像から、前記予測画像を生成することを特徴とする請求項1から7のいずれか1項に記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 7, wherein the image generating means generates the predicted image from at least one acquired image. 前記画像生成手段は、複数の予測画像を生成することを特徴とする請求項1から8のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 8, wherein the image generating means generates a plurality of predicted images. 前記画像生成手段は、ニューラルネットワークを利用して前記予測画像を生成することを特徴とする請求項1から9のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 9, wherein the image generation means generates the predicted image by using a neural network. 前記画像認識手段は、ニューラルネットワークを利用して前記画像認識処理を実行することを特徴とする請求項1から10のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 10, wherein the image recognition means executes the image recognition process by using a neural network. 前記パラメータ決定手段が決定する撮像パラメータは、露光パラメータ、フォーカスパラメータ、ダイナックレンジパラメータ、ゲインパラメータ、フレームレートパラメータ、撮像領域パラメータ、解像度パラメータの中の、一つまたは複数の撮像パラメータであることを特徴とする請求項1から11のいずれか1項に記載の撮像装置。 The imaging parameter determined by the parameter determining means is one or a plurality of imaging parameters among the exposure parameter, the focus parameter, the dynamic range parameter, the gain parameter, the frame rate parameter, the imaging area parameter, and the resolution parameter. The imaging device according to any one of claims 1 to 11. 前記パラメータ設定手段は、画像内の特定の領域ごとに前記撮像パラメータを設定することを特徴とする請求項1から12のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 12, wherein the parameter setting means sets the imaging parameter for each specific region in the image. 前記パラメータ設定手段は、画像の画素ごとに前記撮像パラメータを設定することを特徴とする請求項1から13のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 13, wherein the parameter setting means sets the imaging parameter for each pixel of an image. 前記取得された画像から動きベクトルを検出するベクトル検出手段を有し、
前記画像生成手段は、前記取得された画像と前記動きベクトルとを基に前記予測画像を生成することを特徴とする請求項1から14のいずれか1項に記載の撮像装置。
It has a vector detecting means for detecting a motion vector from the acquired image, and has
The imaging device according to any one of claims 1 to 14, wherein the image generating means generates the predicted image based on the acquired image and the motion vector.
撮像によって画像を取得する画像取得手段を制御する制御工程と、
前記取得された画像を基に予測画像を生成する画像生成工程と、
前記予測画像に対して画像認識を実行する画像認識工程と、
前記画像認識の結果に基づいて撮像パラメータを決定するパラメータ決定工程と、
前記決定した撮像パラメータを前記画像取得手段に対して設定するパラメータ設定工程と、
を有することを特徴とする撮像装置の制御方法。
A control process that controls an image acquisition means that acquires an image by imaging,
An image generation step of generating a predicted image based on the acquired image, and
An image recognition step of executing image recognition on the predicted image, and
A parameter determination step of determining imaging parameters based on the result of image recognition, and
A parameter setting step of setting the determined imaging parameters for the image acquisition means, and
A method for controlling an imaging device, which comprises.
コンピュータを、請求項1から15のいずれか1項に記載の撮像装置が有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each means included in the imaging device according to any one of claims 1 to 15.
JP2019185391A 2019-10-08 2019-10-08 Imaging device, method of controlling the imaging device, and program Active JP7401246B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019185391A JP7401246B2 (en) 2019-10-08 2019-10-08 Imaging device, method of controlling the imaging device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019185391A JP7401246B2 (en) 2019-10-08 2019-10-08 Imaging device, method of controlling the imaging device, and program

Publications (3)

Publication Number Publication Date
JP2021061546A true JP2021061546A (en) 2021-04-15
JP2021061546A5 JP2021061546A5 (en) 2022-10-17
JP7401246B2 JP7401246B2 (en) 2023-12-19

Family

ID=75380558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019185391A Active JP7401246B2 (en) 2019-10-08 2019-10-08 Imaging device, method of controlling the imaging device, and program

Country Status (1)

Country Link
JP (1) JP7401246B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114071024A (en) * 2021-11-26 2022-02-18 北京百度网讯科技有限公司 Image shooting method, neural network training method, device, equipment and medium
WO2023090067A1 (en) * 2021-11-17 2023-05-25 株式会社日立製作所 Image recognition system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333329A (en) * 2000-03-17 2001-11-30 Fuji Photo Film Co Ltd Image pickup device
JP2007181226A (en) * 2007-02-06 2007-07-12 Sharp Corp Moving image decoding apparatus
JP2008136039A (en) * 2006-11-29 2008-06-12 Fujifilm Corp Camera device, and photographing mode selection support method in the camera device
WO2009142003A1 (en) * 2008-05-20 2009-11-26 パナソニック株式会社 Image coding device and image coding method
JP2012155391A (en) * 2011-01-24 2012-08-16 Panasonic Corp Posture state estimation device and posture state estimation method
JP2019124539A (en) * 2018-01-15 2019-07-25 キヤノン株式会社 Information processing device, control method therefor, and program
WO2019159419A1 (en) * 2018-02-16 2019-08-22 パナソニックIpマネジメント株式会社 Processing method and processing device using this

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333329A (en) * 2000-03-17 2001-11-30 Fuji Photo Film Co Ltd Image pickup device
JP2008136039A (en) * 2006-11-29 2008-06-12 Fujifilm Corp Camera device, and photographing mode selection support method in the camera device
JP2007181226A (en) * 2007-02-06 2007-07-12 Sharp Corp Moving image decoding apparatus
WO2009142003A1 (en) * 2008-05-20 2009-11-26 パナソニック株式会社 Image coding device and image coding method
JP2012155391A (en) * 2011-01-24 2012-08-16 Panasonic Corp Posture state estimation device and posture state estimation method
JP2019124539A (en) * 2018-01-15 2019-07-25 キヤノン株式会社 Information processing device, control method therefor, and program
WO2019159419A1 (en) * 2018-02-16 2019-08-22 パナソニックIpマネジメント株式会社 Processing method and processing device using this

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090067A1 (en) * 2021-11-17 2023-05-25 株式会社日立製作所 Image recognition system
CN114071024A (en) * 2021-11-26 2022-02-18 北京百度网讯科技有限公司 Image shooting method, neural network training method, device, equipment and medium

Also Published As

Publication number Publication date
JP7401246B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
JP5284048B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US8988529B2 (en) Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
JP5704905B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5720275B2 (en) Imaging apparatus and imaging method
JP4974812B2 (en) Electronic camera
US10237488B2 (en) Image capturing apparatus and image capturing method
JP7401246B2 (en) Imaging device, method of controlling the imaging device, and program
JP2009111716A (en) Imaging apparatus, program and template generating method
US9489721B2 (en) Image processing apparatus, image processing method, and storage medium
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP5149861B2 (en) Intermediate image generation apparatus and operation control method thereof
JP2011166409A (en) Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method
JP2017098843A (en) Imaging device, object tracking method and program
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
KR20130098675A (en) Face detection processing circuit and image pick-up device including the same
JP2010079651A (en) Movement recognition device, method and program
JP6016546B2 (en) Imaging device, control method thereof, and control program
JP5213493B2 (en) Motion detection device
JP2005063036A (en) Object-tracking device
KR101879580B1 (en) Method and apparatus for calcurating vector of direction of feature point
JP5012656B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
KR20200047389A (en) Method and apparatus for capturing an image based motion information in the image
US11921816B2 (en) Information processing apparatus that specifies a subject and method, image capturing apparatus, and image capturing system
US20230065506A1 (en) Image processing apparatus, control method thereof, and image capturing apparatus
US20230360229A1 (en) Image processing apparatus, image capturing apparatus, control method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231207

R151 Written notification of patent or utility model registration

Ref document number: 7401246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151