JP2021061546A - Imaging apparatus, control method of the same, and program - Google Patents
Imaging apparatus, control method of the same, and program Download PDFInfo
- Publication number
- JP2021061546A JP2021061546A JP2019185391A JP2019185391A JP2021061546A JP 2021061546 A JP2021061546 A JP 2021061546A JP 2019185391 A JP2019185391 A JP 2019185391A JP 2019185391 A JP2019185391 A JP 2019185391A JP 2021061546 A JP2021061546 A JP 2021061546A
- Authority
- JP
- Japan
- Prior art keywords
- image
- parameter
- imaging
- recognition
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 163
- 238000000034 method Methods 0.000 title claims description 214
- 230000008569 process Effects 0.000 claims description 159
- 238000012545 processing Methods 0.000 claims description 68
- 238000013528 artificial neural network Methods 0.000 claims description 48
- 230000033001 locomotion Effects 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 20
- 230000009191 jumping Effects 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 210000000746 body region Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Studio Devices (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像時に用いられる撮像パラメータの制御技術に関する。 The present invention relates to a technique for controlling imaging parameters used during imaging.
撮像装置において、所望の画像を取得することを可能とする撮像パラメータを制御する技術として、画像に対して認識処理を実行し、得られた認識結果を基にして撮像パラメータを制御する技術が広く提案されている。特許文献1には、監視装置等のカメラが撮像した画像を用いた人物の顔認識結果を基に、その人物の顔を確認し易くするようにカメラの上下方向、水平方向、回転方向等の撮影方向、及び画角の少なくとも一つの撮像パラメータを決定する技術が開示されている。
As a technique for controlling an imaging parameter that makes it possible to acquire a desired image in an imaging device, there is a wide range of techniques for executing recognition processing on an image and controlling the imaging parameter based on the obtained recognition result. Proposed.
前述した画像認識結果に基づく撮像パラメータ制御技術の場合、認識処理を適用する対象となる画像は既に取得済みの画像である。このため、画像認識結果を基に撮像パラメータを制御した場合、当該撮像パラメータを反映した上で新たに取得した画像において、認識対象物の画像上の位置および画素レベルの輝度データは、既に変化している可能性が有る。この場合、顔画像のような所望の画像を取得するために制御した撮像パラメータの値は、その撮像パラメータを基に新たに撮像される画像に対して適当でない値となってしまってしまうことが有り得る。つまり、その撮像パラメータは、新たに撮像される画像に対して適合していない可能性がある。 In the case of the imaging parameter control technology based on the image recognition result described above, the image to which the recognition process is applied is an image that has already been acquired. Therefore, when the imaging parameters are controlled based on the image recognition result, the position on the image of the recognition target and the brightness data at the pixel level have already changed in the newly acquired image after reflecting the imaging parameters. There is a possibility that it is. In this case, the value of the imaging parameter controlled to acquire a desired image such as a face image may become an inappropriate value for an image newly imaged based on the imaging parameter. It is possible. That is, the imaging parameters may not be compatible with the newly captured image.
そこで、本発明は、撮像パラメータを基に撮像される画像に対して、より適合した撮像パラメータを決定可能にすることを目的とする。 Therefore, an object of the present invention is to make it possible to determine a more suitable imaging parameter for an image captured based on the imaging parameter.
本発明の撮像装置は、撮像によって画像を取得する画像取得手段と、前記取得された画像を基に予測画像を生成する画像生成手段と、前記予測画像に対して画像認識を実行する画像認識手段と、前記画像認識の結果に基づいて撮像パラメータを決定するパラメータ決定手段と、前記決定した撮像パラメータを前記画像取得手段に対して設定するパラメータ設定手段と、を有することを特徴とする。 The image pickup apparatus of the present invention includes an image acquisition means for acquiring an image by imaging, an image generation means for generating a predicted image based on the acquired image, and an image recognition means for executing image recognition on the predicted image. It is characterized by having a parameter determining means for determining an imaging parameter based on the result of the image recognition, and a parameter setting means for setting the determined imaging parameter with respect to the image acquiring means.
本発明によれば、撮像パラメータを基に撮像される画像に対して、より適合した撮像パラメータを決定することができる。 According to the present invention, it is possible to determine a more suitable imaging parameter for an image captured based on the imaging parameter.
以下、本発明の実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
<実施形態1>
まず、本発明に係る実施形態1について説明する。図1は、本実施形態に係る撮像装置の構成例を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.
<
First, the first embodiment according to the present invention will be described. FIG. 1 is a block diagram showing a configuration example of an imaging device according to the present embodiment.
図1に示すように、本実施形態の撮像装置は、画像センサ部10、画像生成部20、画像認識部30、パラメータ決定部40、パラメータ設定部50、RAM80、画像バス120、およびCPUバス170を有する。さらに撮像装置は、ブリッジ130、DMAC(Direct Memory Access Controller)70、CPU(Central Processing Unit)140、ROM150、及びRAM160を有している。画像センサ部10、画像生成部20、画像認識部30、パラメータ決定部40、パラメータ設定部50及びDMAC70は、画像バス120を介して互いに接続されている。またCPU140、ROM150及びRAM160は、CPUバス170を介して互いに接続されている。ブリッジ130は、画像バス120とCPUバス170との間のデータ転送を可能にする。
As shown in FIG. 1, the image pickup apparatus of this embodiment includes an
画像センサ部10は、光学系、撮像センサ、撮像センサを制御するドライバー回路、撮像センサにて取得された撮像信号をデジタル信号に変換するA/D変換回路、および、デジタル信号に変換された撮像信号を画像として現像する現像回路等を備えている。撮像センサは、例えばCMOS(Complementary Metal Oxide Semiconductor)センサからなる。
The
ここで、画像センサ部10は、撮像センサの動作特性を決定する撮像パラメータを制御する機能を有する。撮像パラメータを制御する機能は、画像センサ部10内の例えばドライバー回路が担っている。撮像パラメータは、露光パラメータ、フォーカスパラメータ、ダイナックレンジパラメータ、ゲインパラメータ、フレームレートパラメータ、撮像領域パラメータ、解像度パラメータ等からなる。露光パラメータは、撮像センサにおける露光時間等を制御するパラメータである。フォーカスパラメータは、撮像センサ上でフォーカス用の画素等の動作を制御するパラメータである。ゲインパラメータは、撮像センサにより撮像された信号のゲインを制御するパラメータである。フレームレートパラメータは、撮像センサにおける撮像時のフレームレートを制御するパラメータである。撮像領域パラメータは、撮像センサ上で撮像する領域を制御するパラメータである。解像度パラメータは、撮像センサの解像度を制御するパラメータである。撮像パラメータによる制御機能の具体例については後述する。
Here, the
画像生成部20は、画像センサ部10により取得された少なくとも1枚の画像データから、将来の画像として予測される予測画像を生成する機能を有する。画像生成部20における予測画像生成機能の詳細については後述する。
画像認識部30は、画像生成部20によって生成された予測画像に対して所定の画像認識処理を実行する機能を有する。なお実施形態1では、画像認識部30が画像認識処理として領域分割処理を実行する場合に関して説明する。画像認識部30における画像認識処理機能(領域分割処理機能)の詳細については後述する。
The
The
パラメータ決定部40は、画像認識部30による認識結果を基に、画像センサ部10の撮像センサを制御するための撮像パラメータの種類およびその値を決定する。パラメータ決定部40における撮像パラメータ決定機能の詳細については後述する。
パラメータ設定部50は、パラメータ決定部40により決定された撮像パラメータの値を、画像センサ部10に対して設定する。パラメータ設定部50における撮像パラメータ設定機能の詳細については後述する。
The
The
DMAC70は、画像センサ部10、画像生成部20、画像認識部30、パラメータ決定部40、パラメータ設定部50、及びCPUバス170との間のデータ転送を司る。
ROM(Read Only Memory)150は、CPU140が実行するプログラム、CPU140の動作を規定する命令、パラメータデータ、重み係数等を格納している。
CPU140は、ROM150から、それらプログラムや命令、パラメータデータ等を読み出しつつ、当該撮像装置の全体の動作を制御したり、様々な演算を行ったりする。なお、CPU140はブリッジ130を介して画像バス120上のRAM80にアクセスすることも可能である。
RAM160は、CPU140が撮像装置を制御等する際に、当該CPU140の作業領域として使用される。
The
The ROM (Read Only Memory) 150 stores a program executed by the
The
The
次に、図1に示した構成を有する撮像装置の動作について説明する。
図2は、本実施形態に係る撮像装置の動作を示すフローチャートである。なお図2に示した処理フロー全体の制御は、事前に設定されたプログラムに基づいてCPU140により実行される。
Next, the operation of the image pickup apparatus having the configuration shown in FIG. 1 will be described.
FIG. 2 is a flowchart showing the operation of the image pickup apparatus according to the present embodiment. The control of the entire processing flow shown in FIG. 2 is executed by the
先ずステップS180において、CPU140は、撮像処理の開始に先立ち、撮像装置における各種初期化処理を実行する。例えば、CPU140は、画像認識部30および画像生成部20の動作に必要な重み係数をROM150からRAM160に転送すると共に、画像認識部30および画像生成部20の動作を定義する為の各種レジスタ設定を行う。具体的には、CPU140は、画像認識部30および画像生成部20内の制御部に存在する複数のレジスタに所定の値を設定する。同様に、CPU140は、画像センサ部10に対しても動作に必要な値を書き込む。この時、画像センサ部10の撮像センサを制御するための撮像パラメータの値としては、事前に決定された所定の初期値またはユーザが設定した初期値が設定される。
First, in step S180, the
次にステップS181において、画像センサ部10は、撮像処理を実行して撮像画像データを取得する。
続いてステップS182において、画像生成部20は、画像センサ部10にて取得された画像データを内部のフレームバッファにフレーム単位で格納する。ここで、本実施形態の場合、画像生成部20は、5フレーム分の画像データが入力されてから、1フレーム分の予測画像の生成および出力を開始するものとする。このため、画像生成部20は、画像センサ部10からフレーム単位で画像データを取得し、ステップS183において予測画像の生成を開始するか判定する。画像生成部20は、5フレーム分の画像データを取得できた場合には、ステップS183において予測画像の生成を開始し、1フレーム分の予測画像を生成して出力する。一方、画像生成部20は、5フレーム分の画像データが取得できていない場合には、予測画像の生成を開始せずに、画像センサ部10によるステップS181の画像取得処理に戻す。なお本実施形態において、画像生成部20は、次のフレームの画像データを取得するまでの間に、既にフレームバッファに格納された画像データに対して、所定の処理(特徴抽出処理など、予測画像生成に必要な各種の処理)を実行するものとする。画像生成部20における予測画像生成処理の詳細については後述する。
Next, in step S181, the
Subsequently, in step S182, the
ステップS183で予測画像の生成処理が開始されて予測画像が生成されると、CPU140は、画像認識部30にて行われるステップS184に処理を進める。
ステップS184に進むと、画像認識部30は、画像生成部20で生成された予測画像を用いた画像認識処理を行う。本実施形態の場合、画像認識部30は、画像認識処理を実行し、画像生成部20で生成された予測画像を複数の領域に分割した分割領域の単位で画像認識結果を出力する。そして、画像認識部30は、画像認識処理の結果として、画像(予測画像)上における、分割領域の座標値(画像上の画素の位置を示す座標値)を出力する。
When the prediction image generation process is started in step S183 and the prediction image is generated, the
Proceeding to step S184, the
次にステップS185の撮像パラメータ決定処理として、パラメータ決定部40は、画像センサ部10の動作特性を決定する前述した撮像パラメータの値を決定する。本実施形態の場合、パラメータ決定部40は、ステップS184の画像認識処理による認識結果として算出された、画像上における分割領域の座標値の情報と、ステップS182の画像生成処理で生成された予測画像とに基づいて、撮像パラメータの値を決定する。撮像パラメータ値の決定方法の具体例については後述する。
Next, as the image pickup parameter determination process in step S185, the
次にステップS186の撮像パラメータ設定処理として、パラメータ設定部50は、ステップS185で決定された撮像パラメータの値を、画像センサ部10に対して設定する。
ステップS186による撮像パラメータの設定が完了すると、CPU140は、ステップS187において終了通知の発行(例えばユーザによる終了指示に基づく、CPU140に対する割り込み信号)を確認する。CPU140は、終了通知が発行されていない場合には撮像装置の処理をステップS181の画像取得処理に戻して、ステップS181以降の処理を継続させる。一方、CPU140は、終了通知の発行を確認すると、図2のフローチャートの処理を終了する。
Next, as the image pickup parameter setting process in step S186, the
When the setting of the imaging parameter in step S186 is completed, the
なお前述の説明では、画像生成部20は、5フレーム分の画像データが入力されてから、1フレーム分の予測画像の出力を開始するものとしたが、この例に限定されるものではない。例えば、画像生成部20は、過去の任意のnフレーム分の画像データが入力されてから1フレーム分の予測画像の出力を開始するものであっても良い。この場合の過去の任意のnフレーム分の"n"は1以上の値である。例えば"n"が1である場合、画像生成部20は過去の1フレーム分の画像データを基に、予測画像を生成することになる。また本実施形態において、画像生成部20は、1フレーム分の予測画像を出力するものとしたが、複数フレーム分の予測画像を生成して出力するものであっても良い。複数フレーム分の予測画像は、時系列順の複数のフレームの予測画像であっても良いし、同フレーム時間に相当する複数の予測画像であっても良い。同フレーム時間に相当する複数の予測画像は、例えば撮像で取得された画像から予測される確率順(例えば予測される確率が高い順)の複数パターンの予測画像であっても良い。
In the above description, the
次に、前述した画像生成部20で実行される画像生成処理に関して、図3を用いて詳細に説明する。図3は、予測画像を生成する画像生成処理を実現するニューラルネットワーク(以下、NNと表記する)の構成を模式的に示した図である。
なお、本実施形態で用いるNN(ニューラルネットワーク)に関しては、下記の参考文献1において詳細に開示されているものを適用可能であり、画像生成部20は、当該NNを適用して、複数フレームの画像データを基に予測画像を生成する機能を有する。本実施形態では、画像生成処理の実現方法として、参考文献1に開示されている手法を適用することを想定しているが、この手法に限定されるものではない。例えば下記の参考文献2に開示されるような手法が用いられてもよい。また本実施形態における画像生成処理の実現方法は、それら参考文献1や参考文献2に開示された手法だけでなく、その他の手法を用いるものであっても構わない。
Next, the image generation process executed by the
As for the NN (neural network) used in the present embodiment, the one disclosed in detail in
参考文献1:Xingjian Shi, Zhourong Chen, Hao Wang, Dit-Yan Yeung, "Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting", arXiv 2015 Reference 1: Xingjian Shi, Zhourong Chen, Hao Wang, Dit-Yan Yeung, "Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting", arXiv 2015
参考文献2:William Lotter, Gabriel Kreiman, David Cox, "Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning", arXiv 2017 Reference 2: William Lotter, Gabriel Kreiman, David Cox, "Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning", arXiv 2017
画像生成部20は、画像センサ部10から入力された画像データXtを、内部のフレームバッファに一旦格納した後、図3に示すように、畳み込みLSTMモジュールに入力する。畳み込みLSTMモジュールは、時系列データに対して、時系列情報を含んだ処理を実行するNNである。畳み込みLSTMモジュールは、広く利用されているLSTM(long short-term memory)を時系列画像データに拡張したものである。前述の参考文献1には、畳み込みLSTMに関して詳細に説明されている。
The image generation unit 20 temporarily stores the image data X t input from the
畳み込みLSTMにおける処理は、以下の式(1)で表される。前述したように、畳み込みLSTMは、時系列画像データを使用して事前に学習することにより、所望の出力を得ることが可能なNNある。本実施形態においては、式(1)に基づいて、過去の5フレーム分の時系列画像データX0〜X4から次のフレームの予測画像X5を生成するように、事前に学習が行われる。 The processing in the convolutional LSTM is represented by the following equation (1). As described above, the convolutional LSTM is an NN capable of obtaining a desired output by learning in advance using time series image data. In the present embodiment, learning is performed in advance so as to generate the predicted image X 5 of the next frame from the time series image data X 0 to X 4 for the past 5 frames based on the equation (1). ..
ここで、式(1)中の各記号が示す内容は以下の通りである。なお、アダマール積については式(1)中に記載している。
X:入力データ
C:セル出力データ
H:隠れ層の状態
i:入力ゲート
f:忘却ゲート
o:出力ゲート
t:時間(フレーム)
Wxo:入力荷重マトリクス(出力ゲート)
Who:状態荷重マトリクス(出力ゲート)
Wco:セル出力荷重マトリクス(出力ゲート)
bo:バイアス(出力ゲート)
Wxc:入力荷重マトリクス(セル出力)
Whc:状態荷重マトリクス(セル出力)
bc:バイアス(セル出力)
Wxf:入力荷重マトリクス(忘却ゲート)
Whf:状態荷重マトリクス(忘却ゲート)
Wcf:セル出力荷重マトリクス(忘却ゲート)
bf:バイアス(忘却ゲート)
Wxi:入力荷重マトリクス(入力ゲート)
Whi:状態荷重マトリクス(入力ゲート)
Wci:セル出力荷重マトリクス(入力ゲート)
bi:バイアス(入力ゲート)
*:畳み込み演算
Here, the contents indicated by each symbol in the equation (1) are as follows. The Hadamard product is described in equation (1).
X: Input data C: Cell output data H: State of hidden layer i: Input gate f: Oblivion gate o: Output gate t: Time (frame)
W xo : Input load matrix (output gate)
W ho : State load matrix (output gate)
W co : Cell output load matrix (output gate)
bo : Bias (output gate)
W xc : Input load matrix (cell output)
W hc : State load matrix (cell output)
b c : Bias (cell output)
W xf : Input load matrix (forgetting gate)
W hf : State load matrix (forgetting gate)
W cf : Cell output load matrix (forgetting gate)
b f : Bias (forgetting gate)
W xi : Input load matrix (input gate)
W hi : State load matrix (input gate)
W ci : Cell output load matrix (input gate)
b i: bias (input gate)
*: Convolution operation
本実施形態の画像生成部20は、前述したように畳み込みLSTMを用いて構成されているものとしたが、これに限るものではない。予測画像を生成する手法に関しては、前述の手法以外にも非特許文献2など様々な手法が提案されており、他の手法が用いられても構わない。
The
図3に示したNNの構成において、畳み込みLSTMは、過去の5フレーム分の画像を基にして1フレーム分の予測画像を出力する。なお図3の例においても、画像生成処理として、過去の任意のnフレーム分の画像を基にして1レーム分の予測画像を出力するものであっても良いし、複数フレーム分の予測画像を出力するものであっても良い。畳み込みLSTMによって生成された画像は、一旦フレームバッファに格納され、図2におけるステップS184の画像認識処理に入力される。 In the NN configuration shown in FIG. 3, the convolutional LSTM outputs a predicted image for one frame based on the images for the past five frames. In the example of FIG. 3, as the image generation process, a predicted image for one frame may be output based on an image for an arbitrary n frames in the past, or a predicted image for a plurality of frames may be output. It may be output. The image generated by the convolutional LSTM is temporarily stored in the frame buffer and input to the image recognition process in step S184 in FIG.
次に、前述した画像認識部30で実行されるステップS184の画像認識処理に関して、図4を用いて詳細に説明する。図4は、入力された予測画像に対して、所定の画像認識処理を実現するNNの構成例を模式的に示した図である。
図4に示すNNは、階層型畳み込みNN(ニューラルネットワーク)モジュール190と階層型逆畳み込みNNモジュール191とで構成され、各層は畳み込み演算素子401〜408により構成されている。この図4に示したようなNNに関しては、下記の参考文献3に詳細に開示されているものである。画像認識部30は、図4のようなNNにより、入力された予測画像データに対して、画像内の物体毎の画像認識処理(認識結果として分割領域を得る処理)を実行する機能を有する。
Next, the image recognition process of step S184 executed by the
The NN shown in FIG. 4 is composed of a hierarchical convolution NN (neural network)
参考文献3:Hyeonwoo Noh, Seunghoon Hong, Bohyung Han, "Learning Deconvolution Network for Semantic Segmentation", ICCV 2015 Reference 3: Hyeonwoo Noh, Seunghoon Hong, Bohyung Han, "Learning Deconvolution Network for Semantic Segmentation", ICCV 2015
画像認識部30は、入力された予測画像データを内部のフレームバッファに一旦格納した後、図4に示す階層型畳み込みNNモジュール190に入力し、更に階層型逆畳み込みNNモジュール191に入力する。階層型畳み込みNNモジュール190と階層型逆畳み込みNNモジュール191とから構成されるNNは、画像処理に広く利用されている。特に本実施形態のように、領域分割が適用される例は、参考文献3において詳細に説明されている。
The
階層型畳み込みNNモジュール190における処理は、以下の式(2)で表される。
The process in the hierarchical
ここで式(2)中の各記号が示す内容は以下の通りである。
x:入力データ
y:出力データ
w:畳み込みフィルタ
v:畳み込みフィルタの高さ
h:畳み込みフィルタの幅
m:前段層特徴面インデックス
n:後段層特徴面インデックス
i:前段層演算位置y座標
j:前段層演算位置x座標
i':前段層演算位置y座標
j':後段層演算位置x座標
k:畳み込みフィルタy座標
l(t):畳み込みフィルタx座標
Here, the contents indicated by each symbol in the equation (2) are as follows.
x: Input data y: Output data w: Convolution filter v: Convolution filter height h: Convolution filter width m: Front layer feature surface index n: Rear layer feature surface index i: Front layer calculation position y coordinates j: Front stage Layer calculation position x coordinates i': Previous layer calculation position y coordinates j': Rear layer calculation position x coordinates k: Convolution filter y coordinates l (t): Convolution filter x coordinates
また階層型逆畳み込みNNモジュール191は、式(3)で表される。
The hierarchical
ここで式(3)中の各記号が示す内容は以下の通りである。
x:入力データ(前段層特徴面にゼロ値を挿入して拡大したデータ)
y:出力データ
w:逆畳み込みフィルタ
v:逆畳み込みフィルタの高さ
h:逆畳み込みフィルタの幅
m:前段層特徴面インデックス
n:後段層特徴面インデックス
i:前段層演算位置y座標
j:前段層演算位置x座標
i':前段層演算位置y座標
j':後段層演算位置x座標
k:逆畳み込みフィルタy座標
l(t):逆畳み込みフィルタx座標
Here, the contents indicated by each symbol in the equation (3) are as follows.
x: Input data (data enlarged by inserting a zero value in the feature plane of the previous layer)
y: Output data w: Deconvolution filter v: Deconvolution filter height h: Deconvolution filter width m: Front layer feature surface index n: Rear layer feature surface index i: Front layer calculation position y coordinates j: Front layer Calculation position x coordinates i': Previous layer calculation position y coordinates j': Rear layer calculation position x coordinates k: Deconvolution filter y coordinates l (t): Deconvolution filter x coordinates
本実施形態では、これら階層型畳み込みNNモジュール190と階層型逆畳み込みNNモジュール191から構成されるNNに対し、領域分割に関する教師データを有する画像データを用いた事前学習が行われることにより、所望の出力を得ることが可能となる。学習処理に関しては、一般的な学習手法を適用することが可能であり、詳細な学習手法に関する説明は省略する。
In the present embodiment, a desired NN composed of the hierarchical
なお本実施形態における画像認識部30は、前述したように階層型畳み込みNNモジュール190と階層型逆畳み込みNNモジュール191とから構成されるNNを用いて構成するものとしたが、この例に限られるものではない。領域分割を伴う画像認識処理を実現する手法に関しては、これ以外にも参考文献3を含む様々な手法が提案されており、その他の手法を用いたものであっても構わない。
The
前述した図2のステップS184の画像認識処理において、画像認識部30は、入力された予測画像に対して領域分割処理を実行し、予測画像内の物体毎に定義される分割領域を認識結果として算出する処理を行う。具体的には、画像認識部30は、図5に示すように、予測画像500の中に含まれる物体の各領域の境界線510に相当する画素の座標を出力する。
In the image recognition process of step S184 of FIG. 2 described above, the
次に、前述したパラメータ決定部40で実行されるステップS185の撮像パラメータ決定処理に関して説明する。
パラメータ決定部40は、まず、予測画像内の物体毎に定義された領域情報と、予想画像のデータとを基にして、図5に示す予測画像500の中の各領域内の輝度値の平均値を算出する。
Next, the imaging parameter determination process of step S185 executed by the
First, the
ここで撮像パラメータとして例えば露光パラメータを決定する場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切な露光時間の値をLUT(ルックアップテーブル)として保持している。パラメータ決定部40は、このLUTを用い、算出された輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎の露光時間を決める露光パラメータを決定する。
Here, when, for example, an exposure parameter is determined as an imaging parameter, the
また撮像パラメータとして例えばダイナミックレンジパラメータを決定する場合、パラメータ決定部40は、前述のように算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎のダイナミックレンジを決定する。この場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切なダイナミックレンジの値をLUTとして保持している。そして、パラメータ決定部40は、そのLUTを用い、算出された輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎のダイナミックレンジを決めるダイナミックレンジパラメータを決定する。
When, for example, a dynamic range parameter is determined as an image pickup parameter, the
また撮像パラメータとして例えばゲインパラメータを決定する場合、パラメータ決定部40は、前述のように算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの出力値に対して各領域に対応する画素毎にゲイン値を決定する。この場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切なゲイン値をLUTとして保持している。そして、パラメータ決定部40は、そのLUTを用い、算出された輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素毎にゲイン値を決めるゲインパラメータを決定する。
Further, when determining, for example, a gain parameter as an imaging parameter, the
その後、ステップS185の撮像パラメータ決定処理において、パラメータ決定部40は、前述したように決定した撮像パラメータをステップS186の撮像パラメータ設定処理に対して出力する。
なお、フォーカスパラメータ、フレームレートパラメータ、撮像領域パラメータ、解像度パラメータについては後述する他の実施形態において説明する。
After that, in the image pickup parameter determination process of step S185, the
The focus parameter, frame rate parameter, imaging area parameter, and resolution parameter will be described in other embodiments described later.
また本実施形態では、前述したように分割領域毎に撮像パラメータを決定する例を挙げて説明したが、この例に限定されるものではない。撮像パラメータ決定処理は、特定の領域より決定された撮像パラメータを全領域に対して使用する撮像パラメータとして決定する処理でであっても良い。例えば図5において、予測画像500の中の自動車の領域から決定された撮像パラメータを全領域に対する撮像パラメータとするものであっても良い。また、前述した分割領域毎に撮像パラメータを決定する場合と、全領域について使用する撮像パラメータを決定する場合とを切り替えても良い。例えば、所定のフレーム周期のみで全領域について使用する撮像パラメータを決定し、それ以外では分割領域毎に撮像パラメータを決定しても良い。
Further, in the present embodiment, as described above, an example of determining the imaging parameter for each divided region has been described, but the present embodiment is not limited to this example. The imaging parameter determination process may be a process of determining an imaging parameter determined from a specific region as an imaging parameter to be used for the entire region. For example, in FIG. 5, the imaging parameter determined from the region of the automobile in the predicted
次に、パラメータ設定部50で実行されるステップS186の撮像パラメータ設定処理に関して説明する。
パラメータ設定部50は、パラメータ決定部40から入力された撮像パラメータを、画像センサ部10に対して設定するような撮像パラメータ設定機能を有する。
撮像パラメータとして露光パラメータが入力された場合、パラメータ設定部50は、露光パラメータによって領域毎に決定された露光時間を基にして、ドライバー回路の、撮像センサの画素毎の露光時間制御に関わるレジスタに、露光時間を設定する。
Next, the imaging parameter setting process of step S186 executed by the
The
When an exposure parameter is input as an imaging parameter, the
またダイナミックレンジパラメータが入力された場合、パラメータ設定部50は、領域毎に決定されたダイナミックレンジを基にして、ドライバー回路の、絶像センサの画素毎のダイナミックレンジ制御に関わるレジスタに、ダイナミックレンジの値を設定する。
When a dynamic range parameter is input, the
またゲインパラメータが入力された場合、パラメータ設定部50は、領域毎に決定されたゲイン値を基にして、ドライバー回路の、画像センサの画素毎のゲイン値制御に関わるレジスタに、ゲイン値を設定する。
When a gain parameter is input, the
そして画像センサ部10は、前述したようにレジスタに設定された値(露光時間を示す値、ダイナミックレンジの値、およびゲイン値)に基づいて、ドライバー回路が撮像センサの動作を制御する。
なお本実施形態における撮像センサは、画素毎に露光時間、ダイナミックレンジ、およびゲイン値を制御可能な構成を有しており、それら露光時間、ダイナミックレンジ、およびゲイン値の設定を行うことができるとする。すなわち本実施形態における撮像センサは、画素毎にフォトダイオードのリセットタイミングを設定可能な構成を取ることにより、画素毎に露光時間を制御することが可能である。また、撮像センサは、画素毎に独立したA/D変換回路を構成することにより、ダイナミックレンジおよびゲイン値を画素毎に制御することが可能である。
Then, in the
The image sensor in the present embodiment has a configuration in which the exposure time, dynamic range, and gain value can be controlled for each pixel, and the exposure time, dynamic range, and gain value can be set. To do. That is, the image sensor in the present embodiment can control the exposure time for each pixel by adopting a configuration in which the reset timing of the photodiode can be set for each pixel. Further, the image sensor can control the dynamic range and the gain value for each pixel by forming an independent A / D conversion circuit for each pixel.
また撮像パラメータ決定処理において、例えば特定の領域より決定された撮像パラメータを全領域に対して使用する撮像パラメータとして決定された場合、パラメータ設定部50は、入力された撮像パラメータを撮像センサの全領域に対して設定する。具体的には、ドライバー回路の、撮像センサの全領域の制御に関わるレジスタに、それぞれの撮像パラメータを設定する。
Further, in the imaging parameter determination process, for example, when the imaging parameter determined from a specific region is determined as the imaging parameter to be used for the entire region, the
以上説明したように、本実施形態の撮像装置は、過去の撮像画像から予測画像を生成し、その予測画像に対する画像認識処理結果を基にして撮像パラメータを制御する。これにより、実施形態の撮像装置によれば、過去の画像から推測した画像認識処理結果を基にして、将来の画像に対する撮像パラメータを制御する場合に生じ得る、撮像パラメータの不適合を防止することができる。すなわち本実施形態によれば、将来の画像に適合した撮像パラメータの制御を実現することが可能である。例えば、画像内の物体毎の領域が画像フレーム毎に変化する場合、過去の画像から得られる物体毎の領域は、将来の画像においてずれてしまう可能性があり、結果として撮像パラメータの調整領域もずれてしまうことが有り得る。これに対し、本実施形態の撮像装置では、予測画像の画像認識処理結果を基にして物体毎の領域の撮像パラメータを決定するため、画像内で物体毎の領域が画像フレーム毎に変化する場合でも、より適切な撮像パラメータを設定することが可能となる。 As described above, the imaging device of the present embodiment generates a predicted image from the past captured images, and controls the imaging parameters based on the image recognition processing result for the predicted image. Thereby, according to the image pickup apparatus of the embodiment, it is possible to prevent nonconformity of the image pickup parameters that may occur when the image pickup parameters for the future image are controlled based on the image recognition processing result estimated from the past image. it can. That is, according to the present embodiment, it is possible to realize control of imaging parameters suitable for future images. For example, if the area of each object in the image changes for each image frame, the area of each object obtained from the past image may shift in the future image, and as a result, the adjustment area of the imaging parameter also becomes. It is possible that it will shift. On the other hand, in the imaging device of the present embodiment, since the imaging parameter of the region for each object is determined based on the image recognition processing result of the predicted image, the region for each object in the image changes for each image frame. However, it is possible to set more appropriate imaging parameters.
なお前述したように、実施形態1では、予測画像に対する認識結果を基にして撮像センサの撮像パラメータを制御するが、予測画像の生成方法、予測画像に対する認識処理手法、認識処理結果に基づく撮像パラメータの決定および設定手法に特に限定はない。特に、認識処理結果に基づく撮像パラメータの決定および設定手法に関しては、下記の参考文献4のように認識処理結果に基づく手法が多数開示されており、それらは本実施形態における予測画像に対する認識処理結果に基づく手法に対しても同様に適用可能である。 As described above, in the first embodiment, the imaging parameters of the imaging sensor are controlled based on the recognition result for the predicted image, but the method for generating the predicted image, the recognition processing method for the predicted image, and the imaging parameters based on the recognition processing result. There is no particular limitation on the determination and setting method of. In particular, regarding the determination and setting method of the imaging parameter based on the recognition processing result, many methods based on the recognition processing result are disclosed as in Reference 4 below, and these are the recognition processing results for the predicted image in the present embodiment. It is also applicable to the method based on.
参考文献4:特開2011−130031号公報 Reference 4: Japanese Patent Application Laid-Open No. 2011-130031
<実施形態2>
次に、実施形態2について説明する。
実施形態1では、画像認識処理の結果を基に分割領域(又は画像全体の領域)に対する撮像パラメータを設定する例を挙げた。これに対し、実施形態2の場合は、図1に示した画像認識部30が、画像認識処理として物体認識処理を実行する点と、パラメータ決定部40が、物体認識処理で決定された認識対象物体の領域に対して所定の撮像パラメータを決定する点が、実施形態1と相違する。以下、実施形態1と相違する部分についてのみ説明を行い、その他の部分に関しては実施形態1と同様であるため説明を省略する。
<Embodiment 2>
Next, the second embodiment will be described.
In the first embodiment, an example of setting the imaging parameters for the divided region (or the region of the entire image) based on the result of the image recognition processing has been given. On the other hand, in the case of the second embodiment, the
本実施形態の撮像装置において、図1の画像認識部30は、画像生成部20で生成された予測画像から、事前に設定された特定の物体を認識するような画像認識処理機能を有する。事前に設定された特定物体は、本実施形態では人体とするが、その他、自動車、自転車または信号機等、事前に学習した任意の物体を認識することが可能である。
In the image pickup apparatus of the present embodiment, the
図6は、本実施形態における撮像装置の動作を示すフローチャートである。
図6において、ステップS180からステップS183の処理は、前述した実施形態1において述べた処理と同様であるため、それらの詳細な説明は省略する。
FIG. 6 is a flowchart showing the operation of the image pickup apparatus according to the present embodiment.
In FIG. 6, since the processes of steps S180 to S183 are the same as the processes described in the above-described first embodiment, detailed description thereof will be omitted.
実施形態2の場合、ステップS183で予測画像の生成処理が開始されて予測画像が生成されると、CPU140は、画像認識部30にて行われるステップS188に処理を進める。
ステップS188の物体認識処理に進むと、画像認識部30は、画像生成部20にて生成された予測画像に対して、人体の認識処理を実行する。そして、画像認識部30は、画像認識処理の結果として、認識された人体に対して推定された矩形領域の画像上の座標値(左上画素位置と右下画素位置)を出力する。予測画像から人体を認識する処理の詳細は後述する。ステップS188の処理後は、ステップS185に進む。
In the case of the second embodiment, when the prediction image generation process is started in step S183 and the prediction image is generated, the
Proceeding to the object recognition process in step S188, the
ステップS185の撮像パラメータ決定処理に進むと、パラメータ決定部40は、ステップS188の物体認識処理で得られた人体の矩形領域の座標値の情報と、ステップS182の画像生成処理で生成された予測画像とを基に、撮像パラメータ値を決定する。撮像パラメータ値の決定方法の詳細は後述する。
Proceeding to the imaging parameter determination process of step S185, the
続いて、実施形態2の画像認識部30で実行されるステップS188の画像認識処理に関して、図7を用いて詳細に説明する。図7は、入力された予測画像(X)に対して、所定の画像認識処理を実現するNNの構成例を模式的に示した図である。
Subsequently, the image recognition process of step S188 executed by the
本実施形態における画像認識処理は、認識処理技術として広く応用されている階層型畳み込みNNにより構成されており、前述の実施形態1で説明したNNに含まれる図4の階層型畳み込みNNモジュール190と同様の演算処理を実行する。階層型畳み込みNNモジュールの各層は畳み込み演算素子701〜704により構成されている。
The image recognition process in the present embodiment is composed of a hierarchical convolutional NN widely applied as a recognition processing technique, and includes the hierarchical
画像認識部30は、入力された予測画像データを内部のフレームバッファに一旦格納した後、階層型畳み込みNNモジュールに入力し、人体を認識する処理を実行する。ここで、階層型畳み込みNNモジュールにおける処理は、一般的な物体認識処理と同様に、画像内の所定領域を順に走査することにより実行される。
The
階層型畳み込みNNにおける処理は、実施形態1における階層型畳み込みNNにおける処理と同様に式(2)で表される。実施形態2の場合、人体の画像上の位置およびサイズに関する教師データを有する画像データを使用して事前に学習することにより、画像中の人体を認識することが可能である。 The process in the hierarchical convolutional NN is represented by the equation (2) in the same manner as the process in the hierarchical convolutional NN in the first embodiment. In the case of the second embodiment, it is possible to recognize the human body in the image by learning in advance using the image data having the teacher data regarding the position and size of the human body on the image.
なお本実施形態における画像認識部30は、階層型畳み込みNNモジュールを用いて構成するものとしたがこれに限るものではなく、特定の物体を認識する手法は、これ以外にも様々な手法が提案されており、他の手法が用いられても良い。
The
図6のステップS188の物体認識処理において、画像認識部30は、入力された予測画像に対して人体を認識する処理を実行し、その予測画像内の人体位置・サイズを推定する。具体的には、画像認識部30は、図8に示すように、予測画像800から、認識された人体に対して推定された矩形領域810の画像上の座標値(左上画素位置811と右下画素位置812)を出力する。
In the object recognition process of step S188 of FIG. 6, the
また、画像認識部30は、ステップS188の画像認識処理として、人体認識処理に加えて、さらに人体姿勢認識処理を実行することも可能である。人体姿勢認識処理は、前述した階層型畳み込みNNモジュールによって演算することが可能である。この場合、ステップS188の物体認識処理において、画像認識部30は、前述のように推定した矩形領域の画像上の座標値に加えて、図9に示すように予測画像900から人体各部位の位置910〜915を示す各座標値を算出する。図9の例では、予測画像900の人体の頭部中心位置911、胴体中心位置910、左手位置912、右手位置913、左足位置914、右足位置915のぞれぞれの座標値が出力される。なお、認識する対象は人体の姿勢に限るものではなく、任意の物体の姿勢を認識する物体姿勢認識処理が実行されても良い。例えば自動車の姿勢を認識する場合は、ヘッドランプ位置、タイヤ位置、ルーフ位置等の各部位を認識することができる。
Further, the
次に、実施形態2においてパラメータ決定部40で実行されるステップS185の撮像パラメータ決定処理に関して説明する。
パラメータ決定部40は、図8の予測画像800内の人体に関して推定された矩形領域810の画像上の座標値(左上画素位置811と右下画素位置812)の情報と、予測画像800のデータを基にして、各領域内の輝度値の平均値を算出する。
Next, the imaging parameter determination process of step S185 executed by the
The
露光パラメータを決定する場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切な露光時間をLUTとして保持している。そして、パラメータ決定部40は、そのLUTを用い、算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎の露光時間を決めることで露光パラメータを決定する。
When determining the exposure parameter, the
またダイナミックレンジパラメータを決定する場合、パラメータ決定部40は、前述のように算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素回路毎のダイナミックレンジを決定する。この場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切なダイナミックレンジをLUTとして保持している。そして、パラメータ決定部40は、そのLUTを用い、算出した輝度値の平均値を基にして、画像センサ部10の画像センサの各領域に対応する画素回路毎のダイナミックレンジを決めることでダイナミックレンジパラメータを決定する。
When determining the dynamic range parameter, the
またゲインパラメータを決定する場合、パラメータ決定部40は、前述のように算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの出力値に対して、各領域に対応する画素毎にゲイン値を決定する。この場合、パラメータ決定部40は、各領域内の輝度値の平均値のレンジに対応して事前に決定した適切なゲイン値をLUTとして保持している。パラメータ決定部40は、そのLUTを用い、算出した輝度値の平均値を基にして、画像センサ部10の撮像センサの各領域に対応する画素毎にゲイン値を決めることでゲインパラメータを決定する。
When determining the gain parameter, the
実施形態2においても、パラメータ決定部40は、前述したようにして決定された各撮像パラメータを、ステップS186の撮像パラメータ設定処理として、パラメータ設定部50に送る。
Also in the second embodiment, the
また実施形態2の場合、パラメータ決定部40は、人体に対して推定された矩形領域の画像上の座標値(左上画素位置と右下画素位置)を基に、撮像パラメータとして、撮像領域パラメータ(撮像センサで撮像する領域)を決定することも出来る。そして、パラメータ設定部50によって撮像領域パラメータが設定された場合、画像センサ部10は、後述するように、その撮像領域パラメータにより定義される領域の画像のみを取得することになる。
Further, in the case of the second embodiment, the
また実施形態2において、パラメータ決定部40は、人体に対して推定された矩形領域の画像上の座標値(左上画素位置と右下画素位置)を基にして、フォーカスを合わせる画素位置を算出することもできる。例えば、パラメータ決定部40は、人体頭部の中心位置、例えば図10に示すように人体に対して推定された矩形領域1011の上部から1/10で且つ左右の中心位置1010を算出し、それを基に、フォーカス位置を決めるフォーカスパラメータを決定する。そして、パラメータ設定部50によってフォーカスパラメータが設定された場合、画像センサ部10は、そのフォーカスパラメータにより設定されるフォーカス位置でフォーカスを合わせを行うことが可能となる。
Further, in the second embodiment, the
実施形態2において、画像認識部30は、人体認識処理に加えてさらに人体姿勢認識処理を実行した場合、事前に設定された部位、またはユーザに指定された部位に基づいて、入力された人体各部位の座標値の中から一つを選択することもできる。この場合、パラメータ決定部40は、事前に設定された部位、またはユーザに指定された部位(例えば人体頭部中心位置)を、フォーカス位置を決めるフォーカスパラメータとして決定することも可能である。
In the second embodiment, when the
実施形態2の場合も、パラメータ設定部50は、図6のステップS186の撮像パラメータ設定処理として、パラメータ決定部40にて決定された撮像パラメータを、画像センサ部10に対して設定する。
Also in the case of the second embodiment, the
例えば撮像領域パラメータを設定する場合、パラメータ設定部50は、パラメータ決定部40にて決定された撮像領域パラメータに基づき、画像センサ部10のドライバー回路の、撮像センサの撮像領域制御に関わるレジスタに、撮像領域(ROI)を設定する。
For example, when setting the image pickup area parameter, the
またフォーカスパラメータを設定する場合、パラメータ設定部50は、パラメータ決定部40にて決定されたフォーカスパラメータに基づき、ドライバー回路の撮像センサのオートフォーカス制御に関わるレジスタに、フォーカスパラメータを設定する。
なお、パラメータ設定部50で実行される、これら以外の撮像パラメータ設定処理に関しては、前述の実施形態1と同様であるため、それらの説明は省略する。
When setting the focus parameter, the
The other imaging parameter setting processes executed by the
そして画像センサ部10では、前述の実施形態1と同様に、レジスタに設定された値に基づいて、ドライバー回路が撮像センサの動作を制御する。
なお、本実施形態における撮像センサは、前述同様に、画素毎に露光時間、ダイナミックレンジ、およびゲイン値を制御することが可能な構成を有するものとする。また、本実施形態における撮像センサは、設定された撮像領域に基づき、当該領域のみ撮像する機能を有する。例えば図11に示すように、実施形態2おける撮像センサは、ドライバー回路の制御に基づき、予測画像から認識した人体領域(図11中の黒色矩形で囲まれた領域1110)のみを撮像し、画像データとして取得する。また本実施形態の撮像センサは、設定されたフォーカス位置に基づき、光学系の制御を含んだオートフォーカス処理を実現する機能を有する。
Then, in the
The image sensor in the present embodiment has a configuration capable of controlling the exposure time, the dynamic range, and the gain value for each pixel, as described above. Further, the image sensor in the present embodiment has a function of imaging only the area based on the set image area. For example, as shown in FIG. 11, the image sensor in the second embodiment captures only the human body region (
以上説明したように、実施形態2の撮像装置は、過去の画像から生成した予測画像に対する画像認識結果を基に、将来の画像に対する撮像パラメータを制御する。これにより、前述の実施形態1同様に、過去の画像における認識結果を基にして将来の画像に対する撮像パラメータを制御する場合に生じ得る、撮像パラメータの不適合を防止することができる。実施形態2のように人物の画像認識を行う場合、人体等の物体の位置・サイズが画像フレーム毎に変化すると、過去の画像から推測される人体等の領域は、将来の画像においてずれてしまう可能性があり、撮像パラメータの調整範囲もずれる可能性がある。また、画像中の人体等のサイズおよび姿勢が変化する場合は、過去の画像から推定した領域に基づく特定部位の位置、および物体の姿勢に基づく特定部位の位置も、将来の画像においてずれてしまう可能性がある。これに対し、本実施形態では、予測画像を基にして将来の画像における人体等の領域および姿勢を推定できるため、人体等の位置・サイズおよび姿勢が画像フレーム毎に変化する場合でも、領域および姿勢に対して適切な撮像パラメータを設定可能となる。 As described above, the image pickup apparatus of the second embodiment controls the image pickup parameters for the future image based on the image recognition result for the predicted image generated from the past image. Thereby, as in the above-described first embodiment, it is possible to prevent the nonconformity of the imaging parameters that may occur when the imaging parameters for the future image are controlled based on the recognition result in the past image. In the case of performing image recognition of a person as in the second embodiment, if the position / size of an object such as the human body changes for each image frame, the area of the human body or the like estimated from the past image shifts in the future image. There is a possibility that the adjustment range of the imaging parameters may shift. In addition, when the size and posture of the human body, etc. in the image change, the position of the specific part based on the area estimated from the past image and the position of the specific part based on the posture of the object will also shift in the future image. there is a possibility. On the other hand, in the present embodiment, since the region and posture of the human body or the like in the future image can be estimated based on the predicted image, even if the position, size and posture of the human body or the like change for each image frame, the region and the posture can be estimated. Appropriate imaging parameters can be set for the posture.
なお本実施形態では、予測画像に対する認識結果を基にして画像センサ部の撮像パラメータを制御するが、実施形態1と同様、予測画像の生成方法、予測画像に対する認識処理手法、認識処理結果に基づく撮像パラメータの決定および設定手法は限定されない。認識処理結果に基づく撮像パラメータの決定および設定手法に関しては、認識処理結果に基づく各種手法を、本実施形態における測画像の認識処理結果に基づく手法にも適用可能である。 In the present embodiment, the imaging parameters of the image sensor unit are controlled based on the recognition result for the predicted image, but as in the first embodiment, the method for generating the predicted image, the recognition processing method for the predicted image, and the recognition processing result are used. The method for determining and setting the imaging parameters is not limited. Regarding the method of determining and setting the imaging parameter based on the recognition processing result, various methods based on the recognition processing result can also be applied to the method based on the recognition processing result of the measurement image in the present embodiment.
<実施形態3>
次に実施形態3について説明する。実施形態3は、画像認識部30が、認識処理としてどのようなシーン(場面)か認識するシーン認識処理を実行する点と、パラメータ決定部40が、シーン認識処理で認識されたシーンに応じて所定の撮像パラメータを決定する点が実施形態2と相違する。以下、実施形態2と相違する部分についてのみ説明を行い、その他の構成等に関しては実施形態2と同様であるため説明を省略する。
<Embodiment 3>
Next, the third embodiment will be described. In the third embodiment, the
実施形態2の撮像装置は、図1の画像認識部30が、画像生成部20にて生成された予測画像から、事前に設定された特定のシーンを認識する。本実施形態の場合、事前に設定された特定のシーンは、例えば"歩行者の飛び出し"とするが、その他に"自動車の飛び出し"、"自転車の飛び出し"または"歩行者の転倒"等、事前に学習した任意のシーンでも良い。画像認識部30は、これら特定のシーンを認識する画像認識処理を行う。
In the image pickup apparatus of the second embodiment, the
図12は、本実施形態における撮像装置の動作を示すフローチャートである。
図12におけるステップS180からステップS183までの処理、およびステップS185からステップS187の処理は実施形態2と同様であるため、詳細な説明を省略する。
FIG. 12 is a flowchart showing the operation of the image pickup apparatus according to the present embodiment.
Since the processes from step S180 to step S183 and the processes from steps S185 to S187 in FIG. 12 are the same as those in the second embodiment, detailed description thereof will be omitted.
実施形態3の場合、ステップS183で予測画像の生成処理が開始されて予測画像が生成されると、CPU140は、画像認識部30にて行われるステップS189に処理を進める。
ステップS189のシーン認識処理に進むと、画像認識部30は、画像生成部20にて生成された予測画像に対して、"歩行者の飛び出し"シーンの認識処理を実行する。画像認識部30は、画像認識処理の結果として、"歩行者の飛び出し"シーンの画像認識について真/偽(True/False)フラグと、認識されたシーンに対して推定された矩形領域の画像上の座標値(左上画素位置と右下画素位置)とを出力する。ステップS189の処理後は、ステップS185に進む。
In the case of the third embodiment, when the prediction image generation process is started in step S183 and the prediction image is generated, the
Proceeding to the scene recognition process of step S189, the
ステップS185の撮像パラメータ決定処理に進むと、パラメータ決定部40は、ステップS189のシーン認識処理で算出された、特定のシーンの認識結果の情報(真/偽フラグ:True/Falseフラグ)に基づいて撮像パラメータ値を決定する。本実施形態における撮像パラメータ値は、画像センサ部10において取得する画像のフレームレートの値とする。フレームレートパラメータ値の決定方法の詳細は後述する。
Proceeding to the imaging parameter determination process of step S185, the
次に前述した画像認識部30で実行されるシーン認識処理に関して、詳細に説明する。
本実施形態におけるシーン認識処理は、認識処理技術として広く応用されている階層型畳み込みNNによって行われ、実施形態2で説明した図7に示す階層型畳み込みNNと同様の演算処理により実行される。
Next, the scene recognition process executed by the
The scene recognition process in the present embodiment is performed by a hierarchical convolutional NN widely applied as a recognition processing technique, and is executed by the same arithmetic processing as the hierarchical convolutional NN shown in FIG. 7 described in the second embodiment.
画像認識部30は、入力された予測画像のデータをフレームバッファに一旦格納した後、階層型畳み込みNNモジュールに入力し、"歩行者の飛び出し"シーンを認識する処理を実行する。階層型畳み込みNNモジュールにおける処理は、実施形態2における階層型畳み込みNNにおける処理と同様に、式(2)で表される。実施形態3の場合は、"歩行者の飛び出し"シーンに関する教師データを有する画像データを使用して事前に学習することにより、画像中の"歩行者の飛び出し"シーンを認識することが可能である。
The
なお本実施形態における画像認識部30は、階層型畳み込みNNモジュールを用いて構成するものとしたが、この例に限るものではなく、特定のシーンを認識する手法はこれ以外の様々な手法が用いられてもよい。
The
前述したようにステップS189のシーン認識処理において、画像認識部30は、入力された予測画像に対して"歩行者の飛び出し"シーンを認識する処理を実行し、予測画像内に当該シーンが存在するかどうかを推定する。画像認識部30は、図13に示すように予測画像1300内に"歩行者の飛び出し"シーンが存在するかを示す真/偽フラグと、認識されたシーンで推定された矩形領域1310の画像上の座標値(左上画素位置1311と右下画素位置1312)とを出力する。
As described above, in the scene recognition process of step S189, the
次に、パラメータ決定部40で実行される撮像パラメータ決定処理に関して説明する。
パラメータ決定部40は、予測画像内の"歩行者の飛び出し"シーンの有無に関して推定された真/偽フラグと、認識されたシーンに対して推定された矩形領域の画像上の座標値の情報とを基に、画像センサ部10で取得する画像のフレームレートを決定する。
Next, the imaging parameter determination process executed by the
The
パラメータ決定部40は、"歩行者の飛び出し"シーンの有無(真/偽フラグ)に対応して事前に決定した画像のフレームレートをLUTとして保持しており、シーンの有無を基にして、画像センサ部10の撮像センサのフレームレートを決定する。例えば、予測画像において"歩行者の飛び出し"シーンが認識された(真フラグが入力された)場合、パラメータ決定部40は、画像センサ部10の通常動作時のフレームレート(60fps)から240fpsへ変更することを決める。そして、パラメータ決定部40は、その変更後のフレームレートパラメータを決定する。
The
パラメータ設定部50は、前述のように決定された撮像パラメータ(フレームレートパラメータ)を、ステップS186の撮像パラメータ設定処理において画像センサ部10に設定する。
なお本実施形態では、撮像パラメータ決定処理で決定する撮像パラメータを画像センサ部10の撮像センサのフレームレートとした、これには限定されない。例えば"歩行者の飛び出し"シーンに対して推定された矩形領域の画像上の座標値の情報を基に、実施形態2と同様に、画像センサ部10の撮像センサの各領域に対応する画素回路毎の露光時間、ダイナミックレンジおよびゲイン値が決定されてもよい。
図12のステップS186においてパラメータ設定部で実行される撮像パラメータ設定処理に関しては、実施形態2と同様であるため、説明を省略する。
The
In the present embodiment, the image pickup parameter determined by the image pickup parameter determination process is the frame rate of the image sensor of the
Since the imaging parameter setting process executed by the parameter setting unit in step S186 of FIG. 12 is the same as that of the second embodiment, the description thereof will be omitted.
シーン認識処理の場合も、過去の画像から推定したシーンの有無およびシーンが認識された領域は、将来の画像におけるシーンの有無およびシーンの認識領域と異なる可能性が有り、その結果、撮像パラメータの調整が実際のシーンに適合しなくなることがある。これに対し、本実施形態の場合、予測画像を基にして特定のシーンの有無およびシーンの領域を決定するため、シーンが画像フレーム毎に変化する場合でも、より適切なシーンの有無および領域に対して、撮像パラメータを設定することが可能となる。また、パラメータ決定部40は、認識されたシーンに応じて、撮像パラメータの中の特定の撮像パラメータの値を制御するようなパラメータ決定処理を行っても良い。例えば、"歩行者の飛び出し"シーンが認識された場合に、前述のようにフレームレートを上げるフレームレートパラメータを決定する例の他に、歩行者の領域を読み出すような撮像領域パラメータを決定するようにしても良い。さらにその他にも、"歩行者の飛び出し"シーンが認識された場合に、撮像センサにおける解像度を上げるように制御する解像度パラメータを決定してもよい。
Even in the case of the scene recognition process, the presence / absence of the scene and the area where the scene is recognized may be different from the presence / absence of the scene and the recognition area of the scene in the future image, and as a result, the imaging parameter Adjustments may not fit the actual scene. On the other hand, in the case of the present embodiment, since the presence / absence of a specific scene and the area of the scene are determined based on the predicted image, even if the scene changes for each image frame, the presence / absence and area of a more appropriate scene can be obtained. On the other hand, it is possible to set the imaging parameters. Further, the
なお実施形態3においても、前述同様に、予測画像の生成方法、予測画像に対する認識処理手法、認識処理結果に基づく撮像パラメータの決定および設定手法は限定されない。特に、認識処理結果に基づく撮像パラメータの決定および設定手法、予測画像に対する認識処理結果に基づく手法は、実施形態2と同様に様々な手法を適用することが可能である。 Also in the third embodiment, similarly to the above, the method of generating the predicted image, the method of recognizing the predicted image, and the method of determining and setting the imaging parameter based on the recognition processing result are not limited. In particular, various methods can be applied to the method of determining and setting the imaging parameter based on the recognition processing result and the method based on the recognition processing result for the predicted image, as in the second embodiment.
<実施形態4>
次に実施形態4について説明する。
図14は、実施形態4に係る撮像装置の構成例を示したブロック図である。図1の構成例と比較してわかるように、図14に示した実施形態4の撮像装置は、図1の構成にベクトル算出部200が追加されている。
<Embodiment 4>
Next, the fourth embodiment will be described.
FIG. 14 is a block diagram showing a configuration example of the image pickup apparatus according to the fourth embodiment. As can be seen in comparison with the configuration example of FIG. 1, the image pickup apparatus of the fourth embodiment shown in FIG. 14 has a
ここで、ベクトル算出部200は、画像センサ部10にて撮像された画像から、動きベクトルを検出(算出)する動きベクトル検出機能を有する。そして、実施形態4の画像生成部210は、入力された画像データと、その画像データからベクトル算出部200が検出(算出)した動きベクトルとを基に、予測画像を生成する機能を有する。ベクトル算出部200、および画像生成部210以外の他の各部に関しては、実施形態1と同様の機能を有するものとして詳細な説明を省略する。
Here, the
次に、図14に示した構成を有する実施形態4の撮像装置の動作について説明する。図15は、本実施形態に係る撮像装置の動作を示すフローチャートである。
図15のステップS180とステップS181、およびステップS183からステップS187までの各処理は、実施形態1と同様であるため、詳細な説明を省略する。
実施形態4の場合、ステップS181の処理後、CPU140は、ベクトル算出部200にて行われるステップS201に処理を進める。
Next, the operation of the image pickup apparatus of the fourth embodiment having the configuration shown in FIG. 14 will be described. FIG. 15 is a flowchart showing the operation of the image pickup apparatus according to the present embodiment.
Since each process of step S180 and step S181 of FIG. 15 and steps S183 to S187 is the same as that of the first embodiment, detailed description thereof will be omitted.
In the case of the fourth embodiment, after the processing of step S181, the
ステップS201に進むと、ベクトル算出部200は、動きベクトル算出処理として、画像センサ部10で取得された、時間的に連続した2フレーム分の画像データを基にして、動きベクトルを算出する処理を実行する。そして、ベクトル算出部200は、動きベクトル算出処理の結果として、画像の各画素位置における動きベクトル(動きの方向と、動きの大きさの情報を含む)を出力する。
Proceeding to step S201, the
続いてステップS202に進むと、画像生成部210は、まず画像センサ部10で取得された画像データ、およびベクトル算出部200で算出された動きベクトルデータとを、内部のフレームバッファにフレーム単位で格納する。そして、画像生成部21は、それら画像データと動きベクトルデータとを基に予測画像を生成する。
Subsequently, in step S202, the image generation unit 210 first stores the image data acquired by the
以下、画像生成部210で実行されるステップS202の画像生成処理に関して説明する。画像生成部210は、画像センサ部10から入力された画像データと、ベクトル算出部200で算出された動きベクトルデータとを基に、予測画像を生成する点が、前述の実施形態1〜3とは異なっている。
Hereinafter, the image generation process of step S202 executed by the image generation unit 210 will be described. The point that the image generation unit 210 generates a predicted image based on the image data input from the
実施形態4の画像生成部210における画像生成処理は、実施形態1〜3で説明した畳み込みLSTMを行うNNモジュールの入力端子を拡張することで容易に実現される。画像生成部210で実行される演算および学習処理は、実施形態1〜3と同様である。なお本実施形態では、画像生成処理の実現方法として、前述の参考文献1に開示されている手法を用いることを想定しているが、これに限定するものではないことは実施形態1〜3と同様である。
The image generation process in the image generation unit 210 of the fourth embodiment is easily realized by expanding the input terminal of the NN module that performs the convolutional LSTM described in the first to third embodiments. The calculation and learning processes executed by the image generation unit 210 are the same as those in the first to third embodiments. In the present embodiment, it is assumed that the method disclosed in
実施形態4の場合、過去の画像および動きベクトルから予測画像を生成し、予測画像に対する認識結果を基にして、将来の画像に対する撮像パラメータを制御する。実施形態4の場合も、過去の画像から生成した認識結果を基にして、将来の画像に対する撮像パラメータを制御する場合に生じ得る、撮像パラメータの不適合を防止することができる。 In the case of the fourth embodiment, the predicted image is generated from the past image and the motion vector, and the imaging parameters for the future image are controlled based on the recognition result for the predicted image. Also in the case of the fourth embodiment, it is possible to prevent the nonconformity of the imaging parameters that may occur when the imaging parameters for the future image are controlled based on the recognition result generated from the past image.
なお本実施形態では、実施形態1の構成に対して更にベクトル算出部(動きベクトル算出処理)が追加された例に関して説明を行ったが、実施形態2および実施形態3に対しても同様にベクトル算出部(動きベクトル算出処理)が追加されてもよい。これらの例に関しては、本実施形態から容易に拡張可能なものとして、詳細な説明を省略する。 In the present embodiment, an example in which a vector calculation unit (motion vector calculation process) is further added to the configuration of the first embodiment has been described, but the same vector is applied to the second and third embodiments. A calculation unit (motion vector calculation process) may be added. These examples will be omitted in detail as they can be easily extended from the present embodiment.
また本実施形態では、ベクトル算出部200によって動きベクトルデータを算出し、画像生成部210の入力データとして与える例に関して説明を行ったが、画像生成部210において将来の画像における動きベクトルデータを予測(算出)することも可能である。参考文献5には、将来の画像における予測動きベクトルデータを算出する手法が開示されており、この手法を用いて本実施形態における画像生成部を実現することも可能である。
Further, in the present embodiment, the example in which the motion vector data is calculated by the
参考文献5:Xiaodan Liang, Lisa Lee, Wei Dai, Eric P. Xing, "Dual Motion GAN for Future-Flow Embedded Video Prediction", ICCV 2017 Reference 5: Xiaodan Liang, Lisa Lee, Wei Dai, Eric P. Xing, "Dual Motion GAN for Future-Flow Embedded Video Prediction", ICCV 2017
また本実施形態の変形例として、画像認識部30に対して、予測画像と共に予測した動きベクトルの情報を入力することも可能である。これは、実施形態1〜3で説明した画像認識部30の入力端子をさらに予測動きベクトル情報の入力用に拡張することで容易に実現される。
Further, as a modification of the present embodiment, it is also possible to input the predicted motion vector information together with the predicted image to the
本実施形態によれば、画像データに加えて動きベクトルデータを用いて予測画像を生成することにより、特に動きを伴う画像の予測画像精度が向上するため、より将来の画像に適合した撮像パラメータの設定が可能となる。 According to the present embodiment, by generating a predicted image using motion vector data in addition to the image data, the predicted image accuracy of the image accompanied by motion is improved, so that the imaging parameters more suitable for future images can be obtained. It can be set.
<実施形態5>
次に実施形態5について説明する。図16は、実施形態5に係る撮像装置の構成例を示したブロック図である。
図1の構成例と比較してわかるように、図16に示した実施形態5の撮像装置は、実施形態1〜3における画像認識部30とRAM80が複数設けられて構成されている。図16の画像認識部30Aは実施形態1で説明した画像認識処理(領域分割処理)を担当し、画像認識部30Bは実施形態2の画像認識処理(物体認識処理)を担当し、画像認識部30Cは実施形態3の画像認識処理(シーン認識処理)を担当する。
<Embodiment 5>
Next, the fifth embodiment will be described. FIG. 16 is a block diagram showing a configuration example of the image pickup apparatus according to the fifth embodiment.
As can be seen in comparison with the configuration example of FIG. 1, the image pickup apparatus of the fifth embodiment shown in FIG. 16 is configured by providing a plurality of
また、図17は、実施形態5の係る撮像装置の動作を示すフローチャートを示す。図17に示したフローチャートの場合、実施形態1〜3において、画像認識処理として説明したステップS184の領域分割処理、ステップS188の物体認識処理、およびステップS189のシーン認識処理が全て含まれている。 Further, FIG. 17 shows a flowchart showing the operation of the image pickup apparatus according to the fifth embodiment. In the case of the flowchart shown in FIG. 17, in the first to third embodiments, the area division process of step S184, the object recognition process of step S188, and the scene recognition process of step S189 described as the image recognition process are all included.
図17において、ステップS183で予測画像が生成されると、CPU140は、ステップS184の画像認識処理(領域分割処理)、ステップS188の画像認識処理(物体認識処理)、ステップS189の画像認識処理(シーン認識処理)に処理を進める。
In FIG. 17, when the predicted image is generated in step S183, the
ステップS184では画像認識部30Aが画像認識処理(領域分割処理)を実行し、ステップS183では画像認識部30Bが画像認識処理(物体認識処理)を実行し、ステップS189では画像認識部30Cが画像認識処理(シーン認識処理)を実行する。そして、それらステップS184、ステップS188、およびステップS189の後、パラメータ決定部40にて行われるステップS185に処理が進められる。ステップS184、ステップS188、ステップS189の各画像認識処理は、前述の各実施形態でそれぞれ説明したのと同様の処理であるため、説明を省略する。なお、実施形態5において、ステップS188の物体認識処理に加えて、さらに物体姿勢認識処理を実行することが可能であることも実施形態2と同様である。
In step S184, the
また、図17のステップS185の撮像パラメータ決定処理及びステップS186の撮像パラメータ設定処理で行われる処理は、実施形態1〜3で説明した処理から適宜一部の処理を実行する処理でも良いし、複数の処理を組み合わせた処理でも良い。例えば、背景領域(例えば空領域)のダイナミックレンジに関しては、実施形態1で説明した処理により撮像パラメータの値を決定してもよい。また例えば、人体領域のダイナミックレンジに関しては、実施形態2で説明した処理により撮像パラメータの値を決定してもよい。さらに、フレームレートに関しては、実施形態3で説明した手法により撮像パラメータの値を決定する処理でもよい。また、実施形態5の撮像装置においても、ベクトル算出部を追加して、実施形態4と同様に動きベクトルデータを基に処理を実行することも当然可能である。 Further, the processing performed in the imaging parameter determination process in step S185 and the imaging parameter setting process in step S186 in FIG. 17 may be a process of appropriately executing a part of the processes described in the first to third embodiments, or a plurality of processes. The process may be a combination of the above processes. For example, with respect to the dynamic range of the background region (for example, the empty region), the value of the imaging parameter may be determined by the process described in the first embodiment. Further, for example, with respect to the dynamic range of the human body region, the value of the imaging parameter may be determined by the process described in the second embodiment. Further, the frame rate may be a process of determining the value of the imaging parameter by the method described in the third embodiment. Further, also in the image pickup apparatus of the fifth embodiment, it is naturally possible to add a vector calculation unit and execute the process based on the motion vector data as in the fourth embodiment.
このように、実施形態5に係る撮像装置は、まず画像生成部20によって予測画像を生成し、その予測画像に対して画像認識部30A,30B,30Cがそれぞれ画像認識処理を実行する。そして、パラメータ決定部40が、それらの画像認識処理の実行結果に応じて撮像パラメータを決定する。また実施形態5の場合、画像認識処理として複数種類の処理が実行される。また実施形態5の場合は、一旦予測画像を生成すれば、その生成した予測画像に対して適用される画像認識処理が前述した実施形態1〜4のようにそれぞれ限定されることはない。このため、実施形態5の場合は、実施形態1〜4、さらには本実施形態における各画像認識処理以外の処理を実行することも可能となる。例えば、前述した画像認識処理とは異なる認識処理として、人物や自動車等の異常行動を検知する移動行動検知処理等を実行することも可能となる。また実施形態5においても、実行する画像認識処理に対応して、実施形態1〜4で説明した撮像パラメータ、またはその他の撮像パラメータを制御することができる。この場合も、実施形態1〜4で説明した撮像パラメータは一例であり、本発明は撮像パラメータの種類は特に限定されるものではない。
As described above, in the image pickup apparatus according to the fifth embodiment, the
前述した各実施形態の画像処理装置の構成または各フローチャートの処理は、ハードウェア構成により実現されてもよいし、例えばCPUが本実施形態に係るプログラムを実行することによりソフトウェア構成により実現されてもよい。また、一部がハードウェア構成で残りがソフトウェア構成により実現されてもよい。ソフトウェア構成のためのプログラムは、予め用意されている場合だけでなく、不図示の外部メモリ等の記録媒体から取得されたり、不図示のネットワーク等を介して取得されたりしてもよい。 The configuration of the image processing device of each of the above-described embodiments or the processing of each flowchart may be realized by a hardware configuration, or may be realized by a software configuration by, for example, a CPU executing a program according to the present embodiment. Good. Further, a part may be realized by a hardware configuration and the rest may be realized by a software configuration. The program for software configuration may be acquired not only when it is prepared in advance, but also from a recording medium such as an external memory (not shown) or via a network (not shown).
本発明に係る制御処理における1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給可能であり、そのシステム又は装置のコンピュータの1つ以上のプロセッサにより読また出し実行されることで実現可能である。
前述の各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
A program that realizes one or more functions in the control process according to the present invention can be supplied to a system or device via a network or storage medium, and is read and executed by one or more processors of the computer of the system or device. It is feasible by being done.
Each of the above-described embodiments is merely an example of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
10:画像センサ部、20:画像生成部、30:画像認識部、40:パラメータ決定部、50:パラメータ設定部、80,160:RAM、140:CPU、150:ROM 10: Image sensor unit, 20: Image generation unit, 30: Image recognition unit, 40: Parameter determination unit, 50: Parameter setting unit, 80, 160: RAM, 140: CPU, 150: ROM
Claims (17)
前記取得された画像を基に予測画像を生成する画像生成手段と、
前記予測画像に対して画像認識処理を実行する画像認識手段と、
前記画像認識処理の結果に基づいて撮像パラメータを決定するパラメータ決定手段と、
前記決定した撮像パラメータを前記画像取得手段に対して設定するパラメータ設定手段と、
を有することを特徴とする撮像装置。 Image acquisition means for acquiring images by imaging,
An image generation means for generating a predicted image based on the acquired image, and
An image recognition means that executes image recognition processing on the predicted image, and
A parameter determining means for determining imaging parameters based on the result of the image recognition process, and
A parameter setting means for setting the determined imaging parameters for the image acquisition means, and
An imaging device characterized by having.
前記画像生成手段は、前記取得された画像と前記動きベクトルとを基に前記予測画像を生成することを特徴とする請求項1から14のいずれか1項に記載の撮像装置。 It has a vector detecting means for detecting a motion vector from the acquired image, and has
The imaging device according to any one of claims 1 to 14, wherein the image generating means generates the predicted image based on the acquired image and the motion vector.
前記取得された画像を基に予測画像を生成する画像生成工程と、
前記予測画像に対して画像認識を実行する画像認識工程と、
前記画像認識の結果に基づいて撮像パラメータを決定するパラメータ決定工程と、
前記決定した撮像パラメータを前記画像取得手段に対して設定するパラメータ設定工程と、
を有することを特徴とする撮像装置の制御方法。 A control process that controls an image acquisition means that acquires an image by imaging,
An image generation step of generating a predicted image based on the acquired image, and
An image recognition step of executing image recognition on the predicted image, and
A parameter determination step of determining imaging parameters based on the result of image recognition, and
A parameter setting step of setting the determined imaging parameters for the image acquisition means, and
A method for controlling an imaging device, which comprises.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185391A JP7401246B2 (en) | 2019-10-08 | 2019-10-08 | Imaging device, method of controlling the imaging device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185391A JP7401246B2 (en) | 2019-10-08 | 2019-10-08 | Imaging device, method of controlling the imaging device, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021061546A true JP2021061546A (en) | 2021-04-15 |
JP2021061546A5 JP2021061546A5 (en) | 2022-10-17 |
JP7401246B2 JP7401246B2 (en) | 2023-12-19 |
Family
ID=75380558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019185391A Active JP7401246B2 (en) | 2019-10-08 | 2019-10-08 | Imaging device, method of controlling the imaging device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7401246B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114071024A (en) * | 2021-11-26 | 2022-02-18 | 北京百度网讯科技有限公司 | Image shooting method, neural network training method, device, equipment and medium |
WO2023090067A1 (en) * | 2021-11-17 | 2023-05-25 | 株式会社日立製作所 | Image recognition system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001333329A (en) * | 2000-03-17 | 2001-11-30 | Fuji Photo Film Co Ltd | Image pickup device |
JP2007181226A (en) * | 2007-02-06 | 2007-07-12 | Sharp Corp | Moving image decoding apparatus |
JP2008136039A (en) * | 2006-11-29 | 2008-06-12 | Fujifilm Corp | Camera device, and photographing mode selection support method in the camera device |
WO2009142003A1 (en) * | 2008-05-20 | 2009-11-26 | パナソニック株式会社 | Image coding device and image coding method |
JP2012155391A (en) * | 2011-01-24 | 2012-08-16 | Panasonic Corp | Posture state estimation device and posture state estimation method |
JP2019124539A (en) * | 2018-01-15 | 2019-07-25 | キヤノン株式会社 | Information processing device, control method therefor, and program |
WO2019159419A1 (en) * | 2018-02-16 | 2019-08-22 | パナソニックIpマネジメント株式会社 | Processing method and processing device using this |
-
2019
- 2019-10-08 JP JP2019185391A patent/JP7401246B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001333329A (en) * | 2000-03-17 | 2001-11-30 | Fuji Photo Film Co Ltd | Image pickup device |
JP2008136039A (en) * | 2006-11-29 | 2008-06-12 | Fujifilm Corp | Camera device, and photographing mode selection support method in the camera device |
JP2007181226A (en) * | 2007-02-06 | 2007-07-12 | Sharp Corp | Moving image decoding apparatus |
WO2009142003A1 (en) * | 2008-05-20 | 2009-11-26 | パナソニック株式会社 | Image coding device and image coding method |
JP2012155391A (en) * | 2011-01-24 | 2012-08-16 | Panasonic Corp | Posture state estimation device and posture state estimation method |
JP2019124539A (en) * | 2018-01-15 | 2019-07-25 | キヤノン株式会社 | Information processing device, control method therefor, and program |
WO2019159419A1 (en) * | 2018-02-16 | 2019-08-22 | パナソニックIpマネジメント株式会社 | Processing method and processing device using this |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023090067A1 (en) * | 2021-11-17 | 2023-05-25 | 株式会社日立製作所 | Image recognition system |
CN114071024A (en) * | 2021-11-26 | 2022-02-18 | 北京百度网讯科技有限公司 | Image shooting method, neural network training method, device, equipment and medium |
Also Published As
Publication number | Publication date |
---|---|
JP7401246B2 (en) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5284048B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US8988529B2 (en) | Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera | |
JP5704905B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP5720275B2 (en) | Imaging apparatus and imaging method | |
JP4974812B2 (en) | Electronic camera | |
US10237488B2 (en) | Image capturing apparatus and image capturing method | |
JP7401246B2 (en) | Imaging device, method of controlling the imaging device, and program | |
JP2009111716A (en) | Imaging apparatus, program and template generating method | |
US9489721B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP5173549B2 (en) | Image processing apparatus and imaging apparatus | |
JP5149861B2 (en) | Intermediate image generation apparatus and operation control method thereof | |
JP2011166409A (en) | Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method | |
JP2017098843A (en) | Imaging device, object tracking method and program | |
US10880457B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
KR20130098675A (en) | Face detection processing circuit and image pick-up device including the same | |
JP2010079651A (en) | Movement recognition device, method and program | |
JP6016546B2 (en) | Imaging device, control method thereof, and control program | |
JP5213493B2 (en) | Motion detection device | |
JP2005063036A (en) | Object-tracking device | |
KR101879580B1 (en) | Method and apparatus for calcurating vector of direction of feature point | |
JP5012656B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
KR20200047389A (en) | Method and apparatus for capturing an image based motion information in the image | |
US11921816B2 (en) | Information processing apparatus that specifies a subject and method, image capturing apparatus, and image capturing system | |
US20230065506A1 (en) | Image processing apparatus, control method thereof, and image capturing apparatus | |
US20230360229A1 (en) | Image processing apparatus, image capturing apparatus, control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7401246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |