JP6679679B2 - 制御装置、方法およびプログラム - Google Patents
制御装置、方法およびプログラム Download PDFInfo
- Publication number
- JP6679679B2 JP6679679B2 JP2018174632A JP2018174632A JP6679679B2 JP 6679679 B2 JP6679679 B2 JP 6679679B2 JP 2018174632 A JP2018174632 A JP 2018174632A JP 2018174632 A JP2018174632 A JP 2018174632A JP 6679679 B2 JP6679679 B2 JP 6679679B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- lens
- information
- value
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000003384 imaging method Methods 0.000 claims description 112
- 238000004364 calculation method Methods 0.000 claims description 108
- 238000011176 pooling Methods 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 15
- 238000013459 approach Methods 0.000 claims description 10
- 230000004075 alteration Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 43
- 238000012545 processing Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 14
- 238000010304 firing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
しかしながら、特許文献1に係る主題推定システムは対話の主題ラベルを推定するものであり、撮像装置におけるレンズの合焦については記載あるいは示唆が無かった。
図1は、本発明の一実施形態に係る学習システム1の機能ブロックの一例を示す図である。
学習システム1は、学習装置11と、撮像装置12と、記憶媒体13とを備える。
撮像装置12では、レンズ151を通過した光によって被写体21の画像を撮像する。撮像装置12によって撮像された画像の一部がROI(Region Of Interest)1011として抽出される。
撮像装置12では、取得部152が、ROI1011の画像が撮像されたときの情報を取得する。本実施形態では、当該情報は、レンズ151に関する情報(以下、説明の便宜上、「レンズ情報」ともいう。)である。取得部152は、取得されたレンズ情報1013を出力する。本実施形態では、レンズ情報1013は、レンズ151の位置を特定する情報を含む。レンズ情報1013は、さらに、F値、露出のうちの1以上に関する情報を含んでもよい。
その後、記憶媒体13に記憶された組み合わせが学習装置11に入力される。
演算部111は、入力層121と、1段目の隠れ層122と、2段目の隠れ層123と、全結合層124と、出力層125と、算出部126とを備える。
隠れ層122は、畳み込み部131と、プーリング部132と、発火部133とを備える。
同様に、隠れ層123は、畳み込み部141と、プーリング部142と、発火部143とを備える。
ここで、演算部111は、例えば、深層学習(Deep Learning)を行うDNN(Deep neural network)を使用してもよい。
なお、演算部111は、ニューラルネットワークを使用しなくてもよい。
基準画像1014として、テストチャートが用いられている。テストチャートは、白黒のチャートであってもよく、あるいは、カラーのチャート(カラーチャート)であってもよい。テストチャートは、白黒のチャートとカラーのチャートとの組み合わせであってもよい。
テストチャートは、本実施形態では、撮像装置12におけるレンズ151の位置、F値、露出などのパラメータが理想的な適正値であるときの画像である。テストチャートは、例えば、撮像された画像であってもよい。テストチャートは、例えば、撮像以外の手法で生成された画像であってもよい。
複数のボケ画像1012−1〜1012−nの数は、2以上であればよく、多い方が良い。
入力層121は、入力された情報に対して所定の演算を行い、その演算の結果を隠れ層122に出力する。
隠れ層122では、畳み込み部131が、入力層121から入力された情報に対して畳み込み(Convolution)の処理を行う。次に、隠れ層122では、プーリング部132が、畳み込みの結果に対して、プーリング(Pooling)の処理を行う。次に、隠れ層122では、発火部133が、プーリングの結果に対して、発火(例えば、ReLU関数)の処理を行う。
隠れ層122では、発火部133が、発火の結果を隠れ層123に出力する。
すなわち、畳み込み部141は、畳み込み部131と同様な処理を行う。プーリング部142は、プーリング部132と同様な処理を行う。発火部143は、発火部133と同様な処理を行う。
隠れ層123では、発火部143が、発火の結果を全結合層124に出力する。
ここで、それぞれの隠れ層122、123の畳み込み部131、141は、フィルタ係数を用いて畳み込みの処理を行う。学習の初期には、当該フィルタ係数として、初期値が設定される。学習中には、当該フィルタ係数が更新されていく。当該フィルタ係数は、重み付け係数などとも呼ばれる。当該フィルタ係数の値は、重み付け値などとも呼ばれる。
なお、本実施形態では、演算部111が、2層の隠れ層122、123を備える場合を示すが、これに限られない。例えば、演算部111は、3層以上の隠れ層を備えてもよい。また、演算部111は、1層の隠れ層を備えてもよい。
出力層125は、全結合層124から入力された情報に対して所定の演算を行い、その演算の結果を算出部126に出力する。
算出部126は、出力層125から入力された情報に対して、ソフトマックス関数を施す。これにより、算出部126は、パラメータの値と、当該値となる確率との対応を算出する。当該対応は、パラメータの複数の異なる値と、それぞれの値となる確率との対応であってもよい。算出部126は、当該対応を比較部115に出力する。
なお、主題情報1024としては、例えば、レンズ151が特定の焦点距離の位置にある場合に様々な条件で撮像された大量の画像に基づく情報であってもよい。当該条件としては、例えば、F値、露出、ROIなどのうちの1以上に関する条件であってもよい。
そして、比較部115は、比較の結果に基づいて、当該情報と当該主題情報1024との一致度を高めるように、演算部111に設定される畳み込み部131、141のフィルタ係数を更新する。また、比較部115は、当該情報と当該主題情報1024との一致度が所定の閾値に達した場合に、学習が完了であることを判定する。学習が完了になった場合には、その時点のフィルタ係数が学習結果として記憶部114あるいは演算部111などに記憶される。
本実施形態では、チャネル情報1001が隠れ層122に入力される。
チャネル情報1001は、ROI1011と、n個のボケ画像1012−1〜1012−nと、レンズ位置画像1021と、露出画像1022と、F値画像1023を含む。これらの画像は、すべて、幅(width)と高さ(height)が均一である。また、チャネル情報1001に含まれるすべての画像の数がm(mは整数を表す。)であるとする。
同様に、露出画像1022は、画像中の任意の箇所にレンズ151の露出を特定する情報を含んでもよい。また、露出画像1022では、レンズ151の露出を特定する情報が含まれない箇所は0値であってもよい。
同様に、F値画像1023は、画像中の任意の箇所にF値を特定する情報を含んでもよい。また、F値画像1023では、F値を特定する情報が含まれない箇所は0値であってもよい。
また、露出画像1022と、F値画像1023のうちの一方または両方がチャネル情報1001に含まれなくてもよい。
畳み込み演算では、Nを1以上の整数として、N個のフィルタ情報1031−1〜1031−Nを用いる。それぞれのフィルタ情報1031−1〜1031−Nは、チャネル情報1001と同じmチャネルの情報である。それぞれのフィルタ情報1031−1〜1031−Nは、チャネルごとに複数の画素を有する。それぞれの画素には、それぞれの画素のフィルタ係数の値が設定されている。
特徴マップ1101は、N個の特徴画像1111−1〜1111−Nを含む。それぞれの特徴画像1111−1〜1111−Nは、それぞれのチャネルの畳み込み演算の結果を含む。
プーリング演算では、畳み込み演算によって取得された特徴マップ1101を、さらに縮小して新たな特徴マップ(図示せず)を生成する。プーリング演算では、例えば、画像における注目領域の出力値が最大値となる領域を取得し、これにより特徴を抽出する。
図2の例では、特徴マップ1101に含まれる1つのチャネルの一部の画素情報1121を示してある。画素情報1121のうち、縦に2個および横に2個の画素の領域を注目領域1122とする。プーリング演算では、注目領域1122に含まれる4個の画素の画素値p0〜p4のうち、最大となる値を当該注目領域1122の出力値として出力する。
発火演算では、プーリング演算によって抽出された特徴マップ(図示せず)に対して、それぞれの画素の画素値に所定の関数を演算する。当該所定の関数は、例えば、画素値が0未満である場合に0を出力する。また、当該所定の関数は、例えば、画素値が0以上である場合に所定の値aを出力する。
図2の例では、発火演算によって得られた特徴マップ1131は、発火の関数の結果を含む。当該特徴マップ1131は、例えば、N個のチャネルを有する。当該特徴マップ1131は、例えば、チャネル情報1001と比べて、幅が1/2となっており、高さが1/2となっている。
RNNでは、所定の処理部において、繰り返し処理を実行するなかで、前回以前の処理結果の一部を引き継いで演算を行う。
図3の例では、時間が早い方から遅い方への順で、時間t1〜tLを示してある。Lは2以上の整数を表す。
一例として、撮像装置12に対する被写体21の配置関係が固定されたまま、撮像装置12のレンズ151が光軸に沿って一定の方向に一定速度で移動する場合を想定する。
なお、当該処理部は、例えば、1つの隠れ層122に相当する処理部であってもよい。また、当該処理部は、例えば、演算部111における任意の部分であってもよい。
また、説明の便宜上、各時間t1〜tLに処理部161−1〜161−Lに入力される情報を撮像情報1025−1〜1025−Lとして説明する。撮像情報1025−1〜1025−Lは、ROIに関する情報とともに、レンズに関する情報を含んでもよい。
図3の説明では、撮像装置12のレンズ151の位置を、基準位置からの所定方向へのずれd1〜dLで表す。
処理部161−1は、撮像情報1025−1を入力して、所定の演算結果を出力する。また、処理部161−1は、当該演算結果を求める際に得られた情報を、次の時間t2に当該処理部161−1によって使用するために、当該処理部161−1に出力する。
すなわち、i=1〜Lとして、時間tiでは、撮像装置12のレンズ151の位置がdiである。撮像情報1025−iは、このレンズ151の位置で撮像された画像から抽出された画像に関する情報である。
処理部161−iは、撮像情報1025−iを入力して、所定の演算結果を出力する。また、処理部161−iは、当該演算結果を求める際に得られた情報を、次の時間t(i+1)に当該処理部161−iによって使用するために、当該処理部161−iに出力する。
このように、RNNでは、時間的に前後する情報の関連性を用いることで、学習の効果を高めることが可能である。
主題情報2011は、ROIごとに、レンズの位置、F値、露出の値(露出値)を格納する。主題情報2011は、例えば、図1に示される主題情報1024として使用される。レンズの位置とは例えばフォーカスレンズの位置である。
撮像情報2012は、ROIごとに、レンズの位置、F値、露出の値(露出値)を格納する。撮像情報2012は、撮像装置12によりROIの画像が撮像されたときの情報である。
学習結果2013は、パラメータの各値と、確率とを対応付けて格納する。図6の例では、パラメータとして、レンズ151の合焦位置に相当する焦点距離が用いられている。
学習結果2013は、学習装置11により学習が行われた結果である。
例えば、主題情報2011に、レンズ151の所定の焦点距離(説明の便宜上、第1の焦点距離という。)において、F値および露出を様々な条件として撮像したときの情報が設定される。また、学習装置11では、主題情報2011に含まれる1つまたは複数のROIと、レンズ情報と、多数のボケ画像を使用して、学習のための演算を行う。そして、学習装置11では、この演算の結果として得られる第1の焦点距離の推定確率が所定の確率以上になるまで、比較部115による比較およびフィルタ係数の更新を行う。学習装置11では、第1の焦点距離の推定確率が所定の確率以上になったときに、学習を完了する。
このように、学習装置11では、例えば、ROI(1)、ROI(2)、・・・というように、異なるROIを使用して何度も繰り返して学習を行うことで、理想的なフィルタ係数を取得することができる。なお、1つのROIが学習に使用されてもよい。学習に2つ以上の異なるROIが使用される場合、例えば、学習に1つのROIが使用される場合よりも、多様なROIの画像に適用することが可能である。
チャネル情報1201は、ROI1211と、n個のボケ画像1212−1〜1212−nを含む。これらの画像は、すべて、幅(width)と高さ(height)が均一である。
図7に示されるチャネル情報1201は、図2に示されるチャネル情報1001と比べて、レンズ位置画像1021と、露出画像1022と、F値画像1023を含まない。図7の例では、レンズ位置画像1021と、露出画像1022と、F値画像1023は、例えば、チャネル情報1201とは別に学習装置11に入力されて使用されてもよい。つまり、レンズ情報1013は、学習装置11において、画像以外の形式で利用されてもよい。
すなわち、演算部111は、合焦位置に対応するレンズ151の位置において取得されたROI1011を取得する。また、演算部111は、当該ROI1011が撮像されたときのレンズ情報1013を取得する。そして、演算部111は、合焦位置に対応するレンズ位置において取得された基準画像1014から取得された複数のボケ画像1012−1〜1012−n、当該ROI1011、およびレンズ情報1013を、学習モデルに入力する。演算部111および比較部115は、合焦位置に対応するレンズ位置から予め定められた位置にまで近付くように、フィルタ係数(重み付け値)を更新して調整することで、パラメータを演算する。このようにして得られたパラメータは、合焦位置に対応するレンズ位置から予め定められた位置にまで近付いた値となる。ここで、合焦位置に対応するレンズ位置から予め定められた位置は、例えば、誤差が許容される範囲で任意に設定されてもよい。
また、本実施形態に係る学習装置11では、例えば、複数の異なるROIに関する情報が学習モデルに入力されて学習が行われてもよい。複数の異なるROIは、例えば、複数の異なる合焦枠に対応するものであり、複数の合焦位置に対応し、複数のレンズ位置において取得された画像である。例えば、撮像装置12によって撮像された画像に複数の異なる合焦枠が存在し、それぞれの合焦枠ごとにROIが得られる。
図8は、本発明の一実施形態に係る撮像装置201の概略的な外観の構造を示す図である。
撮像装置201は、概略的に、本体部211と、鏡筒部212とを備える。鏡筒部212は、レンズ213を備える。本体部211は、ボタン214〜216と、ファインダー217とを備える。
ここで、各ボタン214〜216は、ユーザによって操作されて、例えば、電源、シャッター、露光などに関する予め定められた指示を受け付ける。
なお、撮像装置201の構造は、図8に示される構造に限定されず、他の構造が用いられてもよい。
ここで、本実施形態では、撮像装置201を図1に示される撮像装置12とは別の装置として説明する。撮像装置201は、図1に示される撮像装置12と同じ装置であってもよい。
撮像装置201は、鏡筒部212に、レンズ213と、環状の回転カム221と、レンズ枠231と、位置検出素子232とを備える。撮像装置201は、本体部211に、ギアボックス222と、撮像部223とを備える。
ギアボックス222は、DC(Direct Current)モータ251と、ギア252と、2相の回転センサ253とを備える。
撮像部223は、撮像素子241と、操作部242と、表示部243と、メモリ244と、制御部245とを備える。制御部245は、取得部311と、演算部312と、合焦部313とを備える。
レンズ213はレンズ枠231に取り付けられて支持される。レンズ枠231には、回転カム221に設けられたカム溝(図示せず)に嵌合するカムピン(図示せず)が設けられている。そして、回転カム221の回転機構によって、レンズ枠231はカム溝に沿って移動することが可能である。これにより、レンズ枠231に取り付けられたレンズ213は、所定の移動可能軸D1に沿って移動することが可能である。レンズ213の移動可能軸D1は、レンズ213の光軸に平行な軸である。つまり、レンズ213は、当該レンズ213の光軸に沿って移動することが可能である。回転カム221が所定の回転方向に回転させられると、レンズ213が移動可能軸D1に沿った所定の一の方向に移動する。逆に、回転カム221が当該所定の回転方向とは反対の方向に回転させられると、レンズ213が移動可能軸D1に沿った当該一の方向とは反対の方向に移動する。なお、図9には、レンズ213の移動可能軸D1を示してある。
位置検出素子232は、レンズ213の相対的な位置を検出する。なお、位置検出素子232は、レンズ213の基準位置が定められる場合に、当該基準位置からの相対的な位置を検出してもよい。当該位置は絶対的な位置となる。さらに、位置検出素子232は、レンズ213の移動方向を検出してもよい。
位置検出素子232は、検出されたレンズ213の位置に関する情報を制御部245に出力する。
なお、レンズ213としては、様々なレンズが用いられてもよく、例えば、交換可能なレンズが用いられてもよい。
ここで、ギア252は、例えば、複数のギアがかみ合った構成を有しているが、本実施形態では、説明の便宜上、1個のギアに着目して説明する。
DCモータ251は、制御部245によって制御されて、ギア252を回転させる。ギア252の回転によって回転カム221が回転させられることで、レンズ213が移動可能軸D1に沿って移動する構成となっている。ギア252が所定の回転方向に回転させられると、レンズ213が移動可能軸D1に沿った所定の一の方向に移動する。逆に、ギア252が当該所定の回転方向とは反対の方向に回転させられると、レンズ213が移動可能軸D1に沿った当該一の方向とは反対の方向に移動する。
また、本実施形態では、回転センサ253は、回転量に応じた波形として、サイン波とコサイン波といった2相の波形を検出する。これにより、回転センサ253によって、ギア252の回転量とともに、ギア252が回転する方向を特定することが可能である。
回転センサ253は、検出された回転量および回転方向を表す情報を制御部245に出力する。
撮像素子241は、レンズ213の光軸上に配置されている。撮像素子241は、レンズ213を通過した光により得られる画像を撮像する。撮像素子241は、撮像された画像を制御部245に出力する。
表示部243は、撮像素子241から得られる画像などを表示する画面を有する。表示部243は、本実施形態では、図8に示されるファインダー217の画面に画像を表示する。
メモリ244は、情報を記憶する。メモリ244は、本実施形態では、制御部245によって制御される。なお、本実施形態では、撮像部223にメモリ244が備えられる場合を示すが、メモリがレンズ213などに備えられる構成が用いられてもよい。
例えば、制御部245では、DCモータ251の駆動を制御して、レンズ213を移動可能軸D1に沿って移動させる。これにより、レンズ213が移動可能軸D1に沿って移動する。また、制御部245は、DCモータ251の駆動を制御する際に、F値、露出等を検出してもよい。
また、取得部311は、取得された画像からROIを抽出する。
なお、メモリ244以外にも鏡筒部212内にもメモリ(図示せず)が設けられてもよい。鏡筒部212内のメモリにはメモリ244に対して格納される情報と同じ情報を格納することができる。鏡筒部212内のメモリにはレンズ213を駆動させるための情報を格納することができる。
ここで、回転センサ253によって検出される回転量は、レンズ213の絶対的な位置ではなく、レンズ213の相対的な位置を特定する。
同様に、本実施形態では、2相の回転センサ253を用いる場合を示すが、3相以上の回転センサが用いられてもよい。また、1相の回転センサが用いられてもよい。1相の回転センサが用いられる場合、レンズ213の移動方向は、例えば、制御部245によって、DCモータ251の駆動方向などに基づいて判定されてもよい。
演算部312では、それぞれの隠れ層の畳み込み部(図示せず)には、図1に示される学習装置11によって既に行われた学習の結果が設定されている。具体的には、畳み込み部のフィルタ係数として、学習の結果として最終的に得られたフィルタ係数が設定されている。
合焦部313は、DCモータ251の駆動を制御することで、演算部312によって演算された情報によって特定される合焦位置に、レンズ213を移動させる制御を行う。
ここで、図1に示される学習装置11による学習結果であるフィルタ係数は、それぞれの撮像装置201に搭載される演算部312に設定される。学習は、例えば、撮像装置201の出荷前に行われる。そして、それぞれの撮像装置201は、例えば、学習結果であるフィルタ係数が設定された状態で出荷される。なお、撮像装置201の出荷後には、例えば、撮像装置201に設定されたフィルタ係数は固定され、さらなる学習はされない。
撮像システム401は、サーバ装置411と、撮像装置412と、ネットワーク413とを備える。
ネットワーク413は、例えば、無線のネットワークであってもよく、あるいは、有線のネットワークであってもよい。なお、ネットワーク413では、例えば、基地局装置(図示せず)などによって、サーバ装置411あるいは撮像装置412と通信してもよい。
ここで、撮像装置412の外観は、図8に示される撮像装置201の外観と同様である。図10の例では、図8および図9に示されるものと同じ部分については、同じ符号を付して説明する。
撮像装置412は、鏡筒部212に、レンズ213と、環状の回転カム221と、レンズ枠231と、位置検出素子232とを備える。撮像装置412は、本体部211に、ギアボックス222と、撮像部421とを備える。
ここで、鏡筒部212の機能ブロックと、ギアボックス222の機能ブロックは、図9に示される撮像装置201と同様である。
ここで、撮像素子241と、操作部242と、表示部243と、メモリ244は、図9に示される撮像装置201の場合と同様である。
送信部472は、取得部471により取得された画像のROIと、レンズ情報を、ネットワーク413を介して、サーバ装置411に送信する。当該レンズ情報は、当該画像が撮像されたときの情報である。
受信部473は、サーバ装置411からネットワーク413を介して伝送されてきたレンズ213の合焦位置を特定する情報を受信する。
合焦部474は、DCモータ251の駆動を制御することで、受信部473により受信された情報によって特定される合焦位置に、レンズ213を移動させる制御を行う。
サーバ装置411は、受信部431と、演算部432と、送信部433と、記憶部434とを備える。
受信部431は、撮像装置412からネットワーク413を介して伝送されてきたROIとレンズ情報を受信する。
演算部432では、それぞれの隠れ層の畳み込み部(図示せず)には、図1に示される学習装置11によって既に行われた学習の結果が設定されている。具体的には、畳み込み部のフィルタ係数として、学習の結果として最終的に得られたフィルタ係数が設定されている。
送信部433は、演算部432により取得されたパラメータの値を特定する情報をネットワーク413を介して撮像装置412に送信する。これにより、撮像装置412では、当該情報に基づいて、レンズ213を合焦位置に移動させる制御を行う。
具体的には、撮像システム401では、撮像装置412によって得られた画像のROIおよびレンズ情報をネットワーク413を介してサーバ装置411に送信する。サーバ装置411は、撮像装置412から受信されたROIおよびレンズ情報を用いて所定の演算を行い、合焦位置を推定して、当該合焦位置を撮像装置412に通知する。これにより、撮像装置412では、適正な合焦位置を把握することができる。
なお、図10には、1個の撮像装置412を示したが、複数の撮像装置412に対して1個のサーバ装置411が対応することが可能である。
本実施形態に係る学習システム1、撮像装置201あるいは撮像システム401では、テストチャートから生成された複数のボケ画像1012−1〜1012−nを用いて合焦位置を推定することで、合焦位置の推定精度を向上させることができる。
本実施形態に係る学習システム1、撮像装置201あるいは撮像システム401では、例えば、レンズ213のユニットに応じて発生し得る推定のバラツキを無視できる程度に、推定精度を向上させることができる。
制御部は、例えば、複数の第2の画像、第1の画像、および第1の情報に対して少なくとも畳み込み演算およびプーリング演算を行うことで特徴マップを得る。
制御部は、例えば、重み付け値をフィルタ係数の値とするフィルタを用いて畳み込み演算を行う。
また、第2の画像は、例えば、基準画像に点拡がり関数が施されて取得された画像である。
また、点拡がり関数は、例えば、第1の画像が取得されたときに用いられたレンズ(図1の例では、レンズ151)と同じレンズ特性を有する。
また、基準画像は、例えば、テストチャートまたはカラーチャートである。
また、基準画像は、例えば、解像度、歪み、色収差、あるいは、周波数特性のうちの1以上を測定するために用いられる。
また、第1の情報は、例えば、露出値あるいはF値のうちの少なくとも1つを含む。
また、例えば、パラメータは、撮像装置(図9、図10の例では、撮像装置201、412)の合焦に用いられる。
ここで、パラメータは、例えば、第1の画像の撮像に使用されるレンズ213の合焦に関するパラメータである。複数の第2の画像は、例えば、基準画像に対してパラメータの適正値からのずれごとに応じた点拡がり関数が施されて生成された画像である。
また、本実施形態に係る撮像装置201では、操作を受け付ける操作部242と、第3の画像を表示する表示部243と、第3の画像を撮像する撮像素子241と、を備える。なお、第3の画像は、任意の画像であってもよい。
また、本実施形態では、得られた画像から抽出されたROIを学習あるいは推論の処理対象としたが、これに限られない。例えば、本実施形態におけるROIの代わりに、得られた画像そのものが学習あるいは推論の処理対象とされてもよい。
また、本実施形態では、プーリングの後に発火が行われる場合を示したが、これに限られない。例えば、発火の後にプーリングが行われてもよい。
また、本実施形態では、機械学習の一例を示したが、他の任意の機械学習が用いられてもよい。
また、本実施形態では、サーバ装置411には、学習の機能が備えられない構成を示したが、これに限られない。例えば、サーバ装置411に、学習の機能が備えられてもよい。
また、本実施形態では、撮像装置201、412によって撮像されたいわゆる生画像(RAW画像)を演算に使用したが、これに限られない。例えば、撮像装置201、412によって撮像された後に加工された画像が演算に使用されてもよい。また、例えば、RGB画像、あるいは、MPEG画像などが演算に使用されてもよい。
また、RNNが用いられる場合、時間的に前後の情報に関連がある画像が用いられると、より学習の精度を高められる可能性がある。このような画像の一例としては、動画像がある。
なお、当該ハードウェア構成には、演算部111とともに記憶部112、114も含まれる。また、当該ハードウェア構成には、演算部432とともに記憶部434も含まれる。また、当該ハードウェア構成には、制御部245とともにメモリ244も含まれる。また、当該ハードウェア構成には、制御部452とともにメモリ244も含まれる。
コンピュータ501は、ホストコントローラ511と、CPU(Central Processing unit)512と、RAM(Random access Memory)513と、入力/出力コントローラ514と、通信インタフェース515と、ROM(Read only Memory)516とを備える。記憶部112、114、434あるいはメモリ244のそれぞれは、RAM513、ROM516であってもよい。
CPU512は、例えば、RAM513あるいはROM516に格納されたプログラムを読み出して実行することにより、各種の処理あるいは制御を実行する。通信インタフェース515は、例えば、ネットワークを介して、他のデバイスと通信する。図9の例では、他のデバイスは、位置検出素子232、撮像素子241、操作部242、表示部243、DCモータ251、回転センサ253であってもよい。図10の例では、他のデバイスは、位置検出素子232、撮像素子241、操作部242、表示部243、外部インタフェース451、DCモータ251、回転センサ253であってもよい。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波によって他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)あるいは電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
UAV601は、UAV本体611と、ジンバル612と、複数の撮像装置613〜615とを備える。UAV601は、回転翼によって飛行する飛行体の一例である。飛行体とは、UAVの他、空中を移動する他の航空機等を含む概念である。
UAV601は、遠隔操作装置602から送信される命令を受信し、当該命令にしたがって各種の処理を行う。
本実施形態では、例えば、図12に示される撮像装置613〜615のうちの1以上として、図1に示される撮像装置12、図9に示される撮像装置201あるいは図10に示される撮像装置412が用いられてもよい。
また、学習装置11、撮像装置201、あるいはサーバ装置411をコンピュータにより構成する場合に、当該コンピュータのプロセッサによって実行されるプログラムが実施されてもよい。
また、例えば、図9に示される撮像装置201の制御部245の部分などの装置、あるいは、図10に示されるサーバ装置411が、制御装置として捉えられてもよい。
Claims (13)
- 合焦位置に対応するレンズ位置において取得された第1の画像および前記第1の画像が撮像されたときの第1の情報を取得する取得部と、
前記合焦位置に対応するレンズ位置において取得された基準画像から取得された複数の第2の画像、前記第1の画像、および前記第1の情報から得られる特徴マップに基づくパラメータに対応するレンズ位置が前記合焦位置に対応するレンズ位置から予め定められた位置にまで近付くように前記パラメータの演算で用いられる重み付け値を調整することで、前記パラメータの各値と確率との対応において真値の推定確率が所定の確率以上となるように、前記パラメータを演算する制御部と、
を備える制御装置。 - 前記制御部は、複数の前記第2の画像、前記第1の画像、および前記第1の情報に対して少なくとも畳み込み演算およびプーリング演算を行うことで前記特徴マップを得る、
請求項1に記載の制御装置。 - 前記制御部は、前記重み付け値をフィルタ係数の値とするフィルタを用いて前記畳み込み演算を行う、
請求項2に記載の制御装置。 - 前記第2の画像は、前記基準画像が取得されたレンズ位置からずれたレンズ位置に対応するボケ画像である、
請求項1から請求項3のいずれか1項に記載の制御装置。 - 前記第2の画像は、前記基準画像に点拡がり関数が施されて取得された画像である、
請求項1から請求項4のいずれか1項に記載の制御装置。 - 前記点拡がり関数は、前記第1の画像が取得されたときに用いられたレンズと同じレンズ特性を有する、
請求項5に記載の制御装置。 - 前記基準画像は、テストチャートまたはカラーチャートである、
請求項1から請求項6のいずれか1項に記載の制御装置。 - 前記基準画像は、解像度、歪み、色収差、あるいは、周波数特性のうちの1以上を測定するために用いられる、
請求項1から請求項7のいずれか1項に記載の制御装置。 - 複数の合焦枠に対応する複数の前記合焦位置について、複数の前記合焦位置に対応する複数のレンズ位置において複数の前記第1の画像が取得される、
請求項1から請求項8のいずれか1項に記載の制御装置。 - 前記第1の情報は、露出値あるいはF値のうちの少なくとも1つを含む、
請求項1から請求項9のいずれか1項に記載の制御装置。 - 前記パラメータは、撮像装置の合焦に用いられ、推定確率が最も高い前記パラメータの値が前記合焦位置の値として採用される、
請求項1から請求項10のいずれか1項に記載の制御装置。 - 制御装置が、
合焦位置に対応するレンズ位置において取得された第1の画像および前記第1の画像が撮像されたときの第1の情報を取得する段階と、
前記合焦位置に対応するレンズ位置において取得された基準画像から取得された複数の第2の画像、前記第1の画像、および前記第1の情報から得られる特徴マップに基づくパラメータに対応するレンズ位置が前記合焦位置に対応するレンズ位置から予め定められた位置にまで近付くように前記パラメータの演算で用いられる重み付け値を調整することで、前記パラメータの各値と確率との対応において真値の推定確率が所定の確率以上となるように、前記パラメータを演算する段階と、
を備える方法。 - 合焦位置に対応するレンズ位置において取得された第1の画像および前記第1の画像が撮像されたときの第1の情報を取得する段階と、
前記合焦位置に対応するレンズ位置において取得された基準画像から取得された複数の第2の画像、前記第1の画像、および前記第1の情報から得られる特徴マップに基づくパラメータに対応するレンズ位置が前記合焦位置に対応するレンズ位置から予め定められた位置にまで近付くように前記パラメータの演算で用いられる重み付け値を調整することで、前記パラメータの各値と確率との対応において真値の推定確率が所定の確率以上となるように、前記パラメータを演算する段階と、
をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018174632A JP6679679B2 (ja) | 2018-09-19 | 2018-09-19 | 制御装置、方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018174632A JP6679679B2 (ja) | 2018-09-19 | 2018-09-19 | 制御装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020048058A JP2020048058A (ja) | 2020-03-26 |
JP6679679B2 true JP6679679B2 (ja) | 2020-04-15 |
Family
ID=69901943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018174632A Expired - Fee Related JP6679679B2 (ja) | 2018-09-19 | 2018-09-19 | 制御装置、方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6679679B2 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04330411A (ja) * | 1991-05-02 | 1992-11-18 | Olympus Optical Co Ltd | 自動合焦装置 |
JPH0854557A (ja) * | 1994-08-09 | 1996-02-27 | Nikon Corp | カメラのオートフォーカス装置 |
US7668388B2 (en) * | 2005-03-03 | 2010-02-23 | Mitutoyo Corporation | System and method for single image focus assessment |
KR100799829B1 (ko) * | 2006-10-11 | 2008-01-31 | 삼성전기주식회사 | 신경망을 이용한 오토포커싱 방법 |
KR20090002685A (ko) * | 2007-07-02 | 2009-01-09 | 삼성전기주식회사 | 오토 포커싱 장치 및 방법 |
-
2018
- 2018-09-19 JP JP2018174632A patent/JP6679679B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2020048058A (ja) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102298070B (zh) | 估算无人机,尤其是能够在自动驾驶下执行悬停飞行的无人机的水平速度的方法 | |
JP6570327B2 (ja) | 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 | |
EP3704508B1 (en) | Aperture supervision for single-view depth prediction | |
KR102640227B1 (ko) | 카메라 패닝 또는 모션에서 배경 블러링을 생성하는 시스템 및 방법 | |
WO2019227441A1 (zh) | 可移动平台的拍摄控制方法和设备 | |
CN109451240B (zh) | 对焦方法、装置、计算机设备和可读存储介质 | |
CN106998413A (zh) | 图像处理设备、摄像设备和图像处理方法 | |
WO2020172800A1 (zh) | 可移动平台的巡检控制方法和可移动平台 | |
JP6878736B2 (ja) | 制御装置、移動体、制御方法、及びプログラム | |
CN111194433A (zh) | 用于构图和捕捉图像的方法和系统 | |
Wang et al. | Automated camera-exposure control for robust localization in varying illumination environments | |
CN108298101B (zh) | 云台旋转的控制方法及装置、无人机 | |
KR102155154B1 (ko) | 드론을 이용한 예술사진 촬영방법 및 그 기능을 갖는 드론 | |
WO2022151473A1 (zh) | 拍摄控制方法、拍摄控制装置及云台组件 | |
WO2021184341A1 (en) | Autofocus method and camera system thereof | |
JP6679679B2 (ja) | 制御装置、方法およびプログラム | |
WO2018227345A1 (zh) | 控制方法和无人机 | |
JP6790318B2 (ja) | 無人航空機、制御方法、及びプログラム | |
CN112514366A (zh) | 图像处理方法、图像处理装置和图像处理系统 | |
US20220046177A1 (en) | Control device, camera device, movable object, control method, and program | |
US20220188993A1 (en) | Control apparatus, photographing apparatus, control method, and program | |
JP6503607B2 (ja) | 撮像制御装置、撮像装置、撮像システム、移動体、撮像制御方法、及びプログラム | |
CN110036411A (zh) | 生成电子三维漫游环境的装置和方法 | |
US11125970B2 (en) | Method for lens autofocusing and imaging device thereof | |
CN112154477A (zh) | 图像处理方法、装置和可移动平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6679679 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |