JP2023160153A - Imaging apparatus, method for controlling imaging apparatus, and program - Google Patents
Imaging apparatus, method for controlling imaging apparatus, and program Download PDFInfo
- Publication number
- JP2023160153A JP2023160153A JP2022070301A JP2022070301A JP2023160153A JP 2023160153 A JP2023160153 A JP 2023160153A JP 2022070301 A JP2022070301 A JP 2022070301A JP 2022070301 A JP2022070301 A JP 2022070301A JP 2023160153 A JP2023160153 A JP 2023160153A
- Authority
- JP
- Japan
- Prior art keywords
- score map
- visible light
- image
- imaging device
- light image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 107
- 238000000034 method Methods 0.000 title claims description 59
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 244000025254 Cannabis sativa Species 0.000 claims description 79
- 238000004364 calculation method Methods 0.000 description 46
- 238000010586 diagram Methods 0.000 description 20
- 238000010801 machine learning Methods 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 11
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000011800 void material Substances 0.000 description 4
- 230000006837 decompression Effects 0.000 description 3
- 229920000742 Cotton Polymers 0.000 description 2
- 239000004677 Nylon Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 229920001778 nylon Polymers 0.000 description 2
- 210000002268 wool Anatomy 0.000 description 2
- 241000219146 Gossypium Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、撮像装置、撮像装置の制御方法、及びプログラムに関する。 The present invention relates to an imaging device, a method of controlling the imaging device, and a program.
画像データから特徴量を抽出し、判別機を用いて画像データにおける被写体を判定する技術が知られている。このような技術の一つに、ニューラルネットワークの一種であるConvolutional Neural Network(以下、「CNN」とする。)がある。CNNは、局所的畳み込みの演算処理を複数段階で逐次的に行うという性質を持つ。関連する技術として、非特許文献1及び特許文献1の技術が提案されている。 2. Description of the Related Art There is a known technique for extracting feature amounts from image data and using a discriminator to determine a subject in the image data. One such technology is a Convolutional Neural Network (hereinafter referred to as "CNN"), which is a type of neural network. CNN has the property of sequentially performing local convolution processing in multiple stages. As related techniques, the techniques of Non-Patent Document 1 and Patent Document 1 have been proposed.
非特許文献1の技術では、画像がCNNで演算処理され、関心領域(Region of Interest)毎にCNNの最終層の特徴量が集計され、物体か否かが判定される。この処理が全関心領域に対して行われる。 In the technique of Non-Patent Document 1, an image is subjected to calculation processing using a CNN, and the feature amounts of the final layer of the CNN are aggregated for each region of interest, and it is determined whether the image is an object or not. This process is performed for all regions of interest.
また、特許文献1の技術では、階層型ニューラルネットワークの複数の層の出力を連結して連結階層特徴が生成され、その連結階層特徴を用いて空や建物、草や芝、肌等の属性を表すスコアマップが生成される。このスコアマップは、例えば、撮影時のホワイトバランス制御や露出制御に用いられる。 Furthermore, in the technology of Patent Document 1, connected hierarchical features are generated by connecting the outputs of multiple layers of a hierarchical neural network, and the connected hierarchical features are used to determine attributes such as the sky, buildings, grass, turf, skin, etc. A score map representing the This score map is used, for example, for white balance control and exposure control during photographing.
しかしながら、上述した特許文献1の技術では、機械学習が行われていないホワイトバランスや露出状態において、正確なスコアマップを算出できない懸念がある。 However, with the technique of Patent Document 1 mentioned above, there is a concern that an accurate score map cannot be calculated in white balance and exposure conditions where machine learning is not performed.
そこで、本発明の目的は、階層型ニューラルネットワークを用いて出力されたスコアマップの精度を向上させることができる撮像装置、撮像装置の制御方法、及びプログラムを提供することである。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an imaging device, a control method for the imaging device, and a program that can improve the accuracy of a score map output using a hierarchical neural network.
上記目的を達成するために、本発明の撮像装置は、可視光を受光する可視光撮像手段と、非可視光を受光する非可視光撮像手段とを備える撮像装置であって、前記可視光撮像手段によって得られた可視光画像を入力画像として、階層型ニューラルネットワークを用いて前記入力画像の領域の属性を表すスコアマップを生成する生成手段と、前記非可視光撮像手段によって得られた非可視光画像に基づいて前記スコアマップを補正する補正手段とを有することを特徴とする。 In order to achieve the above object, an imaging device of the present invention is an imaging device comprising a visible light imaging means for receiving visible light and a non-visible light imaging means for receiving non-visible light. generating means for generating a score map representing the attributes of a region of the input image using a hierarchical neural network, using the visible light image obtained by the means as an input image; The present invention is characterized by comprising a correction means for correcting the score map based on the optical image.
本発明によれば、階層型ニューラルネットワークを用いて出力されたスコアマップの精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of a score map output using a hierarchical neural network.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。各図面を通じて同一の構成要素には同一の符号を付し、その説明を簡略化又は省略することがある。なお、以下に説明する実施の形態は単なる例示であり、本発明は実施の形態に記載された構成に限定されない。 Hereinafter, preferred embodiments of the present invention will be described in detail based on the accompanying drawings. The same components are given the same reference numerals throughout the drawings, and their explanations may be simplified or omitted. Note that the embodiment described below is merely an example, and the present invention is not limited to the configuration described in the embodiment.
図1は、本実施の形態に係る撮像装置101の構成を概略的に示すブロック図である。本実施の形態において、撮像装置101は、例えば、被写体の画像を撮像するデジタルスチルカメラやデジタルビデオカメラである。なお、撮像装置101は、デジタルスチルカメラやデジタルビデオカメラに限られず、撮影機能を備えるスマートフォンやタブレット端末等の携帯端末であっても良い。
FIG. 1 is a block diagram schematically showing the configuration of an
撮像装置101は、結像光学系102及び光分離部103からなる1つの光学系、可視光撮像素子104、及び非可視光撮像素子105を備える。更に撮像装置101は、制御部106、画像処理部107、機械学習処理部108、スコアマップ算出部109、メモリ110、及び表示部111を備える。
The
可視光撮像素子104及び非可視光撮像素子105は、上記光学系を共通の光学系とする撮像素子である。可視光撮像素子104は、上記光学系を通過した可視光を受光して画像信号を生成する。この画像信号に基づいて可視光画像が生成される。非可視光撮像素子105は、上記光学系を通過した非可視光である赤外光を受光して画像信号を生成する。この画像信号に基づいて非可視光画像が生成される。可視光撮像素子104及び非可視光撮像素子105は、それぞれCMOSセンサやCCDセンサ等により構成されている。可視光撮像素子104及び非可視光撮像素子105は、それぞれ撮像面に結像された被写体像を電気信号に変換し、当該電気信号を画像信号として画像処理部107へ出力する。
The visible
結像光学系102は、単一のレンズ又は複数のレンズ群からなる。なお、結像光学系102は、ズーム、フォーカス、絞り、手振れ補正等の各制御機構の少なくとも1つを有していても良い。光分離部103は、波長選択プリズムで構成され、特定波長よりも短い波長の光(可視光)が波長選択プリズムを透過し、特定波長よりも長い波長の光(赤外光)が波長選択プリズムで反射されるように構成されている。なお、透過する/反射するとは、80%以上の光が透過する/反射することを意味する。波長選択プリズムを透過した可視光成分は、光分離部103の後方に配置された可視光撮像素子104により光電変換され、画像化される。一方、波長選択プリズムで反射した赤外光成分は、光軸を通り配置された非可視光撮像素子105により光電変換され、画像化される。ここで、特定波長を、例えば、600nm以上750nm以下とする。この場合、可視光と赤外光の境目は、600nm以上750nm以下と定義される。また、赤外光は、例えば、特定波長から2500nmまでの波長の光に相当する。
The imaging
可視光撮像素子104を構成する画素は、RGBベイヤー配列のオンチップカラーフィルタを備えている。可視光撮像素子104から出力されるRGB形式の可視光画像には、輝度情報の他に色情報が含まれている。一方、非可視光撮像素子105から出力される非可視光画像には、輝度情報のみが含まれている。なお、可視光撮像素子104は、可視光をメインとした感度分布を持っていれば良く、可視光以外の感度分布を持っていても良い。また、非可視光撮像素子105は、赤外光をメインとした感度分布を持っていれば良く、赤外光以外の光に対しても感度分布を持っていても良い。可視光撮像素子104、非可視光撮像素子105の駆動及び画像信号の読み出しは、制御部106によって制御される。
The pixels constituting the visible
なお、本実施の形態では、光分離部103を用いて可視光撮像素子104と非可視光撮像素子105に異なる分光特性の光を導く構成について説明するが、本発明はこの構成に限られない。例えば、可視光撮像素子104と非可視光撮像素子105が別々の独立した光学系を有する、所謂2眼タイプであっても良い。このような構成においても、互いに同期した撮像を行う。
Note that although this embodiment describes a configuration in which light with different spectral characteristics is guided to the visible
制御部106は、例えば、CPU、MPU、その他の専用演算回路等で構成され、撮像装置101全体の制御を司る。画像処理部107は、可視光撮像素子104と非可視光撮像素子105とからそれぞれ得られた画像信号に対して画像処理を行って、撮像素子毎の撮像画像データを生成する。この画像処理は、例えば、画素補間処理、色変換処理、画素欠陥補正やレンズ補正等の各種補正処理、黒レベルやフォーカスや露出等の調整を行うための検波処理、ホワイトバランス処理、ガンマ補正処理、エッジ強調処理、ノイズ抑制処理等を含む。また、この画像処理は、デモザイク処理を含む。例えば、RGB形式で読み出された可視光画像にデモザイク処理を施すと、可視光画像はYUV形式の画像に変換される。また、非可視光画像にデモザイク処理を施すと、非可視光画像はYUV形式の画像に変換される。なお、非可視光画像から変換されたYUV形式の画像は、色情報を有さず、UとVの値はゼロである。
The control unit 106 includes, for example, a CPU, an MPU, and other dedicated arithmetic circuits, and controls the
機械学習処理部108は、可視光画像を入力画像として、後述する図2のニューラルネットワーク201を用いて、「空」、「草芝」、「肌」等の属性毎のスコアマップを出力する。スコアマップ算出部109は、非可視光画像を用いて、機械学習処理部108によって得られた属性毎のスコアマップの補正処理を行う。
The machine
撮像装置101は、スコアマップ算出部109による補正処理済みのスコアマップを用いて、画像処理部107にてホワイトバランス制御を実行したり、可視光撮像素子104に対して制御部106を介して露出制御を行ったりする。
The
具体的に、ホワイトバランス制御では、「空」の属性を表すスコアマップを用いて、地面の赤みが強くなるのを防ぐ。また、空ではない雪景色では青みが残りやすいので、日陰と空を区別するために、「空」の属性を表すスコアマップが用いられる。また、「草芝」の属性を表すスコアマップを用いて、水銀灯光源下のシーンと草芝のシーンとを見分けた適切なホワイトバランス制御が行われる。 Specifically, white balance control uses a score map representing the attribute of "sky" to prevent the ground from becoming too reddish. Furthermore, since a snowy scene that is not a sky tends to have a bluish tint, a score map representing the attribute of "sky" is used to distinguish between shade and sky. In addition, appropriate white balance control is performed that distinguishes between a scene under a mercury lamp light source and a scene with grass and grass using a score map representing the attribute of "grass and grass."
露出制御では、顔の領域を用いて顔が適正露出になるように制御するが、顔の領域に髪の毛やマスク等が含まれている場合、適切に露出できないという課題がある。そこで、「肌」の属性を表すスコアマップを用いて、顔領域における肌領域のみを識別して肌領域が適正露出になるような制御が行われる。 In exposure control, the face area is used to control the face so that it is properly exposed. However, if the face area includes hair, a mask, etc., there is a problem in that appropriate exposure cannot be achieved. Therefore, a score map representing the attribute of "skin" is used to identify only the skin area in the face area, and control is performed so that the skin area is properly exposed.
メモリ110は、不揮発性メモリとRAM等で構成される。不揮発性メモリは、制御部106の処理手順(制御プログラム)や、各種パラメータを記憶する。RAMは、制御部106のワークエリアとして使用され、画像処理を行うための記憶領域としても使用される。
The
なお、本実施の形態では、制御部106は、画像処理部107、図示しない圧縮伸長部を含む構成であっても良い。これらのブロックが有する処理機能は、例えば、CPUがメモリ110に記憶されているプログラムを実行することにより実現することができる。或いは、制御部106を構成する専用演算回路により実現されても良い。
Note that in this embodiment, the control unit 106 may include an
制御部106は更に、図示しない圧縮伸長部にて圧縮画像を生成しても良い。圧縮伸長部は、静止画圧縮及び動画像圧縮を実行する。画像圧縮方式は、例えば、H.264、H.265、MPEG、JPEG等の規格に基づく圧縮方式である。なお、圧縮伸長部は、mp4やavi形式等の任意のデータ形式の画像を生成しても良い。圧縮伸長部によって生成された圧縮画像は、メモリ110や、撮像装置101に装着された不図示の記録媒体等に記録される。また、圧縮画像は、圧縮伸長部によって伸長処理が行われ、伸長処理によって得られた画像が表示部111に表示される。表示部111は、画像の表示以外に、ユーザ(操作者)に対し、ユーザインタフェース(UI)表示を行う。
The control unit 106 may further generate a compressed image using a compression/expansion unit (not shown). The compression/expansion section executes still image compression and moving image compression. The image compression method is, for example, H. 264, H. This compression method is based on standards such as H.265, MPEG, and JPEG. Note that the compression/decompression unit may generate an image in any data format such as mp4 or avi format. The compressed image generated by the compression/expansion unit is recorded in the
図2は、図1の機械学習処理部108の構成を概略的に示すブロック図である。図2において、機械学習処理部108は、ニューラルネットワーク201、連結特徴生成部202、及び属性判定部203を備える。
FIG. 2 is a block diagram schematically showing the configuration of the machine
ニューラルネットワーク201は、第1層~第n層(nは2以上の自然数)を有する階層型のニューラルネットワークであり、入力画像である可視光画像を処理する。連結特徴生成部202は、ニューラルネットワーク201における規定の層の出力(特徴マップ)を連結することで連結階層特徴を生成する特徴生成を行う。属性判定部203は、3つの尤度判定部203a~203cを備え、入力画像の領域の属性を表すスコアマップを生成する。尤度判定部203a~203cは、それぞれ連結特徴生成部202によって生成された連結階層特徴を用いて、対応する属性のスコアマップを生成する。尤度判定部203aは、「空」の属性の尤度スコア(以下、「空尤度スコア」という。)をマップ化した空尤度スコアマップを生成する。尤度判定部203bは、「草芝」の属性の尤度スコア(以下、「草芝尤度スコア」という。)をマップ化した草芝尤度スコアマップを生成する。尤度判定部203cは、「肌」の属性の尤度スコア(以下、「肌尤度スコア」という。)をマップ化した肌尤度スコアマップを生成する。
The
図3は、図1の機械学習処理部108によって行われるスコアマップ算出処理の手順を示すフローチャートである。
FIG. 3 is a flowchart showing the procedure of score map calculation processing performed by the machine
図3において、まず、ステップS301では、機械学習処理部108は、ニューラルネットワーク201に可視光画像を入力する。本実施の形態では、一例として、図4に示す可視光画像を入力した場合について説明する。この可視光画像には、木の領域や、人物の領域が含まれている。また、可視光画像401には、背景領域として、草や芝のある山の領域や、空の領域が含まれている。ニューラルネットワーク201は、ステップS301にて入力された可視光画像を処理する。
In FIG. 3, first, in step S301, the machine
次いで、ステップS302では、連結特徴生成部202は、ニューラルネットワーク201の処理結果を特徴として抽出する。具体的に、連結特徴生成部202は、ニューラルネットワーク201における規定の層の出力(特徴マップ)を抽出する。次いで、ステップS303では、連結特徴生成部202は、ステップS302にて抽出された規定の層の出力を連結することで連結階層特徴を生成する。次いで、ステップS304では、属性判定部203は、連結階層特徴を用いて、属性毎にスコアマップを生成する。具体的に、属性判定部203における尤度判定部203aは、図5に示すように、空尤度スコアをマップ化した空尤度スコアマップを生成する。尤度判定部203bは、図5に示すように、草芝尤度スコアをマップ化した草芝尤度スコアマップを生成する。尤度判定部203cは、図5に示すように、肌尤度スコアをマップ化した肌尤度スコアマップを生成する。図5では、各属性の尤度スコアが最も大きい領域ブロックを白色とし、尤度スコアが最も小さい領域ブロックを黒色として、尤度スコアに応じて各領域ブロックがグレーの階調で表されている。その後、本処理は終了する。
Next, in step S302, the connected
ここで、機械学習処理部108では、機械学習が行われていないホワイトバランスや露出状態において、正確なスコアマップを算出できない懸念がある。
Here, there is a concern that the machine
これに対し、本実施の形態では、非可視光撮像素子105によって得られた非可視光画像に基づいて尤度スコアマップの補正が行われる。
In contrast, in the present embodiment, the likelihood score map is corrected based on the invisible light image obtained by the invisible
図6は、図1の撮像装置101によって用いられる画像の一例を示す図である。図6(a)は可視光画像の一例を示す。図6(b)は非可視光画像の一例を示す。本実施の形態では、非可視光画像は、波長が750nmから2500nmまでの近赤外光の画像である。近赤外光下では、空は赤外線が少なく、また、草や芝等は赤外線を多く反射する。このため、非可視光画像において、空の領域は暗く(黒色)なり、草芝の領域は明るく(白色)なるという特徴がある。また、人間が着ている洋服において、コットン、ナイロン、ウール等の素材は赤外線を多く反射するため、非可視光画像において、これらの素材の洋服の領域はやや明るくなるという特徴がある。一方、人間の肌は、草、芝、コットン、ナイロン、ウール等程多くの赤外線を反射しないが、或る程度の赤外線を反射する。このため、非可視光画像において、肌の領域は、黒色と白色の中間程度(グレー色)になるという特徴がある。
FIG. 6 is a diagram illustrating an example of an image used by the
次に、スコアマップ算出部109によって行われる非可視光画像を用いた尤度スコアマップの補正について説明する。
Next, the correction of the likelihood score map using the non-visible light image performed by the score
図7は、図1のスコアマップ算出部109によって行われる空尤度スコアマップの補正を説明するための図である。本実施の形態では、非可視光画像と、尤度判定部203aによって生成された空尤度スコアマップとがスコアマップ算出部109に入力される。なお、空尤度スコアマップ及び非可視光画像は、同じ画素数であり、1画素あたり8bit(0~255)の階調(レベル)を持っているものとする。尤度判定部203aによって生成された空尤度スコアマップは、正確な尤度スコアマップではなく、図7に示すように、空の領域以外の一部の領域で、空尤度スコア(画素値)が大きくなっている。例えば、洋服の領域において空尤度スコアが非常に大きくなっており(画素値(192))、また、草芝の領域において空尤度スコアが僅かに大きくなっている(画素値(64))。
FIG. 7 is a diagram for explaining the correction of the null likelihood score map performed by the score
まず、スコアマップ算出部109は、空尤度スコアマップ及び非可視光画像を取得すると、空尤度スコアマップに対して反転処理を行う。具体的には、スコアマップ算出部109は、画素値(0)を画素値(255)に変換し、画素値(255)を画素値(0)に変換するといった反転処理を行う。
First, upon acquiring the sky likelihood score map and the non-visible light image, the score
次いで、スコアマップ算出部109は、反転処理済みの空尤度スコアマップと非可視光画像とで対応する画素の画素値を比較し、大きい方の画素値を出力する大値選択処理を行う。例えば、尤度判定部203aによって生成された空尤度スコアマップにおいて空尤度スコア(画素値)が非常に大きい洋服の領域について、反転処理済みの空尤度スコアマップでは、上述した反転処理によってこの領域の画素値が非常に小さくなる。このため、洋服の領域では、反転処理済みの空尤度スコアマップより、非可視光画像の方が画素値が大きくなり、非可視光画像の画素値が出力される。草芝の領域でも同様に、反転処理済みの空尤度スコアマップより、非可視光画像の方が画素値が大きくなるため、非可視光画像の画素値が出力される。
Next, the score
次いで、スコアマップ算出部109は、大値選択処理によって出力された画素値を反転出力する。このような処理を、スコアマップ算出部109は、空尤度スコアマップを構成する全ての画素に対して行う。これにより、尤度判定部203aによって生成された空尤度スコアマップにおいて、空の領域以外で空尤度スコアが大きくなっていた草芝の領域や洋服の領域の空尤度スコアを小さく補正することができ、空尤度スコアマップの精度を向上することができる。
Next, the score
図8は、図1のスコアマップ算出部109によって行われる草芝尤度スコアマップの補正を説明するための図である。本実施の形態では、非可視光画像と、尤度判定部203bによって生成された草芝尤度スコアマップとが、スコアマップ算出部109に入力される。なお、草芝尤度スコアマップ及び非可視光画像は、同じ画素数であり、1画素あたり8bit(0~255)の階調(レベル)を持っているものとする。尤度判定部203bによって生成された草芝尤度スコアマップは、正確な尤度スコアマップではなく、図8に示すように、草芝の領域以外の一部の領域で、草芝尤度スコアが大きくなっている。例えば、人物の顔の領域において草芝尤度スコアが非常に大きくなっており(画素値(255))、また、空の領域において草芝尤度スコアが僅かに大きくなっている(画素値(32))。
FIG. 8 is a diagram for explaining the correction of the grass and turf likelihood score map performed by the score
まず、スコアマップ算出部109は、草芝尤度スコアマップ及び非可視光画像を取得すると、草芝尤度スコアマップ及び非可視光画像に対してそれぞれ上述した反転処理を行う。次いで、スコアマップ算出部109は、反転処理済みの草芝尤度スコアマップと反転処理済みの非可視光画像とで対応する画素の画素値を比較し、大きい方の画素値を出力する大値選択処理を行う。
First, upon acquiring the grass and turf likelihood score map and the non-visible light image, the score
例えば、尤度判定部203bによって生成された草芝尤度スコアマップにおいて草芝尤度スコア(画素値)が非常に大きい人物の顔の領域について、反転処理済みの草芝尤度スコアマップでは、上述した反転処理によってこの領域の画素値が非常に小さくなる(画素値(0))。このため、人物の顔の領域では、反転処理済みの草芝尤度スコアマップより、反転処理済みの非可視光画像の方が画素値が大きくなり、反転処理済みの非可視光画像の画素値が出力される。空の領域でも同様に、反転処理済みの草芝尤度スコアマップより、反転処理済みの非可視光画像の方が画素値が大きくなるため、非可視光画像の画素値が出力される。次いで、スコアマップ算出部109は、大値選択処理によって出力された画素値を反転出力する。このような処理を、スコアマップ算出部109は、草芝尤度スコアマップを構成する全ての画素に対して行う。これにより、尤度判定部203bによって生成された草芝尤度スコアマップにおいて、草芝の領域以外で草芝尤度スコアが大きくなっていた人物の顔の領域や空の領域の草芝尤度スコアを小さく補正することができ、草芝尤度スコアマップの精度を向上することができる。
For example, for a region of a person's face that has a very large Kusashiba likelihood score (pixel value) in the Kusashiba likelihood score map generated by the
図9は、図1のスコアマップ算出部109によって行われる肌尤度スコアマップの補正を説明するための図である。本実施の形態では、非可視光画像と、尤度判定部203cによって生成された肌尤度スコアマップとが、スコアマップ算出部109に入力される。なお、肌尤度スコアマップ及び非可視光画像は、同じ画素数であり、1画素あたり8bit(0~255)の階調(レベル)を持っているものとする。尤度判定部203cによって生成された肌尤度スコアマップは、正確な尤度スコアマップではなく、図9に示すように、肌の領域以外の一部の領域で、肌尤度スコアが大きくなっている。例えば、洋服の領域において肌尤度スコアが非常に大きくなっており(画素値(128))、また、空の領域や草芝の領域において肌尤度スコアが僅かに大きくなっている(画素値(32))。
FIG. 9 is a diagram for explaining the correction of the skin likelihood score map performed by the score
まず、スコアマップ算出部109は、肌尤度スコアマップ及び非可視光画像を取得すると、肌尤度スコアマップに対して上述した反転処理を行う。また、スコアマップ算出部109は、非可視光画像の各画素において、予め決められた所定値、例えば、128から画素値を差し引く減算処理を行う。この所定値は、例えば、非可視光画像において肌の領域は黒色と白色の中間程度(グレー色)になるという特徴から決定された値であり、画素値における略中間の値に相当する値である。なお、減算処理において算出した結果が負の値になった場合、算出した結果を0に置き換えるクリップ処理を行う。つまり、本実施の形態では、非可視光画像において画素値が上記所定値以上となる領域、例えば、草芝の領域や洋服の領域について、これらの処理によって算出した結果として、0が得られる。次いで、スコアマップ算出部109は、これらの処理によって算出した結果に対して上述した反転処理を行って減算処理済みの非可視光画像を生成する。次いで、スコアマップ算出部109は、反転処理済みの肌尤度スコアマップと減算処理済みの非可視光画像とで対応する画素の画素値を比較し、大きい方の画素値を出力する大値選択処理を行う。
First, upon acquiring the skin likelihood score map and the non-visible light image, the score
例えば、尤度判定部203cによって生成された肌尤度スコアマップにおいて肌尤度スコア(画素値)が非常に大きい洋服の領域について、反転処理済みの肌尤度スコアマップでは、上述した反転処理によってこの領域の画素値が127となる。一方、減算処理済みの非可視光画像では、上述した減算処理、クリップ処理によって得られた0に対して反転処理が行われ、上記領域の画素値が255となる。このように、洋服の領域では、反転処理済みの肌尤度スコアマップより、減算処理済みの非可視光画像の方が画素値が大きくなるため、非可視光画像の画素値が出力される。また、草芝の領域でも同様に、反転処理済みの肌尤度スコアマップより、減算処理済みの非可視光画像の方が画素値が大きくなるため、非可視光画像の画素値が出力される。次いで、スコアマップ算出部109は、大値選択処理によって出力された画素値を反転出力する。このような処理を、スコアマップ算出部109は、肌尤度スコアマップを構成する全ての画素に対して行う。これにより、尤度判定部203cによって生成された肌尤度スコアマップにおいて、肌の領域以外で肌尤度スコアが大きくなっていた草芝の領域や洋服の領域等の肌尤度スコアを小さく補正することができ、肌尤度スコアマップの精度を向上することができる。
For example, regarding a region of clothing in which the skin likelihood score (pixel value) is very large in the skin likelihood score map generated by the
図10は、図1の撮像装置101によって実行される制御処理の手順を示すフローチャートである。図10の制御処理は、制御部106がメモリ110に記憶されているプログラムを実行することにより実現することができる。
FIG. 10 is a flowchart showing the procedure of control processing executed by the
図10において、まず、ステップS1001では、制御部106は、可視光撮像素子104を駆動させる。これにより、可視光撮像素子104は、可視光を受光して画像信号を生成する。この画像信号に基づいて可視光画像が生成される。次いで、ステップS1002では、制御部106は、画像処理部107に対し、可視光画像の画像処理の実行を指示する。この指示を受けた画像処理部107は、可視光画像に対して各種画像処理を施す。
In FIG. 10, first, in step S1001, the control unit 106 drives the visible
次いで、ステップS1003では、制御部106は、可視光画像がホワイトバランス用のサンプリングフレームの画像であるか否かを判別する。例えば、EVFのフレームレートが120[fps]で動作する時、ホワイトバランスを毎フレーム切り替えると、画面のちらつきが発生し、視認性が悪くなってしまう。このため、本実施の形態では、30[fps]等の低フレームレートでホワイトバランス用にサンプリングが行われる。 Next, in step S1003, the control unit 106 determines whether the visible light image is an image of a sampling frame for white balance. For example, when the EVF operates at a frame rate of 120 [fps], if the white balance is changed every frame, the screen will flicker, resulting in poor visibility. Therefore, in this embodiment, sampling for white balance is performed at a low frame rate such as 30 [fps].
ステップS1003において、可視光画像がホワイトバランス用のサンプリングフレームの画像であると判別された場合、処理はステップS1004へ進む。ステップS1004では、制御部106は、非可視光撮像素子105を駆動させる。これにより、非可視光撮像素子105は、非可視光である赤外光を受光して画像信号を生成する。この画像信号に基づいて非可視光画像が生成される。
If it is determined in step S1003 that the visible light image is an image of a sampling frame for white balance, the process advances to step S1004. In step S1004, the control unit 106 drives the invisible
次いで、ステップS1005において、制御部106は、画像処理部107に対し、非可視光画像の画像処理の実行を指示する。この指示を受けた画像処理部107は、非可視光画像に対して各種画像処理を施す。次いで、ステップS1006において、制御部106は、機械学習処理部108に対し、上述した尤度スコアマップの生成を指示する。この指示を受けた機械学習処理部108は、可視光画像を入力画像として、上述した尤度スコアマップを生成する。次いで、ステップS1007において、制御部106は、スコアマップ算出部109に対し、機械学習処理部108によって生成された尤度スコアマップの補正を指示する。この指示を受けたスコアマップ算出部109は、上述したように、非可視光画像を用いて、機械学習処理部108によって生成された尤度スコアマップの補正を行う。次いで、ステップS1008において、制御部106は、撮影を終了するか否かを判別する。ステップS1008では、例えば、ユーザから撮影の終了指示となる所定の操作を受け付けた場合、制御部106は、撮影を終了すると判別する。一方、上述した所定の操作を受け付けない場合、制御部106は、撮影を終了しないと判別する。
Next, in step S1005, the control unit 106 instructs the
ステップS1008において、撮影を終了しないと判別された場合、処理はステップS1001へ戻る。ステップS1008において、撮影を終了すると判別された場合、本処理は終了する。 If it is determined in step S1008 that photographing is not to be completed, the process returns to step S1001. If it is determined in step S1008 that the photographing is to be completed, this processing ends.
ステップS1003において、可視光画像がホワイトバランス用のサンプリングフレームの画像でないと判別された場合、非可視光撮像素子105を駆動させる制御は行われず、処理はステップS1009へ進む。このように本実施の形態では、尤度スコアマップの精度を向上させたいフレームに対してのみ、非可視光撮像素子105を駆動させるように制御することで、撮像装置101の電力の消費を抑えることができる。
If it is determined in step S1003 that the visible light image is not an image of a sampling frame for white balance, control to drive the invisible
ステップS1009では、制御部106は、機械学習処理部108に対し、顔位置を把握するためのスコアマップ(不図示)の生成を指示する。この指示を受けた機械学習処理部108は、取得した可視光画像に基づいて、顔位置を把握するためのスコアマップを生成する。顔位置を把握するためのスコアマップは、撮影時の被写体の追跡に用いられる。次いで、処理は後述するステップS1008へ進む。
In step S1009, the control unit 106 instructs the machine
上述した実施の形態によれば、非可視光撮像素子105によって得られた非可視光画像に基づいて尤度スコアマップの補正が行われる。これにより、ニューラルネットワーク201を用いて出力される尤度スコアマップの精度を向上させることができる。
According to the embodiment described above, the likelihood score map is corrected based on the invisible light image obtained by the invisible
なお、上述した実施の形態では、入力画像となる可視光画像がホワイトバランス用のサンプリングフレームの画像である場合に、非可視光撮像素子105を駆動させる構成について説明したが、本発明はこの構成に限られない。例えば、入力画像となる可視光画像が露出制御やシーン認識制御(風景、夜景等)といった尤度スコアマップを使用する所定の制御に用いられるフレームの画像である場合に、非可視光撮像素子105を駆動させるように制御しても良い。このように制御することで、撮像装置101の電力の消費を最小限に抑えつつ、露出制御やシーン認識制御に使用される尤度スコアマップの精度を向上することができる。
Note that in the embodiment described above, a configuration was described in which the invisible
また、上述した実施の形態では、スコアマップ算出部109は、上述した図7~図9に示す方法と異なる方法で、尤度スコアマップの補正を行っても良い。
Furthermore, in the embodiment described above, the score
図11は、図1のスコアマップ算出部109によって行われる空尤度スコアマップの補正を説明するための図である。なお、空尤度スコアマップ及び非可視光画像は、上述した通り、同じ画素数であり、1画素あたり8bit(0~255)の階調(レベル)を持っているものとする。また、図11では、図7と同様に、尤度判定部203aによって生成された空尤度スコアマップは、正確な尤度スコアマップではなく、空の領域以外の一部の領域で、空尤度スコアが大きくなっている。例えば、洋服の領域において空尤度スコアが非常に大きくなっており(画素値(192))、また、草芝の領域において空尤度スコアが僅かに大きくなっている(画素値(64))。
FIG. 11 is a diagram for explaining the correction of the null likelihood score map performed by the score
まず、スコアマップ算出部109は、非可視光画像と、予め決められた第1の閾値、例えば、64との比較を行う。第1の閾値は、非可視光画像において空の領域の画素値として想定される値より大きい値であり、且つ非可視光画像において空の領域以外の領域の画素値として想定される値より小さい値である。非可視光画像では、空の領域は暗い(黒色)、つまり、画素値が最小値(0)に近い値となるため、画素値が第1の閾値より小さい領域は空の領域としての信頼度が高いと言える。そのため、非可視光画像において画素値が第1の閾値より小さい領域は、空の領域としての信頼度が高い領域であると判断され、空尤度スコアマップにおいてこの領域に対応する画素の画素値がそのまま使用される。一方、非可視光画像において画素値が第1の閾値以上である領域は、空の領域としての信頼度が低い領域であると判断され、空尤度スコアマップにおいてこの領域に対応する画素の画素値が0に変換される。このような補正を行うことで、尤度判定部203aによって生成された空尤度スコアマップにおいて、空尤度スコアが大きくなっていた草芝の領域や洋服の領域の空尤度スコアを0に補正することができ、空尤度スコアマップの精度を向上することができる。
First, the score
図12は、図1のスコアマップ算出部109によって行われる草芝尤度スコアマップの補正を説明するための図である。なお、草芝尤度スコアマップ及び非可視光画像は、上述した通り、同じ画素数であり、1画素あたり8bit(0~255)の階調(レベル)を持っているものとする。図12でも、図8と同様に、尤度判定部203bによって生成された草芝尤度スコアマップは、正確な尤度スコアマップではなく、草芝の領域以外の一部の領域で、草芝尤度スコアが大きくなっている。例えば、人物の顔の領域において草芝尤度スコアが非常に大きくなっており(画素値(255))、また、空の領域において草芝尤度スコアが僅かに大きくなっている(画素値(32))。
FIG. 12 is a diagram for explaining the correction of the grass and turf likelihood score map performed by the score
まず、スコアマップ算出部109は、非可視光画像と、予め決められた第2の閾値、例えば、96との比較を行う。第2の閾値は、非可視光画像において草芝の領域の画素値として想定される値より小さい値であり、且つ非可視光画像において草芝の領域以外の領域の画素値として想定される値より大きい値である。非可視光画像では、草芝の領域は明るい(白色)、つまり、画素値が最大値(255)に近い値になるため、画素値が第2の閾値より大きい領域は草芝の領域としての信頼度が高いと言える。そのため、非可視光画像において画素値が第2の閾値よりも大きい領域は、草芝の領域としての信頼度が高い領域であると判断され、草芝尤度スコアマップにおいてこの領域に対応する画素の画素値がそのまま使用される。一方、非可視光画像において画素値が第2の閾値以下となる領域は、草芝の領域としての信頼度が低い領域であると判断され、草芝尤度スコアマップにおいてこの領域に対応する画素の画素値が0に変換される。このような補正を行うことで、尤度判定部203bによって生成された草芝尤度スコアマップにおいて、草芝尤度スコアが大きくなっていた人物の顔の領域や空の領域の草芝尤度スコアを0に補正することができ、草芝尤度スコアマップの精度を向上することができる。
First, the score
図13は、図1のスコアマップ算出部109によって行われる肌尤度スコアマップの補正を説明するための図である。なお、肌尤度スコアマップ及び非可視光画像は、上述した通り、同じ画素数であり、1画素あたり8bit(0~255)の階調(レベル)を持っているものとする。図13でも、図9と同様に、尤度判定部203cによって生成された肌尤度スコアマップは、正確な尤度スコアマップではなく、肌の領域以外の一部の領域で、肌尤度スコアが大きくなっている。例えば、洋服の領域において肌尤度スコアが非常に大きくなっており(画素値(128))、また、空の領域や草芝の領域において肌尤度スコアが僅かに大きくなっている(画素値(32))。
FIG. 13 is a diagram for explaining the correction of the skin likelihood score map performed by the score
まず、スコアマップ算出部109は、非可視光画像と、予め決められた第3の閾値、例えば、128との比較を行う。第3の閾値は、非可視光画像において肌の領域の画素値として想定される値より大きい値であり、且つ非可視光画像において肌の領域以外の所定の領域、例えば、洋服の領域や草芝の領域の画素値として想定される値より小さい値である。非可視光画像では、肌の領域はやや暗い(グレー)、つまり、画素値が中間程度の値になるため、画素値が第3の値より小さい領域は肌の領域としての信頼度が高いと言える。そのため、非可視光画像において画素値が第3の閾値より小さい領域は、肌の領域としての信頼度が高いと判断され、肌尤度スコアマップにおいてこの領域に対応する画素の画素値がそのまま使用される。一方、非可視光画像において画素値が第3の閾値以上である領域は、肌の領域としての信頼度が低い領域であると判断され、肌尤度スコアマップにおいてこの領域に対応する画素の画素値が0に変換される。このような補正を行うことで、尤度判定部203cによって生成された肌尤度スコアマップにおいて、肌尤度スコアが大きくなっていた草芝の領域や洋服の領域等の肌尤度スコアを0に補正することができ、肌尤度スコアマップの精度を向上することができる。
First, the score
このように上述した実施の形態では、非可視光画像を構成する画素の画素値と予め決められた閾値(第1の閾値、第2の閾値、第3の閾値)とを比較した結果に基づいて、尤度スコアマップにおいて当該画素に対応する画素の画素値を補正するか否かが決定される。これにより、尤度スコアマップの精度を向上することができる。 As described above, in the embodiment described above, based on the result of comparing the pixel values of pixels constituting the invisible light image with predetermined thresholds (first threshold, second threshold, third threshold), Then, it is determined whether or not to correct the pixel value of the pixel corresponding to the pixel in the likelihood score map. Thereby, the accuracy of the likelihood score map can be improved.
また、上述した実施の形態では、閾値は、尤度スコアマップが表す属性毎に異なるので、属性に応じて尤度スコアマップに適切な補正を行うことができる。 Furthermore, in the embodiments described above, the threshold value differs for each attribute represented by the likelihood score map, so it is possible to appropriately correct the likelihood score map depending on the attribute.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、機能ごとに、プロセッサがプログラムを読み出すことによって実行されるものと、回路をによって実行されるものに分け、これらを組み合わせるようにしてもよい。
(Other examples)
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a recording medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. Further, each function may be divided into those executed by a processor reading a program and those executed by a circuit, and these may be combined.
また、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Further, although preferred embodiments of the present invention have been described, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.
本実施の形態の開示は、以下の構成及び方法を含む。 The disclosure of this embodiment includes the following configuration and method.
(構成1)可視光を受光する可視光撮像手段と、非可視光を受光する非可視光撮像手段とを備える撮像装置であって、前記可視光撮像手段によって得られた可視光画像を入力画像として、階層型ニューラルネットワークを用いて前記入力画像の領域の属性を表すスコアマップを生成する生成手段と、前記非可視光撮像手段によって得られた非可視光画像に基づいて前記スコアマップを補正する補正手段とを有することを特徴とする撮像装置。
(構成2)前記補正手段は、前記スコアマップを構成する全ての画素の画素値を反転させた反転処理済みのスコアマップを生成し、前記反転処理済みのスコアマップと前記非可視光画像とで対応する画素の画素値を比較して大きい方の画素値を出力する大値選択処理を行い、前記大値選択処理によって出力された画素値を反転させた画素値を用いて、前記スコアマップを補正することを特徴とする構成1に記載の撮像装置。
(構成3)前記スコアマップは、前記入力画像の領域の空の属性を表す尤度スコアをマップ化した空尤度スコアマップであることを特徴とする構成2に記載の撮像装置。
(構成4)前記補正手段は、前記スコアマップを構成する全ての画素の画素値を反転させた反転処理済みのスコアマップを生成し、前記非可視光画像を構成する全ての画素の画素値を反転させた反転処理済みの非可視光画像を生成し、前記反転処理済みのスコアマップと前記反転処理済みの非可視光画像とで対応する画素の画素値を比較して大きい方の画素値を出力する大値選択処理を行い、前記大値選択処理によって出力された画素値を反転させた画素値を用いて、前記スコアマップを補正することを特徴とする構成1に記載の撮像装置。
(構成5)前記スコアマップは、前記入力画像の領域の草芝の属性を表す尤度スコアをマップ化した草芝尤度スコアマップであることを特徴とする構成4に記載の撮像装置。
(構成6)前記補正手段は、前記スコアマップを構成する全ての画素の画素値を反転させた反転処理済みのスコアマップを生成し、前記非可視光画像を構成する全ての画素の画素値に所定の演算処理を行って得られた値を反転させて演算処理済みの非可視光画像を生成し、前記反転処理済みのスコアマップと前記演算処理済みの非可視光画像とで対応する画素の画素値を比較して大きい方の画素値を出力する大値選択処理を行い、前記大値選択処理によって出力された画素値を反転させた画素値を用いて、前記スコアマップを補正することを特徴とする構成1に記載の撮像装置。
(構成7)前記所定の演算処理は、前記非可視光画像を構成する画素において、予め決められた所定値から当該画素の画素値を減算し、減算して得られた値が正の値である場合には当該値を反転させた値を用い、減算して得られた値が負の値である場合には0を反転させた値を用いて、演算処理済みの非可視光画像を生成する処理であることを特徴とする構成6に記載の撮像装置。
(構成8)前記スコアマップは、前記入力画像の領域の肌の属性を表す尤度スコアをマップ化した肌尤度スコアマップであることを特徴とする構成6又は7に記載の撮像装置。
(構成9)前記補正手段は、前記非可視光画像を構成する画素の画素値と予め決められた閾値とを比較した結果に基づいて、前記スコアマップにおいて当該画素に対応する画素の画素値を補正するか否かを決定することを特徴とする構成1に記載の撮像装置。
(構成10)前記閾値は、前記スコアマップが表す属性毎に異なることを特徴とする構成9に記載の撮像装置。
(構成11)前記非可視光撮像手段の駆動を制御する制御手段を更に備え、前記制御手段は、前記入力画像が撮影に関する所定の制御に用いられるフレームの画像である場合に前記非可視光撮像手段を駆動させ、前記入力画像が前記所定の制御に用いられるフレームの画像でない場合に前記非可視光撮像手段を駆動させないように制御することを特徴とする構成1乃至10の何れか1項に記載の撮像装置。
(構成12)前記所定の制御は、ホワイトバランス制御、露出制御、又はシーン認識制御であることを特徴とする構成11に記載の撮像装置。
(構成13)可視光を受光する可視光撮像手段と、非可視光を受光する非可視光撮像手段とを備える撮像装置の制御方法であって、前記可視光撮像手段によって得られた可視光画像を入力画像として、階層型ニューラルネットワークを用いて前記入力画像の領域の属性を表すスコアマップを生成する生成工程と、前記非可視光撮像手段によって得られた非可視光画像に基づいて前記スコアマップを補正する補正工程とを有することを特徴とする撮像装置の制御方法。
(Structure 1) An imaging device comprising a visible light imaging means for receiving visible light and an invisible light imaging means for receiving non-visible light, wherein the visible light image obtained by the visible light imaging means is used as an input image. generating means for generating a score map representing attributes of a region of the input image using a hierarchical neural network; and correcting the score map based on the invisible light image obtained by the invisible light imaging means. An imaging device comprising: a correction means.
(Structure 2) The correction means generates an inverted score map in which the pixel values of all pixels constituting the score map are inverted, and combines the inverted score map and the invisible light image. A large value selection process is performed to compare the pixel values of corresponding pixels and output the larger pixel value, and the score map is created using a pixel value obtained by inverting the pixel value output by the large value selection process. The imaging device according to configuration 1, wherein the imaging device performs correction.
(Structure 3) The imaging device according to Structure 2, wherein the score map is a sky likelihood score map that maps likelihood scores representing sky attributes of the region of the input image.
(Structure 4) The correction means generates an inverted score map in which the pixel values of all pixels constituting the score map are inverted, and inverts the pixel values of all pixels constituting the invisible light image. Generate an inverted invisible light image that has been inverted, compare the pixel values of corresponding pixels in the inverted score map and the inverted invisible light image, and select the larger pixel value. The imaging device according to configuration 1, wherein a large value selection process to be output is performed, and the score map is corrected using a pixel value obtained by inverting the pixel value outputted by the large value selection process.
(Structure 5) The imaging device according to Structure 4, wherein the score map is a grass likelihood score map that is a map of likelihood scores representing attributes of grass in the area of the input image.
(Structure 6) The correction means generates an inverted score map in which the pixel values of all pixels constituting the score map are inverted, and the correction means generates an inverted score map in which the pixel values of all pixels constituting the invisible light image are inverted. The values obtained by performing predetermined arithmetic processing are inverted to generate an arithmetic-processed invisible light image, and the corresponding pixels are Performing a large value selection process that compares pixel values and outputs the larger pixel value, and correcting the score map using a pixel value obtained by inverting the pixel value output by the large value selection process. The imaging device according to feature 1.
(Structure 7) The predetermined calculation process subtracts the pixel value of the pixel from a predetermined value in the pixels constituting the invisible light image, and the value obtained by subtraction is a positive value. In some cases, the inverted value is used, and if the value obtained by subtraction is a negative value, the inverted value of 0 is used to generate a computationally processed invisible light image. The imaging device according to configuration 6, characterized in that the processing is performed.
(Structure 8) The imaging device according to Structure 6 or 7, wherein the score map is a skin likelihood score map that is a map of likelihood scores representing skin attributes of the region of the input image.
(Structure 9) The correction means calculates the pixel value of the pixel corresponding to the pixel in the score map based on the result of comparing the pixel value of the pixel constituting the invisible light image with a predetermined threshold value. The imaging device according to configuration 1, wherein the imaging device determines whether or not to perform correction.
(Configuration 10) The imaging device according to Configuration 9, wherein the threshold value differs for each attribute represented by the score map.
(Structure 11) Further comprising a control means for controlling driving of the invisible light imaging means, wherein the control means controls the invisible light imaging when the input image is an image of a frame used for predetermined control regarding photography. According to any one of configurations 1 to 10, the control is performed so that the invisible light imaging means is not driven when the input image is not an image of a frame used for the predetermined control. The imaging device described.
(Configuration 12) The imaging device according to Configuration 11, wherein the predetermined control is white balance control, exposure control, or scene recognition control.
(Structure 13) A method for controlling an imaging device comprising a visible light imaging means for receiving visible light and an invisible light imaging means for receiving non-visible light, the visible light image being obtained by the visible light imaging means. is an input image, a generation step of generating a score map representing attributes of a region of the input image using a hierarchical neural network, and a generation step of generating the score map based on the invisible light image obtained by the invisible light imaging means. A method for controlling an imaging device, comprising: a correction step for correcting.
101 撮像装置
104 可視光撮像素子
105 非可視光撮像素子
106 制御部
108 機械学習処理部
109 スコアマップ算出部
201 ニューラルネットワーク
101
Claims (14)
前記可視光撮像手段によって得られた可視光画像を入力画像として、階層型ニューラルネットワークを用いて前記入力画像の領域の属性を表すスコアマップを生成する生成手段と、
前記非可視光撮像手段によって得られた非可視光画像に基づいて前記スコアマップを補正する補正手段とを有することを特徴とする撮像装置。 An imaging device comprising visible light imaging means for receiving visible light and invisible light imaging means for receiving non-visible light,
A generation unit that uses a visible light image obtained by the visible light imaging unit as an input image and generates a score map representing attributes of a region of the input image using a hierarchical neural network;
An imaging device comprising: a correction means for correcting the score map based on the invisible light image obtained by the invisible light imaging means.
前記制御手段は、前記入力画像が撮影に関する所定の制御に用いられるフレームの画像である場合に前記非可視光撮像手段を駆動させ、前記入力画像が前記所定の制御に用いられるフレームの画像でない場合に前記非可視光撮像手段を駆動させないように制御することを特徴とする請求項1に記載の撮像装置。 further comprising a control means for controlling driving of the invisible light imaging means,
The control means drives the invisible light imaging means when the input image is a frame image used for predetermined control regarding photography, and when the input image is not a frame image used for the predetermined control. 2. The imaging apparatus according to claim 1, wherein control is performed so that the non-visible light imaging means is not driven.
前記可視光撮像手段によって得られた可視光画像を入力画像として、階層型ニューラルネットワークを用いて前記入力画像の領域の属性を表すスコアマップを生成する生成工程と、
前記非可視光撮像手段によって得られた非可視光画像に基づいて前記スコアマップを補正する補正工程とを有することを特徴とする撮像装置の制御方法。 A method for controlling an imaging device comprising a visible light imaging means for receiving visible light and an invisible light imaging means for receiving non-visible light, the method comprising:
a generation step of generating a score map representing attributes of a region of the input image using a hierarchical neural network, using the visible light image obtained by the visible light imaging means as an input image;
A method for controlling an imaging device, comprising: a correction step of correcting the score map based on the invisible light image obtained by the invisible light imaging means.
前記撮像装置の制御方法は、
前記可視光撮像手段によって得られた可視光画像を入力画像として、階層型ニューラルネットワークを用いて前記入力画像の領域の属性を表すスコアマップを生成する生成工程と、
前記非可視光撮像手段によって得られた非可視光画像に基づいて前記スコアマップを補正する補正工程とを有することを特徴とするプログラム。
A program that causes a computer to execute a method for controlling an imaging device including a visible light imaging device that receives visible light and an invisible light imaging device that receives non-visible light, the program comprising:
The method for controlling the imaging device includes:
a generation step of generating a score map representing attributes of a region of the input image using a hierarchical neural network, using the visible light image obtained by the visible light imaging means as an input image;
A program comprising: a correction step of correcting the score map based on the invisible light image obtained by the invisible light imaging means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022070301A JP2023160153A (en) | 2022-04-21 | 2022-04-21 | Imaging apparatus, method for controlling imaging apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022070301A JP2023160153A (en) | 2022-04-21 | 2022-04-21 | Imaging apparatus, method for controlling imaging apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023160153A true JP2023160153A (en) | 2023-11-02 |
Family
ID=88516302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022070301A Pending JP2023160153A (en) | 2022-04-21 | 2022-04-21 | Imaging apparatus, method for controlling imaging apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023160153A (en) |
-
2022
- 2022-04-21 JP JP2022070301A patent/JP2023160153A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6911202B2 (en) | Imaging control method and imaging device | |
US11228720B2 (en) | Method for imaging controlling, electronic device, and non-transitory computer-readable storage medium | |
EP3609177B1 (en) | Control method, control apparatus, imaging device, and electronic device | |
CN111698434B (en) | Image processing apparatus, control method thereof, and computer-readable storage medium | |
CN108322669B (en) | Image acquisition method and apparatus, imaging apparatus, and readable storage medium | |
US8363131B2 (en) | Apparatus and method for local contrast enhanced tone mapping | |
CN110619593B (en) | Double-exposure video imaging system based on dynamic scene | |
CN110033418B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
US8681242B2 (en) | Image signal processing system | |
US20120019686A1 (en) | Image synthesizing device, image synthesizing method and computer readable medium | |
US20080259181A1 (en) | Imaging apparatus, imaging method, integrated circuit, and storage medium | |
JP6116272B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP2013106149A (en) | Imaging apparatus, control method of the same and program | |
CN110047060B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
US11601600B2 (en) | Control method and electronic device | |
JP2022179514A (en) | Control apparatus, imaging apparatus, control method, and program | |
CN110213462B (en) | Image processing method, image processing device, electronic apparatus, image processing circuit, and storage medium | |
CN109005363B (en) | Imaging control method, imaging control device, electronic device and storage medium | |
JP2011100204A (en) | Image processor, image processing method, image processing program, imaging apparatus, and electronic device | |
JP2009200743A (en) | Image processor, image processing method, image processing program and imaging apparatus | |
JP6108680B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP2023160153A (en) | Imaging apparatus, method for controlling imaging apparatus, and program | |
JP2019040382A (en) | Image processing device | |
JP2018046478A (en) | Image processing apparatus | |
JP2021086269A (en) | Image processing device, control method of the same, and program |