JP2021097303A - 撮像装置、制御方法、プログラム、モデル生成システム、製造方法、及び撮影パラメータ決定システム - Google Patents

撮像装置、制御方法、プログラム、モデル生成システム、製造方法、及び撮影パラメータ決定システム Download PDF

Info

Publication number
JP2021097303A
JP2021097303A JP2019226802A JP2019226802A JP2021097303A JP 2021097303 A JP2021097303 A JP 2021097303A JP 2019226802 A JP2019226802 A JP 2019226802A JP 2019226802 A JP2019226802 A JP 2019226802A JP 2021097303 A JP2021097303 A JP 2021097303A
Authority
JP
Japan
Prior art keywords
shooting
live view
learning
image
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019226802A
Other languages
English (en)
Other versions
JP6960445B2 (ja
Inventor
栄二 吉野
Eiji Yoshino
栄二 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019226802A priority Critical patent/JP6960445B2/ja
Priority to US17/118,923 priority patent/US11397874B2/en
Publication of JP2021097303A publication Critical patent/JP2021097303A/ja
Application granted granted Critical
Publication of JP6960445B2 publication Critical patent/JP6960445B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

【課題】撮影パラメータの推定精度がより向上するように、入力された画像に応じた撮影パラメータを出力する学習モデルの学習を行うことを可能にする技術を提供する。【解決手段】ライブビュー撮影用の撮影パラメータに従ってライブビュー画像を繰り返し撮影するライブビュー撮影手段と、本撮影用の撮影パラメータに従って本撮影を行う本撮影手段と、前記本撮影が行われた後に、前記本撮影用の撮影パラメータと、前記ライブビュー撮影手段により撮影された第1のライブビュー画像とに基づき、入力された画像に応じた撮影パラメータを出力する学習モデルの学習を行う学習手段と、を備えることを特徴とする撮像装置を提供する。【選択図】図5

Description

本発明は、撮像装置、制御方法、及びプログラムに関する。
近年、撮像装置にAIが搭載され、様々な分野で活用されている。また、AIが搭載された撮像装置において、ユーザが撮像装置を使用する過程で、撮像装置内で教師データを生成して学習モデルの学習を行うことが提案されている。このような撮像装置では、繰り返し学習モデルの学習を行うことで、ユーザに合わせた学習モデルの出力が得られるようになる。
例えば、特許文献1に開示された撮像装置は、撮像した画像を入力として、特定のユーザにおけるその画像の審美性に関する評価指標を学習することで、そのユーザの判断基準を考慮した審美性判断が行える。
特開2018−77718号公報
撮像装置に搭載されたAIの活用としては、ほかにも例えば撮影シーンに応じてユーザの意図する撮影パラメータを自動で設定する機能が考えられる。そのような機能を持つ撮像装置では、ユーザがシャッターボタンを押して撮影した撮影画像とそれに対応する撮影パラメータとを用いて教師データを生成し、学習モデルの学習を行うことが考えられる。しかしながら、その学習モデルでは、学習モデルを利用する際は撮影前のライブビュー画像が入力として用いられる。ここで、同一の被写体であっても、撮影画像とライブビュー画像とは異なる画像である。そのため、特に撮影画像とライブビュー画像との差が大きい場合に、学習モデルから期待通りの出力(ユーザの意図する撮影パラメータ)を得ることができない可能性が高くなる。
具体例として、長秒設定で滝を撮影した場合が挙げられる。この場合、撮影画像は長秒露光画像となるが、ライブビュー画像はライブビューのフレームレートでの露光画像となるため、撮影画像とライブビュー画像との差が大きくなる。他の例として、ストロボを発光させて被写体を撮影した場合が挙げられる。この場合、撮影画像はストロボにより明るい画像となるが、ライブビュー画像は暗い画像であるため、撮影画像とライブビュー画像との差が大きくなる。
本発明はこのような状況に鑑みてなされたものであり、撮影パラメータの推定精度がより向上するように、入力された画像に応じた撮影パラメータを出力する学習モデルの学習を行うことを可能にする技術を提供することを目的とする。
上記課題を解決するために、本発明は、ライブビュー撮影用の撮影パラメータに従ってライブビュー画像を繰り返し撮影するライブビュー撮影手段と、本撮影用の撮影パラメータに従って本撮影を行う本撮影手段と、前記本撮影が行われた後に、前記本撮影用の撮影パラメータと、前記ライブビュー撮影手段により撮影された第1のライブビュー画像とに基づき、入力された画像に応じた撮影パラメータを出力する学習モデルの学習を行う学習手段と、を備えることを特徴とする撮像装置を提供する。
本発明によれば、撮影パラメータの推定精度がより向上するように、入力された画像に応じた撮影パラメータを出力する学習モデルの学習を行うことが可能となる。
なお、本発明のその他の特徴及び利点は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
撮像装置100を構成するハードウェア資源を示すブロック図。 図1のハードウェア資源とプログラムとを利用することで実現されるソフトウェア構成を示すブロック図。 学習モデルを用いた入出力の構造を示す概念図。 図3で示した学習モデルの構造を利用する場合における撮像装置100の動作を説明する図。 第1の実施形態に係る学習フェーズにおける学習の詳細な流れを示すフローチャート。 推定フェーズ(図5のS502)における推定の詳細な流れを示すフローチャート。 第2の実施形態に係る学習フェーズにおける学習の詳細な流れを示すフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
図1は、撮像装置100を構成するハードウェア資源を示すブロック図である。図1において、システムバス101は、画像データや撮影パラメータ等の各種データ、制御信号、及び指示信号などを撮像装置100の各部に送るための汎用バスである。
CPU102は、コンピュータプログラムを実行して各種処理を行ったり、撮像装置100の各部を制御したり、撮像装置100の各部相互間でのデータ転送を制御したりする。また、CPU102は、ユーザからの操作を受け付ける入力部106からの入力信号に応じて、撮像装置100の各部を制御する。
ROM103は、電気的に消去・記録可能な不揮発性メモリであり、例えばFlash ROM等が用いられる。ROM103には、撮像装置100を制御するための各種制御プログラムが格納されている。
RAM104は、CPU102の動作用の定数、変数、プログラム等を記憶するメモリである。また、RAM104は、撮像部105で撮像して得られた画像データを記憶する。
撮像部105は、撮像光学系と、撮像素子(例えばCMOSセンサ)及びその周辺回路とを含み、撮像光学系により形成された被写体像を電荷に変換して蓄積する。そして、蓄積電荷を読み出して生成した電気信号としてのアナログ撮像信号をデジタル撮像信号に変換して各種画像処理を施し、画像データを出力する。
CPU102は、撮像部105に以下の2種類の撮像を行わせるように制御する。1つ目の制御として、CPU102は、撮像部105に、ユーザからの撮像指示に応じて記録用の静止画像を生成するための静止画撮像を行わせる。2つ目の制御として、CPU102は、撮像部105に、静止画撮像前にユーザがフレーミングを行うために用いる表示用の動画像を生成するためのライブビュー撮像(LV撮像)を行わせる。
入力部106は、電源ボタン、シャッターボタン等の撮像に関連する操作を入力するスイッチ類により構成されている。また、入力部106は、シャッタースピード、絞り値、ISO感度等の撮影パラメータを設定するための設定ダイヤル、ストロボ設定ボタン、及びタッチパネル等を含む。
表示部107は、撮像部105により生成されたライブビュー画像(LV画像)を表示したり、ユーザが撮像装置100を操作するための操作画像(メニュー画像)等を表示したりする。また、表示部107は、ユーザからの撮像指示に応じて記録した静止画像をプレビュー表示する。表示部107は、液晶ディスプレイ、有機ELディスプレイ、又は電子ペーパー等の表示デバイスにより構成される。
ストロボ発光部108は、CPU102から発光タイミングや発光量(ガイドナンバー)等の指示を受けて、指示された発光タイミングと発光量とに応じて照明光を発する。ストロボ発光部108によるストロボ発光と同期させて撮像部105による撮像を行うことで、暗い環境下でも適正な露出で被写体を撮像することができる。
GPU109は、複数のコアを用いて計算を行う集積回路である。GPU109は、データをより多く並列処理することで効率的な演算を行うことができるので、ディープラーニングのような学習モデルを用いて複数回に亘り学習を行う場合にはGPU109で処理を行うことが有効である。そこで本実施形態では、後述する学習部205による処理にはCPU102に加えてGPU109を用いるものとする。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU102とGPU109が協働して演算を行うことで学習を行う。
なお、学習部205の処理は、CPU102又はGPU109のみにより演算が行われてもよい。また、後述する推定部207による処理についても、学習部205と同様にGPU109を用いてもよい。また、GPU109は、学習モデルに関する各種パラメータを保持する不揮発性メモリを備えていてもよい。
図2は、図1のハードウェア資源とプログラムとを利用することで実現されるソフトウェア構成を示すブロック図である。図2の各部の機能は、ROM103に格納されている各種制御プログラムをCPU102が実行することで実現する。
図2において、学習用LV画像生成部201は、撮像部105により生成されたLV画像を学習用LV画像としてRAM104に格納する。
推定用LV画像生成部202は、撮像部105により生成されたLV画像を推定用LV画像としてRAM104に格納する。
撮影パラメータ設定部203は、推定部207により推定された撮影パラメータをRAM104に記録し、撮像部105の制御用データとして使用できるようにする。撮影パラメータとは、例えばシャッタースピード、絞り値、及びISO感度等である。また、撮影パラメータ設定部203は、設定された撮影パラメータを表示部107に表示して、ユーザが確認、変更できるようにする。撮影パラメータを変更する際には、撮影パラメータ設定部203は、入力部106によるユーザ入力を受け付け、RAM104に保持された値を変更する。
学習用データ生成部204は、学習用LV画像生成部201により得られた学習用LV画像を「入力データ」、撮影パラメータ設定部203により得られた撮影パラメータを「正解データ」とする学習用データを生成し、RAM104に格納する。
学習部205は、CPU102及びGPU109により学習モデルの学習を行う。具体的には、学習部205は、LV画像を「入力データ」として用い、撮影パラメータを「推定データ」として出力する学習モデルについて、学習用データ生成部204で生成した学習用データを用いて学習を行う。
学習部205は、誤差検出部と、更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるようにニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
データ記憶部206は、学習部205により学習された学習モデルの各種パラメータをROM103やGPU109内の不揮発性メモリ等に格納する。学習モデルの各種パラメータとは、例えば、ニューラルネットワークの各ノード間の結合重み付け係数等である。
推定部207は、データ記憶部206から取得した各種パラメータを学習モデルに設定し、推定用LV画像生成部202により得られた推定用LV画像を「入力データ」として用いて撮影パラメータを推定する。
図3は、本実施形態の学習モデルを用いた入出力の構造を示す概念図である。図2における学習部205及び推定部207は、図3に示す学習モデルを使用する。
学習モデル303は、入力された画像に応じた撮影パラメータを出力する学習モデルである。図3の例では、学習モデル303の入力データはLV画像301である。本実施形態では、LV画像301としては、図2の学習用LV画像生成部201又は推定用LV画像生成部202により得られたLV画像が使用される。
学習モデル303の出力データは撮影パラメータ302である。撮影パラメータ302は、撮像装置100による撮像の制御用データとして使用される各種パラメータである。撮影パラメータ302は、例えば、図3に出力データとして示す16種類のパラメータ(シャッタースピード、絞り値、及びISO感度など)を含むことができる。なお、ここで挙げた各種パラメータのうち、学習モデル303で推定させたいパラメータのみを撮影パラメータ302として使用することができる。
なお、学習モデル303は、ニューラルネットワークであり、特に画像認識に広く用いられる畳み込みニューラルネットワーク等を使用することができる。そして、学習アルゴリズムとしては、学習するための特徴量及び結合重み付け係数を自ら生成する深層学習(ディープラーニング)を適用することができる。
図4は、図3で示した学習モデルの構造を利用する場合における撮像装置100の動作を説明する図である。図4では、被写体として滝を撮影する例を示している。
S401で、撮像装置100は、被写体として滝のLV画像を撮影し、推定用LV画像生成部202及び推定部207を用いて撮影パラメータを推定する。
S402は、S401において推定された撮影パラメータがユーザの意図に合わない場合を示している。S402で、ユーザは撮影パラメータ設定部203により撮影パラメータを変更する。ここでは、ユーザがシャッタースピードをより長秒設定に変更したものとする。この変更に伴い、F値が大きくなり、ISO感度が小さくなる。
S403で、撮像装置100は、ユーザによるシャッターボタンの押下に応じて静止画撮影を行うと共に、学習用LV画像生成部201及び学習用データ生成部204を用いて学習用データを生成する。ここでは、学習用LV画像生成部201は、学習用LV画像として、ユーザが意図した記録用静止画(長秒露光画像)ではなく、LV画像(ライブビューのフレームレートでの露光画像)を取得する
S404で、撮像装置100は、学習部205を用いて学習モデルの学習を行う。ここでは、学習部205は、滝のLV画像の入力に対して、S402においてユーザが設定した撮影パラメータが出力されるような、学習を行う。
S405は、学習モデルの学習後の動作を示している。撮像装置100は、S401と同様に被写体として滝のLV画像を撮影し、推定用LV画像生成部202及び推定部207を用いて撮影パラメータを推定する。しかしながら、ここではS404において学習が行われた学習モデル(学習済みモデル)が使用されるため、S401と異なり、ユーザの意図に合う撮影パラメータ(長秒設定)が推定結果として得られる。
本実施形態の撮像装置100は、LV画像からユーザの意図する撮影パラメータを推定している。ここで、LV画像と撮影パラメータの間の相関関係について説明する。ユーザは様々な撮影シーンに応じて撮影パラメータの設定を行い、撮影を行う。例えば、ユーザは、前述した滝のシーンにおいてシャッタースピードを長秒設定にしたり、人物を撮影するシーンにおいて絞り設定を変更して被写界深度をコントロールしたり、暗いシーンにおいてストロボ発光設定をONにしたりする。このように、撮影シーンと撮影パラメータとの間には比較的強い相関があり、撮影シーンの識別のためにはLV画像を用いることができる。従って、LV画像からユーザの意図する撮影パラメータを推定する学習モデルの学習が可能であるといえる。
図5は、第1の実施形態に係る学習フェーズにおける学習の詳細な流れを示すフローチャートである。入力部106の電源ボタンの操作により撮像装置100が起動すると、本フローチャートの処理が開始する。
S501で、CPU102は、撮像部105を用いて、LV画像を繰り返し撮影する制御(LV撮影)を開始する。LV撮影により逐次生成されるLV画像は、表示部107により逐次表示される。LV画像の撮影は、静止画撮影用の撮影パラメータ(本撮影用の撮影パラメータ)とは異なる撮影パラメータ(ライブビュー撮影用の撮影パラメータ)に従って行われる。
S502で、CPU102は、推定フェーズの処理を行い、撮像部105の静止画撮影用の撮影パラメータとして、撮影シーンに応じた撮影パラメータを設定する。S502の処理の詳細は後述する。
S503で、CPU102は、入力部106のシャッターボタンの操作により撮影が指示されたか否かを判定する。撮影が指示されていないとCPU102が判定した場合、処理はS504へ進み、撮影が指示された(ユーザによる本撮影指示が行われた)とCPU102が判定した場合、処理はS505へ進む。
S504で、CPU102は、入力部106の設定ダイヤルの操作により静止画撮影用の撮影パラメータの設定が変更されたか否かを判定する。設定が変更されたとCPU102が判定した場合、処理はS503へ戻り、設定が変更されていないとCPU102が判定した場合、処理はS502へ戻る。なお、撮影パラメータの設定変更は、撮影パラメータ設定部203により行われる。即ち、撮影パラメータ設定部203は、S502において設定された本撮影用の撮影パラメータを、入力部106を用いたユーザによる変更指示に従って変更する。
撮影前の状態では、被写体や画角は変動し続けるので、CPU102は、最新のLV画像を用いて静止画撮影用の撮影パラメータを推定して設定を更新する処理を繰り返す。但し、ユーザが意図的に撮影パラメータを変更した場合は、それ以降は撮影パラメータの推定は行われず、CPU102は、推定結果ではなくユーザの意図した撮影パラメータを設定値として保持するように制御する。
S505で、CPU102は、学習用LV画像生成部201を用いて、撮影指示のタイミングで取得された最新のLV画像を学習用LV画像(第1のライブビュー画像)としてRAM104に記憶する。
S506で、CPU102は、撮影パラメータ設定部203を用いて、撮影指示のタイミングに対応する最新の撮影パラメータをRAM104に記憶する。
S507で、CPU102は、撮像部105を用いて、最新の本撮影用の撮影パラメータに従って静止画撮影(本撮影)を行い、記録用静止画を生成する。静止画撮影は、S506において記憶された最新の撮影パラメータに従って行われる。
S508で、CPU102は、学習用データ生成部204を用いて、S505及びS506において記憶された学習用LV画像(本撮影の直前に撮影されたライブビュー画像)及び撮影パラメータを含む学習用データ(教師データ)を生成する。
S509で、CPU102は、学習部205を用いて学習モデルの学習を行う。ここでの学習は、S508において生成された学習用データに基づいて行われる。
S510で、CPU102は、データ記憶部206を用いて、S509の学習結果を記憶する。
図6は、推定フェーズ(図5のS502)における推定の詳細な流れを示すフローチャートである。
S601で、CPU102は、推定タイミングにおける最新のLV画像をRAM104に記憶する。
S602で、CPU102は、推定用LV画像生成部202を用いて、S601において記憶したLV画像を推定用LV画像(第2のライブビュー画像)として取得する。
S603で、CPU102は、推定部207を用いて、学習モデルに基づく撮影パラメータの推定を行う。
S604で、CPU102は、撮影パラメータ設定部203を用いて、S603において推定された撮影パラメータを静止画撮影用の撮影パラメータとして設定する。
以上説明したように、第1の実施形態によれば、撮像装置100は、本撮影用の撮影パラメータと、LV撮影により撮影されたLV画像とに基づき、学習モデルの学習を行う。従って、画像を入力として撮影パラメータを推定する学習モデルにおいて、推定精度(ユーザの意図に近い推定結果が得られる可能性)を向上させることが可能となる。例えば、長秒撮影で滝を撮影した場合など、撮影画像とLV画像との差が大きい場合においても、LV画像を入力とした推定において期待通りの出力が得られる可能性が向上する。
なお、図5のフローチャートでは、S503において撮影が指示された場合は常にS505、S506、及びS508〜S510の学習処理が行われる。しかしながら、S504においてユーザ操作により撮影パラメータの設定が変更されたと判定された場合にのみ学習処理を行う構成を採用してもよい。これは、ユーザが撮影パラメータを変更しないで静止画撮影を行った場合、使用された撮影パラメータにユーザの意図が反映されているとは限らないからである。従って、ユーザが撮影パラメータを変更して撮影を行った場合にのみ学習処理を行う構成を採用することにより、学習結果がユーザの意図に沿う可能性を向上させることができる。
また、静止画撮影が行われたタイミングですぐに学習処理を行うのではなく、学習用データをRAM104にしばらく保持しておき、別のタイミングで(所定の条件が満たされたことに応じて)学習処理を行う構成を採用してもよい。この場合において、静止画撮影後にユーザが得られた記録用静止画を消去した場合には、CPU102は、対応する学習用データをRAM104から破棄し、学習処理を行わないように制御してもよい。即ち、CPU102は、本撮影により取得された画像が消去された後に所定の条件が満たされた場合には、学習モデルの学習を行わないように制御してもよい。なお、所定の条件は、例えば、本撮影が行われた後に所定の時間が経過した場合に満たされる。
また、図5のフローチャートでは、S503において撮影が指示された後にS505でのLV画像の記憶が行われる。換言すると、ユーザによる本撮影指示に応じて、学習用LV画像(第1のライブビュー画像)として用いられるLV画像が撮影される。しかしながら、シャッターボタンが半押しされたときに、学習用LV画像として用いられるLV画像を記憶する構成を採用してもよい。これは、撮影が指示された後(シャッターボタンが全押しされた後)でLV画像の記憶を行うと、S507における静止画撮影のタイミングが遅くなり、撮影タイムラグが大きくなる可能性があるためである。シャッターボタンが半押しされたとき(シャッターボタンが半押しされてから全押しされるまでの間)にLV画像の記憶を済ませておくことで、撮影タイムラグを短縮できる。シャッターボタンが半押しされるタイミングは、ユーザが被写体や撮影画角を確定した場合であることが多いため、このタイミングで得られたLV画像を学習用LV画像として使用しても、学習精度が低下する可能性は低いと考えられる。
[第2の実施形態]
第2の実施形態では、ユーザが暗い環境下においてストロボを発光させて撮影を行う場合における撮影パラメータの推定処理及び学習処理について説明する。本実施形態において、撮像装置100の基本的な構成は第1の実施形態と同様である(図1及び図2参照)。以下、主に第1の実施形態と異なる点について説明する。
本実施形態において、撮像装置100の入力部106は、推定指示ボタンを備える。ユーザは、推定指示ボタンを操作することにより、撮影指示前の任意のタイミングで撮像装置100に撮影パラメータの推定及び設定を行わせることができる。
図7は、第2の実施形態に係る学習フェーズにおける学習の詳細な流れを示すフローチャートである。図7において、図5と同一又は同様の処理が行われるステップには同一の符号を付す。入力部106の電源ボタンの操作により撮像装置100が起動すると、本フローチャートの処理が開始する。
S701で、CPU102は、入力部106の推定指示ボタンの操作により撮影パラメータの推定が指示されたか否かを判定する。推定が指示されたとCPU102が判定した場合、処理はS702へ進み、推定が指示されていないとCPU102が判定した場合、処理はS503へ進む。
S702で、CPU102は、ストロボ発光部108を用いてストロボの微小発光を行う。なお、CPU102は、静止画撮影前に微小な発光量で被写体を照射して、照明された被写体の輝度を測定し、静止画撮影のためのストロボ発光量を決定する処理を実行可能である。S702では、CPU102は、静止画撮影のためのストロボ発光量を決定する処理を行う場合と同様に微小な発光量で被写体を照射するが、ここでの微小発光の目的は、推定フェーズでの使用に適したLV画像を取得することである。S702において微小発光を行ってからS502の推定フェーズの処理を実行することにより、暗い環境下でも、被写体の識別が可能な(即ち、撮影パラメータの推定に適した)推定用LV画像をS601において記憶することができる。
S703で、CPU102は、ストロボ発光部108を用いてストロボの微小発光を行い、静止画撮影のためのストロボ発光量を決定する。ここで微小発光を行ってからS505のLV画像の記憶処理を実行することで、暗い環境下でも、被写体の識別が可能な(即ち、学習モデルの学習に適した)学習用LV画像を得ることができる。
S704で、CPU102は、ストロボ発光部108を用いて、S703において決定したストロボ発光量で本発光(静止画撮影のためのストロボ発光)を行う。
以上説明したように、第2の実施形態によれば、撮像装置100は、学習用LV画像(第1のライブビュー画像)及び推定用LV画像(第2のライブビュー画像)の撮影時にストロボの微小発光を行う。これにより、暗い環境下でも、学習及び推定に適したLV画像を取得することが可能となる。
なお、本実施形態では、暗い環境下においてストロボを発光させて静止画撮影を行う場合について説明したが、ストロボを発光しない場合に対しても、入力部106の推定指示ボタンの操作に応じて撮影パラメータの推定を行う構成を適用することができる。この場合、CPU102は、S701において入力部106の推定指示ボタンが操作されたと判定したことに応じて、S701の処理(微小発光)を実行せずにS502の推定フェーズの処理を実行するように制御する。また、S703及びS704でのストロボの微小発光及び本発光も行われない。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100…撮像装置、101…システムバス、102…CPU、103…ROM、104…RAM、105…撮像部、106…入力部、107…表示部、108…ストロボ発光部

Claims (13)

  1. ライブビュー撮影用の撮影パラメータに従ってライブビュー画像を繰り返し撮影するライブビュー撮影手段と、
    本撮影用の撮影パラメータに従って本撮影を行う本撮影手段と、
    前記本撮影が行われた後に、前記本撮影用の撮影パラメータと、前記ライブビュー撮影手段により撮影された第1のライブビュー画像とに基づき、入力された画像に応じた撮影パラメータを出力する学習モデルの学習を行う学習手段と、
    を備えることを特徴とする撮像装置。
  2. 前記本撮影により取得された画像を消去する消去手段を更に備え、
    前記学習手段は、前記本撮影が行われた後に所定の条件が満たされたことに応じて前記学習モデルの学習を行い、
    前記学習手段は、前記本撮影により取得された前記画像が消去された後に前記所定の条件が満たされた場合には、前記学習モデルの学習を行わない
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記所定の条件は、前記本撮影が行われた後に所定の時間が経過した場合に満たされる
    ことを特徴とする請求項2に記載の撮像装置。
  4. 前記本撮影手段は、シャッターボタンが全押しされたことに応じて前記本撮影を行い、
    前記学習手段は、前記シャッターボタンが半押しされてから全押しされるまでの間に撮影されたライブビュー画像を前記第1のライブビュー画像として用いる
    ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  5. 前記学習手段は、前記本撮影の直前に前記ライブビュー撮影手段により撮影されたライブビュー画像を前記第1のライブビュー画像として用いる
    ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  6. 前記ライブビュー撮影手段は、ユーザによる本撮影指示に応じて、前記学習手段により前記第1のライブビュー画像として用いられるライブビュー画像を撮影し、
    前記本撮影手段は、前記第1のライブビュー画像の撮影後に前記本撮影を行う
    ことを特徴とする請求項5に記載の撮像装置。
  7. 前記第1のライブビュー画像の撮影時に発光手段を発光させるように制御する制御手段を更に備える
    ことを特徴とする請求項6に記載の撮像装置。
  8. 前記制御手段は、前記第1のライブビュー画像の撮影時に前記発光手段により照明された被写体の輝度に基づいて前記本撮影のための発光量を決定し、前記本撮影が行われる際に当該決定した発光量で前記発光手段を発光させるように制御する
    ことを特徴とする請求項7に記載の撮像装置。
  9. 前記ライブビュー撮影手段により撮影された第2のライブビュー画像を前記学習モデルに入力することにより取得された撮影パラメータを前記本撮影用の撮影パラメータとして設定する設定手段を更に備え、
    前記制御手段は、前記第2のライブビュー画像の撮影時に前記発光手段を発光させるように制御する
    ことを特徴とする請求項7又は8に記載の撮像装置。
  10. 前記ライブビュー撮影手段により撮影された第2のライブビュー画像を前記学習モデルに入力することにより取得された撮影パラメータを前記本撮影用の撮影パラメータとして設定する設定手段と、
    前記設定手段により設定された前記本撮影用の撮影パラメータを、ユーザによる変更指示に従って変更する変更手段と、
    を更に備え、
    前記学習手段は、前記変更手段により前記本撮影用の撮影パラメータが変更された場合に、前記学習モデルの学習を行う
    ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。
  11. 撮像装置が実行する制御方法であって、
    ライブビュー撮影用の撮影パラメータに従ってライブビュー画像を繰り返し撮影するライブビュー撮影工程と、
    本撮影用の撮影パラメータに従って本撮影を行う本撮影工程と、
    前記本撮影が行われた後に、前記本撮影用の撮影パラメータと、前記ライブビュー撮影工程により撮影された第1のライブビュー画像とに基づき、入力された画像に応じた撮影パラメータを出力する学習モデルの学習を行う学習工程と、
    を備えることを特徴とする制御方法。
  12. コンピュータを、請求項1乃至10のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。
  13. ライブビュー撮影用の撮影パラメータに従ってライブビュー画像を繰り返し撮影するライブビュー撮影手段と、
    本撮影用の撮影パラメータに従って本撮影を行う本撮影手段と、
    前記本撮影用の撮影パラメータを学習用の教師データ、前記本撮影の前に前記ライブビュー撮影手段により撮影された第1のライブビュー画像を学習用の入力データとして学習した学習済みモデルを用いて、前記ライブビュー撮影手段によって繰り返し撮影されるライブビュー画像に基づき撮影パラメータを決定する決定手段と、
    前記決定手段により決定された撮影パラメータを本撮影用の撮影パラメータとして設定する設定手段と、
    を備えることを特徴とする撮像装置。
JP2019226802A 2019-12-16 2019-12-16 撮像装置、制御方法、プログラム、モデル生成システム、製造方法、及び撮影パラメータ決定システム Active JP6960445B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019226802A JP6960445B2 (ja) 2019-12-16 2019-12-16 撮像装置、制御方法、プログラム、モデル生成システム、製造方法、及び撮影パラメータ決定システム
US17/118,923 US11397874B2 (en) 2019-12-16 2020-12-11 Image capturing apparatus, generating apparatus, control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019226802A JP6960445B2 (ja) 2019-12-16 2019-12-16 撮像装置、制御方法、プログラム、モデル生成システム、製造方法、及び撮影パラメータ決定システム

Publications (2)

Publication Number Publication Date
JP2021097303A true JP2021097303A (ja) 2021-06-24
JP6960445B2 JP6960445B2 (ja) 2021-11-05

Family

ID=76318161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019226802A Active JP6960445B2 (ja) 2019-12-16 2019-12-16 撮像装置、制御方法、プログラム、モデル生成システム、製造方法、及び撮影パラメータ決定システム

Country Status (2)

Country Link
US (1) US11397874B2 (ja)
JP (1) JP6960445B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023083897A (ja) * 2021-12-06 2023-06-16 キヤノン株式会社 電子機器及びその制御方法
CN117688195A (zh) * 2022-08-30 2024-03-12 华为技术有限公司 一种图片推荐方法及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050107A (ja) * 2010-11-25 2011-03-10 Casio Computer Co Ltd カメラ、カメラ制御プログラム及び撮影方法
JP2016046610A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 撮像装置
JP2019213130A (ja) * 2018-06-07 2019-12-12 オリンパス株式会社 撮像装置、学習装置、撮像方法、学習方法、画像データ作成方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6900170B2 (ja) 2016-11-10 2021-07-07 キヤノン株式会社 情報処理システム、情報処理方法、およびプログラム
US10530991B2 (en) * 2017-01-28 2020-01-07 Microsoft Technology Licensing, Llc Real-time semantic-aware camera exposure control
US10270962B1 (en) * 2017-12-13 2019-04-23 North Of You Llc Automatic camera settings configuration for image capture
JP6697042B2 (ja) * 2018-08-31 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、固体撮像方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050107A (ja) * 2010-11-25 2011-03-10 Casio Computer Co Ltd カメラ、カメラ制御プログラム及び撮影方法
JP2016046610A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 撮像装置
JP2019213130A (ja) * 2018-06-07 2019-12-12 オリンパス株式会社 撮像装置、学習装置、撮像方法、学習方法、画像データ作成方法およびプログラム

Also Published As

Publication number Publication date
US20210182610A1 (en) 2021-06-17
JP6960445B2 (ja) 2021-11-05
US11397874B2 (en) 2022-07-26

Similar Documents

Publication Publication Date Title
CN104717435B (zh) 摄像装置以及摄像方法
KR102565513B1 (ko) 다중 기술 심도 맵 취득 및 융합을 위한 방법 및 장치
CN107743590B (zh) 用于使用飞行时间传感器来执行曝光估计的方法及设备
CN103634530A (zh) 拍摄装置及其控制方法
WO2016086549A1 (zh) 闪光灯控制方法及装置
CN108270967A (zh) 自动对焦方法和用于执行该方法的电子设备
KR20210028218A (ko) 이미지 처리 방법과 장치, 전자 기기 및 저장 매체
JP6960445B2 (ja) 撮像装置、制御方法、プログラム、モデル生成システム、製造方法、及び撮影パラメータ決定システム
CN102739942B (zh) 数字图像拍摄设备及其控制方法
US8593566B2 (en) Method and apparatus for controlling light emission of flash and digital photographing apparatus using the method and apparatus
JP2009231967A (ja) 画像記録方法、画像記録装置、およびプログラム
CN109361853B (zh) 图像处理方法、装置、电子设备及存储介质
CN106060412A (zh) 拍照处理方法和装置
CN105141853A (zh) 图像处理方法以及电子设备
CN104284074A (zh) 成像方法和成像设备
CN106257917A (zh) 曝光控制装置和曝光控制方法
JP2018031907A (ja) 撮像装置及びその制御方法、プログラム
JP2019186911A (ja) 画像処理装置および画像処理方法、ならびに撮像装置
CN110677557B (zh) 图像处理方法、装置、存储介质及电子设备
CN106027914A (zh) 摄像装置和摄像方法
JP7403995B2 (ja) 情報処理装置、制御方法およびプログラム
CN105594196B (zh) 摄像装置和摄像方法
US20050134722A1 (en) System and method for indicating exposure information during image capture
JP4772756B2 (ja) 撮像装置及び撮像プログラム
CN102843512B (zh) 摄像装置、摄像方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201225

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R151 Written notification of patent or utility model registration

Ref document number: 6960445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151