JP7377048B2 - 画像処理装置及び方法、及び撮像装置 - Google Patents

画像処理装置及び方法、及び撮像装置 Download PDF

Info

Publication number
JP7377048B2
JP7377048B2 JP2019180713A JP2019180713A JP7377048B2 JP 7377048 B2 JP7377048 B2 JP 7377048B2 JP 2019180713 A JP2019180713 A JP 2019180713A JP 2019180713 A JP2019180713 A JP 2019180713A JP 7377048 B2 JP7377048 B2 JP 7377048B2
Authority
JP
Japan
Prior art keywords
image
frame
learning model
disturbance
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019180713A
Other languages
English (en)
Other versions
JP2021057824A5 (ja
JP2021057824A (ja
Inventor
寧司 大輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019180713A priority Critical patent/JP7377048B2/ja
Priority to EP20196371.7A priority patent/EP3799416B1/en
Priority to US17/033,056 priority patent/US11394856B2/en
Priority to CN202011065029.XA priority patent/CN112584008B/zh
Publication of JP2021057824A publication Critical patent/JP2021057824A/ja
Priority to US17/846,893 priority patent/US11722788B2/en
Publication of JP2021057824A5 publication Critical patent/JP2021057824A5/ja
Application granted granted Critical
Publication of JP7377048B2 publication Critical patent/JP7377048B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Description

本発明は、画像処理装置及び方法、及び撮像装置に関し、特に、撮影した画像を表示装置に表示する技術に関する。
撮像装置には、撮影を連続して行い、得られた画像を表示装置に逐次表示するライブビュー(LV)機能を有するものがある。一般にLV用の画像(以下、「LV画像」と記す。)は一定間隔で撮影され、逐次表示されるため、ユーザは、被写体をLV表示で確認しながら、被写体の画像を撮影し、記録することができる。
撮像装置が撮像センサを1つだけ有する場合、撮像センサは、静止画像の画像データ出力とLV画像の画像データ出力の両方を行う必要がある。そのため、撮像センサが静止画像を撮影するための駆動を行っている間は、LV画像を撮影するための駆動を行うことはできない。特に、LV表示中に静止画像の連写を行う場合、撮影開始のタイミングと連写間隔によっては、静止画像の撮影タイミングとLV画像の撮影タイミングとが重なることがある。その場合、LV画像が得られないため、LV表示では前フレームのLV画像を複数回表示させることによる画面のフリーズ、もしくは、表示画面全体に固定色を表示する、所謂ブラックアウトが起こることとなる。
このようにあるフレームのLV画像が得られない場合、その前後のLV画像を合成することで、得られなかったフレームの代替LV画像を生成して表示することが考えられる。
その場合に、特許文献1に記載されているように、ビューモデルを用いて前景画像、背景画像を各々画像処理により生成し、非更新フレームの代替フレーム画像として表示することが考えられる。この技術は、時刻sの画像の特徴に対して、前景画像及び背景画像各々の画像特徴量をパラメータとした各々のビューモデルに対して幾何的な変換を施して合成した合成ビューと、時刻sの画像特徴量を比較することでビューモデルを学習する手法としている。
特開2012-212322号公報
しかしながら、前後フレームを用いた画像合成や、特許文献1に開示される従来技術においては、生成される画像の精度は低く、実像との差が大きいため、視認性の悪化は大きくは改善されない。
さらに、静止画の露光時間が長くなると、ブラックアウト期間もしくはLV画像の非更新期間は長くなり、非更新フレームの代替フレームの生成精度は更に悪化し、視認性はさらに悪くなる。
本発明は上記問題点を鑑みてなされたものであり、静止画像の撮影時に、LV表示の品質を高めることを目的とする。
上記目的を達成する為に、本発明の画像処理装置は、撮像素子により撮影されたフレーム画像における予め決められた外乱を抑制する抑制手段と、前記外乱が抑制された少なくとも1枚の第1のフレーム画像から、当該第1のフレーム画像とは異なる時点における第2のフレーム画像を、学習モデルを用いて推定する推定手段と、前記第2のフレーム画像に、前記外乱を付加する付加手段と、を有することを特徴とする。
本発明によれば、静止画像の連写時にLV表示の品質を高めることができる。
本発明の実施形態における撮像装置の概略構成を示すブロック図。 第1の実施形態における推定画像生成部で用いられる学習モデルの学習方法を説明する図。 第1の実施形態における推定画像生成部による学習モデルを用いた代替画像生成処理を説明する図。 第1の実施形態におけるLV表示中に静止画像の連写を行う場合のLV画像を説明するためのタイミングチャート。 第1の実施形態におけるLV表示中に静止画像の連写を行う場合の代替LV画像の生成処理を示すフローチャート。 第1の実施形態における外乱除去処理を示すフローチャート。 第1の実施形態におけるLV表示の表示フレームレートと学習モデルの学習時のフレームレートとの関係を示す図。 第1の実施形態の変形例における外乱除去処理に用いられる学習モデルの学習方法を説明する図。 第1の実施形態の変形例における外乱付加処理に用いられる学習モデルの学習方法を説明する図。 第2の実施形態における推定画像生成部で用いられる学習モデルの学習方法を説明する図。 第2の実施形態における推定画像生成部による学習モデルを用いた代替画像生成処理を説明する図。 第2の実施形態におけるLV表示中に静止画像の連写を行う場合のLV画像を説明するためのタイミングチャート。 第3の実施形態における推定画像生成部で用いられる学習モデルの学習方法を説明する図。 第3の実施形態における推定画像生成部による学習モデルを用いた代替画像生成処理を説明する図。 第3の実施形態の変形例におけるLV表示中に静止画像の連写を行う場合のLV画像を説明するためのタイミングチャート。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
<第1の実施形態>
以下、本発明の第1の実施形態について説明する。なお本実施形態では、本発明を撮像装置に適用した場合について説明する。また、撮像装置をデジタルカメラとして説明するが、デジタルビデオカメラ、スマートフォン、カメラ付き携帯電話、車載カメラ等の様々な撮像装置に適用することが可能である。
図1は、第1の実施形態に係るデジタルカメラの構成例を示すブロック図である。
図1において、撮像素子100は、CCDやCMOSセンサ等の撮像素子であり、受光した被写体像を電気信号(画素信号)に変換して出力する。撮像素子100から出力された画素信号は、データ転送部105を介して一時記録部107へ書き込まれる。
画像処理部101は、データ転送部105を介して一時記録部107から画素信号を入力し、画像処理を行って画像データを生成する。なお、画像処理部101で行われる画像処理は、画素補正、黒レベル補正、シェーディング補正、傷補正、ホワイトバランス調整、倍率色収差補正、ガンマ補正や輝度・色生成処理、幾何変形、ノイズリダクション、拡大縮小などの複数の処理を含む。また、画像処理部101は、画像処理を適切に行うために、画像の分割領域毎または画像全体に対する平均輝度、ヒストグラム、動き量などの評価値や、被写体領域の検出を行った上で、被写体領域の平均輝度、ヒストグラム、動き量などの評価値を取得する。これらの評価値は、例えばホワイトバランス調整、倍率色収差補正、ガンマ補正、輝度・色生成処理などに使用される。画像処理部101で生成された画像データは、データ転送部105を介して一時記録部107へ記録される。
表示部102は、データ転送部105と接続され、データ転送部105を介して画像処理部101で処理された画像データ、あるいは後述する外乱付加部111で処理した画像データを入力し、表示デバイス103に表示する表示制御を行う。表示部102は、必要に応じて画像データの輝度・色調整を施した上で、表示デバイス103に合わせたフォーマット変換など複数の処理を実行し、表示デバイス103へ表示画像を転送する。ここでは、例えば、表示デバイス103のサイズに合わせるために、画像の周辺に固定色の画素を追加する処理や、表示データに撮影時間などの埋め込み処理を行う。更に、所謂、OSD(On-Screen Display)画像を重畳する処理なども行う。
表示デバイス103は、例えば、LCD(Liquid Crystal Display)やEVF(Electric View Finder)などであり、後述する表示V同期信号に応じて、表示部102から転送される画像の表示を行う。
操作部112は、不図示の複数の操作部材に対するユーザー操作を検知して、操作内容を示す信号をバス106を介して制御部104に送る。なお、複数の操作部材は、静止画像の撮影を指示するためのシャッターレリーズボタンを含み、シャッターレリーズボタンの第1操作(例えば、半押し)によりスイッチSW1がONし、静止画像の撮影準備が指示される。また、シャッターレリーズボタンの第2操作(例えば、全押し)によりスイッチSW2がONし、静止画像の撮影が指示される。なお、スイッチSW2のON状態が継続している場合には、ON状態が継続している間、静止画像の連写が指示される。
制御部104は、マイクロコンピュータなどで構成され、デジタルカメラ全体の動作制御を司り、デジタルカメラを構成する各機能ブロックに対して様々な指示を行い、各種の制御処理を実行する。その際、制御部104は、バス106を介して接続された画像処理部101、表示部102、データ転送部105、一時記録部107、記録部108、外乱除去部109、推定画像生成部110、外乱付加部111を制御する。なお、制御部104は、記録部108に記録されたプログラムを実行することで、本実施形態における各処理を実現する。
データ転送部105は、データ転送を行う複数のDirect Memory Accessコントローラ(DMAC)の不図示のWRDMACとRDDMACで構成される。画像データは、WRDMACによってバス106に出力され、一時記録部107に一時記憶される。一時記録部107に記憶された画像データは、RDDMACによってバス106に出力され、適宜、データ転送部105に接続されている画像処理部101、表示部102、外乱除去部109、推定画像生成部110、外乱付加部111へ出力される。
バス106は、システムバスとデータバスから構成され、各々独立したバス構成となっている。
一時記録部107は、メモリ制御部とメモリから構成され、制御部104或いはデータ転送部105からの指示に応じて、メモリへのデータの書き込み及びメモリからのデータの読み出しを行う。メモリは、所定枚数の静止画像や所定時間の動画像、音声等のデータや、制御部104の動作用の定数、プログラム等を格納するのに十分な記憶容量を備える記憶装置であり、DRAMなどから構成される。また、メモリは、複数のメモリから構成することも可能である。
記録部108は、不図示の不揮発性メモリ制御部と不揮発性メモリから構成される。不揮発性メモリ制御部は、制御部104からの指示に応じて、不揮発性メモリにデータを書き込んだり、不揮発性メモリからデータを読み出したりする。不揮発性メモリは、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリには、制御部104の動作用の定数、プログラム等が記憶される。
外乱除去部109は、データ転送部105と接続され、一時記録部107に一時記憶された画像処理部101によって画像処理された画像データを、データ転送部105を介して入力する。そして、不図示の撮像光学部材に含まれるフォーカスレンズの位置、ズームレンズの位置、絞り値、及び、撮像素子100の露光時間、感度変更などの撮影条件によって変動する、ノイズ、ボケ、色収差、周辺光量落ち、歪曲、拡縮を抑制する処理を行う。また、ジャイロセンサや、撮影された画像の動きベクトル検出、輝度変化検出等、撮影された画像の時間方向の変動を検出する手段を有し、検出結果に基づいて、カメラの振れ、動体のブレ、輝度変動等を抑制する処理を行う。なお、外乱除去方法としては、既知の画像処理方法を用いればよい。
例えば、ノイズの抑制は、ローパスフィルタをベースとしたノイズリダクション処理、ボケの抑制は、レンズ特性に基づいたレンズシミュレータによるボケ除去処理、色収差の抑制はレンズ特性である像高中心からの距離に基づく色ごとの位置補正処理により行う。また、周辺光量落ちの抑制は、レンズ特性による周辺光量落ち特性に基づく像面輝度補正処理、歪曲の抑制は、レンズ特性である像面の歪曲特性に基づいて画像の幾何的な変形補正処理により行う。またカメラの振れは、ジャイロセンサから得られた振れ量から、フレーム間の画像ブレ量を算出し、幾何的にこれを補正する。動体については、ベクトル検出により動体の動き量を求め、動体のブレを抑制する方向に例えば方向特性を持つシャープネス処理を行う。輝度変化については、輝度変化量を画像の輝度値から求め、求めた輝度変化量に基づいて、例えばデジタルゲイン処理あるいは再ガンマ補正処理により対処する。
そして、外乱除去部109は、外乱除去処理を行った画像データをデータ転送部105を介して一時記録部107に記録する。
推定画像生成部110は、データ転送部105と接続され、データ転送部105を介して一時記録部107に一時記憶された外乱除去済みのフレーム画像の画像データ、あるいは推定により生成されたフレーム画像の画像データを入力する。そして、学習モデルを用いて、ある時点におけるフレーム画像を、当該時点より前に撮影された画像から得られた外乱除去済みのフレーム画像もしくは推定により生成されたフレーム画像から推定して生成する。推定画像生成部110により新たに推定により生成されたフレーム画像は、後述するように静止画像の撮影などにより表示用の画像が得られないフレームの代替フレームの元画像として使用される。推定画像生成部110は、新たに生成したフレーム画像の画像データを、データ転送部105を介して一時記録部107に記録する。
外乱付加部111は、データ転送部105と接続され、データ転送部105を介して一時記録部107に一時記憶された、推定画像生成部110によって生成されたフレーム画像の画像データを入力する。そして、入力した画像データに対し、外乱除去部109で抑制したノイズ、ボケ、色収差、周辺光量落ち、歪曲、拡縮、あるいは時間軸方向のカメラの振れ、動体のブレ、輝度変化を、入力したフレーム画像に付加する処理を行う。なお、各外乱付加方法としては、既知の画像処理方法を用いれば良い。
例えば、ノイズ付加は、感度などの撮影条件とセンサ特性によるある分散のガウス分布に基づいたノイズを付加する処理、ボケの付加はレンズ特性に基づいたレンズシミュレータによるボケ付加処理により行う。色収差の付加はレンズ特性である像高中心からの距離に基づく色ごとの位置補正処理により行う。また、周辺光量落ちの付加は、レンズ特性による周辺光量落ち特性に基づく像面輝度補正処理、歪曲の付加はレンズ特性である像面の歪曲特性に基づいて画像の幾何的な変形補正処理により行う。またカメラ振れは、ジャイロセンサから得られた振れ量からフレーム間の画像ブレ量を算出し幾何的にこれを付加する。動体のブレについては、ベクトル検出により動体の動き量を求め、動体のブレを付加する方向に、例えば方向特性を持つローパス処理により付加する。輝度変化については、輝度変化量を画像の輝度値から求め、求めた変化量を、例えばデジタルゲイン処理あるいは再ガンマ補正処理で外乱付加する。なお、これら変化量の検出は、外乱除去部109で得られた検出情報と共通でも構わない。
そして、外乱付加部111は、外乱付加処理を行った画像データをデータ転送部105を介して一時記録部107に記録する。
なお、不図示ではあるが、撮像素子100からのアナログ信号をデジタル信号に変換するAD変換器や、画像データを例えばJPEGやMPEG形式などに圧縮したり、圧縮されたデータを伸張する圧縮伸張部、及び、JPEGやMPEGを外部メディアに記録する外部記録部等も含む。
次に、図2を用いて、推定画像生成部110で用いる学習モデル208の学習処理について説明する。201は、あるフレームレートで周期的に撮影された教師用動画を示しており、左から右に時系列に並ぶ複数のフレーム画像から構成される。ここでは、第(N-2)フレーム画像、第(N-1)フレーム画像、第Nフレーム画像を例に取って説明する。
まず、外乱除去部109により、第(N-2)フレーム画像、第(N-1)フレーム画像、第Nフレーム画像に対してそれぞれ外乱除去処理202、203、204を施し、フレーム画像205、206、207を生成する。ここでの外乱は教師用動画201に特有な外乱を指しており、動画撮影時の撮影条件であるフォーカスレンズの位置、ズームレンズの位置、絞り値、及び、撮像素子100の露光時間、感度変更などの撮影条件によって変動するノイズ、ボケ、色収差、周辺光量落ち、歪曲、拡縮を含む。またカメラの振れ、動体のブレ、輝度変化等も含む。
学習モデル208は、推定画像生成部110で用いられる、機械学習を行う学習モデルであり、例えば、既知のニューラルネットワークモデルなどである。学習モデル208の例として、時間方向に連続した2枚のフレーム画像を入力し、入力した2枚のフレーム画像に対して次のフレームのフレーム画像を推定して出力する構成とする。ここでは、外乱除去済みの第(N-2)フレーム画像205、第(N-1)フレーム画像206を入力し、学習時の教師データとして、外乱除去済みの第Nフレーム画像207を用いる。学習モデル208は、推定した第Nフレームの推定フレーム画像と、期待値である教師データとなる外乱除去済みの第Nフレーム画像207との誤差に基づいて学習モデル208を更新する。
同様にして、外乱除去済みの第(N-1)フレーム画像206と、第Nフレーム画像207を入力とし、推定した第(N+1)フレームの推定フレーム画像と、期待値である教師データとして外乱除去済みの第(N+1)フレーム画像との誤差に基づいて学習モデル208を更新する。
このように、教師用動画201の使用するフレーム画像をずらしながら繰り返し入力フレーム画像、教師データとして利用していくことで、学習モデル208は繰り返し学習していくことができる。また、教師用動画201として実際の撮影シーンに近いさまざまな動画を使用することで、精度の高い推定画像の生成が可能な学習モデル208を作ることができる。またこの時、教師用動画201の動画撮影時の条件に依存した外乱を抑制した上で学習を行うことで、撮影条件などに起因する外乱に依存しない、精度の高い推定画像の生成が可能な学習モデルを得ることができる。なお、本実施形態において、学習は撮影中には行わず、事前に済ませておき、各エッジの重みデータなどを学習パラメータとして、記録部108に保持しておく。
次に、図3を用いて、本実施形態における推定画像生成部110による推定画像の生成処理について説明する。
301は、あるフレームレートで周期的にライブビュー(LV)表示用に連続して撮影された各フレームの画像(以下、「LV画像」と呼ぶ。)を示しており、左から右に時系列に並ぶ複数のLV画像から構成される。LV画像の撮影中に静止画像の撮影が開始すると、同じ撮像素子100で撮影を行うためにLV画像の撮影ができず、欠落するフレームが発生してしまう。この場合に、この欠落したフレームのLV画像の代替となるLV画像を、上述した様にして得られた学習済の学習モデル208を用いて生成する。
図3において、処理Nは、撮影した第(N-2)フレームのLV画像及び第(N-1)フレームのLV画像から、欠落した第NフレームのLV画像を生成する場合の概念を示す。
まず、第(N-2)フレームのLV画像及び第(N-1)フレームのLV画像に対して、外乱除去部109によって外乱除去処理302を行い、外乱除去済みの第(N-2)フレームのLV画像305及び第(N-1)フレームのLV画像306を生成する。推定画像生成部110は、外乱除去済みの第(N-2)フレームのLV画像305及び第(N-1)フレームのLV画像306を入力とし、学習モデル208を用いて、第Nフレームの推定LV画像307を推定して出力する。そして、推定された第Nフレームの推定LV画像307に対して、外乱付加部111によって外乱付加処理303を行い、欠落した第Nフレームの代替LV画像308を生成する。
処理(N+1)は、2フレーム連続してLV画像が欠落した場合の処理を示している。ここでは、処理Nで推定された第Nフレームの推定LV画像307と、撮影した外乱除去済みの第(N-1)フレームのLV画像306とから、欠落した第(N+1)フレームの代替LV画像を生成する場合の概念を示す。
まず、第(N-1)フレームのLV画像に対して外乱除去部109によって外乱除去処理302を行い、外乱除去済みの第(N-1)フレームのLV画像306を生成する。なお、処理Nにより生成した外乱除去済みの第(N-1)フレームのLV画像306を用いても構わない。推定画像生成部110は、外乱除去済みの第(N-1)フレームのLV画像306と、処理Nにより推定した第Nフレームの推定LV画像307を入力とし、学習モデル208を用いて、第(N+1)フレームの推定LV画像309を推定して出力する。そして、推定された第(N+1)フレームの推定LV画像309に対して、外乱付加部111によって外乱付加処理303を行い、欠落した第(N+1)フレームの代替LV画像310を生成する。
処理(N+2)は、3フレーム連続してLV画像が欠落した場合の処理を示している。ここでは、処理Nで推定された第Nフレームの推定LV画像307と、処理(N+1)で推定された第(N+1)フレームの推定LV画像309とから、欠落した第(N+2)フレームの代替LV画像を生成する場合の概念を示す。
推定画像生成部110は、処理Nで推定された第Nフレームの推定LV画像307と、処理(N+1)で推定された第(N+1)フレームの推定LV画像309とを入力とし、学習モデル208を用いて、第(N+2)フレームの推定LV画像311を推定して出力する。そして、推定された第(N+2)フレームのLV画像311に対して、外乱付加部111によって外乱付加処理303を行い、欠落した第(N+2)フレームの代替LV画像312を生成する。
以上のように、第N、第(N+1)、第(N+2)フレームの画像が時間方向に連続して欠落しても、学習モデルを用いて、第Nフレームの代替LV画像308、第(N+1)フレームの代替LV画像310、第(N+2)フレームの代替LV画像312を生成していくことができる。そして、第(N-2)、第(N-1)フレームのLV画像に続いて、第Nフレームの代替LV画像308、第(N+1)フレームの代替LV画像310、第(N+2)フレームの代替LV画像312を、順次、表示部102を介し表示デバイス103に表示していく。
なお、図2及び図3に示す例では、連続する2枚のフレーム画像を入力とし、次のフレームを出力とする学習モデルを例として説明したが、本発明はこれに限られるものでない。例えば、1枚、または3枚以上の複数のフレーム画像を入力とした学習モデルでも構わない。また推定するフレーム画像についても、連続した次のフレームに限るものでなくフレームとフレームの間、また連続しないある時点のフレームであってもよい。ただし、学習時の入出力フレームのタイミング仕様は、推定画像生成を行うときの学習モデルのタイミング仕様と一致している。
図4は、第1の実施形態においてLV表示中に静止画像を連写する場合のタイミングチャートである。縦方向に同じタイミングにおけるタイミング信号あるいは処理を示し、横方向に時間を示している。
図4において、「撮像V同期」は、撮像素子100によりLV画像を撮影するための垂直同期信号のタイミングを示しており、T1は撮像V同期の周期を示している。例えば、1秒間に60フレーム(60fps)の画像が出力されるようなタイミングを示す同期信号である。
「静止画同期」は、撮像素子100により静止画像を撮影するための駆動タイミングを示し、1枚目の静止画像の撮影タイミングと、撮影間隔T3毎に発生する2枚目以降の静止画像の撮影タイミングを示す同期信号となる。なお、タイミングt400は、ユーザによるシャッタ-レリーズボタンの押下によりスイッチSW2がONしたタイミングであり、レリーズタイムラグT2後に、静止画同期信号が発生する。
「センサ出力画像」は、撮像素子100における画像の電荷蓄積開始から蓄積した電荷の読み出し終了までの撮影期間と、センサ切り替え期間とを示している。ここでは、LV画像の撮影期間を表1~3、7~11、15、16として表し、静止画像の撮影期間を静止画1、静止画2として表している。また、格子枠402は、LV画像の撮影から静止画像を撮影する為に撮像素子100の駆動を切り替える切り替え期間、格子枠404は、静止画像の撮影からLV画像を撮影する為に撮像素子100の駆動を切り替える切り替え期間を示している。LV画像の撮影期間と静止画像の撮影期間の長さが異なるのは、読み出す画素数が異なること、露光時間が異なること等の理由による。言うまでも無く、静止画像の画素数は、LV画像の画素数よりも多く、静止画像の露光時間は、通常、LV画像の露光時間よりも長い。
「画像処理」は、画像処理部101におけるLV画像に対する表示のための画像処理のタイミングを示し、「記録画像処理」は、静止画像に対する記録のための画像処理のタイミングを示す。ここでは、LV画像の画像処理期間を表示1~3、7~11、15、16として表し、静止画像の画像処理期間を静止画1、2として表している。表1~3、7~11、15、16、静止画1、2に示す各画像処理期間においては、まず、一時記録部107に記録された画素信号を、画像処理部101へデータ転送部105を介して読み出す。そして、読み出した画素信号に対して画像処理部101で画像処理を行い、得られた画像データを、データ転送部105を介して再び一時記録部107に記録する。
また、「画像処理」における表示1~3、7~11、15、16、及び、「記録画像処理」における静止画1、2では、撮像素子100から一画面分の画素信号が全て一時記録部107に記録されるより前に、画像処理部101で処理を開始することを示している。データ転送部105は、撮像素子100から読み出された画素信号のみを画像処理部101へ読み出すように制御している。つまり、画像処理部101は、撮像素子100が画素信号を一時記録部107へ書き込む前に画素信号を読み出さないように制御される。なお、LV画像よりも静止画像は画素数が多いため、処理にかかる時間はLV画像より静止画像の方が長い。また、LV画像を優先的に処理するものとし、図4では表示7と静止画1、表示15と静止画2の期間が重なっているが、LV画像の処理中は静止画の画像処理を一時中断し、LV画像の処理完了後に静止画の画像処理を再開するように制御する。
タイミングt400でユーザのシャッターレリーズボタンの操作によりSW2がONとなり静止画1、及び、撮影間隔T3後の静止画2の撮影が行われると、LV画像の撮像が中断される。このため、静止画像の撮影条件である露光時間から求められる、欠落するLV画像(表示4、5、6、及び表示12、13、14に対応する)の代替LV画像の生成を、図3を参照して上述した外乱除去、推定画像生成、外乱付加によって行う。
「外乱除去」は、外乱除去部109による外乱除去処理のタイミングを示す。ここでは、「画像処理」の表示2、表示3、表示10、表示11のタイミングで画像処理されたLV画像に対して、外乱除去を行うタイミングを、除去2、除去3、除去10、除去11で示している。除去2における処理は、タイミングt400以降に開始される。外乱除去部109は、画像処理部101によって一時記録部107に記憶された画像処理後のLV画像をデータ転送部105を介して読み出し、外乱除去処理を行った後、外乱除去済みのLV画像をデータ転送部105を介して一時記録部107に記録する。
「推定画像生成」は、推定画像生成部110による学習モデル208を用いた推定画像生成処理のタイミングを示す。推定4は、欠落した表示4に対応するLV画像を推定するタイミングを示しており、推定画像生成部110は、まず、除去2及び除去3で外乱除去されたLV画像を、データ転送部105を介して一時記録部107から読み出す。そして、読み出したLV画像を入力として学習モデル208を用いた推定を行って表示4に対応する推定LV画像を生成し、生成した推定LV画像を、データ転送部105を介して一時記録部107に書き込む。
推定5は、欠落した表示5に対応するLV画像を推定するタイミングを示しており、推定画像生成部110は、まず、推定4で推定された推定LV画像と、除去3で外乱除去されたLV画像とをデータ転送部105を介して一時記録部107から読み出す。そして、読み出したLV画像を入力として学習モデル208を用いた推定を行って表示5に対応する推定LV画像を生成し、生成した推定LV画像を、データ転送部105を介して一時記録部107に書き込む。
同様に、推定6は、欠落した表示6に対応するLV画像を推定するタイミングを示しており、推定画像生成部110は、まず、推定4及び推定5で推定された推定LV画像をデータ転送部105を介して一時記録部107から読み出す。そして、読み出した推定LV画像を入力として学習モデル208を用いた推定を行って表示6に対応する推定LV画像を生成し、生成した推定LV画像を、データ転送部105を介して一時記録部107に書き込む。
推定12は、欠落した表示12に対応するLV画像を推定するタイミングを示しており、上述した推定4と同様の処理が行われる。推定13は、欠落した表示13に対応するLV画像を推定するタイミングを示しており、上述した推定5と同様の処理が行われる。同様に、推定14は、欠落した表示14に対応するLV画像を推定するタイミングを示しており、上述した推定6と同様の処理が行われる。
「外乱付加」は、外乱付加部111による外乱付加処理のタイミングを示す。ここでは、推定4、推定5、推定6、推定12、推定13、推定14において推定された推定LV画像の画像データに対して外乱付加を行うタイミングを、それぞれ、付加4、付加5、付加6、付加12、付加13、付加14として示している。外乱付加部111は、まず、推定画像生成部110によって一時記録部107に記憶された推定LV画像をデータ転送部105を介して読み出す。そして、読み出した推定LV画像に対して外乱付加処理を行った後、外乱付加された代替LV画像をデータ転送部105を介して一時記録部107に書き込む。
「表示V同期」は、表示デバイス103へ表示を開始する表示の垂直同期信号を示しており、例えば1秒間に60フレーム(60fps)の画像を表示するようなタイミングを示す同期信号である。なお、「表示V同期」は、システムとして、「センサ出力画像」が示すタイミングで読み出したLV画像を表示デバイス103へ表示するまでの時間が、最も短くなるタイミングとなるようにする。つまり、「撮像V同期」の垂直同期信号から一定期間遅れて「表示V同期」の垂直同期信号が発生することになる。
「表示」は、表示部102で処理したLV画像、及び、代替LV画像を表示デバイス103へ表示するタイミングを示す。通常は表示V同期に従ったタイミングで画像処理し、一時記録部107に記憶された画像処理済みのLV画像の画像データである表示1~3、7~11、15、16を読み出し、表示を更新する。一方、静止画撮影が開始され、LV画像の撮像が行えないタイミングにおいては、付加4~6、12~14において外乱付加済みの代替LV画像である表示4、5、6及び表示12、13、14を読み出し、表示を更新する。これにより、静止画撮影中においても代替LV画像である表示4~6、及び表示12~14を含め、表示1~16まで連続した表示を行うことができる。
次に、図5A及び図5Bを用いて、本実施形態における撮影及び表示処理について説明する。図5Aは、制御部104により制御される、LV表示中に静止画像を撮影する場合に、静止画像撮影中の代替LV画像を生成する処理を説明するフローチャートである。LV表示中(すなわち、LV画像撮影中)にユーザがシャッターレリーズボタンを押下し、スイッチSW2がONとなったタイミングで、本処理を開始する。
S501で、2フレーム前のLV画像があるか判断する。ある場合はS502に進み、無い場合はS503に進む。
S502では、2フレーム前のLV画像を画像処理部101によって画像処理し、更に、処理したLV画像に対して外乱除去部109により外乱除去処理を行って、S504に進む。
一方、S503では、推定画像生成部110によって生成された2フレーム前の推定LV画像を取得し、S504に進む。
S504で、1フレーム前のLV画像があるか判断する。ある場合はS505に進み、無い場合はS506に進む。
S505では、1フレーム前のLV画像を画像処理部101によって画像処理し、更に、処理したLV画像に対して外乱除去部109により外乱除去処理を行って、S507に進む。
一方、S506では、推定画像生成部110によって生成された1フレーム前の推定LV画像を取得し、S50に進む。
S507において、推定画像生成部110は、S501からS506で入手した2フレーム前及び1フレーム前の外乱除去済みLV画像または推定LV画像を入力とし、学習モデル208を用いて、現フレームの推定LV画像を推定して生成する。
次にS508で、S507で推定した推定LV画像に対して外乱付加部111により外乱付加処理を行い、現フレームのLV表示用の代替LV画像を生成する。
S509で、S508で生成した代替LV画像を表示部102を介して表示デバイス103で表示する。
S510では、静止画像の撮影が完了したか判断する。ここでは、静止画像の撮影が終了し、ユーザによりシャッターレリーズボタンが押下されていない状態になったかで判断する。完了でない場合は、S501に戻って上記処理を繰り返し、完了した場合は、処理を終了する。
以上のように静止画像の撮影が完了するまで一連の処理を繰り返し行う。これにより、静止画像の撮影によりLV画像の撮影が行えない期間においても、ブラックアウトや、同じ画像の連続表示などによる画面のフリーズのような現象を起こすことなく、継続してLV画像を表示し続けることができる。
図5Bは、S502及びS505で行われる外乱除去部109による外乱除去処理を説明するフローチャートである。
S521では、現在の撮影条件、例えば、フォーカスレンズの位置、ズームレンズの位置、絞り値、撮像素子100の露光時間、ISO感度などの取得を行う。実際はこのタイミングにおいてLV画像の撮像はされないため、直前のLV画像の撮像時における撮影条件を取得する。また、動的にレンズや絞りが制御される場合は予測に基づいた位置補正を行った撮影条件を取得する、といった方法でもよい。
S522では、ジャイロセンサ、撮像画像のベクトル検出、輝度変化検出など、撮像画像の時間方向の変動を検出する手段によって、カメラの振れ量、動体のブレ量、輝度変化量を検出する。
S523では、S521で取得した撮影条件に基づいた外乱除去処理、及び、S522で検出した検出情報に基づいた外乱除去処理を行う。S521で取得したフォーカスレンズの位置、ズームレンズの位置、絞り値、撮像素子100の露光時間、ISO感度などに基づき、ノイズ、ボケ、色収差、周辺光量落ち、歪曲、拡縮を抑制する処理を行う。また、S522で取得した情報に基づき、カメラの振れ、動体のブレ、輝度変化を抑制する処理を行う。
次に、本実施形態におけるライブビューのフレームレートについて説明する。推定画像生成部110は、図2を用いて説明した学習において、予め決められたフレームレートの教師用動画を用いて学習する。このとき教師用動画のフレームレートを統一し、異なるフレームレートの動画が混入しないようにして学習することで、そのフレームレートにおいて推定精度の高い学習モデルを生成することができる。
さらに、図3を用いて説明した推定画像生成の際には、推定対象となるLV画像の撮像フレームレート及び表示フレームレートが学習時の教師用動画のフレームレートと一致している方が推定精度が高くなる。LV表示のフレームレートが例えば60fpsの場合、60fpsの教師用動画を用いて60fpsの学習モデルを学習し、60fpsのLV表示の代替LV画像を生成する際には、この学習済みの60fps学習モデルを使用する。
また、同じ撮像装置内で動作モードによりLV表示のフレームレートが異なる場合、予め異なるフレームレートごとの学習モデルを学習して用意しておくとよい。そして、LV表示の代替LV画像の生成の際には、LV表示のフレームレートに応じた学習モデルを選択使用する。
図6はその一例を示す図であり、動作モードに低速連写(通常)、低速連写(省電)、高速連写(通常)、高速連写(省電)があり、各々表示フレームレートが60fps、30fps、120fps、60fpsの場合を示す。低速連写と高速連写は静止画の連写コマ速が低速なモードと高速なモードを想定している。通常モードと省電モードは表示フレームレートが異なり、ここでは省電モードのフレームレートは通常モードのフレームレートの半分とすることで消費電力を抑え、バッテリー交換なしで撮影可能な静止画撮影枚数を増やせるなどの効果を期待したモードである。このとき、各々の動作モードで使用する学習モデルを、低速連写(通常)時には60fps学習モデル、低速連写(省電)時には30fps学習モデルを選択し、切替えて使用する。また、高速連写(通常)時には120fps学習モデル、高速連写(省電)時には60fps学習モデルを選択し、切替えて使用する。
以上説明したように第1の実施形態によれば、静止画像の連写時に静止画像の露光時間が長くなるなどし、通常のLV画像の撮像及びLV表示が行えない場合においても、視認性のよい滑らかなLV表示が可能となる。
<変形例>
図7を用いて、外乱除去部109が学習モデルを用いて外乱除去処理を行う場合について説明する。
図7(a)は、外乱除去処理に用いられる学習モデルの学習方法について説明する図で、701は、あるフレームレートで撮影された教師用動画を示しており、左から右に時系列に並ぶ複数のフレーム画像から構成される。702は外乱除去部109による外乱除去処理を示す。学習モデル703は、機械学習を行う学習モデルであり、例えば、既知のニューラルネットワークモデルなどである。ここでは、学習モデル703の例として、1枚のフレーム画像704を入力として、入力画像の外乱が抑制されたフレーム画像を生成する。具体的には、教師用動画701から1枚のフレーム画像を入力し、外乱除去処理702を行ったフレーム画像705を学習時の期待値である教師データとして、学習モデル703により生成されたフレーム画像との誤差に基づいて学習モデル703を更新する。そして、教師用動画701から使用するフレーム画像をずらしながら繰り返し入力フレーム画像、教師データとして利用していくことで、学習モデル703は繰り返し学習していくことができる。
図7(b)は、学習モデル703を用いた外乱除去処理を示す。712は外乱ありのフレーム画像であり、図3のLV画像301から画像処理された第(N-2)、第(N-1)フレームのLV画像に相当する。713は学習モデル703を用いて処理した外乱除去フレーム画像であり、図3の外乱除去済みのLV画像305、306に相当する。このように学習モデル703は、図3の外乱除去処理302に使用することができる。
次に、図8を用いて、外乱付加部111が学習モデルを用いて外乱付加処理を行う場合について説明する。
図8(a)は、外乱付加処理に用いられる学習モデルの学習方法について説明する図で、801は、あるフレームレートで撮影された教師用動画を示しており、左から右に時系列に並ぶ複数のフレーム画像から構成される。802は外乱除去部109による外乱除去処理を示す。学習モデル803は、機械学習を行う学習モデルであり、例えば、既知のニューラルネットワークモデルなどである。ここでは、学習モデル803の例として、外乱除去済みの1枚のフレーム画像804を入力として、入力画像に外乱を付加したフレーム画像を生成する。具体的には、教師用動画801から1枚のフレーム画像805を入力し、当該フレーム画像805を学習時の期待値である教師データとして、学習モデル803により生成されたフレーム画像との誤差に基づいて学習モデル803を更新する。さらに、教師用動画801から使用するフレーム画像をずらしながら繰り返し入力フレーム画像、教師データとして利用していくことで、学習モデル803は繰り返し学習していくことができる。
図8(b)は、学習モデル803を用いた外乱付加処理を示す。812は外乱なしのフレーム画像であり、図3の学習モデル208を用いて生成された推定LV画像307、309、311に相当する。813は学習モデル803によって推定生成された外乱付加フレーム画像であり、図3の外乱付加処理された代替LV画像308、310、312に相当する。このように学習モデル803は、図3の外乱付加処理303に使用することができる。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。なお、第2の実施形態で用いる撮像装置は、第1の実施形態で説明したものと同様であるため、説明を省略する。
第1の実施形態では、学習モデルを用いた推定LV画像の生成において、直前2枚のフレーム画像を入力としていた。これに対し、第2の実施形態では、これに限らず違うタイミングのフレーム画像を入力とし、撮像により得られたフレーム画像を積極的に使用する点が異なる。
図9を用いて、第2の実施形態における推定画像生成部110で用いる学習モデルの学習処理について説明する。なお、図9において、図2と同様のものには同じ参照番号を付し、適宜説明を省略する。
図9(a)は、第(N-2)フレーム画像及び第(N-1)フレーム画像を入力として、第Nフレームのフレーム画像を推定する場合を示している。この学習方法は、第1の実施形態で図2を参照して説明した方法と同様であるため、説明を省略する。ただし、以下に図9(b)を参照して説明する学習モデルB909との違いを表すために、図9(a)では、図2における学習モデル208を、学習モデルA908と記す。
次に、図9(b)を参照して、学習モデルB909の学習処理について説明する。ここでは、第(N-3)フレーム画像、第(N-1)フレーム画像、第Nフレーム画像を例に取って説明する。
まず、外乱除去部109により、第(N-3)フレーム画像、第(N-1)フレーム画像、第Nフレーム画像に対してそれぞれ外乱除去処理902、903、904を施し、フレーム画像905、906、907を生成する。ここでの外乱は教師用動画201に特有な外乱を指しており、動画撮影時の撮影条件であるフォーカスレンズの位置、ズームレンズの位置、絞り値、及び、撮像素子100の露光時間、感度変更などの撮影条件によって変動するノイズ、ボケ、色収差、周辺光量落ち、歪曲、拡縮を含む。またカメラの振れ、動体のブレ、輝度変化等も含む。
学習モデルB909は、推定画像生成部110で用いられる、機械学習を行う学習モデルであり、例えば、既知のニューラルネットワークモデルなどである。学習モデルB909の例として、時間方向に1枚おいて連続した2枚のフレーム画像を入力し、入力した2枚のフレーム画像に対して次のフレームのフレーム画像を推定して出力する構成とする。ここでは、外乱除去済みの第(N-3)フレーム画像905、第(N-1)フレーム画像906を入力し、学習時の教師データとして、外乱除去済みの第Nフレーム画像907を用いる。学習モデルB909は、推定した第Nフレームの推定フレーム画像と、期待値である教師データとなる外乱除去済みの第Nフレーム画像907との誤差に基づいて学習モデルB909を更新する。
同様にして、外乱除去済みの第(N-2)フレーム画像906と、第Nフレーム画像907とを入力とし、推定した第(N+1)フレームの推定フレーム画像と、期待値である教師データとして外乱除去済みの第(N+1)フレーム画像との誤差に基づいて学習モデルB909を更新する。
このように教師用動画201の使用するフレーム画像をずらしながら繰り返し入力フレーム画像、教師データとして利用していくことで、学習モデルB909は繰り返し学習していくことができる。また、教師用動画201として実際の撮影シーンに近いさまざまな動画を使用することで、精度の高い推定画像の生成が可能な学習モデルB909を作ることができる。またこの時、教師用動画201の動画撮影時の条件に依存した外乱を抑制した上で学習を行うことで、撮影条件などに起因する外乱に依存しない、精度の高い推定画像生成が可能な学習モデルを得ることができる。なお、本実施形態において、学習は撮影中には行わず、事前に済ませておき、各エッジの重みデータなどを学習パラメータとして、記録部108に保持しておく。
次に、図10を用いて、本実施形態における推定画像生成部110による学習モデルA908及び学習モデルB909を用いた推定画像の生成処理について説明する。なお、図10において、図3と同様のものには同じ参照番号を付し、適宜説明を省略する。
LV画像の撮影中に静止画像の撮影が開始すると、同じ撮像素子100で撮影を行うためにLV画像の撮影ができず、欠落するフレームが発生してしまう。この場合に、この欠落したフレームのLV画像の代替となるLV画像を、上述した様にして得られた学習済の学習モデルA908及び学習モデルB909を用いて生成する。
図10において、処理Nは、撮影した第(N-2)フレームのLV画像及び第(N-1)フレームのLV画像から、欠落した第NフレームのLV画像を生成する場合の概念を示す。なお、処理Nは、図3で行われる処理Nと同様であるため、説明を省略する。この処理Nにおいては、学習モデル208に相当する学習モデルA908を用いる。
処理(N+1)は、2フレーム連続してLV画像が欠落した場合の処理を示している。ここでは、処理Nで推定された第Nフレームの推定LV画像307と、撮影した外乱除去済みの第(N-1)フレームのLV画像306とから、欠落した第(N+1)フレームの代替LV画像を生成する場合の概念を示す。なお、処理(N+1)も、図3で行われる処理(N+1)と同様であるため、説明を省略する。この処理(N+1)においても、学習モデル208に相当する学習モデルA908を用いる。
処理(N+2)は、3フレーム連続してLV画像が欠落した場合の処理を示している。ここでは、外乱除去済みの第(N-1)フレームのLV画像1006と、処理(N+1)で推定された第(N+1)フレームの推定LV画像309とから、欠落した第(N+2)フレームの代替LV画像を生成する場合の概念を示す。
まず、第(N-1)フレームのLV画像に対して外乱除去部109によって外乱除去処理302を行い、外乱除去済みの第(N-1)フレームのLV画像306を生成する。なお、処理Nで生成した外乱除去済みの第(N-1)フレームのLV画像306を用いても構わない。そして、外乱除去済みの第(N-1)フレームのLV画像306と、処理(N+1)により推定された第(N+1)フレームのLV画像309とを入力とする。
この処理(N+2)では、推定に用いるLV画像のフレームは連続していないため、推定画像生成部110は、学習モデルB909を用いて、欠落した第(N+2)フレームのLV画像1012を推定する。そして、推定された第(N+2)フレームのLV画像1012に対して、外乱付加部111によって外乱付加処理303を行い、欠落した第(N+2)フレームの代替LV画像1013を生成する。
以上のように、第N、第(N+1)、第(N+2)フレームの画像が時間方向に連続して欠落しても、学習モデルA908及び学習モデルB909を用いて、第Nフレームの代替LV画像308、第(N+1)フレームの代替LV画像310、第(N+2)フレームの代替LV画像1013を生成していくことができる。そして、第(N-2)、第(N-1)フレームのLV画像に続いて、第Nフレームの代替LV画像308、第(N+1)フレームの代替LV画像310、第(N+2)フレームの代替LV画像1013を、順次、表示部102を介し表示デバイス103に表示していく。
なお、図9及び図10に示す例では、2枚のフレーム画像を入力とし、次のフレームを出力とする学習モデルを例として説明したが、本発明はこれに限られるものでない。例えば、1枚、または3枚以上の複数のフレーム画像を入力とした学習モデルでも構わない。また推定するフレーム画像についても、連続した次のフレームに限るものでなくフレームとフレームの間、また連続しないある時点のフレームであってもよい。ただし、学習時の入出力フレームのタイミング仕様は、推定画像生成を行うときの学習モデルのタイミング仕様と一致している。
図11は、第2の実施形態におけるLV表示中に静止画像を連写する場合のタイミングチャートである。縦方向に同じタイミングにおけるタイミング信号あるいは処理を示し、横方向に時間を示している。なお、図11において、図4と同様の記載についての説明は適宜省略する。
図4に示す処理との違いは、推定6及び推定14における処理にある。図11の推定6では、推定4で得られた推定LV画像を用いず、除去3で外乱除去済みのLV画像と、推定5で得られた推定LV画像を用いる。この時、学習モデルB909を用いるのは、上述した通りである。同様に、推定14においては、推定12で得られた推定LV画像を用いず、除去11で外乱除去済みのLV画像と、推定13で得られた推定LV画像を用いる。この時にも学習モデルB909を用いるのは、上述した通りである。
そして、推定4、5、6及び推定12、13、14で推定した推定LV画像に対して、それぞれ付加4、5、6及び付加12、13、14において外乱付加を行い、得られた代替LV画像は、データ転送部105を介して一時記録部107に記録される。
そして、一時記録部107に記憶された画像処理済みのLV画像の画像データである表示1~3、7~11、15、16を読み出し、表示を更新する。一方、静止画撮影が開始され、LV画像の撮像が行えないタイミングにおいては、付加4~6、12~14において外乱付加済みの代替LV画像である表示4、5、6及び表示12、13、14を読み出し、表示を更新する。これにより、静止画撮影中においても代替LV画像に対応する表示4~6、及び表示12~14を含め、表示1~16まで連続した表示を行うことができる。
上記の通り第2の実施形態によれば、学習モデルA908と学習モデルB909とを使い分け、推定時に、常に撮影されたLV画像を入力に用いることで、より精度の高い代替フレーム画像を生成し、表示することができる。
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。なお、第の実施形態で用いる撮像装置は、第1の実施形態で説明したものと同様であるため、説明を省略する。
第1の実施形態では、学習モデルを用いた推定LV画像の生成において、直前2枚のフレーム画像を入力としていた。これに対し、第3の実施形態では、これに限らず違うタイミングのフレーム画像を入力とする点が異なる。
また第2の実施形態では、入力フレーム画像のタイミングの組み合わせによって個別の学習モデルをそれぞれ作成し、選択的に用いて推定フレーム画像を生成する例について説明した。これに対し、第3の実施形態では、入力フレーム画像とともにタイミング情報を入力とすることで、同じ学習モデルを用いて推定フレーム画像を生成する点が異なる。
図12を用いて、第3の実施形態における推定画像生成部110で用いる学習モデルの学習処理について説明する。なお、図12において、図2及び図9と同様のものには同じ参照番号を付し、適宜説明を省略する。
図12に示す学習モデル1208と、図2に示す学習モデル208及び図9に示す学習モデルA908、学習モデルB909との違いは、学習モデル1208では、入力するフレーム画像と共に、そのフレーム画像の時間情報を入力する点である。
図12(a)に示す学習処理においては、外乱除去処理済みの第(N-2)フレーム及び第(N-1)フレームのフレーム画像205、206と共に、学習時の教師データとして用いる外乱除去済みの第Nフレームのフレーム画像207のタイミングを「0」とした場合の、相対的な各々のタイミング情報1209、1210として「-2」、「-1」を入力する。タイミング情報の1単位は、フレームレートのフレーム間隔を示し、時間軸方向に過去方向はマイナス、未来方向はプラスを示す。従って、1フレーム前のタイミングは「-1」、2フレーム前のタイミングは「-2」である。学習モデル1208では、このタイミング情報1209、1210である「-2」、「-1」を加味して推定を行い、第Nフレームの推定フレーム画像を生成する。学習モデル1208は、推定した第Nフレームの推定フレーム画像と、期待値である教師データとなる外乱除去済みの第Nフレーム画像207との誤差に基づいて学習モデル1208を更新する。
次に図12(b)に示す学習処理においては、外乱除去処理済みの第(N-3)フレーム及び第(N-1)フレームのフレーム画像905、906と共に、学習時の教師データとして用いる外乱除去済みの第Nフレームのフレーム画像907のタイミングを「0」とした場合の、相対的な各々のタイミング情報1212、1213として「-3」、「-1」を入力する。学習モデル1208では、このタイミング情報1212、1213である「-3」、「-1」を加味して推定を行い、第Nフレームの推定フレーム画像を生成する。学習モデル1208は、推定した第Nフレームの推定フレーム画像と、期待値である教師データとなる外乱除去済みの第Nフレーム画像907との誤差に基づいて学習モデル1208を更新する。
このように、異なる時間間隔の外乱除去済みのフレーム画像を入力として、同じ学習モデル1208の学習処理を行っていく。
次に、図13を用いて、本実施形態における推定画像生成部110による学習モデル1208を用いた推定画像の生成処理について説明する。なお、図13において、図10と同様のものには同じ参照番号を付し、適宜説明を省略する。
LV画像の撮影中に静止画像の撮影が開始すると、同じ撮像素子100で撮影を行うためにLV画像の撮影ができず、欠落するフレームが発生してしまう。この場合に、この欠落したフレームのLV画像の代替となるLV画像を、上述した様にして得られた学習済の学習モデル1208を用いて生成する。
図13において、処理Nは、撮影した第(N-2)フレームのLV画像及び第(N-1)フレームのLV画像から、欠落した第NフレームのLV画像を生成する場合の概念を示す。
まず、第(N-2)及び第(N-1)フレームのLV画像に対して、外乱除去部109によって外乱除去処理302を行い、外乱除去済みの第(N-2)フレームのLV画像305及び第(N-1)フレームのLV画像306を生成する。そして、外乱除去済みの第(N-2)フレームのLV画像305、第(N-1)フレームのLV画像306と共に、タイミング情報1309として「-2」、タイミング情報1310として「-1」を学習モデル1208に入力する。学習モデル1208はタイミング情報1309の「-2」、1310の「-1」を加味して、第Nフレームの推定LV画像1307を推定する。第Nフレームの推定LV画像1307に対して、外乱付加部111によって外乱付加処理303を行い、欠落した第Nフレームの代替LV画像1308を生成する。
処理(N+1)は、2フレーム連続してLV画像が欠落した場合の処理を示している。ここでは、処理Nで推定された第Nフレームの推定LV画像1307と、撮影した外乱除去済みの第(N-1)フレームのLV画像306とから、欠落した第(N+1)フレームの代替LV画像を生成する場合の概念を示す。
まず、第(N-1)フレームのLV画像に対して、外乱除去部109によって外乱除去処理302を行い、外乱除去済みの第(N-1)フレームのLV画像306を生成する。なお、処理Nにより生成した外乱除去済みの第(N-1)フレームのLV画像306を用いても構わない。そして、外乱除去済みの第(N-1)フレームのLV画像306と処理Nにより推定生成した第NフレームのLV画像1307、及び、タイミング情報1313として「-2」、タイミング情報1314として「-1」を学習モデル1208に入力する。学習モデル1208はタイミング情報1309の「-2」、1310の「-1」を加味して、第(N+1)フレームの推定LV画像1311を推定する。そして、推定された第(N+1)フレームの推定LV画像1311に対して、外乱付加部111によって外乱付加処理303を行い、欠落した第(N+1)フレームの代替LV画像1312を生成する。
処理(N+2)は、3フレーム連続してLV画像が欠落した場合の処理を示している。ここでは、外乱除去済みの第(N-1)フレームのLV画像306と、処理(N+1)で推定された第(N+1)フレームの推定LV画像1311とから、欠落した第(N+2)フレームの代替LV画像を生成する。
まず、第(N-1)フレームのLV画像に対して外乱除去部109によって外乱除去処理302を行い、外乱除去済みの第(N-1)フレームのLV画像306を生成する。なお、処理Nで生成した外乱除去済みの第(N-1)フレームのLV画像306を用いて構わない。そして、外乱除去済みの第(N-1)フレームのLV画像306と、処理(N+1)により推定された第(N+1)フレームのLV画像1311、及び、タイミング情報1317として「-3」、タイミング情報1318として「-1」を学習モデル1208に入力する。学習モデル1208は、タイミング情報1317の「-3」、1318の「-1」を加味して、第(N+2)フレームの推定LV画像1315を推定する。そして、推定された第(N+2)フレームのLV画像1315に対して、外乱付加部111によって外乱付加処理303を行い、欠落した第(N+2)フレームの代替LV画像1316を生成する。
以上のように、欠落した第N、第(N+1)、第(N+2)フレームが時間方向に連続して発生しても、学習モデル1208を用いて、第Nフレームの代替LV画像1308、第(N+1)フレームの代替LV画像1312、第(N+2)フレームの代替LV画像1316を生成していくことができる。そして、第(N-2)、第(N-1)フレームのLV画像に続いて、第Nフレームの代替LV画像1308、第(N+1)フレームの代替LV画像1312、第(N+2)フレームの代替LV画像1316を、順次、表示部102を介し表示デバイス103で表示していく。
上記の通り第3の実施形態によれば、学習モデル1208にタイミング情報を用いることで、精度の高い代替フレーム画像を生成し、表示することができる。
なお、図12及び図13に示す例では、2枚のフレーム画像を入力とし、次のフレームを出力とする学習モデルを例として説明したが、本発明はこれに限られるものでない。例えば、1枚、または3枚以上の複数のフレーム画像を入力とした学習モデルでも構わない。また推定するフレーム画像についても、連続した次のフレームに限るものでなくフレームとフレームの間、また連続しないある時点のフレームであってもよい。ただし、学習時の入出力フレームのタイミング仕様は、推定画像生成を行うときの学習モデルのタイミング仕様と一致している。
なお、第3の実施形態におけるLV表示中に静止画像を連写する場合のタイミングチャートは第2の実施形態における図11のタイミングチャートと同じであるため、ここでは説明を省略する。なお、推定4、5、6、12、13、14において、学習モデルA908、学習モデルB909の代わりに学習モデル1208を用いるのは、上述から明らかである。
<変形例>
図14は、第3の実施形態における学習モデル1208を用いた代替LV画像の生成処理の別の例を示すタイミングチャートである。縦方向に同じタイミングにおけるタイミング信号あるいは処理を示し、横方向に時間を示している。なお、図14において、図11と同様の記載についての説明は適宜省略する。
図11に示す処理との違いの1つは、図14に示す例では、「画像処理」において、LV画像に対する表示用の画像処理を、LV画像と静止画像に対して行う点である。図1では、LV画像に対して行う表示用の画像処理を表示1~3、7~11、15、16、静止画像に対して行う表示用の画像処理を静止画1、2としている。
また、図11に示す処理との別の違いは、推定6及び推定14における処理にある。図1の推定6では、除去3で得られた外乱除去済みのLV画像を用いず、推定5において生成された推定LV画像と、静止画1において画像処理された静止画像とを用いる。この際に、推定5、静止画1の各々のタイミング情報「-1」「-1.5」を学習モデル1208に入力し、学習モデル1208はこれらの情報を加味して、推定LV画像を生成する。そして、推定6で生成した推定LV画像をデータ転送部105を介して一時記録部107に書き込む。
ここで、静止画1のタイミング情報「-1.5」は、生成する推定LV画像に対する相対的なタイミングを示し、例えば、静止画撮影が行われなかった場合の表示6の撮像露光タイミングを「0」とした場合、「センサ出力画像」に示す静止画1の露光重心のタイミングで与えられる。
推定14は、表示14のための推定LV画像の生成処理を示しており、推定6における処理と同様の処理が行われる。
以上説明したように本変形例によれば、第3の実施形態と同様の効果に加え、静止画撮影で得られた静止画像を用いることで、視認性のよい滑らかな表示が可能となる。
<他の実施形態>
上述した実施形態では、静止画像の連写時について説明したが、静止画像の単写時に適用しても良い。
また、本発明は、複数の機器から構成されるシステムに適用しても、一つの機器からなる装置に適用してもよい。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:撮像素子、101:画像処理部、102:表示部、103:表示デバイス、104:制御部、105:データ転送部、106:バス、107:一時記録部、108:記録部、109:外乱除去部、110:推定画像生成部、111:外乱付加部、112:操作部、201:教師用動画、208,1208:学習モデル、908:学習モデルA、909:学習モデルB

Claims (17)

  1. 撮像素子により撮影されたフレーム画像における予め決められた外乱を抑制する抑制手段と、
    前記外乱が抑制された少なくとも1枚の第1のフレーム画像から、当該第1のフレーム画像とは異なる時点における第2のフレーム画像を、学習モデルを用いて推定する推定手段と、
    前記第2のフレーム画像に、前記外乱を付加する付加手段と、
    を有することを特徴とする画像処理装置。
  2. 前記撮像素子により周期的に撮影されたフレーム画像と、前記付加手段により前記予め決められた外乱が付加された前記第2のフレーム画像とを、表示手段に出力することを特徴とする請求項1に記載の画像処理装置。
  3. 前記予め決められた外乱は、撮像光学部材の撮影条件により変動する外乱、前記画像処理装置の振れ、撮影する被写体の動き、輝度変動を含むことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記学習モデルは、前記撮像素子により周期的に撮影された複数のフレーム画像のうち、前記外乱が抑制された少なくとも1枚のフレーム画像を前記第1のフレーム画像として用いて推定された前記第2のフレーム画像と、前記複数のフレーム画像のうち、前記第2のフレーム画像と同じフレームのフレーム画像から前記外乱が抑制されたフレーム画像との誤差に基づいて更新されることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記学習モデルを更新する際に用いる前記第1のフレーム画像は、前記複数のフレーム画像のうち、連続する複数のフレーム画像であることを特徴とする請求項に記載の画像処理装置。
  6. 前記学習モデルを更新する際に用いる前記第1のフレーム画像は、前記複数のフレーム画像のうち、連続しない複数のフレーム画像であることを特徴とする請求項に記載の画像処理装置。
  7. 前記撮像素子が周期的にフレーム画像を撮影中に、フレーム画像の撮影が中断された場合に、前記推定手段は、前記中断している間に欠落するフレーム画像に対応する前記第2のフレーム画像を推定することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  8. 前記欠落するフレーム画像に対応する前記第2のフレーム画像の推定時に用いる前記第1のフレーム画像は、該第2のフレーム画像の推定時よりも前の時点において推定された前記第2のフレーム画像を含むことを特徴とする請求項に記載の画像処理装置。
  9. 前記欠落するフレーム画像に対応する前記第2のフレーム画像の推定時に用いる前記第1のフレーム画像は、前記撮像素子により撮影され、前記外乱が抑制された、少なくとも1つのフレーム画像を含むことを特徴とする請求項またはに記載の画像処理装置。
  10. 前記学習モデルは、前記撮像素子により周期的に撮影された複数のフレーム画像のうち、連続する複数のフレーム画像を用いて更新した第1の学習モデルと、連続しない複数のフレーム画像を用いて更新した第2の学習モデルと、を含み、
    前記撮像素子が周期的にフレーム画像を撮影中に、フレーム画像の撮影が中断された場合に、前記推定手段は、前記中断している間に欠落するフレーム画像に対応する前記第2のフレーム画像を推定し、当該推定時に、前記第1のフレーム画像として連続する複数のフレーム画像を用いる場合に前記第1の学習モデルを用い、前記第1のフレーム画像として連続しない複数のフレーム画像を用いる場合に前記第2の学習モデルを用いることを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  11. 記推定手段は、前記第2のフレーム画像の推定時に、更に前記第1のフレーム画像を撮影したタイミングを示す時間情報を用いることを特徴とする請求項乃至10のいずれか1項に記載の画像処理装置。
  12. 前記撮像素子が周期的に表示用のフレーム画像を撮影中に、静止画像の撮影によりフレーム画像の撮影が中断された場合に、前記中断している間に欠落するフレーム画像に対応する前記第2のフレーム画像の推定時に用いる前記第1のフレーム画像は、前記静止画像を含むことを特徴とする請求項11に記載の画像処理装置。
  13. 前記学習モデルは、異なる複数の周期で撮影された複数のフレーム画像を用いて、各周期ごとに生成され、
    前記第1のフレーム画像の周期に対応する学習モデルを用いて前記第2のフレーム画像を推定することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 撮像素子と、
    請求項1乃至13のいずれか1項に記載の画像処理装置と
    を有することを特徴とする撮像装置。
  15. 抑制手段が、撮像素子により撮影されたフレーム画像における予め決められた外乱を抑制する抑制工程と、
    推定手段が、前記外乱が抑制された少なくとも1枚の第1のフレーム画像から、当該第1のフレーム画像とは異なる時点における第2のフレーム画像を、学習モデルを用いて推定する推定工程と、
    付加手段が、前記第2のフレーム画像に、前記外乱を付加する付加工程と、
    を有することを特徴とする画像処理方法。
  16. コンピュータを、請求項1乃至13のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  17. 請求項16に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2019180713A 2019-09-30 2019-09-30 画像処理装置及び方法、及び撮像装置 Active JP7377048B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019180713A JP7377048B2 (ja) 2019-09-30 2019-09-30 画像処理装置及び方法、及び撮像装置
EP20196371.7A EP3799416B1 (en) 2019-09-30 2020-09-16 Image processing apparatus and method, and image capturing apparatus
US17/033,056 US11394856B2 (en) 2019-09-30 2020-09-25 Image processing apparatus and method, and image capturing apparatus
CN202011065029.XA CN112584008B (zh) 2019-09-30 2020-09-30 图像处理设备、图像处理方法、摄像设备和存储介质
US17/846,893 US11722788B2 (en) 2019-09-30 2022-06-22 Image processing apparatus and method, and image capturing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019180713A JP7377048B2 (ja) 2019-09-30 2019-09-30 画像処理装置及び方法、及び撮像装置

Publications (3)

Publication Number Publication Date
JP2021057824A JP2021057824A (ja) 2021-04-08
JP2021057824A5 JP2021057824A5 (ja) 2022-10-06
JP7377048B2 true JP7377048B2 (ja) 2023-11-09

Family

ID=72521490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019180713A Active JP7377048B2 (ja) 2019-09-30 2019-09-30 画像処理装置及び方法、及び撮像装置

Country Status (4)

Country Link
US (2) US11394856B2 (ja)
EP (1) EP3799416B1 (ja)
JP (1) JP7377048B2 (ja)
CN (1) CN112584008B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI800983B (zh) * 2021-11-16 2023-05-01 華碩電腦股份有限公司 影像處理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013118463A (ja) 2011-12-02 2013-06-13 Olympus Imaging Corp 撮像装置および撮像方法
WO2018179711A1 (ja) 2017-03-30 2018-10-04 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100464570C (zh) * 2004-12-21 2009-02-25 索尼株式会社 图像处理装置、学习装置和系数生成装置及方法
JP4983961B2 (ja) * 2010-05-25 2012-07-25 株式会社ニコン 撮像装置
JP5045785B2 (ja) * 2010-05-25 2012-10-10 株式会社ニコン 撮像装置
JP5645079B2 (ja) 2011-03-31 2014-12-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US10430685B2 (en) * 2016-11-16 2019-10-01 Facebook, Inc. Deep multi-scale video prediction
WO2018116824A1 (ja) * 2016-12-19 2018-06-28 ソニー株式会社 制御装置、制御方法、並びにプログラム
JP2018207416A (ja) * 2017-06-09 2018-12-27 キヤノン株式会社 撮像装置
US10726535B2 (en) * 2018-03-05 2020-07-28 Element Ai Inc. Automatically generating image datasets for use in image recognition and detection
CN108629743B (zh) * 2018-04-04 2022-03-25 腾讯科技(深圳)有限公司 图像的处理方法、装置、存储介质和电子装置
CN109522828B (zh) * 2018-11-01 2021-09-28 上海科技大学 一种异常事件检测方法及系统、存储介质及终端

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013118463A (ja) 2011-12-02 2013-06-13 Olympus Imaging Corp 撮像装置および撮像方法
WO2018179711A1 (ja) 2017-03-30 2018-10-04 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
EP3799416B1 (en) 2023-02-15
CN112584008B (zh) 2023-06-30
EP3799416A1 (en) 2021-03-31
US20210099617A1 (en) 2021-04-01
US11722788B2 (en) 2023-08-08
CN112584008A (zh) 2021-03-30
US11394856B2 (en) 2022-07-19
US20220321743A1 (en) 2022-10-06
JP2021057824A (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
JP6116299B2 (ja) 撮像装置及びその制御方法
JP2006303709A (ja) シェーディング補正装置及び撮像装置
JP7377048B2 (ja) 画像処理装置及び方法、及び撮像装置
US8345110B2 (en) Image processing apparatus and storage medium
JP2018061130A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6278712B2 (ja) 撮像装置およびその制御方法
JP6118118B2 (ja) 撮像装置およびその制御方法
JP6758950B2 (ja) 撮像装置、その制御方法とプログラム
JP2018148512A (ja) 撮像装置と撮像装置の制御方法、及びプログラム
JP2014131190A (ja) 撮像装置、その制御方法、および制御プログラム
US11356611B2 (en) Image capture apparatus and control method thereof
US11356603B2 (en) Image capturing apparatus and control method therefor
US11368624B2 (en) Image capturing apparatus and control method thereof
JP2019080261A (ja) 撮像装置
JP2018074523A (ja) 撮像装置、その制御方法、プログラムならびに記録媒体
JP2021057824A5 (ja)
JP5211947B2 (ja) 撮像装置及びプログラム
US11050928B2 (en) Image capturing control apparatus, image capturing apparatus, control method, and storage medium
JP2013175803A (ja) 画像処理装置およびカメラ
JP6797566B2 (ja) 撮像装置、撮像装置の制御方法、および、画像処理装置
JP2017011676A (ja) 画像処理装置及び画像処理方法
JP6800693B2 (ja) 撮像装置及び撮像装置の駆動方法
JP2020102058A (ja) 画像処理装置
JP2020136892A (ja) 撮像装置、画像処理装置、制御方法、画像処理方法、及びプログラム
JP5471004B2 (ja) 焦点調整装置、焦点調整方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231027

R151 Written notification of patent or utility model registration

Ref document number: 7377048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151