JP2023000274A - 画像処理方法、画像処理装置、画像処理システム、およびプログラム - Google Patents

画像処理方法、画像処理装置、画像処理システム、およびプログラム Download PDF

Info

Publication number
JP2023000274A
JP2023000274A JP2021101003A JP2021101003A JP2023000274A JP 2023000274 A JP2023000274 A JP 2023000274A JP 2021101003 A JP2021101003 A JP 2021101003A JP 2021101003 A JP2021101003 A JP 2021101003A JP 2023000274 A JP2023000274 A JP 2023000274A
Authority
JP
Japan
Prior art keywords
image
captured image
information
image processing
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021101003A
Other languages
English (en)
Other versions
JP7225315B2 (ja
Inventor
祐一 楠美
Yuichi Kusumi
法人 日浅
Norito Hiasa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021101003A priority Critical patent/JP7225315B2/ja
Priority to US17/838,582 priority patent/US20220405892A1/en
Priority to CN202210668489.4A priority patent/CN115496673A/zh
Priority to EP22179125.4A priority patent/EP4109396A1/en
Publication of JP2023000274A publication Critical patent/JP2023000274A/ja
Priority to JP2023014295A priority patent/JP2023055848A/ja
Application granted granted Critical
Publication of JP7225315B2 publication Critical patent/JP7225315B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像の明るさやシーンに応じて適切なぼけ補正が可能な画像処理方法を提供する。【解決手段】画像処理方法は、撮像光学系を通して得られた撮像画像を取得する工程と、撮像画像のぼけ成分を補正して第1の画像を生成する工程と、撮像画像と第1の画像と重みマップとに基づいて第2の画像を生成する工程とを有し、重みマップは、撮像画像の明るさに関する情報または撮像画像のシーンに関する情報と、撮像画像における飽和領域に基づく情報とに基づいて生成される。【選択図】図7

Description

本発明は、画像のぼけを低減する画像処理方法に関する。
特許文献1には、機械学習モデルの1つである畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて、撮像画像のぼけを先鋭化する方法が開示されている。撮像画像の輝度飽和値以上の信号値を有する画像をぼかすことで訓練データセットを生成し、該訓練データセットでCNNを訓練することで、輝度飽和した領域の周辺でも弊害を抑制して、ぼけの先鋭化を行うことができる。また、撮像画像と推定画像(ぼけ先鋭化画像)を輝度飽和した領域に基づいて加重平均し、先鋭化の強度を調整する方法が開示されている。
特許文献2には、撮像画像のぼけをデコンボリューションにて補正し、得られた補正画像と撮像画像を合成することで、飽和画素に対応する位置の周囲のリンギングと呼ばれる縞状のアーティファクトを低減する手法が開示されている。特許文献2では、合成時の重みとして、飽和している画素については撮像画像の合成比率を1にし、そうでない画素については合成比率が0にされる。
特開2020-166628号公報 特開2018-201137号公報
特許文献1に開示された方法は、入力する画像によっては黒沈みやリンギング等を抑制できず、推定画像(ぼけ先鋭化画像)にこれらの弊害が生じることがある。具体的には、光学系の収差によって被写体が大きくぼけていた場合に弊害が発生しやすい。また、輝度飽和した領域の周辺で発生する黒沈みは、画像の明るさによって、目立ちやすさが異なる。例えば、日中の屋外で撮影された明るい画像においては、飽和領域周辺での黒沈みが目立つが、夜景のような暗い画像においては、黒沈みは目立たない。
また、特許文献1や特許文献2に開示された方法では、画像の明るさ(またはシーン)で異なる黒沈みの目立ちやすさに関係なしに、決められた重みに応じて平均化される。つまり、入力画像と推定画像の加重平均を行うと、明るい画像(明るいシーン)では飽和領域周辺で目立つ黒沈みが低減されるが、暗い画像(暗いシーン)においては、必要以上に飽和領域周辺の補正効果が低減してしまう。
そこで本発明は、画像の明るさやシーンに応じて適切なぼけ補正が可能な画像処理方法、画像処理装置、画像処理システム、およびプログラムを提供することを目的とする。
本発明の一側面としての画像処理方法は、撮像光学系を通して得られた撮像画像を取得する工程と、前記撮像画像のぼけ成分を補正して第1の画像を生成する工程と、前記撮像画像と前記第1の画像と重みマップとに基づいて第2の画像を生成する工程とを有し、前記重みマップは、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に基づく情報とに基づいて生成される。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、画像の明るさやシーンに応じて適切なぼけ補正が可能な画像処理方法、画像処理装置、画像処理システム、およびプログラムを提供することができる。
実施例1における機械学習モデルの構成図である。 実施例1における画像処理システムのブロック図である。 実施例1における画像処理システムの外観図である。 実施例1乃至4における先鋭化による弊害の説明図である。 実施例1、3、4における機械学習モデルの訓練のフローチャートである。 実施例1または3におけるモデル出力の生成のフローチャートである。 実施例1乃至4における先鋭化の強度調整のフローチャートである。 実施例1乃至4における平均信号値に対する重みマップの調整値の説明図である。 実施例1における撮像画像と飽和影響マップの説明図である。 実施例1における撮像画像と飽和影響マップの説明図である。 実施例1における重みマップの説明図である。 実施例1における重みマップの説明図である。 実施例2における画像回復フィルタの説明図である。 実施例2における画像回復フィルタの説明図(断面図)である。 実施例2における点像分布関数PSFの説明図である。 実施例2における光学伝達関数の振幅成分MTFと位相成分PTFの説明図である。 実施例2における画像処理システムのブロック図である。 実施例2におけるぼけ先鋭化画像の生成のフローチャートである。 実施例3における画像処理システムのブロック図である。 実施例3における画像処理システムの外観図である。 実施例4における画像処理システムのブロック図である。 実施例4における画像処理システムの外観図である。 実施例4におけるモデル出力および先鋭化の強度調整のフローチャートである。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。
実施例の具体的な説明を行う前に、本発明の要旨を説明する。本発明は、光学系(撮像光学系)を用いて撮像された撮像画像から、光学系に起因するぼけを先鋭化した推定画像(ぼけ先鋭化画像、第1の画像)を生成する。推定画像は、例えば機械学習モデルを用いて生成される。そして、撮像画像の明るさに関する情報または撮像画像のシーンに関する情報と、撮像画像における飽和領域(輝度飽和領域)に基づく情報とに基づいて重みマップを生成し、撮像画像と推定画像とを加重平均する。ここで、光学系に起因するぼけとは、収差、回折、デフォーカスによるぼけや、光学ローパスフィルタによる作用、撮像素子の画素開口劣化などを含む。
機械学習モデルは、例えば、ニューラルネットワーク、遺伝的プログラミング、ベイジアンネットワークなどを含む。ニューラルネットワークは、CNN(Convolutional Neural Network)、GAN(Generative Adversarial Network)、RNN(Recurrent Neural Network)などを含む。
ぼけの先鋭化とは、ぼけによって低下または消失した被写体の周波数成分を復元する処理を指す。ぼけの先鋭化の際、撮像画像によってはアンダーシュート(黒沈み)やリンギング等を抑制できず、推定画像にこれらの弊害が生じることがある。具体的には、光学系の収差によって被写体が大きくぼけていた場合や、画像中に輝度飽和領域が存在する場合、弊害が生じる。撮像素子のダイナミックレンジや撮像時の露出によって、画像中には輝度飽和領域が発生し得る。輝度飽和領域においては、被写体空間の構造に関する情報を取得することができずに弊害が発生しやすい。また、輝度飽和した領域の周辺で発生するアンダーシュートは、画像の明るさによって、目立ちやすさが異なる。例えば、日中の屋外で撮影された明るい画像においては、輝度飽和領域周辺でのアンダーシュートが目立つが、夜景のような暗い画像においては、アンダーシュートは目立たない。
そこで各実施例は、撮像画像の明るさに関する情報または撮像画像のシーンに関する情報と、撮像画像における飽和領域に基づく情報とに基づいて生成された重みマップを用いて、撮像画像と推定画像とを加重平均する。これにより、撮像画像の明るさやシーンに応じて異なる飽和領域周辺の弊害を抑制しつつぼけ補正効果を保つことが可能になる。
なお以下では、機械学習モデルのウエイトを学習する段階のことを学習フェーズとし、学習済みのウエイトを用いた機械学習モデルでぼけの先鋭化を行う段階のことを推定フェーズとする。
まず、本発明の実施例1における画像処理システム100に関して説明する。本実施例では、機械学習モデルにより輝度飽和を含む撮像画像に対してぼけの先鋭化を行う。また、先鋭化するぼけは、光学系で発生する収差や回折、光学ローパスフィルタによるぼけを対象とする。ただし、画素開口やデフォーカス、ぶれによるぼけを先鋭化する場合も、同様に発明の効果を得ることができる。また、ぼけ先鋭化以外のタスクに関しても、同様に発明を実施し、効果を得ることが可能である。
図2は、画像処理システム100のブロック図である。図3は、画像処理システム100の外観図である。画像処理システム100は、有線または無線のネットワークで接続された訓練装置101と画像処理装置103とを有する。画像処理装置103には、有線または無線によって、撮像装置102、表示装置104、記録媒体105、および出力装置106が接続される。撮像装置102を用いて被写体空間を撮像した撮像画像は、画像処理装置103に入力される。撮像画像には、撮像装置102内の光学系(撮像光学系)102aによる収差および回折と、撮像素子102bの光学ローパスフィルタと、によってぼけが発生しており、被写体の情報が減衰している。
画像処理装置103は、機械学習モデルを用いて、撮像画像に対してぼけ先鋭化を行い、飽和影響マップとぼけ先鋭化画像(モデル出力、第1の画像)を生成する。飽和影響マップの詳細は後述する。機械学習モデルは訓練装置101で訓練されたものであり、画像処理装置103は機械学習モデルに関する情報を予め訓練装置101から取得し、記憶部103aに記憶している。また画像処理装置103は、撮像画像とぼけ先鋭化画像の加重平均を取ることで、ぼけ先鋭化の強度を調整する機能を有する。機械学習モデルの訓練と推定、ぼけ先鋭化の強度調整の詳細に関しては、後述する。ユーザは、表示部104に表示された画像を確認しながら、ぼけ先鋭化の強度調整を行うことができる。強度調整が施されたぼけ先鋭化画像は、記憶部103aまたは記録媒体105に保存され、必要に応じてプリンタなどの出力装置106に出力される。なお、撮像画像は、グレースケールでも、複数の色成分を有していてもよい。また、未現像のRAW画像でも、現像後の画像でもよい。
次に、図4(A)乃至(C)を参照して、機械学習モデルによって、ぼけ先鋭化を行う際に発生する推定精度の低下について説明する。図4(A)乃至(C)は、先鋭化による弊害の説明図であり、画像の信号値の空間変化を示す。ここで、画像は8bitに現像された画像であるため、飽和値は255である。図4(A)乃至(C)の実線が撮像画像(ぼけ画像)、点線は、機械学習モデルを用いて、撮像画像のぼけを先鋭化したぼけ先鋭化画像である。
図4(A)は光学系の収差によるぼけが大きい非輝度飽和被写体、図4(B)は光学系の収差によるぼけが小さい非輝度飽和被写体、図4(C)は光学系の収差によるぼけが小さい輝度飽和被写体を鮮鋭化した結果である。光学系の収差によるぼけが大きい場合は、エッジの暗部側でアンダーシュートが発生している。また、光学系の収差によるぼけが小さい場合でも、輝度飽和被写体を鮮鋭化した場合は、非輝度飽和被写体では発生していなかったアンダーシュートや、本来飽和していた画素値が減少する弊害が発生している。輝度飽和を起こした領域(輝度飽和領域)では、被写体空間の構造に関する情報が失われ、各領域の境界で偽エッジが出現することもあり、被写体の正しい特徴量を抽出できない。このため、機械学習モデルの推定精度が低下する。以上の結果より、先鋭化に伴う弊害は、光学系の性能と輝度飽和領域に依存していることがわかる。
先述した補正には、機械学習モデルの入力データとして、撮像画像と撮像画像に対応する輝度飽和マップを用いる手法と、飽和影響マップを生成する手法を盛り込んで学習した機械学習モデルを使用している。つまり、これらの手法を用いることで弊害を低減させることは可能であるが、完全に弊害を消すことは難しい。輝度飽和マップを用いる手法と、飽和影響マップを生成する手法についてそれぞれ詳細に説明する。
輝度飽和マップについて説明する。輝度飽和マップとは、撮像画像において輝度飽和領域を表すマップである。輝度飽和を起こした領域(輝度飽和領域)では、被写体空間の構造に関する情報が失われ、各領域の境界で偽エッジが出現することもあり、被写体の正しい特徴量を抽出できない。そこで、輝度飽和マップを入力することで、ニューラルネットワークが前述のような問題のある領域を特定できるため、推定精度の低下を抑制することができる。
次に、飽和影響マップについて説明する。輝度飽和マップを使用しても、機械学習モデルの判定が正しく行われない場合がある。例えば、輝度飽和した領域の近傍が注目領域だった場合、機械学習モデルは、注目領域の近傍に輝度飽和した領域があるため、注目領域が輝度飽和の影響を受けた領域と判定可能である。しかし、輝度飽和した領域から離れた位置が注目領域の場合、ここが輝度飽和の影響を受けているか否かを判定することは容易でなく、曖昧性が高くなる。その結果、輝度飽和した領域から離れた位置では、機械学習モデルが誤判定を起こすことがある。これによって、タスクがぼけの先鋭化の場合、非飽和ぼけ像に対して、飽和ぼけ像に対応する先鋭化処理を実行する。この際、ぼけを先鋭化した画像にアーティファクトが発生し、タスクの精度が低下する。そのため、機械学習モデルを用いて、ぼけが発生した撮像画像から飽和影響マップを生成することが好ましい。
飽和影響マップは、撮像画像の輝度飽和した領域の被写体が、ぼけによって広がった信号値の大きさと範囲を表すマップ(空間的に配列された信号列)である。つまり、飽和影響マップは、撮像画像における飽和領域に基づく情報である。機械学習モデルに飽和影響マップを生成させることで、機械学習モデルは、撮像画像中の輝度飽和の影響の有無とその大きさを高精度に推定することができる。飽和影響マップが生成されることで、機械学習モデルは、輝度飽和の影響を受けた領域に実行すべき処理と、それ以外の領域に実行すべき処理を、それぞれ適切な領域に実行することができる。そのため、機械学習モデルに飽和影響マップを生成させることで、飽和影響マップの生成を介さない(撮像画像から直接、認識ラベルやぼけ先鋭化画像のみを生成する)場合に対して、タスクの精度が向上する。
上記2つの手法は有効ではあるが、図4(A)乃至(C)を参照して説明したように、弊害を完全に消すことは難しい。そこで、撮像画像とぼけ先鋭化画像の加重平均を取ることで弊害を抑制する。図4(A)中の一点鎖線は、撮像画像とぼけ先鋭化画像の加重平均を取った信号値である。加重平均を取ることにより、ぼけの先鋭化効果を保ちつつ、暗部のアンダーシュートが軽減されている。本実施例では、撮像画像とぼけ先鋭化画像を加重平均する際に使用する重みマップを、撮像画像の明るさに関する情報または撮像画像のシーンに関する情報と飽和領域に基づく情報とに基づいて生成する。それにより、アンダーシュートが目立たない暗い画像においては、補正効果を保ち、アンダーシュートが目立つ明るい画像では補正効果を抑えることで弊害を低減することができる。つまり、シーンによって異なる飽和領域周辺の弊害を抑制しつつぼけ補正効果を保つことが可能となる。
次に、図5を参照して、訓練装置101で実行される機械学習モデルの訓練に関して説明する。図5は、機械学習モデルの訓練のフローチャートである。訓練装置101は、記憶部101a、取得部101b、演算部101c、および更新部101dを有し、いずれかの部材が以下の各ステップを実行する。
まずステップS101において、取得部101bは、記憶部101aから1枚以上の原画像を取得する。原画像は、第2の信号値よりも高い信号値を有する画像である。第2の信号値は、撮像画像の輝度飽和値に相当する信号値である。ただし、機械学習モデルに入力する際、信号値を規格化してもよいため、必ずしも第2の信号値と撮像画像の輝度飽和値が一致する必要はない。原画像を基にして機械学習モデルの訓練を行うため、原画像は様々な周波数成分(異なる向きと強度のエッジ、グラデーション、平坦部など)を有する画像であることが望ましい。原画像は実写画像でもよいし、CG(Computer Graphics)でもよい。
続いてステップS102において、演算部101cは、原画像にぼけを付与し、ぼけ画像を生成する。ぼけ画像は、訓練時に機械学習モデルに入力される画像であり、推定時の撮像画像に相当する。付与するぼけは、先鋭化の対象となるぼけである。本実施例では、光学系102aの収差と回折、および撮像素子102bの光学ローパスフィルタによって発生するぼけを付与する。光学系102aの収差と回折によるぼけの形状は、像面座標(像高とアジムス)によって変化する。また、光学系102aの変倍、絞り、フォーカスの状態によっても変化する。これらのぼけ全てを先鋭化する機械学習モデルを一括で訓練したい場合、光学系102aで発生する複数のぼけを用いて、複数のぼけ画像を生成するとよい。また、ぼけ画像において、第2の信号値を超える信号値はクリップされる。これは、撮像画像の撮像過程で起きる輝度飽和を再現するために行う。必要に応じて、撮像素子102bで発生するノイズをぼけ画像に付与してもよい。
続いてステップS103において、演算部101cは、原画像に基づく画像と信号値の閾値とに基づいて、第1の領域を設定する。本実施例では、原画像に基づく画像として、ぼけ画像を用いるが、原画像そのものなどを用いてもよい。ぼけ画像の信号値と、信号値の閾値と、を比較することで、第1の領域を設定する。より具体的には、ぼけ画像の信号値が、信号値の閾値以上となっている領域を第1の領域とする。実施例1において、信号値の閾値は第2の信号値である。故に、第1の領域は、ぼけ画像の輝度飽和した領域を表す。ただし、信号値の閾値と第2の信号値は、必ずしも一致しなくてもよい。信号値の閾値を、第2の信号値よりやや小さい値(例えば、0.9倍)に設定してもよい。
続いてステップS104において、演算部101cは、第1の領域に原画像の信号値を有する第1の領域画像を生成する。第1の領域画像は、第1の領域以外の領域において、原画像とは異なる信号値を有する。さらに望ましくは、第1の領域画像は、第1の領域以外の領域において、第1の信号値を有する。本実施例において、第1の信号値は0であるが、発明はこれに限定されない。実施例1では、第1の領域画像は、ぼけ画像が輝度飽和した領域のみに原画像の信号値を有し、それ以外の領域の信号値は0である。
続いてステップS105において、演算部101cは、第1の領域画像にぼけを付与し、飽和影響正解マップを生成する。付与されるぼけは、ぼけ画像に付与したぼけと同じである。これによって、ぼけ画像の輝度飽和した領域にある被写体から、撮像時の劣化によって広がった信号値の大きさと範囲を表すマップ(空間的に配列された信号列)である飽和影響正解マップが生成される。実施例1では、ぼけ画像と同様に、飽和影響正解マップを第2の信号値でクリップするが、必ずしもクリップを行う必要はない。
続いてステップS106において、取得部101bは、正解モデル出力を取得する。本実施例では、タスクがぼけ先鋭化のため、正解モデル出力はぼけ画像よりぼけの小さい画像である。実施例1では、原画像を第2の信号値でクリップすることで、正解モデル出力を生成する。原画像に高周波成分が不足している場合、原画像を縮小した画像を正解モデル出力としてもよい。この場合、ステップS102でぼけ画像を生成する際にも同様に縮小を行う。なおステップS106は、ステップS101より後で、ステップS107より前であれば、いつ実行してもよい。
続いてステップS107において、演算部101cは、機械学習モデルを用いて、ぼけ画像に基づき、飽和影響マップとモデル出力を生成する。図1は、機械学習モデルの構成図である。なお本実施例では、図1に示される機械学習モデルを使用するが、これに限定されるものではない。ぼけ画像201と輝度飽和マップ202が、機械学習モデルに入力される。輝度飽和マップ202は、ぼけ画像201の輝度飽和した(信号値が第2の信号値以上である)領域を示したマップである。例えば、第2の信号値で、ぼけ画像201を二値化することによって生成できる。ただし、輝度飽和マップ202は必須ではない。ぼけ画像201と輝度飽和マップ202は、チャンネル方向に連結されて、機械学習モデルに入力される。ただし、発明はこれに限定されない。例えば、ぼけ画像201と輝度飽和マップ202をそれぞれ特徴マップに変換し、それらの特徴マップをチャンネル方向に連結してもよい。また、輝度飽和マップ202以外の情報を入力に追加してもよい。
機械学習モデルは複数の層を有し、各層で層の入力とウエイトの線型和が取られる。ウエイトの初期値は、乱数などで決定するとよい。実施例1は、線型和として入力とフィルタの畳み込み(フィルタの各要素の値がウエイトに該当。また、バイアスとの和を含んでいてもよい)を用いるCNNを機械学習モデルとするが、発明はこれに限定されない。また、各層では必要に応じて、ReLU(Rectified Linear Unit)やシグモイド関数などの活性化関数による非線型変換が実行される。さらに、機械学習モデルは必要に応じて、残差ブロックやSkip Connection(Shortcut Connectionともいう)を有していてよい。複数の層(本実施例では畳み込み層16層)を介した結果、飽和影響マップ203が生成される。本実施例では、層211の出力と輝度飽和マップ202の要素毎の和を取ることで飽和影響マップ203とするが、これに限定されるものではない。飽和影響マップが直接、層211の出力として生成されてもよい。或いは、層211の出力に対して任意の処理を施した結果を飽和影響マップ203としてもよい。
次に、飽和影響マップ203とぼけ画像201をチャンネル方向に連結して後続の層に入力し、複数の層(実施例1では畳み込み層16層)を介した結果、モデル出力204を生成する。モデル出力204も、層212の出力とぼけ画像201の要素ごとの和を取ることで生成されるが、構成はこれに限定されない。なお実施例1では、各層で3×3のフィルタ64種類(ただし、層211と層212は、フィルタ種類の数がぼけ画像201のチャンネル数と同数)との畳み込みを実行するが、これに限定されるものではない。
続いてステップS108において、更新部101dは、誤差関数に基づいて、機械学習モデルのウエイトを更新する。実施例1において、誤差関数は、飽和影響マップ203と飽和影響正解マップの誤差と、モデル出力204と正解モデル出力の誤差と、の重み付き和である。誤差の算出には、MSE(Mean Squared Error)を使用する。重みは両者1とする。ただし、誤差関数と重みはこれに限定されるものではない。ウエイトの更新には、誤差逆伝搬法(Backpropagation)などを用いるとよい。また、誤差は残差成分に対してとってもよい。残差成分の場合、飽和影響マップ203と輝度飽和マップ202の差分成分と、飽和影響正解マップと輝度飽和マップ202の差分成分と、の誤差を用いる。同様に、モデル出力204とぼけ画像201の差分成分と、正解モデル出力とぼけ画像201の差分成分との誤差を用いる。
続いてステップS109において、更新部101dは、機械学習モデルの訓練が完了したかの判定を行う。完了は、ウエイトの更新の反復回数が既定の回数に達したかや、更新時のウエイトの変化量が既定値より小さいかなどによって、判定することができる。ステップS109にて訓練が完了していないと判定された場合、ステップS101へ戻り、取得部101bは1枚以上の新たな原画像を取得する。一方、訓練が完了したと判定された場合、更新部101dは訓練を終了し、機械学習モデルの構成とウエイトの情報を記憶部101aに記憶する。
以上の訓練方法によって、機械学習モデルは、ぼけ画像(推定時には撮像画像)の輝度飽和した領域の被写体がぼけによって広がった信号値の大きさと範囲を表す飽和影響マップを推定することができる。飽和影響マップを明示的に推定することで、機械学習モデルは、飽和ぼけ像と非飽和ぼけ像それぞれに対するぼけの先鋭化を、適切な領域に実行できるようになるため、アーティファクトの発生が抑制される。
次に、図6を参照して、画像処理装置103で実行される、訓練済みの機械学習モデルを用いた撮像画像のぼけ先鋭化に関して説明する。図6は、モデル出力の生成のフローチャートである。画像処理装置103は、記憶部103a、取得部(取得手段)103b、および先鋭化部(第1の生成手段、第2の生成手段)103cを有し、いずれかの部材が以下の各ステップを実行する。
まずステップS201において、取得部103bは、光学系102aを通して得られた撮像画像と機械学習モデルとを取得する。機械学習モデルの構成とウエイトの情報は、記憶部103aから取得される。続いてステップS202において、先鋭化部(第1の生成手段)103cは、機械学習モデルを用いて、撮像画像から、撮像画像のぼけが先鋭化されたぼけ先鋭化画像(モデル出力、第1の画像)を生成する。すなわち先鋭化部103cは、撮像画像のぼけ成分を補正して第1の画像を生成する。なお機械学習モデルは、訓練時と同様に、図1に示される構成を有する。訓練時と同様に、撮像画像の輝度飽和した領域を表す輝度飽和マップを生成して入力し、飽和影響マップとモデル出力を生成する。
次に、図7を参照して、画像処理装置103で実行される、撮像画像とモデル出力の合成(先鋭化の強度調整)に関して説明する。図7は、先鋭化の強度調整のフローチャートである。
まずステップS211において、先鋭化部103cは、飽和影響マップに基づいて、撮像画像とモデル出力とを合成する際の重みマップを生成する。重みマップの生成について詳細に説明する。重みマップとは、撮像画像とぼけ先鋭化画像を加重平均する際の、各画像の割合を決定するものであり、0から1までの連続的な信号値を有する。例えば、重みマップの数値がぼけ先鋭化画像の割合を決定する場合は、数値が1であれば、加重平均された画像は撮像画像のままとなる。また、重みマップの値が0.5であれば、加重平均された画像は撮像画像とぼけ先鋭化画像の画素値をそれぞれ50%ずつ加算したものとなる。本実施例では、重みマップの数値は、撮像画像の重みを表す。重みを決定する際は、飽和影響マップを設定した信号値で規格化し、これを撮像画像の重みマップとする。飽和影響マップを規格化する信号値を変化させることで、ぼけ先鋭化効果と弊害のバランスを調整することも可能である。
撮像画像における輝度飽和領域の周辺は、それ以外の領域に対して、輝度飽和による被写体の情報の減衰があるため、ぼけの先鋭化(減衰した被写体情報の推定)の難度が高い。そのため、輝度飽和領域の周辺は、ぼけの先鋭化に伴う弊害(リンギングやアンダーシュートなど)が発生しやすい。この弊害を抑制するために、モデル出力と撮像画像とを合成する。この際、飽和影響マップに基づいて合成することにより、非飽和ぼけ像のぼけ先鋭化効果の低下を抑制しつつ、弊害が出やすい輝度飽和領域の周辺のみ撮像画像の重みを強くすることで弊害を抑制することができる。
続いてステップS212において、取得部103bは、撮像画像の明るさに関する情報、または撮像画像のシーンに関する情報を取得する。ここで、撮像画像の明るさに関する情報とは、撮像画像の信号値に関する統計量であって、撮像画像の信号値の平均値や中央値、分散、またはヒストグラムの少なくとも一つに基づく情報である。また、撮像画像の明るさに関する情報である撮像画像の信号値に関する統計量は、撮像画像全体に関するものでもよいし、撮像画像(または、後述の第3の画像)における分割領域毎の統計量を用いてよい。
撮像画像のシーンに関する情報とは、撮像画像のシーンの種類や撮像画像が撮影された際の撮像モードの情報である。ただし、撮像画像の明るさの違いが判別できるような、「日中」、「夜景」等のシーンの種類や「夜景撮像モード」等の撮像モードの情報である必要がある。撮像画像のシーンに関する情報は、撮像画像に対してシーン判定する(シーンの種類を判定する)ことで取得してもよいし、撮像画像に書き込まれたシーンの種類や撮影モード情報から取得してもよい。
本実施例では、撮像画像の明るさに関する情報として、撮像画像の平均信号値を取得する。ただし、撮像画像の平均信号値を取得する場合、撮像画像に飽和領域が多く存在すると、夜景のような暗い画像であっても平均信号値としては大きい値が取得され、明るい画像であると判定してしまう場合がある。したがって、撮像画像から飽和影響マップを除いた第3の画像の平均信号値を取得することが好ましい。第3の画像において、撮像画像で飽和していない領域の平均信号値を取得することで、撮像画像が明るいシーンなのか暗いシーンなのかを適切に判定することができる。
続いてステップS213において、先鋭化部103cは、撮像画像の明るさに関する情報または撮像画像のシーンに関する情報に基づいて、撮像画像の重みマップを調整する。すなわち重みマップは、撮像画像の明るさに関する情報または撮像画像のシーンに関する情報と、撮像画像における飽和領域に基づく情報とに基づいて生成される。
撮像画像の明るさに関する情報として撮像画像(または第3の画像)の平均信号値を用いた場合、平均信号値が大きいほど(すなわち撮像画像(または第3の画像)が明るいほど)、撮像画像の重みが大きくなるように、重みマップを調整する。具体的には、平均信号値に対する重みマップの調整値との関係を一次関数として所持しておき、撮像画像の平均信号値に応じた調整値を取得して、重みマップに適用(乗算)する。
図8は、平均信号値に対する重みマップの調整値の説明図である。図8において、横軸は平均信号値、縦軸は重みマップの調整値をそれぞれ示す。例えば、図8に示されるような関係121から取得した平均信号値に対応する調整値を用いる。ただし、平均信号値に対する重みマップの調整値との関係はこれに限定されない。また、平均信号値を、撮像画像を分割した領域毎に取得した場合、各領域の平均信号値の分布を撮像画像の各画素に対応する平均信号値を表す平均信号値マップに変換し、各画素で平均信号値に応じた調整値を取得して、重みマップを調整してよい。
ステップS203にて撮像画像のシーンに関する情報を取得した場合には、例えば、撮像画像が暗い画像であるかに基づいて重みマップを調整する。例えば、撮像画像が明るい画像であれば重みマップをそのまま用いるようにし、夜景のように暗い画像であれば重みマップの値を半分に調整した重みマップを取得する。
なお、撮像画像の信号値に関する統計量として、撮像画像の信号値の平均値や中央値、分散、またはヒストグラムを取得した場合、統計量が大きいほど撮像画像の重みが大きくなるように、重みマップを調整する。例えば、撮像画像の信号値のヒストグラムを用いる場合には、ヒストグラムの重心やピークが高いほど撮像画像の重みが大きくなるように、重みマップを調整する。
図9(A)は、明るいシーンである日中の撮像画像、図9(B)は図9(A)の撮像画像に対する飽和影響マップを示す。図10(A)は、暗いシーンである夜景の撮像画像、図10(B)は図10(A)の撮像画像に対する飽和影響マップを示す。図11は、図9(B)に示される明るいシーンである日中の撮像画像の飽和影響マップに基づく重みを画像の平均信号値に応じて調整した重みマップであり、画像の平均信号値に応じて重みマップが大きく調整されている。重みマップを大きく調整することで、明るいシーンで目立つ弊害を抑制することができる。図12は、図10(B)に示される暗いシーンである夜景の撮像画像の飽和影響マップに基づく重みを画像の平均信号値に応じて調整した重みマップであり、画像の平均信号値に応じて重みマップが小さく調整されている。暗いシーンでは弊害が目立たないため、重みマップを小さく調整することで効果を保つことができる。
なお本実施例において、重みマップは飽和影響マップに基づいて生成されるため、飽和領域とその周辺において適用されるが、飽和影響マップに基づく重みマップ(第1の重みマップ)とは異なる非飽和領域についての第2の重みマップを用いてよい。また、飽和影響マップから算出される重みマップ(第1の重みマップ)に対して飽和領域についての第3の重みマップを適用してもよい。第2の重みマップや第3の重みマップを用いることで、飽和領域と非飽和領域それぞれにおいて強度の調整を行うことができる。その場合、重みマップは、(1-第1の重みマップ)×第2の重みマップ+第1の重みマップ×調整値×第3の重みマップとして計算できる。さらに取得した重みマップをユーザの指示に応じて調整するようにしてもよい。例えば、重みマップ全体に係数をかけることで強度を調整する。
続いてステップS214において、先鋭化部(第2の生成手段)103cは、ステップS213で調整された重みマップを用いて、撮像画像とぼけ先鋭化画像(モデル出力、第1の画像)を加重平均し、強度調整画像205(第2の画像)を生成する。すなわち先鋭化部103cは、撮像画像と第1の画像と重みマップとに基づいて第2の画像を生成する。本実施例において、ぼけ先鋭化画像に対しては、全て1のマップから撮像画像の重みマップを減算した重みマップが用いられる。
以上の構成により、機械学習モデルを用いたぼけ先鋭化の際に、飽和領域周辺において明るさやシーンに応じて適切な補正効果の画像を生成することが可能な画像処理システムを提供することができる。
次に、本発明の実施例2における画像処理システムに関して説明する。本実施例では、ぼけの先鋭化を機械学習とは異なる手法である画像回復処理で行う方法について説明する。
まず、画像回復処理の概要について説明する。撮像画像(劣化画像)をg(x,y)、もとの画像をf(x,y)、光学伝達関数OTFのフーリエペアである点像分布関数PSFをh(x,y)としたとき、以下の式(1)が成立する。
g(x,y)=h(x,y)*f(x,y) … (1)
ここで、*はコンボリューション(畳み込み積分、積和)、(x,y)は撮像画像上の座標である。
また、式(1)をフーリエ変換して周波数面での表示形式に変換すると、周波数ごとの積で表される式(2)が得られる。
G(u,v)=H(u,v)・F(u,v) … (2)
ここで、Hは点像分布関数PSF(h)をフーリエ変換することにより得られた光学伝達関数OTFであり、G,Fはそれぞれ劣化した画像g、もとの画像fをフーリエ変換して得られた関数である。(u,v)は2次元周波数面での座標、すなわち周波数である。
撮影された劣化画像gから元の画像fを得るには、以下の式(3)のように両辺を光学伝達関数Hで除算すればよい。
G(u,v)/H(u,v)=F(u,v) … (3)
そして、F(u,v)、すなわちG(u,v)/H(u,v)を逆フーリエ変換して実面に戻すことにより、もとの画像f(x,y)が回復画像として得られる。
H-1を逆フーリエ変換したものをRとすると、以下の式(4)のように実面での画像に対するコンボリューション処理を行うことで、同様にもとの画像f(x,y)を得ることができる。
g(x,y)*R(x,y)=f(x,y) … (4)
ここで、R(x,y)は画像回復フィルタと呼ばれる。画像が2次元画像である場合、一般的に、画像回復フィルタRも画像の各画素に対応したタップ(セル)を有する2次元フィルタとなる。また、画像回復フィルタRのタップ数(セルの数)は、一般的に多いほど回復精度が向上する。このため、要求画質、画像処理能力、収差の特性等に応じて実現可能なタップ数が設定される。画像回復フィルタRは、少なくとも収差の特性を反映している必要があるため、従来の水平垂直各3タップ程度のエッジ強調フィルタなどとは異なる。画像回復フィルタRは光学伝達関数OTFに基づいて設定されるため、振幅成分および位相成分の劣化の両方を高精度に補正することができる。
また、実際の画像にはノイズ成分が含まれるため、上記のように光学伝達関数OTFの逆数をとって作成した画像回復フィルタRを用いると、劣化画像の回復とともにノイズ成分が大幅に増幅されてしまう。これは、画像の振幅成分にノイズの振幅が付加されている状態に対して、光学系のMTF(振幅成分)を全周波数に渡って1に戻すようにMTFを持ち上げるためである。光学系による振幅劣化であるMTFは1に戻るが、同時にノイズのパワースペクトルも持ち上がってしまい、結果的にMTFを持ち上げる度合(回復ゲイン)に応じてノイズが増幅されてしまう。
したがって、ノイズが含まれる場合には、鑑賞用画像としては良好な画像は得られない。このことは、以下の式(5-1)、(5-2)で表される。
G(u,v)=H(u,v)・F(u,v)+N(u,v) … (5-1)
G(u,v)/H(u,v)=F(u,v)+N(u,v)/H(u,v) … (
5-2)
ここで、Nはノイズ成分である。
ノイズ成分が含まれる画像に関しては、例えば以下の式(6)で表されるウィナーフィルタのように、画像信号とノイズ信号の強度比SNRに応じて回復度合を制御する方法がある。
Figure 2023000274000002
ここで、M(u,v)はウィナーフィルタの周波数特性、|H(u,v)|は光学伝達関数OTFの絶対値(MTF)である。この方法では、周波数ごとに、MTFが小さいほど回復ゲイン(回復度合)を小さくし、MTFが大きいほど回復ゲインを大きくする。一般的に、撮像光学系のMTFは低周波側が高く高周波側が低くなるため、この方法では、実質的に画像の高周波側の回復ゲインを低減することになる。
続いて、図13および図14を参照して、画像回復フィルタについて説明する。図13および図14は、画像回復フィルタの説明図である。画像回復フィルタは、撮像光学系の収差特性や要求される回復精度に応じてそのタップ数が決定される。図13の画像回復フィルタは、一例として、11×11タップの2次元フィルタである。また図13では、各タップ内の値(係数)を省略しているが、この画像回復フィルタの一断面を図14に示す。画像回復フィルタの各タップの値(係数値)の分布は、収差により空間的に広がった信号値(PSF)を、理想的には元の1点に戻す機能を有する。
画像回復フィルタの各タップは、画像の各画素に対応して画像回復処理の工程でコンボリューション処理(畳み込み積分、積和)される。コンボリューション処理では、所定の画素の信号値を改善するために、その画素を画像回復フィルタの中心と一致させる。そして、画像と画像回復フィルタの対応画素ごとに画像の信号値とフィルタの係数値の積をとり、その総和を中心画素の信号値として置き換える。
続いて、図15および図16を参照して、画像回復の実空間と周波数空間での特性について説明する。図15は、点像分布関数PSFの説明図であり、図15(a)は画像回復前の点像分布関数PSF、図15(b)は画像回復後の点像分布関数PSFを示している。図16は、光学伝達関数OTFの振幅成分MTF(図16(M))と位相成分PTF(図16(P))の説明図である。図16(M)中の破線(a)は画像回復前のMTF、一点鎖線(b)は画像回復後のMTFを示す。また図16(P)中の破線(a)は画像回復前のPTF、一点鎖線(b)は画像回復後のPTFを示す。図15(a)に示されるように、画像回復前の点像分布関数PSFは、非対称な広がりを有し、この非対称性により位相成分PTFは周波数に対して非直線的な値を有する。画像回復処理は、振幅成分MTFを増幅し、位相成分PTFがゼロになるように補正するため、画像回復後の点像分布関数PSFは対称で先鋭な形状になる。
このように画像回復フィルタは、撮像光学系の光学伝達関数OTFの逆関数に基づいて設計された関数を逆フーリエ変換して得ることができる。本実施例で用いられる画像回復フィルタは適宜変更可能であり、例えば上述のようなウィナーフィルタを用いることができる。ウィナーフィルタを用いる場合、式(6)を逆フーリエ変換することで、実際に画像に畳み込む実空間の画像回復フィルタを作成することが可能である。
また、収差による光学伝達関数(OTF)は1つの撮像状態においても撮像光学系の像高(画像の位置)に応じて変化するため、画像回復フィルタは像高に応じて変更して使用する必要がある。一方、Fナンバーが大きくなるに従って影響が支配的になる回折による光学伝達関数(OTF)は、光学系のビネッティングの影響が小さい場合、像高に対して一律なOTFとして扱うことができる。
画像回復処理の補正対象として、収差を含まず、回折(回折ぼけ)を対象とする場合には、画像回復フィルタは、絞り値と光の波長のみに依存し、像高(画像の位置)に依存しない。このため、一つの画像内について一律の(一定の)画像回復フィルタを用いることができる。すなわち回折ぼけを補正対象とする画像回復フィルタは、絞り値に応じて発生する回折ぼけによる光学伝達関数に基づいて生成される。波長については、複数の波長での光学伝達関数を計算し、想定する光源の分光や撮像素子の受光感度情報に基づいて波長ごとの重み付けにより色成分ごとの光学伝達関数を生成することができる。または、予め決めた色成分ごとの代表波長で計算を行ってもよい。そして、色成分ごとの光学伝達関数に基づいて画像回復フィルタを生成することができる。
したがって、回折のみを補正対象とする場合、絞り値に依存する画像回復フィルタを予め複数保持しておき、絞り値の撮影条件に応じて画像内を一律の(一定の)画像回復フィルタを用いて処理することができる。また、画素開口の形状に起因した開口劣化成分や光学ローパスフィルタの特性も考慮することがより好ましい。
次に、図17を参照して、本実施例における画像処理システム200について説明する。図17は、画像処理システム200のブロック図である。なお、画像処理システム200の外観図は、実施例1にて説明した図3と同様である。画像処理システム200は、有線または無線のネットワークで接続された画像処理装置203を有する。画像処理装置203には、有線または無線によって、撮像装置202、表示装置204、記録媒体205、および出力装置206が接続される。
撮像装置202を用いて被写体空間を撮像した撮像画像は、画像処理装置203に入力される。撮像画像には、撮像装置202内の光学系202aによる収差および回折と、撮像素子202bの光学ローパスフィルタと、によってぼけが発生しており、被写体の情報が減衰している。画像処理装置203は、撮像画像に対して画像回復処理によるぼけ先鋭化を行い、ぼけ先鋭化画像を生成する。また画像処理装置203は、飽和影響マップを取得する。なお、飽和影響マップの詳細は後述する。また画像処理装置203は、撮像画像とぼけ先鋭化画像の加重平均を取ることで、ぼけ先鋭化の強度を調整する機能を有する。ユーザは、表示部204に表示された画像を確認しながら、ぼけ先鋭化の強度調整を行える。強度調整が施されたぼけ先鋭化画像は、記憶部203aまたは記録媒体205に保存され、必要に応じてプリンタなどの出力装置206に出力される。なお、撮像画像は、グレースケールでも、複数の色成分を有していてもよい。また、未現像のRAW画像でも、現像後の画像でもよい。
次に、図18を参照して、画像処理装置203で実行される、撮像画像のぼけ先鋭化に関して説明する。図18は、ぼけ先鋭化画像の生成のフローチャートである。画像処理装置203は、記憶部203a、取得部203b、および先鋭化部203cを有し、いずれかの部材が以下の各ステップを実行する。
まずステップS301において、取得部203bは、撮像画像を取得する。続いてステップS302において、画像処理装置203は、後述の画像回復処理に用いる画像回復フィルタを取得する。本実施例では、撮影条件に基づいて収差情報(光学情報)を取得し、収差情報に基づいて画像回復フィルタを取得する例について説明する。
まず、画像処理装置は、撮像装置が撮像によって撮像画像を生成した際の撮影条件(撮影条件情報)を取得する。撮影条件は、前述したように、撮像光学系の焦点距離、絞り値(F値)、および、撮影距離のほか、撮像装置の識別情報(カメラID)等を含む。また、撮像光学系の交換が可能な撮像装置においては、撮影条件に、撮像光学系(交換レンズ)の識別情報(レンズID)を含めてもよい。撮影条件情報は、前述したように撮像画像に付帯された情報として取得してもよいし、有線または無線による通信や記憶媒体を介して取得してもよい。
続いて、画像処理装置203は、撮影条件に適した収差情報を取得する。本実施例において、収差情報は光学伝達関数OTFである。画像処理装置は、予め保持された複数の光学伝達関数OTFから、撮影条件に応じて適切な光学伝達関数OTFを選択して取得する。また、絞り値、撮影距離、および、ズームレンズの焦点距離などの撮影条件が特定の撮影条件の場合、その撮影条件に対応する光学伝達関数OTFを、予め保持されている他の撮影条件の光学伝達関数OTFから補間処理により生成することもできる。この場合、保持する光学伝達関数OTFのデータ量を低減することが可能である。補間処理としては、例えばバイリニア補間(線形補間)やバイキュービック補間等が用いられるが、これに限定されるものではない。
本実施例において、画像処理装置203は、収差情報として光学伝達関数OTFを取得するが、これに限定されるものではない。光学伝達関数OTFに代えて、点像分布関数PSF等の収差情報を取得してもよい。また本実施例において、画像処理装置は、収差情報を所定の関数へのフィッティングによって近似した係数データを取得し、係数データから光学伝達関数OTFや点像分布関数PSFを再構成してもよい。例えば、光学伝達関数OTFはLegendre多項式を用いてフィッティングを行えばよい。また、Chebushev多項式など他の関数を用いてフィッティングすることもできる。また、本実施例において、光学伝達関数OTFは撮像画像内の複数の位置に離散的に配置する。
続いて、画像処理装置203は、光学伝達関数OTFを画像回復フィルタに変換する、すなわち複数の位置に配置された光学伝達関数OTFを用いて画像回復フィルタを生成する。画像回復フィルタは、光学伝達関数OTFに基づいて周波数空間での回復フィルタ特性を作成し、逆フーリエ変換により実空間のフィルタ(画像回復フィルタ)に変換することにより生成される。
また、画像回復処理の補正対象として、収差を含まず、回折(回折ぼけ)等、像高(画像の位置)に依存しないぼけを補正対象とする場合には、一つの画像内について一律の(一定の)光学伝達関数OTFや画像回復フィルタを用いてよい。
以上、画像回復フィルタの生成および取得について説明したが、これに限らず、あらかじめ画像回復フィルタを生成して保持しておき、撮影条件に基づいて画像回復フィルタを取得するようにしてもよい。
続いてステップS303において、先鋭化部203cは、撮像画像に対して画像回復処理を行い、撮像画像のぼけが先鋭化されたぼけ先鋭化画像(第1の画像)を生成する。画像回復処理は、ステップS302で取得した画像回復フィルタに基づいて行われる。
なお、画像回復フィルタのコンボリューションの際に、画像回復フィルタが配置されている位置以外の画素は、近傍に配置された複数のフィルタを用いて補間生成することもできる。このとき、画像回復フィルタは、撮像画像の第1の位置における第1の画像回復フィルタ、および、撮像画像の第2の位置における第2の画像回復フィルタを有する。第1の画像回復フィルタは、展開された光学伝達関数を用いて生成される。第2の画像回復フィルタは、第1の画像回復フィルタを用いて補間することにより生成される。このような補間処理を行うことにより、例えば1画素ごとに画像回復フィルタを変更することができる。
続いてステップS304において、先鋭化部203cは、飽和影響マップを推定する。本実施例では、撮像画像における輝度飽和領域および撮像光学系の収差情報に基づいて飽和影響マップを生成する。つまり、撮像画像における輝度飽和領域を表すマップである輝度飽和マップに対して、撮像光学系のぼけを示すPSFを畳み込むことによって飽和影響マップを推定する。ただし、輝度飽和を起こした領域(輝度飽和領域)では、被写体空間の構造に関する情報が失われているため、輝度飽和領域の本来の信号値を推定して得られた輝度飽和マップを用いることが好ましい。
次に、画像処理装置203は、撮像画像とぼけ先鋭化画像とを合成する。撮像画像とぼけ先鋭化画像の合成については、図7のフローチャートと同様であるため、詳細な説明は省略する。なお本実施例では、ぼけ先鋭化の手法として画像回復処理を用いたが、これに限定されるものではなく、シャープネスやアンシャープマスク等の種々の先鋭化手法を用いてよい。
以上の構成により、ぼけ先鋭化の際に、飽和領域周辺において明るさやシーンに応じて適切な補正効果の画像を生成することが可能な画像処理システムを提供することができる。
次に、本発明の実施例3における画像処理システム300に関して説明する。図19は、画像処理システム300のブロック図である。図20は、画像処理システム300の外観図である。画像処理システム300は、訓練装置301、撮像装置302、および画像処理装置303を有する。訓練装置301と画像処理装置303、画像処理装置303と撮像装置302はそれぞれ、有線または無線のネットワークで接続される。撮像装置302は、光学系321、撮像素子322、記憶部323、通信部324、および表示部325を有する。撮像画像は、通信部324を介して画像処理装置303へ送信される。
画像処理装置303は、通信部332を介して撮像画像を受信し、記憶部331に記憶された機械学習モデルの構成とウエイトの情報を用いて、ぼけ先鋭化を行う。機械学習モデルの構成とウエイトの情報は、訓練装置301によって訓練されたものであり、予め訓練装置301から取得され、記憶部331に記憶されている。また画像処理装置303は、ぼけ先鋭化の強度を調整する機能を有する。撮像画像のぼけが先鋭化されたぼけ先鋭化画像(モデル出力)および強度が調整された加重平均画像は、撮像装置302に送信され、記憶部323に記憶、表示部325に表示される。
訓練装置301で行う学習データの生成とウエイトの学習(学習フェーズ)と、画像処理装置303で実行される訓練済みの機械学習モデルを用いた撮像画像のぼけ先鋭化(推定フェーズ)および撮像画像とモデル出力の合成は実施例1と同様のため、省略する。
以上の構成により、機械学習モデルを用いたぼけ先鋭化の際に、飽和領域周辺において明るさやシーンに応じて適切な補正効果の画像を生成することが可能な画像処理システムを提供することができる。
次に、本発明の実施例4における画像処理システム400に関して説明する。図21は、画像処理システム400のブロック図である。図22は、画像処理システム400の外観図である。画像処理システム400は、学習装置401、レンズ装置402、撮像装置403、制御装置(第1の装置)404、画像推定装置(第2の装置)405、およびネットワーク406、407を有する。学習装置401および画像推定装置405は、例えばサーバである。制御装置404は、パーソナルコンピュータやモバイル端末などのユーザが操作する機器である。学習装置401と画像推定装置405、および、制御装置404と画像推定装置405はそれぞれ、互いに通信可能である。
学習装置401は、記憶部401a、取得部401b、演算部401c、および更新部401dを有し、レンズ装置402と撮像装置403を用いて撮像された撮像画像からぼけの先鋭化をする機械学習モデルのウエイトを学習する。なお学習方法は、実施例1と同様のため省略する。撮像装置403は撮像素子403aを有し、撮像素子403aがレンズ装置402の形成した光学像を光電変換して撮像画像を取得する。レンズ装置402と撮像装置403とは着脱可能であり、互いに複数種類と組み合わることが可能である。
制御装置404は、通信部404a、表示部404b、記憶部404c、および取得部404dを有し、有線または無線で接続された撮像装置403から取得した撮像画像に対して、実行する処理をユーザの操作に従って制御する。或いは、撮像装置403で撮像した撮像画像を予め記憶部404cに記憶しておき、該撮像画像を読み出してもよい。
画像推定装置405は、通信部405a、取得部405b、記憶部405c、および先鋭化部405dを有する。画像推定装置405は、ネットワーク406を介して接続された制御装置404の要求によって、撮像画像のぼけの先鋭化処理を実行する。画像推定装置405は、ネットワーク406を介して接続された学習装置401から、学習済みのウエイトの情報をぼけ先鋭化の推定時または予め取得し、撮像画像のぼけ先鋭化の推定に用いる。ぼけ先鋭化の推定後の推定画像は、先鋭化の強度調整が行われた後に再び制御装置404へ伝送されて、記憶部404cに記憶され、表示部404bに表示される。なお、学習装置401で行う学習データの生成とウエイトの学習(学習フェーズ)は実施例1と同様のため、省略する。
次に、図23を参照して、制御装置404と画像推定装置405で実行される撮像画像のぼけ先鋭化に関して説明する。図23は、モデル出力および先鋭化の強度調整のフローチャートである。
まずステップS401において、取得部404dは、撮像画像とユーザが指定した先鋭化の強度を取得する。続いてステップS402において、通信部404aは、画像推定装置405へ撮像画像とぼけ先鋭化の推定処理の実行に関する要求を送信する。
続いてステップS403において、通信部405aは、送られてきた撮像画像と処理の要求を受信し、取得する。続いてステップS404において、取得部405bは、撮像画像に対応する学習済みのウエイトの情報を記憶部405cから取得する。ウエイトの情報は、予め記憶部401aから読み出され、記憶部405cに記憶されている。続いてステップS405において、先鋭化部405dは、機械学習モデルを用いて、撮像画像から、撮像画像のぼけが先鋭化されたぼけ先鋭化画像(モデル出力、第1の画像)を生成する。機械学習モデルは、訓練時と同様、図1で表される構成である。訓練時と同様に、撮像画像の輝度飽和した領域を表す輝度飽和マップを生成して入力し、飽和影響マップとモデル出力を生成する。
続いてステップS406において、先鋭化部405dは、重みマップを生成する。重みマップの生成方法および、後述する撮像画像とぼけ先鋭化画像(モデル出力)を合成は、実施例1と同様である。ユーザが指定した先鋭化の強度に合わせて、重みマップを調整することで強度の調整が可能である。例えば、図8に示される平均信号値と調整値の関係式を変更することで飽和領域の強度を調整することができる。あるいは、非飽和領域の強度に関する第2の重みマップや飽和領域の強度に関する第3の重みマップを用いる場合には、第2、第3の重みマップを調整することで非飽和領域や飽和領域の強度を調整するようにしてもよい。また、重みマップ全体を調整するようにしてもよい。
続いてステップS407において、先鋭化部405dは、重みマップに基づいて、撮像画像とぼけ先鋭化画像(モデル出力)を合成する。続いてステップS408において、通信部405aは、合成画像を制御装置404へ送信する。続いてステップS409において、通信部404aは、送信されてきた合成画像を取得する。
以上の構成により、機械学習モデルを用いたぼけ先鋭化の際に、飽和領域周辺において明るさやシーンに応じて適切な補正効果の画像を生成することが可能な画像処理システムを提供することができる。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、画像の明るさやシーンに応じて適切なぼけ補正が可能な画像処理方法、画像処理装置、画像処理システム、およびプログラムを提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
103 画像処理装置
103b 取得部(取得手段)
103c 先鋭化部(第1の生成手段、第2の生成手段)
本発明の一側面としての画像処理方法は、撮像により得られた撮像画像を取得する工程と、前記撮像画像のぼけ成分を補正することで第1の画像を生成する工程と、前記撮像画像と前記第1の画像と重み情報とに基づいて第2の画像を生成する工程とを有し、前記重み情報は、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に関する情報とに基づいて生成される。
本発明の他の側面としての画像処理装置は、撮像により得られた撮像画像を取得する取得手段と、前記撮像画像のぼけ成分を補正することで第1の画像を生成する第1の生成手段と、前記撮像画像と前記第1の画像と重み情報とに基づいて第2の画像を生成する第2の生成手段とを有し、前記重み情報は、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に関する情報とに基づいて生成される。
本発明の他の側面としての画像処理システムは、互いに通信可能な第1の装置と第2の装置とを有する画像処理システムであって、前記第1の装置は、撮像により得られた撮像画像に対する処理の実行に関する要求を前記第2の装置へ送信する送信手段を有し、前記第2の装置は、前記要求を受信する受信手段と、前記撮像画像を取得する取得手段と、前記要求に基づいて、前記撮像画像のぼけ成分を補正することで第1の画像を生成する第1の生成手段と、前記撮像画像と前記第1の画像と重み情報とに基づいて第2の画像を生成する第2の生成手段とを有し、前記重み情報は、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に関する情報とに基づいて生成される。
実施例の具体的な説明を行う前に、本発明の要旨を説明する。本発明は、光学系(撮像光学系)を用いて撮像された撮像画像から、光学系に起因するぼけを先鋭化した推定画像(ぼけ先鋭化画像、第1の画像)を生成する。推定画像は、例えば機械学習モデルを用いて生成される。そして、撮像画像の明るさに関する情報または撮像画像のシーンに関する情報と、撮像画像における飽和領域(輝度飽和領域)に基づく情報(飽和領域に関する情報)とに基づいて重みマップ(重み情報)を生成し、撮像画像と推定画像とを加重平均する。ここで、光学系に起因するぼけとは、収差、回折、デフォーカスによるぼけや、光学ローパスフィルタによる作用、撮像素子の画素開口劣化などを含む。
本発明の一側面としての画像処理方法は、撮像により得られた撮像画像を取得する工程と、前記撮像画像のぼけ成分を補正することで第1の画像を生成する工程と、前記撮像画像と前記第1の画像と重み情報とに基づいて第2の画像を生成する工程とを有し、前記重み情報は、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に関する情報とに基づいて生成され、前記飽和領域に関する情報は、前記飽和領域における被写体が前記ぼけ成分によって広がった領域の範囲と、該領域に対応する信号値との関係を表す情報である。
本発明の他の側面としての画像処理装置は、撮像により得られた撮像画像を取得する取得手段と、前記撮像画像のぼけ成分を補正することで第1の画像を生成する第1の生成手段と、前記撮像画像と前記第1の画像と重み情報とに基づいて第2の画像を生成する第2の生成手段とを有し、前記重み情報は、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に関する情報とに基づいて生成され、前記飽和領域に関する情報は、前記飽和領域における被写体が前記ぼけ成分によって広がった領域の範囲と、該領域に対応する信号値との関係を表す情報である。
本発明の他の側面としての画像処理システムは、互いに通信可能な第1の装置と第2の装置とを有する画像処理システムであって、前記第1の装置は、撮像により得られた撮像画像に対する処理の実行に関する要求を前記第2の装置へ送信する送信手段を有し、前記第2の装置は、前記要求を受信する受信手段と、前記撮像画像を取得する取得手段と、前記要求に基づいて、前記撮像画像のぼけ成分を補正することで第1の画像を生成する第1の生成手段と、前記撮像画像と前記第1の画像と重み情報とに基づいて第2の画像を生成する第2の生成手段とを有し、前記重み情報は、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に関する情報とに基づいて生成され、前記飽和領域に関する情報は、前記飽和領域における被写体が前記ぼけ成分によって広がった領域の範囲と、該領域に対応する信号値との関係を表す情報である。

Claims (19)

  1. 撮像光学系を通して得られた撮像画像を取得する工程と、
    前記撮像画像のぼけ成分を補正して第1の画像を生成する工程と、
    前記撮像画像と前記第1の画像と重みマップとに基づいて第2の画像を生成する工程と、を有し、
    前記重みマップは、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に基づく情報とに基づいて生成されることを特徴とする画像処理方法。
  2. 前記第1の画像を生成する工程において、前記撮像画像を機械学習モデルに入力し、前記撮像画像のぼけ成分を補正して前記第1の画像を生成することを特徴とする請求項1に記載の画像処理方法。
  3. 前記撮像画像の明るさに関する情報は、前記撮像画像の信号値に関する統計量であることを特徴とする請求項1または2に記載の画像処理方法。
  4. 前記撮像画像のシーンに関する情報は、前記撮像画像のシーンの種類または前記撮像画像が撮影された際の撮像モードの情報であることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
  5. 前記飽和領域に基づく情報は、前記撮像画像における前記飽和領域の被写体が、前記ぼけ成分によって広がった信号値の大きさと範囲を表す飽和影響マップであることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
  6. 前記飽和影響マップは、前記撮像画像を機械学習モデルに入力することにより推定されることを特徴とする請求項5に記載の画像処理方法。
  7. 前記飽和影響マップは、前記撮像画像における前記飽和領域と前記撮像光学系の光学情報とに基づいて推定されることを特徴とする請求項5に記載の画像処理方法。
  8. 前記重みマップは、前記飽和影響マップと、前記撮像画像から前記飽和影響マップを除いた第3の画像とに基づいて生成されることを特徴とする請求項5乃至7のいずれか一項に記載の画像処理方法。
  9. 前記重みマップは、前記第3の画像における複数の画素のうち前記撮像画像において飽和していない画素の信号値に基づいて決定されることを特徴とする請求項8に記載の画像処理方法。
  10. 前記重みマップは、前記第3の画像における分割領域毎の信号値に基づいて決定されることを特徴とする請求項8または9に記載の画像処理方法。
  11. 前記統計量は、平均値、中央値、分散、またはヒストグラムの少なくとも一つであることを特徴とする請求項3に記載の画像処理方法。
  12. 前記重みマップは、前記第3の画像の明るさが明るいほど前記撮像画像の重みが大きいことを特徴とする請求項8乃至11のいずれか一項に記載の画像処理方法。
  13. 前記第3の画像の明るさは、前記第3の画像の平均信号値に基づいて決定されることを特徴とする請求項12に記載の画像処理方法。
  14. 前記重みマップは、前記撮像画像の明るさが明るいほど前記撮像画像の重みが大きいことを特徴とする請求項1乃至11のいずれか一項に記載の画像処理方法。
  15. 前記ぼけ成分は、前記撮像光学系の光学情報に基づくことを特徴とする請求項1乃至14のいずれか一項に記載の画像処理方法。
  16. 前記第2の画像を生成する工程において、前記重みマップを用いて前記撮像画像と前記第1の画像とを加重平均して前記第2の画像を生成することを特徴とする請求項1乃至15のいずれか一項に記載の画像処理方法。
  17. 撮像光学系を通して得られた撮像画像を取得する取得手段と、
    前記撮像画像のぼけ成分を補正して第1の画像を生成する第1の生成手段と、
    前記撮像画像と前記第1の画像と重みマップとに基づいて第2の画像を生成する第2の生成手段と、を有し、
    前記重みマップは、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に基づく情報とに基づいて生成されることを特徴とする画像処理装置。
  18. 互いに通信可能な第1の装置と第2の装置とを有する画像処理システムであって、
    前記第1の装置は、撮像画像に対する処理の実行に関する要求を前記第2の装置へ送信する送信手段を有し、
    前記第2の装置は、前記要求を受信する受信手段と、
    前記撮像画像を取得する取得手段と、
    前記要求に基づいて、前記撮像画像のぼけ成分を補正して第1の画像を生成する第1の生成手段と、
    前記撮像画像と前記第1の画像と重みマップとに基づいて第2の画像を生成する第2の生成手段と、を有し、
    前記重みマップは、前記撮像画像の明るさに関する情報または前記撮像画像のシーンに関する情報と、前記撮像画像における飽和領域に基づく情報に基づいて生成されることを特徴とする画像処理システム。
  19. 請求項1乃至16のいずれか一項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
JP2021101003A 2021-06-17 2021-06-17 画像処理方法、画像処理装置、画像処理システム、およびプログラム Active JP7225315B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021101003A JP7225315B2 (ja) 2021-06-17 2021-06-17 画像処理方法、画像処理装置、画像処理システム、およびプログラム
US17/838,582 US20220405892A1 (en) 2021-06-17 2022-06-13 Image processing method, image processing apparatus, image processing system, and memory medium
CN202210668489.4A CN115496673A (zh) 2021-06-17 2022-06-14 图像处理方法、图像处理装置、图像处理系统、以及存储介质
EP22179125.4A EP4109396A1 (en) 2021-06-17 2022-06-15 Image de-blurring
JP2023014295A JP2023055848A (ja) 2021-06-17 2023-02-01 画像処理方法、画像処理装置、画像処理システム、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021101003A JP7225315B2 (ja) 2021-06-17 2021-06-17 画像処理方法、画像処理装置、画像処理システム、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023014295A Division JP2023055848A (ja) 2021-06-17 2023-02-01 画像処理方法、画像処理装置、画像処理システム、およびプログラム

Publications (2)

Publication Number Publication Date
JP2023000274A true JP2023000274A (ja) 2023-01-04
JP7225315B2 JP7225315B2 (ja) 2023-02-20

Family

ID=82482541

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021101003A Active JP7225315B2 (ja) 2021-06-17 2021-06-17 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP2023014295A Pending JP2023055848A (ja) 2021-06-17 2023-02-01 画像処理方法、画像処理装置、画像処理システム、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023014295A Pending JP2023055848A (ja) 2021-06-17 2023-02-01 画像処理方法、画像処理装置、画像処理システム、およびプログラム

Country Status (4)

Country Link
US (1) US20220405892A1 (ja)
EP (1) EP4109396A1 (ja)
JP (2) JP7225315B2 (ja)
CN (1) CN115496673A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116563768B (zh) * 2023-07-06 2023-09-22 生态环境部华南环境科学研究所(生态环境部生态环境应急研究所) 一种微塑料污染物智能检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121760A1 (ja) * 2010-03-31 2011-10-06 キヤノン株式会社 画像処理装置、およびそれを用いた撮像装置
JP2020166628A (ja) * 2019-03-29 2020-10-08 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP2020201540A (ja) * 2019-06-06 2020-12-17 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの製造方法、および、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6042030B2 (ja) * 2014-03-28 2016-12-14 富士フイルム株式会社 画像処理装置、撮影装置、画像処理方法、及びプログラム
JP6800090B2 (ja) 2017-05-29 2020-12-16 三菱電機株式会社 画像処理装置、及び画像処理方法、並びにプログラム及び記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121760A1 (ja) * 2010-03-31 2011-10-06 キヤノン株式会社 画像処理装置、およびそれを用いた撮像装置
JP2020166628A (ja) * 2019-03-29 2020-10-08 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP2020201540A (ja) * 2019-06-06 2020-12-17 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの製造方法、および、プログラム

Also Published As

Publication number Publication date
EP4109396A1 (en) 2022-12-28
CN115496673A (zh) 2022-12-20
JP7225315B2 (ja) 2023-02-20
JP2023055848A (ja) 2023-04-18
US20220405892A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
US11188777B2 (en) Image processing method, image processing apparatus, learnt model manufacturing method, and image processing system
KR100911890B1 (ko) 이미지 모델의 컬러 성분의 복원을 위한 방법, 시스템,프로그램 모듈, 및 컴퓨터 프로그램 생성물
JP5264968B2 (ja) 画像処理装置、画像処理方法、撮像装置、および、画像処理プログラム
US20110292257A1 (en) Image processing apparatus and image pickup apparatus using the same
JP2023055848A (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
US11830173B2 (en) Manufacturing method of learning data, learning method, learning data manufacturing apparatus, learning apparatus, and memory medium
US11599973B2 (en) Image processing apparatus, lens apparatus, and image processing method for sharpening processing
JP2016184888A (ja) 画像処理装置、撮像装置、画像処理方法及びコンピュータプログラム
JP5645981B2 (ja) 撮像装置、画像処理装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP7225316B2 (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
CN112073603B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
JP2021140758A (ja) 学習データの製造方法、学習方法、学習データ製造装置、学習装置、およびプログラム
JP2021189929A (ja) 画像処理方法、プログラム、画像処理装置、および、画像処理システム
JP2017041764A (ja) 画像処理装置、および画像処理方法
JP2023088349A (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP7451443B2 (ja) 画像処理方法および装置、機械学習モデルの訓練方法および装置、並びにプログラム
JP2023104667A (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP7207893B2 (ja) 撮像装置、レンズ装置
US20240144536A1 (en) Image processing device, image processing method, and storage medium
JP2017041763A (ja) 画像処理装置、および画像処理方法
JP2022161527A (ja) 画像処理方法、画像処理装置、撮像装置およびプログラム
JP2023119413A (ja) 画像処理装置及び方法、撮像装置、プログラム及び記憶媒体
WO2016063452A1 (en) Image processing apparatus, image pickup apparatus, image processing system, and image processing process
JP2024022996A (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2021180439A (ja) 撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230208

R151 Written notification of patent or utility model registration

Ref document number: 7225315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151