JP7476361B2 - 情報処理装置、撮像装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、撮像装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7476361B2
JP7476361B2 JP2022578269A JP2022578269A JP7476361B2 JP 7476361 B2 JP7476361 B2 JP 7476361B2 JP 2022578269 A JP2022578269 A JP 2022578269A JP 2022578269 A JP2022578269 A JP 2022578269A JP 7476361 B2 JP7476361 B2 JP 7476361B2
Authority
JP
Japan
Prior art keywords
image
weight
noise
information processing
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022578269A
Other languages
English (en)
Other versions
JPWO2022163440A1 (ja
JPWO2022163440A5 (ja
Inventor
康一 田中
貽丹彡 張
太郎 斎藤
智大 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2022163440A1 publication Critical patent/JPWO2022163440A1/ja
Publication of JPWO2022163440A5 publication Critical patent/JPWO2022163440A5/ja
Application granted granted Critical
Publication of JP7476361B2 publication Critical patent/JP7476361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Description

本開示の技術は、情報処理装置、撮像装置、情報処理方法、及びプログラムに関する。
特開2018-206382号公報には、入力層、出力層、及び入力層と出力層との間に設けられる中間層を有するニューラルネットワークを用いて、入力層に入力される入力画像に対して処理を行う処理部と、中間層に含まれる1以上のノードの少なくとも1つの内部パラメータであって、学習によって算出される内部パラメータを、学習の後に処理を行うとき、入力画像に関連するデータに基づいて調整する調整部と、を備える画像処理システムが開示されている。
また、特開2018-206382号公報に記載の画像処理システムにおいて、入力画像は、ノイズを含む画像であり、入力画像は、処理部が行う処理により、入力画像からノイズを除去、又は低減される。
また、特開2018-206382号公報に記載の画像処理システムにおいて、ニューラルネットワークは、第1のニューラルネットワークと、第2のニューラルネットワークと、入力画像を高周波成分画像と低周波成分画像とに分割し、高周波成分画像を第1のニューラルネットワークに入力する一方、低周波成分画像を第2のニューラルネットワークに入力する分割ユニットと、第1のニューラルネットワークから出力される第1の出力画像と、第2のニューラルネットワークから出力される第2の出力画像とを合成する合成ユニットと、を有し、調整部は、第1のニューラルネットワークの内部パラメータを入力画像に関連するデータに基づいて調整する一方、第2のニューラルネットワークの内部パラメータは調整しない。
更に、特開2018-206382号公報には、ニューラルネットワークを用いて、ノイズが低減された出力画像を入力画像から生成する処理部と、ニューラルネットワークの内部パラメータを、入力画像の撮像条件に応じて調整する調整部と、を備える画像処理システムが開示されている。
特開2020-166814号公報には、被検者の所定部位の医用画像である第1の画像を取得する取得部と、機械学習エンジンを含む高画質化エンジンを用いて、第1の画像から、第1の画像と比べて高画質化された第2の画像を生成する高画質化部と、第1の画像の少なくとも一部の領域に関する情報を用いて得た割合により第1の画像と第2画像とを合成して得た合成画像を表示部に表示させる表示制御部と、を備える医用画像処理装置が開示されている。
特開2020-184300号公報には、少なくとも1つの命令語を保存するメモリと、メモリと電気的に接続され、命令語を実行することで、入力イメージから入力イメージの品質を示すノイズマップを獲得し、入力イメージ及びノイズマップを複数のレイヤを含む学習ネットワークモデルに適用し、入力イメージの品質の改善された出力イメージを獲得するプロセッサと、を含み、プロセッサは、複数のレイヤのうち少なくとも一つの中間レイヤにノイズマップを提供し、学習ネットワークモデルは、複数のサンプルイメージ、各サンプルイメージに対するノイズマップ及び各サンプルイメージに対する原本イメージの関係を人工知能アルゴリズムを通じて学習して獲得された学習済み人知能モデルである電子装置が開示されている。
本開示の技術に係る一つの実施形態は、ニューラルネットワークを用いたAI方式でのみ画像が処理される場合に比べ、画質が調整された画像を得ることができる情報処理装置、撮像装置、情報処理方法、及びプログラムを提供する。
本開示の技術に係る第1の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、を備え、プロセッサが、ニューラルネットワークを用いたAI方式で撮像画像を処理し、撮像画像がAI方式で処理されることで得られた第1画像と、撮像画像がAI方式で処理されずに得られた第2画像とを合成する合成処理を行う情報処理装置である。
本開示の技術に係る第2の態様は、プロセッサが、AI方式で撮像画像に含まれるノイズを調整するAI方式ノイズ調整処理を行い、合成処理を行うことでノイズを調整する、第1の態様に係る情報処理装置である。
本開示の技術に係る第3の態様は、プロセッサが、ニューラルネットワークを用いない非AI方式でノイズを調整する非AI方式ノイズ調整処理を行い、第2画像が、撮像画像について非AI方式ノイズ調整処理によってノイズが調整されることで得られた画像である、第2の態様に係る情報処理装置である。
本開示の技術に係る第4の態様は、第2画像が、撮像画像についてノイズが調整されずに得られた画像である、第2の態様又は第3の態様に係る情報処理装置である。
本開示の技術に係る第5の態様は、プロセッサが、第1画像及び第2画像に対して重みを付与し、重みに応じて第1画像及び第2画像を合成する、第2の態様から第4の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第6の態様は、重みが、第1画像に対して付与される第1重みと、第2画像に対して付与される第2重みとに類別され、プロセッサが、第1重み及び第2重みを用いた重み付け平均を行うことで第1画像及び第2画像を合成する、第5の態様に係る情報処理装置である。
本開示の技術に係る第7の態様は、プロセッサが、撮像画像に関連する関連情報に応じて重みを変更する、第5の態様又は第6の態様に係る情報処理装置である。
本開示の技術に係る第8の態様は、関連情報が、撮像画像を得る撮像で用いられたイメージセンサの感度に関連する感度関連情報を含む、第7の態様に係る情報処理装置である。
本開示の技術に係る第9の態様は、関連情報が、撮像画像の明るさに関連する明るさ関連情報を含む、第7の態様又は第8の態様に係る情報処理装置である。
本開示の技術に係る第10の態様は、明るさ関連情報が、撮像画像の少なくとも一部の画素統計値である、第9の態様に係る情報処理装置である。
本開示の技術に係る第11の態様は、関連情報が、撮像画像の空間周波数を示す空間周波数情報を含む、第7の態様から第10の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第12の態様は、プロセッサが、撮像画像に基づいて、撮像画像に写り込んでいる被写体を検出し、検出した被写体に応じて重みを変更する、第5の態様から第11の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第13の態様は、プロセッサが、撮像画像に基づいて、撮像画像に写り込んでいる被写体の部位を検出し、検出した部位に応じて重みを変更する、第5の態様から第12の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第14の態様は、ニューラルネットワークが、撮像シーン毎に設けられており、プロセッサが、撮像シーン毎にニューラルネットワークを切り替え、ニューラルネットワークに応じて重みを変更する、第5の態様から第13の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第15の態様は、プロセッサが、第1画像の特徴値と第2画像の特徴値との相違度に応じて重みを変更する、第5の態様から第14の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第16の態様は、プロセッサが、ニューラルネットワークに入力される画像を得る撮像で用いられたイメージセンサ及び撮像条件に応じて定まる画像特性パラメータについて、ニューラルネットワークに入力される画像を正規化する、第2の態様から第15の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第17の態様は、ニューラルネットワークを学習させる場合にニューラルネットワークに入力される学習用画像が、第1撮像装置によって撮像されることで得られた第1RAW画像のビット数及びオフセット値のうちの少なくとも1つの第1パラメータについて第1RAW画像が正規化された画像である、第2の態様から第16の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第18の態様は、撮像画像が、推論用画像であり、第1パラメータが、学習用画像が入力されたニューラルネットワークに関連付けられており、学習用画像が入力されることで学習が行われたニューラルネットワークに、第2撮像装置によって撮像されることで得られた第2RAW画像が推論用画像として入力される場合、プロセッサが、学習用画像が入力されたニューラルネットワークに関連付けられている第1パラメータと、第2RAW画像のビット数及びオフセット値のうちの少なくとも1つの第2パラメータとを用いて第2RAW画像を正規化する、第17の態様に係る情報処理装置である。
本開示の技術に係る第19の態様は、第1画像が、第1パラメータ及び第2パラメータを用いて正規化された第2RAW画像について、学習用画像が入力されることで学習が行われたニューラルネットワークを用いたAI方式ノイズ調整処理によってノイズが調整されることで得られた正規化後ノイズ調整画像であり、プロセッサが、第1パラメータ及び第2パラメータを用いて正規化後ノイズ調整画像を、第2パラメータの画像に調整する、第18の態様に係る情報処理装置である。
本開示の技術に係る第20の態様は、プロセッサが、第1画像及び第2画像に対して、指定された設定値に従って信号処理を行い、設定値が、第1画像に対して信号処理を行う場合と第2画像に対して信号処理を行う場合とで異なる、第2の態様から第19の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第21の態様は、プロセッサが、AI方式ノイズ調整処理によって失われたシャープネスを補う処理を第1画像に対して行う、第2の態様から第20の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第22の態様は、合成処理で合成対象とされる第1画像が、撮像画像に対してAI方式ノイズ調整処理が行われることで得られた色差信号により示される画像である、第2の態様から第21の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第23の態様は、合成処理で合成対象とされる第2画像が、撮像画像に対してAI方式ノイズ調整処理が行われず得られた輝度信号により示される画像である、第2の態様から第22の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第24の態様は、合成処理で合成対象とされる第1画像が、撮像画像に対してAI方式ノイズ調整処理が行われることで得られた色差信号により示される画像であり、第2画像が、撮像画像に対してAI方式ノイズ調整処理が行われず得られた輝度信号により示される画像である、第2の態様から第23の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第25の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、イメージセンサと、を備え、プロセッサが、イメージセンサによって撮像されることで得られた撮像画像を、ニューラルネットワークを用いたAI方式で処理し、撮像画像がAI方式で処理されることで得られた第1画像と、撮像画像がAI方式で処理されずに得られた第2画像とを合成する合成処理を行う撮像装置である。
本開示の技術に係る第26の態様は、イメージセンサによって撮像されることで得られた撮像画像を、ニューラルネットワークを用いたAI方式で処理すること、及び、撮像画像がAI方式で処理されることで得られた第1画像と、撮像画像がAI方式で処理されずに得られた第2画像とを合成する合成処理を行うことを含む情報処理方法である。
本開示の技術に係る第27の態様は、コンピュータに、イメージセンサによって撮像されることで得られた撮像画像を、ニューラルネットワークを用いたAI方式で処理すること、及び、撮像画像がAI方式で処理されることで得られた第1画像と、撮像画像がAI方式で処理されずに得られた第2画像とを合成する合成処理を行うことを含む処理を実行させるためのプログラムである。
撮像装置の全体の構成の一例を示す概略構成図である。 撮像装置の光学系及び電気系のハードウェア構成の一例を示す概略構成図である。 画像処理エンジンの機能の一例を示すブロック図である。 学習実行システムの構成の一例を示す概念図である。 AI方式処理部及び非AI方式処理部の処理内容の一例を示す概念図である。 重み導出部の処理内容の一例を示すブロック図である。 重み付与部及び合成部の処理内容の一例を示す概念図である。 信号処理部の機能の一例を示す概念図である。 画質調整処理の流れの一例を示すフローチャートである。 第1変形例に係る重み導出部の処理内容の一例を示す概念図である。 第1変形例に係る重み付与部及び合成部の処理内容の一例を示す概念図である。 第2変形例に係る重み導出部の処理内容の一例を示す概念図である。 第3変形例及び第4変形例に係る重み導出部の処理内容の一例を示す概念図である。 第5変形例に係る重み導出部の処理内容の一例を示す概念図である。 第6変形例に係るNVMの記憶内容の一例を示すブロック図である。 第6変形例に係るAI方式処理部の処理内容の一例を示す概念図である。 第6変形例に係る重み導出部の処理内容の一例を示すブロック図である。 第7変形例に係る学習実行システムの構成の一例を示す概念図である。 第7変形例に係る画像処理エンジンの処理内容の一例を示す概念図である。 第8変形例に係る信号処理部及びパラメータ調整部の機能の一例を示すブロック図である。 第9変形例に係るAI方式処理部、非AI方式処理部、及び信号処理部の処理内容の一例を示す概念図である。 第9変形例に係る第1画像処理部の処理内容の一例を示す概念図である。 第9変形例に係る第2画像処理部の処理内容の一例を示す概念図である。 第9変形例に係る合成部の処理内容の一例を示す概念図である。 画質調整処理の変形例を示す概念図である。 撮像システムの一例を示す概略構成図である。
以下、添付図面に従って本開示の技術に係る画像処理装置、撮像装置、画像処理方法、及びプログラムの実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。TPUとは、“Tensor processing unit”の略称を指す。NVMとは、“Non-volatile memory”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。I/Fとは、“Interface”の略称を指す。UIとは、“User Interface”の略称を指す。fpsとは、“frame per second”の略称を指す。MFとは、“Manual Focus”の略称を指す。AFとは、“Auto Focus”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。LANとは、“Local Area Network”の略称を指す。WANとは、“Wide Area Network”の略称を指す。NNとは、“Neural Network”の略称を指す。CNNとは、“Convolutional Neural Network”の略称を指す。AIとは、“Artificial Intelligence”の略称を指す。A/Dとは、“Analog/Digital”の略称を指す。FIRとは、“Finite Impulse Response”の略称を指す。IIRとは、“Infinite Impulse Response”の略称を指す。JPEGとは、“Joint Photographic Experts Group”の略称を指す。TIFFとは、“Tagged Image File Format”の略称を指す。JPEG XRとは、“Joint Photographic Experts Group Extended Range”の略称を指す。IDとは、“Identification”の略称を指す。LSBとは、“Least Significant Bit”の略称を指す。
一例として図1に示すように、撮像装置10は、被写体を撮像する装置であり、画像処理エンジン12、撮像装置本体16、及び交換レンズ18を備えている。画像処理エンジン12は、本開示の技術に係る「情報処理装置」及び「コンピュータ」の一例である。画像処理エンジン12は、撮像装置本体16に内蔵されており、撮像装置10の全体を制御する。交換レンズ18は、撮像装置本体16に交換可能に装着される。交換レンズ18には、フォーカスリング18Aが設けられている。フォーカスリング18Aは、撮像装置10のユーザ(以下、単に「ユーザ」と称する)等が撮像装置10による被写体に対するピントの調整を手動で行う場合にユーザ等によって操作される。
図1に示す例では、撮像装置10の一例として、レンズ交換式のデジタルカメラが示されている。但し、これは、あくまでも一例に過ぎず、レンズ固定式のデジタルカメラであってもよいし、スマートデバイス、ウェアラブル端末、細胞観察装置、眼科観察装置、又は外科顕微鏡等の各種の電子機器に内蔵されるデジタルカメラであってもよい。
撮像装置本体16には、イメージセンサ20が設けられている。イメージセンサ20は、本開示の技術に係る「イメージセンサ」の一例である。イメージセンサ20は、CMOSイメージセンサである。イメージセンサ20は、少なくとも1つの被写体を含む撮像範囲を撮像する。交換レンズ18が撮像装置本体16に装着された場合に、被写体を示す被写体光は、交換レンズ18を透過してイメージセンサ20に結像され、被写体の画像を示す画像データがイメージセンサ20によって生成される。
本実施形態では、イメージセンサ20としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、例えば、イメージセンサ20がCCDイメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。
撮像装置本体16の上面には、レリーズボタン22及びダイヤル24が設けられている。ダイヤル24は、撮像系の動作モード及び再生系の動作モード等の設定の際に操作され、ダイヤル24が操作されることによって、撮像装置10では、動作モードとして、撮像モード、再生モード、及び設定モードが選択的に設定される。撮像モードは、撮像装置10に対して撮像を行わせる動作モードである。再生モードは、撮像モードで記録用の撮像が行われることによって得られた画像(例えば、静止画像及び/又は動画像)を再生する動作モードである。設定モードは、撮像に関連する制御で用いられる各種の設定値を設定する場合などに撮像装置10に対して設定する動作モードである。
レリーズボタン22は、撮像準備指示部及び撮像指示部として機能し、撮像準備指示状態と撮像指示状態との2段階の押圧操作が検出可能である。撮像準備指示状態とは、例えば待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。撮像装置10の構成によっては、撮像準備指示状態とは、ユーザの指がレリーズボタン22に接触した状態であってもよく、撮像指示状態とは、操作するユーザの指がレリーズボタン22に接触した状態から離れた状態に移行した状態であってもよい。
撮像装置本体16の背面には、指示キー26及びタッチパネル・ディスプレイ32が設けられている。
タッチパネル・ディスプレイ32は、ディスプレイ28及びタッチパネル30(図2も参照)を備えている。ディスプレイ28の一例としては、ELディスプレイ(例えば、有機ELディスプレイ又は無機ELディスプレイ)が挙げられる。ディスプレイ28は、ELディスプレイではなく、液晶ディスプレイ等の他種類のディスプレイであってもよい。
ディスプレイ28は、画像及び/又は文字情報等を表示する。ディスプレイ28は、撮像装置10が撮像モードの場合に、ライブビュー画像用の撮像、すなわち、連続的な撮像が行われることにより得られたライブビュー画像の表示に用いられる。ここで、「ライブビュー画像」とは、イメージセンサ20によって撮像されることにより得られた画像データに基づく表示用の動画像を指す。ライブビュー画像を得るために行われる撮像(以下、「ライブビュー画像用撮像」とも称する)は、例えば、60fpsのフレームレートに従って行われる。60fpsは、あくまでも一例に過ぎず、60fps未満のフレームレートであってもよいし、60fpsを超えるフレームレートであってもよい。
ディスプレイ28は、撮像装置10に対してレリーズボタン22を介して静止画像用の撮像の指示が与えられた場合に、静止画像用の撮像が行われることで得られた静止画像の表示にも用いられる。また、ディスプレイ28は、撮像装置10が再生モードの場合の再生画像等の表示にも用いられる。更に、ディスプレイ28は、撮像装置10が設定モードの場合に、各種メニューを選択可能なメニュー画面の表示、及び、撮像に関連する制御で用いられる各種の設定値等を設定するための設定画面の表示にも用いられる。
タッチパネル30は、透過型のタッチパネルであり、ディスプレイ28の表示領域の表面に重ねられている。タッチパネル30は、指又はスタイラスペン等の指示体による接触を検知することで、ユーザからの指示を受け付ける。なお、以下では、説明の便宜上、上述した「全押し状態」には、撮像開始用のソフトキーに対してユーザがタッチパネル30を介してオンした状態も含まれる。
本実施形態では、タッチパネル・ディスプレイ32の一例として、タッチパネル30がディスプレイ28の表示領域の表面に重ねられているアウトセル型のタッチパネル・ディスプレイを挙げているが、これはあくまでも一例に過ぎない。例えば、タッチパネル・ディスプレイ32として、オンセル型又はインセル型のタッチパネル・ディスプレイを適用することも可能である。
指示キー26は、各種の指示を受け付ける。ここで、「各種の指示」とは、例えば、メニュー画面の表示の指示、1つ又は複数のメニューの選択の指示、選択内容の確定の指示、選択内容の消去の指示、ズームイン、ズームアウト、及びコマ送り等の各種の指示等を指す。また、これらの指示はタッチパネル30によってされてもよい。
一例として図2に示すように、イメージセンサ20は、光電変換素子72を備えている。光電変換素子72は、受光面72Aを有する。光電変換素子72は、受光面72Aの中心と光軸OAとが一致するように撮像装置本体16内に配置されている(図1も参照)。光電変換素子72は、マトリクス状に配置された複数の感光画素を有しており、受光面72Aは、複数の感光画素によって形成されている。各感光画素は、マイクロレンズ(図示省略)を有する。各感光画素は、フォトダイオード(図示省略)を有する物理的な画素であり、受光した光を光電変換し、受光量に応じた電気信号を出力する。
また、複数の感光画素には、赤(R)、緑(G)、又は青(B)のカラーフィルタ(図示省略)が既定のパターン配列(例えば、ベイヤ配列、GストライプR/G完全市松、X-Trans(登録商標)配列、又はハニカム配列等)でマトリクス状に配置されている。
なお、以下では、説明の便宜上、マイクロレンズ及びRのカラーフィルタを有する感光画素をR画素と称し、マイクロレンズ及びGのカラーフィルタを有する感光画素をG画素と称し、マイクロレンズ及びBのカラーフィルタを有する感光画素をB画素と称する。また、以下では、説明の便宜上、R画素から出力される電気信号を「R信号」と称し、G画素から出力される電気信号を「G信号」と称し、B画素から出力される電気信号を「B信号」と称する。また、以下では、説明の便宜上、R信号、G信号、及びB信号を「RGBの色信号」とも称する。
交換レンズ18は、撮像レンズ40を備えている。撮像レンズ40は、対物レンズ40A、フォーカスレンズ40B、ズームレンズ40C、及び絞り40Dを有する。対物レンズ40A、フォーカスレンズ40B、ズームレンズ40C、及び絞り40Dは、被写体側(物体側)から撮像装置本体16側(像側)にかけて、光軸OAに沿って、対物レンズ40A、フォーカスレンズ40B、ズームレンズ40C、及び絞り40Dの順に配置されている。
また、交換レンズ18は、制御装置36、第1アクチュエータ37、第2アクチュエータ38、及び第3アクチュエータ39を備えている。制御装置36は、撮像装置本体16からの指示に従って交換レンズ18の全体を制御する。制御装置36は、例えば、CPU、NVM、及びRAM等を含むコンピュータを有する装置である。制御装置36のNVMは、例えば、EEPROMである。但し、これは、あくまでも一例に過ぎず、EEPROMに代えて、又は、EEPROMと共に、HDD、及び/又はSSD等をシステムコントローラ44のNVMとして適用してもよい。また、制御装置36のRAMは、各種情報を一時的に記憶し、ワークメモリとして用いられる。制御装置36において、CPUは、NVMから必要なプログラムを読み出し、読み出した各種プログラムをRAM上で実行することで撮像レンズ40の全体を制御する。
なお、ここでは、制御装置36の一例として、コンピュータを有する装置を挙げているが、これは、あくまでも一例に過ぎず、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、制御装置36として、例えば、ハードウェア構成及びソフトウェア構成の組み合わせによって実現される装置を用いてよい。
第1アクチュエータ37は、フォーカス用スライド機構(図示省略)及びフォーカス用モータ(図示省略)を備えている。フォーカス用スライド機構には、光軸OAに沿ってスライド可能にフォーカスレンズ40Bが取り付けられている。また、フォーカス用スライド機構にはフォーカス用モータが接続されており、フォーカス用スライド機構は、フォーカス用モータの動力を受けて作動することでフォーカスレンズ40Bを光軸OAに沿って移動させる。
第2アクチュエータ38は、ズーム用スライド機構(図示省略)及びズーム用モータ(図示省略)を備えている。ズーム用スライド機構には、光軸OAに沿ってスライド可能にズームレンズ40Cが取り付けられている。また、ズーム用スライド機構にはズーム用モータが接続されており、ズーム用スライド機構は、ズーム用モータの動力を受けて作動することでズームレンズ40Cを光軸OAに沿って移動させる。
第3アクチュエータ39は、動力伝達機構(図示省略)及び絞り用モータ(図示省略)を備えている。絞り40Dは、開口40D1を有しており、開口40D1の大きさが可変な絞りである。開口40D1は、例えば、複数枚の絞り羽根40D2によって形成されている。複数枚の絞り羽根40D2は、動力伝達機構に連結されている。また、動力伝達機構には絞り用モータが接続されており、動力伝達機構は、絞り用モータの動力を複数枚の絞り羽根40D2に伝達する。複数枚の絞り羽根40D2は、動力伝達機構から伝達される動力を受けて作動することで開口40D1の大きさを変化させる。絞り40Dは、開口40D1の大きさを変化させることで露出を調節する。
フォーカス用モータ、ズーム用モータ、及び絞り用モータは、制御装置36に接続されており、制御装置36によってフォーカス用モータ、ズーム用モータ、及び絞り用モータの各駆動が制御される。なお、本実施形態では、フォーカス用モータ、ズーム用モータ、及び絞り用モータの一例として、ステッピングモータが採用されている。従って、フォーカス用モータ、ズーム用モータ、及び絞り用モータは、制御装置36からの命令によりパルス信号に同期して動作する。なお、ここでは、フォーカス用モータ、ズーム用モータ、及び絞り用モータが交換レンズ18に設けられている例が示されているが、これは、あくまでも一例に過ぎず、フォーカス用モータ、ズーム用モータ、及び絞り用モータのうちの少なくとも1つが撮像装置本体16に設けられていてもよい。なお、交換レンズ18の構成物及び/又は動作方法は、必要に応じて変更可能である。
撮像装置10では、撮像モードの場合に、撮像装置本体16に対して与えられた指示に従ってMFモードとAFモードとが選択的に設定される。MFモードは、手動でピントを合わせる動作モードである。MFモードでは、例えば、ユーザによってフォーカスリング18A等が操作されることで、フォーカスリング18A等の操作量に応じた移動量でフォーカスレンズ40Bが光軸OAに沿って移動し、これによって焦点が調節される。
AFモードでは、撮像装置本体16が被写体距離に応じた合焦位置の演算を行い、演算して得た合焦位置に向けてフォーカスレンズ40Bを移動させることで、焦点を調節する。ここで、合焦位置とは、ピントが合っている状態でのフォーカスレンズ40Bの光軸OA上での位置を指す。
撮像装置本体16は、イメージセンサ20、画像処理エンジン12、システムコントローラ44、画像メモリ46、UI系デバイス48、外部I/F50、通信I/F52、光電変換素子ドライバ54、及び入出力インタフェース70を備えている。また、イメージセンサ20は、光電変換素子72及びA/D変換器74を備えている。
入出力インタフェース70には、画像処理エンジン12、画像メモリ46、UI系デバイス48、外部I/F50、光電変換素子ドライバ54、及びA/D変換器74が接続されている。また、入出力インタフェース70には、交換レンズ18の制御装置36も接続されている。
システムコントローラ44は、CPU(図示省略)、NVM(図示省略)、及びRAM(図示省略)を備えている。システムコントローラ44において、NVM、非一時的記憶媒体であり、各種パラメータ及び各種プログラム記憶ている。システムコントローラ44のNVMは、例えば、EEPROMである。但し、これは、あくまでも一例に過ぎず、EEPROMに代えて、又は、EEPROMと共に、HDD、及び/又はSSD等をシステムコントローラ44のNVMとして適用してもよい。また、システムコントローラ44のRAMは、各種情報を一時的に記憶し、ワークメモリとして用いられる。システムコントローラ44において、CPUは、NVMから必要なプログラムを読み出し、読み出した各種プログラムをRAM上で実行することで撮像装置10の全体を制御する。すなわち、図2に示す例では、画像処理エンジン12、画像メモリ46、UI系デバイス48、外部I/F50、通信I/F52、光電変換素子ドライバ54、及び制御装置36がシステムコントローラ44によって制御される。
画像処理エンジン12は、システムコントローラ44の制御下で動作する。画像処理エンジン12は、CPU62、NVM64、及びRAM66を備えている。ここで、CPU62は、本開示の技術に係る「プロセッサ」の一例であり、NVM64は、本開示の技術に係る「メモリ」の一例である。
CPU62、NVM64、及びRAM66は、バス68を介して接続されており、バス68は入出力インタフェース70に接続されている。なお、図2に示す例では、図示の都合上、バス68として1本のバスが図示されているが、複数本のバスであってもよい。バス68は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
NVM64は、非一時的記憶媒体であり、システムコントローラ44のNVMに記憶されている各種パラメータ及び各種プログラムとは異なる各種パラメータ及び各種プログラムを記憶している。各種プログラムには、後述の画質調整処理プログラム80(図3参照)が含まれる。NVM64は、例えば、EEPROMである。但し、これは、あくまでも一例に過ぎず、EEPROMに代えて、又は、EEPROMと共に、HDD、及び/又はSSD等をNVM64として適用してもよい。また、RAM66は、各種情報を一時的に記憶し、ワークメモリとして用いられる。
CPU62は、NVM64から必要なプログラムを読み出し、読み出したプログラムをRAM66で実行する。CPU62は、RAM66上で実行するプログラムに従って画像処理を行う。
光電変換素子72には、光電変換素子ドライバ54が接続されている。光電変換素子ドライバ54は、光電変換素子72によって行われる撮像のタイミングを規定する撮像タイミング信号を、CPU62からの指示に従って光電変換素子72に供給する。光電変換素子72は、光電変換素子ドライバ54から供給された撮像タイミング信号に従って、リセット、露光、及び電気信号の出力を行う。撮像タイミング信号としては、例えば、垂直同期信号及び水平同期信号が挙げられる。
交換レンズ18が撮像装置本体16に装着された場合、撮像レンズ40に入射された被写体光は、撮像レンズ40によって受光面72Aに結像される。光電変換素子72は、光電変換素子ドライバ54の制御下で、受光面72Aによって受光された被写体光を光電変換し、被写体光の光量に応じた電気信号を、被写体光を示すアナログ画像データとしてA/D変換器74に出力する。具体的には、A/D変換器74が、露光順次読み出し方式で、光電変換素子72から1フレーム単位で且つ水平ライン毎にアナログ画像データを読み出す。
A/D変換器74は、アナログ画像データをデジタル化することでRAW画像75Aを生成する。RAW画像75Aは、本開示の技術に係る「撮像画像」の一例である。RAW画像75Aは、R画素、G画素、及びB画素がモザイク状に配列された画像である。また、本実施形態では、一例として、RAW画像75Aに含まれるR画素、B画素、及びG画素の各画素のビット数、すなわち、ビット長は、14ビットである。
本実施形態において、一例として、画像処理エンジン12のCPU62は、A/D変換器74からRAW画像75Aを取得し、取得したRAW画像75Aに対して画像処理を行う。
画像メモリ46には、処理済み画像75Bが記憶される。処理済み画像75Bは、CPU62によってRAW画像75Aに対して画像処理が行われることで得られた画像である。
UI系デバイス48は、ディスプレイ28を備えており、CPU62は、ディスプレイ28に対して各種情報を表示させる。また、UI系デバイス48は、受付デバイス76を備えている。受付デバイス76は、タッチパネル30及びハードキー部78を備えている。ハードキー部78は、指示キー26(図1参照)を含む複数のハードキーである。CPU62は、タッチパネル30によって受け付けられた各種指示に従って動作する。なお、ここでは、ハードキー部78がUI系デバイス48に含まれているが、本開示の技術はこれに限定されず、例えば、ハードキー部78は、外部I/F50に接続されていてもよい。
外部I/F50は、撮像装置10の外部に存在する装置(以下、「外部装置」とも称する)との間の各種情報の授受を司る。外部I/F50の一例としては、USBインタフェースが挙げられる。USBインタフェースには、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の外部装置(図示省略)が直接的又は間接的に接続される。
通信I/F52は、ネットワーク(図示省略)に接続されている。通信I/F52は、ネットワーク上のサーバ等の通信装置(図示省略)とシステムコントローラ44との間の情報の授受を司る。例えば、通信I/F52は、システムコントローラ44からの要求に応じた情報を、ネットワークを介して通信装置に送信する。また、通信I/F52は、通信装置から送信された情報を受信し、受信した情報を、入出力インタフェース70を介してシステムコントローラ44に出力する。
一例として図3に示すように、撮像装置10のNVM64には、画質調整処理プログラム80が記憶されている。画質調整処理プログラム80は、本開示の技術に係る「プログラム」の一例である。また、撮像装置10のNVM64には、学習済みニューラルネットワーク82が記憶されている。なお、以下では、説明の便宜上、「ニューラルネットワーク」を簡略化して「NN」とも称する。
CPU62は、NVM64から画質調整処理プログラム80を読み出し、読み出した画質調整処理プログラム80をRAM66上で実行する。CPU62は、RAM66上で実行する画質調整処理プログラム80に従って画質調整処理(図9参照)を行う。画質調整処理は、CPU62が画質調整処理プログラム80に従ってAI方式処理部62A、非AI方式処理部62B、重み導出部62C、重み付与部62D、合成部62E、及び信号処理部62Fとして動作することで実現される。
一例として図4に示すように、学習済みNN82は、学習実行システム84によって生成される。学習実行システム84は、記憶装置86及び学習実行装置88を備えている。記憶装置86の一例としては、HDDが挙げられる。なお、HDDは、あくまでも一例に過ぎず、SSD等の他種類の記憶装置であってもよい。また、学習実行装置88は、CPU(図示省略)、NVM(図示省略)、及びRAM(図示省略)を有するコンピュータ等によって実現される装置である。
学習済みNN82は、学習実行装置88によってNN90に対して機械学習が実行されることで生成される。学習済みNN82は、NN90が機械学習によって最適化されることで生成された学習済みモデルである。NN90の一例としては、CNNが挙げられる。
記憶装置86には、複数(例えば、数万~数千億)の教師データ92が記憶されている。学習実行装置88は、記憶装置86に接続されている。学習実行装置88は、記憶装置86から複数の教師データ92を取得し、取得した複数の教師データ92を用いてNN90に対して機械学習を行わせる。
教師データ92は、ラベル付きデータである。ラベル付きデータとしては、例えば、学習用RAW画像75A1と正解データ75Cとが対応付けられたデータである。学習用RAW画像75A1としては、例えば、撮像装置10によって撮像されることで得られたRAW画像75A、及び/又は、撮像装置10とは異なる撮像装置によって撮像されることで得られたRAW画像が挙げられる。
正解データ75Cは、学習用RAW画像75A1からノイズが取り除かれた画像である。ここで、ノイズとは、例えば、撮像装置10による撮像に起因して生じるノイズを指す。ノイズとしては、例えば、画素欠陥、暗電流ノイズ、及び/又はビートノイズ等が挙げられる。
学習実行装置88は、記憶装置86から1つずつ教師データ92を取得する。学習実行装置88は、記憶装置86から取得した教師データ92から学習用RAW画像75A1をNN90に入力する。NN90は、学習用RAW画像75A1が入力されると、推論を行い、推論結果を示す画像94を出力する。
学習実行装置88は、NN90に入力された学習用RAW画像75A1に対応付けられている正解データ75Cと画像94との誤差96を算出する。学習実行装置88は、誤差96を最小にする複数の調整値98を算出する。そして、学習実行装置88は、複数の調整値98を用いてNN90内の複数の最適化変数を調整する。ここで、複数の最適化変数とは、例えば、NN90に含まれる複数の結合荷重及び複数のオフセット値等を指す。
学習実行装置88は、学習用RAW画像75A1のNN90への入力、誤差96の算出、複数の調整値98の算出、及びNN90内の複数の最適化変数の調整、という学習処理を、記憶装置86に記憶されている複数の教師データ92を用いて繰り返し行う。すなわち、学習実行装置88は、記憶装置86に記憶されている複数の教師データ92に含まれる複数の学習用RAW画像75A1の各々について、誤差96が最小になるように算出した複数の調整値98を用いてNN90内の複数の最適化変数を調整することで、NN90を最適化する。
学習実行装置88は、NN90を最適化することで学習済みNN82を生成する。学習実行装置88は、撮像装置本体16の外部I/F50又は通信I/F52(図2参照)に接続され、学習済みNN82をNVM64(図3参照)に記憶させる。
ところで、例えば、RAW画像75A(図2参照)が学習済みNN82に入力されると、学習済みNN82からは、殆どのノイズが除去された画像が出力される。学習済みNN82の特性として、RAW画像75Aに含まれるノイズが除去されると、RAW画像75Aに写り込んでいる被写体の微細な構造(例えば、被写体の微細な輪郭及び/又は微細な模様等)も削ってしまうことが考えられる。被写体の微細な構造が削られると、RAW画像75Aは、シャープネスの乏しい画像になってしまう虞がある。このような画像が学習済みNN82から得られてしまうのは、学習済みNN82が、ノイズと被写体の微細な構造との判別が不得意であることが原因と考えられる。特に、NN90に含まれる層数が削られて学習済みNN82が簡素化されると、学習済みNN82にとって、ノイズと被写体の微細な構造(以下、「微細構造」とも称する)との判別が、より困難になることが予想される。
このような事情に鑑み、撮像装置10は、CPU62によって画質調整処理(図3及び図6~図9参照)が行われるように構成されている。CPU62は、画質調整処理を行うことで、学習済みNN82を用いたAI方式で推論用RAW画像75A2(図5参照)を処理し、推論用RAW画像75A2をAI方式で処理されることで得られた第1画像75D(図5及び図7参照)と、推論用RAW画像75A2をAI方式で処理されず得られた第2画像75E(図5及び図7参照)とを合成する合成処理を行う。推論用RAW画像75A2は、学習済みNN82によって推論される画像である。本実施形態では、推論用RAW画像75A2として、撮像装置10によって撮像されることで得られたRAW画像75Aが適用されている。なお、RAW画像75Aは、あくまでも一例に過ぎず、推論用RAW画像75A2は、RAW画像75A以外の画像(例えば、RAW画像75Aが加工された画像)等であってもよい。
一例として図5に示すように、AI方式処理部62Aには、推論用RAW画像75A2が入力される。AI方式処理部62Aは、推論用RAW画像75A2に対してAI方式ノイズ調整処理を行う。AI方式ノイズ調整処理は、推論用RAW画像75Aに含まれるノイズをAI方式で調整する処理である。AI方式処理部62Aは、AI方式ノイズ調整処理として、学習済みNN82を用いた処理を行う。
この場合、AI方式処理部62Aは、学習済みNN82に推論用RAW画像75A2を入力する。学習済みNN82は、推論用RAW画像75A2が入力されると、推論用RAW画像75A2に対して推論を行い、推論結果として第1画像75Dを出力する。第1画像75Dは、推論用RAW画像75A2よりもノイズが低減された画像である。第1画像75Dは、本開示の技術に係る「第1画像」の一例である。
非AI方式処理部62Bにも、AI方式処理部62Aと同様に、推論用RAW画像75A2が入力される。非AI方式処理部62Bは、推論用RAW画像75A2に対して非AI方式ノイズ調整処理を行う。非AI方式ノイズ調整処理は、推論用RAW画像75Aに含まれるノイズを、NNを用いない非AI方式で調整する処理である。
非AI方式処理部62Bは、デジタルフィルタ100を有する。非AI方式処理部62Bは、非AI方式ノイズ調整処理として、デジタルフィルタ100を用いた処理を行う。デジタルフィルタ100は、例えば、FIRフィルタである。なお、FIRフィルタは、あくまでも一例に過ぎず、IIRフィルタ等の他のデジタルフィルタであってもよく、非AI方式で推論用RAW画像75A2に含まれるノイズを低減する機能を有するデジタルフィルタであればよい。
非AI方式処理部62Bは、デジタルフィルタ100を用いて推論用RAW画像75A2に対してフィルタリングを行うことで、第2画像75Eを生成する。第2画像75Eは、デジタルフィルタ100によるフィルタリングが行われることによって得られた画像、すなわち、非AI方式ノイズ調整処理によってノイズが調整されることで得られた画像である。第2画像75Eは、推論用RAW画像75A2よりもノイズが低減された画像であるが、第1画像75Dに比べ、ノイズが残存している画像でもある。第2画像75Eは、本開示の技術に係る「第2画像」の一例である。
第2画像75Eには、推論用RAW画像75A2から学習済みNN82によって除去されたノイズが残存している一方で、推論用RAW画像75A2から学習済みNN82によって削られた微細構造も残存している。そこで、CPU62は、第1画像75Dと第2画像75Eとを合成することで、単にノイズを低減するだけでなく、微細構造の消失を回避した画像(例えば、シャープネスを維持した画像)を生成する。
ところで、推論用RAW画像75A2にノイズが入り込む一因として、イメージセンサ20の感度(例えば、ISO感度)が挙げられる。イメージセンサ20の感度は、アナログ画像データの増幅に用いられるアナログゲインに依存しており、アナログゲインを上げることでノイズも増大するからである。また、本実施形態において、イメージセンサ20の感度に起因して生じるノイズを除去する能力は、学習済みNN82とデジタルフィルタ100とでは異なっている。
そのため、CPU62は、合成対象とされる第1画像75D及び第2画像75Eに対して異なる重みを付与し、付与した重みに応じて第1画像75D及び第2画像75Eを合成する。第1画像75D及び第2画像75Eに付与される重みは、第1画像75Dと第2画像75Eとの間において画素位置が対応する画素の合成に用いる第1画像75Dの画素値の度合い及び第2画像75Eの画素値の度合いとを意味している。
例えば、イメージセンサ20の感度に起因して生じるノイズを除去する能力が学習済みNN82よりもデジタルフィルタ100が低い場合は、第1画像75Dに対しては、第2画像75Eよりも小さな重みが付与される。また、第1画像75D及び第2画像75Eに対して付与される重みの差は、イメージセンサ20の感度に起因して生じるノイズを除去する能力の差等に応じて定められる。
一例として図6に示すように、NVM64には、関連情報102が記憶されている。関連情報102は、推論用RAW画像75A2に関連する情報である。関連情報102には、感度関連情報102Aが含まれている。感度関連情報102Aは、推論用RAW画像75A2を得る撮像で用いられたイメージセンサ20の感度に関連する情報である。感度関連情報102Aの一例としては、ISO感度を示す情報が挙げられる。
重み導出部62Cは、NVM64から関連情報102を取得する。重み導出部62Cは、NVM64から取得した関連情報102に基づいて、第1画像75D及び第2画像75Eに付与される重みとして、第1重み104及び第2重み106を導出する。第1画像75D及び第2画像75Eに付与される重みは、第1重み104と第2重み106とに類別される。第1重み104は、第1画像75Dに対して付与される重みであり、第2重み106は、第2画像75Eに対して付与される重みである。
重み導出部62Cは、重み演算式108を有する。重み演算式108は、関連情報102から特定されるパラメータを独立変数とし、第1重み104を従属変数とする演算式である。ここで、関連情報102から特定されるパラメータとは、例えば、イメージセンサ20の感度を示す値が挙げられる。イメージセンサ20の感度を示す値は、感度関連情報102Aから特定される。なお、イメージセンサ20の感度を示す値としては、例えば、ISO感度を示す値が挙げられる。但し、これは、あくまでも一例に過ぎず、イメージセンサ20の感度を示す値は、アナログゲインを示す値であってもよい。
重み導出部62Cは、イメージセンサ20の感度を示す値を重み演算式108に代入することで第1重み104を算出する。ここで、第1重み104を“w”とすると、第1重み104は、“0<w<1”の大小関係を満たす値である。第2重みは、“1-w”である。重み導出部62Cは、重み演算式108を用いて算出した第1重み104から第2重み106を算出する。
このように、第1重み104及び第2重み106は、関連情報102に依存した値であるため、重み導出部62Cによって算出される第1重み104及び第2重み106は、関連情報102に応じて変更される。例えば、第1重み104及び第2重み106は、イメージセンサ20の感度を示す値に応じて、重み導出部62Cによって変更される。
一例として図7に示すように、重み付与部62Dは、AI方式処理部62Aから第1画像75Dを取得し、非AI方式処理部62Bから第2画像75Eを取得する。重み付与部62Dは、重み導出部62Cによって導出された第1重み104を第1画像75Dに付与する。重み付与部62Dは、重み導出部62Cによって導出された第2重み106を第2画像75Eに付与する。
合成部62Eは、第1画像75D及び第2画像75Eを合成することで、推論用RAW画像75A2に含まれるノイズを調整する。すなわち、第1画像75D及び第2画像75Eが合成部62Eによって合成されることで得られた画像(図7に示す例では、合成画像75F)が、推論用RAW画像75A2に含まれるノイズが調整された画像である。
合成部62Eは、第1重み104及び第2重み106に応じて第1画像75D及び第2画像75Eを合成することで合成画像75Fを生成する。合成画像75Fは、第1画像75Dと第2画像75Eとの間で画素毎に画素値が第1重み104及び第2重み106に応じて合成されることで得られた画像である。合成画像75Fの一例としては、第1重み104及び第2重み106を用いた重み付け平均が行われることで得られた重み付け平均画像が挙げられる。第1重み104及び第2重み106を用いた重み付け平均とは、例えば、第1画像75Dと第2画像75Eとの間において画素位置が対応する画素毎の画素値について第1重み104及び第2重み106を用いた重み付け平均を指す。なお、重み付け平均画像は、あくまでも一例であり、第1重み104と第2重み106との差の絶対値が閾値(例えば、0.01)未満の場合に、第1重み104及び第2重み106を用いずに画素値の単純な平均が行われることで得られた画像を合成画像75Fとしてもよい。
一例として図8に示すように、信号処理部62Fは、オフセット補正部62F1、ホワイトバランス補正部62F2、デモザイク処理部62F3、色補正部62F4、ガンマ補正部62F5、色空間変換部62F6、輝度処理部62F7、色差処理部62F8、色差処理部62F9、リサイズ処理部62F10、及び圧縮処理部62F11を備えており、合成画像75Fに対して各種の信号処理を施す。
オフセット補正部62F1は、合成画像75Fに対してオフセット補正処理を行う。オフセット補正処理は、合成画像75Fに含まれるR画素、G画素、及びB画素に含まれる暗電流成分を補正する処理である。オフセット補正処理の一例としては、光電変換素子72(図2参照)に含まれる遮光された感光画素から得られるオプティカルブラックの信号値を、RGBの色信号から減算することでRGBの色信号を補正する処理が挙げられる。
ホワイトバランス補正部62F2は、オフセット補正処理が行われた合成画像75Fに対してホワイトバランス補正処理を行う。ホワイトバランス補正処理は、R画素、G画素、及びB画素の各々について設定されたホワイトバランスゲインを、RGBの色信号に乗じることで、RGBの色信号について光源種の色の影響を補正する処理である。ホワイトバランスゲインは、例えば、白色に対するゲインである。白色に対するゲインの一例としては、合成画像75Fに写り込んでいる白色の被写体に対してR信号、G信号、及びB信号の各信号レベルが等しくなるように定められたゲインが挙げられる。ホワイトバランスゲインは、例えば、画像解析が行われることによって特定された光源種に応じて設定されたり、ユーザ等によって指定された光源種に応じて設定されたりする。
デモザイク処理部62F3は、ホワイトバランス補正処理が行われた合成画像75Fに対してデモザイク処理を行う。デモザイク処理は、合成画像75FをR、G、及びBに3板化する処理である。すなわち、デモザイク処理部62F3は、R信号、G信号、及びB信号に色補間処理を施すことにより、Rに対応する画像を示すR画像データ、に対応する画像を示すB画像データ、及びGに対応する画像を示すG画像データを生成する。ここで、色補間処理とは、各画素が有さない色を周辺画素から補間する処理を指す。すなわち、光電変換素子72の各感光画素においては、R信号、G信号、又はB信号(すなわち、R、G、及びBのうちの1色の画素値)しか得られないため、デモザイク処理部62F3は、各画素において得られない他の色について、周辺の画素の画素値を用いて補間する。なお、以下では、R画像データ、B画像データ、及びG画像データを、「RGB画像データ」とも称する。
色補正部62F4は、デモザイク処理が行われることで得られたRGB画像データに対して色補正処理(ここでは、一例として、リニアマトリクスによる色補正(すなわち、混色補正))を行う。色補正処理は、色相及び色飽和特性を調整する処理である。色補正処理の一例としては、RGB画像データに対して色再現係数(例えば、リニアマトリクス係数)を乗じることで色再現性を変化させる処理が挙げられる。なお、色再現係数は、R、G、及びBの分光特性を人間の視感度特性に近付けるように定められた係数である。
ガンマ補正部62F5は、色補正処理が行われたRGB画像データに対してガンマ補正処理を行う。ガンマ補正処理は、画像の階調の応答特性を示す値、すなわち、ガンマ値に従ってRGB画像データにより示される画像の階調を補正する処理である。
色空間変換部62F6は、ガンマ補正処理が行われたRGB画像データに対して色空間変換処理を行う。色空間変処理は、ガンマ補正処理が行われたRGB画像データの色空間をRGB色空間からYCbCr色空間に変換する処理である。すなわち、色空間変換部62F6は、RGB画像データを輝度・色差信号に変換する。輝度・色差信号は、Y信号、Cb信号、及びCr信号である。Y信号は、輝度を示す信号である。以下、Y信号を輝度信号と記載する場合もある。Cb信号は、B信号から輝度成分を減じた信号を調整することで得られた信号である。Cr信号は、R信号から輝度成分を減じた信号を調整することで得られた信号である。以下、Cb信号及びCr信号を色差信号と記載する場合もある。
輝度処理部62F7は、Y信号に対して輝度フィルタ処理を行う。輝度フィルタ処理は、Y信号を、輝度フィルタ(図示省略)を用いてフィルタリングする処理である。例えば、輝度フィルタは、デモザイク処理で生じた高周波ノイズを低減したり、シャープネスを強調したりするフィルタである。Y信号に対する信号処理、すなわち、輝度フィルタによるフィルタリングは、輝度フィルタパラメータに従って行われる。輝度フィルタパラメータは、輝度フィルタに対して設定されるパラメータである。輝度フィルタパラメータは、デモザイク処理で生じた高周波ノイズを低減する度合い、及びシャープネスを強調する度合いを規定している。輝度フィルタパラメータは、例えば、関連情報102(図6参照)、撮像条件、及び/又は、受付デバイス76によって受け付けられた指示に従って変更される。
色差処理部62F8は、Cb信号に対して第1色差フィルタ処理を行う。第1色差フィルタ処理は、Cb信号を、第1色差フィルタ(図示省略)を用いてフィルタリングする処理である。例えば、第1色差フィルタは、Cb信号に含まれる高周波ノイズを低減するローパスフィルタである。Cb信号に対する信号処理、すなわち、第1色差フィルタによるフィルタリングは、指定された第1色差フィルタパラメータに従って行われる。第1色差フィルタパラメータは、第1色差フィルタに対して設定されるパラメータである。第1色差フィルタパラメータは、Cb信号に含まれる高周波ノイズを低減する度合いを規定している。第1色差フィルタパラメータは、例えば、関連情報102(図6参照)、撮像条件、及び/又は、受付デバイス76によって受け付けられた指示に従って変更される。
色差処理部62F9は、Cr信号に対して第2色差フィルタ処理を行う。第2色差フィルタ処理は、Cr信号を、第2色差フィルタ(図示省略)を用いてフィルタリングする処理である。例えば、第2色差フィルタは、Cr信号に含まれる高周波ノイズを低減するローパスフィルタである。Cr信号に対する信号処理、すなわち、第2色差フィルタによるフィルタリングは、指定された第2色差フィルタパラメータに従って行われる。第2色差フィルタパラメータは、第2色差フィルタに対して設定されるパラメータである。第2色差フィルタパラメータは、Cr信号に含まれる高周波ノイズを低減する度合いを規定している。第2色差フィルタパラメータは、例えば、関連情報102(図6参照)、撮像条件、及び/又は、受付デバイス76によって受け付けられた指示に従って変更される。
リサイズ処理部62F10は、輝度・色差信号に対してリサイズ処理を行う。リサイズ処理は、輝度・色差信号により示される画像のサイズを、ユーザ等によって指定されたサイズに合わせるように輝度・色差信号を調節する処理である。
圧縮処理部62F11は、リサイズ処理が行われた輝度・色差信号に対して圧縮処理を行う。圧縮処理は、例えば、輝度・色差信号を既定の圧縮方式に従って圧縮する処理である。既定の圧縮方式としては、例えば、JPEG、TIFF、又は、JPEG XR等が挙げられる。輝度・色差信号に対して圧縮処理が行われることによって処理済み画像75Bが得られる。圧縮処理部62F11は、処理済み画像75Bを画像メモリ46に記憶させる。
次に、撮像装置10の作用について図9を参照しながら説明する。図9には、CPU62によって実行される画質調整処理の流れの一例が示されている。
図9に示す画質調整処理では、先ず、ステップST100で、AI方式処理部62Aは、イメージセンサ20(図2参照)によって推論用RAW画像75A2(図5参照)が生成されたか否かを判定する。ステップST100において、イメージセンサ20によって推論用RAW画像75A2が生成されていない場合は、判定が否定されて、画質調整処理はステップST126へ移行する。ステップST100において、イメージセンサ20によって推論用RAW画像75A2が生成された場合は、判定が肯定されて、画質調整処理はステップST102へ移行する。
ステップST102で、AI方式処理部62Aは、イメージセンサ20から推論用RAW画像75A2を取得する。また、非AI方式処理部62Bも、イメージセンサ20から推論用RAW画像75A2を取得する。ステップST102の処理が実行された後、画質調整処理はステップST104へ移行する。
ステップST104で、AI方式処理部62Aは、ステップST102で取得した推論用RAW画像75A2を学習済みNN82に入力する。ステップST104の処理が実行された後、画質調整処理はステップST106へ移行する。
ステップST106で、重み付与部62Dは、ステップST104で推論用RAW画像75A2が学習済みNN82に入力されることによって学習済みNN82から出力された第1画像75Dを取得する。ステップST106の処理が実行された後、画質調整処理はステップST108へ移行する。
ステップST108で、非AI方式処理部62Bは、ステップST102で取得した推論用RAW画像75A2を、デジタルフィルタ100を用いてフィルタリングすることで、推論用RAW画像75A2に含まれるノイズを非AI方式で調整する。ステップST108の処理が実行された後、画質調整処理はステップST110へ移行する。
ステップST110で、重み付与部62Dは、ステップST108で推論用RAW画像75A2に含まれるノイズが非AI方式で調整されることで得られた第2画像75Eを取得する。ステップST110の処理が実行された後、画質調整処理はステップST112へ移行する。
ステップST112で、重み導出部62Cは、NVM64から関連情報102を取得する。ステップST112の処理が実行された後、画質調整処理はステップST114へ移行する。
ステップST114で、重み導出部62Cは、ステップST112で取得した関連情報102から感度関連情報102Aを抽出する。ステップST114の処理が実行された後、画質調整処理はステップST116へ移行する。
ステップST116で、重み導出部62Cは、ステップST114で抽出した感度関連情報102Aに基づいて、第1重み104及び第2重み106を算出する。すなわち、重み導出部62Cは、感度関連情報102Aから、イメージセンサ20の感度を示す値を特定し、イメージセンサ20の感度を示す値を重み演算式108に代入することで第1重み104を算出し、算出した第1重み104から第2重み106を算出する。ステップST116の処理が実行された後、画質調整処理はステップST118へ移行する。
ステップST118で、重み付与部62Dは、ステップST106で取得した第1画像75Dに対して、ステップST116で算出した第1重み104を付与する。ステップST118の処理が実行された後、画質調整処理はステップST120へ移行する。
ステップST120で、重み付与部62Dは、ステップST110で取得した第2画像75Eに対して、ステップST116で算出した第2重み106を付与する。ステップST120の処理が実行された後、画質調整処理はステップST122へ移行する。
ステップST122で、合成部62Eは、ステップST118で第1画像75Dに対して付与された第1重み104、及びステップST120で第2画像75Eに対して付与された第2重み106に応じて、第1画像75D及び第2画像75Eを合成することで合成画像75Fを生成する。すなわち、合成部62Eは、第1画像75Dと第2画像75Eとの間で画素毎に画素値が第1重み104及び第2重み106に応じて合成することで合成画像75F(例えば、第1重み104及び第2重み106を用いた重み付け平均画像)を生成する。ステップST122の処理が実行された後、画質調整処理はステップST124へ移行する。
ステップST124で、信号処理部62Fは、ステップST22で得られた合成画像75Fに対して各種の信号処理(例えば、オフセット補正処理、ホワイトバランス補正処理、デモザイク処理、色補正処理、ガンマ補正処理、色空間変換処理、輝度フィルタ処理、第1色差フィルタ処理、第2色差フィルタ処理、リサイズ処理、及び圧縮処理)を行うことで得られた画像を処理済み画像75Bとして既定の出力先(例えば、画像メモリ46)に出力する。ステップST124の処理が実行された後、画質調整処理はステップST126へ移行する。
ステップST126で、信号処理部62Fは、画質調整処理を終了する条件(以下、「終了条件」と称する)を満足したか否かを判定する。終了条件としては、画質調整処理を終了させる指示が受付デバイス76によって受け付けられた、との条件等が挙げられる。ステップST126において、終了条件を満足していない場合は、判定が否定されて、画質調整処理はステップST100へ移行する。ステップST126において、終了条件を満足した場合は、判定が肯定されて、画質調整処理が終了する。
以上説明したように、撮像装置10では、学習済みNN82を用いたAI方式で推論用RAW画像75A2が処理されることによって第1画像75Dが得られる。また、撮像装置10では、推論用RAW画像75A2に対してAI方式で処理されずに第2画像75Eが得られる。ここで、学習済みNN82の特性として、RAW画像75Aに含まれるノイズが除去されると、これに伴って微細構造も削られてしまう虞がある。一方、第2画像75Eには、推論用RAW画像75A2が学習済みNN82によって削られた微細構造も残存している。そこで、撮像装置10では、第1画像75Dと第2画像75Eとが合成されることで合成画像75Fが生成される。これにより、学習済みNN82を用いたAI方式でのみ画像が処理された場合に比べ、画像に含まれるノイズの過不足の抑制と、画像に写り込んでいる被写体の微細構造の鮮鋭度の過不足の抑制との両立を図ることができる。従って、本構成によれば、学習済みNN82を用いたAI方式でのみ画像が処理された場合に比べ、画質が調整された画像を得ることができる。
また、撮像装置10では、推論用RAW画像75A2に対してAI方式ノイズ調整処理が行われることで得られた第1画像75Dと、推論用RAW画像75A2がAI方式で処理されずに得られた第2画像75Eとが合成されることによってノイズが調整される。従って、本構成によれば、AI方式ノイズ調整処理のみが行われた画像、すなわち、第1画像75Dに比べ、ノイズ過多と微細構造の消失との両方が抑制された画像を得ることができる。
また、撮像装置10では、推論用RAW画像75A2に対してAI方式ノイズ調整処理が行われることで得られた第1画像75Dと、推論用RAW画像75A2に対して非AI方式ノイズ調整処理が行われることで得られた第2画像75Eとが合成されることによってノイズが調整される。従って、本構成によれば、AI方式ノイズ調整処理のみが行われた画像、すなわち、第1画像75Dに比べ、ノイズ過多と微細構造の消失との両方が抑制された画像を得ることができる。
また、撮像装置10では、第1画像75Dに対して第1重み104が付与され、第2画像75Eに第2重み106が付与される。そして、第1画像75Dに対して付与された第1重み104と第2画像75Eに対して付与された第2重みに応じて第1画像75Dと第2画像75Eとが合成される。従って、本構成によれば、合成画像75Fとして、画質に対して第1画像75Dが及ぼす影響の度合い及び第2画像75Eが及ぼす影響の度合いが調整された画像を得ることができる。
また、撮像装置10では、第1重み104及び第2重み106を用いた重み付け平均が行われることで第1画像75D及び第2画像75Eが合成される。従って、本構成によれば、第1画像75Dと第2画像75Eとの合成が行われた後に、合成されることで得られた画像の画質に対して第1画像75Dが及ぼす影響の度合い及び第2画像75Eが及ぼす影響の度合いの調整が行われる場合に比べ、第1画像75Dと第2画像75Eとの合成と、合成画像75Fの画質に対して第1画像75Dが及ぼす影響の度合い及び第2画像75Eが及ぼす影響の度合いの調整と、を容易に行うことができる。
また、撮像装置10では、関連情報102に応じて第1重み104及び第2重み106が変更される。従って、本構成によれば、関連情報102とは全く無関係な情報のみに依拠して定められた一定の重みが用いられる場合に比べ、関連情報102に起因する画質の低下を抑制することができる。
更に、撮像装置10では、関連情報102に含まれている感度関連情報102Aに応じて第1重み104及び第2重み106が変更される。従って、本構成によれば、推論用RAW画像75A2を得る撮像で用いられたイメージセンサ20の感度とは全く無関係な情報のみに依拠して定められた一定の重みが用いられる場合に比べ、イメージセンサ20の感度に起因する画質の低下を抑制することができる。
なお、本実施形態では、イメージセンサ20の感度を示す値から第1重み104が算出される重み演算式108を例示したが、本開示の技術はこれに限定されず、重み演算式108から第2重み106が算出される重み演算式を用いてもよい。この場合、第2重み106から第1重み104が算出される。
また、本実施形態では、重み演算式108を例示したが、本開示の技術はこれに限定されず、イメージセンサ20の感度を示す値と第1重み104又は第2重み106とが対応付けられた重み導出テーブルを用いてもよい。
[第1変形例]
学習済みNN82は、暗い画像領域よりも明るい画像領域についてノイズと微細構造との判別がし難い、という性質を有している。この性質は、学習済みNN82の層構造が簡素化されるほど、顕著に現れる。この場合、一例として図10に示すように、関連情報102に、推論用RAW画像75A2の明るさに関連する明るさ関連情報102Bを含め、明るさ関連情報102Bに応じた第1重み104及び第2重み106が重み導出部62Cによって導出されるようにするとよい。
明るさ関連情報102Bの一例としては、推論用RAW画像75A2の少なくとも一部の画素統計値が挙げられる。画素統計値は、例えば、画素平均値である。
図10に示す例では、推論用RAW画像75A2が、複数の分割エリア75A2aで区分されており、関連情報102には、分割エリア75A2a毎の画素平均値が含まれている。画素平均値とは、例えば、分割エリア75A2a内に含まれる全画素の画素値の平均値を指す。画素平均値は、例えば、推論用RAW画像75A2が生成される毎に、CPU62によって算出される。
NVM64には、重み演算式110が記憶されている。重み導出部62Cは、NVM64から重み演算式110を取得し、取得した重み演算式110を用いて第1重み104及び第2重み106を算出する。
重み演算式110は、画素平均値を独立変数とし、第1重み104を従属変数とした演算式である。第1重み104は、画素平均値に応じて変更される。重み演算式110により示される画素平均値と第1重み104との相関は、例えば、画素平均値の閾値th1未満の第1重み104は、“w1”という固定値である。また、画素平均値の閾値th2(>th1)を上回る第1重み104は、“w2(<w1)”という固定値である。閾値th1以上閾値th2以下の範囲では、画素平均値の増加に伴って第1重み104が減少する。なお、図10に示す例では、閾値th1と閾値th2との間でのみ、第1重みが変化しているが、これは、あくまでも一例であり、重み演算式110は、閾値th1及びth2とは無関係に画素平均値に応じて第1重み104が変化するように定められた演算式であればよい。
また、画像領域が明るい程、ノイズと微細構造との判別が困難となるので、画素平均値の増加に伴って第1重み104が減少するのが好ましい。なぜならば、ノイズと微細構造と判別されているかどうか判然としない画素が合成画像75Fに影響を及ぼす度合いを抑えるためである。これに対し、第2重み106は、“1-w”であるため、第1重み104の減少に伴って増加する。すなわち、第1重み104の減少に伴って、第2画像75Eが合成画像75Fに対して影響を及ぼす度合いは、第1画像75Dが合成画像75Fに対して影響を及ぼす度合いよりも大きくなる。
一例として図11に示すように、第1画像75Dは、複数の分割エリア75D1で区分されており、第2画像75Eも、複数の分割エリア75E1で区分されている。第1画像75D内での複数の分割エリア75D1の位置は、推論用RAW画像75A2内での複数の分割エリア75A2aの位置に対応しており、第2画像75E内での複数の分割エリア75E1の位置も、推論用RAW画像75A2内での複数の分割エリア75A2aの位置に対応している。
重み付与部62Dは、各分割エリア75D1に対して、位置が対応する分割エリア75A2aについて重み導出部62Cによって算出された第1重み104を付与する。また、重み付与部62Dは、各分割エリア75E1に対して、位置が対応する分割エリア75A2aについて重み導出部62Cによって算出された第2重み106を付与する。
合成部62Eは、互いに位置が対応する分割エリア75D1及び分割エリア75E1を、第1重み104及び第2重み106に応じて合成することで合成画像75Fを生成する。第1重み104及び第2重み106に応じた分割エリア75D1及び分割エリア75E1の合成は、上記実施形態と同様に、例えば、第1重み104及び第2重み106を用いた重み付け平均、すなわち、分割エリア75D1と分割エリア75E1との間での画素毎の重み付け平均によって実現される。
このように、本第1変形例では、関連情報102には、推論用RAW画像75A2の明るさに関連する明るさ関連情報102Bが含まれており、明るさ関連情報102Bに応じた第1重み104及び第2重み106が重み導出部62Cによって導出される。従って、本構成によれば、推論用RAW画像75A2の明るさとは全く無関係な情報のみに依拠して定められた一定の重みが用いられる場合に比べ、推論用RAW画像75A2の明るさに起因する画質の低下を抑制することができる。
また、本第1変形例では、明るさ関連情報102Bとして、推論用RAW画像75A2の各分割エリア75A2aの画素平均値が用いられている。従って、本構成によれば、推論用RAW画像75A2に関する画素統計値とは全く無関係な情報のみに依拠して定められた一定の重みが用いられる場合に比べ、推論用RAW画像75A2に関する画素統計値に起因する画質の低下を抑制することができる。
なお、本第1変形例では、分割エリア75A2a毎の画素平均値に応じて第1重み104及び第2重み106が導出される形態例を示したが、本開示の技術はこれに限定されず、推論用RAW画像75A2の1フレーム毎の画素平均値に応じて第1重み104及び第2重み106が導出されるようにしてもよいし、推論用RAW画像75A2の一部の画素平均値に応じて第1重み104及び第2重み106が導出されるようにしてもよい。また、推論用RAW画像75A2の画素毎の輝度に応じて第1重み104及び第2重み106が導出されるようにしてもよい。
また、本第1変形例では、重み演算式110を例示したが、本開示の技術はこれに限定されず、複数の画素平均値と複数の第1重み104とが対応付けられた重み導出テーブルを用いてもよい。
また、本第1変形例では、画素平均値を例示したが、これは、あくまでも一例に過ぎず、画素平均値に代えて、画素中央値を用いてもよいし、画素最頻値を用いてもよい。
[第2変形例]
学習済みNN82は、低周波成分の画像領域よりも高周波成分の画像領域についてノイズと微細構造との判別がし難い、という性質を有している。この性質は、学習済みNN82の層構造が簡素化されるほど、顕著に現れる。この場合、一例として図12に示すように、関連情報102に、推論用RAW画像75A2の空間周波数を示す空間周波数情報102Cを含め、空間周波数情報102Cに応じた第1重み104及び第2重み106が重み導出部62Cによって導出されるようにするとよい。
図12に示す例は、図10に示す例と比べ、分割エリア75A2a毎の画素平均値に代えて、分割エリア75A2a毎の空間周波数情報102Cを適用している点、及び、重み演算式110に代えて重み演算式112を適用している点が異なる。分割エリア75A2a毎の空間周波数情報102Cは、例えば、推論用RAW画像75A2が生成される毎に、CPU62によって算出される。
重み演算式112は、空間周波数情報102Cを独立変数とし、第1重み104を従属変数とした演算式である。第1重み104は、空間周波数情報102Cに応じて変更される。また、空間周波数情報102Cにより示される空間周波数が高い程、ノイズと微細構造との判別が困難となるので、空間周波数情報102Cに対して第1重み104は、空間周波数情報102Cにより示される空間周波数が高くなるのに伴って第1重み104が減少するのが好ましい。なぜならば、ノイズと微細構造と判別されているかどうか判然としない画素が合成画像75Fに影響を及ぼす度合いを抑えるためである。これに対し、第2重み106は、“1-w”であるため、第1重み104の減少に伴って増加する。すなわち、第1重み104の減少に伴って、第2画像75Eが合成画像75Fに対して影響を及ぼす度合いは、第1画像75Dが合成画像75Fに対して影響を及ぼす度合いよりも大きくなる。なお、合成画像75Fの生成方法は、第1変形例で説明した通りである。
このように、本第2変形例では、関連情報102には、推論用RAW画像75A2の空間周波数を示す空間周波数情報102Cが含まれており、空間周波数情報102Cに応じた第1重み104及び第2重み106が重み導出部62Cによって導出される。従って、本構成によれば、推論用RAW画像75A2の空間周波数とは全く無関係な情報のみに依拠して定められた一定の重みが用いられる場合に比べ、推論用RAW画像75A2の空間周波数に起因する画質の低下を抑制することができる。
なお、本第2変形例では、分割エリア75A2a毎の空間周波数情報102Cに応じて第1重み104及び第2重み106が導出される形態例を示したが、本開示の技術はこれに限定されず、推論用RAW画像75A2の1フレーム毎の空間周波数情報102Cに応じて第1重み104及び第2重み106が導出されるようにしてもよいし、推論用RAW画像75A2の一部の空間周波数情報102Cに応じて第1重み104及び第2重み106が導出されるようにしてもよい。
また、本第2変形例では、重み演算式112を例示したが、本開示の技術はこれに限定されず、複数の空間周波数情報102Cと複数の第1重み104とが対応付けられた重み導出テーブルを用いてもよい。
[第3変形例]
CPU62は、推論用RAW画像75A2に基づいて、推論用RAW画像75A2に写り込んでいる被写体を検出し、検出した被写体に応じて第1重み104及び第2重み106を変更するようにしてもよい。この場合、一例として図13に示すように、NVM64には、重み導出テーブル114が記憶されており、重み導出部62Cは、NVM64から重み導出テーブル114を読み出し、重み導出テーブル114を参照して第1重み104及び第2重み106を導出する。重み導出テーブル114は、複数の被写体と複数の第1重み104とが1対1で対応付けられたテーブルである。
重み導出部62Cは、被写体検出機能を有する。重み導出部62Cは、被写体検出機能を働かせることで、推論用RAW画像75A2に写り込んでいる被写体を検出する。被写体の検出は、AI方式の検出であってもよいし、非AI方式の検出(例えば、テンプレートマッチングによる検出)であってもよい。
重み導出部62Cは、検出した被写体に対応する第1重み104を重み導出テーブル114から導出し、導出した第1重み104から第2重み106を算出する。重み導出テーブル114には、被写体毎に異なる第1重み104が対応付けられているので、第1画像75Dに対して適用される第1重み104、及び第2画像75Eに対して適用される第2重み106は、推論用RAW画像75A2から検出された被写体に応じて変更される。
なお、重み付与部62Dは、第1画像75Dの全画像領域のうちの重み導出部62Cによって検出された被写体を示す画像領域に対してのみ、第1重み104を付与し、第2画像75Eの全画像領域のうちの重み導出部62Cによって検出された被写体を示す画像領域に対してのみ、第2重み106を付与するようにしてもよい。そして、第1重み104が付与された画像領域と第2重み106が付与された画像領域に対してのみ、第1重み104及び第2重み106に応じた合成処理が行われるようにしてもよい。但し、これは、あくまでも一例に過ぎず、第1画像75Dの全画像領域に対して第1重み104が付与され、第2画像75Eの全画像領域に対して第2重み106が付与され、第1画像75Dの全画像領域と第2画像75Eの全画像領域に対して第1重み104及び第2重み106に応じた合成処理が行われるようにしてもよい。
このように、本第3変形例では、推論用RAW画像75A2に写り込んでいる被写体が検出され、検出された被写体に応じて第1重み104及び第2重み106が変更される。従って、本構成によれば、推論用RAW画像75A2に写り込んでいる被写体とは全く無関係な情報のみに依拠して定められた一定の重みが用いられる場合に比べ、推論用RAW画像75A2に写り込んでいる被写体に起因する画質の低下を抑制することができる。
[第4変形例]
CPU62は、推論用RAW画像75A2に基づいて、推論用RAW画像75A2に写り込んでいる被写体の部位を検出し、検出した部位に応じて第1重み104及び第2重み106を変更するようにしてもよい。この場合、一例として図13に示すように、NVM64には、重み導出テーブル116が記憶されており、重み導出部62Cは、NVM64から重み導出テーブル116を読み出し、重み導出テーブル116を参照して第1重み104及び第2重み106を導出する。重み導出テーブル116は、複数の被写体の部位と複数の第1重み104とが1対1で対応付けられたテーブルである。
重み導出部62Cは、被写体部位検出機能を有する。重み導出部62Cは、被写体部位検出機能を働かせることで、推論用RAW画像75A2に写り込んでいる被写体の部位(例えば、人物の顔、及び/又は人物の瞳等)を検出する。被写体の部位の検出は、AI方式の検出であってもよいし、非AI方式の検出(例えば、テンプレートマッチングによる検出)であってもよい。
重み導出部62Cは、検出した被写体の部位に対応する第1重み104を重み導出テーブル116から導出し、導出した第1重み104から第2重み106を算出する。重み導出テーブル114には、被写体の部位毎に異なる第1重み104が対応付けられているので、第1画像75Dに対して適用される第1重み104、及び第2画像75Eに対して適用される第2重み106は、推論用RAW画像75A2から検出された被写体の部位に応じて変更される。
なお、重み付与部62Dは、第1画像75Dの全画像領域のうちの重み導出部62Cによって検出された被写体の部位を示す画像領域に対してのみ、第1重み104を付与し、第2画像75Eの全画像領域のうちの重み導出部62Cによって検出された被写体の部位を示す画像領域に対してのみ、第2重み106を付与するようにしてもよい。そして、第1重み104が付与された画像領域と第2重み106が付与された画像領域に対してのみ、第1重み104及び第2重み106に応じた合成処理が行われるようにしてもよい。但し、これは、あくまでも一例に過ぎず、第1画像75Dの全画像領域に対して第1重み104が付与され、第2画像75Eの全画像領域に対して第2重み106が付与され、第1画像75Dの全画像領域と第2画像75Eの全画像領域に対して第1重み104及び第2重み106に応じた合成処理が行われるようにしてもよい。
このように、本第4変形例では、推論用RAW画像75A2に写り込んでいる被写体の部位が検出され、検出された部位に応じて第1重み104及び第2重み106が変更される。従って、本構成によれば、推論用RAW画像75A2に写り込んでいる被写体の部位とは全く無関係な情報のみに依拠して定められた一定の重みが用いられる場合に比べ、推論用RAW画像75A2に写り込んでいる被写体の部位に起因する画質の低下を抑制することができる。
[第5変形例]
CPU62は、第1画像75Dの特徴値と第2画像75Eの特徴値との相違度に応じて第1重み104及び第2重み106を変更するようにしてもよい。一例として図14に示すように、重み導出部62Cは、第1画像75Dの特徴値として第1画像75Dの分割エリア75D1毎の画素平均値を算出し、第2画像75Eの特徴値として第2画像75Eの分割エリア75E1毎の画素平均値を算出する。重み導出部62Cは、互いの位置が対応している分割エリア75D1及び75E1毎に、第1画像75Dの特徴値と第2画像75Eの特徴値との相違度として画素平均値の差分(以下、単に「差分」とも称する)を算出する。
重み導出部62Cは、重み導出テーブル118を参照して第1重み104を導出する。重み導出テーブル118には、複数の差分と複数の第1重み104とが1対1で対応付けられている。重み導出部62Cは、分割エリア75D1及び75E1毎に、算出した差分に対応する第1重み104を重み導出テーブル118から導出し、導出した第1重み104から第2重み106を算出する。重み導出テーブル118には、差分毎に異なる第1重み104が対応付けられているので、第1画像75Dに対して適用される第1重み104、及び第2画像75Eに対して適用される第2重み106は、差分に応じて変更される。
このように、本第5変形例では、第1画像75Dの特徴値と第2画像75Eの特徴値との相違度に応じて第1重み104及び第2重み106が変更される。従って、本構成によれば、第1画像75Dの特徴値と第2画像75Eの特徴値との相違度とは全く無関係な情報のみに依拠して定められた一定の重みが用いられる場合に比べ、第1画像75Dの特徴値と第2画像75Eの特徴値との相違度に起因する画質の低下を抑制することができる。
なお、本第5変形例では、分割エリア75D1及び75E1毎に画素平均値の差分が算出される形態例を挙げて説明したが、本開示の技術はこれに限定されず、1フレーム毎に画素平均値の差分が算出されるようにしてもよいし、画素毎に画素値の差分が算出されるようにしてもよい。
また、本第5変形例では、第1画像75Dの特徴値及び第2画像75Eの特徴値として画素平均値を例示したが、本開示の技術はこれに限定されず、画素中央値又は画素最頻値等であってもよい。
また、本第5変形例では、重み導出テーブル118を例示したが、本開示の技術はこれに限定されず、差分を独立変数とし、第1重み104を従属変数とする演算式を用いてもよい。
[第6変形例]
学習済みNN82は、撮像シーン毎に設けられていてもよい。この場合、一例として図15に示すように、複数の学習済みNN82がNVM64に記憶されている。NVM64内の学習済みNN82は撮像シーン毎に作成されている。各学習済みNN82には、ID82Aが付与されている。ID82Aは、学習済みNN82を特定可能な識別子である。CPU62は、撮像シーン毎に、使用する学習済みNN82を切り替え、使用する学習済みNN82に応じて第1重み104及び第2重み106を変更する。
図15に示す例では、NVM64に、NN決定テーブル120及びNN別重みテーブル122が記憶されている。NN決定テーブル120には、複数の撮像シーンと複数のID82Aとが1対1で対応付けられている。NN別重みテーブル122には、複数のID82Aと複数の第1重み104とが1対1で対応付けられている。
一例として図16に示すように、AI方式処理部62Aは、撮像シーン検出機能を有する。AI方式処理部62Aは、撮像シーン検出機能を働かせることで、推論用RAW画像75A2に写り込んでいるシーンを撮像シーンとして検出する。撮像シーンの検出は、AI方式の検出であってもよいし、非AI方式の検出(例えば、テンプレートマッチングによる検出)であってもよい。なお、撮像シーンは、受付デバイス76によって受け付けられた指示に従って決定されるようにしてもよい。
AI方式処理部62Aは、検出した撮像シーンに対応するID82AをNN決定テーブル120から導出し、導出したID82Aから特定される学習済みNN82をNVM64から取得する。そして、AI方式処理部62Aは、撮像シーンの検出対象とされた推論用RAW画像75A2を学習済みNN82に入力することにより第1画像75Dを取得する。
一例として図17に示すように、重み導出部62Cは、AI方式処理部62Aで使用されている学習済みNN82のID82Aに対応する第1重み104をNN別重みテーブル122から導出し、導出した第1重み104から第2重み106を算出する。NN別重みテーブル122には、ID82A毎に異なる第1重み104が対応付けられているので、第1画像75Dに対して適用される第1重み104、及び第2画像75Eに対して適用される第2重み106は、AI方式処理部62Aで使用されている学習済みNN82に応じて変更される。
本第6変形例では、学習済みNN82が撮像シーン毎に設けられており、撮像シーン毎に、AI方式処理部62Aで使用される学習済みNN82が切り替えられる。そして、AI方式処理部62Aで使用されている学習済みNN82に応じて第1重み104及び第2重み106が変更される。従って、本構成によれば、撮像シーン毎に学習済みNN82が切り替えられたとしても常に一定の重みが用いられる場合に比べ、撮像シーン毎に学習済みNN82が切り替えられることに伴って画質が低下することを抑制することができる。
なお、本第6変形例では、NN決定テーブル120とNN別重みテーブル122とが別個のテーブルとされているが、1つのテーブルにまとめてもよい。この場合、例えば、撮像シーン毎に、ID82A及び第1重み104が1対1で対応付けられたテーブルであればよい。
[第7変形例]
CPU62は、既定の画像特性パラメータについて、学習済みNN82に入力される推論用RAW画像75A2を正規化するようにしてよい。画像特性パラメータは、学習済みNN82に入力される推論用RAW画像75A2を得る撮像で用いられるイメージセンサ20及び撮像条件に応じて定まるパラメータである。本第7変形例では、一例として図18に示すように、画像特性パラメータは、各画素のビット数(以下、「画像特性ビット数」とも称する、及びオプティカルブラックに関するオフセット値(以下、「OBオフセット値」とも称する)である。例えば、画像特性ビット数は、14ビットであり、OBオフセット値は、1024LSBである。
一例として図18に示すように、学習実行システム124は、図4に示す学習実行システム84に比べ、学習実行装置88に代えて学習実行装置126を適用した点が異なる。学習実行装置126は、学習実行装置88に比べ、正規化処理部128を有する点が異なる。
正規化処理部128は、記憶装置86から学習用RAW画像75A1を取得し、取得した学習用RAW画像75A1を画像特性パラメータについて正規化する。例えば、正規化処理部128は、記憶装置86から取得した学習用RAW画像75A1の画像特性ビット数を14ビットに合わせ、学習用RAW画像75A1のOBオフセット値1024LSBに合わせる。正規化処理部128は、画像特性パラメータについて正規化した学習用RAW画像75A1をNN90に入力する。これにより、図4に示す例と同様に学習済みNN82が生成される。学習済みNN82には、正規化に用いられた画像特性パラメータ、すなわち、画像特性ビット数の14ビット及びOBオフセット値の1024LSBが関連付けられている。なお、画像特性ビット数の14ビット及びOBオフセット値の1024LSBは、本開示の技術に係る「第1パラメータ」の一例である。以下では、説明の便宜上、学習済みNN82に関連付けられている画像特性ビット数及びOBオフセット値を区別して説明する必要がない場合、第1パラメータと称する。
一例として図19に示すように、AI方式処理部62Aは、正規化処理部130及びパラメータ復元部132を有する。正規化処理部130は、第1パラメータと、推論用RAW画像75A2の画像特性ビット数及びOBオフセット値である第2パラメータとを用いて推論用RAW画像75A2を正規化する。
なお、本第7変形例において、撮像装置10は、本開示の技術に係る「第1撮像装置」及び「第2撮像装置」の一例である。また、正規化処理部128によって正規化された学習用RAW画像75A1は、本開示の技術に係る「学習用画像」の一例である。また、学習用RAW画像75A1は、本開示の技術に係る「第1RAW画像」の一例である。また、推論用RAW画像75A2は、本開示の技術に係る「推論用画像」及び「第2RAW画像」の一例である。
正規化処理部130は、次の数式(1)を用いて推論用RAW画像75A2を正規化する。数式(1)において、“B”は、学習済みNN82に関連付けられている画像特性ビット数であり、“O”は、学習済みNN82に関連付けられているOBオフセット値であり、 “B”は、推論用RAW画像75A2の画像特性ビット数であり、“O”は、推論用RAW画像75A2のOBオフセット値であり、“P”は、推論用RAW画像75A2の画素値であり、“P”は、推論用RAW画像75A2の正規化後の画素値である。
正規化処理部130は、数式(1)を用いて正規化した推論用RAW画像75A2を学習済みNN82に入力する。学習済みNN82に推論用RAW画像75A2が入力されることによって学習済みNN82から、第1パラメータで規定された第1画像75Dとして、正規化後ノイズ調整画像134が出力される。
パラメータ復元部132は、正規化後ノイズ調整画像134を取得する。そして、パラメータ復元部132は、第1パラメータ及び第2パラメータを用いて、正規化後ノイズ調整画像134を第2パラメータの画像に調整する。すなわち、パラメータ復元部132は、次の数式(2)を用いて、正規化後ノイズ調整画像134の画像特性ビット数及びOBオフセット値から、正規化処理部130によって正規化される前の画像特性ビット数及びOBオフセット値を復元する。数式(2)に従って復元した第2パラメータで規定された正規化後ノイズ調整画像134は、第1重み104が付与される画像として用いられる。数式(2)において、“P”は、推論用RAW画像75A2が正規化処理部130によって正規化される前の画像特性ビット数及びOBオフセット値に復元された後の画素値である。
このように、本第7変形例では、既定の画像特性パラメータについて、学習済みNN82に入力される推論用RAW画像75A2が正規化される。従って、本構成によれば、画像特性パラメータについて正規化されていない推論用RAW画像75A2が学習済みNN82に入力される場合に比べ、学習済みNN82に入力される推論用RAW画像75A2の画像特性パラメータの違いに起因する画質の低下を抑制することができる。
また、本第7変形例では、NN90を学習させる場合にNN90に入力される学習用画像として、画像特性パラメータについて正規化処理部128によって正規化された学習用RAW画像75A1が用いられている。従って、本構成によれば、画像特性パラメータについて正規化されていない学習用RAW画像75A1がNN90の学習用画像として用いられる場合に比べ、画像特性パラメータが、NN90に学習用画像として入力される学習用RAW画像75A1毎に異なることに起因する画質の低下を抑制することができる。
また、本第7変形例では、学習済みNN82に入力される推論用画像として、画像特性パラメータについて正規化処理部130によって正規化された推論用RAW画像75A2が用いられている。従って、本構成によれば、画像特性パラメータについて正規化されていない推論用RAW画像75A2が学習済みNN82の推論用画像として用いられる場合に比べ、学習済みNN82に入力される推論用RAW画像75A2の画像特性パラメータの違いに起因する画質の低下を抑制することができる。
更に、本第7変形例では、学習済みNN82から出力された正規化後ノイズ調整画像134の画像特性パラメータが、正規化処理部130によって正規化される前の推論用RAW画像75A2の第2パラメータに復元される。そして、第2パラメータに復元された正規化後ノイズ調整画像134が、第1重み104の付与対象とされる第1画像75Dとして用いられる。従って、本構成によれば、正規化後ノイズ調整画像134の画像特性パラメータが、正規化処理部130によって正規化される前の推論用RAW画像75A2の第2パラメータに復元されない場合に比べ、画質の低下を抑制することができる。
なお、本第7変形例では、学習用RAW画像75A1の画像特性ビット数及びOBオフセット値の両方が正規化される形態例を挙げて説明したが、本開示の技術はこれに限定されず、学習用RAW画像75A1の画像特性ビット数又はOBオフセット値が正規化されるようにしてもよい。
また、本第7変形例は、推論用RAW画像75A2の画像特性ビット数及びOBオフセット値の両方が正規化される形態例を挙げて説明したが、本開示の技術はこれに限定されず、推論用RAW画像75A2の画像特性ビット数又はOBオフセット値が正規化されるようにしてもよい。なお、学習段階で学習用RAW画像75A1の画像特性ビット数が正規化された場合、推論用RAW画像75A2の画像特性ビット数が正規化されるようにし、学習段階で学習用RAW画像75A1のOBオフセット値が正規化された場合、推論用RAW画像75A2のOBオフセット値が正規化されるようにすることが好ましい。
また、本第7変形例では、正規化を例示したが、これは、あくまでも一例に過ぎず、正規化に代えて第1画像75D及び第2画像75Eに対して付与する重みを変えるようにしてもよい。
また、本第7変形例では、学習済みNN82に入力される推論用RAW画像75A2が正規化されるので、画像特性パラメータが互いに異なる複数の推論用RAW画像75A2を1つの学習済みNN82に対して適用したとしても、画像特性パラメータのばらつきに起因する画質の低下を抑制することができるが、本開示の技術はこれに限定されない。例えば、画像特性パラメータ毎に学習済みNN82がNVM64に記憶されていてもよい。この場合、推論用RAW画像75A2の画像特性パラメータに応じて、学習済みNN82を使い分ければよい。
また、本第7変形例では、学習用RAW画像75A1が正規化処理部128によって正規化される形態例が挙げられているが、学習用RAW画像75A1の正規化は必須ではない。すなわち、NN90に入力される全ての学習用RAW画像75A1が一定の画像特性パラメータ(例えば、画像特性ビット数の14ビット及びOBオフセット値の1024LSB)の画像であれば、正規化処理部128は不要である。
[第8変形例]
CPU62は、第1画像75D及び第2画像75Eに対して、指定された設定値に従って信号処理を行い、設定値は、第1画像75Dに対して信号処理を行う場合と第2画像75Eに対して信号処理を行う場合とで異なるようにしてもよい。この場合、一例として図20に示すように、CPU62は、パラメータ調整部62Gを更に有する。パラメータ調整部62Gは、輝度処理部62F7に対して設定される輝度フィルタパラメータを、第1画像75Dに対して信号処理部62Fによって信号処理が行われる場合と第2画像75Eに対して信号処理部62Fによって信号処理が行われる場合とで異ならせる。なお、輝度フィルタパラメータは、本開示の技術に係る「設定値」の一例である。
信号処理部62Fには、第1画像75D、第2画像75E、及び合成画像75Fが選択的に入力される。信号処理部62Fに第1画像75D、第2画像75E、及び合成画像75Fが選択的に入力されるようにするには、例えば、CPU62が第1重み104を変更すればよい。例えば、第1重み104が“0”の場合、第1画像75D、第2画像75E、及び合成画像75Fのうちの第2画像75Eのみが信号処理部62Fに入力される。また、例えば、第1重み104が“1”の場合、第1画像75D、第2画像75E、及び合成画像75Fのうちの第1画像75Dのみが信号処理部62Fに入力される。更に、例えば、第1重み104が“0”よりも大きく“1”未満の場合、第1画像75D、第2画像75E、及び合成画像75Fのうちの合成画像75Fのみが信号処理部62Fに入力される。
第1重み104が“0”の場合、パラメータ調整部62Gは、輝度フィルタパラメータを、第2画像75Eの輝度の調整に特化した第1基準値に設定する。例えば、第1基準値は、デジタルフィルタ100(図5参照)の特性に起因して第2画像75Eから消失したシャープネスを補足することが可能な値である。
第1重み104が“1”の場合、パラメータ調整部62Gは、輝度フィルタパラメータを、第1画像75Dの輝度の調整に特化した第2基準値に設定する。例えば、第2基準値は、学習済みNN82(図7参照)の特性に起因して第1画像75Dから消失したシャープネスを補足することが可能な値である。
重み104が“0”よりも大きく“1”未満の場合、パラメータ調整部62Gは、上記実施形態で説明したように、重み導出部62Cによって導出された第1重み104及び第2重み106に応じて輝度フィルタパラメータを変更する。
このように、本第8変形例では、第1画像75Dに対して信号処理を行う場合と第2画像75Eに対して信号処理を行う場合とで輝度フィルタパラメータを異ならせている。従って、本構成によれば、第1画像75DのY信号及び第2画像75EのY信号に対して常に同じ輝度フィルタパラメータに従って輝度フィルタによるフィルタリングが行われる場合に比べ、AI方式ノイズ調整処理の影響を受けた第1画像75Dに適したシャープネス、及びAI方式ノイズ調整処理の影響を受けていない第2画像75Eに適したシャープネスを実現することができる。
また、本第8変形例では、第1重み104が“1”の場合及び第1重み104が“0”を上回り“1”未満の場合に、AI方式ノイズ調整処理によって失われたシャープネスを補う処理として、輝度処理部62F7による第1画像75DのY信号に対して、輝度フィルタを用いたフィルタリングが行われる。従って、本構成によれば、AI方式ノイズ調整処理によって失われたシャープネスを補う処理が第1画像75Dに対して行われない場合に比べ、鮮鋭度の高い画像を得ることができる。
なお、本第8変形例では、第1画像75Dに対して信号処理が行われる場合と第2画像75Eに対して信号処理が行われる場合とで輝度フィルタパラメータを異ならせる形態例を挙げて説明したが、本開示の技術はこれに限定されず、オフセット補正処理で用いられるパラメータ、ホワイトバランス補正処理で用いられるパラメータ、デモザイク処理で用いられるパラメータ、色補正処理で用いられるパラメータ、ガンマ補正処理で用いられるパラメータ、第1色差フィルタパラメータ、第2色差フィルタパラメータ、リサイズ処理で用いられるパラメータ、及び/又は、圧縮処理で用いられるパラメータが第1画像75Dに対して信号処理が行われる場合と第2画像75Eに対して信号処理が行われる場合とで異ならせるようにしてもよい。また、信号処理部62Fに、画像のシャープネスを調整するシャープネス処理を行うシャープネス補正処理部(図示省略)が設けられている場合、シャープネス補正処理部で用いられるパラメータ(例えば、シャープネスを強調する度合いを調整可能なパラメータ)を、第1画像75Dに対して信号処理が行われる場合と第2画像75Eに対して信号処理が行われる場合とで異ならせるようにしてもよい。
[第9変形例]
学習済みNN82は、暗い画像領域よりも明るい画像領域についてノイズと微細構造との判別がし難い、という性質を有している。この性質は、学習済みNN82の層構造が簡素化されるほど、顕著に現れる。暗い画像領域よりも明るい画像領域についてノイズと微細構造との判別がし難いと、学習済みNN82によって微細構造がノイズとして判別されて除去されるので、シャープネスが不足した画像が第1画像75Dとして得られることが予想される。第1画像75Dのシャープネスが不足する原因の1つとしては、微細構造を形成している輝度の不足が考えられる。なぜならば、輝度は、色に比べ、微細構造の形成に寄与する度合いが大きいにも関わらず、学習済みNN82によってノイズとして判別されて除去される可能性が高いからである。
そこで、本第9変形例では、合成処理で合成対象とされる第1画像75D及び第2画像75EをY信号、Cb信号、及びCr信号で表現された画像に変換し、第1画像75DのY信号よりも第2画像75EのY信号の重みを大きくし、第2画像75EのCb信号及びCr信号よりも第1画像のCb信号及びCrの重みを大きくするように第1画像75D及び第2画像75Eに対して信号処理が行われる。具体的には、第1重み104及び第2重み106に従って、Y信号の信号レベルについては第1画像75Dよりも第2画像75Eを高くし、Cb信号及びCr信号の信号レベルについては第2画像75Eよりも第1画像75Dを高くするように第1画像75D及び第2画像75Eに対して信号処理が行われる。
この場合、一例として図21に示すように、CPU62は、上記実施形態で説明した合成部62E及び信号処理部62Fに代えて信号処理部62Hを有する。信号処理部62Hは、第1画像処理部62H1、第2画像処理部62H2、合成処理部62H3、リサイズ処理部62H4、及び圧縮処理部62H5を有する。第1画像処理部62H1は、AI方式処理部62Aから第1画像75Dを取得し、第1画像75Dに対して信号処理を行う。第2画像処理部62H2は、非AI方式処理部62Bから第2画像75Eを取得し、第2画像75Eに対して信号処理を行う。合成処理部62H3は、上述した合成部62Eと同様に、合成処理を行う。すなわち、合成処理部62H3は、第1画像処理部62H1によって信号処理が行われた第1画像75Dと、第2画像処理部62H2によって信号処理が行われた第2画像75Eとを合成することで、上述した合成画像75Fを生成する。リサイズ処理部62H4は、合成処理部62H3によって生成された合成画像75Fに対して、上述したリサイズ処理を行う。圧縮処理部62H5は、リサイズ処理部62H4によってリサイズ処理が行われた合成画像75Fに対して、上述した圧縮処理を行う。圧縮処理が行われることによって、上述したように処理済み画像75B(図2、図8及び図20参照)が得られる。
一例として図22に示すように、第1画像処理部62H1は、上述したオフセット補正部62F1と同様の機能を有するオフセット補正部62H1a、上述したホワイトバランス補正部62F2と同様の機能を有するホワイトバランス補正部62H1b、上述したデモザイク処理部62F3と同様の機能を有するデモザイク処理部62H1c、上述した色補正部62F4と同様の機能を有する色補正部62H1d、上述したガンマ補正部62F5と同様の機能を有するガンマ補正部62H1e、色空間変換部62F6と同様の機能を有する色空間変換部62H1f、及び第1画像用重み付与部62iを備えている。第1画像用重み付与部62iは、上述した輝度処理部62F7と同様の機能を有する輝度処理部62H1g、上述した色差処理部62F8と同様の機能を有する色差処理部62H1h、及び上述した色差処理部62F9と同様の機能を有する色差処理部62H1iを有する。
AI方式処理部62Aから第1画像処理部62H1に第1画像75Dが入力されると(図21参照)、第1画像75Dに対して、オフセット補正処理、ホワイトバランス処理、デモザイク処理、色補正処理、ガンマ補正処理、及び色空間変換処理がシーケンシャルに行われる。
輝度処理部62H1gは、輝度フィルタパラメータに従って、Y信号に対して輝度フィルタを用いたフィルタリングを行う。第1画像用重み付与部62iは、重み導出部62Cから第1重み104を取得し、取得した第1重み104を輝度処理部62H1gから出力されるY信号に対して設定する。これにより、第1画像用重み付与部62iは、第2画像75EのY信号(図23及び図24参照)よりも信号レベルが低いY信号を生成する。
色差処理部62H1hは、第1色差フィルタパラメータに従って、Cb信号に対して第1色差フィルタを用いたフィルタリングを行う。
色差処理部62H1iは、第2色差フィルタパラメータに従って、Cr信号に対して第2色差フィルタを用いたフィルタリングを行う。
第1画像用重み付与部62iは、重み導出部62Cから第2重み106を取得し、取得した第2重み106を、色差処理部62H1hから出力されるCb信号及び色差処理部62H1iから出力されるCr信号に設定する。これにより、第1画像用重み付与部62iは、第2画像75EのCb信号(図23及び図24参照)よりも信号レベルが高いCb信号を生成し、第2画像75EのCr信号(図23及び図24参照)よりも信号レベルが高いCr信号を生成する。
一例として図23に示すように、第2画像処理部62H2は、上述したオフセット補正部62F1と同様の機能を有するオフセット補正部62H2a、上述したホワイトバランス補正部62F2と同様の機能を有するホワイトバランス補正部62H2b、上述したデモザイク処理部62F3と同様の機能を有するデモザイク処理部62H2c、上述した色補正部62F4と同様の機能を有する色補正部62H2d、上述したガンマ補正部62F5と同様の機能を有するガンマ補正部62H2e、色空間変換部62F6と同様の機能を有する色空間変換部62H2f、及び第2画像用重み付与部62jを備えている。第1画像用重み付与部62jは、上述した輝度処理部62F7と同様の機能を有する輝度処理部62H2g、上述した色差処理部62F8と同様の機能を有する色差処理部62H2h、及び上述した色差処理部62F9と同様の機能を有する色差処理部62H2iを有する。
非AI方式処理部62Bから第2画像処理部62H2に第2画像75Eが入力されると(図21参照)、第2画像75Eに対して、オフセット補正処理、ホワイトバランス処理、デモザイク処理、色補正処理、ガンマ補正処理、及び色空間変換処理がシーケンシャルに行われる。
輝度処理部62H2gは、輝度フィルタパラメータに従って、Y信号に対して輝度フィルタを用いたフィルタリングを行う。第2画像用重み付与部62jは、重み導出部62Cから第1重み104を取得し、取得した第1重み104を、輝度処理部62H2gから出力されるY信号に対して設定する。これにより、第2画像用重み付与部62jは、第画像75のY信号(図22及び図24参照)よりも信号レベルが高いY信号を生成する。
色差処理部62H2hは、第2色差フィルタパラメータに従って、Cb信号に対して第2色差フィルタを用いたフィルタリングを行う。
色差処理部62H2iは、第2色差フィルタパラメータに従って、Cr信号に対して第2色差フィルタを用いたフィルタリングを行う。
第2画像用重み付与部62jは、重み導出部62Cから第2重み106を取得し、取得した第2重み106を色差処理部62H2hから出力されるCb信号及び色差処理部62H2iから出力されるCr信号に設定する。これにより、第2画像用重み付与部62jは、第1画像75DのCb信号(図22及び図24参照)よりも信号レベルが低いCb信号を生成し、第画像75のCr信号(図22及び図24参照)よりも信号レベルが低いCr信号を生成する。
一例として図24に示すように、合成処理部62H3は、第1画像75Dとして第1画像用重み付与部62iからY信号、Cb信号、及びCr信号を取得し、第2画像75Eとして第2画像用重み付与部62jからY信号、Cb信号、及びCr信号を取得する。そして、合成処理部62H3は、Y信号、Cb信号、及びCr信号で表現された第1画像75Dと、Y信号、Cb信号、及びCr信号で表現された第2画像75Eとを合成することで、Y信号、Cb信号、及びCr信号で表現された合成画像75Fを生成する。リサイズ処理部62H4は、合成処理部62H3によって生成された合成画像75Fに対して、上述したリサイズ処理を行う。圧縮処理部62H5は、リサイズ処理が行われた合成画像75Fに対して、上述した圧縮処理を行う。
このように、本第9変形例では、Y信号の信号レベルについては第1画像75Dよりも第2画像75Eを高くし、Cb信号及びCr信号の信号レベルについては第2画像75Eよりも第1画像75Dを高くするように第1画像75D及び第2画像75Eに対して信号処理が行われる。これにより、Y信号の信号レベルについては第1画像75Dよりも第2画像75Eを低くし、Cb信号及びCr信号の信号レベルについては第2画像75Eよりも第1画像75Dを低くするように第1画像75D及び第2画像75Eに対して信号処理が行われる場合に比べ、画像に含まれるノイズの除去不足の抑制と、画像のシャープネス不足の抑制との両立を図ることができる。
なお、本第9変形例では、Y信号の信号レベルについては第1画像75Dよりも第2画像75Eをくし、Cb信号及びCr信号の信号レベルについては第2画像75Eよりも第1画像75Dをくするように第1画像75D及び第2画像75Eに対して信号処理が行われる形態例を挙げたが、本開示の技術はこれに限定されない。例えば、Y信号の信号レベルについて第1画像75Dよりも第2画像75Eを低くする第1処理、及びCb信号及びCr信号の信号レベルについて第2画像75Eよりも第1画像75Dを低くする第2処理のうち、第1処理のみが行われるようにしてもよい。
また、本第9変形例では、第1画像用重み付与部62iから得られたY信号、Cb信号、及びCr信号が第1画像75Dとして用いられる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、合成処理で合成対象とされる第1画像75Dとして、推論用RAW画像75A2に対してAI方式ノイズ調整処理が行われることで得られたCb信号及びCr信号により示される画像が用いられるようにしてもよい。この場合、例えば、輝度処理部62H1gから出力される信号に対する重みを“0”にすればよい。従って、本構成によれば、第1画像75DとしてY信号が用いられる場合に比べ、輝度に起因するノイズを抑制することができる。
また、本第9変形例では、第2画像用重み付与部62jから得られたY信号、Cb信号、及びCr信号が第2画像75Eとして用いられる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、合成処理で合成対象とされる第2画像75Eとして、推論用RAW画像75A2に対してAI方式ノイズ調整処理が行われず得られたY信号により示される画像が用いられるようにしてもよい。この場合、色差処理部62H2hから出力される信号に対する重みを“0”とし、かつ、色差処理部62H2iから出力される信号に対する重みも“0”とすればよい。従って、本構成によれば、第2画像75EとしてCb信号及びCr信号が含まれる画像と第1画像75Dとが合成されることで得られる合成画像75Fに比べ、第1画像75Dと第2画像75Eとが合成されることで得られる合成画像75Fの微細構造の鮮鋭度の低下を抑制することができる。
更に、本第9変形例では、第1画像用重み付与部62iから得られたY信号、Cb信号、及びCr信号が第1画像75Dとして用いられ、かつ、第2画像用重み付与部62jから得られたY信号、Cb信号、及びCr信号が第2画像75Eとして用いられる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、合成処理で合成対象とされる第1画像75Dとして、推論用RAW画像75A2に対してAI方式ノイズ調整処理が行われることで得られたCb信号及びCr信号により示される画像が用いられ、かつ、合成処理で合成対象とされる第2画像75Eとして、推論用RAW画像75A2に対してAI方式ノイズ調整処理が行われず得られたY信号により示される画像が用いられるようにしてもよい。この場合、例えば、輝度処理部62H1gから出力される信号に対する重みを“0”とし、色差処理部62H2hから出力される信号に対する重みを“0”とし、かつ、色差処理部62H2iから出力される信号に対する重みも“0”とすればよい。従って、本構成によれば、第1画像75DとしてY信号、Cb信号、及びCr信号が用いられ、かつ、第2画像75EとしてY信号、Cb信号、及びCr信号が用いられる場合に比べ、画像に含まれるノイズの除去不足の抑制と、画像のシャープネス不足の抑制との両立を図ることができる。
なお、上記実施形態(例えば、図7に示す例)では、推論用RAW画像75A2から非AI方式でノイズが調整されることによって得られた第2画像75Eに対して第2重み106が付与される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、一例として図25に示すように、推論用RAW画像75A2に対してノイズが調整されずに得られた画像、すなわち、推論用RAW画像75A2に対して第2重み106が付与されるようにしてもよい。この場合、推論用RAW画像75A2が本開示の技術に係る「第2画像」の一例である。
このように、推論用RAW画像75A2に対して第2重み106が付与されると、合成部62Eは、第1重み104及び第2重み106に応じて第1画像75Dと推論用RAW画像75A2とを合成する。第1画像75Dからは、学習済みNN82の性質上、輝度がノイズとして判別されることによって過剰に除去されてしまうが、第2重み106が付与された推論用RAW画像75A2には、輝度に起因するノイズが残存している。よって、第1画像75Dと推論用RAW画像75A2とが合成されることで、輝度不足に起因する微細構造の消失を回避することができる。
上記の各例では、撮像装置10に含まれる画像処理エンジン12のCPU62によって画質調整処理が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されず、画質調整処理を行うデバイスは、撮像装置10の外部に設けられていてもよい。この場合、一例として図26に示すように、撮像システム136を用いればよい。撮像システム136は、撮像装置10と外部装置138を備えている。外部装置138は、例えば、サーバである。サーバは、例えば、クラウドコンピューティングによって実現される。ここでは、クラウドコンピューティングを例示しているが、これは、あくまでも一例に過ぎず、例えば、サーバは、メインフレームによって実現されてもよいし、フォグコンピューティング、エッジコンピューティング、又はグリッドコンピューティング等のネットワークコンピューティングによって実現されてもよい。ここでは、外部装置138の一例として、サーバを挙げているが、これは、あくまでも一例に過ぎず、サーバに代えて、少なくとも1台のパーソナル・コンピュータ等を外部装置138として用いてもよい。
外部装置138は、CPU140、NVM142、RAM144、及び通信I/F146を備えており、CPU140、NVM142、RAM144、及び通信I/F146は、バス148で接続されている。通信I/F146は、ネットワーク150を介して撮像装置10に接続されている。ネットワーク150は、例えば、インターネットである。なお、ネットワーク150は、インターネットに限らず、WAN、及び/又は、イントラネット等のLANであってもよい。
NVM142には、画質調整処理プログラム80及び学習済みNN82が記憶されている。CPU140は、RAM144で画質調整処理プログラム80を実行する。CPU140は、RAM144上で実行する画質調整処理プログラム80に従って、上述した画質調整処理を行う。CPU140は、画質調整処理を行う場合に、上記の各例で説明したように学習済みNN82を用いて推論用RAW画像75A2を処理する。推論用RAW画像75A2は、例えば、撮像装置10からネットワーク150を介して外部装置138に送信される。外部装置138の通信I/F146は、推論用RAW画像75A2を受信する。CPU140は、通信I/F146によって受信された推論用RAW画像75A2に対して画質調整処理を行う。CPU140は、画質調整処理を行うことで合成画像75Fを生成し、生成した合成画像75Fを撮像装置10に送信する。撮像装置10は、外部装置138から送信された合成画像75を通信I/F52(図2参照)で受信する。
なお、図26に示す例において、外部装置138は、本開示の技術に係る「情報処理装置」の一例であり、CPU140は、本開示の技術に係る「プロセッサ」の一例であり、NVM142は、本開示の技術に係る「メモリ」の一例である。
また、画質調整処理は、撮像装置10及び外部装置138を含む複数の装置によって分散して行われるようにしてもよい。
また、上記実施形態では、CPU62を例示したが、CPU62に代えて、又は、CPU62と共に、他の少なくとも1つのCPU、少なくとも1つのGPU、及び/又は、少なくとも1つのTPUを用いるようにしてもよい。
上記実施形態では、NVM62に画質調整処理プログラム80が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、画質調整処理プログラム80がSSD又はUSBメモリなどの可搬型の非一時的記憶媒体に記憶されていてもよい。非一時的記憶媒体に記憶されている画質調整処理プログラム80は、撮像装置10の画像処理エンジン12にインストールされる。CPU62は、画質調整処理プログラム80に従って画質調整処理を実行する。
また、ネットワークを介して撮像装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置に画質調整処理プログラム80を記憶させておき、撮像装置10の要求に応じて画質調整処理プログラム80がダウンロードされ、画像処理エンジン12にインストールされるようにしてもよい。
なお、撮像装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はNVM62に画質調整処理プログラム80の全てを記憶させておく必要はなく、画質調整処理プログラム80の一部を記憶させておいてもよい。
また、図1及び図2に示す撮像装置10には画像処理エンジン12が内蔵されているが、本開示の技術はこれに限定されず、例えば、画像処理エンジン12が撮像装置10の外部に設けられるようにしてもよい。
上記実施形態では、画像処理エンジン12が例示されているが、本開示の技術はこれに限定されず、画像処理エンジン12に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、画像処理エンジン12に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
上記実施形態で説明した画質調整処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、画質調整処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで画質調整処理を実行する。
画質調整処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、画質調整処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、画質調整処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、画質調整処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、画質調整処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の画質調整処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
プロセッサと、
前記プロセッサに接続又は内蔵されたメモリと、を備え、
前記プロセッサは、
ニューラルネットワークを用いたAI方式で撮像画像を処理し、
前記撮像画像を前記AI方式で処理されることで得られた第1画像と、前記撮像画像が前記AI方式で処理されずに得られた第2画像とを合成する合成処理を行い、
前記第1画像の輝度信号よりも前記第2画像の輝度信号の重みを大きくする第1処理、及び前記第2画像の色差信号よりも前記第1画像の色差信号の重みを大きくする第2処理のうち、少なくとも前記第1処理を行う
情報処理装置。

Claims (26)

  1. プロセッサと、
    前記プロセッサに接続又は内蔵されたメモリと、を備え、
    前記プロセッサは、
    ニューラルネットワークを用いたAI方式で撮像画像に含まれるノイズを調整するAI方式ノイズ調整処理を行い、
    前記撮像画像が前記AI方式で処理されることで得られた第1画像と、前記撮像画像が前記AI方式で処理されずに得られた第2画像とを合成する合成処理を行うことで前記ノイズを調整する
    情報処理装置。
  2. 前記プロセッサは、前記ニューラルネットワークを用いない非AI方式で前記ノイズを調整する非AI方式ノイズ調整処理を行い、
    前記第2画像は、前記撮像画像について前記非AI方式ノイズ調整処理によって前記ノイズが調整されることで得られた画像である
    請求項に記載の情報処理装置。
  3. 前記第2画像は、前記撮像画像について前記ノイズが調整されずに得られた画像である
    請求項又は請求項に記載の情報処理装置。
  4. 前記プロセッサは、
    前記第1画像及び前記第2画像に対して重みを付与し、
    前記重みに応じて前記第1画像及び前記第2画像を合成する
    請求項から請求項の何れか一項に記載の情報処理装置。
  5. 前記重みは、前記第1画像に対して付与される第1重みと、前記第2画像に対して付与される第2重みとに類別され、
    前記プロセッサは、前記第1重み及び前記第2重みを用いた重み付け平均を行うことで前記第1画像及び前記第2画像を合成する
    請求項に記載の情報処理装置。
  6. 前記プロセッサは、前記撮像画像に関連する関連情報に応じて前記重みを変更する
    請求項又は請求項に記載の情報処理装置。
  7. 前記関連情報は、前記撮像画像を得る撮像で用いられたイメージセンサの感度に関連する感度関連情報を含む
    請求項に記載の情報処理装置。
  8. 前記関連情報は、前記撮像画像の明るさに関連する明るさ関連情報を含む
    請求項又は請求項に記載の情報処理装置。
  9. 前記明るさ関連情報は、前記撮像画像の少なくとも一部の画素統計値である
    請求項に記載の情報処理装置。
  10. 前記関連情報は、前記撮像画像の空間周波数を示す空間周波数情報を含む
    請求項から請求項の何れか一項に記載の情報処理装置。
  11. 前記プロセッサは、
    前記撮像画像に基づいて、前記撮像画像に写り込んでいる被写体を検出し、
    検出した前記被写体に応じて前記重みを変更する
    請求項から請求項10の何れか一項に記載の情報処理装置。
  12. 前記プロセッサは、
    前記撮像画像に基づいて、前記撮像画像に写り込んでいる被写体の部位を検出し、
    検出した前記部位に応じて前記重みを変更する
    請求項から請求項11の何れか一項に記載の情報処理装置。
  13. 前記ニューラルネットワークは、撮像シーン毎に設けられており、
    前記プロセッサは、
    前記撮像シーン毎に前記ニューラルネットワークを切り替え、
    前記ニューラルネットワークに応じて前記重みを変更する
    請求項から請求項12の何れか一項に記載の情報処理装置。
  14. 前記プロセッサは、前記第1画像の特徴値と前記第2画像の特徴値との相違度に応じて前記重みを変更する
    請求項から請求項13の何れか一項に記載の情報処理装置。
  15. 前記プロセッサは、前記ニューラルネットワークに入力される画像を得る撮像で用いられたイメージセンサ及び撮像条件に応じて定まる画像特性パラメータについて、前記ニューラルネットワークに入力される画像を正規化する
    請求項から請求項14の何れか一項に記載の情報処理装置。
  16. 前記ニューラルネットワークを学習させる場合に前記ニューラルネットワークに入力される学習用画像は、第1撮像装置によって撮像されることで得られた第1RAW画像のビット数及びオフセット値のうちの少なくとも1つの第1パラメータについて前記第1RAW画像が正規化された画像である
    請求項から請求項15の何れか一項に記載の情報処理装置。
  17. 前記撮像画像は、推論用画像であり、
    前記第1パラメータは、前記学習用画像が入力された前記ニューラルネットワークに関連付けられており、
    前記学習用画像が入力されることで学習が行われた前記ニューラルネットワークに、第2撮像装置によって撮像されることで得られた第2RAW画像が前記推論用画像として入力される場合、前記プロセッサは、前記学習用画像が入力された前記ニューラルネットワークに関連付けられている前記第1パラメータと、前記第2RAW画像のビット数及びオフセット値のうちの少なくとも1つの第2パラメータとを用いて前記第2RAW画像を正規化する
    請求項16に記載の情報処理装置。
  18. 前記第1画像は、前記第1パラメータ及び前記第2パラメータを用いて正規化された前記第2RAW画像について、前記学習用画像が入力されることで学習が行われた前記ニューラルネットワークを用いた前記AI方式ノイズ調整処理によって前記ノイズが調整されることで得られた正規化後ノイズ調整画像であり、
    前記プロセッサは、前記第1パラメータ及び前記第2パラメータを用いて前記正規化後ノイズ調整画像を、前記第2パラメータの画像に調整する
    請求項17に記載の情報処理装置。
  19. 前記プロセッサは、前記第1画像及び前記第2画像に対して、指定された設定値に従って信号処理を行い、
    前記設定値は、前記第1画像に対して前記信号処理を行う場合と前記第2画像に対して前記信号処理を行う場合とで異なる
    請求項から請求項18の何れか一項に記載の情報処理装置。
  20. 前記プロセッサは、前記AI方式ノイズ調整処理によって失われたシャープネスを補う処理を前記第1画像に対して行う
    請求項から請求項19の何れか一項に記載の情報処理装置。
  21. 前記合成処理で合成対象とされる前記第1画像は、前記撮像画像に対して前記AI方式ノイズ調整処理が行われることで得られた色差信号により示される画像である
    請求項から請求項20の何れか一項に記載の情報処理装置。
  22. 前記合成処理で合成対象とされる前記第2画像は、前記撮像画像に対して前記AI方式ノイズ調整処理が行われず得られた輝度信号により示される画像である
    請求項から請求項21の何れか一項に記載の情報処理装置。
  23. 前記合成処理で合成対象とされる前記第1画像は、前記撮像画像に対して前記AI方式ノイズ調整処理が行われることで得られた色差信号により示される画像であり、
    前記第2画像は、前記撮像画像に対して前記AI方式ノイズ調整処理が行われず得られた輝度信号により示される画像である
    請求項から請求項22の何れか一項に記載の情報処理装置。
  24. プロセッサと、
    前記プロセッサに接続又は内蔵されたメモリと、
    イメージセンサと、を備え、
    前記プロセッサは、
    ニューラルネットワークを用いたAI方式で、前記イメージセンサによって撮像されることで得られた撮像画像に含まれるノイズを調整するAI方式ノイズ調整処理行い
    前記撮像画像が前記AI方式で処理されることで得られた第1画像と、前記撮像画像が前記AI方式で処理されずに得られた第2画像とを合成する合成処理を行うことで前記ノイズを調整する
    撮像装置。
  25. ニューラルネットワークを用いたAI方式で、イメージセンサによって撮像されることで得られた撮像画像に含まれるノイズを調整するAI方式ノイズ調整処理行うこと、及び、
    前記撮像画像が前記AI方式で処理されることで得られた第1画像と、前記撮像画像が前記AI方式で処理されずに得られた第2画像とを合成する合成処理を行うことで前記ノイズを調整すること
    を含む情報処理方法。
  26. コンピュータに、
    ニューラルネットワークを用いたAI方式で、イメージセンサによって撮像されることで得られた撮像画像に含まれるノイズを調整するAI方式ノイズ調整処理行うこと、及び、
    前記撮像画像が前記AI方式で処理されることで得られた第1画像と、前記撮像画像が前記AI方式で処理されずに得られた第2画像とを合成する合成処理を行うことで前記ノイズを調整することを含む処理を実行させるためのプログラム。
JP2022578269A 2021-01-29 2022-01-18 情報処理装置、撮像装置、情報処理方法、及びプログラム Active JP7476361B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021013874 2021-01-29
JP2021013874 2021-01-29
PCT/JP2022/001631 WO2022163440A1 (ja) 2021-01-29 2022-01-18 情報処理装置、撮像装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2022163440A1 JPWO2022163440A1 (ja) 2022-08-04
JPWO2022163440A5 JPWO2022163440A5 (ja) 2023-03-15
JP7476361B2 true JP7476361B2 (ja) 2024-04-30

Family

ID=82653400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022578269A Active JP7476361B2 (ja) 2021-01-29 2022-01-18 情報処理装置、撮像装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20230020328A1 (ja)
JP (1) JP7476361B2 (ja)
CN (1) CN115428435A (ja)
WO (1) WO2022163440A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180204051A1 (en) 2016-05-19 2018-07-19 Boe Technology Group Co., Ltd. Facial image processing apparatus, facial image processing method, and non-transitory computer-readable storage medium
JP2018206382A (ja) 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
JP2019208990A (ja) 2018-06-07 2019-12-12 キヤノンメディカルシステムズ株式会社 医用画像診断装置
JP2020144489A (ja) 2019-03-05 2020-09-10 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および、画像処理システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150063718A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorported Techniques for enhancing low-light images
CN109035163B (zh) * 2018-07-09 2022-02-15 南京信息工程大学 一种基于深度学习的自适应图像去噪方法
CN111008943B (zh) * 2019-12-24 2023-04-14 广州柏视医疗科技有限公司 低剂量dr图像降噪方法及系统
CN111192226B (zh) * 2020-04-15 2020-07-31 苏宁云计算有限公司 一种图像融合去噪方法及装置、系统
CN112215780B (zh) * 2020-10-28 2024-03-19 浙江工业大学 基于类特征修复融合的图像取证对抗性攻击防御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180204051A1 (en) 2016-05-19 2018-07-19 Boe Technology Group Co., Ltd. Facial image processing apparatus, facial image processing method, and non-transitory computer-readable storage medium
JP2018206382A (ja) 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
JP2019208990A (ja) 2018-06-07 2019-12-12 キヤノンメディカルシステムズ株式会社 医用画像診断装置
JP2020144489A (ja) 2019-03-05 2020-09-10 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および、画像処理システム

Also Published As

Publication number Publication date
WO2022163440A1 (ja) 2022-08-04
CN115428435A (zh) 2022-12-02
US20230020328A1 (en) 2023-01-19
JPWO2022163440A1 (ja) 2022-08-04

Similar Documents

Publication Publication Date Title
CN111698434B (zh) 图像处理设备及其控制方法和计算机可读存储介质
JP2004343519A (ja) 撮像装置および画像処理装置
JP5293206B2 (ja) 画像検索装置、画像検索方法及びプログラム
US10095941B2 (en) Vision recognition apparatus and method
JP5859061B2 (ja) 撮像装置、画像処理装置、および、これらの制御方法
US20230196530A1 (en) Image processing apparatus, image processing method, and image capture apparatus
JP6305194B2 (ja) 画像処理装置、撮像装置および画像処理方法
JP2008271024A (ja) 画像処理装置および方法並びにプログラム
JP7476361B2 (ja) 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP2023100811A (ja) 画像処理装置
JP6060552B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2006157599A (ja) 撮像装置
JP5316869B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5482427B2 (ja) 撮像装置、手ブレ補正方法、プログラム
JP7415079B2 (ja) 撮像装置、撮像方法、及びプログラム
JP4449692B2 (ja) 電子カメラ
JP6915166B2 (ja) 撮像素子、撮像装置、画像データ処理方法、及びプログラム
JP6314281B1 (ja) 画像処理方法及び前景領域取得方法
US20230188849A1 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
US8406558B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2018151415A (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP2023160153A (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP2024017409A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2010021835A (ja) 撮像装置
CN117336423A (zh) 图像处理装置、摄像装置、图像处理方法及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417

R150 Certificate of patent or registration of utility model

Ref document number: 7476361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150