JP7303896B2 - 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 - Google Patents

情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 Download PDF

Info

Publication number
JP7303896B2
JP7303896B2 JP2021554529A JP2021554529A JP7303896B2 JP 7303896 B2 JP7303896 B2 JP 7303896B2 JP 2021554529 A JP2021554529 A JP 2021554529A JP 2021554529 A JP2021554529 A JP 2021554529A JP 7303896 B2 JP7303896 B2 JP 7303896B2
Authority
JP
Japan
Prior art keywords
image
resolution
processing
imaging
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021554529A
Other languages
English (en)
Other versions
JPWO2021090469A5 (ja
JPWO2021090469A1 (ja
Inventor
直 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2021090469A1 publication Critical patent/JPWO2021090469A1/ja
Publication of JPWO2021090469A5 publication Critical patent/JPWO2021090469A5/ja
Application granted granted Critical
Publication of JP7303896B2 publication Critical patent/JP7303896B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法等に関する。
低解像撮像素子により撮像された入力画像から、あたかも高解像撮像素子により撮像されたかのような高解像画像を、画像処理によって生成する超解像技術が知られている。特許文献1には、深層学習によって得られた学習済みモデルを用いて、入力画像を超解像する技術が開示されている。学習段階では、実際に高解像撮像素子により撮像された高解像画像を教師データとし、その高解像画像を単純縮小することで、推論時の入力画像に相当する低解像画像を生成する。低解像画像を学習モデルに入力し、学習モデルが出力する出力画像と、教師データである高解像画像とに基づいて深層学習を行う。
特許第6236731号公報
上記のように、特許文献1では、高解像画像を単純縮小することで低解像画像を生成している。この低解像画像は、実際に低解像撮像素子で撮影した画像とは性質が異なる。具体的には、光学系を考慮していない等の理由により、単純縮小により生成された低解像画像と低解像撮像素子で撮影した画像とで、解像感が異なる。このように、単純縮小により生成された低解像画像は、推論時の入力画像に相当する解像感を正確に再現できていないため、その低解像画像を用いて学習された学習済みモデルでは、低解像撮像素子により撮像された入力画像から高解像画像を高精度に復元できないという課題がある。
本発明の一態様は、学習済みモデルを記憶する記憶部と、処理部と、第1撮像系よりも低解像の撮像を行う第2撮像系によって撮像される処理対象画像を、前記処理部に入力する入力部と、を含み、前記学習済みモデルは、低解像学習用画像を高解像学習用画像に解像復元するように学習された学習済みモデルであり、前記高解像学習用画像は、所定被写体が前記第1撮像系により撮影された高解像の画像であり、前記低解像学習用画像は、前記高解像学習用画像を、低解像度化処理することで生成され、前記低解像度化処理は、前記所定被写体が前記第2撮像系により撮像されたかのような低解像の画像を生成する処理であって、前記第2撮像系の光学系の解像特性をシミュレートする光学系シミュレート処理を含み、前記処理部は、前記学習済みモデルを用いて、前記処理対象画像を、前記第1撮像系で撮像されたときの解像度に解像復元する情報処理システムに関係する。
また本発明の他の態様は、上記に記載の情報処理システムを有するプロセッサユニットと、前記プロセッサユニットに接続され、前記処理対象画像を撮像して前記入力部に送信する内視鏡スコープと、を含む内視鏡システムに関係する。
また本発明の更に他の態様は、第1撮像系よりも低解像の撮像を行う第2撮像系によって撮像される処理対象画像を、前記第1撮像系で撮像されたときの解像度に解像復元するように、コンピュータを機能させる学習済みモデルであって、前記学習済みモデルは、低解像学習用画像を高解像学習用画像に解像復元するように学習され、前記高解像学習用画像は、所定被写体が前記第1撮像系により撮影された高解像の画像であり、前記低解像学習用画像は、前記高解像学習用画像を、低解像度化処理することで生成され、前記低解像度化処理は、前記所定被写体が前記第2撮像系により撮像されたかのような低解像の画像を生成する処理であって、前記第2撮像系の光学系の解像特性をシミュレートする光学系シミュレート処理を含む学習済みモデルに関係する。
また本発明の更に他の態様は、上記に記載の学習済みモデルを記憶した情報記憶媒体に関係する。
また本発明の更に他の態様は、学習済みモデルを用いて解像復元を行う情報処理方法であって、前記学習済みモデルは、低解像学習用画像を高解像学習用画像に解像復元するように学習され、前記高解像学習用画像は、所定被写体が第1撮像系により撮影された高解像の画像であり、前記低解像学習用画像は、前記高解像学習用画像を、低解像度化処理することで生成され、前記低解像度化処理は、前記所定被写体が前記第2撮像系により撮像されたかのような低解像の画像を生成する処理であって、前記第2撮像系の光学系の解像特性をシミュレートする光学系シミュレート処理を含み、前記学習済みモデルを用いて、前記第1撮像系よりも低解像の撮像を行う前記第2撮像系によって撮像される処理対象画像を、前記第1撮像系で撮像されたときの解像度に解像復元する情報処理方法に関係する。
第1実施形態における情報処理システムの構成例と、モデル作成処理の処理フロー。 解像復元処理の処理フロー。 モデル作成処理の処理フロー。 低解像度化処理の処理フロー。 第2実施形態における情報処理システムの構成例と、モデル作成処理の処理フロー。 モデル作成処理の処理フロー。 第2実施形態の変形例における情報処理システムの構成例と、モデル作成処理の処理フロー。 モデル作成処理の処理フロー。 第3実施形態における情報処理システムの構成例と、モデル作成処理の処理フロー。 撮像情報検出処理及び解像復元処理の処理フロー。 第4実施形態における内視鏡システムの構成例と、モデル作成処理の処理フロー。 撮像情報検出処理及び解像復元処理の処理フロー。 第1変形例における情報処理システムの構成例、及びモデル作成処理の処理フロー。 補色型撮像素子の例。 混在型撮像素子の例。 第6変形例における情報処理システムの構成例、及びモデル作成処理の処理フロー。 学習装置の構成例。 内視鏡システムの第1構成例。 内視鏡システムの第2構成例。 第1手法のボケ処理の処理フロー。 第2手法のボケ処理の処理フロー。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。例えば、以下では情報処理システムを医療用内視鏡に適用する場合を例に説明するが、これに限定されず、本発明の情報処理システムを種々の撮影システム又は映像表示システムに適用できる。例えば、スチールカメラ、ビデオカメラ、テレビ受像機、顕微鏡、又は工業用内視鏡に、本発明の情報処理システムを適用できる。
1.第1実施形態
上述したように、機械学習を用いた超解像において、適切な低解像画像を生成できないと超解像の精度が低下するという課題がある。この課題について、内視鏡システムを例にとって説明する。
内視鏡は、プローブ径が小さくなるほど患者に対して低侵襲な検査を行える利点がある。プローブ径が小さい内視鏡の一例は経鼻内視鏡である。一方でプローブが小さくなるほどイメージャのサイズが小型となるため、解像度が低下する。このため、画像処理の一種である超解像技術を用いて経鼻内視鏡の解像度を向上させ、あたかもプローブが大きい内視鏡で撮像したかのような画像を生成することが考えられる。
上述した特許文献1のように、近年、低解像カラー画像から高解像カラー画像を生成する超解像技術において、深層学習を用いた手法により高精度な処理が可能となっている。深層学習においては、解像復元のパラメータを決定するために、高解像画像と低解像画像のセットが必要となる。高解像画像と低解像画像をそれぞれ撮影して獲得するのは量的及び質的に困難であるため、高解像画像をバイキュービック等の手法で単純縮小して低解像画像を生成する手法が多く用いられている。
内視鏡画像へ超解像を応用する場合においても、体腔内の高解像画像と低解像画像を位置ずれが無く、且つ大量に撮影するのは困難であるため、高解像画像から低解像画像を生成する処理が必要となる。しかしながら、バイキュービック等を用いた画像縮小処理では、実際に内視鏡画像を撮影する撮像系を考慮していないため、画像縮小処理で得られた低解像画像の解像感は、内視鏡画像の解像感と異なっている。このため、小型イメージャのような低解像のイメージャで撮影した画像から、高精度な超解像画像を復元できないという課題がある。
図1は、第1実施形態における情報処理システム100の構成例と、モデル作成処理S300の処理フローである。情報処理システム100は、処理対象画像10を処理部3に入力する入力部1と、学習済みモデル20を記憶する記憶部2と、解像復元処理を行う処理部3と、を含む。なお、入力部1、記憶部2、処理部3を、それぞれ入力装置、記憶装置、処理装置とも呼ぶ。
情報処理システム100は、学習済みモデル20を用いた推論を行うシステムである。本実施形態における推論は、処理対象画像10から高解像画像を解像復元する処理である。学習済みモデル20はモデル作成処理S300によって生成され、記憶部2に格納される。モデル作成処理S300は、例えば、情報処理システム100とは別の学習装置によって実行される。或いは、情報処理システム100は、学習段階においてモデル作成処理S300を実行し、推論段階において、学習済みモデル20を用いた推論を行ってもよい。この場合、情報処理システム100が学習装置を兼ねることになり、例えば処理部3が学習処理を実行する。
まず、情報処理システム100の構成を説明し、その後に推論処理のフロー及び学習処理のフローを説明する。
入力部1は、例えば撮像系から画像データを受信する画像データインターフェース、又はストレージから画像データを読み出すストレージインターフェース、又は情報処理システム100の外部から画像データを受信する通信インターフェース等である。入力部1は、取得した画像データを処理対象画像10として処理部3に入力する。入力部1が動画を取得する場合、動画のフレーム画像を処理対象画像10として処理部3に入力する。
記憶部2は記憶装置であり、例えば半導体メモリ、又はハードディスクドライブ、光学ディスクドライブ等である。記憶部2には、モデル作成処理S300により生成された学習済みモデル20が予め記憶されている。或いは、サーバ等の外部装置からネットワークを介して学習済みモデル20が情報処理システム100に入力され、その学習済みモデル20を記憶部2が記憶してもよい。
処理部3は、記憶部2に記憶された学習済みモデル20を用いて、処理対象画像10に対して解像復元処理S200を行うことで、処理対象画像10から高解像画像を復元する。復元された高解像画像は、処理対象画像10と同一被写体が写る画像であり、処理対象画像10よりも解像度が高い画像である。解像度とは、その画像に写る被写体がどれだけ微細に解像しているかを示す指標である。解像度は、例えば画像の画素数、撮像に用いられた光学系の性能、撮像に用いられた撮像素子の形式、及び画像に施される画像処理の内容等に依存する。
解像復元の目標となる解像度の撮像系を第1撮像系とする。処理対象画像10は、第1撮像系よりも低解像な第2撮像系によって撮像される。処理対象画像10から復元された高解像画像は、処理対象画像10と同一な被写体を第1撮像系で撮像したかのような画像に相当する。撮像系は、被写体を結像させる光学系と、光学系により結像された被写体を撮像する撮像素子と、を含む。撮像素子をイメージャとも呼ぶ。撮像素子として、例えばモノクロ、ベイヤ型、補色型等の種々の形式を採用できる。例えば、第1撮像系は太径のスコープを備えた第1内視鏡の撮像系であり、第2撮像系は、第1内視鏡のスコープより細径のスコープを備えた第2内視鏡の撮像系である。
処理部3を構成するハードウェアは、例えば、CPU等の汎用プロセッサである。この場合、記憶部2は、推論アルゴリズムが記述されたプログラムと、その推論アルゴリズムに用いられるパラメータと、を学習済みモデル20として記憶する。或いは、処理部3は、推論アルゴリズムがハードウェア化された専用プロセッサであってもよい。専用プロセッサは例えばASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)等である。この場合、記憶部2は、推論アルゴリズムに用いられるパラメータを学習済みモデル20として記憶する。
推論アルゴリズムはニューラルネットワークを適用することができる。ニューラルネットワークにおけるノード間接続の重み係数がパラメータである。ニューラルネットワークは、画像データが入力される入力層と、入力層を通じて入力されたデータに対し演算処理を行う中間層と、中間層から出力される演算結果に基づいて画像データを出力する出力層と、を含む。解像復元処理S200に用いるニューラルネットワークとして、CNN(Convolutional Neural Network)が好適である。但し、CNNに限らず、様々なAI(Artificial Intelligence)技術を採用できる。
図2に、解像復元処理S200の処理フローを示す。
ステップS201において、処理部3は、入力部1から処理対象画像10を読み込む。ステップS202において、処理部3は、解像復元に用いる学習済みモデル20を記憶部2から読み込む。そして、ステップS203において、ステップS201で取得した処理対象画像10に対して、ステップS202で取得した学習済みモデル20を用いて解像復元処理を行い、高解像画像を生成する。なお、S201とS202の順序は入れ替わってもよい。
図3に、モデル作成処理S300の処理フローを示す。学習装置は、モデル作成処理S300を実行する処理部を含む。以下、この処理部を学習処理部と呼ぶこととする。
ステップS301において、学習処理部は高解像学習用画像30を読み込む。高解像学習用画像30は、上述した第1撮像系によって撮像された画像である。ステップS302、S303において、学習処理部は、低解像学習用画像40を生成する際に用いる光学系情報50と撮像素子情報60を読み込む。光学系情報50は、第1撮像系及び第2撮像系が有する光学系の解像度に関係する情報である。撮像素子情報60は、第1撮像系及び第2撮像系が有する撮像素子の解像度に関係する情報である。
ステップS304において、学習処理部は、ステップS302で取得した光学系情報及びステップS303で取得した撮像素子情報のうち少なくとも一方を用いて、ステップS301で取得した高解像学習用画像30に対して低解像度化処理を行い、低解像学習用画像40を生成する。低解像学習用画像40は、高解像学習用画像30と同一な被写体を第2撮像系で撮像したかのような画像に相当し、推論における処理対象画像10と同一画素数である。
ステップS305において、学習処理部は、ステップS301で取得した高解像学習用画像30とステップS304で取得した低解像学習用画像40を用いて、学習モデルに対する解像復元学習処理を行う。学習処理部は、複数の高解像学習用画像30を用いてステップS301~S305の学習処理を繰り返し実行し、その学習後の学習モデルを学習済みモデル20として出力する。学習処理に用いる学習モデルは、推論に用いる学習済みモデル20と同じアルゴリズムである。具体的には、学習モデルはCNNであり、学習処理部は、CNNの各層の重み値とバイアス値を算出し、それらの値を学習済みモデル20として保存する。
なお、ニューラルネットワークにおける機械学習のアルゴリズムとして、公知の種々な学習アルゴリズムを採用できる。例えば、誤差逆伝播法を用いた教師有り学習アルゴリズムを採用できる。
図4に、低解像度化処理S304の処理フローを示す。図4では、学習処理部は、光学系情報50及び撮像素子情報60を用いて、高解像学習用画像30から低解像学習用画像40を生成する。
ステップS401において、学習処理部は、高解像学習用画像30を取得した際の光学系情報50と、低解像学習用画像40で用いる光学系情報50を取得する。ここで、光学系情報50とは光学系の焦点距離や絞りを指す。学習処理部は、これらの条件の場合のPSF(Point Spread Function)又はOTF(Optical Transfer Function)を取得する。即ち、学習処理部は、第1撮像系の点広がり関数と、第2撮像系の点広がり関数とを取得する、或いは第1撮像系の光学伝達関数と、第2撮像系の光学伝達関数とを取得する。
ステップS402において、学習処理部は、高解像学習用画像30の画素数、低解像学習用画像40の画素数、及び撮像方式等の情報を用いて、高解像学習用画像30に対する低解像学習用画像40の縮小倍率を設定する。例えば、高解像学習用画像30が640×480[ピクセル]であり、低解像学習用画像40が320×240[ピクセル]である場合、縮小倍率は縦横共に1/2である。なお、S401とS402の順序は入れ替わってもよい。
ステップS403において、学習処理部は、ステップS401で算出した光学系情報を用いて高解像学習用画像30にボケを付加する。例えば、高解像学習用画像30を取得した第1撮像系の光学系に比べて、低解像学習用画像40に対応した第2撮像系の光学系の方が、性能が劣る。一般に、エイリアシング等を防ぐためにバイキュービック等フィルタを用いて事前に画像の高周波帯域を取り除く処理がなされる。これにより、縮小された画像の帯域は縮小前の画像よりも小さくなるが、この処理だけでは光学系が異なる場合の帯域の差異までは再現されない。このため、光学系の差異を補償するように画像にボケを付加する。学習処理部は、ステップS401で取得した第1撮像系と第2撮像系のPSF、又は第1撮像系と第2撮像系のOTFを用いて、高解像学習用画像のボケを第2撮像系で撮像した画像のボケに類似するように補償する。なお、ボケ処理の詳細については後述する。
ステップS404において、学習処理部は、ステップS403で生成した画像に対して、ステップS402で算出した縮小倍率による縮小処理を行う。例えば、学習処理部は、バイキュービック又はバイリニア等の縮小処理を行う。学習処理部は、縮小処理後の画像を低解像学習用画像40として、ステップS305の解像復元学習処理を実行する。なお、ステップS403のボケ処理と、ステップS404の縮小処理は、順序が逆であってもよい。即ち、学習処理部は、高解像学習用画像30を縮小処理し、その縮小処理後の画像に対してボケ処理を行うことで、低解像学習用画像40を生成してもよい。
本実施形態によれば、学習済みモデル20は、低解像学習用画像40を高解像学習用画像30に解像復元するように学習される。高解像学習用画像30は、所定被写体が第1撮像系により撮影された高解像の画像である。高解像学習用画像30を低解像度化処理することで、低解像学習用画像40が生成される。低解像度化処理は、所定被写体が第2撮像系により撮像されたかのような低解像の画像を生成する処理である。図4のS401~S403で説明したように、低解像度化処理は、第2撮像系の光学系の解像特性をシミュレートする光学系シミュレート処理を含む。光学系シミュレート処理は、例えば第1撮像系の光学系のPSFと第2撮像系の光学系のPSFの差異を補償するように、PSFを高解像学習用画像30にコンボリューション演算する処理である。
このようにすれば、第2撮像系で撮像された処理対象画像10から、第1撮像系で撮像されたかのような画像を高精度に解像復元できる。即ち、高解像学習用画像30から低解像学習用画像40に低解像化する際に、光学系の解像特性を考慮するため、第1撮像系で撮像される処理対象画像10と同等な解像度を有する低解像学習用画像40を生成できる。この低解像学習用画像40を用いて復元パラメータを学習することで、高性能な超解像処理を実現できる。
ステップS403のボケ処理について説明する。ここでは、ボケ処理の一例として、第1、第2手法を説明する。
図20に、第1手法のボケ処理の処理フローを示す。ステップS410に示すように、学習処理部は、高解像学習用画像30に対して、高解像の第1撮像系と低解像の第2撮像系のPSFを用いてボケを付加する。PSFは、光学系に対する単位インパルス応答を表す関数、即ち光学系が点光源を結像したときの像分布を表す関数である。ステップS404に示すように、学習処理部は、ステップS410で得られた画像に対して縮小処理を行い、その結果を低解像学習用画像40として出力する。
ステップS410の詳細を説明する。学習処理部は、ステップS411に示すように高解像学習用画像30に対して第1撮像系のPSFをデコンボリューションし、ステップS412に示すように高解像学習用画像30に対して第2撮像系のPSFをコンボリューションする。具体的には、学習処理部は、下式(1)によりボケを付加する。下式(1)において、h、hはそれぞれステップS401で取得した第1撮像系の光学系のPSF、第2撮像系の光学系のPSFであり、fは高解像学習用画像30であり、gはボケが付加された画像であり、nはノイズ項である。*はコンボリューション演算を表す。なおノイズ項nは省略されてもよい。
Figure 0007303896000001
図21に、第2手法のボケ処理の処理フローを示す。ステップS420に示すように、学習処理部は、高解像学習用画像30に対して、高解像の第1撮像系と低解像の第2撮像系の光学系のOTFを用いてボケを付加する。OTFは、光学系に対する単位インパルス周波数応答を表す関数、即ち光学系が点光源を結像したときの像分布の周波数特性を表す関数である。ステップS404に示すように、学習処理部は、ステップS420で得られた画像に対して縮小処理を行い、その結果を低解像学習用画像40として出力する。
ステップS420の詳細を説明する。学習処理部は、第1撮像系の光学系と第2撮像系の光学系のそれぞれのOTFを図1の光学系情報50として読み込む。図21のステップS421に示すように、学習処理部は、高解像学習用画像に対してFFT(Fast Fourier Transform)を行うことで高解像学習用画像30の周波数特性を求める。ステップS422及びS423において、学習処理部は、高解像学習用画像30の周波数特性を、第1撮像系のOTFにより除算及び第2撮像系のOTFにより乗算した結果を算出する。ステップS424において、学習処理部は、算出結果である周波数特性に対して逆FFTを行う。
本実施形態によれば、OTFを用いてボケ処理することで、PSFを用いた第1手法と実質的に同様な演算を実現できる。具体的には、下式(2)に示すようにOTFとPSFはフーリエ変換の関係にある。即ち、OTFの周波数応答は、実空間における光学系の単位インパルス応答(PSF)と一致する。このため、図21のステップS420に示すOTFを用いたボケ処理を行うことで、図20のステップS410に示すPSFを用いたボケ処理と実質同様の結果を得ることができる。
Figure 0007303896000002
なお、上記の実施形態では、PSFやOTFといった伝達関数を用いて第2撮像系の光学系の解像特性をシミュレートしたが、これに限られるものではなく、既知の光学系の設計値に基づく計算や機械学習を用いることで第2撮像系の光学系の解像特性をシミュレートしてもよい。
2.第2実施形態
第2実施形態では、第2撮像系は同時式撮像素子を含み、その撮像素子の形式を考慮した低解像度化処理を行う。具体的には、ベイヤ配列を有する撮像素子により処理対象画像が撮影され、デモザイク処理による解像度低下を考慮した低解像度化処理を行う。以下では、ベイヤ型撮像素子を例に説明するが、同時式撮像素子はベイヤ型撮像素子に限定されない。なお、第1実施形態と同様な構成及び処理については説明を省略する。
図5は、第2実施形態における情報処理システム100の構成例と、モデル作成処理S600の処理フローである。情報処理システム100の構成及び解像復元処理は、図1と図2に示す第1実施形態と同様である。
図6に、モデル作成処理S600の処理フローを示す。ステップS601~S603は、第1実施形態のステップS301~S303と同じである。
ステップS604~S606は、図5のステップS610に示す低解像度化処理に対応する。ステップS604の縮小及びボケ処理は、図4に示す第1実施形態のステップS401~S404に対応する。即ち、ステップS604において、学習処理部は、光学系情報を用いて高解像学習用画像30にボケを付加し、そのボケが付加された画像を、撮像素子情報を用いて縮小処理する。縮小処理後の画像は、各画素にRGB画素値が存在する低解像カラー画像41である。
ステップS605において、学習処理部は、ステップS604で生成した低解像カラー画像41に対してモザイク配置処理を行う。即ち、学習処理部は、ステップS603で取得した撮像素子情報60を用いて、低解像カラー画像41の画素値をベイヤ状にモザイク配置することで、低解像ベイヤ画像42を生成する。低解像ベイヤ画像42の各画素には、RGBいずれか1色が割り当てられている。例えば、低解像ベイヤ画像42のR画素を例にとると、そのR画素と同じ位置の低解像カラー画像41の画素からR画素値を抽出し、そのR画素値を低解像ベイヤ画像42のR画素に割り当てる。低解像ベイヤ画像42のG、B画素も同様である。
ステップS606において、学習処理部は、モザイク状の低解像ベイヤ画像42に対してデモザイク処理を行うことで、低解像ベイヤ画像42を再びカラー化する。このデモザイク処理後の画像が低解像学習用画像40となる。例えば、デモザイク処理として、色相関を用いる補間又はバイリニア補間等の既存処理を採用できる。処理対象画像10が生成される際のデモザイク処理がわかっている場合、ステップS606において、そのデモザイク処理と同様の処理を行うことが望ましい。
ステップS607において、第1実施形態のステップS305と同様に、ステップS601で取得した高解像学習用画像30と、ステップS606で取得した低解像学習用画像40とを用いて解像復元学習処理を行い、学習済みモデル20を生成する。
本実施形態によれば、第1撮像系は、第1撮像方式の第1撮像素子を含む。第2撮像系は、第1撮像素子より低画素数であり且つ第1撮像方式と異なる第2撮像方式の第2撮像素子を含む。低解像度化処理S610は、第2撮像方式をシミュレートする撮像方式シミュレート処理を更に含む。撮像方式シミュレート処理は、第2撮像素子で取得された画像信号から処理対象画像10を生成する際の画像処理をシミュレートする。例えば図5と図6に示すようにモザイク配置処理S605とデモザイク処理S606である。
撮像素子で取得された画像信号からカラー画像を生成する際の画像処理は、撮像方式に応じて異なっている。この画像処理はカラー画像の解像感に影響を与える。本実施形態によれば、低解像度化処理S610において撮像方式シミュレート処理を行うことで、処理対象画像10の解像感を低解像学習用画像40において再現できる。これにより、高性能な超解像を実現できる。
また本実施形態では、低解像度化処理S610は、第1撮像方式の高解像学習用画像30を縮小処理し、縮小処理後の画像41に撮像方式シミュレート処理を行う処理である。撮像方式シミュレート処理は、縮小処理後の画像41から第2撮像方式の画像42を生成(S605)し、生成した第2撮像方式の画像42に対して、処理対象画像10を生成する際の画像処理と同じ画像処理を実施(S606)することで、低解像学習用画像40を生成する処理である。
このようにすれば、高解像学習用画像30から第2撮像方式の画像42を一旦生成した後に、その画像42に対して、処理対象画像10を生成する際の画像処理と同じ画像処理を実施する。これにより、第2撮像素子で取得された画像信号から処理対象画像10を生成する際の画像処理をシミュレートできる。
また本実施形態では、第1撮像系は、複数の波長帯域の光が順次に照射される場合において各波長帯域の光が照射されるタイミングでモノクロ撮像素子により撮像することで、複数の画像を取得する。高解像学習用画像30は、複数の画像が合成された面順次式画像である。第2撮像系は、互いに色が異なる複数の画素を有し且つ各画素に1色が割り当てられた同時式撮像素子を用いて、各画素に1色が割り当てられたベイヤ画像を取得する。低解像度化処理S610は、面順次式画像(30)の画素数を減らす縮小処理を行い、縮小処理後の画像41に対して撮像方式シミュレート処理を行う処理である。撮像方式シミュレート処理は、縮小処理後の画像41から低解像ベイヤ画像42を構成する(S605)。この低解像ベイヤ画像42は、第2撮像系が取得するベイヤ画像に相当する。次に、撮像方式シミュレート処理は、低解像ベイヤ画像42をデモザイク処理する(S606)ことで低解像学習用画像40を生成する。
具体的には、第2撮像素子は、分光感度特性が異なる複数種類の画素を有する。高解像学習用画像30は、モノクロ撮像素子を使用し、複数の波長帯域の光を順次照射撮像して取得された前記複数の波長帯域の光による撮像信号を合成することで生成された面順次式画像である。低解像学習用画像40は、分光感度が異なる複数種類の画素を有する同時式撮像素子からなる第2の撮像系によって撮像された画像をシミュレートしたものである。低解像度化処理S610は、第2撮像方式をシミュレートする際に、同時式撮像素子の有する各画素の信号を、該各画素の位置に対応する位置のモノクロ撮像素子の画素で取得された複数の波長帯域の光による信号のうち、少なくとも1つの波長帯域の光による信号に基づき生成した後、デモザイク処理(S606)を行って、低解像学習用画像40が生成される処理である。
このようにすれば、第1撮像系が面順次方式であり、第2撮像系が同時方式である場合に、低解像度化処理において、第2撮像方式である同時方式をシミュレートできる。同時方式におけるデモザイク処理は処理対象画像10の解像感に影響を与える。本実施形態によれば、撮像方式シミュレート処理においてデモザイク処理を行うことで、処理対象画像10の解像感を低解像学習用画像40において再現できる。これにより、高性能な超解像を実現できる。
第2実施形態の変形例について説明する。変形例では、第2実施形態の学習処理に加えて、ノイズリダクション処理による解像度低下を考慮した低解像度化処理を行う。なお、第1、第2実施形態と同様な構成及び処理については説明を省略する。
図7は、第2実施形態の変形例における情報処理システム100の構成例と、モデル作成処理S800の処理フローである。情報処理システム100の構成及び解像復元処理は、図1と図2に示す第1実施形態と同様である。
図8に、モデル作成処理S800の処理フローを示す。ステップS810の低解像度化処理は、ステップS804~S807を含む。ステップS801~S805は、第2実施形態のステップS601~S605と同じである。
ステップS806において、学習処理部は、ステップS805で生成したモザイク状の低解像ベイヤ画像42に対してノイズリダクション処理を行う。例えば、ベイヤ画像に対する既知のノイズリダクション処理を採用できる。ステップS807において、学習処理部は、第2実施形態のステップS606と同様に、ノイズリダクション処理後の画像に対してデモザイク処理を行うことで低解像学習用画像40を生成する。ステップS808において、第1実施形態のステップS305と同様に、ステップS801で取得した高解像学習用画像30と、ステップS807で取得した低解像学習用画像40とを用いて解像復元学習処理を行い、学習済みモデル20を生成する。
本実施形態によれば、撮像方式シミュレート処理は、低解像ベイヤ画像42に対するノイズリダクション処理(S806)を更に含む。
ノイズリダクション処理は処理対象画像10の解像感に影響を与える。本実施形態によれば、撮像方式シミュレート処理においてノイズリダクション処理を行うことで、処理対象画像10の解像感を低解像学習用画像40において再現できる。これにより、高性能な超解像を実現できる。
3.第3実施形態
第3実施形態では、処理対象画像を撮像した撮像系の種類を検出し、その検出結果に対応した解像復元を行う。以下では撮像系の種類に応じて撮像方式が異なる場合を例に説明するが、これに限定されず、撮像系の種類に応じて処理対象画像の解像度が異なっていればよい。例えば、撮像系の種類に応じて画素数、光学系等が異なってもよい。なお、第1、第2実施形態と同様な構成及び処理については説明を省略する。
図9は、第3実施形態における情報処理システム100の構成例と、モデル作成処理S300、S600の処理フローである。入力部1の構成及び処理は第1実施形態と同様である。また、モデル作成処理S300、S600は第1、第2実施形態と同様である。
記憶部2は、第1学習済みモデル21と第2学習済みモデル22を記憶する。第1学習済みモデル21は、第1実施形態で説明したモデル作成処理S300により生成される。第2学習済みモデル22は、第2実施形態で説明したモデル作成処理S600により生成される。
処理部3は、撮像方式を検出する撮像情報検出処理S250と、その検出結果を用いて解像復元を行う解像復元処理S200と、を行う。図10に、撮像情報検出処理S250及び解像復元処理S200の処理フローを示す。
ステップS1001において、処理部3は、入力部1から処理対象画像10を読み込む。ステップS1002において、処理部3は、処理対象画像10から撮像情報を検出し、その撮像情報に基づいて撮像方式を判断する。撮像情報は、例えば処理対象画像10の色分布、面順次式によるエッジ部の色ずれ量、又は画素数等の画像情報である。撮像方式は、面順次方式又は同時方式である。処理対象画像10が面順次方式で撮像されたとき、処理対象画像10は、面順次方式に対応した撮像情報を有し、処理対象画像10が同時方式で撮像されたとき、処理対象画像10は、同時方式に対応した撮像情報を有する。
撮像方式について補足説明する。なお以下ではRGBの白色画像を撮像する場合を例に説明する。面順次方式では、光源がR光、G光及びB光を順次に発光する。撮像系はモノクロ撮像素子を有し、光源がR光を発光したタイミングでR画像を撮像し、光源がG光を発光したタイミングでG画像を撮像し、光源がB光を発光したタイミングでB画像を撮像する。これら3色の画像が合成されることでカラー画像が生成される。同時方式では、光源が白色光を発光する。白色光は、例えば可視光域を覆う連続スペクトルを有する。撮像系はベイヤ型撮像素子を有し、ベイヤ配列の画像を撮像する。このベイヤ配列の画像がデモザイク処理されることでカラー画像が生成される。
撮像情報について補足説明する。まず色分布について説明する。上記のように、面順次方式と同時方式では光源が異なる。このため、例えば生体の赤味等、画像の色味が異なって写る。処理部3は、色相等を用いて画像の色味を判断することで、撮像方式を判断する。次にエッジ部の色ずれ量について説明する。上記のように、面順次方式ではRGBの撮像タイミングが異なるため、RGBで被写体位置がずれている。処理部3は、マッチング処理等を用いてエッジ部の色ずれ量を検出し、その色ずれ量が所定値より大きい場合に、撮像方式が面順次方式であると判断する。次に画素数について説明する。上記のように、面順次方式と同時方式では撮像素子が異なるので、撮像画像の画素数が異なる場合がある。処理部3は、処理対象画像10の画素数から撮像方式を判断する。
ステップS1003において、処理部3は、ステップS1002で判断された撮像方式に対応した学習済みモデルを記憶部2から読み出す。即ち、処理部3は、撮像方式が面順次方式であると判断したとき、記憶部2から第1学習済みモデル21を読み出し、撮像方式が同時方式であると判断したとき、記憶部2から第2学習済みモデル22を読み出す。
ステップS1004において、処理部3は、ステップS1001で取得した処理対象画像10に対して、ステップS1003で取得した学習済みモデルを用いて解像復元処理を行い、高解像画像を生成する。
本実施形態によれば、記憶部2は、第2撮像系に対応した学習済みモデルである第1学習済みモデル21と、第1撮像系より低解像の撮像を行う第3撮像系に対応した第2学習済みモデル22と、を記憶する。入力部1は、第2撮像系によって撮像される第1処理対象画像、又は第3撮像系によって撮像される第2処理対象画像を、処理対象画像10として処理部3に入力する。処理部3は、第1処理対象画像に対する解像復元を、第1学習済みモデル21を用いて行い、第2処理対象画像に対する解像復元を、第2学習済みモデル22を用いて行う。
このようにすれば、処理対象画像10が撮像された撮像系に応じた学習済みモデルが選択される。これにより、複数の撮像系に対応した高性能な超解像を実現できる。即ち、各撮像系に応じて適切な復元パラメータを有する学習済みモデルが選択されるので、撮像系に関わらず高性能な超解像を実現できる。
また本実施形態では、処理部3は、処理対象画像10を撮像した撮像系の種類を、処理対象画像10から検出する。処理部3は、検出結果に基づいて第1処理対象画像が入力されたと判断したとき、第1学習済みモデル21を選択し、検出結果に基づいて第2処理対象画像が入力されたと判断したとき、第2学習済みモデル22を選択する。
このようにすれば、処理対象画像10から撮像系の種類を判断し、その撮像系の種類に対応した学習済みモデルを選択できる。
4.第4実施形態
第4実施形態では、情報処理システムを内視鏡システムに用いる。内視鏡システムは、各種の内視鏡スコープを着脱可能である。第4実施形態では、内視鏡システムに装着された内視鏡スコープに応じて解像復元を行う。具体的には、内視鏡スコープの撮像系の種類を検出し、その検出結果に対応した解像復元を行う。以下では撮像系の種類に応じて撮像方式が異なる場合を例に説明するが、これに限定されず、撮像系の種類に応じて処理対象画像の解像度が異なっていればよい。例えば、撮像系の種類に応じて画素数、光学系等が異なってもよい。なお、第1~第3実施形態と同様な構成及び処理については説明を省略する。
図11は、第4実施形態における内視鏡システム200の構成例と、モデル作成処理S300、S600の処理フローである。内視鏡システム200は、プロセッサユニット4と、プロセッサユニット4に接続される内視鏡スコープ5とを含む。プロセッサユニット4は、入力部1と記憶部2と処理部3とを含む。入力部1は第1実施形態と同様であり、記憶部2は第3実施形態と同様であり、モデル作成処理S300、S600は第1、第2実施形態と同様である。
処理部3は、プロセッサユニット4に接続された内視鏡スコープ5の撮像方式を検出する撮像情報検出処理S260と、その検出結果を用いて解像復元を行う解像復元処理S200と、を行う。図12に、撮像情報検出処理S260及び解像復元処理S200の処理フローを示す。
ステップS1201において、処理部3は、入力部1から処理対象画像10を読み込む。ステップS1202において、処理部3は、内視鏡スコープ5のIDを検出する。IDには、内視鏡スコープ5が有する撮像系の光学系情報と撮像方式情報が含まれる。ステップS1203において、処理部3は、ステップS1202で検出したIDに対応した学習済みモデルを記憶部2から読み込む。即ち、処理部3は、IDが面順次方式を示す場合には第1学習済みモデル21を記憶部2から読み出し、IDが同時方式を示す場合には第2学習済みモデル22を記憶部2から読み出す。ステップS1204において、処理部3は、ステップS1201で取得した処理対象画像10に対して、ステップS1203で取得した学習済みモデルを用いて解像復元処理を行い、高解像画像を生成する。
本実施形態によれば、処理部3は、プロセッサユニット4に接続された内視鏡スコープ5のID情報を検出する。処理部3は、ID情報に基づいて内視鏡スコープ5が第2撮像系を含むと判断したとき、第1学習済みモデル21を選択し、ID情報に基づいて内視鏡スコープ5が第3撮像系を含むと判断したとき、第2学習済みモデル22を選択する。
このようにすれば、内視鏡スコープのID情報に応じた学習済みモデルが選択される。これにより、複数種類の内視鏡スコープに対応した高性能な超解像を実現できる。即ち、各種類の内視鏡スコープに応じて適切な復元パラメータを有する学習済みモデルが選択されるので、内視鏡スコープの種類に関わらず高性能な超解像を実現できる。
5.変形例
以下、種々の変形実施例について説明する。
第1変形例を説明する。第1~第4実施形態において、低解像度化処理は、光学系情報及び撮像素子情報の少なくとも一方を用いたが、更に光源の情報を用いてもよい。第1変形例では、処理対象画像を撮像する際の光源に応じて低解像度化処理を切り替える。具体的には、観察方式に応じて光源が異なっているため、光源に応じた切り替えは、観察方式に応じた切り替えとも言える。
観察方式は、観察モードとも呼ばれる。観察方式としては、例えば白色照明光を用いるWLI(White Light Imaging)、白色光ではない特殊光を用いる特殊光観察等がある。以下では、特殊光観察が、2つの狭帯域光を用いるNBI(Narrow Band Imaging)である場合を例に説明する。2つの狭帯域光は、青色の波長帯域に含まれる狭帯域光と、緑色の波長帯域に含まれる狭帯域光である。WLIとNBIでは、撮像素子が出力する画像信号からカラー画像を生成する際の画像処理が異なる。例えば、デモザイク処理の内容、又は画像処理におけるパラメータが異なる。
図13は、第1変形例における情報処理システム100の構成例、及びモデル作成処理S500の処理フローである。
モデル作成処理S500の低解像度化処理S510において、学習処理部は観察方式情報70を取得し、その観察方式情報70に応じて処理を切り替える。観察方式情報70は、処理対象画像10が撮像される際の観察方式を示す情報である。学習処理部は、観察方式情報70がWLIを示す場合にはWLI用処理S511を選択し、観察方式情報がNBIを示す場合にはNBI用処理S512を選択する。WLI用処理S511及びNBI用処理S512は、高解像学習用画像30を低解像学習用画像40に低解像化する処理である。例えば、WLI用処理S511は、デモザイク処理においてG画像を用いてR画像及びB画像を補間する。一方、NBI用処理S512は、デモザイク処理においてG画像とB画像をそれぞれ独立に補間する。
第1変形例によれば、処理対象画像10は、第1撮像系が撮像する際に用いた光源に対応した画像処理によって生成される。低解像度化処理S510は、光源に対応した画像処理(S511、S512)を含む。
このようにすれば、観察方式に関わらず高性能な超解像処理を実現可能となる。即ち、観察方式によって画像処理が異なるため、処理対象画像の解像感も変化する。第1変形例によれば、観察方式に応じて画像処理を切り替えることで、処理対象画像の解像感と同等な低解像学習用画像を生成できる。これにより、超解像の精度を向上できる。
第2変形例を説明する。第2実施形態において、ベイヤ画像を低解像学習用画像にする画像処理は、デモザイク処理、又はデモザイク処理及びノイズリダクション処理であるが、画像処理は、これらに限定されない。ベイヤ画像を低解像学習用画像にする画像処理は、欠陥画素の補正又はエッジ強調処理等の各種画像処理を含んでもよい。
第3変形例を説明する。第1実施形態において、光学系情報を反映した低解像学習用画像を生成するために2つの光学系のPSF又はOTFを用いて画像にボケを付加したが、ボケ付加の手法はこれに限定されない。第1撮像系の光学系を用いて撮像した画像と、第2撮像系の光学系を用いて撮像した画像とを用いて、画像に付加するボケ量を実験的に決定してもよい。具体的には、ガウシアン等によりボケを近似した2次元フィルタを複数生成する。複数の2次元フィルタは、互いに異なるボケ量を近似する。第1撮像系の光学系を用いて撮像した画像に対して複数の2次元フィルタを生成し、得られた複数の画像と、第2撮像系の光学系を用いて撮像した画像とを比較する。その比較結果に基づいて、最適なボケ量を近似する2次元フィルタを選択する。
第3変形例によれば、簡易的に光学系情報を反映した低解像度化処理が可能となる。即ち、撮像系のPSF又はOTFが分からない場合であっても、ガウシアン等の2次元フィルタによって光学系の解像特性を近似できる。
第4変形例を説明する。第2実施形態において、同時式撮像素子がベイヤ型撮像素子である例を説明したが、同時式撮像素子はこれに限定されず、どのような色配列を有する撮像素子であってもよい。例えば、同時式撮像素子は、図14に示す補色配列を有してもよいし、又は図15に示す原色画素と補色画素が混在した配列を有してもよい。図14の補色型撮像素子では、2×2画素のユニット内にシアン(Cy)画素、マゼンダ(Mg)画素、イエロー(Ye)画素、及び緑(G)画素が配置され、そのユニットが繰り返し配置される。図15の混在型撮像素子では、2×2画素のユニット内に赤(R)画素、緑(G)画素、青(B)画素、及びシアン(Cy)画素が配置され、そのユニットが繰り返し配置される。
第4変形例を考慮すると、同時式撮像素子は例えば次のような構成である。例えば、同時式撮像素子は、Cy、Mg、Ye、Gのカラーフィルタが設けられたCy画素、Mg画素、Ye画素、G画素の4色の画素のうち少なくとも2色の画素を有してもよい。或いは、同時式撮像素子は、Cy、Mg、Ye、Gのカラーフィルタが設けられたCy画素、Mg画素、Ye画素、G画素の4色の画素からなる補色系配列を有してもよい。或いは、同時式撮像素子は、R、G、Bの3色のカラーフィルタが設けられたR画素、G画素、B画素の3色の画素のうち少なくとも2色の画素を有してもよい。或いは、同時式撮像素子は、ベイヤ配列を有してもよい。
第5変形例を説明する。第3実施形態において、撮像系の種類を示す撮像情報を処理対象画像から検出したが、撮像情報を検出する方法は、これに限定されない。例えば、ユーザが予め処理対象画像の撮像情報を把握している場合、ユーザがその情報を情報処理システム100に入力してもよい。
第6変形例を説明する。第2実施形態において、面順次式で撮影された高解像学習用画像をモザイク配置することで低解像ベイヤ画像を生成する。低解像ベイヤ画像は、同時式で撮影された画像を想定している。上述したように面順次式では色ずれが発生するが、同時式では色ずれが発生しないため、色ずれが多いシーンの画像から低解像ベイヤ画像を生成するのは、超解像精度の観点から望ましくない。
図16は、第6変形例における情報処理システム100の構成例、及びモデル作成処理S700の処理フローである。情報処理システム100の構成及び動作は第2実施形態と同様である。
モデル作成処理S700において、学習処理部は、高解像学習用画像30に対して色ずれ判定処理S710を行う。学習処理部は、色ずれ量が所定値より小さい高解像学習用画像30に対して低解像度化処理S610を行い、低解像学習用画像40を生成する。色ずれ判定処理S710では、例えば画像の飽和部周辺等の色付き量所定の閾値を比較する。
第6変形例によれば、第1撮像系は、複数の波長帯域の光が順次に照射される場合において各波長帯域の光が照射されるタイミングでモノクロ撮像素子により撮像することで、複数の画像を取得する。高解像学習用画像30は、複数の画像が合成された面順次式画像である。学習済みモデル20は、面順次式画像における色ずれ量が、予め設定された閾値以下である面順次式画像(30)を用いて学習される。
このようにすれば、色ずれが少ないシーンのみを用いて解像復元の学習を行うことができる。これにより、色ずれの影響を抑えながら、同時式の低解像撮像素子で撮影した画像に対しても高性能な超解像処理を実現できる。
第7変形例を説明する。第1実施形態において、高解像学習用画像30に対し、低解像度化処理を行うことで低解像学習用画像40を出力したが、高解像学習用画像30に対し、低解像度化処理に加えて既知のグレースケール化処理を行い、モノクロの低解像学習用画像を出力してもよい。
モノクロの低解像学習用画像を用いて解像復元学習処理を行うことで、第2撮像系によって撮像される処理対象画像10がモノクロであっても、学習済みモデルは、処理対象画像10を解像復元するだけでなく、処理対象画像10の被写体の実際の色味を再現できる。
6.学習装置、内視鏡システム
図17は、上述したモデル作成処理を実行する学習装置350の構成例である。学習装置350は、処理部351と記憶部352と操作部353と表示部354とを含む。例えば、学習装置350はPC又はサーバ等の情報処理装置である。処理部351はCPU等のプロセッサである。処理部351は、学習モデルに対する機械学習を行って学習済みモデルを生成する。記憶部352は半導体メモリ又はハードディスクドライブ等の記憶装置である。操作部353はマウス又はタッチパネル、キーボード等の種々の操作入力装置である。表示部354は液晶ディスプレイ等の表示装置である。なお学習装置350は、ネットワークで接続された複数の情報処理装置が並列処理を行うクラウドシステムであってもよい。或いは、図1等の情報処理システム100が学習装置を兼ねてもよい。この場合、処理部3、記憶部2が、それぞれ学習装置350の処理部351、記憶部352を兼ねる。
学習装置350が生成した学習済みモデルは、情報処理システム100の記憶部2に記憶される。なお、学習済みモデルは、コンピュータにより読み取り可能な媒体である情報記憶媒体に、格納されてもよい。情報記憶媒体は、例えば光ディスク、メモリカード、HDD、或いは半導体メモリなどにより実現できる。半導体メモリは例えばROMである。情報処理システム100は、情報記憶媒体に格納されるプログラムとデータを読み出し、そのプログラムとデータに基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体には、本実施形態の学習済みモデルをコンピュータに実行させるためのプログラムとパラメータが記憶される。コンピュータは、入力装置、及び処理部、記憶部、出力部を備える装置である。プログラムは、学習済みモデルの推論アルゴリズムをコンピュータに実行させるためのプログラムである。パラメータは、推論アルゴリズムに用いられるパラメータであり、例えばニューラルネットワークにおけるノード間接続の重み係数である。情報記録媒体としては、DVDやCD等の光ディスク、光磁気ディスク、ハードディスク、不揮発性メモリやRAM等のメモリなど、コンピュータによって読み取り可能な種々の記録媒体を想定できる。
図18は、情報処理システム100を含む内視鏡システム200の第1構成例である。内視鏡システム200は、プロセッサユニット4と内視鏡スコープ5と操作部230と表示部240とを含む。
内視鏡スコープ5の先端部には撮像装置が設けられ、その先端部が体腔内に挿入される。撮像装置は、上述した第2撮像系である。撮像装置が腹腔内の画像を撮影し、その撮像データが内視鏡スコープ5からプロセッサユニット4へ送信される。
プロセッサユニット4は、内視鏡システム200における種々の処理を行う装置である。例えばプロセッサユニット4は、内視鏡システム200の制御、及び画像処理等を行う。プロセッサユニット4は、情報処理システム100とストレージ部211と制御部212と出力部213とを含む。
制御部212は、内視鏡システム200の各部を制御する。例えば操作部230から入力された情報に基づいて、内視鏡システム200のモード切り替え、ズーム動作、表示切り替え等を行う。操作部230は、ユーザが内視鏡システム200を操作するための装置である。例えば、操作部230は、ボタン、又はダイヤル、フットスイッチ、タッチパネル等である。なお制御部212と各部の接続の図示を省略している。
ストレージ部211は、内視鏡スコープ5が撮像した画像を記録する。ストレージ部211は、例えば半導体メモリ、ハードディスクドライブ、又は光学ドライブ等である。
情報処理システム100は、撮像データ受信部110とストレージインターフェース120と処理部3と記憶部2とを含む。撮像データ受信部110は、内視鏡スコープ5からの撮像データを受信する。撮像データ受信部110は、例えば内視鏡スコープ5のケーブルが接続されるコネクター、又は、撮像データを受信するインターフェース回路等である。ストレージインターフェース120は、ストレージ部211にアクセスするためのインターフェースである。ストレージインターフェース120は、撮像データ受信部110が受信した画像データをストレージ部211に記録する。記録した画像データを再生する際には、ストレージインターフェース120は、ストレージ部211から画像データを読み出し、その画像データを処理部3に送信する。処理部3は、撮像データ受信部110又はストレージインターフェース120からの画像データを処理対象画像として解像復元処理を行う。処理部3は、復元後の高解像画像を出力する。
第1~第4実施形態における入力部1は、図18において撮像データ受信部110又はストレージインターフェース120に対応する。
出力部213は、表示部240への画像表示を制御する表示コントローラーであり、処理部3から出力された高解像画像を表示部240に表示させる。表示部240は、出力部213から出力された画像を表示するモニタであり、例えば液晶ディスプレイ又は有機ELディスプレイ等の表示装置である。
なお、内視鏡システム200は不図示の光源を含むことができる。光源は照明光を生成する。内視鏡スコープ5は、光源が生成した照明光をスコープ先端部に導光するライトガイドと、導光された照明光を拡散させる照明レンズとを含む。
図19は、情報処理システム100を含む内視鏡システム200の第2構成例である。内視鏡システム200は、情報処理システム100とプロセッサユニット4と内視鏡スコープ5と操作部230と表示部240とを含む。
図19では、情報処理システム100がプロセッサユニット4の外部に設けられる。情報処理システム100とプロセッサユニット4は、例えばUSB等の機器間通信により接続されてもよいし、或いはLAN又はWAN等のネットワーク通信により接続されてもよい。情報処理システム100は、1又は複数の情報処理装置によって構成される。情報処理システム100が複数の情報処理装置で構成される場合、情報処理システム100は、ネットワークを介して接続された複数のPC又は複数のサーバ等が並列処理を行うクラウドシステムであってもよい。
プロセッサユニット4は、撮像データ受信部110と処理部214と外部インターフェース215と制御部212と出力部213とを含む。処理部214は、撮像データ受信部110が受信した画像データを、外部インターフェース215を介して情報処理システム100に送信する。情報処理システム100は、受信した画像データを超解像処理して高解像画像を生成する。外部インターフェース215は、情報処理システム100から送信される高解像画像を受信し、その高解像画像を処理部214に出力する。処理部214は高解像画像を出力部213に出力し、出力部213は高解像画像を表示部240に表示させる。
情報処理システム100は、外部インターフェース130と処理部3と記憶部2とストレージインターフェース120とストレージ部211とを含む。外部インターフェース130は、プロセッサユニット4から送信される画像データを受信する。ストレージインターフェース120及びストレージ部211は第1構成例と同様である。処理部3は、外部インターフェース130又はストレージインターフェース120からの画像データを処理対象画像として解像復元処理を行う。処理部3は、復元後の高解像画像を外部インターフェース130に出力し、外部インターフェース130は高解像画像をプロセッサユニット4に送信する。
第1~第4実施形態における入力部1は、図19において外部インターフェース130又はストレージインターフェース120に対応する。
以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
1 入力部、2 記憶部、3 処理部、4 プロセッサユニット、5 内視鏡スコープ、10 処理対象画像、20 学習済みモデル、21 第1学習済みモデル、22 第2学習済みモデル、30 高解像学習用画像、40 低解像学習用画像、41 低解像カラー画像、42 低解像ベイヤ画像、50 光学系情報、60 撮像素子情報、70 観察方式情報、100 情報処理システム、110 撮像データ受信部、120 ストレージインターフェース、130 外部インターフェース、200 内視鏡システム、211 ストレージ部、212 制御部、213 出力部、214 処理部、215 外部インターフェース、230 操作部、240 表示部、350 学習装置、351 処理部、352 記憶部、353 操作部、354 表示部

Claims (18)

  1. 学習済みモデルを記憶する記憶部と、
    処理部と、
    第1撮像方式の第1撮像素子を含む第1撮像系よりも低画素数であり且つ前記第1撮像方式と異なる第2撮像方式の第2撮像素子を含む第2撮像系によって撮像される処理対象画像を、前記処理部に入力する入力部と、
    を含み、
    前記学習済みモデルは、
    低解像学習用画像を高解像学習用画像に解像復元するように学習された学習済みモデルであり、
    前記高解像学習用画像は、所定被写体が前記第1撮像系により撮影された高解像の画像であり、
    前記低解像学習用画像は、前記高解像学習用画像を、低解像度化処理することで生成され、
    前記低解像度化処理は、前記所定被写体が前記第2撮像系により撮像されたかのような低解像の画像を生成する処理及び前記第2撮像方式をシミュレートする撮像方式シミュレート処理であって、前記第2撮像系の光学系の解像特性をシミュレートする光学系シミュレート処理を含み、
    前記処理部は、
    前記学習済みモデルを用いて、前記処理対象画像を、前記第1撮像系で撮像されたときの解像度に解像復元することを特徴とする情報処理システム。
  2. 請求項1において、
    前記低解像度化処理は、前記光学系シミュレート処理において、前記第2撮像系の伝達関数に基づいて前記解像特性をシミュレートすることを特徴とする情報処理システム。
  3. 請求項2において、
    前記低解像度化処理は、前記高解像学習用画像に前記第1撮像系のPSF(PSF: Point Spread Function)をデコンボリューション演算及び前記第2撮像系のPSFをコンボリューション演算することで、前記解像特性をシミュレートすることを特徴とする情報処理システム。
  4. 請求項2において、
    前記低解像度化処理は、前記高解像学習用画像をフーリエ変換し、前記フーリエ変換の結果である前記高解像学習用画像の周波数特性を、前記第1撮像系のOTF(Optical Transfer Function)で除算及び前記第2撮像系のOTFで乗算を行い、算出された、周波数特性を逆フーリエ変換することで、前記解像特性をシミュレートすることを特徴とする情報処理システム。
  5. 請求項1において、
    前記第2撮像素子は、内視鏡の撮像素子であることを特徴とする情報処理システム。
  6. 請求項において、
    前記処理対象画像は、前記第2撮像方式の画像を画像処理することで生成された画像であり、
    前記低解像度化処理は、前記第1撮像方式の前記高解像学習用画像を縮小処理し、縮小処理後の画像に前記撮像方式シミュレート処理を行う処理であり、
    前記撮像方式シミュレート処理は、前記縮小処理後の画像から前記第2撮像方式の画像を生成し、生成した前記第2撮像方式の画像に対して、前記画像処理と同じ画像処理を実施することで、前記低解像学習用画像を生成する処理であることを特徴とする情報処理システム。
  7. 請求項において、
    前記第1撮像系は、複数の波長帯域の光が順次に照射される場合において各波長帯域の光が照射されるタイミングでモノクロ撮像素子により撮像することで、複数の画像を取得し、
    前記高解像学習用画像は、前記複数の画像が合成された面順次式画像であり、
    前記第2撮像系は、互いに色が異なる複数の画素を有し且つ各画素に1色が割り当てられた同時式撮像素子を用いて、各画素に1色が割り当てられたモザイク画像を取得し、
    前記低解像度化処理は、前記面順次式画像の画素数を減らす縮小処理を行い、縮小処理後の画像に対して前記撮像方式シミュレート処理を行う処理であり、
    前記撮像方式シミュレート処理は、前記縮小処理後の画像から前記モザイク画像を構成し、前記モザイク画像をデモザイキング処理することで前記低解像学習用画像を生成する処理であることを特徴とする情報処理システム。
  8. 請求項7において、
    前記撮像方式シミュレート処理は、前記モザイク画像に対するノイズリダクション処理を更に含むことを特徴とする情報処理システム。
  9. 請求項1において、
    前記処理対象画像は、前記第1撮像系が撮像する際に用いた光源に対応した画像処理によって生成され、
    前記低解像度化処理は、前記光源に対応した前記画像処理を含むことを特徴とする情報処理システム。
  10. 請求項1において、
    前記第1撮像系は、複数の波長帯域の光が順次に照射される場合において各波長帯域の光が照射されるタイミングでモノクロ撮像素子により撮像することで、複数の画像を取得し、
    前記高解像学習用画像は、前記複数の画像が合成された面順次式画像であり、
    前記学習済みモデルは、
    前記面順次式画像における色ずれ量が、予め設定された閾値以下である前記面順次式画像を用いて学習されることを特徴とする情報処理システム。
  11. 請求項1において、
    前記低解像学習用画像は、前記高解像学習用画像を、前記低解像度化処理及びグレースケール化処理することで生成されることを特徴とする情報処理システム。
  12. 請求項1において、
    前記記憶部は、前記第2撮像系に対応した前記学習済みモデルである第1学習済みモデルと、前記第1撮像系より低解像の撮像を行う第3撮像系に対応した第2学習済みモデルと、を記憶し、
    前記入力部は、前記第2撮像系によって撮像される第1処理対象画像、又は前記第3撮像系によって撮像される第2処理対象画像を、前記処理対象画像として前記処理部に入力し、
    前記処理部は、
    前記第1処理対象画像に対する前記解像復元を、前記第1学習済みモデルを用いて行い、前記第2処理対象画像に対する前記解像復元を、前記第2学習済みモデルを用いて行うことを特徴とする情報処理システム。
  13. 請求項12において、
    前記処理部は、
    前記処理対象画像を撮像した撮像系の種類を、前記処理対象画像から検出し、出結果に基づいて前記第1処理対象画像が入力されたと判断したとき、前記第1学習済みモデルを選択し、前記検出結果に基づいて前記第2処理対象画像が入力されたと判断したとき、前記第2学習済みモデルを選択することを特徴とする情報処理システム。
  14. 請求項12に記載の情報処理システムを有するプロセッサユニットと、
    前記プロセッサユニットに着脱可能であり、前記処理対象画像を撮像して前記入力部に送信する内視鏡スコープと、
    を含み、
    前記処理部は、
    前記プロセッサユニットに接続された前記内視鏡スコープのID情報を検出し、前記ID情報に基づいて前記内視鏡スコープが前記第2撮像系を含むと判断したとき、前記第1学習済みモデルを選択し、前記ID情報に基づいて前記内視鏡スコープが前記第3撮像系を含むと判断したとき、前記第2学習済みモデルを選択することを特徴とする内視鏡システム。
  15. 請求項に記載の情報処理システムを有するプロセッサユニットと、
    前記プロセッサユニットに接続され、前記処理対象画像を撮像して前記入力部に送信する内視鏡スコープと、
    を含むことを特徴とする内視鏡システム。
  16. 第1撮像系よりも低解像の撮像を行う第2撮像系によって撮像される処理対象画像を、前記第1撮像系で撮像されたときの解像度に解像復元するように、コンピュータを機能させる学習済みモデルであって、
    前記学習済みモデルは、
    低解像学習用画像を高解像学習用画像に解像復元するように学習され、
    前記高解像学習用画像は、第1撮像方式の第1撮像素子を含む前記第1撮像系により所定被写体が撮影された高解像の画像であり、
    前記低解像学習用画像は、前記高解像学習用画像を、低解像度化処理することで生成され、
    前記低解像度化処理は、低画素数であり且つ前記第1撮像方式と異なる第2撮像方式の第2撮像素子を含む前記第2撮像系により前記所定被写体が撮像されたかのような低解像の画像を生成する処理及び前記第2撮像方式をシミュレートする撮像方式シミュレート処理であって、前記第2撮像系の光学系の解像特性をシミュレートする光学系シミュレート処理を含むことを特徴とする学習済みモデル。
  17. 請求項16に記載の学習済みモデルを記憶した情報記憶媒体。
  18. 学習済みモデルを用いて解像復元を行う情報処理方法であって、
    前記学習済みモデルは、
    低解像学習用画像を高解像学習用画像に解像復元するように学習され、
    前記高解像学習用画像は、第1撮像方式の第1撮像素子を含む第1撮像系により所定被写体が撮影された高解像の画像であり、
    前記低解像学習用画像は、前記高解像学習用画像を、低解像度化処理することで生成され、
    前記低解像度化処理は、低画素数であり且つ前記第1撮像方式と異なる第2撮像方式の第2撮像素子を含む第2撮像系により前記所定被写体が撮像されたかのような低解像の画像を生成する処理及び前記第2撮像方式をシミュレートする撮像方式シミュレート処理であって、前記第2撮像系の光学系の解像特性をシミュレートする光学系シミュレート処理を含み、
    前記学習済みモデルを用いて、前記第1撮像系よりも低解像の撮像を行う前記第2撮像系によって撮像される処理対象画像を、前記第1撮像系で撮像されたときの解像度に解像復元することを特徴とする情報処理方法。
JP2021554529A 2019-11-08 2019-11-08 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 Active JP7303896B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/043806 WO2021090469A1 (ja) 2019-11-08 2019-11-08 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法

Publications (3)

Publication Number Publication Date
JPWO2021090469A1 JPWO2021090469A1 (ja) 2021-05-14
JPWO2021090469A5 JPWO2021090469A5 (ja) 2022-07-20
JP7303896B2 true JP7303896B2 (ja) 2023-07-05

Family

ID=75848306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021554529A Active JP7303896B2 (ja) 2019-11-08 2019-11-08 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法

Country Status (4)

Country Link
US (1) US20220253979A1 (ja)
JP (1) JP7303896B2 (ja)
CN (1) CN114651439B (ja)
WO (1) WO2021090469A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022181572A (ja) * 2021-05-26 2022-12-08 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、訓練済み機械学習モデルの製造方法、処理装置、画像処理システム
CN115689896B (zh) * 2023-01-05 2023-06-27 荣耀终端有限公司 图像处理方法和图像处理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250774A (ja) 2009-04-20 2010-11-04 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
JP2016100795A (ja) 2014-11-21 2016-05-30 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2018195069A (ja) 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100521743C (zh) * 2004-11-30 2009-07-29 松下电器产业株式会社 图像处理方法、图像处理装置
JP5243432B2 (ja) * 2008-02-06 2013-07-24 パナソニック株式会社 画像処理装置、及び画像処理方法
JP2012244395A (ja) * 2011-05-19 2012-12-10 Sony Corp 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP2016092596A (ja) * 2014-11-04 2016-05-23 キヤノン株式会社 撮像装置、画像処理装置及びそれらの制御方法
JP6867117B2 (ja) * 2016-07-08 2021-04-28 株式会社トプコン 医用画像処理方法及び医用画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250774A (ja) 2009-04-20 2010-11-04 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
JP2016100795A (ja) 2014-11-21 2016-05-30 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2018195069A (ja) 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
CN114651439A (zh) 2022-06-21
US20220253979A1 (en) 2022-08-11
JPWO2021090469A1 (ja) 2021-05-14
WO2021090469A1 (ja) 2021-05-14
CN114651439B (zh) 2024-03-05

Similar Documents

Publication Publication Date Title
JP4674607B2 (ja) 画像処理装置および方法
CN104619237B (zh) 光不足环境中的ycbcr脉冲调制的照明方案
JP4228699B2 (ja) 撮像装置、および撮像素子
JP5306563B2 (ja) 撮像装置及び画像生成方法
JPWO2004068862A1 (ja) 高解像度カラー画像生成方法、高解像度カラー画像生成装置及び高解像度カラー画像生成プログラム
US20220253979A1 (en) Information processing system, endoscope system, and information storage medium
JP4796871B2 (ja) 撮像装置
JP2020144488A (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
US11350070B2 (en) Systems, methods and computer programs for colorimetric mapping
CN108781250A (zh) 摄像控制装置、摄像控制方法和摄像装置
JP2009010847A (ja) 色成分補間装置及びその方法
Song et al. Real-scene reflection removal with raw-rgb image pairs
JP2006014315A (ja) カラー画像記録再生システム及び表色ベクトルデータ生成方法
JP2012003454A (ja) 画像処理装置、撮像装置および画像処理プログラム
JPWO2021090469A5 (ja)
JP2007159141A (ja) 色補正計算方法
CN113287147A (zh) 一种图像处理方法及装置
KR20220040025A (ko) 딥러닝 기반 열 영상 재구성 장치 및 방법
CN114556897A (zh) 原始到rgb的图像转换
WO2013111824A1 (ja) 画像処理装置、撮像装置及び画像処理方法
Wachira et al. An ordinal direction driven gradient-based RGBW CFA demosaicking technique using a bayerisation process and polyomino theory
JP2023116364A (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP2000232655A (ja) 画像処理方法および装置並びに記録媒体
JP2004153753A (ja) 単板式カラーディジタルカメラによる撮像画像の補間装置および補間方法
JP2012099870A (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R151 Written notification of patent or utility model registration

Ref document number: 7303896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151