JPWO2018105089A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JPWO2018105089A1
JPWO2018105089A1 JP2018555405A JP2018555405A JPWO2018105089A1 JP WO2018105089 A1 JPWO2018105089 A1 JP WO2018105089A1 JP 2018555405 A JP2018555405 A JP 2018555405A JP 2018555405 A JP2018555405 A JP 2018555405A JP WO2018105089 A1 JPWO2018105089 A1 JP WO2018105089A1
Authority
JP
Japan
Prior art keywords
image data
unit
frequency component
image
specific frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018555405A
Other languages
English (en)
Inventor
健 井岡
渉 鬼城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2018105089A1 publication Critical patent/JPWO2018105089A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/03Circuitry for demodulating colour component signals modulated spatially by colour striped filters by frequency separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる画像処理装置、画像処理方法およびプログラムを提供する。画像処理装置は、R画像データ、G画像データおよびB画像データそれぞれを輝度成分Yと色差成分Cb,Crに変換する第1色空間変換部514と、NB画像データに含まれる第1特定周波数成分を抽出する抽出部513と、輝度成分Yと第1特定周波数成分とを合成する合成部515と、合成部515が合成した合成結果と、色差成分Cb,Crと、に基づいて、カラー画像データを生成するカラー画像生成部517と、を備える。

Description

本発明は、被検体の体内画像を撮像する内視鏡が生成した画像データに対して画像処理を行う画像処理装置、画像処理方法およびプログラムに関する。
近年、内視鏡の観察方式として、青色および緑色の波長帯域にそれぞれ含まれる二つの狭帯域光からなる照明光(以下、「特殊光」という)を用いた狭帯域光観察方式が知られている。
このような狭帯域光観察方式を行う内視鏡として、白色光で撮像した通常光観察画像に、特殊光で撮像した特殊光観察画像の情報を合成することによって、一つの観察画像で生体の粘膜表層に存在する毛細血管および粘膜微細模様等を観察する技術が知られている(特許文献1参照)。この技術では、特殊光観察画像に対して、ハイパスフィルタやバンドパスフィルタ等を用いて、特殊光観察画像から毛細血管および粘膜微細模様等の特徴情報を抽出し、この抽出した特徴情報を通常光観察画像に合成した合成画像を生成する。
特許第5501210号公報
しかしながら、上述した特許文献1では、フィルタによって抽出した特徴情報を通常光観察画像に合成しているため、通常光観察画像の輝度情報に、特徴情報に含まれる輝度情報を加算しているため、合成画像の色味が本来の通常光観察画像から変わってしまうという問題点があった。
本発明は、上記に鑑みてなされたものであって、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれよりも狭い波長帯域の狭帯域光を受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得部と、と、前記取得部が取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成部と、前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換部と、前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出部と、前記色空間変換部が変換した前記輝度成分と前記第1抽出部が抽出した前記第1特定周波数成分とを合成する合成部と、前記合成部が合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成部と、を備えることを特徴とする。
また、本発明に係る画像処理方法は、赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれを受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得ステップと、前記取得ステップで取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成ステップと、前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換ステップと、前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出ステップと、前記色空間変換ステップで変換した前記輝度成分と前記第1抽出ステップで抽出した前記第1特定周波数成分とを合成する合成ステップと、前記合成ステップで合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、画像処理装置に、赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれよりも狭い波長帯域の狭帯域光を受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得ステップと、前記取得ステップで取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成ステップと、前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換ステップと、前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出ステップと、前記色空間変換ステップで変換した前記輝度成分と前記第1抽出ステップで抽出した前記第1特定周波数成分とを合成する合成ステップと、前記合成ステップで合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成ステップと、を実行させることを特徴とする。
本発明によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができるという効果を奏する。
図1は、本発明の実施の形態1に係る内視鏡システムの全体構成を模式的に示す図である。 図2は、本発明の実施の形態1に係る内視鏡システムの要部の機能を示すブロック図である。 図3は、本発明の実施の形態1に係るカラーフィルタの構成を模式的に示す図である。 図4は、本発明の実施の形態1に係るカラーフィルタを構成する各広帯域フィルタの透過率と波長との関係を示す図である。 図5は、本発明の実施の形態1に係るカラーフィルタを構成する狭帯域フィルタNBの透過率と波長との関係を示す図である。 図6は、本発明の実施の形態1に係る抽出部を構成するフィルタの特性を模式的に示す図である。 図7は、本発明の実施の形態1に係るプロセッサが実行する処理の概要を示すフローチャートである。 図8は、本発明の実施の形態1の変形例に係る抽出部の構成を模式的に示す図である。 図9は、本発明の実施の形態1の変形例に係る抽出部を構成するフィルタの特性を模式的に示す図である。 図10は、本発明の実施の形態2に係る内視鏡システムの要部の機能を示すブロック図である。 図11は、本発明の実施の形態2に係るプロセッサが実行する処理の概要を示すフローチャートである。 図12は、本発明の実施の形態3に係る内視鏡システムの要部の機能を示すブロック図である。 図13は、本発明の実施の形態3に係るプロセッサが実行する処理の概要を示すフローチャートである。 図14は、本発明の実施の形態4に係る内視鏡システムの要部の機能を示すブロック図である。 図15は、本発明の実施の形態4に係るカラーフィルタの構成を模式的に示す図である。 図16は、本発明の実施の形態4に係るカラーフィルタを構成する狭帯域フィルタNBおよび狭帯域フィルタNGの透過率と波長との関係を示す図である。 図17は、本発明の実施の形態4に係るプロセッサが実行する処理の概要を示すフローチャートである。
以下、本発明を実施するための形態(以下、「実施の形態」という)を説明する。本実施の形態では、患者等の被検体の体腔内の画像を撮像して表示する医療用の内視鏡システムを例に説明する。また、以下の実施の形態により本発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付して説明する。
(実施の形態1)
〔内視鏡システムの構成〕
図1は、本発明の実施の形態1に係る内視鏡システムの全体構成を模式的に示す図である。図1に示す内視鏡システム1は、被検体の体腔内に挿入することによって被検体の体内を撮像する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源装置3と、内視鏡2が撮像して生成した画像データに対応する画像を表示する表示装置4と、内視鏡2が撮像して生成した画像データに所定の画像処理を施して表示装置4に表示させるとともに、内視鏡システム1全体の動作を統括的に制御するプロセッサ5と、を備える。
内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、プロセッサ5および光源装置3と接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。
挿入部21は、後述する撮像装置(撮像部)を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。
操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、体腔内に生体鉗子、レーザメスおよび検査プローブ等の処理具を挿入する処置具挿入部222と、光源装置3、プロセッサ5に加えて、送気手段、送水手段、送ガス手段等の周辺機器の操作指示信号を入力する操作入力部である複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24を経由して開口部(図示せず)から表出する。
ユニバーサルコード23は、ライトガイドと、集合ケーブルと、を少なくとも内蔵している。ユニバーサルコード23は、光源装置3に着脱自在なコネクタ部27を有する。コネクタ部27は、コイル状のコイルケーブル27aが延設し、コイルケーブル27aの延出端にプロセッサ5と着脱自在な電気コネクタ部28を有する。コネクタ部27は、内部にFPGA(Field Programmable Gate Array)を用いて構成される。
光源装置3は、例えばハロゲンランプや白色LED(Light Emitting Diode)等を用いて構成される。光源装置3は、プロセッサ5の制御のもと、内視鏡2の挿入部の先端側から被写体に向けて照明光を照射する。
表示装置4は、プロセッサ5の制御のもと、プロセッサ5が画像処理を施した画像信号に対応する画像および内視鏡システム1に関する各種情報を表示する。表示装置4は、液晶や有機EL(Electro Luminescence)等の表示パネル等を用いて構成される。
プロセッサ5は、内視鏡2から入力されたRAW画像データに対して所定の画像処理を施して表示装置4へ出力する。プロセッサ5は、CPU(Central Processing Unit)等を用いて構成される。
次に、内視鏡システム1の要部の機能について説明する。図2は、内視鏡システム1の要部の機能を示すブロック図である。図2を参照して内視鏡システム1の各部の詳細および内視鏡システム1内の電気信号の経路について説明する。
〔内視鏡の構成〕
まず、内視鏡2の構成について説明する。
図2に示すように、内視鏡2は、光学系201と、撮像部202と、を備える。
光学系201は、光源装置3が出射した照明光の反射光を撮像部202の撮像面に受光して被写体像を結像する。光学系201は、1つまたは複数のレンズおよびプリズム等を用いて構成される。
撮像部202は、プロセッサ5の制御のもと、光学系201が受光面に結像した被写体像を受光して光電変換を行うことによって、被写体の画像データ(RAW画像データ)を生成し、この生成した画像データをプロセッサ5へ出力する。具体的には、撮像部202は、基準のフレームレート、例えば60fpsのフレームレートによって被検体を撮像して被検体の画像データを生成する。撮像部202は、撮像素子211と、カラーフィルタ212と、を有する。
撮像素子211は、2次元格子状に配置された複数の画素がそれぞれ受光した光を光電変換し、電気信号を生成するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像センサを用いて構成される。
カラーフィルタ212は、赤色の波長帯域の光を透過する広帯域フィルタRと、緑色の波長帯域の光を透過する広帯域フィルタGと、青色の波長帯域の光を透過する広帯域フィルタBと、青色の波長帯域であって、青色の波長帯域よりも狭い波長帯域の光を透過する狭帯域フィルタNBと、を含むフィルタユニットを用いて構成され、このフィルタユニットを撮像素子211の画素に対応させて配置してなる。
図3は、カラーフィルタ212の構成を模式的に示す図である。図3に示すように、カラーフィルタ212は、赤色の成分を透過する2つの広帯域フィルタR、緑色の成分を透過する8つの広帯域フィルタG、青色の成分を透過する2つの広帯域フィルタBおよび狭帯域の光を透過させる4つの狭帯域フィルタNBを1組とする所定の配列パターンを形成したフィルタユニットを用いて構成される。カラーフィルタ212は、上述した配列パターンを形成する個々のフィルタが2次格子状に配列された撮像素子211の複数の画素のいずれかに対応する位置に配置される。ここで、本実施の形態1における狭帯域の光は、粘膜表層の毛細血管観察用の青色の狭帯域光(390〜445nm)である。このように構成されたカラーフィルタ212を用いて撮像素子211で生成された画像データは、後述するプロセッサ5によって所定の画像処理が行われることによって、カラー画像に変換される。
図4は、カラーフィルタ212を構成する各広帯域フィルタの透過率と波長との関係を示す図である。図5は、カラーフィルタ212を構成する狭帯域フィルタNBの透過率と波長との関係を示す図である。図4および図5において、横軸が波長(nm)を示し、縦軸が透過率を示す。また、図4において、曲線Lが広帯域フィルタBの透過率と波長との関係を示し、曲線Lが広帯域フィルタGの透過率と波長との関係を示し、曲線Lが広帯域フィルタRの透過率と波長との関係を示す。また、図5において、曲線LNBが狭帯域フィルタNBの透過率と波長との関係を示す。さらに、図5において、狭帯域フィルタNBのピーク波長が390nmから445nmの範囲にある場合について説明する。
図4および図5に示すように、狭帯域フィルタNBの分光特性は、広帯域フィルタBよりも狭く、広帯域フィルタBの波長帯域に含まれる。なお、以下においては、広帯域フィルタRが配置されてなる画素をR画素(第1画素)、広帯域フィルタGが配置されてなる画素をG画素(第2画素)、広帯域フィルタBが配置されてなる画素をB画素(第3画素)、狭帯域フィルタNBが配置されてなる画素をNB画素(第4画素)という。
〔プロセッサの構成〕
次に、プロセッサ5の構成について説明する。
プロセッサ5は、図2に示すように、画像処理部51と、入力部52と、記録部53と、制御部54と、を備える。
画像処理部51は、GPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)等を用いて構成される。画像処理部51は、内視鏡2から画像データを取得し、取得した画像データに対して所定の画像処理を施して表示装置4へ出力する。画像処理部51は、取得部511と、画像生成部512と、抽出部513と、第1色空間変換部514と、合成部515と、第2色空間変換部516と、カラー画像生成部517と、を有する。なお、本実施の形態1では、画像処理部51が画像処理装置として機能する。
取得部511は、内視鏡2が撮像して生成した画像データを取得し、取得した画像データを画像生成部512へ出力する。具体的には、取得部511は、内視鏡2が生成した画像データに対応する画像を構成するR画素、G画素、B画素およびNB画素それぞれの画素値(画素値R、画素値G、画素値Bおよび画素値NB)を撮像素子211から取得し、取得した各画素の画素値を画像生成部512へ出力する。
画像生成部512は、取得部511から入力された各画素(各チャンネル)の画素値に基づいて、画素値が欠損する画素の画素値を補完する周知のデモザイキング処理を行うことによって、赤色の波長帯域の光に対応するR画像(第1補間画像データ)、緑色の波長帯域の光に対応するG画像(第2補間画像データ)、青色の波長帯域の光に対応するB画像(第3補間画像データ)および狭帯域光に対応するNB画像(第4補間画像データ)の各々を生成する。画像生成部512は、R画像、G画像およびB画像を第1色空間変換部514へ出力し、かつ、NB画像を抽出部513へ出力する。
抽出部513は、画像生成部512から入力された狭帯域画像であるNB画像に対して、第1特定周波数成分を抽出し、この抽出した第1特定周波数成分を合成部515へ出力する。具体的には、抽出部513は、NB画像に対して、所定の閾値より高い高周波成分を抽出する。より具体的には、図6に示すように、抽出部513は、NB画素を構成する各画素の画素値に対して、例えば3×3のハイパスフィルタF1を用いて、NB画像の高周波成分NB_highをNB画像の特徴成分として抽出し、この高周波成分を合成部515へ出力する。なお、抽出部513は、3×3のハイパスフィルタである必要はなく、適宜変更することができ、例えば4×4や5×5のハイパスフィルタであってもよい。もちろん、抽出部513は、複数のフィルタを組み合わせて構成してもよい。
第1色空間変換部514は、画像生成部512から入力されたR画像、G画像およびB画像に対して、周知の色空間変換処理、例えばYCrCb変換処理を行うことによって、輝度成分Y、色差成分Crおよび色差成分Cbそれぞれに変換し、輝度成分Yを合成部515へ出力し、かつ、色差成分Crおよび色差成分Cbを第2色空間変換部516へ出力する。
合成部515は、抽出部513から入力された高周波成分NB_highと、第1色空間変換部514から入力された輝度成分Yと、を合成し、この合成した輝度成分Y’(Y’=Y+NB_high)を第2色空間変換部516へ出力する。
第2色空間変換部516は、合成部515から入力された輝度成分Y’、第1色空間変換部514から入力された色差成分Crおよび色差成分Cbに対して、周知の色空間変換処理、例えばRGB変換処理を行うことによって、広帯域画像に狭帯域画像の特徴成分を付加した新たな観察画像R’、観察画像G’および観察画像B’の各々を生成する。第2色空間変換部516は、観察画像R’、観察画像G’および観察画像B’をカラー画像生成部517へ出力する。
カラー画像生成部517は、第2色空間変換部516から入力された観察画像R’、観察画像G’および観察画像B’に基づいて、カラー画像データを生成して表示装置4へ出力する。具体的には、カラー画像生成部517は、R’画像を構成する各画素の画素値、G’画像を構成する各画素の画素値およびB’画像を構成する各画素の画素値を合成してカラー画像を生成し、このカラー画像を表示装置4へ出力する。
入力部52は、ボタンやスイッチ等を用いて構成され、内視鏡システム1が実行する各種の処理を指示する指示信号やパラメータ等を変更する変更信号の入力を受け付ける。
記録部53は、ROM(Read Only Memory)やRAM(Random Access Memory)等を用いて構成され、内視鏡2が生成した画像データ、および内視鏡システム1が実行するプログラムや処理中の情報を記録する。また、記録部53は、内視鏡システム1が実行するプログラムを記録するプログラム記録部53aを有する。
制御部54は、CPU等を用いて構成され、内視鏡システム1を構成する各部を統括的に制御する。制御部54は、光源装置3の照明光の出射タイミングや内視鏡2の撮像部202の撮像タイミング等を制御する。
〔プロセッサの処理〕
次に、プロセッサ5が実行する処理について説明する。図7は、プロセッサ5が実行する処理の概要を示すフローチャートである。
図7に示すように、まず、取得部511は、内視鏡2から画像データを取得する(ステップS101)。
続いて、画像生成部512は、取得部511から入力された各画素の画素値に基づいて、デモザイキング処理を行うことによって各色の画像を生成する(ステップS102)。
その後、第1色空間変換部514は、画像生成部512から入力されたR画像、G画像およびB画像に対して、色空間変換処理を行う(ステップS103)。具体的には、第1色空間変換部514は、画像生成部512から入力されたR画像、G画像およびB画像に対して、YCrCb変換処理を行うことによって、輝度成分Y、色差成分Crおよび色差成分Cbそれぞれに変換する。
続いて、抽出部513は、画像生成部512から入力された狭帯域画像であるNB画像に対し、第1特定周波数成分を抽出する(ステップS104)。具体的には、抽出部513は、NB画素を構成する各画素の画素値に対して、上述した図6に示すハイパスフィルタF1を用いて、NB画像の高周波成分NB_highをNB画像の特徴成分として抽出する。
その後、合成部515は、第1色空間変換部514から入力された輝度成分Yに、抽出部513から入力された第1特定周波数成分を合成する(ステップS105)。具体的には、合成部515は、第1色空間変換部514から入力された輝度成分Yに、抽出部513から入力されたNB画像の特徴成分である高周波成分NB_highを合成する。
続いて、第2色空間変換部516は、合成部515から入力された輝度成分Y’、第1色空間変換部514から入力された色差成分Crおよび色差成分Cbに対して、RGBに変換する色空間変換処理を行う(ステップS106)。
その後、カラー画像生成部517は、第2色空間変換部516から入力された観察画像R’、観察画像G’および観察画像B’に基づいて、カラー画像を生成する(ステップS107)。
続いて、内視鏡システム1による検査の終了を指示する指示信号が入力された場合(ステップS108:Yes)、プロセッサ5は、本処理を終了する。これに対して、内視鏡システム1による検査の終了を指示する指示信号が入力されていない場合(ステップS108:No)、プロセッサ5は、上述したステップS101へ戻る。
以上説明した本発明の実施の形態1によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
また、本発明の実施の形態1によれば、通常光観察画像と特殊光観察画像を合成する場合であっても、特殊光画像の特徴が高いコントラストで描写される新たな観察画像を得ることができる。
また、本発明の実施の形態1では、合成部515がNB画像の高周波成分NB_highに対して入力部52によって入力された重み係数αを乗算した値に、第1色空間変換部514から入力された輝度成分Yを合成してもよい(Y’=Y+α×NB_high)。
また、本発明の実施の形態1では、青色の狭帯域光(390〜445nm)を例に説明したが、深部の太い血管を強調するために緑色の狭帯域光(530〜550nm)であってもよい。
(実施の形態1の変形例)
次に、本発明の実施の形態1の変形例について説明する。本実施の形態1の変形例は、上述した実施の形態1に係る抽出部513と構成が異なる。以下においては、本実施の形態1の変形例に係る抽出部の構成のみを説明する。なお、上述した実施の形態1に係る内視鏡システム1と同一の構成には同一の符号を付して説明を省略する。
図8は、本実施の形態1の変形例に係る抽出部の構成を模式的に示す図である。図8に示す抽出部513aは、低周波成分抽出部600と、算出部601と、を有する。
低周波成分抽出部600は、狭帯域画像であるNB画像から低周波成分NB_lowを抽出する。低周波成分抽出部600は、例えば図9に示す5×5のローパスフィルタF2を用いて構成される。
算出部601は、狭帯域画像であるNB画像から低周波成分抽出部600によって抽出された低周波成分NB_lowを減算することによって、狭帯域画像であるNB画像から第1特定周波数成分である高周波成分NB_highを算出する。
以上説明した本発明の実施の形態1の変形例によれば、上述した実施の形態1と同様に、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
(実施の形態2)
次に、本発明の実施の形態2について説明する。本実施の形態2に係る内視鏡システムは、上述した実施の形態1に係る内視鏡システム1と構成が異なる。具体的には、本実施の形態2は、上述した実施の形態1に係るプロセッサ5と構成が異なる。さらに、本実施の形態2に係る内視鏡システムは、上述した実施の形態1に係るプロセッサ5が実行する処理と異なる。以下においては、本実施の形態2に係る内視鏡システムの構成を説明後、プロセッサが実行する処理について説明する。なお、上述した実施の形態1に係る内視鏡システム1と同一の構成には同一の符号を付して説明を省略する。
〔内視鏡システムの構成〕
図10は、本実施の形態2に係る内視鏡システムの要部の機能を示すブロック図である。図10に示す内視鏡システム1aは、上述した実施の形態1に係る内視鏡システム1のプロセッサ5に換えて、プロセッサ5aを備える。
〔プロセッサの構成〕
図10に示すプロセッサ5aは、上述した実施の形態1に係る画像処理部51に換えて、画像処理部51aを備える。
画像処理部51aは、GPUやFPGA等を用いて構成され、内視鏡2から画像データを取得し、取得した画像データに対して所定の画像処理を施して表示装置4へ出力する。画像処理部51aは、取得部511と、画像生成部512と、第1抽出部513bと、第2抽出部513cと、第1色空間変換部514と、加算部518と、減算部519と、合成部520aと、第2色空間変換部516と、カラー画像生成部517と、を有する。なお、本実施の形態2では、画像処理部51aが画像処理装置として機能する。
第1抽出部513bは、画像生成部512から入力された狭帯域画像であるNB画像に対して、第1特定周波数成分を抽出し、この抽出した第1特定周波数成分を加算部518へ出力する。具体的には、第1抽出部513bは、NB画像に対して、所定の第1閾値より高い高周波成分を抽出する。より具体的には、第1抽出部513bは、NB画素を構成する各画素の画素値に対して、例えば上述した実施の形態1と同様の3×3のハイパスフィルタF1を用いて、NB画像の高周波成分NB_highをNB画像の特徴成分として抽出し、この高周波成分NB_highを加算部518へ出力する。
第2抽出部513cは、第1色空間変換部514から入力された広帯域画像の輝度成分Yに対して、第2特定周波数成分を抽出し、この抽出した第2特定周波数成分を加算部518および減算部519へ出力する。具体的には、第2抽出部513cは、広帯域画像の輝度成分Yに対して、所定の第2閾値より高い高周波成分を抽出する。より具体的には、第2抽出部513cは、輝度成分Yに対して、例えば上述した実施の形態1と同様の3×3のハイパスフィルタF1を用いて、広帯域画像の輝度成分Yの高周波成分Y_highを抽出し、この高周波成分Y_highを加算部518および減算部519へ出力する。なお、第1抽出部513bおよび第2抽出部513cが用いるハイパスフィルタの特性は、同じであってもよいし、互いに異なる特性であってもよいが、透過特性の近いものが好ましい。
加算部518は、第1抽出部513bから入力されたNB画像の高周波成分NB_highと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highと、を、制御部54を介して入力部52によって入力された高周波成分NB_highと、高周波成分Y_highとを加算する際の重み付け係数αと、に基づいて、加算成分である輝度成分Y’_highを算出し、この輝度成分Y’_highを合成部520aへ出力する。具体的には、以下の式(1)によって、加算成分である輝度成分Y’_highを算出する。
Y’_high=α×Y’_high+(1−α)×NB_high ・・・(1)
ここで、重み付け係数αは、0から1の自然数である。
減算部519は、第1色空間変換部514から入力された輝度成分Yと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highとに基づいて、低周波成分Y_lowを算出し、この低周波成分Y_lowを合成部520aへ出力する。具体的には、減算部519は、第1色空間変換部514から入力された輝度成分Yから第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highを減算した差分成分(残差成分)である低周波成分Y_lowを算出する。より具体的には、減算部519は、以下の式(2)によって、低周波成分Y_lowを算出する。
Y_low=Y−Y_high ・・・(2)
合成部520aは、加算部518から入力された加算成分である輝度成分Y’_highと、減算部519から入力された差分成分である低周波成分Y_lowと、に基づいて、輝度成分Y’を算出し、この輝度成分Y’を第2色空間変換部516へ出力する。
〔プロセッサの処理〕
次に、プロセッサ5aが実行する処理について説明する。図11は、プロセッサ5aが実行する処理の概要を示すフローチャートである。図11において、ステップS201は、上述した図7のステップS101に対応する。
ステップS202において、第1抽出部513bは、画像生成部512から入力されたNB画像に対して、第1の特定周波数成分を抽出する。具体的には、第1抽出部513bは、NB画像の高周波成分NB_highを抽出する。
続いて、第2抽出部513cは、第1色空間変換部514から入力された広帯域画像の輝度成分Yに対して、第2特定周波数成分を抽出する(ステップS203)。具体的には、第2抽出部513cは、広帯域画像の輝度成分Yの高周波成分Y_highを抽出する。
その後、加算部518は、入力部52によって入力された重み付け係数αに従って、第1抽出部513bから入力されたNB画像の高周波成分NB_highと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highと、を加算することによって輝度成分Y’_highを算出する(ステップS204)。
続いて、減算部519は、第1色空間変換部514から入力された輝度成分Yと、第2抽出部513cから入力された広帯域画像の高周波成分Y_highとに基づいて、低周波成分Y_lowを算出する(ステップS205)。
その後、合成部520aは、加算部518から入力された輝度成分Y’_highと、減算部519から入力された低周波成分Y_lowと、に基づいて、輝度成分Y’を算出する(ステップS206)。
ステップS207〜ステップS209は、上述した図7のステップS106〜ステップS108それぞれに対応する。
以上説明した本発明の実施の形態2によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
なお、本発明の実施の形態2では、加算部518が入力部52によって入力された重み付け係数αに従って、第1抽出部513bから入力されたNB画像の高周波成分NB_highと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highと、を加算して加算成分の輝度成分Y’_highを算出していたが、重み付け係数αを考慮することなく、第1抽出部513bから入力されたNB画像の高周波成分NB_highと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highと、を単に加算して、加算成分の輝度成分Y’_highを算出してもよい。
(実施の形態3)
次に、本発明の実施の形態3について説明する。本実施の形態3に係る内視鏡システムは、上述した実施の形態2に係る内視鏡システム1aと構成が異なる。具体的には、本実施の形態3は、上述した実施の形態2に係るプロセッサ5aと構成が異なる。さらに、本実施の形態3に係る内視鏡システムは、上述した実施の形態2に係るプロセッサ5aが実行する処理と異なる。具体的には、上述した実施の形態2では、入力部52を介して重み付け係数αの値を入力していたが、本実施の形態3では、重み付け係数αを自動的に算出する。以下においては、本実施の形態3に係る内視鏡システムの構成を説明後、プロセッサが実行する処理について説明する。なお、上述した実施の形態2に係る内視鏡システム1aと同一の構成には同一の符号を付して説明を省略する。
〔内視鏡システムの構成〕
図12は、本実施の形態3に係る内視鏡システムの要部の機能を示すブロック図である。図12に示す内視鏡システム1bは、上述した実施の形態2に係る内視鏡システム1aのプロセッサ5aに換えて、プロセッサ5bを備える。
〔プロセッサの構成〕
図12に示すプロセッサ5bは、上述した実施の形態2に係る画像処理部51aに換えて、画像処理部51bを備える。
画像処理部51bは、GPUやFPGA等を用いて構成され、内視鏡2から画像データを取得し、取得した画像データに対して所定の画像処理を施して表示装置4へ出力する。画像処理部51bは、上述した実施の形態2に係る画像処理部51aの構成に加えて、係数算出部521をさらに有する。
係数算出部521は、第1抽出部513bから入力される狭帯域画像における各画素の高周波成分NB_high(i,j)と、第2抽出部513cから入力される広帯域画像における各画素の高周波成分Y_high(i,j)と、に基づいて、加算部518が狭帯域画像の高周波成分NB_highと、広帯域画像の高周波成分Y_highとを加算する際の重み付け係数αを算出する。
〔プロセッサの処理〕
次に、プロセッサ5bが実行する処理について説明する。図13は、プロセッサ5bが実行する処理の概要を示すフローチャートである。図13において、ステップS301〜ステップS303は、上述した図11のステップS201〜ステップS203それぞれに対応する。
ステップS304において、係数算出部521は、第1抽出部513bから入力される狭帯域画像における各画素の高周波成分NB_high(i,j)と、第2抽出部513cから入力される広帯域画像における各画素の高周波成分Y_high(i,j)と、に基づいて、1フレーム毎の重み付け係数αを算出する。具体的には、係数算出部521は、狭帯域画像における各画素の高周波成分NB_highの総和をWa_NB_high、広帯域画像における各画素の高周波成分Y_highの総和Wa_Y_highとした場合、以下の式(3)〜(5)によって、重み付け係数αを算出する。
Figure 2018105089
(i,j)は、画素の位置を示す。
ステップS305〜ステップS310は、上述した図11のステップS204〜ステップS209それぞれに対応する。
以上説明した本発明の実施の形態3によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
なお、本発明の実施の形態3では、係数算出部521は、第1抽出部513bから入力される狭帯域画像における各画素の高周波成分NB_high(i,j)と、第2抽出部513cから入力される広帯域画像における各画素の高周波成分Y_high(i,j)と、に基づいて、1フレーム毎の重み付け係数αを算出していたが、例えば画素毎に重み付け係数αを算出してもよい。具体的には、以下の式(6)によって、重み付け係数α(i,j)を算出する。
Figure 2018105089
加算部518は、画素毎に係数算出部521によって算出された重み付け係数α(i,j)に従って、第1抽出部513bから入力されたNB画像の高周波成分NB_high(i,j)と、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_high(i,j)と、を加算することによって輝度成分Y’_high(i,j)を算出することができる。
(実施の形態4)
次に、本発明の実施の形態4について説明する。本実施の形態4に係る内視鏡システムは、上述した実施の形態2に係る内視鏡システム1aと構成が異なるうえ、実行する処理が異なる。具体的には、上述した実施の形態2では、カラーフィルタが1種類(1バンド)の狭帯域光を透過していていたが、本実施の形態4では、カラーフィルタが少なくとも2種類(2バンド)の狭帯域光を透過する。以下においては、本実施の形態4に係る内視鏡システムの構成を説明後、プロセッサが実行する処理について説明する。なお、上述した実施の形態2に係る内視鏡システム1aと同一の構成には同一の符号を付して説明を省略する。
〔内視鏡システムの構成〕
図14は、本実施の形態4に係る内視鏡システムの要部の機能を示すブロック図である。図14に示す内視鏡システム1cは、上述した実施の形態2に係る内視鏡システム1aの内視鏡2およびプロセッサ5aに換えて、内視鏡2cおよびプロセッサ5cを備える。
〔内視鏡の構成〕
まず、内視鏡2cの構成について説明する。
内視鏡2cは、上述した実施の形態2に係る内視鏡の撮像部202に換えて、撮像部202cを備える。撮像部202cは、上述した実施の形態2に係るカラーフィルタ212に換えて、カラーフィルタ212cを有する。
カラーフィルタ212cは、赤色の波長帯域の光を透過する広帯域フィルタRと、緑色の波長帯域の光を透過する広帯域フィルタGと、青色の波長帯域の光を透過する広帯域フィルタBと、青色の波長帯域であって、青色の波長帯域よりも狭い波長帯域の光を透過する狭帯域フィルタNBと、緑色の波長帯域であって、緑色の波長帯域よりも狭い波長帯域の光を透過する狭帯域フィルタNGと、を含むフィルタユニットを用いて構成され、このフィルタユニットを撮像素子211の画素に対応させて配置してなる。
図15は、カラーフィルタ212cの構成を模式的に示す図である。図15に示すように、カラーフィルタ212cは、赤色の成分を透過する2つの広帯域フィルタR、緑色の成分を透過する8つの広帯域フィルタG、青色の成分を透過する2つの広帯域フィルタBおよび狭帯域の光を透過させる2つの狭帯域フィルタNBと、緑色の波長帯域よりも狭い波長帯域の光を透過する2つの狭帯域フィルタNGと、を1組とする所定の配列パターンを形成したフィルタユニットを用いて構成される。カラーフィルタ212cは、上述した配列パターンを形成する個々のフィルタが2次格子状に配列された撮像素子211の複数の画素のいずれかに対応する位置に配置される。
図16は、カラーフィルタ212cを構成する狭帯域フィルタNBおよび狭帯域フィルタNGの透過率と波長との関係を示す図である。図16において、横軸が波長(nm)を示し、縦軸が透過率を示す。また、図16において、曲線LNBが狭帯域フィルタNBの透過率と波長との関係を示し、曲線LNGが狭帯域フィルタNGの透過率と波長との関係を示す。さらに、図16において、狭帯域フィルタNBのピーク波長を390nmから445nmの範囲、狭帯域フィルタNGのピーク波長を530nmから550nmの範囲にある場合について説明する。
図16に示すように、狭帯域フィルタNBの分光特性は、広帯域フィルタBよりも狭く、広帯域フィルタBの波長帯域に含まれる。また、狭帯域フィルタNGの分光特性は、広帯域フィルタGよりも狭く、広帯域フィルタGの波長帯域に含まれる。なお、以下においては、狭帯域フィルタNGが配置されてなる画素をNG画素という。
〔プロセッサの構成〕
次に、プロセッサ5cの構成について説明する。
図14に示すプロセッサ5cは、上述した実施の形態2に係るプロセッサ5aの画像処理部51aに換えて、画像処理部51cを備える。画像処理部51cは、画像処理部51bの構成に加えて、第3抽出部513dをさらに有する。
画像生成部512cは、取得部511から入力された各画素(各チャンネル)の画素値に基づいて、画素値が欠損する画素の画素値を補完する周知のデモザイキング処理を行うことによって、赤色の波長帯域の光に対応するR画像(第1補間画像データ)、緑色の波長帯域の光に対応するG画像(第2補間画像データ)、青色の波長帯域の光に対応するB画像(第3補間画像データ)、狭帯域光に対応するNB画像(第4補間画像データ)および狭帯域光に対応するNG画像(第5補間画像データ)の各々を生成する。画像生成部512cは、R画像、G画像およびB画像を第1色空間変換部514、NB画像を第1抽出部513bおよびNG画像を第3抽出部513dそれぞれに出力する。
第3抽出部513dは、画像生成部512cから入力されたNG画像に対して、特定周波数成分を抽出し、この抽出した特定周波数成分を加算部518cへ出力する。具体的には、第3抽出部513dは、NG画像に対して、所定の閾値より高い高周波成分を抽出する。より具体的には、第3抽出部513dは、NG画像を構成する各画素の画素値に対して、例えば3×3のハイパスフィルタを用いて、NG画像の高周波成分NG_highをNG画像の特徴成分として抽出し、この高周波成分NG_highを加算部518cへ出力する。
加算部518cは、狭帯域画像NBの高周波成分NB_highと、狭帯域画像NGの高周波成分NG_highと、広帯域画像の高周波成分Y_highと、入力部52を介して入力される重み付け係数α,βと、に基づいて、輝度成分Y’_highを算出する。具体的には、加算部518cは、以下の式(7)によって輝度成分Y’_highを算出する。
Y’_high=(1−α−β)Y_high+α×NB_high+β×NG_high
・・・(7)
〔プロセッサの処理〕
次に、プロセッサ5cの処理について説明する。図17は、プロセッサ5cが実行する処理の概要を示すフローチャートである。図17において、ステップS401〜ステップS403は、上述した図13のステップS301〜ステップS303それぞれに対応する。
ステップS404において、第3抽出部513dは、画像生成部512cから入力されたNG画像に対して、第3の特定周波数成分を抽出する。具体的には、第3抽出部513dは、NG画像を構成する各画素の画素値に対して、例えば3×3のハイパスフィルタを用いて、NG画像の高周波成分NG_highをNG画像の特徴成分として抽出し、この高周波成分NG_highを加算部518cへ出力する。
ステップS405〜ステップS410は、上述した図13のステップS305〜ステップS310それぞれに対応する。
以上説明した本発明の実施の形態4によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
(その他の実施の形態)
また、本発明の実施の形態1〜4では、内視鏡システム1,1a〜1cに、内視鏡2,2c、表示装置4、記録部53および制御部54の各々を設けていたが、これらの構成要素は発明の要旨を逸脱しない範囲内で削除してもよい。また、上述した実施の形態1〜4に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態1〜4に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した実施の形態1〜4で説明した構成要素を適宜組み合わせてもよい。
また、本発明の実施の形態では、上記してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
また、本発明の実施の形態では、入出力をRGB(原色)で説明していたが、これに限定されることなく、入出力をCMY(補色)であっても適用することができる。
また、本発明の実施の形態では、伝送ケーブルを介して画像データを画像処理装置へ送信していたが、例えば有線である必要はなく、無線であってもよい。この場合、所定の無線通信規格(例えばWi−Fi(登録商標)やBluetooth(登録商標))に従って、画像データ等を画像処理装置へ送信するようにすればよい。もちろん、他の無線通信規格に従って無線通信を行ってもよい。
また、本発明の実施の形態では、光源装置と画像処理装置(プロセッサ)とが別体で形成されていたが、これに限定されることなく、例えば画像処理装置と光源装置とが一体的に形成された構成としてもよい。
また、本発明の実施の形態では、同時式の内視鏡を例に説明したが、面順次の内視鏡であっても適用することができる。さらに、本発明の実施の形態では、狭帯域光以外にも、所定の狭帯域光を照射可能な内視鏡であっても適用することができる。さらにまた、本発明の実施の形態では、硬性内視鏡以外にも、軟性内視鏡(上下内視鏡)、副鼻腔内視鏡およびカプセル型内視鏡であっても適用することができる。
また、本発明の実施の形態では、被検体に挿入される内視鏡であったが、例えばカプセル型の内視鏡または被検体を撮像する撮像装置であっても適用することができる。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いて各処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
1,1a〜1c 内視鏡システム
2,2c 内視鏡
3 光源装置
4 表示装置
5,5a〜5c プロセッサ
21 挿入部
22 操作部
51,51a〜51c 画像処理部
52 入力部
53 記録部
53a プログラム記録部
54 制御部
201 光学系
202,202c 撮像部
211 撮像素子
212,212c カラーフィルタ
511,512c 取得部
513,513a 抽出部
513b 第1抽出部
513c 第2抽出部
513d 第3抽出部
514 第1色空間変換部
515,520a 合成部
516 第2色空間変換部
517 カラー画像生成部
518,518c 加算部
519 減算部
601 算出部
521 係数算出部
600 低周波成分抽出部

Claims (9)

  1. 赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれよりも狭い波長帯域の狭帯域光を受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得部と、
    前記取得部が取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成部と、
    前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換部と、
    前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出部と、
    前記色空間変換部が変換した前記輝度成分と前記第1抽出部が抽出した前記第1特定周波数成分とを合成する合成部と、
    前記合成部が合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成部と、
    を備えることを特徴とする画像処理装置。
  2. 前記第1抽出部は、所定の第1閾値より高い高周波成分を前記第1特定周波数成分として抽出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記合成部が前記輝度成分と前記第1特定周波数成分とを合成する際の重み付け係数の入力を受け付ける入力部をさらに備え、
    前記合成部は、前記重み付け係数に従って、前記輝度成分と前記第1特定周波数成分とを合成することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記輝度成分に含まれる第2特定周波数成分を抽出する第2抽出部と、
    前記輝度成分から前記第2抽出部が抽出した前記第2特定周波数成分を減算した差分成分を算出する算出部と、
    前記第1抽出部が抽出した前記第1特定周波数成分と、前記第2抽出部が抽出した前記第2特定周波数成分を加算した加算成分を算出する加算部と、
    をさらに備え、
    前記合成部は、前記算出部が算出した前記差分成分と、前記加算部が算出した加算成分と、を合成することを特徴とする請求項2に記載の画像処理装置。
  5. 前記第1抽出部および前記第2抽出部は、所定の第2閾値より高い高周波成分を前記第1特定周波数成分または前記第2特定周波数成分として抽出することを特徴とする請求項4に記載の画像処理装置。
  6. 前記第1特定周波数成分と前記第2特定周波数成分とを加算する際の重み付け係数の入力を受け付ける入力部をさらに備え、
    前記加算部は、前記重み付け係数に従って、前記第1特定周波数成分と前記第2特定周波数成分とを加算して前記加算成分を算出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記第1特定周波数成分と前記第2特定周波数成分とに基づいて、前記第1特定周波数成分と前記第2特定周波数成分とを加算する際の重み付け係数を算出する係数算出部をさらに備え、
    前記加算部は、前記重み付け係数に従って、前記第1特定周波数成分と前記第2特定周波数成分とを加算して前記加算成分を算出することを特徴とする請求項5に記載の画像処理装置。
  8. 画像処理装置が実行する画像処理方法であって、
    赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれを受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得ステップと、
    前記取得ステップで取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成ステップと、
    前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換ステップと、
    前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出ステップと、
    前記色空間変換ステップで変換した前記輝度成分と前記第1抽出ステップで抽出した前記第1特定周波数成分とを合成する合成ステップと、
    前記合成ステップで合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成ステップと、
    を含むことを特徴とする画像処理方法。
  9. 画像処理装置に、
    赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれよりも狭い波長帯域の狭帯域光を受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得ステップと、
    前記取得ステップで取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成ステップと、
    前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換ステップと、
    前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出ステップと、
    前記色空間変換ステップで変換した前記輝度成分と前記第1抽出ステップで抽出した前記第1特定周波数成分とを合成する合成ステップと、
    前記合成ステップで合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成ステップと、
    を実行させることを特徴とするプログラム。
JP2018555405A 2016-12-08 2016-12-08 画像処理装置、画像処理方法およびプログラム Pending JPWO2018105089A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/086633 WO2018105089A1 (ja) 2016-12-08 2016-12-08 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JPWO2018105089A1 true JPWO2018105089A1 (ja) 2019-10-24

Family

ID=62490798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018555405A Pending JPWO2018105089A1 (ja) 2016-12-08 2016-12-08 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US10863149B2 (ja)
JP (1) JPWO2018105089A1 (ja)
WO (1) WO2018105089A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082232A1 (ja) * 2017-10-23 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法及びプログラム
US20220028301A1 (en) * 2019-01-30 2022-01-27 Sony Group Corporation Encryption device and encryption method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6943837B1 (en) * 1999-12-31 2005-09-13 Intel Corporation Method and apparatus for colormetric channel balancing for solid state image sensor using time division multiplexed sampling waveforms
JP4554944B2 (ja) * 2004-01-15 2010-09-29 Hoya株式会社 内視鏡装置
JP5501210B2 (ja) * 2010-12-16 2014-05-21 富士フイルム株式会社 画像処理装置
US8774519B2 (en) * 2012-08-07 2014-07-08 Apple Inc. Landmark detection in digital images
KR102069533B1 (ko) * 2013-05-03 2020-01-28 삼성전자주식회사 이미지 신호 처리장치 및 방법과 이를 이용한 영상 처리 시스템
KR102159256B1 (ko) * 2013-11-25 2020-09-23 삼성전자 주식회사 픽셀 어레이 및 이를 포함하는 이미지 센서
JP6588043B2 (ja) * 2015-02-10 2019-10-09 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理装置の作動方法およびプログラム
JPWO2017221335A1 (ja) * 2016-06-21 2019-04-11 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
WO2018105089A1 (ja) 2018-06-14
US10863149B2 (en) 2020-12-08
US20190253675A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
CN108109134B (zh) 图像处理装置及其工作方法
JP6495539B2 (ja) 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP5887367B2 (ja) プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
US10070771B2 (en) Image processing apparatus, method for operating image processing apparatus, computer-readable recording medium, and endoscope device
US10694100B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP5485215B2 (ja) 内視鏡装置
JP6329715B1 (ja) 内視鏡システムおよび内視鏡
WO2016079831A1 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび内視鏡装置
JP2014221168A (ja) プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
WO2016117036A1 (ja) 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
WO2016084257A1 (ja) 内視鏡装置
WO2017022324A1 (ja) 画像信号処理方法、画像信号処理装置および画像信号処理プログラム
US10574934B2 (en) Ultrasound observation device, operation method of image signal processing apparatus, image signal processing method, and computer-readable recording medium
US10863149B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
WO2018150627A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2017203996A1 (ja) 画像信号処理装置、画像信号処理方法および画像信号処理プログラム
JP7234320B2 (ja) 画像処理装置および画像処理装置の作動方法
WO2017017735A1 (ja) 画像処理装置、表示制御方法およびプログラム
JP6801990B2 (ja) 画像処理システムおよび画像処理装置
WO2017046876A1 (ja) 内視鏡システム、画像処理装置および画像処理方法