JP2021029509A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2021029509A
JP2021029509A JP2019151777A JP2019151777A JP2021029509A JP 2021029509 A JP2021029509 A JP 2021029509A JP 2019151777 A JP2019151777 A JP 2019151777A JP 2019151777 A JP2019151777 A JP 2019151777A JP 2021029509 A JP2021029509 A JP 2021029509A
Authority
JP
Japan
Prior art keywords
image
light
narrow band
band
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019151777A
Other languages
English (en)
Other versions
JP7352411B2 (ja
Inventor
淳也 福元
Junya Fukumoto
淳也 福元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019151777A priority Critical patent/JP7352411B2/ja
Priority to US16/988,893 priority patent/US11789283B2/en
Publication of JP2021029509A publication Critical patent/JP2021029509A/ja
Application granted granted Critical
Publication of JP7352411B2 publication Critical patent/JP7352411B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/1013Beam splitting or combining systems for splitting or combining different wavelengths for colour or multispectral image sensors, e.g. splitting an image into monochromatic image components on respective sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/12Beam splitting or combining systems operating by refraction only
    • G02B27/126The splitting element being a prism or prismatic array, including systems based on total internal reflection

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Signal Processing (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

【課題】観察するのに充分な画質を確保すること。【解決手段】実施形態に係る撮像装置は、光学素子を備える。前記光学素子は、入射光を2種類以上の波長帯域の光に分解する。前記入射光は、狭帯域光源から出射された光を含む。前記2種類以上の波長帯域の光のうちの少なくとも1つの光は、前記狭帯域光源から出射される光の波長の幅に対応する帯域幅で分解された狭帯域の光である。【選択図】図1

Description

本発明の実施形態は、撮像装置に関する。
撮像装置、例えば、内視鏡装置では、以前は、CCD(Charge Coupled Device)イメージセンサが主流であったが、近年、低コスト化、単電源化、低消費電力化等の利点を有するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが主流になっている。CMOSイメージセンサでは、ローリングシャッタ方式が一般的に多く採用されている。
特開2018−175871号公報
本明細書に開示の実施形態が解決しようとする課題の一つは、観察するのに充分な画質を確保することである。ただし、上記課題に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果を奏することも、本明細書等に開示の実施形態が解決する他の課題として位置づけることができる。
実施形態に係る撮像装置は、光学素子を備える。前記光学素子は、入射光を2種類以上の波長帯域の光に分解する。前記入射光は、狭帯域光源から出射された光を含む。前記2種類以上の波長帯域の光のうちの少なくとも1つの光は、前記狭帯域光源から出射される光の波長の幅に対応する帯域幅で分解された狭帯域の光である。
図1は、本実施形態に係る撮像装置を備える撮像システムの構成例を示す図である。 図2は、比較例に係る撮像装置の構成の一部を示す図である。 図3は、本実施形態に係る撮像装置の構成の一部を示す図である。 図4は、本実施形態に係る撮像装置の処理を説明するための図である。 図5は、本実施形態に係る撮像装置の撮像動作の一例を示す図である。
以下、図面を参照して、各実施形態に係る撮像装置を説明する。なお、実施形態は、以下の内容に限られるものではない。また、一つの実施形態や変形例に記載した内容は、原則として他の実施形態や変形例にも同様に適用される。
図1は、本実施形態に係る撮像装置10を備える撮像システム1の構成例を示す図である。図1に示すように、本実施形態に係る撮像システム1は、撮像装置10と、光源装置30と、光ファイバ31とを備える。
撮像装置10は、例えば、医療用の硬性内視鏡として用いられ、被検体100の体内を撮像する装置である。撮像装置10は、スコープ11と、カメラヘッド12と、カメラケーブル13と、CCU(Camera Control Unit)14とを備える。なお、撮像装置10は、硬性内視鏡だけに限定されない。
スコープ11は、撮像が行われる際に、被検体100の体内に挿入される。スコープ11の先端には、対物レンズ11aが設けられている。
カメラヘッド12は、プリズム12aと、複数のイメージセンサ12b、12c、12dと、イメージセンサ制御回路12eとを備える。
プリズム12aは、入射された光を2種類以上の波長帯域の光に分解する。例えば、プリズム12aは、入射された光を、狭帯域の光と、当該狭帯域の光の波長帯域以外の波長帯域の光とに分光する。具体的には、プリズム12aは、入射された光を、狭帯域の光、広帯域の光、及び、赤外線の波長帯域の光に分光する。広帯域は、狭帯域よりも広い波長帯域であり、狭帯域の光の波長帯域以外の可視光帯域の光である。プリズム12aは、光学素子の一例である。
複数のイメージセンサは、プリズム12aにより分解された2種類以上の波長帯域の光をそれぞれ受光する。例えば、複数のイメージセンサは、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。例えば、複数のイメージセンサとして、イメージセンサ12b、12c、12dは、プリズム12aにより分解された広帯域の光、狭帯域の光、及び、赤外線の波長帯域の光をそれぞれ受光する。イメージセンサ12bは、例えば、広帯域に対応し(図1では「Wch(チャンネル)」と記載)、プリズム12aの広帯域の分光の出射面に設けられる。イメージセンサ12cは、例えば、狭帯域に対応し(図1では「Nch」と記載)、プリズム12aの狭帯域の分光の出射面に設けられる。イメージセンサ12dは、例えば、赤外線の波長帯域に対応し(図1では「IRch」と記載)、プリズム12aの赤外線の波長帯域の分光の出射面に設けられる。以下、イメージセンサ12b、12c、12dを、それぞれ、Wch側のイメージセンサ12b、Nch側のイメージセンサ12c、IRch側のイメージセンサ12dと記載することもある。イメージセンサ12b、12c、12dの撮像面は、スコープ11を含む光学系の結像面と略一致するように配置されている。イメージセンサ12b、12c、12dは、撮像素子の一例である。
イメージセンサ12b、12c、12dのそれぞれは、複数の画素(撮像要素)を備える。複数の画素は、撮像面において行列状に配置される。各画素は、イメージセンサ制御回路12eによる駆動制御により、光を受光することにより映像信号(電気信号)を発生し、発生した映像信号を出力する。具体的には、例えば、イメージセンサ12bは、カラーセンサであり、イメージセンサ12bの各画素は、広帯域の光を受光することにより、RGB画像である広帯域画像の映像信号を出力する。例えば、イメージセンサ12cは、白黒センサであり、イメージセンサ12cの各画素は、狭帯域の光を受光することにより、狭帯域画像の映像信号を出力する。例えば、イメージセンサ12dは、白黒センサであり、イメージセンサ12dの各画素は、赤外線の波長帯域の光を受光することにより、IR画像の映像信号を出力する。例えば、イメージセンサ12b、12c、12dを備えるカメラヘッド12は、カメラケーブル13を介して、CCU14にRGB信号を出力する。なお、イメージセンサ12b、12c、12dからは、アナログ形式の映像信号が出力される。或いは、イメージセンサ12b、12c、12dが図示しないADコンバータ(Analog to Digital)を内蔵する場合、イメージセンサ12b、12c、12dからは、デジタル形式の映像信号が出力される。
ここで、本実施形態に係る撮像装置10は、例えば、被検体100に対して、ICG(インドシアニングリーン)蛍光造影法による外科手術を行う際に用いられる。この場合、被検体100に、ICGが投与される。ICGは、IRレーザ30dから出射される励起光により励起され、800〜850nm程度の近赤外蛍光(以下、蛍光と称する)を発する。ICG蛍光造影法の場合、スコープ11とプリズム12aとの間に、励起光をカットするフィルタが設けられており、上記蛍光はイメージセンサ12dにより受光される。すなわち、イメージセンサ12dは、励起光に基づく蛍光を受光することにより、IR画像の映像信号を出力する。
イメージセンサ12b、12c、12dのそれぞれは、複数の画素の最初の行から最後の行に向かって、少なくとも1行毎に順次露光を開始し、露光が終了した行から順に映像信号を出力する処理を、1フレーム(画像)毎に繰り返すローリングシャッタ方式のイメージセンサである。ここで、露光とは、例えば、画素が電荷を蓄積することを意味する。
イメージセンサ制御回路12eは、後述する制御回路14aから出力された制御信号、並びに、後述するタイミング信号発生回路14fから出力された各種の同期信号に基づいてイメージセンサ12b、12c、12dを駆動制御する。例えば、イメージセンサ12b、12c、12dがアナログ形式の映像信号を出力する場合、イメージセンサ制御回路12eは、制御信号及び各種の同期信号に基づいて、イメージセンサ12b、12c、12dから出力されるアナログ形式の映像信号に適宜ゲイン(アナログゲイン)をかけて(映像信号を増幅して)、ゲインがかけられた映像信号をCCU14に出力するように、イメージセンサ12b、12c、12dを制御する。或いは、イメージセンサ12b、12c、12dがデジタル形式の映像信号を出力する場合、イメージセンサ制御回路12eは、制御信号及び各種の同期信号に基づいて、イメージセンサ12b、12c、12dから出力されるデジタル形式の映像信号に適宜ゲイン(デジタルゲイン)をかけて、ゲインがかけられた映像信号をCCU14に出力するように、イメージセンサ12b、12c、12dを制御する。
カメラケーブル13は、カメラヘッド12とCCU14との間で映像信号、制御信号及び同期信号を送受信するための信号線を収容するケーブルである。
CCU14は、カメラヘッド12から出力された映像信号に各種の画像処理を施すことにより、ディスプレイ101に表示させる画像を示す画像データを生成し、CCU14に接続されたディスプレイ101に画像データを出力する。なお、各種の画像処理が施された映像信号は、ディスプレイ101に表示させる画像を示す画像データである。
CCU14は、制御回路14aと、記憶制御回路14bと、画像処理回路14cと、画像合成回路14dと、出力回路14eと、タイミング信号発生回路14fと、記憶回路14gとを備える。なお、イメージセンサ12b、12c、12dがアナログ形式の映像信号を出力する場合、CCU14は、図示しないADコンバータ等も備える。かかるADコンバータは、例えば、イメージセンサ12b、12c、12dから出力されたアナログ形式の映像信号をデジタル形式の映像信号に変換する。
制御回路14aは、撮像装置10の各種の構成要素を制御する。例えば、制御回路14aは、イメージセンサ制御回路12e、記憶制御回路14b、画像処理回路14c、画像合成回路14d、出力回路14e及びタイミング信号発生回路14fの各回路に対して制御信号を出力して、各回路を制御する。制御回路14aは、記憶回路14gに記憶された撮像装置10の制御プログラムを読み込み、読み込んだ制御プログラムを実行することで、撮像装置10の各種の構成要素を制御する制御処理を実行する。或いは、制御回路14aは、内部に図示しない記憶回路を有しており、当該記憶回路に記憶された制御プログラムを実行する。制御回路14aは、例えば、MPU(Micro-Processing Unit)等のプロセッサにより実現される。
記憶制御回路14bは、制御回路14aから出力された制御信号、並びに、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、カメラヘッド12から出力された映像信号を記憶回路14gに記憶させる制御を行う。また、記憶制御回路14bは、制御信号及び同期信号に基づいて、記憶回路14gに記憶された映像信号を1行毎に読み取る。そして、記憶制御回路14bは、読み取った1行分の映像信号を画像処理回路14cに出力する。
画像処理回路14cは、制御回路14aから出力された制御信号、及び、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、記憶制御回路14bから出力された映像信号に対して各種の画像処理を施す。これにより、画像処理回路14cは、ディスプレイ101に表示させる画像を示す画像データを生成する。すなわち、画像処理回路14cは、映像信号に基づいて、画像を生成する。例えば、画像処理回路14cは、記憶制御回路14bから出力された映像信号に対してゲイン(デジタルゲイン)をかけて、画像の明るさを調整する。また、画像処理回路14cは、記憶制御回路14bから出力された映像信号に対して、ノイズを低減させるノイズリダクション処理や輪郭を強調する輪郭強調処理等を行ってもよい。そして、画像処理回路14cは、各種の画像処理が施された映像信号(ディスプレイ101に表示させる画像を示す画像データ)を画像合成回路14dに出力する。
画像合成回路14dは、制御回路14aから出力された制御信号、並びに、タイミング信号発生回路14fから出力された各種の同期信号に基づいて、画像処理回路14cから出力された映像信号を合成して合成画像データを生成する。そして、画像合成回路14dは、合成画像データをディスプレイ101に出力する。画像処理回路14c及び画像合成回路14dは、処理部の一例である。
例えば、記憶制御回路14b、画像処理回路14c及び画像合成回路14dは、DSP(Digital Signal Processor)等の1つのプロセッサにより実現される。また、例えば記憶制御回路14b、画像処理回路14c及び画像合成回路14d、タイミング信号発生回路14fは、1つのFPGA(Field Programmable Gate Array)により実現される。なお、制御回路14a、記憶制御回路14b、画像処理回路14c、画像合成回路14dは、1つの処理回路により実現されてもよい。この処理回路は、例えば、プロセッサにより実現される。
出力回路14eは、画像合成回路14dから出力された合成画像データをディスプレイ101に出力する。これにより、ディスプレイ101は、合成画像データが示す合成画像を表示する。合成画像は、画像の一例である。出力回路14eは、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)ドライバIC(Integrated Circuit)やSDI(Serial Digital Interface)ドライバICなどにより実現される。
タイミング信号発生回路14fは、光源装置30からの光の出射タイミング、イメージセンサ12b、12c、12dの露光タイミング及び映像信号の出力タイミング、記憶制御回路14bによる記憶回路14gの制御タイミング等の各種のタイミングを一元管理する。
タイミング信号発生回路14fは、図示しない発振回路により生成されたクロック信号を基に水平同期信号及び垂直同期信号や、撮像装置10全体の同期をとるためのその他の同期信号等の各種の同期信号を生成する。そして、タイミング信号発生回路14fは、生成した各種の同期信号をイメージセンサ制御回路12e、制御回路14a、記憶制御回路14b、画像処理回路14c、画像合成回路14d及び出力回路14eの各回路に出力する。
また、タイミング信号発生回路14fは、クロック信号、及び、制御回路14aから出力された制御信号を基に、光源制御信号を生成する。光源制御信号は、光源装置30から出射される光を制御するとともに撮像システム1全体の同期をとるための制御信号である。そして、タイミング信号発生回路14fは、生成した光源制御信号を光源装置30に出力する。
例えば、光源制御信号の波形は、矩形波であり、光源制御信号は、ハイ(high)レベル及びロー(low)レベルの2つのレベル(状態)を有する。例えば、光源制御信号は、ハイレベルの間、光源装置30から光を出射させ、ローレベルの間、光源装置30からの光の出射を停止させる制御信号である。
記憶回路14gは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。ROM(又は、フラッシュメモリやハードディスクなど)は、各種のプログラムを記憶する。例えば、ROMは、制御回路14aにより実行される制御プログラムを記憶する。また、RAMには、記憶制御回路14bにより映像信号が一時的に格納される。
光源装置30は、光源制御信号に基づいて、各種の光を出射する。光源装置30は、駆動回路30aと、広帯域光源30bと、駆動回路30cと、狭帯域光源30dと、駆動回路30eと、IR光源30fとを備える。
駆動回路30aは、タイミング信号発生回路14fから出力される光源制御信号に基づいて、広帯域光源30bを駆動させて点灯させる駆動制御を行う。広帯域光源30bは、例えば、白色LED(Light Emitting Diode)であり、駆動回路30aによる駆動制御により、広帯域の光として、白色光を出射する。白色光は、例えば、可視光である。なお、広帯域の光は、プリズム12aにより分解され、イメージセンサ12bにより受光される。
駆動回路30cは、タイミング信号発生回路14fから出力される光源制御信号に基づいて、狭帯域光源30dを駆動させて点灯させる駆動制御を行う。狭帯域光源30dは、例えば、青色LED又は青色レーザであり、駆動回路30cによる駆動制御により、狭帯域の光として、青色の光を出射する。青色の光は、例えば、可視光である。なお、狭帯域の光は、プリズム12aにより分解され、イメージセンサ12cにより受光される。
駆動回路30eは、タイミング信号発生回路14fから出力される光源制御信号に基づいて、IR光源30fを駆動させて、IR光源30fから励起光を出射させる駆動制御を行う。IR光源30fは、例えば、IRレーザであり、駆動回路30eによる駆動制御により、励起光を出射する。なお、励起光によりICGが励起されてICGから出射された蛍光(励起光に基づく蛍光)は、プリズム12aにより分解され、イメージセンサ12dにより受光される。
光ファイバ31は、光源装置30からの各種の光をスコープ11の先端部に導いて、スコープ11の先端部から出射させる。
以上、本実施形態に係る撮像システム1の撮像装置10の構成例について説明した。ここで、比較例に係る撮像装置について説明する。比較例に係る撮像装置は、一般的な撮像装置である。例えば、比較例に係る撮像装置は、狭帯域光源30d及び駆動回路30cなどの機能を備えておらず、上述したプリズム12a及びイメージセンサ12b、12c、12dに代えて、図2に示すプリズム112a及びイメージセンサ112b、112c、112dを備えている。例えば、プリズム112aは三色分解ダイクロイックプリズムであり、イメージセンサ112b、112c、112dは白黒センサである。比較例に係る撮像装置において、白色光を出射させた場合、イメージセンサ112b、112c、112dは、それぞれ、プリズム112aにより分解された赤色(R+IR)の光、緑色(G)の光及び青色(B)の光を受光し、R信号(Rの映像信号)、G信号(Gの映像信号)、B信号(Bの映像信号)を出力する。これにより、比較例に係る撮像装置は、R信号、G信号、B信号(RGB信号)に基づいてRGB画像を取得することができる。
このように、比較例に係る撮像装置は、白色光などの広帯域の光を撮像対象にあてて、プリズム112aにより分解された広帯域の光をイメージセンサ112b、112c、112dが受光することにより、RGB画像を取得する。出射される白色光は、青色の波長帯域から赤色の波長帯域を超えて赤外線の波長帯域までの広帯域の光であるため、取得される画像には、撮像対象の色成分が含まれる。このため、比較例に係る撮像装置は、撮像対象の色を正しく再現することができる。しかしながら、光の反射や散乱の特性は、波長によって異なる。例えば、光の反射や散乱の特性は、赤色の波長帯域、緑色の波長帯域、青色の波長帯域によって異なる。このため、白色光などの広帯域の光を出射させて画像を取得する際に、光の反射や散乱により、画像の解像度が低下する場合がある。例えば、撮像対象の表面の凹凸などの輪郭に関しては、光の反射や散乱により、コントラストが低下する場合がある。このため、画像を観察する医師等のユーザにとって、観察するのに画質が充分ではない場合がある。
一方、狭帯域の光を撮像対象にあてて、画像の解像度を上げる技術がある。例えば、LEDやレーザにより狭帯域の光として青色の波長帯域の光を撮像対象にあてて、画像を取得する場合、撮像対象の表面の凹凸などの輪郭に関して、コントラストを高めることができる。しかしながら、狭帯域の光として青色の波長帯域の光を撮像対象にあてる場合、色に関する情報は、青色だけであり、赤色や緑色などの他の色の情報が無い。このため、狭帯域の光だけを撮像対象にあてて画像を取得する場合、撮像対象の色を正しく再現することができない。
そこで、本実施形態に係る撮像装置10は、ユーザが観察するのに充分な画質を確保することができるように、以下の処理を行う。本実施形態に係る撮像装置10は、プリズム12aを備える。プリズム12aは、入射光を2種類以上の波長帯域の光に分解する光学素子である。入射光は、狭帯域光源30dから出射された光を含む。プリズム12aにより分解された2種類以上の波長帯域の光のうちの少なくとも1つの光は、狭帯域光源30dから出射される光の波長の幅に対応する帯域幅で分解された狭帯域の光である。
または、本実施形態に係る撮像装置10は、ユーザが観察するのに充分な画質を確保することができるように、以下の処理を行う。本実施形態に係る撮像装置10は、プリズム12aと、複数のイメージセンサとを備える。プリズム12aは、入射光を2種類以上の波長帯域の光に分解する光学素子である。複数のイメージセンサは、プリズム12aにより分解された2種類以上の波長帯域の光をそれぞれ受光する撮像素子である。複数のイメージセンサのうち、少なくとも1つのイメージセンサは、単独で、RGB画像を出力する。例えば、複数のイメージセンサのうち、少なくとも1つのイメージセンサは、狭帯域の光を受光することにより狭帯域画像を出力し、他の少なくとも1つのイメージセンサは、狭帯域よりも広い波長帯域である広帯域の光を受光することにより、RGB画像である広帯域画像を出力する。ここで、狭帯域の光を受光するイメージセンサは、例えば、モノクロ用のイメージセンサ(モノクロ撮像素子)を用いることができる。また、狭帯域よりも広い波長帯域である広帯域の光を受光するイメージセンサは、例えば、RGBカラーイメージセンサ(カラー撮像素子)を用いることができる。
具体的には、本実施形態に係る撮像装置10では、図3に示すように、プリズム12aは、入射された光を、広帯域の光、狭帯域の光、及び、赤外線の波長帯域の光に分光するプリズムであり、イメージセンサ12bがカラーセンサであり、イメージセンサ12c、12dが白黒センサである。本実施形態に係る撮像装置10では、イメージセンサ12b、12c、12dは、それぞれ、プリズム12aにより分解された広帯域の光、狭帯域の光、及び、赤外線の波長帯域の光を受光し、広帯域画像の映像信号、狭帯域画像の映像信号、IR画像の映像信号を出力する。これにより、本実施形態に係る撮像装置10では、画像処理回路14cは、広帯域画像の映像信号(RGB信号)に基づいてRGB画像を取得し、狭帯域画像と広帯域画像とに基づいて表示用画像を生成する。表示用画像は、例えば、狭帯域画像に含まれる撮像対象の輪郭成分と、広帯域画像又は広帯域画像と狭帯域画像との合成画像に含まれる撮像対象の色成分とを含む。
図4は、本実施形態に係る撮像装置10のプリズム12aにより分解される光の透過特性(分光透過特性)の一例を示す図である。図4には、狭帯域の光に対する分光透過特性と、広帯域の光に対する分光透過特性と、赤外線の波長帯域の光に対する分光透過特性との関係の一例が示されている。図4において、横軸は、波長[nm]を示す。また、図4において、曲線C1は、狭帯域の光に対する分光透過特性を示し、曲線C2は、広帯域の光に対する分光透過特性を示し、曲線C3は、赤外線の波長帯域の光に対する分光透過特性を示す。
曲線C1が示す狭帯域の光は、例えば、撮像対象の輪郭成分に使用される。具体的には、プリズム12a内には幾つか分光膜が設けられ、当該分光膜を透過する波長と反射する波長とがそれぞれ違う光路へ導かれることによって、プリズム12aのNchから、狭帯域の光として青色の光が分光される。白黒センサであるイメージセンサ12cは、プリズム12aにより分光された狭帯域の光を受光することにより、狭帯域画像の映像信号を出力する。ここで、狭帯域画像には、撮像対象の輪郭成分が含まれる。このため、本実施形態に係る撮像装置10は、撮像対象の表面の凹凸などの輪郭に関して、コントラストを高めることができ、解像度が向上する。
ここで、プリズム12aのNchから出射した狭帯域の光は、狭帯域光源30dから出射される光の波長の幅に対応する帯域幅(例えば、半値幅)で分解された光であり、その半値幅は、例えば、50[nm]以下に設定されている。なお、本実施形態では、半値幅が50[nm]以下に設定されている場合を例にしているが、これに限定されず、例えば、半値幅は、一般的なLEDの各発光色に相当する波長範囲以下に設定されてもよいし、レーザを用いる場合は1[nm]や10[nm]程度の狭い波長範囲に設定されてもよい。なお、半値幅には、半値全幅と、その半分の値の半値半幅とがあるが、本実施形態においては、どちらでもよい。
また、曲線C2が示す広帯域の光は、例えば、撮像対象の色成分に使用される。具体的には、プリズム12aのWchから、広帯域の光が分光され、カラーセンサであるイメージセンサ12bは、プリズム12aにより分光された広帯域の光を受光することにより、広帯域画像の映像信号を出力する。ここで、図4に示すように、曲線C2が示す広帯域の光が、曲線C1が示す狭帯域の光の波長帯域以外の可視光帯域の光である場合、広帯域画像、又は、広帯域画像と狭帯域画像との合成画像には、撮像対象の色成分が含まれる。このため、本実施形態に係る撮像装置10は、撮像対象の色を正しく再現することができる。
なお、曲線C3が示す赤外線の波長帯域の光は、例えば、後述の蛍光画像の生成に使用される。具体的には、プリズム12aのIRchから、赤外線の波長帯域の光が分光され、白黒センサであるイメージセンサ12dは、プリズム12aにより分光された赤外線の波長帯域の光を受光することにより、IR画像の映像信号を出力する。ここで、IR画像には、輝度が閾値以上の部分が存在し、当該部分を基に、後述の蛍光画像が生成される。
図5は、本実施形態に係る撮像装置10の撮像動作の一例を示す図である。図5には、光源装置30から出射される白色光、青色の光及び励起光の出射タイミングと、撮像装置10のイメージセンサ12b、12c、12dが備える複数の画素の各行の露光タイミングと、イメージセンサ12b、12c、12dから出力される映像信号の出力タイミングと、出力回路14eから出力される映像信号の出力タイミングとの関係の一例が示されている。図5において、横軸は、時間を示す。本実施形態では、撮像装置10からディスプレイ101に出力される映像信号(画像)のフレームレートを、60[fps]とし、読み出し期間を、1/60[s]とする。つまり、撮像装置10からディスプレイ101に1フレームの映像信号が出力される期間、及び、読み出し期間が1/60[s]であるものとする。
まず、撮像の開始時において、制御回路14aは、広帯域光源30bから白色光を連続的に出射させる第1の光源制御信号を出力させるための制御信号を、タイミング信号発生回路14fに出力する。タイミング信号発生回路14fは、当該制御信号に基づいて、第1の光源制御信号を駆動回路30aに出力し、駆動回路30aは、第1の光源制御信号に基づいて、広帯域光源30bを駆動させて、広帯域光源30bから白色光を連続的に出射させる。
また、撮像の開始時において、制御回路14aは、狭帯域光源30dから青色の光を連続的に出射させる第2の光源制御信号を出力させるための制御信号を、タイミング信号発生回路14fに出力する。タイミング信号発生回路14fは、当該制御信号に基づいて、第2の光源制御信号を駆動回路30cに出力し、駆動回路30cは、第2の光源制御信号に基づいて、狭帯域光源30dを駆動させて、狭帯域光源30dから青色の光を連続的に出射させる。
また、撮像の開始時において、制御回路14aは、IR光源30fから励起光を連続的に出射させる第3の光源制御信号を出力させるための制御信号を、タイミング信号発生回路14fに出力する。タイミング信号発生回路14fは、当該制御信号に基づいて、第3の光源制御信号を駆動回路30eに出力し、駆動回路30eは、第3の光源制御信号に基づいて、IR光源30fを駆動させて、IR光源30fから励起光を連続的に出射させる。
例えば、1フレーム目において、読み出し期間である時間T1から時間T2までの1/60[s]で、イメージセンサ12b、12c、12dそれぞれの複数の画素の最初の行から最後の行に向かって1行毎に順次露光が開始される。具体的には、制御回路14aは、イメージセンサ12b、12c、12dに読み出し期間1/60[s]で映像信号を出力させるための制御信号を、イメージセンサ制御回路12eに出力する。イメージセンサ制御回路12eは、当該制御信号に基づいて、イメージセンサ12b、12c、12dを駆動制御する。この結果、読み出し期間1/60[s]で、イメージセンサ12bは、広帯域の光を受光し、全ての行から映像信号を広帯域画像の映像信号「W1」として出力する。また、イメージセンサ12cは、狭帯域の光を受光し、全ての行から映像信号を狭帯域画像の映像信号「B1」として出力する。また、イメージセンサ12dは、赤外線の波長帯域の光を受光し、全ての行から映像信号をIR画像の映像信号「IR1」として出力する。この場合、イメージセンサ12b、12c、12dから、それぞれ広帯域画像の映像信号「W1」、狭帯域画像の映像信号「B1」及びIR画像の映像信号「IR1」が出力される。広帯域画像の映像信号「W1」は、白色光を受光したイメージセンサ12bから出力された信号である。狭帯域画像の映像信号「B1」は、青色の光を受光したイメージセンサ12cから出力された信号である。IR画像の映像信号「IR1」は、励起光に基づく蛍光を受光したイメージセンサ12dから出力された信号である。
次に、2フレーム目において、読み出し期間である時間T2から時間T3までの1/60[s]で、イメージセンサ12b、12c、12dは、それぞれ、映像信号を広帯域画像の映像信号「W2」、狭帯域画像の映像信号「B2」、IR画像の映像信号「IR2」として出力する。この場合、イメージセンサ12b、12c、12dから、それぞれ広帯域画像の映像信号「W2」、狭帯域画像の映像信号「B2」、IR画像の映像信号「IR2」が出力される。
ここで、イメージセンサ12b、12c、12dから出力された映像信号は、CCU14において、画像処理回路14c及び画像合成回路14dを介して1フレーム目の表示用画像となり、速やかに出力回路14eからディスプレイ101に出力される。具体的には、画像処理回路14cは、映像信号「W1」が示す広帯域画像と映像信号「B1」が示す狭帯域画像とに基づいて、第1の表示用画像を生成する。第1の表示用画像は、例えば、狭帯域画像に含まれる撮像対象の解像度成分と、広帯域画像又は広帯域画像と狭帯域画像との合成画像に含まれる撮像対象の色成分とを含む。次に、画像合成回路14dは、例えば、映像信号「IR1」が示すIR画像のうち、輝度が閾値以上の部分を対象物として抽出し、抽出した部分に蛍光色が付与されたマーカである蛍光画像を生成する。当該蛍光色は、マーカ(蛍光画像)を生成したときに蛍光を示すために割り当てられた色であり、例えば、高彩度の緑色を示している。そして、画像合成回路14dは、画像処理回路14cにより生成された第1の表示用画像に、生成した蛍光画像を重畳して、第2の表示用画像を生成する。画像合成回路14dにより生成された第2の表示用画像は、1/60[s]の期間において、出力回路14eからディスプレイ101に出力される。2フレーム目以降においても、上述と同様の処理が行われる。
なお、本実施形態では、画像処理回路14cにより生成される第1の表示用画像として、第1の表示用画像の映像信号は、広帯域画像の映像信号「W1」と狭帯域画像の映像信号「B1」との合成信号「W1+B1」を示す。ここで、広帯域画像(カラー画像)の映像信号「W1」を、単に、カラー画像W1とし、狭帯域画像の映像信号「B1」を、単に、狭帯域画像B1とした場合、カラー画像W1と狭帯域画像B1との合成は、以下の通りである。まず、狭帯域画像B1を基に、輪郭画像D1が生成される。輪郭画像D1は、正負の値を有し、平均値が0となる信号である。例えば、輪郭画像D1は、高周波抽出フィルタ(HPF)により、狭帯域画像B1から、ある周波数帯域を超える周波数成分を抽出することで得られる。このときの合成式は、W1+D1×Kにより表される。係数Kは、輪郭の強さを表し、係数Kが大きいほど、第1の表示用画像は、輪郭が強めのカラー画像となる。例えば、係数Kは、ユーザによって任意に調整可能にしてもよい。
このように、本実施形態に係る撮像装置10は、狭帯域の光として青色の波長帯域の光を撮像対象にあてて、プリズム12aにより分解された狭帯域の光をイメージセンサ12cが受光することにより、狭帯域画像を取得する。また、撮像装置10は、白色光などの広帯域の光を撮像対象にあてて、プリズム12aにより分解された広帯域の光をイメージセンサ12bが受光することにより、広帯域画像(RGB画像)を取得する。更に、CCU14では、狭帯域画像と広帯域画像とに基づいて表示用画像を生成する。ここで、表示用画像は、狭帯域画像に含まれる撮像対象の輪郭成分を含む。このため、本実施形態に係る撮像装置10によれば、撮像対象の表面の凹凸などの輪郭に関して、コントラストを高めることができ、解像度が向上する。また、表示用画像は、広帯域画像又は広帯域画像と狭帯域画像との合成画像に含まれる撮像対象の色成分を含む。このため、本実施形態に係る撮像装置10によれば、撮像対象の色を正しく再現することができる。これにより、本実施形態では、ユーザが観察するのに充分な画質を確保することができる。
また、本実施形態に係る撮像装置10は、入射された光を2種類以上の波長帯域の光に分解するプリズム12aを備えている。具体的には、本実施形態に係る撮像装置10は、入射光を狭帯域の光と広帯域の光とに分光するプリズム12aを用いる。このため、本実施形態では、例えばカメラヘッド12においては、比較例におけるプリズム112a(三色分解ダイクロイックプリズム)を、上記プリズム12aに変更するだけでよく、比較例と同等規模の回路及び装置を実現することができる。
ここで、本実施形態において、狭帯域の光として、青色の波長帯域の光を選択した理由について、検証結果を用いて説明する。
一般的に、青色の波長帯域の光を用いて画像を取得した場合、撮像対象の表面の凹凸に関して、コントラストが高いことが知られている。また、赤色の成分は、透過や散乱が大きいため、赤色の波長帯域の光を用いて画像を取得した場合、コントラストが低いことが知られている。そこで、図2に示すプリズム112aを用いて、実際にコントラストなどの検証が行われた。具体的には、撮像対象を「手のひら」とし、図2に示すプリズム112aの入射面の前に赤色の波長帯域の光を透過させるフィルタを配置して、上記プリズム112aのR+IRchから画像を取得した場合と、当該フィルタを配置しないで、上記プリズム112aのR+IRchから画像を取得した場合とで、コントラストなどの検証が行われた。同様に、上記プリズム112aの入射面の前に緑色の波長帯域の光を透過させるフィルタを配置して、上記プリズム112aのGchから画像を取得した場合と、当該フィルタを配置しないで、上記プリズム112aのGchから画像を取得した場合とで、コントラストなどの検証が行われた。同様に、上記プリズム112aの入射面の前に青色の波長帯域の光を透過させるフィルタを配置して、上記プリズム112aのBchから画像を取得した場合と、当該フィルタを配置しないで、上記プリズム112aのBchから画像を取得した場合とで、コントラストなどの検証が行われた。
検証の結果、例えば、「手のひら」の表面の色味(例えば、血管などによる色の濃淡や色合い)に関しては、緑色の波長帯域の光を用いた場合の画像が、赤色や青色の波長帯域の光を用いた場合の画像に比べて、最も見やすいことが確認された。また、「手のひら」の表面の凹凸に関しては、青色の波長帯域の光を用いた場合の画像が、赤色や緑色の波長帯域の光を用いた場合の画像に比べて、コントラストが最も高いことが確認された。更に、波長帯域を狭めた結果、赤色の波長帯域の光を用いた場合の画像、緑色の波長帯域の光を用いた場合の画像、及び、青色の波長帯域の光を用いた場合の画像のいずれにおいても、コントラストが向上することが確認された。このとき、プリズム112aの入射面の前に配置されたフィルタとして、赤色の波長帯域の光を用いた場合では、中心波長が607[nm]で、半値幅が42[nm]のバンドパスフィルタが使用された。緑色の波長帯域の光を用いた場合では、中心波長が534.5[nm]で、半値幅が48[nm]のバンドパスフィルタが使用された。青色の波長帯域の光を用いた場合では、中心波長がで、半値幅が35[nm]のバンドパスフィルタが使用された。したがって、フィルタの透過特性(半値幅)は、概ね50[nm]以下であった。
そこで、本実施形態では、コントラストを向上させるために、図1及び図3に示すプリズム12aにNchを割り当て、狭帯域の光として、コントラストが最も高い青色の波長帯域の光を選択した。すなわち、本実施形態に係る撮像装置10では、一例として、狭帯域の光として青色の波長帯域の光を撮像対象にあてて、プリズム12aにより分解された狭帯域の光をイメージセンサ12cが受光して狭帯域画像を取得することにより、コントラストを向上させている。
なお、本実施形態では、入射光を2種類以上の波長帯域の光に分解する光学素子として、入射光を広帯域の光、狭帯域の光、及び、赤外線の波長帯域の光に分光するプリズム12aが用いられる場合について説明した。すなわち、図1及び図3に示すように、プリズム12aにWch、Nch、IRchを割り当てる場合について説明した。しかし、上記実施形態で説明した光学素子は、これに限定されるものではない。例えば、本実施形態の構成により、コントラストを向上させることができ、撮像対象の色を正しく再現することができれば、入射光を2種類の波長帯域の光に分解する光学素子として、入射光を広帯域の光、及び、狭帯域の光に分光するプリズム12aが用いられてもよい。すなわち、プリズム12aに、IRchを割り当てずに、Wch、Nchだけを割り当ててもよい。
以上説明した少なくとも1つの実施形態によれば、ユーザが観察するのに充分な画質を確保することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10 撮像装置
12a プリズム
12b、12c、12d イメージセンサ
30 光源装置
30d 狭帯域光源

Claims (8)

  1. 入射光を2種類以上の波長帯域の光に分解する光学素子、
    を備え、
    前記入射光は、狭帯域光源から出射された光を含み、
    前記光学素子により分解された前記2種類以上の波長帯域の光のうちの少なくとも1つの光は、前記狭帯域光源から出射される光の波長の幅に対応する帯域幅で分解された狭帯域の光である、
    撮像装置。
  2. 前記光学素子は、前記入射光を、前記狭帯域の光と、当該狭帯域の光の波長帯域以外の波長帯域の光とに分解する、
    請求項1に記載の撮像装置。
  3. 前記光学素子は、前記入射光を、前記狭帯域の光と、当該狭帯域の光の波長帯域以外の可視光帯域の光と、赤外線の波長帯域の光とに分解する、
    請求項1に記載の撮像装置。
  4. 前記光学素子により分解された前記2種類以上の波長帯域の光をそれぞれ受光する複数の撮像素子、
    を更に備え、
    前記複数の撮像素子のうち、少なくとも1つの撮像素子は、前記狭帯域の光を受光することにより狭帯域画像を出力し、他の少なくとも1つの撮像素子は、前記狭帯域よりも広い波長帯域である広帯域の光を受光することにより広帯域画像を出力する、
    請求項1〜3のいずれか一項に記載の撮像装置。
  5. 前記撮像素子のうち、前記狭帯域の光を受光する撮像素子は、モノクロ撮像素子である、
    請求項4に記載の撮像装置。
  6. 前記撮像素子のうち、前記広帯域の光を受光する撮像素子は、カラー撮像素子である、
    請求項4に記載の撮像装置。
  7. 前記狭帯域画像と前記広帯域画像とに基づいて表示用画像を生成する処理部、
    を更に備える請求項4〜6のいずれか一項に記載の撮像装置。
  8. 前記表示用画像は、前記狭帯域画像に含まれる撮像対象の輪郭成分と、前記広帯域画像又は前記広帯域画像と前記狭帯域画像との合成画像に含まれる前記撮像対象の色成分とを含む、
    請求項7に記載の撮像装置。
JP2019151777A 2019-08-22 2019-08-22 撮像装置 Active JP7352411B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019151777A JP7352411B2 (ja) 2019-08-22 2019-08-22 撮像装置
US16/988,893 US11789283B2 (en) 2019-08-22 2020-08-10 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019151777A JP7352411B2 (ja) 2019-08-22 2019-08-22 撮像装置

Publications (2)

Publication Number Publication Date
JP2021029509A true JP2021029509A (ja) 2021-03-01
JP7352411B2 JP7352411B2 (ja) 2023-09-28

Family

ID=74647211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019151777A Active JP7352411B2 (ja) 2019-08-22 2019-08-22 撮像装置

Country Status (2)

Country Link
US (1) US11789283B2 (ja)
JP (1) JP7352411B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11924528B2 (en) 2021-05-26 2024-03-05 Samsung Electronics Co., Ltd. Image acquisition apparatus providing wide color gamut image and electronic apparatus including the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005198794A (ja) * 2004-01-15 2005-07-28 Pentax Corp 内視鏡装置
JP2014076375A (ja) * 2013-11-27 2014-05-01 Fujifilm Corp 内視鏡システムおよび内視鏡システムの作動方法
JP2014524290A (ja) * 2011-08-12 2014-09-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 外科手術器具の画像取込み装置
JP2017221486A (ja) * 2016-06-16 2017-12-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び医療用観察システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298478B2 (en) * 2003-08-14 2007-11-20 Cytonome, Inc. Optical detector for a particle sorting system
US7869043B2 (en) * 2006-01-06 2011-01-11 Sparta, Inc. Automated passive skin detection system through spectral measurement
DK2797492T3 (en) * 2011-12-30 2018-02-05 Wavelight Gmbh INTEGRATED DEVICE FOR Ophthalmology
WO2016154589A1 (en) * 2015-03-25 2016-09-29 Camplex, Inc. Surgical visualization systems and displays
JP7116580B2 (ja) 2017-04-14 2022-08-10 キヤノン株式会社 撮像装置、撮像装置を制御するための方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005198794A (ja) * 2004-01-15 2005-07-28 Pentax Corp 内視鏡装置
JP2014524290A (ja) * 2011-08-12 2014-09-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 外科手術器具の画像取込み装置
JP2014076375A (ja) * 2013-11-27 2014-05-01 Fujifilm Corp 内視鏡システムおよび内視鏡システムの作動方法
JP2017221486A (ja) * 2016-06-16 2017-12-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び医療用観察システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11924528B2 (en) 2021-05-26 2024-03-05 Samsung Electronics Co., Ltd. Image acquisition apparatus providing wide color gamut image and electronic apparatus including the same
JP7482170B2 (ja) 2021-05-26 2024-05-13 三星電子株式会社 映像獲得装置及び電子装置

Also Published As

Publication number Publication date
JP7352411B2 (ja) 2023-09-28
US20210055568A1 (en) 2021-02-25
US11789283B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
JP6025130B2 (ja) 内視鏡及び内視鏡システム
JP6367683B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP2021192534A (ja) 撮像装置及び撮像方法
US20120253122A1 (en) Endoscope system and calibration method
US10034600B2 (en) Endoscope apparatus with spectral intensity control
JP7374600B2 (ja) 医療用画像処理装置及び医療用観察システム
JP2016049370A (ja) 電子内視鏡システム
US20210145266A1 (en) Endoscope apparatus and operation method of endoscope apparatus
US11882995B2 (en) Endoscope system
JP2018182580A (ja) 撮像装置及び撮像装置の制御プログラム
JP2009066147A (ja) 生体観測装置
US20100177181A1 (en) Endoscope image processing method and apparatus, and endoscope system using the same
JP7352411B2 (ja) 撮像装置
JP6388240B2 (ja) 光学装置
JP7069290B2 (ja) 内視鏡システム及びその作動方法
JP6570490B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP6132251B1 (ja) 内視鏡及び内視鏡システム
JP2018110925A (ja) 内視鏡システム、及び、内視鏡システムの作動方法
JP6905038B2 (ja) 光源装置及び内視鏡システム
JP7402637B2 (ja) 撮像装置、その制御方法及びプログラム
JP6388237B2 (ja) 4色プリズム
JP7281308B2 (ja) 医療用画像処理装置及び医療用観察システム
US20180302584A1 (en) Imaging device and control method
JP2021029508A (ja) 撮像装置
JP6615950B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191001

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230915

R151 Written notification of patent or utility model registration

Ref document number: 7352411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151