JP7159577B2 - 内視鏡システム、制御方法、情報処理装置、およびプログラム - Google Patents

内視鏡システム、制御方法、情報処理装置、およびプログラム Download PDF

Info

Publication number
JP7159577B2
JP7159577B2 JP2018051955A JP2018051955A JP7159577B2 JP 7159577 B2 JP7159577 B2 JP 7159577B2 JP 2018051955 A JP2018051955 A JP 2018051955A JP 2018051955 A JP2018051955 A JP 2018051955A JP 7159577 B2 JP7159577 B2 JP 7159577B2
Authority
JP
Japan
Prior art keywords
evaluation value
detection
effective area
area
scope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018051955A
Other languages
English (en)
Other versions
JP2019162280A (ja
Inventor
崇史 川井
喜代司 細野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2018051955A priority Critical patent/JP7159577B2/ja
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to CN201980018915.6A priority patent/CN111867439A/zh
Priority to US16/979,882 priority patent/US11455722B2/en
Priority to PCT/JP2019/009853 priority patent/WO2019181629A1/en
Priority to EP19715239.0A priority patent/EP3768139B1/en
Publication of JP2019162280A publication Critical patent/JP2019162280A/ja
Priority to US17/894,179 priority patent/US11986156B2/en
Priority to JP2022164512A priority patent/JP2022179728A/ja
Application granted granted Critical
Publication of JP7159577B2 publication Critical patent/JP7159577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Automatic Focus Adjustment (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Description

本技術は、内視鏡システム、制御方法、情報処理装置、およびプログラムに関し、特に、手術に適した内視鏡画像を撮像することができるようにした内視鏡システム、制御方法、情報処理装置、およびプログラムに関する。
近年、侵襲性が低い内視鏡手術が注目されている。手術に適した内視鏡画像を得るために、AF(Auto Focus)機能、AE(Automatic Exposure)機能、AWB(Auto White Balance)機能を内視鏡に搭載することが提案されている。
例えば、特許文献1には、内視鏡画像に基づいてフォーカス評価値を算出し、内視鏡のAFを行う技術が開示されている。
特開2013-80108号公報
通常、内視鏡画像の縁付近には、スコープの光学的な影(ケラレ)によって、極端に暗い領域であるマスク領域が生じてしまう。このような内視鏡画像に基づいて、例えばAFを行うとした場合、マスク領域を基準としてフォーカスを合わせてしまうことがある。
また、内視鏡が硬性鏡である場合、装着されるスコープの種類によってマスク領域の位置や大きさが変わるため、評価値の算出対象となる領域を予め固定しておくことができない。
本技術はこのような状況に鑑みてなされたものであり、手術に適した内視鏡画像を撮像することができるようにするものである。
本技術の一側面の内視鏡システムは、術野領域に光を照射する光源装置と、着脱可能なスコープを介して、前記術野領域を撮像する撮像装置と、前記撮像装置および前記光源装置に接続される情報処理装置であって、前記撮像装置により撮像された撮像画像に位置を変えて設定されたAF検波枠内の検波を行い、第1のAF評価値を算出するAF検波部と、前記撮像画像のうちの前記スコープの有効領域を前記第1のAF評価値に基づいて検出する検出部と、自動合焦処理を実行する制御部とを備え、前記AF検波部は、前記有効領域の検出後に前記有効領域内に設定された評価値算出対象領域を対象として第2のAF評価値を算出し、前記制御部は、前記評価値算出対象領域を対象として算出された前記第2のAF評価値に基づいて前記自動合焦処理を実行する前記情報処理装置とを含むシステムである。
本技術の他の側面の情報処理装置は、術野領域に光を照射する光源装置、および、着脱可能なスコープを介して前記術野領域を撮像する撮像装置に接続される情報処理装置であって、前記撮像装置により撮像された撮像画像に位置を変えて設定されたAF検波枠内の検波を行い、第1のAF評価値を算出するAF検波部と、前記撮像画像のうちの前記スコープの有効領域を前記第1のAF評価値に基づいて検出する検出部と、自動合焦処理を実行する制御部とを備える。前記AF検波部は、前記有効領域の検出後に前記有効領域内に設定された評価値算出対象領域を対象として第2のAF評価値を算出し、前記制御部は、前記評価値算出対象領域を対象として算出された前記第2のAF評価値に基づいて前記自動合焦処理を実行する。
本技術においては、撮像装置により撮像された撮像画像に位置を変えて設定されたAF検波枠内の検波が行われることによって第1のAF評価値が算出され、前記撮像画像のうちのスコープの有効領域が前記第1のAF評価値に基づいて検出される。また、前記有効領域の検出後に前記有効領域内に設定された評価値算出対象領域を対象として第2のAF評価値が算出され、前記評価値算出対象領域を対象として算出された前記第2のAF評価値に基づいて自動合焦処理が実行される。
本技術によれば、手術に適した内視鏡画像を撮像することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した内視鏡システムの構成例を示す図である。 内視鏡の外観を示す斜視図である。 撮像画像の例を示す図である。 撮像画像の例を示す図である。 CCUと内視鏡の構成例を示すブロック図である。 検波枠の設定の例を示す図である。 マスク領域のエッジの検出例を示す図である。 マスク領域のエッジの検出例を示す図である。 AF評価値に基づいてマスク領域を検出する場合の検波枠の設定例を示す図である。 AF評価値に基づいてマスク領域を検出する場合の検波枠の他の設定例を示す図である。 AF評価値に基づいてマスク領域を検出する場合の検波枠のさらに他の設定例を示す図である。 評価値算出対象領域の設定例を示す図である。 評価値算出対象領域の他の設定例を示す図である。 CCUのAF処理について説明するフローチャートである。 図14のステップS3において行われるマスク領域検出処理について説明するフローチャートである。 図14のステップS3において行われる他のマスク領域検出処理について説明するフローチャートである。 AEを行うCCUの構成例を示すブロック図である。 AE評価値の評価値算出対象領域の設定例を示す図である。 AE評価値の評価値算出対象領域の他の設定例を示す図である。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.内視鏡システムの構成
2.第1の実施の形態 検波値に基づいてマスク領域を検出する例
3.第2の実施の形態 AF評価値に基づいてマスク領域を検出する例
4.第3の実施の形態 評価値算出対象領域の設定例1
5.第4の実施の形態 評価値算出対象領域の設定例2
6.第5の実施の形態 自動合焦処理の例
7.CCUの動作
8.その他の例
<<内視鏡システムの構成>>
図1は、本技術を適用した内視鏡システムの構成例を示す図である。
図1の内視鏡システム1は、表示装置11、CCU(カメラコントロールユニット)12、光源装置13、処置具用装置14、気腹装置15、レコーダ16、およびプリンタ17が搭載されたカート18を有する。
また、内視鏡システム1は、内視鏡19、エネルギ処置具20、鉗子21、トロッカ22乃至25、フットスイッチ26、および患者ベッド27を有する。内視鏡システム1は、例えば手術室に設置され、患者ベッド27に横たわった患者の腹部31内の患部に対して腹腔鏡下手術を行う術者を支援する。
表示装置11は、据え置き型の2Dディスプレイやヘッドマウントディスプレイなどにより構成される。表示装置11は、CCU12から供給された術部(術野領域)の画像などを表示する。
CCU12は、光源装置13と内視鏡19を含む各装置と接続される。CCU12は、内視鏡19により撮像され、カメラケーブルを介して送信されてきた術部の撮像画像を受信し、表示装置11に表示させる。CCU12は、必要に応じて、内視鏡19により撮像された撮像画像をレコーダ16やプリンタ17に出力する。なお、CCU12と内視鏡19が、無線による通信によって接続されるようにしてもよい。
また、CCU12は、内視鏡19のAFを行うための処理である自動合焦処理を行う。すなわち、内視鏡システム1においては、内視鏡19のフォーカスの調整が、術者の操作によらずに、CCU12による制御に従って自動で行われる。
光源装置13は、ライトガイドケーブルを介して内視鏡19と接続される。光源装置13は、各種の波長の光を切り換えて内視鏡19に出射する。
高周波出力装置である処置具用装置14は、ケーブルを介して、エネルギ処置具20およびフットスイッチ26と接続される。処置具用装置14は、フットスイッチ26から供給される操作信号に応じて、エネルギ処置具20に高周波電流を出力する。
気腹装置15は、送気手段および吸気手段を備える。気腹装置15は、腹部31の腹壁に取り付けられた開孔器具であるトロッカ24の孔から、腹部31の内部に空気を送気する。
レコーダ16は、CCU12から供給された撮像画像を記録する。
プリンタ17は、CCUから供給された撮像画像を印刷する。
内視鏡19は、腹部31の腹壁に取り付けられたトロッカ22の孔から、腹部31の内部に挿入される。内視鏡19は、光源装置13から出射された光によって腹部31の内部を照射し、腹部31の内部を撮像する。内視鏡19は、腹部31の内部を撮像することによって得られた撮像画像をCCU12に出力する。
エネルギ処置具20は、電気メスなどにより構成される。エネルギ処置具20は、腹部31の腹壁に取り付けられたトロッカ23の孔部から、腹部31の内部に挿入される。エネルギ処置具20は、腹部31の内部を、電気熱を用いて変性させたり、切断したりする。
鉗子21は、腹部31の腹壁に取り付けられたトロッカ25の孔部から、腹部31の内部に挿入される。鉗子21は、腹部31の内部を把持する。内視鏡19、エネルギ処置具20、および鉗子21は、術者、助手、スコピスト、またはロボット等により把持される。
フットスイッチ26は、術者や助手等の足による操作を受け付ける。フットスイッチ26は、受け付けた操作の内容を表す操作信号を、CCU12や処置具用装置14に出力する。
術者は、内視鏡システム1を用いることにより、表示装置11に表示される撮像画像を見ながら、腹部31内の患部を切除したりすることができる。
図2は、内視鏡19の外観を示す斜視図である。
図2に示すように、硬性内視鏡である内視鏡19は、カメラヘッド51と、細長い鏡筒を有するスコープ52から構成される。内視鏡には、体内に挿入する部分が曲がる軟性内視鏡と、曲がらない硬性内視鏡がある。内視鏡19は後者の内視鏡である。術者は、カメラヘッド51を把持し、スコープ52を患者の体内に挿入して手術を進めることになる。
カメラヘッド51の内部には、スコープ52内のレンズによって導かれた体内からの光の光電変換を行う撮像素子、スコープ52内のレンズを駆動させるための駆動部などが設けられる。カメラヘッド51は、光源装置13から出射された光を、スコープ52を介して導くことによって腹部31の内部を照射し、術部の撮像を行う。カメラヘッド51は、撮像を行うことによって得られた撮像画像を、カメラケーブルを介してCCU12に出力する。
スコープ52は、カメラヘッド51に対して着脱可能とされる。スコープ52には、径(スコープ径)が異なるスコープ、レンズのF値が異なるスコープといったように、仕様が異なる複数種類のスコープがある。どの種類のスコープ52を用いるのかは、手術の内容や術部の状態などによって適宜選択され、カメラヘッド51に装着される。
図3は、撮像画像の例を示す図である。
図3に示すように、横長長方形の撮像画像の略中央には円形の有効領域が形成され、有効領域の外側には、暗い領域であるマスク領域が形成される。
マスク領域は、スコープ52の光学的な影(ケラレ)によって形成される領域である。スコープ52の形状が細長の円筒状であるから、イメージサークルの外側には、真っ暗の領域が写り込むことになる。術部の状態は、ケラレがない領域である有効領域の範囲に表示される。なお、スコープ52によるケラレは、例えばスコープ52の側壁によって物理的に光路が遮られて生じる光学的な影をいう。
上述したように、スコープ52は、手術の内容などによって切り替えて用いられる。撮像画像における、有効領域の位置、有効領域の大きさ、有効領域の形状などが、カメラヘッド51に装着されているスコープ52の種類によって変化することになる。
図4は、撮像画像の例を示す図である。図4においては、有効領域内の術部の状態の図示が省略されている。
図4のAに示す撮像画像は、スコープ径(直径)が、撮像画像の上下方向の長さより短いスコープ52が装着されている場合の撮像画像である。図4のAの撮像画像には、図3の撮像画像と同様に、円形の有効領域の全体が含まれる。
一方、図4のBに示す撮像画像は、スコープ径が、撮像画像の上下方向の長さより長いスコープ52が装着されている場合の撮像画像である。図4のBの有効領域は、円の上下が切れた状態になる。
このように、撮像画像には、スコープ径に対応する径の有効領域が形成される。撮像画像に含まれる有効領域の径の大きさから、カメラヘッド51に装着されているスコープ52の径の大きさを特定することが可能になる。
上述したように、内視鏡システム1においては、内視鏡19のフォーカスの調整が、AFによって自動的に行われる。
AFを行うための評価値であるAF評価値を撮像画像全体を対象として算出するとした場合、マスク領域を含めて、各領域のAF評価値が算出されることになり、好ましくない。マスク領域を含めてAF評価値の算出を行った場合、例えば、マスク領域のエッジ(境界)にフォーカスを合わせるような動作が行われる。
また、AF評価値の算出対象となる領域を有効領域内に固定化して設定しておくとした場合、どのスコープ52が装着されている場合であっても有効領域となる、撮像画像の中心付近の狭い範囲にしか設定しておくことができない。図4に示されるように、有効領域の範囲は、装着されているスコープ52によって変化する。
CCU12においては、撮像画像に基づいて、内視鏡19に装着されているスコープ52のスコープ径、有効領域の中心位置などが特定され、特定された情報に基づいて、AF評価値の算出対象となる領域である評価値算出対象領域が有効領域内に設定される。また、評価値算出対象領域を対象としてAF評価値の算出が行われ、自動合焦処理が行われる。
有効領域内に設定された評価値算出対象領域を対象としてAF評価値の算出が行われ、自動合焦処理が行われるため、CCU12は、有効領域に写る術部にフォーカスを確実に合わせることができる。
このように、内視鏡19に装着されているスコープ52に応じて評価値算出対象領域を設定し、自動合焦処理を行うCCU12の一連の処理については後述する。
<<第1の実施の形態 検波値に基づいてマスク領域を検出する例>>
<CCUと内視鏡の構成例>
図5は、CCU12と内視鏡19の構成例を示すブロック図である。
図5の左側に示すように、カメラヘッド51は、撮像素子111、撮像素子ドライバ112、レンズドライバ113、ズームレンズ駆動部114、およびフォーカスレンズ駆動部115から構成される。
撮像素子111は、例えばCMOSイメージセンサやCCDイメージセンサにより構成される。撮像素子111は、撮像面に結像した光学像を光電変換によって電気信号に変換し、撮像信号としてCCU12に出力する。
撮像素子ドライバ112は、撮像素子111を駆動させるためのドライバである。撮像素子ドライバ112は、駆動信号を出力することによって、撮像動作、リセット動作等の所定の動作を撮像素子111に行わせる。撮像素子ドライバ112が出力する駆動信号により、例えば撮像素子111のシャッタースピードが制御される。
レンズドライバ113は、CPU(Central Processing Unit),DSP(Digital Signal Processor)等のプロセッサにより構成される。レンズドライバ113は、CCU12から供給された制御信号に従って、ズームレンズ駆動部114とフォーカスレンズ駆動部115の動作を制御する。
ズームレンズ駆動部114は、スコープ52内のズームレンズ101を光軸に沿って移動させ、撮像倍率を調整する。
フォーカスレンズ駆動部115は、スコープ52内のフォーカスレンズ102を光軸に沿って移動させ、フォーカスを調整する。
図5の右側に示すように、CCU12は、カメラ信号処理部131、検波枠ゲート132、検波部133、マスク検出部134、AF検波部135、およびレンズコントローラ136から構成される。
カメラ信号処理部131は、撮像素子111から供給された撮像信号に対して、ホワイトバランス処理、γ補正処理等の各種の信号処理を施す。
カメラ信号処理部131は、信号処理を施すことによって得られた撮像信号をビデオ信号として表示装置11に出力する。カメラ信号処理部131から出力されたビデオ信号に基づいて、表示装置11において術部の画像が表示される。カメラ信号処理部131から出力された撮像信号は検波枠ゲート132にも供給される。
検波枠ゲート132は、レンズコントローラ136による制御に従って、撮像画像上の所定の領域に検波枠を設定する。例えば、マスク領域の検出前、マスク領域を含めて、撮像画像の所定の領域に検波枠が設定される。また、マスク領域の検出後、有効領域に検波枠が設定される。
検波枠ゲート132は、カメラ信号処理部131から供給された撮像信号のうち、検波枠内の画素の撮像信号を出力する。検波枠ゲート132から出力された撮像信号は、検波部133とAF検波部135に供給される。
検波部133は、検波枠ゲート132から供給された撮像信号の検波を行い、各検波枠の検波値をマスク検出部134に出力する。検波部133により、例えば、各検波枠内の画素の輝度値の積分が行われ、積分結果が検波値として求められる。
マスク検出部134は、検波部133から供給された検波値に基づいて、マスク領域のエッジを検出する。マスク検出部134がマスク領域のエッジを検出するものとして説明するが、マスク領域のエッジを検出することは、有効領域のエッジを検出することにも相当する。
マスク検出部134は、検出したマスク領域のエッジの位置に基づいて、カメラヘッド51に装着されているスコープ52の径を特定する。また、マスク検出部134は、マスク領域のエッジの位置に基づいて、有効領域の中心位置とマスク領域の位置(範囲)を特定する。
マスク検出部134は、スコープ径、有効領域の中心位置、およびマスク領域の位置に関する情報をマスク検出結果としてレンズコントローラ136に出力する。後述するように、マスク検出部134によるマスク領域の検出が、AF検波部135により求められたAF評価値に基づいて行われることもある。
AF検波部135は、検波枠ゲート132から供給された撮像信号に基づいてAF評価値を算出する。例えば、AF検波部135は、AF検波枠内の全ての画素の輝度信号を用いた2次微分によって、コントラストを表すAF評価値を算出する。なお、一般的には、合焦している場合、合焦していない場合に比べて、隣接する画素間の輝度信号の差分が大きくなり、コントラストが大きくなる。
AF検波部135により算出されたAF評価値は、レンズコントローラ136に供給されるとともに、適宜、マスク検出部134にも供給される。
レンズコントローラ136は、カメラヘッド51のレンズドライバ113に制御信号を出力し、ズームレンズ101の位置を調整する。
また、レンズコントローラ136は、カメラヘッド51のレンズドライバ113に制御信号を出力し、フォーカスレンズ102の位置を調整する。制御信号を出力することによってフォーカスレンズ102の位置を調整する処理が、内視鏡19のAFを行うための自動合焦処理となる。このときの制御信号は、AF制御パラメータとして少なくともレンズドライバ113のフォーカスレンズ102の位置またはフォーカスレンズ102の位置の移動量を含む信号である。
レンズコントローラ136は、適宜、カメラヘッド51の撮像素子ドライバ112に制御信号を出力することによって、撮像素子111のシャッタースピードやISO感度を調整する。制御信号を出力することによってシャッタースピードやISO感度を調整し、術者の操作によらずに露光を制御する処理が、AEを行うための自動露光処理となる。後述するように、マスク領域の検出結果に基づいてAE機能が実現される。このときの制御信号は、AE制御パラメータとして少なくともシャッタースピードのスピード値またはISO感度の感度値を含む信号である。
レンズコントローラ136に対しては、フォーカス指示信号、ズーム指示信号、マニュアル/オートフォーカス切替え信号などが術者による操作に応じて入力される。ズーム指示信号は、術者によるズームの調整の内容を表す信号であり、フォーカス指示信号は、術者によるフォーカスの調整の内容を表す信号である。
マニュアル/オートフォーカス切替え信号は、フォーカスの調整をマニュアルモードで行うか、オートフォーカスモードで行うのかの切り替え信号である。フォーカス指示信号は、フォーカスの調整をマニュアルモードで行うことが選択されている場合に入力される。
<マスク領域の検出>
図6は、検波枠の設定の例を示す図である。
検波枠は、例えば撮像画像の領域全体に設定される。図6の例においては、撮像画像の領域全体に、列方向(縦方向)に30個、行方向(横方向)に40個の検波枠がタイル状に並べて設定されている。図6の検波枠全体のサイズは、撮像画像のサイズと同じサイズである。
マスク検出部134においては、各検波枠内の画素の撮像信号に基づいて求められた1200の検波値に基づいて、マスク領域のエッジが検出されることになる。
このように、撮像画像に対しては、マスク領域のエッジを検出するのに十分な分解能を持つ検波枠が設定される。
なお、図6の例においては、検波枠全体のサイズが撮像画像のサイズと同じサイズとされているが、撮像画像のサイズより小さい範囲に検波枠が設定されるようにしてもよい。また、検波枠の数についても任意である。
図7は、マスク領域のエッジの検出例を示す図である。
各検波枠の内側に示す「x」の文字の並びはそれぞれ所定の検波値を表す。「0」の数字を含む検波枠は、検波値として0が求められた検波枠、すなわち、黒色の画素を含む検波枠であることを表す。
このような検波値が検波部133において求められた場合、図5のマスク検出部134は、各列の検波枠の検波値のうちの最大の検波値と、各行の検波枠の検波値のうちの最大の検波値を求める。
また、マスク検出部134は、白抜き矢印#1の先に示すように、各列の最大の検波値の配列における、1列おきの、検波値の差分を求める。行方向についても同様に、マスク検出部134は、各行の最大の検波値の配列における、1行おきの、検波値の差分を求める。
例えば、マスク検出部134は、1列おきの検波値の差分を画像の左側の差分から順に注目し、閾値以上の差分が求められた列の位置を、マスク領域の左側のエッジの位置として検出する。また、マスク検出部134は、1列おきの検波値の差分を画像の右側の差分から順に注目し、閾値以上の差分が求められた列の位置を、マスク領域の右側のエッジの位置として検出する。
行方向についても同様に、マスク検出部134は、1行おきの検波値の差分を画像の上側の差分から順に注目し、閾値以上の差分が求められた行の位置を、マスク領域の上側のエッジの位置として検出する。また、マスク検出部134は、1行おきの検波値の差分を画像の下側の差分から順に注目し、閾値以上の差分が求められた行の位置を、マスク領域の下側のエッジの位置として検出する。
マスク検出部134は、上下左右のエッジの位置と、有効領域の形状が円形であることに基づいて、図8に示すような、有効領域を囲む全体のエッジを検出する。
図8において斜線を付して示す検波枠は、マスク領域のエッジとして検出された位置の検波枠である。斜線を付して示す検波枠の外側がマスク領域となり、内側(斜線を付して示す検波枠の位置を含む)が有効領域となる。
なお、有効領域の径が大きく、有効領域の上下が切れている場合、1列おきの検波値の差分に基づいて左右のエッジが検出され、マスク領域が特定される。また、エッジが見つからない場合、マスク領域無しとして特定される。
マスク領域と有効領域を検出した場合、マスク検出部134は、有効領域のエッジ幅に基づいて、例えば、エッジ幅の平均を、有効領域の径、すなわちスコープ径として特定する。また、マスク検出部134は、エッジ幅の中央値の平均が示す位置を、有効領域の中心位置として特定する。なお、エッジ幅の平均の範囲と対応するスコープ径を予め記憶しておき、求めたエッジ幅の平均に基づいてテーブルを参照し、スコープ径を特定してもよい。
このようにして特定されたスコープ径と有効領域の中心位置を表す情報が、マスク領域の位置に関する情報とともにレンズコントローラ136に供給される。レンズコントローラ136においては、マスク領域の検出結果に基づいて、AF評価値の算出に用いられる検波枠の設定などが行われる。
<<第2の実施の形態 AF評価値に基づいてマスク領域を検出する例>>
マスク領域の検出が、検波部133により求められた検波値に基づいて行われるのではなく、AF検波部135により求められたAF評価値に基づいて行われるようにすることも可能である。
・第1の設定例
図9は、AF評価値に基づいてマスク領域を検出する場合の検波枠の設定例を示す図である。
図9の左側の撮像画像上に検波枠F1乃至F4として示すように、例えば、検波枠ゲート132は、撮像画像の上下左右の端に細帯状の検波枠を設定する。検波枠F1乃至F4の設定は、例えばレンズコントローラ136による制御に従って行われる。
一点鎖線で示す検波枠F1と検波枠F2は、それぞれ、マスク領域の上下のエッジを検出するための検波枠となる。また、破線で示す検波枠F3と検波枠F4は、それぞれ、マスク領域の左右のエッジを検出するための検波枠となる。
また、検波枠ゲート132は、白抜き矢印に示すように、検波枠F1乃至F4の位置を、撮像画像の中央に向けて移動させる。
このように位置を変えて設定される検波枠内の画素に対応する撮像信号に基づいて、AF検波部135においてAF評価値が順次算出される。
マスク検出部134は、AF検波部135により算出されたAF評価値に閾値以上の変化が生じた場合、変化が検出された位置をマスク領域のエッジの位置として特定する。例えば、矢印#2の先に示すように、検波枠F1乃至F4がそれぞれマスク領域のエッジの位置に設定されているとき、閾値以上のAF評価値の変化が検出される。
マスク検出部134は、検波枠F1と検波枠F2の距離L1、および、検波枠F3と検波枠F4の距離L2に基づいて、カメラヘッド51に装着されているスコープ径、有効領域の中心位置、およびマスク領域の位置を特定する。例えば、距離L1,L2の平均がスコープ径として特定され、エッジ幅の中央値の平均が示す位置が有効領域の中心位置として特定される。
・第2の設定例
図10は、AF評価値に基づいてマスク領域を検出する場合の検波枠の他の設定例を示す図である。
図10に示す検波枠の設定方法は、検波枠F1乃至F4の位置を変えるのではなく、幅を順次広げるように検波枠F1乃至F4を設定する点で、図9の設定方法と異なる。撮像画像の上下左右の縁に設定された細帯状の検波枠F1乃至F4の内側の縁が白抜き矢印に示すように撮像画像の中央に向けて移動することによって、検波枠F1乃至F4の幅が順次広げられる。
幅を変えて設定された検波枠内の画素に対応する撮像信号に基づいて、AF検波部135においてAF評価値が順次算出される。
マスク検出部134は、AF検波部135により算出されたAF評価値に閾値以上の変化が生じた場合、変化が検出されたときの、検波枠の内側の縁の位置をマスク領域のエッジの位置として特定する。例えば、矢印#3の先に示すように、検波枠F1乃至F4の内側の縁がそれぞれマスク領域のエッジの位置に設定されているとき、閾値以上のAF評価値の変化が検出される。
マスク検出部134は、検波枠F1と検波枠F2の距離L1、および、検波枠F3と検波枠F4の距離L2に基づいて、カメラヘッド51に装着されているスコープ径、有効領域の中心位置、およびマスク領域の位置を特定する。
・第3の設定例
図11は、AF評価値に基づいてマスク領域を検出する場合の検波枠のさらに他の設定例を示す図である。
図11に示す検波枠の設定方法は、初期状態において、細帯状の検波枠ではなく、略正方形状の複数の小さい検波枠を設定する点で、図9等の設定方法と異なる。
すなわち、検波枠ゲート132は、図11の左側に示すように、撮像画像の上側の縁に、略正方形状の検波枠F1-1乃至1-3を設定し、下側の縁に、略正方形状の検波枠F2-1乃至2-3を設定する。検波枠ゲート132は、撮像画像の左側の縁に、略正方形状の検波枠F3-1乃至3-3を設定し、右側の縁に、略正方形状の検波枠F4-1乃至4-3を設定する。
また、検波枠ゲート132は、各検波枠の位置を撮像画像の中央に向けて移動させるか、検波枠の幅を撮像画像の中央に向けて広げる。
位置や幅を変えて設定される検波枠内の画素に対応する撮像信号に基づいて、AF検波部135においてAF評価値が順次算出される。
マスク検出部134は、AF検波部135により算出されたAF評価値に閾値以上の変化が生じた場合、変化が検出された位置をマスク領域のエッジの位置として特定する。
例えば、矢印#4の先に示すように、略正方形状の検波枠F1-1乃至F1-3、検波枠F2-1乃至F2-3がそれぞれマスク領域のエッジの位置に設定されているとき、閾値以上のAF評価値の変化が検出される。
また、検波枠F3-1乃至F3-3、検波枠F4-1乃至F4-3の内側の縁がそれぞれマスク領域のエッジの位置に到達しているとき、閾値以上のAF評価値の変化が検出される。
マスク検出部134は、対向する検波枠の距離に基づいて、カメラヘッド51に装着されているスコープ径、有効領域の中心位置、およびマスク領域の位置を特定する。
図11の例においては、撮像画像の上下の縁に設定された検波枠F1-1乃至1-3と検波枠F2-1乃至2-3が、形状を変えずに位置を変えて設定されるものとしたが、幅を変えて設定されるようにしてもよい。また、撮像画像の左右の縁に設定された検波枠F3-1乃至3-3と検波枠F4-1乃至4-3が、幅を変えて設定されるものとしたが、形状を変えずに、位置を変えて設定されるようにしてもよい。
検波枠の形状を変化させる設定方法と幅を変化させる設定方法が組み合わせて用いられるようにしてもよい。小さな検波枠の位置や幅を変化させることにより、マスク領域のエッジの詳細な形状を検出することが可能になる。
なお、有効領域の径が大きく、有効領域の上下が切れている場合、左右に設定された検波枠に基づいて算出されたAF評価値だけに基づいてマスク領域の検出が行われる。また、エッジが見つからない場合、マスク領域無しとして特定される。
AF評価値に基づいて特定されたスコープ径と有効領域の中心位置を表す情報が、マスク領域の位置に関する情報とともにレンズコントローラ136に供給される。レンズコントローラ136においては、マスク領域の検出結果に基づいて、AF評価値の算出に用いられる検波枠の設定などが行われる。
<<第3の実施の形態 評価値算出対象領域の設定例1>>
図12は、評価値算出対象領域の設定例を示す図である。
図12に示すように、レンズコントローラ136は、AF評価値の算出対象となる領域である評価値算出対象領域を、マスク領域にかからないように、有効領域の内側に設定する。例えば、評価値算出対象領域の設定は、マスク領域の検出結果に基づいて、デフォルトの領域の大きさを拡大または縮小するとともに、デフォルトの中心位置をシフトすることによって行われる。
図12のAに示す横長長方形の領域A1は、撮像画像の上下方向の長さより短い径を有する有効領域内に設定された評価値算出対象領域である。図12のBに示す領域A2は、撮像画像の上下方向の長さより長い径を有する有効領域内に設定された評価値算出対象領域である。
いずれの評価値算出対象領域も、有効領域の内側に全体が収まるように設定される。図12のA,Bにおいて、評価値算出対象領域を表す横長長方形が有効領域内に2つずつ示されていることは、有効領域内に収まるサイズであれば、評価値算出対象領域のサイズを任意に設定可能であることを表す。
なお、図12の例においては、評価値算出対象領域の形状が横長長方形であるものとしたが、正方形、円形などの、他の形状とすることが可能である。
このような評価値算出対象領域に関する情報がレンズコントローラ136から検波枠ゲート132に供給され、評価値算出対象領域内に、AF評価値の算出対象となる検波枠が設定される。
AF検波部135においては、評価値算出対象領域内に設定された検波枠内の画素の撮像信号に基づいてAF評価値が算出される。また、算出されたAF評価値に基づいて、レンズコントローラ136により自動合焦処理が行われる。
これにより、CCU12は、有効領域に写る術部にフォーカスを確実に合わせることが可能になる。
<<第4の実施の形態 評価値算出対象領域の設定例2>>
図13は、評価値算出対象領域の他の設定例を示す図である。
図13の撮像画像上に示すマス目はそれぞれ検波枠を表す。図13の例においては、撮像画像の中心の周りに、縦方向に8個、横方向に8個の複数の検波枠がタイル状に並べて設定されている。この例においては、有効領域の範囲に関わらず、検波枠の位置は固定である。検波枠ゲート132からAF検波部135に対しては、各検波枠の画素の撮像信号が供給される。
レンズコントローラ136は、このようにして固定的に設定される検波枠のうち、マスク領域にかからずに、全体が有効領域に収まる検波枠を、AF評価値の算出対象となる評価値算出対象領域として選択する。図13において色を付して示す検波枠は、評価値算出対象領域として選択された検波枠である。一方、マスク領域にかかる検波枠は、無効(重み0)な検波枠として扱われる。
レンズコントローラ136は、評価値算出対象領域として選択した検波枠に関する情報をAF検波部135に出力し、評価値算出対象領域として選択した検波枠を対象として、AF評価値の算出を行わせる。
すなわち、図12の例においてはAF評価値の算出対象となる検波枠がマスク領域の検出結果に基づいて設定されるのに対して、図13の例においては、予め設定されている検波枠から、AF評価値の算出対象となる検波枠が選択されることになる。
図13のAの例においては、予め設定された検波枠のうち、有効領域に収まる一部の検波枠が評価値算出対象領域として設定されている。また、図13のBの例においては、予め設定された検波枠の全てが有効領域に収まるため、全ての検波枠が評価値算出対象領域として設定されている。
なお、図13の例においては、有効領域に収まる検波枠が全て評価値算出対象領域として設定されているが、有効領域に収まる一部の検波枠が評価値算出対象領域として設定されるようにしてもよい。
このような評価値算出対象領域に関する情報がレンズコントローラ136からAF検波部135に供給され、評価値算出対象領域として設定された検波枠の画素の画素信号に基づいてAF評価値が算出される。また、算出されたAF評価値に基づいて、レンズコントローラ136により自動合焦処理が行われる。
これによっても、CCU12は、有効領域に写る術部にフォーカスを確実に合わせることが可能になる。
<<第5の実施の形態 自動合焦処理の例>>
以上のようにして特定されたスコープ径、有効領域の中心位置、マスク領域の位置に基づいてスコープ52のF値が推定され、推定されたF値に基づいて焦点深度が求められるようにしてもよい。
スコープ52のF値と焦点深度は、例えば、AF速度、合焦精度、ウォブリング振幅量などの、自動合焦処理の内容を規定するパラメータを設定するためにレンズコントローラ136により用いられる。レンズコントローラ136は、スコープ52のF値と焦点深度に基づいて、AF速度、合焦精度、ウォブリング振幅量をそれぞれ計算し、計算結果に基づいて自動合焦処理を行うことになる。
これにより、レンズコントローラ136は、自動合焦処理をより高精度に行うことが可能になる。なお、スコープ径に対応するF値と焦点深度のテーブルを予め記憶しておき、特定されたスコープ径からテーブルを参照してF値と焦点深度を求めてもよい。
<<CCUの動作>>
<AF処理>
図14のフローチャートを参照して、CCU12のAF処理について説明する。
図14の処理は、例えば、内視鏡19により術部の撮像が行われ、撮像信号が撮像素子111から供給されたときに行われる。
ステップS1において、カメラ信号処理部131は、撮像素子111から供給された撮像信号に対して、ホワイトバランス処理等の各種の信号処理を施す。
ステップS2において、検波枠ゲート132は、各検波枠内の画素の撮像信号を出力する。
例えば、マスク領域の検出が図7、図8を参照して説明したようにして行われる場合、撮像画像全体に設定されたそれぞれの検波枠内の画素の撮像信号が検波枠ゲート132から出力され、検波部133に供給される。
また、マスク領域の検出が図9、図10、図11を参照して説明したようにして行われる場合、撮像画像の所定の位置に設定されたそれぞれの検波枠内の画素の撮像信号が検波枠ゲート132から出力され、AF検波部135に供給される。
ステップS3においてマスク領域検出処理が行われる。マスク領域検出処理により特定された、スコープ径、有効領域の中心位置、マスク領域の位置に関する情報は、マスク検出部134からレンズコントローラ136に供給される。マスク領域検出処理の詳細については、図15、図16のフローチャートを参照して後述する。
ステップS4において、レンズコントローラ136は、評価値算出対象領域をマスク領域の検出結果に基づいて設定する。
評価値算出対象領域の設定が図12を参照して説明したようにして行われる場合、レンズコントローラ136は、評価値算出対象領域に関する情報を検波枠ゲート132に出力し、評価値算出対象領域内に検波枠を設定させる。
また、評価値算出対象領域の設定が図13を参照して説明したようにして行われる場合、レンズコントローラ136は、評価値算出対象領域に関する情報をAF検波部135に出力し、評価値算出対象領域として選択した検波枠を対象としてAF評価値の算出を行わせる。
ステップS5において、AF検波部135は、検波枠ゲート132から供給された撮像信号に基づいて、評価値算出対象領域の検波枠を対象としてAF評価値を算出する。
ステップS6において、レンズコントローラ136は、AF検波部135により算出されたAF評価値に基づいて自動合焦処理を行う。レンズコントローラ136からカメラヘッド51のレンズドライバ113に対して制御信号が出力され、フォーカスレンズ102の位置が調整されることによってAFが実現される。
以上の処理が、撮像信号が撮像素子111から供給される間、繰り返し行われる。
<マスク領域検出処理>
次に、図15のフローチャートを参照して、図14のステップS3において行われるマスク領域検出処理について説明する。
図15の処理は、マスク領域の検出が、検波部133により求められた検波値を用いて行われる処理である。検波枠ゲート132から検波部133に対しては、図7、図8を参照して説明したようにして撮像画像全体に設定されたそれぞれの検波枠内の画素の撮像信号が供給される。
ステップS11において、検波部133は、検波枠ゲート132から供給された撮像信号の検波を行い、各検波枠の検波値を出力する。
ステップS12において、マスク検出部134は、各列の検波枠の検波値のうちの最大の検波値を検出する。また、マスク検出部134は、各行の検波枠の検波値のうちの最大の検波値を検出する。
ステップS13において、マスク検出部134は、各列の最大の検波値の配列における、1列おきの、検波値の差分を求める。また、マスク検出部134は、各行の最大の検波値の配列における、1行おきの、検波値の差分を求める。
ステップS14において、マスク検出部134は、1列おきの検波値の差分を順に注目し、閾値以上の差分が求められた位置を、マスク領域の左右のエッジの位置として検出する。また、マスク検出部134は、1行おきの検波値の差分を順に注目し、閾値以上の差分が求められた位置を、マスク領域の上下のエッジの位置として検出する。
ステップS15において、マスク検出部134は、有効領域のエッジ幅に基づいて、スコープ径と有効領域の中心位置を特定する。
ステップS16において、マスク検出部134は、スコープ径、有効領域の中心位置、および、マスク領域の位置に関する情報を、マスク領域の検出結果としてレンズコントローラ136に出力する。その後、図14のステップS3に戻り、それ以降の処理が行われる。
次に、図16のフローチャートを参照して、図14のステップS3において行われる他のマスク領域検出処理について説明する。
図16の処理は、マスク領域の検出が、AF検波部135により求められたAF評価値を用いて行われる処理である。
ステップS21において、レンズコントローラ136は、検波枠の位置に関する情報を検波枠ゲート132に出力し、検波枠を設定させる。例えばレンズコントローラ136から検波枠ゲート132に対しては、図9、図10、図11を参照して説明したように撮像画像の各位置に検波枠を設定するための情報が供給される。検波枠が設定されたとき、検波枠内の画素に対応する撮像信号が検波枠ゲート132からAF検波部135に供給される。
ステップS22において、AF検波部135は、検波枠ゲート132から供給された撮像信号に基づいてAF評価値を算出する。算出されたAF評価値はマスク検出部134に供給される。
ステップS23において、マスク検出部134は、AF評価値に閾値以上の変化が生じたか否かを判定する。閾値以上の変化が生じていないとステップS23において判定された場合、ステップS21に戻り、位置や幅を変えて検波枠が設定された後、以上の処理が繰り返される。
一方、ステップS23においてAF評価値に閾値以上の変化が生じたと判定した場合、ステップS24において、マスク検出部134は、AF評価値に閾値以上の変化が生じた位置をマスク領域のエッジの位置として特定する。
マスク領域のエッジの位置が特定された後の処理は、図15のステップS15以降の処理と同様の処理である。すなわち、ステップS25において、マスク検出部134は、有効領域のエッジ幅に基づいて、スコープ径と有効領域の中心位置を特定する。
ステップS26において、マスク検出部134は、スコープ径、有効領域の中心位置、および、マスク領域の位置に関する情報を、マスク領域の検出結果としてレンズコントローラ136に出力する。その後、図14のステップS3に戻り、それ以降の処理が行われる。
以上の処理により、CCU12は、硬性内視鏡である内視鏡19に装着されたスコープ52の種類に応じて、AF評価値の算出対象となる領域を、有効領域内の適切な位置に、適切なサイズで設定することが可能になる。
また、CCU12は、AF速度やウォブリング振幅量などのパラメータを、スコープ52の仕様に応じて適切な値に設定することができ、これにより、AF性能を向上させることができる。AF速度とウォブリング振幅量がスコープ52の仕様に応じて設定されることにより、AFのふらつきの回避、ぼけ止まりの回避、ウォブリング動作が見えてしまうなどの画質劣化の回避が可能になる。
例えば、径の大きいスコープが装着され、適切な値よりも大きいF値、焦点深度を用いてAFが行われた場合、AF速度が速すぎることによるAFのふらつきが発生する。また、ウォブリング動作の微小振動が出力画像上で見えてしまうなどの不具合が発生する。
逆に、径の小さいスコープが装着され、適切な値よりも小さいF値、焦点深度を用いてAFが行われた場合、AF速度が遅すぎることによって合焦までに時間がかかるといった不具合が発生する。また、ウォブリング動作の振幅量が不足することによって合焦方向が求められず、ぼけた状態のままAFが停止するいわゆるぼけ止まりといった不具合が発生する。
スコープの仕様に応じた適切な値を用いてAFが行われるようにすることにより、スコープの仕様が適切ではないことにより生じる、これらの不具合を回避することが可能になる。
すなわち、内視鏡システム1は、手術に適した内視鏡画像を術者に提供することができる。
<<その他の例>>
<AEに適用した例>
マスク領域の検出結果に基づいて、AEを行うための自動露光処理が行われるようにすることも可能である。AEは、シャッタースピードやISO感度などのパラメータを術者の操作によらずに自動的に調整することによって行われる。
図17は、AEを行うCCU12の構成例を示すブロック図である。
図17に示す構成のうち、図5を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。図17に示すCCU12の構成は、露出検出部141が設けられている点で、図5に示す構成と異なる。
検波枠ゲート132は、カメラ信号処理部131から供給された撮像信号のうち、露出評価用の検波枠内の画素の撮像信号を露出検出部141に出力する。
露出検出部141は、検波枠内の画素の撮像信号に基づいて露出評価用の評価値であるAE評価値を算出し、レンズコントローラ136に出力する。
レンズコントローラ136は、露出検出部141により算出されたAE評価値に基づいて、シャッタースピードやISO感度を調整するための制御信号を撮像素子ドライバ112に出力し、自動露光処理を行う。
図18は、AE評価値の評価値算出対象領域の設定例を示す図である。
図18に示す評価値算出対象領域の設定は、図12を参照して説明した評価値算出対象領域の設定に対応する。
図18の右側に示すように、レンズコントローラ136は、AE評価値の算出対象となる評価値算出対象領域を、マスク領域にかからないように、有効領域の内側に設定する。例えば、評価値算出対象領域の設定は、マスク領域の検出結果に基づいて、デフォルトの領域の大きさを拡大または縮小するとともに、デフォルトの中心位置をシフトすることによって行われる。
図18の右側に示す横長長方形の領域A11は、撮像画像の上下方向の長さより短い径を有する有効領域内に設定された評価値算出対象領域である。図18の例においては、例えば、図18の左側に示すデフォルトの大きさを縮小することによって評価値算出対象領域が設定されている。
このような評価値算出対象領域に関する情報がレンズコントローラ136から検波枠ゲート132に供給され、評価値算出対象領域内に、AE評価値の算出対象となる検波枠が設定される。
露出検出部141においては、評価値算出対象領域内に設定された検波枠内の画素の撮像信号に基づいてAE評価値が算出される。また、算出されたAE評価値に基づいて、レンズコントローラ136により自動露光処理が行われる。
これにより、CCU12は、有効領域に写る術部の露出を適正な露出に調整することが可能になる。
例えば、露出評価用の検波枠がマスク領域に設定されている場合、露出を上げるための制御がAEによって行われ、結果として露出オーバーとなることがある。有効領域内の検波枠だけを用いて露出の評価が行われるようにすることにより、CCU12は、術部の明るさを適正露出に調整することが可能になる。
図19は、AE評価値の評価値算出対象領域の他の設定例を示す図である。
図19に示す評価値算出対象領域の設定は、図13を参照して説明した評価値算出対象領域の設定に対応する。
図19の左側の撮像画像上に示すマス目はそれぞれ検波枠を表す。図19の例においては、撮像画像の中心の周りに、縦方向に10個、横方向に10個の複数の検波枠がタイル状に並べて設定されている。この例においては、有効領域の範囲に関わらず、検波枠の位置は固定である。検波枠ゲート132から露出検出部141に対しては、各検波枠の画素の撮像信号が供給される。
レンズコントローラ136は、このようにして固定的に設定される検波枠のうち、マスク領域にかからずに、全体が有効領域に収まる検波枠を、AE評価値の算出対象となる評価値算出対象領域として選択する。図19の右側において色を付して示す検波枠は、評価値算出対象領域として選択された検波枠である。一方、マスク領域にかかる検波枠は、無効(重み0)な検波枠として扱われる。
レンズコントローラ136は、評価値算出対象領域として選択した検波枠に関する情報を露出検出部141に出力し、評価値算出対象領域として選択した検波枠を対象として、AE評価値の算出を行わせる。
このような評価値算出対象領域に関する情報がレンズコントローラ136から露出検出部141に供給され、評価値算出対象領域として選択された検波枠の画素の画素信号に基づいてAE評価値が算出される。また、算出されたAE評価値に基づいて、レンズコントローラ136により自動露光処理が行われる。
これによっても、CCU12は、有効領域に写る術部の露出を適正な露出に調整することが可能になる。
自動露光処理が、上述した自動合焦処理と組み合わせて行われるようにしてもよい。すなわち、レンズコントローラ136が行う制御処理は、自動露光処理と自動合焦処理のうちの少なくともいずれかを含む処理である。
<AWBに適用した例>
マスク領域の検出結果に基づいて、内視鏡システム1のAWB(オートホワイトバランス)を行うためのホワイトバランス処理がカメラ信号処理部131により行われるようにすることも可能である。
この場合、マスク領域の検出結果がマスク検出部134からカメラ信号処理部131に供給され、ホワイトバランス処理が、有効領域内の画素の撮像信号に基づいて行われることになる。
ホワイトバランス処理は、術部が適切な色味で写るように撮像画像の色を補正する処理であり、例えば、有効領域内の画素の撮像信号(色信号)に基づいて撮像環境を推定し、撮像信号から生成される色を補正する処理である。
また、有効領域内の画素の撮像信号から光源の色温度を推定し、予め記憶した光源の色温度に合わせた色補正を行うホワイトバランス処理を行ってもよい。
また、有効領域内の赤味が弱いと判定した場合に、血管が強調されるように赤味を強くするホワイトバランス処理を行ってもよい。
このように、有効領域内の画素の撮像信号を用いてホワイトバランス処理が行われるようにすることにより、術部が適切な色味で写る撮像画像を得ることが可能になる。
<その他の例>
マスク領域の検出結果を用いたAF,AE,AWBが内視鏡システム1において行われる場合について説明したが、顕微鏡システムにおいてAF,AE,AWBを行う場合にも適用可能である。
マスク領域の検出が、検波部133により求められた検波値、または、AF検波部135により求められたAF評価値に基づいて行われるものとしたが、検波値とAF評価値の両方を用いて行われるようにしてもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図20は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
術野領域に光を照射する光源装置と、
着脱可能なスコープを介して、前記術野領域を撮像する撮像装置と、
前記撮像装置および前記光源装置に接続され、
前記撮像装置により撮像された撮像画像のうち、前記スコープの有効領域を検出する検出部と、
前記有効領域内の評価値に基づいて、自動合焦処理と自動露光処理と自動ホワイトバランス処理のうちの少なくともいずれかを含む制御処理を実行する制御部と
を備える情報処理装置と
を含む内視鏡システム。
(2)
前記有効領域は、前記スコープによるケラレがない領域である
前記(1)に記載の内視鏡システム。
(3)
前記撮像画像に設定された各領域の輝度信号の検波を行う第1の検波部をさらに備え、
前記検出部は、前記撮像画像の各領域の検波値に基づいて前記有効領域を検出する
前記(1)または(2)に記載の内視鏡システム。
(4)
前記検出部は、前記撮像画像にタイル状に設定された各領域の前記検波値に基づいて前記有効領域のエッジを検出し、前記スコープの径と、前記有効領域の中心位置を特定する
前記(3)に記載の内視鏡システム。
(5)
前記撮像画像に設定された検波枠内の検波を行い、前記自動合焦処理用の評価値を算出する第2の検波部をさらに備え、
前記検出部は、前記自動合焦処理用の評価値に基づいて前記有効領域を検出し、
前記制御部は、前記自動合焦処理用の評価値に基づいて、前記制御処理としての前記自動合焦処理を実行する
前記(1)に記載の内視鏡システム。
(6)
前記第2の検波部は、前記検波枠の位置と大きさのうちの少なくともいずれかを変化させて、前記有効領域の検出に用いられる前記自動合焦処理用の評価値を算出する
前記(5)に記載の内視鏡システム。
(7)
前記検出部は、前記自動合焦処理用の評価値に基づいて前記有効領域のエッジを検出し、前記スコープの径と、前記有効領域の中心位置を特定する
前記(6)に記載の内視鏡システム。
(8)
前記制御部は、前記スコープの径と前記有効領域の中心位置により表される前記有効領域内に、前記評価値の算出対象となる評価値算出対象領域を設定する
前記(1)乃至(7)のいずれかに記載の内視鏡システム。
(9)
前記制御部は、前記撮像画像にタイル状に設定された、前記評価値の算出対象となる評価値算出対象領域のうち、前記スコープの径と前記有効領域の中心位置により表される前記有効領域内の前記評価値算出対象領域において算出された前記評価値に基づいて前記制御処理を実行する
前記(1)乃至(8)のいずれかに記載の内視鏡システム。
(10)
前記制御部は、前記検出部による検出結果に基づいて推定される前記スコープのF値と焦点深度とのうちの少なくともいずれかに基づいて、前記自動合焦処理を規定するパラメータを設定する
前記(1)乃至(9)のいずれかに記載の内視鏡システム。
(11)
前記制御部は、前記検出部による検出結果に基づいて、予め記憶された前記スコープのF値または焦点深度のいずれかを少なくとも含むテーブルを参照し、参照結果に基づいて前記自動合焦処理を規定するパラメータを設定する
前記(1)乃至(9)のいずれかに記載の内視鏡システム。
(12)
光源装置が、術野領域に光を照射し、
撮像装置が、着脱可能なスコープを介して、前記術野領域を撮像し、
前記撮像装置および前記光源装置に接続される情報処理装置が、
前記撮像装置により撮像された撮像画像のうち、前記スコープの有効領域を検出し、
前記有効領域内の評価値に基づいて、自動合焦処理と自動露光処理と自動ホワイトバランス処理のうちの少なくともいずれかを含む制御処理を実行する
内視鏡システムの制御方法。
(13)
術野領域に光を照射する光源装置、および、着脱可能なスコープを介して前記術野領域を撮像する撮像装置に接続され、
前記撮像装置により撮像された撮像画像のうち、前記スコープの有効領域を検出する検出部と、
前記有効領域内の評価値に基づいて、自動合焦処理と自動露光処理と自動ホワイトバランス処理のうちの少なくともいずれかを含む制御処理を実行する制御部と
を備える、内視鏡システムの情報処理装置。
(14)
術野領域に光を照射する光源装置、および、着脱可能なスコープを介して前記術野領域を撮像する撮像装置に接続される、内視鏡システムの情報処理装置であるコンピュータに、
前記撮像装置により撮像された撮像画像のうち、前記スコープの有効領域を検出し、
前記有効領域内の評価値に基づいて、自動合焦処理と自動露光処理と自動ホワイトバランス処理のうちの少なくともいずれかを含む制御処理を実行する
処理を実行させるためのプログラム。
1 内視鏡システム, 12 CCU, 19 内視鏡, 51 カメラヘッド, 52 スコープ, 111 撮像素子, 112 撮像素子ドライバ, 113 レンズドライバ, 114 ズームレンズ駆動部, 115 フォーカスレンズ駆動部, 131 カメラ信号処理部, 132 検波枠ゲート, 133 検波部, 134 マスク検出部, 135 AF検波部, 136 レンズコントローラ, 141 露出検出部

Claims (11)

  1. 術野領域に光を照射する光源装置と、
    着脱可能なスコープを介して、前記術野領域を撮像する撮像装置と、
    前記撮像装置および前記光源装置に接続される情報処理装置であって、
    前記撮像装置により撮像された撮像画像に位置を変えて設定されたAF検波枠内の検波を行い、第1のAF評価値を算出するAF検波部と、
    前記撮像画像のうちの前記スコープの有効領域を前記第1のAF評価値に基づいて検出する検出部と、
    自動合焦処理を実行する制御部と
    を備え、
    前記AF検波部は、前記有効領域の検出後に前記有効領域内に設定された評価値算出対象領域を対象として第2のAF評価値を算出し、
    前記制御部は、前記評価値算出対象領域を対象として算出された前記第2のAF評価値に基づいて前記自動合焦処理を実行する
    前記情報処理装置と
    を含む内視鏡システム。
  2. 前記有効領域は、前記スコープによるケラレがない領域である
    請求項1に記載の内視鏡システム。
  3. 前記AF検波部は、位置とともに大きさを変えて設定された前記AF検波枠内の検波を行い、前記有効領域の検出に用いられる前記第1のAF評価値を算出する
    請求項1または2に記載の内視鏡システム。
  4. 前記検出部は、前記第1のAF評価値に基づいて前記有効領域のエッジを検出し、前記スコープの径と、前記有効領域の中心位置を特定する
    請求項1乃至3のいずれかに記載の内視鏡システム。
  5. 前記制御部は、前記スコープの径と前記有効領域の中心位置により表される前記有効領域内に前記評価値算出対象領域を設定する
    請求項4に記載の内視鏡システム。
  6. 前記制御部は、前記撮像画像にタイル状に設定された前記評価値算出対象領域のうち、前記スコープの径と前記有効領域の中心位置により表される前記有効領域内の前記評価値算出対象領域において算出された前記第2のAF評価値に基づいて前記自動合焦処理を実行する
    請求項4に記載の内視鏡システム。
  7. 前記制御部は、前記検出部による検出結果に基づいて推定される前記スコープのF値と焦点深度とのうちの少なくともいずれかに基づいて、前記自動合焦処理を規定するパラメータを設定する
    請求項1乃至6のいずれかに記載の内視鏡システム。
  8. 前記制御部は、前記検出部による検出結果に基づいて、予め記憶された前記スコープのF値または焦点深度のいずれかを少なくとも含むテーブルを参照し、参照結果に基づいて前記自動合焦処理を規定するパラメータを設定する
    請求項1乃至6のいずれかに記載の内視鏡システム。
  9. 光源装置、撮像装置、および情報処理装置を含む内視鏡システムの制御方法であって、
    前記光源装置が、術野領域に向けて光を出射し、
    前記撮像装置が、着脱可能なスコープを介して、前記術野領域を撮像し、
    前記撮像装置および前記光源装置に接続される前記情報処理装置が、
    前記撮像装置により撮像された撮像画像に位置を変えて設定されたAF検波枠内の検波を行い、第1のAF評価値を算出し、
    前記撮像画像のうちの前記スコープの有効領域を前記第1のAF評価値に基づいて検出し、
    前記有効領域の検出後に前記有効領域内に設定された評価値算出対象領域を対象として第2のAF評価値を算出し、
    前記評価値算出対象領域を対象として算出された前記第2のAF評価値に基づいて自動合焦処理を実行する
    前記内視鏡システムの制御方法。
  10. 術野領域に光を照射する光源装置、および、着脱可能なスコープを介して前記術野領域を撮像する撮像装置に接続される情報処理装置であって、
    前記撮像装置により撮像された撮像画像に位置を変えて設定されたAF検波枠内の検波を行い、第1のAF評価値を算出するAF検波部と、
    前記撮像画像のうちの前記スコープの有効領域を前記第1のAF評価値に基づいて検出する検出部と、
    自動合焦処理を実行する制御部と
    を備え、
    前記AF検波部は、前記有効領域の検出後に前記有効領域内に設定された評価値算出対象領域を対象として第2のAF評価値を算出し、
    前記制御部は、前記評価値算出対象領域を対象として算出された前記第2のAF評価値に基づいて前記自動合焦処理を実行する
    内視鏡システムの情報処理装置。
  11. 術野領域に光を照射する光源装置、および、着脱可能なスコープを介して前記術野領域を撮像する撮像装置に接続される、内視鏡システムの情報処理装置であるコンピュータに、
    前記撮像装置により撮像された撮像画像に位置を変えて設定されたAF検波枠内の検波を行い、第1のAF評価値を算出し、
    前記撮像画像のうちの前記スコープの有効領域を前記第1のAF評価値に基づいて検出し、
    前記有効領域の検出後に前記有効領域内に設定された評価値算出対象領域を対象として第2のAF評価値を算出し、
    前記評価値算出対象領域を対象として算出された前記第2のAF評価値に基づいて自動合焦処理を実行する
    処理を実行させるプログラム。
JP2018051955A 2018-03-20 2018-03-20 内視鏡システム、制御方法、情報処理装置、およびプログラム Active JP7159577B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2018051955A JP7159577B2 (ja) 2018-03-20 2018-03-20 内視鏡システム、制御方法、情報処理装置、およびプログラム
US16/979,882 US11455722B2 (en) 2018-03-20 2019-03-12 System with endoscope and image sensor and method for processing medical images
PCT/JP2019/009853 WO2019181629A1 (en) 2018-03-20 2019-03-12 System with endoscope and image sensor and method for processing medical images
EP19715239.0A EP3768139B1 (en) 2018-03-20 2019-03-12 System with endoscope and image sensor and method for processing medical images
CN201980018915.6A CN111867439A (zh) 2018-03-20 2019-03-12 具有内窥镜和图像传感器的系统以及用于处理医疗图像的方法
US17/894,179 US11986156B2 (en) 2018-03-20 2022-08-24 System with endoscope and image sensor and method for processing medical images
JP2022164512A JP2022179728A (ja) 2018-03-20 2022-10-13 情報処理装置、制御方法、プログラム、内視鏡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018051955A JP7159577B2 (ja) 2018-03-20 2018-03-20 内視鏡システム、制御方法、情報処理装置、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022164512A Division JP2022179728A (ja) 2018-03-20 2022-10-13 情報処理装置、制御方法、プログラム、内視鏡システム

Publications (2)

Publication Number Publication Date
JP2019162280A JP2019162280A (ja) 2019-09-26
JP7159577B2 true JP7159577B2 (ja) 2022-10-25

Family

ID=66001277

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018051955A Active JP7159577B2 (ja) 2018-03-20 2018-03-20 内視鏡システム、制御方法、情報処理装置、およびプログラム
JP2022164512A Pending JP2022179728A (ja) 2018-03-20 2022-10-13 情報処理装置、制御方法、プログラム、内視鏡システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022164512A Pending JP2022179728A (ja) 2018-03-20 2022-10-13 情報処理装置、制御方法、プログラム、内視鏡システム

Country Status (5)

Country Link
US (2) US11455722B2 (ja)
EP (1) EP3768139B1 (ja)
JP (2) JP7159577B2 (ja)
CN (1) CN111867439A (ja)
WO (1) WO2019181629A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7159577B2 (ja) * 2018-03-20 2022-10-25 ソニーグループ株式会社 内視鏡システム、制御方法、情報処理装置、およびプログラム
US10058396B1 (en) * 2018-04-24 2018-08-28 Titan Medical Inc. System and apparatus for insertion of an instrument into a body cavity for performing a surgical procedure
JP7255288B2 (ja) * 2019-03-29 2023-04-11 ソニーグループ株式会社 画像処理システム、画像処理装置、及び画像処理方法
CN112907500B (zh) * 2019-12-03 2022-02-18 精微视达医疗科技(武汉)有限公司 一种内窥镜对焦方法及装置
JP2021137130A (ja) * 2020-03-02 2021-09-16 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置および医療用観察システム
JP7454409B2 (ja) 2020-03-03 2024-03-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び医療用制御装置の制御方法
US11375141B1 (en) 2021-02-09 2022-06-28 Arthrex, Inc. Endoscopic camera region of interest autoexposure
WO2022209218A1 (ja) * 2021-03-31 2022-10-06 ソニーグループ株式会社 医療撮像システム、医療撮像装置、および制御方法
WO2023042273A1 (ja) * 2021-09-14 2023-03-23 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2023145448A1 (ja) * 2022-01-27 2023-08-03 ソニーグループ株式会社 内視鏡システム、制御方法、及びプログラム
WO2023147346A1 (en) * 2022-01-28 2023-08-03 Johnson & Johnson Consumer Inc. Systems, methods, and apparatus for tele-otoscopy
JP7449019B1 (ja) 2023-09-08 2024-03-13 株式会社SEtech 撮像装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015123293A (ja) 2013-12-27 2015-07-06 オリンパス株式会社 内視鏡装置、内視鏡装置の制御方法及びプログラム
JP2015156937A (ja) 2014-02-24 2015-09-03 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
WO2016088628A1 (ja) 2014-12-02 2016-06-09 オリンパス株式会社 画像評価装置、内視鏡システム、画像評価装置の作動方法および画像評価装置の作動プログラム
WO2017072853A1 (ja) 2015-10-27 2017-05-04 オリンパス株式会社 撮像装置、内視鏡装置及び撮像装置の作動方法
WO2017072950A1 (ja) 2015-10-30 2017-05-04 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2017122349A1 (ja) 2016-01-15 2017-07-20 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の作動方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001128038A (ja) * 1999-10-27 2001-05-11 Canon Inc 撮像ユニットおよびこれを備えた装置、テレビ電話、携帯端末、コンピュータ、車載カメラ、監視カメラ、内視鏡
JP2001281529A (ja) * 2000-03-29 2001-10-10 Minolta Co Ltd デジタルカメラ
DE102008018931A1 (de) * 2007-04-17 2008-11-13 Gyrus ACMI, Inc., Southborough Lichtquellenleistung auf der Grundlage einer vorbestimmten erfaßten Bedingung
US8233075B2 (en) 2007-05-24 2012-07-31 Gyrus Acmi, Inc. User-aided auto-focus
JP5162374B2 (ja) * 2008-08-21 2013-03-13 富士フイルム株式会社 内視鏡画像のズレ量測定装置及び方法、並びに電子内視鏡及び内視鏡用画像処理装置
JP5415973B2 (ja) 2010-01-25 2014-02-12 オリンパス株式会社 撮像装置、内視鏡システム及び撮像装置の作動方法
WO2012160670A1 (ja) * 2011-05-25 2012-11-29 オリンパス株式会社 内視鏡装置
JP5830328B2 (ja) * 2011-09-26 2015-12-09 オリンパス株式会社 内視鏡用画像処理装置、内視鏡装置及び画像処理方法
JP5951211B2 (ja) 2011-10-04 2016-07-13 オリンパス株式会社 合焦制御装置及び内視鏡装置
EP2804036A4 (en) * 2012-01-13 2015-09-16 Olympus Medical Systems Corp ENDOSCOPE COMPONENT AND ENDOSCOPE
JP6453543B2 (ja) * 2014-01-22 2019-01-16 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
US20160227100A1 (en) * 2015-01-29 2016-08-04 Qualcomm Incorporated Dual camera systems and methods for rapid 3a convergence and high dynamic range exposure metering
EP3151532A1 (en) * 2015-02-26 2017-04-05 Olympus Corporation Imaging device, actuation method for imaging device
WO2016168307A1 (en) * 2015-04-13 2016-10-20 Universidade De Coimbra Methods and systems for camera characterization in terms of response function, color, and vignetting under non-uniform illumination
JP6892087B2 (ja) * 2015-06-12 2021-06-18 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像取得システムおよび医療用撮像装置
WO2017145606A1 (ja) 2016-02-24 2017-08-31 ソニー株式会社 画像処理装置、画像処理方法及び内視鏡システム
US11589777B2 (en) * 2016-08-31 2023-02-28 Hoya Corporation Electronic endoscope processor and electronic endoscopic system
JP6310598B2 (ja) 2017-04-28 2018-04-11 富士フイルム株式会社 内視鏡装置及び画像処理装置並びに内視鏡装置の作動方法
JP7159577B2 (ja) * 2018-03-20 2022-10-25 ソニーグループ株式会社 内視鏡システム、制御方法、情報処理装置、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015123293A (ja) 2013-12-27 2015-07-06 オリンパス株式会社 内視鏡装置、内視鏡装置の制御方法及びプログラム
JP2015156937A (ja) 2014-02-24 2015-09-03 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
WO2016088628A1 (ja) 2014-12-02 2016-06-09 オリンパス株式会社 画像評価装置、内視鏡システム、画像評価装置の作動方法および画像評価装置の作動プログラム
WO2017072853A1 (ja) 2015-10-27 2017-05-04 オリンパス株式会社 撮像装置、内視鏡装置及び撮像装置の作動方法
WO2017072950A1 (ja) 2015-10-30 2017-05-04 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2017122349A1 (ja) 2016-01-15 2017-07-20 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の作動方法

Also Published As

Publication number Publication date
US20230022426A1 (en) 2023-01-26
EP3768139B1 (en) 2023-04-26
CN111867439A (zh) 2020-10-30
US11455722B2 (en) 2022-09-27
JP2022179728A (ja) 2022-12-02
US11986156B2 (en) 2024-05-21
US20210019884A1 (en) 2021-01-21
JP2019162280A (ja) 2019-09-26
WO2019181629A1 (en) 2019-09-26
EP3768139A1 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
JP7159577B2 (ja) 内視鏡システム、制御方法、情報処理装置、およびプログラム
JP5415973B2 (ja) 撮像装置、内視鏡システム及び撮像装置の作動方法
US10129454B2 (en) Imaging device, endoscope apparatus, and method for controlling imaging device
US9498153B2 (en) Endoscope apparatus and shake correction processing method
JP5856733B2 (ja) 撮像装置
WO2013054797A1 (ja) 合焦制御装置、内視鏡システム及び合焦制御方法
US9444994B2 (en) Image pickup apparatus and method for operating image pickup apparatus
JP6103849B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
WO2012033200A1 (ja) 撮像装置
JP2012125293A (ja) 制御装置、内視鏡装置及びフォーカス制御方法
JPWO2018211885A1 (ja) 画像取得システム、制御装置及び画像取得方法
JPWO2015064462A1 (ja) 内視鏡用の撮像システム、内視鏡用の撮像システムの作動方法
JP5953373B2 (ja) 内視鏡装置
US11064144B2 (en) Imaging element, imaging apparatus, and electronic equipment
US20220217260A1 (en) Signal processing device, imaging device, and signal processing method
JP2010207460A (ja) 観察装置
WO2017082091A1 (ja) 手術システム、手術用制御方法、およびプログラム
WO2013061939A1 (ja) 内視鏡装置及びフォーカス制御方法
JP2002263064A (ja) 内視鏡用自動調光装置およびそれを含む電子内視鏡装置のプロセッサ
WO2020203810A1 (en) Image processing system, image processing device, and image processing method
JP2017217056A (ja) 内視鏡システム
JP2022050280A (ja) 撮像制御装置、内視鏡システム、および撮像制御方法
JP2021157067A (ja) 医療用観察システム、制御装置、制御方法、および撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R151 Written notification of patent or utility model registration

Ref document number: 7159577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151