JP2020162803A - 画像処理システム、画像処理装置、及び画像処理方法 - Google Patents

画像処理システム、画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP2020162803A
JP2020162803A JP2019065381A JP2019065381A JP2020162803A JP 2020162803 A JP2020162803 A JP 2020162803A JP 2019065381 A JP2019065381 A JP 2019065381A JP 2019065381 A JP2019065381 A JP 2019065381A JP 2020162803 A JP2020162803 A JP 2020162803A
Authority
JP
Japan
Prior art keywords
evaluation
frames
scope
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019065381A
Other languages
English (en)
Other versions
JP7255288B2 (ja
Inventor
昌嗣 村北
Masatsugu Murakita
昌嗣 村北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019065381A priority Critical patent/JP7255288B2/ja
Priority to EP20719237.8A priority patent/EP3945982A1/en
Priority to PCT/JP2020/014119 priority patent/WO2020203810A1/en
Priority to US17/441,294 priority patent/US20220142454A1/en
Priority to CN202080023390.8A priority patent/CN113613540A/zh
Publication of JP2020162803A publication Critical patent/JP2020162803A/ja
Application granted granted Critical
Publication of JP7255288B2 publication Critical patent/JP7255288B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

【課題】より少ない計算量でスコープの種類を判別することができるようにする。【解決手段】スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、設定した複数の評価枠のそれぞれに関する評価値を算出し、算出した評価値の関係性に基づいて、スコープの種類を推定する制御部を備える画像処理システムが提供される。本技術は、例えば、内視鏡手術システムに適用することができる。【選択図】図3

Description

本開示は、画像処理システム、画像処理装置、及び画像処理方法に関し、特に、より少ない計算量でスコープの種類を判別することができるようにした画像処理システム、画像処理装置、及び画像処理方法に関する。
一般的に、手術用内視鏡はスコープが接続されたカメラヘッドを使用し、当該スコープを患者に挿入することで術野の観察を行う。
スコープは取り外し可能であり、複数の種類のスコープの中から使用するスコープが選択される。このとき、スコープの種類によって機械的なケラレや性質が異なり、またスコープの種類によって後段の画像処理を調整する必要が生じるため、スコープの種類を判別する方法が求められている。
例えば、スコープの種類を判別する方法としては、例えば、特許文献1に開示されている技術が知られている。
特開2004-33487号公報
しかしながら、上述した特許文献1に開示されている技術であると、スコープの種類を判別するに際して、画像中の直線エッジを全て検出する必要があり、その計算量が多く必要であった。そのため、より少ない計算量でスコープの種類を判別する方法が求められていた。
本開示はこのような状況に鑑みてなされたものであり、より少ない計算量でスコープの種類を判別することができるようにするものである。
本開示の一側面の画像処理システムは、スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、設定した前記複数の評価枠のそれぞれに関する評価値を算出し、算出した前記評価値の関係性に基づいて、前記スコープの種類を推定する制御部を備える画像処理システムである。
本開示の一側面の画像処理装置は、スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、設定した前記複数の評価枠のそれぞれに関する評価値を算出し、算出した前記評価値の関係性に基づいて、前記スコープの種類に対応する信号処理を行う制御部を備える画像処理装置である。
本開示の一側面の画像処理方法は、画像処理装置が、スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、設定した前記複数の評価枠のそれぞれに関する評価値を算出し、算出した前記評価値の関係性に基づいて、前記スコープの種類に対応する信号処理を行う画像処理方法である。
本開示の一側面の画像処理システム、画像処理装置、及び画像処理方法においては、スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠が設定され、設定された前記複数の評価枠のそれぞれに関する評価値が算出され、算出された前記評価値の関係性に基づいて、前記スコープの種類が推定される。
なお、本開示の一側面の画像処理装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本開示に係る技術を適用した画像処理システムの概略的な構成の例を示す図である。 内視鏡の構成の例を示す図である。 カメラヘッドとCCUの機能的な構成の例を示すブロック図である。 内視鏡画像の第1の例を示す図である。 内視鏡画像の第2の例を示す図である。 第1の処理の流れを説明するフローチャートである。 第1の処理で設定される複数の評価枠の例を示す図である。 第2の処理の流れを説明するフローチャートである。 第2の処理で設定される複数の評価枠の例を示す図である。 第3の処理の流れを説明するフローチャートである。 第3の処理で設定される複数の評価枠の例を示す図である。 第4の処理の流れを説明するフローチャートである。 第4の処理の流れを説明するフローチャートである。 第4の処理で設定される複数の評価枠の例を示す図である。 第5の処理の流れを説明するフローチャートである。 第5の処理の流れを説明するフローチャートである。 第5の処理における複数の評価枠の例を示す図である。 確定処理の流れを説明するフローチャートである。 評価枠の座標系の例を示す図である。 コンピュータの構成の例を示す図である。
以下、図面を参照しながら本開示に係る技術(本技術)の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.本技術の実施の形態
2.変形例
3.コンピュータの構成
<1.本技術の実施の形態>
(システムの概要)
まず、本開示に係る技術が適用され得るシステムの概要を説明する。図1は、本開示に係る技術を適用した画像処理システムの概略的な構成の例を示している。
図1では、術者(医師)3が、内視鏡手術システム1用いて、患者ベッド2上の患者4に手術を行っている様子が示されている。図1において、内視鏡手術システム1は、内視鏡10と、気腹チューブ21やエネルギー処置具22、鉗子23等の、その他の術具20と、内視鏡10を支持する支持アーム装置30と、内視鏡下手術のための各種の装置が搭載されたカート50とから構成される。
内視鏡10は、先端から所定の長さの領域が患者4の体腔内に挿入されるスコープ101と、スコープ101の基端に接続されるカメラヘッド102とから構成される。なお、図1では、硬性の鏡筒としてのスコープ101を有するいわゆる硬性鏡として構成される内視鏡10を例示しているが、内視鏡10は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
スコープ101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡10には光源装置53が接続されており、光源装置53によって生成された光(照射光)が、スコープ101の内部に延設されるライトガイドによって鏡筒の先端まで導光され、対物レンズを介して患者4の体腔内の観察対象に向かって照射される。なお、内視鏡10は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド102は、その内部に光学系及び撮像素子が設けられ、光学系によって、観察対象からの反射された光(観察光)が撮像素子に集光される。撮像素子では、観察光を光電変換して被写体像に対応する画像信号が生成される。この画像信号は、RAWデータ(RAW画像)としてカメラコントロールユニット(CCU:Camera Control Unit)51に送信される。
CCU51は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、内視鏡10及び表示装置52の動作を統括的に制御する。さらに、CCU51は、カメラヘッド102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)など、画像信号に基づく観察画像(表示画像)を表示するための各種の画像処理を施す。
表示装置52は、CCU51からの制御に従い、CCU51によって画像処理が施された画像信号に基づく表示画像を表示する。
光源装置53は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡10に供給する。
入力装置54は、内視鏡手術システム1に対する入力インターフェースである。ユーザは、入力装置54を介して、内視鏡手術システム1に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡10による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
処置具制御装置55は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具22の駆動を制御する。気腹装置56は、内視鏡10による視野の確保及び術者の作業空間の確保の目的で、患者4の体腔を膨らめるために、気腹チューブ21を介して体腔内にガスを送り込む。
レコーダ57は、手術に関する各種の情報を記録可能な装置である。プリンタ58は、手術に関する各種の情報を、テキスト、画像又はグラフ等の各種の形式で印刷可能な装置である。
(内視鏡の詳細な構成)
図2は、図1の内視鏡10の詳細な構成の例を示している。
図2において、内視鏡10は、スコープ101、及びカメラヘッド102を含んで構成される。また、内視鏡10は、スコープ101がライトガイド121を介して光源装置53と接続され、カメラヘッド102が伝送ケーブル122を介してCCU51と接続される。さらに、CCU51は、伝送ケーブル123を介して表示装置52と、伝送ケーブル124を介して光源装置53とそれぞれ接続される。
スコープ101は、硬性鏡として構成されている。すなわち、スコープ101は、硬質又は少なくとも一部が軟質で細長形状を有し、患者4の体腔内に挿入される挿入部(鏡筒)である。このスコープ101内には、1又は複数のレンズを用いて構成され、被写体像を集光する光学系が設けられている。
光源装置53は、ライトガイド121の一端が接続され、CCU51の制御に従い、ライトガイド121の一端に体腔内を照明するための照射光を供給する。ライトガイド121は、一端が光源装置53に着脱自在に接続されるとともに、他端がスコープ101に着脱自在に接続される。
そして、ライトガイド121は、光源装置53から供給された照射光を一端から他端に伝達し、スコープ101に供給する。スコープ101に供給された照射光は、スコープ101の先端から出射され、体腔内に照射される。体腔内に照射され、体腔内で反射された観察光(被写体像)は、スコープ101内の光学系により集光される。
カメラヘッド102は、スコープ101の基端(接眼部111)に着脱自在に接続される。そして、カメラヘッド102は、CCU51からの制御に従い、スコープ101にて集光された観察光(被写体像)を撮像し、その結果得られる画像信号(RAWデータ)を出力する。画像信号は、例えば、4K解像度(例えば3840×2160ピクセル)に対応した画像信号とされる。なお、カメラヘッド102の詳細な構成については、図3を参照して後述する。
伝送ケーブル122は、一端がコネクタ131を介してカメラヘッド102に着脱自在に接続され、他端がコネクタ132を介してCCU51に着脱自在に接続される。そして、伝送ケーブル122は、カメラヘッド102から出力される画像信号等をCCU51に伝送する一方で、CCU51から出力される制御信号、同期信号、及び電力等をカメラヘッド102にそれぞれ伝送する。
なお、伝送ケーブル122を介したカメラヘッド102からCCU51への画像信号等の伝送は、画像信号等を光信号で伝送してもよく、あるいは電気信号で伝送しても構わない。伝送ケーブル122を介したCCU51からカメラヘッド102への制御信号、同期信号、クロックの伝送も同様である。また、カメラヘッド102とCCU51との間の通信は、伝送ケーブル122を用いた有線通信に限らず、所定の通信方式に準拠した無線通信が行われてもよい。
表示装置52は、CCU51からの制御に従い、CCU51からの画像信号に基づく表示画像を表示するとともに、CCU51からの制御信号に応じて音声を出力する。
伝送ケーブル123は、一端が表示装置52に着脱自在に接続され、他端がCCU51に着脱自在に接続される。そして、伝送ケーブル123は、CCU51にて処理された画像信号、及びCCU51から出力される制御信号を表示装置52に伝送する。
CCU51は、CPU等を含んで構成され、光源装置53、カメラヘッド102、及び表示装置52の動作を統括的に制御する。なお、CCU51の詳細な構成については、図3を参照して後述する。
伝送ケーブル124は、一端が光源装置53に着脱自在に接続され、他端がCCU51に着脱自在に接続される。そして、伝送ケーブル124は、CCU51からの制御信号を光源装置53に伝送する。
(カメラヘッドとCCUの詳細な構成)
図3は、図1と図2に示したカメラヘッド102及びCCU51の機能的な構成の例を示すブロック図である。
カメラヘッド102は、レンズユニット151、撮像部152、駆動部153、通信部154、及びカメラヘッド制御部155を含んで構成される。カメラヘッド102とCCU51とは、伝送ケーブル122によって互いに通信可能に接続されている。
レンズユニット151は、スコープ101との接続部に設けられる光学系である。スコープ101の先端から取り込まれた観察光は、カメラヘッド102まで導光され、レンズユニット151に入射する。レンズユニット151は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
撮像部152は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサなどの撮像素子を含んで構成される。撮像部152を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部152が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。
あるいは、撮像部152は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者3は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部152が多板式で構成される場合には、各撮像素子に対応して、レンズユニット151も複数系統設けることができる。
また、撮像部152は、必ずしもカメラヘッド102に設けられなくてもよい。例えば、撮像部152は、スコープ101の内部に、対物レンズの直後に設けられてもよい。
駆動部153は、アクチュエータ等によって構成され、カメラヘッド制御部155からの制御により、レンズユニット151に含まれるズームレンズやフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部152により撮像される画像の倍率及び焦点が適宜調整され得る。
通信部154は、CCU51との間で各種の情報を送受信するための通信装置によって構成される。通信部154は、撮像部152から得られる画像信号をRAWデータとして伝送ケーブル122を介してCCU51に送信する。
また、通信部154は、CCU51から、カメラヘッド102の駆動を制御するための制御信号を受信し、カメラヘッド制御部155に供給する。この制御信号には、例えば、画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、又は画像の倍率及び焦点を指定する旨の情報など、撮像条件に関する情報が含まれる。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU51の制御部161によって自動的に設定されてもよい。つまり、後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡10に搭載されていることになる。
カメラヘッド制御部155は、通信部154を介して受信したCCU51からの制御信号に基づいて、カメラヘッド102の駆動を制御する。
CCU51は、制御部161、通信部162、及び画像処理部163を含んで構成される画像処理装置である。
制御部161は、内視鏡10による術部等の撮像、及び術部等の撮像により得られる内視鏡画像(医用画像)の表示に関する各種の制御を行う。例えば、制御部161は、カメラヘッド102の駆動を制御するための制御信号を生成する。
また、制御部161は、画像処理部163によって画像処理が施された画像信号に基づいて、術部等が映った表示画像(内視鏡画像)を表示装置52に表示させる。この際、制御部161は、各種の画像認識技術を用いて画像内における各種の物体を認識してもよい。
例えば、制御部161は、画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具22の使用時のミスト等を認識することができる。制御部161は、表示装置52に画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者3に提示されることにより、術者3の負担を軽減することや、術者3が確実に手術を進めることが可能になる。
通信部162は、カメラヘッド102との間で各種の情報を送受信するための通信装置によって構成される。通信部162は、カメラヘッド102から、伝送ケーブル122を介して送信される画像信号を受信する。
また、通信部162は、カメラヘッド102に対して、カメラヘッド102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
画像処理部163は、カメラヘッド102から送信されたRAWデータを含む画像信号に対して各種の画像処理を施す。
また、制御部161は、評価枠設定部171、評価値算出部172、評価値判定部173、評価結果設定部174、及び種類推定部175を含む。
評価枠設定部171は、画像信号(RAWデータ)に応じた内視鏡画像(RAW画像)に対して所定の間隔で配置される複数の評価枠を設定する。ここで、評価枠は、ベイヤー配列等の所定の配列パターンを有する撮像素子の撮像面に対応した領域(RAW画像の領域)に対し、任意に設定される領域であって、例えば明るさに関する情報(輝度情報)等の評価値を取得するための枠である。
評価値算出部172は、評価枠設定部171により設定された複数の評価枠のそれぞれに関する評価値を算出する。この評価値としては、例えば、各評価枠内の輝度情報(輝度値)が算出される。なお、評価値としては、輝度値に限らず、例えば、評価枠内に含まれるエッジや黒領域など表す定量的な値(例えばエッジ量や黒領域量等の特徴量)を用いることができる。
評価値判定部173は、評価値算出部172により算出された複数の評価枠ごとの評価値の関係性(相関関係)を判定する。ここでは、例えば、隣接又は一定間隔で配置された評価枠に応じた評価値の関係性が判定される。
評価結果設定部174は、評価値判定部173により判定された評価値の関係性に応じた評価結果に関する設定を行う。
種類推定部175は、評価値判定部173により判定された評価値の関係性に基づいて、内視鏡10のスコープ101の種類を推定する。例えば、評価値の関係性から、スコープ101によって機械的なケラレが生じている黒領域(以下、マスク領域ともいう)と、被写体像の領域(機械的なケラレが生じていない有効領域)との境界として、マスクエッジを検出することで、スコープ101の種類を推定することができる。
スコープ101の種類は、例えば、スコープ101の径や形状である。被写体像の領域の大きさは、スコープ101の種類によって決まるため、あらかじめ被写体像の領域の大きさとスコープ101の種類の相関性の記録があれば、被写体像の大きさからスコープ101の種類を求めることができる。
なお、被写体像の領域は、スコープ101の種類によっては円形とならず、四角形や八角形などになる場合がある。円形以外の場合は、例えば被写体像の領域の垂直方向又は水平方向における長さが最大となる直線の長さをスコープ101の径としてもよい。また、スコープ101の径とともにその中心位置を推定してもよい。
ところで、内視鏡10は、カメラヘッド102に接続されたスコープ101が患者4の体腔内に挿入されることで、術者3により術野の観察が行われるのは、先に述べたとおりである。
例えば、図4は、スコープ101にて集光された被写体像が、カメラヘッド102により撮像されることで得られる画像信号に応じた内視鏡画像200の例を示している。内視鏡画像200では、左右の黒領域が機械的なケラレが生じているマスク領域を表しており、被写体像の領域とマスク領域(黒領域)との境界がマスクエッジ220とされる。
すなわち、内視鏡10では、細長形状からなるスコープ101を取り付けているが、スコープ101にて集光された被写体像と、カメラヘッド102(の撮像部152)の撮像素子の撮像面の形状が一致していないため、スコープ101により機械的なケラレが生じてしまう。
なお、内視鏡画像200は、各種の画像処理が施されることで、表示画像として表示装置52により表示される。例えば、図5に示すように、術者3は、表示画像をリアルタイムで見ながら、エネルギー処置具22等の術具20を用いて、患部を切除するなどの処置を行うことができる。
ここで、内視鏡10において、スコープ101は取り外し可能で、複数の種類のスコープの中から、使用するスコープ101が選択される。このとき、使用するスコープ101の種類によって機械的なケラレや性質が異なり、またスコープ101の種類によって後段の画像処理を調整する必要が生じるため、使用するスコープ101の種類を判別する方法が求められる。
例えば、AFやAE等に関する信号処理は、被写体像の領域に対して行うものであり、マスク領域を含めて焦点を合わせたり、露出を行ったりすると、様々な問題が生じるので、使用するスコープ101の種類を判別する必要が出てくる。
一方で、使用するスコープ101の種類を判別するに際しては、例えば上述した特許文献1に開示されている技術であると、スコープの種類を判別するに際に画像中の直線エッジを全て検出する必要があるため、その計算量が多くなってしまう。そのため、より少ない計算量で、使用するスコープ101の種類を判別する方法が求められていた。
そこで、本技術では、このような問題を解決して、より少ない計算量で、使用するスコープ101の種類を判別する方法を提案する。以下、図面を参照しながら、本技術の詳細について説明する。
なお、内視鏡手術システム1(のCCU51)では、使用するスコープ101の種類を判別するための処理として、第1の処理乃至第5の処理、及び確定処理が実行されるので、それらの処理を順に説明する。また、以下の説明でも、カメラヘッド102の撮像素子の撮像面に応じた画像を、内視鏡画像と称して説明する。
(第1の処理の流れ)
まず、図6のフローチャートを参照して、CCU51により実行される第1の処理の流れを説明する。
ステップS10において、評価枠設定部171は、カメラヘッド102からの画像信号に応じた画像(RAW画像)に対して複数の評価枠を設定する。この評価枠の設定では、図7に示すように、内視鏡画像200の中央部とその周辺部の四隅に、評価枠210がそれぞれ設けられる。
具体的には、内視鏡画像200において、中央部には、矩形からなる評価枠210−0(以下、0枠とも略記する)が設けられ、左上、左下、右上、及び右下の四隅には、矩形からなる評価枠210−1、評価枠210−2、評価枠210−3、及び評価枠210−4(以下、1枠、2枠、3枠、4枠とも略記する)がそれぞれ設けられる。
ただし、評価枠210−1乃至210−4の矩形の大きさは、評価枠210−0の矩形の大きさよりも小さくなる。
また、図7では、内視鏡画像200に対し、その略重心を中心にした径の異なる4つの円を重畳して表しているが、これらの円は、被写体像の領域とマスク領域との境界であるマスクエッジ220にそれぞれ対応している。
すなわち、内視鏡10で使用するスコープ101の径が、内視鏡画像200内のマスクエッジ220に対応し、内視鏡画像200内でマスクエッジ220が検出されると想定される位置は、設計上、あらかじめ分かっているため、ここでは、マスク領域が含まれるかどうかを判別するために、評価枠210−0乃至210−4を設けている。
なお、以下の説明では、使用するスコープ101の種類として4種類を想定し、各マスクエッジ220のマスクタイプとしては、マスクエッジ220−1には"TYPE1"、マスクエッジ220−2には"TYPE2"、マスクエッジ220−3には"TYPE3"、マスクエッジ220−4には"TYPE4"がそれぞれ割り当てられているものとする。
図6の説明に戻り、ステップS11において、評価値算出部172は、図7に示した中央0枠と周辺四隅の1枠乃至4枠に応じた評価値を算出する。この評価値としては、例えば、輝度値等の内視鏡画像200から得られる特徴量を用いることができる。
なお、ステップS11の処理では、説明の都合上、複数の評価枠210のそれぞれに関する評価値をまとめて算出しているが、後述する判定処理(S12,S14,S15,S16)ごとに、対象の評価枠210に関する評価値を逐次算出するようにしてもよい。この評価値の算出方法については、後述する第2の処理乃至第5の処理でも同様とされる。
ステップS12において、評価値判定部173は、各枠の評価値の算出結果に基づいて、周辺四隅の1枠乃至4枠のうち、少なくとも1つの枠の評価値が、中央0枠の評価値よりも大きいかどうかを判定する。
ステップS12の判定処理で、周辺四隅の1枠乃至4枠の評価値が中央0枠の評価値よりも大きい、すなわち、内視鏡画像200の中央部が暗くその周辺部が明るいと判定された場合、処理は、ステップS13に進められる。そして、ステップS13では、評価結果設定部174は、マスクタイプを、"硬性鏡なし"に設定する。
また、ステップS12の判定処理で、周辺四隅の1枠乃至4枠の評価値が中央0枠の評価値よりも小さいと判定された場合、処理は、ステップS14に進められる。ステップS14において、評価値判定部173は、対象枠の評価値の算出結果に基づいて、周辺四隅の1枠乃至4枠のうち、少なくとも1つの枠の評価値が、所定の閾値(第1の閾値)を超えるかどうかを判定する。
ステップS14の判定処理で、周辺四隅の1枠乃至4枠の評価値が所定の閾値を超える、すなわち、画像全体が明るいと判定された場合、処理は、ステップS13に進められ、マスクタイプとして、"硬性鏡なし"が設定される。
また、ステップS14の判定処理で、周辺四隅の1枠乃至4枠の評価値が所定の閾値以下であると判定された場合、処理は、ステップS15に進められる。ステップS15において、評価値判定部173は、対象枠の評価値の算出結果に基づいて、中央0枠の評価値が所定の閾値(第2の閾値)以下となるかどうかを判定する。
ステップS15の判定処理で、中央0枠の評価値が閾値以下、すなわち、内視鏡画像200が全体的に黒い画を映していると判定された場合、処理は、ステップS13に進められ、マスクタイプとして、"硬性鏡なし"が設定される。
また、ステップS15の判定処理で、中央0枠の評価値が所定の閾値を超えると判定された場合、処理は、ステップS16に進められる。ステップS16において、評価値判定部173は、対象枠の評価値の算出結果に基づいて、周辺四隅の1枠乃至4枠と中央0枠との輝度差が所定の閾値(第3の閾値)以下となるかどうかを判定する。
ステップS16の判定処理で、輝度差が所定の閾値以下であると判定された場合、処理は、ステップS13に進められ、マスクタイプとして、"硬性鏡なし"が設定される。
なお、ステップS12,S14,S15,S16の判定処理で、肯定(「Yes」)であると判定された場合には、マスクタイプとして"硬性鏡なし"が設定され(S13)、処理は、ステップS17に進められる。そして、ステップS17では、評価結果設定部174は、認識結果を"停止中"に設定する。その後、処理は、ステップS10に戻り、上述した第1の処理が繰り返される。
また、ステップS16の判定処理で、輝度差が所定の閾値を超えると判定された場合、処理は、ステップS18に進められる。ステップS18において、評価結果設定部174、認識結果を"認識成功"に設定する。その後、CCU51では、第1の処理に続いて、第2の処理が実行される。なお、第2の処理の詳細は、図8等を参照して後述する。
以上、第1の処理の流れを説明した。この第1の処理では、図7に示したように、内視鏡画像200に対して、中央0枠と周辺四隅の1枠乃至4枠を評価枠210として設定し、評価枠210のそれぞれに関する評価値の関係性(相関関係)に基づき、内視鏡画像200にマスク領域が含まれるかどうかが判定される。そして、マスク領域を含まない場合には第1の処理が繰り返される一方で、マスク領域を含む場合には第2の処理が実行される。
(第2の処理の流れ)
次に、図8のフローチャートを参照して、CCU51により実行される第2の処理の流れを説明する。
ステップS30において、評価枠設定部171は、カメラヘッド102からの画像信号に応じた画像に対して複数の評価枠を設定する。この評価枠の設定では、図9に示すように、内視鏡画像200の中央部とその水平方向(X方向)に、評価枠210がそれぞれ設けられる。
具体的には、内視鏡画像200において、その略重心を含む中央部には、矩形からなる評価枠210−4(以下、評価枠4と略記する)が設けられる。
また、内視鏡画像200の中央部(に含まれる略重心)を中心に略対称となるように、その水平方向の左側には、矩形からなる評価枠210−0乃至210−3(以下、評価枠0、1、2、3とも略記する)のそれぞれが所定の間隔で設けられ、その水平方向の右側には、矩形からなる評価枠210−5乃至210−8(以下、評価枠5、6、7、8とも略記する)のそれぞれが所定の間隔で設けられる。
ただし、中央部の左右に所定の間隔で離散的に配置された評価枠210−0乃至210−3、及び評価枠210−5乃至210−8の矩形の大きさは、中央部に配置された評価枠210−4の矩形の大きさよりも小さくなる。なお、本開示において、離散的とは、複数の評価枠210が連続的に配置されていないことを意味する。
図9においては、使用するスコープ101の径が、マスクエッジ220−1乃至220−4のうち、どのマスクエッジ220(のマスクタイプ)に該当するかを判別するために、内視鏡画像200内の水平方向に、評価枠0乃至8を所定の間隔で離散的に設けている。
具体的には、例えば、マスクエッジ220−1が検出される位置は、設計上分かっているため、評価枠210の間にマスクエッジ220−1の検出位置がくるように、評価枠0と評価枠1、及び評価枠7と評価枠8を設ける。
同様にして、評価枠1と評価枠2、及び評価枠6と評価枠7のそれぞれの間にマスクエッジ220−2の検出位置、評価枠2と評価枠3、及び評価枠5と評価枠6のそれぞれの間にマスクエッジ220−3の検出位置、評価枠3と評価枠4、及び評価枠4と評価枠5のそれぞれの間にマスクエッジ220−4の検出位置がくるようにする。
図8の説明に戻り、ステップS31において、評価値算出部172は、図9に示した評価枠0乃至8に応じた評価値を算出する。この評価値としては、例えば、輝度値等の内視鏡画像200から得られる特徴量を用いることができる。
ステップS32において、評価値判定部173は、評価枠0,1と評価枠7,8の評価値の算出結果に基づいて、評価枠0と評価枠1との間にエッジがあり、かつ、評価枠7と評価枠8との間にエッジがあるかどうかを判定する。
ここでは、例えば、評価枠0から得られる輝度値と、評価枠1から得られる輝度値との差、及び評価枠7から得られる輝度値と、評価枠8から得られる輝度値との差を、所定の閾値(第4の閾値)とそれぞれ比較し、それらの輝度差が所定の閾値を超えるかどうかを判定することで、それらの評価枠210の間にエッジ(マスクエッジ220−1)があるかどうかを判定することができる。
ステップS32の判定処理で肯定(「Yes」)であると判定された場合、処理は、ステップS33に進められる。ステップS33において、評価結果設定部174は、マスクタイプを"TYPE1"に設定する。
また、ステップS32の判定処理で否定(「No」)であると判定された場合、処理は、ステップS34に進められる。ステップS34において、評価値判定部173は、評価枠1,2と評価枠6,7の評価値の算出結果に基づいて、評価枠1と評価枠2との間にエッジがあり、かつ、評価枠6と評価枠7との間にエッジがあるかどうかを判定する。
ステップS34の判定処理で肯定であると判定された場合、処理は、ステップS35に進められる。ステップS35において、評価結果設定部174は、マスクタイプを"TYPE2"に設定する。
また、ステップS34の判定処理で否定であると判定された場合、処理は、ステップS36に進められる。ステップS36において、評価値判定部173は、評価枠2,3と評価枠5,6の評価値の算出結果に基づいて、評価枠2と評価枠3との間にエッジがあり、かつ、評価枠5と評価枠6との間にエッジがあるかどうかを判定する。
ステップS36の判定処理で肯定であると判定された場合、処理は、ステップS37に進められる。ステップS37において、評価結果設定部174は、マスクタイプを"TYPE3"に設定する。
また、ステップS36の判定処理で否定であると判定された場合、処理は、ステップS38に進められる。ステップS38において、評価値判定部173は、評価枠3,4と評価枠4,5の評価値の算出結果に基づいて、評価枠3と評価枠4との間にエッジがあり、かつ、評価枠4と評価枠5との間にエッジがあるかどうかを判定する。
ステップS38の判定処理で肯定であると判定された場合、処理は、ステップS39に進められる。ステップS39において、評価結果設定部174は、マスクタイプを"TYPE4"に設定する。
なお、ステップS32,S34,S36,S38の判定処理で、肯定であると判定された場合には、マスクタイプとして、"TYPE1","TYPE2","TYPE3","TYPE4"がそれぞれ設定され(S33,S35,S37,S39)、処理は、ステップS40に進められる。
そして、ステップS40では、評価結果設定部174は、認識結果を"認識成功"に設定する。その後、CCU51では、第2の処理に続いて、第3の処理が実行される。なお、第3の処理の詳細は、図10等を参照して後述する。
また、ステップS38の判定処理で否定であると判定された場合、処理は、ステップS41に進められる。そして、評価結果設定部174は、マスクタイプを、"硬性鏡なし"に設定し(S41)、認識結果を"停止中"に設定する(S42)。その後、処理は、図6のステップS10に戻り、上述した第1の処理が実行される。
以上、第2の処理の流れを説明した。この第2の処理では、図9に示したように、内視鏡画像200に対して、水平方向に、評価枠210−0乃至210−8のそれぞれを所定の間隔で離散的に配置し、評価枠210のそれぞれに関する評価値の関係性(相関関係)に基づき、エッジの位置に応じたマスクタイプが設定される。そして、評価枠210に応じたエッジが未検出の場合には第1の処理が繰り返される一方で、評価枠210に応じたエッジが検出された場合には第3の処理が実行される。
(第3の処理の流れ)
次に、図10のフローチャートを参照して、CCU51により実行される第3の処理の流れを説明する。
ステップS50において、評価結果設定部174は、第2の処理でマスクタイプが"TYPE3"又は"TYPE4"に設定されたかどうかを判定する。すなわち、この例では、"TYPE1","TYPE2"であるマスクエッジ220−1,220−2の垂直方向の検出位置が、内視鏡画像200の外に位置するため、マスクエッジ220−1,220−2に関する処理を対象外としている。
ステップS50の判定処理で肯定であると判定された場合、処理は、ステップS51に進められる。ステップS51において、評価枠設定部171は、カメラヘッド102からの画像信号に応じた画像に対して複数の評価枠を設定する。
この評価枠の設定では、図11に示すように、内視鏡画像200の中央部とその垂直方向(Y方向)に、評価枠210がそれぞれ設けられる。具体的には、内視鏡画像200において、その略重心を含む中央部には、矩形からなる評価枠210−4(以下、評価枠4と略記する)が設けられる。
また、内視鏡画像200の中央部(に含まれる略重心)を中心に略対称となるように、その垂直方向の上側には、矩形からなる評価枠210−0、210−1(以下、評価枠0、1とも略記する)のそれぞれが所定の間隔で設けられ、その垂直方向の下側には、矩形からなる評価枠210−2,210−3(以下、評価枠2、3とも略記する)のそれぞれが所定の間隔で設けられる。
ただし、中央部の上下に所定の間隔で離散的に配置された評価枠210−0、210−1、及び評価枠210−2、210−3の矩形の大きさは、中央部に配置された評価枠210−4の矩形の大きさよりも小さくなる。
図11においては、使用するスコープ101の径が、マスクエッジ220−3,220−4のうち、どのマスクエッジ220(のマスクタイプ)に該当するかを判別するために、内視鏡画像200内の垂直方向に、評価枠210−0乃至210−3を所定の間隔で離散的に設けている。
具体的には、評価枠0と評価枠1、及び評価枠2と評価枠3のそれぞれの間にマスクエッジ220−3の検出位置、評価枠1と評価枠4、及び評価枠2と評価枠4のそれぞれの間にマスクエッジ220−4の検出位置がくるようにする。
図10の説明に戻り、ステップS52において、評価値算出部172は、図11に示した評価枠0乃至4に応じた評価値を算出する。この評価値としては、例えば、輝度値等の内視鏡画像200から得られる特徴量を用いることができる。
ステップS53において、評価値判定部173は、評価枠0,1と評価枠2,3の評価値の算出結果に基づいて、評価枠0と評価枠1との間にエッジがあり、かつ、評価枠2と評価枠3との間にエッジがあるかどうかを判定する。
ここでは、例えば、評価枠0から得られる輝度値と、評価枠1から得られる輝度値との差、及び評価枠2から得られる輝度値と、評価枠3から得られる輝度値との差を、所定の閾値(第5の閾値)とそれぞれ比較し、それらの輝度差が所定の閾値を超えるかどうかを判定することで、それらの評価枠210の間にエッジ(マスクエッジ220−3)があるかどうかを判定することができる。
ステップS53の判定処理で肯定であると判定された場合、処理は、ステップS54に進められる。ステップS54において、評価結果設定部174は、第2の処理で確定したマスクタイプを"TYPE3"に設定する。
また、ステップS53の判定処理で否定であると判定された場合、処理は、ステップS55に進められる。ステップS55において、評価値判定部173は、評価枠1,4と評価枠2,4の評価値の算出結果に基づいて、評価枠1と評価枠4との間にエッジがあり、かつ、評価枠2と評価枠4との間にエッジがあるかどうかを判定する。
ステップS55の判定処理で肯定であると判定された場合、処理は、ステップS56に進められる。ステップS56において、評価結果設定部174は、第2の処理で確定したマスクタイプを"TYPE4"に設定する。
ステップS54又はS56の処理が終了すると、処理は、ステップS57に進められる。そして、ステップS57では、評価結果設定部174は、認識結果を"認識成功"に設定する。
ステップS58において、評価結果設定部174は、第2の処理で確定したマスクタイプが"TYPE4"で、かつ、第3の処理で確定したマスクタイプが"TYPE3"に設定されたかどうかを判定する。
ステップS58の判定処理で肯定であると判定された場合、処理は、ステップS59に進められる。ステップS59において、評価結果設定部174は、マスクタイプを"TYPE4"に設定する。すなわち、この場合には、例えば光漏れで垂直方向のマスク径を大きく検出したと想定して、第2の処理により水平方向で検出したマスク径を採用している。このように、より狭いマスク径を選択して確定することで、例えば後段の処理を行うに際してより確実に黒領域が含まれないようにできる。
また、ステップS58の判定処理で否定であると判定された場合、処理は、ステップS60に進められる。ステップS60において、評価値判定部173は、第2の処理で確定したマスクタイプが"TYPE3"で、かつ、第3の処理で確定したマスクタイプが"TYPE4"に設定されたかどうかを判定する。
ステップS60の判定処理で肯定であると判定された場合、処理は、ステップS61に進められる。ステップS61において、評価結果設定部174は、マスクタイプを"TYPE4"に設定する。すなわち、この場合には、例えば光漏れで水平方向のマスク径を大きく検出したと想定して、第3の処理により垂直方向で検出したマスク径を採用して、より確実に黒領域が入らないようにしている。
ステップS59若しくはS61の処理が終了するか、又はステップS60の判定処理で否定であると判定された場合、処理は、ステップS62に進められる。さらに、上述したステップS50の判定処理で否定であると判定された場合にも、処理はステップS62に進められる。
ステップS62では、動作モードとして、通常モードよりも高精度にマスク径のサイズを算出するモードである高精度算出モードに設定されているかどうかが判定される。
ステップS62の判定処理で肯定であると判定された場合、CCU51では、第3の処理に続いて、第4の処理が実行される。なお、第4の処理の詳細は、図12等を参照して後述する。
また、ステップS62の判定処理で否定であると判定された場合、処理は、図6のステップS10に戻り、上述した第1の処理が実行される。なお、ステップS55の判定処理で否定であると判定された場合も同様に、上述した第1の処理が実行される。
以上、第3の処理の流れを説明した。この第3の処理では、図11に示したように、内視鏡画像200に対して、垂直方向に、評価枠210−0乃至210−4のそれぞれを所定の間隔で離散的に設定し、評価枠210のそれぞれに関する評価値の関係性(相関関係)に基づき、エッジの位置に応じたマスクタイプが設定(再設定)される。そして、動作モードとして通常モードを設定している場合には第1の処理に戻される一方で、高精度算出モードを設定している場合には第4の処理が実行される。
ここで、通常モードで動作する場合、第2の処理と第3の処理により、複数の評価枠210に応じた評価値の関連性に基づき、"TYPE1"乃至"TYPE4"のうち、いずれかのマスクタイプが設定されるが、種類推定部175では、設定されたマスクタイプに基づき、マスク径のサイズを求めて、スコープ101の径を推定することができる。例えば、第2の処理と第3の処理でマスクタイプを"TYPE4"に設定した場合には、マスクエッジ220−4が検出されたことになるので、そのマスク径を求めることができる。
また、ここでは、マスクの水平方向と垂直方向の中心位置を求めることもできる。例えば、マスクエッジ220−4が検出された場合、図11に示すように、評価枠210−1と評価枠210−2の矩形の頂点の座標を用いて、マスクの中心位置の座標(x,y)を算出することができる。
具体的には、例えば、図11において、内視鏡画像200の左上の頂点の位置を原点(0,0)として、評価枠210−1の矩形の右下の頂点の座標を座標(x0,y0)とし、評価枠210−2の矩形の左上の頂点の座標を座標(x1,y1)としたとき、マスクの水平方向と垂直方向の中心位置(x,y)は、次の式(1)と式(2)により求められる。
x=(x0−x1)/2+x1 ・・・(1)
y=(y1−y0)/2+y0 ・・・(2)
このように、通常モードで動作する場合、高精度算出モードで動作する場合と比べて精度は落ちるものの、より少ない計算量でマスクの径と中心位置を算出して、スコープ101の径と中心位置を推定し、スコープ101の種類を判別することができる。
また、第2の処理と第3の処理では、内視鏡画像200に対して、複数の評価枠210が所定の間隔で離散的に設けられ、評価枠210が所定の間隔で離れているため、例えば、スコープ101の取り付けの際に生じる誤差を低減することができる。
なお、上述した説明では、第2の処理及び第3の処理を実行することで、内視鏡画像200の略重心に対して複数の評価枠210が点対称となるように、水平方向及び垂直方向の両方の方向で評価枠210を設定して評価を行う場合を説明したが、第2の処理又は第3の処理を実行して、水平方向又は垂直方向のいずれか一方の方向のみで評価枠210を設定して評価を行うようにしてもよい。ただし、上述した説明のように、第2の処理及び第3の処理を実行して、水平方向及び垂直方向の両方の方向から評価枠210を設定したほうが、例えば光漏れなどを想定してマスクタイプを設定可能となるため、より正確にマスク径や中心位置を求めることができる。
また、第2の処理と第3の処理では、複数の評価枠210が所定の間隔で離散的に配置される場合を示したが、その一部の評価枠210が連続して配置されるようにしてもよい。また、離散的に配置される複数の評価枠210の数は任意であり、例えば、マスクエッジ220の検出位置に対し、より多くの数の評価枠210が設けられてもよい。さらに、離散的に配置される評価枠210の形状は、矩形に限らず、他の形状であってもよいし、全ての評価枠210が同一の形状である必要もない。複数の評価枠210が配置される間隔は、一定の間隔でなくてもよい。
さらに、第2の処理と第3の処理では、評価値として輝度値を用い、輝度差を所定の閾値と比較することでエッジ(マスクエッジ220)を検出する例を示したが、例えば、評価枠210内に含まれるエッジや黒領域など表す定量的な値(例えばエッジ量や黒領域量等の特徴量)を評価値として用いて、エッジが検出されるようにしてもよい。
(第4の処理の流れ)
次に、図12及び図13のフローチャートを参照して、CCU51により実行される第4の処理の流れを説明する。ただし、この第4の処理では、特に、上述した第2の処理と第3の処理で、マスクタイプとして、"TYPE3"が設定された場合を例示する。
ステップS70において、評価枠設定部171は、カメラヘッド102からの画像信号に応じた画像に対して複数の評価枠を設定する。この評価枠の設定では、マスクタイプとして"TYPE3"が設定されているため、図14に示すように、マスクエッジ220−3の検出位置に応じて複数の評価枠210が設けられる。
具体的には、内視鏡画像200の略重心を中心に略対称(Y軸を対称軸にした左右対称)になるように、その水平方向の左側には、マスクエッジ220−3の検出位置に応じた評価枠210−0乃至210−4(以下、評価枠0、1、2、3、4とも略記する)のそれぞれが連続的に設けられ、その水平方向の右側には、マスクエッジ220−3の検出位置に応じた評価枠210−5乃至210−9(以下、評価枠5、6、7、8、9とも略記する)のそれぞれが連続的に設けられる。
ただし、左右対称に連続的に配置された評価枠210−0乃至210−4の矩形の大きさと、評価枠210−5乃至210−9の矩形の大きさとは、略同一の形状で、かつ、略同一の大きさとされる。
また、各評価枠210には、水平方向(X方向)に、スタート位置とエンド位置が設けられる。スタート位置は、各評価枠210におけるX方向の左端の位置を示し、スタート位置は、各評価枠210におけるX方向の右端の位置を示している。
図12の説明に戻り、ステップS71において、評価値算出部172は、図14に示した評価枠0乃至9に応じた評価値を算出する。この評価値としては、例えば、輝度値等の内視鏡画像200から得られる特徴量を用いることができる。
ステップS72において、評価値判定部173は、評価枠0,2の評価値の算出結果に基づいて、評価枠0と評価枠2との間にエッジがあるかどうかを判定する。
ここでは、例えば、評価枠0から得られる輝度値と、評価枠2から得られる輝度値との差を、所定の閾値(第6の閾値)と比較し、それらの輝度差が所定の閾値を超えるかどうかを判定することで、評価枠0と評価枠2との間にエッジ(この例では、マスクエッジ220−3)があるかどうかを判定することができる。
ステップS72の判定処理で肯定であると判定された場合、処理は、ステップS73に進められる。ステップS73において、評価結果設定部174は、マスク径のエッジ左端位置を、評価枠0のX方向のエンド位置に設定する。
また、ステップS72の判定処理で否定であると判定された場合、処理は、ステップS74に進められる。ステップS74において、評価値判定部173は、評価枠1,3の評価値の算出結果に基づいて、評価枠1と評価枠3との間にエッジがあるかどうかを判定する。
ステップS74の判定処理で肯定であると判定された場合、処理は、ステップS75に進められる。ステップS75において、評価結果設定部174は、マスク径のエッジ左端位置を、評価枠1のX方向のエンド位置に設定する。
また、ステップS74の判定処理で否定であると判定された場合、処理は、ステップS76に進められる。ステップS76において、評価値判定部173は、評価枠2,4の評価値の算出結果に基づいて、評価枠2と評価枠4との間にエッジがあるかどうかを判定する。
ステップS76の判定処理で肯定であると判定された場合、処理は、ステップS77に進められる。ステップS77において、評価結果設定部174は、マスク径のエッジ左端位置を、評価枠2のX方向のエンド位置に設定する。
また、ステップS76の判定処理で否定であると判定された場合、処理は、ステップS78に進められる。ステップS78において、評価結果設定部174は、マスク径のエッジ左端位置を、評価枠4のX方向のエンド位置に設定する。
ステップS73,S75,S77,又はS78の処理で、マスク径のエッジ左端位置が設定されると、処理は、図13のステップS79に進められる。
ステップS79において、評価値判定部173は、評価枠5,7の評価値の算出結果に基づいて、評価枠5と評価枠7との間にエッジがあるかどうかを判定する。
ステップS79の判定処理で肯定であると判定された場合、処理は、ステップS80に進められる。ステップS80において、評価結果設定部174は、マスク径のエッジ右端位置を、評価枠5のX方向のスタート位置に設定する。
また、ステップS79の判定処理で否定であると判定された場合、処理は、ステップS81に進められる。ステップS81において、評価値判定部173は、評価枠6,8の評価値の算出結果に基づいて、評価枠6と評価枠8との間にエッジがあるかどうかを判定する。
ステップS81の判定処理で肯定であると判定された場合、処理は、ステップS82に進められる。ステップS82において、評価結果設定部174は、マスク径のエッジ右端位置を、評価枠6のX方向のスタート位置に設定する。
また、ステップS81の判定処理で否定であると判定された場合、処理は、ステップS83に進められる。ステップS83において、評価値判定部173は、評価枠7,9の評価値の算出結果に基づいて、評価枠7と評価枠9との間にエッジがあるかどうかを判定する。
ステップS83の判定処理で肯定であると判定された場合、処理は、ステップS84に進められる。ステップS84において、評価結果設定部174は、マスク径のエッジ右端位置を、評価枠7のX方向のスタート位置に設定する。
また、ステップS83の判定処理で否定であると判定された場合、処理は、ステップS85に進められる。ステップS85において、評価結果設定部174は、マスク径のエッジ右端位置を、評価枠8のX方向のスタート位置に設定する。
ステップS80,S82,S84,又はS85の処理で、マスク径のエッジ右端位置が設定されると、CCU51では、第4の処理に続いて、第5の処理が実行される。なお、第5の処理の詳細は、図15等を参照して後述する。
以上、第4の処理の流れを説明した。この第4の処理では、上述した第2の処理と第3の処理での評価結果に応じて、水平方向(X方向)の詳細なマスクエッジを算出するための処理が行われ、図14に示したように、内視鏡画像200に対して、水平方向に、評価枠210−0乃至210−4と評価枠210−5乃至210−9とを左右対称に連続的に配置し、評価枠210のそれぞれに関する評価値の関係性(相関関係)に基づき、マスク径におけるエッジ左端位置とエッジ右端位置が設定される。
(第5の処理の流れ)
次に、図15及び図16のフローチャートを参照して、CCU51により実行される第5の処理の流れを説明する。ただし、この第5の処理では、上述した第4の処理と同様に、上述した第2の処理と第3の処理で、マスクタイプとして、"TYPE3"が設定された場合を例示する。
ステップS90において、評価結果設定部174は、第2の処理でマスクタイプが"TYPE3"又は"TYPE4"に設定されたかどうかを判定する。
ステップS90の判定処理で肯定であると判定された場合、処理は、ステップS91に進められる。ステップS91において、評価枠設定部171は、カメラヘッド102からの画像信号に応じた画像に対して複数の評価枠を設定する。
この評価枠の設定では、マスクタイプとして"TYPE3"が設定されているため、図17に示すように、マスクエッジ220−3の検出位置に応じて複数の評価枠210が設けられる。
具体的には、内視鏡画像200の略重心を中心に略対称(X軸を対称軸にした上下対称)になるように、その垂直方向の上側には、マスクエッジ220−3の検出位置に応じた評価枠210−0乃至210−4(以下、評価枠0、1、2、3、4とも略記する)のそれぞれが連続的に設けられ、その垂直方向の下側には、マスクエッジ220−3の検出位置に応じた評価枠210−5乃至210−9(以下、評価枠5、6、7、8、9とも略記する)のそれぞれが連続的に設けられる。
ただし、上下対称に連続的に配置された評価枠210−0乃至210−4の矩形の大きさと、評価枠210−5乃至210−9の矩形の大きさとは、略同一の形状で、かつ、略同一の大きさとされる。
また、各評価枠210には、垂直方向(Y方向)に、スタート位置とエンド位置が設けられる。スタート位置は、各評価枠210におけるY方向の上端の位置を示し、エンド位置は、各評価枠210におけるY方向の下端の位置を示している。
図15の説明に戻り、ステップS92において、評価値算出部172は、図17に示した評価枠0乃至9に応じた評価値を算出する。この評価値としては、例えば、輝度値等の内視鏡画像200から得られる特徴量を用いることができる。
ステップS93において、評価値判定部173は、評価枠0,2の評価値の算出結果に基づいて、評価枠0と評価枠2との間にエッジがあるかどうかを判定する。
ここでは、例えば、評価枠0から得られる輝度値と、評価枠2から得られる輝度値との差を、所定の閾値(第7の閾値)と比較し、それらの輝度差が所定の閾値を超えるかどうかを判定することで、評価枠0と評価枠2との間にエッジ(この例では、マスクエッジ220−3)があるかどうかを判定することができる。
ステップS93の判定処理で肯定であると判定された場合、処理は、ステップS94に進められる。ステップS94において、評価結果設定部174は、マスク径のエッジ上端位置を、評価枠0のY方向のエンド位置に設定する。
また、ステップS93の判定処理で否定であると判定された場合、処理は、ステップS95に進められる。ステップS95において、評価値判定部173は、評価枠1,3の評価値の算出結果に基づいて、評価枠1と評価枠3との間にエッジがあるかどうかを判定する。
ステップS95の判定処理で肯定であると判定された場合、処理は、ステップS96に進められる。ステップS96において、評価結果設定部174は、マスク径のエッジ上端位置を、評価枠1のY方向のエンド位置に設定する。
また、ステップS95の判定処理で否定であると判定された場合、処理は、ステップS97に進められる。ステップS97において、評価値判定部173は、評価枠2,4の評価値の算出結果に基づいて、評価枠2と評価枠4との間にエッジがあるかどうかを判定する。
ステップS97の判定処理で肯定であると判定された場合、処理は、ステップS98に進められる。ステップS98において、評価結果設定部174は、マスク径のエッジ上端位置を、評価枠2のY方向のエンド位置に設定する。
また、ステップS97の判定処理で否定であると判定された場合、処理は、ステップS99に進められる。ステップS99において、評価結果設定部174は、マスク径のエッジ上端位置を、評価枠4のY方向のエンド位置に設定する。
ステップS94,S96,S98,又はS99の処理で、マスク径のエッジ上端位置が設定されると、処理は、図16のステップS100に進められる。
ステップS100において、評価値判定部173は、評価枠5,7の評価値の算出結果に基づいて、評価枠5と評価枠7との間にエッジがあるかどうかを判定する。
ステップS100の判定処理で肯定であると判定された場合、処理は、ステップS101に進められる。ステップS101において、評価結果設定部174は、マスク径のエッジ下端位置を、評価枠5のY方向のスタート位置に設定する。
また、ステップS100の判定処理で否定であると判定された場合、処理は、ステップS102に進められる。ステップS102において、評価値判定部173は、評価枠6,8の評価値の算出結果に基づいて、評価枠6と評価枠8との間にエッジがあるかどうかを判定する。
ステップS102の判定処理で肯定であると判定された場合、処理は、ステップS103に進められる。ステップS103において、評価結果設定部174は、マスク径のエッジ下端位置を、評価枠6のY方向のスタート位置に設定する。
また、ステップS102の判定処理で否定であると判定された場合、処理は、ステップS104に進められる。ステップS104において、評価値判定部173は、評価枠7,9の評価値の算出結果に基づいて、評価枠7と評価枠9との間にエッジがあるかどうかを判定する。
ステップS104の判定処理で肯定であると判定された場合、処理は、ステップS105に進められる。ステップS105において、評価結果設定部174は、マスク径のエッジ下端位置を、評価枠7のY方向のスタート位置に設定する。
また、ステップS104の判定処理で否定であると判定された場合、処理は、ステップS106に進められる。ステップS106において、評価結果設定部174は、マスク径のエッジ下端位置を、評価枠9のY方向のスタート位置に設定する。
ステップS101,S103,S105,又はS106の処理で、マスク径のエッジ下端位置が設定されると、CCU51では、第5の処理に続いて、確定処理が実行される。なお、確定処理の詳細は、図18等を参照して後述する。
以上、第5の処理の流れを説明した。この第5の処理では、上述した第2の処理と第3の処理での評価結果に応じて、垂直方向(Y方向)の詳細なマスクエッジを算出するための処理が行われ、図17に示したように、内視鏡画像200に対して、垂直方向に、評価枠210−0乃至210−4と評価枠210−5乃至210−9とを上下対称に連続的に配置し、評価枠210のそれぞれに関する評価値の関係性(相関関係)に基づき、マスク径におけるエッジ上端位置とエッジ下端位置が設定される。
以上のように、高精度算出モードで動作する場合、第1の処理乃至第5の処理により、複数の評価枠210に応じた評価値の関連性に基づき、内視鏡画像200に含まれるマスク領域のマスクタイプが設定され、当該マスクタイプに応じたマスク径におけるエッジ左端位置、エッジ右端位置、エッジ上端位置、及びエッジ下端位置がそれぞれ設定される。例えば、許容される誤差の範囲が狭い場合などに、より正確にマスク径や中心位置を求める必要があり、その場合には、動作モードとして高精度算出モードが設定される。
なお、上述した第4の処理と第5の処理では、内視鏡画像200の略重心に対して点対称となるように、複数の評価枠210が連続して配置される場合を示したが、第2の処理と第3の処理と同様に、複数の評価枠210が所定の間隔で離散的に配置されてもよい。また、連続して配置される複数の評価枠210の数は、5つに限らず、4つ以下、又は6つ以上であってもよい。さらに、連続して配置される複数の評価枠210の形状は、矩形に限らず、他の形状であってもよいし、全ての評価枠210が同一の形状である必要もない。
さらに、第4の処理と第5の処理では、評価値として輝度値を用い、輝度差を所定の閾値と比較することでエッジ(マスクエッジ220)を検出する例を示したが、例えば、評価枠210内に含まれるエッジや黒領域など表す定量的な値(例えばエッジ量や黒領域量等の特徴量)を評価値として用いて、エッジが検出されるようにしてもよい。
(確定処理の流れ)
次に、図18のフローチャートを参照して、CCU51により実行される確定処理の流れを説明する。
ステップS111において、種類推定部175は、上述した第1の処理乃至第5の処理の処理結果に基づいて、マスク径のサイズを算出する。
例えば、高精度算出モードで動作した場合には、マスク径のエッジ左端位置、エッジ右端位置、エッジ上端位置、及びエッジ下端位置がそれぞれ設定されているため、これらのエッジ位置を用いて、マスク径の直径と、マスクの中心位置を求めることができる。
具体的には、マスク径の水平方向と垂直方向の直径は、例えば、次の式(3)と式(4)により求められる。ただし、評価枠210の座標は、水平方向のX軸と垂直方向のY軸とが互いに直交した直交座標系であって、図19に示すように、内視鏡画像200の左上の頂点の位置を原点(0,0)としている。
マスク径(水平方向)=エッジ右端位置−エッジ左端位置 ・・・(3)
マスク径(垂直方向)=エッジ下端位置−エッジ上端位置 ・・・(4)
また、マスクの水平方向と垂直方向の中心位置(x,y)は、例えば、次の式(5)と式(6)により求められる。ただし、ここでも、評価枠210の座標は、図19に示した直交座標系で表される。
x=(エッジ右端位置−エッジ左端位置)/2+エッジ左端位置 ・・・(5)
y=(エッジ下端位置−エッジ上端位置)/2+エッジ上端位置 ・・・(6)
このように、種類推定部175では、内視鏡画像200に含まれるマスク径のサイズが算出されるが、このマスク径は、スコープ101の種類に関連性が高い。したがって、種類推定部175は、マスク径のサイズを算出することで、スコープ101の径を推定しているとも言える。そして、スコープ101の径を推定することで、内視鏡10で使用するスコープ101の種類が判別可能とされる。換言すれば、スコープ101の種類は、スコープ101の径により定まるとも言える。
ステップS111の処理で、マスク径のサイズが算出されると、処理は、ステップS112に進められる。そして、CCU51では、後段の処理に対し、上述した第1の処理乃至第5の処理で得られる認識結果、及びステップS111の処理で得られるマスク径情報を通知する。ただし、このマスク径情報には、マスク径のほか、マスク中心位置に関する情報を含めることができる。
ここで、後段の処理としては、例えば、AF(Autofocus)、AE(Automatic Exposure)、AWB(Auto White Balance)、及びEDOF(Expanded Depth of Field)などの信号処理が含まれる。
例えば、内視鏡画像200には、被写体像の領域のほかに、スコープ101の径に応じたマスク領域(黒領域)が含まれ、AFやAE等に関する信号処理を行うに際して、マスク領域を含めて焦点を合わせたり、露出を行ったりすると様々な問題が生じることは先に述べた通りである。それに対して、本技術では、より少ない計算量で、確実に、使用するスコープ101の種類を判別することができるため、被写体像の領域に対する信号処理を行い、より高精度なAFやAE等を実現することができる。
また、例えば、EDOFに関する信号処理(例えば被写界深度を拡大する処理)では、マスク中心位置が重要なパラメータとなるが、高精度算出モードで動作することで、より高精度なマスク中心位置を算出して、EDOFに関する信号処理の精度を高めることができる。
以上、確定処理の流れを説明した。この確定処理では、高精度算出モードで動作する場合に、マスクタイプに応じたマスク径におけるエッジ左端位置、エッジ右端位置、エッジ上端位置、及びエッジ下端位置に基づき、より少ない計算量で、かつ、より高精度に、マスクの径と中心位置を算出して、スコープ101の径と中心位置を推定し、スコープ101の種類を判別することができる。
以上のように、動作モードとして通常モードで動作する場合には、第2の処理と第3の処理が実行され、複数の評価枠210に応じた評価値の関連性に基づき、マスクタイプが設定され、当該マスクタイプに応じたマスク径のサイズを求めることで、スコープ101の種類(径)が推定される。
また、動作モードとして高精度算出モードで動作する場合には、第2の処理と第3の処理に加えて、第4の処理と第5の処理が実行され、複数の評価枠210に応じた評価値の関連性に基づき、マスクタイプに応じたマスク径におけるエッジ左端位置、エッジ右端位置、エッジ上端位置、及びエッジ下端位置が算出され、これらの位置情報(座標)に基づき、マスク径のサイズを求めることで、スコープ101の種類(径)が推定される。
このように、通常モードと高精度算出モードでは共に、画像中に設けられた複数の評価枠210に応じた評価値の関連性(相関関係)に基づき、マスク径のサイズを求めているため、上述した特許文献1に開示されているような、画像中の直線エッジを全て検出する処理を行う必要はなく、その結果として、より少ない計算量でスコープ101の種類を判別することが可能となる。
<2.変形例>
なお、上述した説明では、CCU51(の制御部161)によって、第1の処理乃至第5の処理、及び確定処理が実行されるとして説明したが、それらの処理は、内視鏡手術システム1におけるCCU51以外の他の処理部により実行されてもよい。この場合において、当該他の処理部には、評価枠設定部171乃至種類推定部175が設けられる。また、評価枠設定部171乃至種類推定部175のうち、一部のブロックが制御部161に設けられ、他のブロックが他の処理部に設けられてもよい。
また、上述した説明では、カメラヘッド102から出力される画像信号として、4K解像度に対応した画像信号を説明したが、それに限らず、例えば、8K解像度(例えば7680×4320ピクセル)や2K解像度(例えば1280×720ピクセル)等の他の解像度に対応した画像信号であってもよい。
さらに、上述した説明では、マスク径情報を生成してスコープ101の種類を判別した上で後段の信号処理を行っているが、スコープ101の種類の判別として、スコープ101の種類に対応したパラメータの読み出しを行ってもよい。例えば、あらかじめマスク径情報と信号処理に必要なパラメータとを紐付けたテーブルを記憶しておき、マスク径情報に基づき、スコープ101の種類に対応する信号処理のパラメータを読み出す構成としてもよい。
また、上述した説明では、複数の評価枠210を、垂直方向と水平方向の2方向の位置に配置する場合を説明したが、複数の評価枠210は、垂直方向又は水平方向の位置に限らず、マスク径の検出を行うことが可能な位置であれば、いずれの位置に配置してもよい。また、評価枠210の大きさについても、全ての評価枠210を同一の大きさとする必要はなく、例えば、評価枠210の大きさが、配置位置に応じて異なるようにしてもよい。さらには、所定の間隔で配置される複数の評価枠210の間隔は、同一の間隔に限らず、異なる間隔としてもよい。
なお、上述した説明では、説明の都合上、カメラヘッド102の撮像素子の撮像面に応じた画像を、内視鏡画像と称して説明したが、スコープ101にて集光された被写体像に応じた画像を、内視鏡画像と称する一方で、カメラヘッド102の撮像素子の撮像面に応じた画像を観察画像と称して区別してもよい。この場合には、観察画像は内視鏡画像を含み、当該観察画像に対して所定の間隔で複数の評価枠が設定され、設定された複数の評価枠のそれぞれに関する評価値が算出され、算出された評価値の関係性に基づき、内視鏡画像に応じたマスク径のサイズが算出されることになる。
<3.コンピュータの構成>
上述した一連の処理(例えば、上述した第1の処理乃至第5の処理、及び確定処理)は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、各装置のコンピュータにインストールされる。図20は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インターフェース1005が接続されている。入出力インターフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、マイクロフォン、キーボード、マウスなどよりなる。出力部1007は、スピーカ、ディスプレイなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインターフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
以上のように構成されるコンピュータでは、CPU1001が、ROM1002や記録部1008に記録されているプログラムを、入出力インターフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インターフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されてもよいし、複数のコンピュータによって分散処理されてもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本技術は、以下のような構成をとることができる。
(1)
スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、
設定した前記複数の評価枠のそれぞれに関する評価値を算出し、
算出した前記評価値の関係性に基づいて、前記スコープの種類を推定する
制御部を備える
画像処理システム。
(2)
前記制御部は、前記複数の評価枠を前記所定の間隔で離散的に配置する
前記(1)に記載の画像処理システム。
(3)
前記制御部は、前記所定の間隔を前記内視鏡画像の略重心に対して前記複数の評価枠が点対称となるように設定する
前記(1)又は(2)に記載の画像処理システム。
(4)
前記制御部は、前記所定の間隔を一定の間隔としない
前記(1)乃至(3)のいずれかに記載の画像処理システム。
(5)
前記スコープの種類は、前記スコープの径により定まる
前記(1)乃至(4)のいずれかに記載の画像処理システム。
(6)
前記制御部は、
第1のモードで前記スコープの種類を推定する場合、前記複数の評価枠を離散的に配置し、
前記第1のモードよりも高精度な第2のモードで前記スコープの種類を推定する場合、前記複数の評価枠を連続的に配置する
前記(2)に記載の画像処理システム。
(7)
前記制御部は、離散的に配置される前記複数の評価枠に応じた前記評価値の評価結果に基づいて、連続的に配置される前記複数の評価枠を位置決めする
前記(6)に記載の画像処理システム。
(8)
前記制御部は、前記複数の評価枠のうち、隣接又は一定間隔で配置された評価枠に応じた前記評価値の差分から、前記スコープの種類を推定する
前記(1)乃至(7)のいずれかに記載の画像処理システム。
(9)
前記制御部は、前記スコープの種類とともにその中心位置を推定する
前記(1)乃至(8)のいずれかに記載の画像処理システム。
(10)
前記制御部は、連続的に配置される前記複数の評価枠のそれぞれの大きさを、離散的に配置される前記複数の評価枠のそれぞれの大きさよりも小さくする
前記(6)乃至(9)のいずれかに記載の画像処理システム。
(11)
前記制御部は、
前記内視鏡画像に対して、前記複数の評価枠を水平方向と垂直方向にそれぞれ配置し、
水平方向と垂直方向ごとに、前記内視鏡画像に対する前記複数の評価枠に応じた領域から検出した特徴量から、前記評価値を算出する
前記(1)乃至(10)のいずれかに記載の画像処理システム。
(12)
前記特徴量は、輝度値を含む
前記(11)に記載の画像処理システム。
(13)
前記特徴量は、エッジ量又は黒領域量を含む
前記(11)に記載の画像処理システム。
(14)
前記制御部は、前記複数の評価枠を、前記内視鏡画像の略重心を中心に略対称に配置する
前記(11)乃至(13)のいずれかに記載の画像処理システム。
(15)
前記制御部は、
前記複数の評価枠を、前記内視鏡画像の略重心と頂点の近傍に配置し、
前記内視鏡画像に対する前記複数の評価枠に応じた領域から検出した特徴量から、前記評価値を算出し、
算出した前記評価値に基づいて、前記内視鏡画像にマスク領域が含まれるかどうかを判定する
前記(1)乃至(14)のいずれかに記載の画像処理システム。
(16)
推定した前記スコープの種類に応じた情報に基づき、AF(Autofocus)、AE(Automatic Exposure)、AWB(Auto White Balance)、及びEDOF(Expanded Depth of Field)に関する信号処理のうち、少なくとも1つの信号処理が行われる
前記(1)乃至(15)のいずれかに記載の画像処理システム。
(17)
前記スコープは、内視鏡の一部として構成される
前記(1)乃至(16)のいずれかに記載の画像処理システム。
(18)
スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、
設定した前記複数の評価枠のそれぞれに関する評価値を算出し、
算出した前記評価値の関係性に基づいて、前記スコープの種類に対応する信号処理を行う
制御部を備える
画像処理装置。
(19)
前記制御部は、
第1のモードで前記スコープの種類を推定する場合、前記複数の評価枠を離散的に配置し、
前記第1のモードよりも高精度な第2のモードで前記スコープの種類を推定する場合、離散的に配置される前記複数の評価枠に応じた前記評価値の評価結果に基づいて、前記複数の評価枠を連続的に配置する
前記(18)に記載の画像処理装置。
(20)
画像処理装置が、
スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、
設定した前記複数の評価枠のそれぞれに関する評価値を算出し、
算出した前記評価値の関係性に基づいて、前記スコープの種類に対応する信号処理を行う
画像処理方法。
1 内視鏡手術システム, 10 内視鏡, 20 手術器具, 30 支持アーム装置, 51 CCU, 52 表示装置, 53 光源装置, 54 入力装置, 55 処置具制御装置, 56 気腹装置, 57 レコーダ, 58 プリンタ, 101 スコープ, 102 カメラヘッド, 151 レンズユニット, 152 撮像部, 153 駆動部, 154 通信部, 155 カメラヘッド制御部, 161 制御部, 162 通信部, 163 画像処理部, 171 評価枠設定部, 172 評価値算出部, 173 評価値判定部, 174 評価結果設定部, 175 種類推定部, 1001 CPU

Claims (20)

  1. スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、
    設定した前記複数の評価枠のそれぞれに関する評価値を算出し、
    算出した前記評価値の関係性に基づいて、前記スコープの種類を推定する
    制御部を備える
    画像処理システム。
  2. 前記制御部は、前記複数の評価枠を前記所定の間隔で離散的に配置する
    請求項1に記載の画像処理システム。
  3. 前記制御部は、前記所定の間隔を前記内視鏡画像の略重心に対して前記複数の評価枠が点対称となるように設定する
    請求項2に記載の画像処理システム。
  4. 前記制御部は、前記所定の間隔を一定の間隔としない
    請求項3に記載の画像処理システム。
  5. 前記スコープの種類は、前記スコープの径により定まる
    請求項1に記載の画像処理システム。
  6. 前記制御部は、
    第1のモードで前記スコープの種類を推定する場合、前記複数の評価枠を離散的に配置し、
    前記第1のモードよりも高精度な第2のモードで前記スコープの種類を推定する場合、前記複数の評価枠を連続的に配置する
    請求項2に記載の画像処理システム。
  7. 前記制御部は、離散的に配置される前記複数の評価枠に応じた前記評価値の評価結果に基づいて、連続的に配置される前記複数の評価枠を位置決めする
    請求項6に記載の画像処理システム。
  8. 前記制御部は、前記複数の評価枠のうち、隣接又は一定間隔で配置された評価枠に応じた前記評価値の差分から、前記スコープの種類を推定する
    請求項1に記載の画像処理システム。
  9. 前記制御部は、前記スコープの種類とともにその中心位置を推定する
    請求項8に記載の画像処理システム。
  10. 前記制御部は、連続的に配置される前記複数の評価枠のそれぞれの大きさを、離散的に配置される前記複数の評価枠のそれぞれの大きさよりも小さくする
    請求項6に記載の画像処理システム。
  11. 前記制御部は、
    前記内視鏡画像に対して、前記複数の評価枠を水平方向と垂直方向にそれぞれ配置し、
    水平方向と垂直方向ごとに、前記内視鏡画像に対する前記複数の評価枠に応じた領域から検出した特徴量から、前記評価値を算出する
    請求項1に記載の画像処理システム。
  12. 前記特徴量は、輝度値を含む
    請求項11に記載の画像処理システム。
  13. 前記特徴量は、エッジ量又は黒領域量を含む
    請求項11に記載の画像処理システム。
  14. 前記制御部は、前記複数の評価枠を、前記内視鏡画像の略重心を中心に略対称に配置する
    請求項11に記載の画像処理システム。
  15. 前記制御部は、
    前記複数の評価枠を、前記内視鏡画像の略重心と頂点の近傍に配置し、
    前記内視鏡画像に対する前記複数の評価枠に応じた領域から検出した特徴量から、前記評価値を算出し、
    算出した前記評価値に基づいて、前記内視鏡画像にマスク領域が含まれるかどうかを判定する
    請求項1に記載の画像処理システム。
  16. 推定した前記スコープの種類に応じた情報に基づき、AF(Autofocus)、AE(Automatic Exposure)、AWB(Auto White Balance)、及びEDOF(Expanded Depth of Field)に関する信号処理のうち、少なくとも1つの信号処理が行われる
    請求項1に記載の画像処理システム。
  17. 前記スコープは、内視鏡の一部として構成される
    請求項1に記載の画像処理システム。
  18. スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、
    設定した前記複数の評価枠のそれぞれに関する評価値を算出し、
    算出した前記評価値の関係性に基づいて、前記スコープの種類に対応する信号処理を行う
    制御部を備える
    画像処理装置。
  19. 前記制御部は、
    第1のモードで前記スコープの種類を推定する場合、前記複数の評価枠を離散的に配置し、
    前記第1のモードよりも高精度な第2のモードで前記スコープの種類を推定する場合、離散的に配置される前記複数の評価枠に応じた前記評価値の評価結果に基づいて、前記複数の評価枠を連続的に配置する
    請求項18に記載の画像処理装置。
  20. 画像処理装置が、
    スコープを用いて撮像された内視鏡画像に対して所定の間隔で配置される複数の評価枠を設定し、
    設定した前記複数の評価枠のそれぞれに関する評価値を算出し、
    算出した前記評価値の関係性に基づいて、前記スコープの種類に対応する信号処理を行う
    画像処理方法。
JP2019065381A 2019-03-29 2019-03-29 画像処理システム、画像処理装置、及び画像処理方法 Active JP7255288B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019065381A JP7255288B2 (ja) 2019-03-29 2019-03-29 画像処理システム、画像処理装置、及び画像処理方法
EP20719237.8A EP3945982A1 (en) 2019-03-29 2020-03-27 Image processing system, image processing device, and image processing method
PCT/JP2020/014119 WO2020203810A1 (en) 2019-03-29 2020-03-27 Image processing system, image processing device, and image processing method
US17/441,294 US20220142454A1 (en) 2019-03-29 2020-03-27 Image processing system, image processing device, and image processing method
CN202080023390.8A CN113613540A (zh) 2019-03-29 2020-03-27 图像处理系统、图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019065381A JP7255288B2 (ja) 2019-03-29 2019-03-29 画像処理システム、画像処理装置、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2020162803A true JP2020162803A (ja) 2020-10-08
JP7255288B2 JP7255288B2 (ja) 2023-04-11

Family

ID=70289433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019065381A Active JP7255288B2 (ja) 2019-03-29 2019-03-29 画像処理システム、画像処理装置、及び画像処理方法

Country Status (5)

Country Link
US (1) US20220142454A1 (ja)
EP (1) EP3945982A1 (ja)
JP (1) JP7255288B2 (ja)
CN (1) CN113613540A (ja)
WO (1) WO2020203810A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004033487A (ja) * 2002-07-03 2004-02-05 Olympus Corp 内視鏡装置
JP2009519764A (ja) * 2005-12-14 2009-05-21 ストライカー・コーポレーション 自動内視鏡認識及び画像処理及び表示セッティングの選択
JP2010046276A (ja) * 2008-08-21 2010-03-04 Fujifilm Corp 内視鏡画像のズレ量測定装置及び方法、並びに電子内視鏡及び内視鏡用画像処理装置
WO2014208224A1 (ja) * 2013-06-24 2014-12-31 オリンパスメディカルシステムズ株式会社 オートフォーカス装置
CN105476598A (zh) * 2016-01-12 2016-04-13 深圳市理邦精密仪器股份有限公司 阴道镜工作距离的调节方法及装置
JP2016163609A (ja) * 2015-03-06 2016-09-08 富士フイルム株式会社 分岐構造判定装置、方法およびプログラム
WO2017072950A1 (ja) * 2015-10-30 2017-05-04 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2018235389A1 (ja) * 2017-06-20 2018-12-27 オリンパス株式会社 医療表示装置
JP2019033917A (ja) * 2017-08-17 2019-03-07 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6655756B2 (ja) * 2017-05-19 2020-02-26 オリンパス株式会社 3d内視鏡装置、及び、3d映像処理装置
JP7159577B2 (ja) * 2018-03-20 2022-10-25 ソニーグループ株式会社 内視鏡システム、制御方法、情報処理装置、およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004033487A (ja) * 2002-07-03 2004-02-05 Olympus Corp 内視鏡装置
JP2009519764A (ja) * 2005-12-14 2009-05-21 ストライカー・コーポレーション 自動内視鏡認識及び画像処理及び表示セッティングの選択
JP2010046276A (ja) * 2008-08-21 2010-03-04 Fujifilm Corp 内視鏡画像のズレ量測定装置及び方法、並びに電子内視鏡及び内視鏡用画像処理装置
WO2014208224A1 (ja) * 2013-06-24 2014-12-31 オリンパスメディカルシステムズ株式会社 オートフォーカス装置
JP2016163609A (ja) * 2015-03-06 2016-09-08 富士フイルム株式会社 分岐構造判定装置、方法およびプログラム
WO2017072950A1 (ja) * 2015-10-30 2017-05-04 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
CN105476598A (zh) * 2016-01-12 2016-04-13 深圳市理邦精密仪器股份有限公司 阴道镜工作距离的调节方法及装置
WO2018235389A1 (ja) * 2017-06-20 2018-12-27 オリンパス株式会社 医療表示装置
JP2019033917A (ja) * 2017-08-17 2019-03-07 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡システム

Also Published As

Publication number Publication date
WO2020203810A1 (en) 2020-10-08
US20220142454A1 (en) 2022-05-12
CN113613540A (zh) 2021-11-05
JP7255288B2 (ja) 2023-04-11
EP3945982A1 (en) 2022-02-09

Similar Documents

Publication Publication Date Title
US20210007576A1 (en) Image processing device, image processing method and recording medium
US11986156B2 (en) System with endoscope and image sensor and method for processing medical images
JP6323183B2 (ja) 画像処理装置および画像処理方法
JP7226325B2 (ja) 焦点検出装置および方法、並びにプログラム
US20070132951A1 (en) Method and apparatus for processing an eye fundus image
US11141050B2 (en) Autofocus control device, endoscope apparatus, and operation method of autofocus control device
US11064144B2 (en) Imaging element, imaging apparatus, and electronic equipment
JP7363767B2 (ja) 画像処理装置と画像処理方法およびプログラム
JP7255288B2 (ja) 画像処理システム、画像処理装置、及び画像処理方法
WO2015194204A1 (ja) 内視鏡装置
WO2017082091A1 (ja) 手術システム、手術用制御方法、およびプログラム
US10542866B2 (en) Medical imaging device
JP7207296B2 (ja) 撮像装置とフォーカス制御方法およびフォーカス判定方法
JP2018157918A (ja) 手術用制御装置、制御方法、手術システム、およびプログラム
WO2023145448A1 (ja) 内視鏡システム、制御方法、及びプログラム
JP7456385B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2022230563A1 (ja) 内視鏡システム及びその作動方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R151 Written notification of patent or utility model registration

Ref document number: 7255288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151