JP7116925B2 - 観察装置の作動方法、観察装置、およびプログラム - Google Patents

観察装置の作動方法、観察装置、およびプログラム Download PDF

Info

Publication number
JP7116925B2
JP7116925B2 JP2019054976A JP2019054976A JP7116925B2 JP 7116925 B2 JP7116925 B2 JP 7116925B2 JP 2019054976 A JP2019054976 A JP 2019054976A JP 2019054976 A JP2019054976 A JP 2019054976A JP 7116925 B2 JP7116925 B2 JP 7116925B2
Authority
JP
Japan
Prior art keywords
unit
region
image
area
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019054976A
Other languages
English (en)
Other versions
JP2020154234A (ja
Inventor
陽平 坂本
Original Assignee
株式会社エビデント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エビデント filed Critical 株式会社エビデント
Priority to JP2019054976A priority Critical patent/JP7116925B2/ja
Priority to US16/821,184 priority patent/US11327292B2/en
Publication of JP2020154234A publication Critical patent/JP2020154234A/ja
Priority to US17/713,442 priority patent/US11650407B2/en
Application granted granted Critical
Publication of JP7116925B2 publication Critical patent/JP7116925B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Description

本発明は、観察装置の作動方法、観察装置、およびプログラムに関する。
工業用の内視鏡装置は、ボイラー、タービン、エンジン、およびパイプ等の内部の傷および腐食等の検査に使用されている。航空機のエンジンのような大空間、あるいは長距離のパイプのような構造物が、工業用内視鏡を使った検査の対象となる場合がある。このような検査において、ユーザーはどこが観察済みであり、どこが未観察であるのかを正しく把握することが難しい。ユーザーは、観察漏れを発生させないために、より確実な方法で検査を行うことが多い。そのため、同じ検査領域が何度も検査される状況があった。これにより、検査の効率が低下していた。
特許文献1では、この問題を解決するための方法が開示されている。内視鏡装置のコンピュータは、検査対象(被写体)が観察されたか否かを判断し、かつ判断の結果をユーザーに通知する。コンピュータは、内視鏡の視野に写った検査対象の物体距離に基づいて、検査対象が観察されたか否かを判断する。このような機能があれば、ユーザーは、どこが観察済みであり、どこが未観察であるのかを把握することができ、検査の効率が向上する。
国際公開第2016/076262号
しかしながら、検査対象の構造または検査対象の重要度に基づいて、上記の判断のための指標または閾値を変更することについては特許文献1に開示されていない。例えば、工業用内視鏡の検査対象の1つである航空機エンジンの検査においては、タービンブレードのエッジ、コンプレッサーブレードのエッジ、およびタービンブレードのクーリングホールの各々の周辺は、欠陥が見つかりやすい重要な領域である。一方、ブレードのエッジまたはクーリングホールと比較して重要な検査が不要な領域も存在する。また、特定の検査対象の重要度がブレードのエッジまたはクーリングホールの重要度と同じであっても、その検査対象を特定の条件で観察したい場合もある。例えば、特定の条件は、物体距離、構図、または光学アダプターの種別、などである。観察済みであるか否かを判断するための複数の条件が存在する対象の検査において、複数の条件間で同じ指標と閾値とを使用して観察済みであるか否かを判断することは適切ではない。
本発明は、被写体の領域が観察済みであるか否かを各領域の基準に基づいて判断することができる観察装置の作動方法、観察装置、およびプログラムを提供することを目的とする。
本発明は、観察装置の作動方法であって、前記観察装置は、観察対象内の被写体の画像を取得する撮像素子を有し、かつ前記観察対象に挿入される挿入部と、前記被写体の3次元モデルの一部である第1の領域と、前記3次元モデルにおいて前記第1の領域以外の第2の領域との各々に設定された撮像条件を記憶し、前記第1の領域の前記撮像条件と前記第2の領域の前記撮像条件とは、互いに異なる記憶媒体と、推定部と、特定部と、判断部と、表示制御部と、を有し、前記作動方法は、前記表示制御部が前記画像を表示部に表示する画像表示ステップと、前記撮像素子が前記画像を取得したときの前記撮像素子の位置および前記撮像素子の姿勢を前記推定部が推定する推定ステップと、前記画像の画素に対応する前記3次元モデル上の位置を前記特定部が前記推定ステップにおいて推定された前記位置および前記姿勢に基づいて特定する特定ステップと、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域に設定された前記撮像条件が満たされるか否かを前記判断部が判断する判断ステップと、前記判断部によって実行された判断の結果に基づいて観察情報を前記表示制御部が前記表示部に表示し、前記観察情報は、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みであるか否かを示す観察情報表示ステップと、を有することを特徴とする観察装置の作動方法である。
本発明において、前記観察装置は、撮像条件設定部をさらに有し、前記作動方法は、前記撮像条件設定部が前記撮像条件を前記第1の領域および前記第2の領域の各々に設定する撮像条件設定ステップをさらに有することを特徴とする。
本発明において、前記観察装置は、領域設定部をさらに有し、前記作動方法は、前記領域設定部が前記第1の領域および前記第2の領域を前記3次元モデルに設定する領域設定ステップをさらに有することを特徴とする。
本発明において、前記観察装置は、処理部をさらに有し、前記作動方法は、前記撮像素子によって取得された複数の画像の各々における特徴点を前記処理部が検出する特徴点検出ステップと、前記複数の画像の各々における前記特徴点を前記処理部が互いに対応付ける対応付けステップと、前記特徴点に基づいて前記撮像素子の位置および前記撮像素子の姿勢を前記処理部が算出する算出ステップと、前記算出ステップにおいて算出された前記位置および前記姿勢に基づいて前記3次元モデルを前記処理部が生成する生成ステップと、を有し、前記領域設定ステップが実行される前に、前記特徴点検出ステップ、前記対応付けステップ、前記算出ステップ、および前記生成ステップが実行されることを特徴とする。
本発明は、前記撮像条件設定ステップにおいて、ユーザーからの前記撮像条件の入力は受け付けられないことを特徴とする。
本発明は、前記領域設定ステップにおいて、ユーザーからの前記第1の領域および前記第2の領域を示す情報の入力は受け付けられないことを特徴とする。
本発明において、前記推定部は、前記推定ステップにおいて、少なくとも前記画像および前記3次元モデルに基づいて前記位置および前記姿勢を推定することを特徴とする。
本発明において、前記推定部は、前記推定ステップにおいて、前記画像のみに基づいて前記位置および前記姿勢を推定することを特徴とする。
本発明において、前記記憶媒体は、前記撮像条件が満たされないと判断された前記3次元モデル上の前記位置である未観察位置を記憶し、前記作動方法は、前記未観察位置が前記撮像素子の視野の後ろ側にある場合に、前記未観察位置を含む前記第1の領域または前記第2の領域があることを示す第1の通知情報を前記表示制御部が前記表示部に表示する第1の通知情報表示ステップをさらに有し、ことを特徴とする。
本発明において、前記撮像条件は、複数の条件を含み、前記作動方法は、前記複数の条件に含まれる少なくとも1つの条件が満たされないと前記判断部が判断した場合に、前記表示制御部は、前記少なくとも1つの条件を示す条件情報を前記表示部に表示する条件情報表示ステップをさらに有することを特徴とする。
本発明において、前記観察装置は、記録部をさらに有し、前記作動方法は、前記第1の領域に設定された前記撮像条件が満たされると前記判断部が判断した場合に、前記第1の領域に対応する領域が写っている前記画像を前記記録部が記録する記録ステップをさらに有することを特徴とする。
本発明において、前記撮像条件が満たされると前記判断部が判断した場合、前記表示制御部は、前記観察情報表示ステップにおいて、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みであることを示す前記観察情報を前記表示部に表示することを特徴とする。
本発明において、前記判断部は、前記判断ステップにおいて、前記第1の領域または前記第2の領域に設定された前記撮像条件が満たされる度合いを示す評価値を算出し、前記表示制御部は、前記観察情報表示ステップにおいて、前記評価値を前記観察情報として前記表示部に表示することを特徴とする。
本発明において、前記判断部は、前記判断ステップにおいて、前記評価値と閾値とを比較することにより前記撮像条件が満たされるか否かを判断し、前記作動方法は、前記撮像条件が満たされないと前記判断部が判断した場合に、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みではないことを示す第2の通知情報を前記表示制御部が前記表示部に表示する第2の通知情報表示ステップをさらに有することを特徴とする。
本発明は、観察対象内の被写体の画像を取得する撮像素子を有し、かつ前記観察対象に挿入される挿入部と、前記被写体の3次元モデルの一部である第1の領域と、前記3次元モデルにおいて前記第1の領域以外の第2の領域との各々に設定された撮像条件を記憶し、前記第1の領域の前記撮像条件と前記第2の領域の前記撮像条件とは、互いに異なる記憶媒体と、前記画像を表示部に表示する表示制御部と、前記撮像素子が前記画像を取得したときの前記撮像素子の位置および前記撮像素子の姿勢を推定する推定部と、前記画像の画素に対応する前記3次元モデル上の位置を前記推定部によって推定された前記位置および前記姿勢に基づいて特定する特定部と、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域に設定された前記撮像条件が満たされるか否かを判断する判断部と、を有し、前記判断部によって実行された判断の結果に基づいて観察情報を前記表示制御部が前記表示部に表示し、前記観察情報は、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みであるか否かを示すことを特徴とする観察装置である。
本発明は、観察装置のコンピュータに、画像表示ステップ、推定ステップ、特定ステップ、判断ステップ、および観察情報表示ステップを実行させるためのプログラムであって、前記観察装置は、観察対象内の被写体の画像を取得する撮像素子を有し、かつ前記観察対象に挿入される挿入部と、前記被写体の3次元モデルの一部である第1の領域と、前記3次元モデルにおいて前記第1の領域以外の第2の領域との各々に設定された撮像条件を記憶し、前記第1の領域の前記撮像条件と前記第2の領域の前記撮像条件とは、互いに異なる記憶媒体と、を有し、前記コンピュータは、前記画像表示ステップにおいて、前記画像を表示部に表示し、前記コンピュータは、前記推定ステップにおいて、前記撮像素子が前記画像を取得したときの前記撮像素子の位置および前記撮像素子の姿勢を推定し、前記コンピュータは、前記特定ステップにおいて、前記画像の画素に対応する前記3次元モデル上の位置を前記推定ステップにおいて推定された前記位置および前記姿勢に基づいて特定し、前記コンピュータは、前記判断ステップにおいて、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域に設定された前記撮像条件が満たされるか否かを判断し、前記コンピュータは、前記観察情報表示ステップにおいて、前記判断ステップの結果に基づいて観察情報を前記表示部に表示し、前記観察情報は、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みであるか否かを示すことを特徴とするプログラムである。
本発明によれば、観察装置の作動方法、観察装置、およびプログラムは、被写体の領域が観察済みであるか否かを各領域の基準に基づいて判断することができる。
本発明の第1の実施形態による内視鏡装置の全体構成を示す斜視図である。 本発明の第1の実施形態による内視鏡装置の内部構成を示すブロック図である。 本発明の第1の実施形態によるPCの機能構成を示すブロック図である。 本発明の第1の実施形態によるCPUの機能構成を示すブロック図である。 本発明の第1の実施形態によるPCが実行する処理の手順を示すフローチャートである。 本発明の第1の実施形態における判断の指標および判断の閾値を示す図である。 本発明の第1の実施形態における検査画像および動きベクトルを示す図である。 本発明の第1の実施形態における動きベクトルと閾値との関係を示す図である。 本発明の第1の実施形態における画像取得の状況を示す模式図である。 本発明の第1の実施形態における3次元モデルを生成するための処理の手順を示すフローチャートである。 本発明の第1の実施形態によるCPUが実行する処理の手順を示すフローチャートである。 本発明の第1の実施形態によるCPUが実行する処理の手順を示すフローチャートである。 本発明の第1の実施形態による表示部に表示される画像の例を示す図である。 本発明の第1の実施形態による表示部に表示される画像の例を示す図である。 本発明の第1の実施形態における3次元モデル上の位置を特定する方法を示す図である。 本発明の第1の実施形態による表示部に表示される画像の例を示す図である。 本発明の第1の実施形態による表示部に表示される画像の例を示す図である。 本発明の第1の実施形態の第2の変形例によるPCの機能構成を示すブロック図である。 本発明の第1の実施形態の第2の変形例によるPCが実行する処理の手順を示すフローチャートである。 本発明の第2の実施形態によるCPUの機能構成を示すブロック図である。 本発明の第2の実施形態によるCPUが実行する処理の手順を示すフローチャートである。 本発明の第2の実施形態において3次元モデル上の位置が未観察であると判断された原因をユーザーに通知する方法を示す図である。 本発明の第2の実施形態において撮像素子の視野の後ろ側にある未観察位置を検出する方法を示す図である。 本発明の第3の実施形態によるCPUが実行する処理の手順を示すフローチャートである。 本発明の第3の実施形態によるCPUが実行する処理の手順を示すフローチャートである。 本発明の第3の実施形態による表示部に表示される画像の例を示す図である。
以下、図面を参照し、本発明の実施形態を説明する。以下では、観察装置が内視鏡装置である例を説明する。観察装置は、観察対象に挿入される挿入部を有し、かつ観察対象内の被写体の画像を取得する装置でありさえすればよく、内視鏡装置に限らない。
(第1の実施形態)
図1は、本発明の第1の実施形態の内視鏡装置1の外観を示す。図2は、内視鏡装置1の内部構成を示す。内視鏡装置1は、被写体を撮像し、画像を生成する。検査者は、種々の被写体の観察を行うために、挿入部2の先端に装着される光学アダプターの交換と、内蔵された映像処理プログラムの選択と、映像処理プログラムの追加とを行うことが可能である。以下では、検査の前にユーザーが注目領域を指定する場合について説明する。注目領域は、検査領域が観察済みであるか否かを判断するための条件が他の検査領域の条件と異なる検査領域と定義される。
図1に示す内視鏡装置1は、挿入部2、本体部3、操作部4、および表示部5を有する。
挿入部2は、被写体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、被写体を撮像し、かつ撮像信号を本体部3に出力する。挿入部2の先端20には、光学アダプターが装着される。例えば、単眼の光学アダプターが挿入部2の先端20に装着される。本体部3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、内視鏡装置1に対するユーザーの操作を受け付ける。表示部5は、表示画面を有し、かつ挿入部2で取得された被写体の画像および操作メニュー等を表示画面に表示する。
操作部4は、ユーザーインタフェースである。例えば、操作部4は、ボタン、スイッチ、キー、マウス、ジョイスティック、タッチパッド、トラックボール、およびタッチパネルの少なくとも1つである。表示部5は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部5は、タッチパネルであってもよい。その場合、操作部4および表示部5は一体化される。
図2に示す本体部3は、内視鏡ユニット8、CCU(Camera Control Unit)9、および制御装置10を有する。内視鏡ユニット8は、図示していない光源装置および湾曲装置を有する。光源装置は、観察に必要な照明光を供給する。湾曲装置は、挿入部2に内蔵された湾曲機構を湾曲させる。挿入部2の先端20には撮像素子28が内蔵されている。撮像素子28は、イメージセンサである。撮像素子28は、光学アダプターによって形成された被写体の光学像を光電変換し、かつ撮像信号を生成する。CCU9は、撮像素子28を駆動する。撮像素子28から出力された撮像信号がCCU9に入力される。CCU9は、撮像素子28により取得された撮像信号に対して、増幅およびノイズ除去等を含む前処理を行う。CCU9は、前処理が行われた撮像信号をNTSC信号等の映像信号に変換する。
制御装置10は、映像信号処理回路12、ROM(Read Only Memory)13、RAM(Random Access Memory)14、カードインタフェース15、外部機器インタフェース16、制御インタフェース17、およびCPU(Central Processing Unit)18aを有する。
映像信号処理回路12は、CCU9から出力された映像信号に対して、所定の映像処理を施す。例えば、映像信号処理回路12は、視認性向上に関わる映像処理を行う。例えば、その映像処理は、色再現、階調補正、ノイズ抑制、および輪郭強調などである。例えば、映像信号処理回路12は、CCU9から出力された映像信号と、CPU18aによって生成されたグラフィック画像信号とを合成する。グラフィック画像信号は、操作画面の画像等を含む。映像信号処理回路12は、合成された映像信号を表示部5に出力する。
ROM13は、CPU18aが内視鏡装置1の動作を制御するためのプログラムが記録された不揮発性の記録媒体である。RAM14は、CPU18aが内視鏡装置1の制御のために使用する情報を一時的に記憶する揮発性の記録媒体である。CPU18aは、ROM13に記録されたプログラムに基づいて内視鏡装置1の動作を制御する。
着脱可能な記録媒体であるメモリカード42がカードインタフェース15に接続される。カードインタフェース15は、メモリカード42に記憶されている制御処理情報および画像情報等を制御装置10に取り込む。また、カードインタフェース15は、内視鏡装置1によって生成された制御処理情報および画像情報等をメモリカード42に記録する。
USB機器等の外部機器が外部機器インタフェース16に接続される。例えば、パーソナルコンピュータ(PC)41が外部機器インタフェース16に接続される。外部機器インタフェース16は、PC41へ情報を送信し、かつPC41から情報を受信する。これによって、PC41のモニタが情報を表示することができる。また、ユーザーは、PC41に指示を入力することにより、内視鏡装置1の制御に関する操作を行うことができる。
制御インタフェース17は、操作部4、内視鏡ユニット8、およびCCU9と動作制御のための通信を行う。制御インタフェース17は、ユーザーによって操作部4に入力された指示をCPU18aに通知する。制御インタフェース17は、光源装置および湾曲装置を制御するための制御信号を内視鏡ユニット8に出力する。制御インタフェース17は、撮像素子28を制御するための制御信号をCCU9に出力する。
CPU18aが実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。この記録媒体に記録されたプログラムを内視鏡装置1以外のコンピュータが読み込み、かつ実行してもよい。例えば、PC41がプログラムを読み込んで実行してもよい。PC41は、プログラムに従って、内視鏡装置1を制御するための制御情報を内視鏡装置1に送信することにより内視鏡装置1を制御してもよい。あるいは、PC41は、内視鏡装置1から映像信号を取得し、かつ取得された映像信号を処理してもよい。
上述したプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波により内視鏡装置1に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。コンピュータに既に記録されているプログラムと差分プログラムとの組合せが、前述した機能を実現してもよい。
上記の内視鏡装置1は、挿入部2、RAM14、およびCPU18aを有する。挿入部2は、撮像素子28を有し、かつ検査対象(観察対象)に挿入される。撮像素子28は、検査対象内の被写体を撮像し、かつ撮像信号を生成する。これにより、撮像素子28は、撮像視野内の被写体の光学像に基づいて被写体の画像(画像データ)を生成する。撮像素子28は、複数の画像を連続的に生成することにより、被写体の検査動画を生成する。撮像素子28によって生成された画像は映像信号処理回路12を経由してCPU18aに入力される。RAM14(記憶媒体)は、被写体の3次元(3D)モデルの一部である注目領域(第1の領域)と、3Dモデルにおいて注目領域以外の通常領域(第2の領域)との各々に設定された撮像条件を記憶する。撮像条件は、被写体の領域が観察済みであるか否かを判断するために使用される。注目領域の撮像条件と通常領域の撮像条件とは、互いに異なる。以下では、PC41が領域の設定と撮像条件の設定とを実行する例を説明する。
図3は、PC41の機能構成を示す。図3に示すPC41は、CPU43、操作部44、表示部45、通信部46、およびメモリ47を有する。
CPU43は、PC41の動作を制御する。操作部44は、ユーザーインタフェースである。操作部44は、PC41に対するユーザーの操作を受け付ける。ユーザーは、操作部44を操作することにより、各種情報をPC41に入力することができる。操作部44は、ユーザーが入力した情報を受け付け、その情報をCPU43に出力する。表示部45は、表示画面を有し、かつ検査対象内の被写体の3Dモデル等を表示画面に表示する。表示部45は、LCD等のモニタ(ディスプレイ)である。表示部45は、タッチパネルであってもよい。その場合、操作部44および表示部45は一体化される。通信部46は、内視鏡装置1と通信を実行する。メモリ47は、内視鏡装置1によって取得された検査動画等を記憶する。
動画選択部430、条件受付部431、3Dモデル生成部432、表示制御部433、領域受付部434、指標受付部435、閾値受付部436、および条件設定部437によってCPU43の機能が構成されている。図3に示すCPU43内のブロックの少なくとも1つがCPU43とは別の回路で構成されてもよい。
CPU43内の各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。例えば、プロセッサは、CPU、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。CPU43内の各部は、1つまたは複数のプロセッサを含むことができる。CPU43内の各部は、1つまたは複数の論理回路を含むことができる。
通信部46は、複数の検査動画を内視鏡装置1から受信する。メモリ47は、受信された複数の検査動画を記憶する。ユーザーは、注目領域の設定および撮像条件の設定に使用する検査動画を示す情報を操作部44に入力する。動画選択部430は、ユーザーが操作部44に入力した情報に基づいて、複数の検査動画のうち1つを選択する。メモリ47が1つのみの検査動画を記憶し、かつ動画選択部430がその検査動画を選択してもよい。以下では、注目領域の設定および撮像条件の設定に被写体の動画を使用する例を説明する。動画を使用する必要はなく、静止画が使用されてもよい。
ユーザーは、被写体の3Dモデルを生成するための条件を示す情報を操作部44に入力する。条件受付部431は、ユーザーが操作部44に入力した情報に基づいて、被写体の3Dモデルを生成するための条件を受け付ける。具体的には、その条件は、カメラの内部パラメーター、カメラの歪み補正パラメーター、設定値、および基準長等を含む。設定値は、3Dモデルを生成するための各種処理に使用される。基準長は、3Dモデルを実際の被写体のスケールと合わせるために使用される。条件受付部431が受け付けた情報は、メモリ47に記憶される。
3Dモデル生成部432(処理部)は、被写体の3Dモデルを生成(再構成)する。3Dモデル生成部432によって生成された3Dモデルは、メモリ47に記憶される。
表示制御部433は、3Dモデル生成部432によって生成された3Dモデルを表示部45に表示する。
ユーザーは、被写体上の注目領域を示す情報を操作部44に入力する。領域受付部434(領域設定部)は、ユーザーが操作部44に入力した情報に基づいて、注目領域を受け付ける。ユーザーが注目領域として指定しない領域は、通常領域として受け付けられる。領域受付部434は、3Dモデル生成部432によって生成された3Dモデルに注目領域および通常領域を設定する。領域受付部434が受け付けた各領域は、メモリ47に記憶される。
ユーザーは、被写体上の領域が観察済みであるか否かを判断するための指標を示す情報を操作部44に入力する。指標は、撮像条件の種類を示す。ユーザーは、指標を領域毎に指定することができる。指標受付部435は、ユーザーが操作部44に入力した情報に基づいて、指標を受け付ける。指標受付部435が受け付けた指標は、メモリ47に記憶される。
ユーザーは、被写体上の領域が観察済みであるか否かを判断するための閾値を示す情報を操作部44に入力する。ユーザーは、閾値を領域毎に指定することができる。閾値受付部436は、ユーザーが操作部44に入力した情報に基づいて、閾値を受け付ける。閾値受付部436が受け付けた閾値は、メモリ47に記憶される。
条件設定部437(撮像条件設定部)は、3Dモデル生成部432によって生成された3Dモデルの注目領域および通常領域の各々に、指標と閾値とを含む撮像条件を設定する。条件設定部437は、注目領域の指標および注目領域の閾値を注目領域に設定する。条件設定部437は、通常領域の指標および通常領域の閾値を通常領域に設定する。条件設定部437は、各領域の撮像条件が設定された3Dモデルを生成する。3Dモデルは、被写体の3次元座標のデータと、注目領域の情報と、通常領域の情報と、各領域の撮像条件とを含む。条件設定部437によって生成された3Dモデルは、メモリ47に記憶される。通信部46は、撮像条件が設定された3Dモデルを内視鏡装置1に送信する。
内視鏡装置1の外部機器インタフェース16は、撮像素子28によって取得された検査動画をPC41に送信する。外部機器インタフェース16は、撮像条件が設定された3DモデルをPC41から受信する。3Dモデルは、RAM14に記憶される。
図4は、CPU18aの機能構成を示す。メイン制御部180、画像取得部181、表示制御部182、3Dモデル選択部183、カメラ位置姿勢推定部184、位置特定部185、および判断部186によってCPU18aの機能が構成されている。図4に示すブロックの少なくとも1つがCPU18aとは別の回路で構成されてもよい。
図4に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図4に示す各部は、1つまたは複数のプロセッサを含むことができる。図4に示す各部は、1つまたは複数の論理回路を含むことができる。
メイン制御部180は、各部が実行する処理を制御する。画像取得部181は、撮像素子28によって生成された画像を映像信号処理回路12から取得する。取得された画像は、RAM14に保持される。
表示制御部182は、撮像素子28によって生成された画像を表示部5に表示する。例えば、表示制御部182は、映像信号処理回路12によって実行される処理を制御する。表示制御部182は、映像信号処理回路12に、処理された画像を表示部5へ出力させる。表示部5は、映像信号処理回路12から出力された画像を表示する。
表示制御部182は、3Dモデルおよび判断結果等を表示部5に表示する。つまり、表示制御部182は、画像上に各種情報を表示する。例えば、表示制御部182は、各種情報のグラフィック画像信号を生成する。表示制御部182は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18aから出力されたグラフィック画像信号とを合成する。これにより、各種情報が画像に重畳される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、映像信号に基づいて、各種情報が重畳された画像を表示する。
ユーザーは、被写体の3Dモデルを示す情報を操作部4に入力する。操作部4は、ユーザーが操作部4に入力した情報を受け付け、その情報を出力する。操作部4に入力された情報は、入力部である制御インタフェース17に入力される。制御インタフェース17に入力された情報は、CPU18aに入力される。3Dモデル選択部183は、ユーザーが操作部4に入力した情報に基づいて、3Dモデルを選択する。
カメラ位置姿勢推定部184は、撮像素子28が画像を取得したときの撮像素子28の位置および撮像素子28の姿勢を推定する。カメラ位置姿勢推定部184は、撮像素子28の位置および撮像素子28の姿勢を推定するために、画像取得部181によって取得された画像と、3Dモデル選択部183によって選択された3Dモデルとを使用する。
位置特定部185は、画像取得部181によって取得された画像の画素に対応する3Dモデル上の位置を特定する。位置特定部185は、3Dモデル上の位置を特定するために、画像取得部181によって取得された画像と、3Dモデル選択部183によって選択された3Dモデルと、カメラ位置姿勢推定部184によって推定された位置および姿勢とを使用する。
判断部186は、位置特定部185によって特定された位置を含む注目領域または通常領域に設定された撮像条件が満たされるか否かを判断する。具体的には、判断部186は、位置特定部185によって特定された位置に設定された指標および閾値を取得する。判断部186は、画像取得部181によって取得された画像と、カメラ位置姿勢推定部184によって推定された位置および姿勢とに基づいて指標値を算出する。判断部186は、算出された指標値と閾値とを比較することにより、撮像条件が満たされるか否かを判断する。
表示制御部182は、判断部186によって実行された判断の結果に基づいて観察情報を表示部5に表示する。観察情報は、位置特定部185によって特定された位置を含む注目領域または通常領域が観察済みであるか否かを示す。表示制御部182は、観察情報のグラフィック画像信号を生成する。その後、各種情報を表示するための処理と同様の処理が実行される。
第1の実施形態の特徴的な処理は、検査前に実行される処理と、検査中に実行される処理とを含む。以下では、各処理について説明する。以下では、撮像素子28によって検査のために生成された画像を検査画像と記載する。
図5を参照し、検査前に実行される処理の手順を説明する。図5は、PC41が実行する処理の手順を示す。PC41は、ラップトップおよびデスクトップのいずれであってもよい。また、図5に示す処理がクラウド環境で実行されてもよい。
ユーザーは、注目領域の設定および撮像条件の設定に使用する検査動画を示す情報を操作部44に入力する。動画選択部430は、ユーザーが操作部44に入力した情報に基づいて、複数の検査動画のうち1つを選択する(ステップS101)。
ステップS101の後、ユーザーは、被写体の3Dモデルを生成するための条件を示す情報を操作部44に入力する。条件受付部431は、ユーザーが操作部44に入力した情報に基づいて、被写体の3Dモデルを生成するための条件を受け付ける(ステップS102)。前述したように、その条件は、カメラの内部パラメーター、カメラの歪み補正パラメーター、設定値、および基準長等を含む。これらの条件の全てをユーザーが指定する必要はない。CPU43がこれらの条件の少なくとも1つを自動的に設定してもよい。
ステップS102の後、3Dモデル生成部432は、選択された検査動画と、3Dモデルを生成するための条件とに基づいて、被写体の3Dモデルを生成する(ステップS103)。3Dモデル生成部432が実行する具体的な処理の手順については後述する。
ステップS103の後、表示制御部433は、生成された3Dモデルを表示部45に表示する(ステップS104)。
ステップS104の後、ユーザーは、3Dモデルにおいて注目領域として指定する領域を決定し、かつその領域を示す情報を操作部44に入力する。領域受付部434は、ユーザーが操作部44に入力した情報に基づいて、注目領域を受け付ける。領域受付部434は、生成された3Dモデルに注目領域および通常領域を設定する(ステップS105)。
例えば、ユーザーは、検査の重要度が高い領域を注目領域として指定する。注目領域は、過去の検査において欠陥が頻繁に見つかっている領域であってもよい。注目領域は、過去の検査において経過観察が必要であると判断された領域であってもよい。注目領域は、設計上、不具合が発生しやすいと想定される領域であってもよい。
注目領域は、重要度が特に高くない領域であってもよい。例えば、注目領域は、特定の条件で検査することが求められる領域であってもよい。特定の条件は、物体距離、構図、または光学アダプターの種別である。検査マニュアルまたは検査対象の設計意図に基づいて注目領域が設定されてもよい。例えば、航空機エンジンの検査では、設計意図がエンジンメーカーと各企業の検査部門との間で共有されている場合が多い。
第1の実施形態において、3Dモデルが表示部45に表示されているときにユーザーは3Dモデル上の注目領域を指定する。ユーザーは、3Dモデル上の領域を注目領域として直接指定する必要はない。ユーザーは、検査動画に写る2次元の被写体上の領域を注目領域として指定してもよい。具体的には、ステップS104において、3Dモデルの代わりに検査動画が表示部45に表示される。ユーザーは、2次元の被写体において注目領域として指定する領域を決定し、かつその領域を示す情報を操作部44に入力する。領域受付部434は、ユーザーが操作部44に入力した情報に基づいて、注目領域を受け付ける。3Dモデル上の位置と2次元の被写体の位置とは、互いに対応付けられている。したがって、CPU43は、2次元の被写体上で指定された領域に対応する3Dモデル上の領域を特定することができる。
ステップS105の後、ユーザーは、判断の指標と判断の閾値とを示す情報を操作部44に入力する。指標受付部435は、ユーザーが操作部44に入力した情報に基づいて、指標を受け付ける。閾値受付部436は、ユーザーが操作部44に入力した情報に基づいて、閾値を受け付ける(ステップS106)。指標および閾値は、領域毎に受け付けられる。つまり、注目領域の指標および閾値が受け付けられ、かつ通常領域の指標および閾値が受け付けられる。
図6は、判断の指標および判断の閾値の例を示す。4つの指標が図6に示されている。4つの指標は、指標A(物体距離)、指標B(観察時間)、指標C(画像輝度)、および指標D(視野内の位置)を含む。指標Aは、被写体から内視鏡先端までの距離を示す。指標Bは、観察のために内視鏡先端が静止する時間の長さを示す。指標Cは、検査画像の輝度値を示す。指標Dは、画像の中心から各領域の位置までの画角を示す。図6に示す各指標は、検査画像に基づいて算出される。2つの注目領域および1つの通常領域の各々における各指標の閾値が図6に示されている。2つの注目領域は、注目領域R1および注目領域R2である。
図6に示す例では、4つの指標の全てが2つの注目領域に設定されている。図6に示す例では、指標Aおよび指標Cのみが通常領域に設定されている。
各領域に設定される指標は、図6に示す例に限らない。例えば、指標Bが含まれなくてもよい。図6に示されていない指標Eが追加されてもよい。少なくとも1つの指標が設定されさえすればよい。指標は、検査画像に基づいて算出される3次元座標の信頼度であってもよい。指標は、被写体に対する内視鏡先端の相対的な姿勢(観察角度)であってもよい。指標は、検査に使用される光学アダプターの種別であってもよい。
各領域に設定される閾値は、図6に示す例に限らない。閾値は、内視鏡機材または被写体に応じて変更されてもよい。閾値は、検査に対するユーザーの熟練度に応じて変更されてもよい。
図7および図8を参照し、指標Bを使用する具体的な判断処理を説明する。図7に示す3枚の検査画像I11からI13を以下のように定義する。検査画像I11(基準画像)は、画像取得部181によって第1の時刻に取得された画像である。検査画像I12は、画像取得部181によって第1の時刻の次の第2の時刻に取得された画像である。検査画像I83は、画像取得部181によって第2の時刻の次の第3の時刻において取得された画像である。
判断部186は、検査画像I11に写っている代表点を検出する。判断部186は、検査画像I11および検査画像I12に基づいて、その代表点の動きベクトルV12を検出する。同様に、判断部186は、検査画像I12および検査画像I13に基づいて、その代表点の動きベクトルV13を検出する。
図8は、各動きベクトルと閾値との関係を示す。閾値TH1は、事前に決定された動きの許容値である。この例では、判断部186は、これらの3フレームの各々の検査画像が取得される間の動きベクトルの総和を算出する。その総和が閾値TH1を超えていなければ、判断部186は、被写体を静止状態で検査できたと判断する。この例では、各検査画像間の動きベクトルの総和(最大距離)が閾値として設定される。各検査画像間の動き量として許容できる値が閾値として設定されてもよい。つまり、判断部186は、事前に設定された期間における各検査画像間の動き量が閾値以下であるか否かを判断してもよい。
カメラの動きが並進運動である場合、物体距離毎に検査画像における動き量が変わる。そのため、指標A(物体距離)が満たされた後、判断部186は、指標B(静止時間)の値を判断してもよい。
ステップS106の後、条件設定部437は、生成された3Dモデルに注目領域および通常領域の各々の撮像条件を設定する。これにより、条件設定部437は、撮像条件が設定された3Dモデルを生成する(ステップS107)。ステップS107が実行されたとき、図5に示す処理が終了する。
図5に示す処理が終了した後、通信部46は、撮像条件が設定された3Dモデルを内視鏡装置1に送信する。内視鏡装置1の外部機器インタフェース16は、その3DモデルをPC41から受信する。受信された3Dモデルは、RAM14に記憶される。
3Dモデル生成部432が実行する具体的な処理の手順について説明する。3Dモデル生成部432は、動画選択部430によって選択された検査動画と、条件受付部431によって受け付けられた条件とを使用する。以下では、3Dモデル生成部432が、検査動画から抽出された2枚の検査画像を使用する例について説明する。2枚の検査画像を撮影したとき、カメラの2つの視点は互いに異なる。3枚以上の検査画像が使用される場合でも、基本原理は、2枚の検査画像が使用される場合と変わらない。以下で説明される方法は、3枚以上の検査画像が使用される場合にも適用できる。
図9は、被写体の2枚の検査画像が取得される場合の画像取得の状況を模式的に示す。以下の説明では、広義のカメラという表現を使用する。以下の説明におけるカメラは、具体的には内視鏡先端(挿入部2の先端20)の観察光学系を指す。
図9に示すように、最初にカメラの撮像状態cにおいて検査画像Iが取得される。次に、カメラの撮像状態cにおいて検査画像Iが取得される。撮像状態cと撮像状態cとでは、撮像位置および撮像姿勢の少なくとも1つが異なる。図9において、撮像状態cと撮像状態cとでは、撮像位置および撮像姿勢の両方が異なる。
本発明の各実施形態では、検査画像Iおよび検査画像Iは同じ内視鏡で取得されることを想定している。また、本発明の各実施形態では、内視鏡の対物光学系のパラメーターが変化しないことを想定している。対物光学系のパラメーターは、焦点距離、歪曲収差、およびイメージセンサのピクセルサイズ等である。以下では、対物光学系のパラメーターを便宜上、内部パラメーターと略す。このような条件を仮定したとき、内視鏡の光学系の特性が記述された内部パラメーターは、内視鏡先端のカメラの位置および姿勢に関わらず共通に使用できる。本発明の各実施形態では、内部パラメーターは工場出荷時に取得されていることを想定している。また、本発明の各実施形態では、検査画像の取得時には内部パラメーターは既知であることを想定している。
本発明の各実施形態では、検査動画から2枚以上の検査画像が抽出されることを想定し、かつ検査動画は1つの内視鏡によって取得されることを想定している。しかし、本発明はこれに限らない。例えば、複数の内視鏡によって取得された複数の検査動画を使用して3Dモデルを復元する場合においても、本発明を適用できる。この場合、検査画像Iおよび検査画像Iは、互いに異なる内視鏡装置を使用して取得され、内視鏡毎に別々の内部パラメーターが保持されてさえいればよい。仮に内部パラメーターが未知であっても、内部パラメーターを変数として計算を行うことはできる。そのため、内部パラメーターが既知であるか否かにより以後の手順が大きく変わることはない。
図10を参照し、取得された2枚の検査画像に基づいて被写体の3次元座標を計算するための手順について説明する。図10は、3Dモデルの生成のための処理の手順を示す。
まず、3Dモデル生成部432は、特徴点検出処理を実行する(ステップS103a)。3Dモデル生成部432は、特徴点検出処理において、取得された2枚の検査画像の各々の特徴点を検出する。特徴点とは、検査画像に写っている被写体情報のうち、画像輝度勾配の大きいコーナーおよびエッジ等を指す。この特徴点を検出する方法として、SIFT(Scale-invariant Feature Transform)およびFAST(Features from Accelerated Segment Test)等が使用される。このような方法を用いることにより画像内の特徴点を検出することができる。
図9は、検査画像Iから特徴点mが検出され、かつ検査画像Iから特徴点mが検出された例を示す。図9では各画像の1つの特徴点のみが表示されているが、実際には各画像において複数の特徴点が検出される。各画像で検出される特徴点の数は異なる可能性がある。各画像から検出された各特徴点は特徴量というデータに変換される。特徴量は、特徴点の特徴を表すデータである。
ステップS103aの後、3Dモデル生成部432は、特徴点対応付け処理を実行する(ステップS103b)。3Dモデル生成部432は、特徴点対応付け処理において、特徴点検出処理(ステップS103a)により検出された各特徴点に対して、検査画像間で特徴量の相関を比較する。特徴量の相関が比較され、各検査画像において特徴量が近い特徴点が見つかった場合、3Dモデル生成部432は、その情報をRAM14に保持する。これにより、3Dモデル生成部432は、各検査画像の特徴点を互いに対応付ける。一方、特徴量が近い特徴点が見つからなかった場合には、3Dモデル生成部432は、その特徴点の情報を破棄する。
ステップS103bの後、3Dモデル生成部432は、互いに対応付けられた2枚の検査画像の特徴点(特徴点ペア)の座標をRAM14から読み出す。3Dモデル生成部432は、読み出された座標に基づいて、位置および姿勢の算出処理を実行する(ステップS103c)。3Dモデル生成部432は、位置および姿勢の算出処理において、検査画像Iを取得したカメラの撮像状態cと検査画像Iを取得したカメラの撮像状態cとの間の相対的な位置および姿勢を算出する。より具体的には、3Dモデル生成部432は、エピポーラ制約を利用した以下の方程式(1)を解くことにより、行列Eを算出する。
Figure 0007116925000001
行列Eは基本行列と呼ばれる。基本行列Eは、検査画像Iを取得したカメラの撮像状態cと検査画像Iを取得したカメラの撮像状態cとの間の相対的な位置および姿勢を保持する行列である。方程式(1)において、行列pは、検査画像Iから検出された特徴点の座標を含む行列である。行列pは、検査画像Iから検出された特徴点の座標を含む行列である。基本行列Eは、カメラの相対的な位置および姿勢に関する情報を含んでいるため、カメラの外部パラメーターに相当する。基本行列Eは、公知のアルゴリズムを使用して解くことができる。
図9に示すように、カメラの位置変化量がtであり、かつカメラの姿勢変化量がRである場合、式(2)および式(3)が成り立つ。
Figure 0007116925000002
式(2)において、x軸方向の移動量はtと表され、y軸方向の移動量はtと表され、かつz軸方向の移動量はtと表される。式(3)において、x軸周りの回転量αはR(α)と表され、y軸周りの回転量βはR(β)と表され、かつz軸周りの回転量γはR(γ)と表される。基本行列Eが算出された後、3次元座標の復元精度を高めるためにバンドル調整という最適化処理が実行されてもよい。
ステップS103cの後、3Dモデル生成部432は、ステップS103cにおいて算出されたカメラの相対的な位置および姿勢(位置変化量tおよび姿勢変化量R)に基づいて、被写体の3次元形状の復元処理を実行する(ステップS103d)。3Dモデル生成部432は、3次元形状の復元処理において、被写体の3Dモデルを生成する。被写体の3次元形状を復元する手法としては、PMVS(Patch-based Multi-view Stereo)、および平行化ステレオによるマッチング処理等が挙げられる。しかし、特に手段を限定する訳ではない。
ステップS103dの後、3Dモデル生成部432は、3次元形状復元処理(ステップS103d)において算出された被写体の3次元形状データと、条件受付部431によって受け付けられた基準長とに基づいて3次元座標変換処理を実行する(ステップS103e)。3Dモデル生成部432は、3次元座標変換処理において、被写体の3次元形状データを、長さの次元を持つ3次元座標データへと変換する。ステップS103eが実行されたとき、図10に示す処理が終了する。
図11および図12を参照し、検査中に実行される処理の手順を説明する。図11および図12は、CPU18aが実行する処理の手順を示す。
内視鏡装置1の電源が投入された後、挿入部2が検査対象に挿入され、検査が開始される。検査が開始された後、ユーザーは、被写体の3Dモデルを示す情報を操作部4に入力する。操作部4は、ユーザーが操作部4に入力した情報を受け付ける。3Dモデル選択部183は、ユーザーが操作部4に入力した情報に基づいて、RAM14に記憶されている3Dモデルを選択する。3Dモデル選択部183は、選択された3DモデルをRAM14から読み出す(ステップS201)。
ステップS201の後、表示制御部182は、3Dモデル選択部183によって選択された3Dモデルを表示するためのグラフィック画像信号を生成し、かつグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、グラフィック画像信号と映像信号とを合成し、かつ合成された映像信号を表示部5に出力する。映像信号は、3Dモデルの画像における各画素のカラーデータを含む。各画素は、3次元座標と関連付けられている。表示部5は、映像信号に基づいて、3Dモデルの画像を表示する(ステップS202)。
図13は、ステップS202において表示部5に表示される画像の例を示す。3DモデルM11が表示部5に表示される。注目領域R11および注目領域R12が3DモデルM11上に表示される。通常領域は、注目領域R11および注目領域R12を除く3DモデルM11上の領域である。例えば、注目領域R11および注目領域R12は、所定の色で表示される。ユーザーが3DモデルM11を視認できるように注目領域R11および注目領域R12が半透明に表示されてもよい。例えば、注目領域R11は、図6における注目領域R1に対応し、かつ注目領域R12は、図6における注目領域R2に対応する。ユーザーが注目領域と通常領域とを区別できる限り、どのような表示方法が使用されてもよい。
ステップS202の後、画像取得部181は、検査画像を映像信号処理回路12から取得する(ステップS203)。ステップS203の後、表示制御部182は、取得された検査画像を表示部5に表示する(ステップS204)。
注目領域が検査画像上に表示されてもよい。航空機エンジンのクーリングホールのような小さな注目領域がカメラから遠く離れている場合、ユーザーが3Dモデル上または検査画像上の注目領域に気付かれない可能性がある。注目領域の位置をユーザーに確実に知らせるために、表示制御部182は、注目領域を本来の大きさよりも大きく表示してもよい。
図14は、ステップS204において表示部5に表示される検査画像の例を示す。検査画像I21が表示部5に表示され、かつ複数の注目領域R21が検査画像I21上に表示される。注目領域R21は、クーリングホールCH11を含む。注目領域R21は、クーリングホールCH11よりも大きく設定される。図14を理解しやすくするために、複数のクーリングホールCH11の一部のみに対応する注目領域R21が示されている。
ステップS204の後、カメラ位置姿勢推定部184は、カメラが検査画像を取得したときのカメラの位置および姿勢を少なくとも1枚の検査画像および3Dモデルに基づいて推定する(ステップS205)。カメラの位置および姿勢を推定する処理は一般的には、Perspective n Point問題(PnP問題)と呼ばれている。公知の技術(例えばOpen Source Softwareなど)を使用してPnP問題を解くことにより、カメラの位置および姿勢を推定することができる。
本発明は、PnP問題を解くことによりカメラの位置および姿勢を推定するという方法に限らない。例えば、カメラ位置姿勢推定部184は、内視鏡のスコープに組み込まれたセンサーを使用することによりカメラの位置および姿勢を推定してもよい。センサーは、加速度センサー、ジャイロセンサー、または磁気センサー等である。また、カメラ位置姿勢推定部184は、PnP問題を解く精度の向上および処理時間の短縮のために、各種センサーを組み合わせることによりカメラの位置および姿勢を推定してもよい。したがって、カメラ位置姿勢推定部184は、少なくとも検査画像および3Dモデルに基づいてカメラの位置および姿勢を推定してもよい。
以下の例では、カメラ位置姿勢推定部184は、センサーを使用せずにPnP問題を解くことによりカメラの位置および姿勢を推定することを想定している。カメラ位置姿勢推定部184は、検査画像のみに基づいてカメラの位置および姿勢を推定する。
ステップS205の後、位置特定部185は、検査画像の画素に対応する3Dモデル上の位置を特定する(ステップS206)。ステップS206における処理対象の画素は、ステップS206よりも後の各処理がまだ実行されていない画素である。
図15を参照し、ステップS206の詳細を説明する。図15は、3Dモデル上の位置を特定する方法を示す。3DモデルMO11は、管状である。3DモデルMO11の中心軸を通る断面が図15に示されている。挿入部2が3DモデルMO11に仮想的に挿入された状態が図15に示されている。
ステップS206において、3DモデルMO11に対するカメラの位置Pcが推定される。注目領域R31が3DモデルMO11に設定されている。例えば、注目領域R31は、図6における注目領域R1に対応する。平面PL11は、透視投影モデル上の仮想的な画像平面である。平面PL11は、ステップS206において推定されたカメラの位置Pcおよび姿勢に基づいて算出される。平面PL11上の位置は、検査画像の画素に対応する。以下では、平面PL11上の位置を画素と呼ぶ。
位置Pcおよび各画素を通る直線を定義することができる。以下では、この直線を視線と呼ぶ。視線L11は、位置Pcおよび画素PX11を通る。視線L12は、位置Pcおよび画素PX12を通る。視線L13は、位置Pcおよび画素PX13を通る。各視線が算出された後、各視線と3DモデルMO11との交点を算出することができる。位置PO11は、視線L11と3DモデルMO11との交点である。位置PO12は、視線L12と3DモデルMO11との交点である。位置PO13は、視線L13と3DモデルMO11との交点である。位置PO11、位置PO12、および位置PO13の各々は、3DモデルMO11の内壁上の点である。位置特定部185は、位置PO11等を算出することにより、検査画像上の座標(被写体情報)に対応する3DモデルMO11上の位置を特定することができる。
ステップS206の後、判断部186は、ステップS206において特定された位置に所定の情報が設定されているか否かを判断する。これにより、判断部186は、ステップS206において特定された位置が観察済みであるか否かを判断する(ステップS207)。所定の情報は、3Dモデル上の位置が観察済みであることを示す。
後述するステップS211において、3Dモデル上の位置が観察済みであるか否かが判断される。3Dモデル上の位置が観察済みであると判断された場合、ステップS212において、その位置が観察済みであることを示す情報がその位置に設定される。判断部186は、ステップS207において、その情報が3Dモデル上の位置に設定されているか否かを判断する。その情報が3Dモデル上の位置に設定されている場合、判断部186は、その位置が観察済みであると判断する。その情報が3Dモデル上の位置に設定されていない場合、判断部186は、その位置が観察済みでないと判断する。
ステップS206において特定された位置が観察済みであると判断部186が判断した場合、ステップS213が実行される。ステップS206において特定された位置が観察済みでないと判断部186が判断した場合、判断部186は、その位置における指標および閾値をRAM14から読み出す(ステップS208)。例えば、位置PO13がステップS206において特定された場合、判断部186は、位置PO13に設定されている指標および閾値をRAM14から読み出す。位置PO13は、図6の注目領域R1に対応する注目領域R31に含まれる。そのため、判断部186は、注目領域R1に設定されている指標および閾値をRAM14から読み出す。位置PO11および位置PO12は、通常領域に含まれる。位置PO11または位置PO12がステップS206において特定された場合、判断部186は、図6の通常領域に設定されている指標および閾値をRAM14から読み出す。
ステップS208の後、判断部186は、ステップS206において特定された位置における指標値を算出する(ステップS209)。具体的には、判断部186は、検査画像、カメラの位置、カメラの姿勢、および3Dモデルを使用することにより、指標値を算出する。判断部186は、ステップS208において読み出された指標の具体的な値を算出する。
例えば、判断部186は、図6に示す指標A(物体距離)の値をカメラの位置、カメラの姿勢、および3Dモデルに基づいて算出する。例えば、判断部186は、図15に示す位置Pcと3DモデルMO11上の位置PO11との距離を算出することにより、位置PO11における物体距離の値を算出する。判断部186は、図6に示す指標B(静止時間)、指標C(画像輝度)、および指標D(視野内の位置)の各々の値を検査画像に基づいて算出する。
図15に示す位置PO13は、図6に示す注目領域R1に含まれる。位置PO13がステップS206において特定された場合、判断部186は、図6に示す4つの指標の各々の値を算出する。図15に示す位置PO11および位置PO12は、通常領域に含まれる。位置PO11または位置PO12がステップS206において特定された場合、判断部186は、図6に示す指標Aおよび指標Cの各々の値のみを算出する。
ステップS209の後、判断部186は、ステップS209において算出された指標値と、ステップS208において読み出された閾値とを比較する(ステップS210)。
ステップS210の後、判断部186は、指標値が閾値よりも大きいか否かを判断する。これにより、判断部186は、ステップS206において特定された位置が観察済みであるか否かを判断する(ステップS211)。複数の指標値がステップS209において算出された場合、判断部186は、ステップS210において、各指標値と閾値とを比較する。さらに、判断部186は、ステップS211において以下のように判断する。複数の指標値の全てが閾値よりも大きい場合、判断部186は、指標値が閾値よりも大きいと判断する。複数の指標値の少なくとも1つが閾値以下である場合、判断部186は、指標値が閾値よりも大きくないと判断する。
複数の指標値の1つのみが閾値よりも大きい場合、判断部186は、指標値が閾値よりも大きいと判断してもよい。ステップS211における判断の方法は上記の方法に限らない。判断部186は、各指標値と閾値とを比較することにより得られた判断結果の論理積または論理和、もしくはそれらの組み合わせに基づいて上記の判断を行ってもよい。
指標値が閾値よりも大きいと判断部186が判断した場合、判断部186は、ステップS206において特定された位置が観察済みであることを示す観察情報を生成する。また、判断部186は、ステップS206において特定された位置が観察済みであることを示す情報をその位置に設定する(ステップS212)。
ステップS212の後、表示制御部182は、観察情報のグラフィック画像信号を生成する。その後、映像信号処理回路12は、グラフィック画像信号と映像信号とを合成し、かつ合成された映像信号を表示部5に出力する。表示部5は、観察情報を3Dモデル上に表示する。これにより、表示部5は、ステップS206において特定された位置が観察済みであることをユーザーに通知する(ステップS213)。
指標値が閾値よりも大きくないと判断部186が判断した場合、判断部186は、ステップS206において特定された位置が未観察であることを示す観察情報を生成する(ステップS214)。
ステップS214の後、表示制御部182は、観察情報のグラフィック画像信号を生成する。その後、ステップS213と同様の処理が実行され、表示部5は、観察情報を3Dモデル上に表示する。これにより、表示部5は、ステップS206において特定された位置が未観察であることをユーザーに通知する(ステップS215)。
図16は、ステップS215において表示部5に表示される画像の例を示す。図13に示す画像と同様に、3DモデルM11が表示部5に表示され、注目領域R11および注目領域R12が3DモデルM11上に表示される。さらに、観察済みの領域R13が3DモデルM11上に表示される。領域R13は、観察情報に対応する。例えば、領域R13は、注目領域R11および注目領域R12の各々と異なる色で表示される。3DモデルM11において領域R13以外の領域は、未観察である。ユーザーが3DモデルM11を視認できるように領域R13が半透明に表示されてもよい。ユーザーが観察済みの領域と未観察の領域とを区別できる限り、どのような表示方法が使用されてもよい。
観察情報は検査画像に重畳されてもよい。図17は、ステップS215において表示部5に表示される検査画像の例を示す。検査画像I31が表示部5に表示され、かつ注目領域R31が検査画像I31上に表示される。さらに、観察済みの領域R32および領域R33が検査画像I31上に表示される。領域R32および領域R33は、観察情報に対応する。検査画像I31において領域R32および領域R33以外の領域は、未観察である。
ステップS213またはステップS215の後、メイン制御部180は、ステップS206からステップS210までの処理が、処理対象である全ての画素に対して実行されたか否かを判断する(ステップS216)。一部の画素に対して処理が実行されていないとメイン制御部180が判断した場合、ステップS206が実行される。
ステップS207において3Dモデル上の位置が観察済みであると判断された場合、その位置が観察済みであるか否かを判断するための処理は実行されずにステップS213が実行される。3Dモデル上の位置が観察済みであると判断された後、その位置が未観察であると判断されることはない。新たな検査画像が処理されるとき、その位置が観察済みであるという設定が継続する。ステップS207は、ステップS214が実行される前の任意のタイミングで実行されてもよい。
上記の例では、指標値が1画素毎に算出され、かつ観察情報が1画素毎に生成される。指標値が複数画素毎に算出され、かつ観察情報が複数画素毎に生成されてもよい。上記の処理を実行する画素は間引かれてもよい。視野の端部における画素では上記の処理が省略されてもよい。
全ての画素に対して処理が実行されたとメイン制御部180が判断した場合、メイン制御部180は、操作部4が検査の終了をユーザーから受け付けたか否かを判断する(ステップS217)。操作部4が検査の終了をユーザーから受け付けていないとメイン制御部180が判断した場合、ステップS203が実行される。操作部4が検査の終了をユーザーから受け付けたとメイン制御部180が判断した場合、検査が終了する。
CPU18aが実行する処理の順番は、図11および図12に示す順番に限らない。例えば、ステップS205においてカメラの位置および姿勢が推定された後、ステップS204において検査画像が表示されてもよい。
本発明の各態様の観察装置の作動方法は、画像表示ステップ、推定ステップ、特定ステップ、判断ステップ、および観察情報表示ステップを有する。表示制御部182は、画像表示ステップ(ステップS204)において、観察対象内の被写体の画像を表示部5に表示する。カメラ位置姿勢推定部184は、推定ステップ(ステップS205)において、撮像素子28が画像を取得したときの撮像素子28の位置および撮像素子28の姿勢を推定する。位置特定部185は、特定ステップ(ステップS206)において、画像の画素に対応する3Dモデル上の位置を、推定ステップにおいて推定された位置および姿勢に基づいて特定する。判断部186は、判断ステップ(ステップS211)において、3Dモデル上の位置を含む注目領域(第1の領域)または通常領域(第2の領域)に設定された撮像条件が満たされるか否かを判断する。表示制御部182は、観察情報表示ステップ(ステップS213およびステップS215)において、判断部186によって実行された判断の結果に基づいて観察情報を表示部5に表示する。観察情報は、3Dモデル上の位置を含む注目領域または通常領域が観察済みであるか否かを示す。
撮像条件が満たされると判断部186が判断した場合、表示制御部182は、観察情報表示ステップ(ステップS213)において、撮像条件が満たされることを示す観察情報を表示部5に表示する。一方、撮像条件が満たされないと判断部186が判断した場合、表示制御部182は、観察情報表示ステップ(ステップS215)において、3Dモデル上の位置を含む注目領域または通常領域が未観察であることを示す観察情報を表示部5に表示してもよい。
第1の実施形態において、注目領域に適した撮像条件が満たされたとき、注目領域は観察済みであると判断される。内視鏡装置1は、被写体の領域が観察済みであるか否かを各領域の基準に基づいて判断することができる。判断の結果は可視化されるため、内視鏡装置1は、信頼性の高い観察支援機能をユーザーに提供することができる。
(第1の実施形態の第1の変形例)
本発明の第1の実施形態の第1の変形例を説明する。第1の実施形態においてPC41は、図5に示す処理を実行する。第1の実施形態の第1の変形例において内視鏡装置1のCPU18aは、PC41のCPU43の機能の少なくとも一部を有する。内視鏡装置1のCPU18aは、図5および図10に示す処理の少なくとも一部を実行する。
例えば、内視鏡装置1のCPU18aは、CPU43の条件設定部437と同様の条件設定部(撮像条件設定部)を有してもよい。CPU18aの条件設定部は、撮像条件設定ステップ(ステップS107)において、撮像条件を注目領域および通常領域の各々に設定する。
内視鏡装置1のCPU18aは、CPU43の領域受付部434と同様の領域受付部を有してもよい。CPU18aの領域受付部は、領域設定ステップ(ステップS105)において、注目領域および通常領域を3Dモデルに設定する。撮像条件設定ステップが実行される前に領域設定ステップが実行される。
内視鏡装置1のCPU18aは、CPU43の3Dモデル生成部432と同様の3Dモデル生成部(処理部)を有してもよい。CPU18aの3Dモデル生成部は、特徴点検出ステップ(ステップS103a)において、撮像素子28によって取得された複数の画像の各々における特徴点を検出する。CPU18aの3Dモデル生成部は、対応付けステップ(ステップS103b)において、複数の画像の各々における特徴点を互いに対応付ける。CPU18aの3Dモデル生成部は、算出ステップ(ステップS103c)において、特徴点に基づいて撮像素子28の位置および撮像素子28の姿勢を算出する。CPU18aの3Dモデル生成部は、生成ステップ(ステップS103d)において、撮像素子28の位置および撮像素子28の姿勢に基づいて3Dモデルを生成する。領域設定ステップが実行される前に、特徴点検出ステップ、対応付けステップ、算出ステップ、および生成ステップが実行される。
(第1の実施形態の第2の変形例)
本発明の第1の実施形態の第2の変形例を説明する。第1の実施形態においてユーザーが注目領域を指定する場合について説明した。本発明は、ユーザーによって指定された注目領域が設定される場合に限らない。PC41または内視鏡装置1が画像内の注目領域を自動的に検出し、かつ検出された注目領域を3Dモデルに設定してもよい。
第1の実施形態においてユーザーが撮像条件を指定する場合について説明した。本発明は、ユーザーによって指定された撮像条件が設定される場合に限らない。PC41または内視鏡装置1が撮像条件を自動的に生成し、かつ生成された撮像条件を3Dモデルに設定してもよい。
図3に示すPC41は、図18に示すPC41aに変更される。図18は、PC41aの機能構成を示す。図3に示す構成と同じ構成の説明を省略する。
図3に示すCPU43は、CPU43aに変更される。動画選択部430、条件受付部431、3Dモデル生成部432、表示制御部433、領域検出部438、指標生成部439、閾値生成部440、および条件設定部437によってCPU43aの機能が構成されている。図18に示すCPU43a内のブロックの少なくとも1つがCPU43aとは別の回路で構成されてもよい。
CPU43a内の各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。CPU43a内の各部は、1つまたは複数のプロセッサを含むことができる。CPU43a内の各部は、1つまたは複数の論理回路を含むことができる。
領域検出部438は、撮像素子28によって取得された画像に基づいて注目領域および通常領域を自動的に検出する。例えば、領域検出部438は、機械学習などの技術手段を使用することにより、注目領域を検出する。領域検出部438は、検出された領域を注目領域に分類し、かつその領域以外の領域を通常領域に分類する。領域検出部438は、3Dモデル生成部432によって生成された3Dモデルに注目領域および通常領域を設定する。領域検出部438が設定した各領域は、メモリ47に記憶される。
領域検出部438が注目領域および通常領域を検出する処理において、ユーザーからの注目領域および通常領域を示す情報の入力は受け付けられない。したがって、ユーザーは、操作部4を操作したとしても、各領域を指定する情報を操作部4に入力することはできない。
指標生成部439は、撮像素子28によって取得された画像に基づいて指標を自動で生成する。具体的には、指標生成部439は、検査画像内の注目領域に写っている被写体の種類を特定する。例えば、被写体の種類は、クーリングホール、エッジ、または配管の溶接跡などである。指標生成部439は、特定された被写体の種類に適した指標を生成する。閾値生成部440は、指標生成部439によって生成された指標の閾値を自動で生成する。
指標生成部439が指標を生成する処理および閾値生成部440が閾値を生成する処理において、ユーザーからの撮像条件の入力は受け付けられない。したがって、ユーザーは、操作部4を操作したとしても、指標および閾値を指定する情報を操作部4に入力することはできない。
図19は、PC41aが実行する処理の手順を示す。図5に示す処理と同じ処理の説明を省略する。以下では、ステップS101で選択された検査動画に含まれる検査画像が使用される例を説明する。以下で説明する処理が実行されるとき、動画および静止画のどちらが使用されてもよい。
ステップS104の後、領域検出部438は、注目領域を検出する。領域検出部438は、注目領域以外の領域を通常領域に分類する。領域検出部438は、生成された3Dモデルに注目領域および通常領域を設定する(ステップS111)。
例えば、領域検出部438は、過去にユーザーが計測に使用した画像の全部または一部の領域と類似する領域を検査画像から検出する。あるいは、領域検出部438は、画像あるいは画像中の特定の位置にユーザーが検査記録として埋め込んだアノテーション(メタデータ)が存在する領域を検査画像から検出する。あるいは、領域検出部438は、ユーザーが検査画像上で指定した領域と類似する領域を、領域設定のために用意された他の検査画像から検出する。
機械学習を使用することにより注目領域を設定する手順の具体例を説明する。注目領域として検出すべき領域が定義される。その領域は、計測画像において実際に計測が実行された領域、又は、アノテーションが付与された領域である。ユーザーは、過去の検査に基づいて計測画像を管理している。計測画像が機械学習の注目領域として検出すべき正解付き教師データとしてPC41aに入力される。領域検出部438は、教師データを使用して注目領域を学習する。ある検査画像がPC41aに入力されたとき、領域検出部438は、注目領域の検出を実行する。その検査画像に写っている被写体に注目領域が存在すれば、領域検出部438は、その注目領域を出力できる。
領域検出部438は、注目領域が存在するか否かの単純な判断よりも複雑な処理を実行してもよい。例えば、領域検出部438は、検出された注目領域の種類を分類してもよい。領域検出部438は、検出された注目領域を、ブレードのエッジ部分に存在する欠陥またはクーリングホールに存在する欠陥などに分類することができる。このような方法により、領域検出部438は、ユーザーからの指示によらず、注目領域を自動的に設定することができる。
ステップS111の後、指標生成部439は、注目領域および通常領域の各々の指標を自動で生成する。閾値生成部440は、各領域の指標の閾値を生成する(ステップS112)。ステップS112の後、ステップS107が実行される。
例えば、指標生成部439は、画像処理を実行することにより、注目領域に写っている被写体の種類を分類する。指標生成部439は、領域検出部438によって分類された被写体の種類を使用してもよい。指標および閾値が被写体の種類毎にメモリ47に事前に記憶されている。指標生成部439は、被写体の種類に対応する指標をメモリ47から読み出す。この指標は、注目領域に設定される指標である。閾値生成部440は、被写体の種類に対応する閾値をメモリ47から読み出す。この閾値は、注目領域に設定される閾値である。
注目領域の指標および閾値と同様に、通常領域の指標および閾値がメモリ47に事前に記憶されている。指標生成部439は通常領域の指標をメモリ47から読み出し、かつ閾値生成部440は通常領域の閾値をメモリ47から読み出す。
内視鏡装置1のCPU18aは、PC41aのCPU43aの機能の少なくとも一部を有してもよい。内視鏡装置1のCPU18aは、図19に示す処理の少なくとも一部を実行してもよい。
例えば、内視鏡装置1のCPU18aは、CPU43aの領域検出部438と同様の領域検出部を有してもよい。内視鏡装置1のCPU18aは、CPU43aの指標生成部439と同様の指標生成部を有してもよい。内視鏡装置1のCPU18aは、CPU43aの閾値生成部440と同様の閾値生成部を有してもよい。
第1の実施形態の第2の変形例において、注目領域および撮像条件が自動的に設定される。そのため、ユーザーの負荷が軽減される。
(第2の実施形態)
本発明の第2の実施形態を説明する。第2の実施形態の内視鏡装置1は、第1の実施形態における機能に加えて、以下で説明する3つの機能を有する。3つの機能は、ユーザーが検査対象を検査するときに役立つ。内視鏡装置1は、3つの機能を同時に有している必要はない。内視鏡装置1が以下の3つの機能のうち1つまたは2つのみを有している場合も本発明の範囲に含まれる。
注目領域または通常領域が未観察であると判断された場合、内視鏡装置1は、未観察であると判断された原因をユーザーに通知する(第1の機能)。未観察であると判断された3Dモデル上の位置が撮像素子28の視野の後ろ側にある場合、内視鏡装置1は、未観察である注目領域または通常領域が存在することをユーザーに通知する(第2の機能)。内視鏡装置1は、観察済みである注目領域が写っている検査画像を自動で記録する(第3の機能)。
図4に示すCPU18aは、図20に示すCPU18bに変更される。図20は、CPU18bの機能構成を示す。図4に示す構成と同じ構成の説明を省略する。
メイン制御部180、画像取得部181、表示制御部182、3Dモデル選択部183、カメラ位置姿勢推定部184、位置特定部185、判断部186、および記録部187によってCPU18bの機能が構成されている。図20に示すブロックの少なくとも1つがCPU18bとは別の回路で構成されてもよい。
図20に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図20に示す各部は、1つまたは複数のプロセッサを含むことができる。図20に示す各部は、1つまたは複数の論理回路を含むことができる。
撮像条件は、複数の条件を含む。したがって、撮像条件は、複数の指標と、各指標の閾値とを含む。複数の条件に含まれる少なくとも1つの条件が満たされないと判断部186が判断した場合に、表示制御部182は、その少なくとも1つの条件を示す条件情報を表示部5に表示する。これにより、表示部5は、3Dモデル上の位置が未観察であると判断された原因である少なくとも1つの条件をユーザーに通知する。
RAM14は、撮像条件が満たされないと判断された3Dモデル上の位置である未観察位置を記憶する。未観察位置が撮像素子28の視野の後ろ側にある場合に、表示制御部182は、未観察位置を含む注目領域または通常領域があることを示す第1の通知情報を表示部5に表示する。撮像素子28の視野の後ろ側にある位置は、その視野内にない。撮像素子28の視野の後ろ側にある位置は、3Dモデルにおいてその視野内の位置よりも視点側に存在する位置である。
例えば、第1の検査画像に対応する3Dモデル上の位置が特定され、かつその位置が未観察であると判断される。その位置はRAM14に記憶される。第1の検査画像が取得された後、第2の検査画像が取得される。第2の検査画像が取得されたときの撮像素子28の視野の後ろ側に未観察位置がある場合、表示制御部182は、第1の通知情報を表示部5に表示する。
注目領域に設定された撮像条件が満たされると判断部186が判断した場合に、記録部187は、3Dモデル上の注目領域に対応する領域が写っている検査画像を記録する。例えば、記録部187は、その検査画像をメモリカード42に記録する。したがって、観察済みである注目領域が写っている検査画像が記録される。
図12に示す処理は、図21に示す処理に変更される。図21を参照し、検査中に実行される処理の手順を説明する。図21は、CPU18bが実行する処理の手順を示す。図12に示す処理と同じ処理の説明を省略する。
ステップS211において指標値が閾値よりも大きくないと判断部186が判断した場合、未観察位置が存在する。その場合、ステップS215において、3Dモデル上の位置が未観察であることがユーザーに通知される。
ステップS215の後、判断部186は、ステップS211において指標値が閾値を超えなかった指標を表示制御部182に通知する。表示制御部182は、未観察位置をその指標に対応する色で表示するためのグラフィック画像信号を生成する。その後、映像信号処理回路12は、グラフィック画像信号と映像信号とを合成し、かつ合成された映像信号を表示部5に出力する。表示部5は、未観察位置を所定の色で3Dモデル上に表示する。未観察位置は、所定の指標に対応する色で表示される。その色は条件情報に対応する。これにより、表示部5は、3Dモデル上の位置が未観察であると判断された原因をユーザーに通知する(ステップS221)。ステップS221の後、ステップS216が実行される。
図22を参照し、ステップS221の詳細を説明する。図22は、3Dモデル上の位置が未観察であると判断された原因をユーザーに通知する方法を示す。3DモデルMO41は、管状である。3DモデルMO41の中心軸を通る断面が図22に示されている。挿入部2が3DモデルMO41に仮想的に挿入された状態が図22に示されている。
領域R41は、判断部186によって観察済みであると判断された領域である。領域R42は、図6の指標Aの値が閾値を超えず、かつ判断部186によって未観察であると判断された領域である。領域R43は、図6の指標Bの値が閾値を超えず、かつ判断部186によって未観察であると判断された領域である。
第1の実施形態において表示部5は、領域R42および領域R43が未観察であることを示す観察情報を表示する。第1の実施形態において、領域R42および領域R43は領域R41と異なる色で表示される。そのため、ユーザーは、領域R42および領域R43が未観察であることを知ることができる。第1の実施形態において、領域R42の色と領域R43の色とは同じである。そのため、ユーザーは、なぜ領域R42および領域R43が未観察であると判断されたのかを知ることはできない。ユーザーは、観察対象が再度観察されるときにその観察対象がどのような条件で観察されるべきであるのかを判断することができない。
第2の実施形態において、領域R42は、指標Aに割り当てられた色で表示され、かつ領域R43は、指標Bに割り当てられた色で表示される。指標Aおよび指標Bの各々に割り当てられた色は、観察済みであると判断された領域を表示するための色と異なる。ユーザーは、領域が未観察であると判断された原因を知ることができる。その領域が再度観察されるとき、ユーザーは、その原因に注意して被写体を観察することができる。
閾値を超えなかった指標を示す文字等が表示部5に表示されてもよい。領域が未観察であると判断された原因をユーザーが認識できる限り、どのような通知方法が使用されてもよい。
ステップS216において全ての画素に対して処理が実行されたとメイン制御部180が判断した場合、判断部186は、未観察位置が撮像素子28の視野の後ろ側にあるか否かを判断する(ステップS222)。未観察位置が撮像素子28の視野の後ろ側にない場合、ステップS224が実行される。
未観察位置が撮像素子28の視野の後ろ側にある場合、表示制御部182は、未観察位置を含む領域があることを示す第1の通知情報を表示するためのグラフィック画像信号を生成する。その後、映像信号処理回路12は、グラフィック画像信号と映像信号とを合成し、かつ合成された映像信号を表示部5に出力する。表示部5は、第1の通知情報を3Dモデル上に表示する。第1の通知情報は文字等である。これにより、表示部5は、未観察位置を含む領域が撮像素子28の視野の後ろ側にあることをユーザーに通知する(ステップS223)。
未観察位置を含む領域があることが音声でユーザーに通知されてもよい。未観察位置を含む領域があることをユーザーが認識できる限り、どのような表示方法が使用されてもよい。
ステップS211において、3Dモデル上の位置が観察済みであるか否かが判断される。3Dモデル上の位置が未観察と判断された場合、ステップS214において、その位置が未観察であることを示す情報がその位置に設定される。判断部186は、ステップS222において、その情報が設定された位置が3Dモデル上に存在するか否かを判断する。その位置が存在する場合、判断部186は、その位置が未観察位置であると判断する。さらに、判断部186は、ステップS222において、未観察位置が撮像素子28の視野の後ろ側にあるか否かを判断する。
図23を参照し、ステップS222の詳細を説明する。図23は、撮像素子28の視野の後ろ側にある未観察位置を検出する方法を示す。3DモデルMO51は、管状である。3DモデルMO51の中心軸を通る断面が図23に示されている。領域R51は、判断部186によって観察済みであると判断された領域である。位置P51は、第1の検査画像に基づいて推定されたカメラの位置である。位置P52は、第1の検査画像の次に取得された第2の検査画像に基づいて推定されたカメラの位置である。位置P52がカメラの現在位置である。動きベクトルV51は、位置P51と位置P52との間の動きを示す。
位置P51および位置P52が推定された場合、動きベクトルV51が算出できる。動きベクトルV51は、カメラの進行方向を示す。線L51および線L52は、撮像素子28の視野の両端を通る視線を示す。カメラが位置P51にあるときに取得された第1の検査画像が処理されたとき、領域R52は未観察であると判断される。カメラが位置P52にあるときに取得された第2の検査画像が処理されたときにも、領域R52は未観察であると判断される。カメラが位置P52にあるとき、領域R52aは撮像素子28の視野から外れている。領域R52aは、領域R52の一部である。領域R52aは、未観察であり、かつ撮像素子28の視野の後ろ側にある。
カメラが動きベクトルV51の方向に進行し続ける場合、ユーザーが検査対象の観察機会を見逃す可能性がある。そのため、ステップS223において、未観察位置を含む領域があることがユーザーに通知される。
ステップS223の後、判断部186は、観察済みである注目領域が検査画像に写っているか否かを判断する。また、判断部186は、その注目領域を含む検査画像が記録されたか否かを判断する(ステップS224)。観察済みである注目領域が検査画像に写っていないと判断部186が判断した場合、ステップS217が実行される。あるいは、観察済みである注目領域を含む検査画像が記録されたと判断部186が判断した場合、ステップS217が実行される。
観察済みである注目領域が検査画像に写っていると判断部186が判断し、かつその注目領域を含む検査画像が記録されていないと判断部186が判断した場合、記録部187は、その検査画像を記録する(ステップS225)。これにより、ユーザーが注目領域を観察したという証拠が残る。ステップS225の後、ステップS217が実行される。
動画と静止画とのどちらが記録されてもよい。動画が記録される場合、注目領域がフレームインしてからフレームアウトするまでの動画が記録されてもよい。静止画が記録される場合、注目領域が視野内で最も大きく写っている静止画が記録されてもよい。あるいは、カバー率が最大である静止画が記録されてもよい。カバー率は、第1の面積に対する第2の面積の割合として定義される。第1の面積は、定義された注目領域の全体の面積である。第2の面積は、検査画像に写っている注目領域の面積である。1枚の静止画のみが記録される必要はない。複数枚の静止画が記録されてもよい。
表示制御部182は、ステップS221において、未観察位置を検査画像上に表示してもよい。表示制御部182は、ステップS223において、未観察位置を含む領域があることを示す第1の通知情報を検査画像上に表示してもよい。
通常領域に設定された撮像条件が満たされると判断部186が判断した場合に、記録部187は、3Dモデル上の通常領域に対応する領域が写っている検査画像を記録してもよい。
本発明の各態様の観察装置の作動方法は、条件情報表示ステップを有してもよい。撮像条件は、複数の条件を含む。少なくとも1つの条件が満たされないと判断部186が判断した場合に、表示制御部182は、条件情報表示ステップ(ステップS221)において、その少なくとも1つの条件を示す条件情報を表示部5に表示する。
本発明の各態様の観察装置の作動方法は、第1の通知情報表示ステップを有してもよい。未観察位置が撮像素子28の視野の後ろ側にある場合に、表示制御部182は、第1の通知情報表示ステップ(ステップS223)において、未観察位置を含む領域があることを示す第1の通知情報を表示部5に表示する。
本発明の各態様の観察装置の作動方法は、記録ステップを有してもよい。注目領域に設定された撮像条件が満たされると判断部186が判断した場合に、記録部187は、記録ステップ(ステップS225)において、その注目領域に対応する領域が写っている検査画像を記録する。
第2の実施形態において、内視鏡装置1は以下の3つの機能を提供する。内視鏡装置1は、未観察であると判断された原因をユーザーに通知する。内視鏡装置1は、未観察である領域が撮像素子28の視野の後ろ側に存在することをユーザーに通知する。内視鏡装置1は、観察済みである注目領域が写っている検査画像を記録する。これらの機能が付加されるため、検査時間の短縮が期待できる。また、内視鏡装置1は、より信頼性の高い観察支援機能をユーザーに提供することができる。
(第3の実施形態)
本発明の第3の実施形態を説明する。第1の実施形態において、2つの状態が判別される。第1の状態は、領域が観察済みであるという状態である。第2の状態は、領域が未観察であるという状態である。第3の実施形態において、領域が観察済みである度合いに応じた信頼度が算出される。信頼度は、2つ以上の状態のいずれか1つを表すことができる。
第3の実施形態の内視鏡装置1は、図4に示すCPU18aを有する。判断部186は、注目領域または通常領域に設定された撮像条件が満たされる度合いを示す信頼度(評価値)を算出する。表示制御部182は、信頼度を観察情報として表示部5に表示する。観察情報は、3Dモデル上の位置を含む注目領域または通常領域が観察済みであるか否かを示す。
判断部186は、信頼度と閾値とを比較することにより撮像条件が満たされるか否かを判断する。この閾値は、指標値の判断に使用される閾値と同じであるとは限らない。撮像条件が満たされないと判断部186が判断した場合に、表示制御部182は、3Dモデル上の位置を含む注目領域または通常領域が観察済みではないことを示す第2の通知情報を表示部5に表示する。
図11に示す処理は、図24に示す処理に変更される。図12に示す処理は、図25に示す処理に変更される。図24および図25を参照し、検査中に実行される処理の手順を説明する。図24および図25は、CPU18aが実行する処理の手順を示す。図24および図25に示す処理と同じ処理の説明を省略する。
ステップS206の後、ステップS208が実行される。図11に示すステップS207は実行されない。
ステップS209の後、判断部186は、ステップS209において算出された指標値と、ステップS208において読み出された閾値とに基づいて、信頼度を算出する(ステップS231)。ユーザーが3Dモデル上の位置を含む領域を観察できた可能性が高いほどその位置の信頼度が高くなるように信頼度は定義される。3Dモデル上の位置の信頼度が高い場合、ユーザーがその位置を含む領域を観察できた可能性は高い。3Dモデル上の位置の信頼度が低い場合、ユーザーがその位置を含む領域を観察できた可能性は低い。例えば、信頼度は0%から100%の範囲における値を持つ。信頼度が100%である場合、注目領域または通常領域は観察済みである。
例えば、判断部186は、以下の式(4)を使用することにより信頼度を算出する。
Figure 0007116925000003
式(4)において、ある時刻tにおける信頼度はEと表され、i番目の指標に付加される重みはWと表される。式(4)において、i番目の指標の値はeと表され、i番目の指標の閾値はThと表される。判断部186は、時刻tにおける3Dモデル上の各位置の信頼度を算出する。検査が終了するまで、判断部186は、各位置の信頼度を繰り返し算出する。
検査の開始から検査の終了までに信頼度Eの最大値が更新された場合、その値はRAM14に記憶される。検査対象の1点に着目した例を説明する。挿入部2の先端20が第1の位置から第2の位置に移動し、さらの第3の位置に移動することを想定する。第1の位置および第3の位置は、検査対象の1点から遠い。第2の位置は、検査対象の1点に近い。挿入部2の先端20がこのように移動した場合、信頼度の最大値が保持される。信頼度の値が低い値に更新されることは回避される。判断部186は、各時刻における信頼度の総和を3Dモデル上の位置毎に算出してもよい。その総和が最終的な信頼度として定義されてもよい。
ステップS231の後、表示制御部182は、信頼度を表示するためのグラフィック画像信号を生成する。その後、映像信号処理回路12は、グラフィック画像信号と映像信号とを合成し、かつ合成された映像信号を表示部5に出力する。表示部5は、観察情報を検査画像上に表示する。注目領域および通常領域の各々は、各領域の信頼度に対応する色で表示される。その色は観察情報に対応する。これにより、表示部5は、ステップS206において特定された位置の信頼度をユーザーに通知する(ステップS232)。ステップS232の後、ステップS216が実行される。
図26は、ステップS232において表示部5に表示される検査画像の例を示す。検査画像I41が表示部5に表示される。さらに、注目領域および通常領域の各々が、各領域の信頼度に対応する色で表示される。信頼度が検査画像上に表示されている間、被写体の模様が見えにくい可能性がある。そのため、内視鏡装置1は、ユーザーからの指示に基づいて信頼度の表示のオンとオフとを切り替える機能を有してもよい。第2の通知情報が検査画像に重畳される必要はない。ユーザーが信頼度を認識できる限り、どのような表示方法が使用されてもよい。
ステップS217において操作部4が検査の終了をユーザーから受け付けたとメイン制御部180が判断した場合、判断部186は、適正な検査が実行できたか否かを判断する(ステップS233)。例えば、判断部186は、注目領域または通常領域に含まれる各位置の信頼度の代表値を算出する。代表値は、注目領域または通常領域に含まれる各位置の信頼度の平均値、中央値、または最大値等である。代表値が注目領域または通常領域に含まれる位置の信頼度に基づいて算出される限り、代表値はどのような値であってもよい。判断部186は、算出された値と閾値とを比較する。例えば、信頼度の閾値を設定する方法は、指標の閾値を設定する方法と同様である。
全ての注目領域において代表値が閾値よりも大きい場合、判断部186は、適正な検査が実行できたと判断する。代表値が閾値よりも大きくない注目領域が存在する場合、判断部186は、適正な検査が実行できなかったと判断する。
信頼度の閾値は、領域毎に用意されてもよい。例えば、注目領域の信頼度の閾値は100%であり、かつ通常領域の信頼度の閾値は80%であってもよい。注目領域の信頼度の閾値と通常領域の信頼度の閾値とが同じであってもよい。例えば、全ての領域の信頼度の閾値が80%であってもよい。適正な検査が実行できたか否かを判断する方法は、上記の方法に限らない。適正な検査が実行できたか否かを判断できる限り、どのような方法が使用されてもよい。
適正な検査が実行できたと判断部186が判断した場合、図25に示す処理が終了する。適正な検査が実行できなかったと判断部186が判断した場合、判断部186は、再度検査すべき領域の情報を表示制御部182に通知する。その領域の信頼度の代表値は、閾値よりも大きくない。表示制御部182は、その領域を示す第2の通知情報を表示するためのグラフィック画像信号を生成する。その後、映像信号処理回路12は、グラフィック画像信号と映像信号とを合成し、かつ合成された映像信号を表示部5に出力する。表示部5は、第2の通知情報を検査画像上に表示する。これにより、表示部5は、再度検査すべき領域をユーザーに通知する(ステップS234)。ステップS234が実行されたとき、図25に示す処理が終了する。
例えば、再度検査すべき領域が、適正な検査が実行できた領域と異なる色で表示される。適正な検査が実行できた領域は表示されず、再度検査すべき領域のみが表示されてもよい。再度検査すべき領域をユーザーが認識できる限り、どのような表示方法が使用されてもよい。
表示制御部182は、ステップS232において、信頼度を3Dモデル上に表示してもよい。表示制御部182は、ステップS234において、第2の通知情報を3Dモデル上に表示してもよい。
上記のように、判断部186は、判断ステップ(ステップS231)において、注目領域または通常領域に設定された撮像条件が満たされる度合いを示す信頼度を算出する。表示制御部182は、観察情報表示ステップ(ステップS232)において、信頼度を観察情報として表示部5に表示する。
上記のように、判断部186は、判断ステップ(ステップS233)において、信頼度と閾値とを比較することにより撮像条件が満たされるか否かを判断する。本発明の各態様の観察装置の作動方法は、第2の通知情報表示ステップをさらに有してもよい。撮像条件が満たされないと判断部186が判断した場合に、表示制御部182は、第2の通知情報表示ステップ(ステップS234)において、3Dモデル上の位置を含む注目領域または通常領域が観察済みではないことを示す第2の通知情報を表示部5に表示する。
第3の実施形態において、信頼度が算出され、かつ表示される。信頼度は、領域が観察済みである度合いを示す2つ以上の値のいずれか1つを持つ。そのため、内視鏡装置1は、十分に観察された領域と、十分に観察されていない領域とを正確にユーザーに通知することができる。
内視鏡装置1は、適正な検査が実行できたか否かを自動的に判断する。適正な検査が実行できたと内視鏡装置1が判断した場合、ユーザーは、検査の完了をクライアントまたは上司等に安心して報告することができる。適正な検査が実行できなかったと内視鏡装置1が判断した場合、内視鏡装置1は、再度検査すべき領域をユーザーに通知する。そのため、ユーザーは、再検査を迅速に開始することができる。
以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
1 内視鏡装置
2 挿入部
3 本体部
4,44 操作部
5,45 表示部
8 内視鏡ユニット
9 CCU
10 制御装置
12 映像信号処理回路
13 ROM
14 RAM
15 カードインタフェース
16 外部機器インタフェース
17 制御インタフェース
18a,18b,43,43a CPU
20 先端
28 撮像素子
41,41a PC
42 メモリカード
46 通信部
47 メモリ
180 メイン制御部
181 画像取得部
182,433 表示制御部
183 3Dモデル選択部
184 カメラ位置姿勢推定部
185 位置特定部
186 判断部
187 記録部
430 動画選択部
431 条件受付部
432 3Dモデル生成部
434 領域受付部
435 指標受付部
436 閾値受付部
437 条件設定部
438 領域検出部
439 指標生成部
440 閾値生成部

Claims (16)

  1. 観察装置の作動方法であって、
    前記観察装置は、
    観察対象内の被写体の画像を取得する撮像素子を有し、かつ前記観察対象に挿入される挿入部と、
    前記被写体の3次元モデルの一部である第1の領域と、前記3次元モデルにおいて前記第1の領域以外の第2の領域との各々に設定された撮像条件を記憶し、前記第1の領域の前記撮像条件と前記第2の領域の前記撮像条件とは、互いに異なる記憶媒体と、
    推定部と、
    特定部と、
    判断部と、
    表示制御部と、
    を有し、
    前記作動方法は、
    前記表示制御部が前記画像を表示部に表示する画像表示ステップと、
    前記撮像素子が前記画像を取得したときの前記撮像素子の位置および前記撮像素子の姿勢を前記推定部が推定する推定ステップと、
    前記画像の画素に対応する前記3次元モデル上の位置を前記特定部が前記推定ステップにおいて推定された前記位置および前記姿勢に基づいて特定する特定ステップと、
    前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域に設定された前記撮像条件が満たされるか否かを前記判断部が判断する判断ステップと、
    前記判断部によって実行された判断の結果に基づいて観察情報を前記表示制御部が前記表示部に表示し、前記観察情報は、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みであるか否かを示す観察情報表示ステップと、
    を有することを特徴とする観察装置の作動方法。
  2. 前記観察装置は、撮像条件設定部をさらに有し、
    前記作動方法は、前記撮像条件設定部が前記撮像条件を前記第1の領域および前記第2の領域の各々に設定する撮像条件設定ステップをさらに有する
    ことを特徴とする請求項1に記載の観察装置の作動方法。
  3. 前記観察装置は、領域設定部をさらに有し、
    前記作動方法は、前記領域設定部が前記第1の領域および前記第2の領域を前記3次元モデルに設定する領域設定ステップをさらに有する
    ことを特徴とする請求項1または請求項2に記載の観察装置の作動方法。
  4. 前記観察装置は、処理部をさらに有し、
    前記作動方法は、
    前記撮像素子によって取得された複数の画像の各々における特徴点を前記処理部が検出する特徴点検出ステップと、
    前記複数の画像の各々における前記特徴点を前記処理部が互いに対応付ける対応付けステップと、
    前記特徴点に基づいて前記撮像素子の位置および前記撮像素子の姿勢を前記処理部が算出する算出ステップと、
    前記算出ステップにおいて算出された前記位置および前記姿勢に基づいて前記3次元モデルを前記処理部が生成する生成ステップと、
    を有し、
    前記領域設定ステップが実行される前に、前記特徴点検出ステップ、前記対応付けステップ、前記算出ステップ、および前記生成ステップが実行される
    ことを特徴とする請求項3に記載の観察装置の作動方法。
  5. 前記撮像条件設定ステップにおいて、ユーザーからの前記撮像条件の入力は受け付けられない
    ことを特徴とする請求項2に記載の観察装置の作動方法。
  6. 前記領域設定ステップにおいて、ユーザーからの前記第1の領域および前記第2の領域を示す情報の入力は受け付けられない
    ことを特徴とする請求項3または請求項4に記載の観察装置の作動方法。
  7. 前記推定部は、前記推定ステップにおいて、少なくとも前記画像および前記3次元モデルに基づいて前記位置および前記姿勢を推定する
    ことを特徴とする請求項1から請求項6のいずれか一項に記載の観察装置の作動方法。
  8. 前記推定部は、前記推定ステップにおいて、前記画像のみに基づいて前記位置および前記姿勢を推定する
    ことを特徴とする請求項1から請求項6のいずれか一項に記載の観察装置の作動方法。
  9. 前記記憶媒体は、前記撮像条件が満たされないと判断された前記3次元モデル上の前記位置である未観察位置を記憶し、
    前記作動方法は、前記未観察位置が前記撮像素子の視野の後ろ側にある場合に、前記未観察位置を含む前記第1の領域または前記第2の領域があることを示す第1の通知情報を前記表示制御部が前記表示部に表示する第1の通知情報表示ステップをさらに有する
    ことを特徴とする請求項1から請求項8のいずれか一項に記載の観察装置の作動方法。
  10. 前記撮像条件は、複数の条件を含み、
    前記作動方法は、前記複数の条件に含まれる少なくとも1つの条件が満たされないと前記判断部が判断した場合に、前記表示制御部は、前記少なくとも1つの条件を示す条件情報を前記表示部に表示する条件情報表示ステップをさらに有する
    ことを特徴とする請求項1から請求項9のいずれか一項に記載の観察装置の作動方法。
  11. 前記観察装置は、記録部をさらに有し、
    前記作動方法は、前記第1の領域に設定された前記撮像条件が満たされると前記判断部が判断した場合に、前記第1の領域に対応する領域が写っている前記画像を前記記録部が記録する記録ステップをさらに有する
    ことを特徴とする請求項1から請求項10のいずれか一項に記載の観察装置の作動方法。
  12. 前記撮像条件が満たされると前記判断部が判断した場合、前記表示制御部は、前記観察情報表示ステップにおいて、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みであることを示す前記観察情報を前記表示部に表示する
    ことを特徴とする請求項1から請求項11のいずれか一項に記載の観察装置の作動方法。
  13. 前記判断部は、前記判断ステップにおいて、前記第1の領域または前記第2の領域に設定された前記撮像条件が満たされる度合いを示す評価値を算出し、
    前記表示制御部は、前記観察情報表示ステップにおいて、前記評価値を前記観察情報として前記表示部に表示する
    ことを特徴とする請求項1から請求項11のいずれか一項に記載の観察装置の作動方法。
  14. 前記判断部は、前記判断ステップにおいて、前記評価値と閾値とを比較することにより前記撮像条件が満たされるか否かを判断し、
    前記作動方法は、前記撮像条件が満たされないと前記判断部が判断した場合に、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みではないことを示す第2の通知情報を前記表示制御部が前記表示部に表示する第2の通知情報表示ステップをさらに有する
    ことを特徴とする請求項13に記載の観察装置の作動方法。
  15. 観察対象内の被写体の画像を取得する撮像素子を有し、かつ前記観察対象に挿入される挿入部と、
    前記被写体の3次元モデルの一部である第1の領域と、前記3次元モデルにおいて前記第1の領域以外の第2の領域との各々に設定された撮像条件を記憶し、前記第1の領域の前記撮像条件と前記第2の領域の前記撮像条件とは、互いに異なる記憶媒体と、
    前記画像を表示部に表示する表示制御部と、
    前記撮像素子が前記画像を取得したときの前記撮像素子の位置および前記撮像素子の姿勢を推定する推定部と、
    前記画像の画素に対応する前記3次元モデル上の位置を前記推定部によって推定された前記位置および前記姿勢に基づいて特定する特定部と、
    前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域に設定された前記撮像条件が満たされるか否かを判断する判断部と、
    を有し、
    前記判断部によって実行された判断の結果に基づいて観察情報を前記表示制御部が前記表示部に表示し、前記観察情報は、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みであるか否かを示す
    ことを特徴とする観察装置。
  16. 観察装置のコンピュータに、画像表示ステップ、推定ステップ、特定ステップ、判断ステップ、および観察情報表示ステップを実行させるためのプログラムであって、
    前記観察装置は、
    観察対象内の被写体の画像を取得する撮像素子を有し、かつ前記観察対象に挿入される挿入部と、
    前記被写体の3次元モデルの一部である第1の領域と、前記3次元モデルにおいて前記第1の領域以外の第2の領域との各々に設定された撮像条件を記憶し、前記第1の領域の前記撮像条件と前記第2の領域の前記撮像条件とは、互いに異なる記憶媒体と、
    を有し、
    前記コンピュータは、前記画像表示ステップにおいて、前記画像を表示部に表示し、
    前記コンピュータは、前記推定ステップにおいて、前記撮像素子が前記画像を取得したときの前記撮像素子の位置および前記撮像素子の姿勢を推定し、
    前記コンピュータは、前記特定ステップにおいて、前記画像の画素に対応する前記3次元モデル上の位置を前記推定ステップにおいて推定された前記位置および前記姿勢に基づいて特定し、
    前記コンピュータは、前記判断ステップにおいて、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域に設定された前記撮像条件が満たされるか否かを判断し、
    前記コンピュータは、前記観察情報表示ステップにおいて、前記判断ステップの結果に基づいて観察情報を前記表示部に表示し、前記観察情報は、前記3次元モデル上の前記位置を含む前記第1の領域または前記第2の領域が観察済みであるか否かを示す
    ことを特徴とするプログラム。
JP2019054976A 2019-03-22 2019-03-22 観察装置の作動方法、観察装置、およびプログラム Active JP7116925B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019054976A JP7116925B2 (ja) 2019-03-22 2019-03-22 観察装置の作動方法、観察装置、およびプログラム
US16/821,184 US11327292B2 (en) 2019-03-22 2020-03-17 Method of operating observation device, observation device, and recording medium
US17/713,442 US11650407B2 (en) 2019-03-22 2022-04-05 Method of operating observation device, observation device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019054976A JP7116925B2 (ja) 2019-03-22 2019-03-22 観察装置の作動方法、観察装置、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020154234A JP2020154234A (ja) 2020-09-24
JP7116925B2 true JP7116925B2 (ja) 2022-08-12

Family

ID=72515720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019054976A Active JP7116925B2 (ja) 2019-03-22 2019-03-22 観察装置の作動方法、観察装置、およびプログラム

Country Status (2)

Country Link
US (2) US11327292B2 (ja)
JP (1) JP7116925B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7513496B2 (ja) * 2020-10-30 2024-07-09 株式会社エビデント 画像表示方法、表示制御装置、およびプログラム
US11375141B1 (en) * 2021-02-09 2022-06-28 Arthrex, Inc. Endoscopic camera region of interest autoexposure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014079377A (ja) 2012-10-16 2014-05-08 Olympus Corp 観察装置、観察支援装置、観察支援方法及びプログラム
WO2016076262A1 (ja) 2014-11-11 2016-05-19 オリンパス株式会社 医療装置
WO2017122349A1 (ja) 2016-01-15 2017-07-20 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の作動方法
JP2018050890A (ja) 2016-09-28 2018-04-05 富士フイルム株式会社 画像表示装置及び画像表示方法並びにプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1691666B1 (en) * 2003-12-12 2012-05-30 University of Washington Catheterscope 3d guidance and interface system
WO2016072237A1 (ja) * 2014-11-06 2016-05-12 オリンパス株式会社 内視鏡システム
US9936151B2 (en) * 2015-10-16 2018-04-03 Capsovision Inc Single image sensor for capturing mixed structured-light images and regular images
US10543048B2 (en) * 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US11026747B2 (en) * 2017-04-25 2021-06-08 Biosense Webster (Israel) Ltd. Endoscopic view of invasive procedures in narrow passages
US11006852B2 (en) * 2017-12-11 2021-05-18 Covidien Lp Systems, methods, and computer-readable media of estimating thoracic cavity movement during respiration
US11503987B2 (en) * 2018-03-26 2022-11-22 Intuitive Surgical Operations, Inc. Plenoptic endoscope with fiber bundle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014079377A (ja) 2012-10-16 2014-05-08 Olympus Corp 観察装置、観察支援装置、観察支援方法及びプログラム
WO2016076262A1 (ja) 2014-11-11 2016-05-19 オリンパス株式会社 医療装置
WO2017122349A1 (ja) 2016-01-15 2017-07-20 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の作動方法
JP2018050890A (ja) 2016-09-28 2018-04-05 富士フイルム株式会社 画像表示装置及び画像表示方法並びにプログラム

Also Published As

Publication number Publication date
US11650407B2 (en) 2023-05-16
US20200301126A1 (en) 2020-09-24
JP2020154234A (ja) 2020-09-24
US11327292B2 (en) 2022-05-10
US20220229284A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
JP5073564B2 (ja) 計測用内視鏡装置およびプログラム
US10964044B2 (en) Method of operating measurement device, measurement device, and recording medium
US11941749B2 (en) Image display method, display control device, and recording medium for displaying shape image of subject and coordinates estimated from two-dimensional coordinates in reference image projected thereon
US11650407B2 (en) Method of operating observation device, observation device, and recording medium
JP2018197674A (ja) 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム
US10432916B2 (en) Measurement apparatus and operation method of measurement apparatus
JP5231173B2 (ja) 計測用内視鏡装置およびプログラム
JP7023196B2 (ja) 検査支援装置、方法およびプログラム
WO2022251022A1 (en) User-interface with navigational aids for endoscopy procedures
JP5307407B2 (ja) 内視鏡装置およびプログラム
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
JP7441934B2 (ja) 処理装置、内視鏡システム及び処理装置の作動方法
JP6081209B2 (ja) 内視鏡装置およびプログラム
JPWO2005091649A1 (ja) 単一の撮像装置で連続取得したビデオ映像による立体表示方法
JP2022172637A (ja) 画像処理方法、画像処理装置、およびプログラム
JP3041420B1 (ja) 内視鏡システムおよび内視鏡画像の奥行き情報検出用制御プログラムを記録した記録媒体
CN117710233B (zh) 一种内窥图像的景深扩展方法及装置
JP2023009838A (ja) 画像処理方法、画像処理装置、およびプログラム
JP6426215B2 (ja) 内視鏡装置およびプログラム
WO2021181448A1 (ja) 面推定方法、面推定装置、および記録媒体
JP2022159806A (ja) データ処理方法、データ処理装置、およびプログラム
JP5791989B2 (ja) 内視鏡装置およびプログラム
JP2014210194A (ja) 内視鏡装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220714

R150 Certificate of patent or registration of utility model

Ref document number: 7116925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150