JP2023142169A - 3次元データ生成方法、3次元データ生成システム、およびプログラム - Google Patents

3次元データ生成方法、3次元データ生成システム、およびプログラム Download PDF

Info

Publication number
JP2023142169A
JP2023142169A JP2022048909A JP2022048909A JP2023142169A JP 2023142169 A JP2023142169 A JP 2023142169A JP 2022048909 A JP2022048909 A JP 2022048909A JP 2022048909 A JP2022048909 A JP 2022048909A JP 2023142169 A JP2023142169 A JP 2023142169A
Authority
JP
Japan
Prior art keywords
area
region
image
data generation
turbine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022048909A
Other languages
English (en)
Inventor
陽平 坂本
Yohei Sakamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evident Co Ltd
Original Assignee
Evident Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Evident Co Ltd filed Critical Evident Co Ltd
Priority to JP2022048909A priority Critical patent/JP2023142169A/ja
Priority to US18/107,077 priority patent/US20230306584A1/en
Publication of JP2023142169A publication Critical patent/JP2023142169A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

【課題】タービンの内部の3次元形状を示す3次元データを生成する処理の信頼性を向上させる。【解決手段】3次元データ生成方法は、以下のステップを有する。プロセッサは、画像取得ステップにおいて、タービンの内部の構成要素の2枚以上の画像を取得する。前記プロセッサは、領域検出ステップにおいて、少なくとも2枚の画像における同一領域である2つ以上の対応領域を検出する。前記プロセッサは、領域判断ステップにおいて、各画像における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断する。前記プロセッサは、データ生成ステップにおいて、前記非変化領域であると判断された対応領域を使用せずに、前記変化領域であると判断された対応領域を使用することにより3次元データを生成する。【選択図】図7

Description

本発明は、タービンの内部の3次元形状を示す3次元データを生成する3次元データ生成方法、3次元データ生成システム、およびプログラムに関する。
工業用の内視鏡装置は、ボイラー、タービン、エンジン、およびパイプ等の産業機器の内部に発生する異常(傷および腐食等)の検査に使用されている。様々な被写体が工業用の内視鏡装置を使用する検査の対象である。航空機および発電設備において使用されているタービンは、工業用の内視鏡装置を使用する検査において特に重要な被写体である。
一般的に、工業用の内視鏡装置は、単眼光学アダプターおよび計測専用光学アダプターを使用する。単眼光学アダプターは、被写体の通常の観察のために使用される。計測専用光学アダプターは、被写体の3次元(3D)情報を復元するために使用される。例えば、計測専用光学アダプターは、2つの視野を持つステレオ光学アダプターである。工業用の内視鏡装置は、3D情報を使用することにより、発見された異常の大きさを計測することができる。ユーザーは、3D情報を使用することにより復元された被写体の形状(凹凸など)を確認することができる。このように、3D情報は、検査の高品質化および効率化に貢献している。
近年、単眼光学アダプターを使用することにより被写体の画像を取得し、その画像を使用することにより被写体の3D情報を復元する技術が開発されている。そのような技術は、被写体に対する内視鏡の先端部の相対的な動きの変化に基づいて3D復元処理を実行し、3D情報を復元する。
タービンは航空機エンジンまたは発電機に使用されている。タービンの動翼は、工業用の内視鏡装置を使用する検査の主要な被写体である。圧縮セクションおよびタービンセクションの各々において、回転可能な動翼と固定されている静翼とを1段として、複数の段がタービン内の回転軸に沿って配置されている。シュラウドが動翼の外側に配置されている。
一般的に、動翼の検査では、動翼が回転しているときに動翼上の異常が探索される。そのような検査では、動翼に加えて静翼またはシュラウドが内視鏡の視野に入る場合が多い。静翼およびシュラウドは動翼と異なり動かない。単眼光学アダプターを使用することにより取得された画像に静翼またはシュラウドが動翼と一緒に写っている場合、工業用の内視鏡装置が被写体の3D情報の復元に失敗する可能性がある。
特許文献1は、移動物体と静止物体とが写る画像を使用することにより被写体の3D情報を復元する技術を開示している。その技術は、車に搭載されたカメラによって取得された画像を使用することにより、走行中の車の周囲の被写体の3D情報を復元する。
特開2020-126432号公報
単眼のカメラが、特許文献1に開示された技術において使用される。カメラが搭載されている車が動いていること、および3D復元処理の対象である被写体は静止していることがその技術の前提である。その技術は、画像に写る移動物体の領域を使用せずに3D復元処理を実行することにより、3D情報の復元に失敗することを回避する。その移動物体は、木の枝葉等である。
一方、工業用の内視鏡装置を使用する動翼の検査では、内視鏡の先端部は基本的に静止しており、3D復元処理の対象である被写体が動く。そのため、動翼の画像を使用する3D復元処理の対象は、車に搭載されたカメラによって取得された画像を使用する3D復元処理の対象とは被写体の動きの観点で異なる。仮に、特許文献1に開示された技術を動翼の検査に適用した場合、動翼が写っている領域は3D復元処理に使用されない。そのため、その技術は、動翼の検査には適用できない。
本発明は、タービンの内部の3次元形状を示す3次元データを生成する処理の信頼性を向上させることができる3次元データ生成方法、3次元データ生成システム、およびプログラムを提供することを目的とする。
本発明は、タービンの内部の3次元形状を示す3次元データを生成する3次元データ生成方法であって、プロセッサが前記タービンの内部の構成要素の2枚以上の画像を取得する画像取得ステップであって、前記構成要素は、前記タービンの内部で移動可能な第1の物体と、前記タービンの内部で静止している第2の物体とを含み、前記2枚以上の画像は、前記タービンの内部の光を取り込む管状の挿入部を有する撮像装置によって生成され、前記挿入部は、前記タービンに形成された穴を通って前記タービンに挿入され、前記挿入部が前記タービンに挿入されるときの前記挿入部の移動方向は前記第1の物体の移動方向と異なり、前記第1の物体が移動している間、前記挿入部に対する前記第1の物体の位置は、前記撮像装置が画像を生成するタイミング毎に異なる前記画像取得ステップと、前記プロセッサが前記2枚以上の画像に含まれる少なくとも2枚の画像における前記構成要素の同一領域である2つ以上の対応領域を検出する領域検出ステップと、前記プロセッサが、前記2枚以上の画像の各々における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断する領域判断ステップであって、前記変化領域は、前記撮像装置によって生成された画像における座標が変化する前記構成要素の領域であり、前記非変化領域は、前記撮像装置によって生成された画像における座標が変化しない前記構成要素の領域である前記領域判断ステップと、前記プロセッサが、前記2つ以上の対応領域のうち前記非変化領域であると判断された対応領域を使用せずに、前記2つ以上の対応領域のうち前記変化領域であると判断された対応領域を使用することにより前記3次元データを生成するデータ生成ステップと、を有する3次元データ生成方法である。
本発明の3次元データ生成方法において、前記プロセッサが前記領域検出ステップにおいて前記2つ以上の対応領域を検出した後、前記プロセッサは前記領域判断ステップにおいて前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断する。
本発明の3次元データ生成方法において、前記プロセッサが前記領域判断ステップにおいて前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断した後、前記プロセッサは、前記領域検出ステップにおいて前記非変化領域を使用せずに前記変化領域を使用することにより前記2つ以上の対応領域を検出する。
本発明の3次元データ生成方法において、前記第1の物体は動翼を含み、前記第2の物体は静翼またはシュラウドを含む。
本発明の3次元データ生成方法において、前記2枚以上の画像において、前記第1の物体の一部は前記第2の物体によって隠される。
本発明の3次元データ生成方法において、前記第2の物体は、前記2枚以上の画像において前記第1の物体の一部を隠す物体と、前記2枚以上の画像において一部が前記第1の物体によって隠される物体とを含む。
本発明の3次元データ生成方法において、前記撮像装置は、互いに異なる2つ以上のタイミングで前記2枚以上の画像を生成し、前記プロセッサは、前記領域判断ステップにおいて、前記2枚以上の画像に含まれる少なくとも2枚の画像間の前記対応領域の動き量に基づいて前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断する。
本発明の3次元データ生成方法において、前記プロセッサは、前記領域判断ステップにおいて、前記2枚以上の画像に含まれる少なくとも2枚の画像間の画素値の差分に基づいて前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断する。
本発明の3次元データ生成方法は、前記プロセッサは、前記領域判断ステップにおいて、前記2枚以上の画像に含まれる1枚の画像に写っている被写体を判断することにより前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断する。
本発明の3次元データ生成方法は、前記プロセッサが、前記タービンの内部における前記挿入部の位置を判断する位置判断ステップと、前記挿入部の前記位置が変化したとき、前記プロセッサが前記位置の変化を示す情報をユーザーに通知する処理を実行する通知ステップと、をさらに有する。
本発明の3次元データ生成方法は、前記プロセッサが前記データ生成ステップを初めて実行する前に、前記2枚以上の画像に含まれる画像における前記非変化領域の面積を算出する算出ステップと、前記面積が所定の値よりも大きいとき、前記プロセッサが警告をユーザーに通知する処理を実行する通知ステップと、をさらに有する。
本発明の3次元データ生成方法において、前記第1の物体は、駆動装置が発生する駆動力によって前記タービンの内部で回転し、前記3次元データ生成方法は、前記第1の物体が前記タービンの内部で一回転したか否かを前記プロセッサが判断する回転判断ステップと、前記第1の物体が前記タービンの内部で一回転したと前記プロセッサが判断したとき、前記第1の物体が前記タービンの内部で一回転したことを示す情報を前記プロセッサがユーザーに通知する処理を実行する通知ステップと、をさらに有する。
本発明の3次元データ生成方法において、前記第1の物体は、駆動装置が発生する駆動力によって前記タービンの内部で回転し、前記第1の物体が回転している間、前記プロセッサは、前記領域検出ステップ、前記領域判断ステップ、および前記データ生成ステップを繰り返し実行し、前記第1の物体の回転が停止したとき、前記プロセッサは、前記データ生成ステップを停止し、かつ前記領域検出ステップおよび前記領域判断ステップを継続する。
本発明の3次元データ生成方法において、前記第1の物体が再度回転し始めたとき、前記プロセッサは、前記データ生成ステップを再開する。
本発明の3次元データ生成方法において、前記プロセッサは、前記2枚以上の画像に含まれる画像を使用することにより前記第1の物体の回転状態を判断する。
本発明の3次元データ生成方法において、前記プロセッサは、前記駆動装置の状態を監視することにより前記第1の物体の回転状態を判断する。
本発明の3次元データ生成方法において、前記挿入部は前記タービンの内部において固定される。
本発明の3次元データ生成方法において、前記撮像装置はボアスコープである。
本発明は、タービンの内部の3次元形状を示す3次元データを生成する3次元データ生成システムであって、前記タービンの内部の光を取り込む管状の挿入部を有し、前記タービンの内部の構成要素の2枚以上の画像を生成する撮像装置であって、前記タービンの内部で移動可能な第1の物体と、前記タービンの内部で静止している第2の物体とを含み、前記2枚以上の画像は、前記撮像装置によって生成され、前記挿入部は、前記タービンに形成された穴を通って前記タービンに挿入され、前記挿入部が前記タービンに挿入されるときの前記挿入部の移動方向は前記第1の物体の移動方向と異なり、前記第1の物体が移動している間、前記挿入部に対する前記第1の物体の位置は、前記撮像装置が画像を生成するタイミング毎に異なる前記撮像装置と、プロセッサを含む3次元データ生成装置と、を有し、前記プロセッサは、前記2枚以上の画像を取得し、前記2枚以上の画像に含まれる少なくとも2枚の画像における前記構成要素の同一領域である2つ以上の対応領域を検出し、前記2枚以上の画像の各々における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断し、前記変化領域は、前記撮像装置によって生成された画像における座標が変化する前記構成要素の領域であり、前記非変化領域は、前記撮像装置によって生成された画像における座標が変化しない前記構成要素の領域であり、前記2つ以上の対応領域のうち前記非変化領域であると判断された対応領域を使用せずに、前記2つ以上の対応領域のうち前記変化領域であると判断された対応領域を使用することにより前記3次元データを生成する3次元データ生成システムである。
本発明の3次元データ生成システムにおいて、前記撮像装置と前記3次元データ生成装置とが内視鏡装置に含まれる。
本発明の3次元データ生成システムにおいて、前記撮像装置が内視鏡装置に含まれ、前記3次元データ生成装置は前記内視鏡装置とは別体の外部機器に含まれる。
本発明は、タービンの内部の3次元形状を示す3次元データを生成する処理をコンピュータに実行させるためのプログラムであって、前記タービンの内部の構成要素の2枚以上の画像を取得する画像取得ステップであって、前記構成要素は、前記タービンの内部で移動可能な第1の物体と、前記タービンの内部で静止している第2の物体とを含み、前記2枚以上の画像は、前記タービンの内部の光を取り込む管状の挿入部を有する撮像装置によって生成され、前記挿入部は、前記タービンに形成された穴を通って前記タービンに挿入され、前記挿入部が前記タービンに挿入されるときの前記挿入部の移動方向は前記第1の物体の移動方向と異なり、前記第1の物体が移動している間、前記挿入部に対する前記第1の物体の位置は、前記撮像装置が画像を生成するタイミング毎に異なる前記画像取得ステップと、前記2枚以上の画像に含まれる少なくとも2枚の画像における前記構成要素の同一領域である2つ以上の対応領域を検出する領域検出ステップと、前記2枚以上の画像の各々における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断する領域判断ステップであって、前記変化領域は、前記撮像装置によって生成された画像における座標が変化する前記構成要素の領域であり、前記非変化領域は、前記撮像装置によって生成された画像における座標が変化しない前記構成要素の領域である前記領域判断ステップと、前記2つ以上の対応領域のうち前記非変化領域であると判断された対応領域を使用せずに、前記2つ以上の対応領域のうち前記変化領域であると判断された対応領域を使用することにより前記3次元データを生成するデータ生成ステップと、を前記コンピュータに実行させるためのプログラムである。
本発明によれば、3次元データ生成方法、3次元データ生成システム、およびプログラムは、タービンの内部の3次元形状を示す3次元データを生成する処理の信頼性を向上させることができる。
本発明の第1の実施形態による内視鏡装置の全体構成を示す斜視図である。 本発明の第1の実施形態による内視鏡装置の内部構成を示すブロック図である。 本発明の第1の実施形態におけるタービン内の動翼および静翼の配置を模式的に示す図である。 本発明の第1の実施形態におけるタービン内の動翼の配置を模式的に示す図である。 本発明の第1の実施形態による内視鏡装置によって取得された画像の例を示す図である。 本発明の第1の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第1の実施形態における3次元(3D)データ生成処理の手順を示すフローチャートである。 本発明の第1の実施形態における特徴領域の例を示す図である。 本発明の第1の実施形態における2枚の画像間で同一の特徴領域の例を示す図である。 本発明の第1の実施形態における動き量を算出する方法を示す図である。 本発明の第1の実施形態における画像の領域が移動領域であるのか静止領域であるのかを判断する方法を示す図である。 本発明の第1の実施形態における画像取得の状況を示す模式図である。 本発明の第1の実施形態における3D復元処理の手順を示すフローチャートである。 本発明の第1の実施形態による内視鏡装置が有する表示部に表示される情報の例を示す図である。 本発明の第1の実施形態による内視鏡装置が有する表示部に表示される情報の例を示す図である。 本発明の第1の実施形態の第1の変形例における3Dデータ生成処理の手順を示すフローチャートである。 本発明の第1の実施形態の第1の変形例における画像の領域が移動領域であるのか静止領域であるのかを判断する方法を示す図である。 本発明の第1の実施形態の第1の変形例における3Dデータ生成処理の手順を示すフローチャートである。 本発明の第1の実施形態の第2の変形例における3Dデータ生成処理の手順を示すフローチャートである。 本発明の第1の実施形態の第2の変形例における画像の例と、移動領域および静止領域の例とを示す図である。 本発明の第1の実施形態の第2の変形例における物体情報の例を示す図である。 本発明の第1の実施形態の第2の変形例による内視鏡装置が実行する処理の手順を示すフローチャートである。 本発明の第2の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第2の実施形態における3Dデータ生成処理の手順を示すフローチャートである。 本発明の第2の実施形態における3Dデータ生成処理の手順を示すフローチャートである。 本発明の第2の実施形態における画像の例と、静止領域の大きさを判断する処理の例とを示す図である。 本発明の第2の実施形態における動翼の観察位置を示す図である。 本発明の第2の実施形態における動翼の観察位置を示す図である。 本発明の第2の実施形態における3Dデータ生成処理の手順を示すフローチャートである。 本発明の第2の実施形態における3Dデータ生成処理の手順を示すフローチャートである。 本発明の第2の実施形態における3Dデータ生成処理の手順を示すフローチャートである。
以下、図面を参照し、本発明の実施形態を説明する。
(第1の実施形態)
本発明の第1の実施形態を説明する。以下では、3次元(3D)データ生成装置が内視鏡装置に含まれる例を説明する。
図1および図2を使用することにより、第1の実施形態における内視鏡装置1の構成を説明する。図1は、内視鏡装置1の外観を示す。図2は、内視鏡装置1の内部構成を示す。
図1に示す内視鏡装置1は、挿入部2、本体部3、操作部4、および表示部5を有する。内視鏡装置1は、被写体を撮像し、画像を生成する。被写体は、工業製品である。ユーザーは、様々な被写体の観察を実施するために、挿入部2の先端20に装着される光学アダプターの交換と、内蔵された映像処理プログラムの選択と、映像処理プログラムの追加とを実施することが可能である。
挿入部2は、被写体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、被写体を撮像し、かつ撮像信号を本体部3に出力する。挿入部2の先端20には、光学アダプターが装着される。例えば、単眼の光学アダプターが先端20に装着される。本体部3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、内視鏡装置1に対するユーザーの操作を受け付ける。表示部5は、表示画面を有し、かつ挿入部2によって取得された被写体の画像および操作メニュー等を表示画面に表示する。
操作部4は、ユーザーインターフェースである。表示部5は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部5は、タッチパネルであってもよい。その場合、操作部4および表示部5は一体化される。
図2に示す本体部3は、内視鏡ユニット8、CCU(Camera Control Unit)9、および制御装置10を有する。
内視鏡ユニット8は、図示していない光源装置および湾曲装置を有する。光源装置は、観察に必要な照明光を先端20に供給する。湾曲装置は、挿入部2に内蔵された湾曲機構を湾曲させる。
レンズ21および撮像素子28が挿入部2の先端20に内蔵されている。レンズ21は、観察光学系である。レンズ21は、光学アダプターによって形成された被写体の光学像を取り込む。撮像素子28は、イメージセンサである。撮像素子28は、被写体の光学像を光電変換し、かつ撮像信号を生成する。レンズ21および撮像素子28は、1つの視点を持つ単眼のカメラを構成する。
CCU9は、撮像素子28を駆動する。撮像素子28から出力された撮像信号がCCU9に入力される。CCU9は、撮像素子28により取得された撮像信号に対して、増幅およびノイズ除去等を含む前処理を実施する。CCU9は、前処理が施された撮像信号をNTSC信号等の映像信号に変換する。
制御装置10は、映像信号処理回路12、ROM(Read Only Memory)13、RAM(Random Access Memory)14、カードインターフェース15、外部機器インターフェース16、制御インターフェース17、およびCPU(Central Processing Unit)18を有する。
映像信号処理回路12は、CCU9から出力された映像信号に対して、所定の映像処理を施す。例えば、映像信号処理回路12は、視認性向上に関わる映像処理を行う。例えば、その映像処理は、色再現、階調補正、ノイズ抑制、および輪郭強調などである。例えば、映像信号処理回路12は、CCU9から出力された映像信号と、CPU18によって生成されたグラフィック画像信号とを合成する。グラフィック画像信号は、操作画面の画像等を含む。映像信号処理回路12は、合成された映像信号を表示部5に出力する。
ROM13は、CPU18が内視鏡装置1の動作を制御するためのプログラムが記録された不揮発性の記録媒体である。RAM14は、CPU18が内視鏡装置1の制御のために使用する情報を一時的に記憶する揮発性の記録媒体である。CPU18は、ROM13に記録されたプログラムに基づいて内視鏡装置1の動作を制御する。
メモリカード42がカードインターフェース15に接続される。メモリカード42は、内視鏡装置1に着脱可能な記録媒体である。カードインターフェース15は、メモリカード42に記憶されている制御処理情報および画像情報等を制御装置10に取り込む。また、カードインターフェース15は、内視鏡装置1によって生成された制御処理情報および画像情報等をメモリカード42に記録する。
USB機器等の外部機器が外部機器インターフェース16に接続される。例えば、パーソナルコンピュータ(PC)41が外部機器インターフェース16に接続される。外部機器インターフェース16は、PC41へ情報を送信し、かつPC41から情報を受信する。これによって、PC41が情報を表示することができる。また、ユーザーは、PC41に指示を入力することにより、内視鏡装置1の制御に関する操作を実施することができる。
タービンの内部の動翼を回転させるためにターニングツール43が使用されてもよい。ターニングツール43は、動翼を回転させるための駆動力を発生する駆動装置である。動翼は、ターニングツール43が発生する駆動力によって回転する。ターニングツール43は外部機器インターフェース16に接続される。外部機器インターフェース16は、ターニングツール43を制御するための制御情報をターニングツール43に出力する。また、外部機器インターフェース16は、ターニングツール43の状態を示す状態情報を制御装置10に取り込む。
制御インターフェース17は、操作部4、内視鏡ユニット8、およびCCU9と動作制御のための通信を行う。制御インターフェース17は、ユーザーによって操作部4に入力された情報をCPU18に通知する。制御インターフェース17は、光源装置および湾曲装置を制御するための制御信号を内視鏡ユニット8に出力する。制御インターフェース17は、撮像素子28を制御するための制御信号をCCU9に出力する。
CPU18が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。この記録媒体に記録されたプログラムを内視鏡装置1以外のコンピュータが読み込み、かつ実行してもよい。例えば、PC41がプログラムを読み込んで実行してもよい。PC41は、プログラムに従って、内視鏡装置1を制御するための制御情報を内視鏡装置1に送信することにより内視鏡装置1を制御してもよい。あるいは、PC41は、内視鏡装置1から映像信号を取得し、かつ取得された映像信号を処理してもよい。
上記のように、内視鏡装置1は、撮像素子28およびCPU18を有する。撮像素子28は、被写体を撮像し、かつ撮像信号を生成する。撮像信号は、被写体の画像を含む。したがって、撮像素子28は、被写体を撮像することにより生成された、その被写体の画像を取得する。その画像は2次元画像(2D画像)である。撮像素子28によって取得された画像は、映像信号処理回路12を経由してCPU18に入力される。
挿入部2は撮像装置(カメラ)を構成する。撮像素子28は本体部3に配置されてもよく、かつ光ファイバーが挿入部2に配置されてもよい。レンズ21に入射した光は、その光ファイバーを通って撮像素子28に到達してもよい。ボアスコープがカメラとして使用されてもよい。
タービンは航空機エンジンまたは発電機に使用されている。ガスタービンまたはスチームタービン等が存在する。以下では、ガスタービンの構造を説明する。以下では、ガスタービンをタービンと呼ぶ。
タービンは、圧縮セクション、燃焼室、およびタービンセクションを有する。圧縮セクションにおいて空気が圧縮される。圧縮された空気は燃焼室に送られる。燃料が燃焼室内で連続的に燃焼し、高温かつ高圧のガスが発生する。そのガスはタービンセクションにおいて膨張し、エネルギーを発生する。そのエネルギーを使用することにより圧縮機が回転し、残りのエネルギーは取り出される。圧縮セクションおよびタービンセクションにおいて、エンジンの回転軸に固定された動翼と、ケーシングに固定された静翼とが交互に配置されている。
タービンは、タービンの内部の空間に配置された構成要素を有する。その構成要素は、タービンの内部で移動可能な移動物体またはタービンの内部で静止している静止物体である。移動物体は動翼である。静止物体は静翼またはシュラウドである。
図3は、タービンTB10の圧縮セクションにおける動翼および静翼の配置を模式的に示す。図3は、エンジンの回転軸RA10を通るタービンTB10の断面の一部を示す。タービンTB10は、圧縮セクションにおいて動翼RT10、静翼ST10、動翼RT11、静翼ST11、動翼RT12、静翼ST12、動翼RT13、および静翼ST13を有する。これらの動翼および静翼は回転軸RA10の周りを方向DR12に回転する。
タービンTB10に取り込まれた空気は方向DR11に流れる。動翼RT10は、空気を取り込む低圧部に配置されている。動翼RT13は、空気を出す高圧部に配置されている。
タービンTB10を分解せずにタービンTB10の内部の検査を可能とするためにアクセスポートAP10が形成されている。タービンTB10は2つ以上のアクセスポートを有し、その2つ以上のアクセスポートのうちの1つがアクセスポートAP10として図3に示されている。アクセスポートAP10は、タービンTB10に形成された穴である。
挿入部2は内視鏡を構成する。挿入部2は、アクセスポートAP10を通ってタービンTB10に挿入される。挿入部2がタービンTB10に挿入されるとき、挿入部2は方向DR10に移動する。挿入部2がタービンTB10から引き抜かれるとき、挿入部2は方向DR10と反対の方向に移動する。方向DR10は、方向DR12と異なる。挿入部2の先端20から照明光LT10が出射される。
図4は、回転軸RA10と平行な方向から見た2枚以上の動翼RT10の配置を模式的に示す。図4において、8枚の動翼RT10が円盤状のディスクDS10に配置されている。回転軸RA10は、ディスクDS10の中心を通る。ディスクDS10は方向DR12に回転する。そのため、8枚の動翼RT10は方向DR12に回転する。
実際には、数十枚の動翼または100枚を超える動翼が1つのディスクに配置されている。1つのディスクにおける動翼の枚数は、エンジンの機種に依存し、かつ低圧部から高圧部までの領域におけるディスクの位置に依存する。
ユーザーは手動でディスクを回転させる、またはターニングツール43がディスクを回転させる。挿入部2がアクセスポートAP10を通ってタービンTB10に挿入され、先端20が固定される。ディスクが回転しているとき、ユーザーは2枚以上の動翼の検査を実施し、各動翼に異常があるか否かを判断する。この検査は、タービンの検査において主要な検査項目の1つである。
図5は、内視鏡装置1によって取得された画像の例を示す。図5に示す画像IMG10は、高圧側の圧縮セクションの画像である。動翼RT14、静翼ST14、およびシュラウドSH10が画像IMG10に写っている。
挿入部2の先端20から被写体を見たとき、静翼ST14は動翼RT14の手前に配置され、かつシュラウドSH10は動翼RT14の奥側に配置されている。先端20と静翼ST14との距離は、先端20と動翼RT14との距離よりも小さい。動翼RT14によりシュラウドSH10が隠されている領域における先端20とシュラウドSH10との距離は、先端20と動翼RT14との距離よりも大きい。動翼RT14の一部は静翼ST14によって隠される。
撮像素子28は、2枚以上の画像を生成する。その2枚以上の画像の各々は、その2枚以上の画像に含まれる他の画像と時間的に関連付けられている。例えば、2枚以上の画像の各々は静止画である。動画が静止画の代わりに使用されてもよい。動画に含まれる2つ以上のフレームの各々は、タイムスタンプ(タイムコード)によって互いに関連付けられている。
RAM14は、撮像素子28によって生成された2枚以上の画像を記憶する。ディスクが回転しているとき、挿入部2の先端20(視点)に対する動翼の相対的な位置は2枚以上の画像間で異なる。あるいは、先端20に対する動翼の相対的な位置および姿勢は2枚以上の画像間で異なる。つまり、動翼の位置は、撮像素子28が画像を生成するタイミング毎に異なる。そのため、撮像素子28によって生成された画像における動翼の位置(2次元座標)は変化する。ディスクが静止しているとき、撮像素子28によって生成された画像における動翼の位置(2次元座標)は変化しない。
また、RAM14は、3D復元処理に必要なパラメーターを記憶する。そのパラメーターは、カメラの内部パラメーター、カメラの歪み補正パラメーター、設定値、および縮尺情報等を含む。設定値は、被写体の3次元形状(3D形状)を示す3次元データ(3Dデータ)を生成するための各種処理に使用される。縮尺情報は、3Dデータの縮尺を被写体の実際の縮尺に変換するために使用される。
メモリカード42は、2枚以上の画像および上記のパラメーターを記憶してもよい。内視鏡装置1は、その2枚以上の画像およびパラメーターをメモリカード42から読み出し、その2枚以上の画像およびパラメーターをRAM14に記憶してもよい。
内視鏡装置1は、外部機器インターフェース16を経由して外部装置と無線通信または有線通信を実施してもよい。外部装置は、PC41またはクラウドサーバー等である。内視鏡装置1は、撮像素子28によって生成された2枚以上の画像を外部装置に送信してもよい。外部装置は、その2枚以上の画像および上記のパラメーターを記憶してもよい。内視鏡装置1は、その2枚以上の画像およびパラメーターを外部装置から受信し、その2枚以上の画像およびパラメーターをRAM14に記憶してもよい。
図6は、CPU18の機能構成を示す。CPU18は、制御部180、画像取得部181、領域検出部182、領域判断部183、3D復元部184、および表示制御部185として機能する。図6に示すブロックの少なくとも1つがCPU18と異なる回路で構成されてもよい。
制御部180は、図6に示す各部が実行する処理を制御する。
画像取得部181は、2枚以上の画像および上記のパラメーターをRAM14から取得する。画像取得部181は、外部機器インターフェース16を経由してメモリカード42または外部装置から2枚以上の画像および上記のパラメーターを取得してもよい。
領域検出部182は、2枚以上の画像の各々における2つ以上の特徴領域を検出する。また、領域検出部182は、2枚以上の画像における同一の特徴領域(対応領域)を検出する。対応領域は、タービンが有する構成要素の領域である。
例えば、第1の画像における第1の特徴領域と第2の画像における第2の特徴領域とが同一である場合、領域検出部182は、第1の特徴領域と第2の特徴領域とを対応領域として互いに関連付ける。第2の特徴領域が第3の画像における第3の特徴領域と同一である場合、領域検出部182は、第2の特徴領域と第3の特徴領域とを対応領域として互いに関連付ける。この場合、領域検出部182は、3枚の画像間で同一の対応領域を検出する。
領域判断部183は、2枚以上の画像の各々における特徴領域が移動領域であるのか静止領域であるのかを判断する。これにより、領域判断部183は、その特徴領域を移動領域または静止領域に分類する。領域判断部183は、各画像の一部のみに含まれる特徴領域が移動領域であるのか静止領域であるのかを判断してもよい。領域判断部183は、各画像の全体に含まれる特徴領域が移動領域であるのか静止領域であるのかを判断してもよい。各画像が移動領域および静止領域を含む場合がある。あるいは、各画像が移動領域のみまたは静止領域のみを含む場合がある。
3D復元部184は、2枚以上の画像の特徴領域のうち移動領域であると判断された対応領域を使用することにより3D復元処理を実行し、3Dデータを生成する。このとき、3D復元部184は、2枚以上の画像の特徴領域のうち静止領域であると判断された対応領域を使用しない。
3Dデータは、被写体の2つ以上の領域の3次元座標(3D座標)、カメラ座標、および姿勢情報を含む。カメラ座標は、2枚以上の画像の各々を取得したカメラの3D座標を示し、かつ2枚以上の画像の各々と関連付けられている。カメラ座標は、各画像が取得されたときの視点の3D座標を示す。例えば、カメラ座標は、カメラが有する観察光学系の3D座標を示す。姿勢情報は、2枚以上の画像の各々を取得したカメラの姿勢を示し、かつ2枚以上の画像の各々と関連付けられている。例えば、姿勢情報は、カメラが有する観察光学系の姿勢を示す。
表示制御部185は、映像信号処理回路12によって実行される処理を制御する。CCU9は、映像信号を出力する。映像信号は、撮像素子28によって生成された画像の各画素のカラーデータを含む。表示制御部185は、映像信号処理回路12に、CCU9から出力された映像信号を表示部5に出力させる。映像信号処理回路12は、映像信号を表示部5に出力する。表示部5は、映像信号処理回路12から出力された映像信号に基づいて画像を表示する。これにより、表示制御部185は、撮像素子28によって生成された画像を表示部5に表示する。
表示制御部185は、各種情報を表示部5に表示する。つまり、表示制御部185は、画像上に各種情報を表示する。
例えば、表示制御部185は、各種情報のグラフィック画像信号を生成する。表示制御部185は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18から出力されたグラフィック画像信号とを合成する。これにより、各種情報が画像に重畳される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、各種情報が重畳された画像を表示する。
また、表示制御部185は、3Dデータのグラフィック画像信号を生成する。表示制御部185は、そのグラフィック画像信号を映像信号処理回路12に出力する。前述した処理と同様の処理が実行され、表示部5は、3Dデータの画像を表示する。これにより、表示制御部185は、3Dデータの画像を表示部5に表示する。
図6に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。例えば、プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。図6に示す各部は、1つまたは複数のプロセッサを含むことができる。図6に示す各部は、1つまたは複数の論理回路を含むことができる。
内視鏡装置1のコンピュータがプログラムを読み込み、かつ読み込まれたプログラムを実行してもよい。そのプログラムは、図6に示す各部の動作を規定する命令を含む。つまり、図6に示す各部の機能はソフトウェアにより実現されてもよい。
上記のプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。そのプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波により内視鏡装置1に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。前述した機能は、コンピュータに既に記録されているプログラムと差分プログラムとの組合せによって実現されてもよい。
以下では、第1の実施形態の特徴的な処理について説明する。以下の説明では、3Dデータは、内視鏡機器が取得した2枚以上の画像を使用することにより生成されることを想定している。2枚以上の画像を取得する検査機器は内視鏡機器に限らない。カメラを有する機器を使用することによりタービンの内部の構成要素の画像が取得される限り、どのような機器が使用されてもよい。
制御装置10は3Dデータ生成装置として機能する。本発明の各態様の3Dデータ生成装置は、内視鏡機器とは別体のPCのようなコンピュータシステムであってもよい。3Dデータ生成装置は、デスクトップPC、ラップトップPC、およびタブレット端末のいずれであってもよい。3Dデータ生成装置は、クラウド上で動作するコンピュータシステムであってもよい。
図7を使用することにより、内視鏡装置1が実行する処理について説明する。図7は、内視鏡装置1が実行する3Dデータ生成処理の手順を示す。
図7に示す処理が開始されたとき、制御部180は、RAM14から取得される画像を管理するための番号nを0に設定する(ステップS100)。
ステップS100の後、制御部180は、画像を取得するために番号nを1だけ増加させる(ステップS101)。ステップS101が初めて実行されたとき、番号nは1に設定される。
ステップS101の後、画像取得部181は、番号nが示す画像IMGnをRAM14から取得する(ステップS102)。ステップS102が初めて実行されたとき、画像取得部181は画像IMG1を取得する。
ステップS102の後、領域検出部182は、画像IMGnを解析し、画像IMGnに写っている被写体の2つ以上の特徴領域を検出する(ステップS103)。
特徴領域は、画像に写っている領域のうち、画像輝度勾配の大きいコーナーまたはエッジ等を示す。特徴領域は、画像の最小単位である1ピクセルで構成されてもよい。あるいは、特徴領域は2つ以上のピクセルで構成されてもよい。領域検出部182は、SIFT(Scale-invariant Feature Transform)またはFAST(Features from Accelerated Segment Test)等を使用することにより特徴領域を検出する。
図8は、特徴領域の例を示す。画像IMGnが図8に示されている。領域検出部182は、画像IMGnにおける特徴領域P1n,P2n,P3n,P4n,P5n,P6nを検出する。
ステップS103の後、制御部180は、番号nが1であるか否かを判断する(ステップS104)。
第1の実施形態において、領域判断部183は、後述するステップS106において2枚の画像間における被写体の領域の動き量を算出する。そのため、少なくとも撮影時刻の異なる2枚の画像がRAM14から取得される必要がある。番号nが1であると制御部180がステップS104において判断したとき、ステップS101が実行される。番号nが1ではないと制御部180がステップS104において判断したとき、後述するステップS105が実行される。
番号nが2以上であるとき、画像IMG(n-1)および画像IMGnの各々において2つ以上の特徴領域が既に検出されている。撮像素子28が画像IMGnを生成するタイミングは、撮像素子28が画像IMG(n-1)を生成するタイミングと異なる。領域検出部182は、画像IMG(n-1)および画像IMGnにおける同一の特徴領域(対応領域)を検出する(ステップS105)。
領域検出部182は、ステップS105において以下の処理を実行する。領域検出部182は、画像IMG(n-1)および画像IMGn間の特徴領域の相関度を算出する。領域検出部182がその2枚の画像間で高い相関度を持つ特徴領域を発見した場合、領域検出部182は、その特徴領域(対応領域)の情報(対応情報)をRAM14に保持する。これにより、領域検出部182は、2枚の画像の特徴領域を互いに関連付ける。一方、領域検出部182がその2枚の画像間で高い相関度を持つ特徴領域を発見しなかった場合、領域検出部182は画像IMG(n-1)および画像IMGn間の対応領域の情報を破棄する。
図9は、2枚の画像間で同一の特徴領域の例を示す。画像IMG(n-1)における2つ以上の特徴領域と、画像IMGnにおける2つ以上の特徴領域とが図9に示されている。図8に示す画像IMGnがステップS102において取得された後、番号nがステップS101において1だけ増加する。その後、図9に示す画像IMGnがステップS102において取得される。図9に示す画像IMG(n-1)は、図8に示す画像IMGnと同じである。
対応情報M1,M2,M3,M4,M5,M6は、画像IMG(n-1)および画像IMGn間で同一の特徴領域を示す。対応情報M1は、画像IMG(n-1)における特徴領域P1(n-1)が画像IMGnにおける特徴領域P1nと同一であることを示す。対応情報M2は、画像IMG(n-1)における特徴領域P2(n-1)が画像IMGnにおける特徴領域P2nと同一であることを示す。対応情報M3は、画像IMG(n-1)における特徴領域P3(n-1)が画像IMGnにおける特徴領域P3nと同一であることを示す。対応情報M4は、画像IMG(n-1)における特徴領域P4(n-1)が画像IMGnにおける特徴領域P4nと同一であることを示す。対応情報M5は、画像IMG(n-1)における特徴領域P5(n-1)が画像IMGnにおける特徴領域P5nと同一であることを示す。対応情報M6は、画像IMG(n-1)における特徴領域P6(n-1)が画像IMGnにおける特徴領域P6nと同一であることを示す。
1つの画像における特徴領域が常に他の画像における特徴領域と同一であるとは限らない。例えば、画像IMG(n-1)の端部において検出された特徴領域は、画像IMGnが取得されるときにカメラの視野から外れる可能性がある。また、ボケ等の影響により、2枚の画像間で特徴領域を互いに関連付けることが困難である場合がある。そのため、各画像における特徴領域の数は、他の画像における特徴領域と同一の特徴領域の数以上である。
ステップS105の後、領域判断部183は、画像IMG(n-1)と画像IMGnとの間における被写体の領域の動き量を算出する(ステップS106)。
領域判断部183は、ステップS106において以下の処理を実行する。領域判断部183は、図10に示すように、画像IMGnの領域を2つ以上のグリッド状の小領域に分割する。図10に示す例では、画像IMGnの領域は横方向に7つに分割され、縦方向に6つに分割される。画像IMGnの領域は42個の小領域に分割される。小領域の形状はグリッドに限らない。小領域の形状は円などであってもよい。領域判断部183は、上記と同様の方法を使用することにより、画像IMG(n-1)の領域を2つ以上のグリッド状の小領域に分割する。
領域判断部183は、特定の小領域と対応する特徴領域の対応情報を参照する。対応情報は、2枚の画像間で同一の特徴領域を示す。領域判断部183は、画像IMG(n-1)の小領域と画像IMGnの小領域との間の代表的な動き量を算出する。画像IMG(n-1)の小領域および画像IMGnの小領域は、対応情報において互いに関連付けられている。
領域判断部183は、代表的な動き量として、統計量を使用することができる。統計量は、平均値または中央値等である。
領域判断部183は、小領域に含まれる2つ以上の特徴領域の動き量の偏差またはその2つ以上の特徴領域の動きの方向の偏差に基づいて、動き量の信頼性を判断してもよい。例えば、動きの方向に統一性がない場合、2枚の画像間で同一の特徴領域が正しく互いに関連付けられていない可能性がある。その場合、領域判断部183は、動き量の信頼性が低いと判断してもよい。ある小領域に関する動き量または動きの方向が他の全ての小領域に関する動き量または動きの方向と異なるとき、領域判断部183は、その動き量が異常であると判断し、その動き量を除外してもよい。
領域判断部183は、画像IMGnの全ての小領域を使用することにより上記の処理を実行し、各小領域の代表的な動き量を算出する。
ステップS106の後、領域判断部183は、動き量に基づいて画像IMGnの小領域が移動領域であるのか静止領域であるのかを判断する(ステップS107)。
領域判断部183は、ステップS107において以下の処理を実行する。領域判断部183は、各小領域の代表的な動き量と閾値とを比較する。閾値は、予め設定される。あるいは、閾値は、検査の状況に応じて算出される。動き量が閾値よりも大きいとき、領域判断部183は、小領域が移動領域であると判断する。動き量が閾値以下であるとき、領域判断部183は、小領域が静止領域であると判断する。
ステップS107の後、3D復元部184は、移動領域であるとステップS107において判断された小領域に含まれる特徴領域を画像IMGnの領域から抽出する。これにより、3D復元部184は、移動領域と対応する特徴領域を抽出する(ステップS108)。
3D復元部184は、静止領域であるとステップS107において判断された小領域に含まれる特徴領域を画像IMGnの領域から抽出しない。つまり、3D復元部184は、静止領域と対応する特徴領域を抽出しない。そのため、静止領域と対応する特徴領域は3D復元処理に使用されない。
図11を使用することにより、ステップS107およびステップS108の詳細を説明する。画像IMG(n-1)における2つ以上の特徴領域と、画像IMGnにおける2つ以上の特徴領域とが図11に示されている。各特徴領域は、図9に示す特徴領域と同じである。
領域判断部183は、画像IMG(n-2)および画像IMG(n-1)を使用することにより、画像IMG(n-1)の各小領域の動き量を算出する。領域判断部183は、動き量に基づいて画像IMG(n-1)の2つ以上の特徴領域を移動領域および静止領域MS(n-1)に分類する。移動領域は、特徴領域P2(n-1),P3(n-1),P4(n-1),P5(n-1)を含む。
領域判断部183は、画像IMG(n-1)および画像IMGnを使用することにより、画像IMGnの各小領域の動き量を算出する。領域判断部183は、動き量に基づいて画像IMGnの2つ以上の特徴領域を移動領域および静止領域MSnに分類する。移動領域は、特徴領域P2n,P3n,P4n,P5nを含む。
3D復元部184は、移動領域と対応する特徴領域をステップS108において抽出する。3D復元部184は、静止領域MS(n-1)または静止領域MSnと対応する特徴領域をステップS108において抽出しない。
ステップS102において新しい画像が取得されるたびに上記と同様の処理が実行される。
ステップS108の後、3D復元部184は、移動領域と対応する特徴領域を使用することにより3D復元処理を実行する(ステップS109)。3D復元部184は、3D復元処理に必要なパラメーターをRAM14から読み込み、そのパラメーターを3D復元処理に使用する。
3D復元部184は、ステップS109において以下の処理を実行する。図12は、2枚の画像が取得されるときの画像取得の状況を模式的に示す。
図12に示すように、最初にカメラの撮像状態cにおいて画像Iが取得される。次に、カメラの撮像状態cにおいて画像Iが取得される。撮像状態cと撮像状態cとでは、撮像位置および撮像姿勢の少なくとも1つが異なる。図12において、撮像状態cと撮像状態cとでは、撮像位置および撮像姿勢の両方が異なる。
本発明の各実施形態では、画像Iおよび画像Iは同じ内視鏡によって取得されることを想定している。また、本発明の各実施形態では、内視鏡の対物光学系のパラメーターが変化しないことを想定している。対物光学系のパラメーターは、焦点距離、歪曲収差、およびイメージセンサのピクセルサイズ等である。以下では、対物光学系のパラメーターを便宜上、内部パラメーターと略す。このような条件を仮定したとき、内視鏡の光学系の特性が記述された内部パラメーターは、カメラ(観察光学系)の位置および姿勢に関わらず共通に使用できる。本発明の各実施形態では、内部パラメーターは工場出荷時に取得されていることを想定している。また、本発明の各実施形態では、画像の取得時には内部パラメーターは既知であることを想定している。
例えば、画像Iおよび画像Iは静止画である。画像Iおよび画像Iは、動画から抽出された特定のフレームであってもよい。本発明の各実施形態では、画像Iおよび画像Iは1つの内視鏡によって取得されることを想定している。しかし、本発明はこれに限らない。例えば、複数の内視鏡によって取得された複数の動画を使用して3Dデータを生成する場合においても、本発明を適用できる。この場合、画像Iおよび画像Iは、互いに異なる内視鏡装置を使用して取得され、内視鏡毎に別々の内部パラメーターが保持されてさえいればよい。仮に内部パラメーターが未知であっても、内部パラメーターを変数として計算を実施することはできる。そのため、内部パラメーターが既知であるか否かにより以後の手順が大きく変わることはない。
図12は、座標P11における特徴領域が画像Iから検出され、かつ座標P12における特徴領域が画像Iから検出された例を示す。座標P11における特徴領域と、座標P12における特徴領域とは、被写体上の座標Pにおける領域と対応する。これらの特徴領域は、ステップS103において検出され、かつステップS105において互いに関連付けられる。
図12では各画像の1つの特徴領域のみが表示されているが、実際には各画像において2つ以上の特徴領域が検出される。検出される特徴領域の数は画像間で異なる可能性がある。各画像から検出された各特徴領域は特徴量というデータに変換される。特徴量は、特徴領域の特徴を表すデータである。
図13を使用することにより、ステップS109における3D復元処理の詳細を説明する。図13は、3D復元処理の手順を示す。
3D復元部184は、2枚の画像間で互いに関連付けられた特徴領域の座標をRAM14から読み出す。その座標は、各画像における特徴領域の座標のペアである。3D復元部184は、読み出された座標に基づいて、位置姿勢算出処理を実行する(ステップS109a)。3D復元部184は、位置姿勢算出処理において、画像Iを取得したカメラの撮像状態cと画像Iを取得したカメラの撮像状態cとの間の相対的な位置および姿勢を算出する。より具体的には、3D復元部184は、エピポーラ制約を利用した以下の方程式(1)を解くことにより、行列Eを算出する。
Figure 2023142169000002
行列Eは基本行列と呼ばれる。基本行列Eは、画像Iを取得したカメラの撮像状態cと画像Iを取得したカメラの撮像状態cとの間の相対的な位置および姿勢を保持する行列である。方程式(1)において、行列pは、画像Iから検出された特徴領域の座標を含む行列である。行列pは、画像Iから検出された特徴領域の座標を含む行列である。基本行列Eは、カメラの相対的な位置および姿勢に関する情報を含んでいるため、カメラの外部パラメーターに相当する。3D復元部184は、公知のアルゴリズムを使用することにより基本行列Eを解くことができる。
図12に示すように、カメラの位置変化量(相対的な位置)がtであり、かつカメラの姿勢変化量(相対的な姿勢)がRである場合、式(2)および式(3)が成り立つ。
Figure 2023142169000003
式(2)において、x軸方向の移動量はtと表され、y軸方向の移動量はtと表され、かつz軸方向の移動量はtと表される。式(3)において、x軸周りの回転量αはR(α)と表され、y軸周りの回転量βはR(β)と表され、かつz軸周りの回転量γはR(γ)と表される。基本行列Eが算出された後、3D座標の復元精度を高めるためにバンドル調整と呼ばれる最適化処理が実行されてもよい。
3D復元部184は、算出されたカメラの位置変化量を使用することにより3Dデータの座標系における3D座標(カメラ座標)を算出する。例えば、3D復元部184は、画像Iを取得したカメラの3D座標を定義する。3D復元部184は、画像Iを取得したカメラの3D座標と、画像Iを取得したカメラの位置変化量とに基づいて、画像Iを取得したカメラの3D座標を算出する。
3D復元部184は、算出されたカメラの姿勢変化量を使用することにより3Dモデルの座標系における姿勢情報を算出する。例えば、3D復元部184は、画像Iを取得したカメラの姿勢情報を定義する。3D復元部184は、画像Iを取得したカメラの姿勢情報と、画像Iを取得したカメラの姿勢変化量とに基づいて、画像Iを取得したカメラの姿勢情報を生成する。
3D復元部184は、位置姿勢算出処理(ステップS109a)を実行することにより、3次元形状(3D形状)のデータ(3D形状データ)を生成する。3D形状データは、カメラの位置における3D座標(カメラ座標)と、カメラの姿勢を示す姿勢情報とを含む。また、Structure from Motionまたはvisual-SLAM等の方法が位置姿勢算出処理(ステップS109a)に適用される場合、3D復元部184はさらに、ステップS109aにおいて各特徴領域の3D座標を算出する。ステップS109aにおいて生成された3D形状データは、特徴領域以外の被写体上の領域の3D座標を含まない。そのため、3D形状データは、被写体の疎な3D形状を示す。
3D形状データは、各特徴領域の3D座標、上記のカメラ座標、および上記の姿勢情報を含む。各特徴領域の3D座標は、3Dデータの座標系において定義される。各特徴領域の3D座標は、各特徴領域の2次元座標(2D座標)と関連付けられている。各特徴領域の2D座標は、各特徴領域が含まれる画像の座標系において定義される。各特徴領域の2D座標および3D座標は、各特徴領域が含まれる画像と関連付けられている。
ステップS109aの後、3D復元部184は、ステップS109aにおいて算出されたカメラの相対的な位置および姿勢(位置変化量tおよび姿勢変化量R)に基づいて、3次元形状復元処理を実行する(ステップS109b)。3D復元部184は、3次元形状復元処理において、被写体の3Dデータを生成する。被写体の3次元形状を復元する手法としては、PMVS(Patch-based Multi-view Stereo)、および平行化ステレオを使用するマッチング処理等が挙げられる。しかし、特に手段を限定する訳ではない。
3D復元部184は、ステップS109bにおいて、特徴領域以外の被写体上の領域の3D座標を算出する。特徴領域以外の各領域の3D座標は、3Dデータの座標系において定義される。各領域の3D座標は、各領域の2D座標と関連付けられている。各領域の2D座標は、各領域が含まれる2D画像の座標系において定義される。各領域の2D座標および3D座標は、各領域が含まれる2D画像と関連付けられている。3D復元部184は、3D形状データを更新する。更新された3D形状データは、各特徴領域の3D座標、特徴領域以外の各領域の3D座標、カメラ座標、および姿勢情報を含む。ステップS109bにおいて更新された3D形状データは、特徴領域の3D座標に加えて特徴領域以外の被写体上の領域の3D座標を含む。そのため、3D形状データは、被写体の密な3D形状を示す。
ステップS109bの後、3D復元部184は、3次元形状復元処理(ステップS109b)において処理された3D形状データと、RAM14から読み込まれた縮尺情報とに基づいて縮尺変換処理を実行する(ステップS109c)。3D復元部184は、縮尺変換処理において、被写体の3D形状データを、長さの次元を持つ3D座標データ(3Dデータ)へと変換する。ステップS109cが実行されたとき、3D復元処理が終了する。
処理時間を短縮するために、ステップS109bが省略されてもよい。この場合、ステップS109aが実行された後、ステップS109bが実行されずにステップS109cが実行される。
ステップS109cが省略されてもよい。この場合、ステップS109bが実行された後、ステップS109cが実行されずに、3D復元処理が終了する。この場合、3Dデータは、長さの次元を持たない被写体の相対的な形状を示す。
図12に示す原理に従って3Dデータが生成されるためには、各画像の領域の少なくとも一部と、それ以外の少なくとも1枚の画像の各々の領域の少なくとも一部とが共通である必要がある。つまり、第1の画像の領域と、第1の画像と異なる第2の画像の領域とは、共通領域を含む。第1の画像において共通領域以外の領域と、第2の画像において共通領域以外の領域とは、互いに異なる。
例えば、3D復元部184は、ステップS109において、画像IMG(n-1)の特徴領域および画像IMGnの特徴領域を使用することにより3Dデータを生成する。各画像の特徴領域は、ステップS108において抽出された移動領域と対応する。ステップS109が2回以上実行されたとき、3D復元部184は、前回実行されたステップS109において生成された3Dデータと、今回実行されたステップS109において生成された3Dデータとを合成する。
画像Iおよび画像Iは、動画において時間的に連続する2枚のフレームである必要はない。動画において画像Iおよび画像Iの間に1枚以上のフレームが存在してもよい。
図7を再度使用することにより内視鏡装置1が実行する処理について説明する。
ステップS109の後、制御部180は、番号nが所定の番号に到達したか否かを判断する。これにより、制御部180は、全ての画像が取得されたか否かを判断する(ステップS110)。
例えば、所定の番号は、動画の最後のフレームの番号またはソフトウェア上で予め設定された番号である。所定の番号は、ユーザーが終了操作を実施したときに処理中のフレームの番号であってもよい。この場合、所定の番号は、ユーザーが終了操作を実施するタイミングに応じて変化する。
番号nが所定の番号に到達していないと制御部180がステップS110において判断したとき、ステップS101が実行される。この場合、ステップS102において新しい画像が取得され、前述した処理が繰り返される。番号nが所定の番号に到達したと制御部180がステップS110において判断したとき、表示制御部185は、ステップS109において生成された3Dデータの画像を表示部5に表示する(ステップS111)。ステップS111が実行されたとき、3Dデータ生成処理が終了する。
内視鏡装置1は、ステップS111を実行する代わりに、生成された3DデータをRAM14またはメモリカード42に記憶してもよい。あるいは、内視鏡装置1は、生成された3Dデータを外部装置に送信してもよい。外部装置は、PC41またはクラウドサーバー等である。
ステップS111が実行された後、ユーザーは、表示部5に表示された3Dデータにおける計測位置を指定してもよい。内視鏡装置1は、3Dデータを使用することにより計測を実行してもよい。
上記の例では、ステップS103において2つ以上の特徴領域が検出された後、ステップS107において移動領域および静止領域に関する判断が実行される。ステップS103において2つ以上の仮の特徴領域が検出され、かつステップS107において移動領域および静止領域に関する判断が実行された後、移動領域の情報に基づいて正式な特徴領域が算出されてもよい。
図14および図15を使用することにより、3Dデータ生成処理に関するユーザーインターフェースの例を説明する。図14および図15は、表示部5に表示される情報の例を示す。
表示制御部185は、図14に示すダイアログボックスDB10を表示部5の画面に表示する。ダイアログボックスDB10は、領域RG10、領域RG11、ボタンBT10、ボタンBT11、およびシークバーSB10を含む。
被写体の画像が領域RG10に表示される。図14および図15に示す例では、被写体の動画が領域RG10に表示される。3Dデータの画像が領域RG11に表示される。
ユーザーは、操作部4を操作することによりボタンBT10およびボタンBT11を操作する。表示部5がタッチパネルとして構成されている場合、ユーザーは表示部5の画面をタッチすることにより、ボタンBT10およびボタンBT11を操作する。
ユーザーは、動画をRAM14から読み込むためにボタンBT10を押す。ボタンBT10が押された後、動画のフレームが領域RG10に表示される。図14は、ボタンBT10が押された後のダイアログボックスDB10を示す。
ユーザーは、操作部4を操作する、または表示部5の画面をタッチすることにより、領域RG10上で所定の操作を実施してもよい。所定の操作が実施されたとき、動画の再生または一時停止を示す指示が内視鏡装置1に入力されてもよい。ダイアログボックスDB10は、動画の再生または一時停止を示す指示を入力するためのボタンを含んでもよい。
シークバーSB10は、領域RG10に表示されたフレームの位置を示す。ユーザーは、操作部4を操作する、または表示部5の画面をタッチすることにより、シークバーSB10におけるフレームの位置を変更することができる。また、ユーザーは、操作部4を操作する、または表示部5の画面をタッチすることにより、3D復元処理を開始するフレームFR10と、3D復元処理を終了するフレームFR11とを指定することができる。
上記の例では、ユーザーが、3D復元処理を開始する開始フレームと、3D復元処理を終了する終了フレームとを指定する。制御部180が開始フレームおよび終了フレームを自動的に指定してもよい。例えば、制御部180は、被写体が動いている動画の区間を検出してもよい。あるいは、制御部180は、傷などの異常が写っている動画の区間を検出してもよい。その区間は、動画の2枚以上のフレームを含む。制御部180は、その区間の最初のフレームを開始フレームとして指定してもよく、かつその区間の最後のフレームを終了フレームとして指定してもよい。
開始フレームおよび終了フレームの一方のみがユーザーによって指定されてもよい。あるいは、開始フレームおよび終了フレームの一方のみが自動的に指定されてもよい。3D復元処理に使用されるフレームを含む区間を設定する方法は、上記の例に限らない。
ユーザーは、3D復元処理を開始するためにボタンBT11を押す。ボタンBT11が押された後、図7に示す3Dデータ生成処理が開始される。図15は、ボタンBT11が押された後のダイアログボックスDB10を示す。
ボタンBT11が押された後、ボタンBT11は、3D復元処理を中断するためのボタンBT12に変更される。3Dデータ生成処理が実行されているとき、ユーザーは任意のタイミングでボタンBT12を押すことにより、3Dデータ生成処理を中断する指示を内視鏡装置1に入力することができる。ユーザーがボタンBT12を押したとき、制御部180は、現在の番号nを、ステップS110において使用される所定の番号として設定する。現在の番号nに関する処理が終了した後、ステップS111が実行される。
シークバーSB10は、現在の番号nと対応するフレームFR12を表示する。ユーザーは、3D復元処理が開始されたフレームFR10から3D復元処理が中断されたフレームFR12までの処理の進捗状況を確認することができる。
表示制御部185は、3Dデータの画像3D10を領域RG11に表示する。画像3D10は、フレームFR10からフレームFR12を使用することにより生成された3Dデータを示す。図15に示す例では、その3Dデータは、復元された7枚の動翼の3D形状を示す。図15に示す例では、番号が各動翼に割り当てられ、その番号が表示される。図15に示す例では、8枚の動翼が配置されており、残りの1枚の動翼の3Dデータはまだ生成されていない。
動翼に番号を割り当てる方法として、どのような方法が使用されてもよい。以下では、動翼に番号を割り当てる方法の例を説明する。
例えば、3D復元部184は、機械学習等の画像認識技術を使用することにより、領域RG10に表示された画像における動翼を認識してもよく、かつ認識された動翼の枚数に応じて各動翼に番号を割り当ててもよい。ターニングツール43が動翼を回転させる場合、3D復元部184は、動翼の回転角度を示す情報をターニングツール43から取得してもよい。3D復元部184は、動翼の回転角度と、ディスクの外周に固定されている動翼の枚数とに基づいて、領域RG10に表示された画像に写っている動翼を特定してもよい。3D復元部184は、特定された動翼に番号を割り当ててもよい。ディスクの外周に固定されている動翼の枚数は既知である。
3D復元部184は、生成された3Dデータに形状認識技術を適用し、動翼に近い形状を持つ物体を認識してもよい。3D復元部184は、その物体に番号を割り当ててもよい。
3Dデータ生成装置が内視鏡装置1以外の装置である場合、制御部180は、撮像素子28によって生成された2枚以上の画像を、外部機器インターフェース16を経由して3Dデータ生成装置に送信してもよい。3Dデータ生成装置は、その2枚以上の画像を受信し、図7に示す処理と同様の処理を実行してもよい。
本発明の各態様の3Dデータ生成方法は、タービンの内部の3D形状を示す3Dデータを生成する。3Dデータ生成方法は、画像取得ステップ、領域検出ステップ、領域判断ステップ、およびデータ生成ステップを有する。
CPU18は、画像取得ステップ(ステップS102)において、タービンの内部の構成要素の2枚以上の画像を取得する。その構成要素は、タービンの内部で移動可能な第1の物体と、タービンの内部で静止している第2の物体とを含む。その2枚以上の画像は、タービンの内部の光を取り込む管状の挿入部2を有する撮像装置によって生成される。挿入部2は、タービンに形成された穴(アクセスポートAP10)を通ってタービンに挿入される。挿入部2がタービンに挿入されるときの挿入部2の移動方向(方向DR10)は第1の物体の移動方向(方向DR12)と異なる。第1の物体が移動している間、挿入部2に対する第1の物体の位置は、撮像装置が画像を生成するタイミング毎に異なる。
CPU18は、領域検出ステップ(ステップS105)において、その2枚以上の画像に含まれる少なくとも2枚の画像におけるその構成要素の同一領域である2つ以上の対応領域を検出する。CPU18は、領域判断ステップ(ステップS107)において、その2枚以上の画像の各々における少なくとも一部の領域が変化領域(移動領域)であるのか非変化領域(静止領域)であるのかを判断する。変化領域は、撮像装置によって生成された画像における座標が変化する構成要素の領域である。非変化領域は、撮像装置によって生成された画像における座標が変化しない構成要素の領域である。CPU18は、データ生成ステップ(ステップS109)において、その2つ以上の対応領域のうち非変化領域であると判断された対応領域を使用せずに、その2つ以上の対応領域のうち変化領域であると判断された対応領域を使用することにより3Dデータを生成する。
本発明の各態様の3Dデータ生成システムは、撮像装置および3Dデータ生成装置(制御装置10)を有する。撮像装置は、タービンの内部の光を取り込む管状の挿入部2を有し、タービンの内部の構成要素の2枚以上の画像を生成する。3Dデータ生成装置は、CPU18を有する。CPU18は、上記の画像取得ステップ、領域検出ステップ、領域判断ステップ、およびデータ生成ステップを実行する。
本発明の各態様は、以下の変形例を含んでもよい。CPU18が領域検出ステップ(ステップS105)においてその2つ以上の対応領域を検出した後、CPU18は領域判断ステップ(ステップS107)においてその2枚以上の画像の各々における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断する。
本発明の各態様は、以下の変形例を含んでもよい。第1の物体は動翼を含む。第2の物体は静翼またはシュラウドを含む。
本発明の各態様は、以下の変形例を含んでもよい。その2枚以上の画像において、第1の物体の一部は第2の物体によって隠される。図5に示す例では、動翼RT14の一部は静翼ST14によって隠される。
本発明の各態様は、以下の変形例を含んでもよい。第2の物体は、その2枚以上の画像において第1の物体の一部を隠す物体と、その2枚以上の画像において一部が第1の物体によって隠される物体とを含む。図5に示す例では、静翼ST14は動翼RT14の一部を隠し、かつシュラウドSH10の一部は動翼RT14によって隠される。
本発明の各態様は、以下の変形例を含んでもよい。撮像装置は、互いに異なる2つ以上のタイミングでその2枚以上の画像を生成する。CPU18は、領域判断ステップ(ステップS107)において、その2枚以上の画像に含まれる少なくとも2枚の画像間の対応領域の動き量に基づいてその2枚以上の画像の各々における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断する。
本発明の各態様は、以下の変形例を含んでもよい。挿入部2はタービンの内部において固定される。
本発明の各態様は、以下の変形例を含んでもよい。撮像装置はボアスコープである。
第1の実施形態において、内視鏡装置1は、静止領域と対応する特徴領域を使用せずに移動領域と対応する特徴領域を使用することにより、タービンの内部の3D形状を示す3Dデータを生成する。そのため、内視鏡装置1は、3Dデータを生成する処理の信頼性を向上させることができる。
ユーザーは、表示部5に表示された3Dデータの画像を確認する、または3Dデータを使用する計測を実行することにより、動翼の状態を確認することができる。そのため、検査の品質および効率が向上する。
(第1の実施形態の第1の変形例)
本発明の第1の実施形態の第1の変形例を説明する。前述した第1の実施形態において、内視鏡装置1は、2枚以上の画像間における被写体の領域の動き量を使用することによりその領域を移動領域または静止領域に分類する。第1の実施形態の第1の変形例において、内視鏡装置1は、画像の輝度差分を使用することにより被写体の領域を移動領域または静止領域に分類する。
図16を使用することにより、内視鏡装置1が実行する処理について説明する。図16は、内視鏡装置1が実行する3Dデータ生成処理の手順を示す。図7に示す処理と同じ処理の説明を省略する。
ステップS105の後、領域判断部183は、画像IMG(n-1)と画像IMGnとの間における輝度差分を算出する(ステップS120)。
領域判断部183は、ステップS120において以下の処理を実行する。領域判断部183は、画像IMG(n-1)における各画素の輝度と画像IMGnにおける各画素の輝度との差分値を算出する。領域判断部183は、画像IMG(n-1)および画像IMGnにおける同一の画素の輝度を使用する。
撮像素子28が、3つのチャネルを持つカラー画像を生成する場合、領域判断部183は、画像IMG(n-1)および画像IMGnをグレースケール画像に変換してもよい。あるいは、領域判断部183は、3つのチャネルの値の各々を使用することにより3つの差分値を算出し、かつその3つの差分値の統計値を輝度差分として算出してもよい。
ステップS120の後、領域判断部183は、輝度差分に基づいて画像IMGnの特徴領域が移動領域であるのか静止領域であるのかを判断する(ステップS107a)。ステップS107aの後、ステップS108が実行される。
領域判断部183は、ステップS107aにおいて以下の処理を実行する。領域判断部183は、各画素の輝度差分と閾値とを比較する。輝度差分が閾値よりも大きいとき、領域判断部183は、その画素が移動領域に含まれると判断する。輝度差分が閾値以下であるとき、領域判断部183は、その画素が静止領域に含まれると判断する。領域判断部183は、画像IMGnの全ての画素に対して上記の処理を実行する。
挿入部2の先端20が動いているとき、画像に写っている領域の全体が同じ方向に移動する。そのため、領域判断部183は、輝度差分を算出する前に画像IMG(n-1)の位置と画像IMGnの位置とを一致させてもよい。
図17を使用することにより、ステップS107aおよびステップS108の詳細を説明する。画像IMG(n-1)における2つ以上の特徴領域と、画像IMGnにおける2つ以上の特徴領域とが図17に示されている。各特徴領域は、図9に示す特徴領域と同じである。
領域判断部183は、画像IMG(n-2)および画像IMG(n-1)を使用することにより、画像IMG(n-1)の各画素の輝度差分を算出する。領域判断部183は、輝度差分に基づいて画像IMG(n-1)の2つ以上の特徴領域を移動領域および静止領域MS(n-1)に分類する。移動領域は、特徴領域P2(n-1),P3(n-1),P4(n-1),P5(n-1)を含む。
領域判断部183は、画像IMG(n-1)および画像IMGnを使用することにより、画像IMGnの各画素の輝度差分を算出する。領域判断部183は、輝度差分に基づいて画像IMGnの2つ以上の特徴領域を移動領域および静止領域MSnに分類する。移動領域は、特徴領域P2n,P3n,P4n,P5nを含む。
3D復元部184は、静止領域MS(n-1)と対応する特徴領域をステップS108において抽出しない。また、3D復元部184は、静止領域MSnと対応する特徴領域をステップS108において抽出しない。
ステップS102において新しい画像が取得されるたびに上記と同様の処理が実行される。
ステップS105、ステップS120、およびステップS107aの順番は、図16に示す順番に限らない。図18を使用することにより、内視鏡装置1が実行する処理の変形例について説明する。図18は、内視鏡装置1が実行する3Dデータ生成処理の手順を示す。図16に示す処理と同じ処理の説明を省略する。
番号nが1ではないと制御部180がステップS104において判断したとき、領域判断部183は、ステップS120において、画像IMG(n-1)と画像IMGnとの間における輝度差分を算出する。ステップS120の後、領域判断部183は、ステップS107aにおいて、輝度差分に基づいて画像IMGnの特徴領域が移動領域であるのか静止領域であるのかを判断する。このとき、画像IMGnの特徴領域および画像IMG(n-1)の特徴領域は互いに関連付けられていない。
ステップS107aの後、領域検出部182は、画像IMG(n-1)および画像IMGnにおける同一の特徴領域(対応領域)を検出する。このとき、領域検出部182は、ステップS107aにおいて移動領域であると判断された特徴領域の情報を使用するが、ステップS107aにおいて静止領域であると判断された特徴領域の情報を使用しない(ステップS105a)。ステップS105aの後、ステップS108が実行される。
本発明の各態様は、以下の変形例を含んでもよい。CPU18は、領域判断ステップ(ステップS107a)において、タービンの内部の構成要素の2枚以上の画像に含まれる少なくとも2枚の画像間の画素値の差分に基づいてその2枚以上の画像の各々における少なくとも一部の領域が変化領域(移動領域)であるのか非変化領域(静止領域)であるのかを判断する。
本発明の各態様は、以下の変形例を含んでもよい。CPU18が領域判断ステップ(ステップS107a)において、その2枚以上の画像における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断した後、CPU18は、領域検出ステップ(ステップS105a)において非変化領域を使用せずに変化領域を使用することにより2つ以上の対応領域を検出する。
第1の実施形態の第1の変形例において、内視鏡装置1は、画像の輝度差分を使用することにより移動領域および静止領域を判断することができる。
(第1の実施形態の第2の変形例)
本発明の第1の実施形態の第2の変形例を説明する。前述した第1の実施形態および前述した第1の実施形態の第1の変形例において、内視鏡装置1は、2枚以上の画像を使用することにより被写体の領域を移動領域または静止領域に分類する。第1の実施形態の第2の変形例において、内視鏡装置1は、1枚の画像を使用することにより被写体の領域を移動領域または静止領域に分類する。
図19を使用することにより、内視鏡装置1が実行する処理について説明する。図19は、内視鏡装置1が実行する3Dデータ生成処理の手順を示す。図7に示す処理と同じ処理の説明を省略する。
ステップS105の後、領域判断部183は、画像IMGnに画像認識技術を適用し、画像IMGnにおける被写体の領域を判断する(ステップS121)。
領域判断部183は、ステップS121において以下の処理を実行する。領域判断部183は、画像IMGnを処理し、画像IMGnに写っている動翼、静翼、またはシュラウド等を検出する。領域判断部183は、画像認識技術として公知の機械学習を使用してもよい。領域判断部183は、機械学習を使用しない方法を使用してもよい。画像における領域を判断する方法はどのような方法であってもよい。
領域判断部183が機械学習を使用する例を説明する。ユーザーは、過去に実施された検査において取得された画像における特定の領域に物体の名称を付与する。その画像は、静止画または動画のフレームである。図19に示す処理が実行される前、領域判断部183は、ユーザーによって付与された名称を正解データとして学習する。正解データは教師データとも呼ばれる。領域判断部183は、正解データを使用することにより、学習用の画像の特徴を解析し、学習済みモデルを生成する。タービンの動翼の検査が実施されるとき、動翼は回転し、かつ静翼またはシュラウドは固定されている。領域判断部183は、各物体の動きに関する特徴を解析する。
外部装置が上記の処理を実行し、学習済みモデルを生成してもよい。外部装置は、PC41またはクラウドサーバー等である。内視鏡装置1は、学習済みモデルを外部装置から取得してもよい。
学習済みモデルが生成された後、領域判断部183は、ステップS121において、学習済みモデルを使用することにより、評価用の画像に写っている物体を判断する。
領域判断部183が機械学習を使用しない例を説明する。領域判断部183は、独自に設計された画像特徴量を算出する。領域判断部183は、画像特徴量を使用するクラスタリングを実行し、画像に写っている物体を判断する。領域判断部183は、サポートベクターマシン等の技術をクラスタリングに適用することができる。
ステップS121の後、領域判断部183は、ステップS121において検出された領域の情報を参照する。領域判断部183は、画像IMGnにおける動翼の特徴領域を移動領域として判断し、かつ画像IMGnにおける静翼またはシュラウドの特徴領域を静止領域として判断する(ステップS107b)。ステップS107bの後、ステップS108が実行される。
図20(a)および図20(b)を使用することにより、ステップS121およびステップS107bの詳細を説明する。図20(a)は、撮像素子28によって生成された画像IMGnを示す。図20(b)は、画像IMGnにおける移動領域および静止領域を示す。
領域判断部183は、ステップS121において画像IMGnを解析し、物体OBJ1、物体OBJ2、および物体OBJ3を検出する。各物体の特徴に応じた番号が各物体に付与される。例えば、番号1が物体OBJ1に付与され、番号2が物体OBJ2に付与され、番号3が物体OBJ3に付与される。2つ以上の物体の種類が同じまたは類似する場合、類似する番号がその2つ以上の物体に付与されてもよい。図21に示す例では、類似する番号2-1,2-2等が物体OBJ2に付与される。領域判断部183は、物体情報を参照し、各物体の名称を取得する。
物体情報は、物体の番号および物体の名称を含む。図21は物体情報の例を示す。物体情報において番号および名称は互いに関連付けられている。その名称は、番号と対応する特徴を持つ物体の名称を示す。
物体情報において静翼が物体OBJ1の番号1と関連付けられている。そのため、領域判断部183は、物体OBJ1の名称が静翼であると判断する。物体情報において動翼が物体OBJ2の番号2と関連付けられている。そのため、領域判断部183は、物体OBJ2の名称が動翼であると判断する。物体情報においてシュラウドが物体OBJ3の番号3と関連付けられている。そのため、領域判断部183は、物体OBJ3の名称がシュラウドであると判断する。
領域判断部183は、ステップS107bにおいて、物体OBJ2の特徴領域が移動領域であると判断する。また、領域判断部183は、ステップS107bにおいて、物体OBJ1の特徴領域および物体OBJ3の特徴領域が移動領域であると判断する。
ステップS121は、ステップS102が実行されるタイミングとステップS107bが実行されるタイミングとの間の任意のタイミングで実行されてもよい。
ステップS105、ステップS121、およびステップS107bの順番は、図19に示す順番に限らない。図22を使用することにより、内視鏡装置1が実行する処理の変形例について説明する。図22は、内視鏡装置1が実行する3Dデータ生成処理の手順を示す。図19に示す処理と同じ処理の説明を省略する。
番号nが1ではないと制御部180がステップS104において判断したとき、領域判断部183は、ステップS121において、画像IMGnにおける被写体の領域を判断する。ステップS121の後、領域判断部183は、ステップS107bにおいて、画像IMGnにおける動翼の特徴領域を移動領域として判断する。また、領域判断部183は、ステップS107bにおいて、画像IMGnにおける静翼またはシュラウドの特徴領域を静止領域として判断する。このとき、画像IMGnの特徴領域および画像IMG(n-1)の特徴領域は互いに関連付けられていない。
ステップS107bの後、領域検出部182は、画像IMG(n-1)および画像IMGnにおける同一の特徴領域(対応領域)を検出する。このとき、領域検出部182は、ステップS107bにおいて移動領域であると判断された特徴領域の情報を使用するが、ステップS107bにおいて静止領域であると判断された特徴領域の情報を使用しない(ステップS105b)。ステップS105bの後、ステップS108が実行される。
本発明の各態様は、以下の変形例を含んでもよい。CPU18は、領域判断ステップ(ステップS107b)において、2枚以上の画像に含まれる1枚の画像に写っている被写体を判断することによりその2枚以上の画像の各々における少なくとも一部の領域が変化領域(移動領域)であるのか非変化領域(静止領域)であるのかを判断する。
本発明の各態様は、以下の変形例を含んでもよい。CPU18が領域判断ステップ(ステップS107b)において、2枚以上の画像における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断した後、CPU18は、領域検出ステップ(ステップS105b)において非変化領域を使用せずに変化領域を使用することにより2つ以上の対応領域を検出する。
第1の実施形態の第2の変形例において、内視鏡装置1は、画像における被写体の種類を判断することにより移動領域および静止領域を判断することができる。
(第2の実施形態)
本発明の第2の実施形態を説明する。検査が実施されているとき、内視鏡装置1は画像を生成し、かつ被写体の3Dデータを生成する。つまり、内視鏡装置1は、画像の生成と3Dデータの生成とを並行的に実行する。3D復元処理の失敗を避け、かつ効率的な検査を促進するために、内視鏡装置1は様々な支援機能を提供する。
図6に示すCPU18は、図23に示すCPU18aに変更される。図23は、CPU18aの構成を示す。図6に示す構成と同じ構成の説明を省略する。
CPU18aは、制御部180、画像取得部181、領域検出部182、領域判断部183、3D復元部184、表示制御部185、状態判断部186、および通知部187として機能する。図23に示すブロックの少なくとも1つがCPU18aと異なる回路で構成されてもよい。
CPU18aの各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。CPU18aの各部は、1つまたは複数のプロセッサを含むことができる。CPU18aの各部は、1つまたは複数の論理回路を含むことができる。
状態判断部186は、検査の状態を判断する。例えば、検査の状態は、撮像素子28によって生成された画像の画質、その画像に写っている静止領域の広さ、カメラの動き、または被写体の観察の進捗度である。状態判断部186は、検査の状態に関する検査状態情報を生成する。
通知部187は、検査状態情報をユーザーに通知する通知処理を実行する。例えば、通知部187は、検査状態情報と対応するグラフィック画像信号を生成する。通知部187は、そのグラフィック画像信号を映像信号処理回路12に出力する。前述した処理と同様の処理が実行され、表示部5は、検査状態情報を含むメッセージを表示する。これにより、通知部187は、検査状態情報を表示部5に表示する。
通知部187は、音データをスピーカーに出力し、検査状態情報と対応する音をスピーカーに発生させてもよい。通知部187は、振動のパターンを示す制御信号を振動発生器に出力し、検査状態情報と対応するパターンを持つ振動を振動発生器に発生させてもよい。通知部187は、発光のパターンを示す制御信号を光源に出力し、検査状態情報と対応するパターンを持つ光を光源に発生させてもよい。
以下では、検査状態情報を含むメッセージを表示部5が表示する例を説明する。この場合、表示制御部185が通知部187として機能してもよい。
図24および図25を使用することにより、内視鏡装置1が実行する処理の第1の例について説明する。図24および図25は、内視鏡装置1が実行する3Dデータ生成処理の手順を示す。図7に示す処理と同じ処理の説明を省略する。
例えば、ユーザーは、操作部4を操作することにより、3Dデータ生成処理を開始する指示を内視鏡装置1に入力する。表示部5がタッチパネルとして構成されている場合、ユーザーは表示部5の画面をタッチすることにより、その指示を内視鏡装置1に入力する。制御部180は、その指示を受け付け、かつ3Dデータ生成処理を開始する。
制御部180は、撮像素子28によって生成された画像に写っている被写体が所定時間静止していると判断されたときに3Dデータ生成処理を開始してもよい。あるいは、制御部180は、その画像を取得するための撮影の構図が所定の構図と一致したときに3Dデータ生成処理を開始してもよい。例えば、制御部180は、過去の検査で実施された撮影において取得された検査画像を使用することにより、現在の構図が過去の構図と一致しているか否かを確認してもよい。ユーザーは、手動で操作を実施することにより、撮影の構図を所定の構図と合わせる作業または撮影の構図を確認する作業を実施してもよい。3Dデータ生成処理が開始されたとき、制御部180は、ターニングツール43に制御情報を送信し、ターニングツール43に回転を開始させてもよい。
ステップS102の後、状態判断部186は、画像IMGnの画質を判断する(ステップS130)。
例えば、ハレーションが画像IMGnに発生している、または画像IMGnが暗い場合、3D復元処理が困難である。画像IMGnに写っている被写体の模様が少ない場合も、3D復元処理が困難である。ブレードの回転が速い時も、モーションブラーにより、3D再復元処理が困難である。これらの要因が発生しているとき、状態判断部186は画像IMGnの画質が低いと判断する。これらの要因が発生していないとき、状態判断部186は画像IMGnの画質が高いと判断する。
画像IMGnの画質が高いと状態判断部186がステップS130において判断したとき、ステップS103が実行される。画像IMGnの画質が低いと状態判断部186がステップS130において判断したとき、状態判断部186は、画質が低いまたは3D復元処理が困難であることを示す検査状態情報を生成する。通知部187は、通知処理を実行し、検査状態情報を表示部5に表示する(ステップS133)。検査状態情報は、警告として機能する。検査状態情報は、撮影の構図または画像の設定条件等を変更することをユーザーに促す情報を含んでもよい。
ステップS133が実行されたとき、制御部180は、ターニングツール43を停止させる制御情報をターニングツール43に送信してもよい。ターニングツール43は、制御情報に基づいて動翼の回転を停止してもよい。ステップS133が実行されたとき、3Dデータ生成処理が終了する。
ステップS106の後、制御部180は、ステップS106において算出された動き量に基づいて動翼の回転速度を調整する(ステップS131)。ステップS131の後、ステップS107が実行される。
制御部180は、ステップS131において以下の処理を実行する。制御部180は、ステップS106において算出された動き量と、動きの目標量との差分を算出する。動きの目標量は予め設定される。その差分が所定の値よりも大きいとき、制御部180は、動翼の回転速度を遅くするための制御情報をターニングツール43に送信する。ターニングツール43は、制御情報に基づいて動翼の回転速度を遅くする。
挿入部2の先端20が被写体に近いとき、撮像素子28によって生成された画像において被写体が速く動く。そのため、内視鏡装置1は、動翼の回転速度を下げる必要がある。算出された動き量に基づいて動翼の回転速度が制御されるため、内視鏡装置1は、観察の構図による検査への影響を低減させることができる。
ステップS106の後、ステップS131が実行されずにステップS107が実行されてもよい。
ステップS107の後、状態判断部186は、画像IMGnにおける静止領域の面積が大きいか否かを判断する(ステップS132)。
状態判断部186は、ステップS132において以下の処理を実行する。例えば、状態判断部186は、画像IMGnにおける静止領域の画素数を算出する。状態判断部186は、算出された画素数と所定の値とを比較する。その画素数が所定の値よりも大きいとき、状態判断部186は、静止領域の面積が大きいと判断する。その画素数が所定の値以下であるとき、状態判断部186は、静止領域の面積が小さいと判断する。所定の値は、予め設定される。所定の値は変更可能であってもよい。
図26(a)および図26(b)を使用することにより、ステップS132の例を説明する。図26(a)は、撮像素子28によって生成された画像IMGnを示す。図26(b)は、画像IMGnにおける移動領域および静止領域を示す。
画像IMGnは、静止領域RG20、静止領域RG21、および移動領域RG22を含む。画像IMGnの全体に対する移動領域RG22の割合は小さい。この場合、内視鏡装置1が3D復元処理に失敗する可能性が高まる。
静止領域の面積が小さいと状態判断部186がステップS132において判断したとき、ステップS108が実行される。静止領域の面積が大きいと状態判断部186がステップS132において判断したとき、状態判断部186は、ステップS133において、3D復元処理が困難であることを示す検査状態情報を生成する。通知部187は、ステップS133において、通知処理を実行し、検査状態情報を表示部5に表示する。検査状態情報は、警告として機能する。検査状態情報は、撮影の構図を変更することをユーザーに促す情報を含んでもよい。
番号nが2であるとき、ステップS132が初めて実行される。このとき、ステップS109はまだ実行されていない。静止領域の面積が大きいと状態判断部186がステップS132において判断したとき、上記のようにステップS133が実行され、3Dデータ生成処理が終了する。このとき、制御部180は、ターニングツール43に動翼の回転を停止させてもよい。
一方、ステップS132が1回以上実行された後、ステップS132が再度実行され、かつ静止領域の面積が大きいと状態判断部186が判断する可能性がある。これは、3Dデータ生成処理の途中で静止領域が増加する状況を意味する。挿入部2の先端20の位置を変更するためにユーザーが動翼の回転を停止させたとき、静止領域が増加する。動翼の回転が停止する条件は、ユーザーによる指示の発生に限らない。例えば、内視鏡装置1が動翼の回転を自動的に停止させてもよい。動翼の回転が停止する条件は、上記の例に限らない。
静止領域が増加する状況について説明する。大きな動翼の検査が実施される場合がある。多くの場合、大きな動翼は低圧側の圧縮セクションまたはタービンセクションに配置されている。その動翼の一部のみがカメラの視野に入る。この検査では、先端20の位置が変更され、動翼の撮影が2回以上実施される。
図27(a)、図27(b)、図28(a)、および図28(b)を使用することにより、大きな動翼の検査の詳細を説明する。各図は、8枚の動翼RT20の観察位置を示す。
まず、先端20は、図27(a)に示す位置に固定される。このとき、図27(b)に示すように照明光LT20は動翼RT20の上部に照射される。この状態で動翼が方向DR20に一回転する。このとき、動翼は360以上回転する。動翼が回転している間、ステップS101からステップS110が繰り返し実行される。
動翼が一回転した後、動翼の回転が停止される。先端20の位置が変更され、先端20は、図28(a)に示す位置に固定される。このとき、図28(b)に示すように照明光LT20は動翼RT20の下部に照射される。この状態で動翼が方向DR20に一回転し、ステップS101からステップS110が繰り返し実行される。
先端20の位置を変更するために動翼の回転が停止されたとき、撮像素子28によって生成された画像に写っている被写体の全体が停止する。そのため、状態判断部186は、ステップS132において、静止領域の面積が大きいと判断する。この場合、内視鏡装置1は、3Dデータ生成処理を継続してもよい。つまり、ステップS133が実行された後、ステップS110が実行されてもよい。この場合、内視鏡装置1は、ステップS108およびステップS109を停止し、ステップS101からステップS107を継続する。
先端20が、図27(a)に示す位置から図28(a)に示す位置まで動いている間、撮像素子28によって生成された画像に写っている被写体の全体が移動する。そのため、状態判断部186は、ステップS132において、静止領域の面積が小さいと判断する。この場合、内視鏡装置1は、ステップS108およびステップS109を再開し、ステップS101からステップS110を継続する。
先端20が、図28(a)に示す位置に到達し、かつ固定される。このとき、撮像素子28によって生成された画像に写っている被写体の全体が停止する。そのため、状態判断部186は、ステップS132において、静止領域の面積が大きいと判断する。この場合、内視鏡装置1は、ステップS108およびステップS109を停止し、ステップS101からステップS107を継続してもよい。
その後、動翼の回転が再開される。そのため、状態判断部186は、ステップS132において、静止領域の面積が小さいと判断する。この場合、内視鏡装置1は、ステップS108およびステップS109を再開し、ステップS101からステップS110を継続する。
大きな動翼の検査では、動翼の回転が停止された場合であっても、ステップS101からステップS107は繰り返し実行される。これにより、内視鏡装置1は、撮像素子28によって生成された2枚以上の画像と、その2枚以上の画像における同一の特徴領域の情報とを蓄積する。動翼の回転が再開され、ステップS109における3D復元処理が再度実行されたとき、3D復元部184は、蓄積された画像および情報を使用することにより、被写体の3D形状を復元することができる。そのため、内視鏡装置1は、2枚以上の動翼の全体の3D形状を示す1つの3Dデータを生成することができる。
番号nが2以上であり、かつ静止領域の面積が大きいと状態判断部186がステップS132において判断したとき、状態判断部186は、ステップS133において、動翼の回転が停止していることを示す検査状態情報を生成してもよい。
状態判断部186は、ターニングツール43の駆動状態を示す状態情報をターニングツール43から受信してもよい。状態判断部186は、状態情報に基づいて動翼の状態を監視してもよい。状態情報は、ターニングツール43が動翼を回転させているか否かを示す。状態判断部186は、ステップS133において、状態情報に基づいて動翼の回転が停止していることを検出し、かつ動翼の回転が停止していることを示す検査状態情報を生成してもよい。
動翼の全体の検査が終了し、かつ静止領域の面積が大きいと状態判断部186がステップS132において判断したとき、内視鏡装置1は、ステップS133を実行し、かつ3Dデータ生成処理を終了してもよい。内視鏡装置1は、動翼の全体の検査が終了したことを検出する方法として、実施中の検査において観察された被写体が再度観察されたことを検出する方法を使用してもよい。その方法について、第3の例において後述する。
ユーザーは、操作部4を操作することにより、動翼の全体の検査が終了したことを示す情報を内視鏡装置1に入力してもよい。表示部5がタッチパネルとして構成されている場合、ユーザーは表示部5の画面をタッチすることにより、その情報を内視鏡装置1に入力してもよい。状態判断部186は、その情報に基づいて、検査が終了したことを検出してもよい。
図29および図30を使用することにより、内視鏡装置1が実行する処理の第2の例について説明する。図29および図30は、内視鏡装置1が実行する3Dデータ生成処理の手順を示す。図7に示す処理と同じ処理の説明を省略する。
ステップS106の後、ステップS131が実行される。図30に示すステップS131は、図25に示すステップS131と同じである。ステップS131の後、ステップS107が実行される。ステップS106の後、ステップS131が実行されずにステップS107が実行されてもよい。
ステップS107の後、状態判断部186は、カメラの動きを判断する(ステップS134)。
状態判断部186は、ステップS134において以下の処理を実行する。例えば、状態判断部186は、画像IMGnを解析することによりカメラの動きを判断する。先端20の加速度および角速度を検出するIMU(Inertial Measurement Unit)が挿入部2の先端20に配置されている場合、状態判断部186は、IMUによって測定された値に基づいてカメラの動きを判断してもよい。カメラの動きが微小である場合、状態判断部186は、カメラが動いていないと判断してもよい。
カメラが動いていないと状態判断部186がステップS134において判断したとき、ステップS108が実行される。カメラが動いていると状態判断部186がステップS134において判断したとき、状態判断部186は、カメラが動いていることを示す検査状態情報を生成する。通知部187は、通知処理を実行し、検査状態情報を表示部5に表示する(ステップS135)。検査状態情報は、警告として機能する。
ステップS135が実行されたとき、制御部180は、ターニングツール43を停止させる制御情報をターニングツール43に送信してもよい。ターニングツール43は、制御情報に基づいて動翼の回転を停止してもよい。ステップS135が実行されたとき、3Dデータ生成処理が終了する。
前述したように、大きな動翼の検査を実施するために、先端20の位置が変更され、動翼の撮影が2回以上実施される場合がある。先端20が動いているとき、状態判断部186は、ステップS134において、カメラが動いていると判断する。この場合、内視鏡装置1は、3Dデータ生成処理を継続してもよい。つまり、ステップS135が実行された後、ステップS110が実行されてもよい。この場合、内視鏡装置1は、ステップS108およびステップS109を停止し、ステップS101からステップS107を継続する。
動翼の全体の検査が終了し、かつカメラが動いていると状態判断部186がステップS134において判断したとき、内視鏡装置1は、ステップS135を実行し、かつ3Dデータ生成処理を終了してもよい。内視鏡装置1は、動翼の全体の検査が終了したことを検出する方法として、実施中の検査において被写体が再度観察されたことを検出する方法を使用してもよい。その方法について、第3の例において後述する。
前述したように、ユーザーは、操作部4またはタッチパネルを操作することにより、動翼の全体の検査が終了したことを示す情報を内視鏡装置1に入力してもよい。状態判断部186は、その情報に基づいて、検査が終了したことを検出してもよい。
図29および図31を使用することにより、内視鏡装置1が実行する処理の第3の例について説明する。図29および図31は、内視鏡装置1が実行する3Dデータ生成処理の手順を示す。図7に示す処理と同じ処理の説明を省略する。
ステップS106の後、ステップS131が実行される。図31に示すステップS131は、図25に示すステップS131と同じである。ステップS131の後、ステップS107が実行される。ステップS106の後、ステップS131が実行されずにステップS107が実行されてもよい。
ステップS109の後、状態判断部186は、実施中の検査において被写体が再度観察されたか否かを判断する(ステップS136)。動翼が一回転したとき、既に観察された被写体が再度観察される。
状態判断部186は、ステップS136において以下の処理を実行する。例えば、状態判断部186は、ターニングツール43の駆動状態を示す状態情報をターニングツール43から受信する。状態判断部186は、状態情報に基づいて動翼の状態を監視する。状態情報は、動翼の回転角度を示す。動翼の回転角度が360度よりも小さいとき、状態判断部186は、被写体が再度観察されていないと判断する。動翼の回転角度が360度以上であるとき、状態判断部186は、被写体が再度観察されたと判断する。
あるいは、状態判断部186は、撮像素子28によって生成された画像を解析し、既に観察された被写体の特徴と似ている特徴を持つ被写体がその画像に写っているか否かを判断する。その特徴を持つ被写体がその画像に写っていないとき、状態判断部186は、被写体が再度観察されていないと判断する。その特徴を持つ被写体がその画像に写っているとき、状態判断部186は、被写体が再度観察されたと判断する。
あるいは、状態判断部186は、撮像素子28によって生成された画像を解析し、その画像に写っている動翼を認識する。状態判断部186は、認識された動翼の枚数をカウントする。ディスクの外周に固定されている動翼の枚数(設計上の枚数)は既知である。状態判断部186は、認識された動翼の枚数が設計枚数に到達したか否かを判断する。認識された動翼の枚数が設計枚数に到達していないとき、状態判断部186は、被写体が再度観察されていないと判断する。認識された動翼の枚数が設計枚数に到達したとき、状態判断部186は、被写体が再度観察されたと判断する。
被写体が再度観察されていないと状態判断部186がステップS136において判断したとき、ステップS110が実施される。被写体が再度観察されたと状態判断部186がステップS136において判断したとき、状態判断部186は、被写体が再度観察されたことを示す検査状態情報を生成する。通知部187は、通知処理を実行し、検査状態情報を表示部5に表示する(ステップS137)。検査状態情報は、警告として機能する。検査状態情報は、検査を終了することをユーザーに促す情報を含んでもよい。前述したように、大きな動翼の検査を実施するために、先端20の位置が変更され、動翼の撮影が2回以上実施される場合、検査状態情報は、先端20の位置を変更することをユーザーに促す情報を含んでもよい。
ステップS137が実行されたとき、制御部180は、ターニングツール43を停止させる制御情報をターニングツール43に送信してもよい。ターニングツール43は、制御情報に基づいて動翼の回転を停止してもよい。ステップS137が実行されたとき、3Dデータ生成処理が終了する。
第1から第3の例において、ステップS106およびステップS107はそれぞれ、図16に示すステップS120およびステップS107aに変更されてもよい。第1から第3の例において、ステップS106およびステップS107はそれぞれ、図19に示すステップS121およびステップS107bに変更されてもよい。
本発明の各態様は、以下の変形例を含んでもよい。CPU18は、位置判断ステップ(ステップS134)において、タービンの内部における挿入部2の位置を判断する。挿入部2の位置が変化したとき、CPU18は、通知ステップ(ステップS135)において、挿入部2の位置の変化を示す情報をユーザーに通知する処理を実行する。
本発明の各態様は、以下の変形例を含んでもよい。CPU18がデータ生成ステップ(ステップS109)を初めて実行する前に、CPU18は、算出ステップ(ステップS132)において、タービンの内部の構成要素の2枚以上の画像に含まれる画像における非変化領域(静止領域)の面積を算出する。その面積が所定の値よりも大きいとき、CPU18は、通知ステップ(ステップS133)において、警告をユーザーに通知する処理を実行する。
本発明の各態様は、以下の変形例を含んでもよい。第1の物体(動翼)は、ターニングツール43(駆動装置)が発生する駆動力によってタービンの内部で回転する。CPU18は、回転判断ステップ(ステップS136)において、第1の物体がタービンの内部で一回転したか否かを判断する。第1の物体がタービンの内部で一回転したとCPU18が判断したとき、CPU18は、通知ステップ(ステップS137)において、第1の物体がタービンの内部で一回転したことを示す情報をユーザーに通知する処理を実行する。
本発明の各態様は、以下の変形例を含んでもよい。第1の物体(動翼)は、ターニングツール43(駆動装置)が発生する駆動力によってタービンの内部で回転する。第1の物体が回転している間、CPU18は、領域検出ステップ(ステップS105)、領域判断ステップ(ステップS107)、およびデータ生成ステップ(ステップS109)を繰り返し実行する。第1の物体の回転が停止したとき、CPU18は、データ生成ステップを停止し、かつ領域検出ステップおよび領域判断ステップを継続する。
本発明の各態様は、以下の変形例を含んでもよい。第1の物体(動翼)が再度回転し始めたとき、CPU18は、データ生成ステップ(ステップS109)を再開する。
本発明の各態様は、以下の変形例を含んでもよい。CPU18は、タービンの内部の構成要素の2枚以上の画像に含まれる画像を使用することにより第1の物体(動翼)の回転状態を判断する。
本発明の各態様は、以下の変形例を含んでもよい。CPU18は、ターニングツール43(駆動装置)の状態を監視することにより第1の物体(動翼)の回転状態を判断する。
第2の実施形態において、内視鏡装置1は、検査の状態に関する検査状態情報をユーザーに通知する。そのため、内視鏡装置1は、3D復元処理の失敗を避けることができ、かつ効率的な検査を促進することができる。
以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
1 内視鏡装置
2 挿入部
3 本体部
4 操作部
5 表示部
8 内視鏡ユニット
9 CCU
10 制御装置
12 映像信号処理回路
13 ROM
14 RAM
15 カードインターフェース
16 外部機器インターフェース
17 制御インターフェース
18,18a CPU
20 先端
21 レンズ
28 撮像素子
180 制御部
181 画像取得部
182 領域検出部
183 領域判断部
184 3D復元部
185 表示制御部
186 状態判断部
187 通知部

Claims (22)

  1. タービンの内部の3次元形状を示す3次元データを生成する3次元データ生成方法であって、
    プロセッサが前記タービンの内部の構成要素の2枚以上の画像を取得する画像取得ステップであって、前記構成要素は、前記タービンの内部で移動可能な第1の物体と、前記タービンの内部で静止している第2の物体とを含み、前記2枚以上の画像は、前記タービンの内部の光を取り込む管状の挿入部を有する撮像装置によって生成され、前記挿入部は、前記タービンに形成された穴を通って前記タービンに挿入され、前記挿入部が前記タービンに挿入されるときの前記挿入部の移動方向は前記第1の物体の移動方向と異なり、前記第1の物体が移動している間、前記挿入部に対する前記第1の物体の位置は、前記撮像装置が画像を生成するタイミング毎に異なる前記画像取得ステップと、
    前記プロセッサが前記2枚以上の画像に含まれる少なくとも2枚の画像における前記構成要素の同一領域である2つ以上の対応領域を検出する領域検出ステップと、
    前記プロセッサが、前記2枚以上の画像の各々における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断する領域判断ステップであって、前記変化領域は、前記撮像装置によって生成された画像における座標が変化する前記構成要素の領域であり、前記非変化領域は、前記撮像装置によって生成された画像における座標が変化しない前記構成要素の領域である前記領域判断ステップと、
    前記プロセッサが、前記2つ以上の対応領域のうち前記非変化領域であると判断された対応領域を使用せずに、前記2つ以上の対応領域のうち前記変化領域であると判断された対応領域を使用することにより前記3次元データを生成するデータ生成ステップと、
    を有する3次元データ生成方法。
  2. 前記プロセッサが前記領域検出ステップにおいて前記2つ以上の対応領域を検出した後、前記プロセッサは前記領域判断ステップにおいて前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断する
    請求項1に記載の3次元データ生成方法。
  3. 前記プロセッサが前記領域判断ステップにおいて前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断した後、前記プロセッサは、前記領域検出ステップにおいて前記非変化領域を使用せずに前記変化領域を使用することにより前記2つ以上の対応領域を検出する
    請求項1に記載の3次元データ生成方法。
  4. 前記第1の物体は動翼を含み、
    前記第2の物体は静翼またはシュラウドを含む
    請求項1に記載の3次元データ生成方法。
  5. 前記2枚以上の画像において、前記第1の物体の一部は前記第2の物体によって隠される
    請求項1に記載の3次元データ生成方法。
  6. 前記第2の物体は、前記2枚以上の画像において前記第1の物体の一部を隠す物体と、前記2枚以上の画像において一部が前記第1の物体によって隠される物体とを含む
    請求項5に記載の3次元データ生成方法。
  7. 前記撮像装置は、互いに異なる2つ以上のタイミングで前記2枚以上の画像を生成し、
    前記プロセッサは、前記領域判断ステップにおいて、前記2枚以上の画像に含まれる少なくとも2枚の画像間の前記対応領域の動き量に基づいて前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断する
    請求項1に記載の3次元データ生成方法。
  8. 前記プロセッサは、前記領域判断ステップにおいて、前記2枚以上の画像に含まれる少なくとも2枚の画像間の画素値の差分に基づいて前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断する
    請求項1に記載の3次元データ生成方法。
  9. 前記プロセッサは、前記領域判断ステップにおいて、前記2枚以上の画像に含まれる1枚の画像に写っている被写体を判断することにより前記少なくとも一部の領域が前記変化領域であるのか前記非変化領域であるのかを判断する
    請求項1に記載の3次元データ生成方法。
  10. 前記プロセッサが、前記タービンの内部における前記挿入部の位置を判断する位置判断ステップと、
    前記挿入部の前記位置が変化したとき、前記プロセッサが前記位置の変化を示す情報をユーザーに通知する処理を実行する通知ステップと、
    をさらに有する請求項1に記載の3次元データ生成方法。
  11. 前記プロセッサが前記データ生成ステップを初めて実行する前に、前記2枚以上の画像に含まれる画像における前記非変化領域の面積を算出する算出ステップと、
    前記面積が所定の値よりも大きいとき、前記プロセッサが警告をユーザーに通知する処理を実行する通知ステップと、
    をさらに有する請求項1に記載の3次元データ生成方法。
  12. 前記第1の物体は、駆動装置が発生する駆動力によって前記タービンの内部で回転し、
    前記3次元データ生成方法は、
    前記第1の物体が前記タービンの内部で一回転したか否かを前記プロセッサが判断する回転判断ステップと、
    前記第1の物体が前記タービンの内部で一回転したと前記プロセッサが判断したとき、前記第1の物体が前記タービンの内部で一回転したことを示す情報を前記プロセッサがユーザーに通知する処理を実行する通知ステップと、
    をさらに有する
    請求項1に記載の3次元データ生成方法。
  13. 前記第1の物体は、駆動装置が発生する駆動力によって前記タービンの内部で回転し、
    前記第1の物体が回転している間、前記プロセッサは、前記領域検出ステップ、前記領域判断ステップ、および前記データ生成ステップを繰り返し実行し、
    前記第1の物体の回転が停止したとき、前記プロセッサは、前記データ生成ステップを停止し、かつ前記領域検出ステップおよび前記領域判断ステップを継続する
    請求項1に記載の3次元データ生成方法。
  14. 前記第1の物体が再度回転し始めたとき、前記プロセッサは、前記データ生成ステップを再開する
    請求項13に記載の3次元データ生成方法。
  15. 前記プロセッサは、前記2枚以上の画像に含まれる画像を使用することにより前記第1の物体の回転状態を判断する
    請求項13に記載の3次元データ生成方法。
  16. 前記プロセッサは、前記駆動装置の状態を監視することにより前記第1の物体の回転状態を判断する
    請求項13に記載の3次元データ生成方法。
  17. 前記挿入部は前記タービンの内部において固定される
    請求項1に記載の3次元データ生成方法。
  18. 前記撮像装置はボアスコープである
    請求項1に記載の3次元データ生成方法。
  19. タービンの内部の3次元形状を示す3次元データを生成する3次元データ生成システムであって、
    前記タービンの内部の光を取り込む管状の挿入部を有し、前記タービンの内部の構成要素の2枚以上の画像を生成する撮像装置であって、前記構成要素は、前記タービンの内部で移動可能な第1の物体と、前記タービンの内部で静止している第2の物体とを含み、前記2枚以上の画像は、前記撮像装置によって生成され、前記挿入部は、前記タービンに形成された穴を通って前記タービンに挿入され、前記挿入部が前記タービンに挿入されるときの前記挿入部の移動方向は前記第1の物体の移動方向と異なり、前記第1の物体が移動している間、前記挿入部に対する前記第1の物体の位置は、前記撮像装置が画像を生成するタイミング毎に異なる前記撮像装置と、
    プロセッサを含む3次元データ生成装置と、
    を有し、
    前記プロセッサは、
    前記2枚以上の画像を取得し、
    前記2枚以上の画像に含まれる少なくとも2枚の画像における前記構成要素の同一領域である2つ以上の対応領域を検出し、
    前記2枚以上の画像の各々における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断し、前記変化領域は、前記撮像装置によって生成された画像における座標が変化する前記構成要素の領域であり、前記非変化領域は、前記撮像装置によって生成された画像における座標が変化しない前記構成要素の領域であり、
    前記2つ以上の対応領域のうち前記非変化領域であると判断された対応領域を使用せずに、前記2つ以上の対応領域のうち前記変化領域であると判断された対応領域を使用することにより前記3次元データを生成する
    3次元データ生成システム。
  20. 前記撮像装置と前記3次元データ生成装置とが内視鏡装置に含まれる
    請求項19に記載の3次元データ生成システム。
  21. 前記撮像装置が内視鏡装置に含まれ、前記3次元データ生成装置は前記内視鏡装置とは別体の外部機器に含まれる
    請求項19に記載の3次元データ生成システム。
  22. タービンの内部の3次元形状を示す3次元データを生成する処理をコンピュータに実行させるためのプログラムであって、
    前記タービンの内部の構成要素の2枚以上の画像を取得する画像取得ステップであって、前記構成要素は、前記タービンの内部で移動可能な第1の物体と、前記タービンの内部で静止している第2の物体とを含み、前記2枚以上の画像は、前記タービンの内部の光を取り込む管状の挿入部を有する撮像装置によって生成され、前記挿入部は、前記タービンに形成された穴を通って前記タービンに挿入され、前記挿入部が前記タービンに挿入されるときの前記挿入部の移動方向は前記第1の物体の移動方向と異なり、前記第1の物体が移動している間、前記挿入部に対する前記第1の物体の位置は、前記撮像装置が画像を生成するタイミング毎に異なる前記画像取得ステップと、
    前記2枚以上の画像に含まれる少なくとも2枚の画像における前記構成要素の同一領域である2つ以上の対応領域を検出する領域検出ステップと、
    前記2枚以上の画像の各々における少なくとも一部の領域が変化領域であるのか非変化領域であるのかを判断する領域判断ステップであって、前記変化領域は、前記撮像装置によって生成された画像における座標が変化する前記構成要素の領域であり、前記非変化領域は、前記撮像装置によって生成された画像における座標が変化しない前記構成要素の領域である前記領域判断ステップと、
    前記2つ以上の対応領域のうち前記非変化領域であると判断された対応領域を使用せずに、前記2つ以上の対応領域のうち前記変化領域であると判断された対応領域を使用することにより前記3次元データを生成するデータ生成ステップと、
    を前記コンピュータに実行させるためのプログラム。
JP2022048909A 2022-03-24 2022-03-24 3次元データ生成方法、3次元データ生成システム、およびプログラム Pending JP2023142169A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022048909A JP2023142169A (ja) 2022-03-24 2022-03-24 3次元データ生成方法、3次元データ生成システム、およびプログラム
US18/107,077 US20230306584A1 (en) 2022-03-24 2023-02-08 Three-dimensional data generation method, three-dimensional data generation device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022048909A JP2023142169A (ja) 2022-03-24 2022-03-24 3次元データ生成方法、3次元データ生成システム、およびプログラム

Publications (1)

Publication Number Publication Date
JP2023142169A true JP2023142169A (ja) 2023-10-05

Family

ID=88096165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022048909A Pending JP2023142169A (ja) 2022-03-24 2022-03-24 3次元データ生成方法、3次元データ生成システム、およびプログラム

Country Status (2)

Country Link
US (1) US20230306584A1 (ja)
JP (1) JP2023142169A (ja)

Also Published As

Publication number Publication date
US20230306584A1 (en) 2023-09-28

Similar Documents

Publication Publication Date Title
US20150320296A1 (en) Image processing device, endoscope apparatus, information storage device, and image processing method
JP6049518B2 (ja) 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
WO2012032914A1 (ja) 画像処理装置、内視鏡装置、画像処理プログラム及び画像処理方法
US20110187824A1 (en) Endoscope apparatus and measurement method
JP6478136B1 (ja) 内視鏡システム、内視鏡システムの作動方法
JP2013132447A (ja) 画像処理装置、画像処理システム、画像処理方法、および、プログラム
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
US20240193852A1 (en) Image display method, display control device, and recording medium
JP2016039874A (ja) 内視鏡画像診断支援装置、システム、方法およびプログラム
US11419482B2 (en) Endoscope apparatus, control method of endoscope apparatus, and recording medium
CN114022547A (zh) 一种内窥镜图像检测方法、装置、设备及存储介质
JP2018197674A (ja) 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム
CN111784686A (zh) 一种内窥镜出血区域的动态智能检测方法、系统及可读存储介质
US11650407B2 (en) Method of operating observation device, observation device, and recording medium
KR102082277B1 (ko) 파노라마 영상 생성 방법 및 그 장치
JP2023142169A (ja) 3次元データ生成方法、3次元データ生成システム、およびプログラム
US20200053296A1 (en) Measurement device, method of operating measurement device, and recording medium
KR20100117793A (ko) 음원 분석 장치
JP2013258583A (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
JP7313895B2 (ja) 音響診断装置
JP5602449B2 (ja) 内視鏡装置
JP6745748B2 (ja) 内視鏡位置特定装置、その作動方法およびプログラム
CN117710233B (zh) 一种内窥图像的景深扩展方法及装置
CN114785948B (zh) 内窥镜调焦方法、装置、内镜图像处理器及可读存储介质
US20240089421A1 (en) Three-dimensional image display method, three-dimensional image display device, and recording medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220629