JP2020508465A - 資産の検査のための方法及びデバイス - Google Patents

資産の検査のための方法及びデバイス Download PDF

Info

Publication number
JP2020508465A
JP2020508465A JP2019546373A JP2019546373A JP2020508465A JP 2020508465 A JP2020508465 A JP 2020508465A JP 2019546373 A JP2019546373 A JP 2019546373A JP 2019546373 A JP2019546373 A JP 2019546373A JP 2020508465 A JP2020508465 A JP 2020508465A
Authority
JP
Japan
Prior art keywords
image
mode
asset
texture pattern
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019546373A
Other languages
English (en)
Other versions
JP7009491B2 (ja
Inventor
アレクサンダー ベンドール、クラーク
アレクサンダー ベンドール、クラーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2020508465A publication Critical patent/JP2020508465A/ja
Application granted granted Critical
Publication of JP7009491B2 publication Critical patent/JP7009491B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/02Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices involving prisms or mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2446Optical details of the image relay
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

回転資産を検査するための方法及びデバイスが開示されている。一実施形態では、検査デバイスは、立体画像のマッチングを向上させるために、追加の表面のディテールを提供するように対象の表面上にテクスチャパターンを投影するためのテクスチャパターン投影システムを含むことができる。別の実施形態では、検査デバイスは、異なる照明モードで、対象が選択された位置かトリガ位置にある際の、回転対象の選択された画像を保存するように構成することができる。保存された、選択された画像は、クラウドベースのサーバに送信及び記憶し、自動化された方式で分析することができる。【選択図】図1

Description

本明細書に開示の主題は、資産(たとえば、タービンエンジンのブレード)の検査のための方法及びデバイスに関する。
ビデオ内視鏡またはボアスコープなどのビデオ検査デバイス(または光学デバイス)は、対象の表面を検査して、たとえば損傷、摩耗、腐食、または不適切な設置の結果である場合がある、対象上の異常(たとえば、穴または凹み)を識別及び分析するために使用することができる。ビデオ検査デバイスは、異常を示す、見られている対象の表面の2次元画像を取得及び表示して、表面上の異常の寸法を判定するために使用することができる。この表面の2次元画像は、表面上の複数のポイントの3次元の座標(たとえば、(x,y,z))を提供する、表面の3次元データを生成するために使用することができる。
2次元画像内の表面のポイントの3次元座標を提供するために使用することができる、様々な既存の技術(たとえば、位相シフト分析、位相シフトモアレ、レーザドット投影などの、立体画像法及び立体照明法)が存在する。立体照明法を含む、これら技術のいくつかは、継続的に取得された複数の画像(たとえば、3から6の画像)を必要としている。立体照明法を使用する、ビデオ検査デバイスを通過して回転する回転対象(たとえば、タービンブレード)の検査において、回転対象は、検査者に、必要な複数の画像を取得させるために、停止しなければならない。このことは理想的ではない。一度に単一のポイントで取得される立体画像が、通常は、互いに同調する複数のセンサで必要とされることから、立体画像法を、これら回転対象の検査において、表面ポイントの3次元座標を提供するために使用することができる。立体画像法が、表面上の同一のポイントを見つけることに依存することから、最小のテクスチャ(たとえば、セラミック熱バリアコーティングを有する表面)を有する表面は、誤ったマッチング、及び、不正確な3次元マッピングに繋がり得る。
一実施例では、ビデオ検査デバイスは、航空機のエンジン、または発電用タービンのタービンブレードを検査するために使用することができる。ビデオ検査デバイスは、通常、固定ベーン間のタービン内のボアスコープポートを通して挿入されて、回転タービンブレードの隣接する段のタービンブレードを検査する。ビデオ検査デバイスがある位置に固定されている間、タービンのコアは、タービンブレードがビデオ検査デバイスの視野を通過するように回転される。記録されるビデオに関しては、通過するタービンブレードを示すことが一般的である。さらに、選択されたタービンブレード(たとえば、検査者が気付いている異常を有するタービンブレード)の2次元スチール画像も、検査の間に取得される場合がある。すべてのタービンブレードの2次元スチール画像を取得することには、送信及び管理が困難である、大量のデータが必要であることから、検査が、各タービンブレードの2次元画像を取得しない場合があり、検査が、各タービンブレードに関する3次元データを取得することを防止している。
さらに、検査のビデオは、概して圧縮されており、このことは、自動分析のためのその有用性を低減する圧縮アーチファクトに繋がり得る。ビデオ及びスチール画像が2次元データのみを提供することから、あらゆる自動分析は、通常、タービンブレードの状況を評価することを試みるために、色、エッジ検出などに依存する。さらに、あらゆる自動化された分析は、タービンブレードに対するビデオ検査デバイスの位置が、検査中、及び、検査と検査との間で変化し得ることから、識別された印のサイズを定量化するために、複雑な3次元モデルのマッチングを実施するか、倍率、光学的な歪みなどに関して推定する場合もある。
資産を検査するための方法及びデバイスが開示されている。一実施形態では、検査デバイスは、立体画像のマッチングを向上させるために、追加の表面のディテールを提供するように対象の表面上にテクスチャパターンを投影するためのテクスチャパターン投影システムを含むことができる。別の実施形態では、検査デバイスは、異なる照明モードで、対象が選択された位置かトリガ位置にある際の、回転対象の選択された画像を保存するように構成することができる。保存された、選択された画像は、クラウドベースのサーバに送信及び記憶し、自動化された方式で分析することができる。
検査デバイスのいくつかの開示の実施形態の実施において実現され得る利点は、検査において、回転する産業上の資産(たとえば、タービンブレード)の各々に関する高品質な画像を収集することであり、各画像は、一貫した視野及び位置から取られ、回転対象の自動化された分析を可能にしている。フレーム内の選択された視認位置において、タービンブレードの選択された画像のみを保存することにより、各タービンブレードに関する画像を、過度な量のデータを送信または記憶する必要なしに、各タービンブレードに関する3次元表面のマップを形成するために、保存及び使用することができる。産業上の資産の自動分析を可能にすることにより、予期的なメンテナンス、及び、資産の性能の管理を可能にすることができる。さらに、テクスチャパターンを対象の表面に付加することにより、そうでなければ十分なディテールを有していない表面上の、向上した立体的マッチングを介して、より正確な3次元表面のマップの形成を可能にするために、十分な表面のディテールが提供される。
一実施形態では、資産を検査するためのデバイスが開示されている。本デバイスは、立体画像を取得するために構成された、第1の視野を有する第1の撮像センサ、及び、第2の視野を有する第2の撮像センサと、検査モードの間、産業上の資産の照明を提供するために構成された1つまたは複数の検査モードの光エミッタと、産業上の資産上にテクスチャパターンを投影するためのテクスチャパターン投影システムと、を備えたプローブを含んでいる。一実施形態では、テクスチャパターン投影システムは、測定モードの間、産業上の資産に照明を提供するために構成された1つまたは複数の測定モードの光エミッタ、1つまたは複数の測定モードの光エミッタの近位に位置するテクスチャパターン、及び、テクスチャパターンを産業上の資産上に投影するための、テクスチャパターン光学系であって、テクスチャパターンが、1つまたは複数の測定モードの光エミッタとテクスチャ光学系との間に位置する、テクスチャパターン光学系を含んでいる。
別の実施形態では、検査デバイスで資産を検査するための方法が開示されている。本方法は、第1の照明モードで検査デバイスを操作することと、第1の照明モードで産業上の資産の画像を取得することと、産業上の資産が、画像内の所定のトリガ位置にあるかを判定することと、産業上の資産が所定のトリガ位置にある場合に、第1の照明モードで産業上の資産の第1の画像を保存することと、第2の照明モードで検査デバイスを操作することと、第2の照明モードで産業上の資産の第2の画像を取得することと、第2の照明モードで産業上の資産の第2の画像を保存することと、を含んでいる。
上述の実施形態は、例示的なものに過ぎない。他の実施形態は、開示の主題の範囲内にある。
そのため、本発明の特徴を理解できる方式で、本発明の詳細な記載が、特定の実施形態を参照することによって得られる場合がある。これら実施形態のいくつかは、添付図面に示されている。しかし、図面は、本発明の特定の実施形態のみを示すものであり、したがって、本発明の範囲を限定するものとは解釈されるものではなく、開示の主題の範囲に関し、他の実施形態も包含することに留意されたい。図面は、必ずしも拡縮されておらず、通常は、本発明の特定の実施形態の特徴を示すことが重視されている。図中、同様の参照符号は、様々な図を通して、同様の部分を示すために使用される。
例示的なビデオ検査デバイスのブロック図である。 プローブの例示的なヘッドアセンブリの概略図である。 図2に示す例示的な第1の光学系及び第1の撮像センサの立面図である。 例示的なテクスチャパターンを示す図である。 タービンブレードの立体画像を示す図である。 テクスチャパターンがタービンブレード上に投影されている、立体画像を示す図である。 第1の照明モードと第2の照明モードとの両方で、選択された位置(トリガ位置)における、回転する産業上の資産の画像を取得及び保存するための例示的な方法を示す図である。 対象がトリガ位置にある前に取得された第1の立体画像を示す図である。 対象がトリガ位置にある前に取得された第2の立体画像を示す図である。 対象がトリガ位置にある状態で取得された第3の立体画像を示す図である。 取得された画像内で、対象がトリガ位置にあるかを判定するための例示的な方法を示す図である。 対象がトリガ位置にある状態で取得された画像を示す図である。
開示の主題の実施形態は、資産の検査を実施するための技術を提供する。検査デバイスは、立体画像のマッチングを向上させるために、追加の表面のディテールを提供するように対象の表面上にテクスチャパターンを投影するためのテクスチャパターン投影システムを含むことができる。検査デバイスは、すべての画像を保存するよりむしろ、対象が選択された位置かトリガ位置にある際の、回転対象の選択された画像を保存するように構成することができる。保存された、選択された画像は、クラウドベースのサーバに送信及び記憶し、自動分析を使用して分析することができる。他の実施形態は、開示の主題の範囲内にある。
図1は、ビデオ検査デバイス101及びクラウドベースのサーバ190を含むことができる、例示的なビデオ検査システム100のブロック図である。図1に示すビデオ検査デバイス101は、例示的であり、本発明の範囲は、いずれの特定のビデオ検査デバイス101、または、ビデオ検査デバイス101内のいずれの特定の構成要素の構成にも限定されない。
ビデオ検査デバイス101は、挿入チューブ110と、この挿入チューブ110の遠位端に配置されたヘッドアセンブリ120とを備えた、細長いプローブ102を含むことができる。挿入チューブ110は、可撓性であるか剛性の筒状セクションとすることができ、この筒状セクションを通して、ヘッドアセンブリ120と、プローブの電子機器144との間のすべての相互接続部が通っている。ヘッドアセンブリ120は、立体画像法を実施するための、第1の撮像センサ171及び第2の撮像センサ172を含むことができる。第1の撮像センサ171及び第2の撮像センサ172は、見られる対象の画像を取得するための、固体CCDまたはCMOS撮像センサとすることができる。第1の光学系121は、見られる対象からの光を、第1の撮像センサ171上にガイド及び収束させるために使用することができる。第2の光学系131は、見られる対象からの光を、第2の撮像センサ172上にガイド及び収束させるために使用することができる。
ヘッドアセンブリ120は、検査モードの間、対象の表面に散乱した照明を提供するための、検査モードの光エミッタ(たとえば、LED)160をも含むことができる。プローブ電子機器144は、マイクロコントローラ140によって指示されるようにに、検査モードの光エミッタ160を駆動するための、検査モードの光エミッタ(LED)ドライブ163を含むことができる。ヘッドアセンブリ120は、測定モードの間、対象に照明を提供するための、測定モードの光エミッタ(たとえば、LED)165をも含むことができる。図2に関してより詳細に論じるように、テクスチャパターン166は、測定モードの光エミッタ165の近位に置くことができ、それにより、測定モードの光エミッタ165からの照明が、テクスチャパターン166を通過するようになっており、ここで、テクスチャパターン166が、テクスチャパターンの投影光学系167により、検査下にある対象上に収束する。プローブ電子機器144は、マイクロコントローラ140によって指示されるように測定モードの光エミッタ165を駆動するための測定モードの光エミッタ(LED)ドライブ164を含むことができる。代替的実施形態では、単一の駆動回路が、検査モードの光エミッタ160または測定モードの光エミッタ165に、切換え要素(図示せず)を介して電力を供給するために使用され得る。さらに、図2及び図11に関して以下により詳細に論じるように、ヘッドアセンブリ120は、撮像センサ171、172からオフセットした光パターンを対象上に投影するために、投影光エミッタ(たとえば、レーザまたはLED)198をも含むことができる。プローブ電子機器144は、マイクロコントローラ140によって指示されるように投影光エミッタ198を駆動するための、投影光ドライブ199を含むことができる。
撮像センサ171、172は、複数の行及び列に形成された複数のピクセルを含むことができ、また、撮像センサ171、172の各ピクセル上の入射光を示すアナログ電圧の形態の画像信号を生成することができる。画像信号は、画像伝送ハーネス112に伝播させることができる。画像伝送ハーネス112は、撮像センサとプローブ電子機器144との間の、制御及びビデオ信号のためのワイヤを提供する。代替的実施形態では、撮像センサ171、172は、アナログ電圧の、チップ上のアナログデジタル変換器を含む場合があり、それにより、アナログ電圧を示すデジタル信号が、Mobile Industry Processor Interface Camera Serial Interface(MIPI CSI)または小電圧差動信号伝送方式(LVDS)などの、標準的なインターフェースのフォーマットを使用して、画像伝送ハーネス112を通してプローブ電子機器144に伝達される。プローブ電子機器144は、ビデオ検査デバイス101を作動させるための機能群を提供することができる。プローブ電子機器144は、メモリ142をも含むことができる。このメモリ142は、たとえば、プローブ102に関する較正データを記憶することができる。プローブ電子機器144は、ゲイン及び露光のセッティングの判定及び設定、較正データの記憶及び読込、ならびに、対象に搬送される光の制御をすることもできる。
ビデオ検査デバイス101は、統合ディスプレイ170を含むことができる。統合ディスプレイ170は、様々な画像またはデータ(たとえば、見られる対象の画像、メニュー、カーソル、測定結果)を検査者に表示するための、ビデオ検査デバイス101内に組み込まれたLCDスクリーンとすることができる。
マイクロコントローラ140は、コマンド、ステータス情報、ストリーミングビデオ、スチールビデオ画像、及びグラフィックオーバーレイを、CPU150に提供/CPU150から受信することができ、また、画像キャプチャ、画質の向上、グラフィックオーバーレイのマージ、歪みの修整、フレームの平均化、スケーリング、デジタルズーミング、オーバーレイ、マージ、フリッピング、モーション検出、ならびに、ビデオフォーマットの変換及び圧縮などの機能を提供する、FPGA、DSP、または他の処理要素で構成される場合がある。
CPU150は、画像、ビデオ、及び音声のストレージ及びリコール機能、システム制御、ならびに測定値の処理を含む、他の機能のホストを提供することに加え、ジョイスティック180、ボタン182、キーパッド184、及び/またはマイク186を介して入力を受信することにより、ユーザインターフェースを管理するために使用することができる。ジョイスティック180は、メニューの選択、カーソルの移動、スライダの調整、及び、プローブ102の明瞭度の制御などの操作を実施するために、ユーザによって操作され得、また、プッシュボタンの機能を含む場合がある。ボタン182及び/またはキーパッド184は、メニューの選択のために使用することもでき、ユーザのコマンドをCPU150に提供する(たとえば、スチール画像の凍結または保存)。マイク186は、スチール画像を凍結または保存するための音声命令を提供するように、検査者によって使用され得る。
CPU150は、CPU150によって実行されるプログラムの記憶のための、CPUプログラムメモリ152と通信することもできる。さらに、CPU150は、揮発性メモリ154(たとえば、RAM)、及び、不揮発性メモリ156(たとえば、フラッシュメモリデバイス、ハードドライブ、DVD、またはEPROMメモリデバイス)と通信することができる。不揮発性メモリ156は、ストリーミングビデオ及びスチール画像のための一次ストレージである。
CPU150は、USB、Firewire、Ethernet、音声I/O、及び無線トランシーバなどの、周囲のデバイス及びネットワークに対する様々なインターフェースを提供する、コンピュータI/Oインターフェース158と通信することもできる。このコンピュータI/Oインターフェース158は、スチール画像、ストリーミングビデオ、または音声を保存、リコール、送信、及び/または受信するために使用することができる。たとえば、USB「thumb drive」またはCompactFlashメモリーカードは、コンピュータI/Oインターフェース158にプラグインすることができる。さらに、ビデオ検査デバイス101は、無線接続によってクラウドベースのサーバ190に送信することを含み、画像データまたはストリーミングビデオデータのフレームを、外部のコンピュータまたはサーバに送信するように構成することができる。ビデオ検査デバイス101は、TCP/IP通信プロトコルスイートを組み込むことができ、また、複数のローカル及びリモートコンピュータを含む、ワイドエリアネットワークに組み込むことができる。このコンピュータの各々も、TCP/IP通信プロトコルスイートを組み込んでいる。TCP/IPプロトコルスイートを組み込むことにより、ビデオ検査デバイス101は、TCP及びUDPを含むいくつかのトランスポート層プロトコル、ならびに、HTTP及びFTPを含むいくつかの異なる層プロトコルを組み込んでいる。マイクロコントローラ140及びCPU150は、PCI Express、USB、Ethernetなどを含む、いくつかの様々な方法で通信することができる。
特定の構成要素が、図1では単一の構成要素(たとえば、マイクロコントローラ140及びCPU150)として示されているが、複数の別々の構成要素を使用して、これら記載の機能を実施することができることを理解されたい。
図2は、プローブ102(たとえば、剛性の円筒状のプローブ)の例示的なヘッドアセンブリ120の概略図である。例示的な立体撮像システムは、2つ以上の視野(たとえば、左及び右)を提供するために、2つの撮像センサ171、172、及び、この撮像センサ171、172に関連付けられた2つの光学系121、131を備えている。第1の光学系121は、レンズトレインに隣接する第1のプリズム123の前方に位置する第1のレンズ122を含むことができる。レンズトレインは、第1のプリズム123と第1の撮像センサ171との間に位置する第2のレンズ124及び第3のレンズ125を含んでいる。第1の光学系121は、第1の撮像センサ171の第1のアクティブエリア173の頂部上の第2のプリズム126を含むことができる。第1の光学系121及び第1の撮像センサ173の立面図が、図3に示されている。図3に見ることができるように、検査下にある対象からの光が、第1のレンズ122を通り、第1のプリズム123によって反射され、第2のレンズ124及び第3のレンズ125を通り、また、第1の撮像センサ171のアクティブエリア173上へと、第2のプリズム126によって反射される。第1の撮像センサ171は、撮像センサ基板175に接続されている。第1のプリズム123のプリズム角度127は、立体的な視野の所望の収束角度を提供するように調整することができる。一実施形態では、第1のプリズム122及び/または第2のプリズム126は、直角のプリズムとすることができる。別の実施形態では、プリズム角度127は、視野が収束するように、直角未満(たとえば、80度)とすることができる。別の実施形態では、第1の撮像センサ171の第1のアクティブエリア173は、第2のプリズム126の必要性をなくすために、90度回転させることができる。
図2に戻ると、第2の光学系131は、レンズトレインに隣接する第1のプリズム133の前方に位置する第1のレンズ132を含むことができる。レンズトレインは、第1のプリズム133と第2の撮像センサ172との間に位置する第2のレンズ134及び第3のレンズ135を含んでいる。第2の光学系131は、第2の撮像センサ172の第2のアクティブエリア174の頂部上の第2のプリズム136を含むことができる。
図2及び図3に示す剛性のプローブ102の例示的な実施形態は、依然として比較的長いレンズトレインを許容しつつ、プローブ102の直径を最小にする利点を有している。例示的な第1のプローブ光学素子121及び第2のプローブ光学素子131が、使用することができるレンズ及びプリズムの配置の一例に過ぎないことを理解されたい。たとえば、一実施形態では、プローブ光学素子121、131は、反射及び方向の変更が必要ではない場合、レンズのみを含むことができ、プリズムは含まない。さらに、プリズムまたはレンズの角度を変更することにより、視野を、対象の表面上に所望の角度で収束するように構成することができる。
図2に示すプローブ102の例示的なヘッドアセンブリ120の検査モードの光エミッタ160(図1)は、第1の検査モードのLED161及び第2の検査モードのLED162を含むことができる。一実施形態では、検査モードのLED161、162は、1つまたは複数の白色LEDであり、対象を照らすための散乱光を提供する。例示的な実施形態では、第1の検査モードのLED161は、第1の撮像センサ171に近接するヘッドアセンブリ120(図2では外を向いている)の第1の側(左側)に位置しており、第2の検査モードのLED162は、第1の検査モードのLED161とは反対側の、第2の撮像センサ172に近接するヘッドアセンブリ120の第2の側(右側)に位置している。一実施形態では、光学系(図示せず)は、検査モードのLED161、162と関連して動作して、散乱照明を対象上に収束させることができる。
立体的な撮像及び測定では、対象の表面の2つの視野の画像(たとえば、左側の画像と右側の画像)が、わずかに異なる視野から取得される。2つの画像で立体測定を実施するために、ビデオ検査デバイス内に含まれるか、クラウドサーバ内など、リモートに位置する場合があるプロセッサが、2つの画像のマッチングポイントを識別する。立体画像法は、タービンブレードを検査するために使用することができる。多くのタービンブレードは、表面上のディテールが最小限の、セラミック熱バリアコーティングによって提供された平滑な表面を有している。立体画像法が、ステレオ画像の両方における表面上の同一のポイントを見つけることに依存することから、そのような表面のディテールが最小である表面は、誤ったマッチング、及び、不正確な3次元マッピングに繋がり得る。タービンブレード上の異常を識別することを試みることに加え、別の潜在的なタービンブレードの検査により、ブレードの延長を検出するために、タービンブレード上に置かれたセラミックのクリープゲージが検査されることになる。同様に表面のディテールが最小である、これらセラミックのクリープゲージ上で立体画像法を使用することも、誤ったマッチング及び不正確な3次元マッピングの結果となり得る。
ディテールが最小の表面の立体画像法に関連する問題に対処するために、図1及び図2に戻ると、ビデオ検査デバイス101のプローブ102の例示的なヘッドアセンブリ120が、より信頼性のあるステレオマッチングのために、さらなる表面のディテールを提供するように、対象の表面上にテクスチャパターンを投影するためのテクスチャパターン投影システム168を含んでいる。例示的なテクスチャパターン投影システム168は、第1の撮像センサ171と第2の撮像センサ172との間に位置しており、また、第1の検査モードのLED161と第2の検査モードのLED162との間にも位置している。図2に示すこの例示的な構成では、第1の撮像センサ171は、テクスチャパターン検査システム168と、第1の検査モードのLED161との間に位置しており、第2の撮像センサ172は、テクスチャパターン検査システム168と第2の検査モードのLED162との間に位置している。
例示的なテクスチャパターン投影システム168は、1つまたは複数の測定モードの光エミッタ(たとえば、LED)165、測定モードの光エミッタ165の近位(たとえば、頂部)に位置しているテクスチャパターン166、及び、テクスチャパターン投影光学系167を含んでいる。テクスチャパターン166は、ガラス窓上に堆積された、不透明なクロムパターンとして適用することができ、ここで、ガラス窓は、LEDの表面の頂部上に位置している。一実施形態では、ランダムであるか、半ランダムのドットの配置が使用され、ここで、ドットの密度は、表面上に投影されたテクスチャパターンの、より一様な低周波数の輝度の分布を達成するように、変化する。例示的なテクスチャパターン166が、図4に示されている。テクスチャパターンには、高周波数の光のエリアと、暗いエリアとが含まれ得る。これらは、散乱した照明のみが提供される場合に比べ、正確なマッチの相違を判定するためのステレオマッチングプロセスの能力を向上させる方式で編成される。
測定モードの光エミッタ165からの照明は、テクスチャパターン166を通過し、この照明は、テクスチャパターン投影光学系167により、検査下にある対象上に収束及び投影される。一実施形態では、テクスチャパターン投影光学系167は、テクスチャパターンの画像を対象上に収束させるための1つまたは複数のレンズを含んでいる。テクスチャパターンの画像を、ディテールが最小の表面に付加することにより、表面のディテールが付加され、立体画像におけるよりよいマッチングを可能にする。これにより、対象の表面の、より正確な3次元データ(たとえば、表面のマップ)に繋がる。
図5は、検査モードの光エミッタ160が、タービンブレード10を照らすための散乱光を提供した際に取得されるタービンブレード10の立体画像200を示している。立体画像200は、第1の視野からの第1の(左の)画像201と、第2の視野からの第2の(右の)画像202とを含んでいる。図5に見ることができるように、タービンブレード10が、最小の表面のディテールを有することから、立体画像のマッチングは、困難である場合があり、また、誤ったマッチングに繋がる場合があり、結果として得られる3次元データ及び測定値が損なわれる。
図6は、測定モードの光エミッタ165がタービンブレード10の照明を提供した際に取得されるタービンブレード10の立体画像を示している。立体画像300は、第1の視野からの第1の(左の)画像301と、第2の視野からの第2の(右の)画像302とを含んでいる。図6に見ることができるように、測定モードの光エミッタ165からの照明が、テクスチャパターン166を通過し、この照明が、テクスチャパターン投影光学系167により、タービンブレード10上に収束及び投影されると(図1及び図2)、立体画像は、ここでは、タービンブレード10上に投影されたテクスチャパターン169を有する。図6に見ることができるように、タービンブレード10上に投影されたテクスチャパターン169が、さらなる表面のディテールを提供することから、立体画像のマッチングの精度が向上する。
図1から図4に示す例示的なビデオ検査デバイス101は、検査モードの光エミッタ160(たとえば、第1の検査モードのLED161及び第2の検査モードのLED162)が対象に散乱照明を提供する(図5)検査モードと、測定モードの光エミッタ165が対象の照明を提供し、テクスチャパターン169を対象上に投影する(図6)測定モードとで作動することができる。回転する産業上の資産(たとえば、タービンブレード)の検査を実施する際には、ビデオ検査デバイス101は、検査モードで、対象のスチール2次元画像を取得及び保存することができ(図5)、また、測定モードにおける対象のスチール2次元画像を取得及び保存することもできる(図6)。測定モードで取得された画像は、対象の表面の3次元マップを提供するために使用される。
一実施形態では、測定モードの光エミッタ165は、白色LEDによって提供される光の広いスペクトルで生じる場合がある、視認する光学素子内の色の分離の影響を除去することにより、立体画像から得られる、より高い正確性の3次元データのために、単色照明を提供するために、狭いスペクトルの光(たとえば、グリーン)を放射することができる。これらの用途(たとえば、電力の用途)では、撮像センサ171、172は、色が付いているよりむしろ、黒色及び白色である場合がある。カラーセンサが必要である場合がある、航空機のタービンブレードの検査などの用途では、白色LEDを、測定モードの光エミッタ165のために使用することができる。一実施形態では、タービンブレードの回転によって生じる場合がある、あらゆる不鮮明性を最小限にするために、対象の表面を照らすために使用される検査モードの光エミッタ160及び/または測定モードの光エミッタ165は、パルス状にすることができる。
検査の間に取得及び保存された画像のために必要とされるデータの量を低減するために、一実施形態では、ビデオ検査デバイス101は、フレーム内の、選択された視認位置(またはトリガ位置)における、タービンブレードの選択された画像のみを保存する。図7は、第1の照明モードと第2の照明モードとの両方で、選択された位置(トリガ位置)における、回転する産業上の資産(たとえば、タービンブレード)の画像を取得及び保存するための例示的な方法700を示す図である。検査の実施においては、ビデオ検査デバイス101は、たとえば、毎秒60フレームの割合で、スチール2次元画像を取得することができる。
図7に示す方法700の、第1の記載の実施形態では、第1の照明モードが検査モードであり、第2の照明モードが測定モードである。ステップ710では、ビデオ検査デバイス101は、検査モードの光エミッタ160(たとえば、第1の検査モードのLED161及び第2の検査モードのLED162)が対象の表面に散乱照明を提供する(図1及び図2)、第1の照明モード(検査モード)で構成及び操作される。ステップ720では、ビデオ検査デバイス101の撮像センサ171、172の1つまたは複数が、第1の照明モードにおいて、対象の表面の2次元スチール画像(たとえば、立体画像)を取得する。図11に関して以下により詳細に論じるように、ステップ730では、ビデオ検査デバイス101は、対象を検査するために、取得された画像フレーム内において、対象が選択された位置またはトリガ位置にあるかを判定する。たとえば、回転するタービンブレードの検査のために、トリガ位置は、タービンブレードのすべてまたは大部分が視認可能であり、他の構造(たとえば、他のタービンブレード、ベーン、シュラウドなど)によって妨げられておらず、ビデオ検査デバイス101から適切な距離にある、フレーム内のタービンブレードの位置とすることができる。
対象がトリガ位置にない場合、対象の表面の取得された2次元スチール画像は廃棄され、方法700はステップ720に戻る場合がある。ステップ720では、ビデオ検査デバイス101の撮像センサ171、172の1つまたは複数が、第1の照明モードにおいて、対象の表面の別の2次元スチール画像を取得する。こうして、ステップ730は、繰り返される場合がある。ステップ730において、ビデオ検査デバイス101が、対象がトリガ位置にあると判定した場合、方法700は、ステップ740に進行する。このステップ740では、ビデオ検査デバイスが、たとえば不揮発性メモリ内に、第1の照明モードにおける対象の表面の、取得された2次元スチール画像を保存する。検査モードで取得された対象の表面の、この保存された2次元スチール画像は、対象の表面の視覚分析を実施するために使用することができる。
ステップ750では、ビデオ検査デバイス101は、測定モードの光エミッタ(たとえば、1つまたは複数のLED)165が、テクスチャパターンを対象上に投影する対象の照明を提供する(図1及び図2)、第2の照明モード(測定モード)に切り替わる。ステップ760では、ビデオ検査デバイス101の撮像センサ171、172の1つまたは複数が、第2の照明モードにおいて、対象の表面の2次元スチール画像(たとえば、立体画像)を取得する。方法700は、ステップ770に進行する。このステップ700では、ビデオ検査デバイスが、たとえば不揮発性メモリ内に、第2の照明モードにおける対象の表面の、取得された2次元スチール画像を保存する。投影された、テクスチャが付された表面を有する、測定モードで取得された対象の表面の、この保存された2次元スチール画像は、対象の表面の3次元マップを提供するために使用することができる。ここで、トリガ位置かその近くで、対象に関する2つの画像、第1の照明モードの第1の画像と、第2の照明モードの第2の画像とが保存されると、ビデオ検査デバイス101は、ステップ710で第1の照明モードに戻るように切り替わる場合があり、次の対象(たとえば、次のタービンブレード)に関して、本方法を繰り返すことができる。
図7に示す方法700の、第2の記載の実施形態では、第1の照明モードが測定モードであり、第2の照明モードが検査モードである。ステップ710では、ビデオ検査デバイス101は、測定モードの光エミッタ(たとえば、1つまたは複数のLED)165が、対象に照明を提供し、テクスチャパターンを対象上に投影する(図1及び図2)、第1の照明モード(測定モード)であるように構成されている。ステップ720では、ビデオ検査デバイス101の撮像センサ171、172の1つまたは複数が、第1の照明モードにおいて、対象の表面の2次元スチール画像(たとえば、立体画像)を取得する。ステップ730では、ビデオ検査デバイス101は、対象を検査するために、取得された画像フレーム内において、対象が選択された位置またはトリガ位置にあるかを判定する。
対象がトリガ位置にない場合、対象の表面の取得された2次元スチール画像が廃棄され、方法700はステップ720に戻る場合がある。ステップ720では、ビデオ検査デバイス101の撮像センサ171、172の1つまたは複数が、第1の照明モードにおいて、対象の表面の別の2次元スチール画像を取得する。こうして、ステップ730は、繰り返される場合がある。ステップ730において、ビデオ検査デバイス101が、対象がトリガ位置にあると判定した場合、方法700は、ステップ740に進行する。このステップ740では、ビデオ検査デバイスが、たとえば不揮発性メモリ内に、第1の照明モードにおける対象の表面の、取得された2次元スチール画像を保存する。投影された、テクスチャが付された表面を有する、測定モードで取得された対象の表面の、この保存された2次元スチール画像は、対象の表面の3次元マップを提供するために使用することができる。
ステップ750では、ビデオ検査デバイス101は、検査モードの光エミッタ160(たとえば、第1の検査モードのLED161及び第2の検査モードのLED162)が対象の表面に散乱照明を提供する(図1及び図2)、第2の照明モード(検査モード)に切り替わる。ステップ760では、ビデオ検査デバイス101の撮像センサ171、172の1つまたは複数が、第2の照明モードにおいて、対象の表面の2次元スチール画像(たとえば、立体画像)を取得する。方法700は、ステップ770に進行する。このステップ770では、ビデオ検査デバイスが、たとえば不揮発性メモリ内に、第2の照明モードにおける対象の表面の、取得された2次元スチール画像を保存する。検査モードで取得された対象の表面の、この保存された2次元スチール画像は、対象の表面の視覚分析を実施するために使用することができる。ここで、トリガ位置かその近くで、対象に関する2つの画像、第1の照明モードの第1の画像と、第2の照明モードの第2の画像とが保存されると、ビデオ検査デバイス101は、ステップ710で第1の照明モードに戻るように切り替わり、次の対象(たとえば、次のタービンブレード)に関する方法を繰り返す。
上述の一実施形態では、検査モードの間、検査モードの光エミッタ160は、オンにすることができ、測定モードの光エミッタ165は、オフにすることができる。同様に、測定モードの間、測定モードの光エミッタ165は、オンにすることができ、検査モードの光エミッタ160は、オフにすることができる。
別の実施形態では、検査モードの間、検査モードの光エミッタ160及び測定モードの光エミッタ165は、検査モードの光エミッタ160の輝度が測定モードの光エミッタ165の輝度を超える状態で、オンにされる。同様に、測定モードでは、測定モードの光エミッタ165及び検査モードの光エミッタ160は、測定モードの光エミッタ165の輝度が検査モードの光エミッタ160の輝度を超える状態で、オンにされる。
タービンブレードのトリガ位置に基づき、2つの照明モード間で切り換えることにより、各ブレードに関して保存された2つ以上の画像(すなわち、検査モードから保存された1つの画像と、測定モードから保存された1つの画像)が取得され、次いで、自動欠陥認証(ADR)を含む、自動化された分析に使用することができる。検査全体を記録するビデオも、保存し、自動化された分析に使用することができる。さらに、自動化された分析は、各タービンブレードに関して実施することができる。この理由は、画像がトリガ位置またはこのトリガ位置の近位で取得されることから、各タービンブレードの画像が、ブレードの表面に対するプローブカメラの一貫した位置から取得されるためである。タービンブレードすべてのこれら画像が、一貫した視野から取得されたことから、このことは、自動化された分析に関するアルゴリズムが、より確実に動作することを可能にすることができる。
各タービンブレードに関する2次元画像及び3次元データは、タービンブレードの条件を評価するために使用することができる。自動化された分析の一実施例では、検査モードの間に保存された画像は、対象の表面上のあらゆる変色部分を識別するように、分析され得、一方、(テクスチャパターンを伴う)測定モードの間に保存された画像は、変色が異常を示すものであるかを判定するために、対象の表面の3次元マップを形成するように使用することができる。別の実施例では、3次元マップが、各タービンブレードに関して利用可能であることから、第1のタービンブレードの3次元マップを、第2のブレードの3次元マップと比較して、異常(角の欠如、コーティングの欠如、凹み、穴など)を示すタービンブレード間の差異が存在するかを判定することができる。たとえば、2つの3次元マップ間の差異を、閾値と比較することができ、差異が閾値を超えている場合、異常の表示が提供される。
理想的なトリガ位置におけるタービンブレードの各々の選択された画像を保存することのみにより、効率が形成されることから、これら画像及び、結果として得られる3次元データは、クラウドベースのサーバ(複数可)190に、無線で、または有線インターフェースで、送信することができ(図1)、このサーバで、ADRを含む、自動化された分析を実施することができる。各タービンブレードに関連する画像及びデータを有することにより、傾向(trending)、予測的なメンテナンス、及び、採用することができる他の技術の使用を可能にすることができる。
ふたたび図7に戻ると、ステップ730は、対象が、取得された画像のトリガ位置にあるかを判定することを含んでいる。一実施形態では、トリガ位置の判定は、立体画像法を使用して行われる。立体画像法におけるパララックス効果のために、2つの画像のマッチングポイント間の水平方向の離間または相違の値は、対象の表面からの距離に基づくものであり、これにより、表面の3次元の座標を計算することが可能になる。たとえば、撮像センサに近い対象の表面上のポイントに関する、右の画像の位置と左の画像の位置との間の、相違の値は、撮像センサから遠い対象の表面上のポイントに関する、右の画像の位置と左の画像の位置との間の相違の値より小になる。
図11は、取得された立体画像内で、対象(たとえば、タービンブレード)がトリガ位置にあるかを判定するための例示的な方法を示す図である。図8と図9とは、対象(第2のタービンブレード12)がトリガ位置にある前に取得された、第1の立体画像800(図8)と第2の立体画像900とを示している。一方、図10は、対象(第2のタービンブレード12)がトリガ位置にある際に取得された第3の立体画像1000を示している。対象(たとえば、タービンブレード)がトリガ位置にあるかを判定するための例示的な実施形態では、ビデオ検査デバイス101は、画像内の第2のタービンブレード12(図8から図10では、右から左に回転している)の前方(左)の縁部13が、検出に理想的な位置にあるかを判定するために、縁部検出を採用する。図8から図11に示す例示的な実施形態では、ビデオ検査デバイス101は、連続したフレームにおける、左の画像と右の画像との間の相違値における、顕著な変化(たとえば、変化の閾値より大であるステップの変化)を監視することにより、第2のタービンブレード12の前方(左の)縁部13を検出する。
図7及び図11に戻ると、ステップ720では、ビデオ検査デバイス101(図1及び図2)の撮像センサ171、172の1つまたは複数が、第1の照明モードにおける第1の2次元スチール立体画像800(図8)を取得する。テクスチャパターンが図8から図10には示されていないが、第1の照明モードは、上述の検査モードまたは測定モードとすることができることを理解されたい。図8に示すように、第1の立体画像800は、第1の視野からの左の画像801と、第2の視野からの右の画像802とを含んでいる。検査下にある対象は、固定ベーン20、第1のタービンブレード、及び、前方(左の)縁部13を有する第2のタービンブレード12を伴うタービンエンジンである。ステップ731(図11)では、トリガ位置のピクセルのブロック30(たとえば、9×9のブロック)が、第2のタービンブレード12の前方(左の)縁部13が、ブレードが図8から図10に示す視野において右から左に回転する際に、第2のタービンブレード12の画像を取得及び保存するための、理想的である位置かトリガ位置に位置する場合がある位置において、左の画像801に識別される。トリガ位置のブロック13は、視野の1つ(たとえば、図8の左の画像801)において、オペレータによって手動で識別することができるか、予め規定された検査スクリプトを介して識別することができる。
ステップ732では、ビデオ検査デバイス101は、右の画像802の、第1のマッチするトリガ位置のピクセルのブロック31を識別し、マッチするブロック30とブロック31との間の水平方向の離間または第1の相違の値(D1)41を判定する。トリガ位置のブロック30が、遠くのタービンブレード(第1のタービンブレード11)上に位置している場合、マッチするブロック30とブロック31との間の水平方向の離間または相違の値は、トリガ位置のブロック30がビデオ検査デバイス101により近い場合よりも大である。
図9に示すように、第2の立体画像900は、第1の視野からの左の画像901と、第2の視野からの右の画像902とを含んでいる。タービンブレード11、12が、右から左に移動し(図8から図9への、タービンブレード11、12の位置を比較する)、トリガ位置のブロック30が、遠くの第1のタービンブレード11の上に位置するままであることから、水平方向の離間または相違の値は、フレームからフレームに、わずかに増大し続ける。図9に示すように、トリガ位置のピクセルのブロック30は、左の画像901において識別される。ステップ732(図11)では、ビデオ検査デバイス101は、右の画像902における第2のマッチするトリガ位置のピクセルのブロック32を識別する。ステップ733(図11)では、ビデオ検査デバイス101は、マッチするブロック30とブロック32との間の水平方向の離間または第2の相違の値(D2)42を判定する。
図8と図9との比較によって見ることができるように、第2の相違の値(D2)42(図9)は、第1の相違の値(D1)41(図8)よりもわずかに大であり、それにより、第1の立体画像800と第2の立体画像900との間の相違の値の変化量(ΔD)が、正の数であるようになっている(ΔD=D2−D1>0)。相違の値におけるこの増大は、図8の第1のマッチするブロック31から、図9の第2のマッチするブロック32への位置の変化によっても示されている。タービンブレード11、12が、右から左に移動し(図8から図9への、タービンブレード11、12の位置を比較する)、トリガ位置のブロック30が、遠くの第1のタービンブレード11の上に位置するままであることから、水平方向の離間または相違の値は、トリガ位置のブロック30が、図10に示すように、より近くの第2のタービンブレード12(たとえば、前方(左の)縁部13上)に位置するまで、フレームからフレームに、わずかに増大し続ける(すなわち、ΔD>0)。第1の立体画像800(図8)(すなわち、前の画像)から、第2の立体画像900(図9)への、この相違の値の正の変化量(ΔD>0)、及び、変化量の大きさ、または絶対値(|ΔD|)が、相違の値における変化量に関する閾値より小(すなわち、超えていない)である事実(|ΔD|<ΔDTH)により、相違の値のステップが、ステップ734において検出されておらず(図11)、本方法を、ステップ720における別の立体画像の取得に戻すことが示されている。
図10に示すように、第3の立体画像1000は、第1の視野からの第1の(左の)画像1001と、第2の視野からの第2の(右の)画像1002とを含んでいる。タービンブレード11、12が、右から左に移動し(図9から図10への、タービンブレード11、12の位置を比較する)、トリガ位置のブロック30が、ここで、より近い第2のタービンブレード12の上に位置することから、水平方向の離間または第3の相違の値(D3)43は、前のフレームから著しく減少する場合がある。図10に示すように、トリガ位置のピクセルのブロック30は、左の画像1001において識別される。ステップ732(図11)では、ビデオ検査デバイス101は、右の画像1002の、第3のマッチするトリガ位置のピクセルのブロック33を識別し、マッチするブロック30とブロック33との間の水平方向の離間または第2の相違の値(D3)43を判定する。
図9と図10との比較によって見ることができるように、第3の相違の値(D3)43(図10)は、第2の相違の値(D2)42(図9)よりもかなり低く、それにより、第2の立体画像900と第3の立体画像1000との間の相違の値の変化量(ΔD)が、負の数であるようになっている(ΔD=D3−D2<0)。相違の値におけるこの減少は、図9の第2のマッチするブロック32から、図10の第3のマッチするブロック33への位置の変化によっても示されている。タービンブレード11、12が、右から左に移動し(図9から図10への、タービンブレード11、12の位置を比較する)、トリガ位置のブロック30が、ここで、より近い第2のタービンブレード12の上に位置することから、水平方向の離間または相違の値は、著しく減少する場合がある(すなわち、ΔD<0)。第2の立体画像900(図9)から、第3の立体画像1000(図10)への、相違の値におけるこの負の変化量(ΔD<0)、及び、変化量の大きさ、または絶対値(|ΔD|)が、相違の値における変化量に関する閾値より大である事実(|ΔD|>ΔDTH)により、相違の値のステップが、ステップ734(図11)において検出されており、本方法を、ステップ740へと進行させ、第2のタービンブレードがトリガ位置にある状態で、第3の立体画像1000を保存させることが示されている。
図8から図11に示す例示的な実施形態をまとめると、ビデオ検査デバイス101は、連続したフレームのマッチするブロック間(すなわち、前の画像と後の画像との間)の相違の値を比較し、相違の値の変化量が負であり、かつ、その変化量の絶対値が所定の閾値より大である場合、ビデオ検査デバイス101は、対象がトリガ位置にあると判定し、最後の画像を保存する。
別の実施形態では、第1のピクセルのブロックが、タービンブレードの前方(左の)縁部が、理想的である位置かトリガ位置に位置する場所のわずかに左の位置において、左の画像で識別され、第2のピクセルのブロックが、タービンブレードの前方(左の)縁部が、理想的であるか位置かトリガ位置にあり得る場所のわずかに右の位置において、右の画像で識別される。立体画像法を使用して、ビデオ検査デバイス101は、右の画像のマッチするピクセルのブロックを識別する。タービンブレードが右から左に移動すると、ビデオ検査デバイスは、第1のピクセルのブロックに関する相違の値と、第2のピクセルのブロックに関する相違の値とを判定し、比較することができる。第1のピクセルのブロックと、第2のピクセルのブロックとが、ある画像における同じタービンブレード(たとえば、遠くのタービンブレード(第1のタービンブレード))上に位置する場合、2つの相違の値間には、わずかな差異のみが存在する場合がある。しかし、トリガ位置においては、第1のピクセルのブロック(第2のタービンブレードの前縁部のちょうど左の第1のタービンブレード上に位置する)に関する相違の値は、第2のピクセルのブロック(第2のタービンブレードの前縁部のちょうど右の第2のタービンブレード上に位置する)の相違の値よりもかなり高い場合があり、タービンブレードが、トリガ位置に位置することを示すことができる。
さらに別の実施形態では、トリガ位置のブロックの相違の値は、検査デバイスと対象の表面との間の距離と関連付けられている。各フレームに関し、そのフレームの相違の値に関連付けられたその距離は、閾値と比較される。関連する距離が、閾値未満になる場合、トリガ位置が確認され、画像が保存される。
ピクセルのブロックが、トリガ位置を識別するために、これら例示的な実施形態で使用されるが、トリガ位置は、ブレードの縁部に沿うトリガラインを形成する複数のブロックによって識別することができる。さらに、単一のトリガ位置が、そのトリガ位置において得られた単一の画像を保存するために、これら例示的な実施形態で使用されたが、別の実施形態では、複数のトリガ位置を識別することができ、各々が、立体画像の取得のトリガとなる。たとえば、タービンブレードの前縁部がスタートのトリガ位置を通過する場合、立体画像は、タービンブレードの前縁部がストップのトリガ位置を通過するまで、所定のインターバルで取得及び保存することができる。別の実施形態では、視野を通過するタービンブレードがカウントされ、取得及び保存された画像が、タービンブレードの数と関連付けられる。別の態様では、検査されているその段のタービンブレードの数が既知であり、ビデオ検査デバイスは、オペレータに、すべてのタービンブレードの画像が取得された際に通知する。
取得された画像において、対象がトリガ位置にあるかを判定する、さらに別の実施形態を説明するために、図12は、トリガ位置1201における対象(たとえば、タービンブレード10)で取得された画像1200を示している。図1及び図2に戻ると、ビデオ検査デバイス101は、撮像センサ171、172からオフセットした、投影光パターンを対象上に投影するための、投影光エミッタ(たとえば、レーザまたはLED)198を含むことができる。投影光エミッタ198を採用するこの実施形態が、立体画像で、及び、立体ではない画像で使用できることを理解されたい。
図12に示すように、ビデオ検査デバイス101は、対象(たとえば、タービンブレード10)がトリガ位置にあるかを判定するために、投影された光パターン(たとえば、レーザドットまたはライン)を使用する。図2及び図12に示すように、プローブ102は、撮像センサ171、172の位置からオフセットした位置から、光パターン(たとえば、ドットまたはライン)を投影する投影光エミッタ198を含んでおり、それにより、投影された光パターンが、対象の表面(すなわち、タービンブレード10の表面)までの距離に応じて、取得された画像における異なる位置に現れるようになっている。この対象の表面から、投影された光のパターンが反射される。たとえば、投影光エミッタ198が、図2に示すように、プローブ102の左側に位置し、投影された光パターンが右に向かって(たとえば、視野に対する20度の角度で)投影される場合、この光パターンが、ビデオ検査デバイス101に対する近い距離で、タービンブレード10の対象の表面(図12)に接触すると、投影された光パターンの位置51は、画像1201の左側となる。投影された光パターンが、ビデオ検査デバイス101に対して遠い距離で、タービンブレード10の対象の表面(図12)に接触すると、投影された光パターンの位置52は、画像1201の右側となる。
ビデオ検査デバイス101は、撮像センサ171、172によって生成されたライブビデオのストリーム内における、投影された光パターンの位置51、52、53を識別するように構成することができる。投影された光パターンがトリガ位置1201に位置する場合(たとえば、タービンブレード10の縁部13上の、図12における位置53)、ビデオ検査デバイスは、上述のように、さらなる処理のために画像を保存することができる。
前述の視点から、ビデオ検査デバイスの実施形態は、検査のために、産業上の資産の高品質な画像を収集し得る。技術的な効果は、タービンブレードなどの回転対象が、他の実施形態に比べ、画像の取得のための所望の位置にある場合を判定するために必要とされる場合がある、画像処理のレベルの低減である。これにより、各画像を、一貫した視野及び位置から取得することを許容し、回転対象の自動分析を可能にしている。フレーム内の選択された視認位置において、タービンブレードの選択された画像のみを保存することにより、各タービンブレードに関する画像を、高いか、過度な量のデータを送信または記憶する必要なしに、各タービンブレードに関する3次元表面のマップを形成するために、保存及び使用することができる。産業上の資産の自動分析を可能にすることにより、予期的なメンテナンス、及び、資産の性能の管理を可能にすることができる。さらに、テクスチャパターンを対象の表面に付加することにより、そうでなければ十分なディテールを有していない表面上の、向上した立体的マッチングを介して、より正確な3次元表面マップの形成を可能にするために、十分な表面のディテールを提供することができる。
当業者には理解されるように、本発明の態様は、システム、方法、またはコンピュータプログラム製品として実施される場合がある。したがって、本発明の態様は、全体としてハードウェアの実施形態、全体としてソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、または、ソフトウェアの態様とハードウェアの態様とを組み合わせた実施形態の形態を取る場合がある。これらはすべて、概して、本明細書では「サービス(service)」、「回路(circuit)」、「回路(circuitry)」、「モジュール(module)」、及び/または「システム(system)」と称される場合がある。さらに、本発明の態様は、コンピュータ可読プログラムコードがその上に埋め込まれた、1つまたは複数のコンピュータ可読媒体(複数可)で実施されるコンピュータプログラム製品の形態を取る場合がある。
1つまたは複数のコンピュータ可読媒体(複数可)の任意の組合せが、利用される場合がある。コンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体である場合がある。コンピュータ可読記憶媒体は、たとえば、限定ではないが、電子、磁気、光学、電磁、赤外、または半導体のシステム、装置、またはデバイスであるか、これらの任意の適切な組合せである場合がある。コンピュータ可読記憶媒体の、より具体的な実施例(排他的ではないリスト)には、1つまたは複数のワイヤを有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能なプログラム可能なリードオンリメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリメモリ(CD−ROM)、光学記憶デバイス、磁気記憶デバイス、または、これらの任意の適切な組合せが含まれる。この文献の文脈では、コンピュータ可読記憶媒体は、命令を実行するシステム、装置、またはデバイスによって、または関連して使用するためのプログラムを含むか記憶することができる、任意の有形の媒体である場合がある。
コンピュータ可読媒体上で実施されるプログラムコード及び/または実行可能な命令は、限定ではないが、無線、有線、光ファイバケーブル、RFなど、または、これらの任意の適切な組合せを含む、任意の適切な媒体を使用して送信される場合がある。
本発明の態様に関する操作を実施するためのコンピュータプログラムコードは、Java、Smalltalk、C++などのオブジェクト指向のプログラミング言語、及び、「C」プログラミング言語または類似のプログラミング言語などの、慣習的な手続き型プログラミング言語を含む、1つまたは複数のプログラミング言語の任意の組合せで書き込まれる場合がある。プログラムコードは、全体としてユーザのコンピュータ(デバイス)上で、部分的にユーザのコンピュータ上で、スタンドアロンなソフトウェアパッケージとして、部分的にユーザのコンピュータ上かつ部分的にリモートコンピュータ上で、または全体としてリモートコンピュータまたはサーバ上で、実行する場合がある。全体としてそのようなリモートコンピュータ/デバイス上で実行するシナリオでは、リモートコンピュータは、ユーザのコンピュータに、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを通して接続される場合があるか、接続が、外部のコンピュータに対して(たとえば、インターネットサービスのプロバイダを使用してインターネットを通して)形成される場合がある。
本発明の態様は、本明細書では、本発明の実施形態に係る、フローチャートの図、及び/または、方法のブロック図、装置(システム)、ならびに、コンピュータプログラム製品を参照して記載されている。フローチャートの図及び/またはブロック図内の各ブロック、ならびに、フローチャートの図及び/またはブロック図内のブロックの組合せが、コンピュータプログラム命令によって実施され得ることを理解されたい。これらコンピュータプログラム命令は、マシンを生成するために、多目的コンピュータ、特定目的のコンピュータ、または他のプログラム可能なデータ処理装置のプロセッサに提供される場合があり、それにより、コンピュータのプロセッサまたは他のプログラム可能なデータ処理装置を介して実行する命令が、フローチャート及び/またはブロック図のブロックまたは複数のブロックで特定された機能/作用を実施するための手段を形成するようになっている。
これらコンピュータプログラム命令は、コンピュータ、他のプログラム可能なデータ処理装置、または他のデバイスに、特定の方式で作業するように指示できる、コンピュータ可読媒体内に記憶されている場合もあり、それにより、コンピュータ可読媒体内に記憶された命令が、フローチャート及び/またはブロック図のブロックまたは複数のブロックに特定された機能/作用を実施する命令を含む、製造品を生成するようになっている。
コンピュータプログラム命令は、コンピュータで実施されるプロセスを生成するために、コンピュータ、他のプログラム可能なデータ処理装置、または他のデバイスにロードされて、一連の操作上のステップを、コンピュータ、他のプログラム可能な装置、または他のデバイス上で実施させる場合もあり、それにより、コンピュータまたは他のプログラム可能な装置上で実行する命令が、フローチャート及び/またはブロック図のブロックまたは複数のブロックに特定される機能/作用を実施するためのプロセスを提供するようになっている。
特許請求の範囲により、複数の要素を参照して「の少なくとも1つ(at least one of)」とのフレーズが説明される範囲では、このことは、列挙された要素の少なくとも1つまたは複数を意味し、各要素の少なくとも1つには限定されないことが意図されている。たとえば、「要素A、要素B、及び要素Cの少なくとも1つ(at least one of element A, element B, and element C)」は、要素Aのみか、要素Bのみか、要素Cのみか、これらの任意の組合せを示すことが意図されている。「要素A、要素B、及び要素Cの少なくとも1つ」は、少なくとも1つの要素A、少なくとも1つの要素B、及び少なくとも1つの要素Cに限定されることを意図していない。
この記載される詳細な説明は、ベストモードを含む、本発明を開示するため、また、さらに、あらゆる当業者が、任意のデバイスまたはシステムを形成及び使用すること、ならびに、任意の組み込まれた方法を実施することを含む、本発明を実施することを可能にするための実施例を使用する。本発明の特許可能な範囲は、特許請求の範囲によって規定され、当業者に想起される他の実施例を含む場合がある。そのような他の実施例は、それらが、特許請求の範囲の文字通りの言語とは異なっていない構造的要素を有する場合、または、これらが、特許請求の範囲の文字通りの言語とは実質的に異なっていない、均等の構造的要素を含む場合、特許請求の範囲の範囲内にあることが意図されている。

Claims (17)

  1. 資産の検査のためのデバイスであって、
    プローブであって、
    立体画像を取得するために構成された、第1の視野を有する第1の撮像センサ、及び、第2の視野を有する第2の撮像センサと、
    検査モードの間、前記資産の照明を提供するために構成された1つまたは複数の検査モードの光エミッタと、
    前記資産上にテクスチャパターンを投影するためのテクスチャパターン投影システムであって、前記テクスチャパターン投影システムが、
    測定モードの間、前記資産の照明を提供するために構成された1つまたは複数の測定モードの光エミッタ、
    前記1つまたは複数の測定モードの光エミッタの近位に位置するテクスチャパターン、及び、
    前記テクスチャパターンを前記資産上に投影するためのテクスチャパターン光学系であって、前記テクスチャパターンが、前記1つまたは複数の測定モードの光エミッタと前記テクスチャパターン光学系との間に位置する、前記テクスチャパターン光学系を備えている、
    前記テクスチャパターン投影システムと、
    を備えた、前記プローブを備えている、前記資産の検査のためのデバイス。
  2. 前記第1の撮像センサのための第1の光学系をさらに備え、前記第1の光学系が第1のプリズムを備えている、請求項1に記載のデバイス。
  3. 前記第1の光学系が、前記第1の撮像センサの第1のアクティブエリアの上に第2のプリズムをさらに備えている、請求項2に記載のデバイス。
  4. 前記第1のプリズムが直角プリズムであり、前記第2のプリズムが直角プリズムである、請求項3に記載のデバイス。
  5. 前記テクスチャパターン投影システムが、前記1つまたは複数の検査モードの光エミッタと、前記第1の撮像センサ及び前記第2の撮像センサとの間に位置している、請求項1に記載のデバイス。
  6. 前記テクスチャパターンが、前記1つまたは複数の測定モードの光エミッタの上に位置するガラス窓上に堆積された不透明なパターンである、請求項1に記載のデバイス。
  7. 前記テクスチャパターンが、半ランダム配置のドットである、請求項6に記載のデバイス。
  8. 前記1つまたは複数の検査モードの光エミッタが、白色の発光ダイオードである、請求項1に記載のデバイス。
  9. 前記1つまたは複数の測定モードの光エミッタが、単色の発光ダイオードである、請求項1に記載のデバイス。
  10. 前記テクスチャパターン光学系が、前記テクスチャパターンを前記資産上に投影するための1つまたは複数のレンズを備えている、請求項1に記載のデバイス。
  11. 検査デバイスで資産を検査するための方法であって、
    (a)第1の照明モードで前記検査デバイスを操作することと、
    (b)前記第1の照明モードで前記資産の画像を取得することと、
    (c)前記資産が、前記画像の所定のトリガ位置にあるかを判定することと、
    (d)前記資産が前記所定のトリガ位置にある場合に、前記第1の照明モードで前記資産の第1の画像を保存することと、
    (e)第2の照明モードで前記検査デバイスを操作することと、
    (f)前記第2の照明モードで前記資産の第2の画像を取得することと、
    (g)前記第2の照明モードで前記資産の前記第2の画像を保存することと、を含む、前記方法。
  12. 前記第1の照明モードが、前記検査デバイスが白色散乱光で前記資産を照らす検査モードであり、前記第2の照明モードが、前記検査デバイスが前記資産の表面上にテクスチャパターンを投影する測定モードである、請求項11に記載の方法。
  13. 前記第1の照明モードが、前記検査デバイスが前記資産の表面上にテクスチャパターンを投影する測定モードであり、前記第2の照明モードが、前記検査デバイスが白色散乱光で前記資産を照らす検査モードである、請求項11に記載の方法。
  14. 前記第1の照明モードにおける前記資産の前記画像が、第1の視野の画像及び第2の視野の画像を含む立体画像であり、かつ、前記資産が、回転タービンブレードであり、前記資産が前記画像の所定のトリガ位置にあるかを判定するステップが、
    (c1)前記第1の視野の画像内の前記所定のトリガ位置を識別することと、
    (c2)前記第2の視野の画像内の第1のマッチするトリガ位置を識別することと、
    (c3)前記所定のトリガ位置と前記第1のマッチするトリガ位置との間の相違の値を判定することと、
    (c4)前記相違の値と、前の画像の相違の値との間の変化量が、所定の閾値を超えているかを判定することと、
    (c5)前記変化量が前記所定の閾値を超えていない場合、ステップ(b)に戻ることと、
    (c6)前記変化量が前記所定の閾値を超えている場合、ステップ(d)に進行することと、を含む、請求項11に記載の方法。
  15. 前記第1の視野の画像内の前記所定のトリガ位置を識別するステップが、前記タービンブレードの画像を取得及び保存するために、前記タービンブレードの前縁部が位置することになる、前記第1の視野の画像内の位置におけるピクセルのブロックを選択することを含む、請求項14に記載の方法。
  16. 前記第1の視野の画像内の前記所定のトリガ位置を識別するステップが、予め規定された検査スクリプトから、前記所定のトリガ位置を生成することを含む、請求項14に記載の方法。
  17. ステップ(a)からステップ(g)を繰り返すステップをさらに含む、請求項11に記載の方法。
JP2019546373A 2017-03-15 2018-02-08 資産の検査のための方法及びデバイス Active JP7009491B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/459,650 US10666927B2 (en) 2017-03-15 2017-03-15 Method and device for inspection of an asset
US15/459,650 2017-03-15
PCT/US2018/017392 WO2018203949A2 (en) 2017-03-15 2018-02-08 Method and device for inspection of an asset

Publications (2)

Publication Number Publication Date
JP2020508465A true JP2020508465A (ja) 2020-03-19
JP7009491B2 JP7009491B2 (ja) 2022-01-25

Family

ID=63520437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019546373A Active JP7009491B2 (ja) 2017-03-15 2018-02-08 資産の検査のための方法及びデバイス

Country Status (5)

Country Link
US (1) US10666927B2 (ja)
EP (1) EP3596450A4 (ja)
JP (1) JP7009491B2 (ja)
CN (1) CN110352346B (ja)
WO (1) WO2018203949A2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190096057A1 (en) 2017-05-11 2019-03-28 Jacob Nathaniel Allen Object inspection system and method for inspecting an object
US10484667B2 (en) * 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
DE102018107689A1 (de) * 2018-03-29 2019-10-02 Krones Ag Verfahren und Vorrichtung zum Inspizieren von Behältnissen
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
US10670539B1 (en) 2018-12-11 2020-06-02 General Electric Company Coating quality inspection system and method
DE102019100821A1 (de) * 2019-01-14 2020-07-16 Lufthansa Technik Aktiengesellschaft Boroskop zur optischen Inspektion von Gasturbinen
US20200314411A1 (en) * 2019-03-29 2020-10-01 Alibaba Group Holding Limited Synchronizing an illumination sequence of illumination sources with image capture in rolling shutter mode
US11182630B2 (en) 2019-03-29 2021-11-23 Advanced New Technologies Co., Ltd. Using an illumination sequence pattern for biometric authentication
FR3095710B1 (fr) * 2019-04-30 2022-01-07 Safran Procédé d’entraînement d’un système de détection automatique de défaut d’une aube d’une turbomachine
DE102019130950B3 (de) * 2019-11-15 2021-03-25 Lufthansa Technik Aktiengesellschaft Boroskop mit Musterprojektion
CN115004001B (zh) * 2020-04-08 2023-09-01 必艾路泰克株式会社 流动分析装置及流动分析方法
US20220108435A1 (en) * 2020-10-02 2022-04-07 Baker Hughes Oilfield Operations Llc Automated turbine blade to shroud gap measurement
US11587246B2 (en) * 2020-10-30 2023-02-21 Mitutoyo Corporation Metrology system with projected pattern for points-from-focus type processes
GB202106108D0 (en) * 2021-04-30 2021-06-16 Rolls Royce Plc Turbine blade creep monitoring
CN113406111B (zh) * 2021-05-31 2022-09-23 清华大学深圳国际研究生院 一种基于结构光场视频流的缺陷检测方法和装置
DE102022103739A1 (de) * 2022-02-17 2023-08-17 Lufthansa Technik Aktiengesellschaft Vorrichtung für die Boroskopinspektion von technischen Geräten

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222224A (ja) * 2013-05-13 2014-11-27 ゼネラル・エレクトリック・カンパニイ 自動ボアスコープ測定先端部精度試験
JP2016080534A (ja) * 2014-10-17 2016-05-16 株式会社リコー 投射装置及び視差取得装置
WO2017003650A1 (en) * 2015-06-29 2017-01-05 General Electric Company Method and system for detecting known measurable object features

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5633675A (en) 1993-02-16 1997-05-27 Welch Allyn, Inc, Shadow probe
US6784662B2 (en) * 2001-03-19 2004-08-31 Jentek Sensors, Inc. Eddy current sensor arrays having drive windings with extended portions
US7170677B1 (en) 2002-01-25 2007-01-30 Everest Vit Stereo-measurement borescope with 3-D viewing
DE102005018656B4 (de) 2005-04-21 2007-04-12 GOM - Gesellschaft für Optische Meßtechnik mbH Projektor für eine Anordnung zum dreidimensionalen optischen Vermessen von Objekten
US8477154B2 (en) * 2006-03-20 2013-07-02 Siemens Energy, Inc. Method and system for interactive virtual inspection of modeled objects
US9633426B2 (en) * 2014-05-30 2017-04-25 General Electric Company Remote visual inspection image capture system and method
US8199813B2 (en) * 2007-12-18 2012-06-12 GE Inspection Technologies Method for embedding frames of high quality image data in a streaming video
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9984474B2 (en) * 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US8760499B2 (en) 2011-04-29 2014-06-24 Austin Russell Three-dimensional imager and projection device
US8784301B2 (en) 2011-08-12 2014-07-22 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field
US8744166B2 (en) * 2011-11-03 2014-06-03 United Technologies Corporation System and method for multiple simultaneous automated defect detection
US9709463B2 (en) * 2012-01-31 2017-07-18 Siemens Energy, Inc. Method and system for surface profile inspection of off-line industrial gas turbines and other power generation machinery
US9116071B2 (en) * 2012-01-31 2015-08-25 Siemens Energy, Inc. System and method for visual inspection and 3D white light scanning of off-line industrial gas turbines and other power generation machinery
US9412189B2 (en) * 2013-05-13 2016-08-09 General Electric Company Method and system for detecting known measurable object features
US9818039B2 (en) * 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
GB2526866A (en) * 2014-06-05 2015-12-09 Univ Bristol Apparatus for and method of inspecting surface topography of a moving object
EP3070641B1 (en) * 2015-03-11 2021-11-24 Ricoh Company, Ltd. Vehicle body with imaging system and object detection method
KR101639227B1 (ko) * 2015-06-08 2016-07-13 주식회사 고영테크놀러지 3차원 형상 측정장치
EP3316019A4 (en) * 2015-06-25 2019-03-06 Olympus Corporation DEVICE WITH ENDOSCOPE
US10510149B2 (en) 2015-07-17 2019-12-17 ams Sensors Singapore Pte. Ltd Generating a distance map based on captured images of a scene

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222224A (ja) * 2013-05-13 2014-11-27 ゼネラル・エレクトリック・カンパニイ 自動ボアスコープ測定先端部精度試験
JP2016080534A (ja) * 2014-10-17 2016-05-16 株式会社リコー 投射装置及び視差取得装置
WO2017003650A1 (en) * 2015-06-29 2017-01-05 General Electric Company Method and system for detecting known measurable object features

Also Published As

Publication number Publication date
EP3596450A2 (en) 2020-01-22
WO2018203949A3 (en) 2019-01-17
WO2018203949A2 (en) 2018-11-08
CN110352346B (zh) 2022-04-26
US20180270465A1 (en) 2018-09-20
CN110352346A (zh) 2019-10-18
JP7009491B2 (ja) 2022-01-25
US10666927B2 (en) 2020-05-26
EP3596450A4 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
JP7009491B2 (ja) 資産の検査のための方法及びデバイス
US10699149B2 (en) Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US11514643B2 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9875574B2 (en) Method and device for automatically identifying the deepest point on the surface of an anomaly
US8411083B2 (en) Method and device for displaying an indication of the quality of the three-dimensional data for a surface of a viewed object
RU2560996C2 (ru) Способ измерения на основе структурированного света
JP6030837B2 (ja) 観察対象物の表面の3次元ビューを表示するための方法および装置
US9600928B2 (en) Method and device for automatically identifying a point of interest on the surface of an anomaly
US9842430B2 (en) Method and device for automatically identifying a point of interest on a viewed object
JP6865046B2 (ja) 視認物体の深度測定において関心点を自動的に識別する方法および装置
JP6895382B2 (ja) 観視対象の3次元形状を描画する画像と同時に観視対象の2次元画像を表示するための方法および機器
JP7265594B2 (ja) 自動化されたタービンブレードとシュラウドとの間の間隙測定
JP2017162452A (ja) 視認物体上の関心点を自動的に識別する方法および装置
US11663712B2 (en) Automated turbine blade to shroud gap measurement
KR20130002760A (ko) 중간시점 영상 생성기를 갖는 표면 거칠기 측정 장치 및 방법
JP2005061839A (ja) 表面欠陥検査方法及び装置
JP2006098101A (ja) 板状体の欠陥検出方法及び欠陥検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190826

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191028

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220112

R150 Certificate of patent or registration of utility model

Ref document number: 7009491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150