JP2016027372A - ボアスコープおよびそのナビゲーション方法 - Google Patents

ボアスコープおよびそのナビゲーション方法 Download PDF

Info

Publication number
JP2016027372A
JP2016027372A JP2015088860A JP2015088860A JP2016027372A JP 2016027372 A JP2016027372 A JP 2016027372A JP 2015088860 A JP2015088860 A JP 2015088860A JP 2015088860 A JP2015088860 A JP 2015088860A JP 2016027372 A JP2016027372 A JP 2016027372A
Authority
JP
Japan
Prior art keywords
image
initial
posture
adjusted
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015088860A
Other languages
English (en)
Inventor
ジャンジュン・グ
Jianjun Guo
ヨン・ヤン
Yong Yang
ジー・ハン
Jie Han
ジーロン・ツァイ
Zirong Zhai
ケヴィン・ジョージ・ハーディング
George Harding Kevin
グイジュ・ソン
Guiju Song
ミン・ジア
Ming Jia
グアンピン・シー
Guangping Xie
セー・ナム・リム
Ser Nam Lim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2016027372A publication Critical patent/JP2016027372A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00052Display arrangement positioned at proximal end of the endoscope body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F01MACHINES OR ENGINES IN GENERAL; ENGINE PLANTS IN GENERAL; STEAM ENGINES
    • F01DNON-POSITIVE DISPLACEMENT MACHINES OR ENGINES, e.g. STEAM TURBINES
    • F01D21/00Shutting-down of machines or engines, e.g. in emergency; Regulating, controlling, or safety means not otherwise provided for
    • F01D21/003Arrangements for testing or measuring
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F05INDEXING SCHEMES RELATING TO ENGINES OR PUMPS IN VARIOUS SUBCLASSES OF CLASSES F01-F04
    • F05DINDEXING SCHEME FOR ASPECTS RELATING TO NON-POSITIVE-DISPLACEMENT MACHINES OR ENGINES, GAS-TURBINES OR JET-PROPULSION PLANTS
    • F05D2270/00Control
    • F05D2270/80Devices generating input signals, e.g. transducers, sensors, cameras or strain gauges
    • F05D2270/804Optical devices
    • F05D2270/8041Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

【課題】ボアスコープの検出ヘッドを正確に誘導するための位置捕捉手段を提供する。
【解決手段】ボアスコープ20は、挿入チューブ24、第1の画像プロセッサ、モデル記憶ユニット、姿勢計算機、第2の画像プロセッサ、ナビゲーション画像計算機、ディスプレイ220を含む。挿入チューブ24は、検出ヘッド242と、挿入チューブ24内の信号を受けて検知信号を発生させるセンサとを含む。第1の画像プロセッサは、検出ヘッド242によって捕捉される第1の画像信号に基づいて第1画像を計算する。第2の画像プロセッサは、第1画像とナビゲーション姿勢および所定モデルに基づいて計算される第2画像との間の差が許容範囲内に入るまで、姿勢計算機によって計算される初期姿勢をナビゲーション姿勢に合うように調整する。ナビゲーション画像計算機は、ナビゲーション姿勢と所定モデルとに基づいてナビゲーション画像3251,3252を計算する。
【選択図】図1

Description

本発明の実施形態は、一般にボアスコープに関し、特に、検出されるべき機械装置内のボアスコープの検出ヘッドのための正確な位置追跡機能を有するボアスコープ、および、その誘導方法に関する。
ボアスコープは、一般に、航空機エンジン、工業用ガスタービン、蒸気タービン、ディーゼルエンジン、および、自動車やトラックのエンジンなどの機械装置の視覚検査で使用される。ガスタービンおよび蒸気タービンは、安全性要件およびメンテナンス要件に起因して、特定の内部配慮を必要とする。
機械装置の複雑な内部表面の検査では、より一般的に、可撓性ボアスコープが使用される。ある場合には、ボアスコープの可撓性挿入チューブの先端に検出ヘッドが組み付けられる。より具体的には、検出ヘッドは、小型ビデカメラと、機械装置の内側の暗い空間内の深部のビデオ画像または静止画像を捕捉できるようにするための光源とを含む場合がある。遠隔視覚検査のための工具として、その後の検査のためにビデオ画像または静止画像を捕捉できることは、非常に大きな利点である。手持ち式操作器具のディスプレイはカメラ視野を表示し、また、ジョイスティック制御器または同様の制御器は、機械装置の内部要素の全体の検査のために検出ヘッドの動きを制御するあるいは操向するようになっている。
しかしながら、全体の検査は、通常、ボアスコープを適用することによって検出される機械装置内の全ての対象領域(ROI)を網羅するために数日を要する。この長い検査時間をもたらす難題のうちの1つは、検出ヘッド(ボアスコープ先端)を何らかのROIへ誘導する際の困難性、および、検出ヘッドの小型ビデオカメラを所望の方向に誘導する際の困難性である。誘導視野は、検出ヘッドの位置を判断するためにオペレータに利用できる最も重要な情報である。ある状況下で、検出される機械装置内の検出ヘッドの正確な姿勢(位置および方向)は、検出される位置で想定し得る不具合を予測するため望ましく、また、更なる操作のためのオペレータの基準にとって望ましい。
これらの理由および他の理由により、検出ヘッドをより良く誘導するために、ボアスコープの検出ヘッドの正確な位置情報を捕捉できる新規なボアスコープおよびその誘導方法を提供する必要性がある。
本発明の一実施形態によれば、ボアスコープが提供される。ボアスコープは、挿入チューブと、第1の画像プロセッサと、モデル記憶ユニットと、姿勢計算機と、第2の画像プロセッサと、ナビゲーション画像計算機と、ディスプレイとを含む。挿入チューブは、検出ヘッドと、挿入チューブ内の信号を受けて検知信号を発生させるための少なくとも1つのセンサとを含む。第1の画像プロセッサは、検出ヘッドによって捕捉される第1の画像信号に基づいて第1画像を計算するためのものである。モデル記憶ユニットは、検出されるべき機械装置の所定モデルを記憶するためのものである。姿勢計算機は、検知信号に基づいて検出ヘッドの初期姿勢を計算するためのものである。第2の画像プロセッサは、第1画像とナビゲーション姿勢および所定モデルに基づいて計算される第2画像との間の差が許容範囲内に入るまで、初期姿勢をナビゲーション姿勢に合うように調整するためのものである。ナビゲーション画像計算機は、ナビゲーション姿勢と所定モデルとに基づいてナビゲーション画像を計算するためのものである。ディスプレイは、ナビゲーション画像を表示するためのものである。
本発明の他の実施形態によれば、ボアスコープの検出ヘッドを誘導するための方法が提供される。方法は、検出ヘッドから第1の画像信号を受けるとともに、少なくとも1つのセンサから検知信号を受けるステップを含む。方法は、検知信号に基づいて検出ヘッドの初期姿勢を計算するステップを含む。方法は、第1の画像信号に基づいて第1画像を計算するとともに、初期姿勢と所定モデルとに基づいて初期第2画像を計算するステップを含む。方法は、第1画像と初期第2画像との間の初期差を計算するステップを含む。方法は、第1画像とナビゲーション姿勢および所定モデルに基づいて計算される第2画像との間の差が許容範囲内に入るまで、初期姿勢をナビゲーション姿勢に合うように徐々に調整するステップを含む。方法は、所定モデルとナビゲーション姿勢とに基づいてナビゲーション画像を計算するステップを含む。方法は、ナビゲーション画像を表示するステップを含む。
本発明のこれらのおよび他の特徴、態様、および、利点は、添付図面を参照して以下の詳細な説明が読まれるときにより良く理解されるようになり、図面中、同様の文字は、図面の全体にわたって同様の部分を表す。
1つの典型的な実施形態に係る機械装置のための検査作業で使用されるボアスコープの概略図である。 1つの典型的な実施形態に係る図1のボアスコープの挿入チューブの断面図である。 1つの典型的な実施形態に係る図2の挿入チューブの形状検知ケーブルに配置される検出リード線の概略図である。 1つの典型的な実施形態に係る図1のボアスコープのブロック図である。 1つの典型的な実施形態に係る初期第2画像の調整プロセスの概略図である。 1つの典型的な実施形態に係る図1のボアスコープの検出ヘッドを誘導するための方法のフローチャートである。 1つの典型的な実施形態に係る図6の方法の初期姿勢を調整するためのステップのフローチャートである。 他の典型的な実施形態に係る図6の方法の初期姿勢を調整するためのステップのフローチャートである。
別段に規定されなければ、本明細書中で使用される技術用語および科学用語は、この発明が属する当業者によって共通に理解される意味と同じ意味を有する。本明細書中で使用される用語「第1」、「第2」などは、任意の順序、量、または、重要性を表しておらず、むしろ、1つの要素を他の要素から区別するために使用される。また、用語「1つ(a)」および「1つ(an)」は、量の限定を示しておらず、むしろ、参照された項目のうちの少なくとも1つの存在を示し、別段言及されなければ、説明の便宜のために使用されているにすぎず、任意の1つの位置または空間的方向に限定されない。
図1を参照すると、1つの典型的な実施形態に係る機械装置70のための検査作業で使用されるボアスコープ20の概略図が示される。ボアスコープ20は、可撓性挿入チューブ24と、手持ち式操作器具22とを含む。幾つかの実施形態では、複数の開口(例えば、開口71)が機械装置70の表面上の幾つかの適切な位置に形成される。機械装置70の内部要素を検出するときには、開口71を通じて挿入チューブ24が機械装置70の検出空間72内へ挿入される。一例として、検出空間72は、図1に示されるチャンネル「A」,「B」,「C」,「D」,「E」,「F」などの多数のチャンネルを有してもよい。
幾つかの非限定的な実施形態では、挿入チューブ24がその先端に検出ヘッド242を含む。検出ヘッド242は、機械装置70の内部要素のビデオ画像または静止画像を捕捉するための小型ビデオカメラ(標示が付されない)を含んでもよい。幾つかの実施形態において、検出ヘッド242は、機械装置70の暗い空間内の深部のビデオ画像または静止画像を捕捉できるようにする光源(標示が付されない)を含んでもよい。
手持ち式操作器具22は、少なくとも検出ヘッド242の動きを制御するあるいは操向するための操作部222(例えば、ジョイスティック制御器)を含む。手持ち式操作器具22はディスプレイ220を更に含み、ディスプレイ220は、小型ビデオカメラによって捕捉される内部要素501の対応するビデオ画像または静止画像313を表示するための第1の表示部224と、機械装置70内の検出ヘッド242のナビゲーション画像3251または3252を表示するための第2の表示部226とを含んでもよい。幾つかの実施形態では、挿入チューブ24の構成3253および/または検出ヘッド242のナビゲーション姿勢(例えば、位置Tおよび方向R)がナビゲーション画像3251中に示される。幾つかの実施形態では、検出ヘッド242を表すポイント3254および検出ヘッド242の情報(T,R)だけがナビゲーション画像3252中に示される。ナビゲーション画像3251,3252は二次元図または三次元図で示され得る。位置Tおよび方向Rは、三次元ベクトル、例えば、空間座標系(x’,y’,z’)のT=[Tx’,Ty’,Tz’],R=[Rx’,Ry’,Rz’]である。手持ち式操作器具22は例示目的で示されるが、本明細書中に記載される機能を可能にする任意のタイプの器具が使用されてもよい。
通常、検出されるべき機械装置70内の検出ヘッド242の正確なナビゲーション姿勢は、検出される位置で想定し得る不具合を予測してオペレータのその後の操作のための基準を与えるために望ましい。
図2を参照すると、1つの典型的な実施形態に係るボアスコープ20の挿入チューブ24の断面図が示される。観察機能を実施するために、挿入チューブ24は、光源を与えるための2つの照明ケーブル241、カメラ信号を送信するための作業チャンネル243、検出ヘッド242を曲げるための4つの関節ケーブル245、および、電力を供給するための給電ケーブル247などの幾つかのケーブルをその内部に含んでもよい。前記ケーブルは、従来技術であり、したがって詳しく説明されない。ナビゲーション機能を実施するために、挿入チューブ24は、挿入チューブ24内に配置される形状検知ケーブル246を更に含む。この図示の実施形態では、形状検知ケーブル246が挿入チューブ24の内面上に配置される。他の実施形態において、形状検知ケーブル246は、挿入チューブ24の他の位置に配置され、例えば、挿入チューブ24の最適な形状フィードバックを得てもよい挿入チューブ24の中心に配置され得る。
一例として、形状検知ケーブル246は、十字形状の可撓性支持ロッド2462と、それぞれが支持ロッド2462の4つの角に配置される4本の検知リード線2463とを含む。1つの実施形態では、支持ロッド2462がガラス繊維または炭素繊維から形成されてもよいが、これに限定されない。他の実施形態では、支持ロッド2462の形状を変えることができ、また、検知リード線2463の数を調整することができる。
図3を参照すると、1つの典型的な実施形態に係る図2の挿入チューブの形状検知ケーブル246内に配置される検知リード線2463の概略図が示される。検知リード線2463は、センサ2465と、複数の検知ポイント2464とを含む。非限定的な実施形態では、検知リード線2463が光ファイバを備えてもよく、また、少なくとも1つの検知ポイント2464がファイバブラッググレーティング(FBG)を含んでもよい。検知ポイント2464の数は、ナビゲーション機能の精度要件に基づいて決定される。幾つかの実施形態において、センサ2465は、各検知ポイント2464で反射されて戻される光信号を受けるとともに、適切なアルゴリズムに基づいて挿入チューブ24の形状を計算するための検知信号を発生するために、検知リード線2463の端部に取り付けられる。
幾つかの実施形態において、各検知ポイント2464は、歪みゲージまたは他の圧電材料に基づくセンサを含んでもよい。それぞれの検知ポイント2464の各センサは、歪み変化信号を受けて、適切なアルゴリズムに基づいて挿入チューブ24の形状を計算するための検知信号を発生するために使用される。
他の実施形態において、センサ2465は、検出ヘッド242に取り付けられる加速器およびジャイロスコープを含む。したがって、慣性に基づくナビゲーションアルゴリズムを実施することにより、加速器およびジャイロスコープの検知信号に基づき、検出ヘッド242の姿勢を計算することができる。
図4を参照すると、1つの典型的な実施形態に係る図1のボアスコープ20のブロック図が示される。前述したように、手持ち式操作器具22は、操作部222を通じて検出ヘッド242を制御するとともに、ディスプレイ220を通じて検出ヘッド242の捕捉されたビデオ画像または静止画像313と計算されたナビゲーション画像325とを表示するために使用される。幾つかの実施形態では、手持ち式操作器具22が内部に埋め込まれるプロセッサ300を含んでもよく、該プロセッサは、操作部222、ディスプレイ220、検出ヘッド242、および、センサ2465と通信する。幾つかの実施形態において、プロセッサ300は、手持ち式操作器具22のサイズおよび重量を最小限に抑えるべく外部処理装置(例えばコンピュータ)内に配置されてもよい。
ビデオ機能または画像観察機能を実施するために、プロセッサ300は検出ヘッドコントローラ302および第1の画像プロセッサ304を含む。検出ヘッドコントローラ302は、操作部222から制御信号を受けるとともに、撮像角度、順方向、および、照明グレード等を調整するなど、検出プロセスにおいて検出ヘッド242を制御するために使用される。
図1に示される内部要素501の画像を捕捉した後、図2に示される作業チャンネル243は、対応する第1の画像信号311を第1の画像プロセッサ304へ送信するために使用される。第1の画像プロセッサ304は、第1の画像信号311を受けた後、ディスプレイ220の第1の表示部224内で第1の画像信号を随意的に示すために対応するビデオ画像または静止画像313を計算するべく使用される。
第1の画像プロセッサ304は、第1の画像信号311に基づいて第1画像F1(x,y)312を計算するための第1の画像計算機305を更に含む。ここで、F1(x,y)は平面座標系(x,y)内の関数である。図5を参照すると、図5の(a)部分に示されるように、第1画像F1(x,y)312は、捕捉された内部要素501の複数の特徴点(例えば、1,2,3,・・・n)を含んでもよい。幾つかの実施形態において、特徴点は、勾配演算子アルゴリズムなどの適切なアルゴリズムによって計算され得る複数の端点を含む。幾つかの実施形態において、特徴点は、他の点および線を含んでもよく、あるいは、内部要素501の画像を構成するために使用され得る任意の他の幾何学的情報を含んでもよい。
図4に戻って参照すると、ナビゲーション機能を実施するために、プロセッサ300は、モデル記憶ユニット306、姿勢計算機307、第2の画像プロセッサ314、および、ナビゲーション画像計算機310を更に含む。
モデル記憶ユニット306は、検出された機械装置70にしたがって決定される所定モデル318を記憶するために使用される。すなわち、所定モデル318の形態は、検出された機械装置70の形態と同じである。モデル記憶ユニット306は、検出されるべき異なる種類の機械装置に対応する多くのモデルを記憶してもよい。幾つかの実施形態では、所定モデル318が二次元モデルまたは三次元モデルであってもよい。
姿勢計算機307は、少なくとも1つのセンサ2465から検知信号316を受けるとともに、その検知信号316に基づいて検出ヘッド242の初期姿勢317を計算するために使用される。初期姿勢317は、検出された装置70内の検出ヘッド242の初期位置T1および初期方向R1を含む。通常、検出ヘッド242の初期姿勢(T1,R1)317は、機械装置70内の挿入チューブ24の挿入長さによるエラー蓄積に起因して十分に正確ではない。したがって、初期姿勢(T1,R1)317は、検出ヘッド242をより正確に誘導するべく調整される必要がある。
第2の画像プロセッサ314は、第1画像F1(x,y)312と第2画像F2Tnav,Rnav(x,y)322との間の差が許容範囲内に入るまで初期姿勢(T1,R1)317をナビゲーション姿勢(Tnav,Rnav)324に合うように徐々に調整するべく使用される。ここで、第2画像F2Tnav,Rnav(x,y)322は、ナビゲーション姿勢(Tnav,Rnav)324と所定モデル318とに基づいて計算される。幾つかの実施形態では、空間座標系(x’,y’,z’)内の第2画像F2Tnav,Rnav(x’,y’,z’)をナビゲーション姿勢(Tnav=[Tx’,Ty’,Tz’],Rnav=[Rx’,Ry’,Rz’])と三次元所定モデル318とに基づいて直接に計算することができる。このとき、空間座標系(x’,y’,z’)から平面座標系(x,y)への変換後、平面座標系(x,y)内の第2画像F2Tnav,Rnav(x,y)322を計算できる。
より特定の用途では、第2の画像プロセッサ314が第2の画像計算機308と画像解析ユニット309とを含む。図4および図5を一緒に参照すると、第2の画像計算機308は、初期姿勢(T1,R1)317と所定モデル318とに基づいて初期第2画像F2T1,R1(x,y)3221を計算するために使用される。第2の画像計算機308は、必要に応じて画像解析ユニット309によって計算される対応する調整された姿勢323(例えば、(T2,R2)、(T3,R3)および(T4,R4))と所定モデル318とに基づいてF2T2,R2(x,y)3222、F2T3,R3(x,y)3223、および、F2T4,R4(x,y)3224などの少なくとも1つの調整された第2画像322を計算するために更に使用される。図5に示されるように、第1画像F1(x,y)312と同様、第2画像322(例えば、初期第2画像F2T1,R1(x,y)3221)は、内部要素501の複数の対応する特徴点(例えば、1’,2’,3’,・・・n)を含む。
幾つかの実施形態において、画像解析ユニット309は、第1画像F1(x,y)312と初期第2画像F2T1,R1(x,y)3221との間の初期差E(T1,R1)を計算するために使用される。画像解析ユニット309は、第1画像F1(x,y)312とF2T2,R2(x,y)3222、F2T3,R3(x,y)3223、および、F2T4,R4(x,y)3224などの調整された第2画像F2Tk+1,Rk+1(x,y)322との間の調整された差E(Tk+1,Rk+1)(k≧1)を計算するために更に使用される。画像解析ユニット309は、初期差E(T1,R1)と調整された差E(Tk+1,Rk+1)との間の変化ΔEkを計算するために更に使用される。画像解析ユニット309は、変化ΔEkが許容範囲内に入るかどうかを決定して、変化ΔEkが許容範囲から外れる場合には、変化ΔEkが許容範囲内に入るまで、初期姿勢(T1,R1)317を調整された姿勢(Tk+1,Rk+1)323に合うように徐々に調整するべく更に使用される。変化ΔEkが許容範囲内に入った時点で、対応する調整された姿勢(Tk+1,Rk+1)323がナビゲーション姿勢(Tnav,Rnav)324として出力され、例えば図5に示される(T4,R4)などが前記計算後のナビゲーション姿勢324である。
他の実施形態において、画像解析ユニット309は、第1画像312と初期第2画像3221との間の差E(T1,R1)または第1画像312と調整された第2画像3222,3223,3224との間の差E(Tk+1,Rk+1)が許容範囲内に入るかどうかを決定し、差E(T1,R1)、E(Tk+1,Rk+1)が許容範囲から外れる場合には、差E(T1,R1)、E(Tk+1,Rk+1)が許容範囲内に入るまで、初期姿勢(T1,R1)317を調整された姿勢(Tk+1,Rk+1)323に合うように徐々に調整するべく更に使用される。差E(T1,R1)、E(Tk+1,Rk+1)が許容範囲内に入った時点で、初期姿勢(T1,R1)317または対応する調整された姿勢(Tk+1,Rk+1)323がナビゲーション姿勢(Tnav,Rnav)324として出力され、例えば図5に示される(T4,R4)などが前記計算後のナビゲーション姿勢324である。
ナビゲーション画像計算機310は、ナビゲーション姿勢324および所定モデル318を受けた後、ナビゲーション姿勢324と所定モデル318とに基づいてナビゲーション画像325を計算するために使用される。図示のナビゲーション画像325は二次元画像または三次元画像である。その後、ナビゲーション画像325は、検出される位置で想定し得る不具合を予測してその後の操作のための基準情報をオペレータに与えるためにディスプレイ220の第2の部分226に示される。幾つかの実施形態では、より多くの基準情報を与えるために、ナビゲーション姿勢324もディスプレイ220に示される。
図5を参照すると、1つの典型的な実施形態に係る初期第2画像3221の調整の概略図が示される。以下、図4に示されるボアスコープのブロック図と組み合わせて、調整プロセスについて詳しく説明する。
幾つかの実施形態では、少なくとも1つの調整プロセスが第2の画像プロセッサ314で実施される。第1画像F1(x,y)312と第2画像F2Tk,Rk(x,y)322との間の差E(Tk,Rk)を以下の方程式にしたがって計算できる。
ここで、差E(Tk,Rk)は、F1(x,y)のそれぞれの点1,2,3,・・・,nとF2Tk,Rk(x,y)の対応する点1’,2’,3’,・・・,nとの間のエラーの蓄積によって計算される。他の実施形態において、E(Tk,Rk)は、第1画像F1(x,y)312と第2画像F2Tk,Rk(x,y)322との間のエラーを表すために使用され得る関数である。
一例として、第1画像F1(x,y)312および初期第2画像F2T1,R1(x,y)3221は、図5の(a)部分に示されるように計算される。その後、k=1のときの方程式(1)にしたがって初期差E(T1,R1)を計算することができる。
画像解析ユニット309は、初期姿勢(T1,R1)317を調整された姿勢(T2,R2)323に合わせるように調整するべく使用される。図5の(b)部分に示されるように調整された姿勢(T2,R2)323に基づいて第2画像F2T1,R1(x,y)3221をF2T2,R2(x,y)3222に合わせるように再計算することができる。その後、k=2のときの方程式(1)にしたがってE(T2,R2)を計算することができる。変化差ΔE1=E(T2,R2)−E(T1,T1)を計算することができる。一例として、ΔE1が所定の許容範囲(例えば、[−0.005,0])から外れ、調整された姿勢(T2,R2)が依然として正確でないとして決定される。
その後、画像解析ユニット309は、初期姿勢(T1,R1)317を他の調整された姿勢(T3,R3)323に合わせるように調整するべく使用される。図5の(c)部分に示されるように第2画像F2T1,R1(x,y)3221をF2T3,R3(x,y)3223に合わせるように再計算することができる。その後、k=3のときの方程式(1)に基づいてE(T3,R3)を計算することができる。変化差ΔE2=E(T3,R3)−E(T1,T1)を計算することができる。一例として、ΔE2が所定の許容範囲(例えば、[−0.005,0])から外れ、調整された姿勢(T3,R3)323が依然として正確でないとして決定される。
その後、画像解析ユニット309は、初期姿勢(T1,R1)317を他の調整された姿勢(T4,R4)323に合わせるように調整するべく使用される。図5の(d)部分に示されるように第2画像F2T1,R1(x,y)3221をF2T4,R4(x,y)3224に合わせるように再計算することができる。その後、k=4のときの方程式(1)に基づいてE(T4,R4)を計算することができる。変化差ΔE3=E(T4,R4)−E(T1,T1)を計算することができる。一例として、ΔE3が所定の許容範囲(例えば、[−0.005,0])から外れ、調整された姿勢(T4,R4)が十分に正確であると決定される。最後に、画像解析ユニット309は、調整された姿勢(T4,R4)323をナビゲーション姿勢(Tnav,Rnav)324として出力する。
幾つかの実施形態において、調整された姿勢(Tk+1,Rk+1)323は、以下の方程式のように、初期位置T1および初期方向R1のそれぞれに対して補償位置ΔTkおよび補償方向ΔRkを加えることによって計算される。
Tk+1=T1+ΔTk(k≧1) (2)
Rk+1=R1+ΔRk(k≧1) (3)
幾つかの実施形態では、ΔTk,ΔRkのうちの少なくとも一方のステップ長が固定されるとともに、ΔTk,ΔRkのうちの少なくとも一方の方向が可変である。例えば、ΔT1=[0.005,−0.0005,0.0005],ΔR1=[0.5°,−0.5°,0.5°]、および、ΔT2=[0.005,−0.0005,−0.0005],ΔR2=[0.5°,−0.5°,−0.5°,]である。幾つかの実施形態では、ΔTkおよびΔRkが可変である。幾つかの実施形態において、ΔTkおよびΔRkは、差E(Tk,Rk)の収束速度をゼロの値まで加速するためのLevenberg−Marquardアルゴリズムなどの収束アルゴリズムによって計算される。
幾つかの実施形態では、調整された差E(Tk+1,Rk+1)が常に初期差E(T1,R1)よりも小さくなると見込まれる。E(Tk+1,Rk+1)がE(T1,R1)よりも大きい場合、それは、調整が正しい方向にないことを意味する。この場合には、調整が方向を変えるべきである。例えば、ΔTk=(0.0005,0.0005,0.0005)およびΔTk+1=(−00005,0.0005,0.0005)である。E(Tk+1,Rk+1)がE(T1,R1)よりも小さいと同時に、ΔEkが許容範囲から外れたままである場合、それは、調整が正しい方向にあることを意味する。調整がステップ長を継続しあるいは変更すべきである。例えば、ΔTk=(−0.0005,0.0005,0.0005)およびΔTk+1=(−0.0001,0.0001,0.0001)である。
図6を参照すると、1つの典型的な実施形態に係る図1のボアスコープ20の検出ヘッド242を誘導するための方法のフローチャートが示される。方法600は、プロセッサ300によって実行されるとともに、以下のステップを含む。
ブロック601では、検出動作中、第1の画像信号311が検出ヘッド242から受けられるとともに、検知信号316が少なくとも1つのセンサ2465から受けられる。
ビデオ機能または画像観察機能を実施するために、ステップ621,623が更に含まれる。ブロック621では、第1の画像信号311に基づいて対応するビデオ画像または静止画像313が計算される。ブロック623では、対応するビデオ画像または静止画像313がディスプレイ220に示される。
ナビゲーション機能を実施するために、ステップ603〜613が含まれる。
ブロック603では、検知信号316に基づいて検出ヘッド242の初期姿勢(T1,R1)317が計算される。
ブロック605では、第1の画像信号311に基づいて第1画像312が計算されるとともに、初期姿勢(T1,R1)317と所定モデル318とに基づいて初期第2画像322が計算される。
ブロック607では、第1画像F1(x,y)312と初期第2画像F2T1,R1(x,y)3221との間の初期差E(T1,R1)が計算される。
ブロック609では、第1画像F1(x,y)312と第2画像F2Tnav,Rnav(x,y)322との間の対応する差E(Tnav,Rnav)が許容範囲内に入るまで、初期姿勢(T1,R1)317がナビゲーション姿勢(Tnav,Rnav)324に合うように徐々に調整される。
ブロック611では、所定モデル318とナビゲーション姿勢(Tnav,Rnav)324とに基づいてナビゲーション画像325が計算される。
ブロック613では、ナビゲーション画像325がディスプレイ220に示される。
図7を参照すると、別の典型的な実施形態に係る図6の方法の初期姿勢を調整するためのステップのフローチャートが示される。より具体的には、ステップ609が以下のサブステップを含む。
ブロック6091では、初期姿勢(T1,R1)317が調整された姿勢(Tk+1,Rk+1)(k≧1)323に合うように調整される。
ブロック6092では、第1画像F1(x,y)312と調整された第2画像F2Tk+1,Rk+1(x,y)322とに基づいて調整された差E(Tk+1,Rk+1)が計算される。調整された第2画像F2Tk+1,Rk+1(x,y)322は、調整された姿勢(Tk+1,Rk+1)323に基づいて計算される。
ブロック6093では、調整された差E(Tk+1,Rk+1)と初期差E(T1,R1)との間の変化ΔEkが計算される。
ブロック6094では、変化ΔEkが所定の範囲[El,Eh]内に入るかどうかが決定される。所定の範囲内に入らない場合には、プロセスがブロック6091へ戻り、yesの場合には、プロセスがブロック6095へ移行する。
ブロック6095では、調整された姿勢(Tk+1,Rk+1)323がナビゲーション姿勢(Tnav,Rnav)324として出力される。
図8を参照すると、1つの典型的な実施形態に係る図6の方法の初期姿勢を調整するためのステップのフローチャートが示される。ステップ609は以下のサブステップを含む。
ブロック6096では、初期差E(T1,R1)または調整された差E(Tk+1,Rk+1)(k≧1)が所定の範囲[El,Eh]内に入るかどうかが決定される。所定の範囲内に入らない場合には、プロセスがブロック6097へ移行し、yesの場合には、プロセスがブロック6099へ移行する。
ブロック6097では、初期姿勢(T1,R1)317が調整された姿勢(Tk+1,Rk+1)323に合うように調整される。
ブロック6098では、第1画像F1(x,y)312と調整された第2画像F2Tk+1,Rk+1(x,y)322とに基づいて調整された差E(Tk+1,Rk+1)が計算される。調整された第2画像F2Tk+1,Rk+1(x,y)322は、調整された姿勢(Tk+1,Rk+1)323に基づいて計算される。そして、プロセスがブロック6096へ戻る。
ブロック6099では、初期姿勢(T1,R1)317または調整された姿勢(Tk+1,Rk+1)323がナビゲーション姿勢(Tnav,Rnav)324として出力される。
初期姿勢(T1,R1)317が徐々に調整されるため、それにしたがって、対応する第2画像322が調整される。第1画像312と第2画像322との間の差が徐々に減少される。その後、先の方法600によって正確なナビゲーション画像325を得ることができ、オペレータは、挿入チューブ24のナビゲーション画像325または検出された機械装置70内の検出ヘッド242の位置を監視することにより、挿入された検出チャンネル/ポイントを正確に特定することができる。
言うまでもなく、当業者は、異なる実施形態からの様々な特徴の互換性を認識することができ、また、記載される様々な特徴、および、それぞれの特徴における他の既知の等価物は、この開示の原理にしたがって更なるシステムおよび技術を構成するために、この技術分野における当業者によって混ぜ合わされて適合されてもよい。したがって、言うまでもなく、添付の特許請求項は、発明の真の思想内に入るそのような全ての改良および変更を網羅するようになっている。
また、当該技術分野に精通する者によって理解されるように、本発明は、本発明の思想または本質的特徴から逸脱することなく他の特定の形態で具現化されてもよい。したがって、本明細書中の開示および説明は、以下の特許請求項に記載される発明の例示であって、本発明の範囲を限定しようとするものではない。
20 ボアスコープ
22 手持ち式操作器具
24 挿入チューブ
70 機械装置
71 開口
72 検出空間
220 ディスプレイ
222 操作部
224 第1の表示部
226 第2の表示部
241 照明ケーブル
242 検出ヘッド
243 作業チャンネル
245 関節ケーブル
246 形状検知ケーブル
247 給電ケーブル
300 プロセッサ
302 検出ヘッドコントローラ
304 第1の画像プロセッサ
305 第1の画像計算機
306 モデル記憶ユニット
307 姿勢計算機
308 第2の画像計算機
309 画像解析ユニット
310 ナビゲーション画像計算機
311 第1の画像信号
312 第1画像
313 ビデオ画像または静止画像
314 第2の画像プロセッサ
316 検知信号
317 初期姿勢
318 所定モデル
322 第2画像
323 調整された姿勢
324 ナビゲーション姿勢
325 ナビゲーション画像
501 内部要素
601 ステップ、ブロック
603 ステップ、ブロック
605 ステップ、ブロック
607 ステップ、ブロック
609 ステップ、ブロック
611 ステップ、ブロック
613 ステップ、ブロック
621 ステップ、ブロック
623 ステップ、ブロック
2462 支持ロッド
2463 検知リード線
2464 検知ポイント
2465 センサ
3221 初期第2画像
3222、3223、3224 第2画像
3251 ナビゲーション画像
3252 ナビゲーション画像
3253 挿入チューブの構成
3254 ポイント
6091 ブロック
6092 ブロック
6093 ブロック
6094 ブロック
6095 ブロック
6096 ブロック
6097 ブロック
6098 ブロック
6099 ブロック

Claims (20)

  1. 検出ヘッド(242)を備える挿入チューブ(24)であって、前記挿入チューブ(24)内の信号を受けて検知信号(316)を発生させるための少なくとも1つのセンサ(2465)を備える挿入チューブ(24)と、
    前記検出ヘッド(242)によって捕捉される第1の画像信号(311)に基づいて第1画像(312)を計算するための第1の画像プロセッサ(304)と、
    検出されるべき機械装置(70)の所定モデル(318)を記憶するためのモデル記憶ユニット(306)と、
    前記検知信号(316)に基づいて前記検出ヘッド(242)の初期姿勢(317)を計算するための姿勢計算機(307)と、
    前記第1画像(312)とナビゲーション姿勢(324)および前記所定モデル(318)に基づいて計算される第2画像(322)との間の差が許容範囲内に入るまで、前記初期姿勢(317)を前記ナビゲーション姿勢(324)に合うように調整するための第2の画像プロセッサ(314)と、
    前記ナビゲーション姿勢(324)と前記所定モデル(318)とに基づいてナビゲーション画像(325)を計算するためのナビゲーション画像計算機(310)と、
    前記ナビゲーション画像(325)を表示するためのディスプレイ(220)と、
    を備えるボアスコープ(20)。
  2. 前記第2の画像プロセッサ(314)は、
    第2の画像計算機(308)であって、
    前記初期姿勢(317)に基づいて初期第2画像(3221)を計算し、
    画像解析ユニット(309)により計算される対応する調整された姿勢(323)と前記所定モデル(318)とに基づいて少なくとも1つの調整された第2画像(322)を計算する、
    第2の画像計算機(308)と、
    画像解析ユニット(309)であって、
    前記第1画像(312)と前記初期第2画像(3221)との間の初期差を計算し、
    前記第1画像(312)と前記調整された第2画像(322)との間の調整された差を計算し、
    前記初期差と前記調整された差との間の変化を計算し、
    前記変化が許容範囲内に入るかどうかを決定して、前記変化が許容範囲内に入るまで前記初期姿勢(317)を徐々に調整し、
    前記対応する調整された姿勢(323)を前記ナビゲーション姿勢(324)として出力する、
    画像解析ユニット(309)と、
    を備える請求項1に記載のボアスコープ(20)。
  3. 前記第2の画像プロセッサ(314)は、
    第2の画像計算機(308)であって、
    前記初期姿勢(317)に基づいて初期第2画像(3221)を計算し、
    画像解析ユニット(309)により計算される対応する調整された姿勢(323)と前記所定モデル(318)とに基づいて少なくとも1つの調整された第2画像(322)を計算する、
    第2の画像計算機(308)と、
    画像解析ユニット(309)であって、
    前記第1画像(312)と前記初期第2画像(3221)との間の差または前記第1画像(312)と前記調整された第2画像(322)との間の差が許容範囲内に入るかどうかを決定して、前記差が許容範囲内に入るまで前記初期姿勢(317)を徐々に調整し、
    前記対応する調整された姿勢(323)を前記ナビゲーション姿勢(324)として出力する、
    画像解析ユニット(309)と、
    を備える請求項1に記載のボアスコープ(20)。
  4. 前記初期姿勢(317)は、前記検出ヘッド(242)の初期位置および初期方向を備える請求項1に記載のボアスコープ(20)。
  5. 前記調整された姿勢(323)は、補償位置を前記初期位置に加えることによってあるいは補償方向を前記初期方向に加えることによって得られる請求項4に記載のボアスコープ(20)。
  6. 前記補償位置および前記補償方向のうちの少なくとも一方のステップ長が固定される請求項5に記載のボアスコープ(20)。
  7. 前記補償位置および前記補償方向が可変である請求項5に記載のボアスコープ(20)。
  8. 前記補償位置および前記補償方向は、前記差の収束速度をゼロの値まで加速するための収束アルゴリズムによって計算される請求項7に記載のボアスコープ(20)。
  9. 前記収束アルゴリズムがLevenberg−Marquardアルゴリズムを備える請求項8に記載のボアスコープ(20)。
  10. 前記検知信号(316)が光信号または歪み変化信号を備える請求項1に記載のボアスコープ(20)。
  11. ボアスコープ(20)の検出ヘッド(242)を誘導するための方法であって、
    前記検出ヘッド(242)から第1の画像信号(311)を受けるとともに、少なくとも1つのセンサ(2465)から検知信号(316)を受けるステップと、
    前記検知信号(316)に基づいて前記検出ヘッド(242)の初期姿勢(317)を計算するステップと、
    第1の画像信号(311)に基づいて第1画像(312)を計算するとともに、前記初期姿勢(317)と所定モデル(318)とに基づいて初期第2画像(3221)を計算するステップと、
    前記第1画像(312)と前記初期第2画像(3221)との間の初期差を計算するステップと、
    前記第1画像(312)とナビゲーション姿勢(324)および前記所定モデル(318)に基づいて計算される第2画像(322)との間の差が許容範囲内に入るまで、前記初期姿勢(317)を前記ナビゲーション姿勢(324)に合うように徐々に調整するステップと、
    前記所定モデル(318)と前記ナビゲーション姿勢(324)とに基づいてナビゲーション画像(325)を計算するステップと、
    前記ナビゲーション画像(325)を表示するステップと、
    を備える方法。
  12. 前記第1の画像信号(311)に基づいて対応するビデオ画像または静止画像(313)を計算するステップと、
    対応するビデオ画像または静止画像(313)を表示するステップと、
    を更に備える請求項11に記載の方法。
  13. 前記調整するステップは、
    a)前記初期姿勢(317)を調整された姿勢(323)に合うように調整するステップと、
    b)前記第1画像(312)と、前記調整された姿勢(323)および前記所定モデル(318)に基づく調整された第2画像(322)とに基づいて、調整された差を計算するステップと、
    c)前記調整された差と前記初期差との間の変化を計算するステップと、
    d)前記変化が所定の範囲内に入るかどうかを決定し、所定の範囲内に入る場合にはプロセスがステップe)へ移行し、所定の範囲内に入らない場合にはプロセスがステップa)に戻る、ステップと、
    e)前記調整された姿勢(323)を前記ナビゲーション姿勢(324)として出力するステップと、
    を備える請求項11に記載の方法。
  14. 前記調整するステップは、
    a)前記第1画像(312)と前記第2画像(322)との間の初期差または調整された差が所定の範囲内に入るかどうかを決定し、所定の範囲内に入らない場合にはプロセスがステップb)へ移行し、所定の範囲内に入る場合にはプロセスがステップd)へ移行する、ステップと、
    b)前記初期姿勢(317)を調整された姿勢(323)に合うように調整するステップと、
    c)前記第1画像(312)と、前記調整された姿勢(323)および前記所定モデル(318)に基づいて計算される調整された第2画像(322)とに基づいて、調整された差を計算し、その後、プロセスがステップa)へ戻る、ステップと、
    d)前記初期姿勢(317)または前記調整された姿勢(323)を前記ナビゲーション姿勢(324)として出力するステップと、
    を備える請求項11に記載の方法。
  15. 前記初期姿勢(317)は、前記検出ヘッド(242)の初期位置および初期方向を備える請求項11に記載の方法。
  16. 前記調整された姿勢(323)は、補償位置を前記初期位置に加えることによっておよび補償方向を前記初期方向に加えることによって得られる請求項11に記載の方法。
  17. 前記補償位置および前記補償方向のうちの少なくとも一方のステップ長が固定される請求項16に記載の方法。
  18. 前記補償位置および前記補償方向が可変である請求項16に記載の方法。
  19. 前記補償位置および前記補償方向は、前記差の収束速度をゼロの値まで加速するための収束アルゴリズムによって計算される請求項18に記載の方法。
  20. 前記収束アルゴリズムがLevenberg−Marquardアルゴリズムを備える請求項19に記載の方法。
JP2015088860A 2014-04-30 2015-04-24 ボアスコープおよびそのナビゲーション方法 Pending JP2016027372A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410180922.5A CN105100682B (zh) 2014-04-30 2014-04-30 具有导航功能的管道镜
CN201410180922.5 2014-04-30

Publications (1)

Publication Number Publication Date
JP2016027372A true JP2016027372A (ja) 2016-02-18

Family

ID=53016536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015088860A Pending JP2016027372A (ja) 2014-04-30 2015-04-24 ボアスコープおよびそのナビゲーション方法

Country Status (4)

Country Link
US (1) US20150319410A1 (ja)
EP (1) EP2940508A1 (ja)
JP (1) JP2016027372A (ja)
CN (1) CN105100682B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107795854B (zh) * 2017-09-18 2019-02-19 深圳大学 一种管道检测方法、装置以及存储介质
US10488349B2 (en) 2017-11-14 2019-11-26 General Electric Company Automated borescope insertion system
US10489896B2 (en) 2017-11-14 2019-11-26 General Electric Company High dynamic range video capture using variable lighting
US10775315B2 (en) 2018-03-07 2020-09-15 General Electric Company Probe insertion system
US10679066B2 (en) 2018-03-22 2020-06-09 General Electric Company Best image grab from video with digital grid assistance for aviation engine borescope inspection
US20200196839A1 (en) * 2018-12-20 2020-06-25 Boston Scientific Scimed, Inc. Endoscopic scope device with a sensor
US20220125530A1 (en) * 2019-02-28 2022-04-28 Koninklijke Philips N.V. Feedback continuous positioning control of end-effectors
US11933690B2 (en) 2021-10-08 2024-03-19 Pratt & Whitney Canada Corp. Inspecting an interior of a gas turbine engine apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077831A (ja) * 2003-09-01 2005-03-24 Olympus Corp 工業用内視鏡装置及びこれを用いた検査方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005058137A2 (en) * 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
US20090149703A1 (en) * 2005-08-25 2009-06-11 Olympus Medical Systems Corp. Endoscope insertion shape analysis apparatus and endoscope insertion shape analysis system
US20100149183A1 (en) * 2006-12-15 2010-06-17 Loewke Kevin E Image mosaicing systems and methods
US20090208143A1 (en) * 2008-02-19 2009-08-20 University Of Washington Efficient automated urothelial imaging using an endoscope with tip bending
US8107083B2 (en) * 2008-03-05 2012-01-31 General Electric Company System aspects for a probe system that utilizes structured-light
JP5372407B2 (ja) * 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 医療機器
US20120130171A1 (en) * 2010-11-18 2012-05-24 C2Cure Inc. Endoscope guidance based on image matching
US8827934B2 (en) * 2011-05-13 2014-09-09 Intuitive Surgical Operations, Inc. Method and system for determining information of extrema during expansion and contraction cycles of an object
DE102011122759A1 (de) * 2011-11-02 2013-05-02 Rolls-Royce Deutschland Ltd & Co Kg Verfahren zur Inspektion einer Gasturbine
US10376178B2 (en) * 2012-05-14 2019-08-13 Intuitive Surgical Operations, Inc. Systems and methods for registration of a medical device using rapid pose search

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077831A (ja) * 2003-09-01 2005-03-24 Olympus Corp 工業用内視鏡装置及びこれを用いた検査方法

Also Published As

Publication number Publication date
EP2940508A1 (en) 2015-11-04
CN105100682A (zh) 2015-11-25
CN105100682B (zh) 2018-12-25
US20150319410A1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
JP2016027372A (ja) ボアスコープおよびそのナビゲーション方法
JP6211157B1 (ja) キャリブレーション装置およびキャリブレーション方法
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
JP4757142B2 (ja) 撮影環境校正方法及び情報処理装置
JP6333075B2 (ja) 測量装置
JP2011031346A (ja) ロボットのツール先端点の位置の計測装置および計測方法
EP3421930B1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
JP2016509199A (ja) 3次元表面測定のための装置および方法
US20140009582A1 (en) Three-dimensional measurement apparatus and robot system
JP2013517506A (ja) 統合された部品温度測定システム
JP2015090298A (ja) 情報処理装置、情報処理方法
TWI493153B (zh) 非接觸式物件空間資訊量測裝置與方法及取像路徑的計算方法
JP2010188439A (ja) パラメータ算出方法及びパラメータ算出装置
JPWO2018038152A1 (ja) ガス計測システム及びガス計測プログラム
US9918044B2 (en) Handheld observation device comprising a digital magnetic compass
CN109983299A (zh) 工业机器人的测量系统和方法
KR101972432B1 (ko) 레이저비전 센서 및 그 보정방법
JP2010117152A (ja) 撮影カメラの位置算出装置
US20190390954A1 (en) Method and device for producing a 3d thermogram
US8717579B2 (en) Distance measuring device using a method of spanning separately targeted endpoints
JP7366264B2 (ja) ロボット教示方法及びロボット作業方法
JP2010091540A (ja) 三次元計測システム及び三次元計測方法
JP4677613B2 (ja) 三次元形状測定システム
JP2018201077A (ja) 撮像装置およびその制御方法、画像処理装置およびその制御方法、作業支援システム、プログラム
JP6998184B2 (ja) 読取表示システム、読取表示方法及び読取値測定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191206