JP6030837B2 - 観察対象物の表面の3次元ビューを表示するための方法および装置 - Google Patents

観察対象物の表面の3次元ビューを表示するための方法および装置 Download PDF

Info

Publication number
JP6030837B2
JP6030837B2 JP2012044901A JP2012044901A JP6030837B2 JP 6030837 B2 JP6030837 B2 JP 6030837B2 JP 2012044901 A JP2012044901 A JP 2012044901A JP 2012044901 A JP2012044901 A JP 2012044901A JP 6030837 B2 JP6030837 B2 JP 6030837B2
Authority
JP
Japan
Prior art keywords
points
coordinate system
observation object
dimensional
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012044901A
Other languages
English (en)
Other versions
JP2012185160A (ja
Inventor
クラーク・アレキサンダー・ベンダール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2012185160A publication Critical patent/JP2012185160A/ja
Application granted granted Critical
Publication of JP6030837B2 publication Critical patent/JP6030837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本明細書に開示する主題は、観察対象物の表面の3次元ビューを表示するための方法および装置に関する。
ビデオ内視鏡のようなビデオ検査装置は、観察対象物の表面を調べるために使用されて、物体の損傷または磨耗によって生じた可能性のあるその表面の凸凹を識別および分析することができる。多くの場合、表面は近づくことが難しく、ビデオ検査装置を使用せずに見ることができない。例えば、航空機または発電装置のタービンエンジンのブレードの表面を検査するためにビデオ内視鏡を使用して、表面に形成された可能性のある凸凹を識別し、修理またはさらなる整備が必要であるかどうかを判断することができる。その評価を行うために、多くの場合、表面および凸凹の非常に正確な寸法測定値を取得し、凸凹がその物体の運転制限値を超えていないまたは要求仕様を外れていないことを確認する必要がある。
表面の凸凹の寸法を測定するために、ビデオ検査装置を使用して、凸凹を示す観察対象物の表面の2次元画像を取得して表示することができる。表面のこの2次元画像を使用して、表面の3次元データを(例えばマップの形式で)生成することができ、表面の対象領域(例えば、凸凹に隣接)に含んでいる、表面の複数の点の3次元座標(例えば(x,y,z))を提供する。一部のビデオ検査装置では、操作者は、ビデオ検査装置を測定モードで操作して測定画面に入ることができ、この画面で操作者は対象領域の2次元画像上にカーソルを置き、凸凹の幾何学的寸法を測定することができる。多くの場合、表示される形の輪郭は、2次元画像から評価することは困難であり、対象領域に非常に正確にカーソルを置くことを難しくする。例えば、くぼみまたは穴の深さを測定しようとするとき、2次元画像から、穴またはくぼみの中の最も深い点の位置を測定するのは困難である可能性がある。
操作者に対象領域に関する追加情報を提供するために、一部のビデオ検査装置はポイントクラウドビューを提供するが、このポイントクラウドビューは、画像中の観察対象物を描画した3次元の表面モデルであり、一般的にはプローブの先端に隣接しているビデオ検査装置のビューのフィールドの原点を中心に動かす(例えば、回転させる、ズームさせる、パンするなど)ことができる。対象領域が表面のフル画像と比べて比較的小さいとき、または対象領域がビューのフィールドの起点から離れているとき、フル画像のポイントクラウドビューは、対象領域の要求される詳細レベルを提供するのに必ずしも効果的ではない。このような場合、フル画像のポイントクラウドビューは十分な詳細が欠けている可能性があり、3次元データの大部分がプローブの先端から比較的遠い可能性がある対象領域に対して的外れであるので、ビューのフィールドの原点を中心に操作するとき、動かしにくくなる可能性がある。
一部のビデオ検査装置で使用される別の技術は、ポイントクラウドビューの中で3次元表面モデルがカラー化されて、深さマップのカラースケールを形成する、ポイントクラウドビューを使用する。カラー化されたポイントクラウドビューでは、各色がプローブの先端からの距離と関連付けられ、例えば、表面の各点と関連する2次元画像情報を使用しない。フル画像のポイントクラウドビューをこのようにカラー化して描画すると、ビュー全体に含まれる面積および範囲が広いために対象領域の細部を調べることが困難になる。したがって、より正確な検査および測定を可能にするために、対象領域の高度な詳細を提供する必要がある。
上述の説明は、単に一般的な背景情報のために行うものであり、請求される主題の範囲を決定する際の助けとして使用されることを目的としていない。
観察対象物の表面の3次元ビューを表示するための方法および装置を開示し、対象領域の観察対象物の全体画像からの3次元データのサブセットが測定され、表示されて、対象領域の高度な詳細を提供する。一部の開示した本方法の実施形態を実行して認識することができる利点は、より正確な検査および測定である。
1つの例示的実施形態では、観察対象物の表面の3次元ビューを表示するための方法を開示する。この方法は、観察対象物の表面の画像を取得して表示するステップと、観察対象物の表面の複数の表面点の第1の座標系における3次元座標を決定するステップと、観察対象物の表面の複数の測定点を選択するステップと、複数の測定点のうちの1つまたは複数に隣接した複数の表面点のうちの3つ以上の第1の座標系における3次元座標に基づいて基準表面を決定するステップと、基準表面および複数の測定点に基づいて第1の座標系とは異なる第2の座標系を設けるステップと、複数の表面点の第1の座標系における3次元座標を第2の座標系における3次元座標に変換するステップと、複数の測定点に基づいている、観察対象物の表面の対象領域内である複数の表面点のサブセットを決定するステップと、第2の座標系の3次元座標に複数の表面点のサブセットの描画された3次元ビューを表示するステップとを含む。
別の例示的実施形態では、観察対象物の表面の3次元ビューを表示するための方法は、観察対象物の表面の画像を取得して表示するステップと、観察対象物の表面の複数の表面点の第1の座標系における3次元座標を決定するステップと、観察対象物の表面の複数の測定点を選択するステップと、複数の測定点の位置に基づいて複数の表面点のサブセットを決定するステップと、複数の表面点のサブセットの描画された3次元ビューを表示するステップと、描画された3次元ビューに複数の測定ポイント表示するステップとを含む。
さらに別の例示的実施形態では、観察対象物の表面の3次元ビューを表示するための装置を開示する。この装置は、観察対象物の表面の画像を取得するためのイメージャと、観察対象物の表面の画像を表示するためのモニタと、観察対象物の表面の複数の測定点を選択するためのポインティングデバイスと、観察対象物の表面の複数の表面点の第1の座標系における3次元座標を決定し、複数の測定点のうちの1つまたは複数に隣接した複数の表面点のうちの3つ以上の第1の座標系における3次元座標に基づいて基準表面を決定し、基準表面および複数の測定点に基づいて第1の座標系とは異なる第2の座標系を設け、複数の表面点の第1の座標系における3次元座標を第2の座標系における3次元座標に変換し、複数の測定点に基づいている、観察対象物の表面の対象領域内である複数の表面点のサブセットを決定するための中央処理装置と、第2の座標系の3次元座標に複数の表面点のサブセットの描画された3次元ビューを表示することとを含む。
この本発明の簡単な説明は、単に1つまたは複数の例示的実施形態により本明細書に開示する主題の概要を提供することを目的とするものであり、特許請求の範囲を解釈する指針とならない、または本発明の範囲を定めるもしくは限定することはなく、本発明の範囲は添付の特許請求の範囲によってのみ定められる。この簡単な説明は、以下の詳細な説明でさらに説明する概念の例示的抜粋を簡略化して紹介するために行う。この簡単な説明は、特許請求の範囲に記載されている主題の主要な特徴または本質的特徴を確認することを目的とせず、さらに特許請求の範囲に記載されている主題の範囲を決定する助けとして使用されることを目的としない。特許請求の範囲に記載される主題は、背景に示される一部またはすべての不利点を解決する実施に限定されない。
本発明の特徴を理解することができるように、本発明の詳細な説明を、いくつかの実施形態を参照して行うことができ、その一部を添付の図面に示す。しかしながら、図面は、本発明のいくつかの実施形態のみを示しており、したがってその範囲を限定するとみなされるべきではなく、本発明の範囲は他の同様に効果的な実施形態を含むことに注意されたい。図面は、必ずしも一定尺度に応じておらず、発明のいくつかの実施形態の特徴を示す際には一般に強調が行われる。図面では、様々な図を通して同様の参照符号が同様の部分を示すために使用される。このように、本発明をさらに理解するために、図面に関連して読まれる次の詳細な説明を参照することができる。
本発明の例示的実施形態のビデオ検査装置のブロック図である。 本発明の例示的実施形態においてビデオ検査装置によって取得された、凸凹を有する観察対象物の表面の画像である。 本発明の例示的実施形態において図2の画像に示された観察対象物の表面を検査するために3次元データを表示するための方法の流れ図である。 ポイントクラウドビューにおける複数の表面点のサブセットの表示である。
観察対象物の表面の3次元ビューを表示するための方法および装置を開示し、対象領域の観察対象物の全体画像からの3次元データのサブセットが決定されて表示され、対象領域の高度な詳細を提供する。この方法および装置の一部の開示した実施形態を実施する際に理解することができる利点は、検査および測定がより正確であることである。
図1は、本発明の例示的実施形態のビデオ検査装置100のブロック図である。図1に示すビデオ検査装置100は例示であって、本発明の範囲はいかなる特定のビデオ検査装置100にも、またはビデオ検査装置100内の構成要素のいかなる特定の構成にも限定されないことは理解されるであろう。
ビデオ検査装置100は、挿入管110および挿入管110の遠位端に配置されたヘッドアセンブリ120を備える細長いプローブ102を含むことができる。挿入管110は、可撓性のある管状部分とすることができ、ヘッドアセンブリ120とプローブ電子回路140との間のすべての相互接続がここを通過する。ヘッドアセンブリ120は、観察対象物202からの光をイメージャ124に導いて集めるためのプローブ光学部122を含むことができる。プローブ光学部122は、例えばレンズ単体または複数の構成要素を有するレンズを備えることができる。イメージャ124は、観察対象物202の画像を取得するための、ソリッドステートCCDまたはCMOS撮像センサとすることが可能である。
取り外し可能先端部またはアダプタ130を、ヘッドアセンブリ120の遠位端に取り付けることができる。取り外し可能先端部130は、観察対象物202からの光をイメージャ124に導いて集めるためにプローブ光学部122と連動して機能する先端観察光学部132(例えば、レンズ、窓、または開口)を含むことができる。また取り外し可能先端部130は、ビデオ検査装置100の光源が先端部130から出る場合は照明LED(図示せず)を、またはプローブ102から観察対象物202へ光を通過させるための光通過要素(図示せず)を含むことができる。また先端部130は、カメラビューおよび光出力を側部に向けるための導波管(例えばプリズム)を含めることによって、側視のための機能を設けることができる。また先端部130は、立体光学部または観察対象物の3次元寸法データの測定に使用するための構造化された光投影要素を設けることができる。先端部130に含めることができる要素は、プローブ102自体に含めることもできる。
イメージャ124は、複数の行と列で形成された複数の画素を含むことができ、イメージャ124の各画素に当たる光を表すアナログ電圧の形で画像信号を生成することができる。画像信号は、信号のバッファリングおよび調節のための電子機器を提供するイメージャハイブリッド126を介して、イメージャハーネス112に伝えることができ、イメージャハーネスはイメージャハイブリッド126とイメージャインタフェース電子回路142との間で制御信号およびビデオ信号用のワイヤを提供する。イメージャインタフェース電子回路142は、電源と、イメージャのクロック信号を生成するためのタイミング生成器と、イメージャのビデオ出力信号をデジタル化するためのアナログフロントエンドと、デジタル化されたイメージャのビデオデータをより有用なビデオフォーマットに加工するためのデジタル信号プロセッサとを含むことができる。
イメージャインタフェース電子回路142は、ビデオ検査装置10を操作するための機能を集めたプローブ電子回路140の一部である。プローブ電子回路140は、プローブ102および/または先端部130のキャリブレーションデータを格納するキャリブレーションメモリ144を含むこともできる。マイクロコントローラ146もまた、イメージャインタフェース電子回路142と通信して利得および露出の設定を決定し設定する、キャリブレーションメモリ144からキャリブレーションデータを格納して読み取る、観察対象物202に届けられる光を制御する、ならびにビデオ検査装置10のCPU150と通信するために、プローブ電子回路140に含めることができる。
マイクロコントローラ146との通信に加えて、イメージャインタフェース電子回路142は、1つまたは複数のビデオプロセッサ160と通信することもできる。ビデオプロセッサ160は、イメージャインタフェース電子回路142からビデオ信号を受け取り、内蔵ディスプレイ170または外部モニタ172など様々なモニタ170、172に信号を出力することができる。内蔵ディスプレイ170は、様々な画像またはデータ(例えば、観察対象物202の画像、メニュー、カーソル、測定結果)を検査者に表示するためにビデオ検査装置100に組み込まれたLCDスクリーンとすることができる。外部モニタ172は、様々な画像またはデータを表示するためにビデオ検査装置100と接続されたビデオモニタまたはコンピュータ型モニタとすることができる。
ビデオプロセッサ160は、コマンド、ステータス情報、ストリーミング映像、静止ビデオ画像、およびグラフィカルオーバレイをCPU150に提供する/CPU150から受け取ることができ、FPGA、DSP、または画像キャプチャ、画像画質向上、グラフィカルオーバレイのマージ、歪補正、フレームアベレージング、スケーリング、デジタルズーム、オーバレイ、マージ、反転、動作検出、ならびにビデオフォーマットの変換および圧縮のような機能を提供することができる他の処理要素を含むことができる。
CPU150は、画像、映像、および音声の格納ならびに呼出し機能、システム制御、測定処理など、他の機能のホストを提供することに加えて、ジョイスティック180、ボタン182、キーパッド184、および/またはマイクロホン186を介して入力を受け取ることによって、ユーザインタフェースを管理するために使用することができる。ジョイスティック180は、操作者によって扱われて、メニュー選択、カーソル移動、スライダ調整、およびプローブ102の明瞭度制御のような操作を行うことができ、プッシュボタン機能を含むことができる。ボタン182および/またはキーパッド184は、メニュー選択およびユーザコマンドをCPU150に提供する(例えば、静止画像を静止するまたは保存する)ために使用することもできる。マイクロホン186は、検査者によって使用され、静止画像を静止するまたは保存するよう音声命令を与えることが可能である。
ビデオプロセッサ160は、ビデオメモリ162と通信することもでき、ビデオメモリ162は、フレームバッファのためにおよび処理の間データを一時的に保持するために、ビデオプロセッサ160によって使用される。CPU150は、CPU150によって実行されるプログラムを格納するためのCPUプログラムメモリ152と通信することもできる。さらにCPU150は、揮発性メモリ154(例えばRAM)、および不揮発性メモリ156(例えばフラッシュメモリデバイス、ハードドライブ、DVD、もしくはEPROMメモリデバイス)と通信することが可能である。不揮発性メモリ156は、ストリーミング映像および静止画像の一次記憶装置である。
CPU150は、USB、Firewire、Ethernet(登録商標)kakko、音声I/O、および無線トランシーバのような、周辺装置およびネットワークへの様々なインタフェースを提供するコンピュータI/Oインタフェース158と通信することも可能である。このコンピュータI/Oインタフェース158は、静止画像、ストリーミング映像、または音声を保存する、読み出す、送信する、および/または受信するために使用することができる。例えば、USB「thumb drive」またはCompactFlash(登録商標)カードをコンピュータI/Oインタフェース158に差し込むことができる。さらに、ビデオ検査装置100は、画像データまたはストリーミング映像データのフレームを外部コンピュータまたはサーバに送信するように構成することができる。ビデオ検査装置100は、TCP/IP通信プロトコルスイートを組み込むことができ、複数のローカルコンピュータおよびリモートコンピュータを含むワイドエリアネットワークに組み込まれることが可能であり、このコンピュータのそれぞれも、TCP/IP通信プロトコルスイートを組み込んでいる。TCP/IPプロトコルスイートを組み込むと、ビデオ検査装置100は、TCPおよびUDPなどのいくつかのトランスポート層プロトコル、ならびにHTTPおよびFTPなどいくつかの異なる層のプロトコルを組み込む。
図2は、本発明の例示的実施形態において、凸凹204を有する観察対象物202の表面210の、ビデオ検査装置100によって取得された画像200である。この例では、凸凹204はくぼみとして示されており、損傷または摩耗によって凸凹204の中の観察対象物202の表面210から物質が取り除かれている。この例示的実施形態に示す凸凹204は、一例にすぎず、本発明の方法は、他のタイプの凸凹(例えば、割れ目、腐食孔、コーティングの欠落、表層堆積物など)に適用されることが理解されるであろう。画像200が取得され、凸凹204が識別されると、画像200を使用して、凸凹204の寸法(例えば、高さまたは深さ、長さ、幅、面積、体積、点と線との距離(point to line)、断面スライスなど)を測定することができる。1つの実施形態では、使用される画像200は、凸凹204を含む観察対象物202の表面210の2次元画像200とすることができる。
図3は、本発明の例示的実施形態において図2の画像200に示された観察対象物202の表面210を検査するために3次元データを表示するための方法の流れ図である。図3の流れ図に記載する諸ステップは、流れ図に示すものとは異なる順に実行できること、およびある実施形態では諸ステップのすべてが必要とされるわけではないことが理解されるであろう。
ステップ300では、図2に示すように、操作者はビデオ検査装置100を使用して、凸凹204を有する観察対象物202の表面210の画像200を取得し、これをビデオモニタ(例えば、内蔵ディスプレイ170または外部モニタ172)に表示することができる。
ステップ310では、ビデオ検査装置100のCPU150は、凸凹204を含む観察対象物202の表面210上の複数の表面点の第1の座標系における3次元座標(xiS1,yiS1,ziS1)を決定することができる。いくつかの異なる既存技術を使用して、表面210の画像200上の点の3次元座標を求めることができる(例えば、立体、走査システム、位相シフト、位相シフトモアレ、レーザドットプロジェクションなどのような構造光方式、)。大部分のこのような技術は、キャリブレーションデータの使用を含み、これは特に、他の場合は光学歪みによって生じる3次元座標における誤りを減少させるために使用される光学特性データを含む。いくつかの技術を用いると、3次元座標は、投影パターンなどを含むことができる非常に近接した時間に取り込まれた1つまたは複数の画像を使用して決定することができる。画像200を使用して決定される3次元座標を参照することは、非常に近接した時間に取り込まれた表面210の画像200の1つまたは複数を使用して3次元座標が決定されることも含むことができること、および説明した操作の間に操作者に表示される画像200は、実際には3次元座標の決定に使用される、または使用されない場合があることを理解されたい。
ステップ320では、図2に示すように、操作者がビデオ検査装置100のジョイスティック180(または他のポインティングデバイス(例えばマウス、タッチスクリーン))を使用して、凸凹204に隣接した観察対象物202の表面210の複数の測定点を選択して特定のタイプの測定を行うことができる。選択される測定点の数は、行われる測定のタイプによって決まる。ある測定は、2つの測定点(例えば、長さ、断面)の選択を要求することができ、他の測定は、3つ以上の測定点(例えば、点と線との距離、面積、マルチセグメント)の選択を要求することができる。1つの実施形態では、図2に示すように、4つの測定点221、222、223、224の全部が、凸凹204に隣接した観察対象物202の表面210で選択されて、凸凹204の深さの測定を行い、3つの測定点221、222、223は凸凹204に隣接した表面210で選択され、4つ目の測定点224は凸凹204の最も深い点となるように選択される。1つの実施形態では、観察対象物202の表面210の複数の測定点221、222、223、224は、表面210の複数の測定点221、222、223、224に対応する画像200の画素241、242、243、244にカーソル231、232、233、234(または他のポインティングデバイス)を置くことによって選択されることが可能である。例示の深さの測定では、ビデオ検査装置100は、複数の測定点221、222、223、224のそれぞれの第1の座標系における3次元座標を測定することができる。本発明の方法は、深さの測定または4つの選択された測定点を含む測定に限定されず、上述の測定を含む、異なる数の点を含む様々なタイプの測定に適用されることが理解されるであろう。
ステップ330では、図2に示すように、ビデオ検査装置100のCPU150は、基準表面250を決定することができる。一部の実施形態では基準表面250は平面であることが可能であり、他の実施形態では基準表面250は曲面であることが可能である。同様に、1つの実施形態では基準表面250は平面の形状であることが可能であるが、他の実施形態では基準表面250は異なる形状(例えば、円柱、球など)であることが可能である。図2に示す凸凹204の例示的な深さの測定では、凸凹204に隣接する表面210で選択された3つの測定点221、222、223の1つまたは複数に隣接する3つ以上の表面点の3次元座標を使用して、基準表面250(例えば、平面)を決定することができる。1つの実施形態では、ビデオ検査装置100は、3つの測定点221、222、223(xiM1,yiM1,ziM1)の第1の座標系における3次元座標の曲線の当てはめを行って、次のような形を有する基準表面250(例えば、平面)の式を求めることができる:
ここで(xiRS1,yiRS1,ziRS1)は、定められた基準表面250上の第1の座標系における任意の3次元の点の座標であり、k0RS1、k1RS1、およびk2RS1は、第1の座標系における3次元座標の曲線の当てはめによって得られた係数である。
複数の測定点(すなわち少なくともk個の係数の数と同じ数の点)を使用して曲線の当てはめを行うことに注意されたい。曲線の当てはめは、使用される点に最も適合するk個の係数を見いだす(例えば、最小二乗法)。次いでk個の係数は、使用される3次元の点に近い平面または他の基準表面250を定める。しかしながら、曲線の当てはめにk個の係数の数よりも多い点が使用される場合、使用される点のx座標およびy座標を平面の式(1)に挿入すると、zの結果は一般に、ノイズおよび実際に存在する可能性がある平面からの歪みにより、点のz座標に厳密には一致しない。したがって、xiRS1およびyiRS1は、任意の値とすることができ、結果として生じるziRS1は、xiRS1、yiRS1で定められる平面のzを表す。よって、これらの式で示す座標は、まさしく定められた表面の任意の点に対するものとすることができ、必ずしも当てはめに使用されてk個の係数を決定する点に対するものではない。
別の実施形態では、特定の測定のために2つの測定点のみ(例えば、長さ、断面)が選択されるが、k0RS1、k1RS1、およびk2RS1を測定するには3つの点が必要とされるので、これら2つの測定点の3次元座標にのみ基づいた曲線の当てはめを使用できないようにする。この場合、ビデオ検査装置100は、測定点のそれぞれに隣接した表面210上の複数の点に対応する画像の画素のそれぞれに隣接した複数の画素を識別することができ、これらの点の3次元座標を決定し、曲線の当てはめを可能にして基準表面250を決定する。
1つの実施形態では、図2に示すように、ビデオ検査装置100は、凸凹204および後に基準表面250の位置を表示するために使用することができる測定点221、222、223、224の周りの基準表面250上でフレーム262(例えば矩形)を形成する複数のフレームポイント260(xiF1、uiF1、ziF1)の第1の座標系における3次元座標を決定することができる。
基準表面250が決定されると、図2に示す例示的実施形態では、ビデオ検査装置100は、凸凹204の最も深い点で選択された第4の測定点224と基準表面250との間の距離を測定することによって凸凹204の測定(例えば、深さ)を行うことができる。この深さの測定の精度は、観察対象物202の表面210の複数の測定点221、222、223、224を選択する際の精度によって決まる。上述のように多くの場合、画像200の中の凸凹204の輪郭は、2次元画像から評価することは困難であり、複数の測定点221、222、223、224を確実に探し出すには小さすぎる、あるいは不十分である可能性がある。したがって、多くの場合操作者は、こうした測定点221、222、223、224の位置の精度を評価するために、凸凹204の領域のさらなる詳細を望む。つまり一部のビデオ検査装置100はフル画像200のポイントクラウドビューを提供できるが、前述のようにこのビューは凸凹204の要求されるレベルの詳細を提供することができない。測定点221、222、223、224の周りの領域で全体画像200の3次元データのポイントクラウドビューによって提供されるよりも、より重要な表面210のビューを提供するために、本発明の方法は、対象領域の3次元データのサブセットを作成する。
ステップ340では、ビデオ検査装置100のCPU150は、第1の座標系とは異なる第2の座標系を設けることができる。1つの実施形態では、第2の座標系は、基準表面250ならびに複数の測定点221、222、223、および224に基づくことができる。ビデオ測定装置100は、第2の座標系の原点(xO2,yO2,zO2)=(0,0,0)を、表面210の複数の測定点221、222、223、224の2つ以上に対応する基準表面250の点の3次元座標の平均的位置225に隣接して位置するように指定することができる(例えば、測定点221、222、223、および224を基準表面250に投影して、基準表面250上の平均的位置225を決定することによる)。場合によっては、測定点221、222、223に対応する基準表面250上の点の3次元座標は、同じである可能性がある。しかしながら、状況によっては、ノイズおよび/または表面210の小さな変動により、測定点221、222、223は基準表面250に正確に位置せず、したがって異なる座標を有する。
表面210上の測定点221、222、223、224に対応する基準表面250の点を決定するとき、直線の方向の概念を適用すると好都合であり、これはx面、y面、およびz面における直線の相対的な傾きを伝え、垂直線または平行線を作るために使用することができる。2つの3次元座標(x1,y1,z1)および(x2,y2,z2)を通る所与の直線については、直線の方向(dx,dy,dz)は、次のように定めることができる:
直線上の点(x1,y1,z1)および直線の方向(dx,dy,dz)が与えられると、直線は次のように定義することができる:
このように、x、y、またはz座標のいずれか1つが与えられると、残りの2つは計算することができる。平行線は、同じ、または直線的にスケール変更された直線方向を有する。方向(dx1,dy1,dz1)および(dx2,dy2,dz2)を有する2つの直線は、以下の場合、垂直である:
式(1)を使用して定められた基準面に垂直であるすべての直線の方向は、以下により求められる:
式(5)および(7)から(9)に基づいて、基準表面250に垂直であって、表面点(xS,yS,zS)を通る直線は、以下のように定めることができる:
1つの実施形態では、表面210の点(xiS1,yiS1,ziS1)に対応する基準表面250の点の座標(xiRS1,yiRS1,ziRS1)(例えば、測定点221、222、223、224に対応する基準表面250の点の第1の座標系における3次元座標)は、(7)〜(9)で求められる方向を有し、(xiS1,yiS1,ziS1)を通る基準表面250に垂直な直線を定めること、ならびにその直線の基準表面250との交点の座標を求めることによって決定することができる。したがって、式(1)および(10)から:
1つの実施形態では、こうしたステップ(式(2)から(13))を使用して、測定点221、222、223、224に対応する基準表面250の点の3次元座標を決定することができる。次に基準表面250の測定点のこうした投影点の平均的位置225(xM1avg,yM1avg,zM1avg)を決定することができる。次いで第2の座標系の原点(xO2,yO2,zO2)=(0,0,0)を指定し、平均的位置225(xM1avg,yM1avg,zM1avg)に隣接して位置付けることができる。
zの値が各表面点から基準表面250までの垂直距離である、凸凹204の領域の中の平均的位置225に隣接して第2の座標系の原点を位置付けることにより、ポイントクラウドビューの回転が凸凹204の領域の中心を中心とすることができるようになり、任意の深さマップのカラースケールが基準表面250から表面点の高さまたは深さを示すことを可能にする。
この第2の座標系を利用するために、ステップ350では、ビデオ検査装置100のCPU150は、様々な点(例えば、複数の表面点、複数の測定点221、222、223、224、フレームポイント260を含む基準表面250上の点など)に決定された第1の座標系における3次元座標(xi1,yi1,zi1)を第2の座標系における3次元座標(xi2,yi2,zi2)に変換する。
1つの実施形態では、座標変換行列([T])を使用して、次のように座標を変換することができる:
([xi1i1i1]−[xM1avgM1avgM1avg])*[T]=[xi2i2i2] (14)
ここで[T]は、変換行列である。
行列でない形式では、第2の座標系における3次元座標は、次のように決定することができる:
i2=(xi1−xM1avg)*T00+(yi1−yM1avg)*T10+(zi1−zM1avg)*T20 (15)
i2=(xi1−xM1avg)*T01+(yi1−yM1avg)*T11+(zi1−zM1avg)*T21 (16)
i2=(xi1−xM1avg)*T02+(yi1−yM1avg)*T12+(zi1−zM1avg)*T22 (17)
ここで、変換行列の値は、第1の座標系における新しいx軸、y軸、およびz軸の直線方向の値である。
ステップ360では、ビデオ検査装置100のCPU150は、観察対象物202の表面210の対象領域内にある複数の表面点のサブセットを決定する。1つの実施形態では、対象領域は、ポイントクラウドビューで使用される3次元データの量を最小にするために、複数の選択された測定点221、222、223、224を囲む観察対象物202の表面210の限定された領域とすることができる。サブセット360を決定するステップは、変換ステップ350の前にまたはこの後に行うことができると理解されるであろう。例えば、変換ステップ350後のステップ360にサブセットの決定が行われる場合、ビデオ検査装置100は、対象領域外の点を含む、すべての表面点の座標を変換することができ、その後、こうした点のどれが対象領域にあるかを判断する。あるいは、ステップ360においてサブセットを決定することは変換ステップ350の前に行われ、ビデオ検査装置100は、対象領域内の表面点の座標を変換するだけでよい。
1つの実施形態では、対象領域は、測定点221、222、223、224に対応する基準表面250上の点のそれぞれの間の最大距離(dMAX)、基準表面250上のそれらの点の平均的位置225(変換後に行われる場合は第2の座標系の原点(xO2,yO2,zxO2)=(0,0,0)、または変換前に行われる場合は第1の座標系の(xM1avg,yM1avg,zM1avg))を決定することによって定めることができる。1つの実施形態では、対象領域は、基準表面250上の測定点221、222、223、224の平均的位置225の一定の閾値距離(dROI)内にある(例えば、最大距離(dROI=dMAX)よりも小さい、または、最大距離(dROI=1.2*dMAX)よりもわずかに大きい(例えば、20パーセント大きい)距離よりも小さい)基準表面250の対応する点を有する(すなわち、基準表面上に投影されるとき)すべての表面点を含むことができる。例えば、第2の座標系における平均的位置225が(xO2,yO2,zO2)=(0,0,0)である場合、この位置から表面点に対応する基準表面250の点(xiRS2,yiRS2,ziRS2)までの距離(d)は、次のように求められる:
同様に、第1の座標系における平均的位置225が(xM1avg,yM1avg,zM1avg)である場合、この位置から表面点に対応する基準表面250の点(xiRS1,yiRS1,ziRS1)までの距離(d)は、次のように求められる:
表面点が対象領域の閾値距離(dROI)よりも小さい距離値(diRS1またはdiRS2)を有し、したがって対象領域内である場合、ビデオ検査装置100は、その表面点の3次元座標およびその表面点の深さに対応する画素の色を、ポイントクラウドビューファイルに書き込むことができる。この例示の実施形態では、対象領域は、円柱の半径に収まる表面点を含む円柱の形である。対象領域を測定するために他の形状および方法を使用することができることを理解されたい。
対象領域は、第1の座標系でビデオ検査装置100によって測定される観察対象物202の表面210上の凸凹204の深さに基づいて定めることもできる。例えば、凸凹204の深さが0.005インチ(0.127mm)であると測定された場合、対象領域は、基準表面250までの測定点221、222、223、224の1つまたは複数の距離に基づいて、基準表面250からの距離(またはz寸法)が一定の範囲(±0.015インチ(0.381mm))内である点のみを含むように定めることができる。表面点が対象領域内の深さ値を有する場合、ビデオ検査装置100は、その表面点の3次元座標、およびその表面点の深さに対応する画素の色を、ポイントクラウドビューファイルに書き込むことができる。表面点が、対象領域外の深さ値を有する場合、ビデオ検査装置100は、ポイントクラウドビューファイルにその表面点を含むことができない。
ステップ370では、図4に示すように、ビデオ検査装置100のモニタ170、172は、第2の座標系の3次元座標で複数の表面点のサブセットの描画された3次元ビュー(例えば、ポイントクラウドビュー)400を、原点425をビューの中心にして表示することができる。1つの実施形態(図示せず)では、ポイントクラウドビュー400の表示は、カラーマップを含んで、第2の座標系における表面点のそれぞれと基準表面450との距離を示すことができる(例えば、ある深さの第1の点は、その深さに対応する赤の色調で示し、異なる深さの第2の点は、その深さに対応する緑の色調で示す)。表示されたポイントクラウドビュー400は、複数の測定点421、422、423、424の位置を含むこともできる。ポイントクラウドビュー400を見る際に操作者を支援するために、ビデオ検査装置100は、第2の座標系の3次元座標における複数の測定点421、422、423の2つ以上の間の直線に沿って3次元のラインポイント471、472、473を決定し、ポイントクラウドビュー400にこれらのラインポイント471、472、473を表示することもできる。ポイントクラウドビュー400は、凸凹204の最も深い点に位置付けられるように意図された測定点424から基準表面450への深さライン474を含むこともできる。1つの実施形態では、ビデオ検査装置100は、深さライン474が公差仕様または他の閾値を超えているかどうかを判断し、そのような発生の視覚表示もしくは可聴表示またはアラームを提供することができる。
表示されるポイントクラウドビュー400はまた、第2の座標系における基準表面450にフレーム462を形成する複数のフレームポイント460を含んで、基準表面450の位置を示すことができる。別の実施形態では、表示されるポイントクラウドビュー400はまた、基準表面250からの垂直距離を示すスケールを含むことができる。
図4に示すように、ポイントクラウドビュー400の中のデータを対象領域の点に限定し、ビューを対象領域の中心の点425の周りを回転できるようにすることによって、操作者は凸凹204をより簡単に分析し、深さの測定および測定点421、422、423、424の設置が正確であったかどうかを判断することができる。1つの実施形態では、操作者は、修正が必要である場合、ポイントクラウドビュー400中の測定点421、422、423、424のうちの1つまたは複数の位置を変更することができる。あるいは、修正が必要である場合、操作者は図2の2次元画像200に戻って、測定点221、222、223、224の1つまたは複数を再び選択し、プロセスを繰り返すことができる。
別の実施形態では、ビデオ検査装置100のモニタ170、172は、座標の変換を行わずに第1の座標系の3次元座標で、複数の表面点のサブセットの描画された3次元ビュー400を表示することができる。この実施形態では、元の座標に基づくポイントクラウドビュー400は、カラーマップ、複数の測定点の位置、3次元ラインポイント、深さライン、フレーム、またはスケールを表示するなど、操作者を支援するための上記の様々な特徴を含むこともできる。
記載した説明は、最良の方式など、本発明を開示するための例、ならびに装置またはシステムを作成して使用すること、および組み込まれた方法を行うことなど、当業者が本発明を実行できるようにするための例を使用している。本発明の特許可能な範囲は、特許請求の範囲により定義するが、当業者であれば思い付く他の例も含むことができる。このような他の例は、特許請求の範囲の文字通りの言葉と違わない構造的要素を有する場合、または、特許請求の範囲の文字通りの言葉とはわずかな違いを有する等価な構造的要素を含む場合、特許請求の範囲の範囲内であるとする。
100 ビデオ検査装置
102 プローブ
110 挿入管
120 ヘッドアセンブリ
130 取り外し可能先端部
140 プローブ電子回路
150 CPU
202 観察対象物

Claims (13)

  1. 観察対象物(202)の表面(210)の3次元ビューを表示するための方法であって、
    前記観察対象物(202)の前記表面(210)で複数の表面点の第1の座標系における3次元座標を決定するステップ(310)と、
    前記観察対象物(202)の前記表面(210)で複数の測定点(221、222、223、224)の選択を受け取るステップ(320)と、
    前記複数の測定点(221、222、223、224)の1つまたは複数に隣接した前記複数の表面点の3つ以上の前記第1の座標系における前記3次元座標に基づいて基準表面(250)を決定するステップ(330)と、
    前記基準表面(250)および前記複数の測定点(221、222、223、224)に基づいて、第2の座標系の原点を前記複数の測定点(221、222、223、224)のうちの2つ以上に対応する前記基準表面(250)上の点の3次元座標の平均的位置(225)に隣接して位置するように指定することにより、前記第1の座標系とは異なる前記第2の座標系を設けるステップと、
    前記複数の表面点の前記第1の座標系における前記3次元座標を前記第2の座標系における前記3次元座標に変換するステップ(350)と、
    前記観察対象物(202)の前記表面(210)の対象領域内にある前記複数の表面点のサブセットを決定するステップであって、前記対象領域が、前記複数の測定点(221、222、223、224)に基づいているステップ(360)と、
    前記第2の座標系の前記3次元座標に前記複数の表面点の前記サブセットの描画された3次元ビュー(400)を、モニタ上に表示するステップ(370)と、
    を含み、
    前記表示するステップ(370)は、対象領域の測定された幾何的寸法を表示するステップを含み、
    前記測定された幾何的寸法は、前記観察対象物(202)の表面の凸凹の深さを含む、
    方法。
  2. 前記観察対象物(202)の前記表面(210)の2次元画像を取得して表示するステップ(300)をさらに含む、請求項1に記載の方法。
  3. 前記観察対象物(202)の前記表面(210)の画像を取得して表示するステップ(300)をさらに含み、
    前記複数の測定点(221、222、223、224)の選択を受け取るステップが、表示された前記画像上で、ポインティングデバイスにより複数のカーソル位置で示された入力を受け取るステップを含む、請求項1または2に記載の方法。
  4. 前記基準表面(250)が平面である、請求項1から3のいずれかに記載の方法。
  5. 前記対象領域が、前記第2の座標系の前記原点から一定の距離内の表面点を含む、請求項1から4のいずれかに記載の方法。
  6. 前記対象領域が、前記平均的位置(225)から一定の距離内の表面点を含む、請求項1から4のいずれかに記載の方法。
  7. 前記対象領域が、前記測定点(221、222、223、224)および前記基準表面(250)の1つまたは複数からの距離に基づいて、前記基準表面(250)からの距離が一定の範囲内である表面点を含む、請求項1から4のいずれかに記載の方法。
  8. 前記複数の表面点の前記サブセットの前記描画された3次元ビュー(400)を表示する前記ステップが、前記複数の表面点の前記サブセットのポイントクラウドビューを表示するステップを含む、請求項1から7のいずれかに記載の方法。
  9. 前記描画された3次元ビュー(400)の回転が、前記第2の座標系の原点を中心とする、請求項1から8のいずれかに記載の方法。
  10. 前記第2の座標系の前記3次元座標における前記複数の表面点の前記サブセットの前記描画された3次元ビュー(400)を表示する前記ステップが、前記複数の表面点の前記サブセットと前記基準表面(250)との間の距離を示すためにカラーマップを使用するステップを含む、請求項1から9のいずれかに記載の方法。
  11. 前記描画された3次元ビュー(400)が、前記基準表面(250)からの垂直距離を示すスケールをさらに含む、請求項1から10のいずれかに記載の方法。
  12. 前記描画された3次元ビュー(400)に前記複数の測定点(221、222、223、224)を表示する前記ステップをさらに含む、請求項1から11のいずれかに記載の方法。
  13. 前記複数の表面点の前記第1の座標系における前記3次元座標を第2の座標系(350)における前記3次元座標に変換する前記ステップが、前記観察対象物(202)の前記表面(210)で対象領域内にある前記複数の表面点のサブセットを決定する前記ステップ(360)の後に行われ、前記複数の表面点の前記サブセットのみが変換される、請求項1から12のいずれかに記載の方法。
JP2012044901A 2011-03-04 2012-03-01 観察対象物の表面の3次元ビューを表示するための方法および装置 Active JP6030837B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/040,678 US9013469B2 (en) 2011-03-04 2011-03-04 Method and device for displaying a three-dimensional view of the surface of a viewed object
US13/040,678 2011-03-04

Publications (2)

Publication Number Publication Date
JP2012185160A JP2012185160A (ja) 2012-09-27
JP6030837B2 true JP6030837B2 (ja) 2016-11-24

Family

ID=45877971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012044901A Active JP6030837B2 (ja) 2011-03-04 2012-03-01 観察対象物の表面の3次元ビューを表示するための方法および装置

Country Status (5)

Country Link
US (1) US9013469B2 (ja)
EP (1) EP2495524B1 (ja)
JP (1) JP6030837B2 (ja)
CN (1) CN102735192A (ja)
DK (1) DK2495524T3 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232568B2 (en) 2019-02-06 2022-01-25 Olympus Corporation Three-dimensional image display method, three-dimensional image display device, and recording medium

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9875574B2 (en) * 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
US10019812B2 (en) * 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US10586341B2 (en) * 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US9984474B2 (en) 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US8553942B2 (en) 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
US9047688B2 (en) * 2011-10-21 2015-06-02 Here Global B.V. Depth cursor and depth measurement in images
US9024970B2 (en) 2011-12-30 2015-05-05 Here Global B.V. Path side image on map overlay
US9404764B2 (en) 2011-12-30 2016-08-02 Here Global B.V. Path side imagery
US10848731B2 (en) 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US11263823B2 (en) 2012-02-24 2022-03-01 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US9324190B2 (en) 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
GB2505926A (en) * 2012-09-14 2014-03-19 Sony Corp Display of Depth Information Within a Scene
US20140123507A1 (en) 2012-11-02 2014-05-08 Qualcomm Incorporated Reference coordinate system determination
US20140270650A1 (en) * 2013-03-15 2014-09-18 General Electric Company Optical subassembly and method of manufacturing the same
US9412189B2 (en) * 2013-05-13 2016-08-09 General Electric Company Method and system for detecting known measurable object features
US20150013406A1 (en) * 2013-07-09 2015-01-15 General Electric Company System and method for removing dents from a wind turbine tower
US9443297B2 (en) * 2013-07-10 2016-09-13 Cognex Corporation System and method for selective determination of point clouds
JP6506914B2 (ja) * 2013-07-16 2019-04-24 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器
US9818039B2 (en) * 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9842430B2 (en) * 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object
US9600928B2 (en) * 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
FR3016963B1 (fr) * 2014-01-27 2016-01-22 Airbus Dispositif et procede de localisation d'impacts sur une surface externe d'un corps
JP6405124B2 (ja) * 2014-06-09 2018-10-17 株式会社キーエンス 検査装置、検査方法およびプログラム
US9279773B2 (en) * 2014-07-18 2016-03-08 Process Metrix Crack detection and measurement in a metallurgical vessels
JP6446251B2 (ja) * 2014-10-13 2018-12-26 ゼネラル・エレクトリック・カンパニイ 異常の表面上の関心点を自動的に識別するための方法およびデバイス
US11060979B2 (en) * 2014-12-19 2021-07-13 General Electric Company System and method for engine inspection
CN107408307A (zh) * 2015-03-17 2017-11-28 通用电气公司 用于同时显示被观察对象的二维图像以及描绘被观察对象的三维几何的图像的方法和装置
WO2017003650A1 (en) * 2015-06-29 2017-01-05 General Electric Company Method and system for detecting known measurable object features
CN108027233B (zh) * 2015-09-25 2020-04-03 通用电气公司 用于测量物体上或附近的特征的方法及装置
US9835440B2 (en) 2015-12-17 2017-12-05 General Electric Company Methods for monitoring turbine components
US10024760B2 (en) 2015-12-17 2018-07-17 General Electric Company Methods for monitoring turbine components
JP7098271B2 (ja) * 2016-02-08 2022-07-11 ゼネラル・エレクトリック・カンパニイ 視認物体上の関心点を自動的に識別する方法
JP6774793B2 (ja) * 2016-06-24 2020-10-28 株式会社キーエンス 三次元測定装置
JP6906916B2 (ja) * 2016-09-06 2021-07-21 株式会社トプコン 画像処理装置、画像処理方法、画像処理用プログラム
WO2018140656A1 (en) * 2017-01-26 2018-08-02 Matterport, Inc. Capturing and aligning panoramic image and depth data
CA3009798A1 (en) * 2017-07-12 2019-01-12 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10989795B2 (en) 2017-11-21 2021-04-27 Faro Technologies, Inc. System for surface analysis and method thereof
JP6585793B2 (ja) * 2018-09-18 2019-10-02 株式会社キーエンス 検査装置、検査方法およびプログラム
CN110718043B (zh) * 2019-10-17 2021-07-30 辽宁中航信诺科技有限公司 基于ar人工智能设备的危险区域的检查报警方法
US11980573B2 (en) * 2019-12-05 2024-05-14 Johnson & Johnson Surgical Vision, Inc. Eye examination apparatus
CN111284014B (zh) * 2020-01-17 2022-03-22 广东工业大学 基于激光遥感成像和3d打印技术的体积测量方法及系统
MX2022009392A (es) * 2020-01-29 2022-11-07 Vertex Software Llc Visualizacion y evaluacion de secciones transversales en 3d.

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0549182A2 (en) * 1991-12-23 1993-06-30 General Electric Company Apparatus and method for displaying surgical cuts in three-dimensional models
US5510833A (en) * 1994-06-13 1996-04-23 Display Laboratories Inc. Method and apparatus for transforming coordinate systems in an automated video monitor alignment system
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
GB9716240D0 (en) 1997-07-31 1997-10-08 Tricorder Technology Plc Scanning apparatus and methods
JP3561403B2 (ja) * 1998-01-21 2004-09-02 富士通株式会社 3次元データ変換装置及び記録媒体
JP2000227326A (ja) * 1998-12-02 2000-08-15 Nikon Corp 平坦度測定装置
US6459481B1 (en) 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
JP4574770B2 (ja) * 1999-11-29 2010-11-04 株式会社東芝 医用三次元画像表示装置
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US6714307B2 (en) 2001-10-16 2004-03-30 Zygo Corporation Measurement of complex surface shapes using a spherical wavefront
JP3898945B2 (ja) * 2001-12-21 2007-03-28 ペンタックス株式会社 写真測量システムと写真測量方法と写真測量プログラムが格納された記録媒体
DE10242922A1 (de) 2002-09-16 2004-04-01 Siemens Ag Rechnergestütztes Selektionsverfahren für einen Teil eines Volumens
JP4536422B2 (ja) * 2004-05-21 2010-09-01 株式会社キーエンス 拡大観察装置、拡大画像観察方法、拡大観察用操作プログラムおよびコンピュータで読み取り可能な記録媒体または記録した機器
US20060177133A1 (en) 2004-11-27 2006-08-10 Bracco Imaging, S.P.A. Systems and methods for segmentation of volumetric objects by contour definition using a 2D interface integrated within a 3D virtual environment ("integrated contour editor")
JP2007029460A (ja) * 2005-07-27 2007-02-08 Topcon Corp 眼科画像処理装置及び眼科画像処理プログラム
JP2007205918A (ja) 2006-02-02 2007-08-16 Olympus Corp 計測内視鏡
JP4492654B2 (ja) * 2007-08-29 2010-06-30 オムロン株式会社 3次元計測方法および3次元計測装置
US7969583B2 (en) 2008-03-05 2011-06-28 General Electric Company System and method to determine an object distance from a reference point to a point on the object surface
US7821649B2 (en) 2008-03-05 2010-10-26 Ge Inspection Technologies, Lp Fringe projection system and method for a probe suitable for phase-shift analysis
US8107083B2 (en) 2008-03-05 2012-01-31 General Electric Company System aspects for a probe system that utilizes structured-light
JP2012521005A (ja) 2009-03-19 2012-09-10 ゼネラル・エレクトリック・カンパニイ 光学式ゲージ及び3次元表面プロファイル測定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232568B2 (en) 2019-02-06 2022-01-25 Olympus Corporation Three-dimensional image display method, three-dimensional image display device, and recording medium

Also Published As

Publication number Publication date
CN102735192A (zh) 2012-10-17
EP2495524B1 (en) 2021-02-24
JP2012185160A (ja) 2012-09-27
EP2495524A1 (en) 2012-09-05
US20120223937A1 (en) 2012-09-06
US9013469B2 (en) 2015-04-21
DK2495524T3 (da) 2021-03-29

Similar Documents

Publication Publication Date Title
JP6030837B2 (ja) 観察対象物の表面の3次元ビューを表示するための方法および装置
US11514643B2 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US11308343B2 (en) Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
JP2012220496A (ja) 目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイス
US9875574B2 (en) Method and device for automatically identifying the deepest point on the surface of an anomaly
US9600928B2 (en) Method and device for automatically identifying a point of interest on the surface of an anomaly
US8760447B2 (en) Method of determining the profile of a surface of an object
JP7373037B2 (ja) 映像検査機器を使用して特徴の寸法を測定するためのグラフィックオーバーレイ
US9842430B2 (en) Method and device for automatically identifying a point of interest on a viewed object
JP6446251B2 (ja) 異常の表面上の関心点を自動的に識別するための方法およびデバイス
JP6895382B2 (ja) 観視対象の3次元形状を描画する画像と同時に観視対象の2次元画像を表示するための方法および機器
US10586341B2 (en) Method and device for measuring features on or near an object
JP6865046B2 (ja) 視認物体の深度測定において関心点を自動的に識別する方法および装置
JP6966997B2 (ja) 対象上または対象の近くの特徴を測定するための方法および機器
JP7098271B2 (ja) 視認物体上の関心点を自動的に識別する方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161021

R150 Certificate of patent or registration of utility model

Ref document number: 6030837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250