JP2012220496A - 目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイス - Google Patents

目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイス Download PDF

Info

Publication number
JP2012220496A
JP2012220496A JP2012084402A JP2012084402A JP2012220496A JP 2012220496 A JP2012220496 A JP 2012220496A JP 2012084402 A JP2012084402 A JP 2012084402A JP 2012084402 A JP2012084402 A JP 2012084402A JP 2012220496 A JP2012220496 A JP 2012220496A
Authority
JP
Japan
Prior art keywords
pixel
pixels
dimensional coordinates
accuracy
available
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012084402A
Other languages
English (en)
Other versions
JP2012220496A5 (ja
Inventor
Alexander Bendall Klerk
クラーク・アレキサンダー・ベンドール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2012220496A publication Critical patent/JP2012220496A/ja
Publication of JP2012220496A5 publication Critical patent/JP2012220496A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Abstract

【課題】目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイスを提供する。
【解決手段】目視される物体202の表面210の画像500を獲得して、表示するステップであって、画像500の複数のピクセル231、232、233、234は、目視される物体202上の複数の表面ポイント221、222、223、224に対応する、ステップと、複数の表面ポイントに対応する複数のピクセルの各ピクセルに関して、ピクセルに対応する表面ポイントに関する3次元座標が利用可能性であるかどうかを判定するステップと、ピクセル231に対応する表面ポイント221に関する3次元座標が利用可能でない各ピクセル231に関する第1のオーバーレイ250を表示するステップとを備える方法。
【選択図】図4

Description

本明細書で開示される主題は、目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイスに関する。
ビデオ内視鏡などのビデオ検査デバイスが、目視される物体の表面を検査して、その物体の損傷または磨耗からもたらされている可能性がある、表面上の不規則性を識別し、分析するのに使用され得る。多くの場合、表面は、近づきにくく、ビデオ検査デバイスを使用することなしに見ることができない。例えば、ビデオ内視鏡が、航空機上、または発電ユニットの上のタービンエンジンのブレードの表面を検査して、表面上に形成されている可能性がある不規則性を識別して、修理またはさらなるメンテナンスが要求されるかどうかを判定するのに使用され得る。その評価を行うために、表面および不規則性の非常に正確な寸法測定を獲得して、その不規則性が、その物体に関する実用上の限度、または要求される規格を超えていない、または外れていないことを検証することが、しばしば、必要である。
表面上の不規則性の寸法を特定するために、ビデオ検査デバイスが、その不規則性を示す、目視される物体の表面の2次元画像を獲得し、表示するのに使用され得る。表面のこの2次元画像が、表面上の関心対象の領域(例えば、不規則性の近くの)内を含め、表面上の複数のポイントの3次元座標(例えば、(x,y,z))を与える表面の3次元データ(例えば、マップの形態の)を生成するのに使用されることが可能である。一部のビデオ検査デバイスにおいて、操作者は、測定モードでビデオ検査デバイスを操作して、測定スクリーンに入り、このスクリーンにおいて、操作者は、2次元画像上で関心対象の領域内にカーソルを置いて、その不規則性の幾何学的寸法を特定する。測定モードにおける検査中に測定を実行することに加えて、操作者は、測定モードに必ずしも入ることなしに画像を保存し、後の時点で測定を実行することもできる。
不規則性の正確な測定は、その測定を実行するのに選択された、その不規則性の近くの表面ポイントに関して正確な3次元座標が利用可能である場合に限って、実行され得る。例えば、表面のいくつかの領域内で、過度のターゲット距離、ピクセル飽和、シャドウイングなどのために3次元座標が利用できない可能性がある。他の領域において、3次元座標は利用できる可能性があるが、それらの座標の精度が、反射、または他の照明品質問題などのために、劣悪である可能性がある。操作者が、表面の2次元画像を見て、測定を実行する際、いずれの領域が、測定を実行すべき3次元座標を有さないか、または潜在的に不正確な3次元座標を有する区域を示すものは、存在しない。
測定を行っている間に、表面に関する3次元データの品質のこの指示がないと、操作者は、3次元座標が存在しない領域内に、または不正確な3次元座標が存在する領域内にカーソルを、そうとうは知らずに置く可能性がある。このことは、不正確な測定につながる可能性があり、あるいは、ビデオ検査デバイスが、3次元座標が利用可能でないと操作者に通知する事例において、操作者が正確な3次元データを有する別の画像を獲得することができるまで、測定プロセスを遅らせる。操作者が、より早期の検査中に保存された画像に対して測定を実行しており、関心対象の領域が、正確な3次元データを有さない場合、測定は、検査を再実行することを必要とせずには、実行され得ない可能性がある。したがって、測定を実行している間に、または後の測定のために画像を保存している間に、表面に関する3次元データの品質の指示を提供する必要性が存在する。
以上の説明は、単に一般的な背景情報として与えられており、主張される主題の範囲を特定する助けとして使用されることは意図していない。
米国特許第7,821,649号明細書
目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイスが開示され、表面ポイントに対応する画像のピクセル上にオーバーレイが表示されて、それらの表面ポイントの3次元座標の予測される精度、または利用可能性を示す。
1つの例示的な実施形態において、目視される物体の表面に関する3次元データの品質の指示を表示するための方法が開示される。この方法は、目視される物体の表面の画像を獲得して、表示するステップであって、その画像の複数のピクセルは、目視される物体上の複数の表面ポイントに対応する、ステップと、その複数の表面ポイントの3次元座標を決定するステップと、その複数の表面ポイントに対応する複数のピクセルの各ピクセルに関する精度値を決定するステップであって、この精度値は、そのピクセルに対応する表面ポイントの3次元座標の予測される精度に基づく、ステップと、精度値を有する複数のピクセルの各ピクセルに関して、その精度値が許容できる精度値の範囲を外れているかどうかを判定するステップと、精度値が許容できる精度値の範囲を外れている複数のピクセルの各ピクセルに関するオーバーレイを表示するステップとを備える。
別の例示的な実施形態において、目視される物体の表面に関する3次元データの品質の指示を表示するための方法は、目視される物体の表面の画像を獲得して、表示するステップであって、その画像の複数のピクセルは、目視される物体上の複数の表面ポイントに対応する、ステップと、その複数の表面ポイントに対応する複数のピクセルの各ピクセルに関して、そのピクセルに対応する表面ポイントに関する3次元座標が利用可能であるかどうかを判定するステップと、そのピクセルに対応する表面ポイントに関する3次元座標が利用可能でない各ピクセルに関する第1のオーバーレイを表示するステップとを備える。
さらに別の例示的な実施形態において、目視される物体の表面に関する3次元データの品質の指示を表示するためのデバイスが開示される。このデバイスは、目視される物体の表面の画像を獲得するための、その画像の複数のピクセルが、目視される物体上の複数の表面ポイントに対応するイメージャと、その複数の表面ポイントの3次元座標を決定し、その複数の表面ポイントに対応する複数のピクセルの各ピクセルに関する、そのピクセルに対応する表面ポイントの3次元座標の予測される精度に基づく精度値を決定し、精度値を有する複数のピクセルの各ピクセルに関して、その精度値が許容できる精度値の範囲を外れているかどうかを判定するための中央プロセッサユニットと、目視される物体の表面の画像、および精度値が許容できる精度値を外れている複数のピクセルの各ピクセルに関するオーバーレイを表示するためのモニタとを備える。
本発明の以上の簡単な説明は、1つまたは複数の例示的な実施形態による本明細書で開示される主題の簡単な概要を与えることだけを意図しており、特許請求の範囲を解釈する案内の役割、または本発明の範囲を規定する、または制限する役割はせず、本発明の範囲は、添付の特許請求の範囲によってだけ規定される。この簡単な説明は、後段の詳細な説明でさらに説明される例示的ないくつかの選定された概念を簡略化された形態で概説するように与えられる。この簡単な説明は、特許請求される主題の重要な特徴、または不可欠な特徴を特定することは意図しておらず、特許請求される主題の範囲を特定する助けとして使用されることも意図していない。特許請求される主題は、背景技術で述べたいずれかの欠点、またはすべての欠点を解決する実施形態に限定されない。
本発明の特徴が理解され得るように、本発明の詳細な説明が、いくつかの実施形態を参照して得られることが可能であり、それらの実施形態のいくつかは、添付の図面に示される。しかし、これらの図面は、本発明のいくつかの実施形態を示すに過ぎず、したがって、本発明の範囲は、他の同様に効果的な実施形態を包含するので、本発明の範囲を限定するものと考えられるべきではないことに留意されたい。これらの図面は、必ずしも一律の縮尺に従っておらず、概ね、本発明のいくつかの実施形態の特徴を例示することに重点を置いている。これらの図面において、同様の符号は、様々な図のすべてにわたって同様の部分を示すのに使用される。このため、本発明をさらに理解するために、これらの図面に関連して読まれる、後段の詳細な説明を参照することができる。
図1は、本発明の例示的な実施形態におけるビデオ検査デバイスを示すブロック図である。 本発明の例示的な実施形態における、表面に関する3次元データの品質を示すオーバーレイを表示する、不規則性を有する目視される物体の表面の、ビデオ検査デバイスによって獲得された画像を示す図である。 本発明の例示的な実施形態における、図2の画像に示される目視される物体の表面に関する3次元データの品質の指示を表示するための方法を示す流れ図である。 本発明の別の例示的な実施形態における、表面に関する3次元データの品質を示すオーバーレイを表示する、不規則性を有する目視される物体の表面の、ビデオ検査デバイスによって獲得された画像を示す図である。 本発明の別の例示的な実施形態における、図4の画像に示される目視される物体の表面に関する3次元データの品質の指示を表示するための方法を示す流れ図である。
目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイスが開示され、表面ポイントに対応する画像のピクセル上にオーバーレイが表示されて、それらの表面ポイントの3次元座標の予測される精度、または利用可能性を示す。この方法およびデバイスの開示されるいくつかの実施形態の実施において実現され得る利点は、ビデオ検査デバイスの操作者が、測定を実行している間に、または後の測定のために画像を保存している間に、表面のいずれの領域が正確な3次元データを有するかを知ることである。
図1は、本発明の例示的な実施形態におけるビデオ検査デバイス100のブロック図である。図1に示されるビデオ検査デバイス100は、例示的であること、および本発明の範囲は、いずれの特定のビデオ検査デバイス100にも限定されず、ビデオ検査デバイス100内の構成要素のいずれの特定の構成にも限定されないことが理解されよう。
ビデオ検査デバイス100は、挿入管110と、挿入管110の遠位端に配置されたヘッドアセンブリ120とを備える細長いプローブ102を含むことが可能である。挿入チューブ110は、ヘッドアセンブリ120とプローブ電子部品140の間のすべての相互接続が通される柔軟性のある管状のセクションであることが可能である。ヘッドアセンブリ120は、目視される物体202からイメージャ124上に光を誘導し、焦点を合わせるためのプローブ光学部品122を含む。プローブ光学部品122は、例えば、単一レンズ、または複数の構成要素を有するレンズを備えることが可能である。イメージャ124は、目視される物体202の画像を獲得するためのソリッドステートCCD画像センサもしくはソリッドステートCMOS画像センサであることが可能である。
着脱可能な先端部130もしくはアダプタが、ヘッドアセンブリ120の遠位端に配置されることが可能である。着脱可能な先端部130は、目視される物体202からイメージャ124上に光を誘導し、焦点を合わせるようにプローブ光学部品122と連携して機能する先端部目視光学部品132(例えば、レンズ、窓、または開口)を含むことが可能である。また、着脱可能な先端部130は、ビデオ検査デバイス100のための光源が、先端部130から、またはプローブ102から目視される物体202に光を通すための光通過要素(図示せず)から発せられる場合、照明LED(図示せず)を含むことも可能である。また、先端部130は、カメラの視野、および光出力を側面に向ける導波路(例えば、プリズム)を含むことによって、側面目視のための能力をもたらすことも可能である。また、先端部130は、目視される物体の3次元データを決定する際に使用するための立体光学部品もしくは構造化光投影要素を提供することも可能である。先端部130に含められることが可能な要素は、プローブ102自体の中に含められることも可能である。
イメージャ124は、複数の行と列に形成された複数のピクセルを含むことが可能であり、さらにイメージャ124の各ピクセル上に入射する光を表すアナログ電圧の形態で画像信号を生成することが可能である。これらの画像信号は、信号バッファリングおよび信号調整のための電子部品を設けるイメージャハイブリッド126を通って、イメージャハーネス122に伝搬されることが可能であり、イメージャハーネス112は、イメージャハイブリッド126とイメージャインタフェース電子部品142の間の制御信号およびビデオ信号のための配線を設ける。イメージャインタフェース電子部品142は、電源、イメージャクロック信号を生成するためのタイミングジェネレータ、イメージャビデオ出力信号をデジタル化するためのアナログフロントエンド、およびそのデジタル化されたイメージャビデオデータを処理して、より有用なビデオフォーマットにするためのデジタルシグナルプロセッサを含むことが可能である。
イメージャインタフェース電子部品142は、ビデオ検査デバイス100を動作させるための機能を集めたものを提供するプローブ電子部品140の一部である。また、プローブ電子部品140は、プローブ102および/または先端部130に関する較正データを格納する較正メモリ144を含むことも可能である。また、マイクロコントローラ146が、ゲイン設定および露出設定を決定し、設定するようにイメージャインタフェース電子部品142と通信するため、較正メモリ144に較正データを格納するため、および較正メモリ144から較正データを読み取るため、目視される物体202に送られる光を制御するため、ならびにビデオ検査デバイス100のCPU150と通信するためにプローブ電子部品140の中に含められることも可能である。
マイクロコントローラ146と通信することに加えて、イメージャインタフェース電子部品142は、1つまたは複数のビデオプロセッサ160と通信することも可能である。ビデオプロセッサ160は、イメージャインタフェース電子部品142からビデオ信号を受け取り、一体型ディスプレイ170または外部モニタ172を含む様々なモニタ170、172に信号を出力することが可能である。一体型ディスプレイ170は、様々な画像またはデータ(例えば、目視される物体202の画像、メニュー、カーソル、測定結果)を検査者に表示するためにビデオ検査デバイス100に組み込まれたLCDスクリーンであることが可能である。外部モニタ172は、様々な画像またはデータを表示するためにビデオ検査デバイス100に接続されたビデオモニタまたはコンピュータタイプのモニタであることが可能である。
ビデオプロセッサ160は、CPU150に/からコマンド、ステータス情報、ストリーミングビデオ、静止ビデオ画像、およびグラフィックオーバーレイを供給する/受け取ることができ、さらに画像キャプチャ、画像画質向上、グラフィックオーバーレイマージ、歪み補正、フレーム平均化、拡大縮小、デジタルズーミング、オーバーレイ、マージ、反転、動き検出、ならびにビデオフォーマット変換および圧縮などの機能を提供するFPGA、DSP、または他の処理要素から成ることが可能である。
CPU150は、画像、ビデオ、およびオーディオの格納機能および呼び戻し機能、システム制御、および測定処理を含め、多数の他の機能を提供することに加えて、ジョイスティック180、ボタン182、キーパッド184、および/またはマイクロフォン186を介して入力を受け取ることによって、ユーザインタフェースを管理するのに使用されることが可能である。ジョイスティック180は、メニュー選択、カーソル移動、スライダ調整、およびプローブ102の関節制御などの動作を実行するように操作者によって操作されることが可能であり、さらに押しボタン機能を含むことが可能である。ボタン182および/またはキーパッド184が、メニュー選択のため、およびユーザコマンド(例えば、静止させる、または静止画像を保存する)をCPU150に与えるために使用されることも可能である。マイクロフォン186が、検査者によって、静止させる、または静止画像を保存する音声命令を与えるのに使用されることが可能である。
ビデオプロセッサ160は、ビデオプロセッサ160によって、フレームバッファリング、および処理中のデータの一時的保持のために使用されるビデオメモリ162と通信することも可能である。CPU150は、CPU150によって実行されるプログラムの格納のためにCPUプログラムメモリ152と通信することも可能である。さらに、CPU150は、揮発性メモリ154(例えば、RAM)および不揮発性メモリ156(例えば、フラッシュメモリデバイス、ハードドライブ、DVD、またはEPROMメモリデバイス)と通信状態にあることも可能である。不揮発性メモリ156は、ビデオおよび静止画像をストリーミングするための一次ストレージである。
CPU150は、コンピュータ入出力インタフェース158と通信状態にあることも可能であり、インタフェース158は、USB、Firewire(登録商標)、イーサネット、オーディオ入出力、およびワイヤレストランシーバなどの周辺デバイスおよびネットワークに対する様々なインタフェースを提供する。このコンピュータ入出力インタフェース158は、静止画像、ストリーミングビデオ、またはオーディオを保存する、呼び戻す、送信する、さらに/または受信するのに使用されることが可能である。例えば、USB「サムドライブ」またはCompactFlash(登録商標)メモリカードが、コンピュータ入出力インタフェース158に差し込まれることが可能である。さらに、ビデオ検査デバイス100は、画像データまたはストリーミングビデオデータのフレームを外部のコンピュータまたはサーバに送るように構成されることが可能である。ビデオ検査デバイス100は、TCP/IP通信プロトコルスイートを組み込むことができ、それぞれがやはりTPC/IP通信プロトコルスイートを組み込んだ複数のローカルコンピュータおよび遠隔コンピュータを含むワイドエリアネットワークに組み込まれ得る。TCP/IPプロトコルスイートを組み込むことで、ビデオ検査デバイス100は、TCPおよびUDPを含むいくつかのトランスポート層プロトコルと、HTTPおよびFTPを含む、異なるいくつかの層のプロトコルとを組み込む。
図2は、本発明の例示的な実施形態における、表面210に関する3次元データの品質を示す精度オーバーレイ240を表示する、不規則性204を有する目視される物体202の表面210の、ビデオ検査デバイス100によって獲得された画像200である。この例において、不規則性204は、損傷または磨耗によって、その不規則性204の箇所で目視される物体202の表面210から物質が除去されている、ひびとして示される。この例示的な実施形態に示される不規則性204は、単に例に過ぎないこと、および本発明の方法は、他のタイプの不規則性(例えば、へこみ、点腐食、コーティングのはがれ、表面堆積など)にも適用されることが理解されよう。画像200が獲得され、不規則性204が識別されると、画像200は、不規則性204の寸法(例えば、高さまたは深さ、長さ、幅、面積、体積、点から線まで、プロファイルスライスなど)を特定するのに使用され得る。一実施形態において、使用される画像200は、不規則性204を含む、目視される物体202の表面210の2次元画像200であり得る。
図3は、本発明の例示的な実施形態における、図2の画像に示される目視される物体202の表面210に関する3次元データの品質の指示を表示するための方法を示す流れ図である。図3の流れ図に表されるステップは、この流れ図に示されるのとは異なる順序で実行され得ること、およびいくつかの実施形態に関して、それらのステップのすべてが要求されるわけではないことが理解されよう。
ステップ300で、図2に示されるとおり、ビデオ検査デバイス100のイメージャ124が、不規則性204を有する目視される物体202の表面210の画像200を獲得し、ビデオモニタ(例えば、一体型ディスプレイ170または外部モニタ172)でその画像200を表示することが可能である。図2に示されるとおり、画像200の複数のピクセル231、232、233、234が、目視される物体上の複数の表面ポイント221、222、223、224に対応する。一実施形態において、画像200は、約400,000ピクセルを有することが可能である。
ステップ310で、ビデオ検査デバイス100のCPU150が、不規則性204の近くを含む、目視される物体202の表面210上の複数の表面ポイント221、222、223、224の3次元座標(xi,yi,zi)を決定することが可能である。異なるいくつかの既存の技術が、表面ポイント221、222、223、224の3次元座標(xi,yi,zi)をもたらすのに使用されることが可能である(例えば、位相シフト、位相シフトモアレ、レーザドット投影などのステレオ法、走査システム法、構造化光法)。ほとんどのそのような技術は、さもなければ光学的歪みによってもたらされる3次元座標の誤差を小さくするのに使用される光学特性データを、とりわけ含む、較正データを使用することを備える。一部の技術では、3次元座標は、投影されたパターンなどを含むことが可能な、時間的に近接してキャプチャされた1つまたは複数の画像を使用して決定されることが可能である。画像200を使用して決定された3次元座標について述べることは、時間的に近接してキャプチャされた表面210の1つまたは複数の画像200を使用して決定された3次元座標を備えることも可能であること、および説明される動作中に操作者に表示される画像200は、3次元座標を決定する際に実際に使用されることも、使用されないことも可能であることを理解されたい。
一実施形態において、ビデオ検査デバイス100のCPU150は、複数の表面ポイントの3次元座標の第1のセット(xi1,yi1,zi1)、および表面ポイント221、222、223、334を含む複数の表面ポイントの3次元座標の第2のセット(xi2,yi2,zi2)を決定する。
ステップ320で、ビデオ検査デバイス100のCPU150が、複数の表面ポイント221、222、223、224に対応する複数のピクセル231、232、233、234の各ピクセルに関してAV(精度値)を決定することが可能であり、この精度値は、ピクセル231、232、233、234に対応する表面ポイント221、222、223、224の3次元座標(xi,yi,zi)の予測される精度に基づく。
一実施形態において、ピクセル231、232、233、234に関する精度値は、そのピクセルに対応する表面ポイント221、222、223、224の3次元座標の第1のセット(xi1,yi1,zi1)からの3次元座標のうち少なくとも1つの座標と、ピクセル231、232、233、234に対応する表面ポイント221、222、223、224の3次元座標の第2のセット(xi2,yi2,zi2)からの3次元座標のうち少なくとも1つの座標の差であることが可能である。異なる座標セットからの同一の表面ポイント221、222、223、224に関する3次元座標は、反射、他の光品質問題などのために、異なる可能性がある。
一実施形態において、特定のピクセル231、232、233、234に関するAV(精度値)は、そのピクセル231、232、233、234に関するz値(zi1,zi2)の間の差によって決定されることが可能である。
この例において、z値(zi1,zi2)の間の差が大きいほど、AV(精度値)は大きく、そのピクセル231、232、233、234に関する3次元座標(xi,yi,zi)の予測される精度は低くなる。
別の実施形態(例えば、3次元座標(xi,yi,zi)を決定するのにステレオ技術が使用される)において、ピクセル231、232、233、234に関する精度値は、1つの立体画像の中の或る特定の表面ポイント221、222、223、224に関して、他方の立体画像の中に別個のマッチが存在するかどうかを判定することによって決定されることが可能である。例えば、マッチするピクセルが、相関技術を介して識別されるが、そのマッチするピクセルが、隣接する1つまたは複数のピクセルによって与えられるマッチよりほんのわずかしか良好でない、または異なる場合、そのことは、そのピクセル231、232、233、234に関する3次元座標(xi,yi,zi)の予測される精度がより低いことを示す。
ステップ330で、ビデオ検査デバイス100のCPU150が、精度値を有する複数のピクセル231、232、233、234の各ピクセルに関して、その精度値が許容できる精度値の範囲を外れているかどうかを判定することが可能である。ピクセル231、232、233、234に関する精度値が、式(1)に示されるとおり、そのピクセル231、232、233、234に関するz値(zi1,zi2)の間の差である一実施形態において、AV(許容できる値)の範囲は、0.10未満、つまり、10パーセント未満であることが可能である。別の実施形態において、AV(許容できる値)の範囲は、0.15未満、つまり、15パーセント未満であることが可能である。この精度値、および許容できる精度値の範囲は、例示的であること、および本発明の範囲は、いずれの特定の精度値判定にも限定されないことが理解されよう。
ステップ340で、図2に示されるとおり、ビデオ検査デバイス100のモニタ170、172が、ステップ330における判定により精度値が許容できる精度値の範囲を外れている複数のピクセル232の各ピクセルに関する精度オーバーレイ240を表示することが可能である。例えば、図2で、表面ポイント222に対応するピクセル232が、許容できる精度値の範囲を外れている精度値を有する。この精度オーバーレイ240は、画像200上に常時、表示されることも、いくつかの時点で(例えば、精度値が許容できる精度値の範囲を外れているピクセル232の上にカーソルが動かされた際、または操作者が画像200を保存する際)だけ表示されることも可能である。この精度オーバーレイ240の存在は、画像200が表面210上の関心対象の領域内(例えば、不規則性204の近く)に測定を実行すべき正確な3次元データを有するかどうかを、操作者が判定することを許す。
一実施形態において、精度値が許容できる精度値の範囲を外れている複数のピクセル232のすべてのピクセルに関する精度オーバーレイ240は、同一の色(例えば、黄)である。別の実施形態において、精度値が許容できる精度値の範囲を外れている複数のピクセル232の各ピクセルに関する精度オーバーレイ240は、そのピクセルに関する精度値に基づいて色付けされ、さらに異なる色、または異なる色調を備えることが可能である。例えば、0.16という精度値(すなわち、比較的高い予測される精度値)を有するピクセル232が、暗い色調の黄であることが可能な、0.36という精度値(すなわち、比較的低い予測される精度値)を有するピクセル232と比べて、明るい色調の黄であることが可能である。一実施形態において、或る範囲の精度値は、或る色、または或る色調に対応することが可能である。
図4は、本発明の別の例示的な実施形態における、表面210に関する3次元データの品質を示すオーバーレイ240、250を表示する、不規則性204を有する目視される物体202の表面210の、ビデオ検査デバイス100によって獲得された画像500である。
図5は、本発明の別の例示的な実施形態における、図4の画像に示される目視される物体202の表面210に関する3次元データの品質の指示を表示するための方法を示す流れ図である。図4の流れ図に表されるステップは、この流れ図に示されるのとは異なる順序で実行され得ること、およびいくつかの実施形態に関して、それらのステップのすべてが要求されるわけではないことが理解されよう。
ステップ400で、図4に示されるとおり、ビデオ検査デバイス100のイメージャ124が、不規則性204を有する目視される物体202の表面210の画像500を獲得し、その画像500をビデオモニタ(例えば、一体型ディスプレイ170または外部モニタ172)上で表示することが可能である。図4に示されるとおり、画像500の複数のピクセル231、232、233、234が、目視される物体202上の複数の表面ポイント221、222、223、224に対応する。
ステップ410で、ビデオ検査デバイス100のCPU150が、複数の表面ポイント221、222、223、224に対応する複数のピクセル231、232、233、234の各ピクセルに関して、そのピクセル231、232、233、234に対応する表面ポイント221、222、223、224に関する3次元座標(xi,yi,zi)が利用可能であるかどうかを判定することが可能である。表面210のいくつかの領域内で、過度のターゲット距離、ピクセル飽和、シャドウイングなどのために、いくつかの表面ポイント221、222、223、224に関する3次元座標(xi,yi,zi)が利用できない可能性がある。
一実施形態(例えば、3次元座標(xi,yi,zi)を決定するのに構造化光技術が使用される)において、ビデオ検査デバイス100のCPU150が、複数の表面ポイント221、222、223、224に対応する複数のピクセル231、232、233、234の各ピクセルに関して、それらのピクセル231、232、233、234の各ピクセルの明るさレベルを解析することによって、そのピクセル231、232、233、234に対応する表面ポイント221、222、223、224に関する3次元座標(xi,yi,zi)が利用可能であるかどうかを判定することが可能である。例えば、ピクセル231、232、233、234の明るさレベルが低過ぎ(例えば、8ビットスケール(0〜255)で20未満)、対応する表面ポイント221、222、223、224上の過度のシャドウイングの可能性を示している場合、その表面ポイント221、222、223、224に関する3次元座標(xi,yi,zi)は、利用できない可能性がある。同様に、ピクセル231、232、233、234の明るさレベルが高過ぎ(例えば、8ビットスケール(0〜255)で230を超える)、対応する表面ポイント221、222、223、224上の飽和の可能性を示している場合、その表面ポイント221、222、223、224に関する3次元座標(xi,yi,zi)は、利用できない可能性がある。この実施形態において、許容できる明るさ値の範囲は、20から230までの間である。したがって、この実施形態において、ビデオ検査デバイス100のCPU150は、複数のピクセル231、232、233、234の各ピクセルに関して、明るさレベルが許容できる明るさ値の範囲を外れているかどうかを判定することが可能である。ビデオ検査デバイス100のCPU150は、明るさレベルが許容できる明るさ値の範囲を外れている複数のピクセル231の各ピクセルに関して、そのピクセル231に対応する表面ポイント221に関する3次元座標(xi,yi,zi)が利用可能でないと判定することが可能である。この明るさレベル判定、および許容できる明るさレベルの範囲は、例示的であること、および本発明の範囲は、いずれの特定の明るさレベル判定にも限定されないことが理解されよう。
別の実施形態(例えば、3次元座標(xi,yi,zi)を決定するのにステレオ技術が使用される)において、ビデオ検査デバイス100のCPU150が、複数の表面ポイント221、222、223、224に対応する複数のピクセル231、232、233、234の各ピクセルに関して、それらのピクセル231、232、233、234の各ピクセルの詳細レベルを解析することによって、そのピクセル231、232、233、234に対応する表面ポイント221、222、223、224に関する3次元座標(xi,yi,zi)が利用可能であるかどうかを判定することが可能である。例えば、ピクセル231、232、233、234の詳細レベルが、適切なステレオマッチングを許すには低過ぎる(例えば、8ビットスケール(0〜255)で20未満)場合、その表面ポイント221、222、223、224に関する3次元座標(xi,yi,zi)は、利用できない可能性がある。この例示的な実施形態において、許容できる詳細値の範囲は、20より大きい。したがって、この実施形態において、ビデオ検査デバイス100のCPU150は、複数のピクセル231、232、233、234の各ピクセルに関して、詳細レベルが許容できる詳細値を外れているかどうかを判定することが可能である。ビデオ検査デバイス100のCPU150は、詳細レベルが許容できる詳細値を外れている複数のピクセル231の各ピクセルに関して、そのピクセル231に対応する表面ポイント221に関する3次元座標(xi,yi,zi)が利用可能でないと判定することが可能である。この詳細レベル判定、および許容できる詳細レベルの範囲は、例示的であること、および本発明の範囲は、いずれの特定の詳細レベル判定にも限定されないことが理解されよう。
別の実施形態(例えば、3次元座標(xi,yi,zi)を決定するのにステレオ技術が使用される)において、ビデオ検査デバイス100のCPU150が、複数の表面ポイント221、222、223、224に対応する複数のピクセル231、232、233、234の各ピクセルに関して、1つの立体画像の中の或る特定の表面ポイント221、222、223、224に関して、他方の立体画像の中に別個のマッチが存在するかどうかを判定することによって、そのピクセル231、232、233、234に対応する表面ポイント221、222、223、224に関する3次元座標(xi,yi,zi)が利用可能であるかどうかを判定することが可能である。例えば、ビデオ検査デバイス100のCPU150は、1つの立体画像の中の表面ポイント221、222、223、224の走査を実行して、他方の立体画像の中に確度が高いマッチが存在するかどうかを判定することが可能である。ビデオ検査デバイス100のCPU150は、確度の高いマッチが存在しない複数のピクセル231の各ピクセルに関して、そのピクセル231に対応する表面ポイント221に関する3次元座標(xi,yi,zi)が利用可能でないと判定することが可能である。
一実施形態において、ピクセル231に対応する表面ポイント221に関する3次元座標(xi,yi,zi)が利用可能でないと判定された場合、ビデオ検査デバイス100のCPU150は、さらなる解析を実行して、ピクセル231に対応する表面ポイント221に3次元座標を割り当てることが可能である。例えば、ピクセル231の周囲の或るピクセル領域(例えば、9×9)内のピクセルの大多数が3次元データを有する場合、補間技術が、ピクセル231に対応する表面ポイント221に3次元座標を割り当てるのに使用されることが可能である。
ステップ420で、図4に示されるとおり、ビデオ検査デバイス100のモニタ170、172が、ピクセル231に対応する表面ポイント221に関する3次元座標(xi,yi,zi)が利用可能でない(例えば、3次元座標が、最初に利用可能でなく、後の補間に基づいて割り当てられていない)複数のピクセル231の各ピクセルに関する利用可能性オーバーレイ250を表示することが可能である。この利用可能性オーバーレイ250は、画像500上に常時、表示されることも、いくつかの時点で(例えば、ピクセル231に対応する表面ポイント221に関する3次元座標が利用可能でないピクセル231の上にカーソルが動かされた際、または操作者が画像500を保存する際)だけ表示されることも可能である。この利用可能性オーバーレイ250の存在は、画像500が表面210上の関心対象の領域内(例えば、欠陥204の近く)に測定を実行すべき利用可能な3次元データを有するかどうかを、操作者が判定することを許す。一実施形態において、ピクセル231に対応する表面ポイント221に関する3次元座標(xi,yi,zi)が利用可能でない複数のピクセル231のすべてのピクセルに関する利用可能性オーバーレイ250は、同一の色(例えば、赤)である。利用可能性オーバーレイ250は、流れ図の中で、より後に表示され得る(例えば、後段で説明するステップ460と同時に)ことが理解されよう。
ステップ430で、ビデオ検査デバイス100のCPU150が、図4に示されるとおり、3次元座標が利用可能でない複数の表面ポイント221、222、223、224の3次元座標(xi,yi,zi)を決定することが可能である。ステップ310に関連して前述したとおり、異なるいくつかの既存の技術が、222、223、224の3次元座標(xi,yi,zi)をもたらすのに使用されることが可能である。
ステップ440で、ビデオ検査デバイス100のCPU150が、3次元座標(xi,yi,zi)が利用可能である複数の表面ポイント221、222、223、224に対応する複数のピクセル231、232、233、234の各ピクセルに関して、精度値を決定することが可能であり、この精度値は、そのピクセル231、232、233、234に対応する表面ポイント221、222、223、224の3次元座標(xi,yi,zi)の予測される精度に基づく。一実施形態において、ピクセル231、232、233、234に関する精度値は、ステップ320に関連して前述したとおり、決定されることが可能である。
ステップ450で、ビデオ検査デバイス100のCPU150が、ステップ330に関連して前述したとおり、精度値を有する複数のピクセル231、232、233、234の各ピクセルに関して、その精度値が許容できる精度値の範囲を外れているかどうかを判定することが可能である。
ステップ460で、図4に示されるとおり、ビデオ検査デバイス100のモニタ170、172が、ステップ340に関連して前述したとおり、その精度値が許容できる精度値の範囲を外れている複数のピクセル232の各ピクセルに関する精度オーバーレイ240を表示することが可能である。例えば、図4で、表面ポイント222に対応するピクセル232が、許容できる精度値の範囲を外れている精度値を有する。精度オーバーレイ240は、画像500上に常時、表示されることも、いくつかの時点で(例えば、精度値が許容できる精度値の範囲を外れているピクセル232の上にカーソルが動かされた際、または操作者が画像500を保存する際)だけ表示されることも可能である。
一実施形態において、精度オーバーレイ240と利用可能性オーバーレイ250は、ピクセル231に対応する表面ポイント221に関する3次元座標(xi,yi,zi)が利用可能でないピクセル231の上にカーソルが動かされた際、または精度値が許容できる精度値の範囲を外れているピクセル232の上にカーソルが動かされた際に、一緒に表示されることが可能である。
この書面による説明は、実施例を使用して、最良の形態を含む、本発明を開示し、さらに当業者が、任意のデバイスまたはシステムを作成すること、および使用すること、ならびに組み込まれた任意の方法を実行することを含め、本発明を実施することをさらに可能にする。本発明の特許可能な範囲は、特許請求の範囲によって規定され、さらに当業者に思い浮かべられる他の実施例を含むことが可能である。そのような他の実施例は、それらの実施例が、特許請求の範囲の文字どおりの言葉と異ならない構造上の要素を有する場合、またはそれらの実施例が、特許請求の範囲の文字どおりの言葉とごくわずかしか違いのない均等の構造上の要素を含む場合、特許請求の範囲に含まれることが意図される。
100 ビデオ検査デバイス
102 プローブ
110 挿入管
112 イメージャハーネス
120 ヘッドアセンブリ
122 プローブ光学部品
124 イメージャ
126 イメージャハイブリッド
130 着脱可能な先端部
132 先端部目視光学部品
140 プローブ電子部品
142 イメージャインタフェース電子部品
144 較正メモリ
146 マイクロコントローラ
150 CPU
152 プログラムメモリ
154 揮発性メモリ
156 不揮発性メモリ
158 コンピュータ入出力インタフェース
160 ビデオプロセッサ
162 ビデオメモリ
170 一体型ディスプレイ
172 外部モニタ
180 ジョイスティック
182 ボタン
184 キーパッド
186 マイクロフォン
200、500 画像
202 目視される物体
204 不規則性
210 表面
221、222、223、224 表面ポイント
231、232、233、234 ピクセル
240 精度オーバーレイ
250 利用可能性オーバーレイ

Claims (12)

  1. 目視される物体(202)の表面(210)に関する3次元データの品質の指示を表示するための方法であって、
    前記目視される物体(202)の前記表面(210)の画像(500)を獲得して、表示するステップであって、前記画像(500)の複数のピクセル(231、232、233、234)は、前記目視される物体(202)上の複数の表面ポイント(221、222、223、224)に対応する、ステップと、
    前記複数の表面ポイント(221、222、223、224)に対応する前記複数のピクセル(231、232、233、234)の各ピクセルに関して、前記ピクセル(231、232、233、234)に対応する前記表面ポイント(221、222、223、224)に関する3次元座標が利用可能であるかどうかを判定するステップと、
    前記ピクセル(231)に対応する前記表面ポイント(221)に関する3次元座標が利用可能でない各ピクセル(231)に関する第1のオーバーレイ(250)を表示するステップとを備える方法。
  2. 前記複数の表面ポイント(221、222、223、224)に対応する前記複数のピクセル(231、232、233、234)の各ピクセルに関して、前記ピクセル(231、232、233、234)に対応する前記表面ポイント(221、222、223、224)に関する3次元座標が利用可能であるかどうかを前記判定するステップは、
    前記複数のピクセル(231、232、233、234)の各ピクセルに関する明るさレベルを決定するステップと、
    前記複数のピクセル(231、232、233、234)の各ピクセルに関して、前記明るさレベルが許容できる明るさ値の範囲を外れているかどうかを判定するステップと、
    明るさレベルが許容できる明るさ値の前記範囲を外れている前記前記複数のピクセル(231、232、233、234)の各ピクセルに関して、前記ピクセル(231、232、233、234)に対応する前記表面ポイント(221、222、223、224)に関する3次元座標が利用可能でないと判定するステップとを備える請求項1記載の方法。
  3. 前記複数の表面ポイント(221、222、223、224)に対応する前記複数のピクセル(231、232、233、234)の各ピクセルに関して、前記ピクセル(231、232、233、234)に対応する前記表面ポイント(221、222、223、224)に関する3次元座標が利用可能であるかどうかを前記判定するステップは、
    前記複数のピクセル(231、232、233、234)の各ピクセルに関する詳細レベルを決定するステップと、
    前記複数のピクセル(231、232、233、234)の各ピクセルに関して、前記詳細レベルが許容できる詳細レベル値の範囲を外れているかどうかを判定するステップと、
    詳細レベルが許容できる詳細レベル値の前記範囲を外れている前記複数のピクセル(231、232、233、234)の各ピクセルに関して、前記ピクセル(231、232、233、234)に対応する前記表面ポイント(221、222、223、224)に関する3次元座標が利用可能でないと判定するステップとを備える請求項1記載の方法。
  4. 前記ピクセル(231)に対応する前記表面ポイント(221)に関する3次元座標が利用可能でない各ピクセル(231)に関する第1のオーバーレイ(250)を前記表示するステップは、前記ピクセル(231)に対応する前記表面ポイント(221)に関する3次元座標が利用可能でないピクセル(231)上にカーソルが動かされた際に行われる請求項1記載の方法。
  5. 前記ピクセル(231)に対応する前記表面ポイント(221)に関する3次元座標が利用可能でない各ピクセル(231)に関する前記第1のオーバーレイ(250)は、赤である請求項1記載の方法。
  6. 3次元座標が利用可能である前記複数の表面ポイント(222、223、224)の3次元座標を決定するステップと、
    3次元座標が利用可能である前記複数の表面ポイント(222、223、224)に対応する前記複数のピクセル(232、233、234)の各ピクセルに関して、精度値を決定するステップであって、前記精度値は、前記ピクセルに対応する前記表面ポイント(222、223、224)の3次元座標の予測される精度に基づく、ステップと、
    精度値を有する前記複数のピクセル(232、233、234)の各ピクセルに関して、前記精度値が許容できる精度値の前記範囲を外れているかどうかを判定するステップと、
    精度値が許容できる精度値の前記範囲を外れている前記複数のピクセル(232)の各ピクセルに関する第2のオーバーレイ(240)を表示するステップとをさらに備える請求項1記載の方法。
  7. 3次元座標が利用可能である前記複数の表面ポイント(222、223、224)に対応する前記複数のピクセル(232、233、234)の各ピクセルに関して、精度値を前記決定するステップは、
    前記ピクセル(232、233、234)に対応する前記表面ポイント(222、223、224)の3次元座標の第1のセットからの3次元座標のうち少なくとも1つの座標と、前記ピクセル(232、233、234)に対応する前記表面ポイント(222、223、224)の3次元座標の第2のセットからの3次元座標のうち少なくとも1つの座標との差を決定するステップを備える請求項6記載の方法。
  8. 精度値を有する前記複数のピクセル(232、233、234)の各ピクセルに関して、前記精度値が許容できる精度値の前記範囲を外れているかどうかを前記判定するステップは、前記差が許容できる精度値の前記範囲を外れているかどうかを判定するステップを備える請求項7記載の方法。
  9. 許容できる精度値の前記範囲は、10パーセント未満の差である請求項8記載の方法。
  10. 精度値が許容できる精度値の前記範囲を外れている前記複数のピクセル(232)の各ピクセルに関する第2のオーバーレイ(240)を前記表示するステップは、精度値が許容できる精度値の前記範囲を外れているピクセル(232)上にカーソルが動かされた際に行われる請求項6記載の方法。
  11. 精度値が許容できる精度値の前記範囲を外れている前記複数のピクセル(232)の各ピクセルに関する前記第2のオーバーレイ(240)は、そのピクセル(232)に関する前記精度値に基づいて色付けされる請求項6記載の方法。
  12. 前記ピクセル(231)に対応する前記表面ポイント(221)に関する3次元座標が利用可能でない各ピクセル(231)に関する第1のオーバーレイ(250)を前記表示するステップ、および精度値が許容できる精度値の前記範囲を外れている前記複数のピクセル(232)の各ピクセルに関する第2のオーバーレイ(240)を前記表示するステップは、前記ピクセル(231)に対応する前記表面ポイント(221)に関する3次元座標が利用可能でないピクセル(232)上にカーソルが動かされた際、または精度値が許容できる精度値の前記範囲を外れているピクセル(232)上にカーソルが動かされた際に行われる請求項6記載の方法。
JP2012084402A 2011-04-06 2012-04-03 目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイス Pending JP2012220496A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/081,220 US8411083B2 (en) 2011-04-06 2011-04-06 Method and device for displaying an indication of the quality of the three-dimensional data for a surface of a viewed object
US13/081,220 2011-04-06

Publications (2)

Publication Number Publication Date
JP2012220496A true JP2012220496A (ja) 2012-11-12
JP2012220496A5 JP2012220496A5 (ja) 2015-05-28

Family

ID=46201380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012084402A Pending JP2012220496A (ja) 2011-04-06 2012-04-03 目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイス

Country Status (5)

Country Link
US (1) US8411083B2 (ja)
EP (1) EP2509046A3 (ja)
JP (1) JP2012220496A (ja)
CN (1) CN102840838A (ja)
CA (1) CA2773762A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199657A1 (ja) * 2016-05-20 2017-11-23 オリンパス株式会社 内視鏡装置、計測方法、およびプログラム

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US10157495B2 (en) 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9984474B2 (en) 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US9875574B2 (en) 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US9074868B2 (en) * 2013-05-13 2015-07-07 General Electric Company Automated borescope measurement tip accuracy test
US9412189B2 (en) 2013-05-13 2016-08-09 General Electric Company Method and system for detecting known measurable object features
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9600928B2 (en) 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
US9842430B2 (en) 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object
US9818039B2 (en) 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US10060729B2 (en) * 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
CN104677278A (zh) * 2015-03-06 2015-06-03 云南电网有限责任公司电力科学研究院 一种基于工业内窥镜的目标尺寸单目测量方法
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
CN107735714B (zh) * 2015-06-25 2020-06-09 奥林巴斯株式会社 内窥镜装置
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (en) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensioning device with dynamic accuracy compatible with nist standard
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
JP6966997B2 (ja) * 2015-09-25 2021-11-17 ゼネラル・エレクトリック・カンパニイ 対象上または対象の近くの特徴を測定するための方法および機器
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
EP3415866B1 (en) * 2017-06-12 2020-06-03 Hexagon Technology Center GmbH Device, system, and method for displaying measurement gaps
CA3009798A1 (en) * 2017-07-12 2019-01-12 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
EP4170280A4 (en) * 2020-06-18 2024-03-13 Turboscan Llc METHOD AND DEVICE FOR MONITORING THE SHAPE OF DIFFICULT TO WASH-OUT COMPONENTS
JP2022187662A (ja) * 2021-06-08 2022-12-20 富士フイルムビジネスイノベーション株式会社 表面検査装置及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274588A (ja) * 1993-03-24 1994-09-30 Sanyo Electric Co Ltd マルチメディア情報処理方法
JP2006023178A (ja) * 2004-07-07 2006-01-26 Olympus Corp 3次元計測方法及び装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4425205A (en) 1982-03-13 1984-01-10 Kanto Kasei Co., Ltd. Process for regenerating electroless plating bath and a regenerating apparatus of electroless plating bath
JPH0615968B2 (ja) * 1986-08-11 1994-03-02 伍良 松本 立体形状測定装置
US6201541B1 (en) * 1997-12-11 2001-03-13 Cognitens, Ltd. System and method for “Stitching” a plurality of reconstructions of three-dimensional surface features of object(s) in a scene defined relative to respective coordinate systems to relate them to a common coordinate system
US6717578B1 (en) * 1998-02-17 2004-04-06 Sun Microsystems, Inc. Graphics system with a variable-resolution sample buffer
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US6956576B1 (en) * 2000-05-16 2005-10-18 Sun Microsystems, Inc. Graphics system using sample masks for motion blur, depth of field, and transparency
EP1612509A1 (en) * 2004-07-01 2006-01-04 Sick IVP AB Optical profilometer
US7755817B2 (en) * 2004-12-07 2010-07-13 Chimei Innolux Corporation Color gamut mapping
US7855732B2 (en) * 2006-09-05 2010-12-21 Pc Connection, Inc. Hand producer for background separated images
US20080198159A1 (en) * 2007-02-16 2008-08-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
CN101315703A (zh) * 2007-05-30 2008-12-03 数邦科技(上海)有限公司 三维大规模场景动态管理方法
JP5019117B2 (ja) * 2007-11-14 2012-09-05 スタンレー電気株式会社 距離画像生成装置
US8107083B2 (en) 2008-03-05 2012-01-31 General Electric Company System aspects for a probe system that utilizes structured-light
US7821649B2 (en) 2008-03-05 2010-10-26 Ge Inspection Technologies, Lp Fringe projection system and method for a probe suitable for phase-shift analysis
US7969583B2 (en) 2008-03-05 2011-06-28 General Electric Company System and method to determine an object distance from a reference point to a point on the object surface
US7812968B2 (en) 2008-03-05 2010-10-12 Ge Inspection Technologies, Lp Fringe projection system and method for a probe using a coherent fiber bundle
EP2275989B1 (de) * 2009-07-06 2012-09-12 Sick Ag Stereoskopische 3D-Kamera
US20110032341A1 (en) * 2009-08-04 2011-02-10 Ignatov Artem Konstantinovich Method and system to transform stereo content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274588A (ja) * 1993-03-24 1994-09-30 Sanyo Electric Co Ltd マルチメディア情報処理方法
JP2006023178A (ja) * 2004-07-07 2006-01-26 Olympus Corp 3次元計測方法及び装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199657A1 (ja) * 2016-05-20 2017-11-23 オリンパス株式会社 内視鏡装置、計測方法、およびプログラム

Also Published As

Publication number Publication date
CA2773762A1 (en) 2012-10-06
US20120256901A1 (en) 2012-10-11
EP2509046A2 (en) 2012-10-10
US8411083B2 (en) 2013-04-02
EP2509046A3 (en) 2013-10-23
CN102840838A (zh) 2012-12-26

Similar Documents

Publication Publication Date Title
JP2012220496A (ja) 目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイス
JP6030837B2 (ja) 観察対象物の表面の3次元ビューを表示するための方法および装置
US11514643B2 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9875574B2 (en) Method and device for automatically identifying the deepest point on the surface of an anomaly
US9600928B2 (en) Method and device for automatically identifying a point of interest on the surface of an anomaly
US10699149B2 (en) Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
JP7009491B2 (ja) 資産の検査のための方法及びデバイス
US8760447B2 (en) Method of determining the profile of a surface of an object
US9842430B2 (en) Method and device for automatically identifying a point of interest on a viewed object
JP6895382B2 (ja) 観視対象の3次元形状を描画する画像と同時に観視対象の2次元画像を表示するための方法および機器
JP6865046B2 (ja) 視認物体の深度測定において関心点を自動的に識別する方法および装置
JP6446251B2 (ja) 異常の表面上の関心点を自動的に識別するための方法およびデバイス
US20130287288A1 (en) Method and device for determining the offset distance between two surfaces
JP6966997B2 (ja) 対象上または対象の近くの特徴を測定するための方法および機器
JP7098271B2 (ja) 視認物体上の関心点を自動的に識別する方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161004