JP6150532B2 - 計測装置およびプログラム - Google Patents

計測装置およびプログラム Download PDF

Info

Publication number
JP6150532B2
JP6150532B2 JP2013009226A JP2013009226A JP6150532B2 JP 6150532 B2 JP6150532 B2 JP 6150532B2 JP 2013009226 A JP2013009226 A JP 2013009226A JP 2013009226 A JP2013009226 A JP 2013009226A JP 6150532 B2 JP6150532 B2 JP 6150532B2
Authority
JP
Japan
Prior art keywords
edge
image
unit
line
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013009226A
Other languages
English (en)
Other versions
JP2014140402A (ja
Inventor
小川 清富
清富 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013009226A priority Critical patent/JP6150532B2/ja
Priority to US14/109,592 priority patent/US10019643B2/en
Publication of JP2014140402A publication Critical patent/JP2014140402A/ja
Application granted granted Critical
Publication of JP6150532B2 publication Critical patent/JP6150532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Description

本発明は、1つの計測点と基準線との空間距離を算出する線基準を行う計測装置に関する。また、本発明は、本計測装置としてコンピュータを機能させるためのプログラムに関する。
工業用内視鏡等を使用した計測方法の1つとして、1つの計測点と基準線との空間距離を算出する線基準計測がある。例えば、特許文献1には、ユーザ(操作者)が指定した第1の基準点および第2の基準点に基づいて基準直線を設定し、ユーザが指定した計測点から基準直線に下ろした垂線の足の長さを演算する計測方法が開示されている。つまり、特許文献1では、直線と点の距離を求める計測方法が開示されている。
特許文献2には、ユーザによって指定された3点以上の基準点の位置と形状係数に基づく曲線を基準線とし、計測点と基準線との距離を演算する計測方法が開示されている。つまり、特許文献2では、曲線と点の距離を求める計測方法が開示されている。
特開平10−248806号公報 特開2005−204724号公報
基準点の位置がずれると、基準線の位置もずれるので、線基準計測の計測精度は低下する。したがって、基準線の設定の際に基準点の位置の指定を正確に行う必要がある。そのためには、画像を拡大表示する等の操作を行い、基準点を設定する位置を慎重に見極めながら、基準点の位置を指定する操作を行うことが要求される。しかも同様の操作を2回あるいはそれ以上繰り返す必要がある。すなわち、基準線の設定の際に煩わしい操作が必要であり、線基準計測に要する時間を短縮しにくいという課題がある。
本発明は、上述した課題に鑑みてなされたものであって、基準線の設定に係る操作の手間を軽減し、線基準計測に要する時間を短縮することができる計測装置およびプログラムを提供することを目的とする。
本発明は、上記の課題を解決するためになされたもので、被写体を撮像して画像データを生成する撮像部と、前記画像データに基づく画像を表示する表示部と、前記画像において所定の領域、または、ユーザが指定した1つの基準点に基づく領域を、前記被写体のエッジを抽出する抽出領域として前記画像に設定する領域設定部と、前記抽出領域の画像に基づいて前記被写体のエッジを抽出するエッジ抽出部と、抽出された前記エッジを示すグラフィックを前記画像と共に前記表示部に表示させる表示制御部と、複数のエッジが抽出された場合に、抽出された前記複数のエッジの中から、ユーザの指示に基づいて基準エッジを選択するエッジ選択部と、前記画像における点に対応する3次元座標を算出する3次元座標算出部と、前記基準エッジを構成する複数の点に対応する3次元座標に基づいて空間上の基準線を算出する基準線算出部と、前記画像における計測点を指定する計測点指定部と、前記計測点に対応する3次元座標と前記基準線との距離を算出する距離算出部と、を備えることを特徴とする計測装置において、前記領域設定部はさらに、前記エッジ抽出部によって前記被写体のエッジが抽出された後に、前記画像においてユーザが指定した1つの基準点に基づいて、前記被写体のエッジを選択する領域であって、前記抽出領域よりも小さい選択領域を設定し、前記エッジ選択部は、前記エッジ抽出部によって複数のエッジが抽出された場合に、前記複数のエッジの中から前記選択領域と重なるエッジを選択し、ユーザの指示に基づいて、前記選択領域と重なるエッジから基準エッジを選択し、前記表示制御部は、前記選択領域と重なるエッジを示す線を前記画像と共に前記表示部に表示させることを特徴とする計測装置である。
また、本発明の計測装置において、前記領域設定部は、前記選択領域の中から前記選択領域と重なるエッジを選択できない場合に、前記選択領域と重なるエッジを選択するまで、前記選択領域を広げることを特徴とする。
また、本発明の計測装置において、前記領域設定部は、前記選択領域の中から前記選択領域と重なるエッジを選択できない場合に、前記選択領域に最も近いエッジと前記選択領域とが重なる位置まで、前記選択領域を移動させることを特徴とする。
また、本発明の計測装置において、前記エッジ抽出部は、抽出した各エッジに関する情報が登録される基準線候補リストを生成し、前記エッジ選択部が前記複数のエッジの中から前記選択領域と重なるエッジを選択した場合に、前記基準線候補リストから、選択したエッジ以外の情報を消去することを特徴とする。
また、本発明の計測装置において、前記エッジ抽出部は、抽出した各エッジに関する情報が登録される基準線候補リストを生成し、前記エッジ選択部が前記複数のエッジの中から前記選択領域と重なるエッジを選択した場合に、前記基準線候補リストにおいて当該選択したエッジの情報に対して、選択対象であることを示すフラグを付与することを特徴とする。
また、本発明は、撮像部が被写体を撮像して生成した画像データに基づく画像において所定の領域、または、ユーザが指定した1つの基準点に基づく領域を、前記被写体のエッジを抽出する抽出領域として前記画像に設定するステップと、前記抽出領域の画像に基づいて前記被写体のエッジを抽出するステップと、前記画像においてユーザが指定した1つの基準点に基づいて、前記被写体のエッジを選択する領域であって、前記抽出領域よりも小さい選択領域を前記画像に設定するステップと、複数のエッジが抽出された場合に、前記複数のエッジの中から前記選択領域と重なるエッジを選択するステップと、前記選択領域と重なるエッジを示す線を前記画像と共に表示部に表示させるステップと、ユーザの指示に基づいて、前記選択領域と重なるエッジから基準エッジを選択するステップと、前記画像における点に対応する3次元座標を算出するステップと、前記基準エッジを構成する複数の点に対応する3次元座標に基づいて空間上の基準線を算出するステップと、前記画像における計測点を指定するステップと、前記計測点に対応する3次元座標と前記基準線との距離を算出するステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、所定の領域、または、画像においてユーザが指定した1つの基準点に基づく領域が抽出領域として画像に設定される。また、複数のエッジが抽出された場合に、ユーザの指示に基づいて、抽出された複数のエッジから基準エッジが選択される。これにより、基準線の設定に係る操作の手間を軽減し、線基準計測に要する時間を短縮することができる。
本発明の第1の実施形態による内視鏡装置の全体構成を示す斜視図である。 本発明の第1の実施形態による内視鏡装置の内部構成を示すブロック図である。 本発明の第1の実施形態における被写体の画像を示す参考図である。 本発明の第1の実施形態における被写体の画像を示す参考図である。 本発明の第1の実施形態における被写体の画像を示す参考図である。 本発明の第1の実施形態における被写体の画像を示す参考図である。 本発明の第1の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第1の実施形態における線基準計測の処理の流れを示すフローチャートである。 本発明の第1の実施形態における2次元エッジ抽出の処理の流れを示すフローチャートである。 本発明の第1の実施形態において基準線候補リストを生成する処理の流れを示すフローチャートである。 本発明の第1の実施形態における3次元直線/曲線フィッティングの処理の流れを示すフローチャートである。 本発明の第1の実施形態における直線フィッティングの処理の流れを示すフローチャートである。 本発明の第1の実施形態における曲線フィッティングの処理の流れを示すフローチャートである。 本発明の第2の実施形態における線基準計測の処理の流れを示すフローチャートである。 本発明の第2の実施形態において被写体点群を生成する処理の流れを示すフローチャートである。 本発明の第3の実施形態における線基準計測の処理の流れを示すフローチャートである。 本発明の第3の実施形態において基準線候補リストを生成する処理の流れを示すフローチャートである。 本発明の第4の実施形態における線基準計測の処理の流れを示すフローチャートである。 本発明の第4の実施形態における3次元エッジ抽出の処理の流れを示すフローチャートである。 線基準計測の対象となる被写体の例を示す参考図である。 ステレオ計測による計測点の3次元座標の求め方を説明するための参考図である。
以下、図面を参照し、本発明の実施形態を説明する。以下では、計測装置の一例である内視鏡装置を用いた線基準計測の方法を説明する。
(第1の実施形態)
まず、本発明の第1の実施形態を説明する。図1は、本実施形態による内視鏡装置の全体構成を示している。図1に示すように、内視鏡装置1は、内視鏡ユニット2と、この内視鏡ユニット2に接続された装置本体3とを備えている。内視鏡ユニット2は、細長な挿入部20と、挿入部20の基端部が接続されているコネクターユニット8とを備えている。コネクターユニット8はコネクター(図示せず)を備え、このコネクターを経由して装置本体3に接続されており、装置本体3に対して着脱できるように構成されている。装置本体3は、内視鏡ユニット2で撮像された画像データに基づく被写体の画像や操作制御内容(例えば処理メニュー)等の表示を行う表示装置であるモニタ4(液晶モニタ)と、内部に制御ユニット10(図2参照)を有する筐体5とを備えている。装置本体3には、装置全体の各種動作制御を実行する際に必要な操作を行うための操作部6が接続されている。
挿入部20は、硬質な先端部21と、例えば上下左右に湾曲可能な湾曲部22と、柔軟性を有する可撓管部23とを先端側から順に連設して構成されている。先端部21には、観察視野を2つ有するステレオ光学アダプタや観察視野が1つの通常観察光学アダプタ等、各種光学アダプタが着脱自在になっている。
図2に示すように筐体5内には、CCU9(カメラコントロールユニット)および制御ユニット10が設けられている。挿入部20の基端部はコネクターユニット8に接続されており、コネクターユニット8はコネクターを経由して装置本体3に接続されている。コネクターユニット8は、先端部21に内蔵されている光源を駆動する光源駆動装置と、挿入部20を構成する湾曲部22を湾曲させる湾曲装置とを備えて構成されている。CCU9は、撮像素子28を駆動する駆動装置を備えて構成されている。
先端部21には撮像素子28とLED29が内蔵されている。撮像素子28は、光学アダプタを介して結像された被写体像を光電変換し、撮像信号を生成する。この撮像信号は、CCU9内で例えばNTSC信号等の映像信号(画像データ)に変換されて、制御ユニット10へ供給される。LED29は、被写体に照射する照明光を発生する。
制御ユニット10内には、映像信号が入力される映像信号処理回路12、ROM13、RAM14、カードI/F15(カードインターフェイス)、USB I/F16(USBインターフェイス)、RS−232C I/F17(RS−232Cインターフェイス)、およびCPU18が設けられている。
RS−232C I/F17には、CCU9およびコネクターユニット8が接続されると共に、これらCCU9やコネクターユニット8等の制御および動作指示を行う操作部6が接続されている。ユーザが操作部6を操作すると、その操作内容に基づいて、CCU9およびコネクターユニット8を動作制御する際に必要な通信が行われる。操作部6が有する操作用のデバイスは、マウス、ジョイスティック、タッチパッド、トラックボール、タッチパネル等のいずれであってもよい。
USB I/F16は、制御ユニット10とパーソナルコンピュータ31とを電気的に接続するためのインターフェイスである。このUSB I/F16を介して制御ユニット10とパーソナルコンピュータ31とを接続することによって、パーソナルコンピュータ31側で内視鏡画像の表示指示や、計測時における画像処理等の各種の指示に基づく制御を行うことが可能になると共に、制御ユニット10とパーソナルコンピュータ31との間での各種の処理に必要な制御情報やデータ等の入出力を行うことが可能になる。
また、カードI/F15には、メモリカード32を自由に着脱することができるようになっている。メモリカード32をカードI/F15に装着することにより、CPU18による制御に従って、このメモリカード32に記憶されている制御処理情報や画像情報等のデータの制御ユニット10への取り込み、あるいは制御処理情報や画像情報等のデータのメモリカード32への記録を行うことが可能になる。
映像信号処理回路12は、CCU9から供給された映像信号に基づく内視鏡画像と、グラフィックによる操作メニューとを合成した合成画像を表示するため、CPU18により生成される、操作メニューに基づくグラフィック画像信号とCCU9からの映像信号を合成する処理や、モニタ4の画面上に表示するのに必要な処理等を行い、表示信号をモニタ4に供給する。また、この映像信号処理回路12は、単に内視鏡画像、あるいは操作メニュー等の画像を単独で表示するための処理を行うことも可能である。したがって、モニタ4の画面上には、内視鏡画像、操作メニュー画像、内視鏡画像と操作メニュー画像との合成画像等が表示される。
CPU18は、ROM13に格納されている計測用プログラム等のプログラムを実行することによって、目的に応じた処理を行うように各種回路部等を制御して、内視鏡装置1全体の動作制御を行う。RAM14は、CPU18によって、データの一時格納用の作業領域として使用される。
CPU18が実行するプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムを内視鏡装置1以外のコンピュータに読み込ませ、実行させてもよい。例えば、パーソナルコンピュータ31がプログラムを読み込んで実行し、プログラムに従って、内視鏡装置1を制御するための制御情報を内視鏡装置1に送信して内視鏡装置1を制御し、内視鏡装置1から映像信号を取得して、取得した映像信号を用いて計測を行ってもよい。
ここで、「コンピュータ」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM、DVD−ROM、フラッシュメモリ等の可搬媒体、コンピュータに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上述したプログラムは、このプログラムを記憶装置等に格納したコンピュータから、伝送媒体を介して、あるいは伝送媒体中の伝送波により他のコンピュータに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように、情報を伝送する機能を有する媒体のことをいう。また、上述したプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能を、コンピュータに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
本実施形態では、一例として、三角測量の原理を利用したステレオ計測による線基準計測を説明する。線基準計測はステレオ計測以外の計測方法でも可能であり、例えば明部と暗部からなる平行縞を用いた縞投影法により線基準計測を行ってもよい。
以下、ステレオ計測の原理を説明する。ステレオ計測では、まず計測点の画像面上の2次元座標から、計測点に対応する対応点の画像面上の2次元座標がマッチング処理によって求められる。そして、計測点と対応点との画像面上での2次元座標から、計測点の3次元座標が計算され、面積や周長の計算に使用される。以下、図21を参照しながら、ステレオ計測による計測点の3次元座標の求め方を説明する。左側および右側の光学系で撮像された画像に対して、三角測量の方法により、左側と右側の光学中心63,64を結ぶ線分の中点を原点Oとして右方向を正にx軸、下方向を正にy軸、光軸と平行に光学系から遠ざかる方向を正にz軸を定義した時の計測点60の3次元座標(X,Y,Z)が以下の(1)式〜(3)式で計算される。ただし、歪み補正が施された左右の画像面上での計測点61,対応点62の2次元座標を、左右それぞれの光学系の光軸と画像面との交点O、Oを原点として(X,Y)、(X,Y)とし、左側と右側の光学中心63,64の距離をDとし、焦点距離をFとし、t=D/(X−X)とする。
X=t×X+D/2 ・・・(1)
Y=−t×Y ・・・(2)
Z=t×F ・・・(3)
上記のように元画像上の画像面上での計測点61、対応点62の座標が決定されると、パラメータDおよびFを用いて計測点60の3次元座標が求まる。いくつかの点の3次元座標を求めることによって、2点間の距離、2点を結ぶ線と1点の距離、面積、深さ、表面形状等の様々な計測が可能である。また、左側の光学中心63または右側の光学中心64から被写体までの距離(物体距離)を求めることも可能となる。物体距離は、先端部21から被写体までの距離であって、例えば撮像素子28または観察光学系から被写体までの距離である。上記のステレオ計測を行うためには、先端部21とステレオ光学アダプタを含む光学系の特性を示す光学データが必要である。なお、マッチング処理および光学データの詳細は、例えば特開2004−49638号公報に記載されているので、その説明を省略する。
次に、本実施形態における線基準計測の概要を説明する。図3〜図6は、被写体の画像(静止画像)を示している。図3は、撮像された画像を示している。以下の例では、2枚の板300,310を接着剤で貼り合わせたときに板300,310の間からはみ出した接着剤320の幅が計測される。
図4は、線基準計測を行っている間にモニタ4に表示される画像を示している。ユーザが操作部6を操作し、基準線を設定したい位置(例えば板300のエッジ)に近い位置を基準点として指定すると、指定した基準点330の座標(画像内の2次元座標)を中心とする半径が所定値(例えば20ピクセル)の円340内の領域がエッジ抽出領域に設定される。エッジ抽出領域は、画像処理によりエッジを抽出する処理を行う領域である。上記の所定値は適宜変更することが可能である。ユーザが指定した基準点330およびエッジ抽出領域を示す円340は画像上に表示してもしなくてもどちらでもよい。
続いて、エッジ抽出領域内でエッジが抽出される。さらに、エッジ抽出領域内で抽出されたエッジに対して、エッジ抽出領域の外側の画像上でエッジを追跡する処理が行われる。これにより、エッジ抽出領域内で抽出されたエッジの延長部分であるエッジが抽出される。そして、抽出されたエッジを示すグラフィックが線として画像上に表示される。図4では、線350,360が表示されている。エッジを追跡する処理が行われることによって、エッジ抽出領域に対応する円340内で抽出されたエッジが円340の外側まで延長されている。
複数のエッジが抽出された場合、それぞれのエッジに対して指標値が算出され、指標値に応じてそれぞれのエッジの順位が決定される。決定された順位の情報は画像上に表示される。図4では、線350,360に対応するエッジの順位を示す順位情報370が表示されている。順位情報370は、線350に対応するエッジの順位(候補1)と、線360に対応するエッジの順位(候補2)とを示している。順位情報370はアイコン(マーク)として表示されている。図4では、線350に対応するエッジのほうが、線360に対応するエッジよりも順位が高い。
複数のエッジのうち、基準線に対応するエッジである基準エッジとして選択されているエッジに対応する線が、他のエッジに対応する線よりも強調されて表示される。複数のエッジが抽出された直後の状態では、順位が最も高いエッジに対応する線が強調されて表示される。図4では、順位が最も高いエッジに対応する線350が線360よりも太く表示されている。また、強調されている線に対応するエッジの順位をユーザに提示するため、順位情報370において、強調されている線350に対応する情報が強調されて(例えば異なる色で)表示されている。図4では、線350に対応するエッジが基準エッジとして選択されている。
ユーザは、操作部6を操作することにより、基準エッジとして選択されるエッジを切り替えることが可能である。エッジを切り替える際、ユーザは、ポインティングカーソル等でエッジを直接指定する必要はなく、エッジを切り替えるためのトリガを入力するだけでよい。ユーザが、エッジを切り替える操作を行うと、例えば、現在基準エッジとして選択されているエッジに対応する線が通常の状態で表示され、そのエッジよりも順位が1つ下のエッジに対応する線が強調される。図5は、ユーザがエッジを切り替えた後にモニタ4に表示される画像を示している。順位が低いエッジに対応する線360が線350よりも太く表示されている。また、順位情報370において、強調されている線360に対応する情報が強調されて(例えば異なる色で)表示されている。図5では、線360に対応するエッジが基準エッジとして選択されている。
所望のエッジが基準エッジとして選択されている状態で、ユーザが操作部6を操作し、確定操作を行うと、基準エッジが確定する。例えば、図4の状態で確定操作が行われると、線350に対応するエッジが以降の処理で基準エッジとして扱われ、図5の状態で確定操作が行われると、線360に対応するエッジが以降の処理で基準エッジとして扱われる。基準エッジが確定した後、画像上で基準エッジに含まれる各画素に対応する3次元座標が算出され、その3次元座標に基づいて、基準エッジに対応する基準線となる直線または曲線の式が算出される。
基準エッジが確定した後、ユーザは操作部6を操作し、線基準計測における計測点を指定する。図6は、ユーザによって指定された計測点と線基準計測の計測位置を示している。図6では、板300,310の間からはみ出した接着剤320の頂点の位置に計測点380が指定されている。
計測点が指定されると、計測点に対応する3次元座標が算出され、計測点と基準線との3次元距離が算出される。図6では、計測点と基準線との3次元距離として、線分390の長さに相当する3次元距離が算出される。算出された3次元距離はモニタ4に表示される。
従来技術における線基準計測では、基準線を設定するために2点以上の基準点を指定する必要があり、ユーザは、それぞれの基準点を指定する際に、画像を拡大表示する等の操作を行い、基準点を設定する位置を慎重に見極めながら、基準点の位置を指定する操作を行わなければならなかった。これに対して、本実施形態における線基準計測では、基準線を設定するために必要な操作は、エッジ抽出領域を設定するために1つの基準点を指定する操作と、抽出された複数のエッジから基準エッジを選択する操作とのみでよい。ユーザは、1つの基準点を指定する際、基準点を設定する位置を慎重に見極める必要はなく、おおよその位置に基準点を指定すればよい。また、ユーザは、基準エッジを選択する際、基準エッジとして選択されるエッジを切り替えるトリガを入力する等の簡易な操作のみを行えばよい。したがって、基準線の設定に係る操作の手間を軽減し、線基準計測に要する時間を短縮することができる。
次に、本実施形態における線基準計測の詳細を説明する。図7は、CPU18の機能構成を示している。制御部180、領域設定部181、エッジ抽出部182、表示制御部183、エッジ選択部184、3次元座標算出部185、基準線算出部186、線基準計測点指定部187、および3次元距離算出部188によってCPU18の機能が構成されている。
制御部180は各部が行う処理を制御する。領域設定部181は、映像信号処理回路12を介してCPU18が取得した画像データに基づく被写体の画像においてユーザが指定した1つの基準点に基づくエッジ抽出領域を画像に設定する。エッジ抽出部182は、エッジ抽出領域の画像に基づいて被写体のエッジを抽出する。表示制御部183は、線基準計測に必要な情報(図4の基準点330、円340、線350,360、順位情報370、図6の計測点380等)をグラフィックでモニタ4に表示させる制御を行う。
エッジ選択部184は、操作部6を介して入力されるユーザの指示に基づいて、エッジ抽出部182によって抽出された複数のエッジから基準エッジを選択する。3次元座標算出部185は、ステレオ計測により、被写体の画像上の点に対応する3次元座標を算出する。基準線算出部186は、基準エッジを構成する点に対応する3次元座標に基づいて空間上の基準線を算出する。線基準計測点指定部187は、操作部6を介して入力されるユーザの指示に基づいて、線基準計測における計測点を指定する。3次元距離算出部188は、計測点に対応する3次元座標と基準線との3次元距離を算出する。
図8は、線基準計測における処理の流れを示している。以下、線基準計測における処理の詳細を説明する。ユーザの指示により被写体の静止画像が取得された後、線基準計測が開始されると、ユーザによって操作部6が操作され、エッジ抽出領域を設定する基準となる基準点が画像に指定される(ステップS100)。基準点が指定されると、領域設定部181は、基準点に基づくエッジ抽出領域を画像に設定する(ステップS105)。前述したように、基準点の2次元座標を中心とする半径が所定値の円内の領域がエッジ抽出領域に設定される。エッジ抽出領域は、基準点の座標を基準として設定される領域であればよく、必ずしも円である必要はない。
エッジ抽出領域が設定されると、エッジ抽出部182は、2次元の画像からエッジを抽出する2次元エッジ抽出を行う(ステップS110)。図9は、ステップS110における2次元エッジ抽出の処理の流れを示している。エッジ抽出部182は、処理対象の画像がカラー画像である場合、グレースケールに変換し、変換後の画像のうちエッジ抽出領域の画像に対してケニーのエッジ検出器(Canny edge detector)を用いて輪郭抽出を行い、エッジを抽出する(ステップS1100)。ケニーのエッジ検出器については、例えば“J. F. Canny: A Computational approach to edge detection, in IEEE Transaction Pattern Analysis Machine Intelligence, Vol.8, No.6, pp. 679-698 (1986)”に記載されている。
続いて、エッジ抽出部182は、抽出されたエッジに対して、ラスタスキャンとルックアップテーブルを用いたラベル付けを行う(ステップS1101)。これによって、抽出されたエッジに対して、エッジ毎のラベルが付与される。ラスタスキャンとルックアップテーブルを用いたラベル付けについては、例えば“ディジタル画像処理, 財団法人 画像情報教育振興協会(CG-ARTS協会), p181-182”に記載されている。
続いて、エッジ抽出部182は、エッジ抽出領域の外側の画像を用いて輪郭追跡を行い、ステップS1100で抽出されたエッジの延長部分のエッジを抽出する(ステップS1102)。輪郭追跡については、例えば“ディジタル画像処理, 財団法人 画像情報教育振興協会(CG-ARTS協会), p178-179”に記載されている。また、輪郭追跡については、特開2008−295512に記載されている方法を用いてもよい。ステップS1100,S1102で抽出されたエッジを構成する点(画素)の2次元座標はラベルと共にエッジデータとして管理される。エッジデータは、RAM14に格納され、適宜、CPU18によって読み出される。
続いて、エッジ抽出部182は、ステップS1100,S1102で抽出されたエッジを分割する(ステップS1103)。以下、エッジを分割する処理の詳細を説明する。被写体の画像をxy平面としたときにxy平面上のベクトルpは、x軸に平行なベクトルaと、ベクトルaに直交しy軸に平行なベクトルbとの線形結合として、以下の(4)式で表される(x_p,y_pはそれぞれベクトルpのx成分、y成分)。
Figure 0006150532
また、ベクトルpは、xy平面上の直交する任意の2つのベクトルu,vの線形結合として、以下の(5)式で表される。
Figure 0006150532
(5)式のs,tをそれぞれベクトルpのu成分、v成分と表現する。ここで、ベクトルuのx成分とy成分をx_u,y_uとし、ベクトルvのx成分とy成分をx_v,y_vとすると、ベクトルu,vはそれぞれ以下の(6)式、(7)式で表わされる。
Figure 0006150532
(5)式〜(7)式から、ベクトルpは以下の(8)式で表される。
Figure 0006150532
(8)式から(9)式、(10)式が成り立つ。
x_p = s x_u + t x_v ・・・(9)
y_p = s y_u + t y_v ・・・(10)
(9)式、(10)式をs、tについての連立方程式として解くことができ、s、t はそれぞれ、ベクトルpをベクトルu,vで表したときのu成分、v成分となる。つまり、x成分とy成分で表されるxy平面上の所定方向のベクトルp((4)式)の表現を、ベクトルu,vを用いた表現に変換することができる。
エッジを分割する際、エッジ抽出部182は、エッジ上の各点(画素)でエッジの接線方向を求め、エッジ上の各点の両隣の点における接線方向から、各点における接線方向の変化を示すベクトルを求める。エッジ上の任意の点iにおける接線方向に平行な単位ベクトルをqとし、点iにおける接線方向の変化を示すベクトルをpとし、点iの両隣の点を点i−1、点i+1とすると、接線方向の変化を示すベクトルpは以下の(11)式で表される。
Figure 0006150532
エッジ上の各点における接線方向の変化を示すベクトルは、接線方向に平行なベクトル(上記のベクトルuに相当)と、接線方向に垂直なベクトル(上記のベクトルvに相当)とで表現することができる。エッジ抽出部182は、エッジ上の各点の接線方向の変化を示すベクトルにおける、接線方向に平行なベクトルの成分と、接線方向に垂直なベクトルの成分とを求める。その後、エッジ抽出部182は、接線方向に垂直なベクトルの成分が所定値を越える画素、あるいはその成分の符号が反転する画素でエッジを分割する。分割されたエッジはそれぞれ異なるエッジとなり、各エッジに異なるラベルが付与される。ここで、分割された各エッジは変曲点を持たない。エッジを構成する点の座標およびエッジのラベルを管理するエッジデータは、分割された各エッジに対応したデータとなるように更新される。エッジが分割されると、2次元エッジ抽出の処理が終了する。
2次元エッジ抽出の処理が終了すると、エッジ抽出部182は、ステップS110で抽出したエッジ(分割後のエッジを含む)の指標値を含む基準線候補リストを生成する(ステップS115)。図10は、ステップS115において基準線候補リストを生成する処理の流れを示している。エッジ抽出部182は、ステップS110で抽出した全てのエッジ(分割後のエッジを含む)について、ステップS1150,S1151の処理を行う。
まず、エッジ抽出部182は各エッジの指標値を算出する(ステップS1150)。指標値は、エッジの強度(コントラスト)や、エッジの長さ、エッジの曲率半径等である。指標値としてこれ以外のものを用いてもよい。指標値は、その値が高いほど、3次元距離を計測したときの計測結果の精度が高くなることが期待される値であることがより望ましい。エッジの強度等が高いエッジを基準エッジに用いた場合、基準エッジを構成する各点の3次元座標に対して良好にフィットする3次元の基準線が得られやすくなり、より精度の高い計測結果を得ることができる。続いて、エッジ抽出部182は、各エッジの指標値を基準線候補リストに登録する(ステップS1151)。基準線候補リストは、RAM14に格納され、適宜、CPU18によって読み出される。
ステップS110で抽出した全てのエッジについて、ステップS1150,S1151の処理を行った後、エッジ抽出部182は、各エッジの指標値に基づいて、各エッジの順位を決定する(ステップS1152)。各エッジの順位は、例えば指標値が高い順となる。各エッジの順位の情報は、基準線候補リストに登録されていてもよいし、基準線候補リストとは別に管理されてもよい。各エッジの順位が決定されると、基準線候補リストを生成する処理が終了する。
基準線候補リストを生成する処理が終了すると、表示制御部183は、エッジデータおよび基準線候補リストに基づいて、抽出された各エッジを示す線および順位情報をモニタ4に表示させるためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これにより、例えば図4に示すように、抽出された各エッジを示す線および順位情報が画像に重畳されてモニタ4に表示される(ステップS120)。ユーザは、モニタ4に表示された画像に基づいて、抽出されたエッジのうちのどれが基準エッジに最適であるのかを確認することができる。
抽出された各エッジを示す線および順位情報が表示された後、ユーザによって操作部6が操作され、基準エッジが選択される。このとき、前述したように、ユーザは、基準エッジとして選択されるエッジを切り替えることが可能である。エッジ選択部184は、操作部6を介して入力されるユーザの指示に基づいて、エッジデータに含まれるデータの中から、基準エッジとして選択されたエッジのデータを選択し、そのデータを表示制御部183に通知し、基準エッジとして選択されたエッジに対応する線を強調する処理を行わせる。所望のエッジが基準エッジとして選択されている状態でユーザによって確定操作が行われると、基準エッジが確定する(ステップS125)。
基準エッジが確定した後、ステップS130,S135の処理と、ステップS140の処理とが並行的に行われる。3次元座標算出部185は、基準エッジを構成する各点に対応する3次元座標を算出し、各点の3次元座標で構成されるエッジ点群を生成する(ステップS130)。続いて、基準線算出部186は、エッジ点群に対して空間上の直線または曲線を当てはめる3次元直線/曲線フィッティングを行い、その直線または曲線の式(近似式)を算出する(ステップS135)。算出された直線または曲線が基準線である。
ステップS130,S135の処理と並行して、ユーザによって操作部6が操作され、線基準計測における計測点が指定される(ステップS140)。このとき、画像の拡大表示機能を併用することで、サブピクセル単位で計測点を指定することが可能である。上記の処理方法では、基準エッジが確定してからユーザが計測点を指定するまでの間に、少なくとも基準エッジを構成する点の一部または全てに対応する3次元座標が算出され、場合によっては、基準線の算出まで行われる。このように、ユーザが計測点の指定を行っている間に3次元座標や基準線の算出を行うことによって、ユーザが感じる処理の待ち時間を減らすことができる。
上記のように並行的に処理を行うことができない処理システムを用いる場合には、基準エッジが確定した後、例えばステップS140,S130,S135の順に処理が行われる。この順に処理が行われると、基準エッジを確定する操作と、計測点を指定する操作とが連続で行われ、それらの間に、ステップS130,S135の処理による待ち時間が発生しない。したがって、基準エッジを確定する操作と、計測点を指定する操作とが処理の待ち時間によって分断されないため、操作中にユーザが感じる処理の待ち時間を減らすことができる。
図11は、ステップS135における3次元直線/曲線フィッティングの処理の流れを示している。基準線算出部186は、基準エッジを構成する全ての点(画素)について、ステップS1350,S1351の処理を行う。まず、基準線算出部186は、基準エッジを構成する各点でエッジの接線方向を求め(ステップS1350)、基準エッジ上の各点の両隣の点における接線方向から、各点における接線方向の変化量を求める(ステップS1351)。例えば、エッジ上で3つの点A,B,Cがこの順に並んでいるとき、点A,Cにおける接線方向から点Bにおける接線方向の変化量を求める。
基準エッジを構成する全ての点について、ステップS1350,S1351の処理を行った後、基準線算出部186は、基準エッジを構成する各点における接線方向の変化量の絶対値の最大値を求める(ステップS1352)。続いて、基準線算出部186は、求めた最大値が所定値以下であるか否かを判定する(ステップS1353)。ステップS1353における判定に用いられる所定値は0に近い値である。
最大値が所定値以下である場合、基準エッジが直線であるとみなすことができ、基準線算出部186は、ステップS130で求めたエッジ点群に対して空間上の直線を当てはめる直線フィッティングを行い、その直線の式を算出する(ステップS1354)。また、最大値が所定値を超える場合、基準線算出部186は、ステップS130で求めたエッジ点群に対して空間上の曲線を当てはめる曲線フィッティングを行い、その曲線の式を算出する(ステップS1355)。ステップS1354の直線フィッティングまたはステップS1355の曲線フィッティングが終了すると、3次元直線/曲線フィッティングの処理が終了する。
図12は、ステップS1354における直線フィッティングの処理の流れを示している。基準線算出部186は、エッジ点群を構成する3次元座標をxy平面に射影する(ステップS13540)。続いて、基準線算出部186は、xy平面上で最小2乗法を用いて、xy平面に射影した各座標に対して直線を当てはめ、その直線の式を算出する(ステップS13541)。ステップS13541で算出された式は、xy平面に垂直であって基準エッジを通る平面(以下、第1の平面とする)の式に等しい。
続いて、基準線算出部186は、xy平面に射影した各座標に基づいて、エッジがx方向に長いか否かを判定する(ステップS13542)。例えば、x座標の最大値と最小値の差の絶対値が所定値以上であればエッジがx方向に長いと判定され、x座標の最大値と最小値の差の絶対値が所定値未満であればエッジがx方向に長くないと判定される。
エッジがx方向に長いと判定された場合、基準線算出部186は、エッジ点群を構成する3次元座標をxz平面に射影する(ステップS13543)。続いて、基準線算出部186は、xz平面上で最小2乗法を用いて、xz平面に射影した各座標に対して直線を当てはめ、その直線の式を算出する(ステップS13544)。ステップS13544で直線の式を算出することは、xz平面に垂直であって基準エッジを通る平面(以下、第2の平面とする)を求めることに等しい。
エッジがx方向に長くないと判定された場合、基準線算出部186は、エッジ点群を構成する3次元座標をyz平面に射影する(ステップS13545)。続いて、基準線算出部186は、yz平面上で最小2乗法を用いて、yz平面に射影した各座標に対して直線を当てはめ、その直線の式を算出する(ステップS13546)。ステップS13566で直線の式を算出することは、yz平面に垂直であって基準エッジを通る平面(以下、第2の平面とする)を求めることに等しい。
ステップS13544またはステップS13546で直線の式を求めた後、基準線算出部186は、第1の平面と第2の平面の交わる位置の直線を求める(ステップS13547)。より具体的には、ステップS13547では、以下の処理が行われる。ステップS13544で直線の式を求めた場合、基準線算出部186は、求めた直線の式でx=0として直線が通る点を求める。あるいは、ステップS13546で直線の式を求めた場合、基準線算出部186は、求めた直線の式でy=0として直線が通る点を求める。続いて、基準線算出部186は、第1の平面と第2の平面のそれぞれの法線ベクトルに直交するベクトル(外積)を求める。求めたベクトルを方向ベクトルとし、上記の点を通る直線が、第1の平面と第2の平面の交わる位置の直線である。第1の平面と第2の平面の交わる位置の直線が求まると、直線フィッティングの処理が終了する。
図13は、ステップS1355における曲線フィッティングの処理の流れを示している。基準線算出部186は、基準エッジが含まれる平面を求める(ステップS13550)。より具体的には、ステップS13550では、以下の処理が行われる。基準線算出部186は、エッジ点群を構成する3次元座標のうち、基準エッジの両端と中央の3点に対応する3次元座標から、2本のベクトルを算出する。2本のベクトルは、基準エッジの一方の端点と中央の点とを通るベクトル、および基準エッジの他方の端点と中央の点とを通るベクトルである。続いて、基準線算出部186は、2本のベクトルに直交するベクトル (外積)を求める。続いて、基準線算出部186は、上記の3点のいずれかに対応する3次元座標を通り、求めたベクトルを法線ベクトルとする平面を算出する。
基準エッジが含まれる平面を求めた後、基準線算出部186は、エッジ点群を構成する3次元座標を、求めた平面に射影する(ステップS13551)。続いて、基準線算出部186は、射影した各座標に対して曲線を当てはめ、その曲線の式を算出する(ステップS13552)。曲線フィッティングの具体的な方法については、例えば特開2005−204724号公報に記載されている。曲線の式が求まると、曲線フィッティングの処理が終了する。
基準線の算出(ステップS135)と計測点の指定(ステップS140)とが終了すると、3次元距離算出部188は、計測点に対応する3次元座標と3次元の基準線との3次元距離を算出する(ステップS145)。基準線を直線で表した場合、3次元距離は以下のようにして算出される。点O の座標を (x,y,z) として、点Oを通る3次元の直線Lの方向ベクトルの成分を(a,b,c)とすると、直線L上の点の座標(x,y,z)は媒介変数tを用いて以下の(12)式〜(14)式で表わされる。
Figure 0006150532
このとき、直線L上にない点Mの座標を(x,y,z)として、点Mから直線L に下ろした垂線の足Hの座標(x,y,z)は媒介変数tを用いて以下の(15)式〜(17)式で表わされる。
Figure 0006150532
ベクトルOHとベクトルMHが直交することから、上記の媒介変数tは以下の(18)式のように求められる。
Figure 0006150532
したがって、点Mと直線Lの距離dは以下の(19)式で求められる。
Figure 0006150532
基準線を曲線で表した場合の3次元距離は、前述した特許文献2に開示されている。
3次元距離が算出されると、表示制御部183は、算出された3次元距離の値を計測結果としてモニタ4に表示させるためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これにより、3次元距離の値がモニタ4に表示される(ステップS150)。ユーザは、モニタ4に表示された値に基づいて、計測結果を確認することができる。3次元距離の値がモニタ4に表示されると、線基準計測が終了する。
上述したように、本実施形態によれば、基準線を設定するために必要な操作は、エッジ抽出領域を設定するために1つの基準点を指定する操作と、抽出された複数のエッジから基準エッジを選択する操作とのみでよいため、基準線の設定に係る操作の手間を軽減し、線基準計測に要する時間を短縮することができる。
また、基準線に対応する基準エッジとして提示されたエッジが所望のエッジでない場合に、別のエッジに容易に切り替えることができる。例えば、被写体と背景に強い明暗差があり、ユーザが基準エッジとして選択したいエッジは被写体の表面上にあり、エッジ付近の明暗差が比較的小さい場合、自動的に抽出されたエッジのうち最も順位が高いエッジは被写体と背景の境界となる可能性がある。このような場合でも、所望のエッジを基準エッジとして選択できるようにエッジを容易に切り替えることができる。
また、抽出された複数のエッジの順位の情報を表示することによって、基準エッジとなるエッジを選択する指標の1つをユーザに提示することができる。
また、確定した基準エッジを構成する点のみについて3次元座標が算出されるので、処理全体の計算量を少なくすることができる。
上記の説明では、基準エッジとして選択されるエッジがユーザの指示に基づいて切り替わるが、基準エッジとして選択されるエッジが自動的に切り替わるようにしてもよい。例えば、基準エッジとして選択されるエッジが所定時間の間隔で順次切り替わり、ユーザが確定操作を行うと、その時点で基準エッジとして選択されているエッジが基準エッジとして確定する。この場合、基準エッジを選択するために必要な操作は、基準エッジを確定する操作だけとなるので、操作の手間をさらに軽減することができる。
(第2の実施形態)
次に、本発明の第2の実施形態を説明する。図14は、本実施形態の線基準計測における処理の流れを示している。図14に示す処理のうち、図8に示す処理と同一の処理には同一の符号が付与されている。ユーザの指示により被写体の静止画像が取得された後、線基準計測が開始されると、3次元座標算出部185は、被写体の画像における第1の範囲に含まれる全ての点(画素)について、各点に対応する3次元座標を算出し、各点の3次元座標で構成される被写体点群を生成する(ステップS200)。
図15は、ステップS200において被写体点群を生成する処理の流れを示している。3次元座標算出部185は、被写体の画像における第1の範囲に含まれる全ての点について、各点に対応する3次元座標を算出する(ステップS2000)。本実施形態では、3次元座標が算出される第1の範囲は被写体の画像の全体である。第1の範囲は、少なくともステップS205でエッジ抽出領域に設定される第2の範囲を含む。第1の範囲を示す情報は、例えばCPU18が実行する計測用プログラムに記録されているが、ユーザの指示により、第1の範囲を変更することも可能である。被写体の画像の全体に含まれる全ての点について、ステップS2000の処理を行った後、3次元座標算出部185は、算出した3次元座標について、例えばメディアンフィルターを用いて、周囲の点の3次元座標とかけ離れたものを周囲の点の3次元座標の平均値に置き換えることで異常値を修正する(ステップS2001)。異常値の修正が終了すると、被写体点群を生成する処理が終了する。
被写体点群を生成する処理が終了した後、領域設定部181は、被写体の画像における第2の範囲をエッジ抽出領域に設定する(ステップS205)。本実施形態では、エッジ抽出領域が設定される第2の範囲は被写体の画像の全体である。第2の範囲を示す情報は、例えばCPU18が実行する計測用プログラムに記録されているが、ユーザの指示により、第2の範囲を変更することも可能である。エッジ抽出領域が設定されると、エッジ抽出部182は2次元エッジ抽出を行う(ステップS110)。2次元エッジ抽出の処理は、図9に示した処理と同一である。ただし、本実施形態のエッジデータに含まれる、各エッジを構成する点の2次元座標は、被写体点群を構成する3次元座標と関連付けられている。各エッジを構成する点の2次元座標と3次元座標の両方がエッジデータに含まれていてもよい。2次元エッジ抽出の処理が終了すると、エッジ抽出部182は基準線候補リストを生成する(ステップS115)。基準線候補リストを生成する処理は、図10に示した処理と同一である。
基準線候補リストを生成する処理が終了すると、ユーザによって操作部6が操作され、以下で説明するエッジ選択領域を設定する基準となる基準点が指定される(ステップS100)。基準点が指定されると、領域設定部181は、基準点に基づくエッジ選択領域を画像に設定する(ステップS210)。エッジ選択領域は、被写体の画像の全体で抽出されたエッジの中から、以降の処理の対象とするエッジを選択する領域である。第1の実施形態で説明したエッジ抽出領域と同様に、例えば基準点の2次元座標を中心とする半径が所定値の円内の領域がエッジ選択領域に設定される。エッジ選択領域は、基準点の座標を基準として設定される領域であればよく、必ずしも円である必要はない。
ユーザが指定した基準点に基づくエッジ選択領域の中に、基準線候補リストに含まれるエッジが存在しない場合には、エッジを選択することができない。この場合、警告を表示してユーザに基準点を再度指定させてもよいし、基準線候補リストに含まれるエッジが見つかるまで段階的にエッジ選択領域を広げたり、基準線候補リストに含まれるエッジのうち最も近いエッジと重なる位置までエッジ選択領域を移動させたりしてもよい。
エッジ選択領域が設定されると、エッジ選択部184は、エッジデータに基づいて、エッジの中から選択領域と重なるエッジ(少なくとも一部が選択領域に含まれる(選択領域を通る)エッジ)を選択し、基準エッジの選択対象とする(ステップS215)。このとき、基準線候補リストにおいて、選択対象となったエッジ以外の情報を消去してもよいし、選択対象となったエッジの情報に対して、選択対象であることを示すフラグを付与してもよい。
基準エッジの選択対象となるエッジが選択されると、表示制御部183は、エッジデータおよび基準線候補リストに基づいて、選択対象の各エッジを示す線および順位情報をモニタ4に表示させるためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これにより、選択対象の各エッジを示す線および順位情報が画像に重畳されてモニタ4に表示される(ステップS120)。
選択対象の各エッジを示す線および順位情報が表示された後、ユーザによって操作部6が操作され、基準エッジが選択される。このとき、第1の実施形態で説明したように、ユーザは、基準エッジとして選択されるエッジを切り替えることが可能である。所望のエッジが基準エッジとして選択されている状態でユーザによって確定操作が行われると、基準エッジが確定する(ステップS125)。
基準エッジが確定した後、ステップS135の処理と、ステップS140の処理とが並行的に行われる。基準線算出部186は、エッジ点群に対して空間上の直線または曲線を当てはめる3次元直線/曲線フィッティングを行い、その直線または曲線の式(近似式)を算出する(ステップS135)。算出された直線または曲線が基準線である。3次元直線/曲線フィッティングの処理は、図11に示した処理と同一である。ステップS135の処理と並行して、ユーザによって操作部6が操作され、線基準計測における計測点が指定される(ステップS140)。
基準線の算出(ステップS135)と計測点の指定(ステップS140)とが終了すると、3次元距離算出部188は、計測点に対応する3次元座標と3次元の基準線との3次元距離を算出する(ステップS145)。3次元距離が算出されると、表示制御部183は、算出された3次元距離の値を計測結果としてモニタ4に表示させるためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これにより、3次元距離の値がモニタ4に表示される(ステップS150)。3次元距離の値がモニタ4に表示されると、線基準計測が終了する。
本実施形態における線基準計測の処理(図14)は、例えば、ユーザによって、線基準計測機能を起動する指示が入力された時点、またはその時点よりも前の時点であって、ユーザによって、モニタ4に表示する静止画像を取得する指示が入力された時点で開始される。線基準計測機能を起動する指示およびモニタ4に静止画像を表示する指示はいずれも、操作部6の操作によって入力することが可能である。
上述したように、本実施形態によれば、被写体の画像における所定の領域にエッジ抽出領域が自動的に設定される。これによって、基準線を設定するために必要な操作は、エッジ選択領域を設定するために1つの基準点を指定する操作と、エッジ選択領域を通る複数のエッジから基準エッジを選択する操作とのみでよいため、基準線の設定に係る操作の手間を軽減し、線基準計測に要する時間を短縮することができる。
また、線基準計測の処理が開始された直後に被写体の画像における所定の範囲に含まれる全ての点に対応する3次元座標が算出されるので、基準エッジが確定した後の計算量が少なくなる。このため、基準エッジが確定した後にユーザが感じる処理の待ち時間を減らすことができる。
線基準計測の処理が開始された直後、ユーザは画像を見て被写体の確認を行ったり、画像データを記録する操作を行ったり、過去に取得された画像データを再生して現在の画像と過去の画像を比較したりすることがある。ユーザがこれらのいずれかを行っている間に、上記のように、被写体の画像における所定の範囲に含まれる全ての点に対応する3次元座標を算出することにより、線基準計測の全体においてユーザが感じる処理の待ち時間を減らすことができる。
また、被写体の画像における所定の範囲から抽出されたエッジのうち、ユーザが指定した基準点に基づくエッジ選択領域と重なるエッジのみが基準エッジの候補となる。このため、被写体の画像における所定の範囲から大量のエッジが抽出されたとしても、ユーザが基準エッジを効率的に選択することができる。
上記の説明では、エッジ選択領域を設定しているが、エッジ選択領域を設定せず、エッジ抽出領域から抽出された全てのエッジを基準エッジの選択対象としてもよい。例えば、エッジ抽出領域から抽出されたエッジの数が所定値以上である場合にはエッジ選択領域を設定し、エッジの数が所定値未満である場合にはエッジ選択領域を設定しなくてもよい。エッジ選択領域を設定しない場合には、ユーザが基準点を指定する操作が省かれるので、操作の手間をさらに軽減することができる。
(第3の実施形態)
次に、本発明の第3の実施形態を説明する。図16は、本実施形態の線基準計測における処理の流れを示している。図16に示す処理のうち、図14に示す処理と同一の処理には同一の符号が付与されている。以下では、図14に示す処理と異なる点を中心に説明する。図16に示す処理では、2次元エッジ抽出(ステップS110)が行われた後、ユーザによって操作部6が操作され、エッジ選択領域を設定する基準となる基準点が指定される(ステップS100)。
基準点が指定されると、エッジ選択領域が画像に設定され(ステップS210)、エッジの中から選択領域と重なるエッジ(少なくとも一部が選択領域に含まれる(選択領域を通る)エッジ)が選択される(ステップS215)。基準エッジの選択対象となるエッジが選択されると、基準線候補リストが生成される(ステップS300)。
図17は、ステップS300において基準線候補リストを生成する処理の流れを示している。ステップS1150〜S1152の各処理は、図10における各処理と同一であるが、各処理がエッジ選択部184によって行われる点と、ステップS1150,S1151の処理が、ステップS210で設定されたエッジ選択領域を通る全てのエッジについて行われる点とが異なる。
基準線候補リストが生成されると、表示制御部183は、エッジデータおよび基準線候補リストに基づいて、選択対象の各エッジを示す線および順位情報をモニタ4に表示させるためのグラフィック画像信号を生成し、映像信号処理回路12へ出力する。これにより、選択対象の各エッジを示す線および順位情報が画像に重畳されてモニタ4に表示される(ステップS120)。以降の処理は、図14に示す処理と同一である。
図14に示す処理では、ステップS110で被写体の画像の全体に対してエッジ抽出が行われるので、場合によっては大量のエッジが抽出される可能性がある。ステップS115では、被写体の画像の全体から抽出された全てのエッジに対して、指標値の算出を含む処理が行われるので、大量のエッジが抽出されると、ユーザが感じる処理の待ち時間が長くなる。
一方、図16に示す処理では、ステップS110で抽出されたエッジのうちステップS215で選択されたエッジに対して、ステップS300で指標値の算出を含む処理が行われるので、ステップS110で大量のエッジが抽出されたとしても、図14に示す処理と比較して、指標値を算出する時間を短縮することが可能となる。したがって、本実施形態によれば、ユーザが感じる処理の待ち時間を第2の実施形態よりも減らすことができる。
(第4の実施形態)
次に、本発明の第4の実施形態を説明する。図18は、本実施形態の線基準計測における処理の流れを示している。図18に示す処理のうち、図14に示す処理と同一の処理には同一の符号が付与されている。以下では、図14に示す処理と異なる点を中心に説明する。
図18に示す処理では、エッジ抽出部182は、2次元エッジ抽出(図14のステップS110)の代わりに3次元エッジ抽出を行う(ステップS400)。図19は、ステップS400における3次元エッジ抽出の処理の流れを示している。エッジ抽出部182は、被写体の画像から奥行き画像を生成する(ステップS4000)。奥行き画像とは、ステップS200で算出された、被写体の画像の全体における各点の3次元座標を構成するz座標(撮像素子28または撮像光学系から被写体までの距離に相当)を画素値として有する画像である。
奥行き画像が生成された後のステップS1100〜S1102の処理は、処理の対象となる画像が奥行き画像となる点を除いて、図9に示すステップS1100〜S1102の処理と同一である。ステップS1102で輪郭追跡が行われ、ステップS1100で抽出されたエッジの延長部分のエッジが抽出された後、エッジ抽出部182は、ステップS1100,S1102で抽出されたエッジを分割する(ステップS4001)。以下、エッジを分割する処理の詳細を説明する。
エッジの分割では、エッジ上の各点の3次元座標を用いて処理が行われる。エッジを分割する際、エッジ抽出部182は、エッジ上の各点でエッジの接線方向を求め、エッジ上の各点の両隣の点における接線方向から、各点における接線方向の変化を示すベクトルを求める。エッジ上の任意の点iにおける接線方向に平行なベクトルをqとし、点iにおける接線方向の変化を示すベクトルをpとし、点iの両隣の点を点i−1、点i+1とすると、接線方向の変化を示すベクトルpは、前述した(11)式で表される。
エッジ抽出部182は、エッジ上の各点における接線方向の変化を示すベクトルの大きさが所定値を越える点、あるいは接線方向の変化を示すベクトルを接線方向と垂直な面に投影した射影ベクトルの向きが反転する点、あるいは射影ベクトルの向きが変化する点でエッジを分割する。以下、射影ベクトルについて説明する。
エッジ上の任意の点iにおける接線方向と平行な単位ベクトルをuとし、点iにおける接線方向に平行なベクトルqの大きさを|q|とすると、単位ベクトルuは以下の(20)式で表される。
Figure 0006150532
ベクトルpを点iにおける接線方向と垂直な面に投影したベクトルをvとし、ベクトルqとベクトルuの内積を(q・u)とすると、ベクトルvは以下の(21)式で表される。
Figure 0006150532
分割されたエッジはそれぞれ異なるエッジとなり、各エッジに異なるラベルが付与される。ここで、分割された各エッジに属する点は同一平面内に存在し、各エッジは変曲点を持たない。エッジを構成する点の座標およびエッジのラベルを管理するエッジデータは、分割された各エッジに対応したデータとなるように更新される。エッジが分割されると、3次元エッジ抽出の処理が終了する。以降の処理は、図14に示す処理と同一である。
2次元エッジ抽出と3次元エッジ抽出の利点および課題について説明する。2次元エッジ抽出では、平面上の模様をエッジとして検出できる。例えば、塗装が境界からはみ出した量の計測や部品の継ぎ目から侵食したサビの侵食量などの計測に有効である。しかし、2次元エッジ抽出では、丸みのある表面のエッジは照明の加減によっては見えなくなり、検出できない。あるいは、検出できるエッジの長さが短くなる。
一方、3次元エッジ抽出では、画像において輝度の変化がない、あるいは輝度の変化が少なく、エッジが存在しないように見える場合でもエッジを検出できる。例えば、照明の加減により影がついていない、丸みのある表面のエッジを検出できる。また、単なる模様をエッジとして誤検出しない特徴がある。例えば、CFRP(炭素繊維強化プラスチック)のように、表面に繊維が見える材質の被写体に対してエッジを誤検出しない。しかし、3次元エッジ抽出では、平面上の境界線を検出できない。
本実施形態では、図14に示す処理において2次元エッジ抽出を3次元エッジ抽出に置換した場合について説明したが、図16に示す処理において2次元エッジ抽出を3次元エッジ抽出に置換してもよい。
(変形例)
次に、上記の各実施形態に適用可能な変形例を説明する。図20に示すように、表面の一部が欠けている被写体に対して線基準計測を行うことも可能である。線2000に対応するエッジが基準エッジとして選択され、計測点2010が指定されると、基準エッジに対応する空間上の基準線と、計測点2010に対応する3次元座標との3次元距離(線分2020の長さに相当する3次元距離)が算出される。
ユーザが基準エッジを選択する際、モニタ4に表示されるエッジの線において、基準エッジとして選択されているエッジを示す線と、それ以外のエッジを示す線とを線の太さで区別してもよいし、線の色で区別してもよい。また、基準エッジとして選択されているエッジを示す線のみを点滅させてもよい。
ユーザが基準エッジを選択する際、モニタ4に表示される順位情報において、基準エッジとして選択されているエッジに対応する情報と、それ以外のエッジに対応する情報とをアイコンの色で区別してもよいし、アイコン内の文字の色や太さで区別してもよい。また、基準エッジとして選択されているエッジに対応する情報を示すアイコンのみを点滅させてもよい。
エッジ抽出領域でエッジを抽出できなかった場合に、エッジ抽出における閾値を下げてから再度エッジの抽出を行ったり、エッジ抽出領域を自動的に広げてから再度エッジの抽出を行ったりしてもよい。
線基準計測における計測点は自動的に設定されてもよい。例えば、模様の輪郭の頂点を画像処理により検出して計測点に設定してもよい。
以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
1 内視鏡装置、2 内視鏡ユニット、3 装置本体、4 モニタ(表示部)、5 筐体、6 操作部、8 コネクターユニット、9 CCU、10 制御ユニット、12 映像信号処理回路、13 ROM、14 RAM、18 CPU、28 撮像素子(撮像部)、180 制御部、181 領域設定部、182 エッジ抽出部、183 表示制御部、184 エッジ選択部、185 3次元座標算出部、186 基準線算出部、187 線基準計測点指定部、188 3次元距離算出部、28 撮像素子

Claims (6)

  1. 被写体を撮像して画像データを生成する撮像部と、
    前記画像データに基づく画像を表示する表示部と、
    前記画像において所定の領域、または、ユーザが指定した1つの基準点に基づく領域を、前記被写体のエッジを抽出する抽出領域として前記画像に設定する領域設定部と、
    前記抽出領域の画像に基づいて前記被写体のエッジを抽出するエッジ抽出部と、
    抽出された前記エッジを示すグラフィックを前記画像と共に前記表示部に表示させる表示制御部と、
    複数のエッジが抽出された場合に、抽出された前記複数のエッジの中から、ユーザの指示に基づいて基準エッジを選択するエッジ選択部と、
    前記画像における点に対応する3次元座標を算出する3次元座標算出部と、
    前記基準エッジを構成する複数の点に対応する3次元座標に基づいて空間上の基準線を算出する基準線算出部と、
    前記画像における計測点を指定する計測点指定部と、
    前記計測点に対応する3次元座標と前記基準線との距離を算出する距離算出部と、
    を備えることを特徴とする計測装置において、
    前記領域設定部はさらに、
    前記エッジ抽出部によって前記被写体のエッジが抽出された後に、前記画像においてユーザが指定した1つの基準点に基づいて、前記被写体のエッジを選択する領域であって、前記抽出領域よりも小さい選択領域を設定し、
    前記エッジ選択部は、前記エッジ抽出部によって複数のエッジが抽出された場合に、前記複数のエッジの中から前記選択領域と重なるエッジを選択し、ユーザの指示に基づいて、前記選択領域と重なるエッジから基準エッジを選択し、
    前記表示制御部は、前記選択領域と重なるエッジを示す線を前記画像と共に前記表示部に表示させる
    ことを特徴とする計測装置
  2. 前記領域設定部は、前記選択領域の中から前記選択領域と重なるエッジを選択できない場合に、前記選択領域と重なるエッジを選択するまで、前記選択領域を広げることを特徴とする請求項1に記載の計測装置。
  3. 前記領域設定部は、前記選択領域の中から前記選択領域と重なるエッジを選択できない場合に、前記選択領域に最も近いエッジと前記選択領域とが重なる位置まで、前記選択領域を移動させることを特徴とする請求項に記載の計測装置。
  4. 前記エッジ抽出部は、
    抽出した各エッジに関する情報が登録される基準線候補リストを生成し、
    前記エッジ選択部が前記複数のエッジの中から前記選択領域と重なるエッジを選択した場合に、前記基準線候補リストから、選択したエッジ以外の情報を消去する
    ことを特徴とする請求項1に記載の計測装置。
  5. 前記エッジ抽出部は、
    抽出した各エッジに関する情報が登録される基準線候補リストを生成し、
    前記エッジ選択部が前記複数のエッジの中から前記選択領域と重なるエッジを選択した場合に、前記基準線候補リストにおいて当該選択したエッジの情報に対して、選択対象であることを示すフラグを付与する
    ことを特徴とする請求項に記載の計測装置。
  6. 撮像部が被写体を撮像して生成した画像データに基づく画像において所定の領域、または、ユーザが指定した1つの基準点に基づく領域を、前記被写体のエッジを抽出する抽出領域として前記画像に設定するステップと、
    前記抽出領域の画像に基づいて前記被写体のエッジを抽出するステップと、
    前記画像においてユーザが指定した1つの基準点に基づいて、前記被写体のエッジを選択する領域であって、前記抽出領域よりも小さい選択領域を前記画像に設定するステップと、
    複数のエッジが抽出された場合に、前記複数のエッジの中から前記選択領域と重なるエッジを選択するステップと、
    前記選択領域と重なるエッジを示す線を前記画像と共に表示部に表示させるステップと、
    ユーザの指示に基づいて、前記選択領域と重なるエッジから基準エッジを選択するステップと、
    前記画像における点に対応する3次元座標を算出するステップと、
    前記基準エッジを構成する複数の点に対応する3次元座標に基づいて空間上の基準線を算出するステップと、
    前記画像における計測点を指定するステップと、
    前記計測点に対応する3次元座標と前記基準線との距離を算出するステップと、
    をコンピュータに実行させるためのプログラム。
JP2013009226A 2013-01-22 2013-01-22 計測装置およびプログラム Active JP6150532B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013009226A JP6150532B2 (ja) 2013-01-22 2013-01-22 計測装置およびプログラム
US14/109,592 US10019643B2 (en) 2013-01-22 2013-12-17 Measurement apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013009226A JP6150532B2 (ja) 2013-01-22 2013-01-22 計測装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2014140402A JP2014140402A (ja) 2014-08-07
JP6150532B2 true JP6150532B2 (ja) 2017-06-21

Family

ID=51207705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013009226A Active JP6150532B2 (ja) 2013-01-22 2013-01-22 計測装置およびプログラム

Country Status (2)

Country Link
US (1) US10019643B2 (ja)
JP (1) JP6150532B2 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) * 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
JP6300692B2 (ja) * 2014-09-30 2018-03-28 オリンパス株式会社 測定装置
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
WO2017009615A1 (en) * 2015-07-13 2017-01-19 Renishaw Plc Method for measuring an artefact
EP3396313B1 (en) 2015-07-15 2020-10-21 Hand Held Products, Inc. Mobile dimensioning method and device with dynamic accuracy compatible with nist standard
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
JP6380685B2 (ja) * 2015-10-01 2018-08-29 三菱電機株式会社 寸法計測装置
JP2017084975A (ja) * 2015-10-28 2017-05-18 オムロン株式会社 位置検出装置、位置検出方法、情報処理プログラム、および記録媒体
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
DE102016111960A1 (de) * 2016-06-30 2018-01-04 Karl Storz Gmbh & Co. Kg Vorrichtung für die Videoendoskopie
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
JP6804417B2 (ja) * 2017-09-26 2020-12-23 オリンパス株式会社 計測装置、計測システム、計測装置の作動方法、およびプログラム
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
US11159749B2 (en) * 2019-12-12 2021-10-26 Karl Storz Imaging, Inc. Infrared imaging system having structural data enhancement
JP7270083B2 (ja) * 2021-02-10 2023-05-09 三菱電機インフォメーションシステムズ株式会社 計測方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3771988B2 (ja) 1997-03-12 2006-05-10 オリンパス株式会社 計測内視鏡装置
JP3887807B2 (ja) * 1997-10-24 2007-02-28 株式会社ニコン 画像計測装置
JP4074020B2 (ja) * 1999-01-14 2008-04-09 株式会社キーエンス 形状測定器
JP2002230527A (ja) * 2001-01-31 2002-08-16 Olympus Optical Co Ltd 立体情報取得装置および立体情報取得方法ならびに立体情報取得プログラムを記録したコンピュータリーダブル記録媒体
JP2004049638A (ja) 2002-07-22 2004-02-19 Olympus Corp 内視鏡装置
JP4427980B2 (ja) * 2003-06-24 2010-03-10 株式会社ニコン マーク位置検出方法
US20050033123A1 (en) * 2003-07-25 2005-02-10 Siemens Medical Solutions Usa, Inc. Region of interest methods and systems for ultrasound imaging
US7376252B2 (en) * 2003-11-25 2008-05-20 Ge Medical Systems Global Technology Company, Llc User interactive method and user interface for detecting a contour of an object
JP4790223B2 (ja) * 2004-01-20 2011-10-12 オリンパス株式会社 計測用内視鏡装置
US8368749B2 (en) * 2006-03-27 2013-02-05 Ge Inspection Technologies Lp Article inspection apparatus
JP5295526B2 (ja) * 2007-01-31 2013-09-18 オリンパス株式会社 計測用内視鏡装置
JP5127302B2 (ja) 2007-05-29 2013-01-23 オリンパス株式会社 計測用内視鏡装置およびプログラム
US8200042B2 (en) * 2007-01-31 2012-06-12 Olympus Corporation Endoscope apparatus and program
JP5361246B2 (ja) * 2008-05-23 2013-12-04 オリンパス株式会社 内視鏡装置およびプログラム
JP2010179023A (ja) * 2009-02-09 2010-08-19 Fujifilm Corp 画像処理方法および装置
JP5576739B2 (ja) * 2010-08-04 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、撮像装置及びプログラム
JP5460635B2 (ja) * 2011-03-31 2014-04-02 本田技研工業株式会社 画像処理判定装置
US20130287288A1 (en) * 2012-04-25 2013-10-31 General Electric Company Method and device for determining the offset distance between two surfaces

Also Published As

Publication number Publication date
US10019643B2 (en) 2018-07-10
JP2014140402A (ja) 2014-08-07
US20140205150A1 (en) 2014-07-24

Similar Documents

Publication Publication Date Title
JP6150532B2 (ja) 計測装置およびプログラム
CN107016717B (zh) 用于患者的透视视图的系统和方法
CN101243475B (zh) 具有根据临床任务工作流程的简单点击风格交互的特征的方法和设备
US6937268B2 (en) Endoscope apparatus
US8558879B2 (en) Endoscope apparatus and measuring method
US9909854B2 (en) Image processing apparatus and image processing method
JP5530225B2 (ja) 内視鏡装置およびプログラム
JP6037683B2 (ja) 計測装置、計測装置の作動方法、およびプログラム
JP5631453B2 (ja) 画像処理装置、画像処理方法
JP2010233961A (ja) 画像処理装置、画像処理方法
JP2011158549A (ja) 内視鏡装置およびプログラム
US10964044B2 (en) Method of operating measurement device, measurement device, and recording medium
JP2012247364A (ja) ステレオカメラ装置、ステレオカメラシステム、プログラム
JP2011027997A (ja) 内視鏡装置、計測方法、およびプログラム
US8194948B2 (en) Instrumentation endoscope apparatus
US20200250823A1 (en) Three-dimensional image display method, three-dimensional image display device, and recording medium
JP2006329684A (ja) 画像計測装置及び方法
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
US20220020208A1 (en) Measurement method, measurement device, and recording medium
CN110858397A (zh) 测量装置、测量装置的工作方法以及存储介质
JP2020154234A (ja) 観察装置の作動方法、観察装置、およびプログラム
WO2013099305A1 (ja) 内視鏡画像処理装置、内視鏡画像上の位置の指定方法及び記憶媒体
JP2014147572A (ja) 内視鏡装置およびプログラム
JP5602449B2 (ja) 内視鏡装置
JP7360243B2 (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170523

R151 Written notification of patent or utility model registration

Ref document number: 6150532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250