JP3842988B2 - Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program - Google Patents

Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program Download PDF

Info

Publication number
JP3842988B2
JP3842988B2 JP2001214813A JP2001214813A JP3842988B2 JP 3842988 B2 JP3842988 B2 JP 3842988B2 JP 2001214813 A JP2001214813 A JP 2001214813A JP 2001214813 A JP2001214813 A JP 2001214813A JP 3842988 B2 JP3842988 B2 JP 3842988B2
Authority
JP
Japan
Prior art keywords
image
pair
point
images
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001214813A
Other languages
Japanese (ja)
Other versions
JP2002099902A (en
Inventor
滋 若代
Original Assignee
ペンタックス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ペンタックス株式会社 filed Critical ペンタックス株式会社
Priority to JP2001214813A priority Critical patent/JP3842988B2/en
Publication of JP2002099902A publication Critical patent/JP2002099902A/en
Application granted granted Critical
Publication of JP3842988B2 publication Critical patent/JP3842988B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、計測対象の物体を異なる2方向から撮影し、この2方向からの一対の画像に基づいてその物体の三次元情報を求める3次元情報計測処理システムおよびその方法に関する。
【0002】
【従来の技術】
従来、3次元物体の撮影画像からその物体の位置(距離)や形状など3次元情報を求める方法の一つとして、両眼立体視(ステレオ)が知られている。両眼立体視では、まず、物体を異なる2方向から撮影し、2枚の物体画像を得る。そして、異なる方向から見た2枚の画像から、物体の同一部分の像である対応点を検出する。対応点が検出されると、2台のカメラ間距離と対応点から三角測量の原理に基づいて対象物の3次元位置が求められる。両眼立体視は、例えば、写真測量の分野においても利用されており、航空写真や交通事故の事故現場の測量図作成において両眼立体視により3次元情報が計測される。
【0003】
両眼立体視において一対の画像から対応点を検出する場合、物体のある特定点の像、すなわち対応点が一対の画像の中でどの位置にあるのか誤りなく検出しなければならない。この対応点決定問題は、両眼立体視において従来から重要な技術的課題であり、様々な手法が提案されている。
【0004】
その一つして、物体の特徴的な部分の像を対応点として検出する方法があり、物体が直方体であれば、エッジや稜線などの2枚の画像から同一点の像と認識できる物体の特徴部分の像を対応点として検出する。しかしながら、対象物が円柱など表面が曲面形状を有する物体であると、エッジや稜線に対応するような特徴部が画像に存在しないため、対応付けに誤りが生じる。
【0005】
曲面形状の物体に対しても対応点を検出できる方法として、例えば、円柱形状の物体である場合、2枚の画像に映し出される物体画像の上面の輪郭線を楕円関数として算出し、その輪郭線から物体上面の中心を対応点として検出する方法がある(特公平6−29695参照)。これによれば、円柱のような曲面形状の物体に対しても、三次元位置(距離)を求めることが可能である。
【0006】
【発明が解決しようとする課題】
しかしながら、上記の方法では、得られる2枚の画像の中で円柱の上面(もしくは底面)が写し出されていないと、上面の輪郭線を求めることができない。したがって、例えばパイプなど側面部分が長く続いている物体に対しては、物体の3次元位置を計測することができない。また、円柱以外の曲面形状の物体に対して適用するのが難しい。
【0007】
そこで、本発明では、曲面形状の物体像が写された一対の画像から3次元情報を求める両眼立体視において、一対の画像から誤りなく対応点を検出し、正確な物体の3次元情報を得ることを目的とする。
【0008】
【課題を解決するための手段】
本発明の画像処理装置は、中心軸周りに回転曲面が形成された回転体である物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮影して両眼立体視により物体の三次元位置を求める装置であり、この画像処理装置は、撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、一対の画像を読み出す画像読み出し手段と、物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって一対の画像から一意に決まる少なくとも1つの対応点を、物体の中心軸の投影像に応じた一対の二等分線上において検出する対応点検出手段と、少なくとも1つの対応点に基づき、三角測量の原理を適用することによって物体の中心軸上にある少なくとも1つの測定点の三次元位置を算出する三次元情報算出手段とを備えたことを特徴とする。
【0009】
計測対象である物体が回転体である場合、すなわち中心軸周りに回転曲面が形成され、回転対称な物体である場合、物体の中心軸の仮想的な像は、一対の画像それぞれにおいて物体像を二等分する線となる。したがって、物体の3次元位置を代表して表す点として物体の中心軸上の点を測定点を定め、その測定点の仮想的な像である対応点を中心軸の像に応じた一対の二等分線上において検出することにより、同一点からの像である対応点を検出することができる。このように二等分線上において対応点を検出することにより、表面が曲面である物体に対しても両眼立体視を適用することができ、物体の三次元位置を誤りなく正確に計測できる。また、一対の二等分線上において対応点を検出するため、細長いパイプのような上面や底面を写すことができない回転体に対しても、一対の遮蔽輪郭が写っていれば対応点を検出することができる。物体は、例えば、円柱あるいは直円錐台である。
【0010】
写真測量の場合、始めに物体をカメラで撮像してから画像処理装置において物体の3次元位置を算出するため、画像記録可能な記録媒体は、携帯可能であってカメラに着脱可能に装着される補助記憶装置であるとともに、撮像素子に形成される一対の画像が補助記憶装置にデジタルの静止画像データとして記録されることが望ましい。この場合、画像読み出し手段は、補助記憶装置から一対の画像をデータとして読み出す。
【0011】
画像処理装置は、画像読み出し手段によって読み出された一対の画像を少なくとも1つの対応点が同一座標となるようにアフィン変換する平行ステレオ修正手段をさらに有していることが望ましく、2方向から物体をカメラで撮像する時にカメラの光軸方向が互いに平行とならない場合でも三角測量の原理を適用して物体の三次元位置を求めることができる。この場合、対応点検出手段は、アフィン変換された一対の画像から少なくとも1つの対応点を検出する。
【0012】
一対の画像を第1の画像および第2の画像とし、一対の二等分線を第1の画像にある第1の二等分線と第2の画像にある第2の二等分線とし、また、少なくとも1つの対応点を第1の画像にある少なくとも1つの第1像点と第2の画像にある少なくとも1つの第2像点と定めた場合、対応点検出手段は、例えば、少なくとも1つの第1像点に応じた少なくとも一本のエピポーララインを第2の画像において設定し、少なくとも一本のエピポーララインと第2の二等分線との交点となる少なくとも1つのエピポーラ交点を求め、該少なくとも1つのエピポーラ交点を少なくとも1つの第2像点と定める。
【0013】
対応点を検出するのにオペレータの操作を伴う場合、画像処理装置に映像を表示する表示装置を接続し、画像処理装置は、画像画像読み出し手段に従って読み出された一対の画像を表示装置に表示する表示手段と、表示装置に表示される一対の画像それぞれに対し、入力操作に従って一対の遮蔽輪郭それぞれの線上に指定される二対の点を指定点として定める指定点設定手段とをさらに有することが望ましい。この場合、対応点検出手段は、一対の画像それぞれの二対の指定点に基づいて少なくとも1つの対応点の位置を表示装置のスクリーン座標で検出する。
【0014】
対応点検出手段は、二対の指定点に基づいて対応点を検出する場合、例えば、一対の画像それぞれの二対の指定点に基づいて一対の二等分線を算出し、第1の画像における第1の二等分線と二対の指定点を通る2本の直線との2つの交点を求め、該2つの交点のうち少なくとも1つの交点を少なくとも1つの第1の像点と定める。
【0015】
表示装置に表示された一対の画像において対応点をスクリーン座標で検出した場合、三次元情報算出手段は、少なくとも1つの対応点の座標を表示装置のスクリーン座標から撮像素子の撮像素子座標に変換するとともに、第1の画像に応じた撮影方向でのカメラの中心を原点とした3次元座標を規定して、少なくとも1つの対応点に基づき、三角測量の原理を適用して少なくとも1つの測定点の3次元座標を算出することが望ましい。
【0016】
さらに、求められた物体の三次元位置から物体の径の長さを算出するため、画像処理装置は、物体の径の長さを算出する径算出手段をさらに有することが望ましい。この場合、対応点検出手段が2つの対応点を検出し、三次元情報算出手段が2つの測定点を算出する。径算出手段は、一対の画像の一方に画像に応じた撮影方向におけるカメラの中心を通り物体の中心軸に垂直なベクトルを法線ベクトルとする平面であって物体の中心軸が載る径算出用平面を2つの測定点に基いて算出し、径算出用平面と物体の表面上にあるとともに2つの測定点のいずれかの点と中心軸に沿った位置が一致する端点を、法線ベクトルに応じた一対の画像の一方にある一対の遮蔽輪郭上にある像であって端点の像である像点に基いて算出し、物体の径の長さを2つの測定点の一方と端点に基づいて算出する。物体と撮影地点との距離が物体の径の長さに比べて十分長い場合、一対の輪郭線上にある少なくとも1つの端点と一つの撮影地点におけるカメラの中心とを結ぶ直線は、径算出用平面と物体との交線上にあり、かつ物体の表面上にある接点と交わる。この交点と求められた少なくとも1つの測定点から、物体の径の長さを算出することができる。
【0017】
本発明の3次元情報計測方法は、中心軸周りに回転曲面が形成された回転体である物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、一対の画像を読み出す画像読み出すステップと、物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって一対の画像から一意に決まる少なくとも1つの対応点を、物体の中心軸の投影像に応じた一対の二等分線上において検出するステップと、少なくとも1つの対応点に基づき、三角測量の原理を適用することによって物体の中心軸上にある少なくとも1つの測定点の三次元位置を算出するステップとを備えたことを特徴とする。
【0018】
本発明の中心軸周りに回転曲面が形成された回転体である物体の3次元情報を計測するプログラムは、物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、一対の画像を読み出す画像読み出し、物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって一対の画像から一意に決まる少なくとも1つの対応点を、物体の中心軸の投影像に応じた一対の二等分線上において検出し、少なくとも1つの対応点に基づき、三角測量の原理を適用することによって物体の中心軸上にある少なくとも1つの測定点の三次元位置を算出することを特徴とする。このプログラムはプログラム作成に関わったコンピュータのメモリに格納されるか、あるいはCD−ROMなどの記録媒体に格納可能である。また、このプログラムをインターネットなどのネットワークによって他のコンピュータに送受信することも可能である。
【0019】
【発明の実施の形態】
以下では、図面を参照して、本発明の実施形態である写真測量システムおよび曲面形状を有する物体の三次元情報計測処理方法について説明する。
【0020】
図1は、本発明の実施形態である写真測量用のカメラと3次元情報を算出する画像処理装置およびその周辺機器を概略的に示した図である。
【0021】
まず、計測対象である物体Sをカメラ42によって異なる2方向から撮像する。このとき、物体Sの輪郭像となる遮蔽輪郭が写るように、第1撮影地点PAおよび第2撮影地点PBから物体Sが撮像される。本実施形態では、物体Sは円柱である。なお、第1および第2撮影地点PA、PBは、カメラ42の中心(レンズ中心)が位置する場所である。
【0022】
カメラ42は撮像素子の1つであるCCD41を備えたデジタルスチルカメラであり、物体Sの像はカメラ42の撮影光学系(図示せず)を介してCCD41に結像される。CCD41から物体Sの像に応じた画像信号が読み出されると、第1および第2撮影地点PA、PBにおける物体Sの画像はデジタルの静止画像データとしてメモリカード36に記録される。メモリカード36は、必要に応じてカメラ42に装着され、あるいはカメラ42から取り外される携帯可能な補助記憶装置あり、ここではフラッシュメモリなどのICカードが使用される。
【0023】
撮影が終了すると、物体Sの像が記録されたメモリカード36がカメラ42から取り出され、物体Sの像が写し出された一対の画像から物体Sの3次元情報を算出するために画像処理装置10が使用される。
【0024】
画像処理装置10には、モニタ30、キーボード32、マウス34が接続されており、メモリカード36などの画像データを記録可能な記録媒体を取り入れるカードスロット11を正面のパネルに備えている。すなわち、画像処理装置10は、パーソナルコンピュータの本体に相当する装置である。一対の画像が記録されたメモリカード36は、PCカード規格などに基づいたインターフェイスを介してカードスロット11に装着され、これにより物体Sの静止画像データが読み出される。なお、撮影時において、第1および第2撮影地点PA、PBの距離などの撮影データがあらかじめ静止画像データとともにメモリカード36に記憶されており、これら撮影データも静止画像データとともに読み出される。
【0025】
オペレータがキーボード32を操作することにより、第1および第2撮影地点PA、PBに応じた一対の物体Sの画像がモニタ30に表示される。そして、オペレータによってマウス34の操作など所定の操作が実行されると、物体Sの3次元位置情報が算出される。
【0026】
図2は、画像処理装置10およびキーボード32などの周辺機器のブロック図である。ただし、図2では、3次元情報計測に必要な構成要素のみ示す。
【0027】
システムコントロール回路12内のCPU12Aは、画像処理装置10全体を制御しており、物体Sの三次元情報を算出する処理を実行する。ROM14には、その三次元情報計測処理のためのプログラムがあらかじめ格納されている。キーボード32、マウス34、モニタ30およびカードスロット11に装着されたメモリカード36とシステムコントロール回路12との間の信号伝達は、画像処理装置10内の入出力制御部16を介して行われる。
【0028】
メモリカード36がカードスロット11に装着されると、物体Sの一対の画像データおよび撮影データがメモリカード36から読み出され、入出力制御部16、システムコントロール回路12を介してRAM18に一時的に格納される。
【0029】
モニタ30に物体Sの画像を表示するためのキーボード32の操作が行われると、RAM18に一時的に格納された静止画像データがCPU12Aによって読み出され、所定の処理が施される。そして、処理された一対の画像データが入出力制御部16を介してモニタ30に送られると、第1および第2撮影地点PA、PBから撮影された一対の画像がモニタ30に表示される。物体Sの3次元位置などの3次元情報を計測するための処理がCPU12Aによって実行され、物体Sの3次元情報が算出されると、その3次元情報はモニタ30に表示されるとともにRAM18に一時的に格納される。
【0030】
図3は、物体Sをカメラ42で撮像することによって得られる一対の画像を示した図である。図3を用いて、円柱である物体Sを計測対象としたときの対応点の検出について説明する。
【0031】
従来知られているように、両眼立体視(ステレオ)においては、物体Sの同一点からの像であって一対の画像から一意に決まる対応点を決定する必要があるが、計測対象である物体Sの表面が曲面である場合、一対の画像から対応点を誤りなく検出することが難しい。
【0032】
第1の撮影地点PAの撮像によって得られる画像を画像π1、第2の撮影地点PBにおける画像を画像π2とすると、例えば、物体Sの上面UAの周上にある点JAの像JA’は画像π1において中心軸SUに沿った輪郭像となる遮蔽輪郭MA2の線上にあり、一方、同じ上面UAの周上にある点JBの像JB’は第2の画像π2において遮蔽輪郭MB2の線上にある。物体Sにおいて点JAと点JBが同一点ではないにも関わらず、画像π1と画像π2において像JA’と像JB’はともに遮蔽輪郭MA2およびMB2の線上にある。したがって、像JA’およびJB’を対応点に決定すると、誤った物体Sの3次元情報が算出される。
【0033】
ところで、円柱である物体Sは、中心軸SUに関して回転対称な形状を有する物体である。したがって、物体Sの投影像および中心軸SUの仮想的な投影像を、画像面π1においてS1、SU1、画像π2においてS2、SU2とすると、物体像S1、S2は、中心軸の像SU1、SU2に関して線対称な像となる。具体的に画像π1を取り上げると、物体像S1において対である遮蔽輪郭MA1、MA2は中心軸の像SU1に関して線対称であり、物体像S1は中心軸の像SU1によって二等分される。
【0034】
このことは、画像π2においても同じであり、さらには円柱である物体Sをどの方向から撮影しても同じである。すなわち、任意の位置から撮影した画像に関し、中心軸SUの投影像は物体の投影像を常に2等分し、また、輪郭像である一対の遮蔽輪郭はその中心軸の像に関して線対称となる。したがって、図3に示すように、物体Sの中心軸SU上にある任意の点Cの仮想的な像C1、C2は、画像π1および画像π2においてともに中心軸の像SU1、SU2の線上にある。
【0035】
そこで、本実施形態では、この物体Sの中心軸SU上にある任意の点を対応点検出のための点とし、この点の像であって、画像π1および画像π2において中心軸の像SU1、SU2の線上にある対応点を一対の画像から一意に検出する。
【0036】
図4は、3次元情報算出処理動作を示すフローチャートである。三次元情報算出処理動作は、オペレータがキーボード32に対して所定の操作を施すことによって開始される。
【0037】
ステップ101では、メモリカード36から一対の画像データが順次読み出され、一時的にRAM18に格納される。そして、ステップ102では、撮影時において画像データとともにあらかじめ記録されたカメラ42のカメラ位置、カメラ姿勢(光軸方向)に関する撮影データが読み出される。
【0038】
ステップ103では、読み出された一対の画像データに対して、ディストーション補正および平行ステレオ修正が施される。ディストーション補正は、カメラ42の撮影光学系によって生じる歪曲収差等を考慮した画像補正である。また、平行ステレオ修正では、図3に示すような平行関係にない画像π1、π2が平行ステレオな関係となるようにアフィン変換が実行される。平行ステレオ修正が実行されると、記録された一対の画像は、第1および第2撮影地点PA、PBにおけるカメラ42が平行ステレオ関係、すなわち、第1および第2撮影地点PA、PBを結ぶベクトル(移動ベクトル)が第1および第2撮影地点PA、PBそれぞれの3次元座標のX軸方向のベクトルが一致する関係(図5参照)である時に得られる画像に変換される。ただし、この時のアフィン変換は回転のみの変換である。このようなアフィン変換により、すべての対応点は同一座標上に位置することになる。なお、ディストーション補正および平行ステレオ修正は従来公知である。
【0039】
ステップ104では、RAM18に一時的に記録された画像データに基づいて、図6に示すように、一対の画像IA、IBがモニタ30に表示される。なお、以下では、第1撮影地点PAにより記録された画像π1に対応し、モニタ30に表示される画像を第1の画像IA、第2撮影地点PBにより記録された画像π2に対応し、モニタ30に表示される画像を第2の画像IBと定める。第2の画像IBは第2撮影地点PBによる撮像画像である。モニタ30に表示される一対の画像IA、IBは、平行ステレオ修正された画像である。
【0040】
一対の画像IA、IBが表示されると、オペレータがマウス34を操作することによって、指示点Pa1〜Pd1およびPa2〜Pd2が入力される。第1の画像IAに対しては、物体Sの輪郭像となる一対の遮蔽輪郭MA1、MA2にそれぞれ任意の位置にある指示点Pa1,Pb1、Pc1、Pd1が入力され、画像IBに対しては、輪郭線である一対の遮蔽輪郭MB1、MB2にそれぞれ指示点Pa2、Pb2、Pc2、Pd2が入力される。ただし、指示点Pa1,Pc1およびPb1、Pd1はそれぞれ対になっており、指示点Pa2、Pc2およびPb2、Pd2も同様にそれぞれ対である。
【0041】
ステップ105では、後述するように、入力された指示点Pa1〜Pd1およびPa2〜Pd2に基づいて、物体Sの三次元座標位置が算出される。そして、ステップ106では、後述するように、ステップ105において算出された物体Sの三次元位置と基づいて、物体Sの半径が算出される。
【0042】
図7は、図4のステップ105のサブルーチンである。図7とともに図8、図9、図10を用いて、物体Sの三次元位置座標の算出処理について説明する。
【0043】
ステップ201では、画像IAにおいて、物体像S1の指示点Pa1、Pb1を通る直線La1が算出される(図8参照)。この直線La1は、一対の遮蔽輪郭MA1、MA2のうち輪郭線MA1を通る直線である。同じように、ステップ202では、物体像S2の指示点Pc1、Pd1を通る、すなわち輪郭線MA2を通る直線Lb1が算出される。なお、一対の画像IA、IBそれぞれにおいて、画像領域の左上隅を原点とし、X方向、Y方向の画素数がそれぞれ「W」、「H」であるスクリーン座標(X、Y)を定めており、直線La1などはスクリーン座標(X、Y)に従って算出される。ステップ202が実行されると、ステップ203に進む。
【0044】
ステップ203では、指示点Pa1と指示点Pc1とを結ぶ直線Q1が算出される(図8参照)。同様に、ステップ204では、指示点Pb1と指示点Pd1とを結ぶ直線Q2が算出される。ステップ204が実行されると、ステップ205に進む。
【0045】
ステップ205では、直線La1と直線Lb1に基づいて二等分線Le1が求められる。二等分線Le1は、物体像S1を二等分する線であり、図3に示した物体Sの中心軸SUの投影像に対応する。直線La1と直線Lb1は、二等分線Le1に平行であるとともに、二等分線Le1に関して線対称な関係にある。ステップ205が実行されると、ステップ206に進む。
【0046】
ステップ206では、図9に示すように、画像IBにおいて指示点Pa2、Pb2を通る直線La2が算出され、ステップ207では、指示点Pc2、Pd2を通る直線Lb2が算出される。直線La2、Lb2は、画像IBにおいて物体像S2の一対の遮蔽輪郭MB1、MB2を通る直線である。そして、ステップ208では、直線La2と直線Lb2に基づいて物体像S2を二等分する二等分線Le2が求められる。二等分線Le2も、二等分線Le1と同じように物体Sの中心軸SUの投影像に相当する。ステップ208が実行されると、ステップ209に進む。
【0047】
ステップ209では、図10に示すように、第1の画像IAにおいて直線Le1と直線Q1との交点Pe1の座標(Xa1、Ya1)が求められる。また、ステップ210では、直線Le1と直線Q2との交点Pf1(Xb1、Yb1)が求められる。そして、ステップ211では、第2の画像IBにおいて交点Pe1に応じたエピポーララインEP1が設定され、エピポーララインEP1と二等分線Le2との交点Pe2の座標(Xa2、Ya2)が求められる。交点Pe2は、算出された交点Pe1とともに対応点を構成する点であり、交点Pe1、Pe2は同一点の像である。なお、モニタ30に表示される一対の画像IA、IBが平行ステレオ修正された画像であることから、エピポーララインEP1はX軸に平行で交点Pe1のY座標「Ya1」を通る直線となる。
【0048】
同様に、ステップ212では、画像IA内の交点Pf1のY座標「Yb1」とY座標が等しいエピポーララインEP2が画像IBにおいて設定され、二等分線Le2とエピポーララインEP2との交点Pf2の位置座標(Xb2、Yb2)が算出される。交点Pf1、Pf2は、交点Pe1、Pe2と異なるもう1つの対応点である。対応点Pe1、Pe2および対応点Pf1、Pf2が一対の画像IA、IBからそれぞれ算出されると、ステップ213に進む。
【0049】
ステップ213では、三角測量の原理を適用して物体Sの3次元位置を求めるために座標変換が施される。具体的には、まず、モニタ30のスクリーン座標(X、Y)からカメラ42の第1および第2撮影地点PA、PBそれぞれのCCD41の画像形成面において規定されるCCD座標(u、v)に変換される。この変換では、原点位置合わせのための平行移動や縦横のスケール変換処理が施され、これにより、対応点Pe1、Pe2および対応点Pf1、Pf2は、モニタ30における画素単位のスクリーン座標(Xa1、Ya1)(Xa2、Ya2)および(Xb1、Yb1)(Xb2、Yb2)からCCD41の画像形成面における位置座標(ua1、va1)(ua2、va2)および(ub1、vb1)(ub2、vb2)で表される。CCD座標への変換は次式によって行われる。
【0050】
【数式1】

Figure 0003842988
【0051】
(1)式において、「PitchX」は、CCD41の横方向サイズと画像IA(IB)の画素単位の横方向サイズ(=W)との比を表し、「PitchY」は、CCD41の縦方向サイズと画像IA(IB)の画素単位の縦方向サイズ(=H)との比を表す。また、「F」は、カメラ42の焦点距離を示す。CCD座標(u,v)は、カメラ42の撮影光学系の光軸とCCD41の画像形成面の中心を原点とする座標系であり、mm単位で表される座標系であるが、(1)式で示すようにカメラ42の焦点距離F(mm)に関する奥行き方向の座標も考慮されている。他方の対応点Pf1、Pf2についても、(1)式により座標変換が施される。
【0052】
ステップ214では、ステップ213で求められた対応点Pe1、Pe2のCCD座標(ua1、va1)(ua2、va2)と、第1および第2撮影地点PA、PB間の距離とに基づき、物体Sの中心軸U上の点であってその像が対応点となる測定点P1の位置が(2)式により算出される。ただし、(2)式において、「C」は第1および第2撮影地点PA、PB間の距離を表し、撮影データとしてメモリカード36にあらかじめ記録されている。
【0053】
【数式2】
Figure 0003842988
【0054】
(2)式は、いわゆる三角測量の原理に基づく式であり、第1撮影地点PAでのカメラ42の中心を原点とするカメラ座標系を3次元座標(x、y、z)として定めると、測定点P1の位置(x1、y1、z1)がその3次元座標で算出される。測定点P1のz座標は、第1および第2撮影地点PA、PBから物体Sまでの奥行きを表す。同様に、ステップ215では、対応点Pe2、Pf2に応じた物体Sの中心軸SU上にある測定点P2の位置(x2、y2、z2)が(2)式により求められる。測定点P1、P2の3次元座標は、モニタ30に表示されるとともに、RAM18に一時的にデータとして格納される。ステップ215が実行されると、このサブルーチンは終了し、図4のメインルーチンに戻る。
【0055】
なお、ステップ201〜215の実行において、算出された点や直線などのデータは算出される度にRAM18に格納され、必要に応じて読み出される。
【0056】
図11は、図4のステップ106のサブルーチンである。図11とともに図12〜15を用いて、円柱Sの半径の算出処理について説明する。
【0057】
ステップ301では、図7のステップ214、215で求められ、RAM18に格納された物体Sの中心軸SU上にある測定点P1、P2の座標(x1、y1、z1)、(x2、y2、z2)に基づいて、中心軸SUを3次元座標で表した直線lが算出される。直線lの方程式は、次の(3)式で表される。
【0058】
【数式3】
Figure 0003842988
【0059】
そして、図12に示すように、測定点P1、P2および直線lに基づき、第1撮影地点PAにおけるカメラ42の中心、すなわち3次元座標の原点Oから直線lへ垂直に延ばした線のベクトルV(e、f、g)が求められる。ただし、ベクトルVは、(3)式および直線lとベクトルVとの直交関係を示す次の(4)式に基づいて算出される。ベクトルVが求められると、ステップ302へ進む。
【0060】
【数式4】
Figure 0003842988
【0061】
ステップ302では、直線l(中心軸SU)を通り、ベクトルV(e、f、g)を法線ベクトルとする平面Rが算出される(図12参照)。次の(5)式は、平面Rを表した式である。
【数式5】
Figure 0003842988
平面Rが算出されると、ステップ303に移る。
【0062】
ここで、図13を用いて、平面Rと交差する物体Sの表面上にある点と、第1撮影地点PAにおける物体像S1の一対の輪郭MA1、MA2上にある点との関係について説明する。ただし、ここでは、法線ベクトルVの向きは第1撮影地点PAにおけるカメラ42の中心を3次元座標の原点Oとしたときのz方向と一致するものとする。また、モニタ30に表示される画像IAにおいて輪郭線MA1上の点を境界点T1と定め、CCD41の画像形成面において境界点T1に応じた位置にある像点T1’と原点Oを通る直線Nを設定する。ただし、第1および第2撮影地点PA、PBから物体Sまでの距離が物体Sの径の大きさ(奥行き方向の長さ)に比べて十分長いものとする。
【0063】
CCD41の画像形成面に形成される画像に関しては、原点Oと円柱Sとの距離Mが円柱Sの径の大きさに比べて十分長い場合、いわゆる弱中心射影を適用することができる。弱中心射影は正射影と中心射影を組み合わせた射影であり、物体Sは、平面τに正射影された後原点Oに向けて中心射影される。平面τへの正射影は、第1撮影地点PAにおけるカメラ42の光軸方向、すなわち法線ベクトルV方向に沿って射影されるため、平面Rと平面τは平行関係にある。
【0064】
物体Sの表面と平面Rとの交差する直線上にある点を端点Tと定め、端点Tの平面τにおける像をT’とすると、直線Nは平面τの像T’を通る。弱中心射影が適用されていることを考慮すれば、直線Nは物体Sの端点Tを通る直線とみなすことができる(直線N’参照)。したがって、物体Sの端点Tの中心軸SU方向(3次元座標のy方向)に沿った位置座標が測定点P1あるいはP2の位置と等しければ、直線Nを算出し、端点Tの3次元位置座標を算出することによって円柱Sの半径が求められる。
【0065】
そこでまず、ステップ303では、図14に示すように、画像IAにおいて二等分線Le1と垂直で交点Pe1を通る直線Lg1が算出され、ステップ304では、直線Le1と垂直で点Pf1を通る直線Lh1が算出される。そして、ステップ305では、直線Lg1と直線La1との交点が境界点Pg1として求められ、ステップ306では、直線Lh1と直線La1との交点が境界点Ph1とし求められる。
【0066】
ステップ307では、交点Pg1、Ph1に対して座標変換が施される。すなわち、図7のステップ213と同じように、スクリーン座標(X、Y)からCCD座標(u、v、F)に変換される。ステップ308では、CCD41の画像形成面にある境界点Pg1に応じた像点P’g1と原点Oとを通る直線LAが3次元座標に基づいて算出される。同様に、ステップ309では、CCD41の画像形成面にある境界点Ph1に応じた像点P’h1と中心Oとを通る直線LBが算出される。直線LA、直線LBは、図13の直線N(N’)に相当する。直線LA、LBが求められると、ステップ310に進む。
【0067】
ステップ310では、直線LAと物体Sとの交点であって平面R上にある端点PCの3次元座標が算出される。ただし、端点PCは、平面Rを示す(5)式と直線LAの式に基づいて算出される。同様に、ステップ311では、(5)式と直線LBに基づいて直線LBと平面Rとの交点である端点PDが算出される。端点PC、PDは、図13の端点Tに相当し、中心軸SU上に沿ったy方向の位置座標は、測定点P1およびP2に等しい。
【0068】
ステップ312では、端点PCと先に求められた中心軸SU(直線l)上にある測定点P1との距離r1が算出される。この距離r1が物体Sの半径となる。同じように、ステップ313では、端点PDと測定点PBとの距離r2が算出される。物体Sが円柱であるため、距離r1と距離r2は等しい。ステップ313が実行されると、このサブルーチンは終了する。
【0069】
このように本実施形態によれば、カメラ42によって第1および第2撮影地点PA、PBから円柱である物体Sを撮影することにより、異なるから撮影された一対の画像がメモリカード36に記録され、その後画像処理装置10において読み出される。読み出されたモニタ30に表示された一対の画像IA、IBに対してオペレータが操作することにより、一対の画像IA、IBそれぞれの一対の遮蔽輪郭MA1、MA2およびMB1、MB2の上に指示点Pa1〜Pd1およびPa2〜Pd2が設定される。そして、この設定された指示点Pa1〜Pd1およびPa2〜Pd2に基づいて、2つの対応点Pe1、Pe2およびPf1、Pf2を一対の二等分線Le1、Le2の線上において検出する。
【0070】
表面が曲面である物体Sの中心軸SUの投影像が一対の画像IA、IBにおいて物体Sの投影像S1、S2を2等分する一対の二等分線Le1、Le2に対応するため、一対の二等分線Le1、Le2上において検出される対応点は、物体Sの中心軸SU上にある同一点からの像となる。このように、本来写らない中心軸SUの像を考慮することにより、正確に物体Sの3次元位置を求めることができる。
【0071】
このような対応点検出処理によれば、図15に示すように、円柱Sの上面、底面の輪郭が一対の画像IA、IBに写っていなくても3次元位置を測定することができ、長さのある円柱形状の物体でも両眼立体視できる。
【0072】
物体Sと第1および第2撮影地点PA、PBとの距離が物体Sの径(半径r)に比べて十分長い場合には弱中心射影モデルが適用できることから、物体Sの測定点P1、P2と、平面Rと物体Sの表面の交線上にある端点PC、PDに基づいて物体Sの半径rが算出される。
【0073】
なお、物体Sの半径rを求めず、物体Sの3次元位置のみ測定する場合、1つの対応点Pe1、Pe2(あるいはPf1、Pf2)のみ算出し、測定点P1(あるいはP2)の3次元位置のみ算出すればよい。また、物体Sの半径r1(あるいはr2)のみ算出する場合、境界点Pg1(あるいはPh1)に応じた端点PC(あるいはPD)のみ求めればよい。また、一対の画像IA、IBから対応点Pe1、Pe2を検出する場合、エピポーララインを画像IBに設定せず、スクリーン座標(X、Y)でY座標が交点Pe1と等しい二等分線Le2上の点を交点Pe2としてもよい。
【0074】
物体Sの半径rを算出する時に弱中心射影モデルを適用しているが、擬似中心射影モデルを適用して半径rを算出してもよい。
【0075】
本実施形態では、表面に曲面が形成されている物体として円柱である物体Sが適用されているが、円柱以外の曲面形状の物体に対しても両眼立体視により3次元位置を測定することができる。例えば、図16に示すように、中心軸ES周りに回転対称な直円錐台Eが計測対象であってもよい。この場合、直線Q1、Q2において指定点Pa1、Pc1の中点と指定点Pb1、Pd1の中点とを通る直線を二等分線Le1とし、交点Pe1を算出すればよい。画像IBにおいても、指定点Pa2、Pc2の中点と指定点Pb2、Pd2の中点とを通る直線を二等分線Le2を求めればよい。また、平行ステレオ修正をせずに対応点を求めてもよい。
【0076】
さらに、図17に示すように、物体Sは、円柱、直円錐台だけでなく直円錐、球体などを含む、中心軸RS周りに回転曲面が形成された回転体ROであればよい。ただし、回転体ROは、中心軸RS周りに回転対称な物体であり、中心軸RSに垂直な任意の断面は円になる。回転体ROの場合でも、直線Q1、Q2において指定点Pa1、Pc1の中点と指定点Pb1、Pd1の中点とを通る直線を二等分線Le1とし、指定点Pa2、Pc2の中点と指定点Pb2、Pd2の中点とを通る直線を二等分線Le2とする。これにより、対応点Pe1、Pe2およびPf1、Pf2が算出される。
【0077】
本実施形態では、写真測量において両眼立体視を利用しているが、それ以外の分野、例えばコンピュータビジョンなどの自動形状復元処理においても利用可能である。この場合、画像処理装置10に2台のカメラを接続して異なる方向から同時撮影し、一度メモリに記録された一対の画像データから物体の3次元位置を測定する処理システムを構成する。また、オペレータの操作を伴わないで自動的に画像処理装置10が交点Pe1、Pe2を検出する処理システムを構成してもよい。この場合、一対の画像IA、IBはモニタ30に表示されることなく、自動的に一対の遮蔽輪郭MA1、MA2およびMB1、MB2がエッジ追跡などの線検出処理によって検出され、対応点Pe1、Pe2が求められる。
【0078】
【発明の効果】
以上のように本発明によれば、曲面形状の物体像が写された一対の画像から3次元情報を求める両眼立体視において、一対の画像から誤りなく対応点を検出し、正確な物体の3次元情報を得ることができる。
【図面の簡単な説明】
【図1】写真測量用のカメラと本実施形態である画像処理装置およびその周辺機器を示した図である。
【図2】画像処置装置のブロック図である。
【図3】円柱である物体の2方向からの投影像を示した図である。
【図4】3次元情報算出処理動作を示したフローチャートである。
【図5】平行ステレオ関係を示した図である。
【図6】モニタに表示される一対の画像を示した図である。
【図7】物体の3次元位置算出処理動作を示した図4のステップ105のサブルーチンである。
【図8】二等分線を求める時の一対の画像のうちの一方の画像を示した図である。
【図9】二等分線を求める時の一対の画像のうちの他方の画像を示した図である。
【図10】対応点を求める際の一対の画像を示した図である。
【図11】物体の半径を求める径算出処理動作を示した図4のステップ106のサブルーチンである。
【図12】物体と原点を通るベクトルを法線ベクトルとする平面とを示した図である。
【図13】弱中心射影モデルにおける物体の投影像を示した図である。
【図14】一対の画像のうちの一方の画像を示した図である。
【図15】一対の遮蔽輪郭のみ写る一対の画像を示した図である。
【図16】直円錐台およびその投影像となる一対の画像を示した図である。
【図17】回転体およびその投影像となる一対の画像を示した図である。
【符号の説明】
10 画像処理装置
12A CPU
14 ROM(記録媒体)
18 RAM(画像記録可能な記録媒体)
30 モニタ(表示装置)
36 メモリカード(補助記憶装置、画像記録可能な記録媒体)
41 CCD(撮像素子)
42 カメラ
IA,IB 一対の画像
IA 第1の画像
π1 第1の画像
IB 第2の画像
π2 第2の画像
Le1,Le2 二等分線(一対の二等分線)
Le1 二等分線(第1の二等分線)
Le2 二等分線(第2の二等分線)
MA1,MA2 一対の遮蔽輪郭
MB1,MB2 一対の遮蔽輪郭
Pe1,Pe2 対応点(少なくとも1つの対応点)
Pe1 交点(少なくとも1つの第1の像点)
Pe2 交点(少なくとも1つの第2の像点)
Pf1,Pf2 対応点(少なくとも1つの対応点)
Pf1 交点(少なくとも1つの第1の像点)
Pf2 交点(少なくとも1つの第2の像点)
EP1 エピポーラライン(少なくとも一本のエピポーラライン)
EP2 エピポーラライン(少なくとも一本のエピポーラライン)
Pa1,Pc1、Pb1,Pd1 指定点(二対の指定点)
Pa2,Pc2、Pb2,Pd2 指定点(二対の指定点)
PA 第1撮影地点
PB 第2撮影地点
PC 端点(少なくとも1つの端点)
PD 端点(少なくとも1つの端点)
R 平面(径算出用平面)
r 半径(径の長さ)
S 物体
SU 中心軸
V 法線ベクトル[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional information measurement processing system and method for photographing a measurement target object from two different directions and obtaining three-dimensional information of the object based on a pair of images from the two directions.
[0002]
[Prior art]
Conventionally, binocular stereoscopic vision (stereo) is known as one of methods for obtaining three-dimensional information such as the position (distance) and shape of an object from a photographed image of the three-dimensional object. In binocular stereoscopic vision, first, an object is photographed from two different directions to obtain two object images. Then, corresponding points that are images of the same part of the object are detected from the two images viewed from different directions. When the corresponding point is detected, the three-dimensional position of the object is obtained from the distance between the two cameras and the corresponding point based on the principle of triangulation. Binocular stereoscopic vision is also used, for example, in the field of photogrammetry, and three-dimensional information is measured by binocular stereoscopic vision in creating a survey map of an aerial photograph or an accident site of a traffic accident.
[0003]
When a corresponding point is detected from a pair of images in binocular stereoscopic vision, an image of a specific point of the object, that is, where the corresponding point is in the pair of images must be detected without error. This corresponding point determination problem has been an important technical problem in binocular stereoscopic vision, and various methods have been proposed.
[0004]
As one of the methods, there is a method of detecting an image of a characteristic part of an object as a corresponding point. If the object is a rectangular parallelepiped, an object that can be recognized as an image of the same point from two images such as edges and ridge lines. An image of a characteristic part is detected as a corresponding point. However, if the target object is an object having a curved surface such as a cylinder, there is no feature in the image corresponding to an edge or a ridge line, and an error occurs in association.
[0005]
As a method for detecting corresponding points even for a curved object, for example, in the case of a cylindrical object, the contour line of the upper surface of the object image displayed in two images is calculated as an elliptic function, and the contour line is calculated. There is a method of detecting the center of the upper surface of the object as a corresponding point. According to this, it is possible to obtain a three-dimensional position (distance) even for a curved object such as a cylinder.
[0006]
[Problems to be solved by the invention]
However, in the above method, the contour of the upper surface cannot be obtained unless the upper surface (or the bottom surface) of the cylinder is projected in the two obtained images. Therefore, the three-dimensional position of the object cannot be measured for an object such as a pipe having a long side surface portion. In addition, it is difficult to apply to curved objects other than cylinders.
[0007]
Therefore, in the present invention, in binocular stereoscopic vision for obtaining three-dimensional information from a pair of images in which curved object images are captured, corresponding points are detected without error from the pair of images, and accurate three-dimensional information of the object is obtained. The purpose is to obtain.
[0008]
[Means for Solving the Problems]
The image processing apparatus according to the present invention shoots an object that is a rotating body having a rotating curved surface around a central axis from two different directions so that a pair of shielding contours that are contour images along the central axis are captured. An apparatus for obtaining a three-dimensional position of an object by stereoscopic viewing, and this image processing apparatus includes a pair of images recorded from a recording medium on which a pair of images obtained by imaging with a camera having an image sensor is recorded. Image reading means for reading an image, and at least one corresponding point that is an image of at least one measurement point that represents a three-dimensional position to be obtained of the object and is uniquely determined from a pair of images, according to the projected image of the central axis of the object Corresponding point detecting means for detecting on a pair of bisectors and at least one corresponding point on the central axis of the object by applying the principle of triangulation based on at least one corresponding point Characterized in that a three-dimensional information computing means for calculating the three-dimensional position of the fixed point.
[0009]
When the object to be measured is a rotating body, that is, when a rotating curved surface is formed around the central axis and the object is rotationally symmetric, the virtual image of the central axis of the object is the object image in each of the pair of images. It becomes a line that bisects. Accordingly, a measurement point is defined as a point on the central axis of the object as a point representing the three-dimensional position of the object, and a corresponding point that is a virtual image of the measurement point is defined as a pair of two points corresponding to the central axis image. By detecting on the equipartition line, it is possible to detect corresponding points that are images from the same point. By detecting corresponding points on the bisector in this way, binocular stereoscopic vision can be applied even to an object whose surface is a curved surface, and the three-dimensional position of the object can be accurately measured without error. In addition, since corresponding points are detected on a pair of bisectors, corresponding points are detected if a pair of shielding contours are captured even for a rotating body such as an elongated pipe that cannot capture the top and bottom surfaces. be able to. The object is, for example, a cylinder or a right truncated cone.
[0010]
In the case of photogrammetry, since an object is first imaged with a camera and then the three-dimensional position of the object is calculated in the image processing apparatus, the image-recordable recording medium is portable and detachably attached to the camera. In addition to being an auxiliary storage device, it is desirable that a pair of images formed on the image sensor be recorded as digital still image data in the auxiliary storage device. In this case, the image reading unit reads a pair of images as data from the auxiliary storage device.
[0011]
The image processing apparatus preferably further includes parallel stereo correction means for affine transforming the pair of images read by the image reading means so that at least one corresponding point has the same coordinate, and the object is viewed from two directions. Even when the optical axis directions of the cameras are not parallel to each other when the image is captured by the camera, the three-dimensional position of the object can be obtained by applying the principle of triangulation. In this case, the corresponding point detection means detects at least one corresponding point from the pair of images subjected to affine transformation.
[0012]
A pair of images is a first image and a second image, and a pair of bisectors is a first bisector in the first image and a second bisector in the second image. When at least one corresponding point is defined as at least one first image point in the first image and at least one second image point in the second image, the corresponding point detection means includes, for example, at least At least one epipolar line corresponding to one first image point is set in the second image, and at least one epipolar intersection serving as an intersection of at least one epipolar line and the second bisector is obtained. The at least one epipolar intersection is defined as at least one second image point.
[0013]
When an operator operation is required to detect the corresponding point, a display device that displays video is connected to the image processing device, and the image processing device displays a pair of images read according to the image image reading means on the display device. And a designated point setting means for defining, as designated points, two pairs of points designated on the respective lines of the pair of shielding contours for each of the pair of images displayed on the display device according to the input operation. Is desirable. In this case, the corresponding point detection means detects the position of at least one corresponding point using the screen coordinates of the display device based on the two pairs of designated points of each of the pair of images.
[0014]
When detecting the corresponding points based on the two pairs of designated points, the corresponding point detecting means calculates, for example, a pair of bisectors based on the two pairs of designated points of each of the pair of images, and the first image Two intersections between the first bisector and two straight lines passing through two pairs of designated points are determined, and at least one of the two intersections is defined as at least one first image point.
[0015]
When the corresponding point is detected by the screen coordinates in the pair of images displayed on the display device, the three-dimensional information calculation unit converts the coordinates of at least one corresponding point from the screen coordinates of the display device to the image pickup device coordinates of the image pickup device. In addition, three-dimensional coordinates with the origin of the camera center in the shooting direction according to the first image are defined, and the principle of triangulation is applied on the basis of at least one corresponding point. It is desirable to calculate three-dimensional coordinates.
[0016]
Furthermore, in order to calculate the length of the diameter of the object from the obtained three-dimensional position of the object, it is desirable that the image processing apparatus further includes a diameter calculation unit that calculates the length of the diameter of the object. In this case, the corresponding point detection means detects two corresponding points, and the three-dimensional information calculation means calculates two measurement points. The diameter calculation means is for calculating a diameter on which one of a pair of images is a plane having a normal vector passing through the center of the camera in the shooting direction corresponding to the image and perpendicular to the center axis of the object, and the center axis of the object is placed on the plane. A plane is calculated based on two measurement points, and an end point that is on the diameter calculation plane and the surface of the object and coincides with one of the two measurement points along the central axis is defined as a normal vector. Based on an image point that is an image of an end point image on a pair of shielding contours in one of the corresponding pair of images, the length of the diameter of the object is calculated based on one of the two measurement points and the end point To calculate. When the distance between the object and the shooting point is sufficiently longer than the length of the diameter of the object, a straight line connecting at least one end point on the pair of contour lines and the center of the camera at one shooting point is a diameter calculation plane. Intersects the contact point on the surface of the object. From this intersection and at least one obtained measurement point, the length of the diameter of the object can be calculated.
[0017]
The three-dimensional information measuring method of the present invention is an image sensor from two different directions so that a pair of shielding contours as contour images along the central axis can be seen in an object that is a rotating body having a rotational curved surface formed around the central axis. An image reading step for reading a pair of images from a recordable recording medium on which a pair of images obtained by imaging with a camera is recorded, and at least one measurement point representing a three-dimensional position to be obtained of the object Detecting at least one corresponding point uniquely determined from the pair of images on a pair of bisectors corresponding to the projected image of the central axis of the object, and triangulation based on the at least one corresponding point And a step of calculating a three-dimensional position of at least one measurement point on the central axis of the object by applying the above principle.
[0018]
The program for measuring the three-dimensional information of an object, which is a rotating body having a rotating curved surface around the central axis of the present invention, is different so that a pair of shielding contours that are contour images along the central axis are captured. Image readout for reading out a pair of images from an image recordable recording medium on which a pair of images obtained by imaging with a camera having an image sensor from the direction is recorded, and at least one measurement representing a three-dimensional position to be obtained of the object At least one corresponding point that is an image of a point and is uniquely determined from a pair of images is detected on a pair of bisectors corresponding to the projected image of the central axis of the object, and triangulation is performed based on the at least one corresponding point The three-dimensional position of at least one measurement point on the central axis of the object is calculated by applying the above principle. This program can be stored in the memory of a computer involved in program creation or can be stored in a recording medium such as a CD-ROM. It is also possible to send and receive this program to other computers via a network such as the Internet.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, with reference to the drawings, a photogrammetry system and a three-dimensional information measurement processing method for an object having a curved surface according to an embodiment of the present invention will be described.
[0020]
FIG. 1 is a diagram schematically showing a photogrammetry camera, an image processing apparatus for calculating three-dimensional information, and peripheral devices thereof according to an embodiment of the present invention.
[0021]
First, the object S to be measured is imaged from two different directions by the camera 42. At this time, the object S is imaged from the first shooting point PA and the second shooting point PB so that the shielding contour that is the contour image of the object S is captured. In the present embodiment, the object S is a cylinder. The first and second photographing points PA and PB are places where the center (lens center) of the camera 42 is located.
[0022]
The camera 42 is a digital still camera including a CCD 41 which is one of image pickup devices, and an image of the object S is formed on the CCD 41 via a photographing optical system (not shown) of the camera 42. When an image signal corresponding to the image of the object S is read from the CCD 41, the image of the object S at the first and second shooting points PA and PB is recorded on the memory card 36 as digital still image data. The memory card 36 is a portable auxiliary storage device that is attached to or removed from the camera 42 as necessary, and here, an IC card such as a flash memory is used.
[0023]
When shooting is completed, the memory card 36 on which the image of the object S is recorded is taken out of the camera 42, and the image processing apparatus 10 calculates the three-dimensional information of the object S from a pair of images on which the image of the object S is projected. Is used.
[0024]
A monitor 30, a keyboard 32, and a mouse 34 are connected to the image processing apparatus 10, and a card slot 11 into which a recording medium capable of recording image data, such as a memory card 36, is provided on the front panel. That is, the image processing apparatus 10 is an apparatus corresponding to the main body of the personal computer. The memory card 36 on which a pair of images are recorded is inserted into the card slot 11 via an interface based on the PC card standard or the like, whereby the still image data of the object S is read out. At the time of shooting, shooting data such as the distance between the first and second shooting points PA and PB is stored in advance in the memory card 36 together with still image data, and these shooting data are also read together with the still image data.
[0025]
When the operator operates the keyboard 32, an image of the pair of objects S corresponding to the first and second shooting points PA and PB is displayed on the monitor 30. Then, when a predetermined operation such as an operation of the mouse 34 is executed by the operator, the three-dimensional position information of the object S is calculated.
[0026]
FIG. 2 is a block diagram of peripheral devices such as the image processing apparatus 10 and the keyboard 32. However, FIG. 2 shows only components necessary for three-dimensional information measurement.
[0027]
The CPU 12A in the system control circuit 12 controls the entire image processing apparatus 10 and executes processing for calculating three-dimensional information of the object S. The ROM 14 stores a program for the three-dimensional information measurement process in advance. Signal transmission between the keyboard 32, the mouse 34, the monitor 30, and the memory card 36 mounted in the card slot 11 and the system control circuit 12 is performed via the input / output control unit 16 in the image processing apparatus 10.
[0028]
When the memory card 36 is inserted into the card slot 11, a pair of image data and shooting data of the object S is read from the memory card 36 and temporarily stored in the RAM 18 via the input / output control unit 16 and the system control circuit 12. Stored.
[0029]
When the operation of the keyboard 32 for displaying the image of the object S on the monitor 30 is performed, the still image data temporarily stored in the RAM 18 is read by the CPU 12A and subjected to predetermined processing. When the processed pair of image data is sent to the monitor 30 via the input / output control unit 16, the pair of images photographed from the first and second photographing points PA and PB are displayed on the monitor 30. When processing for measuring three-dimensional information such as the three-dimensional position of the object S is executed by the CPU 12A and the three-dimensional information of the object S is calculated, the three-dimensional information is displayed on the monitor 30 and temporarily stored in the RAM 18. Stored.
[0030]
FIG. 3 is a diagram showing a pair of images obtained by imaging the object S with the camera 42. With reference to FIG. 3, detection of corresponding points when an object S that is a cylinder is a measurement target will be described.
[0031]
As is conventionally known, in binocular stereoscopic vision (stereo), it is necessary to determine a corresponding point that is an image from the same point of the object S and is uniquely determined from a pair of images. When the surface of the object S is a curved surface, it is difficult to detect corresponding points without error from a pair of images.
[0032]
Assuming that an image obtained by imaging the first shooting point PA is an image π1, and an image at the second shooting point PB is an image π2, for example, an image JA ′ of a point JA on the circumference of the upper surface UA of the object S is an image The image JB ′ of the point JB on the circumference of the same upper surface UA is on the line of the shielding contour MB2 in the second image π2 while it is on the line of the shielding contour MA2 that becomes the contour image along the central axis SU at π1. . Although the point JA and the point JB in the object S are not the same point, the image JA ′ and the image JB ′ are both on the lines of the shielding contours MA2 and MB2 in the images π1 and π2. Therefore, when the images JA ′ and JB ′ are determined as corresponding points, the three-dimensional information of the wrong object S is calculated.
[0033]
By the way, the cylindrical object S is an object having a rotationally symmetric shape with respect to the central axis SU. Therefore, if the projected image of the object S and the virtual projected image of the central axis SU are S1 and SU1 in the image plane π1, and S2 and SU2 in the image π2, the object images S1 and S2 are images of the central axes SU1 and SU2. A line-symmetric image with respect to. When the image π1 is specifically taken up, the shielding contours MA1 and MA2 that are paired in the object image S1 are line-symmetric with respect to the image SU1 of the central axis, and the object image S1 is bisected by the image SU1 of the central axis.
[0034]
This is the same in the image π2, and the same is true no matter which direction the object S that is a cylinder is photographed. That is, with respect to an image taken from an arbitrary position, the projected image of the central axis SU always bisects the projected image of the object, and the pair of shielding contours that are contour images are axisymmetric with respect to the image of the central axis. . Therefore, as shown in FIG. 3, virtual images C1 and C2 of an arbitrary point C on the central axis SU of the object S are on the lines of the central axis images SU1 and SU2 in the images π1 and π2. .
[0035]
Therefore, in the present embodiment, an arbitrary point on the central axis SU of the object S is used as a point for detecting a corresponding point, and this point is an image of the central axis SU1 in the images π1 and π2. Corresponding points on the line of SU2 are uniquely detected from a pair of images.
[0036]
FIG. 4 is a flowchart showing the three-dimensional information calculation processing operation. The three-dimensional information calculation processing operation is started when the operator performs a predetermined operation on the keyboard 32.
[0037]
In step 101, a pair of image data is sequentially read from the memory card 36 and temporarily stored in the RAM 18. In step 102, photographing data relating to the camera position and camera posture (optical axis direction) of the camera 42 recorded in advance together with the image data at the time of photographing is read out.
[0038]
In step 103, distortion correction and parallel stereo correction are performed on the read pair of image data. The distortion correction is an image correction in consideration of distortion aberration and the like caused by the photographing optical system of the camera 42. In parallel stereo correction, affine transformation is performed so that the images π1 and π2 that are not parallel as shown in FIG. 3 have a parallel stereo relationship. When the parallel stereo correction is performed, the recorded pair of images includes a parallel stereo relationship between the cameras 42 at the first and second shooting points PA and PB, that is, a vector connecting the first and second shooting points PA and PB. The (moving vector) is converted into an image obtained when the vectors in the X-axis direction of the three-dimensional coordinates of the first and second imaging points PA and PB coincide (see FIG. 5). However, the affine transformation at this time is a rotation-only transformation. By such affine transformation, all corresponding points are located on the same coordinate. Distortion correction and parallel stereo correction are conventionally known.
[0039]
In step 104, a pair of images IA and IB are displayed on the monitor 30 based on the image data temporarily recorded in the RAM 18, as shown in FIG. In the following, the image displayed on the monitor 30 corresponds to the image π1 recorded at the first shooting point PA, and the image π2 recorded at the first image IA and the second shooting point PB corresponds to the image π1. The image displayed at 30 is defined as a second image IB. The second image IB is a captured image at the second shooting point PB. The pair of images IA and IB displayed on the monitor 30 are parallel stereo corrected images.
[0040]
When the pair of images IA and IB are displayed, the operator operates the mouse 34 to input the instruction points Pa1 to Pd1 and Pa2 to Pd2. For the first image IA, pointing points Pa1, Pb1, Pc1, and Pd1 at arbitrary positions are respectively input to the pair of shielding contours MA1 and MA2 that are contour images of the object S, and for the image IB The designated points Pa2, Pb2, Pc2, and Pd2 are input to the pair of shielding contours MB1 and MB2, which are contour lines, respectively. However, the designated points Pa1, Pc1, and Pb1, Pd1 are each paired, and the designated points Pa2, Pc2, Pb2, and Pd2 are also paired in the same manner.
[0041]
In step 105, as will be described later, the three-dimensional coordinate position of the object S is calculated based on the input designated points Pa1-Pd1 and Pa2-Pd2. In step 106, the radius of the object S is calculated based on the three-dimensional position of the object S calculated in step 105, as will be described later.
[0042]
FIG. 7 is a subroutine of step 105 in FIG. The calculation processing of the three-dimensional position coordinates of the object S will be described with reference to FIGS. 8, 9, and 10 together with FIG.
[0043]
In step 201, a straight line La1 passing through the designated points Pa1 and Pb1 of the object image S1 is calculated in the image IA (see FIG. 8). The straight line La1 is a straight line passing through the contour line MA1 of the pair of shielding contours MA1 and MA2. Similarly, in step 202, a straight line Lb1 passing through the designated points Pc1 and Pd1 of the object image S2, that is, passing through the contour line MA2, is calculated. In each of the pair of images IA and IB, the screen coordinates (X, Y) are defined in which the upper left corner of the image area is the origin and the numbers of pixels in the X direction and the Y direction are “W” and “H”, respectively. The straight line La1 and the like are calculated according to the screen coordinates (X, Y). When step 202 is executed, the process proceeds to step 203.
[0044]
In step 203, a straight line Q1 connecting the designated point Pa1 and the designated point Pc1 is calculated (see FIG. 8). Similarly, in step 204, a straight line Q2 connecting the designated point Pb1 and the designated point Pd1 is calculated. When step 204 is executed, the process proceeds to step 205.
[0045]
In step 205, a bisector Le1 is obtained based on the straight line La1 and the straight line Lb1. The bisector Le1 is a line that bisects the object image S1, and corresponds to the projected image of the central axis SU of the object S shown in FIG. The straight line La1 and the straight line Lb1 are parallel to the bisector Le1 and have a line-symmetric relationship with respect to the bisector Le1. When step 205 is executed, the process proceeds to step 206.
[0046]
In step 206, as shown in FIG. 9, a straight line La2 passing through the designated points Pa2 and Pb2 is calculated in the image IB. In step 207, a straight line Lb2 passing through the designated points Pc2 and Pd2 is calculated. The straight lines La2 and Lb2 are straight lines passing through the pair of shielding contours MB1 and MB2 of the object image S2 in the image IB. In step 208, a bisector Le2 that bisects the object image S2 based on the straight line La2 and the straight line Lb2 is obtained. Similarly to the bisector Le1, the bisector Le2 also corresponds to a projection image of the center axis SU of the object S. When step 208 is executed, the process proceeds to step 209.
[0047]
In step 209, as shown in FIG. 10, the coordinates (Xa1, Ya1) of the intersection Pe1 between the straight line Le1 and the straight line Q1 are obtained in the first image IA. In step 210, an intersection Pf1 (Xb1, Yb1) between the straight line Le1 and the straight line Q2 is obtained. In step 211, an epipolar line EP1 corresponding to the intersection Pe1 is set in the second image IB, and coordinates (Xa2, Ya2) of the intersection Pe2 between the epipolar line EP1 and the bisector Le2 are obtained. The intersection Pe2 is a point constituting a corresponding point together with the calculated intersection Pe1, and the intersection Pe1 and Pe2 are images of the same point. Since the pair of images IA and IB displayed on the monitor 30 are parallel stereo corrected images, the epipolar line EP1 is a straight line parallel to the X axis and passing through the Y coordinate “Ya1” of the intersection Pe1.
[0048]
Similarly, in step 212, an epipolar line EP2 having the same Y coordinate as the Y coordinate “Yb1” of the intersection Pf1 in the image IA is set in the image IB, and the position coordinates of the intersection Pf2 between the bisector Le2 and the epipolar line EP2 are set. (Xb2, Yb2) is calculated. The intersection points Pf1 and Pf2 are another corresponding point different from the intersection points Pe1 and Pe2. When the corresponding points Pe1, Pe2 and the corresponding points Pf1, Pf2 are respectively calculated from the pair of images IA, IB, the process proceeds to step 213.
[0049]
In step 213, coordinate transformation is performed to obtain the three-dimensional position of the object S by applying the principle of triangulation. Specifically, first, from the screen coordinates (X, Y) of the monitor 30 to the CCD coordinates (u, v) defined on the image forming surface of the CCD 41 at each of the first and second photographing points PA, PB of the camera 42. Converted. In this conversion, parallel movement for vertical origin alignment and vertical / horizontal scale conversion processing are performed. As a result, the corresponding points Pe1, Pe2 and the corresponding points Pf1, Pf2 are converted into screen coordinates (Xa1, Ya1) in pixel units on the monitor 30. ) (Xa2, Ya2) and (Xb1, Yb1) (Xb2, Yb2) to position coordinates (ua1, va1) (ua2, va2) and (ub1, vb1) (ub2, vb2) on the image forming surface of the CCD 41 The Conversion to CCD coordinates is performed by the following equation.
[0050]
[Formula 1]
Figure 0003842988
[0051]
In the equation (1), “PitchX” represents the ratio between the horizontal size of the CCD 41 and the horizontal size (= W) of the pixel unit of the image IA (IB), and “PitchY” represents the vertical size of the CCD 41. This represents the ratio of the image unit IA (IB) to the vertical size (= H) in pixel units. “F” indicates the focal length of the camera 42. The CCD coordinate (u, v) is a coordinate system having the origin of the optical axis of the photographing optical system of the camera 42 and the center of the image forming surface of the CCD 41, and is a coordinate system expressed in mm units. As shown by the equation, the coordinate in the depth direction with respect to the focal length F (mm) of the camera 42 is also taken into consideration. The other corresponding points Pf1 and Pf2 are also subjected to coordinate transformation according to equation (1).
[0052]
In step 214, based on the CCD coordinates (ua1, va1) (ua2, va2) of the corresponding points Pe1, Pe2 obtained in step 213, and the distance between the first and second imaging points PA, PB, The position of the measurement point P1 which is a point on the central axis U and whose image is a corresponding point is calculated by the equation (2). However, in the equation (2), “C” represents the distance between the first and second shooting points PA and PB, and is recorded in advance in the memory card 36 as shooting data.
[0053]
[Formula 2]
Figure 0003842988
[0054]
Equation (2) is an equation based on the principle of so-called triangulation, and when a camera coordinate system having the origin of the center of the camera 42 at the first photographing point PA is defined as three-dimensional coordinates (x, y, z), The position (x1, y1, z1) of the measurement point P1 is calculated with its three-dimensional coordinates. The z coordinate of the measurement point P1 represents the depth from the first and second imaging points PA and PB to the object S. Similarly, in step 215, the position (x2, y2, z2) of the measurement point P2 on the central axis SU of the object S corresponding to the corresponding points Pe2 and Pf2 is obtained by equation (2). The three-dimensional coordinates of the measurement points P1 and P2 are displayed on the monitor 30 and temporarily stored as data in the RAM 18. When step 215 is executed, the subroutine ends and returns to the main routine of FIG.
[0055]
In the execution of steps 201 to 215, data such as calculated points and straight lines is stored in the RAM 18 each time it is calculated, and is read out as necessary.
[0056]
FIG. 11 is a subroutine of step 106 in FIG. The calculation process of the radius of the cylinder S will be described with reference to FIGS.
[0057]
In step 301, the coordinates (x1, y1, z1), (x2, y2, z2) of the measurement points P1, P2 on the central axis SU of the object S obtained in steps 214, 215 of FIG. ), A straight line l representing the central axis SU in three-dimensional coordinates is calculated. The equation of the straight line l is expressed by the following equation (3).
[0058]
[Formula 3]
Figure 0003842988
[0059]
Then, as shown in FIG. 12, based on the measurement points P1, P2 and the straight line l, a vector V of a line extending vertically from the center of the camera 42 at the first photographing point PA, that is, from the origin O of the three-dimensional coordinates to the straight line l. (E, f, g) is determined. However, the vector V is calculated based on the equation (3) and the following equation (4) indicating the orthogonal relationship between the straight line l and the vector V. When the vector V is obtained, the process proceeds to step 302.
[0060]
[Formula 4]
Figure 0003842988
[0061]
In step 302, a plane R passing through the straight line l (center axis SU) and having the vector V (e, f, g) as a normal vector is calculated (see FIG. 12). The following equation (5) is an equation representing the plane R.
[Formula 5]
Figure 0003842988
When the plane R is calculated, the process proceeds to step 303.
[0062]
Here, the relationship between the points on the surface of the object S intersecting the plane R and the points on the pair of contours MA1 and MA2 of the object image S1 at the first imaging point PA will be described with reference to FIG. . However, here, the direction of the normal vector V coincides with the z direction when the center of the camera 42 at the first imaging point PA is set as the origin O of the three-dimensional coordinates. In addition, a point on the contour line MA1 in the image IA displayed on the monitor 30 is defined as a boundary point T1, and a straight line N passing through the origin point O and the image point T1 ′ located at the position corresponding to the boundary point T1 on the image forming surface of the CCD 41. Set. However, it is assumed that the distance from the first and second imaging points PA and PB to the object S is sufficiently longer than the size of the diameter of the object S (length in the depth direction).
[0063]
For an image formed on the image forming surface of the CCD 41, so-called weak center projection can be applied when the distance M between the origin O and the cylinder S is sufficiently longer than the diameter of the cylinder S. The weak central projection is a projection obtained by combining the normal projection and the central projection, and the object S is subjected to the central projection toward the origin O after being orthogonally projected onto the plane τ. Since the orthogonal projection onto the plane τ is projected along the optical axis direction of the camera 42 at the first imaging point PA, that is, along the normal vector V direction, the plane R and the plane τ are in a parallel relationship.
[0064]
When a point on a straight line intersecting the surface of the object S and the plane R is defined as an end point T, and an image of the end point T on the plane τ is T ′, the straight line N passes through the image T ′ of the plane τ. Considering that the weak central projection is applied, the straight line N can be regarded as a straight line passing through the end point T of the object S (see the straight line N ′). Therefore, if the position coordinate of the end point T of the object S along the central axis SU direction (y direction of the three-dimensional coordinate) is equal to the position of the measurement point P1 or P2, the straight line N is calculated and the three-dimensional position coordinate of the end point T is calculated. Is calculated to obtain the radius of the cylinder S.
[0065]
First, at step 303, as shown in FIG. 14, a straight line Lg1 perpendicular to the bisector Le1 and passing through the intersection Pe1 is calculated in the image IA. At step 304, a straight line Lh1 perpendicular to the straight line Le1 and passing through the point Pf1 is calculated. Is calculated. In step 305, the intersection between the straight line Lg1 and the straight line La1 is obtained as the boundary point Pg1, and in step 306, the intersection between the straight line Lh1 and the straight line La1 is obtained as the boundary point Ph1.
[0066]
In step 307, coordinate transformation is performed on the intersection points Pg1 and Ph1. That is, the screen coordinates (X, Y) are converted into CCD coordinates (u, v, F) in the same manner as in step 213 in FIG. In step 308, a straight line LA passing through the image point P′g1 corresponding to the boundary point Pg1 on the image forming surface of the CCD 41 and the origin O is calculated based on the three-dimensional coordinates. Similarly, in step 309, a straight line LB passing through the image point P′h1 corresponding to the boundary point Ph1 on the image forming surface of the CCD 41 and the center O is calculated. The straight line LA and the straight line LB correspond to the straight line N (N ′) in FIG. When the straight lines LA and LB are obtained, the process proceeds to step 310.
[0067]
In step 310, the three-dimensional coordinates of the end point PC on the plane R that is the intersection of the straight line LA and the object S are calculated. However, the end point PC is calculated based on the equation (5) indicating the plane R and the equation of the straight line LA. Similarly, in step 311, an end point PD that is the intersection of the straight line LB and the plane R is calculated based on the equation (5) and the straight line LB. The end points PC and PD correspond to the end point T in FIG. 13, and the position coordinates in the y direction along the central axis SU are equal to the measurement points P1 and P2.
[0068]
In step 312, the distance r1 between the end point PC and the measurement point P1 on the previously obtained central axis SU (straight line 1) is calculated. This distance r1 is the radius of the object S. Similarly, in step 313, a distance r2 between the end point PD and the measurement point PB is calculated. Since the object S is a cylinder, the distance r1 is equal to the distance r2. When step 313 is executed, the subroutine ends.
[0069]
As described above, according to the present embodiment, by shooting the object S that is a cylinder from the first and second shooting points PA and PB by the camera 42, a pair of images shot from different points is recorded in the memory card 36. Thereafter, the data is read out by the image processing apparatus 10. When the operator operates the pair of images IA and IB displayed on the read monitor 30, the pointing points are placed on the pair of shielding contours MA1 and MA2 and MB1 and MB2 of the pair of images IA and IB. Pa1-Pd1 and Pa2-Pd2 are set. Then, based on the set indication points Pa1 to Pd1 and Pa2 to Pd2, two corresponding points Pe1, Pe2, and Pf1, Pf2 are detected on a pair of bisectors Le1 and Le2.
[0070]
Since the projection image of the center axis SU of the object S having a curved surface corresponds to a pair of bisectors Le1 and Le2 that bisect the projection images S1 and S2 of the object S in the pair of images IA and IB, The corresponding points detected on the bisectors Le1 and Le2 are images from the same point on the central axis SU of the object S. In this way, the three-dimensional position of the object S can be accurately obtained by considering the image of the central axis SU that is not originally captured.
[0071]
According to such corresponding point detection processing, as shown in FIG. 15, the three-dimensional position can be measured even if the top and bottom contours of the cylinder S are not shown in the pair of images IA and IB. Even binocular objects can be viewed stereoscopically.
[0072]
Since the weak center projection model can be applied when the distance between the object S and the first and second imaging points PA and PB is sufficiently longer than the diameter (radius r) of the object S, the measurement points P1 and P2 of the object S are applicable. Then, the radius r of the object S is calculated based on the end points PC and PD located on the intersection line between the plane R and the surface of the object S.
[0073]
When only the three-dimensional position of the object S is measured without obtaining the radius r of the object S, only one corresponding point Pe1, Pe2 (or Pf1, Pf2) is calculated and the three-dimensional position of the measurement point P1 (or P2). Only need to be calculated. Further, when calculating only the radius r1 (or r2) of the object S, only the end point PC (or PD) corresponding to the boundary point Pg1 (or Ph1) may be obtained. In addition, when detecting the corresponding points Pe1 and Pe2 from the pair of images IA and IB, the epipolar line is not set to the image IB, and the Y coordinate in the screen coordinates (X, Y) is equal to the intersection Pe1. This point may be the intersection Pe2.
[0074]
Although the weak center projection model is applied when calculating the radius r of the object S, the radius r may be calculated by applying a pseudo center projection model.
[0075]
In the present embodiment, a cylindrical object S is applied as an object having a curved surface on the surface. However, a three-dimensional position is measured by binocular stereoscopic vision for an object having a curved surface other than a cylinder. Can do. For example, as shown in FIG. 16, a right circular truncated cone E that is rotationally symmetric about the central axis ES may be a measurement target. In this case, a straight line passing through the midpoints of the designated points Pa1 and Pc1 and the midpoints of the designated points Pb1 and Pd1 on the straight lines Q1 and Q2 is defined as a bisector Le1, and the intersection Pe1 may be calculated. Also in the image IB, the bisector Le2 may be obtained as a straight line passing through the midpoints of the designated points Pa2 and Pc2 and the midpoints of the designated points Pb2 and Pd2. Further, the corresponding points may be obtained without correcting the parallel stereo.
[0076]
Further, as shown in FIG. 17, the object S may be a rotating body RO having a rotating curved surface formed around the central axis RS, including not only a circular cylinder and a right truncated cone but also a right cone and a sphere. However, the rotating body RO is a rotationally symmetric object around the central axis RS, and an arbitrary cross section perpendicular to the central axis RS is a circle. Even in the case of the rotating body RO, a straight line passing through the midpoints of the designated points Pa1 and Pc1 and the midpoints of the designated points Pb1 and Pd1 on the straight lines Q1 and Q2 is a bisector Le1, and the midpoints of the designated points Pa2 and Pc2 A straight line passing through the midpoints of the designated points Pb2 and Pd2 is defined as a bisector Le2. Thereby, corresponding points Pe1, Pe2 and Pf1, Pf2 are calculated.
[0077]
In the present embodiment, binocular stereoscopic vision is used in photogrammetry, but it can also be used in other fields, for example, automatic shape restoration processing such as computer vision. In this case, a processing system is configured in which two cameras are connected to the image processing apparatus 10 and images are taken simultaneously from different directions, and the three-dimensional position of the object is measured from a pair of image data once recorded in the memory. Further, a processing system in which the image processing apparatus 10 automatically detects the intersection points Pe1 and Pe2 without an operator's operation may be configured. In this case, the pair of occluded contours MA1, MA2 and MB1, MB2 are automatically detected by line detection processing such as edge tracking without displaying the pair of images IA, IB on the monitor 30, and corresponding points Pe1, Pe2 are detected. Is required.
[0078]
【The invention's effect】
As described above, according to the present invention, in binocular stereoscopic vision for obtaining three-dimensional information from a pair of images in which curved object images are captured, corresponding points are detected without error from the pair of images, and an accurate object is detected. Three-dimensional information can be obtained.
[Brief description of the drawings]
FIG. 1 is a diagram showing a camera for photogrammetry, an image processing apparatus according to an embodiment, and peripheral devices thereof.
FIG. 2 is a block diagram of the image processing apparatus.
FIG. 3 is a diagram showing projection images from two directions of a cylindrical object.
FIG. 4 is a flowchart showing a three-dimensional information calculation processing operation.
FIG. 5 is a diagram showing a parallel stereo relationship.
FIG. 6 is a diagram showing a pair of images displayed on a monitor.
7 is a subroutine of step 105 in FIG. 4 showing the operation of calculating the three-dimensional position of an object.
FIG. 8 is a diagram showing one image of a pair of images when obtaining a bisector.
FIG. 9 is a diagram showing the other of a pair of images when obtaining a bisector.
FIG. 10 is a diagram showing a pair of images when obtaining corresponding points.
FIG. 11 is a subroutine of step 106 in FIG. 4 showing the diameter calculation processing operation for obtaining the radius of the object.
FIG. 12 is a diagram showing an object and a plane whose normal vector is a vector passing through the origin.
FIG. 13 is a diagram showing a projected image of an object in a weak center projection model.
FIG. 14 is a diagram showing one image of a pair of images.
FIG. 15 is a diagram showing a pair of images in which only a pair of shielding contours are shown.
FIG. 16 is a diagram showing a right truncated cone and a pair of images as projection images thereof.
FIG. 17 is a diagram illustrating a rotating body and a pair of images serving as projection images thereof.
[Explanation of symbols]
10 Image processing device
12A CPU
14 ROM (recording medium)
18 RAM (image recording recordable medium)
30 Monitor (display device)
36 Memory card (auxiliary storage device, recording medium capable of recording images)
41 CCD (imaging device)
42 Camera
IA, IB A pair of images
IA first image
π1 first image
IB second image
π2 second image
Le1, Le2 bisector (a pair of bisectors)
Le1 bisector (first bisector)
Le2 bisector (second bisector)
MA1, MA2 A pair of shielding contours
MB1, MB2 A pair of shielding contours
Pe1, Pe2 corresponding point (at least one corresponding point)
Pe1 intersection (at least one first image point)
Pe2 intersection (at least one second image point)
Pf1, Pf2 corresponding point (at least one corresponding point)
Pf1 intersection (at least one first image point)
Pf2 intersection (at least one second image point)
EP1 epipolar line (at least one epipolar line)
EP2 epipolar line (at least one epipolar line)
Pa1, Pc1, Pb1, Pd1 Designated points (two pairs of designated points)
Pa2, Pc2, Pb2, Pd2 Designated points (two pairs of designated points)
PA first shooting point
PB 2nd shooting point
PC endpoint (at least one endpoint)
PD endpoint (at least one endpoint)
R plane (plane for diameter calculation)
r Radius (diameter length)
S object
SU central axis
V normal vector

Claims (17)

中心軸周りに回転曲面が形成され、円柱、直円錐台、直円錐のいずれかである回転体である物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、第1の画像および第2の画像からなる前記一対の画像を読み出す画像読み出し手段と、
前記物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって前記一対の画像から一意に決まる少なくとも1つの対応点を、前記一対の画像それぞれにおける前記一対の遮蔽輪郭によって規定されるとともに前記物体の中心軸の投影像に応じた一対の二等分線上において検出する対応点検出手段と、
前記少なくとも1つの対応点に基づき、三角測量の原理を適用することによって前記物体の中心軸上にある前記少なくとも1つの測定点の三次元位置を算出する三次元情報算出手段とを備え
前記対応点検出手段が、前記少なくとも1つの対応点の一方の像として前記第1の画像の二等分線上に定められる少なくとも1つの第1の像点に従い、前記少なくとも1つの像点に応じた少なくとも一本のエピポーララインを前記第2の画像に設定し、前記少なくとも一本のエピポーララインと前記第2の画像における二等分線との交点を、前記少なくとも1つの対応点の他方の像である少なくとも1つの第2の像点として定めることを特徴とする画像処理装置。
Two different directions so that a rotating curved surface is formed around the central axis, and a pair of shielding contours that form a contour image along the central axis is captured of an object that is a rotating body that is one of a cylinder, a right truncated cone, and a right cone Image reading means for reading the pair of images including the first image and the second image from an image-recordable recording medium on which a pair of images obtained by imaging with a camera having an image sensor is recorded;
At least one corresponding point that is an image of at least one measurement point representing the three-dimensional position to be obtained of the object and is uniquely determined from the pair of images is defined by the pair of shielding contours in each of the pair of images. in the pair of the bisector in accordance with the projected image of the central axis of the object with a corresponding point detecting means for detecting,
Three-dimensional information calculation means for calculating a three-dimensional position of the at least one measurement point on the central axis of the object by applying the principle of triangulation based on the at least one corresponding point ;
The corresponding point detecting means corresponds to the at least one image point according to at least one first image point defined on a bisector of the first image as one image of the at least one corresponding point. At least one epipolar line is set in the second image, and an intersection of the at least one epipolar line and a bisector in the second image is the other image of the at least one corresponding point. An image processing apparatus characterized in that it is defined as at least one second image point.
前記物体が、円柱、直円錐台のいずれかであることを特徴とする請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the object is one of a cylinder and a right truncated cone. 前記画像記録可能な記録媒体が携帯可能であって前記カメラに着脱可能に装着される補助記憶装置であるとともに、前記撮像素子に形成される前記一対の画像が前記補助記憶装置にデジタルの静止画像データとして記録され、
前記画像読み出し手段が、前記補助記憶装置から前記一対の画像を読み出すことを特徴とする請求項1に記載の画像処理装置。
The image-recordable recording medium is portable and is an auxiliary storage device that is detachably attached to the camera, and the pair of images formed on the image sensor is a digital still image in the auxiliary storage device. Recorded as data,
The image processing apparatus according to claim 1, wherein the image reading unit reads the pair of images from the auxiliary storage device.
前記画像読み出し手段によって読み出された前記一対の画像を前記少なくとも1つの対応点が同一座標となるようにアフィン変換する平行ステレオ修正手段をさらに有し、
前記対応点検出手段が、アフィン変換された前記一対の画像から前記少なくとも1つの対応点を検出することを特徴とする請求項1に記載の画像処理装置。
Parallel stereo correction means for affine transforming the pair of images read by the image reading means so that the at least one corresponding point has the same coordinates;
The image processing apparatus according to claim 1, wherein the corresponding point detection unit detects the at least one corresponding point from the pair of images subjected to affine transformation.
映像を表示する表示装置が接続されるとともに、
前記画像読み出し手段に従って読み出された前記一対の画像を前記表示装置に表示する表示手段と、
前記表示装置に表示される前記一対の画像それぞれに対し、入力操作に従って前記一対の遮蔽輪郭それぞれの線上に指定される二対の点を指定点として定める指定点設定手段とをさらに有し、
前記対応点検出手段が、前記一対の画像それぞれの前記二対の指定点に基づいて前記少なくとも1つの対応点の位置を前記表示装置のスクリーン座標で検出することを特徴とする請求項1に記載の画像処理装置。
A display device that displays video is connected,
Display means for displaying the pair of images read according to the image reading means on the display device;
For each of the pair of images displayed on the display device, further comprising designated point setting means for defining, as designated points, two pairs of points designated on each line of the pair of shielding contours according to an input operation,
The said corresponding point detection means detects the position of the said at least 1 corresponding point by the screen coordinate of the said display apparatus based on the said 2 pairs of designated points of each of said pair of images. Image processing apparatus.
前記対応点検出手段が、前記一対の画像それぞれの前記二対の指定点に基づいて前記一対の二等分線を算出し、前記第1の画像における前記第1の二等分線と前記二対の指定点を通る2本の直線との2つの交点を求め、該2つの交点のうち少なくとも1つの交点を前記少なくとも1つの第1の像点と定めることを特徴とする請求項5に記載の画像処理装置。  The corresponding point detection means calculates the pair of bisectors based on the two pairs of designated points of each of the pair of images, and the first bisector and the second bisector in the first image. 6. The two intersection points with two straight lines passing through a pair of designated points are obtained, and at least one of the two intersection points is defined as the at least one first image point. Image processing apparatus. 前記三次元情報算出手段が、前記少なくとも1つの対応点の座標を前記表示装置のスクリーン座標から前記撮像素子の撮像素子座標に変換するとともに、前記第1の画像に応じた撮影方向での前記カメラの中心を原点とした3次元座標を規定して、前記少なくとも1つの対応点に基づき、三角測量の原理を適用して前記少なくとも1つの測定点の3次元座標を算出することを特徴とする請求項5に記載の画像処理装置。  The three-dimensional information calculation means converts the coordinates of the at least one corresponding point from screen coordinates of the display device to imaging element coordinates of the imaging element, and the camera in a shooting direction corresponding to the first image. Defining a three-dimensional coordinate with the center of the origin as an origin and applying the principle of triangulation based on the at least one corresponding point to calculate the three-dimensional coordinate of the at least one measurement point. Item 6. The image processing apparatus according to Item 5. 前記物体の径の長さを算出する径算出手段をさらに有し、
前記対応点検出手段が、2つの対応点を検出し、
前記三次元情報算出手段が、2つの測定点を算出し、
前記径算出手段が、
前記一対の画像の一方に応じた撮影方向における前記カメラの中心を通り前記物体の中心軸に垂直なベクトルを法線ベクトルとする平面であって前記物体の中心軸が載る径算出用平面を前記2つの測定点に基いて算出し、
前記径算出用平面と前記物体の表面上にあるとともに前記2つの測定点のいずれかの点と中心軸に沿った位置が一致する端点を、該一対の画像の一方にある前記一対の遮蔽輪郭上にある像であって前記端点の像である像点に基いて算出し、
前記物体の径の長さを前記2つの測定点の一方と前記端点に基づいて算出することを特徴とする請求項1に記載の画像処理装置。
A diameter calculating means for calculating a length of the diameter of the object;
The corresponding point detecting means detects two corresponding points;
The three-dimensional information calculation means calculates two measurement points,
The diameter calculating means is
A diameter calculation plane on which a normal vector is a vector that passes through the center of the camera in a shooting direction corresponding to one of the pair of images and is perpendicular to the center axis of the object, and on which the center axis of the object is placed Calculate based on two measurement points,
The pair of shielding contours in one of the pair of images is an end point on the surface for calculating the diameter and the surface of the object, and an end point whose position along one of the two measurement points coincides with the central axis. Calculated based on the image point that is an image on the end point image,
The image processing apparatus according to claim 1, wherein the length of the diameter of the object is calculated based on one of the two measurement points and the end point.
中心軸周りに回転曲面が形成され、円柱、直円錐台、直円錐のいずれかである回転体である物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、第1の画像および第2の画像からなる前記一対の画像を読み出し、
前記物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって前記一対の画像から一意に決まる少なくとも1つの対応点を、前記一対の画像それぞれにおける前記一対の遮蔽輪郭によって規定されるとともに前記物体の中心軸の投影像に応じた一対の二等分線上において、検出し、
前記少なくとも1つの対応点に基づき、三角測量の原理を適用することによって前記物体の中心軸上にある前記少なくとも1つの測定点の三次元位置を算出し、
前記少なくとも1つの対応点の一方の像として前記第1の画像の二等分線上に定められる少なくとも1つの第1の像点に従い、前記少なくとも1つの像点に応じた少なくとも一本のエピポーララインを前記第2の画像に設定し、前記少なくとも一本のエピポーララインと前記第2の画像における二等分線との交点を、前記少なくとも1つの対応点の他方の像である少なくとも1つの第2の像点として定めることを特徴とする3次元情報計測方法。
Two different directions so that a rotating curved surface is formed around the central axis, and a pair of shielding contours that form a contour image along the central axis is captured of an object that is a rotating body that is one of a cylinder, a right truncated cone, and a right cone Reading out the pair of images composed of the first image and the second image from an image-recordable recording medium on which a pair of images obtained by imaging with a camera having an image sensor is recorded,
At least one corresponding point that is an image of at least one measurement point representing the three-dimensional position to be obtained of the object and is uniquely determined from the pair of images is defined by the pair of shielding contours in each of the pair of images. And detecting on a pair of bisectors corresponding to the projected image of the central axis of the object,
Calculating the three-dimensional position of the at least one measurement point on the central axis of the object by applying the principle of triangulation based on the at least one corresponding point;
According to at least one first image point defined on a bisector of the first image as one image of the at least one corresponding point, at least one epipolar line corresponding to the at least one image point is The second image is set, and an intersection of the at least one epipolar line and a bisector in the second image is at least one second image that is the other image of the at least one corresponding point. A three-dimensional information measuring method characterized in that it is determined as an image point.
中心軸周りに回転曲面が形成され、円柱、直円錐台、直円錐のいずれかである回転体である物体の3次元情報を計測するプログラムを格納した記録媒体であって、
前記物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、第1の画像および第2の画像からなる前記一対の画像を読み出し、
前記物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって前記一対の画像から一意に決まる少なくとも1つの対応点を、前記一対の画像それぞれにおける前記一対の遮蔽輪郭によって規定されるとともに前記物体の中心軸の投影像に応じた一対の二等分線上において、検出し、
前記少なくとも1つの対応点に基づき、三角測量の原理を適用することによって前記物体の中心軸上にある前記少なくとも1つの測定点の三次元位置を算出し、
前記少なくとも1つの対応点の一方の像として前記第1の画像の二等分線上に定められる少なくとも1つの第1の像点に従い、前記少なくとも1つの像点に応じた少なくとも一本のエピポーララインを前記第2の画像に設定し、前記少なくとも一本のエピポーララインと前記第2の画像における二等分線との交点を、前記少なくとも1つの対応点の他方の像である少なくとも1つの第2の像点として定めることを特徴とする3次元情報計測処理のプログラムを格納したコンピュータ読み取り可能な記録媒体。
A recording medium that stores a program for measuring three-dimensional information of an object that is a rotating body formed of a rotating curved surface around a central axis and is any of a cylinder, a right truncated cone, and a right cone ,
An image-recordable recording medium on which a pair of images obtained by capturing images of the object with two cameras from different directions so that a pair of shielding contours forming a contour image along the central axis is captured. And reading out the pair of images consisting of the first image and the second image,
At least one corresponding point that is an image of at least one measurement point representing the three-dimensional position to be obtained of the object and is uniquely determined from the pair of images is defined by the pair of shielding contours in each of the pair of images. And detecting on a pair of bisectors corresponding to the projected image of the central axis of the object,
Calculating the three-dimensional position of the at least one measurement point on the central axis of the object by applying the principle of triangulation based on the at least one corresponding point;
According to at least one first image point defined on a bisector of the first image as one image of the at least one corresponding point, at least one epipolar line corresponding to the at least one image point is The second image is set, and an intersection of the at least one epipolar line and a bisector in the second image is at least one second image that is the other image of the at least one corresponding point. A computer-readable recording medium storing a three-dimensional information measurement processing program characterized by being determined as an image point.
中心軸周りに回転曲面が形成された回転体である物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、前記一対の画像を読み出す画像読み出し手段と、
前記物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって前記一対の画像から一意に決まる少なくとも1つの対応点を、前記物体の中心軸の投影像に応じた一対の二等分線上において検出する対応点検出手段と、
前記少なくとも1つの対応点に基づき、三角測量の原理を適用することによって前記物体の中心軸上にある前記少なくとも1つの測定点の三次元位置を算出する三次元情報算出手段とを備え、
前記一対の画像が第1の画像および第2の画像とからなり、前記一対の二等分線が前記第1の画像にある第1の二等分線と前記第2の画像にある第2の二等分線とからなり、また、前記少なくとも1つの対応点が前記第1の画像にある少なくとも1つの第1の像点と前記第2の画像にある少なくとも1つの第2の像点とからなり、
前記対応点検出手段が、前記少なくとも1つの第1像点に応じた少なくとも一本のエピポーララインを前記第2の画像において設定し、前記少なくとも一本のエピポーララインと前記第2の二等分線との交点となる少なくとも1つのエピポーラ交点を求め、該少なくとも1つのエピポーラ交点を前記少なくとも1つの第2の像点と定め、
映像を表示する表示装置が接続されるとともに、
前記画像読み出し手段に従って読み出された前記一対の画像を前記表示装置に表示する表示手段と、
前記表示装置に表示される前記一対の画像それぞれに対し、入力操作に従って前記一対の遮蔽輪郭それぞれの線上に指定される二対の点を指定点として定める指定点設定手段とをさらに有し、
前記対応点検出手段が、前記一対の画像それぞれの前記二対の指定点に基づいて前記少なくとも1つの対応点の位置を前記表示装置のスクリーン座標で検出することを特徴とする画像処理装置。
It is obtained by imaging an object, which is a rotating body having a rotating curved surface around the central axis, with a camera having an image sensor from two different directions so that a pair of shielding contours as contour images along the central axis is captured. Image reading means for reading the pair of images from an image recordable recording medium on which the pair of images are recorded;
At least one corresponding point that is an image of at least one measurement point that represents the three-dimensional position to be obtained of the object and is uniquely determined from the pair of images is a pair of second grades corresponding to the projection image of the central axis of the object. Corresponding point detection means for detecting on the dividing line;
Three-dimensional information calculation means for calculating a three-dimensional position of the at least one measurement point on the central axis of the object by applying the principle of triangulation based on the at least one corresponding point;
The pair of images includes a first image and a second image, and the pair of bisectors are in a first bisector in the first image and a second in the second image. And at least one first image point in the first image and at least one second image point in the second image. Consists of
The corresponding point detecting means sets at least one epipolar line corresponding to the at least one first image point in the second image, and the at least one epipolar line and the second bisector. Determining at least one epipolar intersection as an intersection with the at least one epipolar intersection as the at least one second image point;
A display device that displays video is connected,
Display means for displaying the pair of images read according to the image reading means on the display device;
For each of the pair of images displayed on the display device, further comprising designated point setting means for defining, as designated points, two pairs of points designated on each line of the pair of shielding contours according to an input operation,
The image processing apparatus, wherein the corresponding point detection unit detects the position of the at least one corresponding point based on the screen coordinates of the display device based on the two pairs of designated points of each of the pair of images.
前記画像読み出し手段によって読み出された前記一対の画像を前記少なくとも1つの対応点が同一座標となるようにアフィン変換する平行ステレオ修正手段をさらに有し、
前記対応点検出手段が、アフィン変換された前記一対の画像から前記少なくとも1つの対応点を検出することを特徴とする請求項11に記載の画像処理装置。
Parallel stereo correction means for affine transforming the pair of images read by the image reading means so that the at least one corresponding point has the same coordinates;
The image processing apparatus according to claim 11, wherein the corresponding point detection unit detects the at least one corresponding point from the pair of images subjected to affine transformation.
前記対応点検出手段が、前記一対の画像それぞれの前記二対の指定点に基づいて前記一対の二等分線を算出し、前記第1の画像における前記第1の二等分線と前記二対の指定点を通る2本の直線との2つの交点を求め、該2つの交点のうち少なくとも1つの交点を前記少なくとも1つの第1の像点と定めることを特徴とする請求項11に記載の画像処理装置。  The corresponding point detection means calculates the pair of bisectors based on the two pairs of designated points of each of the pair of images, and the first bisector and the second bisector in the first image. 12. The two intersection points with two straight lines passing through a pair of designated points are obtained, and at least one of the two intersection points is defined as the at least one first image point. Image processing apparatus. 前記三次元情報算出手段が、前記少なくとも1つの対応点の座標を前記表示装置のスクリーン座標から前記撮像素子の撮像素子座標に変換するとともに、前記第1の画像に応じた撮影方向での前記カメラの中心を原点とした3次元座標を規定して、前記少なくとも1つの対応点に基づき、三角測量の原理を適用して前記少なくとも1つの測定点の3次元座標を算出することを特徴とする請求項11に記載の画像処理装置。  The three-dimensional information calculation means converts the coordinates of the at least one corresponding point from screen coordinates of the display device to imaging element coordinates of the imaging element, and the camera in a shooting direction corresponding to the first image. Defining a three-dimensional coordinate with the center of the origin as an origin and applying the principle of triangulation based on the at least one corresponding point to calculate the three-dimensional coordinate of the at least one measurement point. Item 12. The image processing apparatus according to Item 11. 前記物体の径の長さを算出する径算出手段をさらに有し、
前記対応点検出手段が、2つの対応点を検出し、
前記三次元情報算出手段が、2つの測定点を算出し、
前記径算出手段が、
前記一対の画像の一方に応じた撮影方向における前記カメラの中心を通り前記物体の中心軸に垂直なベクトルを法線ベクトルとする平面であって前記物体の中心軸が載る径算出用平面を前記2つの測定点に基いて算出し、
前記径算出用平面と前記物体の表面上にあるとともに前記2つの測定点のいずれかの点と中心軸に沿った位置が一致する端点を、該一対の画像の一方にある前記一対の遮蔽輪郭上にある像であって前記端点の像である像点に基いて算出し、
前記物体の径の長さを前記2つの測定点の一方と前記端点に基づいて算出することを特徴とする請求項11に記載の画像処理装置。
A diameter calculating means for calculating a length of the diameter of the object;
The corresponding point detecting means detects two corresponding points;
The three-dimensional information calculation means calculates two measurement points,
The diameter calculating means is
A diameter calculation plane on which a normal vector is a vector that passes through the center of the camera in a shooting direction corresponding to one of the pair of images and is perpendicular to the center axis of the object, and on which the center axis of the object is placed Calculate based on two measurement points,
The pair of shielding contours in one of the pair of images is an end point on the surface for calculating the diameter and the surface of the object, and an end point whose position along one of the two measurement points coincides with the central axis. Calculated based on the image point that is an image on the end point image,
The image processing apparatus according to claim 11, wherein the length of the diameter of the object is calculated based on one of the two measurement points and the end point.
中心軸周りに回転曲面が形成された回転体である物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、前記一対の画像を読み出し、
前記物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって前記一対の画像から一意に決まる少なくとも1つの対応点を、前記物体の中心軸の投影像に応じた一対の二等分線上において検出し、
前記少なくとも1つの対応点に基づき、三角測量の原理を適用することによって前記物体の中心軸上にある前記少なくとも1つの測定点の三次元位置を算出する3次元情報計測方法であって、
前記一対の画像が第1の画像および第2の画像とからなり、前記一対の二等分線が前記第1の画像にある第1の二等分線と前記第2の画像にある第2の二等分線とからなり、また、前記少なくとも1つの対応点が前記第1の画像にある少なくとも1つの第1の像点と前記第2の画像にある少なくとも1つの第2の像点とからなり、
前記少なくとも1つの第1像点に応じた少なくとも一本のエピポーララインを前記第2の画像において設定し、前記少なくとも一本のエピポーララインと前記第2の二等分線との交点となる少なくとも1つのエピポーラ交点を求め、該少なくとも1つのエピポーラ交点を前記少なくとも1つの第2の像点と定め、
読み出された前記一対の画像を表示装置に表示し、
前記表示装置に表示される前記一対の画像それぞれに対し、入力操作に従って前記一対の遮蔽輪郭それぞれの線上に指定される二対の点を指定点として定め、
前記一対の画像それぞれの前記二対の指定点に基づいて前記少なくとも1つの対応点の位置を前記表示装置のスクリーン座標で検出することを備えたことを特徴とする3次元情報計測方法。
It is obtained by imaging an object, which is a rotating body having a rotating curved surface around the central axis, with a camera having an image sensor from two different directions so that a pair of shielding contours as contour images along the central axis is captured. Reading the pair of images from an image recordable recording medium on which the pair of images is recorded,
At least one corresponding point that is an image of at least one measurement point that represents the three-dimensional position to be obtained of the object and is uniquely determined from the pair of images is a pair of second grades corresponding to the projection image of the central axis of the object. Detect on the line,
A three-dimensional information measurement method for calculating a three-dimensional position of the at least one measurement point on the central axis of the object by applying the principle of triangulation based on the at least one corresponding point,
The pair of images includes a first image and a second image, and the pair of bisectors are in a first bisector in the first image and a second in the second image. And at least one first image point in the first image and at least one second image point in the second image. Consists of
At least one epipolar line corresponding to the at least one first image point is set in the second image, and at least one is an intersection of the at least one epipolar line and the second bisector. Determining one epipolar intersection, defining the at least one epipolar intersection as the at least one second image point;
Displaying the read pair of images on a display device;
For each of the pair of images displayed on the display device, two pairs of points designated on the lines of the pair of shielding contours according to an input operation are determined as designated points,
A three-dimensional information measuring method comprising: detecting a position of the at least one corresponding point based on screen coordinates of the display device based on the two pairs of designated points of each of the pair of images.
中心軸周りに回転曲面が形成された回転体である物体の3次元情報を計測するプログラムを格納した記録媒体であって、
前記物体を該中心軸に沿った輪郭像となる一対の遮蔽輪郭が写るように異なる2方向から撮像素子を有するカメラで撮像することによって得られる一対の画像が記録された画像記録可能な記録媒体から、前記一対の画像を読み出し、
前記物体の求めるべき3次元位置を表す少なくとも1つの測定点の像であって前記一対の画像から一意に決まる少なくとも1つの対応点を、前記物体の中心軸の投影像に応じた一対の二等分線上において検出し、
前記少なくとも1つの対応点に基づき、三角測量の原理を適用することによって前記物体の中心軸上にある前記少なくとも1つの測定点の三次元位置を算出する3次元情報計測処理のプログラムを格納した記録媒体であって、
前記一対の画像が第1の画像および第2の画像とからなり、前記一対の二等分線が前記第1の画像にある第1の二等分線と前記第2の画像にある第2の二等分線とからなり、また、前記少なくとも1つの対応点が前記第1の画像にある少なくとも1つの第1の像点と前記第2の画像にある少なくとも1つの第2の像点とからなり、
前記少なくとも1つの第1像点に応じた少なくとも一本のエピポーララインを前記第2の画像において設定し、前記少なくとも一本のエピポーララインと前記第2の二等分線との交点となる少なくとも1つのエピポーラ交点を求め、該少なくとも1つのエピポーラ交点を前記少なくとも1つの第2の像点と定め、
読み出された前記一対の画像を表示装置に表示し、
前記表示装置に表示される前記一対の画像それぞれに対し、入力操作に従って前記一対の遮蔽輪郭それぞれの線上に指定される二対の点を指定点として定め、
前記一対の画像それぞれの前記二対の指定点に基づいて前記少なくとも1つの対応点の位置を前記表示装置のスクリーン座標で検出することを特徴とする3次元情報計測処理のプログラムを格納したコンピュータ読み取り可能な記録媒体。
A recording medium storing a program for measuring three-dimensional information of an object which is a rotating body having a rotating curved surface formed around a central axis,
An image-recordable recording medium on which a pair of images obtained by capturing images of the object with two cameras from different directions so that a pair of shielding contours forming a contour image along the central axis is captured. From the pair of images,
At least one corresponding point that is an image of at least one measurement point that represents the three-dimensional position to be obtained of the object and is uniquely determined from the pair of images is a pair of second grades corresponding to the projection image of the central axis of the object. Detect on the line,
A record storing a three-dimensional information measurement processing program for calculating a three-dimensional position of the at least one measurement point on the central axis of the object by applying the principle of triangulation based on the at least one corresponding point A medium,
The pair of images includes a first image and a second image, and the pair of bisectors are in a first bisector in the first image and a second in the second image. And at least one first image point in the first image and at least one second image point in the second image. Consists of
At least one epipolar line corresponding to the at least one first image point is set in the second image, and at least one is an intersection of the at least one epipolar line and the second bisector. Determining one epipolar intersection, defining the at least one epipolar intersection as the at least one second image point;
Displaying the read pair of images on a display device;
For each of the pair of images displayed on the display device, two pairs of points designated on the lines of the pair of shielding contours according to an input operation are determined as designated points,
A computer-readable program storing a three-dimensional information measurement processing program, wherein the position of the at least one corresponding point is detected by the screen coordinates of the display device based on the two pairs of designated points of each of the pair of images. Possible recording media.
JP2001214813A 2000-07-19 2001-07-16 Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program Expired - Fee Related JP3842988B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001214813A JP3842988B2 (en) 2000-07-19 2001-07-16 Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000218608 2000-07-19
JP2000-218608 2000-07-19
JP2001214813A JP3842988B2 (en) 2000-07-19 2001-07-16 Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program

Publications (2)

Publication Number Publication Date
JP2002099902A JP2002099902A (en) 2002-04-05
JP3842988B2 true JP3842988B2 (en) 2006-11-08

Family

ID=26596292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001214813A Expired - Fee Related JP3842988B2 (en) 2000-07-19 2001-07-16 Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program

Country Status (1)

Country Link
JP (1) JP3842988B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4788475B2 (en) * 2005-06-17 2011-10-05 オムロン株式会社 Image processing apparatus and image processing method
JP4774824B2 (en) 2005-06-17 2011-09-14 オムロン株式会社 Method for confirming measurement target range in three-dimensional measurement processing, method for setting measurement target range, and apparatus for performing each method
CN100417914C (en) * 2005-06-17 2008-09-10 欧姆龙株式会社 Image processing apparatus
KR100785594B1 (en) 2005-06-17 2007-12-13 오므론 가부시키가이샤 Image process apparatus
US8571303B2 (en) 2008-11-25 2013-10-29 Nec System Technologies, Ltd. Stereo matching processing system, stereo matching processing method and recording medium
JP5311465B2 (en) * 2008-11-25 2013-10-09 Necシステムテクノロジー株式会社 Stereo matching processing system, stereo matching processing method, and program
JP5416489B2 (en) * 2009-06-17 2014-02-12 日本電信電話株式会社 3D fingertip position detection method, 3D fingertip position detection device, and program
KR101658578B1 (en) * 2010-01-27 2016-09-22 삼성전자주식회사 Apparatus and Method for calibration of composite sensor
JP5480669B2 (en) * 2010-03-01 2014-04-23 協和界面科学株式会社 Image processing apparatus for contact angle meter and method for deriving outline shape of liquid droplet in plan view
JP6062217B2 (en) * 2012-11-11 2017-01-18 鹿島建設株式会社 Particle size measuring method, system and program for accumulated granular material
JP6065670B2 (en) * 2013-03-13 2017-01-25 株式会社リコー Three-dimensional measurement system, program and method.
JP7264747B2 (en) 2019-06-27 2023-04-25 株式会社クボタ Bending angle calculation method and calculation device
CN113074633B (en) * 2021-03-22 2023-01-31 西安工业大学 Automatic detection system and detection method for overall dimension of material

Also Published As

Publication number Publication date
JP2002099902A (en) 2002-04-05

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
JP4889351B2 (en) Image processing apparatus and processing method thereof
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
US6539330B2 (en) Method and apparatus for measuring 3-D information
JP5362189B2 (en) Image processing apparatus and processing method thereof
JP4961628B2 (en) Projected image correction system and method
JP3859574B2 (en) 3D visual sensor
JP5027746B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
WO2010001940A1 (en) Position measurement method, position measurement device, and program
JP5715735B2 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JP2009017480A (en) Camera calibration device and program thereof
KR102129206B1 (en) 3 Dimensional Coordinates Calculating Apparatus and 3 Dimensional Coordinates Calculating Method Using Photo Images
CN110490943B (en) Rapid and accurate calibration method and system of 4D holographic capture system and storage medium
CN116188558B (en) Stereo photogrammetry method based on binocular vision
JP2008309595A (en) Object recognizing device and program used for it
JP3696336B2 (en) How to calibrate the camera
WO2019087253A1 (en) Stereo camera calibration method
JP3221384B2 (en) 3D coordinate measuring device
JP2006317418A (en) Image measuring device, image measurement method, measurement processing program, and recording medium
JPH0875454A (en) Range finding device
JP3912638B2 (en) 3D image processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060811

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees