JP4742190B2 - 3D object measuring device - Google Patents

3D object measuring device Download PDF

Info

Publication number
JP4742190B2
JP4742190B2 JP2006552886A JP2006552886A JP4742190B2 JP 4742190 B2 JP4742190 B2 JP 4742190B2 JP 2006552886 A JP2006552886 A JP 2006552886A JP 2006552886 A JP2006552886 A JP 2006552886A JP 4742190 B2 JP4742190 B2 JP 4742190B2
Authority
JP
Japan
Prior art keywords
image
pedestal
camera
reflected
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006552886A
Other languages
Japanese (ja)
Other versions
JPWO2006075528A1 (en
Inventor
佳嗣 眞鍋
國宏 千原
友樹 浦西
Original Assignee
国立大学法人 奈良先端科学技術大学院大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 奈良先端科学技術大学院大学 filed Critical 国立大学法人 奈良先端科学技術大学院大学
Priority to JP2006552886A priority Critical patent/JP4742190B2/en
Publication of JPWO2006075528A1 publication Critical patent/JPWO2006075528A1/en
Application granted granted Critical
Publication of JP4742190B2 publication Critical patent/JP4742190B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

【技術分野】
【0001】
本発明は、3次元オブジェクトを複数の角度から撮影し、一つの画像における特徴点と当該特徴点と対応する他の画像における特徴点(対応特徴点)との対応関係を基に複数の画像を利用した3次元オブジェクトのステレオ計測処理を行ない、3次元オブジェクトの3次元画像データを生成する3次元オブジェクト計測装置に関する。
【背景技術】
【0002】
近年、小・中・高校教育において学校教育の情報化推進計画が進められており、全ての小中高等学校の各学級の授業においてコンピュータを活用できるように施策が推進されている。また、家庭においてもブロードバンドネットワークが普及してきており、気軽にインターネット上の様々なデータを検索・閲覧できるようになってきた。
このように、教育分野においてハードウェア資源やネットワーク環境が整備されつつある中、手軽に利用できる魅力のある教育用コンテンツの充実の重要性が指摘されている。代表的な教育用コンテンツの一つとして昆虫や動物の電子図鑑が挙げられる。現在でも昆虫や動物の情報をデジタル化した電子図鑑が存在し、インターネットを介して閲覧可能となっているが、現行の電子図鑑の中には、既存の図鑑本に掲載されている2次元平面写真等をデジタルデータとして取り込んでデータベース化し、検索・閲覧可能としただけの電子図鑑も多いため、特に、今後は、昆虫や動物の立体的な構造や動きを見ることができる3次元電子図鑑など多様な電子図鑑の開発が望まれている。
【0003】
ここで、現在では昆虫や動物の3次元形状を取り込むことは専門家による多大な労力とコストを必要とするが、教育の現場において先生のニーズに沿った多様な電子図鑑の動的な開発・製作のためには、いちいち専門家を介さずに手軽に学校の先生などが電子図鑑を編集できることが望ましい。つまり、学校の先生など一般の人が手軽に3次元オブジェクトの形状とその動きを計測して3次元データとして取り込み、それら3次元データを基に電子図鑑を製作したり内容を追加したりできる装置の開発が必要とされている。
【0004】
3次元オブジェクトの形状を計測して3次元データとして取り込む技術は、主にコンピュータビジョンの分野で研究されており、3次元オブジェクトの形状の計測手法としては、アクティブ計測法とパッシブ計測法の2つが知られている(例えば、特許文献1)。
前者のアクティブ計測法には、レーザや超音波を用いた直接計測法や、プロジェクタなどによりパターンを投影し、そのパターンの歪みにより表面の形状を計測するパターン投影法などがある。後者のパッシブ計測法には2台以上のカメラを使ってステレオ計測するステレオ計測法がある。なお、鏡を利用して1台のカメラによってステレオ計測する手法も提案されている。
【0005】
【特許文献1】
特開2001−241928
【発明の開示】
【発明が解決しようとする課題】
【0006】
まず、従来のアクティブ計測法には、第1の問題として計測範囲が狭いという問題があった。レーザや超音波を用いた直接計測法においても、プロジェクタなどによりパターンを投影するパターン投影法においても、これら照射光などが直接当たっている範囲でなおかつカメラなどの測定器で観測される範囲しか計測できないという問題点があった。
【0007】
また、従来のアクティブ計測法には、第2の問題として模様や色彩の画像データを得ることができないという問題もあった。従来のアクティブ計測法は3次元オブジェクトの外形形状を測定するためのものであり、模様や色彩データを直接得ることができないため、模様や色彩データを他に用意する必要があった。つまり、このアクティブ計測法は主に3次元オブジェクトから3次元ワイヤーフレームや3次元ポリゴンを生成するための手法であり、模様や色彩データはテクスチャ画像として別途、展開画像を用意する必要があり、3次元画像データ生成のためには多数の工程と多大の労力が必要となる。
【0008】
次に、従来のパッシブ計測法には、第1の問題として装置の規模が大きくなってしまうと言う問題があった。本来2次元画像である3次元オブジェクトの撮影画像を基に3次元画像データを得るためには、3次元オブジェクトを複数の視点から撮影した複数の2次元画像が必要となるが、電子図鑑として視聴に耐える3次元画像データとするためには、3次元オブジェクトの周囲にぐるりと多数のカメラを用意し、3次元オブジェクトを上下左右の全周を撮影する必要がある。このように電子図鑑として視聴に耐える3次元画像データを得るためには装置の規模が大きくなってしまうという問題点がある。
【0009】
また、従来のパッシブ計測法には、第2の問題として多数の視点から多数の画像を用意した場合、特徴点同士のマッチングを取ることが難しくなると言う問題があった。ステレオ計測法では、多数の視点から撮影した多数の画像の間でステレオ計測を行なう必要があり、その過程において画像上の特異点やエッジ部分などの特徴点を選び出し、その特徴点を手掛かりとしてマッチングを行なう。しかし、昆虫や動物など複雑な形状を持つ3次元オブジェクトには多数の特徴点が存在し、特徴点の数が増えるにつれてそれらのマッチングを行なうための計算量が急激に増えて行き、マッチングを取ることが難しくなる。
なお、装置規模を小さくするためカメラの台数を減らす工夫として、平面鏡を利用した装置があるが、この装置によればパッシブ計測法の第1の問題点はある程度緩和されるが、3次元オブジェクトの上下左右の全周をカバーする画像を得るためには、なお、複数のカメラが必要である。さらに、この装置ではパッシブ計測法の第2の問題点は緩和できない問題として残る。
【0010】
また、システム構成の単純化を目的として、鏡やプリズムなどによる反射像や屈折像を用いて、1台のカメラで物体の3次元形状を計測する反射屈折ステレオ視系が知られている。反射屈折ステレオ視系とは、物体表面の同じ一点を始点として異なる軌道を進む複数の光を、光学機器を用いることで単一のカメラに入射させ、複数視点からカメラで観測した像と等価な画像を撮影することで、1台のカメラでステレオ視を実現するシステムである。
この反射屈折ステレオ視系は、1台のカメラで視差のある画像が得られるため、カメラパラメータの補正処理が不要となり、かつ、各視点の像が同期して撮影される利点を有する。また、エピポーラ線が走査線上と同一になるようにカメラや鏡を配置することで、複数のカメラを用いたステレオ視系と同様に、対応点の存在する範囲を限定することが可能となる。
しかし、反射屈折ステレオ視系に基づく物体の全周形状計測手法は、鏡による不規則な写り込みの発生や対応点探索範囲の拡大により、正しい全周形状を得ることが困難である問題がある。
【0011】
上記問題点に鑑み、本発明は、装置規模が小さく、1台(または2台)という少ない台数のカメラにより撮影した少ない枚数の撮影画像により3次元オブジェクトの上下左右全周をカバーする画像が得ることができ、かつ、画像間の特徴点同士の対応を簡便に取ることができ、一回の撮影で物体の全方向からの多視点画像を得られ、反射屈折ステレオ視により、一枚の画像から物体の3次元全周形状を計測できる3次元オブジェクト計測装置を提供することを目的とする。
【課題を解決するための手段】
【0012】
上記目的を達成するため、本発明の3次元オブジェクト計測装置は、撮影対象となる3次元オブジェクトを載せる台座と、前記台座を筒の内壁面で取り囲み、前記筒の内壁面を鏡面とした鏡面円筒体と、前記台座に対向し、レンズ光軸が前記鏡面円筒体の円筒中心軸と一致するように配置された魚眼レンズと、前記魚眼レンズを介して得られた画像を記録する撮影記録手段とを備えたカメラを備え、前記カメラの撮影記録手段により、前記台座上の3次元オブジェクトを直接見た直接画像と、前記鏡面円筒体の内壁の鏡面に映り込んでいる前記台座上の3次元オブジェクトの反射画像とを併せて撮影するものである。
上記構成によれば、魚眼レンズによりレンズ光軸を中心として放射状に全視野角の映像が撮影でき、魚眼レンズに対向する台座に載せられた3次元オブジェクトを直接撮影した直接画像と、鏡面円筒体の側面内壁の鏡面に映り込んでいる3次元オブジェクトの反射画像とを併せて一度に撮影することができる。円筒鏡面の性質上、この反射画像は3次元オブジェクトの周囲をぐるりと囲む全方向の視点から見える正面画像が映り込んだものとなっており、当該反射画像の撮影により、全方向の視点からの正面画像を一度に得ることができる。
なお、撮影対象となる3次元オブジェクトを台座に載せる以外に、3次元オブジェクトを固定支持する手段、例えば、針金などで刺して固定支持してもよい。また、卓上を台座として活用してもよい。
[0013]
ここで、鏡面円筒体の側面内壁の鏡面に映り込んでいる3次元オブジェクトの反射画像が複数ある場合がある。つまり、鏡面で一回反射して魚眼レンズに捉えられたいわゆる一回反射画像、鏡面で二回反射して魚眼レンズに捉えられたいわゆる二回反射画像など、鏡面でn(nは自然数)回反射して魚眼レンズに捉えられたいわゆるn回反射画像があり得る。
なお、上記は静止画像の説明であるが、時系列に連続した静止画像を得ればそれらを動画像として扱うことができ、対象物体の動きに関する3次元動両像データも得ることが可能となる。
[0014]
また、上述の目的を達成するため、本発明の3次元オブジェクト計測装置は、撮影対象となる3次元オブジェクトを載せる台座と、前記台座を筒の内壁面で取り囲み、前記筒の内壁面を鏡面とした鏡面円筒体と、前記台座に対向し、レンズ光軸が前記鏡面円筒体の円筒中心軸と一致するように配置された魚眼レンズと、前記魚眼レンズを介して得られた画像を記録する撮影記録手段とを備えたカメラを備え、前記カメラの撮影記録手段により、前記台座上の3次元オブジェクトを直接見た直接画像と、前記鏡面円筒体の内壁の鏡面に映り込んでいる前記台座上の3次元オブジェクトの反射画像とを併せて撮影する3次元オブジェクト計測装置であって、前記カメラの撮影記録手段により撮影した撮影画像上の特徴点を抽出して決定する特徴点抽出手段と、前記特徴点抽出手段によって抽出された前記直接画像上の特徴点に対応する前記反射画像上の対応特徴点を前記反射画像上において探索して決定する、または、前記特徴点抽出手段によって抽出された前記反射画像上の特徴点に対応する前記直接画像上の対応特徴点を前記直接画像上において探索して決定する手段であって、前記撮影画像において画像の中心と前記特徴点とを結ぶ延長線上を探索することにより前記対応特徴点の探索を行なう対応特徴点探索手段と、前記特徴点と前記対応特徴点との対応関係を基に前記直接画像と前記反射画像とのステレオ計測処理を行ない、前記直接画像と前記反射画像から前記3次元オブジェクトの3次元画像データを生成する3次元画像データ生成手段を備えたことを特徴とするものである。
上記構成により、ステレオ計測処理において直接画像と反射画像の間で特徴点とその特徴点に対応する対応特徴点とを簡便にマッチングすることができる。つまり、本発明の3次元オブジェクト計測装置では、反射画像は台座の中心(円筒中心)から放射線状に展開された画像となっており、特徴点と対応する対応特徴点とが必ず同じ直線上にあるため対応点探索が簡単となる利点がある。
すなわち、撮影対象のオブジェクト上のある点の画像は、正対する鏡面円筒体の内壁鏡面に映り込み、二回反射画像の場合は点対称となるが、中心点を挟んで折り返した位置となるので、結局、直接画像上のある特徴点に対応する反射画像上の特徴点は直接画像上の当該特徴点と画像の中心点を結ぶ直線の延長線上にあることとなるのである。この幾何学的関係を特徴点の探索のマッチングアルゴリズムに取り込むことにより、その計算コストを大幅に低減することが可能となる。
本発明は、鏡面円筒体とレンズ光軸が前記鏡面円筒体の円筒中心軸と一致するように配置された魚眼レンズとを組み合わせることにより、複雑な特徴点検出アルゴリズムを用いることがなく、特徴点同士の幾何学的関係を用いて効率よく特徴点と対応する対応特徴点を探索できるのである。
なお、上記した特徴点同士の幾何学的関係は、オブジェクトが台座の中心からずれた位置に載せ置かれていても変わることはない。オブジェクトが台座の中心からずれた位置に載せ置かれた場合でも特徴点同士の幾何学的関係が保たれる。オブジェクトが台座の中心からずれた位置に載せ置かれている場合、鏡面円筒体の内壁鏡面に映り込んだ反射画像は歪んでしまうが、特徴点同士は画像中心を通る直線上に存在する。これは、カメラの光軸と円筒鏡の中心軸が一致しているとき、ある光線がカメラに入射するためには、光線は円筒鏡の中心軸を通らなければならず、円筒の中心軸を挟んで向き合う円筒鏡の2点の接線は常に平行になり、円筒の中心を通る光線は常に、平行な接線をもつ鏡面に対して、真上から観察した場合に垂直に入射することとなるからである。
[0015]
次に、本発明の3次元オブジェクト計測装置において、前記台座を透明素材で形成し、前記台座の下方向からも前記オブジェクトを可視とし、前記カメラとして第1のカメラと第2のカメラの2つのカメラを備え、前記第1のカメラの魚眼レンズと前記第2のカメラの魚眼レンズが前記台座を挟んで対向し合うように配置することが好ましい。
上記構成により、鏡面円筒体のいわゆる上面と下面の2方向から魚眼レンズで撮影することにより、3次元オブジェクトの上部画像と下部画像を同時に撮影することが可能となる。
[0016]
次に、本発明の3次元オブジェクト計測装置において、前記カメラが前記鏡面円筒体に対して前記円筒中心軸に沿った移動が可能となっており、前記台座と前記魚眼レンズの距離を、撮影対象となる3次元オブジェクトの高さをLとして、基底となっている前記台座からL〜10Lの範囲で可変とすることが好ましい。
鏡面円筒体の側面内壁の鏡面において3次元オブジェクトの反射画像が映り込む位置は計測する3次元オブジェクトの大きさ(高さ、厚み)や形状により異なる。直接画像および反射画像を適切に撮影するため魚眼レンズの位置(台座と魚眼レンズとの距離)が調整できることが好ましい。そこで、台座と魚眼レンズとの距離を可変としたものである。
[0017]
次に、本発明の3次元オブジェクト計測装置において、前記台座と前記鏡面円筒体および前記カメラとの相対運動を可能とし、前記台座を固定した状態で、前記台座の中心を回転運動の中心として3次元空間内での前記鏡面円筒体および前記カメラを一体とした自由な回転移動を可能とすることが好ましい。
上記構成により、3次元オブジェクトが切り立った側面形状を持っている場合や、3次元オブジェクトが凹形状を持っている場合であっても、当該部分についてステレオ計測に必要な画像を得ることができる。例えば3次元オブジェクトが切り立った側面形状を持っている場合は、鏡面円筒体と台座を固定したままでは魚眼レンズによっては直接画像をうまく得ることができない。また、3次元オブジェクトが上面に少し深い凹形状を持っている場合は、鏡面円筒体とカメラを固定したままで直接画像を得ることはできるものの、反射画像としては凹形状の部分は周縁の壁面の陰になって得ることはできない。そこで、台座を固定した状態で、台座の中心を回転運動の中心として3次元空間内での鏡面円筒体およびカメラを一体とした自由な回転移動を可能としたものであり、上記前者の側面形状の場合や上記後者の凹形状の場合であっても、それら部分の直接画像および反射画像が撮影できる別アングルの角度となるように鏡面円筒体およびカメラの配置を調整せしめることを可能としたものである。
【発明の効果】
【0018】
本発明の3次元オブジェクト計測装置によれば、魚眼レンズによりレンズ光軸を中心として放射状に全視野角の映像が撮影でき、鏡面円筒体を組み合わせて台座に載せられた3次元オブジェクトの撮影画像を取得することにより、魚眼レンズに対向する台座に載せられた3次元オブジェクトを直接撮影した直接画像と、鏡面円筒体の側面内壁の鏡面に映り込んでいる3次元オブジェクトの反射画像とを併せて一度に撮影することができる。また、本発明の3次元オブジェクト計測装置によれば、ステレオ計測処理において直接画像と反射画像の間で特徴点とその特徴点に対応する対応特徴点とを簡便にマッチングすることができる。
【発明を実施するための最良の形態】
【0019】
以下、図面を参照しつつ、本発明の3次元オブジェクト計測装置の実施例を説明する。ただし、本発明の技術的範囲は以下の実施例に示した具体的な用途や形状・寸法などには限定されない。
また、3次元オブジェクトの計測の際に、3次元オブジェクトを支持する手段は、オブジェクトを支えることができるものであれば良く、例えば、台座、吊るし糸、針金、針などが挙げられる。ここで台座は装置筐体に組み込まれる小さな板状のものに限定されず、机や置き台のような大きなものも含む。机を支持手段とする場合は後述する鏡面円筒体を、支持手段である台座としての机の上に立てて据え置くこととなる。
以下に説明する実施例では3次元オブジェクトの支持手段を小さな円盤状の板である台座として説明する。
【実施例1】
【0020】
実施例1にかかる本発明の3次元オブジェクト計測装置の例を示す。
図1は実施例1に係る3次元オブジェクト計測装置100の基本構成を模式的に示した図である。
【0021】
10は撮影対象となる3次元オブジェクトを載せる台座である。台座10の形状は限定されないが、例えば、円盤状とする。台座10の大きさは撮影対象となる3次元オブジェクトが載せ置ける大きさとする。
【0022】
20は鏡面円筒体である。鏡面円筒体20は横断面が真円である円筒形状を持ち、その内壁面が鏡面となっている。つまり、本発明に言う鏡面円筒体とは、筒体の内壁面が円筒形でかつ鏡面となっているものを言う。筒体の外壁面はかならずしも円筒形でなくとも良くまた鏡面でなくとも良い。例えば、外形形状は四角柱でプラスチック素材であるが、その内側に円柱形のくり抜きがありその内壁面が鏡面であるようなものも含まれる。
鏡面円筒体20の内径はその中に台座10を収める大きさを持っており、この例では台座10は鏡面円筒体20の底面部分に収められている。
鏡面円筒体20の高さは、撮影対象となる3次元オブジェクトの高さをLとすると、基底となっている台座10からL以上あれば良いが、例えば、台座10から2L〜10L程度の高さとすることができる。
【0023】
30はカメラである。カメラ30は魚眼レンズ31と撮影記録手段32を備えている。
魚眼レンズ31は、台座10に対向し、レンズ光軸が鏡面円筒体20の円筒中心軸と一致するように配置されている。この例では魚眼レンズ31は鏡面円筒体20の上面に配置され、台座10に対向するように下向きに据え付けられている。魚眼レンズ31の中心軸(レンズ光軸)は円筒鏡面体20の中心軸(円筒中心軸)に一致するように配置されている。
撮影記録手段32は魚眼レンズ31を介して得られた画像を記録できるものであれば特に限定されず、アナログフィルムに露光記録するいわゆるアナログ画像記録手段でもよく、CCD(Charge Coupled Device)などの受光素子で受光してデジタルデータとして記録するいわゆるデジタル記録手段でも良い。一例としてここでは撮影記録手段32はデジタル画像記録手段とする。
【0024】
画像データ処理装置40は、カメラ30により撮影された2次元画像を受け取り、ステレオ計測処理により3次元画像データを生成するものである。画像データ処理装置40は、特徴点抽出手段41、対応特徴点探索手段42、3次元画像データ生成手段43を備えるが(図1には図示せず)、これらについては後述する。
【0025】
次に、図1に示した3次元オブジェクト計測装置100の構成例において、台座10に載せ置いたオブジェクトを撮影してステレオ計測法により3次元画像データを得る原理と手順を説明する。ここでは、一例として、コーン形状(円錐体形状)を持つ3次元オブジェクト(オブジェクト1)を読み取る例を説明する。
ステレオ計測法に基づいて2次元画像データから3次元画像データを得るためには、手順1として、対象となる3次元オブジェクトを複数の視点(それぞれ異なる角度)から撮影した2次元画像を取得する手順、手順2として、取得した複数の2次元画像間の特徴点間でマッチング処理を行なって3次元オブジェクトの要素ごとに対応付けを行なう手順、手順3として、ステレオ計測処理に基づく差分計算や推論計算により3次元画像データとしておこす手順を踏む必要がある。
【0026】
まず、手順1として、本発明の3次元オブジェクト計測装置100では、一度の撮影により直接画像と反射画像の少なくとも2つの画像を得る。ここで、直接画像とは、台座10上の3次元オブジェクトから魚眼レンズ31に直接入射する光線を受光して得た画像、つまり、魚眼レンズ31の視点から直接見える3次元オブジェクトの画像のことを言う。反射画像とは、台座10上の3次元オブジェクトから鏡面円筒体20の内壁鏡面において反射して魚眼レンズ31に入射する光線を受光して得た画像、つまり、魚眼レンズ31の視点から鏡面円筒体20の内壁鏡面に映り込んでいる3次元オブジェクトの反射画像のことを言う。反射画像には、鏡面円筒体20の内壁鏡面において一度反射して魚眼レンズ31に入射する一回反射画像R1、鏡面円筒体20の内壁鏡面において二度反射して魚眼レンズ31に入射する二回反射画像R2など多数回反射して得られる画像を含む。つまり、鏡面円筒体20の内壁鏡面においてn(nは自然数)回反射して魚眼レンズ31に入射するものはn回反射画像Rnとなる。
【0027】
図2は直接画像と反射画像のカメラ30における受光の様子を3次元オブジェクト計測装置100の縦断面において模式的に表した図である。図2では、3次元オブジェクト1のある点Aにのみ着目している。台座10に載せ置かれた3次元オブジェクト1のある点Aから出射し、直接魚眼レンズ31に入射する光が直接画像を形成する光路A0である。点Aから出射し、鏡面円筒体20の内壁鏡面において一度反射して魚眼レンズ31に入射する光が一回反射画像を形成する光路A1である。点Aから出射し、鏡面円筒体20の内壁鏡面において二度反射して魚眼レンズ31に入射する光が二回反射画像を形成する光路A2である。
なお、三回以上反射する光路もあるが、図2では二回反射の光路A2までを示し、それ以上のものは図示を省略している。また、図2は点Aのみに着目した光路を示したが、オブジェクト1の表面のすべての点から出射した光が図2と同様の原理により魚眼レンズ31に入射する。
【0028】
図3は、台座10の上に載せ置かれたコーン形状であるオブジェクト1をカメラ30により撮影して得た画像を模式的に示す図である。なお、オブジェクト1のある点Aを参考までに白丸の小点として示している。図3において中央に見える画像が、オブジェクト1の直接画像D0であり、コーン形状を真上から見たものとなっている。図3において直接画像D0を囲む円は台座10と鏡面円筒体20のエッジEである。次に、エッジEを囲む外側の輪状のものは鏡面円筒体20の内壁鏡面に映り込んだオブジェクト1の一回反射画像R1である。コーン形状の側面が面円筒体20の内壁鏡面をぐるりと周回する形で映り込んでいる。次に、一回反射画像R1を囲む外側の輪状のものは鏡面円筒体20の内壁鏡面に映り込んだオブジェクト1の二回反射画像R2である。一回反射画像R1と同様、コーン形状の側面が面円筒体20の内壁鏡面をぐるりと周回する形で映り込んでいるが、二回反射画像R2では像が点対称の像となっている。つまり、オブジェクト1上のある点Aの画像は、直接画像D0では右側にあり(画像点G0)、一回反射画像R1でも右側にあるが(画像点G1)、二回反射画像R2では左側に映り込んでいる(画像点G2)。
なお、図3では三回反射以上の反射画像(反射画像R3など)は図示を省略した。
本発明の3次元オブジェクト計測装置100では、このように一度の撮影により直接画像と反射画像の複数の画像を得る。
【0029】
ここで、本発明の3次元オブジェクト計測装置100により得た直接画像と反射画像が、異なる角度の複数の視点から撮影した画像として3次元ステレオ計測に用いることができる理由を説明する。
【0030】
図4は、図2で説明したオブジェクト1の点Aに対する直接画像を形成する光路A0、一回反射画像を構成する光路A1、二回反射画像を形成する光路A2の撮影視点を等価的に展開した様子を模式的に示した図である。実際の魚眼レンズ31は撮影視点F0であるが、一回反射画像R1に対応する光路A1は撮影視点F1に入射する光路A1’と等価である。同様に、二回反射画像R2に対応する光路A2は撮影視点F2に入射する光路A2’と等価である。つまり、一回反射画像R1における点Aはオブジェクト1を撮影視点F1においた仮想カメラ30’において撮影すれば得られるであろう画像中の点Aと等価であり、二回反射画像R2における点Aはオブジェクト1を撮影視点F2においた仮想カメラ30’’において撮影すれば得られるであろう画像中の点Aと等価であると言える。なお、鏡面円筒体20の内径をrとすると、撮影視点F1は魚眼レンズ31から2r離れた位置、撮影視点F2は魚眼レンズ31から4r離れた位置となる。
【0031】
図4を用いた上記の説明はオブジェクト1の右側にある点Aのみについて着目して説明したが、実際にはコーン形状の表面のすべての点について、対面する鏡面円筒体の内壁鏡面との間で成立するので、図3に示した、鏡面円筒体20の内壁鏡面に映り込んだ一回反射画像R1は、円筒中心軸を回転の中心として半径2rの円周上を360度ぐるりと仮想カメラ30’を移動させながらオブジェクト1を撮影し、各撮影画像の中央画像(コーン形状のうち撮影視点に対して真正面に正対している正面画像)のみを集めた画像と等価な画像となっている。同様に、二回反射画像R2は、円筒中心軸を回転の中心として半径4rの円周上を360度ぐるりと仮想カメラ30’’を移動させながらオブジェクト1を撮影し、各撮影画像の中央画像のみを集めた画像と等価な画像となっている。つまり、本発明の3次元オブジェクト計測装置100により得た直接画像D0と反射画像R1と反射画像R2は、魚眼レンズ31が配置されている実際の視点F0からの直接画像に加え、円筒中心軸から半径2r離れた円周上および半径4r離れた円周上を取り囲むように配置された無数(解像度の数)の撮影視点から撮影された画像を含むものとなっている。しかし、撮影視点が無数とは言え、反射画像は各撮影視点の正対画像、つまり、各撮影視点から撮影した画像のうちの真正面に正対する中央画像のみを集めたものと等価であるので、オブジェクト1上の一つの点に注目すれば(例えば点A)ステレオ計測に用いることのできる画像データの数が無数にあるわけではなく、直接画像D0に写されている当該点の画像(例えば画像点G0)と、半径2rの視点から写した一回反射画像R1に写されている当該点の画像(例えば画像点G1)と、半径4rの視点から写した二回反射画像R2に写されている当該点の画像(例えば画像点G2)の3つの画像データしかない。つまり、この例では、ステレオ計測処理に用いる画像データとしては、3つの視点からの2次元画像が一度に得られたものと同様の効果が得られたこととなる。
【0032】
ここで、本発明の3次元オブジェクト計測装置のステレオ視計測における、点から魚眼レンズを通してカメラに入射する光線角のパラメータ決定方法について述べる。
魚眼レンズは、魚眼レンズに入射する光線が光軸と成す角φと、光線が射影された
画像平面における画像中心からの距離dの関係を下記数式1で表せる。
【0033】
【数1】
【0034】
図9に、角φと画像中心からの距離dの関係図を示す。ここで、fは焦点距離である。また関数g(φ)は、魚眼レンズの射影特性であり、レンズ毎に特性が異なるものである。
魚眼レンズの射影特性をデータベースとして持っておくことで、撮影画像における注目点の画像中心からの距離によって、カメラに入射する光線の角度を決定できるのである。
【0035】
次に、本発明の3次元オブジェクト計測装置100におけるステレオ計測の手順2を説明する。
手順2では、取得した複数の2次元画像間でステレオ計測処理を行ない3次元オブジェクトの要素ごとに対応付けを行なうが、ステレオ計測処理をすべての画素について行なうことは計算コストが膨大となるので、通常は、画像データをDCT変換やフーリエ変換などにより周波数領域に変換し、画像中の特異点やエッジを抽出し、それらの代表的なものを特徴点として選定し、画像中の特徴点同士を探索してマッチングして行く。ここではある画像中の特徴点に対応する他の画像中の特徴点を対応特徴点と呼ぶ。
【0036】
従来技術における単純なマッチングアルゴリズムの場合は、画像間で特徴点同士をすべて試行錯誤法により探索してマッチングして行くが、オブジェクトの形状が複雑になると、画像中に多数の特異点やエッジが存在し、多数の特徴点が選定されることとなりマッチング処理の計算コストが膨大になってしまう。
しかし、本発明の3次元オブジェクト計測装置100を用いる場合は、直接画像と反射画像間の幾何学的関係を用いて特徴点同士のマッチング処理を実行することができるので、計算コストを大幅に低減することができる。その原理は以下のように説明できる。上記の図3および図4を用いて説明したように、カメラ30により撮影された画像には直接画像D0と反射画像(ここでは一回反射画像R1と二回反射画像R2の2つとする)が写されているが、この直接画像D0と反射画像(一回反射画像R1と二回反射画像R2)の間には、重要な幾何学的関係が存在する。ここで言う幾何学的関係とは、対応し合う特徴点同士は、画像の中心を通るように引いた同じ直線上に存在するという関係である。
【0037】
オブジェクト上のある点の画像は、正対する鏡面円筒体の内壁鏡面に映り込む。二回反射画像の場合は点対称となるが、中心点を挟んで折り返した位置となるので、結局、直接画像上のある特徴点に対応する反射画像上の特徴点は直接画像上の当該特徴点と画像の中心点を結ぶ直線の延長線上にあることとなる。図3で説明すれば、直接画像D0上のある特徴点である画像点G0について対応する特徴点を探索する場合、画像中心Cと画像点G0を結んだ直線の延長線上を探索すれば、一回反射画像R1中の対応する特徴点である画像点G1と二回反射画像R2中の対応する特徴点である画像点G2が見つかる。この幾何学的関係を特徴点の探索のマッチングアルゴリズムに取り込めば、その計算コストを大幅に低減することが可能となる。
以上の手順により、特徴点同士の幾何学的関係を用いて効率よく特徴点と対応する対応特徴点を探索する。
【0038】
参考として、試作した本発明の3次元オブジェクト計測装置100において、ピラミッド形状のオブジェクトを撮影した画像の例を示しておく。
図5は、台座の中心にピラミッド形状のオブジェクトを据え置き、その直接画像および鏡面円筒体の内壁鏡面に映り込んだ反射画像を併せて撮影した画像を示している。なお、画像中に引いてある放射線は直接画像と反射画像との対応を目視しやすいように、後処理により画像中に追加した線であり、このような放射線が当初から写り込んでいるわけではない。
【0039】
なお、上記した特徴点同士の幾何学的関係は、オブジェクトが台座の中心からずれた位置に載せ置かれていても変わることはない。図6はオブジェクトが台座の中心からずれた位置に載せ置かれた場合でも特徴点同士の幾何学的関係が保たれていることを示す図であり、図5に比べ、オブジェクトが台座の中心から右上に偏った位置に載せ置かれており、鏡面円筒体の内壁鏡面に映り込んだ反射画像は図5に比べて大きく歪んでいるが、特徴点同士は画像中心を通る直線上に存在することが分かる。図6中では、分かりやすいように、直接画像中の2つの特徴点について注目し、それら特徴点と画像の中心を結ぶ2本の直線を後処理で追加して引いている。その直線上に、一回反射画像と二回反射画像における対応特徴点が存在することが分かる。
【0040】
この理由について図7を用いて説明する。図7は、オブジェクトの一点から鏡に2回反射してカメラに入射する光線の軌跡の一例を示している。図7の(a)は側面から観察したもので、(b)は真上から観察したものである。カメラの光軸と円筒鏡の中心軸が一致しているとき、ある光線がカメラに入射するためには、光線は円筒鏡の中心軸を通らなければならない。図7(b)のように本発明の3次元オブジェクト計測装置を上から見たとき、円筒の中心軸を挟んで向き合う円筒鏡の2点の接線は、図7(b) に示すように常に平行になる。従って、円筒の中心を通る光線は常に、平行な接線をもつ鏡面に対して、真上から観察した場合に垂直に入射することとなる。同一の点を始点とする光線は、必ず同一の直線上に存在するため、仮想カメラのエピポーラ線は円筒の中心を通る直線となるのである。
【0041】
図8に、仮想オブジェクトを撮影したシミュレーション画像を示す。
撮影画像の中心にカメラから直接見える像、その周囲に円筒鏡に反射した像が存在する画像が得られる。また反射像は、画像中心から反射回数の少ない順に、同心円状に並ぶことになる。
ここで、図8(a)のオブジェクトが円錐の形状を有する場合、オブジェクト表面上のA点からカメラに入射する光線は、画像中心と点Aを結ぶ破線上だけを移動することになる。このため、撮影画像中に存在する対応点の組の探索範囲を、画像中心を通る直線上に限定できることとなり、計算量の削減や、対応点の誤検出の削減ができるのである。
また、同様に、図8(b)のオブジェクトが四角錐の形状を有する場合、オブジェクト表面上のB点からカメラに入射する光線は、画像中心と点Bを結ぶ破線上だけを移動することになる。
また、図8(c)のオブジェクトが円錐の形状を有し、かつ、位置が中心からずれて置かれて撮影された場合でも、オブジェクト表面上のC点からカメラに入射する光線は、画像中心と点Cを結ぶ破線上だけを移動することになる。
【0042】
次に、本発明の3次元オブジェクト計測装置100におけるステレオ計測処理に基づく3次元画像データ生成の手順3を説明する。
手順3では、手順2により得られた特徴点と対応特徴点との対応関係を基に直接画像と反射画像とのステレオ計測処理を行ない、直接画像と反射画像から3次元オブジェクトの3次元画像データを生成する。例えば、直接画像データと反射画像データ間の差分計算や推論計算により3次元画像データとしておこして行く。本発明の3次元オブジェクト計測装置100では、この手順3は特に限定されず、ステレオ計測処理を行なうアルゴリズムであれば広く適用することができる。
【0043】
図12は、本発明の3次元オブジェクト計測装置100における3次元画像データ処理装置40の構成要素を示すブロック図である。なお、ハードウェアとしては汎用のパーソナルコンピュータ資源とソフトウェアモジュールと組み合わせた情報処理組織を用いてステレオ計測法に基づく3次元画像データ生成処理を具体的に実現するものでも良く、上記アルゴリズムを半導体回路によりコーディングした専用のハードウェアを用いて実現するものでも良い。
【0044】
41は、カメラ30の撮影記録手段32により撮影した撮影画像上の特徴点を抽出して決定する特徴点抽出手段である。有効な特徴点の抽出アルゴリズムであれば特に限定されず広く適用することができるが、例えば、DCT変換により画像データを周波数領域に変換し、画像中の特異点やエッジを抽出して特徴点を選定するアルゴリズムを利用する。
【0045】
42は対応特徴点探索手段であり、特徴点抽出手段41によって抽出された直接画像上の特徴点に対応する反射画像上の対応特徴点を反射画像上において探索して決定する手段、または、特徴点抽出手段41によって抽出された反射画像上の特徴点に対応する直接画像上の対応特徴点を直接画像上において探索して決定する手段である。この対応特徴点探索手段42において、上記した幾何学的関係を用いた探索、つまり、画像の中心と特徴点とを結ぶ延長線上を探索することにより対応特徴点の探索を実行するアルゴリズムを取り込んでおく。
【0046】
43は、3次元画像データ生成手段であり、対応特徴点探索手段42により得られた特徴点と対応特徴点との対応関係を基に直接画像と反射画像との間でステレオ計測処理を行ない、2次元画像である直接画像と反射画像からオブジェクトの3次元画像データを生成する部分である。
【0047】
ここで、対応点探索手段42のアルゴリズムの一例として、SSD(Sum of Squared Difference:差の二乗和)による手法の詳細を説明する。なお、上述したように対応点探索手段42は、既存のステレオ計測処理のアルゴリズムの適用が可能であり、SSD以外にも非線形のマッチング手法であるDPマッチングなど幅広いアルゴリズムの適用が可能である。
先ず、対応特徴点探索手段42のアルゴリズムでは、処理の簡単化のために撮影画像を極座標展開し、次に極座標展開された撮影画像から、ある一点を中心とする小領域を探索元領域として切り出して、探索元領域に最も類似していると考えられる領域を探索する処理を行う。
本実施例では、2つの領域の間でSSD(Sum of Squared Difference:差の二乗和)を計算し、SSDの値が小さいほど互いの領域が類似しているものと判断している。但し、円筒鏡面で反射してカメラに入射した像は、半径方向に歪みを含んでいるため、領域間の類似性を求める際には、反射像の歪みを補正すべきである。しかし、反射像の歪みの大きさは、未知のパラメータである物体面の法線方向に依存するため、歪みを解析的に補正することが不可能である。そこで本実施例では、探索領域の移動に加えて、類似性を調べる反射像を半径方向について動的に拡大縮小させながら、SSDの値を計算することにより、最も類似している領域の中心点の組を対応点の組とすることとした。
以下では、対応特徴点探索手段42のアルゴリズムについて、(1)撮影画像の極座標展開処理、(2)探索対象領域のサイズの正規化処理、(3)探索対象領域の限定処理、(4)SSD値の算出処理に分けて説明する。
【0048】
(1)撮影画像の極座標展開処理
SSDの計算を単純化するための前処理として、撮影画像の極座標展開処理を行う。図10(a)には、極座標展開した結果の画像例を示す。上述したように、本発明の3次元オブジェクト計測装置で撮影された画像において、対応点の組は画像中心を通る同一直線上に必ず存在する。よって、撮影された画像を、縦軸を画像中心からの距離、横軸を角度とする極座標画像に展開することで、画像中のある一点に対応する点を探索する際の範囲は、図10(b)に示す破線の領域内に限定されることになる。
極座標展開前の画像における座標値を(u,v)、極座標展開後の座標値を(t、w)とすると、変換における画素値の対応関係は下記数式2,3で表される。ここで、t及びwは整数値である。また、Uは極座標展開前の画像におけるuおよびv軸方向の画素数、T,Wはそれぞれ極座標展開後の画像におけるt,w軸方向の画素数を表している。この極座標展開前の画像は、画像の中心に円筒の中心軸が存在するように撮影されている。
なお、極座標展開前の画像において、下記数式4の条件を満たさない座標値(u,v)については変換の対象としていない。
【0049】
【数2】
【0050】
【数3】
【0051】
【数4】
【0052】
(2)探索対象領域のサイズの正規化処理
次に、探索対象領域のサイズの正規化処理について説明する。上述したように、撮影画像における反射像のw軸方向の大きさは、光線の入射角と物体面の法線方向に依存して変化する。例えば図10(a)や(b)では、物体像が鏡に2回反射してカメラに入射した像のw軸方向の大きさは、1回反射してカメラに入射した像よりも小さくなる。しかし、計測段階において物体面の法線方向は未知であるため、w軸方向への像の大きさの変化を解析的に補正することは不可能である。そこで本発明の3次元オブジェクト計測装置では、類似性を調べたい局所領域をw軸方向について動的に拡大縮小させながら、SSDの値を計算することとしている。ここで、SSD値を計算するには、探索の際に基準となる領域(Source)と評価対象の領域(Target)の大きさが同一でなければならない。
一般に、光線の入射角度や物体面の法線方向による像の大きさの変化は非線形であるが、局所領域内の微小な像の歪みは、線形な拡大縮小で近似しても誤差は小さいと考えられるため、本3次元オブジェクト計測装置では処理の簡単化のため、線形補間によって局所領域を拡大または縮小することにしている。
また、各画素の色はRGB表色系で表現されることとしている。正規化後の領域内の点(t,w)におけるR,GおよびBそれぞれの輝度値l(t,w) (i = r,g,b) は、正規化前の点の輝度値o (i = r,g,b) と、Source を1.0としたときのTargetのスケールsを用いて、下記数式5から算出できる。ここで、trunc(x)はxの小数点以下を切り捨てる関数である。
【0053】
【数5】
【0054】
(3)探索対象領域の限定処理
次に、探索対象領域の限定処理について説明する。本発明の3次元オブジェクト計測装置で撮影した画像のn次反射像において、点(t,w)を中心とする領域 Sourceに対応する領域 Targetは、オクルージョンが発生しない場合、像の空間的な連続性は鏡に反射しても保たれることから、下記数式6を用いて求められる点(t,w )の近傍に存在すると仮定する。ここで、w minとw maxはそれぞれ、n回目の反射像が存在する上端値と下端値を示しており、また、w minとw maxは、Sourceが存在する上端値と下端値を示している。
【0055】
【数6】
【0056】
ここで、上記数式6で求めた点w は、Sourceに対応するTargetの位置を線形比をもとに推定しているものである。上述のとおり、反射像のw軸方向への歪みは一般に非線形であるが、非線形の歪みを線形比で近似した際の誤差は局所的にみると小さいからである。
そこで、点(t,w)を中心とする領域Sourceに対応する領域を探索する際、探索対象となるw軸方向の範囲を、w を中心とする一定の範囲内に限定することで、探索領域の削減を図っているのである。
中心を点(t,w)とする領域Sourceに対応するTargetをn次の反射像から探索するとき、探索の中心点とするwの範囲の上端w gminおよび下端w gmaxを下記数式7で表す。また、鏡に反射した像をSource領域とする際は、上端w gminおよび下端w gmaxを下記数式8で表す。ここで、aは探索範囲の広さを表す定数であり、値が大きいほど探索範囲は広くなる。
【0057】
【数7】
【0058】
【数8】
【0059】
(4)SSD値の算出処理
次に、SSD値の算出処理について説明する。Sourceと線形補間によって正規化されたTargetの類似度を評価するため、本3次元オブジェクト計測装置では評価量として、SourceとTarget領域間のSSD値を用いている。このSource領域SとTarget領域Tの間のSSD値dST は、下記数式9により求められる。下記数式において、l およびl (t,w)(i=r,g,b)はそれぞれSourceとTargetにおける各画素の輝度である。また、l およびl (t,w)(i=r,g,b)がとりうる値の範囲は、双方とも0以上255以下である。
【0060】
【数9】
【0061】
ここで、あるSourceに対応するTargetを探索する流れについて、図11を用いて説明する。図11は、カメラから直接観測された像をSourceの全体集合Sallとした例を表している。Sallから任意の窓サイズで切り出されたSource 領域Sa(SaはSallの集合に属する)に対応する探索候補領域は、図11中の破線で示された領域に限定できる。また、Sourceに対応するTargetは、上述した局所領域内に存在すると考えられ、探索候補領域内で窓サイズを変化させながら領域を切り出して、Sa とのSSD値を計算する。そして、最小のSSD値をもつ領域Ta をSaに対応する領域として選択し、それぞれの中心点をステレオ視の際に用いる対応点の組とする。同様に、Sallに含まれるすべての画素について対応点を探索するのである。
【0062】
以上、実施例1に示した本発明の3次元オブジェクト計測装置100によれば、魚眼レンズに対向する台座に載せられた3次元オブジェクトを直接撮影した直接画像と、鏡面円筒体の側面内壁の鏡面に映り込んでいる3次元オブジェクトの反射画像とを併せて一度に撮影することができ、直接画像と反射画像の間で特徴点とその特徴点に対応する対応特徴点とを簡便にマッチングし、ステレオ計測処理に基づいて2次元画像データから3次元画像データを生成することができる。
【実施例2】
【0063】
実施例2にかかる本発明の3次元オブジェクト計測装置100aの例を示す。
実施例2の3次元オブジェクト計測装置100aは、実施例1の3次元オブジェクト計測装置100に対して、台座10を透明素材で形成し、図13のように、カメラ30として第1のカメラ30aと第2のカメラ30bの2つのカメラを備え、第1のカメラ30aの魚眼レンズ31aと第2のカメラ30bの魚眼レンズ31bが台座10を挟んで対向し合うように配置したものである。
これは、オブジェクト1の上部画像のみならず下部画像についても同時に異なった視点からの複数の画像を一度に撮影することを狙ったものである。
【0064】
実施例1に示した鏡面円筒体20の上部に一つのカメラ30を備えた構成では、撮影画像として得られるものは、オブジェクト1の上面の直接画像D0とオブジェクト1の上面の反射画像Rnであり、オブジェクト1の下面の直接画像D0とオブジェクト1の下面の反射画像Rnは併せて撮影することはできない。
【0065】
そこで、本実施例2の3次元オブジェクト計測装置100aは、鏡面円筒体20の上部のカメラ30aのみならず、鏡面円筒体20の下部にもカメラ30bを備えた構成とし、オブジェクト1の上部画像のみならず下部画像についても同時に直接画像D0と反射画像Rnを一度に撮影するものである。なお、台座10は下方からもオブジェクト1が撮影できるようにガラス板などの透明素材とし、また、台座10の下方にも鏡面円筒体20が延伸されている必要がある。
下方のカメラ30bを用いたオブジェクト1の下面の直接画像D0と反射画像Rnの撮影原理およびステレオ計測処理の原理は実施例1と同様であるので、ここでの説明は省略する。
【実施例3】
【0066】
実施例3にかかる本発明の3次元オブジェクト計測装置100bの例を示す。
実施例3の3次元オブジェクト計測装置100bは、実施例1の3次元オブジェクト計測装置100に対して、鏡面円筒体20に対してカメラ30を可動としたものであり、図14に示すように、カメラ30が鏡面円筒体20の中心軸に沿って上下に移動することができ、台座10と魚眼レンズ31の距離を可変としたものである。
なお、カメラ30の移動は、利用者が手でカメラ30の筐体を移動させても良いが、カメラ筐体とステッピングモーター機構と組み合わせ、利用者の操作入力に応じてカメラ筐体の移動が制御できる構成とすれば、魚眼レンズ31と台座10上のオブジェクトとの距離を正確に調整することができる。
【0067】
台座10と魚眼レンズ31との距離について考察すると、下記のことが言える。
台座10と魚眼レンズ31との距離が小さい場合(オブジェクト1とカメラ30の距離が近い場合)にもメリットとデメリットがあり、逆に、台座10と魚眼レンズ31との距離が大きい場合(オブジェクト1とカメラ30の距離が遠い場合)にもメリットとデメリットがあり、両者を兼ね合わせて台座10と魚眼レンズ31との距離を調節する必要がある。
【0068】
図15は、台座10と魚眼レンズ31との距離が小さい場合のメリットとデメリットを模式的に説明した図である。
台座10と魚眼レンズ31との距離が小さくなると、カメラ30によりオブジェクトを大きく写すことができることとなり、オブジェクト表面の詳細な直接画像D0を得ることができる。つまり直接画像の解像度が上がる。これはメリットと言える。
【0069】
その一方、鏡面円筒体20の内壁鏡面に映り込むオブジェクトの一回反射画像R1を形成する光路A1の魚眼レンズ31への入射角は大きくなる。つまり、撮影視点F1の高さが低くなり、一回反射画像R1はオブジェクトを斜め方向の低い位置の視点から撮影した画像に相当する。鏡面円筒体20の内壁鏡面に映り込むオブジェクトの二回反射画像R2を形成する光路A2の魚眼レンズ31への入射角はさらに大きくなり、二回反射画像R2はオブジェクトを斜め方向のより低い位置の視点から撮影した画像に相当するが、もともと一回反射画像R1が斜め方向の低い位置から撮影した画像に相当するものなので、二回反射画像R2と一回反射画像R1の差分は小さく、ステレオ計測に用いる二次元画像としては情報量が小さくなる。これはデメリットと言える。
【0070】
次に、図16は台座10と魚眼レンズ31との距離が大きい場合のメリットとデメリットを模式的に説明した図である。
台座10と魚眼レンズ31との距離が大きくなると、図15の場合に比べ、カメラ30によりオブジェクトを接写することができず、オブジェクト表面の直接画像D0の解像度が低くなる。これはデメリットと言える。
【0071】
その一方、鏡面円筒体20の内壁鏡面に映り込むオブジェクトの一回反射画像R1を形成する光路A1の魚眼レンズ31への入射角は図15の場合に比べて小さくなる。つまり、撮影視点F1の高さが高くなり、一回反射画像R1はオブジェクトを斜め方向の高い位置の視点から撮影した画像に相当する。鏡面円筒体20の内壁鏡面に映り込むオブジェクトの二回反射画像R2を形成する光路A2の魚眼レンズ31への入射角は大きくなり、二回反射画像R2はオブジェクトを斜め方向の低い位置の視点から撮影した画像に相当するが、一回反射画像R1の入射角と二回反射画像の入射角の変化は図15の場合と比べて大きくなっている。つまり、二回反射画像R2と一回反射画像R1の差分は図15の場合に比べて大きいものであり、ステレオ計測に用いる二次元画像としては図15の場合よりも情報量が大きくなる。これはメリットと言える。
【0072】
このように、台座10と魚眼レンズ31との距離が大きい場合に生じるメリットおよびデメリットと、台座10と魚眼レンズ31との距離が小さい場合に生じるメリットおよびデメリットはトレードオフの関係にある。さらに、可変量として、実際には、3次元計測するオブジェクトの大きさ(高さ)が影響を与えるので、台座10と魚眼レンズ31との距離でなく、魚眼レンズ31とオブジェクト1との距離を考慮する必要がある。
そこで、本実施例3の3次元オブジェクト計測装置100bは、鏡面円筒体20に対してカメラ30を上下に可動としたものであり、カメラ30が鏡面円筒体20の中心軸に沿って上下に移動することができ、台座10と魚眼レンズ31の距離を可変としたものである。
【0073】
なお、カメラ30を可動とする代わりに、カメラ30の位置を固定してカメラ30にズーム機構を備える構成を考察すると、直接画像D0の大きさ、特に、光学的ズーム機構を搭載すれば直接画像D0の解像度を操作することはできるが、反射画像R1の撮影視点F1や反射画像R2の撮影視点F2の高さを操作することはできない。また、ズーム機構を用いた場合、中心画像が大きく見える代わりに周辺画像が捉えられなくなり、高次反射画像Rn、場合によっては二回反射画像R2や一回反射画像R1が撮影画像中に捉えられなくなるおそれもある。そこで、本実施例3の3次元オブジェクト計測装置100bは、オブジェクト1の高さを考慮しつつ反射画像R1の撮影視点F1や反射画像R2の撮影視点F2の高さを操作することを重視し、カメラ30が鏡面円筒体20の中心軸に沿って上下に移動することができ、台座10と魚眼レンズ31の距離を可変としたものである。
しかし、上記説明は、カメラ30として光学的ズーム機構を搭載したものを排除する意図ではなく、本発明の3次元オブジェクト計測装置100のカメラ30として、光学的ズーム機構やデジタルズーム機構を備えたものを採用し、周辺画像である反射画像を撮影が像中に捉えることのできる範囲でズーム撮影を行なわしめることは当然可能である。
【実施例4】
【0074】
実施例4にかかる本発明の3次元オブジェクト計測装置100cの例を示す。
実施例4の3次元オブジェクト計測装置100cは、実施例1の3次元オブジェクト計測装置100に対して、鏡面円筒体20およびカメラ30の台座10に対する相対運動を可能としたものであり、図17に示すように、台座10を固定した状態で、台座10の中心を回転運動の中心として、3次元空間内で鏡面円筒体20およびカメラ30を一体として自由な回転移動を可能としたものである。
鏡面円筒体20の回転移動は、利用者が手で鏡面円筒体20を回転移動させても良いが、鏡面円筒体20とステッピングモーター機構と組み合わせ、利用者の操作入力に応じて鏡面円筒体20の移動が制御できる構成とすれば、基本姿勢において撮影できなかった部位の撮影を可能とするアングルとなるようにカメラ30の撮影視点の方向を正確に調整することができる。
【0075】
実施例4の3次元オブジェクト計測装置100cは、基本姿勢において3次元計測するオブジェクト1の形状や方向によって死角となり直接画像D0または反射画像Rnが得られない部位が生じた場合でも、鏡面円筒体20とカメラ30を一体として台座10に対して角度を変えて別アングルとし、死角となって撮影画像が得られなかった部位についても直接画像D0または反射画像Rnを得る工夫を施したものである。
【0076】
オブジェクト1の形状や方向によって死角となり直接画像D0または反射画像Rnが得られない部位が生じる場合は概ね次の3つの場合が想定される。
【0077】
第1はオブジェクト1が少し深い凹形状を持つ場合である。例えば、凹形状が上面にある場合、当該部位について直接画像D0は得ることができるが、斜めの撮影視点F1や撮影視点F2から得た反射画像R1や反射画像R2には、凹形状の底面部分は周縁部分の死角になって写らない場合がある。また、例えば、凹形状が側面にある場合、当該部位について正対する斜めの撮影視点F1や撮影視点F2から得た反射画像R1や反射画像R2は得ることができるが、直接画像D0では凹形状の底面部分は周縁部分の死角になって写らない場合がある。
【0078】
第2はオブジェクト1の側面が垂直に近い場合である。この場合、当該部位について正対する斜めの撮影視点F1や撮影視点F2から得た反射画像R1や反射画像R2は得ることができるが、直接画像D0では角度が大きすぎて有効な画像が得られない場合がある。複数の反射画像Rnを得ることができたとしても、直接画像D0は3次元ステレオ計測では重要な情報であるので、直接画像D0を得るべく撮影方向を工夫することは推奨されるものと言える。
【0079】
第3はオブジェクト1の形状が複雑で、その一部が他の部分の陰になる場合である。典型的には昆虫における足関節の付け根のような部位である。例えば、当該部位について直接画像D0は得ることができるものの、斜めの撮影視点F1や撮影視点F2から得た反射画像R1や反射画像R2では、他の部位の陰になって写らない場合がある。
これらオブジェクト1の形状や方向によって死角となり直接画像D0または反射画像Rnが得られない部位が生じる場合でも、本実施例4の3次元オブジェクト計測装置100cは、鏡面円筒体20とカメラ30を一体として台座10に対して角度を変えて、当該部位ついて必要な直接画像D0または反射画像Rnを得るための別アングルの画像の撮影を行なうものである。
【0080】
ここでは、一例として、オブジェクト1の側面が垂直に近い場合について説明する。
図18は、図2と同様、直接画像と反射画像のカメラ30における受光を3次元オブジェクト計測装置100cの縦断面において模式的に表した図である。図18に示すように、オブジェクト1の側面部分の点Bについて、直接画像D0に相当する光路B0は、魚眼レンズ31に直接入射することはできない。つまり、直接画像D0において側面部分の点Bの画像は含まれていない、または、たとえ含まれていても撮影角度が極めて浅いため有効な情報が得られないものとなっている。一方、反射画像R1に相当する一回反射の光路B1は、魚眼レンズ31に入射しており、一回反射画像R1において側面部分の点Bの画像は含まれていることとなる。同様に、反射画像R2に相当する二回反射の光路B2は、魚眼レンズ31に入射しており、二回反射画像R2においても側面部分の点Bの画像は含まれていることとなる。このように、複数の反射画像R1とR2には点Bに関する画像情報が含まれているが、直接画像D0において点Bに関する情報が得られていない。
【0081】
次に、図19は、図18の基本姿勢から、台座10を固定した状態で台座10の中心を回転運動の中心として鏡面円筒体20およびカメラ30を一体として垂直面内で時計回りに回転移動した状態を示している。図19に示すように、オブジェクト1の側面部分の点Bはカメラ30の撮影視点から良く見える位置となり、直接画像D0に相当する光路B0は、魚眼レンズ31に直接入射する。つまり、直接画像D0において側面部分の点Bの画像は有効に含まれていることとなる。反射画像R1に相当する一回反射の光路B1も魚眼レンズ31に直接入射しており、一回反射画像R1において側面部分の点Bの画像は含まれている。同様に、二回反射画像R2においても側面部分の点Bの画像は含まれている。
このように、図19の基本姿勢では直接画像D0において十分な画像情報が得られない側面部分の点Bについて、図19の姿勢では直接画像D0において十分な画像情報が得られることとなる。
【0082】
なお、図19の姿勢はオブジェクト1の切り立った右側面の点Aの直接画像D0を得るための回転の例であるが、オブジェクト1の左側面、正面(手前側の側面)、裏面(奥側の側面)など他の側面の直接画像D0を得る場合、別途、そのターゲットとなる側面が魚眼レンズ31に正対するように鏡面円筒体20とカメラ30を一体に回転させれば良い。 ここで、回転制御手段は限定されないが、例えば、ステッピングモーター等を用いたものとすれば良い。
本発明の3次元オブジェクト計測装置は、少ない撮影回数で3次元ステレオ計測に用いる複数の画像を得ることが目的であるところ、実施例4に係る3次元オブジェクト計測装置100cは基本姿勢の撮影画像に加え、アングルを変えてもう一回撮影を行なうものであるが、オブジェクトの形状や姿勢に影響され、もともと撮影が難しい部位について複数の画像を二回の撮影で得るものであり、少ない撮影回数で3次元ステレオ計測に用いる複数の画像を得る本発明の目的に沿ったものと言える。
以上、本発明の好ましい実施形態を図示して説明してきたが、本発明の技術的範囲を逸脱することなく種々の変更が可能であることは理解されるであろう。
【実施例5】
【0083】
本実施例5では、本発明の3次元オブジェクト計測装置のプロトタイプを製作し、実物体の形状を計測している。以下に、実測画像を用いた形状計測データ結果を示す。
本実施例5のオブジェクト計測環境を説明する。計測に用いたカメラは、Opteon社製DepictD1Eを用い、1392×1040(pixels)で撮影された画像から、1024×1024(pixels)の画像を切り出して使用した。また光源としてリングライトを用い、カメラの周囲から物体へ光を投射した。円筒鏡の内径は90(mm),高さは100(mm)である。但し、本実施例で用いたカメラはグレースケール画像のみ得られることから、前述の数式9におけるl (t,w)およびl (t,w)(i=r,g,b)については、下記数式10とする。ここで、l gray(t,w)およびl gray(t,w)はそれぞれ、SourceおよびTargetにおいて、カメラから得られた撮影画像の明度値である。また取り得る値の範囲は双方とも0以上255以下である。
【0084】
【数10】
【0085】
本実施例では計測対象として、図20に示す円錐形状のオブジェクトを用いている。この円錐形状のオブジェクトの底面の直径は56(mm),高さは34(mm)であり、円錐表面はグレースケールの情景画像をテクスチャとして持つものである。
図20に示される円錐形状のオブジェクトを本発明の3次元オブジェクト計測装置で撮影すると、図21に示す撮影画像が得られた。本実施例では、この画像から円錐のオブジェクトの形状計測を行った。
ここで、本実施例におけるSSDの窓サイズは5×5(pixels)とした。また、前述の数式5におけるスケールsを0.5から2.0まで0.1ずつ変化させて、カメラで直接観測された像と円筒鏡に1回反射した像を用いて、ステレオ視により形状を計測した。本発明の3次元オブジェクト計測装置による円錐の形状計測結果を図22に示す。
また、本発明の3次元オブジェクト計測装置により計測された円錐の形状について、横軸を画像中心からの距離,縦軸を高さとする散布図にしたものを図23に示す。
【0086】
上述のように、実際の物体の形状計測を試みた結果、本発明の3次元オブジェクト計測装置を用いて、実物体の全周形状を一枚の画像によって計測できることが示された。本実施例5により、本3次元オブジェクト計測装置は、カメラと円筒鏡のみからなる単純な装置構成と、画像を一枚のみ撮影する簡易な撮影プロセスで、物体の全周形状を計測でき、物体の全周形状計測に有用であることが示されたことになる。
【産業上の利用可能性】
【0087】
本発明の3次元オブジェクト計測装置は、円筒鏡に物体を入れ、カメラで上から物体を撮影することで、一回の撮影で物体の全方向からの多視点画像を得られ、反射屈折ステレオ視により、一枚の画像から物体の三次元全周形状を計測できることから、例えば、昆虫や小動物の電子図鑑など、教育分野におけるコンテンツ作成用途において利用することができ、またそれらのコンテンツを用いることにより、動画の記述の充実を図ることができる。教育分野のみならず、医療分野、学術研究分野など多目的に本3次元オブジェクト計測装置を用いることができるのである。
本発明の3次元オブジェクト計測装置は、装置構成や撮影プロセスの簡単さから、ユーザが個人的な所有物の形状を手軽に計測したり、多くの物体の全周形状を効率良く計測したりする用途に有用である。また、一枚の画像から物体の全周形状を計測できるため、連続的に画像を撮影すれば、動物の動きとともに全周形状を記録することも可能であり、静止画のみならず動画の記述の充実を図ることができる。
【図面の簡単な説明】
【0088】
【図1】実施例1に係る3次元オブジェクト計測装置の基本構成を模式的に示した図
【図2】直接画像と反射画像のカメラにおける受光を3次元オブジェクト計測装置の縦断面において模式的に表した図
【図3】台座の上に載せ置かれたコーン形状であるオブジェクトをカメラにより撮影して得た画像を模式的に示す図
【図4】オブジェクトの点Aに対する直接画像D0、一回反射画像R1、二回反射画像R2の撮影視点を等価的に展開した様子を模式的に示した図
【図5】台座の中心に置かれたピラミッド形状のオブジェクトの直接画像および鏡面円筒体の内壁鏡面に映り込んだ反射画像を併せて撮影した画像を示した図
【図6】オブジェクトが台座の中心からずれた位置に載せ置かれた場合でも特徴点同士の幾何学的関係が保たれていることを示す図
【図7】オブジェクトの一点から鏡に2回反射してカメラに入射する光線の軌跡の一例を示す図
【図8】仮想オブジェクトを撮影したシミュレーション画像を示す図
【図9】角φと画像中心からの距離dの関係図
【図10】極座標展開した結果の撮影画像
【図11】探索対象領域を示す図
【図12】本発明の3次元オブジェクト計測装置におけるステレオ計測処理を実行する構成要素を示すブロック図
【図13】実施例2に係る3次元オブジェクト計測装置の基本構成を模式的に示した図
【図14】実施例3に係る3次元オブジェクト計測装置の基本構成を模式的に示した図
【図15】台座と魚眼レンズとの距離が小さい場合のメリットとデメリットを模式的に説明した図
【図16】台座と魚眼レンズとの距離が大きい場合のメリットとデメリットを模式的に説明した図
【図17】実施例4に係る3次元オブジェクト計測装置の基本構成を模式的に示した図
【図18】基本姿勢における直接画像と反射画像の光路を3次元オブジェクト計測装置の縦断面において模式的に表した図
【図19】台座の中心を回転運動の中心として鏡面円筒体およびカメラを一体として垂直面内で時計回りに45度回転移動した状態を示す図
【図20】計測対象として用いた円錐形状を有する実物体を示す図
【図21】計測対象として用いた円錐形状を有する実物体の撮影画像
【図22】実測画像を用いた円錐の形状計測結果を示す図
【図23】円錐の中心からの距離と高さの関係を示す図
【符号の説明】
【0089】
1 オブジェクト
10 台座
20 鏡面円筒体
30,30a,30b カメラ
31 魚眼レンズ
32 撮影記録手段
40 画像データ処理装置
41 特徴点抽出手段
42 対応特徴点探索手段
43 3次元画像データ生成手段
100,100a,100b,100c 3次元オブジェクト計測装置
【Technical field】
[0001]
  In the present invention, a three-dimensional object is photographed from a plurality of angles, and a plurality of images are obtained based on the correspondence between feature points in one image and feature points (corresponding feature points) in another image corresponding to the feature points. The present invention relates to a three-dimensional object measurement apparatus that performs stereo measurement processing of a used three-dimensional object and generates three-dimensional image data of the three-dimensional object.
[Background]
[0002]
  In recent years, informatization promotion plans for school education have been promoted in elementary, middle and high school education, and measures are being promoted so that computers can be used in the classes of all classes at all elementary, middle and high schools. In addition, broadband networks have become widespread at home, and it has become possible to easily search and browse various data on the Internet.
  As described above, while hardware resources and network environments are being developed in the education field, the importance of enhancing attractive educational content that can be easily used has been pointed out. One of the typical educational contents is an electronic picture book of insects and animals. Even now, there is an electronic picture book that digitizes information on insects and animals, and it can be browsed via the Internet, but the current electronic picture book includes a two-dimensional plane published in the existing picture book. There are many electronic pictorial books that only take photographs etc. as digital data, make them databaseable, and can be searched and browsed. Especially in the future, 3D electronic pictorial books that can see the three-dimensional structure and movement of insects and animals, etc. Development of various electronic pictorial books is desired.
[0003]
  Now, taking in the three-dimensional shapes of insects and animals requires a great deal of labor and cost by specialists, but the dynamic development and development of various electronic pictorial books that meet the needs of teachers in the field of education For production, it is desirable that school teachers can easily edit electronic picture books without going through specialists. In other words, an ordinary person such as a school teacher can easily measure the shape and movement of a 3D object, import it as 3D data, and create an electronic picture book or add content based on the 3D data. Development is needed.
[0004]
  The technology for measuring the shape of a 3D object and importing it as 3D data has been researched mainly in the field of computer vision, and there are two methods for measuring the shape of a 3D object: an active measurement method and a passive measurement method. Known (for example, Patent Document 1).
  As the former active measurement method, there are a direct measurement method using a laser or an ultrasonic wave, a pattern projection method in which a pattern is projected by a projector or the like, and a surface shape is measured by distortion of the pattern. The latter passive measurement method includes a stereo measurement method in which two or more cameras are used for stereo measurement. A method of performing stereo measurement using a single camera using a mirror has also been proposed.
[0005]
[Patent Document 1]
JP 2001-241928 A
DISCLOSURE OF THE INVENTION
[Problems to be solved by the invention]
[0006]
  First, the conventional active measurement method has a problem that a measurement range is narrow as a first problem. Both direct measurement methods using lasers and ultrasonic waves, and pattern projection methods that project patterns with projectors, etc., measure only the area that is directly exposed to the irradiation light and that is observed by a measuring instrument such as a camera. There was a problem that it was not possible.
[0007]
  Further, the conventional active measurement method has a second problem that image data of a pattern or color cannot be obtained. The conventional active measurement method is for measuring the outer shape of a three-dimensional object, and cannot obtain pattern and color data directly. Therefore, it is necessary to prepare other patterns and color data. In other words, this active measurement method is mainly a method for generating a three-dimensional wire frame or a three-dimensional polygon from a three-dimensional object, and it is necessary to prepare a development image separately for the pattern and color data as a texture image. In order to generate the dimensional image data, a large number of steps and a great deal of labor are required.
[0008]
  Next, the conventional passive measurement method has a problem that the scale of the apparatus becomes large as a first problem. In order to obtain three-dimensional image data based on a photographed image of a three-dimensional object that is originally a two-dimensional image, a plurality of two-dimensional images obtained by photographing the three-dimensional object from a plurality of viewpoints are required. In order to obtain three-dimensional image data that can withstand, it is necessary to prepare a large number of cameras around the three-dimensional object and to photograph the entire circumference of the three-dimensional object in all directions. Thus, in order to obtain 3D image data that can withstand viewing as an electronic pictorial book, there is a problem that the scale of the apparatus becomes large.
[0009]
  Further, the conventional passive measurement method has a problem that when a large number of images are prepared from a large number of viewpoints, it is difficult to match feature points. In the stereo measurement method, it is necessary to perform stereo measurement between a large number of images taken from a large number of viewpoints. In the process, feature points such as singular points and edge portions are selected, and matching is performed using the feature points as clues. To do. However, 3D objects with complex shapes such as insects and animals have many feature points, and as the number of feature points increases, the amount of calculation for matching them increases rapidly and takes matching. It becomes difficult.
  As a device for reducing the number of cameras in order to reduce the size of the device, there is a device using a plane mirror, but this device alleviates the first problem of the passive measurement method to some extent, but the three-dimensional object In order to obtain an image that covers the entire upper, lower, left, and right circumferences, a plurality of cameras are still required. Furthermore, with this apparatus, the second problem of the passive measurement method remains as a problem that cannot be alleviated.
[0010]
  Also, for the purpose of simplifying the system configuration, a catadioptric stereo vision system that measures the three-dimensional shape of an object with a single camera using a reflected image or a refracted image by a mirror or a prism is known. A catadioptric stereo vision system is equivalent to an image observed with a camera from multiple viewpoints by using multiple optical beams to enter multiple light beams traveling on different orbits starting from the same point on the object surface. It is a system that realizes stereo viewing with a single camera by taking an image.
  This catadioptric stereo vision system has the advantage that a camera with parallax can be obtained with a single camera, so that camera parameter correction processing is not required and images of each viewpoint are photographed in synchronization. In addition, by arranging cameras and mirrors so that the epipolar line is the same as that on the scanning line, it is possible to limit the range where the corresponding points exist, as in the stereo vision system using a plurality of cameras.
  However, the object shape measurement method based on the catadioptric stereo vision system has a problem that it is difficult to obtain a correct object shape due to the occurrence of irregular reflection by a mirror and the expansion of the corresponding point search range. .
[0011]
  In view of the above problems, the present invention has a small apparatus scale, and an image that covers the entire upper, lower, left, and right circumferences of a three-dimensional object is obtained by a small number of captured images captured by a small number of cameras (or two). It is possible to easily correspond between feature points between images, and a multi-viewpoint image from all directions of an object can be obtained by one shooting, and one image is obtained by catadioptric stereovision. An object of the present invention is to provide a three-dimensional object measuring apparatus capable of measuring the three-dimensional shape of an object from the above.
[Means for Solving the Problems]
[0012]
  In order to achieve the above object, a three-dimensional object measuring apparatus of the present invention includes a pedestal on which a three-dimensional object to be photographed is placed, a specular cylinder that surrounds the pedestal with an inner wall surface of a cylinder, and the inner wall surface of the cylinder is a mirror surface. A fisheye lens facing the pedestal and having a lens optical axis coinciding with the cylindrical central axis of the specular cylindrical body, and photographing recording means for recording an image obtained through the fisheye lens A direct image obtained by directly viewing the three-dimensional object on the pedestal and the reflection of the three-dimensional object on the pedestal reflected on the mirror surface of the inner wall of the specular cylindrical body. The image is taken together.
  According to the above configuration, the fish-eye lens can shoot an image of the entire viewing angle radially around the lens optical axis, the direct image obtained by directly photographing the three-dimensional object placed on the pedestal facing the fish-eye lens, and the side surface of the mirror cylinder The reflection image of the three-dimensional object reflected on the mirror surface of the inner wall can be taken at the same time. Due to the nature of the cylindrical mirror surface, this reflection image reflects the front image seen from the omnidirectional viewpoint that surrounds the periphery of the three-dimensional object, and the reflection image is taken from the omnidirectional viewpoint. A front image can be obtained at a time.
  In addition to placing the three-dimensional object to be photographed on the pedestal, the three-dimensional object may be fixedly supported by being stabbed with, for example, a wire. Moreover, you may utilize a tabletop as a base.
[0013]
  Here, there may be a plurality of reflected images of the three-dimensional object reflected on the mirror surface of the inner wall of the side surface of the mirror cylinder. In other words, a so-called once-reflected image reflected once by a mirror surface and captured by a fish-eye lens, or a so-called twice-reflected image reflected twice by a mirror surface and captured by a fish-eye lens is reflected n times (n is a natural number) on the mirror surface. Thus, there may be a so-called n-th reflection image captured by the fisheye lens.
  Although the above is an explanation of still images, if still images that are continuous in time series are obtained, they can be handled as moving images, and three-dimensional moving image data relating to the movement of the target object can also be obtained. Become.
[0014]
  In order to achieve the above-described object, the three-dimensional object measurement apparatus of the present invention includes a pedestal on which a three-dimensional object to be imaged is placed, the pedestal is surrounded by an inner wall surface of the cylinder, and the inner wall surface of the cylinder is a mirror surface. A mirror-shaped cylindrical body, a fish-eye lens facing the pedestal and arranged so that a lens optical axis coincides with a cylindrical central axis of the mirror-shaped cylindrical body, and a photographing recording means for recording an image obtained through the fish-eye lens A direct image obtained by directly viewing the three-dimensional object on the pedestal, and the three-dimensional image on the pedestal that is reflected on the mirror surface of the inner wall of the mirror cylindrical body. A three-dimensional object measuring apparatus for photographing together with a reflection image of an object, wherein a feature point on a photographed image photographed by a photographing recording means of the camera is extracted and determined A corresponding feature point on the reflected image corresponding to the feature point on the direct image extracted by the output unit and the feature point extracting unit is searched and determined on the reflected image, or the feature point extracting unit Means for searching for and determining a corresponding feature point on the direct image corresponding to the feature point on the reflected image extracted by the method on the direct image, the center of the image and the feature point in the captured image Corresponding feature point search means for searching for the corresponding feature point by searching on an extension line connecting the two, and stereo measurement of the direct image and the reflected image based on the correspondence between the feature point and the corresponding feature point 3D image data generation means for performing processing and generating 3D image data of the 3D object from the direct image and the reflection image is provided. That.
  With the above configuration, it is possible to easily match a feature point and a corresponding feature point corresponding to the feature point between the direct image and the reflected image in the stereo measurement process. That is, in the three-dimensional object measuring apparatus of the present invention, the reflection image is an image developed radially from the center of the pedestal (cylindrical center), and the feature points and the corresponding feature points corresponding to each other are always on the same straight line. Therefore, there is an advantage that the corresponding point search is simplified.
  That is, an image of a certain point on the object to be imaged is reflected on the inner wall mirror surface of the mirror cylinder facing the opposite side, and in the case of a twice-reflected image, it is point-symmetrical, but it is a position folded around the center point. Eventually, the feature point on the reflected image corresponding to a certain feature point on the direct image is on an extension of a straight line connecting the feature point on the direct image and the center point of the image. By incorporating this geometrical relationship into the feature point search matching algorithm, the calculation cost can be greatly reduced.
  The present invention combines a specular cylinder and a fisheye lens arranged so that the lens optical axis coincides with the cylindrical central axis of the specular cylinder without using a complicated feature point detection algorithm. The corresponding feature point corresponding to the feature point can be efficiently searched using the geometrical relationship.
  The geometric relationship between the feature points described above does not change even if the object is placed at a position shifted from the center of the pedestal. Even when the object is placed at a position shifted from the center of the pedestal, the geometric relationship between the feature points is maintained. When the object is placed at a position deviated from the center of the pedestal, the reflected image reflected on the inner wall mirror surface of the mirror cylindrical body is distorted, but the feature points exist on a straight line passing through the image center. This is because, when the optical axis of the camera and the central axis of the cylindrical mirror coincide with each other, in order for a light beam to enter the camera, the light beam must pass through the central axis of the cylindrical mirror. The two tangents of the cylindrical mirrors facing each other are always parallel, and the light rays that pass through the center of the cylinder always enter the mirror surface with parallel tangents perpendicularly when viewed from directly above. It is.
[0015]
  Next, in the three-dimensional object measurement apparatus according to the present invention, the pedestal is formed of a transparent material, the object is visible from the lower side of the pedestal, and the two cameras of the first camera and the second camera are used as the cameras. Preferably, a camera is provided, and the fisheye lens of the first camera and the fisheye lens of the second camera are arranged so as to face each other with the pedestal in between.
  With the above-described configuration, it is possible to simultaneously capture an upper image and a lower image of a three-dimensional object by photographing with a fisheye lens from two directions of the upper and lower surfaces of the mirror surface cylindrical body.
[0016]
  Next, in the three-dimensional object measurement apparatus of the present invention, the camera can move along the cylindrical central axis with respect to the mirror cylindrical body, and the distance between the pedestal and the fisheye lens is set as a subject to be photographed. It is preferable that the height of the three-dimensional object is L and is variable within a range of L to 10 L from the base that is the base.
  The position at which the reflection image of the three-dimensional object is reflected on the mirror surface of the inner wall of the side surface of the mirror cylinder varies depending on the size (height, thickness) and shape of the three-dimensional object to be measured. It is preferable that the position of the fisheye lens (the distance between the pedestal and the fisheye lens) can be adjusted in order to appropriately capture the direct image and the reflected image. Therefore, the distance between the pedestal and the fisheye lens is variable.
[0017]
  Next, in the three-dimensional object measuring apparatus of the present invention, the pedestal, the specular cylindrical body, and the camera can be moved relative to each other, and the pedestal is fixed and the center of the pedestal is set as the center of rotational movement. It is preferable that the mirror cylinder and the camera can be freely rotated and moved in a dimensional space.
  With the above configuration, even when the three-dimensional object has a sharp side shape or when the three-dimensional object has a concave shape, an image necessary for stereo measurement can be obtained for the portion. For example, when a three-dimensional object has a sharp side shape, an image cannot be obtained directly with a fisheye lens while the mirror cylinder and the pedestal are fixed. Also, if the 3D object has a slightly deep concave shape on the top surface, it is possible to obtain an image directly with the mirror cylinder and the camera fixed, but the concave part is the peripheral wall surface as a reflection image You can't get behind it. Thus, with the pedestal fixed, the center of the pedestal is used as the center of rotational movement, and the mirror cylindrical body and the camera can be freely rotated and integrated in a three-dimensional space. In the case of the above-mentioned or the latter concave shape, it is possible to adjust the arrangement of the mirror cylindrical body and the camera so that the direct image and the reflected image of those portions can be taken at different angles. It is.
【The invention's effect】
[0018]
  According to the three-dimensional object measuring apparatus of the present invention, an image of the entire viewing angle can be photographed radially around the lens optical axis by a fish-eye lens, and a photographed image of a three-dimensional object placed on a pedestal is obtained by combining a mirror cylindrical body. As a result, a direct image obtained by directly photographing the three-dimensional object placed on the pedestal facing the fisheye lens and a reflected image of the three-dimensional object reflected on the mirror surface of the side wall of the mirror cylindrical body are photographed at once. can do. Further, according to the three-dimensional object measurement apparatus of the present invention, it is possible to easily match a feature point and a corresponding feature point corresponding to the feature point between the direct image and the reflected image in the stereo measurement process.
BEST MODE FOR CARRYING OUT THE INVENTION
[0019]
  Hereinafter, embodiments of the three-dimensional object measurement apparatus of the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to the specific applications, shapes and dimensions shown in the following examples.
  In measuring a three-dimensional object, any means for supporting the three-dimensional object may be used as long as it can support the object, and examples thereof include a pedestal, a hanging thread, a wire, and a needle. Here, the pedestal is not limited to a small plate-like one incorporated in the apparatus housing, but includes a large one such as a desk or a table. When the desk is used as the support means, a mirror cylinder described later is placed on a desk as a pedestal as the support means.
In the embodiment described below, the support means for the three-dimensional object will be described as a pedestal that is a small disk-like plate.
[Example 1]
[0020]
  1 illustrates an example of a three-dimensional object measurement apparatus according to a first embodiment of the present invention.
  FIG. 1 is a diagram schematically illustrating a basic configuration of a three-dimensional object measurement apparatus 100 according to the first embodiment.
[0021]
  Reference numeral 10 denotes a pedestal on which a three-dimensional object to be photographed is placed. Although the shape of the base 10 is not limited, For example, it is set as a disk shape. The size of the pedestal 10 is set so that a three-dimensional object to be photographed can be placed.
[0022]
  Reference numeral 20 denotes a mirror cylindrical body. The mirror cylindrical body 20 has a cylindrical shape with a perfect circle in cross section, and its inner wall surface is a mirror surface. That is, the mirror surface cylindrical body referred to in the present invention refers to a cylindrical body whose inner wall surface is cylindrical and has a mirror surface. The outer wall surface of the cylindrical body does not necessarily have to be a cylindrical shape or a mirror surface. For example, the outer shape is a quadrangular prism and is made of a plastic material, but includes a cylindrical hollow on the inside and a mirror surface on the inner wall.
  The inner diameter of the mirror cylindrical body 20 is large enough to accommodate the pedestal 10 therein. In this example, the pedestal 10 is accommodated in the bottom surface portion of the mirror cylindrical body 20.
  The height of the mirror cylindrical body 20 may be at least L from the base 10 serving as a base, where L is the height of the three-dimensional object to be imaged. It can be.
[0023]
  Reference numeral 30 denotes a camera. The camera 30 includes a fisheye lens 31 and a photographing recording means 32.
  The fisheye lens 31 faces the pedestal 10 and is arranged so that the lens optical axis coincides with the cylindrical central axis of the mirror surface cylindrical body 20. In this example, the fisheye lens 31 is disposed on the upper surface of the mirror cylindrical body 20 and is installed downward so as to face the pedestal 10. The central axis (lens optical axis) of the fisheye lens 31 is arranged so as to coincide with the central axis (cylindrical central axis) of the cylindrical mirror body 20.
  The photographing recording means 32 is not particularly limited as long as it can record an image obtained through the fisheye lens 31, and may be a so-called analog image recording means for exposing and recording on an analog film, and a light receiving element such as a CCD (Charge Coupled Device). It is also possible to use so-called digital recording means for receiving light and recording as digital data. As an example, the photographing recording means 32 is here a digital image recording means.
[0024]
  The image data processing device 40 receives a two-dimensional image photographed by the camera 30 and generates three-dimensional image data by stereo measurement processing. The image data processing device 40 includes a feature point extraction unit 41, a corresponding feature point search unit 42, and a three-dimensional image data generation unit 43 (not shown in FIG. 1), which will be described later.
[0025]
  Next, in the configuration example of the three-dimensional object measuring apparatus 100 shown in FIG. 1, the principle and procedure for obtaining the three-dimensional image data by photographing the object placed on the pedestal 10 and using the stereo measurement method will be described. Here, as an example, an example of reading a three-dimensional object (object 1) having a cone shape (cone shape) will be described.
  In order to obtain three-dimensional image data from two-dimensional image data based on the stereo measurement method, as a procedure 1, a procedure for obtaining a two-dimensional image obtained by photographing a target three-dimensional object from a plurality of viewpoints (different angles). Procedure 2 is a procedure for performing matching processing between feature points between a plurality of acquired two-dimensional images and associating each element of a three-dimensional object. Procedure 3 is difference calculation or inference calculation based on stereo measurement processing. Therefore, it is necessary to follow the procedure to be performed as three-dimensional image data.
[0026]
  First, as the procedure 1, the three-dimensional object measuring apparatus 100 according to the present invention obtains at least two images, that is, a direct image and a reflected image by one shooting. Here, the direct image refers to an image obtained by receiving a light beam directly incident on the fisheye lens 31 from the three-dimensional object on the pedestal 10, that is, an image of a three-dimensional object that can be directly seen from the viewpoint of the fisheye lens 31. The reflected image is an image obtained by receiving a light beam reflected from the three-dimensional object on the pedestal 10 and reflected on the inner wall mirror surface of the specular cylindrical body 20 and incident on the fisheye lens 31, that is, from the viewpoint of the fisheye lens 31. A reflection image of a three-dimensional object reflected on the inner wall mirror surface. The reflected image includes a one-time reflected image R1 that is reflected once on the inner wall mirror surface of the mirror cylindrical body 20 and enters the fisheye lens 31, and a two-time reflected image that is reflected twice on the inner wall mirror surface of the mirror cylinder 20 and incident on the fisheye lens 31. Includes images obtained by multiple reflections such as R2. That is, what is reflected n times (n is a natural number) on the inner wall mirror surface of the mirror cylindrical body 20 and enters the fisheye lens 31 is an n-time reflected image Rn.
[0027]
  FIG. 2 is a diagram schematically showing how the direct image and the reflected image are received by the camera 30 in the longitudinal section of the three-dimensional object measuring apparatus 100. In FIG. 2, attention is paid only to a certain point A of the three-dimensional object 1. Light emitted from a point A of the three-dimensional object 1 placed on the base 10 and directly incident on the fisheye lens 31 is an optical path A0 that directly forms an image. Light that is emitted from the point A, reflected once on the inner wall mirror surface of the mirror cylindrical body 20, and incident on the fisheye lens 31 is an optical path A1 that forms a once reflected image. Light emitted from the point A, reflected twice on the inner wall mirror surface of the mirror cylindrical body 20 and incident on the fisheye lens 31 is an optical path A2 that forms a twice reflected image.
  Although there are optical paths that reflect three or more times, FIG. 2 shows only the optical path A2 that reflects twice, and illustration of the optical paths beyond that is omitted. Further, FIG. 2 shows an optical path focusing only on the point A, but light emitted from all points on the surface of the object 1 enters the fisheye lens 31 according to the same principle as in FIG.
[0028]
  FIG. 3 is a diagram schematically showing an image obtained by photographing the object 1 having a cone shape placed on the pedestal 10 with the camera 30. A point A of the object 1 is shown as a small white dot for reference. In FIG. 3, the image seen at the center is the direct image D0 of the object 1, and the cone shape is seen from directly above. In FIG. 3, the circle directly surrounding the image D <b> 0 is the pedestal 10 and the edge E of the specular cylindrical body 20. Next, the outer ring-shaped object surrounding the edge E is a one-time reflected image R1 of the object 1 reflected on the inner wall mirror surface of the mirror cylinder 20. The cone-shaped side surface is reflected so as to go around the inner wall mirror surface of the surface cylindrical body 20. Next, the outer ring-shaped object surrounding the once reflected image R1 is a twice reflected image R2 of the object 1 reflected on the inner wall mirror surface of the mirror cylindrical body 20. Similar to the single reflection image R1, the cone-shaped side surface is reflected around the inner wall mirror surface of the surface cylindrical body 20, but in the double reflection image R2, the image is a point-symmetric image. That is, the image of a certain point A on the object 1 is on the right side in the direct image D0 (image point G0) and on the right side in the single reflection image R1 (image point G1), but on the left side in the double reflection image R2. It is reflected (image point G2).
  In FIG. 3, the reflection image (reflection image R3 etc.) of three or more reflections is not shown.
  In the three-dimensional object measuring apparatus 100 of the present invention, a plurality of images, that is, a direct image and a reflected image are obtained by one shooting as described above.
[0029]
  Here, the reason why the direct image and the reflected image obtained by the three-dimensional object measuring apparatus 100 of the present invention can be used for three-dimensional stereo measurement as images taken from a plurality of viewpoints at different angles will be described.
[0030]
  4 equivalently develops the photographing viewpoints of the optical path A0 that forms a direct image with respect to the point A of the object 1 described in FIG. 2, the optical path A1 that forms a once-reflected image, and the optical path A2 that forms a twice-reflected image. It is the figure which showed the mode which performed. Although the actual fisheye lens 31 is the photographing viewpoint F0, the optical path A1 corresponding to the once reflected image R1 is equivalent to the optical path A1 'incident on the photographing viewpoint F1. Similarly, the optical path A2 corresponding to the twice reflected image R2 is equivalent to the optical path A2 'incident on the photographing viewpoint F2. That is, the point A in the once reflected image R1 is equivalent to the point A in the image that would be obtained if the object 1 was photographed by the virtual camera 30 ′ at the photographing viewpoint F1, and the point A in the twice reflected image R2 Can be said to be equivalent to a point A in the image that would be obtained if the object 1 was photographed by the virtual camera 30 ″ at the photographing viewpoint F2. If the inner diameter of the mirror cylinder 20 is r, the photographing viewpoint F1 is a position 2r away from the fisheye lens 31, and the photographing viewpoint F2 is a position 4r away from the fisheye lens 31.
[0031]
  The above description using FIG. 4 has been described focusing only on the point A on the right side of the object 1, but in practice, all the points on the cone-shaped surface are between the inner wall mirror surfaces of the facing mirror cylindrical body. Therefore, the one-time reflected image R1 reflected on the inner wall mirror surface of the mirror cylindrical body 20 shown in FIG. 3 is 360 degrees around the circumference of the radius 2r with the center axis of the cylinder as the center of rotation. The object 1 is photographed while moving 30 ′, and is an image equivalent to an image obtained by collecting only the central images of the respective photographed images (front images that are directly opposite to the photographing viewpoint in the cone shape). . Similarly, the twice-reflection image R2 is obtained by shooting the object 1 while moving the virtual camera 30 ″ around the circumference of the radius 4r around the circumference of the cylinder with the center axis of the cylinder as the center of rotation, and the center image of each shot image. It is an image equivalent to an image obtained by collecting only the images. That is, the direct image D0, the reflected image R1, and the reflected image R2 obtained by the three-dimensional object measuring apparatus 100 of the present invention are added to the radius from the center axis of the cylinder in addition to the direct image from the actual viewpoint F0 where the fisheye lens 31 is disposed. It includes images taken from innumerable (number of resolutions) photographing viewpoints arranged so as to surround a circumference 2r apart and a circumference 4r away from the circumference. However, although the number of shooting viewpoints is innumerable, the reflection image is equivalent to a confrontation image of each shooting viewpoint, that is, a collection of only the central images that face the front of the images taken from each shooting viewpoint. If one point on the object 1 is noticed (for example, point A), the number of image data that can be used for stereo measurement is not innumerable, but an image of the point (for example, an image) directly copied to the image D0. The point G0), the image of the point (for example, the image point G1) captured in the single reflection image R1 captured from the viewpoint having the radius 2r, and the two-reflection image R2 captured from the viewpoint of the radius 4r. There are only three image data of the image of the corresponding point (for example, the image point G2). That is, in this example, as the image data used for the stereo measurement process, the same effect as that obtained when two-dimensional images from three viewpoints are obtained at one time is obtained.
[0032]
  Here, a method for determining the parameter of the ray angle incident on the camera from the point through the fisheye lens in the stereo vision measurement of the three-dimensional object measurement apparatus of the present invention will be described.
  In the fisheye lens, the angle φ formed by the light beam incident on the fisheye lens and the optical axis and the light beam are projected.
The relationship of the distance d from the image center on the image plane can be expressed by the following formula 1.
[0033]
[Expression 1]
[0034]
  FIG. 9 shows a relationship diagram between the angle φ and the distance d from the image center. Here, f is a focal length. The function g (φ) is a projection characteristic of the fisheye lens, and the characteristic differs for each lens.
  By having the projection characteristics of the fisheye lens as a database, the angle of light rays incident on the camera can be determined by the distance from the image center of the point of interest in the captured image.
[0035]
  Next, procedure 2 for stereo measurement in the three-dimensional object measurement apparatus 100 of the present invention will be described.
  In the procedure 2, stereo measurement processing is performed between the acquired two-dimensional images and association is performed for each element of the three-dimensional object. However, performing stereo measurement processing for all the pixels increases the calculation cost. Usually, the image data is converted to the frequency domain by DCT transform or Fourier transform, singular points and edges in the image are extracted, their representative ones are selected as feature points, and feature points in the image are Search and match. Here, feature points in other images corresponding to feature points in an image are referred to as corresponding feature points.
[0036]
  In the case of a simple matching algorithm in the prior art, all feature points between images are searched and matched by trial and error, but when the shape of the object becomes complicated, many singular points and edges are included in the image. The number of feature points is selected, and the calculation cost of the matching process becomes enormous.
  However, when the three-dimensional object measuring apparatus 100 of the present invention is used, the matching process between the feature points can be executed using the geometric relationship between the direct image and the reflected image, thereby greatly reducing the calculation cost. can do. The principle can be explained as follows. As described with reference to FIGS. 3 and 4 above, the image captured by the camera 30 includes a direct image D0 and a reflected image (here, two images of a once-reflected image R1 and a twice-reflected image R2). Although shown, there is an important geometric relationship between the direct image D0 and the reflected image (the once reflected image R1 and the twice reflected image R2). The geometric relationship referred to here is a relationship in which corresponding feature points exist on the same straight line drawn so as to pass through the center of the image.
[0037]
  An image of a certain point on the object is reflected on the inner wall mirror surface of the mirror cylinder facing the object. In the case of a twice-reflection image, it is point-symmetrical, but since it is a position folded around the center point, the feature point on the reflection image corresponding to a certain feature point on the direct image is eventually the feature on the direct image. It is on the extension of a straight line connecting the point and the center point of the image. Referring to FIG. 3, when searching for a feature point corresponding to an image point G0 which is a certain feature point directly on the image D0, if a search is performed on an extension line of a straight line connecting the image center C and the image point G0, An image point G1 that is a corresponding feature point in the twice-reflected image R1 and an image point G2 that is a corresponding feature point in the twice-reflected image R2 are found. If this geometric relationship is incorporated in a matching algorithm for searching for feature points, the calculation cost can be greatly reduced.
  By the above procedure, the corresponding feature points corresponding to the feature points are efficiently searched using the geometric relationship between the feature points.
[0038]
  As a reference, an example of an image obtained by photographing a pyramid-shaped object in the prototype three-dimensional object measuring apparatus 100 of the present invention is shown.
  FIG. 5 shows an image obtained by placing a pyramid-shaped object at the center of the pedestal and taking a direct image thereof and a reflection image reflected on the inner wall mirror surface of the mirror cylindrical body. The radiation drawn in the image is a line added to the image by post-processing so that the correspondence between the direct image and the reflected image can be easily seen, and such radiation is not reflected from the beginning. Absent.
[0039]
  The geometric relationship between the feature points described above does not change even if the object is placed at a position shifted from the center of the pedestal. FIG. 6 is a diagram showing that the geometric relationship between the feature points is maintained even when the object is placed at a position shifted from the center of the pedestal. Compared to FIG. 5, the object is moved from the center of the pedestal. The reflection image reflected on the inner wall mirror surface of the mirror cylinder is greatly distorted compared to FIG. 5, but the feature points exist on a straight line passing through the center of the image. I understand. In FIG. 6, for easy understanding, attention is paid directly to two feature points in the image, and two straight lines connecting these feature points and the center of the image are additionally drawn by post-processing. It can be seen that corresponding feature points in the once reflected image and the twice reflected image exist on the straight line.
[0040]
  The reason for this will be described with reference to FIG. FIG. 7 shows an example of the locus of light rays that are reflected twice from a point on the object and incident on the camera. (A) of FIG. 7 is observed from the side, and (b) is observed from right above. When the optical axis of the camera is coincident with the central axis of the cylindrical mirror, in order for a light ray to enter the camera, the light beam must pass through the central axis of the cylindrical mirror. When the three-dimensional object measurement apparatus of the present invention is viewed from above as shown in FIG. 7B, the two tangents of the cylindrical mirrors facing each other across the central axis of the cylinder are always as shown in FIG. 7B. Become parallel. Therefore, the light beam passing through the center of the cylinder always enters the mirror surface having parallel tangents perpendicularly when observed from directly above. Since light rays starting from the same point always exist on the same straight line, the epipolar line of the virtual camera is a straight line passing through the center of the cylinder.
[0041]
  FIG. 8 shows a simulation image obtained by photographing a virtual object.
An image in which an image directly visible from the camera at the center of the captured image and an image reflected by a cylindrical mirror are present around the image is obtained. Further, the reflected images are arranged concentrically from the image center in the order of the small number of reflections.
  Here, when the object shown in FIG. 8A has a conical shape, the light ray incident on the camera from the point A on the object surface moves only on the broken line connecting the center of the image and the point A. For this reason, the search range of the set of corresponding points existing in the photographed image can be limited to a straight line passing through the center of the image, so that the amount of calculation can be reduced and erroneous detection of the corresponding points can be reduced.
  Similarly, when the object shown in FIG. 8B has a quadrangular pyramid shape, the light ray incident on the camera from the point B on the object surface moves only on the broken line connecting the image center and the point B. Become.
  Further, even when the object in FIG. 8C has a conical shape and is photographed with the position shifted from the center, the light ray incident on the camera from the point C on the object surface is the center of the image. And move only on the broken line connecting the point C.
[0042]
  Next, procedure 3 for generating 3D image data based on stereo measurement processing in the 3D object measurement apparatus 100 of the present invention will be described.
  In step 3, stereo measurement processing of the direct image and the reflected image is performed based on the correspondence relationship between the feature point and the corresponding feature point obtained in step 2, and the 3D image data of the 3D object is obtained from the direct image and the reflected image. Is generated. For example, the calculation is performed as three-dimensional image data by calculating the difference between the direct image data and the reflected image data or inferring calculation. In the three-dimensional object measurement apparatus 100 of the present invention, the procedure 3 is not particularly limited, and any algorithm that performs stereo measurement processing can be widely applied.
[0043]
  FIG. 12 is a block diagram showing components of the 3D image data processing apparatus 40 in the 3D object measuring apparatus 100 of the present invention. Note that the hardware may be a specific implementation of 3D image data generation processing based on the stereo measurement method using an information processing organization combined with general-purpose personal computer resources and software modules. It may be realized by using dedicated hardware coded.
[0044]
  Reference numeral 41 denotes feature point extraction means for extracting and determining feature points on a photographed image photographed by the photographing recording means 32 of the camera 30. Although it is not particularly limited and can be widely applied as long as it is an effective feature point extraction algorithm, for example, image data is converted into a frequency domain by DCT transform, and singular points and edges in the image are extracted to extract feature points. Use a selection algorithm.
[0045]
  Corresponding feature point search means 42 is means for searching and determining corresponding feature points on the reflection image corresponding to the feature points on the direct image extracted by the feature point extraction means 41 on the reflection image, or features This is means for searching for and determining corresponding feature points on the direct image corresponding to the feature points on the reflected image extracted by the point extraction means 41 directly on the image. The corresponding feature point search means 42 incorporates an algorithm for executing a search using the above-described geometric relationship, that is, searching for a corresponding feature point by searching on an extension line connecting the center of the image and the feature point. deep.
[0046]
  43 is a three-dimensional image data generating means for performing a stereo measurement process between the direct image and the reflected image based on the correspondence between the feature points obtained by the corresponding feature point searching means 42 and the corresponding feature points, This is a part for generating three-dimensional image data of an object from a direct image and a reflection image which are two-dimensional images.
[0047]
  Here, as an example of the algorithm of the corresponding point search means 42, the details of a method using SSD (Sum of Squared Difference) will be described. As described above, the corresponding point search means 42 can apply an existing stereo measurement processing algorithm, and can apply a wide range of algorithms such as DP matching which is a non-linear matching method in addition to SSD.
  First, in the algorithm of the corresponding feature point search means 42, the captured image is expanded in polar coordinates for simplification of processing, and then a small area centered on a certain point is extracted as a search source area from the captured image expanded in polar coordinates. Thus, a process for searching for an area considered to be most similar to the search source area is performed.
  In this embodiment, an SSD (Sum of Squared Difference) is calculated between two regions, and it is determined that the regions are more similar as the SSD value is smaller. However, since the image reflected by the cylindrical mirror surface and incident on the camera includes distortion in the radial direction, the distortion of the reflected image should be corrected when determining the similarity between the regions. However, since the magnitude of the distortion of the reflected image depends on the normal direction of the object plane, which is an unknown parameter, it is impossible to correct the distortion analytically. Therefore, in this embodiment, in addition to the movement of the search region, the center point of the most similar region is calculated by calculating the SSD value while dynamically scaling the reflection image for examining the similarity in the radial direction. We decided to make the set of the corresponding points.
  In the following, with respect to the algorithm of the corresponding feature point search means 42, (1) polar coordinate development processing of the captured image, (2) normalization processing of the size of the search target region, (3) search target region limitation processing, (4) SSD This will be described separately for the value calculation process.
[0048]
(1) Polar coordinate expansion processing of captured images
  As a pre-process for simplifying the calculation of the SSD, a polar coordinate expansion process of the captured image is performed. FIG. 10A shows an example of an image obtained as a result of polar coordinate development. As described above, in an image photographed by the three-dimensional object measuring apparatus of the present invention, a set of corresponding points always exists on the same straight line passing through the image center. Therefore, the range when searching for a point corresponding to a certain point in the image by expanding the captured image into a polar coordinate image having the vertical axis as the distance from the image center and the horizontal axis as the angle is shown in FIG. It will be limited to the area of the broken line shown in (b).
  When the coordinate value in the image before polar coordinate development is (u, v) and the coordinate value after polar coordinate development is (t, w), the correspondence between the pixel values in the conversion is expressed by the following mathematical formulas 2 and 3. Here, t and w are integer values. U represents the number of pixels in the u and v-axis directions in the image before polar coordinate development, and T and W represent the number of pixels in the t and w-axis directions in the image after polar coordinate development, respectively. The image before the polar coordinate development is taken so that the center axis of the cylinder exists at the center of the image.
  Note that in the image before polar coordinate development, coordinate values (u, v) that do not satisfy the condition of Equation 4 below are not subject to conversion.
[0049]
[Expression 2]
[0050]
[Equation 3]
[0051]
[Expression 4]
[0052]
(2) Normalization processing of search target area size
  Next, a process for normalizing the size of the search target area will be described. As described above, the size of the reflected image in the w-axis direction in the captured image changes depending on the incident angle of the light beam and the normal direction of the object plane. For example, in FIGS. 10A and 10B, the size in the w-axis direction of the image that is reflected twice by the mirror and incident on the camera is smaller than the image that is reflected once and incident on the camera. . However, since the normal direction of the object plane is unknown at the measurement stage, it is impossible to analytically correct the change in the image size in the w-axis direction. Therefore, in the three-dimensional object measurement apparatus of the present invention, the SSD value is calculated while dynamically scaling the local region whose similarity is to be examined in the w-axis direction. Here, in order to calculate the SSD value, the size of the reference region (Source) and the evaluation target region (Target) in the search must be the same.
  In general, the change in image size due to the incident angle of light rays and the normal direction of the object surface is non-linear, but the distortion of minute images in a local region is small even if approximated by linear scaling. For this reason, in this three-dimensional object measurement apparatus, the local region is enlarged or reduced by linear interpolation in order to simplify the processing.
  In addition, the color of each pixel is expressed in the RGB color system. R, G, and B luminance values l at the point (t, w) in the normalized regioni(t, w) (i = r, g, b) is the luminance value o of the point before normalizationi Using (i = r, g, b) and the target scale s when Source is 1.0, it can be calculated from Equation 5 below. Here, trunc (x) is a function for truncating the decimal part of x.
[0053]
[Equation 5]
[0054]
(3) Search target area limiting process
Next, the search target area limiting process will be described. In an nth-order reflection image of an image taken with the three-dimensional object measurement apparatus of the present invention, a point (tS, WS) The area Target corresponding to the source Source has a spatial continuity of the image even if it is reflected by the mirror when no occlusion occurs. t, wn g). Where wn minAnd wn maxRespectively indicate the upper limit value and the lower limit value at which the nth reflected image exists, and wS minAnd wS maxIndicates the upper and lower values where the Source exists.
[0055]
[Formula 6]
[0056]
  Here, the point w obtained by the above equation 6n gIs the estimation of the position of the target corresponding to the source based on the linear ratio. As described above, the distortion of the reflected image in the w-axis direction is generally non-linear, but the error when approximating the non-linear distortion with a linear ratio is small when viewed locally.
  So the point (tS, WS) To search for an area corresponding to the area Source, the range in the w-axis direction to be searched is wn gThe search area is reduced by limiting the range to a certain range centered on.
  Center point (tS, WS) When searching for the Target corresponding to the area Source from the n-th order reflected image, the upper end w of the range of w as the center point of the searchn gminAnd lower end wn gmaxIs expressed by Equation 7 below. When the image reflected by the mirror is used as the source region, the upper end wn gminAnd lower end wn gmaxIs expressed by Equation 8 below. Here, a is a constant representing the width of the search range, and the larger the value, the wider the search range.
[0057]
[Expression 7]
[0058]
[Equation 8]
[0059]
(4) SSD value calculation processing
  Next, an SSD value calculation process will be described. In order to evaluate the similarity between the source and the target normalized by linear interpolation, the three-dimensional object measurement apparatus uses the SSD value between the source and target areas as an evaluation amount. SSD value d between this Source area S and Target area TST Is obtained by the following formula 9. In the following formula, lS iAnd lT i(T, w) (i = r, g, b) is the luminance of each pixel in Source and Target, respectively. Also, lS iAnd lT iThe range of values that (t, w) (i = r, g, b) can take is 0 or more and 255 or less.
[0060]
[Equation 9]
[0061]
  Here, a flow of searching for a target corresponding to a certain source will be described with reference to FIG. FIG. 11 shows an image directly observed from a camera as a whole set S of Sources.allRepresents an example. SallSource area Sa (Sa is SallThe search candidate area corresponding to (which belongs to the set of) can be limited to the area indicated by the broken line in FIG. The Target corresponding to the Source is considered to exist in the above-described local region, and the region is cut out while changing the window size in the search candidate region, and the SSD value of Sa is calculated. Then, the region Ta having the smallest SSD value is selected as a region corresponding to Sa, and the respective center points are set as a set of corresponding points used for stereo viewing. Similarly, SallThe corresponding points are searched for all the pixels included in.
[0062]
  As described above, according to the three-dimensional object measuring apparatus 100 of the present invention shown in the first embodiment, a direct image obtained by directly photographing a three-dimensional object placed on a pedestal facing the fisheye lens, and a mirror surface of the side wall of the mirror cylindrical body The reflected image of the reflected three-dimensional object can be photographed at the same time, and the feature point and the corresponding feature point corresponding to the feature point can be easily matched between the direct image and the reflected image, and stereo. Based on the measurement process, 3D image data can be generated from the 2D image data.
[Example 2]
[0063]
  An example of the three-dimensional object measurement apparatus 100a according to the second embodiment of the present invention will be described.
  The three-dimensional object measurement apparatus 100a according to the second embodiment forms a pedestal 10 of a transparent material with respect to the three-dimensional object measurement apparatus 100 according to the first embodiment, and as shown in FIG. The second camera 30b is provided with two cameras, and the fisheye lens 31a of the first camera 30a and the fisheye lens 31b of the second camera 30b are arranged so as to face each other with the pedestal 10 interposed therebetween.
  This is intended to capture a plurality of images from different viewpoints at the same time not only for the upper image of the object 1 but also for the lower image.
[0064]
  In the configuration in which one camera 30 is provided on the upper part of the specular cylindrical body 20 shown in the first embodiment, what is obtained as a captured image is a direct image D0 on the upper surface of the object 1 and a reflected image Rn on the upper surface of the object 1. The direct image D0 on the lower surface of the object 1 and the reflected image Rn on the lower surface of the object 1 cannot be taken together.
[0065]
  Therefore, the three-dimensional object measuring apparatus 100a according to the second embodiment has a configuration in which the camera 30b is provided not only at the upper part of the mirror cylinder 20 but also at the lower part of the mirror cylinder 20, and only the upper image of the object 1 is provided. Not only the lower image but also the direct image D0 and the reflected image Rn are taken at the same time. The pedestal 10 is made of a transparent material such as a glass plate so that the object 1 can be photographed from below, and the mirror cylindrical body 20 needs to be extended below the pedestal 10.
  Since the principle of photographing the direct image D0 and the reflected image Rn on the lower surface of the object 1 using the lower camera 30b and the principle of the stereo measurement processing are the same as those in the first embodiment, description thereof is omitted here.
[Example 3]
[0066]
  An example of the three-dimensional object measurement apparatus 100b according to the third embodiment of the present invention will be described.
  The three-dimensional object measurement apparatus 100b according to the third embodiment is configured such that the camera 30 is movable with respect to the mirror cylindrical body 20 with respect to the three-dimensional object measurement apparatus 100 according to the first embodiment. The camera 30 can move up and down along the central axis of the mirror cylindrical body 20, and the distance between the base 10 and the fisheye lens 31 is variable.
  The camera 30 may be moved by the user by hand, but the camera case may be moved in accordance with a user operation input by combining the camera case and the stepping motor mechanism. With a controllable configuration, the distance between the fisheye lens 31 and the object on the pedestal 10 can be adjusted accurately.
[0067]
  Considering the distance between the base 10 and the fisheye lens 31, the following can be said.
  There are advantages and disadvantages when the distance between the pedestal 10 and the fisheye lens 31 is small (when the distance between the object 1 and the camera 30 is short), and conversely, when the distance between the pedestal 10 and the fisheye lens 31 is large (the object 1 and the camera 30). (When the distance of 30 is far) has advantages and disadvantages, and it is necessary to adjust the distance between the pedestal 10 and the fisheye lens 31 in combination.
[0068]
  FIG. 15 is a diagram schematically illustrating merits and demerits when the distance between the base 10 and the fisheye lens 31 is small.
  When the distance between the pedestal 10 and the fisheye lens 31 is reduced, the object can be enlarged by the camera 30, and a detailed direct image D0 on the object surface can be obtained. In other words, the resolution of the image directly increases. This is a merit.
[0069]
  On the other hand, the incident angle to the fisheye lens 31 of the optical path A1 that forms the one-time reflected image R1 of the object reflected on the mirror surface of the inner wall of the mirror cylindrical body 20 increases. That is, the height of the shooting viewpoint F1 is reduced, and the once reflected image R1 corresponds to an image obtained by shooting the object from a viewpoint at a low position in the oblique direction. The incident angle to the fisheye lens 31 of the optical path A2 that forms the twice reflected image R2 of the object reflected on the inner wall mirror surface of the mirror cylindrical body 20 is further increased, and the twice reflected image R2 shows the object at a lower position in the oblique direction. However, the difference between the two-reflection image R2 and the one-time reflection image R1 is small, so that the stereo-measurement is used. A two-dimensional image to be used has a small amount of information. This is a disadvantage.
[0070]
  Next, FIG. 16 is a diagram schematically illustrating merits and demerits when the distance between the base 10 and the fisheye lens 31 is large.
  When the distance between the pedestal 10 and the fisheye lens 31 is increased, the object cannot be taken close-up by the camera 30 as compared with the case of FIG. 15, and the resolution of the direct image D0 on the object surface is lowered. This is a disadvantage.
[0071]
  On the other hand, the incident angle to the fisheye lens 31 of the optical path A1 forming the one-time reflected image R1 of the object reflected on the mirror surface of the inner wall of the mirror cylindrical body 20 is smaller than that in FIG. In other words, the height of the shooting viewpoint F1 is increased, and the once reflected image R1 corresponds to an image obtained by shooting the object from the viewpoint at a high position in the oblique direction. The incident angle to the fisheye lens 31 of the optical path A2 forming the twice reflected image R2 of the object reflected on the inner wall mirror surface of the mirror cylindrical body 20 is increased, and the twice reflected image R2 is taken from the viewpoint of the object at a low position in the oblique direction. The change in the incident angle of the once reflected image R1 and the incident angle of the twice reflected image is larger than that in the case of FIG. That is, the difference between the twice reflected image R2 and the once reflected image R1 is larger than that in the case of FIG. 15, and the amount of information is larger than that in the case of FIG. 15 as a two-dimensional image used for stereo measurement. This is a merit.
[0072]
  Thus, there are trade-offs between the advantages and disadvantages that occur when the distance between the pedestal 10 and the fisheye lens 31 is large, and the advantages and disadvantages that occur when the distance between the pedestal 10 and the fisheye lens 31 is small. Furthermore, since the size (height) of the object to be measured three-dimensionally affects the actual variable amount, the distance between the fisheye lens 31 and the object 1 is considered, not the distance between the pedestal 10 and the fisheye lens 31. There is a need.
  Therefore, the three-dimensional object measuring apparatus 100b according to the third embodiment is configured such that the camera 30 is movable up and down with respect to the mirror cylindrical body 20, and the camera 30 moves up and down along the central axis of the mirror cylindrical body 20. The distance between the pedestal 10 and the fisheye lens 31 is variable.
[0073]
  Note that, instead of making the camera 30 movable, considering the configuration in which the position of the camera 30 is fixed and the camera 30 includes a zoom mechanism, the size of the direct image D0, in particular, if the optical zoom mechanism is mounted, the direct image Although the resolution of D0 can be manipulated, the height of the photographing viewpoint F1 of the reflected image R1 and the photographing viewpoint F2 of the reflected image R2 cannot be manipulated. In addition, when the zoom mechanism is used, the peripheral image cannot be captured instead of the central image appearing large, and the higher-order reflected image Rn, and in some cases, the twice-reflected image R2 and the once-reflected image R1 are captured in the captured image. There is also a risk of disappearing. Therefore, the three-dimensional object measuring apparatus 100b according to the third embodiment places importance on manipulating the heights of the shooting viewpoint F1 of the reflected image R1 and the shooting viewpoint F2 of the reflected image R2 while considering the height of the object 1. The camera 30 can move up and down along the central axis of the mirror cylindrical body 20, and the distance between the base 10 and the fisheye lens 31 is variable.
However, the above description is not intended to exclude the camera 30 equipped with an optical zoom mechanism, but as the camera 30 of the three-dimensional object measuring apparatus 100 of the present invention, a camera equipped with an optical zoom mechanism or a digital zoom mechanism. Of course, it is possible to perform zoom shooting within a range where the reflected image that is the peripheral image can be captured in the image.
[Example 4]
[0074]
  An example of a three-dimensional object measurement apparatus 100c according to the present invention according to a fourth embodiment will be described.
  The three-dimensional object measurement apparatus 100c according to the fourth embodiment enables relative movement of the mirror cylindrical body 20 and the camera 30 with respect to the base 10 with respect to the three-dimensional object measurement apparatus 100 according to the first embodiment. As shown in the figure, with the pedestal 10 fixed, the center of the pedestal 10 is the center of rotational movement, and the mirror cylinder 20 and the camera 30 can be freely rotated together in a three-dimensional space.
  The mirror cylinder 20 may be rotated and moved by the user by hand. However, the mirror cylinder 20 is combined with the mirror cylinder 20 and the stepping motor mechanism, and the mirror cylinder 20 is combined with the user's operation input. If the movement can be controlled, the direction of the photographing viewpoint of the camera 30 can be accurately adjusted so as to obtain an angle that allows photographing of a part that could not be photographed in the basic posture.
[0075]
  The three-dimensional object measuring apparatus 100c according to the fourth embodiment has a specular cylindrical body 20 even when a blind spot is generated depending on the shape and direction of the object 1 to be three-dimensionally measured in the basic posture and a portion where the direct image D0 or the reflected image Rn cannot be obtained. The camera 30 is integrated to change the angle with respect to the pedestal 10 so that another angle is obtained, and a device that directly obtains the image D0 or the reflected image Rn is also obtained for a portion where a captured image cannot be obtained due to a blind spot.
[0076]
  When a blind spot is formed depending on the shape and direction of the object 1 and a part where the image D0 or the reflected image Rn cannot be obtained directly is generated, the following three cases are generally assumed.
[0077]
  The first is a case where the object 1 has a slightly deep concave shape. For example, when the concave shape is on the upper surface, the image D0 can be obtained directly for the part, but the reflected image R1 or the reflected image R2 obtained from the oblique photographing viewpoint F1 or the photographing viewpoint F2 has a concave bottom surface portion. May become blind spots at the periphery and may not be visible. Further, for example, when the concave shape is on the side surface, the reflected image R1 and the reflected image R2 obtained from the oblique photographing viewpoint F1 and the photographing viewpoint F2 facing the part can be obtained, but in the direct image D0, the concave shape is obtained. The bottom part may become a blind spot of the peripheral part and may not appear.
[0078]
  The second is a case where the side surface of the object 1 is nearly vertical. In this case, the reflected image R1 and the reflected image R2 obtained from the oblique photographing viewpoint F1 and the photographing viewpoint F2 facing the part can be obtained, but the direct image D0 is too large to obtain an effective image. There is a case. Even if a plurality of reflection images Rn can be obtained, since the direct image D0 is important information in the three-dimensional stereo measurement, it can be said that it is recommended to devise the shooting direction so as to obtain the direct image D0.
[0079]
  The third is a case where the shape of the object 1 is complicated and a part thereof is shaded by other parts. Typically, it is a site like the base of an ankle joint in insects. For example, although the image D0 can be obtained directly for the part, the reflected image R1 and the reflected image R2 obtained from the oblique photographing viewpoint F1 and photographing viewpoint F2 may not be reflected behind the other parts.
  Even in the case where there is a blind spot depending on the shape and direction of the object 1 and a part where the image D0 or the reflected image Rn cannot be directly obtained is obtained, the three-dimensional object measuring apparatus 100c of the fourth embodiment integrates the mirror cylindrical body 20 and the camera 30 together. The angle is changed with respect to the pedestal 10, and an image of another angle for obtaining the necessary direct image D0 or reflected image Rn is obtained for the part.
[0080]
  Here, as an example, a case where the side surface of the object 1 is nearly vertical will be described.
  FIG. 18 is a diagram schematically showing light reception of the direct image and the reflected image in the camera 30 in the longitudinal section of the three-dimensional object measuring apparatus 100c, as in FIG. As shown in FIG. 18, the optical path B0 corresponding to the direct image D0 cannot directly enter the fisheye lens 31 at the point B on the side surface portion of the object 1. That is, the direct image D0 does not include the image of the point B on the side surface portion, or even if it is included, effective information cannot be obtained because the photographing angle is extremely shallow. On the other hand, the one-reflection optical path B1 corresponding to the reflection image R1 is incident on the fisheye lens 31, and the image of the point B on the side surface portion is included in the one-reflection image R1. Similarly, the twice-reflection optical path B2 corresponding to the reflection image R2 is incident on the fisheye lens 31, and the image of the point B on the side surface portion is included in the twice-reflection image R2. As described above, the plurality of reflection images R1 and R2 include image information regarding the point B, but information regarding the point B is not obtained directly in the image D0.
[0081]
  Next, in FIG. 19, from the basic posture of FIG. 18, with the pedestal 10 fixed, the center of the pedestal 10 is the center of rotational movement, and the mirror cylindrical body 20 and the camera 30 are integrally rotated in the vertical plane in the clockwise direction. Shows the state. As shown in FIG. 19, the point B on the side surface of the object 1 is a position that can be seen well from the shooting viewpoint of the camera 30, and the optical path B <b> 0 corresponding to the direct image D <b> 0 directly enters the fisheye lens 31. That is, the image of the point B on the side surface portion is effectively included in the direct image D0. The once reflected optical path B1 corresponding to the reflected image R1 is also directly incident on the fisheye lens 31, and the image of the point B on the side surface portion is included in the once reflected image R1. Similarly, the image of the point B on the side surface portion is also included in the twice reflected image R2.
  As described above, sufficient image information can be obtained in the direct image D0 in the posture of FIG. 19 for the point B of the side surface portion in which sufficient image information cannot be obtained in the direct image D0 in the basic posture in FIG.
[0082]
  Note that the posture in FIG. 19 is an example of rotation for obtaining a direct image D0 of the point A on the right side of the object 1 that stands out, but the left side, the front (front side), and the back (back side) of the object 1. When the direct image D0 of the other side surface such as the side surface is obtained, the mirror cylindrical body 20 and the camera 30 may be separately rotated so that the target side surface faces the fisheye lens 31 separately. Here, the rotation control means is not limited. For example, a stepping motor or the like may be used.
  The three-dimensional object measurement device of the present invention is intended to obtain a plurality of images used for three-dimensional stereo measurement with a small number of photographing times. In addition, the image is taken one more time at different angles. However, it is affected by the shape and posture of the object, and multiple images can be obtained for the part that was originally difficult to shoot. It can be said that this is in line with the object of the present invention to obtain a plurality of images used for three-dimensional stereo measurement.
  While preferred embodiments of the invention have been illustrated and described, it will be appreciated that various changes can be made without departing from the scope of the invention.
[Example 5]
[0083]
  In the fifth embodiment, a prototype of the three-dimensional object measuring apparatus of the present invention is manufactured and the shape of an actual object is measured. The shape measurement data result using the actual measurement image is shown below.
  An object measurement environment according to the fifth embodiment will be described. The camera used for the measurement was Opteon DepictD1E, and an image of 1024 × 1024 (pixels) was cut out from the image taken at 1392 × 1040 (pixels). Also, a ring light was used as a light source, and light was projected from the camera periphery to the object. The inner diameter of the cylindrical mirror is 90 (mm) and the height is 100 (mm). However, since the camera used in the present embodiment can obtain only a grayscale image,S i(T, w) and lT i(T, w) (i = r, g, b) is represented by the following formula 10. Where lS gray(T, w) and lT gray(T, w) is the brightness value of the captured image obtained from the camera at Source and Target, respectively. Moreover, the range of possible values is 0 or more and 255 or less in both cases.
[0084]
[Expression 10]
[0085]
  In this embodiment, a cone-shaped object shown in FIG. 20 is used as a measurement target. The cone-shaped object has a bottom surface diameter of 56 (mm) and a height of 34 (mm), and the cone surface has a gray scale scene image as a texture.
  When the cone-shaped object shown in FIG. 20 is photographed by the three-dimensional object measuring apparatus of the present invention, the photographed image shown in FIG. 21 is obtained. In this embodiment, the shape of the cone object is measured from this image.
  Here, the SSD window size in this embodiment is 5 × 5 (pixels). In addition, the scale s in Equation 5 was changed by 0.1 from 0.5 to 2.0, and the shape was measured in stereo using an image directly observed by the camera and an image reflected once by the cylindrical mirror. FIG. 22 shows the result of cone shape measurement by the three-dimensional object measurement apparatus of the present invention.
  FIG. 23 shows a scatter diagram in which the horizontal axis represents the distance from the image center and the vertical axis represents the height of the cone shape measured by the three-dimensional object measurement apparatus of the present invention.
[0086]
  As described above, as a result of an attempt to measure the shape of an actual object, it has been shown that the entire shape of the actual object can be measured with a single image using the three-dimensional object measurement apparatus of the present invention. According to the fifth embodiment, the three-dimensional object measuring apparatus can measure the entire circumference of an object with a simple apparatus configuration including only a camera and a cylindrical mirror and a simple imaging process for capturing only one image. It has been shown that it is useful for the measurement of the entire circumference.
[Industrial applicability]
[0087]
  The three-dimensional object measuring apparatus of the present invention can obtain a multi-viewpoint image from all directions of an object by one shooting by putting an object in a cylindrical mirror and shooting the object from above with a camera. Can measure the three-dimensional shape of an object from a single image, so it can be used for content creation in educational fields such as electronic pictorial books for insects and small animals. , Can improve the description of the video. This 3D object measuring apparatus can be used not only in the education field, but also for various purposes such as the medical field and the academic research field.
  The three-dimensional object measurement apparatus of the present invention allows the user to easily measure the shape of personal belongings or to efficiently measure the entire circumference of many objects because of the simplicity of the device configuration and the photographing process. Useful for applications. In addition, since the entire shape of the object can be measured from a single image, it is possible to record the entire shape of the object along with the movement of the animal by continuously capturing images. Can be improved.
[Brief description of the drawings]
[0088]
FIG. 1 is a diagram schematically illustrating a basic configuration of a three-dimensional object measurement apparatus according to a first embodiment.
FIG. 2 is a diagram schematically showing light reception of a direct image and a reflected image in a vertical section of a three-dimensional object measuring apparatus.
FIG. 3 is a diagram schematically showing an image obtained by photographing an object having a cone shape placed on a pedestal with a camera;
FIG. 4 is a diagram schematically showing a state in which the photographing viewpoints of the direct image D0, the once reflected image R1, and the twice reflected image R2 with respect to the point A of the object are equivalently developed.
FIG. 5 is a view showing an image obtained by combining a direct image of a pyramid-shaped object placed at the center of a pedestal and a reflection image reflected on an inner wall mirror surface of a mirror cylindrical body;
FIG. 6 is a diagram showing that the geometric relationship between feature points is maintained even when the object is placed at a position deviated from the center of the pedestal.
FIG. 7 is a diagram showing an example of a locus of light rays that are reflected twice from a point of an object and incident on a camera.
FIG. 8 is a diagram showing a simulation image obtained by photographing a virtual object.
FIG. 9 is a relationship diagram between the angle φ and the distance d from the image center.
FIG. 10 is a photographed image obtained as a result of polar coordinate expansion.
FIG. 11 is a diagram showing search target areas;
FIG. 12 is a block diagram showing components that execute stereo measurement processing in the three-dimensional object measurement apparatus of the present invention.
FIG. 13 is a diagram schematically illustrating a basic configuration of a three-dimensional object measurement apparatus according to the second embodiment.
FIG. 14 is a diagram schematically illustrating a basic configuration of a three-dimensional object measurement apparatus according to a third embodiment.
FIG. 15 is a diagram schematically illustrating advantages and disadvantages when the distance between the pedestal and the fisheye lens is small.
FIG. 16 is a diagram schematically illustrating advantages and disadvantages when the distance between the pedestal and the fisheye lens is large.
FIG. 17 is a diagram schematically illustrating a basic configuration of a three-dimensional object measurement apparatus according to a fourth embodiment.
FIG. 18 is a diagram schematically showing an optical path of a direct image and a reflected image in a basic posture in a longitudinal section of a three-dimensional object measuring apparatus.
FIG. 19 is a view showing a state in which the mirror cylinder and the camera are integrally rotated 45 degrees clockwise in the vertical plane with the center of the pedestal as the center of rotational movement.
FIG. 20 is a diagram showing a real object having a conical shape used as a measurement target.
FIG. 21 is a photographed image of a real object having a conical shape used as a measurement target.
FIG. 22 is a diagram showing a cone shape measurement result using an actual measurement image;
FIG. 23 is a diagram showing the relationship between the distance from the center of the cone and the height.
[Explanation of symbols]
[0089]
  1 object
  10 pedestal
  20 mirror cylindrical body
  30, 30a, 30b camera
  31 Fisheye Lens
  32 Shooting and recording means
  40 Image data processing device
  41 Feature point extraction means
  42 Corresponding feature point search means
  43 Three-dimensional image data generation means
  100, 100a, 100b, 100c 3D object measuring device

Claims (4)

撮影対象となる3次元オブジェクトを載せる台座と、前記台座を筒の内壁面で取り囲み、前記筒の内壁面を鏡面とした鏡面円筒体と、前記台座に対向し、レンズ光軸が前記鏡面円筒体の円筒中心軸と一致するように配置された魚眼レンズと、前記魚眼レンズを介して得られた画像を記録する撮影記録手段とを備えたカメラを備え、前記カメラの撮影記録手段により、前記台座上の3次元オブジェクトを直接見た直接画像と、前記鏡面円筒体の内壁の鏡面に映り込んでいる前記台座上の3次元オブジェクトの反射画像と、を併せて撮影する3次元オブジェクト計測装置であって、
前記カメラの撮影記録手段により撮影した撮影画像上の特徴点を抽出して決定する特徴点抽出手段と、
前記特徴点抽出手段によって抽出された前記直接画像上の特徴点に対応する前記反射画像上の対応特徴点を前記反射画像上において探索して決定する、または、前記特徴点抽出手段によって抽出された前記反射画像上の特徴点に対応する前記直接画像上の対応特徴点を前記直接画像上において探索して決定する手段であって、前記撮影画像において画像の中心と前記特徴点とを結ぶ延長線上を探索することにより前記対応特徴点の探索を行なう対応特徴点探索手段と、前記特徴点と前記対応特徴点との対応関係を基に前記直接画像と前記反射画像とのステレオ計測処理を行ない、前記直接画像と前記反射画像から前記3次元オブジェクトの3次元画像データを生成する3次元画像データ生成手段を備えたことを特徴とする3次元オブジェクト計測装置。
A pedestal on which a three-dimensional object to be imaged is placed; a pedestal that surrounds the pedestal with an inner wall surface of the cylinder; and a mirror cylinder that has the inner wall surface of the cylinder as a mirror surface; and a lens optical axis that faces the pedestal and has a lens optical axis A camera equipped with a fisheye lens arranged so as to coincide with the cylindrical central axis of the lens, and a photographing recording means for recording an image obtained through the fisheye lens, the photographing recording means of the camera, on the pedestal A three-dimensional object measurement device that captures both a direct image obtained by directly viewing a three-dimensional object and a reflected image of the three-dimensional object on the pedestal reflected on the mirror surface of the inner wall of the mirror cylinder,
Feature point extracting means for extracting and determining feature points on a photographed image photographed by the photographing recording means of the camera;
The corresponding feature point on the reflection image corresponding to the feature point on the direct image extracted by the feature point extraction unit is searched and determined on the reflection image, or extracted by the feature point extraction unit Means for searching and determining a corresponding feature point on the direct image corresponding to a feature point on the reflected image on the direct image, on an extension line connecting the center of the image and the feature point in the captured image A corresponding feature point searching means for searching for the corresponding feature point by searching for, and performing a stereo measurement process of the direct image and the reflected image based on a correspondence relationship between the feature point and the corresponding feature point, 3D object comprising 3D image data generating means for generating 3D image data of the 3D object from the direct image and the reflection image Measuring apparatus.
前記台座を透明素材で形成し、前記台座の下方向からも前記オブジェクトを可視とし、前記カメラとして第1のカメラと第2のカメラの2つのカメラを備え、前記第1のカメラの魚眼レンズと前記第2のカメラの魚眼レンズが前記台座を挟んで対向し合うように配置されている請求項1に記載の3次元オブジェクト計測装置。  The pedestal is formed of a transparent material, the object is visible from below the pedestal, the camera includes two cameras, a first camera and a second camera, and the fisheye lens of the first camera and the The three-dimensional object measurement device according to claim 1, wherein the fish-eye lens of the second camera is disposed so as to face each other with the pedestal interposed therebetween. 前記カメラが前記鏡面円筒体に対して前記円筒中心軸に沿った移動が可能となっており、前記台座と前記魚眼レンズの距離を、撮影対象となる3次元オブジェクトの高さをLとして、基底となっている前記台座からL〜10Lの範囲で可変とした請求項1又は2に記載の3次元オブジェクト計測装置。  The camera can move along the cylindrical central axis with respect to the mirror cylinder, and the distance between the pedestal and the fisheye lens is set to L, the height of the three-dimensional object to be imaged, and the base. The three-dimensional object measurement apparatus according to claim 1, wherein the three-dimensional object measurement apparatus is variable in a range of L to 10 L from the pedestal. 前記台座と前記鏡面円筒体および前記カメラとの相対運動を可能とし、前記台座を固定した状態で、前記台座の中心を回転運動の中心として3次元空間内での前記鏡面円筒体および前記カメラを一体とした自由な回転移動を可能とした請求項1乃至3のいずれかに記載の3次元オブジェクト計測装置。  The mirror cylinder and the camera in a three-dimensional space with the center of the pedestal being the center of rotational movement in a state where the pedestal, the mirror cylinder and the camera can be moved relative to each other, and the pedestal is fixed. The three-dimensional object measuring device according to any one of claims 1 to 3, wherein the unit can freely rotate and move integrally.
JP2006552886A 2005-01-13 2005-12-28 3D object measuring device Active JP4742190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006552886A JP4742190B2 (en) 2005-01-13 2005-12-28 3D object measuring device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005006538 2005-01-13
JP2005006538 2005-01-13
PCT/JP2005/024098 WO2006075528A1 (en) 2005-01-13 2005-12-28 Three-dimensional object measuring device
JP2006552886A JP4742190B2 (en) 2005-01-13 2005-12-28 3D object measuring device

Publications (2)

Publication Number Publication Date
JPWO2006075528A1 JPWO2006075528A1 (en) 2008-08-07
JP4742190B2 true JP4742190B2 (en) 2011-08-10

Family

ID=36677556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006552886A Active JP4742190B2 (en) 2005-01-13 2005-12-28 3D object measuring device

Country Status (2)

Country Link
JP (1) JP4742190B2 (en)
WO (1) WO2006075528A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022034999A1 (en) * 2020-08-13 2022-02-17 연세대학교 산학협력단 Cylindrical convolutional neural network computing device, and apparatus and method for recognizing object and estimating viewpoint by using same

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
CN113688846B (en) * 2021-08-24 2023-11-03 成都睿琪科技有限责任公司 Object size recognition method, readable storage medium, and object size recognition system
CN114279361B (en) * 2021-12-27 2023-08-22 哈尔滨工业大学芜湖机器人产业技术研究院 Three-dimensional measurement system and measurement method for defect size of inner wall of cylindrical part

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330915A (en) * 2000-05-23 2001-11-30 Olympus Optical Co Ltd Stereoscopic image photographing method and auxiliary tool for photographing
JP2002095016A (en) * 2000-09-20 2002-03-29 Fuji Photo Film Co Ltd Imaging device and imaging method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330915A (en) * 2000-05-23 2001-11-30 Olympus Optical Co Ltd Stereoscopic image photographing method and auxiliary tool for photographing
JP2002095016A (en) * 2000-09-20 2002-03-29 Fuji Photo Film Co Ltd Imaging device and imaging method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022034999A1 (en) * 2020-08-13 2022-02-17 연세대학교 산학협력단 Cylindrical convolutional neural network computing device, and apparatus and method for recognizing object and estimating viewpoint by using same

Also Published As

Publication number Publication date
WO2006075528A1 (en) 2006-07-20
JPWO2006075528A1 (en) 2008-08-07

Similar Documents

Publication Publication Date Title
JP4742190B2 (en) 3D object measuring device
CN111060023B (en) High-precision 3D information acquisition equipment and method
CN111292364B (en) Method for rapidly matching images in three-dimensional model construction process
US20130335535A1 (en) Digital 3d camera using periodic illumination
Grossberg et al. The raxel imaging model and ray-based calibration
EP2328125A1 (en) Image splicing method and device
JP6862569B2 (en) Virtual ray tracing method and dynamic refocus display system for light field
JP2013038775A (en) Ray image modeling for fast catadioptric light field rendering
CN111292239A (en) Three-dimensional model splicing equipment and method
KR20170141202A (en) Image processing apparatus and image processing method
Lin et al. A low-cost portable polycamera for stereoscopic 360 imaging
JP7295641B2 (en) Horizontal Parallax Stereo Panorama Capture Method
CN111340959A (en) Three-dimensional model seamless texture mapping method based on histogram matching
JP2020057924A (en) Imaging device and image processing method
CN106934110B (en) Back projection method and device for reconstructing light field by focusing stack
WO2016175045A1 (en) Image processing device and image processing method
JPH09138850A (en) Surface shape reconstitution device
CN113538552B (en) 3D information synthetic image matching method based on image sorting
JP6684454B2 (en) Image processing apparatus and image processing method
Bazeille et al. Light-field image acquisition from a conventional camera: design of a four minilens ring device
Zhao et al. Removal of parasitic image due to metal specularity based on digital micromirror device camera
Lech et al. Novel active-SfM solution for three-dimensional crime scene documentation
Orghidan Catadioptric stereo based on structured light projection
Pena-Pena et al. Per-pixel calibration using CALTag and dense 3D point cloud reconstruction
US11348215B2 (en) Method and apparatus for reconstructing 4D image based on integral imaging

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081229

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081229

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081229

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150