JP2017517727A - 三次元情報の規模測定 - Google Patents

三次元情報の規模測定 Download PDF

Info

Publication number
JP2017517727A
JP2017517727A JP2016567066A JP2016567066A JP2017517727A JP 2017517727 A JP2017517727 A JP 2017517727A JP 2016567066 A JP2016567066 A JP 2016567066A JP 2016567066 A JP2016567066 A JP 2016567066A JP 2017517727 A JP2017517727 A JP 2017517727A
Authority
JP
Japan
Prior art keywords
camera
image
images
scale
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016567066A
Other languages
English (en)
Other versions
JP6396499B2 (ja
Inventor
プラウマン・ロビン
Original Assignee
アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド filed Critical アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド
Publication of JP2017517727A publication Critical patent/JP2017517727A/ja
Application granted granted Critical
Publication of JP6396499B2 publication Critical patent/JP6396499B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本開示は、対応する実世界の特徴物を表していると思われる画像のうちの2個以上の画像に共通する点を特定し、各画像間の点の位置の変化を用いて、カメラの運動を推定し、3D空間の中での実世界の特徴物の位置を見出す方法に関する。三次元情報の規模を決定するために、カメラからの実際の距離が既知の基準特徴物の位置を、画像から見出す。カメラの視界部分に対応する画像の部分に含まれる候補点から選択された候補点のみを考慮に入れることにより、基準特徴物が見出される。画面中及び実世界におけるカメラと基準特徴物との間の距離から、規模が決定される。
【選択図】 図3

Description

本開示は、規模情報の生成方法に関し、特に、車載カメラで撮像した画像から規模情報を生成する方法、及び、その装置に関する。
単一のカメラが移動しながら順次撮像した二次元(2D)画像から三次元(3D)情報を取得する技術は、様々ある。そのうちの一つの技術が、トマシ及びカナデ:“正射影下での画像ストリームからの形状及び運動:因数分解方法”、テクニカルレポート、TR−92−1270、コーネル大学、1992年3月(非特許文献1)という論文に記載されている。この技術は、基本的に、対応する実世界の特徴を表していると思われる撮像画像における点を認識することに関する。画像間の点位置の差により、カメラの運動を推定でき、また、実世界の特徴点を3D空間に三角測量することができる。この技術は、計算コストが高いが、全体として良好に機能する。しかしながら、比較対象として、少なくとも1つの実世界特徴物の大きさを知らなくては、生成される3D構造の規模を知ることは不可能である、という制約がある。
この種の技術は、車両の周囲物についての情報を取得するための車載カメラシステムの分野に応用されている。例えば、特許文献1において、空き駐車スペース検出システムについて記載されており、単一の車載カメラに撮像された画像から生成された3D構造が、隣接する車両の位置推定に使用される。特許文献1では、3D構造における基面を検出し、3D構造内の基面からのカメラの高さを推定し、その高さと、固定されているはずの実世界でのカメラの高さとを比較して、生成された3D構造と実世界との「カメラ高さ比」を算出することにより、生成された3D構造の規模を測定している。このカメラ高さ比が、3D構造の規模(縮尺比)を表している。
基面を認識するには、まず、3D構造をXYZ座標系(Yが垂直軸)に正確に置く。次に、Y軸に沿った場所の中で、認識された実世界の特徴点の密度が最も高い場所に、基面が存在すると推定する。次に、RANSAC(RANdom SAmple Consensus)法を適用して、基面の位置の精度を上げる。RANSAC法では、推定された基面の近くにある、認識された実世界の特徴点の小集団を反復的に選択し、選択された小集団に含まれる特徴点を、インライア、選択された小集団に含まれない特徴点を、アウトライアとして、正確な基面位置の決定に使用される小集団を選択する。
特許文献1に記載の本技術の1つの問題は、路面等の車両が載る面が、一般的に、ほぼ均一であり、特徴がない、ということである。また、歩道や他の車両の車体等の他の水平面が、車両が載る面とは異なる高さに、画像上に存在する可能性がある。つまり、Y軸に沿った場所の中で、認識された特徴点の密度が最高の場所に、基面が位置する、という推定が、間違いであることもあり、また、他の面が、車両が載る面であると間違って認識されることもある、ということを意味している。基面が間違って認識された場合、算出されたカメラ高さ比は、間違いとなり、生成された3D構造の規模も、不正確となる。特許文献1に記載の空き駐車スペース検出方法では、上記の場合、生成された3D構造内での他の物体との距離が間違ったものとなり、その結果、駐車スペースが間違って認識され、他の安全措置もなく、車両衝突が起こる可能性がある。
米国特許出願公開第2009/0243889号明細書
"Shape and motion from image streams under orthography−−−a factorization method", C. Tomasi and T. Kanade, Technical Report TR−92−1270, Cornell University, March 1992
本開示は、これらの問題を解決するためになされた。
第1の態様によると、カメラから一連の画像を受信するステップと、前記画像のうちの2個以上の画像に共通する特徴を表す候補点を特定するステップと、前記画像間の前記候補点の位置の変化に基づいて、上記画像から三次元情報を導き出すステップと、前記画像における基準特徴物に関連する候補点を特定するステップと、前記カメラと前記基準特徴物との間の距離に基づいて、前記三次元情報の規模を決定するステップとを備え、基準特徴物に関連する候補点を特定する前記ステップは、前記カメラの視野部分に対応する前記画像の部分に含まれる候補点のみから選択するステップからなる、方法が提供される。
第2の態様によると、カメラから一連の画像を受信するようになされ、前記画像のうちの2個以上の画像に共通する特徴を表す候補点を特定するように動作可能で、前記画像間の前記候補点の位置の変化に基づいて、上記画像から三次元情報を導き出すように動作可能な画像ステージと、前記画像ステージと接続され、前記カメラの視野部分に対応する前記画像の部分に含まれる候補点のみから選択することにより、前記画像における基準特徴物に関連する候補点を特定するようになされ、前記カメラと前記基準特徴物との間の距離に基づいて、前記三次元情報の規模を決定するようになされた情報抽出ステージとを備える、装置が提供される。
したがって、本発明の実施形態によれば、基面の誤特定により生じるエラーが最小限に抑えられるか又は排除され、これにより、三次元情報の規模をより正確に決定することができる。
ある実施形態において、カメラの視野内で基準特徴物が存在するはずの位置を決定し、その後、基準特徴物が存在するはずの位置を含む、候補点が選択される画像部分を特定する。このような実施形態において、基準特徴物が存在しそうな領域にある候補点のみを考慮に入れることにより、基準特徴物を見つける可能性が向上する。
ある実施形態において、三次元情報の規模は、1個以上のカメラから同時に撮像した各一連の画像から同時に決定できる。決定された規模及び/又はそれに対応する規模が決定された三次元情報を比較することにより、決定された規模の因子の信頼性を示すことができる。
ある実施形態において、車両に搭載され、その車両が通った少なくとも基面の画像を撮像するように配置されたカメラからの一連の画像から、三次元情報の規模が決定される。このような実施形態では、規模因子の決定の正確性が向上する。これは、車両が既に通った面ならば、平坦で、容易に特定可能な基面を有していると想定できるため、これを基面と特定するのはより容易である傾向があるためである。
以下、本開示の一例としての実施形態を、添付図面を参照して、説明する。
本開示の一実施形態に係る、車両における車載カメラシステムを概略的に示す図 図1に示す本実施形態に係る車載カメラシステムを概略的に示す図 本開示の一実施形態に係る方法を示すフローチャート 基面が存在するはずの領域を概略的に示す図 カメラの視界部分に対応する画像の部分を示す写真 カメラの視界部分に対応する他の画像の部分を示す写真 候補点の平面図 特定された基面を示す、三次元視覚表示における、候補点を示す図 本開示の他の実施形態に係る方法を示すフローチャート 本開示の更に他の実施形態に係る方法を示すフローチャート 3個の連続した画像間の特徴点マッピングを示す概略図 特徴点マッチング方法におけるサブステップからなるフローチャート
車載カメラシステムの分野における、カメラにより撮像された画像から規模情報を生成する方法について、説明する。
図1及び図2を参照して、一実施形態に係る車載カメラシステム1は、車両5に搭載された、リアビューカメラ2と、フロントビューカメラ3と、処理部4とを備える。リアビューカメラ2は、車両5の後端に搭載されており、車両5の背後の周囲物がリアビューカメラ2の視界に入るようになっている。フロントビューカメラ3は、車両5の前端に搭載されており、車両5の前方の周囲物がフロントビューカメラ3の視界に入るようになっている。処理部4は、リアビューカメラ2とフロントビューカメラ3とに接続されており、カメラ2及び3により撮像された画像を受信するようになっている。
本実施形態において、処理部4は、画像処理ステージ6と情報抽出ステージ7とを有する。画像処理ステージ6は、詳細は後述するが、カメラから一連の画像を受信し、その画像のうちの2個以上の画像に共通する特徴を表す候補点を特定するようになされている。情報抽出ステージ7は、詳細は後述するが、画像処理ステージ6により認識された候補点を使用して、カメラで撮影された物体に関する三次元情報、及び、その三次元情報の規模に関する情報を決定するようになされている。
図3を参照して、本実施形態に係る車載カメラシステム1の処理部4の動作について、より詳細に説明する。
ステップS1において、画像処理ステージ6は、リアビューカメラ2及びフロントビューカメラ3のうちの少なくとも1個により撮像された一連の画像を受信する。以下、説明を分かりやすくするために、一連の画像のうちの1個のみの処理について説明する。
ある実施形態においては、リアビューカメラ2及び/又はフロントビューカメラ3は、広角レンズや魚眼レンズ等の、広視野の光学レンズを有していてもよい。これらの光学レンズは、半球すなわち2Πステラジアンの大きさの立体角にわたる画像を撮像できるが、光学的歪みにより、撮像画像の端の特徴物が撮像画像の中央の特徴物と比べて引き伸ばされたり押しつぶされたりする傾向がある、という欠点もある。このような光学レンズを有する場合、画像処理ステージ6は、レンズによって生じる光学的歪みについての情報を使って、撮像画像を補正し、画像中の特徴物の相対寸法が、レンズのその性質に依存せず、カメラ2又は3からの距離に直接依存するような補正画像を生成する。
ステップS2において、画像処理ステージ6は、一連の画像のうちの2個以上の画像に共通する特徴を表す候補点を特定する。候補点は、画像中において、際立った特徴を持つ画素であり、より一般的には、画像中において、際立った特徴を持つ画素の集まりである。本実施形態において、候補点として特定されるものは、周囲の画素とは異なる輝度又は色を持ち、値が各閾値より高い1個以上の画素である。このような画像中の候補点は、典型的に、例えば、建物の端や道路上の線等の、撮影された風景の中の実世界の特徴物を表している。
ステップS3において、情報抽出ステージ7は、認識された候補点を使って、画像間の候補点の差に基づき、一連の画像から三次元情報を導き出す。一連の画像から三次元(3D)構造を生成するのに有効な特定の技術は、当業者に既知であり、図9及び図10を参照して後述するため、ここでは、詳細には説明しない。
ステップS4において、情報抽出ステージ7は、カメラの視野部分に対応する画像部分に含まれる候補点のみから、画像中の基準特徴物に関連した候補点を特定する。
基準特徴物として使用するのに好適な物体とは、一連の画像から特定可能で、その一連の画像を撮像したカメラからの距離が既知の物体である。基準特徴物は、地面からのカメラの高さが既知の場合、地面の高さの平面である基面であってもよい。例えば、カメラが車両に搭載されている場合、基準特徴物は、その車両が載る面、つまり、一般的には、道路であってもよい。他の実施形態では、基準特徴物は、カメラが車両に搭載されているならば、カメラに対する固定点であればいかなるものでもよく、例えば、基準特徴物として専用の基準点物体を設けたり、車両の一部を基準特徴物として使用したりしてもよい。
本発明の実施形態において、カメラの視野内で、その基準特徴物が存在するはずの位置を決定し、その基準特徴物が存在するはずの位置に対応する画像部分にある候補点のみを選択する。
図4は、リアビューカメラ2及びフロントビューカメラ3を有する車両5を示している。更に、図4に示す車両5には、サイドビューカメラ10及び11も設けられている。図4の両矢印で示すように、車両に対する各カメラの位置及び各カメラの搭載高さは、既知である。
リアビューカメラ2の後方に、基面が存在するはずの領域12を特定してもよい。領域12を、図5に示す囲み領域13として、リアビューカメラ2によって撮像された画像に投影してもよい。囲み領域13で示されるリアビューカメラ2の視界の一部に対応する、画像のその部分の座標を保存しておき、基準特徴物に関連した候補点を特定する際に、その座標を使用して、その座標部分から候補点の小集団を選択してもよい。
同様に、フロントビューカメラ3の前方に、基面が存在するはずの領域14を特定してもよい。領域14を、図5に示す囲み領域15として、フロントビューカメラ3によって撮像された画像に投影してもよい。囲み領域15で示されるフロントビューカメラ3の視界の一部に対応する、画像のその部分の座標を保存しておき、基準特徴物に関連した候補点を特定する際に、その座標を使用して、その座標部分から候補点の小集団を選択してもよい。
本発明の実施形態において、基準特徴物、この場合、基面が存在するはずの領域12又は14の位置は、特定のカメラに関する情報を使って、決定される。したがって、例えば、本実施形態では、領域12又は14の位置は、車両に搭載されたカメラの高さ、向き、又は、位置等の因子により決定されてもよい。
実施形態において、三次元構造における囲み領域13及び15部分に基面を挿入するのに、囲み領域13及び15に含まれる候補点が分析される。このステップは、図9及び図10を参照して本発明の実施形態に関連してより詳細に後述する。
図7は、囲み領域13及び15部分に基面を挿入するための分析用に選択された画像の部分17にある、濃い色で示された候補点の平面図16である。
図8は、特定された基面19を示す三次元視覚表示18における、カメラ2からの画像から特定した候補点を示す図である。
図3のステップS5において、情報抽出ステージ7は、カメラと基準特徴物との距離に基づいて、三次元情報の規模を決定する。基面等の基準特定物の位置が特定された後に三次元情報の規模を決定する技術は、当業者に既知である。このステップは、図9及び図10を参照して本発明の実施形態に関連してより詳細に後述する。
三次元情報の規模が決定されると、その規模をその三次元情報に適用し、規模が決定された三次元情報を生成することができる。2個以上の規模が決定された三次元情報を組み合わせてもよい。
例えば前向きカメラと後ろ向きカメラといった2個のカメラが車両に装備されている実施形態において、車両が前方に移動しているときに、後ろ向きカメラが撮像する一連の画像に、本発明の実施形態を適用してもよい。また、車両がバックしているときに、前向きカメラが撮像する一連の画像に、本発明の実施形態を適用してもよい。このように、車両が既に通った面であれば、平坦で、正確な結果をもたらすはずであるため、これが、基準特定物の検出対象とされる。
例えば前向きカメラと後ろ向きカメラといった2個のカメラが車両に装備されている実施形態において、その2個のカメラから同時に取得した一連の画像に対して、上述した方法を行ってもよい。異なるカメラの一連の画像から決定された基準基面の位置や、その基準基面の位置から算出された規模を、比較してもよい。規模、又は、その規模を使って決定された基面位置が、互いに一致する場合、その値により高い信頼性を与えるようにしてもよい。ある実施形態において、互いに異なる一連の画像から算出された基面が、互いに一致しない場合、その規模のうちの少なくとも1つは、無視される。
ある実施形態において、画像フレーム毎に規模が決定され、それ以前に決定された規模は、無視される。これは、図9に示す本実施形態に係る方法で示されている。
図9を参照して、動作を説明する。ステップS10において、画像処理ステージ6は、1個の画像を読み、際立った特徴を持つ特徴点をその画像から検出する。ある実施形態において、カメラから生成された画像が画像処理ステージ6に読まれる前に、補正されてもよい。
ステップS11において、画像処理ステージ6は、次の画像を読み、際立った特徴を持つ特徴点をその画像から検出する。同様に、ある実施形態において、カメラから生成された画像が画像処理ステージ6に読まれる前に、補正されてもよい。
その後、ステップS12において、情報抽出ステージ7は、最初の画像で検出された特徴点と、次の画像で検出された特徴点とをマッチングさせて、最初の画像と次の画像に共通する特徴点を特定する。最初の画像と次の画像における共通の特徴点の位置を候補点として保存する。
ステップS13において、情報抽出ステージ7は、その候補点位置情報からなる候補点マトリクスを生成する。
ステップS14において、情報抽出ステージ7は、その候補点マトリクスから、最初の画像と次の画像との間のカメラの三次元回転及び並進に関する情報を抽出する。この時点では、その三次元情報の規模情報は未知であり、規模の復元を行う必要がある。
ステップS15において、情報抽出ステージ7は、候補点の小集団を選択する。具体的には、どの候補点が、カメラの視野部分に対応する画像部分に含まれているかを特定することにより、情報抽出ステージ7は、基準特徴物(本実施形態では基面)に関連すると思われる候補点を選択する。これを行うには、まず、カメラの視野内で基準特徴物が存在するはずの位置を決定し、その後、候補点が選択される画像部分を、基準特徴物が存在するはずの位置を含むように特定する。
基面領域は、単純な考え方で見いだすことができる。ある方法では、地面からのカメラ高さhが既知であるため、2X×Y(Xはカメラから左又は右側までの距離、Yは移動方向に沿った距離)の寸法を持った地面上の方形を思い浮かべる。例えば、Xが1メートルで、Yが5メートルの方形を思い浮かべる。この方形を、カメラ画像に投影することにより、画像の中に台形の領域を設ける。そして、この領域に入る道路の特徴物(特徴物は画像間でマッチしている)は台形である、と想定する。この領域内のいかなる障害物も、それがその領域全体を占めていない限り、RANSACアルゴリズムによって、自動的に排除されるはずである。
ステップS16において、情報抽出ステージ7は、本実施形態において、RANSAC方法を用いて、選択された候補点を、1つの面に適合させる。
ステップS17において、情報抽出ステージ7は、ステップS16で特定された、基面とされる面からの、カメラの高さを決定する。決定された基面からの高さと、既知である地面からのカメラの高さとを比較して、カメラ高さ比を生成する。カメラ高さ比によって、三次元情報の規模が算出される。
ステップS18において、情報抽出ステージ7は、ステップS17で取得した規模を用いて、ステップS14で復元した最初の画像と次の画像との間のカメラの回転及び並進に関する三次元情報を調整する。
その後、ステップS19において、必要に応じて、走行軌跡を出力してもよい。
図9に示すステップは、一連の画像がすべて処理されるまで、又は、カメラが搭載された車両が停止するまで、繰り返されてもよい。
他の実施形態において、三次元特徴物は、繰り返し追跡され、基面高さの調整、及び、それに伴う三次元情報の規模測定に使用される規模因子の調整が、定期的に行われる。本方法の一例を、図10に示す。
図10に示すステップS10乃至S18は、図9に示すものと同じステップであるため、これ以上説明しない。
ステップS20において、ステップS18で取得した規模測定がなされた三次元情報から、正しい規模を有する三次元構造を作成する。
その後、次の画像が同様に処理される。ステップS21において、画像処理ステージ6は、次の画像を読み、際立った特徴を持つ特徴点をその画像から検出する。同様に、ある実施形態において、カメラから生成された画像が画像処理ステージ6に読まれる前に、補正されてもよい。
ステップS22において、情報抽出ステージ7は、最新の画像で検出された特徴点と、3D構造において使用される特徴点とをマッチングさせる。ステップS22の更なる詳細については、図11及び図12を参照して説明する。
図11は、カメラで撮像された3個の連続した画像、すなわち、n−2画像20、n−1画像21、及びn画像22を示す。カメラで撮影された三次元空間における点Pは、n−2画像20では点23として、n−1画像21では点24として、n画像22では点25として示されている。n画像22の点25とn−1画像21の点24との間で見出されたマッチ(一致)26は、n−1画像21の点24とn−2画像20の点23との間で成立しているマッチ27を用いて関連付けられて、n画像22の点25と三次元の点Pとの間に新たな関連28が成立する。
図12は、図10に示すステップS22で行われる特徴点マッチング方法のサブステップからなるフローチャートである。
図10のステップS22の最初のサブステップであるステップS222において、最新のn画像22の特徴点が、一つ前のn−1画像21の特徴点とマッチングされる。このステップは、特徴マッチングアルゴリズムによって行われてもよい。
その後、次のサブステップS222において、前回マッチングしたn−1画像21とn−2画像20の特徴点と、それに対応する3D点とが、呼び出される。
サブステップS223において、前回マッチングしたn−1画像21とn−2画像20の特徴点が、n画像22の特徴点と関連付けられる。例えば、これは、n−1画像21の共通の特徴点の全数検索をして、3個全ての画像20、21及び22に存在する同じ特徴点Pによって生じる特定された一致に対応する特徴点軌跡を形成することにより、行われてもよい。
サブステップS224において、これらの軌跡と、これに関連付けられたn画像22の特徴点25が、n−1画像21とn−2画像20とのマッチングによって既に見出された既知の3D点Pと関連付けられる。
その後、ステップS23において、例えば3点絶対姿勢アルゴリズムによって、三次元構造を用いて、回転及び並進情報を算出できる。
ステップS24において、成立した軌跡のないフレームn及びn−1でマッチした新たな特徴点を加えることにより、三次元構造を更新する。
ステップS25において、基面が特定され、カメラ高さが再度決定される。本方法においては、これは、図9のステップS15乃至S17を参照して上述した方法を用いて行われる。
ステップS26において、ステップ21に戻って次に受信した画像を処理する前に、バンドル調整を周期的に行うことで、基面エラーを最小限に抑える。バンドル調整では、1回の最適化アルゴリズムで、全ての既成立特徴点軌跡及び三次元(3D)点を使用する。このステップは、甚大な計算コストがかかることから、例えばある実施形態では10乃至20フレーム毎に1回など、頻繁には行われない。
その後、ステップS27において、必要に応じて、走行軌跡を出力してもよい。
図10に示すステップS21乃至S27は、一連の画像がすべて処理されるまで、又は、カメラが搭載された車両が停止するまで、繰り返されてもよい。
その他の変形及び変更は、当業者にとって明らかとなる。そのような変形及び変更は、既知の同等及びその他の特徴も含んでもよく、それらの特徴は、本明細書に記載の特徴の代わりに、又は、それに加えて、使用されてもよい。別々の実施形態の中で説明されている特徴は、単一の実施形態において、組み合わせて設けられてもよい。逆に、単一の実施形態の中で説明されている特徴は、別々に、又は、より小さい組み合わせとして、設けられてもよい。
なお、「備える」という用語は、その他の要素又はステップを排除せず、「一つの」という用語は、複数を排除せず、単一の特徴は、請求項に記載の複数の特徴の機能を果たしてもよく、請求項における符号によって、請求の範囲が限定されない。また、図面は、必ずしも実寸とは限らず、本発明の趣旨を示すために、強調されていることもある。

Claims (16)

  1. カメラから一連の画像を受信するステップと、
    前記画像のうちの2個以上の画像に共通する特徴を表す候補点を特定するステップと、
    前記画像間の前記候補点の位置の変化に基づいて、上記画像から三次元情報を導き出すステップと、
    前記画像における基準特徴物に関連する候補点を特定するステップと、
    前記カメラと前記基準特徴物との間の距離に基づいて、前記三次元情報の規模を決定するステップとを備え、
    基準特徴物に関連する候補点を特定する前記ステップは、前記カメラの視野部分に対応する前記画像の部分に含まれる候補点のみから選択するステップからなる、方法。
  2. 更に、
    前記カメラの前記視野内で前記基準特徴物が存在するはずの位置を決定するステップと、
    候補点が選択される前記画像の前記部分を、前記基準特徴物が存在するはずの前記位置を含むように特定するステップとを備える、請求項1に記載の方法。
  3. 前記カメラの前記視野内の前記基準特徴物が存在するはずの位置は、前記受信画像を送信した前記カメラの前記位置を参照して決定されることを特徴とする請求項2に記載の方法。
  4. 候補点が選択される前記画像の前記部分を、前記画像における基面が存在するはずの位置を含むように特定するステップを備える、請求項2又は3に記載の方法。
  5. 前記一連の画像は、車両に搭載されたカメラから受信され、前記基準特徴物は、前記車両が載る面であることを特徴とする請求項1乃至4のいずれか1項に記載の方法。
  6. 前記一連の画像は、車両に搭載されたカメラから受信され、前記基準特徴物は、前記車両の一部であることを特徴とする請求項1乃至5のいずれか1項に記載の方法。
  7. 前記一連の画像は、車両の前部から前方に向いた1番目のカメラ方向に画像を撮像するように配置された前記車両に搭載されたカメラから受信されることを特徴とする請求項1乃至6のいずれか1項に記載の方法。
  8. 前記一連の画像は、車両の後部から後方に向いた1番目のカメラ方向に画像を撮像するように配置された前記車両に搭載されたカメラから受信されることを特徴とする請求項1乃至6のいずれか1項に記載の方法。
  9. 更に、前記三次元情報の前記決定された規模を、前記三次元情報に適用することにより、規模が決定された三次元情報を取得するステップを備える、請求項1乃至8のいずれか1項に記載の方法。
  10. 更に、少なくとも2組の規模が決定された三次元情報を組み合わせるステップを備える、請求項9に記載の方法。
  11. 更に、
    前記規模が決定された三次元情報から三次元構造を作成するステップと、
    次の画像から、前記規模が決定された三次元情報を用いて、前記三次元構造を更新するステップとを備える、請求項9又は10に記載の方法。
  12. 請求項1乃至11のいずれか1項に記載の前記方法を、第1のカメラからの前記一連の画像に適用することにより、前記第1のカメラから受信した前記画像から導き出した(第1の)三次元情報の第1の規模を決定するステップと、
    請求項1乃至11のいずれか1項に記載の前記方法を、第2のカメラからの前記一連の画像に適用することにより、前記第2のカメラから受信した前記画像から導き出した第2の三次元情報の第2の規模を決定するステップとを備える、方法。
  13. 更に、
    前記第1のカメラにより撮像された前記画像から導き出した前記第1の三次元情報の前記第1の規模と、前記第2のカメラにより実質的に同時に撮像された前記画像から導き出した前記第2の三次元情報の前記第2の規模とを比較するステップを備え、
    三次元情報の前記第1の規模と前記第2の規模とが一致しない場合、三次元情報の前記第1の規模と前記第2の規模のうちの少なくとも1つは無視される、請求項12に記載の方法。
  14. 更に、前記車両の進行方向を決定するステップを備え、
    前記車両に搭載され、前記車両が通った少なくとも前記基面の画像を撮像するように配置されたカメラからの前記一連の画像を用いて、三次元情報の前記規模が決定される、請求項1乃至13のいずれか1項に記載の方法。
  15. カメラから一連の画像を受信するようになされ、前記画像のうちの2個以上の画像に共通する特徴を表す候補点を特定するように動作可能で、前記画像間の前記候補点の位置の変化に基づいて、上記画像から三次元情報を導き出すように動作可能な画像ステージと、
    前記画像ステージと接続され、前記カメラの視野部分に対応する前記画像の部分に含まれる候補点のみから選択することにより、前記画像における基準特徴物に関連する候補点を特定するようになされ、前記カメラと前記基準特徴物との間の距離に基づいて、前記三次元情報の規模を決定するようになされた情報抽出ステージとを備える、装置。
  16. 搭載された少なくとも1個のカメラと、
    前記少なくとも1個のカメラと接続され、前記カメラから一連の画像を受信するようになされた、請求項15に記載の装置とが設けられた、車両。
JP2016567066A 2014-05-27 2014-05-27 三次元情報の規模測定 Active JP6396499B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2014/060975 WO2015180758A1 (en) 2014-05-27 2014-05-27 Determining scale of three dimensional information

Publications (2)

Publication Number Publication Date
JP2017517727A true JP2017517727A (ja) 2017-06-29
JP6396499B2 JP6396499B2 (ja) 2018-09-26

Family

ID=50933148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016567066A Active JP6396499B2 (ja) 2014-05-27 2014-05-27 三次元情報の規模測定

Country Status (5)

Country Link
US (1) US10192141B2 (ja)
EP (1) EP3149702A1 (ja)
JP (1) JP6396499B2 (ja)
DE (1) DE112014006493T5 (ja)
WO (1) WO2015180758A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10096131B2 (en) * 2015-09-25 2018-10-09 Logical Turn Services Inc. Dimensional acquisition of packages
US10769806B2 (en) * 2015-09-25 2020-09-08 Logical Turn Services, Inc. Dimensional acquisition of packages
US9858707B2 (en) * 2015-12-30 2018-01-02 Daqri, Llc 3D video reconstruction system
US10156441B2 (en) 2016-01-05 2018-12-18 Texas Instruments Incorporated Ground plane estimation in a computer vision system
US11100704B2 (en) * 2018-12-14 2021-08-24 Hover Inc. Generating and validating a virtual 3D representation of a real-world structure
JP2021174288A (ja) * 2020-04-27 2021-11-01 富士通株式会社 カメラ高さ算出方法および画像処理装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777421A (ja) * 1993-09-08 1995-03-20 Hitachi Ltd 自動車用距離計測装置とこれを搭載した自動車
JP2006349607A (ja) * 2005-06-20 2006-12-28 Toyota Central Res & Dev Lab Inc 距離計測装置
JP2007263669A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP2009186353A (ja) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd 物体検出装置および物体検出方法
US20090243889A1 (en) * 2008-03-27 2009-10-01 Mando Corporation Monocular motion stereo-based free parking space detection apparatus and method
JP2011112507A (ja) * 2009-11-26 2011-06-09 Fujitsu Ltd 3次元位置計測装置および3次元位置計測方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
US20140139635A1 (en) * 2012-09-17 2014-05-22 Nec Laboratories America, Inc. Real-time monocular structure from motion

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777421A (ja) * 1993-09-08 1995-03-20 Hitachi Ltd 自動車用距離計測装置とこれを搭載した自動車
JP2006349607A (ja) * 2005-06-20 2006-12-28 Toyota Central Res & Dev Lab Inc 距離計測装置
JP2007263669A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP2009186353A (ja) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd 物体検出装置および物体検出方法
US20090243889A1 (en) * 2008-03-27 2009-10-01 Mando Corporation Monocular motion stereo-based free parking space detection apparatus and method
JP2011112507A (ja) * 2009-11-26 2011-06-09 Fujitsu Ltd 3次元位置計測装置および3次元位置計測方法

Also Published As

Publication number Publication date
EP3149702A1 (en) 2017-04-05
DE112014006493T5 (de) 2017-01-19
WO2015180758A1 (en) 2015-12-03
US10192141B2 (en) 2019-01-29
US20170076459A1 (en) 2017-03-16
JP6396499B2 (ja) 2018-09-26

Similar Documents

Publication Publication Date Title
US10097812B2 (en) Stereo auto-calibration from structure-from-motion
US10079975B2 (en) Image distortion correction of a camera with a rolling shutter
JP6126809B2 (ja) エゴモーション概算システムおよび方法
JP6396499B2 (ja) 三次元情報の規模測定
EP3438777B1 (en) Method, apparatus and computer program for a vehicle
US10237532B2 (en) Scan colorization with an uncalibrated camera
JP7134012B2 (ja) 視差推定装置及び方法
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
US20190311485A1 (en) Method for Evaluating Image Data of a Vehicle Camera
US8059887B2 (en) System and method for providing mobile range sensing
KR101544021B1 (ko) 3차원 지도 생성 장치 및 3차원 지도 생성 방법
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
CN103123687A (zh) 快速障碍物检测
KR102268094B1 (ko) 동적 입체 캘리브레이션을 위한 시스템 및 방법
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
JP2017058274A (ja) 計測装置、方法及びプログラム
JP5501084B2 (ja) 平面領域検出装置及びステレオカメラシステム
JP6617150B2 (ja) 物体検出方法及び物体検出装置
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
KR100574227B1 (ko) 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
US20210335010A1 (en) Calibration method and calibration apparatus
JP6655869B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101828710B1 (ko) 객체 가려짐 검출 장치 및 그 방법
CN110751731B (zh) 一种用于结构光的3d重建方法和系统
JP2015033047A (ja) 複数カメラを用いた奥行き推定装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R150 Certificate of patent or registration of utility model

Ref document number: 6396499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250