JP5228614B2 - パラメータ計算装置、パラメータ計算システムおよびプログラム - Google Patents

パラメータ計算装置、パラメータ計算システムおよびプログラム Download PDF

Info

Publication number
JP5228614B2
JP5228614B2 JP2008128591A JP2008128591A JP5228614B2 JP 5228614 B2 JP5228614 B2 JP 5228614B2 JP 2008128591 A JP2008128591 A JP 2008128591A JP 2008128591 A JP2008128591 A JP 2008128591A JP 5228614 B2 JP5228614 B2 JP 5228614B2
Authority
JP
Japan
Prior art keywords
feature points
distance
image
parameter
photographed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008128591A
Other languages
English (en)
Other versions
JP2009276233A (ja
Inventor
泰弘 小野
晃一郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2008128591A priority Critical patent/JP5228614B2/ja
Publication of JP2009276233A publication Critical patent/JP2009276233A/ja
Application granted granted Critical
Publication of JP5228614B2 publication Critical patent/JP5228614B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動体に搭載された撮影装置の校正を行なうためのパラメータ計算装置、パラメータ計算システムおよびプログラムに関する。
従来、車両等の移動体の周囲の環境(車両の周囲に存在している物体の位置や距離等の状況)の認識・監視を行う場合に、移動体に搭載した2台のカメラを用いて3次元位置を計算する技術が広く採用されている。
3次元位置を精度高く計算するためには、2台のカメラの校正が必要となる。校正は、2台のカメラの位置及び姿勢の相対関係を示すパラメータ(以下、外部パラメータ)や、各カメラのレンズ歪みや焦点距離などを示すパラメータ(以下、内部パラメータ)を計算することにより行なわれる。
2台のカメラ(以下、ステレオカメラ)の校正を行なうための技術としては、例えば、既知パターンの画像を使用せずに、車両に装着されたステレオカメラにより取得した一般的な走行環境画像を用いて、技術者が特別の作業を行なうことなく、自動的にステレオカメラを校正(キャリブレーション)する技術が知られている(特許文献1参照。)。
この技術は、車両に搭載され、所定の設置距離で配置された2台のカメラで取得された複数の画像を用いて、車両周辺の物標の3次元座標を取得する装置において、1台のカメラが取得した画像から、第1の特徴点を抽出してその3次元座標を演算し、2台のカメラが同時に取得した2枚の画像から第2の特徴点を抽出して2枚の画像を対応付け、第2の特徴点の対応関係から基礎行列を演算し、カメラの仮のキャリブレーション値を計算して第2の特徴点の仮の3次元座標を演算し、同一の第1及び第2の特徴点についてそれぞれ演算された3次元座標を比較して、2台のカメラ間の距離スケールを求め、第2の特徴点の仮の3次元座標及び2台のカメラ間の距離スケールから、第2の特徴点の3次元座標を演算する。
特開2007−263669号公報
しかしながら、上記従来の技術で一般走行環境画像を用いてカメラの外部パラメータを計算する際に、ステレオカメラの使用目的とする距離に特徴点が十分に存在しない画像を用いてカメラ校正した場合には、校正の精度を十分に確保できないという問題がある。
より具体的に説明すると、カメラから近い領域に特徴点が存在する画像を用いて計算した外部パラメータと、遠い領域に特徴点が存在する画像を用いて計算した外部パラメータとが、異なる場合がある。これは領域毎の特徴点の数が影響している。既知パターンを持つキャリブレーションボードをステレオカメラを使用する目的に応じた距離だけ離した位置に配置し、それを撮影した撮影画像を用いて校正する方法であれば、このような問題は発生しないが、キャリブレーションボードを用いずに一般走行環境画像を用いて特別の作業をせずに自動的に外部パラメータを計算する際には、こうした問題が発生する。
すなわち、取得した一般走行環境画像中にステレオカメラの使用目的とする距離に特徴点が十分に存在しない場合には、カメラの使用目的とする距離に特徴点が十分に存在する画像を用いる場合に比べて、特徴点の座標の情報が不足するため、外部パラメータの計算精度が悪化するのである。
また、内部パラメータを計算する場合も、同様に、使用目的とする距離にレンズ歪を計算するために必要な物体が存在しない、或いは焦点距離等を計算するために必要な特徴点の数が少ない、等の場合には、計算精度が低下する。
上記従来手法には、こうした問題を解決し、より精度良くカメラを校正するための手段は何ら提案されていない。
本発明は上述した問題を解決するためになされたものであり、移動体に搭載された撮影装置の校正に必要なパラメータを精度高く計算することができるパラメータ計算装置、パラメータ計算システムおよびプログラムを提供することを目的とする。
請求項1の発明のパラメータ計算装置は、移動体に搭載された撮影装置で連続して撮影された直線状部分を備えた物体の画像を含む2枚の撮影画像のうち一方の撮影画像における直線状部分の画像上の特徴点と、他方の撮影画像に含まれる該特徴点に対応する対応点とを検出する検出手段と、前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記撮影装置までの各々の距離を計算する距離計算手段と、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、前記計数手段で計数された数が所定数を越えている場合に、前記一方の撮影画像または前記他方の撮影画像に基づいて前記撮影装置のレンズ歪みを示すレンズ歪みパラメータを計算するパラメータ計算手段と、を有する。
このような構成によれば、直線状部分の特徴点が所定数を越えて所定範囲内の距離領域に分布する撮影画像を用いてレンズ歪みパラメータを計算することができるため、直線状部分を備えた物体が所定範囲内の距離領域に存在していない撮影画像を用いてレンズ歪みパラメータを計算する場合に比べて、該所定範囲内の距離領域を使用目的とする撮影装置のレンズ歪みパラメータの計算精度が向上する。
請求項2の発明は、請求項1に記載のパラメータ計算装置において、前記計数手段で計数された数が所定数を越えていない場合に、前記撮影装置で連続して撮影された新たな撮影画像から新たに前記特徴点および前記対応点が検出されるように前記検出手段を制御する制御手段、を更に有する。
このような構成によれば、直線状部分の特徴点が所定数を越えて所定範囲内の距離領域に分布する撮影画像が得られるまで、撮影装置で新たに撮影した撮影画像から特徴点及び対応点を検出し、特徴点の距離を計算する処理が繰り返されるため、最終的に、所定範囲内の距離領域に直線状部分の特徴点が所定数を超えて存在する撮影画像が選択され、該撮影画像によりレンズ歪みパラメータを計算することができ、計算精度が向上する。
請求項3の発明のパラメータ計算装置は、移動体に搭載された2台の撮影装置の一方の撮影装置で撮影された直線状部分を備えた物体の画像を含む撮影画像における直線状部分の画像上の特徴点と、前記他方の撮影装置で撮影された撮影画像に含まれる該特徴点に対応する対応点とを検出する検出手段と、前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段と、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、前記計数手段で計数された数が所定数を越えている場合に、前記特徴点が検出された撮影画像に基づいて前記一方の撮影装置のレンズ歪みを示すレンズ歪みパラメータを計算するパラメータ計算手段と、を有する。
このような構成によれば、直線状部分の特徴点が所定数を超えて所定範囲内の距離領域に分布する撮影画像を用いてレンズ歪みパラメータを計算することができるため、直線状部分を備えた物体が所定範囲内の距離領域に存在していない撮影画像を用いてレンズ歪みパラメータを計算する場合に比べて、該所定範囲内の距離領域を使用目的とする撮影装置のレンズ歪みパラメータの計算精度が向上する。
請求項4の発明は、請求項3に記載のパラメータ計算装置において、前記パラメータ計算手段は、前記計数手段で計数された数が所定数を越えている場合に、更に、前記対応点が検出された撮影画像に基づいて前記他方の撮影装置のレンズ歪みパラメータを計算する。
このような構成によれば、該所定範囲内の距離領域を使用目的とする他方の撮影装置についても精度高くレンズ歪みパラメータを計算することができる。
請求項5の発明は、請求項3または請求項4に記載のパラメータ計算装置において、前記計数手段で計数された数が所定数を越えていない場合に、前記2台の撮影装置で撮影された新たな撮影画像から新たに前記特徴点および前記対応点が検出されるように前記検出手段を制御する制御手段、を更に有する。
このような構成によれば、直線状部分の特徴点が所定数を越えて所定範囲内の距離領域に分布する撮影画像が得られるまで、撮影装置で新たに撮影した撮影画像から特徴点及び対応点を検出し、特徴点の距離を計算する処理が繰り返されるため、最終的に、所定範囲内の距離領域に直線状部分の特徴点が所定数を超えて存在する撮影画像が選択され、該撮影画像によりレンズ歪みパラメータを計算することができ、計算精度が向上する。
請求項6の発明のパラメータ計算装置は、移動体に搭載された撮影装置で連続して撮影された3枚以上の撮影画像の全てに存在し該3枚以上の撮影画像間で互いに対応する特徴点を検出する検出手段と、前記検出手段で検出された特徴点に基づいて、該特徴点の各々の位置から前記撮影装置までの各々の距離を計算する距離計算手段と、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、前記計数手段で計数された数が所定数を越えている場合に、前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に基づいて、前記撮影装置の焦点距離を示す焦点距離パラメータ、前記撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算するパラメータ計算手段と、を有する。
このような構成によれば、所定範囲内の距離領域に分布する特徴点の数が所定数を超えている場合に、該所定範囲内の距離領域に分布する特徴点を用いて焦点距離パラメータ等を計算することができるため、特徴点が該所定範囲内の距離領域に十分に分布していない撮影画像を用いて焦点距離パラメータ等を計算する場合に比べて、該所定範囲内の距離領域を使用目的とする撮影装置のパラメータの計算精度が向上する。
請求項7の発明は、請求項6に記載のパラメータ計算装置において、前記計数手段で計数された数が前記所定数以下の場合に、前記撮影装置で連続して撮影された新たな3枚以上の撮影画像から新たに前記特徴点が検出されるように前記検出手段を制御する制御手段、を更に有する。
このような構成によれば、所定数を越える特徴点が所定範囲内の距離領域に分布する撮影画像が得られるまで、撮影装置で新たに撮影した撮影画像から特徴点を検出し、特徴点の距離を計算する処理が繰り返されるため、最終的に、所定範囲内の距離領域に分布する特徴点が十分に存在する撮影画像が選択されて、該所定範囲内の距離領域に分布する特徴点から焦点距離パラメータ等を計算することができ、計算精度が向上する。
請求項8の発明のパラメータ計算装置は、移動体に搭載された2台の撮影装置の一方で連続して撮影された3枚以上の撮影画像の全てに存在し該3枚以上の撮影画像間で互いに対応する特徴点を検出すると共に、2台の撮影装置の他方で撮影された3枚以上の撮影画像に含まれる前記特徴点に対応する対応点とを検出する検出手段と、前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段と、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、前記計数手段で計数された数が所定数を越えている場合に、前記一方の撮影装置で撮影された前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に基づいて、前記一方の撮影装置の焦点距離を示す焦点距離パラメータ、前記一方の撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記一方の撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算するパラメータ計算手段と、を有する。
このような構成によれば、所定範囲内の距離領域に分布する特徴点の数が所定数を超えている場合に、該所定範囲内の距離領域に分布する特徴点を用いて焦点距離パラメータ等を計算することができるため、特徴点が該所定範囲内の距離領域に十分に分布していない撮影画像を用いて焦点距離パラメータ等を計算する場合に比べて、該所定範囲内の距離領域を使用目的とする撮影装置のパラメータの計算精度が向上する。
請求項9の発明は、請求項8に記載のパラメータ計算装置において、 前記パラメータ計算手段は、前記計数手段で計数された数が所定数を越えている場合に、更に、前記他方の撮影装置で撮影された前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に対応する対応点に基づいて、前記他方の撮影装置の焦点距離を示す焦点距離パラメータ、前記他方の撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記他方の撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算する。
このような構成によれば、該所定範囲内の距離領域を使用目的とする他方の撮影装置についても精度高く焦点距離パラメータ等を計算することができる。
請求項10の発明は、請求項8または請求項9に記載のパラメータ計算装置において、前記計数手段で計数された数が所定数を越えていない場合に、前記一方の撮影装置で3枚以上連続して撮影された新たな撮影画像から新たに前記特徴点が検出されると共に、前記他方の撮影装置で3枚以上連続して撮影された新たな撮影画像から新たに前記対応点が検出されるように前記検出手段を制御する制御手段、を更に有する。
このような構成によれば、所定数を越える特徴点が所定範囲内の距離領域に分布する撮影画像が得られるまで、2台の撮影装置の各々で新たに撮影した3枚以上の撮影画像から特徴点、対応点を検出し、特徴点の距離を計算する処理が繰り返されるため、最終的に、所定範囲内の距離領域に特徴点が十分に存在する撮影画像が選択されて、該所定範囲内の距離領域に分布する特徴点から焦点距離パラメータ等を計算することができ、計算精度が向上する。
請求項11の発明のパラメータ計算装置は、移動体に搭載された2台の撮影装置の一方で撮影された撮影画像から特徴点を検出すると共に、前記2台の撮影装置の他方で撮影された撮影画像から前記特徴点に対応する対応点を検出する検出手段と、前記検出手段で検出された特徴点および対応点に基づいて、前記検出された各特徴点の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段と、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、前記計数手段で計数された数が所定数を越えている場合に、前記所定範囲内の距離領域に分布する特徴点および前記所定範囲内の距離領域に分布する特徴点に対応する対応点に基づいて前記2台の撮影装置の位置及び姿勢の相対関係を示す相対関係パラメータを計算するパラメータ計算手段と、を有する。
このような構成によれば、所定範囲内の距離領域に分布する特徴点の数が所定数を超えている撮影画像の特徴点とこれに対応する対応点とを用いて相対関係パラメータを計算することができるため、所定範囲内の距離領域に特徴点が十分に分布していない撮影画像を用いて相対関係パラメータを計算する場合に比べて、該所定範囲内の距離領域を使用目的とする撮影装置の相対関係パラメータの計算精度が向上する。
請求項12の発明は、請求項11に記載のパラメータ計算装置において、 前記計数手段で計数された数が所定数を越えていない場合に、前記2台の撮影装置で同時に撮影された新たな撮影画像から新たに前記特徴点および前記対応点が検出されるように前記検出手段を制御する制御手段、を更に有する。
このような構成によれば、所定数を越える特徴点が所定範囲内の距離領域に分布する撮影画像が得られるまで、2台の撮影装置で新たに撮影した撮影画像から特徴点、対応点を検出し、特徴点の距離を計算する処理が繰り返されるため、最終的に、所定範囲内の距離領域に特徴点が十分に存在する撮影画像が選択されて、該所定範囲内の距離領域に分布する特徴点、対応点から相対関係パラメータ等を計算することができ、計算精度が向上する。
請求項13の発明のパラメータ計算システムは、請求項1〜請求項5のいずれか1項記載のパラメータ計算装置と、請求項6〜請求項10のいずれか1項記載のパラメータ計算装置と、を備えている。
このような構成によれば、直線状部分の特徴点の各々が所定数を超えて所定範囲内の距離領域に分布する撮影画像を用いてレンズ歪みパラメータを計算することができると共に、所定範囲内の距離領域に分布する特徴点の数が所定数を超えている場合に、該所定範囲内の距離領域に分布する特徴点を用いて焦点距離パラメータ等を計算することができるため、該所定範囲内の距離領域を使用目的とする撮影装置のパラメータの計算精度が向上する。
請求項14の発明のパラメータ計算システムは、請求項1〜請求項5のいずれか1項記載のパラメータ計算装置と、請求項6〜請求項10のいずれか1項記載のパラメータ計算装置と、請求項11または請求項12に記載のパラメータ計算装置と、を備えている。
このような構成によれば、直線状部分の特徴点の各々が所定数を超えて所定範囲内の距離領域に分布する撮影画像を用いてレンズ歪みパラメータを計算することができると共に、所定範囲内の距離領域に分布する特徴点の数が所定数を超えている場合に、該所定範囲内の距離領域に分布する特徴点を用いて焦点距離パラメータ等や相対関係パラメータ等を計算することができるため、該所定範囲内の距離領域を使用目的とする撮影装置のパラメータの計算精度が向上する。
請求項15の発明のプログラムは、コンピュータを、移動体に搭載された撮影装置で連続して撮影された直線状部分を備えた物体の画像を含む2枚の撮影画像のうち一方の撮影画像における直線状部分の画像上の特徴点と、他方の撮影画像に含まれる該特徴点に対応する対応点とを検出する検出手段、前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記撮影装置までの各々の距離を計算する距離計算手段、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および前記計数手段で計数された数が所定数を越えている場合に、前記一方の撮影画像または前記他方の撮影画像に基づいて前記撮影装置のレンズ歪みを示すレンズ歪みパラメータを計算するパラメータ計算手段、として機能させるためのプログラムである。
このプログラムにより機能するコンピュータも、請求項1に記載のパラメータ計算装置と同様に作用するため、所定範囲内の距離領域を使用目的とする撮影装置のレンズ歪みパラメータの計算精度が向上する。
請求項16の発明のプログラムは、コンピュータを、移動体に搭載された2台の撮影装置の一方の撮影装置で撮影された直線状部分を備えた物体の画像を含む撮影画像における直線状部分の画像上の特徴点と、前記他方の撮影装置で撮影された撮影画像に含まれる該特徴点に対応する対応点とを検出する検出手段、前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および前記計数手段で計数された数が所定数を越えている場合に、前記特徴点が検出された撮影画像に基づいて前記一方の撮影装置のレンズ歪みを示すレンズ歪みパラメータを計算するパラメータ計算手段、として機能させるためのプログラムである。
このプログラムにより機能するコンピュータも、請求項3に記載のパラメータ計算装置と同様に作用するため、所定範囲内の距離領域を使用目的とする撮影装置のレンズ歪みパラメータの計算精度が向上する。
請求項17の発明のプログラムは、コンピュータを、移動体に搭載された撮影装置で連続して撮影された3枚以上の撮影画像の全てに存在し該3枚以上の撮影画像間で互いに対応する特徴点を検出する検出手段、前記検出手段で検出された特徴点に基づいて、該特徴点の各々の位置から前記撮影装置までの各々の距離を計算する距離計算手段、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および前記計数手段で計数された数が所定数を越えている場合に、前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に基づいて、前記撮影装置の焦点距離を示す焦点距離パラメータ、前記撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算するパラメータ計算手段、として機能させるためのプログラムである。
このプログラムにより機能するコンピュータも、請求項6に記載のパラメータ計算装置と同様に作用するため、所定範囲内の距離領域を使用目的とする撮影装置の焦点距離パラメータ等の計算精度が向上する。
請求項18の発明のプログラムは、コンピュータを、移動体に搭載された2台の撮影装置の一方で連続して撮影された3枚以上の撮影画像の全てに存在し該3枚以上の撮影画像間で互いに対応する特徴点を検出すると共に、2台の撮影装置の他方で撮影された3枚以上の撮影画像に含まれる前記特徴点に対応する対応点とを検出する検出手段、前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および前記計数手段で計数された数が所定数を越えている場合に、前記一方の撮影装置で撮影された前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に基づいて、前記一方の撮影装置の焦点距離を示す焦点距離パラメータ、前記一方の撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記一方の撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算するパラメータ計算手段、として機能させるためのプログラムである。
このプログラムにより機能するコンピュータも、請求項8に記載のパラメータ計算装置と同様に作用するため、所定範囲内の距離領域を使用目的とする撮影装置の焦点距離パラメータ等の計算精度が向上する。
請求項19の発明のプログラムは、コンピュータを、移動体に搭載された2台の撮影装置の一方で撮影された撮影画像から特徴点を検出すると共に、前記2台の撮影装置の他方で撮影された撮影画像から前記特徴点に対応する対応点を検出する検出手段、前記検出手段で検出された特徴点および対応点に基づいて、前記検出された各特徴点の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段、前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および前記計数手段で計数された数が所定数を越えている場合に、前記所定範囲内の距離領域に分布する特徴点および前記所定範囲内の距離領域に分布する特徴点に対応する対応点に基づいて前記2台の撮影装置の位置及び姿勢の相対関係を示す相対関係パラメータを計算するパラメータ計算手段、として機能させるためのプログラムである。
このプログラムにより機能するコンピュータも、請求項11に記載のパラメータ計算装置と同様に作用するため、所定範囲内の距離領域を使用目的とする撮影装置の相対関係パラメータの計算精度が向上する。
以上説明したように、本発明によれば、移動体に搭載された撮影装置の校正に必要なパラメータを精度高く計算することができる、という優れた効果を奏する。
以下、図面を参照して本発明の実施の形態について詳細に説明する。
[第1の実施の形態]
図1は、本発明のパラメータ計算装置としての機能を兼ね備えた本実施の形態に係る周辺環境認識装置の構成を示すブロック図である。この周辺環境認識装置は、第1カメラ10、第2カメラ12、およびコンピュータ20を備えている。
第1カメラ10および第2カメラ12は、車両等の移動体に搭載され、車両周辺を撮影して撮影画像を生成する。
コンピュータ20は、車両周辺の環境を認識すると共に、車両周辺の環境を認識するに際し、第1カメラ10および第2カメラ12の校正も行なう。
車両周辺の環境を認識するとは、車両の周囲(例えば、車両前方や後方)に存在している対象物の位置や距離等の状況を認識することをいい、第1カメラ10および第2カメラ12で撮影されて生成された撮影画像に基づいて例えば三角測量の原理により対象物の位置や距離を求める。例えば、2台のカメラの撮影画像について輝度分布パターンを求め、これにより対象物を検出し、更に、2枚の撮影画像間で該検出された対象物の位置ずれを求めて、三角測量の原理によって対象物の3次元位置を計算する。こうした技術は周知技術であるため、ここでのこれ以上の説明を省略する。
また、第1カメラ10および第2カメラ12の校正は、外部パラメータ、および内部パラメータを計算することにより行なわれる。ここで、外部パラメータは、第1カメラ10および第2カメラ12の2台のカメラの相対位置を示す並進パラメータ及び2台のカメラの光軸の相対的な向き(姿勢)を示す回転パラメータをいう。
図2は、外部パラメータを説明する説明図である。並進パラメータは、第1カメラ10の中心を原点(0,0,0)としたときの第2カメラ12の中心の位置を示し、(x、y、z)と記述する。また、回転パラメータは、第1カメラ10の座標系に対して第2カメラ12の座標系のなす角度を、ピッチ、ヨー、ロール角によって表したものである。なお、図2に示すように、第1カメラ10及び第2カメラ12の座標系は、第1カメラ10及び第2カメラ12の撮影方向をZ軸とし、このZ軸に直交する2軸をX軸及びY軸とする3次元直交座標系である。
また、内部パラメータは、第1カメラ10および第2カメラ12の各々のレンズ歪を示すパラメータ、焦点距離を示すパラメータ、レンズ中心を示すパラメータ、及び第1カメラ10、第2カメラ12で撮影される撮影画像のスキューを示すパラメータをいう。なお、レンズ歪みを示すパラメータは、例えば歪曲収差の特性を示す値とすることができる。また、スキューパラメータは、撮影画像の縦軸と横軸のなす角を示す値とすることができる。
上記車両周辺の環境を認識する際には、事前に外部パラメータ、内部パラメータを計算して2台のカメラを校正する必要がある。本実施の形態では、既に内部パラメータは所定の方法(例えば、走行中の撮影画像を用いずに公知のキャリブレーションボードを用いた方法、或いは、後述の第3の実施の形態で説明する手法等)により既知であるものとする。外部パラメータの計算については後述する。
コンピュータ20は、データのワークエリアであるRAM(Random Access Memory)26と、車両周辺の環境を認識する認識処理を実行するためのプログラムや第1カメラ10および第2カメラ12を校正する校正処理を実行するためのプログラムが記憶されているROM(Read Only Memory)24と、これらプログラムに従って演算処理を実行するCPU(Central Processing Unit)22とを備えている。
なお、第1カメラ10や第2カメラ12で撮影されて得られた撮影画像を示す画像信号は、A/D変換されて、RAM26に記憶される。ここでは、A/D変換のための変換器については図示を省略する。CPU22は、RAM26に記憶された画像信号に基づいて、認識処理や校正処理を行なう。
以上のように構成されたコンピュータ20は、ROM24に記憶されたプログラムにより図3に示す校正処理ルーチンを実行することによって、第1カメラ10および第2カメラ12の校正を行なう。
ステップ100では、CPU22は、第1カメラ10および第2カメラ12で同時に撮影されて得られた撮影画像を示す画像信号を取込んで、RAM26に記憶する。以下、第1カメラ10で撮影された撮影画像を基準画像と呼称し、第2カメラ12で撮影された撮影画像を参照画像と呼称する。
ステップ102では、CPU22は、RAM26に記憶され第1カメラ10で撮影されて得られた基準画像を示す画像信号に基づいて、該基準画像の特徴点を検出する。特徴点とは、第1カメラ10で撮影された基準画像と第2カメラ12で撮影された参照画像との対応を容易にとることができる特徴的な点である。例えば、周知のHarrisオペレータにより2次元的に濃淡変化の勾配値が大きくなる画素を検出することにより、特徴点を検出する。図4(A)に特徴点の検出結果の一例を示す。図4(A)には基準画像が図示されており、○で示される部分が検出された特徴点である。
ステップ104では、CPU22は、検出した特徴点の画像座標と、第2カメラ12で撮影されて得られた参照画像を示す画像信号とに基づいて、参照画像中から基準画像の特徴点に対応する対応点を検出する。ここで用いられる参照画像は、上記特徴点を検出した基準画像の撮影と同時に撮影された撮影画像とする。対応点は、例えば、Lucas-Kanade法を用いて検出する。Lucas-Kanade法は、基準画像中の特徴点とその周囲の点の輝度は、参照画像中の対応点とその周囲の点の輝度と同等であるという仮定を利用した方法である。図4(B)に対応点の検出結果の一例を示す。図4(B)には参照画像が図示されており、○で示される部分が検出された対応点である。
ステップ106では、CPU22は、上記検出した特徴点の画像座標、対応点の画像座標、および既知の内部パラメータに基づいて、外部パラメータを仮計算する。特徴点の画像座標とそれに対応する対応点の画像座標の組み合わせから外部パラメータを計算する手法としては、公知の方法を用いる(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003)。
ステップ108では、CPU22は、特徴点の画像座標、対応点の画像座標、仮計算された外部パラメータ、および既知の内部パラメータに基づいて、特徴点の距離分布を計算する。ここでは、公知の方法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003)を用いて、第1カメラ10から各特徴点の3次元座標位置までの距離を計算する。図5(A)に各特徴点の距離分布の一例を示すヒストグラムを示す。
ステップ110では、CPU22は、2台のカメラの使用目的に応じた距離領域に存在する特徴点の数をカウントする。本実施の形態では、前述の認識処理での認識範囲に存在する特徴点の数をカウントする。
ステップ112では、CPU22は、カウントした特徴点数が予め定められた閾値を越えているか否かを判断する。第1カメラ10および第2カメラ12の使用目的とする距離領域に存在する特徴点数が閾値を越えていれば、その距離領域に十分な数の特徴点が存在すると判定する。なお、判定に用いる閾値は、特徴点の画像座標とそれに対応する対応点の画像座標の組から精度良く外部パラメータを計算するために必要な数を予め設定しておく。
図5(B)は、図5(A)の距離分布における使用目的の距離領域の一例と、該距離領域に存在する特徴点の分布の一例を示すヒストグラムである。例えば、閾値を100に設定しておいた場合であって、2台のカメラの使用目的の距離領域が0〜50mである場合に、この領域の特徴点の合計数(図5(B)の斜線領域)が100点を越えれば、使用目的の距離領域に十分な数の特徴点が存在すると判定する。
ステップ112で、肯定判定した場合には、ステップ114に進み、CPU22は、検出された特徴点のうち、2台のカメラの使用目的の距離領域のみに分布した特徴点の画像座標、該特徴点に対応する対応点の画像座標、および既知の内部パラメータを用いて公知の方法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003)を利用することにより外部パラメータを再計算する。
また、ステップ112で、否定判定した場合には、ステップ100に戻り、これまでの処理で用いた基準画像および参照画像を用いず、第1カメラ10および第2カメラ12により撮影された別フレームの撮影画像を新たに取込んで用い、上記処理を繰り返す。結果として、使用目的の距離領域に特徴点が十分に存在する基準画像、参照画像が選択され、これらから外部パラメータが計算される。
以上説明したように、2台のカメラの使用目的に応じた距離に特徴点が十分に分布する画像を選択し、該画像において2台のカメラの使用目的に応じた距離に分布する特徴点および対応点の画像座標を用いて2台のカメラの外部パラメータを計算するようにしたため、2台のカメラの使用目的に応じた距離に特徴点が十分に存在していない画像を用いる場合に比べて、校正精度を向上させることができる。
[第2の実施の形態]
第1の実施の形態では、内部パラメータを既知として、外部パラメータのみを計算する場合を例に挙げて説明したが、内部パラメータも、一般走行環境の撮影画像に基づいて計算し、更に、該計算した内部パラメータを用いて外部パラメータを計算するようにしてもよい。以下、このように内部パラメータおよび外部パラメータを計算する周辺環境認識装置について説明する。
本実施の形態で例示する周辺環境認識装置の構成は、第1の実施の形態と同様であるため、説明を省略する。以下、本実施の形態の周辺環境認識装置による第1カメラ10及び第2カメラ12の校正処理について、説明する。
図6は、本実施の形態に係る校正処理ルーチンの流れを示すフローチャートである。
ステップ200では、撮影画像から内部パラメータ(レンズ歪みのパラメータ)の仮計算を行なう。ステップ202では、ステップ200で仮計算されたレンズ歪みパラメータおよび撮影画像から、レンズ歪み以外の内部パラメータ(焦点距離、レンズ中心、スキュー)の仮計算を行なう。以下、レンズ歪み以外の内部パラメータを「その他の内部パラメータ」と呼称する。ステップ204では、撮影画像の特徴点および対応点の画像座標と、ステップ200,202で仮計算された内部パラメータとを用いて外部パラメータの仮計算を行なう。
ステップ206では、撮影画像に含まれる直線状部分を備えた物体の画像上の特徴点および対応点の画像座標と、ステップ200,202で仮計算された内部パラメータと、ステップ204で仮計算された外部パラメータとを用いて、第1カメラ10から該特徴点までの距離を求め、特徴点が第1カメラ10、第2カメラ12の使用目的の距離にある直線状部分を備えた物体の画像を含む撮影画像からレンズ歪みパラメータを再計算する。
ステップ208では、撮影画像の特徴点および対応点の画像座標と、ステップ206で再計算されたレンズ歪みパラメータと、ステップ202で仮計算されたその他の内部パラメータと、ステップ204で仮計算された外部パラメータとを用いて、第1カメラ10(あるいは第2カメラ12)から特徴点までの距離を求め、第1カメラ10、第2カメラ12の使用目的の距離にある特徴点を用いてその他の内部パラメータを再計算する。
ステップ210では、撮影画像の特徴点および対応点の画像座標と、ステップ206で再計算されたレンズ歪みパラメータと,ステップ208で再計算されたその他の内部パラメータと、ステップ204で仮計算された外部パラメータとを用いて、第1カメラ10(第2カメラ12)から特徴点までの距離を求め、第1カメラ10、第2カメラ12の使用目的の距離にある特徴点を用いて外部パラメータを再計算する。
以下では、上記ステップ200〜210までの各処理について、図7〜図14を参照して詳細に説明する。
図7は、ステップ200の内部パラメータ(レンズ歪み)の仮計算処理の流れを示すフローチャートである。本実施の形態では、第1カメラ10、第2カメラ12の順に、レンズ歪みのパラメータの仮計算を行なうものとする。
ステップ220では、CPU22は、第1カメラ10及び第2カメラ12のいずれか一方のカメラで撮影されて得られた撮影画像を示す画像信号を取込んで、RAM26に記憶する。最初は、第1カメラ10で撮影された撮影画像の画像信号を取込む。
ステップ222では、CPU22は、RAM26に記憶された撮影画像の画像信号に基づいて、該撮影画像に直線状部分を含む物体(例えば、標識の柱、白線が引かれた道路など)の画像が存在するか否かを、例えば、Hough変換などの公知の手法を用いて判断する。本来直線状であるはずの部分がどれだけ歪んで撮影されているかを検出してレンズ歪みを計算するためである。なお、レンズ歪みの計算に用いる撮影画像に含まれる物体の形状は、予め形状がわかっていれば直線状でなくともよいが、本実施の形態では走行中の撮影画像からレンズ歪みパラメータを計算するため、予め形状がわかっているものとして直線状部分を含む物体を検出する。なお、以下では直線状部分を含む物体を単に「直線状の物体」と呼称する。
ステップ222で、CPU22は、直線状の物体の画像が存在しないと判断した場合には、ステップ220に戻り、新たに撮影されて得られた撮影画像の画像信号を取込んで、上記処理を繰り返す。
一方、ステップ222で、CPU22は、直線状の物体の画像が存在すると判断した場合には、ステップ224に移行する。ステップ224では、CPU22は、該撮影画像の画像信号に基づき、公知の手法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003.参照。)を用いて、本来直線状であるはずの物体がどれだけ歪んで撮影されているかを検出し、第1カメラ10のレンズ歪のパラメータを仮計算する。
ステップ226では、CPU22は、全カメラのレンズ歪みパラメータの仮計算が終了したか否かを判定する。第1カメラ10の仮計算が終了した段階では、第2カメラ12のレンズ歪みのパラメータの仮計算が未処理であるためここでは否定判断し、ステップ220に戻ってステップ220〜224の処理を第2カメラ12について繰り返し、第2カメラ12についても、上記第1カメラ10と同様にレンズ歪みのパラメータを仮計算する。
ステップ224で第2カメラ12のレンズ歪みパラメータの仮計算が終了した後は、ステップ226で肯定判断され、処理が終了する。
図8は、ステップ202のその他の内部パラメータの仮計算処理の流れを示すフローチャートである。本実施の形態でも、第1カメラ10、第2カメラ12の順に、その他の内部パラメータの仮計算を行なうものとする。
ステップ240では、CPU22は、第1カメラ10及び第2カメラ12のいずれか一方のカメラで、車両の運転中に連続して撮影されて得られた3枚の撮影画像を示す画像信号の各々を取込んで、RAM26に記憶する。最初は、第1カメラ10で撮影された3枚の撮影画像の画像信号を取込む。図9(A)〜(C)に、3枚の撮影画像の一例を示す。
なお、ここで撮影され記憶される3枚の撮影画像は、車両の走行中に撮影したものか、ほとんど移動しない状態で車体の向きのみが変化したときに撮影したものか、或いは、車両が全く動かない状態で撮影したものであって、撮影画像に移動したり回転したりする対象物が含まれているものである。その他の内部パラメータを計算するには、後述するように撮影画像に含まれる特徴点が、3枚の撮影画像間で所定数以上対応していることが必要であるため、図9(A)〜(C)に示すように、撮影される周辺環境が極端に変化しない程度の短い時間間隔で連続して撮影したものであることが必要である。
ステップ242では、CPU22は、RAM26に記憶された3枚の撮影画像の画像信号のうち、最初に撮影された(1枚目の)撮影画像の画像信号に基づいて、該撮影画像の特徴点を検出する。特徴点は、他の2枚の撮影画像との対応を容易にとることができる特徴的な部分を示す点であって、例えば第1の実施の形態と同様に、周知のHarrisオペレータにより2次元的に濃淡変化の勾配値が大きくなる画素を特徴点として検出する。更に、CPU22は、RAM26に記憶された3枚の撮影画像の画像信号に基づいて、2枚目、3枚目の撮影画像において1枚目の特徴点に対応する特徴点をLucas-Kanade法により探索する。
ステップ244では、CPU22は、RAM26に記憶された3枚の撮影画像の画像信号に基づいて、上記検出された特徴点のうち、3枚の撮影画像の全てに写っていて、かつ、画像間でお互いに対応している特徴点をLucas-Kanade法により検出する。ここで検出された3枚の撮影画像の特徴点の集合を特徴点集合Sと呼称する。図9(A)〜(C)に、各撮影画像における特徴点集合Sの各特徴点を●で示す。
ステップ248では、CPU22は、特徴点集合Sの特徴点の数が閾値(例えば30点程度)を越えているか否かを判断する。CPU22は、特徴点集合Sの特徴点の数が閾値以下であると判断した場合には、その他の内部パラメータを計算するために十分な特徴点が存在しないとして、ステップ240に戻り、新たに撮影された撮影画像の画像信号を取込む。
一方、ステップ248で、CPU22は、特徴点集合Sの特徴点の数が閾値を越えていると判断した場合には、ステップ250で、特徴点集合Sの各特徴点の、各撮影画像における画像座標と、ステップ200で仮計算したレンズ歪みパラメータとに基づいて、公知の手法(例えば、Q. T. Luong, O. D. Faugeras, "Self-calibration of a moving camera from point correspondences and fundamental matrices", IJCV, Vol.22, Num. 3, pp.261-289, 1997.参照。)を用いて、焦点距離、レンズ中心、スキューを仮計算する。
ステップ252では、CPU22は、全カメラについて、その他の内部パラメータの仮計算が終了したか否かを判定する。第1カメラ10の仮計算が終了した段階では、第2カメラ12の仮計算が未処理であるためここでは否定判断し、ステップ240に戻ってステップ240〜250の処理を第2カメラ12について繰り返し、第2カメラ12についても「その他の内部パラメータ」を仮計算する。
ステップ250で第2カメラ12の仮計算が終了した後は、ステップ252で肯定判断され、処理が終了する。
なお、本実施の形態では、3枚の撮影画像を用いてその他の内部パラメータの仮計算を行なったが、撮影画像は3枚以上であればよく、3枚のみに限定されない。
図10は、ステップ204の外部パラメータの仮計算処理の流れを示すフローチャートである。ステップ260〜262までの処理は、第1の実施の形態における図3を用いて説明したステップ100〜104と同じであるため説明を省略する。
ステップ264では、CPU22は、ステップ200、202で仮計算された内部パラメータ、および上記検出した特徴点の画像座標および対応点の画像座標に基づき、公知の方法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003.参照)を用いて外部パラメータを仮計算する。
図11は、ステップ206の内部パラメータ(レンズ歪み)の再計算処理の流れを示すフローチャートである。
ステップ280では、CPU22は、第1カメラ10および第2カメラ12で同時に撮影されて得られた撮影画像を示す画像信号を取込んで、RAM26に記憶する。以下、第1カメラ10で撮影された撮影画像を基準画像と呼称し、第2カメラ12で撮影された撮影画像を参照画像と呼称する。
ステップ282では、CPU22は、第1カメラ10で撮影されRAM26に記憶された基準画像を示す画像信号に基づいて、該基準画像に直線状の物体の画像が存在するか否かを、例えばHough変換などの公知の手法を用いて判断する。
ステップ282で、CPU22は、直線状の物体の画像が存在しないと判断した場合には、ステップ280に戻り、新たに撮影されて得られた撮影画像の画像信号を取込んで、上記処理を繰り返す。
一方、ステップ282で、CPU22は、直線状の物体の画像が存在すると判断した場合には、ステップ284に移行する。ステップ284では、CPU22は、該基準画像を示す画像信号に基づいて、該基準画像における上記検出した直線状の物体の特徴点を検出する。特徴点は、第1の実施の形態と同様に検出する。図12(A)に特徴点の検出結果の一例を示す。図12(A)には基準画像が図示されており、該基準画像中の直線状の物体の特徴点が、●で示されている。
更に、ステップ284で、CPU22は、検出した特徴点の画像座標と、第2カメラ12で撮影されて得られた参照画像を示す画像信号とに基づいて、参照画像中から基準画像の特徴点に対応する対応点を第1の実施の形態と同様に検出する。図12(B)に対応点の検出結果の一例を示す。図12(B)には参照画像が図示されており、該参照画像中の対応点が●で示されている。
ステップ286では、CPU22は、ステップ200,202で仮計算した内部パラメータ、ステップ204で仮計算した外部パラメータ、ステップ284で検出した特徴点の画像座標、及び対応点の画像座標に基づいて、直線状の物体の特徴点と第1カメラ10との距離を計算する。ここでは、第1の実施の形態と同様に、公知の方法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003.参照)を用いて、第1カメラ10から各特徴点の3次元座標位置までの距離を計算する。
ステップ288で、CPU22は、上記計算した距離に基づき、2台のカメラの使用目的に応じた距離領域に存在する特徴点の数をカウントする。
ステップ290で、CPU22は、カウントした特徴点数が予め定められた閾値を越えているか否かを判断する。CPU22は、カウントした特徴点数が予め定められた閾値以下であると判断した場合には、ステップ280に戻り、新たに撮影された撮影画像を取込んで上記処理を繰り返す。また、CPU22は、CPU22は、カウントした特徴点数が予め定められた閾値を越えていると判断した場合には、ステップ292に移行する。
ステップ292では、CPU22は、基準画像(第1カメラ10で撮影された撮影画像)の画像信号から、公知の手法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003.参照。)を用いて、第1カメラ10のレンズ歪のパラメータを再計算する。同様に、参照画像(第2カメラ12で撮影された撮影画像)の画像信号から、上記と同様に公知の手法を用いて、第2カメラ12のレンズ歪のパラメータを再計算する。
このように、2台のカメラの使用目的の距離領域に直線状の物体が存在する撮影画像を用いてレンズ歪パラメータを計算した方が、該使用目的の距離領域外に直線状の物体が存在する撮影画像を用いて計算する場合よりも、2台のカメラの使用目的において計算精度が高くなる。
なお、ここでは、ステップ292で、基準画像を用いて第1カメラ10のレンズ歪みパラメータを再計算すると共に、参照画像を用いて第2カメラ12のレンズ歪みパラメータを再計算する例について説明したが、これに限定されず、例えば、ステップ292では、基準画像を用いて、基準画像を撮影した一方のカメラのレンズ歪みパラメータの再計算のみを行ない、他方のカメラについては、再度ステップ280〜ステップ292を繰り返して、他方のカメラで撮影した撮影画像を基準画像として同様の処理を繰り返し、ステップ292で該他方のカメラについてのレンズ歪みパラメータを求めるような処理手順としてもよい。
図13は、ステップ208の、その他の内部パラメータの再計算処理の流れを示すフローチャートである。ここでも、ステップ202の仮計算の処理と同様に、第1カメラ10、第2カメラ12の順に、その他の内部パラメータの再計算を行なうものとする。
ステップ300では、CPU22は、2台のカメラのうち、一方のカメラ(ここでは第1カメラ10)を基準カメラとして設定し、他方のカメラ(ここでは第2カメラ12)を対応カメラとして設定する。まず最初は、第1カメラ10を基準カメラとして設定し、第2カメラ12を対応カメラとして設定する。
ステップ302では、CPU22は、車両の運転中に基準カメラで連続して撮影されて得られた3枚の撮影画像を示す画像信号の各々を取込んで、RAM26に記憶する。この3枚の撮影画像の撮影と同じタイミングで、対応カメラで連続して撮影されて得られた3枚の撮影画像を示す画像信号の各々を取込んで、RAM26に記憶する。
ステップ304では、CPU22は、基準カメラで撮影されRAM26に記憶された3枚の撮影画像の画像信号のうち、最初に撮影された(1枚目の)撮影画像の画像信号に基づいて、該撮影画像の特徴点を検出する。更に、CPU22は、RAM26に記憶された3枚の撮影画像の画像信号に基づいて、基準カメラで撮影された2枚目、3枚目の撮影画像において1枚目の特徴点に対応する特徴点をLucas-Kanade法により探索する。
ステップ306では、CPU22は、RAM26に記憶された3枚の撮影画像の画像信号に基づいて、上記検出された特徴点のうち、3枚の撮影画像の全てに写っていて、かつ、画像間でお互いに対応している特徴点をLucas-Kanade法により探索する。3枚の画像において検出された特徴点の集合を特徴点集合Sと呼称する。図9(A)〜(C)に、各撮影画像における特徴点集合Sの各特徴点を●で示す。
ステップ308では、CPU22は、特徴点集合Sの特徴点の数が閾値(例えば30点程度)を越えているか否かを判断する。CPU22は、特徴点集合Sの特徴点の数が閾値以下であると判断した場合には、その他の内部パラメータを計算するために十分な特徴点が存在しないとして、ステップ302に戻り、基準カメラ及び対応カメラで新たに撮影された撮影画像の画像信号を取込む。
ステップ308で、CPU22は、特徴点集合Sの特徴点の数が閾値を越えていると判断した場合には、ステップ310に移行する。ステップ310では、CPU22は、検出した特徴点集合Sの各特徴点の画像座標と、対応カメラで撮影されて得られた3枚の撮影画像を示す画像信号とに基づいて、対応カメラで撮影された3枚の撮影画像中から上記検出した特徴点集合Sの各特徴点に対応する対応点をLucas-Kanade法により検出する。
ステップ312では、CPU22は、ステップ206で再計算されたレンズ歪みパラメータ、ステップ202で仮計算したその他の内部パラメータ、ステップ204で仮計算した外部パラメータ、上記ステップ306で検出した特徴点集合Sの各特徴点の各撮影画像における画像座標、及び上記ステップ310で検出した各対応点の各撮影画像における画像座標に基づいて、公知の方法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003.参照)を用いて、基準カメラから特徴点集合Sの各特徴点の3次元座標位置までの距離を計算する。これにより、図5(A)に示すように特徴点集合Sの距離分布が求まる。
ここで、ステップ206で再計算したレンズ歪パラメータを用いて計算した基準カメラと特徴点集合Sとの距離の方が、ステップ200で仮計算したレンズ歪パラメータを用いて計算した距離より、2台のカメラの使用目的の距離領域において精度が高い。
ステップ314では、CPU22は、上記距離を求めた特徴点集合Sの特徴点のうち、2台のカメラの使用目的に応じた距離領域に存在する特徴点の数(例えば、図5(B)に示す斜線部分の特徴点の数の合計)をカウントする。
ステップ316では、CPU22は、カウントした特徴点数が予め定められた閾値を越えているか否かを判断する。上記使用目的とする距離領域に存在する特徴点数が閾値を越えていれば、その距離領域に十分な数の特徴点が存在すると判定する。
ステップ316で、カウントした特徴点数が予め定められた閾値を越えていると判定した場合には、ステップ318に進み、CPU22は、特徴点集合Sのうち、2台のカメラの使用目的に応じた距離領域に存在する特徴点の各撮影画像における画像座標と、ステップ206で再計算したレンズ歪みパラメータとに基づいて、公知の手法(例えば、Q. T. Luong, O. D. Faugeras, "Self-calibration of a moving camera from point correspondences and fundamental matrices", IJCV, Vol.22, Num. 3, pp.261-289, 1997.参照。)を用いて、基準カメラについての焦点距離、レンズ中心、スキューを再計算する。
また、ステップ316で、カウントした特徴点数が予め定められた閾値以下であると判定した場合には、ステップ302に戻り、新たに撮影画像を取込んで、上記処理を繰り返す。
ステップ320では、CPU22は、全カメラについて、その他の内部パラメータの再計算が終了したか否かを判定する。第1カメラ10の再計算が終了した段階では、第2カメラ12の再計算が未処理であるためここでは否定判断され、ステップ322に移行する。そして、ステップ322で、CPU22は、一方のカメラ(ここでは第1カメラ10)を対応カメラとして設定し、他方のカメラ(ここでは第2カメラ12)を基準カメラとして設定する。設定後はステップ302に戻って、ステップ302〜318の処理を行ない、第2カメラ12についても、上記第1カメラ10と同様にその他の内部パラメータを再計算する。
ステップ318で第2カメラ12の再計算処理が終了した後は、ステップ320で肯定判断され、処理が終了する。
このように、特徴点集合Sの全ての特徴点の画像座標を用いて計算した内部パラメータより、特徴点集合Sの中で2台のカメラの使用目的の距離領域に存在する特徴点の画像座標を用いて計算した内部パラメータの方が、2台のカメラの使用目的の距離領域において精度が高い。
なお、ここでは、ステップ292では、まず一方のカメラ(ここでは第1カメラ10)を基準カメラとして設定し、該一方のカメラで撮影した撮影画像の特徴点を用いて一方のカメラについてその他の内部パラメータを再計算し、次に他方のカメラ(ここでは第2カメラ12)を基準カメラとして設定し、同様の処理を繰り返して該他方のカメラについてその他の内部パラメータを再計算する例について説明したが、本発明はこうした処理の流れに限定されない。例えば、基準カメラで撮影した撮影画像の特徴点のうち、カメラの使用目的の距離の領域に存在する特徴点の数が閾値を越えていれば、該距離の領域に存在する特徴点に基づいて基準カメラのその他の内部パラメータを求め、該特徴点に対応する対応点に基づいて対応カメラのその他の内部パラメータを求めるようにしてもよい。
図14は、ステップ210の外部パラメータの再計算処理の流れを示すフローチャートである。ステップ340〜342までの処理は、第1の実施の形態における図3を用いて説明したステップ100〜104までの処理と同じであるため説明を省略する。
ステップ344では、CPU22は、ステップ206,208で再計算した内部パラメータ、ステップ204で仮計算した外部パラメータ、ステップ342で検出した特徴点の画像座標、及び対応点の画像座標に基づいて、各特徴点の第1カメラ10からの距離を計算する。ここでは、第1の実施の形態と同様に、公知の方法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003.参照)を用いて、第1カメラ10から各特徴点の3次元座標位置までの距離を計算する。
ここで、ステップ206,208で再計算した内部パラメータを用いて計算した第1カメラ10と特徴点集合Sとの距離の方が、ステップ200,202で仮計算した内部パラメータを用いて計算した距離より、2台のカメラの使用目的の距離領域において精度が高い。
ステップ346〜348までの処理は、第1の実施の形態における図3を用いて説明したステップ110〜112と同じであるため説明を省略する。
ステップ350では、CPU22は、ステップ206,208で再計算した内部パラメータ、上記ステップ342で検出された特徴点のうち2台のカメラの使用目的の距離領域に分布した特徴点の画像座標、および該特徴点に対応する対応点の画像座標に基づいて、公知の方法(例えば、R.Hartley, A.Zisserman, "Multiple View Geometry in Computer Vision", CAMBRIDGE UNIVERSITY PRESS, 2003)を利用することにより外部パラメータを再計算する。
ここで、2台のカメラの使用目的の距離領域に存在する特徴点のみの画像座標と、ステップ206、208で再計算した内部パラメータとを用いて計算した外部パラメータの方が、撮影画像中の全ての特徴点の画像座標を利用し、かつステップ200,202で仮計算した内部パラメータを用いて計算した外部パラメータに比べて、2台のカメラの使用目的の距離領域において精度が高い。
[第3の実施の形態]
第1の実施の形態、および第2の実施の形態では2台のカメラを搭載した周辺環境認識装置を例に挙げて、カメラの構成に必要なパラメータを計算する例について説明したが、本実施の形態では、1台のカメラが搭載された周辺環境認識装置を例に挙げて説明する。搭載されたカメラが1台であっても、周知の単眼ステレオカメラの技術を用いることで周辺環境を認識することができ、また内部パラメータも計算することができる。なお、本実施の形態では、カメラが1台であるため、外部パラメータの計算は不要である。
本実施の形態で例示する周辺環境認識装置の構成は、第1カメラ10及び第2カメラ12のいずれか一方のみが装備されている以外は、第1の実施の形態と同様であるため、説明を省略する。ここでは、第1カメラ10が装備されているものとして、第1カメラ10の校正処理について、図15のフローチャートを用いて説明する。
ステップ500では、撮影画像から内部パラメータ(レンズ歪みのパラメータ)の仮計算を行なう。この仮計算処理は、第2の実施の形態において、図7を用いて説明したステップ200の仮計算処理と同じであるため、ここでは説明を省略する。ただし、本実施の形態では、レンズ歪みのパラメータの計算を行なうカメラが1台であるため、ステップ226は常に肯定判断される。
ステップ502では、ステップ500で仮計算されたレンズ歪みパラメータおよび撮影画像から、レンズ歪み以外のその他の内部パラメータ(焦点距離、レンズ中心、スキュー)の仮計算を行なう。この仮計算処理は、第2の実施の形態において、図8を用いて説明したステップ202の仮計算処理と同じであるため、ここでは説明を省略する。ただし、本実施の形態では、その他の内部パラメータの計算を行なうカメラが1台であるため、ステップ250は常に肯定判断される。
ステップ504では、レンズ歪みパラメータを再計算する。図16にこの再計算処理の流れを示すフローチャートを示す。
ステップ520では、CPU22は、第1カメラ10で連続して撮影されて得られた2枚の撮影画像の各々を示す画像信号の各々を取込んで、RAM26に記憶する。この2枚の撮影画像は、車両の走行中に撮影したものか、ほとんど移動しない状態で車体の向きのみが変化したときに撮影したものか、或いは、車両が全く動かない状態で撮影したものであって、撮影画像に移動したり回転したりする対象物が含まれているものである。ただし、後述するように、本実施の形態では、カメラから特徴点までの距離を、画面上の対象物の動き及び撮影位置の変位量に基づいて計算するため、撮影される周辺環境が極端に変化しない程度の短い時間間隔で連続して撮影したものであることが必要である。なお、以下では、2枚の撮影画像のうち一方を基準画像、他方を参照画像と呼称する。
ステップ522では、CPU22は、基準画像を示す画像信号に基づいて、該基準画像に直線状の物体の画像が存在するか否かを例えば、Hough変換などの公知の手法を用いて判断する。
ステップ522で、CPU22は、直線状の物体の画像が存在しないと判断した場合には、ステップ520に戻り、新たに撮影されて得られた撮影画像の画像信号を取込んで、上記処理を繰り返す。
一方、ステップ522で、CPU22は、直線状の物体の画像が存在すると判断した場合には、ステップ524に移行する。ステップ524では、CPU22は、該基準画像を示す画像信号に基づいて、上記検出した直線状の物体の画像上に存在する特徴点を検出する。特徴点は、第1の実施の形態と同様に検出する。更に、CPU22は、検出した特徴点の画像座標と、参照画像を示す画像信号とに基づいて、参照画像中から基準画像の特徴点に対応する(直線状の物体の画像上の)対応点を検出する。対応点の検出方法は、公知の方法Lucas-Kanade法を用いることができる。
ステップ526では、CPU22は、ステップ500,502で仮計算した内部パラメータ、ステップ524で検出した特徴点の画像座標、及び対応点の画像座標に基づいて、第1カメラ10から直線状の物体の特徴点までの距離を計算する。ここでは、公知のモーションステレオ(SfM:Structure from Motion)技術(「車載カメラを用いた単眼測距検証システムの開発」、滝本周平、伊藤崇晶、2006年7月、SEIテクニカルレビュー、169号、参照。)を用い、距離の計算を行なう。SfMは、1台のカメラで別時刻、別視点から撮影された複数枚の撮影画像を利用し、撮影画像上の対象物の動き及び撮影位置の変位量に基づいて対象物の3次元座標位置を計算する技術である(例えば、「車載カメラを用いた単眼測距検証システムの開発」、滝本周平、伊藤崇晶、2006年7月、SEIテクニカルレビュー、169号参照。)。これにより、図5(A)に示すように特徴点の距離分布が求まる。
ステップ528〜532までの処理は、上記第2の実施の形態の図11で説明したステップ288〜292の処理と同様であるため、説明を省略する。ただし、本実施の形態のステップ532では、基準画像を用いてレンズ歪みパラメータを再計算してもよいし、参照画像を用いてレンズ歪みパラメータを再計算してもよい。
このように第1カメラ10の使用目的の距離領域に直線状の物体が存在する撮影画像を用いてレンズ歪パラメータを計算した方が、該使用目的の距離領域外に直線状の物体が存在する撮影画像を用いて計算する場合よりも、第1カメラ10の使用目的において計算精度が高くなる。
図15のステップ506では、その他の内部パラメータを再計算する。図17は、ステップ506の、その他の内部パラメータの再計算処理の流れを示すフローチャートである。
ステップ540〜546までの処理は、図8で説明したその他の内部パラメータの仮計算のステップ240〜246までの処理と同様であるため説明を省略する。
ステップ546で、CPU22は、特徴点集合Sの特徴点の数が閾値を越えていると判断した場合には、ステップ548に移行する。ステップ548では、CPU22は、ステップ504で再計算した第1カメラ10のレンズ歪みパラメータ、ステップ502で仮計算した第1カメラ10のその他の内部パラメータ、およびステップ544で検出した特徴点集合Sの各特徴点の各撮影画像における画像座標に基づいて、特徴点集合Sの各特徴点の第1カメラ10からの距離を計算する。ここでは、公知のモーションステレオ(SfM:Structure from Motion)技術(「車載カメラを用いた単眼測距検証システムの開発」、滝本周平、伊藤崇晶、2006年7月、SEIテクニカルレビュー、169号、参照。)を用いて、各特徴点の第1カメラ10からの距離を計算する。これにより、図5(A)に示すように各撮影画像毎に特徴点集合Sの距離分布が求まる。
ここで、ステップ504で再計算したレンズ歪パラメータを用いて計算した第1カメラ10と特徴点集合Sとの距離の方が、ステップ500で仮計算したレンズ歪パラメータを用いて計算した距離より、第1カメラ10の使用目的の距離領域において精度が高い。
ステップ550では、CPU22は、上記距離を求めた特徴点集合Sの特徴点のうち、第1カメラ10の使用目的に応じた距離領域に存在する特徴点の数(例えば、図5(B)に示す斜線部分の特徴点の数の合計)をカウントする。
ステップ552では、CPU22は、カウントした特徴点数が予め定められた閾値を越えているか否かを判断する。第1カメラ10の使用目的とする距離領域に存在する特徴点数が閾値を越えていれば、その距離領域に十分な数の特徴点が存在すると判定する。
ステップ552で、CPU22は、カウントした特徴点数が予め定められた閾値を越えていると判定した場合には、ステップ554に進み、特徴点集合Sのうち、第1カメラ10のカメラの使用目的に応じた距離領域に存在する特徴点の各撮影画像における画像座標と、ステップ504で再計算したレンズ歪みパラメータとに基づいて、公知の手法(例えば、Q. T. Luong, O. D. Faugeras, "Self-calibration of a moving camera from point correspondences and fundamental matrices", IJCV, Vol.22, Num. 3, pp.261-289, 1997.参照。)を用いて、第1カメラ10についての焦点距離、レンズ中心、スキューを再計算する。
また、ステップ552で、CPU22は、カウントした特徴点数が予め定められた閾値以下であると判定した場合には、ステップ540に戻り、新たに撮影画像を取込んで用い、上記処理を繰り返す。
このように、特徴点集合Sの全ての特徴点の画像座標を用いて計算した内部パラメータより、特徴点集合Sの中でカメラの使用目的の距離領域に存在する特徴点のみの画像座標を用いて計算した内部パラメータの方が、カメラの使用目的の距離領域において精度が高い。
なお、本実施の形態で例示した、1台のカメラで特徴点の距離を求める手法を、第2の実施の形態のステップ206、ステップ208、およびステップ210で行なう特徴点の距離計算に適用してもよい。
また、2台のカメラを用いて周辺環境を認識する周辺環境認識装置であっても、第3の実施の形態で例示した内部パラメータの再計算の手法を用いて求めてもよい。
また、第2、第3の実施の形態では、レンズ歪みパラメータ及びその他の内部パラメータを順に求めたが、該内部パラメータのうちいずれかが既知の場合には、既知の内部パラメータをそのまま用いて未知の内部パラメータのみを求めるようにしてもよい。
本発明のパラメータ計算装置としての機能を兼ね備えた第1の実施の形態に係る周辺環境認識装置の構成を示すブロック図である。 外部パラメータを説明する説明図である。 第1の実施の形態に係る校正処理ルーチンのフローチャートを示す図である。 (A)は特徴点の検出結果の一例を示す図であり、(B)は、対応点の検出結果の一例を示す図である。 (A)は各特徴点の距離分布の一例を示すヒストグラムを示す図であり、(B)は、(A)の距離分布における使用目的の距離領域の一例と、該該距離領域に存在する特徴点の分布の一例を示すヒストグラムである。 第2の実施の形態に係る校正処理ルーチンの流れを示すフローチャートである。 図6のステップ200の内部パラメータ(レンズ歪み)の仮計算処理の流れを示すフローチャートである。 図6のステップ202のその他の内部パラメータの仮計算処理の流れを示すフローチャートである。 (A)〜(C)は、3枚の撮影画像の一例を示す図である。 図6のステップ204の外部パラメータの仮計算処理の流れを示すフローチャートである。 図6のステップ206の内部パラメータ(レンズ歪み)の再計算処理の流れを示すフローチャートである。 (A)は特徴点の検出結果の一例を示す図であり、(B)は対応点の検出結果の一例を示す図である。 図6のステップ208のその他の内部パラメータの再計算処理の流れを示すフローチャートである。 図6のステップ210の外部パラメータの再計算処理の流れを示すフローチャートである。 第3の実施の形態に係る校正処理ルーチンの流れを示すフローチャートである。 図15のステップ504の内部パラメータ(レンズ歪み)の再計算処理の流れを示すフローチャートを示す図である。 図15のステップ506のその他の内部パラメータの再計算処理の流れを示すフローチャートを示す図である。
符号の説明
10 第1カメラ
12 第2カメラ
20 コンピュータ
22 CPU
24 ROM
26 RAM

Claims (19)

  1. 移動体に搭載された撮影装置で連続して撮影された直線状部分を備えた物体の画像を含む2枚の撮影画像のうち一方の撮影画像における直線状部分の画像上の特徴点と、他方の撮影画像に含まれる該特徴点に対応する対応点とを検出する検出手段と、
    前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記撮影装置までの各々の距離を計算する距離計算手段と、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、
    前記計数手段で計数された数が所定数を越えている場合に、前記一方の撮影画像または前記他方の撮影画像に基づいて前記撮影装置のレンズ歪みを示すレンズ歪みパラメータを計算するパラメータ計算手段と、
    を有するパラメータ計算装置。
  2. 前記計数手段で計数された数が所定数を越えていない場合に、前記撮影装置で連続して撮影された新たな撮影画像から新たに前記特徴点および前記対応点が検出されるように前記検出手段を制御する制御手段、
    を更に有する請求項1に記載のパラメータ計算装置。
  3. 移動体に搭載された2台の撮影装置の一方の撮影装置で撮影された直線状部分を備えた物体の画像を含む撮影画像における直線状部分の画像上の特徴点と、前記他方の撮影装置で撮影された撮影画像に含まれる該特徴点に対応する対応点とを検出する検出手段と、
    前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段と、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、
    前記計数手段で計数された数が所定数を越えている場合に、前記特徴点が検出された撮影画像に基づいて前記一方の撮影装置のレンズ歪みを示すレンズ歪みパラメータを計算するパラメータ計算手段と、
    を有するパラメータ計算装置。
  4. 前記パラメータ計算手段は、前記計数手段で計数された数が所定数を越えている場合に、更に、前記対応点が検出された撮影画像に基づいて前記他方の撮影装置のレンズ歪みパラメータを計算する、
    請求項3に記載のパラメータ計算装置。
  5. 前記計数手段で計数された数が所定数を越えていない場合に、前記2台の撮影装置で撮影された新たな撮影画像から新たに前記特徴点および前記対応点が検出されるように前記検出手段を制御する制御手段、
    を更に有する請求項3または請求項4に記載のパラメータ計算装置。
  6. 移動体に搭載された撮影装置で連続して撮影された3枚以上の撮影画像の全てに存在し該3枚以上の撮影画像間で互いに対応する特徴点を検出する検出手段と、
    前記検出手段で検出された特徴点に基づいて、該特徴点の各々の位置から前記撮影装置までの各々の距離を計算する距離計算手段と、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、
    前記計数手段で計数された数が所定数を越えている場合に、前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に基づいて、前記撮影装置の焦点距離を示す焦点距離パラメータ、前記撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算するパラメータ計算手段と、
    を有するパラメータ計算装置。
  7. 前記計数手段で計数された数が前記所定数以下の場合に、前記撮影装置で連続して撮影された新たな3枚以上の撮影画像から新たに前記特徴点が検出されるように前記検出手段を制御する制御手段、
    を更に有する請求項6に記載のパラメータ計算装置。
  8. 移動体に搭載された2台の撮影装置の一方で連続して撮影された3枚以上の撮影画像の全てに存在し該3枚以上の撮影画像間で互いに対応する特徴点を検出すると共に、2台の撮影装置の他方で撮影された3枚以上の撮影画像に含まれる前記特徴点に対応する対応点とを検出する検出手段と、
    前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段と、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、
    前記計数手段で計数された数が所定数を越えている場合に、前記一方の撮影装置で撮影された前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に基づいて、前記一方の撮影装置の焦点距離を示す焦点距離パラメータ、前記一方の撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記一方の撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算するパラメータ計算手段と、
    を有するパラメータ計算装置。
  9. 前記パラメータ計算手段は、前記計数手段で計数された数が所定数を越えている場合に、更に、前記他方の撮影装置で撮影された前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に対応する対応点に基づいて、前記他方の撮影装置の焦点距離を示す焦点距離パラメータ、前記他方の撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記他方の撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算する
    請求項8に記載のパラメータ計算装置。
  10. 前記計数手段で計数された数が所定数を越えていない場合に、前記一方の撮影装置で3枚以上連続して撮影された新たな撮影画像から新たに前記特徴点が検出されると共に、前記他方の撮影装置で3枚以上連続して撮影された新たな撮影画像から新たに前記対応点が検出されるように前記検出手段を制御する制御手段、
    を更に有する請求項8または請求項9に記載のパラメータ計算装置。
  11. 移動体に搭載された2台の撮影装置の一方で撮影された撮影画像から特徴点を検出すると共に、前記2台の撮影装置の他方で撮影された撮影画像から前記特徴点に対応する対応点を検出する検出手段と、
    前記検出手段で検出された特徴点および対応点に基づいて、前記検出された各特徴点の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段と、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段と、
    前記計数手段で計数された数が所定数を越えている場合に、前記所定範囲内の距離領域に分布する特徴点および前記所定範囲内の距離領域に分布する特徴点に対応する対応点に基づいて前記2台の撮影装置の位置及び姿勢の相対関係を示す相対関係パラメータを計算するパラメータ計算手段と、
    を有するパラメータ計算装置。
  12. 前記計数手段で計数された数が所定数を越えていない場合に、前記2台の撮影装置で同時に撮影された新たな撮影画像から新たに前記特徴点および前記対応点が検出されるように前記検出手段を制御する制御手段、
    を更に有する請求項11に記載のパラメータ計算装置。
  13. 請求項1〜請求項5のいずれか1項記載のパラメータ計算装置と、
    請求項6〜請求項10のいずれか1項記載のパラメータ計算装置と、
    を備えたパラメータ計算システム。
  14. 請求項1〜請求項5のいずれか1項記載のパラメータ計算装置と、
    請求項6〜請求項10のいずれか1項記載のパラメータ計算装置と、
    請求項11または請求項12に記載のパラメータ計算装置と、
    を備えたパラメータ計算システム。
  15. コンピュータを、
    移動体に搭載された撮影装置で連続して撮影された直線状部分を備えた物体の画像を含む2枚の撮影画像のうち一方の撮影画像における直線状部分の画像上の特徴点と、他方の撮影画像に含まれる該特徴点に対応する対応点とを検出する検出手段、
    前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記撮影装置までの各々の距離を計算する距離計算手段、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および
    前記計数手段で計数された数が所定数を越えている場合に、前記一方の撮影画像または前記他方の撮影画像に基づいて前記撮影装置のレンズ歪みを示すレンズ歪みパラメータを計算するパラメータ計算手段、
    として機能させるためのプログラム。
  16. コンピュータを、
    移動体に搭載された2台の撮影装置の一方の撮影装置で撮影された直線状部分を備えた物体の画像を含む撮影画像における直線状部分の画像上の特徴点と、前記他方の撮影装置で撮影された撮影画像に含まれる該特徴点に対応する対応点とを検出する検出手段、
    前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および
    前記計数手段で計数された数が所定数を越えている場合に、前記特徴点が検出された撮影画像に基づいて前記一方の撮影装置のレンズ歪みを示すレンズ歪みパラメータを計算するパラメータ計算手段、
    として機能させるためのプログラム。
  17. コンピュータを、
    移動体に搭載された撮影装置で連続して撮影された3枚以上の撮影画像の全てに存在し該3枚以上の撮影画像間で互いに対応する特徴点を検出する検出手段、
    前記検出手段で検出された特徴点に基づいて、該特徴点の各々の位置から前記撮影装置までの各々の距離を計算する距離計算手段、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および
    前記計数手段で計数された数が所定数を越えている場合に、前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に基づいて、前記撮影装置の焦点距離を示す焦点距離パラメータ、前記撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算するパラメータ計算手段、
    として機能させるためのプログラム。
  18. コンピュータを、
    移動体に搭載された2台の撮影装置の一方で連続して撮影された3枚以上の撮影画像の全てに存在し該3枚以上の撮影画像間で互いに対応する特徴点を検出すると共に、2台の撮影装置の他方で撮影された3枚以上の撮影画像に含まれる前記特徴点に対応する対応点とを検出する検出手段、
    前記検出手段で検出された特徴点および対応点に基づいて、該特徴点の各々の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および
    前記計数手段で計数された数が所定数を越えている場合に、前記一方の撮影装置で撮影された前記3枚以上の撮影画像における前記所定範囲内の距離領域に分布する特徴点に基づいて、前記一方の撮影装置の焦点距離を示す焦点距離パラメータ、前記一方の撮影装置のレンズ中心を示すレンズ中心パラメータ、および前記一方の撮影装置で撮影される撮影画像のスキューを示すスキューパラメータを計算するパラメータ計算手段、
    として機能させるためのプログラム。
  19. コンピュータを、
    移動体に搭載された2台の撮影装置の一方で撮影された撮影画像から特徴点を検出すると共に、前記2台の撮影装置の他方で撮影された撮影画像から前記特徴点に対応する対応点を検出する検出手段、
    前記検出手段で検出された特徴点および対応点に基づいて、前記検出された各特徴点の位置から前記一方の撮影装置までの各々の距離を計算する距離計算手段、
    前記距離計算手段の計算結果に基づき、所定範囲内の距離領域に分布する特徴点の数を計数する計数手段、および
    前記計数手段で計数された数が所定数を越えている場合に、前記所定範囲内の距離領域に分布する特徴点および前記所定範囲内の距離領域に分布する特徴点に対応する対応点に基づいて前記2台の撮影装置の位置及び姿勢の相対関係を示す相対関係パラメータを計算するパラメータ計算手段、
    として機能させるためのプログラム。
JP2008128591A 2008-05-15 2008-05-15 パラメータ計算装置、パラメータ計算システムおよびプログラム Expired - Fee Related JP5228614B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008128591A JP5228614B2 (ja) 2008-05-15 2008-05-15 パラメータ計算装置、パラメータ計算システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008128591A JP5228614B2 (ja) 2008-05-15 2008-05-15 パラメータ計算装置、パラメータ計算システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2009276233A JP2009276233A (ja) 2009-11-26
JP5228614B2 true JP5228614B2 (ja) 2013-07-03

Family

ID=41441797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008128591A Expired - Fee Related JP5228614B2 (ja) 2008-05-15 2008-05-15 パラメータ計算装置、パラメータ計算システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP5228614B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109495735A (zh) * 2017-09-12 2019-03-19 韩国以事美德有限公司 双相机模块的对准方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145025A1 (ja) * 2012-03-30 2013-10-03 株式会社日立製作所 ステレオカメラシステム及び移動体
EP3220099B1 (en) 2014-11-13 2019-11-06 Olympus Corporation Calibration device, calibration method, optical device, imaging device, projection device, measurement system, and measurement method
US10453219B2 (en) * 2015-06-17 2019-10-22 Sony Corporation Image processing apparatus and image processing method
JP2017211200A (ja) * 2016-05-23 2017-11-30 株式会社デンソー カメラ校正装置及びカメラ校正方法
JP7219561B2 (ja) * 2018-07-18 2023-02-08 日立Astemo株式会社 車載環境認識装置
JP7240258B2 (ja) * 2019-05-30 2023-03-15 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
WO2024009386A1 (ja) * 2022-07-05 2024-01-11 日立Astemo株式会社 画像処理装置及び画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3453734B2 (ja) * 1996-08-07 2003-10-06 株式会社小松製作所 キャリブレーション方法
JP2007200364A (ja) * 2003-03-13 2007-08-09 Toshiba Corp ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
JP2005140547A (ja) * 2003-11-04 2005-06-02 3D Media Co Ltd 3次元計測方法、3次元計測装置、及びコンピュータプログラム
JP2006195790A (ja) * 2005-01-14 2006-07-27 Nippon Telegr & Teleph Corp <Ntt> レンズ歪推定装置、レンズ歪推定方法、及びレンズ歪推定プログラム
JP4814669B2 (ja) * 2006-03-28 2011-11-16 株式会社デンソーアイティーラボラトリ 3次元座標取得装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109495735A (zh) * 2017-09-12 2019-03-19 韩国以事美德有限公司 双相机模块的对准方法

Also Published As

Publication number Publication date
JP2009276233A (ja) 2009-11-26

Similar Documents

Publication Publication Date Title
JP5228614B2 (ja) パラメータ計算装置、パラメータ計算システムおよびプログラム
CN108805934B (zh) 一种车载摄像机的外部参数标定方法及装置
JP4814669B2 (ja) 3次元座標取得装置
CN107103625B (zh) 用于成像系统的方法和设备
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
JP5804185B2 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
WO2017135081A1 (ja) 車載カメラ用校正システム
JP4943034B2 (ja) ステレオ画像処理装置
JP6707022B2 (ja) ステレオカメラ
CN111263142B (zh) 一种摄像模组光学防抖的测试方法、装置、设备及介质
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
US11880993B2 (en) Image processing device, driving assistance system, image processing method, and program
JP2016200557A (ja) 校正装置、距離計測装置及び校正方法
JP6186431B2 (ja) キャリブレーション装置、キャリブレーションシステム、及び撮像装置
JP2015184929A (ja) 立体物検出装置、立体物検出方法、および立体物検出プログラム
KR101203816B1 (ko) 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법
JP6035620B2 (ja) 車載ステレオカメラシステム及びそのキャリブレーション方法
KR20230000585A (ko) 센서 캘리브레이션 방법 및 장치
JPWO2008032375A1 (ja) 画像補正装置及び方法、並びにコンピュータプログラム
JP7308227B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN116958218A (zh) 一种基于标定板角点对齐的点云与图像配准方法及设备
TWI424259B (zh) 相機擺置角度校正法
CN113592934B (zh) 一种基于单目相机的目标深度与高度测量方法及装置
JP5964093B2 (ja) 車両サイズ測定装置、車両サイズ測定方法、およびプログラム
JP2006349443A (ja) カメラ校正装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees