JP7219561B2 - 車載環境認識装置 - Google Patents
車載環境認識装置 Download PDFInfo
- Publication number
- JP7219561B2 JP7219561B2 JP2018135236A JP2018135236A JP7219561B2 JP 7219561 B2 JP7219561 B2 JP 7219561B2 JP 2018135236 A JP2018135236 A JP 2018135236A JP 2018135236 A JP2018135236 A JP 2018135236A JP 7219561 B2 JP7219561 B2 JP 7219561B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- viewpoint
- corresponding points
- viewpoint conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
Description
<図1 車載環境認識装置>
図1に本実施形態に係る車載環境認識装置1の構成図を示す。車載環境認識装置1は、水平方向の左右に間隔を介して配置された左カメラ(第1カメラ)100と右カメラ(第2カメラ)110と、2台のカメラ100,110から出力される撮像画像(左カメラ100による画像を第1画像、右カメラ110による画像を第2画像と称することがある)を基に、2台のカメラ100,110の幾何校正(キャリブレーション)を行う処理や、2台のカメラ100,110によって同一タイミングで撮像された2枚の画像をステレオマッチングして視差画像を作成する処理などを実行する制御装置(コンピュータ)10を備えている。
次に視点変換部200で実施可能な視点変換(画像変形)の例について説明する。図2に示すように視点変換部200は、左右画像の少なくとも一方について視点変換を行う領域と行わない領域を設定する領域設定部210と、領域設定部210で設定された視点変換を行う領域を変形することで左右画像を共通の視点からの画像に変換するために必要な行列や関数のパラメータを生成する変換パラメータ生成部220と、変換パラメータ生成部220によって生成されたパラメータ(変換パラメータ)を有する行列や関数を利用することで左右画像の少なくとも一方を視点変換した画像(視点変換画像)を生成する視点変換画像生成部240と、視点変換後の画像を元に戻す逆変換に必要な逆行列や関数のパラメータ(逆変換パラメータ)を生成する逆変換パラメータ計算部230とを備えている。
視点変換の1つとしては、制御装置10の視点変換部200が、左右画像(第1画像及び前記第2画像)で重複して撮像された部分(重複領域)の少なくとも一部が平面であると仮定し、当該平面に対する左カメラ100及び右カメラ110の位置及び姿勢を左右画像に基づいてカメラ幾何的に演算し、その演算した当該平面に対する左カメラ100及び右カメラ110の位置及び姿勢に基づいて左画像(第1画像)を右カメラ110の視点からの画像に変換するものがある。
そこで、本実施形態では、左右画像からより多くの対応点を得るために、視点変換を行う領域と視点変換を行わない領域の2種類の領域に左画像を分割して対応点の探索を行うこととする。前者の視点変換を行う領域は、視点変換を行うと対応点が増加する領域と換言でき、例えばカメラから近距離の領域が該当する。後者の視点変換を行わない領域は、原画像でも密な対応点が取得できる領域と換言でき、例えばカメラから遠距離の領域が該当する。
上記のように、数学的にカメラ100,110と路面の相対位置・姿勢から数学的に視点変換の演算を実施しても良いが、視点変換の主目的は正確な変換にあるのではなく、左右画像の対応点を密に得ることである。このため、数学的に正確な変換でなかったとしても、ある程度の効果が認められる手法で代替も可能である。ハードウェアでの数学演算に基づく変換を省略しても良い。
図3に示すように変換パラメータ生成部220は、視差解析部221と、属性決定部222と、変換パラメータ演算部223を備えている。
まず、左カメラ100から見た変換対象領域内の平面4隅の3次元座標を計算する。簡単な手法としては、路面平面が高さ0cmにあると仮定すると共に、カメラ内部パラメータ(f,kn,Cn)、外部パラメータ(rnn,tn)、世界座標原点に対する左カメラ100の設置位置・姿勢が既知とすると、下記式(1)の右辺における第1及び第2の行列が既知となる。更に同式右辺の右端に位置する4要素を持つベクトルのYworldの世界座標が0であることから、未知の数字が世界座標のXworldとZworldのみで表現できる。画像座標は変換する領域を自ら設定しているため既知とできる。このようにして、変換したい領域内の平面4隅の画像座標を式(1)に入力すれば、その4隅の3次元の世界座標を演算できる。次に右辺右端のXworld,Yworld,Zworldに演算で求めた4隅の3次元座標を順に設定する。そして外部パラメータの行列に世界座標原点から見た右カメラの位置・姿勢を設定すると、世界座標系の4点の位置を右カメラで見た場合の画像座標へ変換できる。このようにして視点変換したい領域内の平面の4隅の画像座標を求めて4角形の変換パラメータを得る。4隅が計算できれば、その4角形内部の座標は全て内挿で算出できる。
対応点探索部300は、視点変換部200で視点変換された左画像(視点変換画像)と、右画像の原画像とを対比して両者の対応点を探索する。なお、視点変換部200で左右画像に対して視点変換がされた場合には視点変換後の左右画像から対応点を探索する。図4に示すように対応点探索部300は、特徴点抽出部310と、特徴量記述部320と、最大誤差設定部330と、対応点探索部340と、信頼度計算部350として機能し得る。
カメラ幾何校正部400は、対応点探索部300で得られた複数の対応点を基に左右画像が平行になるように左右カメラ100,110の幾何校正を実施する。図5に示すように、カメラ幾何校正部400は、対応点逆変換補正部410と、対応点集約部420と、ノイズ対応点削除部430と、幾何校正パラメータ推定部440と、利用可否判定部450と、幾何校正反映部460として機能し得る。
視差画像生成部500は、左右カメラ100,110で撮像された左右画像と、カメラ幾何校正部400でリアルタイムに更新される最新のアフィンテーブルに基づいて視差画像を生成する。本実施形態の視差画像生成部500は、図6に示すように平行化画像生成部510と、ステレオマッチング部520と、距離演算部530として機能する。
ここで上記のように左画像を上下に2分割した場合に制御装置10が実行する処理フローについて説明する。制御装置10は所定の周期で図15に示す一連の処理を繰り返している。
視点変換部200による視点変換の他の例について説明する。上記ではカメラ画像を上下に2分割する方式について説明したが、6分割にする方式や、自由な領域に分割する方式が利用可能である。
カメラの幾何校正は、画像上の全体から対応点が取れたほうが精度が向上する。ある固定箇所から密に対応点が得られたような場合に、そのまま対応点を利用すると対応点が密に得られた部分だけの幾何校正が小さくなるように計算されるため、画像全体から満遍なく対応点が得られたほうが本来の幾何校正すべき値に近い値が得られることが多い。しかし、画像全体において特徴点の抽出、特徴量の記述、対応点の探索などを実行すると処理負荷が重くなる。
この方法による視点変換に際して、自車走行中に各領域に出現すると予測される平面属性を決定しておくと、6領域毎に変形量を選択しやすい。例えば、図13に示す一例のように、基本を考えると、下段の3つの領域(第4-6領域)は従来どおり路面(地面)と仮定した視点変換による視点変換を実施する。上側の無限遠(消失点)辺りにある真ん中の領域(第2領域)は遠景や空しか入っていないために、変形無しとする。上側の左右の領域(第1,第3領域)であるが、これは走行路の風景にもよるが、街中を走行中などは、建築物や樹木などが走行路に対して「壁」のように左右に存在することが多々ある。このような場合には、走行路左右に存在する壁を想定した変換を実施する。路面や壁などを或る固定値を想定して変換してもよいし、図13の真ん中の図のように、壁の横位置と回転だけを、前フレームの視差画像から推定しておいてそれを利用するような手法でも良い。分割した領域内の視差値を距離に変換して平面推定を実施し、はずれ値の多さや、最終推定平面からある距離の範囲内にどれだけの何%の視差点群が占有するかなどを利用して平面に近似してよいかの判断を実施しても良い。これにより平面近似が可能と判別された場合には、この平面が2つのカメラ視点から見て近距離かつ視点を変えたことによる見え方の違いが大きいかどうかも計算する。見え方の違いが小さい場合にはそもそも視点変換の必要性が低い。見え方の違いが大きい場合に視点変換を行うと、対応点の探索性能が大幅に上がるため、多少の誤差が視点変換にあったとしても変換前の原画像で対応点探索を実施するよりも大幅に密な対応点の取得が可能となる。
また、GPUなどを活用した視点変換を実施する場合には、3次元の平面にカメラ画像を貼って変形すればよいので、矩形領域にこだわらずに自由な領域でカメラ画像を分割できる。そこで図16に示すように各領域の境界線に斜め線も利用した領域分割を実施する。前フレームの視差画像から得られる情報(例えば、路面領域推定結果と路端領域推定結果)に基づいて画像内に平面に近似可能な部分が存在するか否かを判断する。そして、平面に近似可能な部分と判断された部分を含む領域を路面平面領域と推定する。このとき当該領域から左右カメラ100,110までの距離が閾値未満か否かを判定し、距離が閾値未満の領域を路面平面領域、すなわち視点変換を行う領域として設定しても良い。また同様に、同一物体について左右カメラ100,110で見え方が大きく異なる領域であるか否かを判定しても良い。
上記の例ではステレオカメラの一方のカメラ(左カメラ100)の画像を他方のカメラ(右カメラ110)の視点からの画像に変換する場合について説明したが、ステレオカメラの両方のカメラ(左右カメラ100,110)の画像を他の視点(例えば、左右カメラ100,110間に位置する所定の視点)からの画像に変換しても良い。図17の例では、左右画像を上下2分割にしている。そして、それぞれの下側領域を、左右カメラ100,110の光軸の真ん中(すなわちステレオカメラの場合のベースラインの中央)に光軸を有する他のカメラの視点からの画像に視点変換している。
上記の実施形態では視差画像生成部500における視差画像の生成に視点変換画像を利用しなかったが、視差画像の生成に視点変換画像を利用しても良い。本実施形態の制御装置10は視差画像生成部500Aを備えている。他の部分については第1実施形態と同じであるとし、説明は省略する。
図7に示す視差画像生成部500Aは、領域別視点変換平行化画像生成部550と、領域別マッチング部560と、結果統合部570と、距離演算部580を備えている。
ここで上記のように視差画像生成時に左画像を上下に2分割した場合に制御装置10(視差画像生成部500A)が実行する処理フローについて説明する。制御装置10は視差画像の要求指令の入力に基づいて図18に示す一連の処理を繰り返している。なお、図中のステップDS02-DS04で実行されるキャリブレーション用の対応点探索や幾何校正パラメータの推定・更新の処理は、どのような手法を利用してもよく、図15に示した第1実施形態の方法に限られず、公知の方法を利用しても構わない。また、ここでは、既に平行化のためのキャリブレーションは左右画像に実施済みとして、第1実施形態の視点変換を視差画像生成に応用する方法の一例を示す。
図15のフローチャートにおいてステップS10,S12は省略可能である。
Claims (8)
- 第1カメラ及び第2カメラと、
前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
を備え、
前記視点変換は、前記制御装置が、前記第1画像にパラメータを変化させながらアフィン変換を施して複数の変換画像を生成し、前記複数の変換画像のそれぞれと前記第2画像の対応点の抽出を実施し、前記複数の変換画像の中で前記対応点の数が最も多くかつ所定の閾値以上の変換画像を、前記第1画像を前記第2カメラの視点からの画像に変換した画像とする視点変換である
ことを特徴とする車載環境認識装置。 - 第1カメラ及び第2カメラと、
前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
を備え、
前記視点変換は、
前記制御装置が、
前記第1画像を消失点を含む又は消失点と接する上側領域と前記上側領域の下方に位置する下側領域の2つの領域に上下に2分割し、
前記下側領域の少なくとも一部が平面であると仮定し、
前記平面に対する前記第1カメラ及び前記第2カメラの位置及び姿勢を推定し、
その推定した前記平面に対する前記第1カメラ及び前記第2カメラの位置及び姿勢に基づいて前記下側領域を前記第2カメラの視点からの画像に変換し、
その変換後の前記下側領域と前記上側領域を合わせたものを視点変換後の第1画像とする視点変換である
ことを特徴とする車載環境認識装置。 - 第1カメラ及び第2カメラと、
前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
を備え、
前記視点変換は、
前記制御装置が、
前記第1画像を複数の領域に分割し、
前記複数の領域内に平面に近似可能な部分が存在するか否かを前フレームの視差画像を基に判断し、
前記複数の領域のうち前記平面に近似可能な部分が存在する領域のうち前記第1カメラ及び前記第2カメラからの距離が所定の閾値未満の領域を変換対象領域に決定し、
前記変換対象領域に対する前記第1カメラ及び前記第2カメラの位置及び姿勢を推定し、
その推定した前記第1カメラ及び前記第2カメラの位置及び姿勢に基づいて前記変換対象領域を前記第2カメラの視点からの画像に変換し、
前記複数の領域から前記変換対象領域を除いた残りの領域と前記変換対象領域を合わせたものを視点変換後の第1画像とする視点変換である
ことを特徴とする車載環境認識装置。 - 第1カメラ及び第2カメラと、
前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
を備え、
前記視点変換は、
前記制御装置が、
前記第1画像を複数の矩形領域に分割し、
前記複数の矩形領域には、自車走行中に各矩形領域に出現すると予測される平面の属性が付与されており、
前記複数の矩形領域に付与された平面の属性が妥当か否かを前フレームの視差画像を基に判断し、
前記複数の矩形領域において前記平面の属性が妥当と判断された矩形領域のうち、前記第1カメラ及び前記第2カメラからの距離が所定の閾値未満の矩形領域を変換対象領域に決定し、
前記変換対象領域に対する前記第1カメラ及び前記第2カメラの位置及び姿勢を推定し、
その推定した前記第1カメラ及び前記第2カメラの位置及び姿勢に基づいて前記変換対象領域を前記第2カメラの視点からの画像に変換し、
前記複数の領域から前記変換対象領域を除いた残りの領域と前記変換対象領域を合わせたものを視点変換後の第1画像とする視点変換である
ことを特徴とする車載環境認識装置。 - 請求項4の車載環境認識装置において、
前記複数の矩形領域は、前記第1画像を縦に2つ、横に3つに分割して得られる6つの矩形領域であり、
前記6つの矩形領域における下側の3つの矩形領域の平面の属性は路面であり、
前記6つの矩形領域における上側の3つの矩形領域のうち左右の2つの矩形領域の平面の属性は壁であり、
前記6つの矩形領域における上側の3つの矩形領域のうち中央の矩形領域の平面の属性は無限遠であることを特徴とする車載環境認識装置。 - 第1カメラ及び第2カメラと、
前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
を備え、
前記制御装置は、前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後にステレオマッチングして視差値を取得し、前記視差値に対して前記視点変換に応じた補正を施して視差画像を生成する
ことを特徴とする車載環境認識装置。 - 請求項2の車載環境認識装置において、
前記制御装置は、前記第2画像と前記視点変換後の第1画像をステレオマッチングして視差値を取得し、前記視差値のうち前記下側領域に属するものは前記視点変換に応じた補正を施して視差画像を生成することを特徴とする車載環境認識装置。 - 請求項7の車載環境認識装置において、
前記制御装置は、前記第2画像と前記視点変換前の第1画像からなる第1ペアと、前記第2画像と前記視点変換後の第1画像からなる第2ペアの2つのペアでステレオマッチングを実施し、前記2つのペアのうちステレオマッチングのマッチングスコアが高い方を利用して視差画像を生成することを特徴とする車載環境認識装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018135236A JP7219561B2 (ja) | 2018-07-18 | 2018-07-18 | 車載環境認識装置 |
CN201980046818.8A CN112424565B (zh) | 2018-07-18 | 2019-07-04 | 车载环境识别装置 |
PCT/JP2019/026561 WO2020017334A1 (ja) | 2018-07-18 | 2019-07-04 | 車載環境認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018135236A JP7219561B2 (ja) | 2018-07-18 | 2018-07-18 | 車載環境認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020012735A JP2020012735A (ja) | 2020-01-23 |
JP7219561B2 true JP7219561B2 (ja) | 2023-02-08 |
Family
ID=69164301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018135236A Active JP7219561B2 (ja) | 2018-07-18 | 2018-07-18 | 車載環境認識装置 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7219561B2 (ja) |
CN (1) | CN112424565B (ja) |
WO (1) | WO2020017334A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7465671B2 (ja) * | 2020-02-20 | 2024-04-11 | 株式会社Subaru | 画像処理装置および画像処理方法 |
KR20210147405A (ko) * | 2020-05-28 | 2021-12-07 | 삼성전자주식회사 | 객체 인식을 수행하는 전자 장치 및 이의 동작 방법 |
JP2024003407A (ja) * | 2022-06-27 | 2024-01-15 | 日立Astemo株式会社 | 外界認識装置及び外界認識方法 |
WO2024009386A1 (ja) * | 2022-07-05 | 2024-01-11 | 日立Astemo株式会社 | 画像処理装置及び画像処理方法 |
WO2024157410A1 (ja) * | 2023-01-26 | 2024-08-02 | 日立Astemo株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001243456A (ja) | 2000-02-29 | 2001-09-07 | Toshiba Corp | 障害物検出装置及び障害物検出方法 |
JP2001273488A (ja) | 2000-03-27 | 2001-10-05 | Toshiba Corp | 障害物検出装置 |
JP2003209858A (ja) | 2002-01-17 | 2003-07-25 | Canon Inc | 立体画像生成方法及び記録媒体 |
JP2003256875A (ja) | 2002-02-27 | 2003-09-12 | Fuji Heavy Ind Ltd | ステレオ画像の位置ずれ調整装置、位置ずれ調整方法、およびステレオ式監視装置 |
JP2004258266A (ja) | 2003-02-25 | 2004-09-16 | Olympus Corp | ステレオアダプタ及びそれを用いた距離画像入力装置 |
JP2005251123A (ja) | 2004-03-08 | 2005-09-15 | National Institute Of Advanced Industrial & Technology | 画像処理装置および画像処理方法 |
JP2006054504A (ja) | 2004-08-09 | 2006-02-23 | Olympus Corp | 画像生成方法および装置 |
JP2009041972A (ja) | 2007-08-07 | 2009-02-26 | Toshiba Corp | 画像処理装置及びその方法 |
JP2009276233A (ja) | 2008-05-15 | 2009-11-26 | Toyota Central R&D Labs Inc | パラメータ計算装置、パラメータ計算システムおよびプログラム |
JP2012075060A (ja) | 2010-09-30 | 2012-04-12 | Hitachi Automotive Systems Ltd | 画像処理装置及びそれを用いた撮像装置 |
WO2016189878A1 (ja) | 2015-05-27 | 2016-12-01 | 京セラ株式会社 | 演算装置、カメラ装置、車両及びキャリブレーション方法 |
JP2017528685A (ja) | 2014-05-30 | 2017-09-28 | オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited | 車両位置の推定 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3897984B2 (ja) * | 2001-02-02 | 2007-03-28 | 三菱電機株式会社 | 監視カメラのキャリブレーション方法及び道路監視用カメラ |
JP2008187566A (ja) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | カメラ校正装置及び方法並びに車両 |
JP5820787B2 (ja) * | 2012-08-30 | 2015-11-24 | 株式会社デンソー | 画像処理装置、及びプログラム |
JP2015119372A (ja) * | 2013-12-19 | 2015-06-25 | 株式会社日立製作所 | マルチカメラ撮影システムおよびマルチカメラ撮影画像の合成方法 |
CN107194972B (zh) * | 2017-05-16 | 2021-04-02 | 成都通甲优博科技有限责任公司 | 一种摄像机标定方法及系统 |
-
2018
- 2018-07-18 JP JP2018135236A patent/JP7219561B2/ja active Active
-
2019
- 2019-07-04 WO PCT/JP2019/026561 patent/WO2020017334A1/ja active Application Filing
- 2019-07-04 CN CN201980046818.8A patent/CN112424565B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001243456A (ja) | 2000-02-29 | 2001-09-07 | Toshiba Corp | 障害物検出装置及び障害物検出方法 |
JP2001273488A (ja) | 2000-03-27 | 2001-10-05 | Toshiba Corp | 障害物検出装置 |
JP2003209858A (ja) | 2002-01-17 | 2003-07-25 | Canon Inc | 立体画像生成方法及び記録媒体 |
JP2003256875A (ja) | 2002-02-27 | 2003-09-12 | Fuji Heavy Ind Ltd | ステレオ画像の位置ずれ調整装置、位置ずれ調整方法、およびステレオ式監視装置 |
JP2004258266A (ja) | 2003-02-25 | 2004-09-16 | Olympus Corp | ステレオアダプタ及びそれを用いた距離画像入力装置 |
JP2005251123A (ja) | 2004-03-08 | 2005-09-15 | National Institute Of Advanced Industrial & Technology | 画像処理装置および画像処理方法 |
JP2006054504A (ja) | 2004-08-09 | 2006-02-23 | Olympus Corp | 画像生成方法および装置 |
JP2009041972A (ja) | 2007-08-07 | 2009-02-26 | Toshiba Corp | 画像処理装置及びその方法 |
JP2009276233A (ja) | 2008-05-15 | 2009-11-26 | Toyota Central R&D Labs Inc | パラメータ計算装置、パラメータ計算システムおよびプログラム |
JP2012075060A (ja) | 2010-09-30 | 2012-04-12 | Hitachi Automotive Systems Ltd | 画像処理装置及びそれを用いた撮像装置 |
JP2017528685A (ja) | 2014-05-30 | 2017-09-28 | オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited | 車両位置の推定 |
WO2016189878A1 (ja) | 2015-05-27 | 2016-12-01 | 京セラ株式会社 | 演算装置、カメラ装置、車両及びキャリブレーション方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020012735A (ja) | 2020-01-23 |
WO2020017334A1 (ja) | 2020-01-23 |
CN112424565B (zh) | 2023-01-03 |
CN112424565A (zh) | 2021-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7219561B2 (ja) | 車載環境認識装置 | |
JP5870273B2 (ja) | 物体検出装置、物体検出方法及びプログラム | |
CN110348454B (zh) | 匹配局部图像特征描述符 | |
US8199977B2 (en) | System and method for extraction of features from a 3-D point cloud | |
CN110992356A (zh) | 目标对象检测方法、装置和计算机设备 | |
KR102455632B1 (ko) | 스테레오 매칭 방법 및 장치 | |
JP2017526082A (ja) | 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体 | |
JP2019138822A (ja) | 3次元計測システム及び3次元計測方法 | |
CN112083403B (zh) | 用于虚拟场景的定位追踪误差校正方法及系统 | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
CN111142514B (zh) | 一种机器人及其避障方法和装置 | |
JP4701848B2 (ja) | 画像マッチング装置、画像マッチング方法および画像マッチング用プログラム | |
US20170069072A1 (en) | Image processing apparatus, image processing system, and image processing method | |
WO2020209046A1 (ja) | 物体検出装置 | |
CN114519681A (zh) | 自动标定方法及装置、计算机可读存储介质、终端 | |
US10949988B2 (en) | Information processing apparatus, information processing method, and program | |
JP2009186287A (ja) | 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム | |
JP4524514B2 (ja) | 画像処理装置、画像処理方法、および記録媒体 | |
CN114764823A (zh) | 自校正的深度计算方法、系统、介质及深度图像处理设备 | |
JP2019120590A (ja) | 視差値算出装置、視差値算出方法及びプログラム | |
JP7195785B2 (ja) | 3次元形状データを生成する装置、方法、及びプログラム | |
JP6843552B2 (ja) | 画像処理装置、画像処理方法およびプログラム。 | |
JP2017045124A (ja) | 視差検出装置 | |
JP6655869B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2018049396A (ja) | 形状推定方法、形状推定装置および形状推定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7219561 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |