JP2023000076A - センシング装置及び車両制御装置 - Google Patents

センシング装置及び車両制御装置 Download PDF

Info

Publication number
JP2023000076A
JP2023000076A JP2021100680A JP2021100680A JP2023000076A JP 2023000076 A JP2023000076 A JP 2023000076A JP 2021100680 A JP2021100680 A JP 2021100680A JP 2021100680 A JP2021100680 A JP 2021100680A JP 2023000076 A JP2023000076 A JP 2023000076A
Authority
JP
Japan
Prior art keywords
road surface
imaging area
vehicle
common imaging
sensing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021100680A
Other languages
English (en)
Other versions
JP2023000076A5 (ja
Inventor
盛彦 坂野
Morihiko Sakano
秀行 粂
Hideyuki Kume
健人 緒方
Taketo Ogata
英弘 豊田
Hidehiro Toyoda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2021100680A priority Critical patent/JP2023000076A/ja
Priority to DE112022001741.4T priority patent/DE112022001741T5/de
Priority to PCT/JP2022/004980 priority patent/WO2022264491A1/ja
Priority to CN202280029045.4A priority patent/CN117177891A/zh
Publication of JP2023000076A publication Critical patent/JP2023000076A/ja
Publication of JP2023000076A5 publication Critical patent/JP2023000076A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/27Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
    • G01B11/272Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes using photoelectric detection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/11Pitch movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/112Roll movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

【課題】路面と車両の相対姿勢を高精度で推定するセンシング装置及び車両制御装置を提供する。【解決手段】センシング装置を搭載した車両において、車載処理装置102は、共通撮像領域を有する少なくとも第一のセンサ及び第二のセンサが取得した共通撮像領域の情報から自車両周辺の第一の領域を観測する第一共通撮像領域観測部と、共通撮像領域を有する少なくとも第三のセンサ及び第四のセンサが取得した共通撮像領域の情報から第一の領域と異なる第二の領域を観測する第二共通撮像領域観測部と、各センサの幾何関係と、第一の領域及び第二の領域で観測された情報の座標を統合する座標統合部と、統合された座標から計算された点群情報に基づいて、自車両のピッチ角及びロール角を含む各センサと路面の相対姿勢を推定する路面推定部(路面モデル照合部)と、を備える。【選択図】図4

Description

本発明は、センシング装置及び車両制御装置に関する。
ドライバーの支援や自動運転の目的で車載カメラの普及が進んでおり、周囲監視などのために複数の単眼カメラが搭載されることもある。ドライバー支援や自動運転において、車載カメラが求められることの一つとして、対象物の距離測定がある。単眼カメラを用いた対象物の距離測定は、路面が平面であることを仮定し、車載カメラの取り付け状態と路面の関係から車載カメラの各画素に対応する距離を計算できる。ただし、路面に勾配がある場合、平面を仮定して計算すると、測定距離に誤差が生じる問題がある。特に、遠方ほど誤差が大きくなる。従って、勾配誤差の影響を低減する必要がある。
特許文献1には、カメラが撮像した撮像画像に基づく勾配推定装置であって、カメラと、路面接地位置算出部と、測距センサと、勾配推定部とを備え、前記カメラが撮像した撮像画像に基づき、前記路面接地位置算出部が、前記撮像画像に映り込んだ対象物の路面接地位置までの距離L2を算出し、前記勾配推定装置が前記測距センサを用いて、前記対象物までの距離L1を算出し、前記勾配推定部が、前記カメラの俯角αと、前記距離L2および前記距離L1とに基づいて、前記カメラの位置から降ろした垂線と水平面との交点と、前記対象物を示す所定の点A1とを通る直線の勾配βを推定する勾配推定装置、が開示されている。
特開2020-165933号公報
特許文献1では、アクティブレーザ方式の測距センサ使用を前提としており、勾配に関係なく測距が可能なセンサがない場合は、距離補正を行うことが困難である。
そこで、本発明は、路面と車両の相対姿勢を高精度で推定するセンシング装置の提供を目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、共通撮像領域を有する少なくとも第一のセンサ及び第二のセンサが取得した前記共通撮像領域の情報から自車両周辺の第一の領域を観測する第一の共通撮像領域観測部と、共通撮像領域を有する少なくとも第三のセンサ及び第四のセンサが取得した前記共通撮像領域の情報から前記第一の領域と異なる第二の領域を観測する第二の共通撮像領域観測部と、前記各センサの幾何関係と、前記第一の領域及び前記第二の領域で観測された情報の座標を統合する座標統合部と、前記統合された座標から計算された点群情報に基づいて、自車両のピッチ角及びロール角を含む各センサと路面の相対姿勢を推定する路面推定部とを備えることを特徴とする。
本発明の一態様によれば、道路勾配や車両姿勢の影響を低減して、測距離精度を向上できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例にかかるセンシング装置を搭載した車両の構成を示すブロック図である。 カメラ、及び共通撮像領域の関係の一例を示す図である。 勾配及び車両姿勢変動の一例を示す図である。 CPUが実行する距離推定プログラムの機能ブロック図である。 座標統合と路面モデル照合の処理を示す模式図である。 第一共通撮像領域観測部が実行する処理のフローチャートである。 変形例1の座標統合と路面モデル照合の処理の変形例を示す模式図である。 変形例1の第一共通撮像領域観測部が実行する処理のフローチャートである。 変形例2の座標統合と路面モデル照合の処理のさらなる変形例を示す模式図である。 変形例2のCPUが実行する距離推定プログラムの機能ブロック図である。 変形例3のセンシング装置を搭載した車両の構成を示すブロック図である。 変形例3のカメラ、及び共通撮像領域の関係の一例を示す図である。実施例1のConfig適用部が実行するConfig適用処理のフローチャートである。 変形例3のCPUが実行する距離推定プログラムの機能ブロック図である。
以下、図1~図13を参照して、本発明にかかるセンシング装置101の実施例を説明する。
図1は、本発明の実施例にかかるセンシング装置101を搭載した車両100の構成を示すブロック図である。
センシング装置101は、カメラ121~124、車速センサ131、舵角センサ132と、表示装置161と、車載処理装置102とを有する。カメラ121~124、車速センサ131、舵角センサ132及び表示装置161は、信号線で車載処理装置102と接続され、車載処理装置102と各種データを授受する。
カメラ121~124は、詳細は後述するが、車両100の周囲に取り付けられ、車両100の周囲を撮影する。カメラ121~124の撮影範囲には、車両100が走行する路面が含まれる。カメラ121~124と車両100との位置姿勢関係は、カメラパラメータ初期値141として、ROM111に格納される。
カメラ121~124は、レンズ及び撮像素子を備え、これらの特性、例えばレンズの歪みを示すパラメータであるレンズ歪み係数、光軸中心、焦点距離、撮像素子の画素数及び寸法などの内部パラメータもカメラパラメータ初期値141としてROM111に格納される。
車速センサ131、及び舵角センサ132は、それぞれ、車載処理装置102が搭載された車両100の車速及び舵角を測定し、CPU110に出力する。車載処理装置102は、車速センサ131及び舵角センサ132の出力を用いて、公知のデッドレコニング技術によって、車載処理装置102が搭載された車両100の移動量及び移動方向を計算する。
車載処理装置102は、中央演算装置であるCPU110と、ROM111と、RAM112を備える。FPGAなど他の演算処理装置で全部、または一部の演算処理を実行するように構成してもよい。
CPU110は、ROM111から各種プログラム、及びパラメータを読み込んで実行することによって、車載処理装置102の実行部として動作する。
ROM111は、読み取り専用の記憶領域であり、カメラパラメータ初期値141、路面モデル142、及び距離推定プログラム150を格納する。
カメラパラメータ初期値141は、カメラ121~124と車両100との位置及び姿勢の関係を示す数値である。カメラ121~124は、設計に基づいた位置及び姿勢で車両100に取り付けられるが、取り付けに誤差が生じることが避けられない。そのため、例えば、車両100が工場から出荷される際に、工場内にて所定のテストパターンなどを用いて、キャリブレーションが実行され、正しく補正された値が計算されている。カメラパラメータ初期値141には、このキャリブレーション実行後に正しく補正された位置及び姿勢の関係が格納されている。また、レンズや撮像素子の特性、例えばレンズの歪みを示すパラメータであるレンズ歪み係数、光軸中心、焦点距離、撮像素子の画素数及び寸法などの内部パラメータのキャリブレーション実行後の補正値も格納されている。
路面モデル142は、路面勾配をモデル化し、そのモデル種別とそのパラメータを数値化して格納している。路面モデル142は、距離推定プログラム150における路面相対姿勢推定プログラム143において、路面相対姿勢153を計算する際に利用される。路面モデル142の詳細は後述する。
距離推定プログラム150は、後述する路面相対姿勢推定プログラム143、共通視野距離測定プログラム144、及び単眼距離測定プログラム145を含む。これらのプログラムは、ROM111から読み出され、RAM112に展開されて、CPU110によって実行される。
RAM112は、読み書き可能な記憶領域であり、車載処理装置102の主記憶装置として動作する。RAM112は、後述する第一領域観測値151、第二領域観測値152、路面相対姿勢153、及び外部パラメータ154を格納する。
第一領域観測値151は、共通視野距離測定プログラム144によって観測され、カメラ121及びカメラ122の共通視野で観測される領域の路面や立体物を含む観測データである。第一領域観測値151は、共通視野内の路面や立体物を含む共通物体の特徴点と、カメラパラメータ初期値141に記録されたカメラ121とカメラ122の既知の相対関係及び内部パラメータから、特徴点の距離を計算し、距離から計算された三次元座標を格納したものである。第一領域観測値151は、路面相対姿勢推定プログラム143において利用される。
第二領域観測値152は、共通視野距離測定プログラム144によって観測され、第一領域観測値151と処理内容が共通で、カメラ123及びカメラ124の共通視野で観測される領域の路面や立体物を含む観測データである。第二領域観測値152は、共通視野内の路面や立体物を含む共通物体の特徴点と、カメラパラメータ初期値141に記録されたカメラ123・カメラ124の既知の相対関係及び内部パラメータから、特徴点の距離を計算し、距離から計算された三次元座標を格納したものである。第二領域観測値152は、路面相対姿勢推定プログラム143において利用される。
路面相対姿勢153は、車両100と路面の相対姿勢を表すパラメータであり、路面相対姿勢推定プログラム143から得られる。路面相対姿勢153は、外部パラメータ154の計算に利用される。
外部パラメータ154は、路面勾配、及び車両100の姿勢変動を含めた、カメラ121~124の車両100との位置及び姿勢の関係である。カメラパラメータ初期値141の外部パラメータに基づいて、路面相対姿勢推定プログラム143において計算され、単眼距離測定プログラム145において利用される。
図2は、車両100、カメラ121~124、カメラ121の光軸201、カメラ122の光軸202、カメラ123の光軸203、カメラ124の光軸204、第一共通撮像領域211、及び第二共通撮像領域212の関係の一例を示す図である。
カメラ121は、例えば、車両100の進行方向左側のサイドミラー下に、車両100の斜め後方、すなわち光軸201の方向を撮影するように取り付けられる。同様に、カメラ123は、例えば、車両100の進行方向右側のサイドミラー下に、車両100の斜め後方、すなわち光軸203の方向を撮影するように取り付けられる。カメラ122は、例えば、車両100の進行方向左側のCピラー付近に、車両100の斜め前方、すなわち光軸202の方向を撮影するように取り付けられる。同様に、カメラ124は、例えば、車両100の進行方向右側のCピラー付近に、車両100の斜め前方、すなわち光軸204の方向を撮影するように取り付けられる。カメラ121とカメラ122の両方で撮像される車両100の進行方向左側の領域が第一共通撮像領域211である。第一共通撮像領域211では、路面や立体物が撮像される。このようにカメラを配置することで、カメラ121とカメラ122の解像度が高く、画像の歪みが少ない光軸中心付近で共通撮像領域を生成でき、かつ、車載カメラのセンシングにおいて重要な斜め前方、斜め後方を撮像できる利点がある。さらに、車両100の周囲の俯瞰図を表示する周辺視カメラとしても機能するように、画角や角度等が合致するカメラを選定してもよい。同様に、カメラ123とカメラ124の両方で撮影される車両100の進行方向左側の領域が第二共通撮像領域212である。第二共通撮像領域212では、路面や立体物を含んで撮像される。第一共通撮像領域211、及び第二共通撮像領域212での撮像結果は、路面と車両100の相対姿勢推定に使用される。
図3(a)は勾配の一例を示す図であり、図3(b)は積載状況の一例を示す図であり、図3(c)及び図3(d)は車両姿勢変動の一例を示す図である。
道路には、道路上に雨水が滞留しないように、道路中央を頂点として横断方向に約2%の排水勾配が付されている。車両100の速度が速い高速道路においては、路面の水膜をより薄くする必要があるため、2.5%程度の排水勾配が付されている。図3(a)は排水勾配の一例を示す。車両100が路面301を走行中であり、路面301には道路中央を頂点として排水勾配が付されている。車両100から光軸202の方向において、観測対象が車両100と同一の平面上にのっているため、光軸202の方向では距離測定における排水勾配による誤差の影響はない。一方、車両100から光軸201方向において、観測対象が車両100と同一の平面にのっていないため、観測対象が車両100と同一の平面上であるという仮定の下では、距離を誤って計算する。そこで車両100と路面301の相対関係を推定し、推定結果に基づいて推定距離を補正する必要がある。
図3(b)は、積載状況の一例を示す図である。車両100の路面に対する姿勢は、車両100の積載状況によって変化する。例えば、車両100の後部に重い荷物を積載している場合、図3(c)のように、車両100の前方が浮き上がる姿勢になる。車両100の左前方座席に運転手だけが乗車している場合、図3(d)のように車両100の左側が浮き上がる姿勢になる。車両100の運転席とその後方座席に乗員が乗車している場合、さらに別な姿勢となる。このように、積載状況による車両100の姿勢は様々に変わる。このように車両100の姿勢が変わると、図3(a)に示す車両100と路面301の相対姿勢が変わるため、積載状況による姿勢変化も含めて車両100と路面301の相対姿勢関係を推定し、推定結果に基づいて推定距離を補正する必要がある。
図4は、CPU110が実行する距離推定プログラム150の機能ブロック図である。図4は、距離推定プログラム150の各機能ブロックの処理順序、機能ブロック同士、及び機能ブロックとROM111、RAM112との間のデータの流れを示す。
距離推定プログラム150は、センサ値取得部401、第一共通撮像領域観測部402、第二共通撮像領域観測部403、座標統合部404、路面モデル照合部405、及び単眼距離推定部406を含む。共通視野距離測定プログラム144に対応する機能ブロックが第一共通撮像領域観測部402、及び第二共通撮像領域観測部403であり、路面相対姿勢推定プログラム143に対応する機能ブロックが座標統合部404、及び路面モデル照合部405であり、単眼距離測定プログラム145に対応する機能ブロックが単眼距離推定部406である。
センサ値取得部401は、複数のカメラ121~124から出力される画像を取得する。カメラ121~124は、所定の頻度で連続して(例えば毎秒30回)撮影する。カメラにより得られた画像は、撮影されるたびに車載処理装置102に送信される。この例の場合、カメラ121と122、カメラ123とカメラ124は、何らかの方法で同期しており、同期して撮影することが望ましい。センサ値取得部401は、カメラ121~124が撮影した画像を第一共通撮像領域観測部402及び第二共通撮像領域観測部403に出力する。以降、第一共通撮像領域観測部402から単眼距離推定部406の処理は、画像の受信毎に実行される。
第一共通撮像領域観測部402は、センサ値取得部401から出力された複数カメラ121、122が撮影した画像を用いて、第一共通撮像領域211に撮影された路面301の三次元座標値を測定する。例えば、カメラ121の画像とカメラ122の路面301に該当する画素に撮影された共通の対象物(例えば、路面ペイントの角部分などの特徴点として見つけやすい部分)を画像認識によって抽出し、カメラ121とカメラ122の既知の幾何関係(例えば、ROM111に格納されたキャリブレーション済みのカメラパラメータ初期値141)を用いた三角測量によって、路面301の三次元座標値を測定できる。これをカメラ121とカメラ122において、路面上の対応付け可能な複数の特徴点で計算する。ある画素が路面上であるかは、カメラパラメータ初期値141の姿勢角と路面勾配の既知の関係に、ある程度の誤差範囲を持たせて計算した範囲で判定してもよいし、撮影画像上の立体物を区別して路面を判定してもよい。この三次元座標値の測定は、他の公知の方法を用いてもよい。計算された距離は、例えば、カメラ121の光軸201を一つの軸とするカメラ座標系で計算される。第一共通撮像領域観測部402は、計算された路面301の全ての三次元座標値を座標統合部404に出力する。第一共通撮像領域観測部402の処理フローは図6を参照して説明する。
第二共通撮像領域観測部403は、センサ値取得部401から出力された複数カメラ123、124が撮影した画像を用いて、第二共通撮像領域212に撮影された路面301の三次元座標値を測定する。第二共通撮像領域観測部403の処理は、画像を撮影したカメラが異なる点と、第二共通撮像領域212が撮影されている点を除いて、第一共通撮像領域観測部402の処理と同じであるため、詳細な説明を省略する。
座標統合部404は、第一共通撮像領域観測部402から出力される路面301の三次元座標と、第二共通撮像領域観測部403から出力される路面301の三次元座標を、同一座標系に統合する機能ブロックである。
第一共通撮像領域観測部402は、例えばカメラ121のカメラ座標系で三次元座標値を計算する。一方、第二共通撮像領域観測部403は、例えばカメラ123のカメラ座標系で三次元座標値を計算する。座標統合部404は、これらの異なる座標系における座標値を、ROM111に格納されたキャリブレーション済みのカメラパラメータ初期値141を用いて、例えば車両座標系への変換し、統合する。車両座標系への変換及び統合は、カメラパラメータ初期値141における位置姿勢関係を表す外部パラメータを用いて、公知の座標変換計算によって可能である。座標が統合される座標系は、他の座標系でもよい。第一共通撮像領域観測部402と第二共通撮像領域観測部403から出力された第一共通撮像領域211と第二共通撮像領域212が統合された三次元座標値は、路面モデル照合部405に出力される。
路面モデル照合部405は、座標統合部404から出力された、第一共通撮像領域211と第二共通撮像領域212が統合され三次元座標値を用いて、路面モデル142をフィッティングして、車両100と路面301の相対姿勢関係を計算する。図3(c)(d)に示す車両姿勢変動も含めて、相対姿勢関係が計算される。
路面モデル142は、道路中央を頂点として、横断方向に約2~2.5%の排水勾配が付されている道路構造を考慮して、例えば、約2%の勾配をもつ二つの平面で構成する。他の路面モデルについては後述する。
路面モデル照合部405では、この路面モデル142と、座標統合部404から出力された第一共通撮像領域211と第二共通撮像領域212が統合された三次元座標値が最も一致するように、車両100に対する路面モデル142の相対姿勢を求める。例えば、座標統合部404から出力された第一共通撮像領域211と第二共通撮像領域212が統合された三次元座標値と路面モデル142の路面平面との距離の総和を目的関数として設定し、目的関数を最小化するように車両100に対する路面モデル142の相対位置姿勢パラメータを計算する。車両100と路面モデル142の相対位置姿勢パラメータは、ロール角、ピッチ角、ヨー角の3姿勢角と、縦、横、高さの位置パラメータの一つ以上である。推定の安定化のために、1以上のパラメータを既知として、他のパラメータを推定してもよい。目的関数の最小化は、最急降下法やレーベンバーグ・マーカート法などの公知の目的関数最小化方法を使用できる。路面モデル照合部405によって得られた、車両100と路面301の相対位置姿勢パラメータは、路面相対姿勢153として、単眼距離推定部406に出力される。また、次時刻での最適化の初期値として活用するために、路面相対姿勢153として、RAM112に格納される。次時刻では、路面相対姿勢153をRAM112から読み出し、初期値として目的関数を最小化する。そして、新たな三次元座標値から得られた新たな路面相対姿勢を路面相対姿勢153として、RAM112に格納する。なお、路面モデル照合部405は路面モデルを用いずに、他の方法で車両100の相対位置姿勢を求めてもよい。
単眼距離推定部406は、路面モデル照合部405から出力された路面相対姿勢153及び路面モデル142を用いて、対象物までの正確な距離を計算する。路面モデル142と路面相対姿勢153とカメラパラメータ初期値141から、カメラ121~124と路面301の相対関係を公知の幾何的な解法によって計算できる。計算された相対関係を用いて、対象物の路面設置点に該当する画素に基づいて、対象物までの距離を計算し、推定距離として出力する。この対象物は、例えば、カメラ121~124に設けられた、AI等を用いた画像認識機能によって検知するとい。対象物までの距離は、カメラ121~124の共通撮像領域211、212以外の部分でも計算でき、複数カメラで広い範囲に渡って、路面が平坦でない場合でも正しく計算できる。
図5(a)、図5(b)は、座標統合と路面モデル照合の処理を示す模式図である。図5(a)、図5(b)では、第一共通撮像領域観測部402、第二共通撮像領域観測部403、座標統合部404、路面モデル照合部405の関係と、これらの処理概要と、これらの利点を示す。
第一共通撮像領域観測部402で観測された第一共通撮像領域211における路面301の三次元座標値501は、カメラ121のカメラ座標系で表されており、第二共通撮像領域観測部403で観測された第二共通撮像領域212における路面301の三次元座標値502は、カメラ123のカメラ座標系で表されている。三次元座標値501と三次元座標値502は、相対関係が不明である。ここで、座標統合部404が、カメラパラメータ初期値141の外部パラメータを用いて、カメラ座標系の三次元座標値501を車両100の座標系の三次元座標値503に変換し、カメラ座標系の三次元座標値502を車両100の座標系の三次元座標値504に変換する。三次元座標値503と三次元座標値504は同一座標系で表わされており、相対関係が明らかである。路面モデル照合部405が、三次元座標値503と三次元座標値504を路面モデル142に照合することによって、車両100と路面301の相対関係を求めることができる。車両100の片側だけでなく、車両100の両側の領域を活用し、さらに路面モデル142の当て嵌めによって、各共通撮像領域で個別に路面を推定するより、広い範囲での観測値とモデルによる制約によって、安定して推定でき、高精度で車両100と路面の相対関係を求めることができる。その結果、道路が平坦でない場合でも、複数カメラが撮影した画像を用いた測距精度を向上できる。
図5(c)、図5(d)、図5(e)は、路面モデル142の一例を示す図である。図5(c)は、勾配2%の二つの平面が接続されている形のモデルである。図5(d)は、勾配2%の二つの平面の頂部が曲面となっている形のモデルである。図5(e)は、路面頂部の種々の形状や、路面平面の幅に対応するために、路面頂部、及び、路面の広さを除外した形のモデルである。除外された部分に近い対応点は、路面と三次元座標値の照合時、目的関数の誤差総和に含めないことによって、柔軟な照合できる。また、片側3車線で、中央分離帯がある高速道路などでは、片側3車線の全幅にわたって平面になるケースもある。図5(c)~図5(e)の路面モデル142は全幅が一つの平面になるケースも対応可能である。すなわち、路面モデル142を左又は右に大きくスライドすると、観測範囲全域が平坦な路面になる。ここで示した例では、道路横断勾配の形状にあわせて2平面を接続したモデルの例を示すが、2以上の複数平面を接続した形のモデルでもよい。
図6は、第一共通撮像領域観測部402が実行する処理のフローチャートである。第一共通撮像領域観測部402では、センサ値取得部401から画像を受け取るたびに、CPU110が以下の各ステップの処理を実行する。
特徴点検出ステップ601では、センサ値取得部401から得られる二つの画像それぞれから、画像の中で特徴的な点である特徴点(例えば、路面ペイントのコーナー点)を検出する。検出範囲は、二つの画像の共通撮像領域内の路面である。ある画素が共通撮像領域内で路面上であるかは、カメラパラメータ初期値141の姿勢角と路面勾配の既知の関係に、ある程度の誤差範囲を持たせて計算した部分で判定してもよいし、撮影された画像上の立体物と路面を弁別して判定してもよい。特徴点は、ハリスオペレータなど公知の特徴点抽出技術を使用して検出する。また、ORBなどの公知技術によって、特徴点を表現する情報を付属して、次の特徴点対応ステップで使用してもよい。次にステップ602に進む。
特徴点対応ステップ602では、特徴点検出ステップ601で得られた、二つの画像それぞれの特徴点の中から、同一対象を表す点を対応付ける。例えば、ステップ601で特徴点ごとに得られた特徴点情報を用いて特徴点を対応付ける。具体的には、一方の画像の特徴点と特徴点情報が最も近い特徴点を他方の画像から選択し、二つの特徴点を対応付ける。特徴点座標、及び特徴点の対応付け精度を向上するため、公知のあらゆる技術を使用してよい。次にステップ603に進む。
距離測定ステップ603では、ステップ602で得られた二つの画像間の対応関係を用いて、各点の三次元距離を計算する。三次元距離の計算は、ROM111に格納されたカメラパラメータ初期値141から得られる二つのカメラ121と122の幾何関係を用いて、対応する二つの座標点に三角測量の原理を適用して計算できる。ここでは説明上、カメラ121を基準として、カメラ121から見た距離として計算するが、カメラ122を基準として計算してもよい。この場合、後段で基準となったカメラに応じて幾何計算をすれば問題ない。精度を担保するために、公知あらゆる技術を使用して計算してよい。次にステップ604に進む。
三次元座標計算ステップ604では、ステップ603で得られたカメラ121の画像上の座標及び距離から、三次元座標値を計算する。カメラパラメータ初期値141を使用して、公知の幾何計算によって、画像上の座標及び距離から三次元座標を計算できる。ここで計算される三次元座標は、カメラ121のカメラ座標となっている。各点の三次元座標を出力して、フローチャートを終了する。
以上に、図6を参照して、第一共通撮像領域観測部402が実行する処理を説明したが、カメラ画像とそれに伴うカメラパラメータ等が異なるだけで第二共通撮像領域観測部403が実行する処理も同じである。
<変形例1>
図7(a)、図7(b)は、座標統合と路面モデル照合の処理の変形例を示す模式図である。図7(a)、図7(b)では、第一共通撮像領域観測部402、第二共通撮像領域観測部403、座標統合部404、路面モデル照合部405の関係と、これらの処理概要と、これらの利点を示す。図7(a)、図7(b)は、図5(a)、図5(b)の変形例であり、共通部分の説明は省略し、差分を説明する。
三次元座標値701は、第一共通撮像領域211で観測され、カメラ121のカメラ座標系で表された立体物の三次元座標値である。座標統合部404は、カメラパラメータ初期値141の外部パラメータを用いて、立体物の三次元座標値701を車両100の座標系の三次元座標値702に変換する。三次元座標値503と504だけでなく、三次元座標値702を用いて路面モデル142と照合してもよい。この場合、三次元座標値702は垂直に並んでいると考え、垂直である場合に評価値が高くなるように路面モデル142の目的関数を設計する。
図8は、第一共通撮像領域観測部402が実行する処理のフローチャートであり、図7に示す変形例に対応する。図8のフローチャートは、図6のフローチャートとほぼ同じであるため、共通部分の説明は省略し、差分を説明する。
路面/立体物分離ステップ801では、共通撮像領域の観測点の中で、路面上の観測点と、立体物の観測点を分離する。例えば、AIなどによる画像認識を使用して、ガードレール、電柱等、ポール等と認識された点を立体物にレベル付けし、路面ペイントして認識された点を路面上の点としてラベル付けして、観測点を分離するとよい。同様に立体物については、一つの立体物ごとに別のラベルを付してグルーピングする。このグルーピングされた点を矩形フィッティングし、矩形情報を付与する。付与された矩形情報は後段の路面モデル照合部405で、この矩形と路面モデル142が直交する場合に最小となる目的関数を設計して使用する。ここでラベルを付した三次元座標点を出力し、フローチャートを終了する。
以上に、図8を参照して、第一共通撮像領域観測部402が実行する処理を説明したが、カメラ画像とそれに伴うカメラパラメータ等が異なるだけで第二共通撮像領域観測部403が実行する処理も同じである。
<変形例2>
図9(a)、図9(b)は、座標統合と路面モデル照合の処理のさらなる変形例を示す模式図である。図9(a)、図9(b)では、第一共通撮像領域観測部402、第二共通撮像領域観測部403、座標統合部404、路面モデル照合部405の関係と、これらの処理概要と、これらの利点を示す。図9(a)、図9(b)は、図7(a)、図7(b)の変形例であり、共通部分の説明は省略し、差分を説明する。
三次元座標値901は、第一共通撮像領域211において、三次元座標値501及び701の次時刻に観測された立体物の三次元座標値である。すなわち、短時間では車両100の姿勢が大きく変化していないという前提の下、第一共通撮像領域211の観測点を時系列的に統合する。同様に、三次元座標値902は、第二共通撮像領域212において、三次元座標値502の次時刻に観測された立体物の三次元座標値であり、第二共通撮像領域212の座標点を時系列的に統合したものである。ここで、座標統合部404により、カメラパラメータ初期値141の外部パラメータを用いて、三次元座標値901、902を車両100の座標系に変換する。三次元座標値503と504だけでなく、三次元座標値702、901、902を用いて路面モデル142と照合する。この場合、三次元座標値901、902も垂直に並んでいると考え、垂直である場合に評価値が高くなるように路面モデル142の目的関数を設計する。
この変形例によると、車両100の両側のある時点で観測される路面点や立体物の点だけでなく、時系列的な路面点、立体物点も活用し、さらに路面モデル142への当て嵌めることによって、各共通撮像領域である時点の観測値で個別に推定するより、広い範囲での観測値とモデルによる制約によって、安定して推定でき、高精度で車両100と路面の相対関係を求めることができる。その結果、道路が平坦でない場合でも、複数カメラが撮影した画像を用いた測距精度をさらに向上できる。
図10は、CPU110が実行する距離推定プログラム150の機能ブロック図であり、図9に示す変形例に対応する。図10は、距離推定プログラム150の各機能ブロックの処理順序、機能ブロック同士、及び機能ブロックとROM111、RAM112との間のデータの流れを示す。図10の機能ブロック図は、図4の機能ブロック図とほぼ同じであるため、共通部分の説明は省略し、差分を説明する。
距離推定プログラム150は、センサ値取得部401、第一共通撮像領域観測部402、第二共通撮像領域観測部403、座標統合部404、時系列統合部1001、路面モデル照合部405、単眼距離推定部406、及びオドメトリ推定部1002を含む。時系列統合部1001は、路面相対姿勢推定プログラム143に対応する機能ブロックの一つであり、座標統合部404から出力された第一共通撮像領域211と第二共通撮像領域212が統合された三次元座標値について、時系列的に統合する。短時間では車両100の姿勢が大きく変化していないという前提の下、三次元座標値を統合する。統合の際、前時刻から現時刻の間に車両100の移動量を取得し、車両移動量からカメラの移動量を公知の幾何計算により計算することによって、三次元座標値を統合できる。車両移動量については、後述のオドメトリ推定部1002より取得する。初回は、座標統合部404の出力をRAM112に書き出して記録し、次回以降は、前回時刻に記録された点群をRAM112から読み出して、座標統合部404から新たに得られた車両100の座標系における点群と加えて保持する。統合する時間範囲は、パラメータとして調整できるとよい。統合された三次元座標値は、路面モデル照合部405及びRAM112に出力される。
オドメトリ推定部1002は、車速センサ131及び舵角センサ132から送信される車両100の速度及び舵角を用いて、車両100の運動を推定する。例えば、公知のデッドレコニングを用いてもよいし、カメラを用いた公知のビジュアルオドメトリ技術を用いて推定してもよいし、公知のカルマンフィルタ等を併用してもよい。車両運動推定結果を時系列統合部1001に出力する。
<変形例3>
図11は、本発明の変形例にかかるセンシング装置101を搭載した車両100の構成を示すブロック図である。図11に示すセンシング装置101は、図1に示すセンシング装置101とほぼ同じであるため、共通部分の説明は省略し、差分を説明する。
図11に示すセンシング装置101は、図1に示すセンシング装置101に、カメラ1101、カメラ1102、及び車両制御装置1180が追加搭載される。カメラ1101とカメラ1102は、カメラ121~124と同様に車両100の周囲に取り付けられ、車両100の周囲を撮影する。カメラ1101、1102の取り付け方法は後述する。カメラ1101、1102の撮影範囲には、車両100が走行する路面が含まれる。カメラ1101、1102と車両100との位置及び姿勢の関係は、カメラパラメータ初期値141として、ROM111に格納される。カメラ1101、1102は、レンズ及び撮像素子を有する。カメラ1101、1102の特性、例えばレンズの歪みを示すレンズ歪み係数、光軸中心、焦点距離、撮像素子の画素数、寸法などもカメラパラメータ初期値141としてROM111に格納される。
車両制御装置1180は、CPU110から出力される情報、例えば、距離推定プログラム1150から出力される路面相対姿勢153を用いて、操舵装置、駆動装置、及び制動装置、アクティブサスペンション等を制御する。操舵装置は、車両100のステアリングを操作する。駆動装置は、車両100に駆動力を与える。駆動装置は、例えば車両100のエンジンの目標回転数を増加して車両100の駆動力を増加する。制動装置は、車両100に制動力を与える。アクティブサスペンションは、油圧や空気圧などで動作するアクチュエータが伸縮する、又はばねのダンピング力の強弱調整など、走行中の様々な機器の動作を変更できる。
図12は、図11に示す変形例のセンシング装置101における、車両100、カメラ121~124、1101、1102、カメラ121の光軸201、カメラ122の光軸202、カメラ123の光軸203、カメラ124の光軸204、カメラ1101の光軸1201、カメラ1102の光軸1202、と第一共通撮像領域211、及び第二共通撮像領域212、第三共通撮像領域1213、第四共通撮像領域1214、第五共通撮像領域1215、第六共通撮像領域1216の関係の一例を示す図である。
カメラ1101は、車両100の前方に、光軸1201の方向を撮影するように、かつ、カメラ122、124との共通撮像領域を持つようにカメラ画角等選定し、取り付けられる。カメラ1101とカメラ122の共通撮像領域が第三共通撮像領域1213であり、カメラ1101とカメラ124の共通撮像領域が第四共通撮像領域1214である。カメラ1102は、車両100の後方に、光軸1202の方向を撮影するように、かつ、カメラ121、123との共通撮像領域を持つようにカメラ画角等選定し、取り付けられる。カメラ1102とカメラ121の共通撮像領域が第五共通撮像領域1215であり、カメラ1102とカメラ123の共通撮像領域が第六共通撮像領域1216である。各共通撮像領域では、路面や立体物が撮像される。さらに、車両100の周囲の俯瞰図を表示する周辺視カメラとしても機能するように、画角や角度等が合致するカメラを選定してもよい。各共通撮像領域211、212、1213~1216での撮像結果は、路面と車両100の相対姿勢推定に使用される。図12に示す変形例では、さらに広い範囲での観測値によって、安定して推定でき、高精度で車両100と路面の相対関係を求めることができる。その結果、道路が平坦でない場合でも、複数カメラが撮影した画像を用いた測距精度を向上できる。
図13は、CPU110が実行する距離推定プログラム150の機能ブロック図であり、図11に示す変形例に対応する。図13は、距離推定プログラム150の各機能ブロックの処理順序、機能ブロック同士、及び機能ブロックとROM111、RAM112との間のデータの流れを示す。図13の機能ブロック図は、図10の機能ブロック図とほぼ同じであるため、共通部分の説明は省略し、差分を説明する。
図13に示す共通視野距離測定プログラム144は、第一共通撮像領域観測部402、第二共通撮像領域観測部403、第三共通撮像領域観測部1313、第四共通撮像領域観測部1314、第五共通撮像領域観測部1315、及び第六共通撮像領域観測部1316を含む。また、共通視野距離測定プログラム144には、カメラ121~124、カメラ1101、1102から画像が入力される。
第三共通撮像領域観測部1313は、センサ値取得部401から出力された複数カメラ122、1101が撮影した画像を用いて、第三共通撮像領域1213に撮影された路面301の三次元座標値を測定する。第四共通撮像領域観測部1314は、センサ値取得部401から出力された複数カメラ124、1101が撮影した画像を用いて、第四共通撮像領域1214に撮影された路面301の三次元座標値を測定する。第五共通撮像領域観測部1315は、センサ値取得部401から出力された複数カメラ121、1102が撮影した画像を用いて、第五共通撮像領域1215に撮影された路面301の三次元座標値を測定する。第六共通撮像領域観測部1316は、センサ値取得部401から出力された複数カメラ123、1102が撮影した画像を用いて、第六共通撮像領域1216に撮影された路面301の三次元座標値を測定する。各共通撮像領域観測部から出力される三次元座標値は、各カメラのカメラ座標系で表されており、カメラパラメータ初期値141の外部パラメータを用いて、カメラ座標系の三次元座標値を車両100の座標系の三次元座標値に変換する。
車両制御部1320は、路面モデル照合部405の出力である路面相対姿勢153を受け取り、車両100を制御する。車両制御の一例としては、路面相対姿勢153から得られる車両100のロール角やピッチ角の影響を低減するように、アクティブサスペンションを制御し、乗り心地を改善する等がある。その他の車両100の姿勢角によって車両100を制御してもよい。
以上に説明したように、本発明の実施例のセンシング装置101は、共通撮像領域を有する少なくとも第一のセンサ(カメラ121)及び第二のセンサ(カメラ122)が取得した共通撮像領域の情報から自車両周辺の第一共通撮像領域211を観測する第一共通撮像領域観測部402と、共通撮像領域を有する少なくとも第三のセンサ(カメラ123)及び第四のセンサ(カメラ124)が取得した共通撮像領域の情報から第一共通撮像領域211と異なる第二共通撮像領域212を観測する第二共通撮像領域観測部403と、各センサの幾何関係と、第一共通撮像領域211及び第二共通撮像領域212で観測された情報の座標を統合する座標統合部404と、統合された座標から計算された点群情報に基づいて、自車両のピッチ角及びロール角を含む各センサと路面の相対姿勢を推定する路面推定部(路面モデル照合部405)とを備えるので、道路勾配や車両姿勢の影響を低減して、測距離精度を向上できる。また、複数カメラによる両眼測距離時の精度を向上できる。
また、共通撮像領域は、センサの光軸が交わる位置に配置されるので、光軸付近の歪みが少ない映像を使用して道路勾配や車両姿勢の影響を正確に補正できる。
また、路面推定部(路面モデル照合部405)は、前記路面の点群情報と路面モデルを照合する路面モデル照合部405を有し、路面モデル照合部405は、路面の点群情報と路面モデル142との誤差が小さくなるように、路面の点群情報を路面モデル142に当て嵌めるので、道路勾配や車両姿勢の影響を正確に補正できる。
また、第一共通撮像領域観測部402及び第二共通撮像領域観測部403は、路面点群情報と、路面に存在する物体を表す物体点群情報とを分離し(801)、路面推定部(路面モデル照合部405)は、路面点群情報と路面との誤差が小さくなり、物体点群情報が垂直に並ぶように路面モデルと照合するので、大きな誤りが生じることなく、道路勾配や車両姿勢の影響を正確に補正できる。
また、路面推定部(路面モデル照合部405)は、第一の共通撮像領域観測部の出力を時系列統合し、第二の共通撮像領域観測部の出力を時系列統合する時系列統合部1001を有するので、道路勾配や車両姿勢の影響を正確に補正でき、路面推定のロバスト性が向上する。
また、六つの前記センサが取得した情報を受信し、路面推定部(路面モデル照合部405)は、前記六つのセンサのうち二つの組み合わせによる共通撮像領域で観測された情報の座標を統合し計算された点群情報に基づいて、自車両のピッチ角、車両ロール角を含む各センサと路面の相対姿勢を推定するので、多くのセンサを使用して、広い領域の情報を使用でき、道路勾配や車両姿勢の影響を正確に補正できる。また、複数カメラによる両眼測距離時の精度を向上でき、路面推定のロバスト性が向上する。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
また、センシング装置101が不図示の入出力インタフェースを備え、必要なときに入出力インタフェースとセンシング装置101が利用可能な媒体を介して、他の装置からプログラムが読み込まれてもよい。ここで媒体とは、例えば入出力インタフェースに着脱可能な記憶媒体、または通信媒体、すなわち有線、無線、光などのネットワーク、または当該ネットワークを伝搬する搬送波やディジタル信号を指す。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。また、プログラムにより実現される機能の一部または全部がハードウェア回路やFPGAにより実現されてもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
100 車両
101 センシング装置
102 車載処理装置
110 CPU
111 ROM
112 RAM
121、122、123、124、1101、1102 カメラ
131 車速センサ
132 舵角センサ
141 カメラパラメータ初期値
142 路面モデル
143 路面相対姿勢推定プログラム
144 共通視野距離測定プログラム
145 単眼距離測定プログラム
150 距離推定プログラム
151 第一領域観測値
152 第二領域観測値
153 路面相対姿勢
154 外部パラメータ
161 表示装置
201、202、203、204、1201、1202 光軸
211 第一共通撮像領域
212 第二共通撮像領域
301 路面
401 センサ値取得部
402 第一共通撮像領域観測部
403 第二共通撮像領域観測部
404 座標統合部
405 路面モデル照合部
406 単眼距離推定部
1001 時系列統合部
1002 オドメトリ推定部
1150 距離推定プログラム
1180 車両制御装置
1213 第三共通撮像領域
1214 第四共通撮像領域
1215 第五共通撮像領域
1216 第六共通撮像領域
1313 第三共通撮像領域観測部
1314 第四共通撮像領域観測部
1315 第五共通撮像領域観測部
1316 第六共通撮像領域観測部
1320 車両制御部

Claims (11)

  1. 共通撮像領域を有する少なくとも第一のセンサ及び第二のセンサが取得した前記共通撮像領域の情報から自車両周辺の第一の領域を観測する第一の共通撮像領域観測部と、
    共通撮像領域を有する少なくとも第三のセンサ及び第四のセンサが取得した前記共通撮像領域の情報から前記第一の領域と異なる第二の領域を観測する第二の共通撮像領域観測部と、
    前記各センサの幾何関係と、前記第一の領域及び前記第二の領域で観測された情報の座標を統合する座標統合部と、
    前記統合された座標から計算された点群情報に基づいて、自車両のピッチ角及びロール角を含む各センサと路面の相対姿勢を推定する路面推定部とを備えることを特徴とするセンシング装置。
  2. 請求項1に記載のセンシング装置であって、
    前記共通撮像領域は、前記センサの光軸が交わる位置に配置されることを特徴とするセンシング装置。
  3. 請求項1に記載のセンシング装置であって、
    前記路面推定部は、前記路面の点群情報と路面モデルを照合することを特徴とするセンシング装置。
  4. 請求項3に記載のセンシング装置であって、
    前記路面推定部は、前記路面の点群情報と路面モデルとの誤差が小さくなるように、前記路面の点群情報を路面モデルに当て嵌めることを特徴とするセンシング装置。
  5. 請求項1に記載のセンシング装置であって、
    前記推定された相対姿勢から計算した補正値を参照して、測距する距離測定部を備えることを特徴とするセンシング装置。
  6. 請求項1に記載のセンシング装置であって、
    前記第一の共通撮像領域観測部及び前記第二の共通撮像領域観測部は、路面点群情報と、路面に存在する物体を表す物体点群情報とを分離することを特徴とするセンシング装置。
  7. 請求項6に記載のセンシング装置であって、
    前記路面推定部は、前記路面点群情報と路面との誤差が小さくなり、前記物体点群情報が垂直に並ぶように路面モデルと照合することを特徴とするセンシング装置。
  8. 請求項1に記載のセンシング装置であって、
    前記第一の共通撮像領域観測部の出力を時系列統合し、前記第二の共通撮像領域観測部の出力を時系列統合する時系列統合部を備えることを特徴とするセンシング装置。
  9. 請求項1に記載のセンシング装置であって、
    前記第一の共通撮像領域観測部は、前記自車両の進行方向左側の情報を取得し、
    前記第二の共通撮像領域観測部は、前記自車両の進行方向右側の情報を取得することを特徴とするセンシング装置。
  10. 請求項1に記載のセンシング装置であって、
    六つのセンサが取得した情報を受信し、
    前記路面推定部は、前記六つのセンサのうち二つの組み合わせによる共通撮像領域で観測された情報の座標を統合し計算された点群情報に基づいて、自車両のピッチ角、車両ロール角を含む各センサと路面の相対姿勢を推定することを特徴とするセンシング装置。
  11. 共通撮像領域を有する少なくとも第一のセンサ及び第二のセンサが取得した前記共通撮像領域の情報から自車両周辺の第一の領域を観測する第一の共通撮像領域観測部と、
    共通撮像領域を有する少なくとも第三のセンサ及び第四のセンサが取得した前記共通撮像領域の情報から前記第一の領域と異なる第二の領域を観測する第二の共通撮像領域観測部と、
    前記各センサの幾何関係と、前記第一の領域及び前記第二の領域で観測された情報の座標を統合する座標統合部と、
    前記統合された座標から計算された点群情報に基づいて、自車両のピッチ角及びロール角を含む各センサと路面の相対姿勢を推定する路面推定部とを備え、
    前記推定された相対姿勢を用いて車両を制御することを特徴とする車両制御装置。
JP2021100680A 2021-06-17 2021-06-17 センシング装置及び車両制御装置 Pending JP2023000076A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021100680A JP2023000076A (ja) 2021-06-17 2021-06-17 センシング装置及び車両制御装置
DE112022001741.4T DE112022001741T5 (de) 2021-06-17 2022-02-08 Erfassungsvorrichtung und fahrzeugsteuervorrichtung
PCT/JP2022/004980 WO2022264491A1 (ja) 2021-06-17 2022-02-08 センシング装置及び車両制御装置
CN202280029045.4A CN117177891A (zh) 2021-06-17 2022-02-08 传感装置和车辆控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021100680A JP2023000076A (ja) 2021-06-17 2021-06-17 センシング装置及び車両制御装置

Publications (2)

Publication Number Publication Date
JP2023000076A true JP2023000076A (ja) 2023-01-04
JP2023000076A5 JP2023000076A5 (ja) 2024-02-22

Family

ID=84526968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021100680A Pending JP2023000076A (ja) 2021-06-17 2021-06-17 センシング装置及び車両制御装置

Country Status (4)

Country Link
JP (1) JP2023000076A (ja)
CN (1) CN117177891A (ja)
DE (1) DE112022001741T5 (ja)
WO (1) WO2022264491A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309519A (ja) * 2007-06-12 2008-12-25 Panasonic Corp 画像処理を用いた物体検出装置
DE102014117888A1 (de) * 2014-12-04 2016-10-13 Connaught Electronics Ltd. Online-Kalibrierung eines Kraftfahrzeug-Kamerasystems
JP2020049109A (ja) 2018-09-28 2020-04-02 株式会社ユニバーサルエンターテインメント 遊技機
JP7236849B2 (ja) * 2018-11-29 2023-03-10 日立Astemo株式会社 外界認識装置

Also Published As

Publication number Publication date
WO2022264491A1 (ja) 2022-12-22
DE112022001741T5 (de) 2024-01-25
CN117177891A (zh) 2023-12-05

Similar Documents

Publication Publication Date Title
JP7072759B2 (ja) マルチセンサによる複合キャリブレーション装置及び方法
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
CN107567412B (zh) 利用汽车相机使用车辆运动数据的对象位置测量
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
CN108692719B (zh) 物体检测装置
EP3032818B1 (en) Image processing device
CN110462682B (zh) 物体检测装置以及车辆
CN112819711B (zh) 一种基于单目视觉的利用道路车道线的车辆反向定位方法
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
WO2018030010A1 (ja) 路面推定装置、車両制御装置、路面推定方法、およびプログラム
CN106885523B (zh) 一种车辆路径跟随误差视觉测量优化方法
WO2022264491A1 (ja) センシング装置及び車両制御装置
JP2021193340A (ja) 自己位置推定装置
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
JP2018136739A (ja) キャリブレーション装置
WO2020113425A1 (en) Systems and methods for constructing high-definition map
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
US20220300744A1 (en) Information processing device and information processing method
WO2021095354A1 (ja) 外界認識装置、外界認識方法、および外界認識プログラム
WO2022153586A1 (ja) 自己地図生成装置、および自己位置推定装置
KR20230023763A (ko) 카메라를 교정하는 방법 및 그에 연관된 장치
CN117372472A (zh) 目标全景图像的生成方法、装置、计算机系统及存储介质
JP2024005342A (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
CN117553811A (zh) 基于路侧相机与车载gnss/ins的车路协同定位导航方法及系统
JP2024514006A (ja) 自車両の周辺環境における少なくとも1つの特徴の位置を補正する方法およびシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240213