JP6950170B2 - 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム - Google Patents

情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6950170B2
JP6950170B2 JP2016233088A JP2016233088A JP6950170B2 JP 6950170 B2 JP6950170 B2 JP 6950170B2 JP 2016233088 A JP2016233088 A JP 2016233088A JP 2016233088 A JP2016233088 A JP 2016233088A JP 6950170 B2 JP6950170 B2 JP 6950170B2
Authority
JP
Japan
Prior art keywords
road surface
rolling
parallax
distance
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016233088A
Other languages
English (en)
Other versions
JP2018091652A (ja
Inventor
直樹 本橋
直樹 本橋
高橋 禎郎
禎郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016233088A priority Critical patent/JP6950170B2/ja
Priority to MYPI2019002786A priority patent/MY196676A/en
Priority to US16/347,959 priority patent/US10762656B2/en
Priority to EP17778368.5A priority patent/EP3549055B1/en
Priority to CN201780073566.9A priority patent/CN110023951B/zh
Priority to PCT/JP2017/033052 priority patent/WO2018100839A1/en
Publication of JP2018091652A publication Critical patent/JP2018091652A/ja
Application granted granted Critical
Publication of JP6950170B2 publication Critical patent/JP6950170B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Description

本発明は、情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラムに関する。
従来、自動車の安全性において、歩行者と自動車とが衝突したときに、いかに歩行者を守れるか、および、乗員を保護できるかの観点から、自動車のボディー構造等の開発が行われてきた。しかしながら、近年、情報処理技術および画像処理技術の発達により、高速に人および自動車を検出する技術が開発されてきている。これらの技術を応用して、自動車が物体に衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車もすでに開発されている。車両の自動制御には、人または他車等の物体までの距離を正確に測定する必要があり、そのためには、ミリ波レーダおよびレーザレーダによる測距、ならびに、ステレオカメラによる測距等が実用化されている。このような車両の自動制御を実用化するためには、上述した装置で測距された情報に基づいて、画面上に写る物体を検出し、物体ごとに制御を行う必要がある。例えば、検出された物体が歩行者か車両かによって制御を変えることが想定される。
ステレオカメラで測距する場合、左右のカメラで撮影された局所領域のズレ量(視差)に基づいて視差画像を生成し、前方物体と自車両との距離を測定することができる。そして、同程度の距離に存在する(同程度の視差値を有する)視差画素の群を1つの物体として検出するクラスタリング処理により、自車両が走行している路面の形状および衝突回避等の対象となるオブジェクト(人、車両、構造物等)を検出することができる。
視差画像を利用して路面の形状を推定する物体認識装置として、自車両のピッチング、ローリング等による影響を除去することを目的として、ステレオカメラから得られる画像をウィンドウに区分し、ウィンドウ毎に対象物までの距離を計測する計測手段と、ステレオカメラによって撮像された路面の距離に基づいて路面の車両に対する相対的な傾きを推定する推定手段と、推定された路面の傾きに基づいてウィンドウ毎に撮像対象が障害物か路面上の文字やマークであるか判別する判別手段と、判別手段による判別結果に基づいて対象物の認識を行う認識手段と、を備え、自車両から路面(平坦路面)までの距離を事前に算出しておき、ウィンドウ毎に平坦路面を仮定した場合の距離を算出する構成が開示されている(特許文献1)。
距離画像(視差画像等)に基づいて路面形状を推定するシステムにおいて、距離情報(視差等)を取得するユニット(ステレオカメラ等)がローリングすると、路面に対応する距離情報は、実際の路面の状態を正確に示すものとはならない可能性がある。そのため、距離画像に基づいて路面形状を推定する際には、ローリングの影響を除去する補正処理が必要となる。
実際の路面は勾配が変化していることが多いものであるため、ローリングの影響を除去して路面の形状を高精度で推定するためには、路面の勾配に影響されない補正処理が必要となる。上記先行技術のように、平坦路面を仮定した補正処理によっては、勾配が変化する実際の路面上でカメラがローリングした場合等には路面形状を正確に推定することができない。
本発明は、上記に鑑みてなされたものであって、路面形状の推定精度を向上させることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、距離情報を含む距離画像を示す距離画像データを取得する取得部と、前記距離画像データに基づいて、前記距離情報を前記距離画像の各画素の座標に対応する位置に投票することにより、前記距離画像の前記座標毎の前記距離情報の頻度を示すVマップを生成する第1の生成部と、前記Vマップに基づいて路面形状を推定する推定部と、推定された前記路面形状である路面推定線に基づいて、前記距離情報と路面の高さとの対応関係を示す高さテーブルを生成する第2の生成部と、前記距離情報を取得する距離情報取得ユニットのローリングに関するローリング情報に基づいて、前記ローリングによる影響を打ち消すように、前記路面推定線を示す情報の生成に利用される前記高さテーブルを補正する補正部と、を備え、前記補正部は、前記ローリングに起因する、前記路面推定線の実路面に対するずれを打ち消すように算出されたローリング補正量を前記高さテーブルに含まれる前記高さに加減算する、ことを特徴とする。
本発明によれば、路面形状の推定精度を向上させることができる。
図1は、第1の実施形態に係る機器制御システムを搭載した車両の例を示す模式図である。 図2は、第1の実施形態に係る機器制御システムの全体的なハードウェア構成の例を示す図である。 図3は、第1の実施形態に係る撮像装置のハードウェア構成の例を示す図である。 図4は、第1の実施形態に係る機器制御システムの機能的構成の例を示す図である。 図5は、第1の実施形態に係る路面推定部の機能的構成の例を示す図である。 図6は、視差とステレオカメラからオブジェクトまでの距離との関係を説明するための図である。 図7は、オブジェクトのサイズを画素数に変換する方法を説明するための図である。 図8は、視差画像の例を示す図である。 図9は、図8に示す視差画像に対応するVマップの例を示す図である。 図10は、視差画像内において投票の対象となる投票領域の例を示す図である。 図11は、Vマップおよび高さテーブルの例を示す図である。 図12は、ステレオカメラのローリングが路面推定処理に与える影響を説明するための図である。 図13は、図12に示す状況に対応するVマップの例を示す図である。 図14は、第1の実施形態に係る補正部の機能的構成の例を示す図である。 図15は、ローリング補正量により推定路面の補正を行った場合の視差画像の例を示す図である。 図16は、第1の実施形態に係る路面推定部による処理の流れの例を示すフローチャートである。 図17は、第2の実施形態に係る路面推定部の機能的構成の例を示す図である。 図18は、補正前におけるVマップへの投票の状態の例を示す図である。 図19は、補正後におけるVマップへの投票の状態の例を示す図である。 図20は、第2の実施形態に係る路面推定部による処理の流れの例を示すフローチャートである。
以下に、図面を参照しながら、本発明に係る情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラムの実施形態を説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
(第1の実施形態)
図1は、第1の実施形態に係る機器制御システムを搭載した車両10の例を示す模式図である。本実施形態に係る車両10のフロントガラスの上部(バックミラー付近)には、撮像装置11が設置されている。本実施形態に係る撮像装置11は、車両10の進行方向17前方の撮像データを取得するステレオカメラ(距離情報取得ユニット)と、ステレオカメラにより取得された撮像データを解析して解析結果を示す解析データを生成する画像解析ユニット(情報処理装置)とを含む。本実施形態に係るステレオカメラは、水平に配置された2つのカメラ部により、左側視界15の輝度データおよび右側視界16の輝度データを取得する。画像解析ユニットは、ステレオカメラにより取得された左右の輝度データに基づいて、路面の形状、衝突回避等の対象となるオブジェクトの存否、オブジェクトと車両10との間の距離等を含む解析データを生成する。
図2は、第1の実施形態に係る機器制御システム1の全体的なハードウェア構成の例を示す図である。機器制御システム1は、撮像装置11および車両ECU(Engine Control Unit)51(機器制御部)を含む。撮像装置11の画像解析ユニットにより生成された解析データは、車両ECU51に入力される。車両ECU51は、車両10の走行状態を制御する信号を生成する回路を含むユニットであり、プログラムが記憶されたメモリ、プログラムにより所定の演算制御処理を行うCPU(Central Processing Unit)、各種ロジック回路等を利用して構成される。車両ECU51は、撮像装置11(画像解析ユニット)からの解析データに基づいて、車両10の制御、例えばブレーキ、アクセル、操舵等の自動制御、警告の出力等を行うための処理を行う。
図3は、第1の実施形態に係る撮像装置11のハードウェア構成の例を示す図である。本実施形態に係る撮像装置11は、ステレオカメラ12および画像解析ユニット13を含む。
ステレオカメラ12は、左目用となる第1のカメラ部21aと、右目用となる第2のカメラ部21bとが平行に組み付けられて構成されている。両カメラ部21a,21bは、それぞれレンズ22、画像センサ23、およびセンサコントローラ24を含む。画像センサ23は、例えばCCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)等である。センサコントローラ24は、画像センサ23の露光制御、画像読み出し制御、外部回路との通信、画像データの送信制御等を行うための回路を含むデバイスである。
画像解析ユニット13は、CPU31、FPGA(Field-Programmable Gate Array)32、ROM(Read Only Memory)33、RAM(Random Access Memory)34、シリアルIF(Interface)35、データIF36、データバスライン41、およびシリアルバスライン42を含む。
ステレオカメラ12は、データバスライン41およびシリアルバスライン42を介して画像解析ユニット13と接続している。CPU31は、ROM33に記憶されたプログラムに従って、画像解析ユニット13全体の動作、画像処理、画像認識処理等を実行するための処理を行う。両カメラ部21a,21bの画像センサ23により取得された輝度データは、データバスライン41を介して画像解析ユニット13のRAM34に書き込まれる。CPU31またはFPGA32からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、各種設定データ等は、シリアルバスライン42を介してセンサコントローラ24との間で送受信される。
FPGA32は、RAM34に保存されたデータに対してリアルタイム性が要求される処理を行う。リアルタイム性が要求される処理とは、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算等を行うことにより、輝度画像(輝度画像データ)から視差画像(視差画像データ)を生成する処理等である。このように生成された視差画像データは、RAM34に再度書き込まれる。
CPU31は、ステレオカメラ12の各センサコントローラ24の制御、および画像解析ユニット13の全体的な制御を行う。ROM33には、CPU31またはFPGA32に各種処理を実行させるプログラムが格納されている。CPU31は、データIF36を介して、例えば車両10のCAN(Controller Area Network)情報(車速、加速度、舵角、ヨーレート等)をパラメータとして取得する。CPU31は、ROM33に記憶されているプログラムに従って、RAM34に記憶されている輝度画像データおよび視差画像データを用いて、路面形状の推定、オブジェクトの認識、距離の計測等の各種処理を実行する。
画像解析ユニット13により生成された解析データは、シリアルIF35を介して、例えば自動ブレーキシステム、自動速度制御システム、自動操舵システム、警報システム等の外部システムへ供給される。
図4は、第1の実施形態に係る機器制御システム1の機能的構成の例を示す図である。本実施形態に係る機器制御システム1は、撮像部101、視差計算部102、路面推定部103、クラスタリング部104、棄却部105、トラッキング部106、および制御部107を含む。図4は、撮像装置11による1フレームの撮像から路面推定、オブジェクト認識等を含む画像解析処理を終え、車両制御を開始させるまでの一連の流れの例を示している。
撮像部101は、車両10前方を撮像し、2つの輝度画像データを取得する機能部である。撮像部101は、撮像装置11等により構成される。撮像部101により取得された2つの輝度画像データの一方(例えば第1のカメラ部21aにより取得された左側視界15の輝度画像データ)が基準画像となり、他方(例えば第2のカメラ部21bにより取得された右側視界16の輝度画像データ)が比較画像となる。
視差計算部102は、基準画像の輝度画像データと比較画像の輝度画像データとを用いて、ステレオカメラ12の撮像範囲内の局所領域のブロックマッチング等により画素毎の視差を算出し、視差画像を示す視差画像データを生成する機能部である。視差計算部102は、FPGA32、CPU31等により構成される。
路面推定部103は、視差画像データに基づいて、車両10が走行している路面の形状を推定する機能部である。路面推定部103は、視差画像データに基づいて生成されるV−DisparityMap(Vマップ:頻度情報)に基づいて路面形状の推定を行う。路面推定部103は、路面形状を推定する際または推定した路面形状を示す情報を参照する際に、ステレオカメラ12のローリングによる影響を打ち消すための補正処理を行う。補正処理等については後に詳述する。路面推定部103は、CPU31、FPGA32等により構成される。
クラスタリング部104は、推定された路面より上方に存在する視差群に対してクラスタリング処理を行う機能部である。クラスタリング処理とは、同程度の距離に存在する(同程度の視差値を有する)視差画像上の画素の群を1つの物体として認識する処理である。クラスタリング処理の手法は特に限定されるべきものではないが、例えば視差画像上の視差の頻度をカウントしたU-DisparityMap(Uマップ)を利用する手法がある。この方法は、Uマップ上に於いて、頻度が所定値よりも多い視差が密集している領域を新規オブジェクトとして検出し、検出された領域の輝度画像上の座標、サイズ等に基づいてオブジェクトのタイプ(人、車両、ガードレール等)を推定し、タイプを示す個体情報を生成する方法である。クラスタリング部104は、CPU31、FPGA32等により構成される。
棄却部105は、フレーム情報(輝度画像データ、視差画像データ等)、Uマップ、新規オブジェクトの個体情報等を用いて、検出されたオブジェクトのうち認識対象(衝突回避等の対象)でないものを棄却する処理を行う機能部である。棄却部105は、CPU31、FPGA32等により構成される。
トラッキング部106は、検出されたオブジェクト(棄却されなかったオブジェクト)が複数のフレームで連続して出現する場合に、そのオブジェクトが追跡対象であるか否かを判定し、追跡対象である場合には追跡対象であることを示す個体情報を生成する処理を行う機能部である。トラッキング部106は、CPU31,FPGA32等により構成される。
制御部107は、追跡対象であるオブジェクトに関する情報等に基づいて、車両10の制御(衝突回避行動、警告の出力等)を行う機能部である。制御部107は、車両ECU51等により構成される。
図5は、第1の実施形態に係る路面推定部103の機能的構成の例を示す図である。本実施形態に係る路面推定部103は、視差情報入力部151(取得部)、Vマップ生成部152(第1の生成部)、セグメント設定部153、標本点設定部154、外れ点除去部155、形状推定部156(推定部)、高さテーブル生成部157(第2の生成部)、および補正部161を含む。
(視差情報入力処理)
視差情報入力部151は、視差計算部102により計算された視差画像データを入力する機能部である。視差情報入力部151は、CPU31、FPGA32等により構成される。
図6は、視差dとステレオカメラ12からオブジェクト171までの距離Dとの関係を説明するための図である。図7は、オブジェクト171のサイズSを画素数pに変換する方法を説明するための図である。
図6に示すように、第1のカメラ部21aおよび第2のカメラ部21bの二眼で対象物171の局所を撮像し、両カメラ部21a,21bで捉えた対象物171の同一局所に対応する位置の、撮像面175におけるズレ量が視差dとなる。視差dは、ステレオカメラ12からオブジェクト171までの距離D、両カメラ部21a,21bの焦点位置間の基線長b、および焦点距離fを用いて、下記式(1)により算出することができる。
b:d=D:f
d=b・f/D …(1)
図7に示すように、距離D[mm]におけるオブジェクト171のサイズS[mm]は、焦点距離f[mm]、画素数p[pix]、および画像センサ23のセンサ間隔をc[mm/pix」を用いて、下記式(2)により算出することができる。
s:d=c・p:f
p=s・f/c/D …(2)
式(2)により、例えば距離Dにおける車線幅を画素数に変換すること等が可能となる。
(Vマップ生成処理)
Vマップ生成部152は、視差画像データに基づいてVマップを生成する機能部である。Vマップ生成部152は、CPU31、FPGA32等により構成される。図8は、視差画像201の例を示す図である。図9は、図8に示す視差画像201に対応するVマップ221の例を示す図である。
Vマップ221は、視差画像201の各画素が保有する画素値である視差dを、当該画素の座標に対応する位置に投票することにより生成され、視差画像201の座標毎に視差dの頻度を示す情報である。本例におけるVマップ221は、縦軸に視差画像201のy座標、横軸に視差dをとり、視差画像201の各画素が保有する視差dを当該画素のy座標に対応する位置(投票位置)に投票することにより生成される2次元ヒストグラムである。
図8に示す視差画像201は、路面211上に他車両であるオブジェクト212が存在している状態を示している。視差画像201における路面211上の領域の視差dをVマップ221上に投票すると、図9に示すように、路面211に対応する視差dの分布領域223およびオブジェクト212に対応する視差dの分布領域224が現出する。路面211に対応する分布領域223は、左端から右端にかけて連続する右下がりの形状となる。これは、視差dは車両10から近い程大きくなり、視差画像201の下方における視差dは上方における視差dより大きくなるからである。なお、y軸の取り方によっては分布領域223が右下がりにならない場合もある。オブジェクト212に対応する分布領域224のy軸方向の長さH2は、視差画像201におけるオブジェクト212の路面211からの高さH1に対応する。
なお、投票の対象となる視差画像201内の領域は、必ずしも視差画像201全体である必要はない。図10は、視差画像201内において投票の対象となる投票領域231〜233の例を示す図である。図10に示す例における投票領域231〜233は、路面211が存在する領域を含むように設定されている。このような投票領域231〜233を設定することにより、衝突回避等の対象となるオブジェクト212が存在し得る領域のみを画像処理の対象とすることができるので、処理負荷の軽減等を図ることができる。
(セグメント設定処理)
セグメント設定部153は、図9に示すように、Vマップ221にd座標を基準として1つ以上のセグメント(区分)227を設定する機能部である。後述する標本点設定処理、外れ点除去処理、および形状推定処理は、セグメント227毎に行われてもよい。セグメント227の設定方法は特に限定されるべきものではないが、セグメント227を細かく設定することにより、複雑な形状を有する路面211またはオブジェクト212を正確に認識することが可能となる。例えば、勾配が変化する路面211の形状等を正確に推定することが可能となる。なお、セグメントの設定後、後述する標本点設定処理、外れ点除去処理、および形状推定処理を実行する手順は、特に限定されるべきものではないが、例えば1つめのセグメントについて標本点設定処理、外れ点除去処理、および形状推定処理を実行した後、2つめのセグメントについてこれらの処理を行うようにしてもよいし、全てのセグメントについて標本点設定処理を行った後、全てのセグメントについて外れ点除去処理(同様に形状推定処理)を行うようにしてもよい。セグメント設定部153は、CPU31、FPGA32等により構成される。
なお、セグメント設定部153は、路面推定部103による路面推定処理において、必ずしも必要な機能部ではない。Vマップ221にセグメントを設定することなく、路面211の形状を推定することも可能である。
(標本点設定処理)
標本点設定部154は、Vマップ221上に投票された1つ以上の視差dから1つ以上の標本点を設定する機能部である。標本点の設定(選択)方法は、特に限定されるべきものではないが、例えばd座標に対して垂直方向に存在する複数の視差dの中から頻度が最も高い点(最頻点)を選択する方法、路面211に対応する標本点が含まれ得る領域を所定の基準により制限する方法等が適用され得る。また、投票された視差dがない座標を標本点としてもよい(例えば、着目している座標には投票された視差dがないが、その周囲に高い頻度で視差dが投票されている場合等)。標本点設定部154は、CPU31、FPGA32等により構成される。
(外れ点除去処理)
外れ点除去部155は、設定された標本点の内、不適切な標本点を除去する機能部である。不適切な標本点の決定方法は、特に限定されるべきものではないが、例えばVマップ211上に投票された複数の標本点を用いて最小二乗法等により設定した近似直線から所定距離離れた標本点を除去する方法等が適用され得る。外れ点除去部155は、CPU31、FPGA32等により構成される。
なお、外れ点除去部155は、路面推定部103による路面推定処理において、必ずしも必要な機能部ではない。外れ点を検出することなく、路面211の形状を推定することも可能である。
(形状推定処理)
形状推定部156は、残存した標本点(標本点設定部154により設定され、外れ点除去処理が行われた場合には外れ点除去部155により除去されなかった標本点)を用いて路面211の路面形状を推定する機能部である。形状推定部156は、Vマップ211上に投票された複数の標本点を用いて路面形状を推定し、Vマップ211上に路面推定線225を設定する。セグメント設定部153によりVマップ211にセグメント227が設定された場合には、着目しているセグメント227内の残存した標本点を用いてセグメント227毎に路面形状を推定し、それらを連結して路面推定線225を設定する。路面形状の推定方法は、特に限定されるべきものではないが、例えば最小二乗法等の統計的手法を用いて標本点群の直線近似を行う方法が適用され得る。また、直線近似に限定することなく、多項式近似等により曲線形状を推定してもよい。形状推定部156は、CPU31、FPGA32等により構成される。
形状推定部156は、推定された路面形状の成否判定を行うことが好ましい。例えば、推定された路面形状について所定の基準により信頼度を算出し、信頼度が一定の基準に満たない路面形状を失敗として処理(再推定の実行等)する。例えば、最小二乗法により直線近似した場合には、相関係数を信頼度として使用することができる。失敗と判定された場合には、代わりとして所定の路面211を補間することが可能である。例えば、平坦路を仮定して事前に計算しておいたデフォルト路面や、過去のフレームから算出された履歴路面を使用する方法が考えられる。また、セグメント227を設定した場合、着目しているセグメント227の1つ前のセグメント227において既に推定された路面形状を延長する方法も考えられる。
形状推定部156は、セグメント227が設定された場合には、セグメント227毎に推定された各路面推定線225を平滑化する処理(スムージング)を行うことが好ましい。スムージングの方法は特に限定されるべきものではないが、例えばあるセグメント227の路面推定線225の終点の座標と、このセグメント227の右側に隣接するセグメント227の路面推定線225の始点の座標とが一致しない場合、両座標が1つの座標を通るように路面推定線225を修正してもよい。スムージングされた路面推定線225を最終的な路面形状を示すものとして扱うことが好ましい。
(高さテーブル生成処理)
高さテーブル生成部157は、推定された路面形状(路面推定線225)に基づいて、視差dと、路面211またはオブジェクト212の高さとの対応関係を示す高さテーブル(高さ情報)を生成する機能部である。高さテーブル生成部157は、CPU31、FPGA32等により構成される。
図11は、Vマップ221および高さテーブル241の例を示す図である。高さテーブル241は、各視差d0,d1,…,dnに対応する高さH0,H1,…,Hnを格納している。例えば、Vマップ221のd座標の範囲が0〜960である場合、高さテーブル241は、H0〜H960の961個の値を格納する。高さH0,H1,…,Hnは、Vマップ221のy軸の始点から路面推定線225までの距離を示している。高さH0,H1,…,Hnの値は、実際の路面211の高さまたはオブジェクト212の高さに対応する。任意の視差dを入力値として高さテーブル241を参照することにより、当該視差dに対応する路面211またはオブジェクト212の高さHを取得することができる。なお、高さテーブル241の構成は、上記に限られるものではない。
路面推定線225が傾きK、切片Bの一次関数で示されるとき、閾値dに対応する高さHは下記式(3)により求められる。
H=K*d+B …(3)
Vマップ221が複数のセグメント227に分割されている場合、セグメント227毎に視差dと高さHとの関係が存在する。従って、参照しようとする視差dが含まれるセグメント227における路面推定線225の傾きKと切片Bとを用いて高さHを算出することができる。
例えば、図8に示すように、路面211上にオブジェクト212が存在する場合、視差画像201内の1つのライン上に複数の視差dが検出される。すなわち、オブジェクト212が存在する部分を通る1つのライン上において、路面211の視差drとオブジェクト212の視差doとが検出される。このような場合に、高さテーブル241において、視差drを入力値とすることにより路面211の高さHrを求めることができ、視差doを入力値とすることによりオブジェクト212の高さHoを求めることができる。また、当該y座標に対応するオブジェクト212の路面211からの高さHは、Ho−Hrにより求めることができる。
(補正処理)
補正部161は、撮像装置11(ステレオカメラ12)のローリングによる影響を打ち消すように、路面211の形状を示す情報の生成に利用される情報を補正する機能部である。路面211の形状を示す情報は、路面推定部103より後段のクラスタリング部104、棄却部105、トラッキング部106、制御部107等において利用される情報である。路面211の形状を示す情報の生成に利用される情報とは、Vマップ221、高さテーブル241、これらを生成するための情報等である。第1の実施形態に係る補正部241は、ローリングによる影響を打ち消すように高さテーブル241を補正する。補正部161は、CPU31、FPGA32等により構成される。
図12は、ステレオカメラ12のローリングが路面推定処理に与える影響を説明するための図である。図13は、図12に示す状況に対応するVマップ221の例を示す図である。例えば、ステレオカメラ12が時計回りにローリングした場合、図12に示すように、前方に存在する他車両であるオブジェクト212は、左上がりに傾いて見えることになる。この場合、視差画像201中の着目ライン271における視差dは、視差群Aと視差群Bとの間で異なってしまう。このような状況で生成されるVマップ221においては、図13に示すように、路面211に対応する視差dがd軸方向に分散する。路面推定処理においては、通常、路面211はオブジェクト212より低い位置に存在することが前提となるため、相対的に低い位置に対応する視差dを用いて路面形状の推定が行われる。従って、図13に示す例では、地点Bに対応する視差dの群を用いて路面形状の推定が行われ、地点Aに対応する視差dの群は、クラスタリング処理の対象となり、オブジェクトとして認識される可能性がある。
上記のようなローリングに起因する問題を解決するために、第1の実施形態に係る補正部161は、ローリングによる影響を打ち消すように高さテーブル241を補正する。図14は、第1の実施形態に係る補正部161の機能的構成の例を示す図である。補正部161は、ローリング情報取得部181、補正量算出部182、および高さ値補正部183を含む。
ローリング情報取得部181は、ステレオカメラ12のロール角を含むローリング情報を取得する機能部である。ローリング情報の取得方法は、特に限定されるべきものではないが、例えばステレオカメラ12の車両10への取り付け時におけるキャブレーションにより測定された情報を利用する方法、近方の視差dの群から最小二乗法により生成した近似直線の傾きからロール角を算出する方法等が適用され得る。
補正量算出部182は、ローリング情報に基づいてローリング補正量を算出する機能部である。本実施形態に係るローリング補正量は、ステレオカメラ12のローリングに起因する、推定された路面形状の実路面に対するずれを打ち消すように算出された値である。ローリング補正量は、ローリングによる影響を打ち消すために、高さテーブル241に格納された高さH(H0,H1,…,Hn)の値に加減算される。本実施形態に係るローリング補正量は、第1の補正量および第2の補正量を含む。
図15は、ローリング補正量により推定路面の補正を行った場合の視差画像201の例を示す図である。図15中、左側の図は補正前の視差画像201Aを示し、右側の図は補正後の視差画像201Bを示している。
補正前の視差画像201Aにおいて、実路面251および補正前推定路面252が示されている。実路面251は、ローリングしたステレオカメラ12により撮像された路面211に対応する領域を示している。本例は、水平な路面211を反時計回りにローリングしたステレオカメラ12で撮像した場合を示している。補正前推定路面252は、実路面251の視差dに基づいて上記形状推定処理により推定された路面を示している。
補正後の視差画像201Bにおいて、実路面251、補正前推定路面252、第1の補正後推定路面261、および第2の補正後推定路面262が示されている。第1の補正後推定路面261は、第1の補正量により高さテーブル241を補正した後の推定路面を示している。第2の補正後推定路面262は、第1の補正量および第2の補正量により高さテーブル241を補正した後の推定路面を示している。
補正前推定路面252は、実路面251の両端部のうち下方に位置する端部(図15に示す例では左端部)から水平に伸びた形状となっている。これは、上述したように、路面形状の推定は、Vマップ221においてより低い位置に対応する視差dを用いて行われるからである(図13等参照)。このように不適切に推定された補正前推定路面252は、最終的には実路面251に重なるように、すなわち第2の補正後推定路面262のように補正される必要がある。
本実施形態においては、補正前推定路面252は、先ず第1の補正量により第1の補正後推定路面261に補正される。第1の補正後推定路面261の角度は、実路面251の角度と一致(略一致)している。第1の補正量は、補正前推定路面252を実路面251の角度と一致するように回転させるために、高さテーブル241の各高さH0,H1,…,Hnに加減算される値である。第1の補正量の算出方法は、特に限定されるべきものではないが、例えば第1の補正量をεx、ステレオカメラ12のロール角をθ、視差画像201中の着目x座標をx、路面211の消失点をfoe_xとするとき、下記式(4)により算出される。
εx=tanθ*(x−foe_x) …(4)
foe_xは、ステレオカメラ12が回転する基準点を示しており、ステレオカメラ12が左右にヨーイングしていない場合、視差画像201の中心のx座標と消失点のx座標とが一致する。式(4)に示すように、foe_xを減算することで、回転の基準点を原点(x=0)からfoe_xの位置に移動させている。なお、foe_xは、回転の基準点の一例であり、より好適な他の点を代わりに用いてもよい。上記のように算出される第1の補正量εxを高さテーブル241の各高さH0,H1,…,Hnに加減算することにより、補正前推定路面252を実路面251と角度が一致する第1の補正後推定路面261に補正することができる。このとき、補正前推定路面252は、基準軸255との交点を基点に回転する。
第1の補正後推定路面261は、次いで第2の補正量により第2の補正後推定路面262に補正される。第2の補正後推定路面262は、実路面251と角度が一致していると共に、y軸上の位置が一致(略一致)している。第2の補正量は、第1の補正後推定路面261をy軸方向に平行移動させるために、高さテーブル241の各高さH0,H1,…,Hnに加減算される値である。第2の補正量の算出方法は、特に限定されるべきものではないが、例えば第2の補正量をδ、ロール角をθ、路面211の幅をroad_widthとするとき、下記式(5)により算出される。
δ=abs(tanθ*(road_width/2)) …(5)
absは絶対値を表す。road_widthは、例えば一車線幅を表す3500[mm]等の値であり得る。road_widthの値は、図10に示す投票領域231〜233の幅に対応させてもよい。路面211の形状推定処理は、投票領域231〜233内の視差dに限定して処理することができるため、ローリングにより傾く路面211の視差dの横幅は、投票領域231〜233の幅と一致する。式(5)では、foe_xを中心としているため、road_widthを半値に変換し、この半値にロール角θのtan値を乗算した値が第2の補正量δとなる。なお、第2の補正量δは、幅から決定されるためx座標の位置に依存しない。
以下に、補正前の高さテーブル241、すなわち補正前推定路面252から作成した高さテーブル241の各高さH0,H1,…,Hnを参照する際に抽出された参照値を、第1の補正量および第2の補正量を用いて補正する例を示す。視差dに対応する補正後の路面211の高さをHd’、視差dに対応する補正前の路面211の高さ(補正前の高さテーブル241から抽出された参照値)をHd、第1の補正量をεx、第2の補正量をδとするとき、下記式(6)の関係が成り立つ。
Hd’=Hd−εx−δ …(6)
なお、本実施形態においては、高さテーブル241に格納されている高さH0,H1,…,Hnは、左上を原点とするVマップ221により算出されるため、第1の補正量εxおよび第2の補正量δは減算値として使用されるが、例えば左下を原点とするVマップを使用する場合には、両補正量εx,δは加算値として使用される。なお、路面211の高さを算出する際には、Hd’から路面推定線225のy軸上の値を減算すればよい。なお、第2の補正量δは、実距離であることから、他のパラメータと単位を合わせる必要がある。これは式(1)および式(2)に基づいてroad_widthの単位系を実距離からピクセルに変換しておけばよい。
以上により、補正前推定路面252から作成した高さテーブル241から抽出した参照値を、第2の補正後推定路面262から作成した高さテーブル241の値と同等に扱うことができる。なお、上記においては、高さテーブル241を参照する際に、参照値に対して補正量を加減算する方法を示したが、事前に高さテーブル241の値を式(6)により補正しておいてもよい。この場合、高さテーブル241を、dおよびxの組み合わせで補正後の路面211の高さHを参照できる二次元テーブルとしてもよい。
なお、上記においては、第1の補正量εxおよび第2の補正量δをx座標毎に算出しているが、細かく算出する必要が無い場合には、比較的粗い所定の分解能で算出してもよい。例えば、横幅が1000の視差画像201を分解能10で処理した場合、各補正量εx,δを100種類算出し、各区間に含まれる全てのx座標に共通の補正量εx,δを適用してもよい。このときの第1の補正量εxを算出するx座標は、当該分解能における所定のx座標を使用することができる。例えば、分解能10であり、1つ目の区間の第1の補正量εxは、x=1〜10のいずれかの値で算出することができる。また、座標xは、所定の範囲に対して算出してもよい。例えば、投票領域231〜233に含まれないx座標の範囲に関しては、補正量εx,δを算出しておく必要がない。このように、補正量εx,δを算出するx座標は、任意に設定され得るものである。
また、上記においては、消失点のx座標を中心として補正する方法について説明したが、路面211の横幅が既知である場合、補正前推定路面252の端点を基準点として、第1の補正量εxによる回転補正を行ってもよい。例えば、図15に示すような場合には、補正前推定路面252の左端を基準点として第1の補正量εxによる回転補正を行うことにより、第2の補正量δによる平行移動補正を不要にすることができる。
図16は、第1の実施形態に係る路面推定部103による処理の流れの例を示すフローチャートである。先ず、視差情報入力部151は、視差情報から生成された視差画像201(視差画像データ)を読み込む(ステップS101)。その後、Vマップ生成部152は、視差画像201からVマップ221を生成する(ステップS102)。このとき、視差画像201中の視差dがVマップ221上に投票される。その後、標本点設定部154は、Vマップ221上に投票された視差群の中から標本点を設定する(ステップS103)。標本点の設定は、Vマップ221にセグメント227を設定する場合には、セグメント227毎に行われてもよい。その後、複数の標本点からなる標本点群の分布状態に基づいて路面211の形状を推定する(ステップS104)。このとき、路面形状を推定する前に、標本点群から所定の基準に基づいて外れ点を検出し、外れ点を除去する処理を行ってもよい。その後、補正部161は、ローリングによる影響を打ち消すためのローリング補正量を算出する(ステップS105)。その後、高さテーブル生成部157は、推定された路面形状上の値にローリング補正量を加減算して高さテーブル241の高さの値を決定する(ステップS106)。このとき、高さテーブル241の高さの値を参照する際にローリング補正量を加減算してもよいし、予めローリング補正量を加減算した値を高さテーブル241に格納してもよい。
上記第1の実施形態によれば、ロール角θに合わせて高さテーブル241の高さH0,H1,…,Hnが補正される。すなわち、Vマップ221に基づいて路面211の形状が推定された後に、ローリングによる影響を打ち消す補正処理が行われる。これにより、勾配変化がある路面211上でローリングが発生した場合であっても、路面211を水平と捉えることができるので、路面211の形状を高精度で推定することが可能となる。
以下に、第2の実施形態について図面を参照して説明するが、第1の実施形態と同一または同様の作用効果を奏する箇所については同一の符号を付してその説明を省略する場合がある。
(第2の実施形態)
図17は、第2の実施形態に係る路面推定部303の機能的構成の例を示す図である。第2の実施形態に係る路面推定部303は、第1の実施形態に係る路面推定部103に対応する機能部であり、Vマップ221等を利用して路面211の形状を推定する。第2の実施形態に係る路面推定部303は、第1の実施形態に係る路面推定部103と同様に、ステレオカメラ12のローリングによる影響を打ち消すように、路面211の形状を示す情報を生成するために利用される情報を補正する補正部361を含む。
第2の実施形態に係る補正部361は、ローリングによる影響を打ち消すようにVマップ221を補正する。Vマップ221の補正方法は、特に限定されるべきものではないが、例えば視差画像201からVマップ221に投票されるデータをローリング情報に応じて補正する。第1の実施形態において説明したように、ステレオカメラ12がローリングする場合、視差画像201のあるライン上の視差dは、本来異なるライン上で抽出されるはずであった視差dを含むことになる。そのため、視差画像201中の各視差dをそのままVマップ221のライン上に投票すると、投票された視差dの分布領域が横方向に分散してしまう(図13等参照)。第2の実施形態に係る補正部361は、このようなVマップ221作成時における問題を解決するものである。
ロール角θが既知である場合、ロール角θに合わせて視差dを抽出した座標を回転変換することにより、本来投票されるべきであったy座標を求めることができる。図18は、補正前におけるVマップ221への投票の状態の例を示す図である。図19は、補正後におけるVマップ221への投票の状態の例を示す図である。図18に示す視差画像201において、反時計回りにローリングしたステレオカメラ12により撮像された路面211に対応する視差群373が示されている。ここでは視差群373に含まれる視差1および視差2に着目する。ローリングによって視差群373が回転すると、図18の右側の図に示すように、視差1および視差2は、異なる投票ライン381,382上の視差としてVマップ221に投票される。
上記のような投票時における問題を解決するために、補正部361は、先ず視差群373を回転させる際の基準点375を設定する。基準点375の設定方法は、特に限定されるべきものではないが、例えば視差画像201の中心点、路面211の消失点等を基準点375とすることができる。補正部361は、次いで基準点375を回転軸として視差群373を構成する各視差dを回転させ、各視差dの補正後の投票位置(Vマップ221のy座標)を決定する。補正後の視差dのVマップ221上の投票位置をy’、補正前の視差dの視差画像201中のx座標をx、補正前の視差dの視差画像201中のy座標をy、ロール角をθとするとき、下記式(7)が成り立つ。
y’=xsinθ+ycosθ …(7)
図19の左側の図において、上記のように決定された補正後の投票位置を反映させた補正後の視差群388が示されている。補正後の視差群388を構成する全ての視差dは、1つのy座標(y’)を通るライン上に位置している。これにより、図19の右側の図に示すように、補正後の視差群388からVマップ221に投票される全ての視差dは、Vマップ221の1つの投票ライン385上に投票される。
図20は、第2の実施形態に係る路面推定部303による処理の流れの例を示すフローチャートである。先ず、視差情報入力部151は、視差情報から生成された視差画像201(視差画像データ)を読み込む(ステップS101)。その後、補正部361は、ロール角θに合わせて視差画像201を回転させる(視差画像201内の各視差dの投票位置をロール角θに合わせて補正する)(S201)。その後、Vマップ生成部152は、回転後の視差画像201からVマップ221を生成する(S202)。このとき、視差画像201中の各視差dは、Vマップ221上の変換後の位置に投票される。その後、標本点設定部154は、Vマップ221上に投票された視差群の中から標本点を設定する(S103)。標本点の設定は、Vマップ221にセグメント227を設定する場合には、セグメント227毎に行われてもよい。その後、複数の標本点からなる標本点群の分布状態に基づいて路面211の形状を推定する(S104)。このとき、路面形状を推定する前に、標本点群から所定の基準に基づいて外れ点を検出し、外れ点を除去する処理を行ってもよい。その後、高さテーブル生成部357は、推定された路面形状上の値から高さテーブル241の高さの値を決定する(S203)。
上記第2の実施形態によれば、ロール角θに合わせて視差画像201内の各視差dの投票位置が補正され、補正後の視差dに基づいてVマップ221が生成される。すなわち、ローリングの影響を打ち消す補正処理が施されたVマップ221に基づいて路面211の形状が推定される。これにより、勾配変化がある路面211上でローリングが発生した場合であっても、路面211を水平と捉えることができるので、路面211の形状を高精度で推定することが可能となる。
なお、上記各実施形態においては、車両10と物体(路面211およびオブジェクト212)との間の距離を示す距離情報として視差dを利用する例を示したが、距離情報は視差に限られるものではなく、例えばミリ波レーダ、レーザレーダ等を利用して取得される情報等であってもよい。従って、上記視差画像201は、距離を示す距離画像の一例である。視差以外の距離情報を用いた場合には、その距離情報に応じた距離画像を利用してもよい。
また、上記各実施形態においては、車両10としての自動車に搭載される機器制御システム1について説明したが、本発明はこれに限定されるものではない。例えば、バイク、自転車、車椅子、農業用の耕運機等の車両に搭載されるものとしてもよい。また、機器は、車両だけでなく、ロボット等の移動体であってもよい。
また、上記各実施形態において、機器制御システム1の各機能部の少なくとも一部がプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、プログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっていてもよい。
1 機器制御システム
10 車両
11 撮像装置
15 左側視界
16 右側視界
17 進行方向
51 車両ECU(機器制御部)
12 ステレオカメラ(距離情報取得ユニット)
13 画像解析ユニット(情報処理装置)
21a 第1のカメラ部
21b 第2のカメラ部
22 レンズ
23 画像センサ
24 センサコントローラ
31 CPU
32 FPGA
33 ROM
34 RAM
35 シリアルIF
36 データIF
41 データバスライン
42 シリアルバスライン
101 撮像部
102 視差計算部
103,303 路面推定部
104 クラスタリング部
105 棄却部
106 トラッキング部
107 制御部
151 視差情報入力部
152,352 Vマップ生成部
153 セグメント設定部
154 標本点設定部
155 外れ点除去部
156 形状推定部
157,357 高さテーブル生成部
161,361 補正部
171,212 オブジェクト
175 撮像面
181 ローリング情報取得部
182 補正量算出部
183 高さ値補正部
201,201A,201B 視差画像
211 路面
221 Vマップ(頻度情報)
223,224 分布領域
225 路面推定線
227 セグメント
231〜233 投票領域
241 高さテーブル
251 実路面
252 補正前推定路面
255 基準軸
271 着目ライン
373 視差群
375 基準点
381,382,385 投票ライン
θ ロール角
特開2001−091217号公報

Claims (8)

  1. 距離情報を含む距離画像を示す距離画像データを取得する取得部と、
    前記距離画像データに基づいて、前記距離情報を前記距離画像の各画素の座標に対応する位置に投票することにより、前記距離画像の前記座標毎の前記距離情報の頻度を示すVマップを生成する第1の生成部と、
    前記Vマップに基づいて路面形状を推定する推定部と、
    推定された前記路面形状である路面推定線に基づいて、前記距離情報と路面の高さとの対応関係を示す高さテーブルを生成する第2の生成部と、
    前記距離情報を取得する距離情報取得ユニットのローリングに関するローリング情報に基づいて、前記ローリングによる影響を打ち消すように、前記路面推定線を示す情報の生成に利用される前記高さテーブルを補正する補正部と、
    を備え、
    前記補正部は、前記ローリングに起因する、前記路面推定線の実路面に対するずれを打ち消すように算出されたローリング補正量を前記高さテーブルに含まれる前記高さに加減算する、
    情報処理装置。
  2. 前記ローリング補正量は、推定された前記路面推定線をその傾きが実路面の傾きと一致するように回転させるための第1の補正量と、推定された前記路面形状をその座標が実路面の座標と一致するように平行移動させるための第2の補正量とを含む、
    請求項1に記載の情報処理装置。
  3. 前記補正部は、前記高さテーブルから所定の前記高さを抽出して参照する際に、前記ローリング補正量の加減算を行う、
    請求項1または2に記載の情報処理装置。
  4. 前記距離情報取得ユニットは、ステレオカメラであり、
    前記距離情報は、視差であり、
    前記距離画像は、視差画像であり、
    前記距離画像データは、前記視差画像を示す視差画像データである、
    請求項1〜のいずれか1項に記載の情報処理装置。
  5. 前記距離画像データを生成するステレオカメラと、
    請求項1〜のいずれか1項に記載の情報処理装置と、
    を備える撮像装置。
  6. 請求項1〜のいずれか1項に記載の情報処理装置と、
    前記路面形状を示す情報に基づいて機器の動作を制御する機器制御部と、
    を備える機器制御システム。
  7. 距離情報を含む距離画像を示す距離画像データを取得するステップと、
    前記距離画像データに基づいて、前記距離情報を前記距離画像の各画素の座標に対応する位置に投票することにより、前記距離画像の前記座標毎の前記距離情報の頻度を示すVマップを生成するステップと、
    前記Vマップに基づいて路面形状を推定するステップと、
    推定された前記路面形状である路面推定線に基づいて、前記距離情報と路面の高さとの対応関係を示す高さテーブルを生成するステップと、
    前記距離情報を取得する距離情報取得ユニットのローリングに関するローリング情報に基づいて、前記ローリングによる影響を打ち消すように、前記路面推定線を示す情報の生成に利用される前記高さテーブルを補正するステップと、
    を含み、
    前記補正するステップは、前記ローリングに起因する、前記路面推定線の実路面に対するずれを打ち消すように算出されたローリング補正量を前記高さテーブルに含まれる前記高さに加減算する、
    情報処理方法。
  8. コンピュータに、
    距離情報を含む距離画像を示す距離画像データを取得する処理と、
    前記距離画像データに基づいて、前記距離情報を前記距離画像の各画素の座標に対応する位置に投票することにより、前記距離画像の前記座標毎の前記距離情報の頻度を示すVマップを生成する処理と、
    前記Vマップに基づいて路面形状を推定する処理と、
    推定された前記路面形状である路面推定線に基づいて、前記距離情報と路面の高さとの対応関係を示す高さテーブルを生成する処理と、
    前記距離情報を取得する距離情報取得ユニットのローリングに関するローリング情報に基づいて、前記ローリングによる影響を打ち消すように、前記路面推定線を示す情報の生成に利用される前記高さテーブルを補正する処理と、
    を実行させ、
    前記補正する処理は、前記ローリングに起因する、前記路面推定線の実路面に対するずれを打ち消すように算出されたローリング補正量を前記高さテーブルに含まれる前記高さに加減算する、
    るプログラム。
JP2016233088A 2016-11-30 2016-11-30 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム Active JP6950170B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016233088A JP6950170B2 (ja) 2016-11-30 2016-11-30 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
MYPI2019002786A MY196676A (en) 2016-11-30 2017-09-13 Information Processing Device, Imaging Device, Apparatus Control System, Information Processing Method, and Computer Program Product
US16/347,959 US10762656B2 (en) 2016-11-30 2017-09-13 Information processing device, imaging device, apparatus control system, information processing method, and computer program product
EP17778368.5A EP3549055B1 (en) 2016-11-30 2017-09-13 Information processing device, imaging device, apparatus control system, information processing method, and computer program product
CN201780073566.9A CN110023951B (zh) 2016-11-30 2017-09-13 信息处理设备、成像设备、装置控制系统、信息处理方法和计算机可读记录介质
PCT/JP2017/033052 WO2018100839A1 (en) 2016-11-30 2017-09-13 Information processing device, imaging device, apparatus control system, information processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016233088A JP6950170B2 (ja) 2016-11-30 2016-11-30 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018091652A JP2018091652A (ja) 2018-06-14
JP6950170B2 true JP6950170B2 (ja) 2021-10-13

Family

ID=60009682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016233088A Active JP6950170B2 (ja) 2016-11-30 2016-11-30 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム

Country Status (6)

Country Link
US (1) US10762656B2 (ja)
EP (1) EP3549055B1 (ja)
JP (1) JP6950170B2 (ja)
CN (1) CN110023951B (ja)
MY (1) MY196676A (ja)
WO (1) WO2018100839A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
EP3435333B1 (en) * 2017-07-26 2020-01-29 Aptiv Technologies Limited Method of determining the roll angle of a vehicle mounted camera
JP7133378B2 (ja) * 2018-07-17 2022-09-08 株式会社Soken 距離画像生成装置
JP7187875B2 (ja) * 2018-08-06 2022-12-13 株式会社リコー 情報処理装置、システム、移動体、情報処理方法およびプログラム
JP7134780B2 (ja) * 2018-08-13 2022-09-12 日立Astemo株式会社 ステレオカメラ装置
JP7056496B2 (ja) * 2018-10-03 2022-04-19 株式会社豊田自動織機 位置検出装置
CN111062911B (zh) * 2019-11-15 2023-08-18 北京中科慧眼科技有限公司 基于路面信息的成像环境评价方法、装置、系统和存储介质
CN113094453B (zh) * 2019-12-23 2023-09-29 百度在线网络技术(北京)有限公司 护栏构建方法、装置、设备和介质
CN115943287A (zh) * 2020-09-16 2023-04-07 日立安斯泰莫株式会社 车辆姿态推断系统及车辆姿态推断方法
DE102021107904A1 (de) * 2021-03-29 2022-09-29 Conti Temic Microelectronic Gmbh Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz
GB2624483A (en) * 2022-11-11 2024-05-22 Continental Autonomous Mobility Germany GmbH Image processing method and method for predicting collisions

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JP3346189B2 (ja) * 1996-10-24 2002-11-18 トヨタ自動車株式会社 車両運動量検出装置
JP3995846B2 (ja) 1999-09-24 2007-10-24 本田技研工業株式会社 物体認識装置
US20010031068A1 (en) * 2000-04-14 2001-10-18 Akihiro Ohta Target detection system using radar and image processing
JP4172684B2 (ja) * 2002-04-12 2008-10-29 富士重工業株式会社 画像補正装置および画像補正方法
JP2008309519A (ja) * 2007-06-12 2008-12-25 Panasonic Corp 画像処理を用いた物体検出装置
EP2517175A4 (en) 2009-12-25 2018-01-10 Ricoh Company, Ltd. Object identifying apparatus, moving body control apparatus, and information providing apparatus
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP5761601B2 (ja) 2010-07-01 2015-08-12 株式会社リコー 物体識別装置
EP2439716B1 (en) 2010-09-16 2013-11-13 Ricoh Company, Ltd. Object identification device, moving object controlling apparatus having object identification device and information presenting apparatus having object identification device
JP5867807B2 (ja) 2010-12-08 2016-02-24 株式会社リコー 車両識別装置
CN102625120B (zh) * 2011-01-31 2016-01-20 索尼公司 图像处理设备和方法
JP5950196B2 (ja) 2011-08-30 2016-07-13 株式会社リコー 撮像装置、並びに、これを用いる画像解析装置及び移動装置
JP5995140B2 (ja) 2012-01-19 2016-09-21 株式会社リコー 撮像装置及びこれを備えた車両システム並びに画像処理方法
JP5773944B2 (ja) * 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2014131257A (ja) * 2012-11-27 2014-07-10 Ricoh Co Ltd 画像補正システム、画像補正方法及びプログラム
JP2014182118A (ja) * 2013-03-21 2014-09-29 Toyota Motor Corp 車載ステレオカメラの光軸のピッチ角推定方法
JP6398347B2 (ja) 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP6151150B2 (ja) * 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
JP6519262B2 (ja) * 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP2015232869A (ja) 2014-05-16 2015-12-24 株式会社リコー 画像処理装置、画像処理方法及び画像処理プログラム
JP6550881B2 (ja) * 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US20160019429A1 (en) * 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
JP6440411B2 (ja) * 2014-08-26 2018-12-19 日立オートモティブシステムズ株式会社 物体検出装置
US9726604B2 (en) * 2014-11-12 2017-08-08 Ricoh Company, Ltd. Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices
US9794543B2 (en) * 2015-03-02 2017-10-17 Ricoh Company, Ltd. Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
JP6733225B2 (ja) 2016-03-08 2020-07-29 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
SG10201601835YA (en) 2016-03-09 2017-10-30 Mastercard International Inc Method and apparatus for tracking payments
EP3432291A4 (en) * 2016-03-15 2019-03-27 Ricoh Company, Ltd. Image Processing Device, Object Recognition Device, Device Control System, Image Processing Method and Program
EP3432260B1 (en) 2016-03-18 2023-10-18 Ricoh Company, Ltd. Image processing device, moving body equipment control system, image processing program, and image processing method
JP6907513B2 (ja) 2016-11-25 2021-07-21 株式会社リコー 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
JP2018092596A (ja) * 2016-11-30 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
EP3549055B1 (en) 2023-06-28
CN110023951A (zh) 2019-07-16
JP2018091652A (ja) 2018-06-14
EP3549055A1 (en) 2019-10-09
US20190279386A1 (en) 2019-09-12
MY196676A (en) 2023-04-29
US10762656B2 (en) 2020-09-01
WO2018100839A1 (en) 2018-06-07
CN110023951B (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
JP6950170B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
US10719949B2 (en) Method and apparatus for monitoring region around vehicle
JP6592991B2 (ja) 物体検出装置、物体検出方法及びプログラム
WO2017154389A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN107787496B (zh) 消失点修正装置及方法
JP6907513B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
JP6493000B2 (ja) 路面標示検出装置及び路面標示検出方法
JP6711128B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6564127B2 (ja) 自動車用視覚システム及び視覚システムを制御する方法
JP2011033594A (ja) 車両用距離算出装置
JP6992356B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program
JP6844223B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
CN112513573B (zh) 立体摄像机装置
JP6969245B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
EP3540643A1 (en) Image processing apparatus and image processing method
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method
JP5129094B2 (ja) 車両周辺監視装置
JP6334773B2 (ja) ステレオカメラ
JP6943092B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP6828332B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
EP3789908A1 (en) Mono vision system and method for a motor vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R151 Written notification of patent or utility model registration

Ref document number: 6950170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151