JPWO2017158964A1 - 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法 - Google Patents

画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法 Download PDF

Info

Publication number
JPWO2017158964A1
JPWO2017158964A1 JP2018505257A JP2018505257A JPWO2017158964A1 JP WO2017158964 A1 JPWO2017158964 A1 JP WO2017158964A1 JP 2018505257 A JP2018505257 A JP 2018505257A JP 2018505257 A JP2018505257 A JP 2018505257A JP WO2017158964 A1 JPWO2017158964 A1 JP WO2017158964A1
Authority
JP
Japan
Prior art keywords
distance
information
image processing
section
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018505257A
Other languages
English (en)
Other versions
JP6665925B2 (ja
Inventor
信一 住吉
信一 住吉
直樹 本橋
直樹 本橋
山合 敏文
敏文 山合
高橋 禎郎
禎郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JPWO2017158964A1 publication Critical patent/JPWO2017158964A1/ja
Application granted granted Critical
Publication of JP6665925B2 publication Critical patent/JP6665925B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

距離画像情報に基づいて移動体移動方向前方における移動面の情報を取得する画像処理を実行する画像処理装置において、撮像画像を上下方向に複数分割して得られる各行領域内における距離値の頻度分布を示す距離ヒストグラム情報を生成する手段と、距離ヒストグラム情報を距離値に応じて区分けして得られる複数の区画ごとに、所定の頻度閾値を超える頻度をもった距離値の中から移動面の距離値が示す特徴に合致した一群の距離値を抽出し、抽出された一群の距離値が所定のエラー条件を満たさない区画については、該一群の距離値を用いて移動面の情報を生成する処理を行い、所定のエラー条件を満たす区画については、該一群の距離値を用いずに直線補間処理等の所定のエラー処理を実行する手段とを有する。

Description

本発明は、画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法に関するものである。
従来、路面上を移動する自動車の前方領域(撮像領域)をステレオカメラによって撮像して距離画像情報を生成し、その距離画像情報に基づいて路面情報を取得する画像処理装置が知られている。
例えば、特許文献1には、自動車等の移動体前方についての視差画像情報から、撮像画像を上下方向に複数分割して得られる各行領域内における視差値の頻度分布を示す視差ヒストグラム情報(Vマップ情報)を生成し、これを用いて路面等の移動面の情報を取得する画像処理装置が開示されている。この画像処理装置では、視差ヒストグラム情報に基づき、視差値ごとの最大頻度をもつ等の移動面の特徴に合致した画素(Vマップ上の画素)を移動面候補点として抽出し、抽出した移動面候補点を直線近似する直線近似処理を行う。このとき、視差ヒストグラム情報を視差値に応じて3つの区画に区分けし、視差値の大きな区画(実際の距離が移動体に近い区画)から順に、区画ごとに直線近似処理を行う。
特許文献1に開示の画像処理装置では、ある区画において、抽出された移動面候補点の数が所定値以下である場合には、移動面候補点の数が所定値を超えるまでその区画の視差値範囲を拡大することにより、移動面に対応する適切な近似直線を得る。また、ある区画において、得られた近似直線の傾きと切片が所定の範囲から外れている場合も、近似直線の傾きと切片が所定の範囲内となるまでその区画の視差値範囲を拡大することにより、移動面に対応する適切な近似直線を得る。
また、特許文献1に開示の画像処理装置では、得られた各区画の近似直線がその境界部分で互いに連続するように、当該区画よりも視差値が大きい側に隣接する区画の近似直線の終端に当該区画の近似直線の始端を一致させる修正処理を行う。あるいは、互いに隣接する2つの区画の境界部分における両区画の近似直線の端点間の中点を通るように、両区画の近似直線を修正する修正処理を行う。
一般に、移動体が移動する移動面の各地点までの距離や各地点の高さなどの移動面情報は、これを利用する後段処理(移動体の移動方向に存在する物体を検出する物体検出処理など)において、非常に有益な情報である。ところが、精度の悪い移動面情報がそのまま後段処理で利用されてしまうと、その後段処理において適切な処理を実行できないという問題が生じる。特許文献1に記載の画像処理装置においては、抽出された移動面候補点の数が所定値以下である場合や、得られた近似直線の傾きと切片が所定の範囲から外れている場合などのエラー条件を満たすとき、その区画の視差値範囲を拡大したり、近似直線の修正処理を行ったりする。しかしながら、特許文献1に記載の画像処理装置では、エラー条件を満たす場合であっても、その区画で抽出された移動面候補点を継続して用いるため、抽出された移動面候補点の誤りが多い場合などの特定の条件下では、移動面に対応する適切な近似直線が得られず、精度の悪い移動面情報が後段処理で利用されてしまう場合がある。
なお、この課題は、複数の撮像手段により得られる複数の撮像画像から生成された視差画像情報に基づいて移動面情報を取得する場合に限らず、広く、移動体移動方向前方の距離画像情報に基づいて移動面情報を取得する場合には、同様に生じ得る。
上述した課題を解決するために、本発明は、移動体移動方向前方の距離画像情報に基づいて、移動体移動方向前方における移動面の情報を取得する画像処理を実行する画像処理装置において、前記距離画像情報に基づいて、撮像画像を上下方向に複数分割して得られる各行領域内における距離値の頻度分布を示す距離ヒストグラム情報を生成する距離ヒストグラム情報生成手段と、前記距離ヒストグラム情報を距離値に応じて区分けして得られる複数の区画ごとに、所定の頻度閾値を超える頻度をもった距離値の中から移動面の距離値が示す特徴に合致した一群の距離値を抽出し、抽出された一群の距離値が所定のエラー条件を満たさない区画については、該一群の距離値を用いて移動面の情報を生成する処理を行い、抽出された一群の距離値が所定のエラー条件を満たす区画については、該一群の距離値を用いずに所定のエラー処理を実行する移動面情報処理手段とを有することを特徴とする。
本発明によれば、精度の悪い移動面情報が後段処理で利用されてしまう事態を抑制可能となるという優れた効果が奏される。
図1は、実施形態における車載機器制御システムの概略構成を示す模式図である。 図2は、同車載機器制御システムを構成する撮像ユニットの概略構成を示す模式図である。 図3は、図2における画像処理基板および画像解析ユニットで実現される物体検出処理を説明するための処理ブロック図である。 図4Aは、視差画像の視差値分布の一例を示す説明図である。 図4Bは、図4Aの視差画像の行ごとの視差値頻度分布を示す視差分布マップ(Vマップ)を示す説明図である。 図5は、一方の撮像部で撮像される基準画像の一例を模式的に表した画像例である。 図6は、図5の画像例に対応するVマップを示す説明図である。 図7は、実施形態における抽出条件を説明するためのVマップを示す説明図である。 図8は、実施形態における路面候補点検出処理の流れを示すフローチャートである。 図9は、Vマップを視差値に応じて7つの区画に区分けした例を示す説明図である。 図10は、実施形態における区分直線近似処理の流れを示すフローチャートである。 図11は、エラー条件1を説明するためのVマップの一部を示す説明図である。 図12は、エラー条件2を説明するためのVマップの一部を示す説明図である。 図13は、エラー条件3を説明するためのVマップの一部を示す説明図である。 図14は、エラー条件4を説明するためのVマップの一部を示す説明図である。 図15は、エラー条件5を説明するためのVマップの第二区画を示す説明図である。
以下、本発明に係る画像処理装置を、移動体機器制御システムである車載機器制御システムにおける物体検出装置に適用した一実施形態について説明する。
図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。本車載機器制御システムは、移動体である自動車などの自車両100に搭載された撮像ユニット101で撮像した自車両進行方向前方領域(撮像領域)の撮像画像データから検出対象物を検出し、その検知結果を利用して各種車載機器の制御を行う。
本実施形態の車載機器制御システムには、走行する自車両100の進行方向前方領域を撮像領域として撮像する撮像ユニット101が設けられている。この撮像ユニット101は、例えば、自車両100のフロントガラス105のルームミラー付近に設置される。撮像ユニット101の撮像によって得られる撮像画像データ等の各種データは、画像解析ユニット102に入力される。画像解析ユニット102は、撮像ユニット101から送信されてくるデータを解析して、撮像領域内に存在する他車両等の検出対象物を検出する。
画像解析ユニット102の検出結果は、車両走行制御ユニット106に送られる。車両走行制御ユニット106は、画像解析ユニット102が検出した検出結果に基づいて、自車両100の運転者へ表示モニタ103を用いて警告を報知したり、自車両100のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。
図2は、撮像ユニット101の概略構成を示す模式図である。撮像ユニット101は、撮像手段としての2つの撮像部110A,110Bを備えたステレオカメラを備えており、2つの撮像部110A,110Bは同一のものである。各撮像部110A,110Bは、それぞれ、撮像レンズ111A,111Bと、受光素子が二次元配置された画像センサ113A,113Bと、画像センサコントローラ115A,115Bとから構成されている。画像センサコントローラ115A,115Bは、画像センサ113A,113Bの露光制御、画像読み出し制御、外部回路との通信、画像データの送信等の役割を担う。画像センサコントローラ115A,115Bからは、画像センサ113A,113Bから出力されるアナログ電気信号(画像センサ上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データ(輝度画像データ)が出力される。
また、撮像ユニット101は、2つの撮像部110A,110Bに対してデータバス及びシリアルバスで接続された画像処理基板120を備えている。画像処理基板120には、CPU(Central Processing Unit)、RAM、ROM、FPGA(Field‐Programmable Gate Array)、シリアルIF(インターフェース)、データIFなどが設けられている。画像処理基板120のデータバスは、2つの撮像部110A,110Bから出力される輝度画像データを画像処理基板120上のRAMに転送する。画像処理基板120のシリアルバスは、CPUやFPGAからのセンサ露光制御値の変更命令、画像読み出しパラメータの変更命令、各種設定データなどの送受信を行う。画像処理基板120のFPGAは、RAMに保存された画像データに対してリアルタイム性が要求される処理、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像データを生成し、RAMに書き戻す。CPUは、路面形状検出処理、オブジェクト検出処理等を実行するためのプログラムをROMからロードし、RAMに蓄えられた輝度画像データや視差画像データを入力して、各種処理を実行する。検出された各種データは、データIFやシリアルIFから外部へ出力される。各種処理の実行に際しては、データIFを利用して、適宜、車両の情報(車速、加速度、舵角、ヨーレートなど)を入力し、各種処理のパラメータとして使用する。
次に、本実施形態における物体検出処理について説明する。図3は、主に画像処理基板120上のCPUがプログラムを実行することによってあるいはFPGAによって実現される物体検出処理を説明するための処理ブロック図である。ステレオカメラを構成する2つの撮像部110A,110Bからは輝度画像データが出力される。このとき、撮像部110A,110Bがカラーの場合には、そのRGB信号から輝度信号(Y)を得るカラー輝度変換を、例えば下記の式(1)を用いて行う。
Y = 0.3R + 0.59G + 0.11B ・・・(1)
輝度画像データが入力されると、まず、平行化画像生成部131で平行化画像生成処理を実行する。この平行化画像生成処理は、撮像部110A,110Bにおける光学系の歪みや左右の撮像部110A,110Bの相対的な位置関係から、各撮像部110A,110Bから出力される輝度画像データ(基準画像と比較画像)を、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する。
このようにして平行化画像処理を行った後、次に、FPGA等で構成される視差画像生成部132において、視差画像データ(距離画像情報)を生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つの撮像部110A,110Bのうちの一方の撮像部110Aの輝度画像データを基準画像データとし、他方の撮像部110Bの輝度画像データを比較画像データとし、これらを用いて両者の視差を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データ上の各画像部分について算出される視差値(距離値)dに応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。
具体的には、視差画像生成部132は、基準画像データのある行について、一の注目画素を中心とした複数画素(例えば16画素×1画素)からなるブロックを定義する。一方、比較画像データにおける同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(x方向)へずらし、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。そして、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。
マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値(輝度値)を用いることができ、相関値としては、例えば、基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があると言える。
視差画像生成部132でのマッチング処理をハードウェア処理によって実現する場合には、例えばSSD(Sum of Squared Difference)、ZSSD(Zero‐mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero‐mean Sum of Absolute Difference)などの方法を用いることができる。なお、マッチング処理では画素単位での視差値しか算出できないので、1画素未満のサブピクセルレベルの視差値が必要な場合には推定値を用いる必要がある。その推定方法としては、例えば、等角直線方式、二次曲線方式等を利用することができる。ただし、このサブピクセルレベルの推定視差値には誤差が発生するので、この推定誤差を減少させるEEC(推定誤差補正)などを用いてもよい。
視差補間部133は、上述した視差画像生成部132における視差画像生成処理で視差値が算出できなかった画像部分の視差値を補間する視差補間処理を実行する。例えば、輝度画像データ上において横方向のエッジ部分や輝度変化が少ない箇所では視差画像生成処理のブロックマッチングが正しく計算できず、視差値が算出されない場合がある。このような場合、視差補間処理において、所定の補間条件を満たした画像部分については、離れた二画素間の間を補間視差で埋める処理を行う。補間条件としては、例えば、同一の横方向座標内の二点間の距離が所定の大きさ(幅)より小さく、その二点間に他の視差値が存在しないという条件を挙げることができる。
以上のようにして視差補間処理を行ったら、次に、Vマップ生成部134において、Vマップを生成するVマップ生成処理を実行する。視差画像データに含まれる各視差画素データは、x方向位置とy方向位置と視差値dとの組(x,y,d)で示されるところ、これを、X軸に視差値d、Y軸にy、Z軸に頻度fを設定した三次元座標情報(d,y,f)に変換したもの、又はこの三次元座標情報(d,y,f)から所定の頻度閾値を超える情報に限定した三次元座標情報(d,y,f)を生成する。この三次元座標情報(d,y,f)をX−Yの二次元座標系に分布させたものを、Vマップと呼ぶ。
具体的に説明すると、Vマップ生成部134は、画像を上下方向に複数分割して得られる視差画像データの各行領域について、視差値頻度分布を計算する。具体例を挙げて説明すると、図4Aに示すような視差値分布をもった視差画像データが入力されたとき、Vマップ生成部134は、行ごとの各視差値のデータの個数の分布である視差値頻度分布を計算して出力する。このようにして得られる各行の視差値頻度分布の情報を、Y軸に視差画像上のy方向位置(撮像画像の上下方向位置)をとりX軸に視差値をとった二次元直交座標系上に表すことで、図4Bに示すようなVマップを得ることができる。このVマップは、頻度fに応じた画素値をもつ画素が前記二次元直交座標系上に分布した画像として表現することもできる。
次に、本実施形態では、Vマップ生成部134が生成したVマップの情報(視差ヒストグラム情報)から、路面形状検出部135において、自車両100の前方路面の三次元形状を検出する路面形状検出処理が実行される。図5は、撮像部110Aで撮像される基準画像の一例を模式的に表した画像例である。図6は、図5の画像例に対応するVマップである。図5に示す画像例では、自車両100が走行している路面と、自車両100の前方に存在する先行車両と、路外に存在する電柱が映し出されている。この画像例は、自車両100の前方路面が相対的に平坦な路面、すなわち、自車両100の前方路面が自車両100の真下の路面部分と平行な面を自車両前方へ延長して得られる仮想の基準路面(仮想基準移動面)に一致している場合のものである。この場合、図6に示すように、画像の下部に対応するVマップの下部において、高頻度の点は、画像上方へ向かうほど視差値dが小さくなるような傾きをもった略直線状に分布する。このような分布を示す画素は、視差画像上の各行においてほぼ同一距離に存在していてかつ最も占有率が高く、しかも画像上方へ向かうほど距離が連続的に遠くなる検出対象物を映し出した画素であると言える。そして、このような略直線状に分布した点の下部である図6のAで示される領域には、実際にはノイズによる点の分布が起こり得るものの、本来的には点の分布がない。以上のような特徴を利用すれば、路面を映し出している画素の推定が可能となる。
撮像部110Aでは自車両前方領域を撮像するため、その撮像画像の内容は、図5に示すように、画像上方へ向かうほど路面の視差値dは小さくなる。また、同じ行(横ライン)内において、路面を映し出す画素はほぼ同じ視差値dを持つことになる。したがって、Vマップ上において上述した略直線状に分布する高頻度の点は、路面(移動面)を映し出す画素が持つ特徴に対応したものである。よって、Vマップ上における高頻度の点を直線近似して得られる近似直線上又はその近傍に分布する点の画素は、高い精度で、路面を映し出している画素であると推定することができる。また、各画素に映し出されている路面部分までの距離は、当該近似直線上の対応点の視差値dから高精度に求めることができる。
ここで、Vマップ上における高頻度の点を直線近似する際、その直線近似処理に含める点をどの範囲まで含めるかは、その処理結果の精度を大きく左右する。すなわち、直線近似処理に含める範囲が広いほど、路面に対応しない点が多く含まれ、処理精度を落とすことになり、また、直線近似処理に含める範囲が狭いほど、路面に対応する点の数が少なく、やはり処理精度を落とす結果となる。そこで、本実施形態では、直線近似処理の対象とする視差ヒストグラム情報(距離ヒストグラム情報)を、以下のようにして抽出している。
図7は、本実施形態における抽出条件を説明するためのVマップを示す説明図である。本実施形態のVマップ生成部134では、視差画像データを受け取ると、その視差画像データに含まれる各視差画素データ(x,y,d)を、三次元座標情報である視差ヒストグラム情報構成要素としてのVマップ要素(d,y,f)に変換して、距離ヒストグラム情報としてのVマップ情報を生成する。このとき、視差画像データの中から、画像上下方向位置yと視差値dとの関係が所定の抽出条件を満たす視差画素データを抽出し、その抽出した視差画素データを対象にして上述した変換を行い、Vマップ情報を生成する。
本実施形態における抽出条件は、自車両100の前方路面が自車両100の真下の路面部分と平行な面を自車両前方へ延長して得られる仮想の基準路面(仮想基準移動面)に対応する視差値dと画像上下方向位置yとの関係を基準として定まる所定の抽出範囲内に属するという条件である。この基準路面に対応する視差値dと画像上下方向位置yとの関係は、図7に示すように、Vマップ上において直線(以下「基準直線」という。)で示される。本実施形態では、この直線を中心に画像上下方向へ±δの範囲を、抽出範囲として規定している。この抽出範囲は、状況に応じて刻々と変化する実際の路面のVマップ要素(d,y,f)の変動範囲を含むように設定される。
具体的には、例えば、自車両前方の路面が相対的に上り傾斜である場合、当該路面が相対的に平坦である場合よりも、撮像画像中に映し出される路面画像部分(移動面画像領域)は画像上側へ広がる。しかも、同じ画像上下方向位置yに映し出される路面画像部分を比較すると、相対的に上り傾斜である場合には、相対的に平坦である場合よりも、視差値dが大きくなる。この場合のVマップ要素(d,y,f)は、Vマップ上において、おおよそ、基準直線に対し、上側に位置し、かつ、傾き(絶対値)が大きい直線を示すものとなる。本実施形態では、前方の路面における相対的な上り傾斜が想定され得る範囲内であれば、その路面のVマップ要素(d,y,f)が抽出範囲内に収まる。
また、例えば、自車両前方の路面が相対的に下り傾斜である場合、そのVマップ要素(d,y,f)は、Vマップ上において、基準直線に対し、下側に位置し、かつ、傾き(絶対値)が小さい直線を示すものとなる。本実施形態では、前方の路面における相対的な下り傾斜が想定され得る範囲内であれば、その路面のVマップ要素(d,y,f)が抽出範囲内に収まる。
また、例えば、自車両100が速度を加速している加速時においては、自車両100の後方に加重がかかり、自車両100の姿勢は、自車両前方が鉛直方向上側を向くような姿勢となる。この場合、自車両100の速度が一定である場合と比べて、撮像画像中に映し出される路面画像部分(移動面画像領域)は画像下側へシフトする。この場合のVマップ要素(d,y,f)は、Vマップ上において、おおよそ、基準直線に対し、下側に位置し、かつ、基準直線とほぼ平行な直線を示すものとなる。本実施形態では、自車両100の加速が想定され得る範囲内であれば、その路面のVマップ要素(d,y,f)が抽出範囲内に収まる。
また、例えば、自車両100が速度を減速している減速時においては、自車両100の前方に加重がかかり、自車両100の姿勢は、自車両前方が鉛直方向下側を向くような姿勢となる。この場合、自車両100の速度が一定である場合と比べて、撮像画像中に映し出される路面画像部分(移動面画像領域)は画像上側へシフトする。この場合のVマップ要素(d,y,f)は、Vマップ上において、おおよそ、基準直線に対し、上側に位置し、かつ、基準直線とほぼ平行な直線を示すものとなる。本実施形態では、自車両100の減速が想定され得る範囲内であれば、その路面のVマップ要素(d,y,f)が抽出範囲内に収まる。
路面形状検出部135では、Vマップ生成部134においてVマップ情報が生成されたら、路面に対応する視差値及びy方向位置の組(Vマップ要素)が示す特徴、すなわち、撮像画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を直線近似する処理を行う。なお、路面が平坦な場合には一本の直線で十分な精度で近似可能であるが、車両進行方向において路面の傾斜状況が変化するような路面については、一本の直線で十分な精度の近似は難しい。したがって、本実施形態においては、Vマップの情報(Vマップ情報)を視差値に応じて2以上の視差値区画に区分けし、各視差値区画についてそれぞれ個別に直線近似を行う。
本実施形態の路面形状検出部135は、Vマップ生成部134から出力されるVマップ情報(Vマップ情報)を受け取ると、まず、路面に対応するVマップ要素が示す特徴、すなわち、撮像画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を、路面候補点として検出する。
このとき、本実施形態における路面候補点検出処理は、Vマップの情報(Vマップ情報)を視差値に応じて2以上の視差値区画に区分けし、各視差値区画にそれぞれ対応した決定アルゴリズムに従って各視差値区画における路面候補点を決定する。このとき、所定の基準距離に対応する視差値を境に、VマップをX軸方向(横軸方向)に2つの領域、すなわち視差値の大きい領域と小さい領域とに大別し、その領域ごとに異なる路面候補点検出アルゴリズムを用いて路面候補点を検出してもよい。
図8は、本実施形態における路面候補点検出処理の流れを示すフローチャートである。入力されるVマップの情報について、例えば視差値dの大きい順に路面候補点の検出を行い、各視差値dについての路面候補点(y,d)を検出する。具体的には、当該視差値dに応じたyの探索範囲(「yp−δ」〜「yp+δ」)を設定し(S1)、この探索範囲内における頻度fが所定の頻度閾値よりも大きいVマップ要素(d,y,f)を抽出する(S2)。そして、抽出したVマップ要素のうち、最大の頻度fを持つVマップ要素(d,y,f)を、当該視差値dの路面候補点として検出する(S3)。そして、視差値dがなくなるまで上述した処理ステップS1〜S3を繰り返し行う(S4)。なお、例えば路面候補点検出処理の前に又は路面候補点検出処理の処理ステップS2の後において、モルフォロジフィルタ等を用いたノイズ除去処理を行ってもよい。
このようにして路面候補点検出処理により各視差値dについての路面候補点を検出したら、次に、これらの路面候補点についてVマップ上の近似直線を求める直線近似処理を行う。このとき、路面が平坦な場合であれば、Vマップの視差値範囲全域にわたって一本の直線で十分な精度の近似が可能であるが、車両進行方向において路面の傾斜状況が変化している場合には、一本の直線で十分な精度の近似が難しい。したがって、本実施形態においては、Vマップの情報(Vマップ情報)を視差値に応じて2以上の視差値区画に区分けし、各区画についてそれぞれ個別に直線近似処理を行う。
本実施形態においては、図5に示すように、路面が表示され得る画像部分(画像の下部)を7つの区画Sg1〜Sg7に区分けしている。これに対応するVマップ上の区画は、図9に示すとおりである。なお、図9には、7つの区画の一部だけ(第一区画Sg1から第四区画Sg4まで)が図示されている。本実施形態において、各区画の広さ(視差値幅)は、図5に示す輝度画像データ上において区分された1つの大区画(第一区画Sg1)と6つの小区画(第二区画Sg2〜第七区画Sg7)に対応しているが、各区画の広さは適宜設定される。
例えば、距離を基準にして区画を等しく区分けする場合、Vマップ上では遠距離の区画ほど区画の広さ(視差値幅)が狭くなり、直線近似の精度が悪化する。また、視差値を基準にして区画を等しく区分けする場合、今度は、Vマップ上において近距離の区画の広さが狭くなる。したがって、例えば、第一区画Sg1については予め決められた固定距離に対応する幅をもつように設定とし、第二区画以降(第二区画Sg2〜第七区画Sg7)については、ひとつ前の区画の広さ(視差値幅)に対応する距離の定数倍(たとえば2倍)の距離に対応する広さをもつように設定するという区分けルールを採用しもよい。このような区分けルールにより、どの区画についても、適度な幅(視差値範囲)を持たせることができる。このような区分けルールによって各区画にそれぞれ対応する距離範囲が異なることになるが、各区画の直線近似処理に使用する路面候補点の数が各区画で均一化でき、どの区画でも適切な直線近似処理を行うことができるようになる。
また、本実施形態では、各区画が互いに重複(オーバーラップ)することなく連続するように区分けしているが、各区画が互いに重複するように設定してもよい。例えば、第二区画Sg2の始点を第一区画Sg1の始点と終点との中点とし、第三区画Sg3の始点を第一区画Sg1の終点と第二区画Sg2の終点との中点とするといった区分けルールでもよい。また、例えば、自車両100の前方路面が上り坂であることを検出した場合には各区画の幅を変更するなど、各区画の幅を動的に変更するようにしてもよい。
直線近似処理は、最小二乗近似を利用することができるが、より正確に行うにはRMA(Reduced Major Axis)などの他の近似を用いるのがよい。その理由は、最小二乗近似は、X軸のデータに誤差がなく、Y軸のデータに誤差が存在するという前提があるときに、正確に計算されるものである。しかしながら、Vマップ情報から検出される路面候補点の性質を考えると、Vマップ情報に含まれる各Vマップ要素のデータは、Y軸のデータyについては画像上の正確な位置を示していると言えるが、X軸のデータである視差値dについては、誤差を含んでいるものである。また、路面候補点検出処理では、Y軸方向に沿って路面候補点の探索を行い、その最大のy値をもつVマップ要素を路面候補点として検出するものであるため、路面候補点はY軸方向の誤差も含んでいる。したがって、路面候補点となっているVマップ要素は、X軸方向にもY軸方向にも誤差を含んでいることになり、最小二乗近似の前提が崩れている。したがって、二変数(dとy)に互換性のある回帰直線(RMA)が有効である。
各区画について行う直線近似処理は、第一区画Sg1を除き、距離の近い側(視差値が大きい側)に隣接する区画で得られた近似直線の終端が当該区画の始端となるような近似直線を得る。これにより、区画間における近似直線の不連続が回避される。なお、それぞれの区画についての近似直線を得た後に、区画間における近似直線の不連続を修正するようにしてもよい。
図10は、本実施形態における区分直線近似処理の流れを示すフローチャートである。本実施形態の区分直線近似処理では、まず、最近距離の第一区画(最も視差値が大きい区画)Sg1を選択し(S11)。この第一区画Sg1内の各視差値dに対応した路面候補点を抽出する(S12)。ここで、当該第一区画Sg1において抽出された路面候補点の数が極端に少ない場合や、抽出された路面候補点の誤りが多い場合などの特定の条件下では、当該第一区画Sg1において抽出された路面候補点を直線近似処理して得られる近似直線が、当該第一区画Sg1に対応する路面部分の三次元形状を精度良く反映したものにはならない。このような精度の悪い路面部分の三次元形状の検出結果に基づいて物体検出処理が実施されてしまうと、物体の検出精度を落とす結果を招く。
そこで、本実施形態においては、上述した特定の条件下であるかどうかを判断するためのエラー条件を用意し、当該第一区画Sg1がエラー条件を満たさない場合には(S13のNo)、当該第一区画Sg1において抽出された路面候補点を用い、直線近似処理を行う(S14)。この場合、上述した特定の条件下ではないので、当該第一区画Sg1に対応する路面部分の三次元形状を精度良く反映した近似直線が得られる。
一方、当該第一区画Sg1がエラー条件を満たす場合(S13のYes)、本実施形態では、当該第一区画Sg1において抽出された路面候補点を用いない直線補間処理を実行する(S15)。直線補間処理としては、当該第一区画Sg1において抽出された路面候補点を直線近似処理して得られる近似直線よりも、その路面候補点を用いずに当該第一区画Sg1に対応する路面部分の三次元形状を適切に示す直線が得られる処理内容であれば、特に制限はない。本実施形態におけるエラー条件や直線補間処理の詳細については後述する。
このようにして第一区画Sg1について直線近似処理を行い又は直線補間処理を行ったら、残りの区画があるかどうかが確認され(S16)、残りの区画が無くなるまで、距離の近い区画から順に、上述した処理ステップS11〜S15を実行する。そして、残りの区画が無くなったら、区分直線近似処理を終了する。
このようにして得られた近似直線や補間直線からなる路面対応直線が生成されたら、次に、路面高さテーブル算出部136において、路面高さ(自車両100の真下の路面部分に対する相対的な高さ)を算出してテーブル化する路面高さテーブル算出処理を行う。路面形状検出部135により生成された路面対応直線の情報から、撮像画像上の各行領域(画像上下方向の各位置)に映し出されている各路面部分までの距離を算出できる。一方、自車両100の真下に位置する路面部分をその面に平行となるように自車両進行方向前方へ延長した仮想平面の自車両進行方向における各面部分が、撮像画像中のどの各行領域に映し出されるかは予め決まっており、この仮想平面(基準路面)はVマップ上で直線(基準直線)により表される。路面形状検出部135から出力される路面対応直線を基準直線と比較することで、自車両前方の各路面部分の高さを得ることができる。簡易的には、路面形状検出部135から出力される路面対応直線上のY軸位置から、これに対応する視差値から求められる距離だけ自車両前方に存在する路面部分の高さを算出できる。路面高さテーブル算出部136では、路面対応直線から得られる各路面部分の高さを、必要な視差範囲についてテーブル化する。
以上のようにして、得られた路面高さテーブルは、後段の物体検出処理部137における処理に用いられる。詳しくは、ある視差値dにおいてY軸位置がy’である地点に対応する撮像画像部分に映し出されている物体の路面からの高さは、当該視差値dにおける路面対応直線上のY軸位置をy0としたとき、(y’−y0)から算出することができる。一般に、Vマップ上における座標(d,y’)に対応する物体についての路面からの高さHは、下記の式(2)より算出することができる。ただし、下記の式(2)において、「z」は、視差値dから計算される距離(z=BF/(d−offset))であり、「f」はカメラの焦点距離を(y’−y0)の単位と同じ単位に変換した値である。ここで、「BF」は、ステレオカメラの基線長と焦点距離を乗じた値であり、「offset」は無限遠の物体を撮影したときの視差値である。
H = z×(y’−y0)/f ・・・(2)
なお、物体検出処理部137における処理内容については、得られた路面高さテーブルを用いて物体を検出するものであれば、特に制限はない。
[エラー条件1]
次に、本実施形態におけるエラー条件の一例(以下、本例を「エラー条件1」という。)について説明する。本エラー条件1は、当該区画で抽出された路面候補点(一群の視差値)の数量が所定数量以下であるという視差値数量条件である。具体的には、例えば、当該区画について得られる路面候補点の最大数Nmaxに対する当該区画で抽出された路面候補点の数Nの路面候補点数比率(N/Nmax)が30%以下であるという条件である。
図11は、本エラー条件1を説明するためのVマップの一部を示す説明図である。図11には、第二区画Sg2で抽出された路面候補点の数Nが8個である例が示されている。第二区画Sg2で得られる路面候補点の最大数Nmaxは30個であるため、第二区画Sg2の路面候補点数比率N/Nmaxは26.67%である。そのため、第二区画Sg2は路面候補点数比率N/Nmaxが30%以下であるというエラー条件1を満たしている。
このように、抽出された路面候補点(一群の視差値)の数量が少な過ぎる場合(所定数量以下である場合)には、それらの路面候補点のごく一部に含まれる比較的精度の悪い路面候補点が、近似直線処理により得られる近似直線の精度に悪影響を及ぼす度合いが大きい。そのため、精度の悪い近似直線が生成される可能性が高い。本エラー条件1によれば、このように抽出された路面候補点(一群の視差値)の数量が少な過ぎることによって生成される精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
[エラー条件2]
次に、本実施形態におけるエラー条件の他の例(以下、本例を「エラー条件2」という。)について説明する。本エラー条件2は、当該区画で抽出された路面候補点(一群の視差値)の数量が所定数量以下であり(すなわち、前記エラー条件1を満たし)、かつ、当該区画を更に区分けした複数のサブ区画の一部又は全部でも路面候補点(一群の視差値)の数量が所定数量以下であるという条件である。
図12は、本エラー条件2を説明するためのVマップの一部を示す説明図である。図12には、第二区画Sg2で抽出された路面候補点の数Nが8個である例が示されており、これは図11に示すものと同じものである。そのため、第二区画Sg2の路面候補点数比率N/Nmaxは26.67%であり、30%以下というエラー条件1を満たしている。ただし、エラー条件1を満たす場合であっても、更に狭い区画で直線近似処理を行えば精度の高い近似直線が得られる場合がある。
そこで、本エラー条件2では、エラー条件1を満たす場合、当該第二区画Sg2を更に3分割した3つのサブ区画Sg21,Sg22,Sg23を設定し、これらのサブ区画に対して路面候補点の数量が所定数量以下であるかどうかを判断する。具体的には、3つのサブ区画Sg21,Sg22,Sg23について得られる路面候補点の最大数Nmax’に対する当該サブ区画で抽出された路面候補点の数N’のサブ路面候補点数比率(N’/Nmax’)が30%以下であるかどうかを判断する。なお、サブ路面候補点数比率(N’/Nmax’)は、必ずしも路面候補点数比率(N/Nmax)と同じである必要はない。
第一サブ区画Sg21で得られる路面候補点の最大数Nmax’は10個であり、第一サブ区画Sg21で抽出された路面候補点の数N’は4個であるため、第一サブ区画Sg21のサブ路面候補点数比率N’/Nmax’は40%である。そのため、第一サブ区画Sg21はサブ路面候補点数比率N’/Nmax’が30%以下であるという要件を満たさない。
同様に、第三サブ区画Sg23で得られる路面候補点の最大数Nmax’も10個であり、第三サブ区画Sg23で抽出された路面候補点の数N’も4個であるため、第三サブ区画Sg23のサブ路面候補点数比率N’/Nmax’も40%である。そのため、第三サブ区画Sg23もサブ路面候補点数比率N’/Nmax’が30%以下であるという要件を満たさない。
一方、第二サブ区画Sg22で得られる路面候補点の最大数Nmax’は10個であり、第二サブ区画Sg22で抽出された路面候補点の数N’は0個である。そのため、第二サブ区画Sg22のサブ路面候補点数比率N’/Nmax’は0%であり、30%以下であるという要件を満たす。
本実施形態では、サブ区画Sg21,Sg22,Sg23の全部についてサブ路面候補点数比率N’/Nmax’が30%以下であるという要件を満たす場合に、エラー条件2を満たす。したがって、図12に示す例においては、第一サブ区画Sg21と第三サブ区画Sg23が当該要件を満たしていないため、エラー条件2を満たさない。
抽出された路面候補点(一群の視差値)の数量が少な過ぎる場合(エラー条件1を満たす場合)でも、更に狭いサブ区画に絞って見れば路面候補点の数が十分な数である場合、そのサブ区画については精度の高い近似直線が得られる。本エラー条件2によれば、抽出された路面候補点の数量が少な過ぎる場合(エラー条件1を満たす場合)でも、精度の高い近似直線が得られるケースについては近似直線を生成することができる。したがって、精度の悪い近似直線が生成される可能性がより高いケースについて、その精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
[エラー条件3]
次に、本実施形態におけるエラー条件の更に他の例(以下、本例を「エラー条件3」という。)について説明する。本エラー条件3は、当該区画で抽出された路面候補点(一群の視差値)の視差値幅(Vマップ上のX軸方向幅)が所定幅以下であるという視差値幅条件である。具体的には、例えば、当該区画について得られる路面候補点の最大数Nmax(Vマップ上における当該区画のX軸方向幅)に対する、当該区画で抽出された路面候補点のうちの最大視差値と最小視差値との間の最大路面候補点数Nw(Vマップ上における当該間のX軸方向幅)の視差値幅比率(Nw/Nmax)が50%以下であるという条件である。
図13は、本エラー条件3を説明するためのVマップの一部を示す説明図である。図13には、第二区画Sg2で抽出された路面候補点の数Nが10個である例が示されている。第二区画Sg2で得られる路面候補点の最大数Nmaxは30個であるため、第二区画Sg2の路面候補点数比率N/Nmaxは33.33%であり、第二区画Sg2は路面候補点数比率N/Nmaxが30%以下であるという前記エラー条件1を満たさず、かつ、Sg2内を区分したセグメントSg21(Nw)には視差が十分に含まれるため、区分した全てのセグメントが路面候補点数比率N’/Nmax’が30%以下であるという要件を満たさないため、前記エラー条件2も満たしていない。
このように、抽出された路面候補点(一群の視差値)の数量が所定数量を超える場合であっても、その路面候補点が当該区画内の一部にだけ集中している場合、これは、その路面候補点は路面に対応したものではなく、路面以外の物体である可能性が高い。そのため、このような路面候補点から近似直線を生成すると、路面を適切に表す近似直線を得ることはできず、精度の悪い近似直線が生成されることになる。
図13に示す例において、第二区画Sg2で抽出された路面候補点のうちの最大視差値と最小視差値との間の最大路面候補点数Nwは、13個となり、視差値幅比率(Nw/Nmax)は43.33%であり、50%以下であるというエラー条件3を満たす。したがって、図13に示す例における第二区画Sg2で抽出された路面候補点は、路面以外の物体に対応したものである可能性が高い。本エラー条件3によれば、このように路面以外の物体に対応した路面候補点(一群の視差値)が誤って抽出されることによって生成される精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
[エラー条件4]
次に、本実施形態におけるエラー条件の更に他の例(以下、本例を「エラー条件4」という。)について説明する。本エラー条件4は、当該区画で抽出された路面候補点(一群の視差値)を直線近似して得られる近似直線の傾斜角度が、本実施形態で用いられるエラー条件を満たさない隣接区画で抽出された路面候補点を直線近似して得られる近似直線の傾斜角度に対して所定の角度範囲から外れているという近似直線角度条件である。具体的には、例えば、当該区画について生成された近似直線の終端におけるVマップ上のY軸方向位置(切片)と、当該区画に対して距離の近い側(視差値の大きい側)に隣接する区画で生成された近似直線の延長線が当該区画の終端に達するVマップ上のY軸方向位置(切片)との差(切片差)が、規定値以上であるという条件である。
図14は、本エラー条件4を説明するためのVマップの一部を示す説明図である。図14には、第二区画Sg2で抽出された路面候補点から生成された近似直線が描かれており、この近似直線における第二区画Sg2の終端位置(Y軸方向位置)は切片ysg2である。一方、第一区画Sg1で生成された近似直線の延長線(図14中破線)が第二区画Sg2の終端に達するY軸方向位置は切片ysg1である。本エラー条件4は、両者の切片差y_diff(=ysg2−ysg1)が規定値dth以上であるという条件である。本実施形態では、上述したとおり、第二区画Sg2で生成される近似直線の始端は第一区画Sg1で生成される近似直線の終端と一致するため、その切片差y_diffは、第二区画Sg2における近似直線の傾斜角度と第一区画Sg1における近似直線の傾斜角度との違いを表す。
第二区画Sg2で生成される近似直線と第一区画Sg1で生成される近似直線との切片差y_diffが大きい場合、すなわち、第二区画Sg2における近似直線の傾斜角度が第一区画Sg1における近似直線の傾斜角度に対して所定の角度範囲から外れている場合、第一区画Sg1に対応する路面部分に対して第二区画Sg2に対応する路面部分の高さが急激に変化したこと又は路面傾斜が急激に変化したことを指す。通常、路面は急激に高さあるいは傾斜が変化するようなことはないので、この場合、第二区画Sg2で生成される近似直線は路面に適切に対応したものではなく、精度の悪いものである可能性が高い。本エラー条件4によれば、このような精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
[エラー条件5]
次に、本実施形態におけるエラー条件の更に他の例(以下、本例を「エラー条件5」という。)について説明する。本エラー条件5は、当該区画で抽出された路面候補点(一群の視差値)を直線近似して得られる近似直線の信頼度が所定の閾値よりも低いという近似直線信頼度条件である。具体的には、例えば、当該区画について生成された近似直線と、当該区画で抽出された各路面候補点との誤差(Y軸方向の誤差)の総和、平均、最大誤差などが既定値以上であるという条件である。
図15は、本エラー条件5を説明するためのVマップの第二区画を示す説明図である。図15には、第二区画Sg2で抽出された路面候補点から生成された近似直線が描かれており、この第二区画Sg2について生成された近似直線と当該第二区画Sg2で抽出された各路面候補点との間にはそれぞれ誤差ε〜ε10が存在する。本エラー条件5は、これらの誤差ε〜ε10の総和が規定値以上であるという条件である。
第二区画Sg2で生成される近似直線と第二区画Sg2で抽出された路面候補点との誤差が大きい場合、その近似直線の信頼性が低いものと判断できるので、本エラー条件5によれば、このような信頼性の低い(精度の悪い)近似直線が後段の物体検出処理で用いられる事態を回避することができる。
なお、本実施形態では、上述したエラー条件1〜5のいずれか1つを満たす区画については、エラー条件を満たすものと判定して直線補間処理を実行するが、上述したエラー条件1〜5の少なくとも1つを適用してエラー条件の判定を行っても良い。
[直線補間処理例1]
次に、本実施形態における直線補間処理の一例(以下、本例を「直線補間処理例1」という。)について説明する。本直線補間処理例1では、エラー条件を満たすと判断された区画に対し、今回抽出された路面候補点を用いずに、同じ区画について過去に抽出された路面候補点(一群の視差値)から生成される補間直線を、当該区画における近似直線として補間する直線補間処理を行うものである。
具体的には、例えば、今回の撮像画像の直前に撮像した撮像画像における同じ区画で抽出された過去の路面候補点から生成された近似直線を、補間直線とすることができる。また、例えば、今回の撮像画像の前に撮像した直近3回分の撮像画像における同じ区画で抽出された過去の路面候補点を用い、その直近3回分の路面候補点から近似直線を生成して、これを補間直線とすることができる。このとき、より近い時期の路面候補点ほど重要度が高いものとして重み付けすることが好ましい。また、例えば、今回の撮像画像の前に撮像した直近3回分の撮像画像における同じ区画で抽出された過去の路面候補点から生成された3本の近似直線を平均したものを、補間直線とすることができる。このとき、より近い時期の路面候補点ほど重要度が高いものとして重み付けすることが好ましい。いずれにしても、過去の一定期間内において抽出された過去の路面候補点あるいは過去に生成された近似直線は、記憶部に保存しておく必要がある。
通常、今回エラー条件を満たすと判断された区画に対応する路面部分の一部は、過去の撮像時においても同じ区画に映し出されている場合が多い。そのため、今回エラー条件を満たすと判断された区画と同じ区画で過去に抽出された路面候補点を用いることにより、今回の区画に対応する路面部分と一定の相関性のある補間直線を得ることができる。よって、このような補間直線は、エラー条件を満たす今回の区画で抽出された路面候補点から生成される近似直線よりも、当該区画に対応する路面を適切に表す精度の高い路面対応直線となり得る。
[直線補間処理例2]
次に、本実施形態における直線補間処理の他の例(以下、本例を「直線補間処理例2」という。)について説明する。本直線補間処理例2では、エラー条件を満たすと判断された区画に対し、今回抽出された路面候補点を用いずに、当該区画に対応する路面部分について過去に抽出された路面候補点(一群の視差値)から生成される補間直線を、当該区画における近似直線として補間する直線補間処理を行うものである。本直線補間処理例2においても、過去の一定期間内において抽出された過去の路面候補点あるいは過去に生成された近似直線は、記憶部に保存しておく必要がある。
エラー条件を満たすと判断された区画に対応する路面部分が過去の撮像画像のどの位置に映し出されていたかは、自車両100の車速情報等から特定することができる。したがって、例えば、エラー条件を満たす今回の区画に対応する路面部分が映し出されている画像部分が直前の撮像画像中のどの画像部分かを車速情報等から特定し、その特定した画像部分に対応する過去の路面候補点を記憶部から読み出し、読み出した過去の路面候補点から生成された近似直線を、補間直線とすることができる。あるいは、エラー条件を満たす今回の区画に対応する路面部分を含む区画が直前の撮像画像中のどの区画であるかを車速情報等から特定し、特定した区画に対応する過去の近似直線を記憶部から読み出し、読み出した過去の近似直線を補間直線とすることができる。
また、例えば、エラー条件を満たす今回の区画に対応する路面部分が映し出されている画像部分が直近3回分の撮像画像中のどの画像部分かを車速情報等から特定し、その特定した画像部分に対応する直近3回分の路面候補点を記憶部から読み出して、読み出した直近3回分の路面候補点から生成された近似直線を、補間直線とすることができる。あるいは、エラー条件を満たす今回の区画に対応する路面部分を含む区画が直近3回分の撮像画像中のどの区画であるかを車速情報等から特定し、特定した区画に対応する直近3回分の近似直線を記憶部から読み出し、読み出した3本の近似直線を平均したものを補間直線とすることができる。このとき、より近い時期の路面候補点ほど重要度が高いものとして重み付けすることが好ましい。
自車両100の車速が高速である場合や、撮像間隔が長い場合などにおいては、今回エラー条件を満たすと判断された区画に対応する路面部分が過去の撮像時においても同じ区画に映し出されているとは限らず、より距離の遠い区画(視差値の小さい側の区画)に映し出されていることがある。本直線補間処理例2によれば、今回エラー条件を満たすと判断された区画に対応する路面部分についての路面候補点を用いて補間直線を生成するため、エラー条件を満たす今回の区画で抽出された路面候補点から生成される近似直線よりも、当該区画に対応する路面を適切に表す精度の高い路面対応直線を得ることができる。
[直線補間処理例3]
次に、本実施形態における直線補間処理の更に他の例(以下、本例を「直線補間処理例3」という。)について説明する。本直線補間処理例3では、エラー条件を満たすと判断された区画に対し、今回抽出された路面候補点を用いずに、予め記憶部に記憶されている当該区画についての基準路面対応直線を補間直線とし、これを当該区画における近似直線として補間する直線補間処理を行うものである。この基準路面対応直線には、例えば、当該区画に対応する路面部分が相対的に平坦な路面、すなわち、当該区画に対応する路面部分が自車両100の真下の路面部分と平行な面を自車両前方へ延長して得られる仮想の基準路面(仮想基準移動面)に一致しているときに生成される理想の路面対応直線を用いることができる。
あるいは、基準路面対応直線としては、過去に撮像して得た大量のVマップ情報とその近似直線データとからディープラーニング等の機械学習手法によって推定される直線を用いてもよい。具体的には、例えば、機械学習手法によって決定された各種パラメータを用いて今回のVマップ情報から路面対応直線を推定し、その推定された路面対応直線のうち今回エラー条件を満たした区画に対応する部分を補間直線として用い、これを当該区画における近似直線として補間する。
本直線補間処理例3においても、エラー条件を満たす区画で抽出された路面候補点から生成される近似直線よりも、当該区画に対応する路面により近い路面対応直線を得ることが可能である。
本実施形態においては、エラー条件を満たすと判断された場合、そのエラー条件を満たす区画を補間直線で補間した路面対応直線を生成して、路面高さテーブル算出部136へ送る例であるが、これに限られない。例えば、エラー条件を満たすと判断された場合、路面対応直線を路面高さテーブル算出部136へ送る際に、そのエラー条件を満たす区画がエラーである旨を示すエラー情報を付加するようにしてもよい。この場合、路面高さテーブル算出部136あるいは更に後段の物体検出処理部137は、当該区画についての路面対応直線部分がエラーであることを把握できるため、当該区画に対応する路面部分の高さ情報を利用せずに物体検出処理を行うことが可能となる。なお、エラー情報としては、例えば、エラー条件を満たす区画の路面対応直線として後段の処理でエラーとして処理されるようなダミーの路面対応直線、例えば、上空10mを超える高さに対応する路面対応直線などを用いてもよい。
以上の説明では、ステレオカメラを用いて得られる複数の撮像画像から生成される視差画像情報を距離画像情報として用いる(視差値を距離値として用いる)例で説明したが、距離画像情報は、これに限られない。例えば、測距レーダなどの他の測距手段により得られる測距情報から生成される距離画像情報や、視差情報と測距情報とから得られる距離画像情報などを用いてもよい。
以上に説明したものは一例であり、次の態様毎に特有の効果を奏する。
(態様A)
移動体移動方向前方の視差画像データ等の距離画像情報に基づいて、移動体移動方向前方における移動面の高さ等の情報を取得する画像処理を実行する画像解析ユニット102等の画像処理装置において、前記距離画像情報に基づいて、前記撮像画像を上下方向に複数分割して得られる各行領域内における視差値d等の距離値の頻度分布を示すVマップ情報等の距離ヒストグラム情報を生成するVマップ生成部134等の距離ヒストグラム情報生成手段と、前記距離ヒストグラム情報を距離値に応じて区分けして得られる複数の区画Sg1〜Sg7ごとに、所定の頻度閾値を超える頻度fをもった距離値の中から移動面の距離値が示す特徴に合致した一群の距離値を抽出し、抽出された一群の距離値が所定のエラー条件を満たさない区画については、該一群の距離値を用いて移動面の情報を生成する処理を行い、抽出された一群の距離値が所定のエラー条件を満たす区画については、該一群の距離値を用いずに直線補間処理等の所定のエラー処理を実行する路面形状検出部135等の移動面情報処理手段とを有することを特徴とする。本態様においては、距離ヒストグラム情報を距離値に応じて区分けして得られる各区画Sg1〜Sg7において、移動面の距離値が示す特徴に合致するとして抽出された一群の距離値が所定のエラー条件を満たすか否かが判断される。そして、所定のエラー条件を満たさない場合には、当該一群の距離値を用いて移動面情報が生成され、従来と同様の精度の移動面情報を取得することが可能である。一方、所定のエラー条件を満たす場合には、当該一群の距離値を用いずに所定のエラー処理が実行される。そのため、所定のエラー条件を適切に設定することで、精度の低い移動面情報を生み出すような当該一群の距離値によって移動面情報が生成されて後段処理に利用される事態を抑制することが可能となる。
(態様B)
前記態様Aにおいて、前記所定のエラー条件は、抽出された一群の距離値の数量が所定数量以下であるという距離値数量条件を含むことを特徴とする。これによれば、上述したエラー条件1で説明したとおり、抽出された一群の距離値の数量が少な過ぎることによって生成される精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
(態様C)
前記態様Aにおいて、前記所定のエラー条件は、抽出された一群の距離値の数量が所定数量以下であり、かつ、当該区画を更に区分けした複数のサブ区画Sg21,Sg22,Sg23の一部又は全部で、抽出された一群の距離値の数量が所定数量以下であるという条件を含むことを特徴とする。これによれば、上述したエラー条件2で説明したとおり、抽出された一群の距離値の数量が少な過ぎる場合であっても、精度の高い近似直線が得られるケースについては近似直線を生成し、精度の悪い近似直線が生成される可能性がより高いケースについてその精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
(態様D)
前記態様A〜Cのいずれかの態様において、前記所定のエラー条件は、抽出された一群の距離値の距離値幅が所定幅以下であるという距離値幅条件を含むことを特徴とする。これによれば、上述したエラー条件3で説明したとおり、移動面以外の物体に対応した一群の距離値が誤って抽出されることによって生成される精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
(態様E)
前記態様A〜Dのいずれかの態様において、前記所定のエラー条件は、抽出された一群の距離値を直線近似して得られる近似直線の傾斜角度が、前記所定のエラー条件を満たさない隣接区画で抽出された一群の距離値を直線近似して得られる近似直線の傾斜角度に対して所定の角度範囲から外れているという近似直線角度条件を含むことを特徴とする。これによれば、上述したエラー条件4で説明したとおり、通常は存在し得ないほど急激に高さあるいは傾斜が変化するような移動面に対応するような精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
(態様F)
前記態様A〜Eのいずれかの態様において、前記所定のエラー条件は、抽出された一群の距離値を直線近似して得られる近似直線の信頼度が所定の閾値よりも低いという近似直線信頼度条件を含むことを特徴とする。これによれば、上述したエラー条件5で説明したとおり、抽出された一群の距離値の信頼性が低い場合に生成される信頼性の低い精度の悪い近似直線が後段の物体検出処理で用いられる事態を回避することができる。
(態様G)
前記態様A〜Fのいずれかの態様において、前記所定のエラー処理は、当該区画で過去に抽出された一群の距離値から生成された移動面の情報を、当該区画における移動面の情報として補間する処理であることを特徴とする。これによれば、上述した直線補間処理例1で説明したとおり、所定のエラー条件を満たす区画で抽出された一群の距離値から生成される移動面情報よりも、当該区画に対応する路面を適切に表す精度の高い路面対応直線を補間することが可能となる。
(態様H)
前記態様A〜Fのいずれかの態様において、前記所定のエラー処理は、当該区画に対応する移動面部分について過去に抽出された一群の距離値から生成された移動面の情報を、当該区画における移動面の情報として補間する処理であることを特徴とする。これによれば、上述した直線補間処理例2で説明したとおり、所定のエラー条件を満たす区画で抽出された一群の距離値から生成される移動面情報よりも、当該区画に対応する路面を適切に表す精度の高い路面対応直線を補間することが可能となる。
(態様I)
前記態様A〜Fのいずれかの態様において、前記複数の区画ごとに移動面の基準情報を記憶した記憶手段を有し、前記所定のエラー処理は、当該区画に対応する前記記憶手段に記憶された移動面の基準情報を、当該区画における移動面の情報として補間する処理であることを特徴とする。これによれば、上述した直線補間処理例3で説明したとおり、所定のエラー条件を満たす区画で抽出された一群の距離値から生成される移動面情報よりも、当該区画に対応する路面を適切に表す精度の高い路面対応直線を補間することが可能となる。
(態様J)
移動体移動方向前方の距離画像情報に基づいて、移動体移動方向前方における移動面の情報を取得する画像処理を実行する画像処理手段と、前記画像処理装置により取得した移動面の情報に基づいて、移動体に搭載された所定の機器を制御する移動体機器制御手段とを備えた移動体機器制御システムにおいて、前記画像処理手段として、前記態様A〜Iのいずれかの態様に係る画像処理装置を用いることを特徴とする。これによれば、精度の低い移動面情報を生み出すような当該一群の距離値によって移動面情報が生成されて所定の機器を制御する処理に利用される事態を抑制することが可能となり、所定の機器の誤制御が抑制される。
(態様K)
移動体移動方向前方の距離画像情報に基づいて、移動体移動方向前方における移動面の情報を取得する画像処理を実行する画像処理装置のコンピュータを機能させる画像処理用プログラムであって、前記距離画像情報に基づいて、前記撮像画像を上下方向に複数分割して得られる各行領域内における距離値の頻度分布を示す距離ヒストグラム情報を生成する距離ヒストグラム情報生成手段、及び、前記距離ヒストグラム情報を距離値に応じて区分けして得られる複数の区画ごとに、所定の頻度閾値を超える頻度をもった距離値の中から移動面の距離値が示す特徴に合致した一群の距離値を抽出し、抽出された一群の距離値が所定のエラー条件を満たさない区画については、該一群の距離値を用いて移動面の情報を生成する処理を行い、抽出された一群の距離値が所定のエラー条件を満たす区画については、該一群の距離値を用いずに所定のエラー処理を実行する移動面情報処理手段として、前記コンピュータを機能させることを特徴とする。これによれば、精度の低い移動面情報を生み出すような当該一群の距離値によって移動面情報が生成されて後段処理に利用される事態を抑制することが可能となる。なお、このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。
(態様L)
移動体移動方向前方の距離画像情報に基づいて、移動体移動方向前方における移動面の情報を取得する画像処理方法において、前記距離画像情報に基づいて、前記撮像画像を上下方向に複数分割して得られる各行領域内における距離値の頻度分布を示す距離ヒストグラム情報を生成し、生成した距離ヒストグラム情報を距離値に応じて区分けして得られる複数の区画ごとに、所定の頻度閾値を超える頻度をもった距離値の中から移動面の距離値が示す特徴に合致した一群の距離値を抽出し、抽出された一群の距離値が所定のエラー条件を満たさない区画については、該一群の距離値を用いて移動面の情報を生成する処理を行い、抽出された一群の距離値が所定のエラー条件を満たす区画については、該一群の距離値を用いずに所定のエラー処理を実行することを特徴とする。これによれば、精度の低い移動面情報を生み出すような当該一群の距離値によって移動面情報が生成されて後段処理に利用される事態を抑制することが可能となる。
100 自車両
101 撮像ユニット
102 画像解析ユニット
103 表示モニタ
106 車両走行制御ユニット
110A,110B 撮像部
131 平行化画像生成部
132 視差画像生成部
133 視差補間部
134 Vマップ生成部
135 路面形状検出部
136 路面高さテーブル算出部
137 物体検出処理部
特開2014−225220号公報

Claims (12)

  1. 移動体移動方向前方の距離画像情報に基づいて、移動体移動方向前方における移動面の情報を取得する画像処理を実行する画像処理装置において、
    前記距離画像情報に基づいて、撮像画像を上下方向に複数分割して得られる各行領域内における距離値の頻度分布を示す距離ヒストグラム情報を生成する距離ヒストグラム情報生成手段と、
    前記距離ヒストグラム情報を距離値に応じて区分けして得られる複数の区画ごとに、所定の頻度閾値を超える頻度をもった距離値の中から移動面の距離値が示す特徴に合致した一群の距離値を抽出し、抽出された一群の距離値が所定のエラー条件を満たさない区画については、該一群の距離値を用いて移動面の情報を生成する処理を行い、抽出された一群の距離値が所定のエラー条件を満たす区画については、該一群の距離値を用いずに所定のエラー処理を実行する移動面情報処理手段とを有することを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記所定のエラー条件は、抽出された一群の距離値の数量が所定数量以下であるという距離値数量条件を含むことを特徴とする画像処理装置。
  3. 請求項1に記載の画像処理装置において、
    前記所定のエラー条件は、抽出された一群の距離値の数量が所定数量以下であるという条件を満たす区画を更に区分けした複数のサブ区画の一部又は全部で、抽出された一群の距離値の数量が所定数量以下であるという条件を含むことを特徴とする画像処理装置。
  4. 請求項1乃至3のいずれか1項に記載の画像処理装置において、
    前記所定のエラー条件は、抽出された一群の距離値の距離値幅が所定幅以下であるという距離値幅条件を含むことを特徴とする画像処理装置。
  5. 請求項1乃至4のいずれか1項に記載の画像処理装置において、
    前記所定のエラー条件は、抽出された一群の距離値を直線近似して得られる近似直線の傾斜角度が、前記所定のエラー条件を満たさない隣接区画で抽出された一群の距離値を直線近似して得られる近似直線の傾斜角度に対して所定の角度範囲から外れているという近似直線角度条件を含むことを特徴とする画像処理装置。
  6. 請求項1乃至5のいずれか1項に記載の画像処理装置において、
    前記所定のエラー条件は、抽出された一群の距離値を直線近似して得られる近似直線の信頼度が所定の閾値よりも低いという近似直線信頼度条件を含むことを特徴とする画像処理装置。
  7. 請求項1乃至6のいずれか1項に記載の画像処理装置において、
    前記所定のエラー処理は、前記所定のエラー条件を満たす区画で過去に抽出された一群の距離値から生成された移動面の情報を、当該区画における移動面の情報として補間する処理であることを特徴とする画像処理装置。
  8. 請求項1乃至6のいずれか1項に記載の画像処理装置において、
    前記所定のエラー処理は、前記所定のエラー条件を満たす区画に対応する移動面部分について過去に抽出された一群の距離値から生成された移動面の情報を、当該区画における移動面の情報として補間する処理であることを特徴とする画像処理装置。
  9. 請求項1乃至6のいずれか1項に記載の画像処理装置において、
    前記複数の区画ごとに移動面の基準情報を記憶した記憶手段を有し、
    前記所定のエラー処理は、前記所定のエラー条件を満たす区画に対応する前記記憶手段に記憶された移動面の基準情報を、当該区画における移動面の情報として補間する処理であることを特徴とする画像処理装置。
  10. 移動体移動方向前方の距離画像情報に基づいて、移動体移動方向前方における移動面の情報を取得する画像処理を実行する画像処理手段と、
    画像処理装置により取得した移動面の情報に基づいて、移動体に搭載された所定の機器を制御する移動体機器制御手段とを備えた移動体機器制御システムにおいて、
    前記画像処理手段として、請求項1乃至9のいずれか1項に記載の画像処理装置を用いることを特徴とする移動体機器制御システム。
  11. 移動体移動方向前方の距離画像情報に基づいて、移動体移動方向前方における移動面の情報を取得する画像処理を実行する画像処理装置のコンピュータを機能させる画像処理用プログラムであって、
    前記距離画像情報に基づいて、撮像画像を上下方向に複数分割して得られる各行領域内における距離値の頻度分布を示す距離ヒストグラム情報を生成する距離ヒストグラム情報生成手段、及び、
    前記距離ヒストグラム情報を距離値に応じて区分けして得られる複数の区画ごとに、所定の頻度閾値を超える頻度をもった距離値の中から移動面の距離値が示す特徴に合致した一群の距離値を抽出し、抽出された一群の距離値が所定のエラー条件を満たさない区画については、該一群の距離値を用いて移動面の情報を生成する処理を行い、抽出された一群の距離値が所定のエラー条件を満たす区画については、該一群の距離値を用いずに所定のエラー処理を実行する移動面情報処理手段として、前記コンピュータを機能させることを特徴とする画像処理用プログラム。
  12. 移動体移動方向前方の距離画像情報に基づいて、移動体移動方向前方における移動面の情報を取得する画像処理方法において、
    前記距離画像情報に基づいて、撮像画像を上下方向に複数分割して得られる各行領域内における距離値の頻度分布を示す距離ヒストグラム情報を生成し、
    生成した距離ヒストグラム情報を距離値に応じて区分けして得られる複数の区画ごとに、所定の頻度閾値を超える頻度をもった距離値の中から移動面の距離値が示す特徴に合致した一群の距離値を抽出し、
    抽出された一群の距離値が所定のエラー条件を満たさない区画については、該一群の距離値を用いて移動面の情報を生成する処理を行い、抽出された一群の距離値が所定のエラー条件を満たす区画については、該一群の距離値を用いずに所定のエラー処理を実行することを特徴とする画像処理方法。
JP2018505257A 2016-03-18 2016-12-09 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法 Active JP6665925B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016055575 2016-03-18
JP2016055575 2016-03-18
PCT/JP2016/086818 WO2017158964A1 (ja) 2016-03-18 2016-12-09 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2017158964A1 true JPWO2017158964A1 (ja) 2018-09-13
JP6665925B2 JP6665925B2 (ja) 2020-03-13

Family

ID=59851892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018505257A Active JP6665925B2 (ja) 2016-03-18 2016-12-09 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法

Country Status (4)

Country Link
US (1) US10810749B2 (ja)
EP (1) EP3432260B1 (ja)
JP (1) JP6665925B2 (ja)
WO (1) WO2017158964A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3333828B1 (en) * 2015-08-04 2020-12-09 Nissan Motor Co., Ltd. Step detection device and step detection method
JP6950170B2 (ja) 2016-11-30 2021-10-13 株式会社リコー 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
JP7087499B2 (ja) * 2018-03-16 2022-06-21 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
JP7136663B2 (ja) * 2018-11-07 2022-09-13 日立Astemo株式会社 車載制御装置
JP2021018123A (ja) * 2019-07-19 2021-02-15 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法
JP7252111B2 (ja) * 2019-10-09 2023-04-04 株式会社Soken 推定装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109452A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 車両周囲監視装置及び車両周囲監視方法
JP2012168838A (ja) * 2011-02-16 2012-09-06 Fuji Heavy Ind Ltd 車両検出装置
JP2013030183A (ja) * 2012-09-28 2013-02-07 Toyota Central R&D Labs Inc 環境認識装置及びプログラム
JP2016029557A (ja) * 2014-07-14 2016-03-03 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4719543B2 (ja) 2005-09-26 2011-07-06 株式会社リコー ワークフローシステム、サーバ装置、ワークフローシステムの処理方法及びワークフロープログラム
JP2007102545A (ja) 2005-10-05 2007-04-19 Ricoh Co Ltd 電子文書作成装置、電子文書作成方法及び電子文書作成プログラム
JP4647515B2 (ja) 2006-02-20 2011-03-09 株式会社リコー 座標検出装置、筆記具および座標入力システム
JP6102088B2 (ja) 2011-09-01 2017-03-29 株式会社リコー 画像投影装置、画像処理装置、画像投影方法、画像投影方法のプログラム及びそのプログラムを記録した記録媒体
CN103177236B (zh) * 2011-12-22 2016-06-01 株式会社理光 道路区域检测方法和装置、分道线检测方法和装置
JP2014131257A (ja) 2012-11-27 2014-07-10 Ricoh Co Ltd 画像補正システム、画像補正方法及びプログラム
JP6274557B2 (ja) 2013-02-18 2018-02-07 株式会社リコー 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
JP5874756B2 (ja) * 2014-02-07 2016-03-02 トヨタ自動車株式会社 区画線検出システム及び区画線検出方法
JP6519262B2 (ja) 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US20160019429A1 (en) 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
JP6733225B2 (ja) 2016-03-08 2020-07-29 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109452A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 車両周囲監視装置及び車両周囲監視方法
JP2012168838A (ja) * 2011-02-16 2012-09-06 Fuji Heavy Ind Ltd 車両検出装置
JP2013030183A (ja) * 2012-09-28 2013-02-07 Toyota Central R&D Labs Inc 環境認識装置及びプログラム
JP2016029557A (ja) * 2014-07-14 2016-03-03 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム

Also Published As

Publication number Publication date
EP3432260B1 (en) 2023-10-18
US10810749B2 (en) 2020-10-20
EP3432260A4 (en) 2019-03-27
EP3432260A1 (en) 2019-01-23
WO2017158964A1 (ja) 2017-09-21
JP6665925B2 (ja) 2020-03-13
US20180365846A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
WO2017158964A1 (ja) 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法
US9443313B2 (en) Stereo camera apparatus
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
JP6733225B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6150164B2 (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JP6499047B2 (ja) 計測装置、方法及びプログラム
JP6592991B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP6810009B2 (ja) 視差算出装置
JP2013174494A (ja) 画像処理装置、画像処理方法、及び車両
JP2018092596A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
CN111989541B (zh) 立体摄像机装置
JP2005214914A (ja) 移動速度検出装置および移動速度検出方法
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
CN111316322B (zh) 路面区域检测装置
JP2009139325A (ja) 車両用走行路面検出装置
JP6466679B2 (ja) 物体検出装置
KR20220135186A (ko) 전자기기 및 제어방법
JP7134780B2 (ja) ステレオカメラ装置
JP6561688B2 (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム
JP2021009487A (ja) 情報処理装置及び車載システム
JP6349774B2 (ja) 画像処理装置、画像処理システム、画像処理方法
KR20230094853A (ko) 듀얼 카메라를 이용하여 거리를 계산하는 고속도로 주행지원 시스템의 성능 평가 장치와 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R151 Written notification of patent or utility model registration

Ref document number: 6665925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151