JP2021077061A - 障害物検知装置及び障害物検知方法 - Google Patents

障害物検知装置及び障害物検知方法 Download PDF

Info

Publication number
JP2021077061A
JP2021077061A JP2019202911A JP2019202911A JP2021077061A JP 2021077061 A JP2021077061 A JP 2021077061A JP 2019202911 A JP2019202911 A JP 2019202911A JP 2019202911 A JP2019202911 A JP 2019202911A JP 2021077061 A JP2021077061 A JP 2021077061A
Authority
JP
Japan
Prior art keywords
obstacle
road surface
vehicle
area
obstacle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019202911A
Other languages
English (en)
Other versions
JP6949090B2 (ja
Inventor
清水 浩一
Koichi Shimizu
浩一 清水
宏樹 藤好
Hiroki Fujiyoshi
宏樹 藤好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019202911A priority Critical patent/JP6949090B2/ja
Priority to CN202011212140.7A priority patent/CN112784671A/zh
Priority to DE102020213799.4A priority patent/DE102020213799A1/de
Publication of JP2021077061A publication Critical patent/JP2021077061A/ja
Application granted granted Critical
Publication of JP6949090B2 publication Critical patent/JP6949090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

【課題】障害物に対する検出精度を向上させた障害物検知装置を得ること。
【解決手段】車両に設置され、車両の周囲を撮影して、時系列で複数の画像を取得する撮像部と、複数の画像から抽出した特徴点のオプティカルフローの演算から、車両に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を出力するオプティカルフロー演算部と、複数の画像のそれぞれの画像において、車両の周囲を路面と判断できる路面領域と路面以外の物が写っている障害物領域に分けた結果を出力する路面検出部と、接近特徴点の情報と路面領域の情報に基づいて、車両の周囲の障害物を検知する障害物検知部とを備えた。
【選択図】図1

Description

本願は、障害物検知装置および障害物検知方法に関するものである。
近年、車載監視装置の一つとして、物体の形状を認識するセンサである車載カメラ装置を用いた技術の開発が進んでいる。車載カメラ装置は、車両の周辺に複数台の車載カメラを装着することで死角をなくしている。車載カメラ装置が障害物などの撮影対象物を専用の認識処理装置で画像認識することで、障害物との接触を回避して車両を運行することが可能となっている。
車両の周辺監視を目的としたカメラは、小型のカメラモジュールとして車両の取り付け場所に取り付けられる。取り付け場所は、車両前後に設けられたグリルガード、およびドアミラーなどが中心となる。死角を補うために、カメラモジュールのレンズ画角および車両取り付け角度などが車両毎に最適化される場合が多い。
このカメラを使用した障害物の認識の手法としては、障害物として撮影されたオブジェクトの特徴点をとらえ、映像フレームである個々の画像間でどのようにその特徴点が移動したかを調べるオプティカルフロー手法が開示されており、例えば、撮像画像のオプティカルフローに基づいて障害物との相対的な位置関係を算出している(例えば特許文献1参照)。
特開2011−203766号公報
上記特許文献1においては、オプティカルフローに基づいて障害物との相対的な位置関係を算出することはできる。しかしながら、オプティカルフローによる障害物検知では路面のひび割れ、汚れ、あるいは等間隔の路面標示および模様に対してもオプティカルフローが発生し誤検知するため、検出精度の向上が必要になるという課題があった。
本願は前記のような課題を解決するためになされたものであり、カメラ以外の他のセンサを追加して設けることなく、障害物に対する検出精度を向上させた障害物検知装置を得ることを目的としている。
本願に開示される障害物検知装置は、車両に設置され、車両の周囲を撮影して、時系列で複数の画像を取得する撮像部と、複数の画像から抽出した特徴点のオプティカルフローの演算から、車両に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を出力するオプティカルフロー演算部と、複数の画像のそれぞれの画像において、車両の周囲を路面と判断できる路面領域と路面以外の物が写っている障害物領域に分けた結果を出力する路面検出部と、接近特徴点の情報と路面領域の情報に基づいて、車両の周囲の障害物を検知する障害物検知部とを備えたものである。
本願に開示される障害物検知装置によれば、カメラ以外の他のセンサを追加して設けることなく、障害物に対する検出精度が向上される。
実施の形態1に係る障害物検知装置の構成の概要を示す図である。 実施の形態1に係る障害物検知装置の処理の概要を示す図である。 実施の形態1に係る障害物検知装置の撮影範囲の例を示す図である。 実施の形態1に係る障害物検知装置で撮影された画像の例を示す図である。 実施の形態1に係る障害物検知装置のオプティカルフロー処理の概要を示す図である。 実施の形態1に係る障害物検知装置の路面検出処理の概要を示す図である。 実施の形態1に係る障害物検知装置の路面検出処理のヒストグラムのパターンの例を示す図である。 実施の形態1に係る障害物検知装置の路面検出処理のヒストグラムの別のパターンの例を示す図である。 実施の形態1に係る障害物検知装置の路面検出処理のヒストグラムの別のパターンの例を示す図である。 実施の形態1に係る障害物検知装置の障害物検知処理の概要を示す図である。 実施の形態1に係る障害物検知装置で撮影された画像の別の例を示す図である。 実施の形態2に係る障害物検知装置に追加した処理の概要を示す図である。 実施の形態2に係る障害物検知装置で撮影された画像の例を示す図である。 実施の形態3に係る障害物検知装置の構成の概要を示す図である。 実施の形態4に係る障害物検知装置の構成の概要を示す図である。 実施の形態4に係る障害物検知装置で撮影された画像の例を示す図である。 実施の形態5に係る障害物検知装置で撮影された画像の例を示す図である。 実施の形態5に係る障害物検知装置で撮影された画像の別の例を示す図である。 障害物検知ECUのハードウエアの一例を示す構成図である。
以下、本願の実施の形態による障害物検知装置及および障害物検知方法を図に基づいて説明する。各図において同一、または相当部材、部位については同一符号を付して説明する。
実施の形態1.
図1は実施の形態1に係る障害物検知装置100の構成の概要を示す図、図2は障害物検知装置100の処理の概要を示す図、図3は障害物検知装置100の撮像部1であるカメラ11の撮影範囲12の例を示す図、図4は障害物検知装置100で撮影された画像の例を示す図である。障害物検知装置100は、ドライバーが運転する車両(以下、自車両10と記す)に搭載され、自車両10に接近する障害物を検知する装置である。障害物とは、例えば図4に示すように、二輪車を含む他の車両(以下、接近車両22と記す)などの移動物体である。障害物検知装置100は、図1に示すように、自車両10の周囲を撮影する撮像部1、時系列で撮影された画像データを蓄積するフレームバッファ2、自車両10に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を抽出するオプティカルフロー演算部3、自車両10の周囲の路面領域を抽出する路面検出部4、自車両10の周囲の障害物を検知する障害物検知部5、および障害物の検知結果を利用する映像表示部6、警報部7、制御部8を備える。これらの構成要素の中で、フレームバッファ2、オプティカルフロー演算部3、路面検出部4、および障害物検知部5で行われる処理は、画像処理機能を備えた障害物検知ECU(Electronic Control Unit)9において、プログラムにより実行される。制御部8は、障害物検知ECU9に含まれていないため、車載ネットワークを介して障害物検知ECU9と接続されている。
なお、障害物検知ECU9のハードウエアの一例は図19に示すように、プロセッサ110と記憶装置111から構成される。障害物検知ECU9が実行するプログラム、およびフレームバッファ2等に収納された画像データ等を備えた記憶装置111は、例えば、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ110は記憶装置111から入力されたプログラムを実行し、障害物検知ECU9が備えた障害物検知部5は自車両10の周囲の障害物を検知する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ110にプログラムが入力される。また、プロセッサ110は、演算結果等のデータを記憶装置111の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。
図1に示す障害物検知装置100の各部が行う障害物を検知する処理の概要を、図2を用いて説明する。検知処理は、ステップS1からステップS4の4つのステップを備える。撮像部1が行うステップS1は、自車両10の周囲を撮影して、時系列で複数の画像を取得して出力するステップである。オプティカルフロー演算部3が行うステップS2は、複数の画像から抽出した特徴点のオプティカルフローの演算から、自車両10に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を出力するステップである。路面検出部4が行うステップS3は、例えば図4に示される取得された画像において、自車両10の周囲に検出対象路面として設定した警報検出エリア14を分割して複数の路面検出領域15〜17とし、それぞれの路面検出領域の輝度値のヒストグラムを作成し、路面と判断できるリファレンスデータとしてのヒストグラムと比較して、複数の路面検出領域15〜17から路面領域を抽出し、警報検出エリア14を路面領域と路面以外の物が写っている障害物領域に分けた結果を出力するステップである。障害物検知部5が行うステップS4は、接近特徴点の情報と路面領域の情報に基づいて、障害物座標で囲まれた障害物情報領域としてバウンディングボックス19を作成して自車両10の周囲の障害物を検知するステップである。自車両10の周囲に障害物が検知されたときは、ドライバーに対して音または振動で警告するステップ(S5)、ドライバーに対して映像で表示して通知するステップ(S6)、自車両10とバウンディングボックス19で示された障害物との接触が回避されるように自車両10を制御するステップ(S7)が、警報部7、映像表示部6、制御部8のそれぞれで実施される。S5、S6、S7の各ステップは、全てを実施せず、何れかの実施であっても構わない。また、自車両10の周囲に障害物が検知されたときを、作成されたバウンディングボックス19の中に警報検出エリア14の少なくとも一部が含まれるときと定めてもよい。以下、障害物検知装置100の構成の詳細と、処理の詳細について説明する。
撮像部1は、自車両10に設置され、自車両10の周囲を撮影して、時系列で複数の画像を取得するカメラ11である。図3に示すように、ドアミラーの位置に設置されたカメラ11の撮影範囲12は、自車両10の左側後方である。この撮影範囲12は、自車両10が右ハンドルの車両である場合の、ドライバーの死角を補う目的で設定されている。カメラ11の設置箇所は、ドアミラーの位置に限るものではなく、自車両10の左側側面の他の箇所に設置箇所を設けて左側後方を撮影しても構わない。また撮影範囲12も、自車両10の左側後方に限るものではなく、自車両10の右側後方、もしくは自車両10の後方などを撮影して障害物を検知する領域を変更しても構わない。
図4を用いて、撮像部1が取得した画像について説明する。図4に示した画像の例には、障害物を検知する処理に必要な領域を破線で示している。画像の画角は、自車両10の側面10aが入る設定としている。自車両10の側面10aを基準にして、警報検出エリア14およびオプティカルフローの演算に利用するオプティカルフロー演算領域20を定めるためである。警報検出エリア14は、自車両10の周辺の障害物の検知に必要なエリアとして、予め定めておくエリアである。本実施の形態における警報検出エリア14は、画像に示された自車両10の側面10aから側方に1m、カメラ11から自車両10の後方に30mに相当するエリアとする。画像における警報検出エリア14を延長した終端は、消失点13となる。警報検出エリア14には、非障害物21であるひび割れ21a、および白線21bが含まれる。なお、警報検出エリア14はこれに限るものではなく、変更しても構わず、特に定めなくてもよい。例えば、警報検出エリア14を特に定めずに障害物検知を行う対象領域を画像に映る領域の全てとする場合は、警報検出エリア14を図4における自車両10を除いた右側の領域、かつ消失点13より下の領域としても良い。これは、画像では路面が消失点13よりも下の領域に現れるためである。警報検出エリア14は、自車両10から後方の距離に応じて複数のブロックに分けられる。自車両10に近い方から路面検出領域15、路面検出領域16、路面検出領域17とする。
カメラ11で撮影された画像データは、フレームバッファ2に出力される。フレームバッファ2は、過去数フレーム分の画像データを蓄積する。画像データは、フレームバッファ2を経由して、後段のオプティカルフロー演算部3、および路面検出部4のそれぞれに出力される。
オプティカルフロー演算部3は、複数の画像から抽出した特徴点のオプティカルフローの演算から、自車両10に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を出力する。図5は、実施の形態1に係る障害物検知装置100のオプティカルフロー処理の概要を示す図である。図5に基づいて、オプティカルフロー演算部3で行われる処理の詳細を説明する。最初に、画像の中から、オプティカルフローの演算に利用するオプティカルフロー演算領域20を部分画像として取得する(ステップS101)。本実施の形態では、オプティカルフロー演算領域20は自車両10を除いた画像右側のエリアとしたが、障害物を検知する領域であれば、画像の中のどの領域でも構わない。次に、オプティカルフロー演算領域20に対して、画像上のエッジが交差する点であるコーナー点の検出を行い、コーナー点を特徴点として抽出する(ステップS102)。なお、コーナー点を検出する手法は、例えばHarrisのコーナー検出アルゴリズムなど多数あるが、どの手法を用いても構わない。
次に、最新の画像から抽出した特徴点と、過去の画像から抽出した特徴点とのマッチングを行い、オプティカルフローの演算を行う(ステップS103)。最後に、演算した結果から、自車両10に接近するオプティカルフローの抽出を行う(ステップS104)。図3において、上下方向をY方向とし下方向を正、左右方向をX方向とし右方向を正とする。この定義において、自車両10に後方から接近する障害物のオプティカルフローは、Y成分が正のオプティカルフローを有する。反対に、建物および路上に駐車された車両などの、自車両10から遠ざかる構造物のオプティカルフローは、Y成分が負のオプティカルフローを有する。そのため、オプティカルフローの抽出では、Y成分が正のオプティカルフローを抽出する。オプティカルフロー演算部3は、抽出されたオプティカルフローの備える接近特徴点の情報を、障害物検知部5に出力する(ステップS105)。接近特徴点の情報とは、接近特徴点の座標、オプティカルフローのY成分長さ、X成分長さ、向き、移動量の長さなどである。
路面検出部4は、複数の画像のそれぞれの画像において、自車両10の周囲に検出対象路面として設定した警報検出エリア14を分割して複数の路面検出領域15〜17とし、それぞれの路面検出領域の輝度値のヒストグラムを作成し、路面と判断できるリファレンスデータとしてのヒストグラムと比較して、複数の路面検出領域15〜17から路面領域を抽出し、警報検出エリア14を路面領域と路面以外の物が写っている障害物領域に分けた結果を出力する。図6は、実施の形態1に係る障害物検知装置100の路面検出処理の概要を示す図である。図6に基づいて、路面検出部4で行われる処理の詳細を説明する。最初に、画像の中から、警報検出エリア14を部分画像として取得する(ステップS201)。次に、路面ヒストグラム抽出エリアを設定する(ステップS202)。自車両10の直近に設定された路面検出領域を路面ヒストグラム抽出エリアとし、路面ヒストグラム抽出エリアから得られたヒストグラムをリファレンスデータとして用いる。本実施の形態における路面の検出手法では、自車両10の直近の領域は路面であるということを前提とする。そのため、自車両10の直近の領域を撮影した画像から作成したヒストグラムをリファレンスデータとして利用する。図3に示した警報検出エリア14では、自車両10に最も近い領域である路面検出領域15をヒストグラム抽出エリアとして設定する。なお、ヒストグラム抽出エリアは、取得した画像における自車両10の直近の領域であればよいため、カメラの画角、カメラの設置位置、またはカメラの向きに応じて設定を変更して構わない。
次に、警報検出エリア14の路面検出領域15〜17のそれぞれにおけるヒストグラムを作成する(ステップS203)。路面検出領域15〜17に各画素に輝度値を割り当てて、横軸を輝度値、縦軸を度数とした輝度値のヒストグラムが作成される。輝度値は、例えば0(黒)から255(白)の範囲で表される。図7は、実施の形態1に係る障害物検知装置100の路面検出処理で作成されたヒストグラムのパターンの例として、路面検出領域15についてのヒストグラムを示す図である。路面検出領域15は路面の領域が大半を占めているため、グレーの輝度が多く、G1の度数ピークが現れる。なお、ヒストグラムは横軸の輝度値を階級、その頻度を縦軸に示して画像の特徴を捉えた図であるが、路面には白線の他に黄色線、さらには赤もしくは青ペイントで塗られた路面もあるため、R、G、Bを組み合わせて階級を作り、その階級毎に頻度をとって色も含めて路面の特徴を捉えても構わない。
図8は実施の形態1に係る障害物検知装置100の路面検出処理で作成されたヒストグラムのパターンの例として、路面検出領域16についてのヒストグラムを示す図、図9は路面検出領域17についてのヒストグラムを示す図である。路面検出領域16のヒストグラムには、路面検出領域15のG1と同様に、路面としての特徴輝度を示すG2の度数ピークが現れる。また、路面検出領域16には白線21bが含まれているため、白線21bの輝度に対応したG3の度数ピークが現れている。図9に示すように、路面検出領域17のヒストグラムには、路面検出領域15のG1、路面検出領域16のG2と同様に路面としての特徴輝度を示すG5の度数ピークが現れ、白線21bの輝度に対応したG6の度数ピークが現れている。さらに、路面検出領域17には自車両10に接近する接近車両22が含まれているため、接近車両22に対応した2つの度数ピークG4、G7が現れる。G4は、接近車両22と路面との境界で接近車両22のタイヤおよび影となっている輝度の最も低い度数ピークである。G7は、一般的に光を反射しやすい色になっている自車両10の側面で、輝度の高い度数ピークである。
最後に、路面検出領域15のヒストグラムをリファレンスデータとして、警報検出エリア14の中から路面である領域を抽出する(ステップS204)。ヒストグラムを利用して路面領域を抽出する方法は多数あるが、ここではリファレンスデータのヒストグラムと他の領域のヒストグラムとを比較し、リファレンスデータに類似するヒストグラムの領域を路面として判定し、路面領域として抽出する。ヒストグラムの類似度は、ヒストグラムの形状および分布している輝度値の範囲から判定することができるが、ヒストグラムの類似度を判定する手法はこの手法に限定するものではない。路面と判定された領域の輝度値を255、路面でないと判定された領域(以下、障害物領域と記す)の輝度値を0として、二値化画像を作成する。路面検出部4は、警報検出エリア14を路面領域と障害物領域に分けた結果である二値化画像を障害物検知部5に出力する(ステップS205)。また、路面検出部4は、後述するバウンディングボックスの四隅の障害物座標の補正に用いるために、ヒストグラムの作成に利用した警報検出エリア14の各画素の輝度値の情報を障害物検知部5に出力する。
なお、警報検出エリア14を3つに分割して路面検出領域15〜17を定義したが、この路面検出領域をさらに分割した小さな領域に対して路面領域を抽出しても構わない。小さな領域の輝度値からヒストグラムを作成してヒストグラムの類似度から路面か判定することによって、路面と自車両との距離分解能が高くなる。また、小さな領域ごとにヒストグラムを作成するのではなく、一般的に既知であるヒストグラムの逆投影法を用いて、警報検出エリア14内の各画素の輝度値から画素毎に路面判定をしても構わない。路面検出に求める距離分解能に応じて、最適な路面抽出方法を選択するのがよい。
本実施の形態では、警報検出エリア14を路面領域と障害物領域に分ける路面検出の手法を、ヒストグラムを利用した例で説明しているが、路面検出の手法はこの手法に限るものではない。本手法の要件満たしていれば、路面検出の手法は問わない。その他の路面検出の手法としては、モーションステレオによる路面検出手法、路面の色特徴量を学習した路面検出手法、またはディープラーニングを利用した画像セグメンテーションによる路面検出手法などがある。
障害物検知部5は、オプティカルフロー演算部3から出力された接近特徴点の情報と路面検出部4から出力された路面領域の情報に基づいて、障害物座標で囲まれた障害物情報領域であるバウンディングボックスを作成して、自車両10の周囲の障害物である接近車両22を検知する。図10は、実施の形態1に係る障害物検知装置100の障害物検知処理の概要を示す図である。図10に基づいて、障害物検知部5で行われる処理の詳細を説明する。最初に、入力された接近特徴点の情報から、路面領域にある接近特徴点の情報を削除する(ステップS301)。接近特徴点の座標が路面領域にある場合、その特徴点の情報は、路面上の模様、またはひび割れといった非障害物から発生した誤フローであると判定して削除する。次に、削除されずに残された接近特徴点の座標および接近特徴点のフローの方向から、近接した位置にあり、フローの方向が一致する接近特徴点をまとめて、グループ化を行う(ステップS302)。グループ化して生じた複数の接近特徴点のグループを分類して、接近特徴点を囲う矩形のバウンディングボックスを作成する(ステップS303)。このようにバウンディングボックスは、路面領域以外の領域に含まれる、接近特徴点の情報を用いて作成される。作成したそれぞれのバウンディングボックスの情報を、自車両10の周囲の障害物の検知結果として、映像表示部6、警報部7、制御部8に出力する(ステップS304)。図4では、作成されたバウンディングボックス19の情報が出力される。バウンディングボックスの情報とは、座標、サイズ、個数、フローの平均長、フローの平均向きである。
自車両10の周囲に障害物が検知されたとき、警報部7は自車両10のドライバーに対して音または振動で通知する。振動で通知する場合、例えば、EPS(electric power steering)に信号を送り、EPSに高周波の振動を発生させることでハンドルを振動させ、ドライバーに通知する。なお、ハンドルを振動させるために、ハンドル振動用モータをハンドルに取り付けて、モータを振動させることでハンドルを振動させても構わない。また、音または振動での通知を使い分けてもよい。例えば、バウンディングボックスの中に警報検出エリア14の少なくとも一部が含まれるときはまず音で通知し、接近車両22が自車両10に接触の可能性があるところまで接近したときに振動で通知してもよい。
自車両10の周囲に障害物が検知されたとき、映像表示部6は、自車両10のドライバーに対してバウンディングボックスの位置を映像で表示して通知する。また制御部8は、自車両10とバウンディングボックスで示された障害物である接近車両22との接触が回避されるように自車両10を制御する。自車両10は、映像表示部6、警報部7、制御部8の全てを備えていなくてもよく、何れか1つまたは2つを備えてもよい。
接近特徴点の座標が路面領域にある場合、その接近特徴点の情報を削除することで、図3に示されたひび割れ21a、白線21bに係る接近特徴点は削除される。削除される接近特徴点はこれらの例に限るものではなく、路面領域の中の水たまり、路面に描かれたゼブラパターンに係る接近特徴点も削除される。図11は、実施の形態1に係る障害物検知装置100で撮影された画像の別の例を示す図である。警報検出エリア14の端部に、路肩の縁石21cが規則正しく繰り返して形成されている。縁石21cについての特徴点も接近特徴点の情報に含まれる場合があるが、規則正しく形成された縁石21cのような非障害物であっても、接近特徴点の座標が路面検出領域にある場合、その接近特徴点の情報は削除される。
以上では、入力された画像に対して、オプティカルフローの演算と路面の抽出を並列して行っているが、まず路面領域の抽出を行い、出力された結果を基に、障害物領域に対してオプティカルフローの演算を行うことで、路面領域の模様等による誤フローを削減しても構わない。また、バウンディングボックスは、路面領域に含まれる接近特徴点を削除した後に作成したがこれに限るものではなく、接近特徴点を削除せずにバウンディングボックスを作成し、その後、路面領域のみに含まれるバウンディングボックスを削除して誤フローを除いても構わない。また、バウンディングボックスを作成することで障害物を検知したが、障害物の検知はバウンディングボックスの作成に限るものではなく、点群もしくは二値化画像などを利用した障害物の検知であっても構わない。
以上のように、この障害物検知装置100は、オプティカルフロー演算部3から出力された接近特徴点の情報と路面検出部4から出力された路面領域の情報に基づいて、自車両10の周囲の障害物である接近車両22を検知するため、カメラ以外の他のセンサを追加して設けることなく、障害物である接近車両22に対する検出精度を向上させることができる。また、路面領域以外の領域に含まれる接近特徴点の情報に基づいてバウンディングボックスを作成するため、路面領域に含まれる接近特徴点の情報は削除され、障害物の検出精度を向上させることができる。また、自車両10の周囲に障害物が検知されたとき、自車両10のドライバーに対して音または振動で通知する警報部7を備えたため、ドライバーに接近車両22の存在を適正なタイミングで知らせることができる。また、自車両10の周囲に障害物が検知されたとき、自車両10のドライバーに対してバウンディングボックスの位置を映像で表示して通知する映像表示部6を備えたため、ドライバーに接近車両22の位置を適正なタイミングで知らせることができる。また、接近車両22に対する検出精度が向上しているため、誤警報が軽減される。また、自車両10の周囲に障害物が検知されたとき、自車両10とバウンディングボックスで示された障害物との接触が回避されるように自車両10を制御する制御部8を備えたため、ドライバーの操作を介さずに障害物との接触を適正なタイミングで回避することができる。
実施の形態2.
実施の形態2に係る障害物検知装置100について説明する。図12は障害物検知装置100に追加した処理の概要を示す図である。実施の形態2に係る障害物検知装置100の処理は、実施の形態1の処理に加えて、検知された障害物の座標を補正する処理を加えた構成になっている。
障害物検知部5は、検知された障害物の座標を路面検出部4から出力された路面領域と障害物領域に基づいて補正する。具体的には、例えばステップS303で作成したバウンディングボックスの四隅の障害物座標を路面検出部4から出力された路面検出領域の一部の輝度値の情報を利用して補正する(ステップS401)。図4に示した画像の例において、図10に示したステップS303では、バウンディングボックス19が作成される。図6に示したステップS203では、各路面検出領域の各画素に輝度値を割り当てて、各路面検出領域のヒストグラムが作成される。接近車両22の特徴を備えた度数ピークを含む路面検出領域17のヒストグラムと接近車両22の度数ピークを持たない路面検出領域16のヒストグラムとの比較から、接近車両22のタイヤおよび影となっている輝度の最も低い度数ピークG4が路面検出領域17にのみあることがわかる。ヒストグラムを作成する際に路面検出領域の各画素に割り当てられた輝度値から、警報検出エリア14の路面検出領域17と路面検出領域16の境界付近になんらか路面以外の障害物、つまりG4が得られた領域があると認識できる。この情報に基づいて、バウンディングボックス19の障害物座標がバウンディングボックス18の障害物座標にあると推測した方が、路面検出処理で得たヒストグラムと一致すると判断できる。接近車両22のバウンディングボックス19の四隅の障害物座標をバウンディングボックス18の四隅の障害物座標に補正し、修正後のバウンディングボックス18の情報を障害物検知部5の処理結果として出力する(ステップS402)。これにより、自車両10と接近車両22の距離の精度を高めることができる。なお、補正は輝度値の情報を利用した手法に限るものではなく、ヒストグラムを利用しない路面検出手法を用いた場合は、用いた手法に応じた補正で構わない。
図13は、実施の形態2に係る障害物検知装置100で撮影された画像の例を示す図である。図13における接近車両は、二輪車22aである。オプティカルフロー演算部3の処理において、二輪車22aの場合、タイヤのコーナー点が特に抽出されにくい。そのため、図13に示した画像の例において、図10に示したステップS303では、バウンディングボックス24が作成される。図6に示したステップS203では、路面検出領域15〜17のヒストグラムが作成される。二輪車22aの特徴を備えた度数ピークを含む路面検出領域16のヒストグラムと二輪車22aの度数ピークを持たない路面検出領域15のヒストグラムとの比較から、二輪車22aのタイヤおよび影となっている輝度の最も低い度数ピークが路面検出領域16にのみあることがわかる。ヒストグラムを作成する際に路面検出領域の各画素に割り当てられた輝度値から、警報検出エリア14の路面検出領域16と路面検出領域15の境界付近になんらか路面以外の障害物があると認識できる。この情報に基づいて、バウンディングボックス24の四隅の障害物座標がバウンディングボックス23の四隅の障害物座標にあると推測した方が、路面検出処理で得たヒストグラムと一致すると判断できる。二輪車22aのバウンディングボックス24の四隅の障害物座標をバウンディングボックス23の四隅の障害物座標に補正し、修正後のバウンディングボックス23の情報を障害物検知部5の処理結果として出力する。バウンディングボックス23の下端の座標は自車両10からの距離推定に使用されることから、警報検出エリア14の中で二輪車22aの位置を1m以上近くに修正することで、ドライバーに対して正確な障害物の位置を伝えることができる。
以上のように、この障害物検知装置100は、障害物検知部5がオプティカルフロー演算部3の作成したバウンディングボックスの四隅の障害物座標を路面検出部4から出力された路面検出領域の一部の輝度値の情報を利用して補正するため、自車両10と接近車両22との距離の精度を高めることができる。
実施の形態3.
実施の形態3に係る障害物検知装置100について説明する。図14は障害物検知装置100の構成の概要を示す図である。実施の形態3に係る障害物検知装置100は、実施の形態1の構成に加えて、車両情報取得部25を備えた構成になっている。
車両情報取得部25は、自車両10の走行情報を取得する。走行情報とは、自車両10の車速、ヨーレート、GPSなどの情報である。車両情報取得部25は、例えば自車両10の車載ネットワークを介して走行情報を取得する。取得した走行情報は、オプティカルフロー演算部3、路面検出部4、障害物検知部5のそれぞれに出力される。オプティカルフロー演算部3は、走行情報を用いて、複数の画像から抽出した特徴点のオプティカルフロー演算から、接近特徴点を抽出する。障害物の検知処理に走行情報を用いることで、障害物の誤検出または未検出を防ぎ、障害物検知の精度が向上される。以下、走行情報を利用した具体例について説明する。
車両の旋回時は、車両が直進している場合と比べてオプティカルフローが異なる。車両の旋回時に、建物などの構造物から、接近する障害物の様な画面下方向のオプティカルフローが検出される場合がある。そのため、走行情報としてヨーレートを利用して自車両10の旋回を判定し、ヨーレートの値に応じてオプティカルフロー演算時に車両の旋回に応じた向きのオプティカルフローを除去することで誤検出は軽減し、障害物の検出精度は改善される。
以上のように、この障害物検知装置100は、自車両10の走行情報を取得する車両情報取得部25を備え、オプティカルフロー演算部3は、走行情報を用いて、複数の画像から抽出した特徴点のオプティカルフロー演算から、接近特徴点の情報を抽出するため、障害物の検出精度を向上させることができる。
実施の形態4.
実施の形態4に係る障害物検知装置100について説明する。図15は障害物検知装置100の構成の概要を示す図である。実施の形態4に係る障害物検知装置100は、実施の形態3の構成に加えて、路面境界線追跡部26を備えた構成になっている。
路面境界線追跡部26は、路面検出部4と障害物検知部5の間に設けられ、路面検出部4が出力した二値化画像に基づいて、警報検出エリア14の中の路面領域と障害物領域との間に位置する路面境界線を連続した複数の画像において記録する。路面境界線追跡部26は、路面検出部4が出力した二値化画像と共に、複数の画像の路面境界線を障害物検知部5に出力する。
障害物検知部5は、複数の画像のうち連続した2つの画像の間で、2つの画像のそれぞれにおいて作成されたバウンディングボックスの対応付けを行って障害物の対応付けを行う処理を行い、この処理において、2つの画像で対応付けされていたバウンディングボックスが最新の画像において対応付けできない場合、路面境界線追跡部26が記録した連続した2つの画像の路面境界線の位置を比較する。2つの画像の路面境界線の位置に変化がない場合は、最新の画像において、最新の画像のひとつ前の画像のバウンディングボックスの位置と同じ位置にバウンディングボックスを作成して、障害物が存在すると判定する。以下、路面境界線を利用した具体例について説明する。
図16は、実施の形態4に係る障害物検知装置100で撮影された画像の例を示す図である。図16における接近車両は、自車両10と並走している二輪車22bである。二輪車22bが並走している場合、自車両10と二輪車22bとの間に相対速度が生じていないためオプティカルフローの演算ができず、障害物検知部5はオプティカルフローを用いて障害物を検出できない。時系列で障害物を捉えた場合、自車両10への接近時は相対速度が生じていたため、過去の画像ではオプティカルフローから障害物は検出できている。過去の画像で検出していた路面境界線を記録しておくことで、バウンディングボックスの出現、または消失までの流れは追跡できる。
警報検出エリア14の路面検出領域15、17からは、二輪車22bの影響を受けないため、路面の特徴を備えた図7のヒストグラムが作成される。路面検出領域16からは、二輪車22bの特徴を備えた図9に類似するヒストグラムが生じる。自車両10と二輪車22bが並走している場合、自車両10と二輪車22b位置が変わらなければヒストグラムのパターンの特徴は大きく変わることはないと考えられる。オプティカルフローにより障害物を検出できない状態でも、連続した複数の画像の路面境界線と最新の画像の路面境界線とを比較することで、二輪車22bの存在と位置を推定することができる。
障害物があると推定ができるのは、既にバウンディングボックスが作成されていて障害物が認識されている場合である。バウンディングボックスが突然消えた時でも、路面境界線追跡部26によって記録された過去の路面境界線と、現在の路面境界線に変化が無ければ、障害物は前の画像から相対速度0で存在すると判定し、前の画像で作成されたバウンディングボックスと同じ位置にバウンディングボックスを作成してバウンディングボックスの情報を出力する。これにより、並走状態になった障害物が引き続き検知可能になるため、障害物の未検知が軽減される。
以上のように、この障害物検知装置100は、路面境界線追跡部26を備え、複数の画像の路面境界線の位置と最新の画像の路面境界線の位置に変化がない場合はバウンディングボックスが最新の画像のひとつ前の画像と同じ位置に存在すると判定し、最新の画像においてひとつ前の画像と同じ位置にバウンディングボックスを作成して障害物が存在すると判定するため、接近車両が並走状態となりオプティカルフローにより障害物を検出できない状態でも、障害物が引き続き検知可能であり、障害物の未検知を軽減することができる。
なお、2つの画像の路面境界線の位置に変化がない場合について説明したが、変化があった場合は以下の処理を行う。路面境界線の位置がひとつ前の画像に比べて後退した場合、障害物は後退したと判断して、最新の画像の路面境界線の位置にバウンディングを作成する。路面境界線がなくなった場合、障害物は警報検出エリアから脱したと判定し、バウンディングボックスの情報を破棄する。路面境界線の位置がひとつ前の画像に比べて前進した場合、ひとつ前の画像における障害物の移動速度から、最新の画像の障害物の位置を推定する。推定した位置より、路面境界線が画像における上側、実座標上で自車両の後方側にある場合は、オプティカルフローは検出されないが僅かに前進していると判断してバウンディングボックスを路面境界線上に作成する。推定した位置より、路面境界線が前にある場合は別の車両が車両前方より後退してきたと判定して、路面境界線上にバウンディングボックスを作成する。
実施の形態5.
実施の形態5に係る障害物検知装置100について説明する。実施の形態5に係る障害物検知装置100の処理は、実施の形態4の処理に加えて、バウンディングボックスが作成されず障害物が検知できない場合の処理を加えた構成になっている。
オプティカルフロー演算部3において接近特徴点を抽出できず、障害物検知部5においてバウンディングボックスが作成されず障害物が検知できない場合、障害物検知部5は、連続した複数の画像の路面境界線の位置と自車両10との距離を比較し、距離が縮まっているときは、路面境界線の座標を障害物の座標として検知する。以下、この処理の具体例について説明する。
図17は実施の形態5に係る障害物検知装置100で撮影された画像の例を示す図、図18は画像の別の例を示す図である。図17および図18における接近車両は、画像の消失点の近傍から自車両10に接近する二輪車22cである。消失点の近傍からカメラに向かって真っ直ぐに接近する障害物については、オプティカルフロー演算部3において接近特徴点の抽出ができず、障害物検知部5はバウンディングボックスを作成して障害物を検出することができない。カメラに向かって真っ直ぐに接近するため、オプティカルフローの演算ができないためである。バウンディングボックスが作成されず障害物が検知できない場合、路面境界線を利用することで障害物を検知する。
消失点の近傍では警報検出エリア14の輝度階調の分解能を高めておき、さらに画像中の警報検出エリア14を狭く分割しておく。二輪車22cが路面検出領域17に含まれる場合、タイヤ接地付近は路面の輝度よりも低い輝度となり、図9に類似するヒストグラムが生じる。このヒストグラムが図17から図18で、路面検出領域17から路面検出領域16へと移動する。それに伴い路面境界線の位置も移動する。このように路面境界線の位置と自車両10との距離が縮まっている場合は、路面境界線の座標の位置に障害物があると推定し、路面境界線の座標を障害物の座標とする。この路面境界線が近づく状態を認識することによりオプティカルフロー演算部3でバウンディングボックスの作成が困難な場合でも、自車両10に対する接近車両を推定して検知することが可能となる。
以上のように、この障害物検知装置100は、接近特徴点の抽出ができずにバウンディングボックスが作成されず障害物が検知できない場合においても、複数の画像の路面境界線の位置と自車両10との距離が縮まっているときは、路面境界線の座標を障害物の座標として検知するため、障害物を検知することができる。
また本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1 撮像部、2 フレームバッファ、3 オプティカルフロー演算部、4 路面検出部、5 障害物検知部、6 映像表示部、7 警報部、8 制御部、9 障害物検知ECU、10 自車両、10a 側面、11 カメラ、12 撮影範囲、13 消失点、14 警報検出エリア、15 路面検出領域、16 路面検出領域、17 路面検出領域、18 バウンディングボックス、19 バウンディングボックス、20 オプティカルフロー演算領域、21 非障害物、21a ひび割れ、21b 白線、21c 縁石、22 接近車両、22a 二輪車、22b 二輪車、22c 二輪車、23 バウンディングボックス、24 バウンディングボックス、25 車両情報取得部、26 路面境界線追跡部、100 障害物検知装置、110 プロセッサ、111 記憶装置
本願に開示される障害物検知装置は、車両に設置され、車両の周囲を撮影して、時系列で複数の画像を取得する撮像部と、複数の画像から抽出した特徴点のオプティカルフローの演算から、車両に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を出力するオプティカルフロー演算部と、複数の画像のそれぞれの画像において、車両の周囲を路面と判断できる路面領域と路面以外の物が写っている障害物領域に分けた結果を出力する路面検出部と、接近特徴点の情報と路面領域の情報に基づいて、車両の周囲の障害物を検知する障害物検知部とを備え、障害物検知部は、検知された障害物を囲う矩形のバウンディングボックスの四隅の座標を路面検出部から出力された路面領域と障害物領域に基づいて補正する

Claims (11)

  1. 車両に設置され、前記車両の周囲を撮影して、時系列で複数の画像を取得する撮像部と、
    前記複数の画像から抽出した特徴点のオプティカルフローの演算から、前記車両に接近する特徴点を接近特徴点として抽出して前記接近特徴点の情報を出力するオプティカルフロー演算部と、
    前記複数の画像のそれぞれの画像において、前記車両の周囲を路面と判断できる路面領域と前記路面以外の物が写っている障害物領域に分けた結果を出力する路面検出部と、
    前記接近特徴点の情報と前記路面領域の情報に基づいて、前記車両の周囲の障害物を検知する障害物検知部と、を備えたことを特徴とする障害物検知装置。
  2. 前記障害物検知部は、前記路面領域以外の領域に含まれる、前記接近特徴点の情報を用いて前記障害物を検知することを特徴とする請求項1に記載の障害物検知装置。
  3. 前記障害物検知部は、検知された前記障害物の座標を前記路面検出部から出力された前記路面領域と前記障害物領域に基づいて補正することを特徴とする請求項1または請求項2に記載の障害物検知装置。
  4. 前記車両の走行情報を取得する車両情報取得部を備え、
    前記オプティカルフロー演算部は、前記走行情報を用いて、前記複数の画像から抽出した特徴点のオプティカルフロー演算から、前記接近特徴点を抽出することを特徴とする請求項1から請求項3のいずれか1項に記載の障害物検知装置。
  5. 前記路面領域と前記障害物領域との間の路面境界線を連続した複数の画像において記録する路面境界線追跡部を備え、
    前記障害物検知部は、前記複数の画像のうち連続した2つの画像の間で、前記2つの画像のそれぞれにおいて検出された前記障害物の対応付けを行う処理を行い、前記処理において、前記2つの画像で対応付けされていた前記障害物が最新の画像において対応付けできない場合、
    前記路面境界線追跡部が記録した連続した前記2つの画像の前記路面境界線の位置を比較し、
    前記2つの画像の前記路面境界線の位置に変化がない場合は、前記最新の画像において、前記最新の画像のひとつ前の画像の前記障害物の位置と同じ位置に前記障害物が存在すると判定することを特徴とする請求項1から請求項4のいずれか1項に記載の障害物検知装置。
  6. 前記オプティカルフロー演算部において前記接近特徴点を抽出できず、前記障害物検知部において前記障害物が検知できない場合、
    前記障害物検知部は、連続した前記複数の画像の前記路面境界線の位置と前記車両との距離を比較し、前記距離が縮まっているときは、前記路面境界線の座標を前記障害物の座標として検知することを特徴とする請求項5に記載の障害物検知装置。
  7. 前記車両の周囲に前記障害物が検知されたとき、前記車両のドライバーに対して音で通知する警報部を備えたことを特徴とする請求項1から請求項6のいずれか1項に記載の障害物検知装置。
  8. 前記車両の周囲に前記障害物が検知されたとき、前記車両のドライバーに対してハンドルを振動させて通知する警報部を備えたことを特徴とする請求項1から請求項6のいずれか1項に記載の障害物検知装置。
  9. 前記車両の周囲に前記障害物が検知されたとき、前記車両のドライバーに対して前記障害物領域の位置を映像で表示して通知する映像表示部を備えたことを特徴とする請求項1から請求項8のいずれか1項に記載の障害物検知装置。
  10. 前記車両の周囲に前記障害物が検知されたとき、前記車両と前記障害物領域で示された障害物との接触が回避されるように前記車両を制御する制御部を備えたことを特徴とする請求項1から請求項9のいずれか1項に記載の障害物検知装置。
  11. 車両に接近する障害物を検知する障害物検知方法であって、
    前記車両の周囲を撮影して時系列で複数の画像を取得して出力するステップと、
    複数の前記画像から抽出した特徴点のオプティカルフローの演算から、前記車両に接近する特徴点を接近特徴点として抽出して前記接近特徴点の情報を出力するステップと、
    前記複数の画像のそれぞれの画像において、前記車両の周囲を路面と判断できる路面領域と前記路面以外の物が写っている障害物領域に分けた結果を出力するステップと、
    前記接近特徴点の情報と前記路面領域の情報に基づいて、前記車両の周囲の前記障害物を検知するステップと、
    を備えたことを特徴とする障害物検知方法。
JP2019202911A 2019-11-08 2019-11-08 障害物検知装置及び障害物検知方法 Active JP6949090B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019202911A JP6949090B2 (ja) 2019-11-08 2019-11-08 障害物検知装置及び障害物検知方法
CN202011212140.7A CN112784671A (zh) 2019-11-08 2020-11-03 障碍物检测装置及障碍物检测方法
DE102020213799.4A DE102020213799A1 (de) 2019-11-08 2020-11-03 Hindernisdetektionsvorrichtung und Hindernisdetektionsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019202911A JP6949090B2 (ja) 2019-11-08 2019-11-08 障害物検知装置及び障害物検知方法

Publications (2)

Publication Number Publication Date
JP2021077061A true JP2021077061A (ja) 2021-05-20
JP6949090B2 JP6949090B2 (ja) 2021-10-13

Family

ID=75584028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019202911A Active JP6949090B2 (ja) 2019-11-08 2019-11-08 障害物検知装置及び障害物検知方法

Country Status (3)

Country Link
JP (1) JP6949090B2 (ja)
CN (1) CN112784671A (ja)
DE (1) DE102020213799A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114782447B (zh) * 2022-06-22 2022-09-09 小米汽车科技有限公司 路面检测方法、装置、车辆、存储介质及芯片

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067752A (ja) * 2001-08-28 2003-03-07 Yazaki Corp 車両周辺監視装置
JP2003187228A (ja) * 2001-12-18 2003-07-04 Daihatsu Motor Co Ltd 車両認識装置及び認識方法
JP2004246791A (ja) * 2003-02-17 2004-09-02 Advics:Kk 自動車の制動用警報方法および制動用警報装置
WO2011018999A1 (ja) * 2009-08-12 2011-02-17 日本電気株式会社 障害物検知装置及び方法並びに障害物検知システム
JP2017068700A (ja) * 2015-09-30 2017-04-06 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出方法、及びプログラム
JP2017084019A (ja) * 2015-10-26 2017-05-18 トヨタ自動車東日本株式会社 対象物検出装置、対象物検出方法、及び、対象物検出プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812598B2 (ja) * 2010-12-06 2015-11-17 富士通テン株式会社 物体検出装置
CN107316006A (zh) * 2017-06-07 2017-11-03 北京京东尚科信息技术有限公司 一种道路障碍物检测的方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067752A (ja) * 2001-08-28 2003-03-07 Yazaki Corp 車両周辺監視装置
JP2003187228A (ja) * 2001-12-18 2003-07-04 Daihatsu Motor Co Ltd 車両認識装置及び認識方法
JP2004246791A (ja) * 2003-02-17 2004-09-02 Advics:Kk 自動車の制動用警報方法および制動用警報装置
WO2011018999A1 (ja) * 2009-08-12 2011-02-17 日本電気株式会社 障害物検知装置及び方法並びに障害物検知システム
JP2017068700A (ja) * 2015-09-30 2017-04-06 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出方法、及びプログラム
JP2017084019A (ja) * 2015-10-26 2017-05-18 トヨタ自動車東日本株式会社 対象物検出装置、対象物検出方法、及び、対象物検出プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山口晃一郎、加藤武男、二宮芳樹: "車載単眼カメラによる車両前方の障害物検出", 情報処理学会研究報告, vol. 第2005巻 第112号, JPN6021003935, 18 November 2005 (2005-11-18), JP, pages 69 - 76, ISSN: 0004441981 *

Also Published As

Publication number Publication date
JP6949090B2 (ja) 2021-10-13
CN112784671A (zh) 2021-05-11
DE102020213799A1 (de) 2021-05-12

Similar Documents

Publication Publication Date Title
US9721460B2 (en) In-vehicle surrounding environment recognition device
JP4930046B2 (ja) 路面判別方法および路面判別装置
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
KR101243108B1 (ko) 차량의 후방 영상 표시 장치 및 방법
JP2007300181A (ja) 周辺認識装置、周辺認識方法、プログラム
WO2018116841A1 (ja) 物体検出装置
US20160180158A1 (en) Vehicle vision system with pedestrian detection
JP4980939B2 (ja) 撮像手段の調整装置および物体検出装置
CN112036210A (zh) 一种检测障碍物的方法、装置、存储介质和移动机器人
JP2008158640A (ja) 移動物体検出装置
JP2007280132A (ja) 走行誘導障害物検出装置および車両用制御装置
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP2015148887A (ja) 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム
JP4930256B2 (ja) 隣接車両検出装置および隣接車両検出方法
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6949090B2 (ja) 障害物検知装置及び障害物検知方法
JP2018073275A (ja) 画像認識装置
JP2010061375A (ja) 物体認識装置及びプログラム
JPH0973529A (ja) 二輪車監視装置
JP4321410B2 (ja) 物体検出装置、および方法
KR20160126254A (ko) 도로 영역 검출 시스템
JP2007018451A (ja) 道路区画線検出装置
JP7229032B2 (ja) 車外物体検出装置
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
JP6987173B2 (ja) 障害物検知装置及びこれを備えた障害物検知システム、障害物検知方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210921

R151 Written notification of patent or utility model registration

Ref document number: 6949090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151