JP6584862B2 - 物体検出装置、物体検出システム、物体検出方法及びプログラム - Google Patents

物体検出装置、物体検出システム、物体検出方法及びプログラム Download PDF

Info

Publication number
JP6584862B2
JP6584862B2 JP2015162369A JP2015162369A JP6584862B2 JP 6584862 B2 JP6584862 B2 JP 6584862B2 JP 2015162369 A JP2015162369 A JP 2015162369A JP 2015162369 A JP2015162369 A JP 2015162369A JP 6584862 B2 JP6584862 B2 JP 6584862B2
Authority
JP
Japan
Prior art keywords
object detection
group
vehicle
size
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015162369A
Other languages
English (en)
Other versions
JP2017041100A (ja
Inventor
山本 徹夫
徹夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015162369A priority Critical patent/JP6584862B2/ja
Priority to US15/195,653 priority patent/US10019636B2/en
Publication of JP2017041100A publication Critical patent/JP2017041100A/ja
Application granted granted Critical
Publication of JP6584862B2 publication Critical patent/JP6584862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両の周辺の物体を検出する技術に関する。
従来より、車両の周辺を撮影するカメラで得られた撮影画像を用いて物体を検出する物体検出装置が提案されている。物体検出装置は、例えば、フロントカメラで得られた撮影画像に基づいて物体を検出する。このような物体検出装置の検出結果をユーザ(主にドライバ)に報知することにより、ユーザは見通しの悪い交差点や駐車場などにおいて死角となる位置から接近する他の車両等の物体を容易に把握できる。
このような物体検出装置における物体の検出方式として、オプティカルフロー方式が知られている。オプティカルフロー方式は、周期的に得られる撮影画像(フレーム)から特徴点を抽出し、撮影画像間での特徴点の動きを示すベクトルであるオプティカルフローを導出する。そして、このオプティカルフローに基づいて、自車両の周辺の物体を検出する(例えば、特許文献1参照。)。
特開2014−146083号公報
ところで、オプティカルフロー方式を採用した場合、自車両の走行中においては、移動する物体だけではなく、背景に関してもオプティカルフローが導出される。このような背景に係るオプティカルフローは物体の誤検出の要因となる。
従来の物体検出装置では、このような物体の誤検出を回避するように物体の検出感度が一定に定められている。このため、物体検出装置の物体の検出性能を向上することは難しかった。
本発明は、上記課題に鑑みてなされたものであり、物体の検出性能を向上する技術を提供することを目的とする。
上記課題を解決するため、請求項1の発明は、車両の周辺の物体を検出する物体検出装置であって、前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する導出手段と、前記導出手段が導出したオプティカルフローのうちから、処理対象として残すオプティカルフローを選択するフロー選択手段と、前記選択されたオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループのサイズに影響するパラメータを用いてグループ化して、グループを導出するグループ化手段と、前記グループのサイズに基づいて物体を検出する検出手段と、前記車両の速度を取得する取得手段と、前記車両の速度が低いほど、前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する設定手段と、を備えている。
また、請求項2の発明は、請求項1に記載の物体検出装置において、前記車両の速度に応じて、前記車両が停車中か走行中かを判定する判定手段、をさらに備え、前記物体検出装置は、前記停車中は前記走行中と比較して前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する。
また、請求項3の発明は、請求項1または2に記載の物体検出装置において、前記グループ化手段は、前記オプティカルフローに係る特徴点のそれぞれの位置に第1方向に沿った一次元のラインデータを設定する第1手段と、前記第1方向に直交する第2方向における前記ラインデータのドットの数を度数とするヒストグラムを生成する第2手段と、前記度数が第1閾値以上となる前記ヒストグラムの範囲に基づいて、前記グループの前記第1方向における範囲を示す範囲データを導出する第3手段と、を備えている。
また、請求項4の発明は、請求項3に記載の物体検出装置において、前記パラメータは、前記ラインデータのサイズを含む。
また、請求項5の発明は、請求項3または4に記載の物体検出装置において、前記パラメータは、前記第1閾値を含む。
また、請求項6の発明は、請求項3ないし5のいずれかに記載の物体検出装置において、前記第3手段は、前記度数が前記第1閾値以上となる前記ヒストグラムの範囲を示す一次元のデータを前記範囲データとして導出し、隣接する2つの範囲データ同士の間隔が第2閾値以下の場合に、該2つの範囲データを結合して一つの範囲データとするものであり、前記パラメータは、前記第2閾値を含む。
また、請求項7の発明は、車両の周辺の物体を検出する物体検出システムであって、前記車両の周辺を撮影するカメラと、前記カメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する導出手段と、前記導出手段が導出したオプティカルフローのうちから、処理対象として残すオプティカルフローを選択するフロー選択手段と、前記選択されたオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループのサイズに影響するパラメータを用いてグループ化して、グループを導出するグループ化手段と、前記グループのサイズに基づいて物体を検出する検出手段と、前記車両の速度を取得する取得手段と、前記車両の速度が低いほど、前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する設定手段と、を備えている。
また、請求項8の発明は、車両の周辺の物体を検出する物体検出方法であって、(a)前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する工程と、(b)前記導出工程で導出したオプティカルフローのうちから、処理対象として残すオプティカルフローを選択する工程と、)前記選択された前記オプティカルフローに係る特徴点を該特徴点の位置に基づいてグループのサイズに影響するパラメータを用いてグループ化して、グループを導出する工程と、()前記グループのサイズに基づいて物体を検出する工程と、()前記車両の速度を取得する工程と、()前記車両の速度が低いほど、前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する工程と、を備えている。
また、請求項9の発明は、車両において用いられるコンピュータによって実行可能なプログラムであって、前記コンピュータに、(a)前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する工程と、(b)前記導出工程で導出したオプティカルフローのうちから、処理対象として残すオプティカルフローを選択する工程と、)前記選択されたオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループのサイズに影響するパラメータを用いてグループ化して、グループを導出する工程と、()前記グループのサイズに基づいて物体を検出する工程と、()前記車両の速度を取得する工程と、()前記車両の速度が低いほど、前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する工程と、を実行させる。
請求項1ないし9の発明によれば、車両の速度が低いほどグループのサイズが大きくなるように、グループのサイズに影響するパラメータを設定する。このため、車両の速度が低いほど、物体の検出感度を上げて物体の検出性能を向上できる。
また、特に請求項2の発明によれば、車両の停車中は、走行中と比較してグループのサイズが大きくなるように、グループのサイズに影響するパラメータを設定する。このため、車両の停車中は、物体の検出感度を上げて物体の検出性能を向上できる。一方で、車両の走行中は、物体の検出感度を下げて物体の誤検出を防止できる。
また、特に請求項4の発明によれば、ラインデータのサイズを設定することにより、物体の検出感度を容易に調整できる。
また、特に請求項5の発明によれば、第1閾値を設定することにより、物体の検出感度を容易に調整できる。
また、特に請求項6の発明によれば、第2閾値を設定することにより、物体の検出感度を容易に調整できる。
図1は、物体検出システムの概略構成を示す図である。 図2は、2つのカメラがそれぞれ撮影する方向を示す図である。 図3は、物体検出システムが利用される場面の一例を示す図である。 図4は、グループ化部が備える機能を示すブロック図である。 図5は、表示画像の一例を示す図である。 図6は、フロントカメラで取得された撮影画像の例を示す図である。 図7は、フロントカメラで取得された撮影画像の例を示す図である。 図8は、フロントカメラで取得された撮影画像の例を示す図である。 図9は、オプティカルフロー方式の物体検出処理の流れを示す図である。 図10は、物体検出処理における検出領域の状態の遷移を示す図である。 図11は、特徴点をグループ化する手法を説明する図である。 図12は、特徴点をグループ化する手法を説明する図である。 図13は、特徴点をグループ化する手法を説明する図である。 図14は、物体検出装置の動作の流れを示す図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.システムの構成>
図1は、本実施の形態の物体検出システム10の概略構成を示す図である。物体検出システム10は、自動車などの車両において用いられる。物体検出システム10は、車両の周辺を移動する物体を検出し、物体を検出した場合はその検出結果をユーザに報知する機能を有している。以下、物体検出システム10が用いられる車両を「自車両」という。
物体検出システム10は、撮影画像を表示する表示装置3と、音を発生するスピーカ4とを備えている。表示装置3は、自車両の車室内におけるユーザ(主にドライバ)が視認可能な位置に配置され、各種の情報をユーザに報知する。表示装置3は、目的地までのルートを案内するナビゲーション機能など、基本的な表示機能以外の機能を備えていてもよい。スピーカ4は、自車両の車室内に配置され、音により情報をユーザに報知する。
また、物体検出システム10は、自車両の周辺を撮影して撮影画像を得る複数のカメラ2を備えている。複数のカメラ2はそれぞれ、レンズと撮像素子と画像処理部とを備えており、電子的に撮影画像を取得し、取得した撮影画像に所定の画像処理を行う。各カメラ2は、所定の周期(例えば、1/30秒周期)で周期的に撮影画像を取得する。
複数のカメラ2は、フロントカメラ2Fとバックカメラ2Bとを含んでいる。図2は、2つのカメラ2F,2Bがそれぞれ撮影する方向を示す図である。
図に示すように、フロントカメラ2Fは、自車両9の前端のバンパーに設けられ、その光軸21Fは自車両9の前後方向に沿って前方に向けられる。したがって、フロントカメラ2Fは、自車両9の前方を撮影して、自車両9の前方の様子を示す撮影画像を取得する。また、バックカメラ2Bは、自車両9の後端の背面ドア92に設けられ、その光軸21Bは自車両9の前後方向に沿って後方に向けられる。したがって、バックカメラ2Bは、自車両9の後方を撮影して、自車両9の後方の様子を示す撮影画像を取得する。
これらのカメラ2のレンズには魚眼レンズが採用され、各カメラ2は180度以上の画角θを有している。このため、フロントカメラ2Fは、自車両9の前方に広がる左右方向に180度以上の領域を撮影することが可能であり、バックカメラ2Bは、自車両9の後方に広がる左右方向に180度以上の領域を撮影することが可能である。
物体検出システム10は、これら2つのカメラ2のうち、動作モードに応じて選択されるカメラ2で得られた撮影画像を表示装置3において表示する。物体検出システム10は、フロントモードではフロントカメラ2Fで得られた撮影画像を表示し、バックモードではバックカメラ2Bで得られた撮影画像を表示する。このような動作モードは、例えば、自車両9の進行方向に応じて切り替えられる。これにより、ユーザは進行方向における自車両9の周辺の様子を略リアルタイムに把握できる。
また、物体検出システム10は、動作モードに応じたカメラ2で得られた撮影画像に基いて自車両9に接近する物体を検出する。そして、物体を検出した場合は、物体検出システム10は、表示装置3及びスピーカ4を介して検出結果をユーザに報知する。これにより、ユーザは、見通しの悪い交差点や駐車場などにおいて、ユーザの死角となる位置から接近する物体を容易に把握できる。
図3は、物体検出システム10が利用される場面の一例を示す図である。図3においては、自車両9が見通しの悪い交差点に差し掛かった場面を示している。物体検出システム10の動作モードは、フロントモードとなっている。前述のように、フロントカメラ2Fは180度以上の画角θを有している。このため、図3に示すように、自車両9の前端のみが交差点に進入した状態において、フロントカメラ2Fは、交差点内の左右に広がった領域を撮影可能である。したがって、物体検出システム10は、自車両9が存在する道路R1に対して略直交する他方の道路R2の様子を示す撮影画像を取得でき、この撮影画像を表示装置3に表示できる。
また、このように取得された撮影画像には、他方の道路R2を移動して左側又は右側から自車両9に接近する物体(他の車両8や歩行者など)の像が含まれる。物体検出システム10は、この撮影画像を用いることで自車両9に接近する物体を検出し、その検出結果をユーザに報知する。このため、ユーザは、自車両9の全体を交差点に侵入させる前に、自車両9に接近する物体を容易に把握できる。
図1に戻り、物体検出システム10は、カメラ2で取得された撮影画像に基づいて自車両9に接近する物体を検出するための物体検出装置1を備えている。物体検出装置1は、自車両9に搭載される車載装置であってもよく、ユーザが自車両9に持ち込むスマートフォンなどの携帯装置であってもよい。物体検出装置1は、画像取得部12、画像処理回路13、及び、画像出力部14を備えている。
画像取得部12は、動作モードに応じたカメラ2で得られる撮影画像を取得する。画像取得部12は、所定の周期(例えば、1/30秒周期)で周期的に撮影画像をカメラ2から取得する。画像取得部12が取得する一の撮影画像は、映像信号の一のフレームとなる。
画像処理回路13は、画像取得部12が取得した撮影画像に対して所定の画像処理を実行するASICやFPGAなどのハードウェア回路である。画像処理回路13は、オプティカルフロー方式で物体を検出する物体検出処理を実行する。図中に示す、フロー導出部51、フロー選択部52、グループ化部53及び物体検出部54は、この物体検出処理に係る機能である。
フロー導出部51は、カメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する。フロー選択部52は、フロー導出部51に導出されたオプティカルフローのうちから、特定の向きのオプティカルフローを処理対象として選択する。
グループ化部53は、選択された特定の向きのオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループ化して、特徴点のグループを導出する。図4は、グループ化部53が備える機能を示すブロック図である。グループ化部53は、ラインデータ設定部53a、ヒストグラム生成部53b、範囲データ導出部53c及び範囲データ結合部53dを、機能として備えている。これらの機能の詳細については後述する。
図1に戻り、物体検出部54は、グループ化部53に導出されたグループのサイズに基づいて物体を検出する。物体検出部54が物体を検出した場合は、画像処理回路13は物体検出処理の検出結果を出力する。
画像出力部14は、撮影画像とともに各種情報を含む表示画像を生成し、NTSCなどの所定形式の映像信号に変換して表示装置3に出力する。これにより、撮影画像を含む表示画像が表示装置3において表示される。
また、物体検出装置1は、操作スイッチ15、信号受信部16、音声出力部17、記憶部18、及び、制御部11を備えている。
操作スイッチ15は、自車両9の車室内に設けられるスイッチである。操作スイッチ15は、ユーザの操作を受け付け、操作内容を示す信号を制御部11に入力する。
信号受信部16は、自車両9に設けられる車載ネットワーク91を介して、他の装置からの信号を受信して、自車両9の車両状態を取得する。信号受信部16は、受信した信号を制御部11に入力する。
信号受信部16は、シフトセンサ71及び速度センサ72が送出する信号を受信する。シフトセンサ71は、自車両9の変速装置のシフトレバーの位置であるシフトポジションを検出し、そのシフトポジションを示す信号を送出する。このシフトポジションは、自車両9の進行方向を示す。速度センサ72は、自車両9の車輪軸の回転に基いて速度を検出し、自車両9の速度を示す信号を送出する。これにより、信号受信部16は、シフトポジション及び速度を、自車両9の車両状態として取得する。
音声出力部17は、制御部11からの信号に基いて音声信号を生成して、スピーカ4に出力する。これにより、スピーカ4が、警告音などの音を発生する。
記憶部18は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部18は、例えば、ファームウェアとしてのプログラム18aを記憶する。
制御部11は、CPU、RAM及びROMなどを備えたマイクロコンピュータであり、画像処理回路13を含む物体検出装置1の各部を制御する。制御部11は、例えば、信号受信部16が取得したシフトポジション、及び、操作スイッチ15の操作内容などに応じて、物体検出システム10の動作モードを変更する。
制御部11の各種の機能は、ソフトウェアで実現される。すなわち、制御部11の機能は、記憶部18に記憶されたプログラム18aの実行(プログラム18aに従ったCPUの演算処理)によって実現される。図中の停車判定部60、パラメータ設定部61及び結果報知部62は、プログラム18aの実行により実現される機能の一部である。
停車判定部60は、信号受信部16が取得した自車両9の速度に基づいて、自車両9が停車中か走行中かを判定する。
パラメータ設定部61は、所定のパラメータを設定することで、物体検出装置1の物体の検出感度を調整する。パラメータ設定部61は、停車判定部60の判定結果に応じてパラメータを設定する。パラメータ設定部61は、グループ化部53が特徴点をグループ化する処理に用いるパラメータを設定する。パラメータ設定部61が設定するパラメータの詳細については後述する。
結果報知部62は、画像処理回路13による物体検出処理の検出結果をユーザに報知する。結果報知部62は、画像処理回路13が出力する検出結果を受け取る。そして、結果報知部62は、画像出力部14に信号を送出して、検出結果を示す表示画像を画像出力部14に生成させる。これにより、検出結果を示す表示画像が表示装置3において表示される。また、結果報知部62は、音声出力部17に信号を送出して、検出結果に応じた音声信号を音声出力部17に生成させる。これにより、検出結果に応じた警告音がスピーカ4から発生される。
図5は、フロントモードにおいて表示装置3に表示される表示画像31の一例を示す図である。表示画像31は、カメラ2で取得された撮影画像SGと、物体検出処理の検出結果を示す指標となる2つの警告部AFと、動作モードを示すアイコンCとを含んでいる。
2つの警告部AFは、上下に延びる矩形の領域であり、撮影画像SGの左右にそれぞれ配置される。自車両9の右側から接近する物体が存在する場合は、図5に示すように右側の警告部AFが所定の色(例えば、黄色)で点滅する。逆に、自車両9の左側から接近する物体が存在する場合は、左側の警告部AFが所定の色で点滅する。
また、このように自車両9に接近する物体が存在する場合は、所定の警告音がスピーカ4から発生される。これにより、ユーザは、自車両9に接近する物体の存在とともに、その物体が存在する方向を容易に把握できる。
<2.物体検出処理>
次に、画像処理回路13が実行する物体検出処理について説明する。前述のように、画像処理回路13は、周期的に得られる複数の撮影画像(フレーム)を用いるフレーム相関方式の一つであるオプティカルフロー方式の物体検出処理で物体を検出する。
図6、図7及び図8は、フロントカメラ2Fで時系列的に取得された複数の撮影画像(フレーム)SGの例を示している。図6の撮影画像SGが最も古く、図8の撮影画像SGが最も新しい。図6から図8の撮影画像SGそれぞれには、自車両9に接近する同一の物体の像Obが含まれている。画像処理回路13は、このような周期的に得られる複数の撮影画像SGを用いてオプティカルフロー方式の物体検出処理を行なって、自車両9に接近する物体を検出する。
画像処理回路13は、撮影画像SGに設定される左右2つの検出領域TAのそれぞれを対象にして物体検出処理を行なう。2つの検出領域TAは、撮影画像SGの上下中央付近に設定される。そして、一方の検出領域TAは撮影画像SGの左側、他方の検出領域TAは撮影画像SGの右側にそれぞれ設定される。これらの検出領域TAは、理論的上の無限遠点である消失点(実際には平行な線の像が遠近法により交わる点)を含むことが望ましい。
図9は、オプティカルフロー方式の物体検出処理の流れを示す図である。この物体検出処理は、撮影画像の左右2つの検出領域TAのそれぞれに関して個別に行われる。図10は、物体検出処理における、撮影画像SGの右側の検出領域TAの状態の遷移を例示しており、状態ST1は物体検出処理を行う前の状態である。以下、これらの図9及び図10を参照して、オプティカルフロー方式の物体検出処理について説明する。
物体検出処理は、カメラ2において周期的に得られる一の撮影画像(フレーム)ごとに実行される。物体検出処理の開始時点においては、今回の物体検出処理において処理対象となる一の撮影画像が取得されている。この説明において、今回の物体検出処理において処理対象となる一の撮影画像(直近の撮影画像)を「現フレーム」といい、前回の物体検出処理において処理対象となった撮影画像(直近の撮影画像の1フレーム前の撮影画像)を「前フレーム」という。
まず、フロー導出部51が、現フレームの検出領域TAにおける特徴点FPを抽出する(ステップS21)。特徴点FPは、撮影画像中のエッジの交点など、撮影画像において際立って検出できる点である。フロー導出部51は、例えば、ハリスオペレータなどの周知の手法を用いて現フレームの特徴点FPを抽出する。フロー導出部51は、移動する物体に係る特徴点FPのみならず、背景となる被写体(以下、単に「背景」という。)に係る特徴点FPも抽出する(図10の状態ST2)。
次に、フロー導出部51は、時間的に連続する2つの撮影画像の特徴点同士を対応付ける(ステップS22)。フロー導出部51は、今回の物体検出処理で抽出した現フレームの特徴点FPと、前回の物体検出処理で抽出した前フレームの特徴点とを対応付ける。移動する物体に基づく特徴点は、時間的に連続する2つの撮影画像(フレーム)の間で異なる位置に現れる。このため、フロー導出部51は、同一の物体の同一箇所に基づく特徴点同士を対応付ける。
前フレームの特徴点に関するデータは、画像処理回路13のメモリに記憶される。フロー導出部51は、前フレームの特徴点のそれぞれに関して、現フレームの特徴点FPとの対応付けを試みる。フロー導出部51は、例えば、前フレームの特徴点を中心とした比較的小さなサイズ(例えば、水平3×垂直3ドット)のブロックと、現フレームの特徴点FPを中心とした同サイズのブロックとを比較する。そして、フロー導出部51は、ブロックに含まれる画素値が近似する特徴点のペアを対応付ける。
次に、フロー導出部51は、対応付けた特徴点のペアのそれぞれに関して、特徴点の動きを示すベクトルであるオプティカルフローを導出する(ステップS23)。フロー導出部51は、前回フレームの特徴点の位置から現フレームの特徴点FPの位置に向かうベクトルをオプティカルフローとして導出する。フロー導出部51が導出するオプティカルフローには、左向きのオプティカルフローOP1と、右向きのオプティカルフローOP2とが存在する(図10の状態ST3)。
次に、フロー選択部52は、フロー導出部51が導出したオプティカルフローのうちから、特定の向きのオプティカルフローを選択する(ステップS24)。通常、自車両9に接近する物体の像Obは、撮影画像SG中を内向き(撮影画像SGの左右端部から中央側への向き)に移動する。このため、フロー選択部52は、フロー導出部51に導出されたオプティカルフローのうち、特定の向きとなる内向きのオプティカルフローを処理対象として残し、外向きのオプティカルフローを処理対象から除外する。
フロー選択部52は、撮影画像SGの右側の検出領域TAでは左向きのオプティカルフローを処理対象として残し、撮影画像SGの左側の検出領域TAでは右向きのオプティカルフローを処理対象として残す。図10に例示する検出領域TAでは、フロー選択部52は、左向きのオプティカルフローOP1のみを処理対象として選択する(状態ST4)。
次に、グループ化部53が、選択されたオプティカルフローに係る特徴点(現フレームの特徴点)を該特徴点の位置に基づいてグループ化して、特徴点のグループを導出する(ステップS25)。グループ化部53は、オプティカルフローに係る特徴点のうちで、互いに近傍に存在する複数の特徴点を一つのグループとしてグループ化する。このグループ化の処理の詳細については後述する。
次に、物体検出部54は、グループ化部53に導出されたグループのサイズに基づいて物体を検出する。物体検出部54は、グループ化部53に導出されたグループのサイズを所定の基準サイズ(例えば、水平15×垂直16ドット)と比較する。そして、物体検出部54は、サイズが基準サイズより大となるグループを物体として検出する(ステップS26)。
<3.グループ化>
次に、グループ化部53が、特徴点FPをグループ化して、特徴点FPのグループを導出する処理(図9のステップS25)についてより詳細に説明する。図11、図12及び図13は、特徴点FPをグループ化する手法を説明するための図である。なお、図11においては、検出領域TAの一部を拡大して示している。また、この説明では、水平方向をX軸(右側が正)、垂直方向をY軸(下側が正)とする。
まず、図11に示すように、グループ化部53のラインデータ設定部53aが、特徴点FPのそれぞれの位置に、水平方向(X軸方向)に沿った一次元のラインデータLを設定する。ラインデータLは、特徴点FPを中心とした所定サイズのドット(画素)の列である。ラインデータLのサイズは、図11の例では「5」ドットとしているが、パラメータとして変更可能とされている(詳細後述。)。
次に、グループ化部53のヒストグラム生成部53bが、垂直方向(Y軸方向)におけるラインデータLのドットの数を度数とするヒストグラムHXを生成する。ヒストグラム生成部53bは、ラインデータLのドットを参照し、横軸をX軸の各座標位置、縦軸をドットの数とするヒストグラムHXを生成する。このヒストグラムHXは、水平方向(X軸方向)の各位置における、垂直方向(Y軸方向)に存在するラインデータLのドットの数を度数として表す。
次に、グループ化部53の範囲データ導出部53cが、度数が閾値(以下、「度数閾値」という。)以上となるヒストグラムHXの範囲に基づいて、グループの水平方向(X軸方向)における範囲を示す水平範囲データLDを導出する。度数閾値Taは、図11の例では「3」ドットとしているが、パラメータとして変更可能とされている(詳細後述。)。
範囲データ導出部53cは、ヒストグラムHXの度数と度数閾値Taとを比較する。そして、図11の下部に示すように、範囲データ導出部53cは、度数が度数閾値Ta以上となる水平方向(X軸方向)の範囲を示す一次元のデータを水平範囲データLDとして導出する。この水平範囲データLDが示す範囲は、検出領域TAの水平方向(X軸方向)に関して、複数の特徴点FPが互いに近傍に存在していた範囲に相当する。範囲データ導出部53cは、複数の水平範囲データLDを導出する場合もある。
次に、グループ化部53の範囲データ結合部53dが、範囲データ導出部53cに導出された水平範囲データLDのうち、互いに近接する範囲データLD同士を結合して一つの水平範囲データLDとする。図12に示すように、範囲データ結合部53dは、隣接する2つの水平範囲データLD同士の間隔Phを参照する。そして、範囲データ結合部53dは、間隔Phが閾値(以下、「結合閾値」という。)以下の場合は、当該2つの水平範囲データLDを結合して一つの水平範囲データLDとする。結合閾値は、図12の例では「2」ドットとしているが、パラメータとして変更可能とされている(詳細後述。)。
本来は一つの物体に係る水平範囲データLDは、ノイズ等の影響を受けて分断されて導出される場合がある。範囲データ結合部53dは、このように分断された水平範囲データLDを結合することで、一つの物体に係る水平範囲データLDを適切に導出する。
このようにして、グループ化部53は、水平範囲データLDを導出すると、続いて、グループの垂直方向(Y軸方向)における範囲を示す垂直範囲データを導出する。この垂直範囲データを導出する手法は、水平範囲データを導出する手法をX軸とY軸とで入れ換えたものとなる。ただし、図13に示すように、処理の対象とする水平方向(X軸方向)の範囲は、水平範囲データLDが存在する範囲(X1〜X2)に限定される。
具体的には、ラインデータ設定部53aが、水平範囲データLDが存在する範囲(X1〜X2)に含まれる特徴点FPのそれぞれの位置に、垂直方向(Y軸方向)に沿った一次元のラインデータを設定する。次に、ヒストグラム生成部53bが、水平方向(X軸方向)におけるラインデータのドットの数を度数とするヒストグラムHYを生成する。次に、範囲データ導出部53cが、度数が度数閾値Tb以上となるヒストグラムHYの範囲に基づいて、垂直範囲データMDを導出する。次に、範囲データ結合部53dが、互いに近接する垂直範囲データMD同士を結合して一つの垂直範囲データMDとする。この垂直範囲データMDが示す範囲は、検出領域TAの垂直方向(Y軸方向)に関して、複数の特徴点FPが互いに近傍に存在していた範囲に相当する。
このように水平範囲データLD及び垂直範囲データMDが導出されると、グループ化部53は、図13の下部に示すように、水平範囲データLDが示す水平方向(X軸方向)の範囲(X1〜X2)と、垂直範囲データMDが示す垂直方向(Y軸方向)の範囲(Y1〜Y2)とで規定される矩形領域TDを設定する。そして、グループ化部53は、この矩形領域TDに含まれる複数の特徴点FPを一つのグループとしてグループ化する。矩形領域TDのサイズが、グループのサイズとなる。グループ化部53は、一つの検出領域TAから複数のグループを導出する場合もある。
<4.パラメータの変更>
上述したオプティカルフロー方式の物体検出処理を採用した場合、自車両9の停車中においては、移動する物体以外の背景と自車両9との相対位置が変化しないため、背景に関してオプティカルフローが導出されることはない。
一方、自車両9の走行中においては、背景と自車両9との相対位置が変化するため、背景に関してもオプティカルフローが導出される。通常、このような背景に係るオプティカルフローは、外向きのオプティカルフローとなるため、処理対象から除外される。
しかしながら、特定の条件下では、背景に係るオプティカルフローが内向きとなる場合がある。例えば、自車両9の旋回中においては、背景に係るオプティカルフローが内向きとなる場合がある。また、道路標示や区画線(白線)などに係るオプティカルフローが、特徴点の誤追跡などに起因して内向きとなる場合がある。したがって、このような背景に係るオプティカルフローに起因して、背景が物体として誤検出される可能性がある。このような物体の誤検出を回避するため、自車両9の走行中においては、物体の検出感度を下げることが望ましい。
一方で、上述のように、背景に係るオプティカルフローは自車両9の走行中に導出されるが、自車両9の停車中には導出されない。したがって、自車両9の停車中においては、背景に係るオプティカルフローに起因する誤検出は発生しないため、物体の検出感度を上げることが望ましい。
このことから、本実施の形態の物体検出装置1は、自車両9の速度に応じて物体の検出感度を調整し、自車両9の速度が低いほど検出感度を上げる。より具体的には、物体検出装置1は、自車両9の走行中は物体の検出感度を相対的に下げる一方で、自車両9の停車中は物体の検出感度を相対的に上げるようにしている。これにより、自車両9の走行中は物体の誤検出を防止できるとともに、自車両9の停車中は物体検出装置1の物体の検出性能を向上できることになる。
本実施の形態の物体検出装置1は、このような物体の検出感度を調整するために、グループ化部53により導出されるグループのサイズに影響するパラメータを、自車両9の速度に応じて設定するようにしている。
以下、このような物体検出装置1の動作について説明する。図14は、物体検出装置1の動作の流れを示す図である。図14に示す処理は一フレームごとに行われ、所定の周期(例えば、1/30秒周期)で繰り返される。
まず、信号受信部16が、自車両9の速度を取得する(ステップS11)。信号受信部16は、速度センサ72から送出される信号を受信して、自車両9の速度を取得する。
次に、停車判定部60が、信号受信部16が取得した自車両9の速度に基づいて自車両9が停車中か走行中かを判定する(ステップS12)。停車判定部60は、自車両9の速度が所定の閾値(例えば、0.1km/h)未満の場合は、自車両9が停車中であると判定する。
次に、パラメータ設定部61が、停車判定部60の判定結果に応じて、グループのサイズに影響するパラメータを設定する。パラメータ設定部61は、自車両9の停車中は、走行中と比較してグループのサイズが大きくなるようにパラメータを設定する。すなわち、自車両9が停車中の場合は(ステップS12にてYes)、パラメータ設定部61は、グループのサイズが相対的に大きくなるようにパラメータを設定する(ステップS13)。一方、自車両9が走行中の場合は(ステップS12にてNo)、パラメータ設定部61は、グループのサイズが相対的に小さくなるようにパラメータを設定する(ステップS14)。
パラメータ設定部61は、グループのサイズに影響するパラメータとして、ラインデータのサイズ、度数閾値、及び、結合閾値を設定する。パラメータ設定部61が設定したパラメータは、以降の物体検出処理(ステップS16)において用いられる。
パラメータ設定部61は、例えば、ラインデータのサイズを、自車両9が停車中の場合は「5」ドット、自車両9が走行中の場合は「3」ドットにそれぞれ設定する。ラインデータのサイズが大きいほど、ヒストグラムHXの度数の分布の範囲は大きくなる。したがって、自車両9の停車中は走行中と比較してグループのサイズが大きくなる。
また、パラメータ設定部61は、例えば、度数閾値Ta,Tbを、自車両9が停車中の場合は「2」ドット、自車両9が走行中の場合は「3」ドットにそれぞれ設定する。度数閾値Ta,Tbが小さいほど、範囲データLD,MDが示す範囲が大きくなる。したがって、自車両9の停車中は走行中と比較してグループのサイズが大きくなる。
また、パラメータ設定部61は、例えば、結合閾値を、自車両9が停車中の場合は「2」ドット、自車両9が走行中の場合は「1」ドットにそれぞれ設定する。結合閾値が大きいほど、隣接する2つの範囲データLD,MD同士が結合されやすくなる。したがって、自車両9の停車中は走行中と比較してグループのサイズが大きくなる。
なお、この図14に示す処理においては、ステップS13またはステップS14のいずれかにおいてパラメータ設定部61がパラメータを必ず設定しているが、自車両9の状態が停車中と走行中との間で変化する場合にのみパラメータを設定してもよい。
パラメータ設定部61がパラメータを設定すると、次に、画像取得部12が、動作モードに応じたカメラ2から、今回の物体検出処理において処理対象となる一の撮影画像(フレーム)を取得する(ステップS15)。
次に、画像処理回路13が、画像取得部12が取得した撮影画像、及び、パラメータ設定部61が設定したパラメータを用いて物体検出処理を実行する(ステップS16)。この物体検出処理の流れは、図9を用いて上述したとおりである。パラメータ設定部61が設定したパラメータは、グループ化部53が特徴点をグループ化する処理(ステップS25)において用いられる。
パラメータ設定部61が上述のようにパラメータを設定しているため、自車両9の停車中は走行中と比較してグループのサイズが大きくなる。このため、自車両9が停車中の場合は、物体が検出されやすくなって物体の検出感度が上がり、物体検出装置1の物体の検出性能を向上することができる。一方で、自車両9が走行中の場合は、物体が検出されにくくなって物体の検出感度が下がることから、背景などが物体として誤検出されることを防止できる。
物体検出処理において画像処理回路13が物体を検出した場合は、画像処理回路13は検出結果を制御部11に出力する。制御部11の結果報知部62は、この物体検出処理の検出結果を受け取ると、該検出結果をユーザに報知する(ステップS17)。結果報知部62は、撮影画像とともに検出結果を示す表示画像を表示装置3に表示させる。さらに、結果報知部62は、検出結果に応じた警告音をスピーカ4から発生させる。
以上のように、本実施の形態の物体検出装置1においては、フロー導出部51が自車両9の周辺を撮影するカメラ2で周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する。そして、グループ化部53がオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループ化してグループを導出し、物体検出部54がグループのサイズに基づいて物体を検出する。また、信号受信部16が自車両9の速度を取得し、パラメータ設定部61が自車両9の速度が低いほどグループのサイズが大きくなるようにグループのサイズに影響するパラメータを設定する。
このため、自車両9の速度が低いほど、物体の検出感度を上げて物体の検出性能を向上することができる。
また、停車判定部60が自車両9が停車中か走行中かを判定し、パラメータ設定部61が停車中は走行中と比較してグループのサイズが大きくなるようにグループのサイズに影響するパラメータを設定する。
このため、自車両9の停車中は、物体の検出感度を上げて物体の検出性能を向上できる。一方で、自車両9の走行中は、物体の検出感度を下げて物体の誤検出を防止できる。
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、車両の周辺を撮影するカメラ2として、フロントカメラ2F及びバックカメラ2Bのいずれかを用いるものとして説明を行ったが、車両の左側方を撮影する左サイドカメラ、及び、車両の右側方を撮影する右サイドカメラなど他のカメラを用いてもよい。
また、上記実施の形態では、物体検出装置1は自車両9に接近する物体を検出するものとしていたが、自車両9から離れる物体など、接近する方向とは異なる方向に移動する物体を検出するものであってもよい。
また、上記実施の形態では、パラメータ設定部61は、自車両9が停車中か走行中かに応じてパラメータを2つの段階で設定していた。これに対して、パラメータ設定部61は、自車両9の速度に応じてパラメータを3つ以上の段階で設定するようにしてもよい。この場合においても、パラメータ設定部61は、自車両9の速度が低いほどグループのサイズが大きくなるようにパラメータを設定することが望ましい。
また、上記実施の形態において一つのブロックとして説明した機能は必ずしも単一の物理的要素によって実現される必要はなく、分散した物理的要素によって実現されてよい。また、上記実施の形態で複数のブロックとして説明した機能は単一の物理的要素によって実現されてもよい。また、車両内の装置と車両外の装置とに任意の一つの機能に係る処理を分担させ、これら装置間において通信によって情報の交換を行うことで、全体として当該一つの機能が実現されてもよい。
また、上記実施の形態においてプログラムの実行によってソフトウェア的に実現されると説明した機能の全部又は一部は電気的なハードウェア回路により実現されてもよく、ハードウェア回路によって実現されると説明した機能の全部又は一部はソフトウェア的に実現されてもよい。また、上記実施の形態において一つのブロックとして説明した機能が、ソフトウェアとハードウェアとの協働によって実現されてもよい。
例えば、上記実施の形態で、画像処理回路13が実行する説明した処理の全部または一部は制御部11が実行してもよい。また逆に、制御部11が実行すると説明した処理の全部または一部は画像処理回路13が実行してもよい。
1 物体検出装置
51 フロー導出部
53 グループ化部
53a ラインデータ設定部
53b ヒストグラム生成部
53c 範囲データ導出部
53d 範囲データ結合部
61 パラメータ設定部
FP 特徴点
OP1 オプティカルフロー
OP2 オプティカルフロー

Claims (9)

  1. 車両の周辺の物体を検出する物体検出装置であって、
    前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する導出手段と、
    前記導出手段が導出したオプティカルフローのうちから、処理対象として残すオプティカルフローを選択するフロー選択手段と、
    前記選択されたオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループのサイズに影響するパラメータを用いてグループ化して、グループを導出するグループ化手段と、
    前記グループのサイズに基づいて物体を検出する検出手段と、
    前記車両の速度を取得する取得手段と、
    前記車両の速度が低いほど、前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する設定手段と、
    を備えることを特徴とする物体検出装置。
  2. 請求項1に記載の物体検出装置において、
    前記車両の速度に応じて、前記車両が停車中か走行中かを判定する判定手段、
    をさらに備え、
    前記物体検出装置は、前記停車中は前記走行中と比較して前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定することを特徴とする物体検出装置。
  3. 請求項1または2に記載の物体検出装置において、
    前記グループ化手段は、
    前記オプティカルフローに係る特徴点のそれぞれの位置に第1方向に沿った一次元のラインデータを設定する第1手段と、
    前記第1方向に直交する第2方向における前記ラインデータのドットの数を度数とするヒストグラムを生成する第2手段と、
    前記度数が第1閾値以上となる前記ヒストグラムの範囲に基づいて、前記グループの前記第1方向における範囲を示す範囲データを導出する第3手段と、
    を備えることを特徴とする物体検出装置。
  4. 請求項3に記載の物体検出装置において、
    前記パラメータは、前記ラインデータのサイズを含むことを特徴とする物体検出装置。
  5. 請求項3または4に記載の物体検出装置において、
    前記パラメータは、前記第1閾値を含むことを特徴とする物体検出装置。
  6. 請求項3ないし5のいずれかに記載の物体検出装置において、
    前記第3手段は、
    前記度数が前記第1閾値以上となる前記ヒストグラムの範囲を示す一次元のデータを前記範囲データとして導出し、
    隣接する2つの範囲データ同士の間隔が第2閾値以下の場合に、該2つの範囲データを結合して一つの範囲データとするものであり、
    前記パラメータは、前記第2閾値を含むことを特徴とする物体検出装置。
  7. 車両の周辺の物体を検出する物体検出システムであって、
    前記車両の周辺を撮影するカメラと、
    前記カメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する導出手段と、
    前記導出手段が導出したオプティカルフローのうちから、処理対象として残すオプティカルフローを選択するフロー選択手段と、
    前記選択されたオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループのサイズに影響するパラメータを用いてグループ化して、グループを導出するグループ化手段と、
    前記グループのサイズに基づいて物体を検出する検出手段と、
    前記車両の速度を取得する取得手段と、
    前記車両の速度が低いほど、前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する設定手段と、
    を備えることを特徴とする物体検出システム。
  8. 車両の周辺の物体を検出する物体検出方法であって、
    (a)前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する工程と、
    (b)前記導出工程で導出したオプティカルフローのうちから、処理対象として残すオプティカルフローを選択する工程と、
    )前記選択されたオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループのサイズに影響するパラメータを用いてグループ化して、グループを導出する工程と、
    )前記グループのサイズに基づいて物体を検出する工程と、
    )前記車両の速度を取得する工程と、
    )前記車両の速度が低いほど、前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する工程と、
    を備えることを特徴とする物体検出方法。
  9. 車両において用いられるコンピュータによって実行可能なプログラムであって、
    前記コンピュータに、
    (a)前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する工程と、
    (b)前記導出工程で導出したオプティカルフローのうちから、処理対象として残すオプティカルフローを選択する工程と、
    )前記選択されたオプティカルフローに係る特徴点を該特徴点の位置に基づいてグループのサイズに影響するパラメータを用いてグループ化して、グループを導出する工程と、
    )前記グループのサイズに基づいて物体を検出する工程と、
    )前記車両の速度を取得する工程と、
    )前記車両の速度が低いほど、前記グループのサイズが大きくなるように、前記グループのサイズに影響するパラメータを設定する工程と、
    を実行させることを特徴とするプログラム。
JP2015162369A 2015-08-20 2015-08-20 物体検出装置、物体検出システム、物体検出方法及びプログラム Active JP6584862B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015162369A JP6584862B2 (ja) 2015-08-20 2015-08-20 物体検出装置、物体検出システム、物体検出方法及びプログラム
US15/195,653 US10019636B2 (en) 2015-08-20 2016-06-28 Object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162369A JP6584862B2 (ja) 2015-08-20 2015-08-20 物体検出装置、物体検出システム、物体検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017041100A JP2017041100A (ja) 2017-02-23
JP6584862B2 true JP6584862B2 (ja) 2019-10-02

Family

ID=58157580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162369A Active JP6584862B2 (ja) 2015-08-20 2015-08-20 物体検出装置、物体検出システム、物体検出方法及びプログラム

Country Status (2)

Country Link
US (1) US10019636B2 (ja)
JP (1) JP6584862B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2599380A (en) * 2020-09-30 2022-04-06 Roadmetric Ltd Measuring vehicle speeds with an uncalibrated camera
CN112329747B (zh) * 2021-01-04 2021-04-23 湖南大学 基于视频识别和深度学习的车辆参数检测方法及相关装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8249334B2 (en) * 2006-05-11 2012-08-21 Primesense Ltd. Modeling of humanoid forms from depth maps
JP4832227B2 (ja) * 2006-09-07 2011-12-07 富士重工業株式会社 物体検出装置および物体検出方法
JP5146446B2 (ja) * 2007-03-22 2013-02-20 日本電気株式会社 移動体検知装置および移動体検知プログラムと移動体検知方法
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
JP5812598B2 (ja) * 2010-12-06 2015-11-17 富士通テン株式会社 物体検出装置
US9230501B1 (en) * 2012-01-06 2016-01-05 Google Inc. Device control utilizing optical flow
JP5792091B2 (ja) * 2012-02-16 2015-10-07 富士通テン株式会社 物体検出装置及び物体検出方法
JP6178580B2 (ja) * 2013-01-28 2017-08-09 富士通テン株式会社 物体検出装置、物体検出システム及び物体検出方法
JP6084048B2 (ja) 2013-01-28 2017-02-22 富士通テン株式会社 物体検出装置、物体検出システム及び物体検出方法
JP6189729B2 (ja) * 2013-11-29 2017-08-30 富士通テン株式会社 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP6532229B2 (ja) * 2014-12-18 2019-06-19 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム

Also Published As

Publication number Publication date
US20170053173A1 (en) 2017-02-23
US10019636B2 (en) 2018-07-10
JP2017041100A (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
JP6532229B2 (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP4687411B2 (ja) 車両周辺画像処理装置及びプログラム
JP6084048B2 (ja) 物体検出装置、物体検出システム及び物体検出方法
JP5915923B2 (ja) 画像処理装置及び運転支援システム
CN107004250B (zh) 图像生成装置及图像生成方法
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2018142884A (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP6584862B2 (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
US9827906B2 (en) Image processing apparatus
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6178580B2 (ja) 物体検出装置、物体検出システム及び物体検出方法
JP5477394B2 (ja) 車両周辺監視装置
JP5541099B2 (ja) 道路区画線認識装置
JP6189729B2 (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP3729005B2 (ja) 車両の後方監視装置
JP2009181310A (ja) 道路パラメータ推定装置
JP4572826B2 (ja) 道路区画線検出装置
JP6405765B2 (ja) 撮像装置及び判定方法
JP6201809B2 (ja) 周辺監視装置及び方法
JP4598011B2 (ja) 車両用表示装置
JP6868996B2 (ja) 障害物検知システム及び建設機械
JP6405141B2 (ja) 撮像装置及び判定方法
JP2020088801A (ja) 運転支援装置
JP5459324B2 (ja) 車両周辺監視装置
JP2017091019A (ja) 車載通信装置および車車間通信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190904

R150 Certificate of patent or registration of utility model

Ref document number: 6584862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250