JP2015014819A - 接近物検出システム、及び車両 - Google Patents

接近物検出システム、及び車両 Download PDF

Info

Publication number
JP2015014819A
JP2015014819A JP2013139436A JP2013139436A JP2015014819A JP 2015014819 A JP2015014819 A JP 2015014819A JP 2013139436 A JP2013139436 A JP 2013139436A JP 2013139436 A JP2013139436 A JP 2013139436A JP 2015014819 A JP2015014819 A JP 2015014819A
Authority
JP
Japan
Prior art keywords
unit
approaching
approaching object
object detection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013139436A
Other languages
English (en)
Other versions
JP6266238B2 (ja
Inventor
克行 中村
Katsuyuki Nakamura
克行 中村
秋山 靖浩
Yasuhiro Akiyama
靖浩 秋山
耕太 入江
Kota Irie
耕太 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2013139436A priority Critical patent/JP6266238B2/ja
Priority to PCT/JP2014/064225 priority patent/WO2015001878A1/ja
Priority to EP14820079.3A priority patent/EP3018645A4/en
Priority to US14/892,961 priority patent/US9811745B2/en
Publication of JP2015014819A publication Critical patent/JP2015014819A/ja
Application granted granted Critical
Publication of JP6266238B2 publication Critical patent/JP6266238B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】接近物をできるだけ早い段階で検出する接近物検出システムを提供することを目的とする。
【解決手段】撮像装置によって撮像された撮像画像に基づいて接近物を検出する接近物検出システムであって、撮像画像から一端側の部分画像と他端側の部分画像とを抽出する抽出部と、抽出部によって抽出された部分画像の歪みを補正する歪み補正部と、設定された物体の画像情報を参照し、歪み補正部によって歪みが補正された部分画像からパターンマッチングを用いて物体を検出する物体検出部と、物体検出部の検出結果に基づいて接近物を識別する接近物識別部と、有することを特徴とする。
【選択図】図1

Description

本発明は、撮像装置によって撮像された撮像画像に基づいて接近物を検出する接近物検出システムに関する。
交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。予防安全システムは、事故が発生する可能性が高い状況下で作動するシステムであり、例えば、自車両の後方に取り付けられたビューカメラによって移動体(車両、歩行者、及び二輪車等)を検出し、移動体と衝突する可能性が生じた場合に警報によって運転者に注意を促すシステムが実用化されている。
このような技術分野の背景技術として、国際公開第2013/046409号(特許文献1)がある。
特許文献1には、「後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示し、中央の後方画面202の画像について、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出し、左右の後側方画面204の画像について、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出し、検出された物体の存在を示す移動物接近検出枠210又は歩行者検出枠212を表示する。このため、自車両100正面近傍で停止している人等をパターンマッチングの手法で検出し、自車両100側方の遠方から接近してくる車両等をオプティカルフローの手法により検出して、検出した車両又は人等の存在をドライバーに報知することができる。」と記載されている(要約参照)。
国際公開第2013/046409号
上記した予防安全システムでは、運転手がブレーキをかけるために、接近物をできるだけ早い段階で検出したいという要望がある。
しかしながら、特許文献1では、側方接近物はオプティカルフローを用いて検出されるが、オプティカルフローでは画像上の見た目の動き量が小さい物体の検出が困難であるという課題がある。この装置を車両に搭載した場合、側方接近物が自車量にある程度近づかなければ、当該接近物検出できず、上記した要求を満足できない。
本発明は、接近物をできるだけ早い段階で検出する接近物検出システムを提供することを目的とする。
本発明の代表的な一例を示せば、撮像装置によって撮像された撮像画像に基づいて接近物を検出する接近物検出システムであって、前記撮像画像から一端側の部分画像と他端側の部分画像とを抽出する抽出部と、前記抽出部によって抽出された部分画像の歪みを補正する歪み補正部と、設定された物体の画像情報を参照し、前記歪み補正部によって歪みが補正された部分画像からパターンマッチングを用いて物体を検出する物体検出部と、前記物体検出部の検出結果に基づいて接近物を識別する接近物識別部と、を有することを特徴とする。
本願において開示される発明のうち代表的なものによって得られる効果を簡潔に説明すれば、下記の通りである。すなわち、接近物をできるだけ早い段階で検出する接近物検出システムを提供できる。
上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施例1の接近物検出システムのブロック図である。 本発明の実施例1の広角カメラによる撮像画像の説明図である。 本発明の実施例1の接近物検出システムで実行される処理のフローチャートである。 本発明の実施例1の物体検出部の説明図である。 本発明の実施例1の物体識別器の説明図である。 本発明の実施例1の物体識別器の変形例の説明図である。 本発明の実施例1の接近物識別部の説明図である。 本発明の実施例1の接近物識別器の説明図である。 本発明の実施例1の物体画素数の観測確率の算出処理のフローチャートである。 本発明の実施例2の車両のブロック図である。 本発明の実施例2の車両の前方に広角カメラが設置された場合に接近物検出システムが検出する接近物の例の説明図である。 本発明の実施例2の車両の後方に広角カメラが設置された場合に接近物検出システムが検出する接近物の例の説明図である。 本発明の実施例2の車両の左側方に広角カメラを設置した場合に接近物検出システムが検出する接近物の例の説明図である。 本発明の実施例2の車両の右側方に広角カメラを設置した場合に接近物検出システムが検出する接近物の例の説明図である。 本発明の実施例3の車両に設置された複数の広角カメラの撮像範囲の説明図である。 本発明の実施例3の車両に搭載される接近物検出システムの説明図である。
以下、実施例を図面を用いて説明する。
図1は、本発明の実施例1の接近物検出システム10のブロック図である。
広角カメラ1は、例えば、車両に搭載され、約180度程度の視野角を有する。接近物検出システム10は、広角カメラ1によって撮像された撮像画像に基づいて車両に接近する接近物を検出し、接近物を検出した場合、警報部2に接近物に関する情報を出力する。
接近物検出システム10は、抽出部101、車両姿勢推定部102、第1接近物検出部11、及び第2接近物検出部12を有する。なお、第1接近物検出部11及び第2接近物検出部12を総称する場合には、接近物検出部と記載する。
抽出部101は、広角カメラ1によって撮像された撮像画像Fから左端部分画像FL及び右端部分画像FRを抽出する。車両姿勢推定部102は、車両の姿勢に基づいて広角カメラ1の姿勢を示すカメラ姿勢パラメータCpを推定する。なお、左端部分画像FL及び右端部分画像FRを総称して部分画像と記載する。
第1接近物検出部11は左端部分画像FLに基づいて接近物を検出し、第2接近物検出部12は右端部分画像FRに基づいて接近物を検出する。第1接近物検出部11及び第2接近物検出部12は、歪み補正部103、物体検出部104、物体追跡部105、統合判定部106、及び接近物識別部107を有する。
以下、第1接近物検出部11を例に、各構成部の処理について説明する。
歪み補正部103は、左端部分画像FLが入力されると、入力された左端部分画像FLを左端部分透視投影画像ULに変換することによって、左端部分画像FLの歪みを補正し、左端部分透視投影画像ULを物体検出部104及び物体追跡部105に入力する。
物体検出部104は、左端部分透視投影画像ULが入力されると、入力された左端部分透視投影画像ULからパターンマッチングを用いて物体を検出する。物体検出部104の詳細は、図4並びに図5A及び図5Bで詳細を説明する。物体追跡部105は、左端部分透視投影画像ULが入力されると、入力された左端部分透視投影画像ULと前回の接近物識別部107による接近物に関する情報である物体情報OLt−1とを比較して、物体を追跡する。
統合判定部106は、物体検出部104による物体の検出結果と物体追跡部105による物体の追跡結果とに基づいて、検出結果と追跡結果との間の整合性を判定する。具体的な整合性の判定方法については図3で詳細を説明する。
接近物識別部107は、車両姿勢推定部102によるカメラ姿勢パラメータCp、及び、物体検出部104によって検出された物体の特徴量の時間経過による変化量に基づいて接近物か否かを識別する。
なお、第1接近物検出部11の接近物識別部107及び第2接近物検出部12の接近物識別部107の少なくとも一方で接近物が検出された場合、警報部2から警報が出力される。
接近物検出システム10の各部はハードウェアによって構成されてもよいし、ソフトウェアによって構成されていてもよく、ハードウェアとソフトウェアを組み合わせたモジュールであってもよい。
図2は、本発明の実施例1の広角カメラ1による撮像画像Fの説明図である。
広角カメラ1は上記したように約180度程度の視野角を有し、広角カメラ1が車両の前方又は後方に取り付けられると、車両の左側方から右側方にわたる範囲を撮影でき、広角カメラ1が車両の側方に取り付けられると、車両の前方から後方にわたる範囲を撮影できる。
図2では、Oはレンズ中心であり、fはレンズから撮像素子までの距離である焦点距離であり、θは入射角である。
入射角θでレンズに入射した光は、レンズに入射した位置から鉛直に屈折して撮像素子に到達する。撮像素子全面で撮像された画像を撮像画像Fとする。抽出部101は、撮像画像Fを、任意の入射角θの左側の部分画像、任意の入射角θの右側の部分画像、及び入射角θの右側から入射角θの左側までの部分画像に分割し、入射角θの左側の部分画像を左端部分画像FLとして抽出し、入射角θの右側の部分画像を右端部分画像FRとして抽出する。なお、図2では、入射角θの右側から入射角θの左側の部分画像は中央部分画像FCと図示する。
第1接近物検出部11の歪み補正部103は、広角カメラ1の内部パラメータ(例えば、焦点距離f、撮像素子サイズ、及び像高関数等)と広角カメラ1の外部パラメータ(例えば、広角カメラ1の設置位置、及び設置角度)とを用いて、左端部分画像FLを左端部分透視投影画像ULに変換し、歪みを補正する。同様に、第2接近物検出部12の歪み補正部103は、右端部分画像FRを右端部分透視投影画像URに変換し、歪みを補正する。なお、像高関数とは、入射角に対する撮像位置を規定する関数である。
図3は、本発明の実施例1の接近物検出システム10で実行される処理のフローチャートである。
まず、接近物検出システム10は、広角カメラ1によって撮像された撮像画像Fを取得する(S3001)。抽出部101は、S3001の処理で取得した撮像画像Fから左端部分画像FL及び右端部分画像FRを抽出し(S3002)、抽出した左端部分画像FLを第1接近物検出部11に入力し、抽出した右端部分画像FRを第2接近物検出部12に入力する。
また、車両姿勢推定部102は、広角カメラ1を設置した車両の姿勢の設計値からの変化を推定し、推定した車両の姿勢の変化に基づいて現時刻の広角カメラ1の姿勢を示すカメラ姿勢パラメータCpを算出する(S3003)。なお、例えば、車両姿勢推定部102が算出するカメラ姿勢パラメータCpが示す広角カメラ1の姿勢は広角カメラ1の俯角であるものとする。カメラ姿勢パラメータCpの算出方法は、例えば、車線逸脱警報及び前方衝突警報等に用いられるカメラ俯角推定方法を利用できる。カメラ俯角推定方法では、例えば、車両姿勢推定部102は、広角カメラ1によって撮像された撮像画像Fから車線を検出し、検出した車線の傾きから広角カメラ1の俯角を算出し、カメラ姿勢パラメータCpを算出する。
第1接近物検出部11は、入力された左端部分画像FLに基づいて広角カメラ1の左側から接近する物体を検出し、第2接近物検出部12は、入力された右端部分画像FRに基づいて広角カメラ1の右側から接近する物体を検出する。第1接近物検出部11及び第2接近物検出部12の処理は同じであるため、第1接近物検出部11の処理を例に説明する。
まず、第1接近物検出部11の歪み補正部103は、入力された左端部分画像FLの歪み補正し、左端部分透視投影画像ULに変換し、左端部分透視投影画像ULを物体検出部104及び物体追跡部105に入力する(S3004)。
物体検出部104は、左端部分透視投影画像ULが入力されると、パターンマッチングを用いて、入力された左端部分透視投影画像ULから物体を検出し(S3005)、検出結果を統合判定部106に入力する。物体検出部104の処理は図4並びに図5A及び図5Bで詳細に説明する。物体検出部104による検出結果は、検出された物体の種別(車両、歩行者、及びバイク等)、及び検出された物体の位置の座標等を含む。
物体追跡部105は、左端部分透視投影画像ULが入力されると、前時刻の物体情報(OLt−1)と入力された左端部分透視投影画像ULとを比較して、物体を追跡し(S3006)、追跡結果を統合判定部106に入力する。例えば、物体追跡部105は、前時刻の物体情報(OLt−1)の各物体の画像を左端部分透視投影画像ULt上で検出することによって、物体を追跡する。なお、物体追跡部105による追跡結果は、追跡された物体の種別及び追跡された物体の現在の位置の座標等を含む。
なお、物体追跡部105が前時刻の物体情報(OLt−1)と左端部分透視投影画像ULとの比較に用いる評価尺度としては、例えば、SAD(Sum of Absolute Difference)、正規化相互相関、エッジベースの評価尺度、及び尤度情報等の少なくとも一つを用いることができる。
統合判定部106は、物体検出部104による検出結果及び物体追跡部105による追跡結果が入力されると、入力された検出結果及び追跡結果に基づいて、検出結果と追跡結果との間の整合性を判定する(S3007)。例えば、物体検出部104が新たに検出した物体が物体追跡部105で追跡されている場合、物体が新たに検出されたにもかかわらず、当該物体を前回の物体情報OLt−1から追跡できているので、統合判定部106は検出結果と追跡結果との間の整合性がないと判定される。なお、前回の物体情報OLt−1は、接近物識別部107で接近物であると識別された物体に関する情報であり、例えば、当該物体の位置の座標等を含む。物体が物体追跡部105で追跡されている場合とは、物体追跡部105が、前時刻の物体情報(OLt−1)の各物体の画像を左端部分透視投影画像ULt上で検出している場合をいう。
統合判定部106は、検出結果と追跡結果との間の整合性がないと判定した場合、前回の物体情報OLt−1に含まれる物体の位置から当該物体の現在の位置を予測し、物体検出部104による検出結果及び物体追跡部105による追跡結果のうち予測した位置に近い方に物体が位置する結果を接近物識別部107に出力する。なお、統合判定部106は、物体検出部104による検出結果及び物体追跡部105による追跡結果のうち予測した位置に遠い方に物体が位置する結果を誤検出と判断し、当該結果を破棄する。これによって、物体検出部104又は物体追跡部105が物体を誤検出している場合であっても、当該誤検出を修正できる。
次に、接近物識別部107は、物体検出部104及び物体追跡部105によって検出された物体の特徴ベクトル(特徴量)を算出する(S3008)。接近物識別部107は、例えば特徴ベクトルとして、物体の画像上の横幅及び縦幅、物体の接地点座標、物体のエッジ強度、テクスチャ周波数、矩形の拡大率、及び物体の実際の画素数(物体画素数)等の少なくとも一つを算出する。
接近物識別部107は、S3008の処理で算出された特徴ベクトルの時系列の変化に基づいて、物体検出部104及び物体追跡部105によって検出された物体が接近物か否か(換言すれば、物体検出部104及び物体追跡部105によって検出された物体が誤検出でないか否か)を判定する(S3009)。S3009の処理は、図6A及び図6Bで詳細を説明する。
なお、第2接近物検出部12は、S3004〜S3009の処理を右端部分画像FRに実行する。
第1接近物検出部11が実行するS3009の処理、第2接近物検出部12が実行するS3009の処理の少なくとも一方で、物体検出部104及び物体追跡部105によって検出された物体が接近物であると判定された場合、警報部2が接近物に関する情報(例えば、接近物の位置及び速度等)を出力し(S3010)、処理を終了する。
このように、本実施例の接近物検出システム10は、広角カメラ1によって撮像された撮像画像の左端の部分画像及び右端の部分画像からパターンマッチングを用いて接近物を検出するため、接近物の画像が小さくても接近物を検出でき、できるだけ早く接近物を検出することが可能となる。
また、物体検出部104及び物体追跡部105は通常、1〜2フレームの撮像画像から物体をパターンマッチングを用いて検出するため、接近物を誤検出する可能性が高い。このため、接近物識別部107は、物体検出部104及び物体追跡部105が検出した物体の特徴ベクトルを算出し、算出した特徴ベクトルの時系列変化に基づいて接近物を識別することによって、接近物を検出するため、接近物の誤検出を低減し、実用性の高い性能を達成できる。
次に、物体検出部104について図4並びに図5A及び図5Bを用いて説明する。
図4は、本発明の実施例1の物体検出部104の説明図である。
物体検出部104は、第1物体識別器401、第2物体識別器402、切替部403、及び識別器走査部404を有する。第1物体識別器401及び第2物体識別器402を総称する場合には物体識別器と記載する。
第1物体識別器401及び第2物体識別器402は、例えば、車両、歩行者、自転車、及びバイク等の特定の物体を検出するための識別器であり、第1物体識別器401は昼間の物体を検出するための識別器であり、第2物体識別器402は夜間の物体を検出するための識別器である。第1物体識別器401及び第2物体識別器402は物体概観に関する輝度パターンで構成され、特に第2物体識別器402は車両ヘッドライトのような高輝度パターンも含む。
切替部403は、昼夜判定情報を用いて昼間か夜間かを判定し、昼間であると判定した場合には第1物体識別器401を物体の検出に用い、夜間であると判定した場合には第2物体識別器402を物体の検出に用いる。なお、昼夜判定情報は、例えば、広角カメラ1のゲイン、及び現在の時刻等である。例えば、昼夜判定情報が広角カメラ1のゲインである場合には、切替部403は広角カメラ1のゲインが所定値以上であれば夜間であると判定し、広角カメラ1のゲインが所定値より小さければ昼間であると判定する。また、昼夜判定情報が現在の時刻である場合、切替部403は、現在の時刻が所定時刻より前であれば昼間であると判定し、現在の時刻が所定時刻より後であれば夜間であると判定する。
識別器走査部404は、第1物体識別器401又は第2物体識別器402を用いて、物体検出部104に入力された部分画像を走査し、当該部分画像から物体を検出する。
図5Aは、本発明の実施例1の物体識別器の説明図である。
識別器走査部404は、走査先の部分画像501を走査し、物体識別器を用いて特定の物体を検出する。以下、部分画像501から車両が検出される場合を例に説明する。
第1物体識別器401は、弱識別器503、重み係数504、総和部505、及び符号関数506を有する。弱識別器503は、走査先の部分画像501のT個の特徴ベクトル502を式1に示す関数(h(x))に入力する。式1に示すf(x)はt番目の特徴ベクトルを示し、θは閾値であり、t番目の特徴ベクトル(f(x))が閾値より大きければh(x)は「1」を返し、t番目の特徴ベクトルf(x)が閾値以下であればh(x)は「−1」を返す。重み係数504は弱識別器503の出力に重み付けする。総和部505は、重み係数504によって重み付けされた弱識別器503の出力の総和を算出する。符号関数506は、総和部505の出力を入力とし、識別情報を出力する。
Figure 2015014819
第1物体識別器401は式2のように表すことができる。式2では、H(x)は第1物体識別器401を示し、xは特徴ベクトル502を示し、h(x)は弱識別器503を示し、αは弱識別器503の重み係数504を示す。第1物体識別器401は各弱識別器503の重み付き投票によって実装される。式2のsign()は符号関数506を示し、符号関数506は、式2の右辺の括弧内の値が正の値であれば「+1」を返し、式2の右辺の括弧内の値が負の値であれば「−1」を返す。
Figure 2015014819
なお、特徴ベクトル502は、例えば、Haar−like特徴(領域間の輝度平均の差分)、HoG(Histograms of Oriented Gradients)特徴であるものとするが、この他の特徴であってもよいし、異なる特徴量を組み合わせた共起特徴量であってもよい。特徴ベクトルの選択及び重み係数の学習には、AdaBoost又はロジスティック線形回帰等の手法を用いることができる。
図5Bは、本発明の実施例1の物体識別器の変形例の説明図である。
図5Bに示す物体識別器(多クラス識別器)には複数の物体が設定され、複数の物体の中から部分画像501に適合する物体を検出する。図5Bに示す物体識別器は、入力ユニット(入力層)507、第1重み係数508、隠れユニット(隠れ層)509、第2重み係数510、及び出力ユニット(出力層)511を有する。
入力ユニット507にはT個の特徴ベクトル502が入力される。第1重み係数508は、入力ユニット507からの出力に重み付けする。
隠れユニット509は、入力ユニット507からの出力と第1重み係数508との線形結合を非線形変換する。本実施例では、隠れユニット509の非線形変換用の関数には式3に示すシグモイド関数を用いる。式3では、g(x)は隠れユニット509の出力を示し、xは入力ユニット507の出力を示し、wは第1重み係数508を示す。
Figure 2015014819
第2重み係数510は隠れユニット509からの出力に重み付けをする。出力ユニット511は、各クラス(例えば、車両、歩行者、及びバイク等)の識別確率を算出する。図5Bでは、出力ユニット511を三つ示すが、これに限定されない。出力ユニット511の数は、物体識別器が検出可能な物体の数と同じである。出力ユニット511の数を増加させることによって、車両、歩行者、及びバイクの他に、例えば、二輪車、標識、及びベビーカー等、物体識別器が検出可能な物体が増加する。
図5Bに示す物体識別器は、三層ニューラルネットワークの例であり、物体識別器は、第1重み係数508及び第2重み係数510を誤差逆伝播法を用いて学習する。また、図5Bに示す物体識別器は、ニューラルネットワークに限定されるものではなく、多層パーセプトロン及び隠れ層を複数層重ねたディープニューラルネットワークであってもよい。この場合、物体識別器は、第1重み係数508及び第2重み係数510をディープラーニング(深層学習)によって学習すればよい。
次に、接近物識別部107について図6A及び図6Bを用いて説明する。
図6Aは、本発明の実施例1の接近物識別部107の説明図である。
接近物識別部107は、接近物識別器600及び接近物識別処理部601を有する。接近物識別器600は、物体検出部104及び物体追跡部105によって検出された物体の特徴量の時間経過による変化量に基づいて接近物を識別するための識別器である。接近物識別器600は、例えば、隠れマルコフモデル(HMM:Hidden Markov Model)であり、図6Bで詳細を説明する。接近物識別処理部601は、接近物識別器600を用いて物体検出部104及び物体追跡部105によって検出された物体から接近物を識別することによって、接近物を検出する。
図6Bは、本発明の実施例1の接近物識別器600の説明図である。
接近物識別器600は、接近物を示す状態602(STR)及び非接近物を示す状態603(SFL)を有する。図6Bに示す604〜609は、図3に示すS3008の処理で
算出された特徴ベクトル(V={v1, v2, v3,…,vn})の時間経過による変化量(観測値)を示す。例えば、観測値は10フレーム分の特徴ベクトルの変化量であるとする。また、図3に示すS3008の処理で説明したように、特徴ベクトルとしては、物体の画像上の横幅及び縦幅、物体の接地点座標、動きベクトル、物体のエッジ強度、テクスチャ周波数、矩形の拡大率、及び物体画素数等の少なくとも一つが算出される。
本実施例の接近物識別器600は、接近物を検出するためのパラメータとして状態遷移確率行列Aと観測確率行列Bを有する。
まず、状態遷移確率行列Aについて説明する。状態遷移確率行列Aは、状態間の遷移確率(状態602から状態603への遷移確率、状態603から状態602への遷移確率)を規定した行列であり、式4で表すことができる。式4のqは時刻tにおける状態を示し、qt+1は時刻t+1における状態を示し、aijは、時刻tから時刻t+1にかけて状態がSからSに遷移する確率(状態遷移確率)である。
Figure 2015014819
次に、観測確率行列Bについて説明する。観測確率行列Bは、各状態(状態602及び状態603)からある観測値vが得られる確率を規定した行列であり、式5で表すことができる。式5のb(k)は状態Sから観測値vが得られる確率である。例えば、接近物を示す状態602(STR)からは、車間距離が徐々に短くなる、すなわち動きベクトルが徐々に大きくなるような特徴ベクトルの時間経過による変化が得られやすく、非接近物を示す状態603(SFL)からは、このような特徴ベクトルの時間経過による変化が得られにくい。観測確率行列Bは、このような知識を確率で表現したものである。
Figure 2015014819
接近物識別器600は、状態遷移確率A及び観測確率行列Bを、Baum−Welchアルゴリズムを用いて事前に学習できる。
接近物識別器600は、接近物識別部107によって判断された物体の前回の状態及び状態遷移確率Aに基づいて状態遷移確率を算出し、各特徴ベクトルの時間経過による変化及び観測確率行列Bに基づいて観測確率を算出する。そして、接近物識別器600は、これら状態遷移確率及び観測確率に基づいて物体が状態602である確率及び状態603である確率を算出し、算出した確率を接近物識別処理部601に入力する。接近物識別処理部601は、入力された二つの確率を比較し、確率が大きい方の状態を物体の状態とする。
次に、特徴ベクトルとして算出された物体画素数の観測確率の算出方法の例について図7を用いて説明する。図7は、本発明の実施例1の物体画素数の観測確率の算出処理のフローチャートである。当該算出処理は、接近物識別処理部601によって実行される。
まず、接近物識別処理部601は、入力された現時刻のカメラ姿勢パラメータCp及び物体の接地点座標に基づいて、広角カメラ1から物体までの相対距離を算出する(S7001)。
具体的には、接近物識別処理部601は、歪み補正部103によって歪みが補正された画像から地表面を特定する。そして、接近物識別処理部601は、カメラ姿勢パラメータCpに基づいて、特定した地表面の各位置の広角カメラ1からの距離を算出していき、物体の接地点の広角カメラ1からの距離を算出する。すなわち、接近物識別処理部601は、カメラ姿勢パラメータCpを用いて、画像上の座標(X座標及びY座標)を世界座標(WX座標、WY座標、及びWZ座標)に変換し、物体の接地点の広角カメラ1からの距離を算出する。
次に、接近物識別処理部601は、物体検出部104及び物体追跡部105によって検出された物体の種別及びS7001の処理で算出された相対距離に対応する推定画素数を取得する(S7002)。推定画素数は、物体の種別と相対距離とに関連付けられて予め設定されているものとする。例えば、相対距離20mの車両の推定画素数は水平20画素である。
次に、接近物識別処理部601は、取得した推定画素数と物体の実際の画素数(物体画素数)との差分を算出する(S7003)。そして、接近物識別処理部601は、S7003の処理で算出された差分に基づいて、物体画素数の観測確率b(k)を算出し(S7004)、処理を終了する。
具体的には、S7003の処理で算出された差分が大きい程、物体検出部104及び物体追跡部105が物体を誤検出している可能性が高いため、接近物識別処理部601は、物体画素数の接近物を示す状態602の観測確率b(k)を小さく算出し、物体画素数の非接近物を示す状態603の観測確率b(k)を大きく算出する。一方、S7003の処理で算出された差分が小さい程、物体検出部104及び物体追跡部105が物体を誤検出している可能性が低いため、接近物識別処理部601は、物体画素数の接近物を示す状態602の観測確率b(k)を大きく算出し、物体画素数の非接近物を示す状態603の観測確率b(k)を小さく算出する。
このように、カメラ姿勢パラメータCp及び接地点座標に基づいて、物体の広角カメラ1からの相対距離を算出し、算出した相対距離に対応する推定画素数と物体画素数との差分を考慮して、物体画素数の観測確率b(k)を算出する。これによって、接近物識別部107は、推定画素数と物体画素数との差分を考慮して接近物を識別することができ、物体検出部104及び物体追跡部105で誤検出された物体を接近物として識別することを防止できる。
他の特徴ベクトルの状態観測確率b(k)の算出方法も簡単に説明する。接近物識別部107は、特徴ベクトルの時間経過による変化が接近物特有の変化である場合には、各特徴ベクトルの接近物を示す状態602の状態観測確率b(k)を大きく算出する。特徴ベクトルの時間経過による変化が接近物特有の変化である場合とは、例えば、動きベクトルが徐々に大きくなっている場合、エッジ強度が徐々に高くなっている場合、テクスチャ周波数が時間経過で高周波帯域にシフトしている場合、矩形の拡大率が時間経過で正になっている場合、相対距離が徐々に小さくなっている場合等である。
このように、接近物識別部107は、各特徴ベクトルの時間経過による変化に基づき観測確率b(k)を算出する。そして、接近物識別部107は、隠れマルコフモデルにおける状態認識アルゴリズム(例えば、Viterbiアルゴリズム等)を用いて、状態遷移確率aij及び観測確率b(k)に基づいて、現在の物体の状態が接近物を示す状態602(STR)か非接近物を示す状態603(SFL)かを識別する。なお、接近物識別部107は、物体の状態が状態602と識別されれば、物体が接近物であると識別し、物体の状態が状態603と識別されれば、非接近物であると識別する。
本実施例では、広角カメラ1による撮像画像の左端の部分画像及び右端の部分画像から接近物をパターンマッチングを用いて検出することによって、接近物をできるだけ早く検出する。また、パターンマッチングを用いて接近物を検出することによって、オプティカルフローを用いて接近物を検出する場合よりも接近物検出システム10の処理負荷を低減できる。しかし、パターンマッチングを用いた接近物の検出では、接近物を誤検出してしまう可能性が高い。
ここで、誤検出と正検出との間には、誤検出を低減させようとすると正検出も低減させてしまい、正検出を増加させるようとすると誤検出も増加させてしまうといったような、トレードオフの関係がある。ある単一の時点における撮像画像に基づくパターンマッチングを用いて物体を検出する限り、このようなトレードオフの大きな改善は見込めない。
そこで、本実施例では、接近物検出システム10が接近物識別部107を有することによって、特徴ベクトルの時間経過による変化に基づいて接近物を識別する。これによって、物体検出部104及び物体追跡部105がパターンマッチングを用いて物体を検出し、接近物識別部107がパターンマッチングによる誤検出を排除することによって、広角カメラ1による撮像画像の微小な物体であっても、高い検出率を維持しながら誤検出率を低減させることできる。すなわち、遠方から高速に接近する車両等の接近物もできるだけ早く検出でき、接近物検出システム10は、例えば、当該接近物と車両とが衝突する2秒前までに警報を出力することが可能となる。
本実施例では、広角カメラ1による撮像画像の左右端の部分画像から左右の接近物を検出するため、広角カメラ1ではない通常のカメラ(狭角カメラ)を2台設置し、これらのカメラによる撮像画像から接近物を検出する場合と比較して、コストを低減することができる。
また、本実施例では、中央の部分画像から接近物を検出しないため処理負荷を軽減できる。なお、第1接近物検出部11及び第2接近物検出部12と同様の第3接近物検出部を用意して、第3接近物検出部が中央部分画像から接近物を検出してもよい。
また、物体検出部104が有する物体識別器が図5Bに示す多クラス識別器であれば、例えば、車両、歩行者、及びバイク等のような複数の物体を検出できる。また、物体検出部104が昼用の第1物体識別器401及び夜用の第2物体識別器402を有するので、広角カメラ1の撮像時の環境によらず、正確に物体を検出できる。
また、車両姿勢推定部102がカメラ姿勢パラメータCpを逐次算出するため、物体の広角カメラ1からの正確な相対距離を算出でき、物体画素数の観測確率b(k)を正確に算出できる。これによって、接近物を正確に検出できる。
以下、本発明の実施例2について図8及び図9A〜図9Dを用いて説明する。
実施例2では、実施例1の接近物検出システム10を搭載した車両100について説明する。本実施例においては、実施例1の接近物検出システム10をソフトウェアで実現しているが、実施例1の記載のように、ハードウェア構成で実現してももちろんかまわない。
図8は、本発明の実施例2の車両100のブロック図である。図8では、実施例1と同じ構成は同じ符号を付与し、説明を省略する。
車両100は、広角カメラ1、スピーカ801、ディスプレイ802、車速度センサ807、操舵角センサ808、及び接近物検出システム10を備える。
広角カメラ1は、車両100に設置され、車両100の周囲を撮影する。スピーカ801は、車両100の室内に設置され、接近物検出システム10が接近物を検出した場合に警報音を出力し、運転者に接近物を警告する。ディスプレイ802は、車両100の室内に設置され、接近物検出システム10が接近物を検出した場合に警報画面を出力し、運転者に接近物を警告する。車速度センサ807は自車両100の車速度を計測する。操舵角センサ808は、自車両100の操舵角を計測する。車速度センサ807によって計測された車速度を示す車速度情報及び操舵角センサ808によって計測された操舵角を示す操舵角情報によって、接近物検出システム10は自身の動作状態を切り替える。例えば、車速度が一定以下の場合は、接近物検出システム10は、衝突の危険性が小さいとみなして自身の動作を停止する。
接近物検出システム10は、入出力インタフェース(I/F)803、メモリ804、及びCPU805を有する。
入出力I/F803は、広角カメラ1、スピーカ801、ディスプレイ802、車速度センサ807、及び操舵角センサ808と接近物検出システム10との間でデータを入出力するインタフェースである。メモリ804には、CPU805が実行するプログラム、及びCPU805が読み書きするデータが格納される。CPU805は、演算処理を実行する処理部であり、接近物検出部806及び警報部2の機能を有する。
接近物検出部806は、実施例1の接近物検出システム10が有する各構成部(抽出部101、車両姿勢推定部102、第1接近物検出部11、及び第2接近物検出部12)であり、CPU806が接近物検出部806に対応するプログラムを実行することによって実装される。警報部2は、接近物検出部806が接近物を検出した場合に、スピーカ801から警報音を出力するため、及びディスプレイ802に警報画面を出力するための警報出力指令をスピーカ801及びディスプレイ802に入出力I/F803を介して入力する。なお、警報部2は、スピーカ801及びディスプレイ802の両方に警報出力指令を入出力する必要はなく、スピーカ801及びディスプレイ802の少なくとも一つに警報出力指令を入力してもよい。
図9Aは、本発明の実施例2の車両100の前方に広角カメラ1が設置された場合に接近物検出システム10が検出する接近物の例の説明図である。
車両100の前方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の前方の左側方の接近物(図9Aでは二輪車902)、及び車両100の前方の右側方の接近物(図9Aでは車両901)を検出できる。
このため、接近物検出システム10は、車両100の前方の左右側方の接近物を検出できるので、車両100を前進開始時(例えば、交差点及び駐車場で停車していた車両100を前進させる場合)等の運転者の運転を支援できる。
なお、接近物検出システム10は、接近物を検出した場合に接近物の危険度を算出し、算出した危険度に応じて出力する警告の種別を変更できる。接近物の危険度は、例えば、広角カメラ1と接近物との距離等に基づいて算出される。例えば、広角カメラ1と接近物との距離が短ければ短いほど危険度が高くなるように算出される。
なお、例えば、接近物検出システム10は、危険度が所定値以上である場合のみに警告を出力し、危険度が所定値より小さい場合には警告を出力しないように、危険度に応じて出力する警告の種別を変更してもよい。
図9Bは、本発明の実施例2の車両100の後方に広角カメラ1が設置された場合に接近物検出システム10が検出する接近物の例の説明図である。
車両100の後方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の後方の左側方の接近物(図9Bでは車両901)、及び車両100の後方の右側方の接近物(図9Bでは歩行者903)を検出できる。
このため、接近物検出システム10は、車両100の後方の左右側方の接近物を検出できるので、車両100をバックさせる場合等の運転者の運転を支援できる。
図9Cは、本発明の実施例2の車両100の左側方に広角カメラ1を設置した場合に接近物検出システム10が検出する接近物の例の説明図である。
車両100の左側方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の左側方の前方の接近物、及び車両100の左側方の後方の接近物(図9Cでは車両901)を検出できる。
このため、接近物検出システム10は、車両100の左側方の前方及び後方の接近物を検出できるので、例えば、車両100を左側に車線変更する場合等に運転者の運転を支援できる。また、接近物検出システム10は、車速度センサ807及び操舵角センサ808によって計測された情報を利用することで正確な移動量を算出できるため、接近物の速度及び車両100の左側への移動量を考慮して、より好適に衝突の危険性を判定することができる。
図9Dは、本発明の実施例2の車両100の右側方に広角カメラ1を設置した場合に接近物検出システム10が検出する接近物の例の説明図である。
車両100の右側方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の右側方の前方の接近物、及び車両100の右側方の後方の接近物(図9Dでは二輪車902)を検出できる。
このため、接近物検出システム10は、車両100の右側方の前方及び後方の接近物を検出できるので、例えば、車両100を右側に車線変更する場合等に運転者の運転を支援できる。また、接近物検出システム100は、車速度センサ807及び操舵角センサ808によって計測された情報を利用することで正確な移動量を算出できるため、接近物の速度及び車両100の右側への移動量を考慮して、より好適に衝突の危険性を判定することができる。
なお、図9C及び図9Dに示す後方からの接近物は、広角カメラ1が後方に設置された場合の接近物検出システム10でも検出可能である。
以上のように、車両100に搭載された接近物検出システム10は、車両100に設置された広角カメラ1による撮像画像から接近物を検出でき、スピーカ801及びディスプレイ802等から警報を出力する衝突警告システムを実現でき、運転者の運転を支援できる。
また、広角カメラ1が車両100の前方又は後方に設置されることによって、接近物検出システム10は、車両100の側方からの接近物を検出した場合に警報を出力する側方接近物検出システムを実現できる。また、広角カメラ1が車両100の後方、左側方、又は右側方に設置されることによって、車両100の後方からの接近物を検出した場合に警報を出力する後方接近物警報システムを実現できる。
以下、本発明の実施例3について図10及び図11を用いて説明する。
本実施例では、車両100に複数の広角カメラ1A〜1D(総称する場合には広角カメラ1と記載する)が設置され、接近物検出システム10が接近物の検出に用いる画像を撮像する広角カメラ1が車両100の状態に応じて選択される場合について説明する。なお、本実施例では、実施例1及び2と同じ構成は同じ符号を付与し、説明を省略する。
図10は、本発明の実施例3の車両100に設置された複数の広角カメラ1の撮像範囲の説明図である。
車両100の前方に広角カメラ1Aが設置され、車両100の後方に広角カメラ1Bが設置され、車両100の右側方に広角カメラ1Cが設置され、車両100の左側方に広角カメラ1Dが設置される。
広角カメラ1Aは、前方の左側方から右側方にわたる範囲(1001)を撮像可能であり、広角カメラ1Bは、後方の左側方から右側方にわたる範囲(1002)を撮像可能であり、広角カメラ1Cは、右側方の前方から後方にわたる範囲(1003)を撮像可能であり、広角カメラ1Dは、左側方の前方から後方にわたる範囲(1004)を撮像可能である。
このように、180度程度の視野角を有する4台の広角カメラ1を車両100に設置することによって、車両100の全周囲を撮像できる。なお、車両100に設置される広角カメラ1は複数台であればよく、4台に限定されない。
図11は、本発明の実施例3の車両100に搭載される接近物検出システム10の説明図である。
接近物検出システム10は、カメラ選択部1101は、4台の広角カメラ1A〜1Dによる撮像画像(FRT、RER、RHT、及びLFT)を入力とし、車両100の状態(例えば、車速度情報、シフト位置情報、及び操舵角情報)に基づいて、1台の広角カメラ1を選択し、選択した広角カメラ1による撮像画像Fを接近物検出システム10に入力する。
例えば、車速度が所定値以上であり、シフト位置がドライブであり、操舵角が0から所定範囲内である場合、カメラ選択部1101は、車両100の前方に設置された広角カメラ1Aを選択し、広角カメラ1Aの撮像画像FRTを接近物検出システム10に入力する。また、車速度が所定値以上であり、シフト位置がバックであり、操舵角が0から所定範囲内である場合、カメラ選択部1101は、車両100の後方に設置された広角カメラ1Bを選択し、広角カメラ1Bの撮像画像RERを接近物検出システム10に入力する。
車速度が所定値以上であり、操舵角が右方向である場合、カメラ選択部1101は、車両100の右側方に設置された広角カメラ1Cを選択し、広角カメラ1Cの撮像画像RHTを接近物検出システム10に入力する。車速度が所定値以上であり、操舵角が左方向である場合、車両100の左側方に設置された広角カメラ1Dを選択し、広角カメラ1Dの撮像画像LFTを接近物検出システム10に入力する。
なお、接近物検出システム10は、カメラ選択部1101によって選択された広角カメラ1による撮像画像に基づいて接近物を検出する。
以上のように、本実施例では、車両100に設置された複数の広角カメラ1から、車両100の状態に応じて、接近物の検出に用いる撮像画像を撮像した1台の広角カメラ1が選択されるので、接近物検出システム10は、車両100の状態に応じた適切な方向からの接近物を検出でき、全ての広角カメラ1による撮像画像に基づいて接近物を検出する場合より接近物検出システム10の処理負荷を軽減できる。
また、図10に示すように、車両100の前方、後方、左側方及び右側方に広角カメラ1を設置することによって、接近物検出システム10は、車両100の全方位の接近物を検出することが可能となる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることも可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
1 広角カメラ
10 接近物検出システム
11 第1接近物検出部
12 第2接近物検出部
101 抽出部
102 車両姿勢推定部
103 歪み補正部
104 物体検出部
105 物体追跡部
106 統合判定部
107 接近物識別部

Claims (10)

  1. 撮像装置によって撮像された撮像画像に基づいて接近物を検出する接近物検出システムであって、
    前記撮像画像から一端側の部分画像と他端側の部分画像とを抽出する抽出部と、
    前記抽出部によって抽出された部分画像の歪みを補正する歪み補正部と、
    設定された物体の画像情報を参照し、前記歪み補正部によって歪みが補正された部分画像からパターンマッチングを用いて物体を検出する物体検出部と、
    前記物体検出部の検出結果に基づいて接近物を識別する接近物識別部と、を有することを特徴とする接近物検出システム。
  2. 請求項1に記載の接近物検出システムであって、
    前記接近物識別部は、
    前記物体検出部によって検出された物体の特徴量を算出し、
    前記算出された物体の特徴量の時間経過による変化量に基づいて、前記物体が接近物か否かを識別することを特徴とする接近物検出システム。
  3. 請求項2に記載の接近物検出システムであって、
    前記撮像装置の姿勢を推定する姿勢推定部を有し、
    前記接近物識別部は、
    前記歪み補正部によって歪みが補正された部分画像から前記物体検出部によって検出された物体の接地点を特定し、
    前記姿勢推定部によって推定された前記撮像装置の姿勢、及び前記特定された物体の接地点に基づいて、前記撮像装置から前記物体までの相対距離を算出し、
    前記算出した相対距離、及び前記物体検出部によって検出された物体の種別に基づいて、前記物体の画素数を推定し、
    前記推定された画素数と前記物体の実際の画素数との差を考慮して、前記物体が接近物か否かを判定することを特徴とする接近物検出システム。
  4. 請求項2に記載の接近物検出システムであって、
    前記接近物識別部は、前記物体の特徴量として、前記物体の前記部分画像上での横幅、前記物体の前記部分画像上での縦幅、前記物体の接地点の座標、前記物体の動きベクトル、エッジ強度、テクスチャ周波数、矩形の拡大率、及び前記物体の前記部分画像上での実際の画素数の少なくとも一つを算出することを特徴とする接近物検出システム。
  5. 請求項1に記載の接近物検出システムであって、
    前回接近物として識別された物体と前記歪み補正部によって歪みが補正された部分画像とを比較して物体を追跡する物体追跡部と、
    前記物体検出部による検出結果と前記物体追跡部による追跡結果とに基づいて、前記検出結果と前記追跡結果との間の整合性を判定する統合判定部と、を有し、
    前記統合判定部は、
    前記物体検出部で物体を新たに検出し、かつ、前記物体検出部で新たに検出された物体が前回接近物として識別された物体であり、前記物体追跡部で当該物体が追跡されている場合、前記検出結果と前記追跡結果との間の整合性がないと判定し、
    前記検出結果と前記追跡結果との間の整合性がないと判定された場合、前記前回接近物として識別された物体の位置から現在の位置を予測し、
    前記物体検出部による検出結果、及び前記物体追跡部による追跡結果のうち、前記予測した現在の位置に近い方に物体が位置する結果を前記接近物識別部に出力することを特徴とする接近物検出システム。
  6. 請求項1に記載の接近物検出システムであって、
    前記物体検出部が参照する物体の画像情報は、昼用の画像情報と夜用の画像情報とを含み、
    前記物体検出部は、
    前記撮像装置のゲイン情報に基づいて昼か夜かを判定し、
    前記判定結果が昼である場合には、前記昼用の画像情報を参照し、前記物体を検出し、
    前記判定結果が夜である場合には、前記夜用の画像情報を参照し、前記物体を検出することを特徴とする接近物検出システム。
  7. 請求項1に記載の接近物検出システムであって、
    前記物体検出部は、
    前記歪み補正部によって歪みが補正された部分画像の複数の特徴量が入力される複数の入力層と、
    前記複数の入力層からの出力と重み付け係数とを線形統合した結果を非線形変換する複数の隠れ層と、
    前記隠れ層による変換結果に基づいて、各物体の識別確率を算出する複数の出力層と、を有し、
    前記出力層の数は、前記物体検出部が検出する物体の数であることを特徴とする接近物検出システム。
  8. 請求項1に記載の接近物検出システムを搭載する車両であって、
    前記車両の前方、後方、及び側方のうちの少なくとも一箇所には、前記撮像装置が設置されることを特徴とする車両。
  9. 請求項8に記載の車両であって、
    前記車両は、前記接近物識別部によって前記接近物が識別された場合、警報を通知する警報通知部を有することを特徴とする車両。
  10. 請求項8に記載の車両であって、
    前記車両には、複数の前記撮像装置が設置され、
    前記車両は、前記車両の速度情報及び操舵角情報に基づいて、前記接近物検出システムで接近物の識別に用いる撮像画像を撮像する撮像装置を切り替える撮像装置切替部を有することを特徴とする車両。
JP2013139436A 2013-07-03 2013-07-03 接近物検出システム、及び車両 Active JP6266238B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013139436A JP6266238B2 (ja) 2013-07-03 2013-07-03 接近物検出システム、及び車両
PCT/JP2014/064225 WO2015001878A1 (ja) 2013-07-03 2014-05-29 接近物検出システム、及び車両
EP14820079.3A EP3018645A4 (en) 2013-07-03 2014-05-29 Approaching-object detection system and vehicle
US14/892,961 US9811745B2 (en) 2013-07-03 2014-05-29 Approaching-object detection system and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013139436A JP6266238B2 (ja) 2013-07-03 2013-07-03 接近物検出システム、及び車両

Publications (2)

Publication Number Publication Date
JP2015014819A true JP2015014819A (ja) 2015-01-22
JP6266238B2 JP6266238B2 (ja) 2018-01-24

Family

ID=52143469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013139436A Active JP6266238B2 (ja) 2013-07-03 2013-07-03 接近物検出システム、及び車両

Country Status (4)

Country Link
US (1) US9811745B2 (ja)
EP (1) EP3018645A4 (ja)
JP (1) JP6266238B2 (ja)
WO (1) WO2015001878A1 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220178A (ja) * 2016-06-10 2017-12-14 株式会社Soken 物体検出装置、及び物体検出方法
JP2018013949A (ja) * 2016-07-21 2018-01-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、移動体の障害物検知方法および移動体の障害物検知プログラム
KR20180025587A (ko) * 2016-09-01 2018-03-09 삼성전자주식회사 자율 주행 방법 및 장치
KR20180040209A (ko) * 2016-10-12 2018-04-20 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
WO2018110262A1 (ja) * 2016-12-13 2018-06-21 株式会社デンソー 認識装置
JP2018106266A (ja) * 2016-12-22 2018-07-05 三菱自動車工業株式会社 危険度推定装置
WO2019065702A1 (ja) * 2017-09-26 2019-04-04 株式会社エクォス・リサーチ 情報処理装置
WO2019065703A1 (ja) * 2017-09-26 2019-04-04 株式会社エクォス・リサーチ 情報処理装置
CN110073426A (zh) * 2017-11-23 2019-07-30 北京嘀嘀无限科技发展有限公司 估计到达时间的系统和方法
JP2019133306A (ja) * 2018-01-30 2019-08-08 株式会社日立製作所 画像処理装置及び画像処理方法
WO2019155718A1 (ja) * 2018-02-09 2019-08-15 ソニー株式会社 認識装置と認識方法およびプログラム
JP2020006759A (ja) * 2018-07-04 2020-01-16 株式会社シマノ 抽出装置、制御システム、通信システム、学習モデル、情報処理装置、コンピュータプログラム、および、記憶媒体
JP2020052667A (ja) * 2018-09-26 2020-04-02 トヨタ自動車株式会社 物体検出装置、物体検出方法及び車両制御装置
JP2020510573A (ja) * 2017-03-03 2020-04-09 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. ニューラルネットワークを用いた自律的トレーラヒッチング
JP2020071665A (ja) * 2018-10-31 2020-05-07 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置
JP2020112961A (ja) * 2019-01-10 2020-07-27 Kddi株式会社 映像に応じたコンテキスト識別エンジンを選択する映像識別プログラム、装置及び方法
US10755437B2 (en) 2017-09-19 2020-08-25 Kabushiki Kaisha Toshiba Information processing device, image recognition method and non-transitory computer readable medium
JP2021010787A (ja) * 2015-08-03 2021-02-04 エンゼルプレイングカード株式会社 遊技場における不正検知システム
JP2021047194A (ja) * 2017-11-23 2021-03-25 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 到着時間を推定するためのシステムおよび方法
JP2022029455A (ja) * 2020-08-24 2022-02-17 エンゼルグループ株式会社 テーブルゲームの管理システムおよび遊戯用代用貨幣
JP2022105077A (ja) * 2015-08-03 2022-07-12 エンゼルグループ株式会社 テーブルゲームの管理システム、遊技用代用貨幣、検査装置、遊技用代用貨幣の管理システム
US11410494B2 (en) 2016-08-02 2022-08-09 Angel Group Co., Ltd. Game management system
JP2022147742A (ja) * 2021-03-23 2022-10-06 本田技研工業株式会社 移動体の制御装置及び制御方法並びに車両
US11651646B2 (en) 2015-11-19 2023-05-16 Angel Group Co., Ltd. Table game management system, game token, and inspection apparatus

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6303956B2 (ja) * 2014-09-24 2018-04-04 株式会社デンソー 軸ずれ量推定装置
US9914475B2 (en) * 2015-10-05 2018-03-13 Delphi Technologies, Inc. Humanized steering model for automated vehicles
JP6548690B2 (ja) * 2016-10-06 2019-07-24 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
WO2018066351A1 (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
US20190100146A1 (en) * 2017-10-02 2019-04-04 Hua-Chuang Automobile Information Technical Center Co., Ltd. Three-dimensional driving image reminder device
DE102018213755A1 (de) * 2018-08-15 2020-02-20 Robert Bosch Gmbh Verfahren zum Betreiben eines motorisierten Zweirads, insbesondere eines Motorrads, sowie Computerprogramm zur Durchführung des Verfahrens
CN109163707B (zh) * 2018-09-06 2019-11-26 百度在线网络技术(北京)有限公司 障碍物感知方法、系统、计算机设备、计算机存储介质
JP2020098444A (ja) * 2018-12-18 2020-06-25 セイコーエプソン株式会社 学習装置、印刷制御装置及び学習済モデル
DE102019105790A1 (de) * 2019-03-07 2020-09-10 Man Truck & Bus Se Kraftfahrzeug mit einer Mehrzahl von Sensoreinrichtungen zur Umfelderfassung
JP6954322B2 (ja) * 2019-03-08 2021-10-27 セイコーエプソン株式会社 情報処理装置、及び学習装置
KR20200141793A (ko) * 2019-06-11 2020-12-21 주식회사 만도 자동 긴급 제동 시스템 및 그 제어방법
CN112232299B (zh) * 2020-11-09 2023-10-27 江苏科技大学 一种基于深度学习的救援落水汽车的自动导航方法
TWI774620B (zh) * 2021-12-01 2022-08-11 晶睿通訊股份有限公司 物件分類與追蹤方法及其監控攝影機

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282452A (ja) * 1996-04-12 1997-10-31 Omron Corp 監視装置
JP2009151524A (ja) * 2007-12-20 2009-07-09 Alpine Electronics Inc 画像表示方法および画像表示装置
JP2009237887A (ja) * 2008-03-27 2009-10-15 Aisin Aw Co Ltd 他車両検出装置、他車両検出方法及びコンピュータプログラム
JP2010109483A (ja) * 2008-10-28 2010-05-13 Honda Motor Co Ltd 車両周辺表示方法
JP2010157118A (ja) * 2008-12-26 2010-07-15 Denso It Laboratory Inc パターン識別装置及びパターン識別装置の学習方法ならびにコンピュータプログラム
JP2010268520A (ja) * 2010-08-16 2010-11-25 Sony Corp 車載カメラ装置および車両
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7426437B2 (en) * 1997-10-22 2008-09-16 Intelligent Technologies International, Inc. Accident avoidance systems and methods
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
JP5445719B2 (ja) * 2011-09-29 2014-03-19 トヨタ自動車株式会社 画像表示装置及び画像表示方法
WO2013046407A1 (ja) * 2011-09-29 2013-04-04 トヨタ自動車株式会社 画像表示装置及び画像表示方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282452A (ja) * 1996-04-12 1997-10-31 Omron Corp 監視装置
JP2009151524A (ja) * 2007-12-20 2009-07-09 Alpine Electronics Inc 画像表示方法および画像表示装置
JP2009237887A (ja) * 2008-03-27 2009-10-15 Aisin Aw Co Ltd 他車両検出装置、他車両検出方法及びコンピュータプログラム
JP2010109483A (ja) * 2008-10-28 2010-05-13 Honda Motor Co Ltd 車両周辺表示方法
JP2010157118A (ja) * 2008-12-26 2010-07-15 Denso It Laboratory Inc パターン識別装置及びパターン識別装置の学習方法ならびにコンピュータプログラム
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
JP2010268520A (ja) * 2010-08-16 2010-11-25 Sony Corp 車載カメラ装置および車両

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11620872B2 (en) 2015-08-03 2023-04-04 Angel Group Co., Ltd. Fraud detection system in a casino
JP2022105077A (ja) * 2015-08-03 2022-07-12 エンゼルグループ株式会社 テーブルゲームの管理システム、遊技用代用貨幣、検査装置、遊技用代用貨幣の管理システム
US11386749B2 (en) 2015-08-03 2022-07-12 Angel Group Co., Ltd. Fraud detection system in a casino
US11386748B2 (en) 2015-08-03 2022-07-12 Angel Playing Cards Co., Ltd. Fraud detection system in a casino
US11380161B2 (en) 2015-08-03 2022-07-05 Angel Group Co., Ltd. Fraud detection system in a casino
US11393286B2 (en) 2015-08-03 2022-07-19 Angel Group Co., Ltd. Fraud detection system in a casino
JP2022028892A (ja) * 2015-08-03 2022-02-16 エンゼルグループ株式会社 遊技場における不正検知システム
US11393285B2 (en) 2015-08-03 2022-07-19 Angel Group Co., Ltd. Fraud detection system in a casino
US11393284B2 (en) 2015-08-03 2022-07-19 Angel Group Co., Ltd. Fraud detection system in a casino
JP2021010787A (ja) * 2015-08-03 2021-02-04 エンゼルプレイングカード株式会社 遊技場における不正検知システム
US11741780B2 (en) 2015-08-03 2023-08-29 Angel Group Co., Ltd. Fraud detection system in a casino
US11527130B2 (en) 2015-08-03 2022-12-13 Angel Group Co., Ltd. Fraud detection system in a casino
US11527131B2 (en) 2015-08-03 2022-12-13 Angel Group Co., Ltd. Fraud detection system in a casino
US11727750B2 (en) 2015-08-03 2023-08-15 Angel Group Co., Ltd. Fraud detection system in a casino
US11657674B2 (en) 2015-08-03 2023-05-23 Angel Group Go., Ltd. Fraud detection system in casino
US11657673B2 (en) 2015-08-03 2023-05-23 Angel Group Co., Ltd. Fraud detection system in a casino
US11587398B2 (en) 2015-08-03 2023-02-21 Angel Group Co., Ltd. Fraud detection system in a casino
US11783665B2 (en) 2015-11-19 2023-10-10 Angel Group Co., Ltd. Table game management system and game token
US11651646B2 (en) 2015-11-19 2023-05-16 Angel Group Co., Ltd. Table game management system, game token, and inspection apparatus
US11734995B2 (en) 2015-11-19 2023-08-22 Angel Group Co., Ltd. Table game management system, game token, and inspection apparatus
JP2017220178A (ja) * 2016-06-10 2017-12-14 株式会社Soken 物体検出装置、及び物体検出方法
JP2018013949A (ja) * 2016-07-21 2018-01-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、移動体の障害物検知方法および移動体の障害物検知プログラム
US11410494B2 (en) 2016-08-02 2022-08-09 Angel Group Co., Ltd. Game management system
KR20180025587A (ko) * 2016-09-01 2018-03-09 삼성전자주식회사 자율 주행 방법 및 장치
KR102573303B1 (ko) 2016-09-01 2023-08-31 삼성전자 주식회사 자율 주행 방법 및 장치
US10338600B2 (en) 2016-10-12 2019-07-02 Hyundai Motor Company Autonomous driving control apparatus, vehicle having the same, and method for controlling the same
KR20180040209A (ko) * 2016-10-12 2018-04-20 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
KR101851155B1 (ko) * 2016-10-12 2018-06-04 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
WO2018110262A1 (ja) * 2016-12-13 2018-06-21 株式会社デンソー 認識装置
JP2018095067A (ja) * 2016-12-13 2018-06-21 株式会社デンソー 認識装置
US11042996B2 (en) 2016-12-13 2021-06-22 Denso Corporation Recognition apparatus
JP2018106266A (ja) * 2016-12-22 2018-07-05 三菱自動車工業株式会社 危険度推定装置
JP7184790B2 (ja) 2017-03-03 2022-12-06 コンチネンタル オートモーティブ システムズ インコーポレイテッド ニューラルネットワークを用いた自律的トレーラヒッチング
JP2020510573A (ja) * 2017-03-03 2020-04-09 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. ニューラルネットワークを用いた自律的トレーラヒッチング
US10755437B2 (en) 2017-09-19 2020-08-25 Kabushiki Kaisha Toshiba Information processing device, image recognition method and non-transitory computer readable medium
US11481919B2 (en) 2017-09-26 2022-10-25 Aisin Corporation Information processing device
JP2019061496A (ja) * 2017-09-26 2019-04-18 株式会社エクォス・リサーチ 情報処理装置
WO2019065702A1 (ja) * 2017-09-26 2019-04-04 株式会社エクォス・リサーチ 情報処理装置
JP2019061495A (ja) * 2017-09-26 2019-04-18 株式会社エクォス・リサーチ 情報処理装置
WO2019065703A1 (ja) * 2017-09-26 2019-04-04 株式会社エクォス・リサーチ 情報処理装置
CN110073426B (zh) * 2017-11-23 2021-10-26 北京嘀嘀无限科技发展有限公司 估计到达时间的系统和方法
JP2020502601A (ja) * 2017-11-23 2020-01-23 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 到着時間を推定するためのシステムおよび方法
CN110073426A (zh) * 2017-11-23 2019-07-30 北京嘀嘀无限科技发展有限公司 估计到达时间的系统和方法
JP2021047194A (ja) * 2017-11-23 2021-03-25 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 到着時間を推定するためのシステムおよび方法
JP2019133306A (ja) * 2018-01-30 2019-08-08 株式会社日立製作所 画像処理装置及び画像処理方法
US11438517B2 (en) 2018-02-09 2022-09-06 Sony Corporation Recognition device, a recognition method, and a program that easily and accurately recognize a subject included in a captured image
JP7173056B2 (ja) 2018-02-09 2022-11-16 ソニーグループ株式会社 認識装置と認識方法およびプログラム
JPWO2019155718A1 (ja) * 2018-02-09 2021-01-28 ソニー株式会社 認識装置と認識方法およびプログラム
WO2019155718A1 (ja) * 2018-02-09 2019-08-15 ソニー株式会社 認識装置と認識方法およびプログラム
JP7146491B2 (ja) 2018-07-04 2022-10-04 株式会社シマノ 抽出装置、制御システム、通信システム、学習モデル、情報処理装置、コンピュータプログラム、および、記憶媒体
JP2020006759A (ja) * 2018-07-04 2020-01-16 株式会社シマノ 抽出装置、制御システム、通信システム、学習モデル、情報処理装置、コンピュータプログラム、および、記憶媒体
JP2020052667A (ja) * 2018-09-26 2020-04-02 トヨタ自動車株式会社 物体検出装置、物体検出方法及び車両制御装置
JP7119839B2 (ja) 2018-09-26 2022-08-17 トヨタ自動車株式会社 物体検出装置、物体検出方法及び車両制御装置
JP2020071665A (ja) * 2018-10-31 2020-05-07 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置
JP7119912B2 (ja) 2018-10-31 2022-08-17 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置
JP2020112961A (ja) * 2019-01-10 2020-07-27 Kddi株式会社 映像に応じたコンテキスト識別エンジンを選択する映像識別プログラム、装置及び方法
JP7012673B2 (ja) 2019-01-10 2022-01-28 Kddi株式会社 映像に応じたコンテキスト識別エンジンを選択する映像識別プログラム、装置及び方法
JP2022029455A (ja) * 2020-08-24 2022-02-17 エンゼルグループ株式会社 テーブルゲームの管理システムおよび遊戯用代用貨幣
JP7244562B2 (ja) 2021-03-23 2023-03-22 本田技研工業株式会社 移動体の制御装置及び制御方法並びに車両
JP2022147742A (ja) * 2021-03-23 2022-10-06 本田技研工業株式会社 移動体の制御装置及び制御方法並びに車両

Also Published As

Publication number Publication date
JP6266238B2 (ja) 2018-01-24
WO2015001878A1 (ja) 2015-01-08
EP3018645A1 (en) 2016-05-11
US9811745B2 (en) 2017-11-07
US20160098606A1 (en) 2016-04-07
EP3018645A4 (en) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6266238B2 (ja) 接近物検出システム、及び車両
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
Gandhi et al. Pedestrian collision avoidance systems: A survey of computer vision based recent studies
JP4919036B2 (ja) 移動物体認識装置
JP5136504B2 (ja) 物体識別装置
US20180151063A1 (en) Real-time detection system for parked vehicles
KR102099265B1 (ko) 보행자 상태 기반의 보행자와 차량간 충돌 경고 시스템 및 그 방법
US11804048B2 (en) Recognizing the movement intention of a pedestrian from camera images
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
Takeuchi et al. On-road vehicle tracking using deformable object model and particle filter with integrated likelihoods
KR20160137247A (ko) 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
US9286512B2 (en) Method for detecting pedestrians based on far infrared ray camera at night
WO2011068593A2 (en) Cross traffic collision alert system
WO2006026688A2 (en) Method and apparatus for classifying an object
JP2007249841A (ja) 画像認識装置
Van Pham et al. Front-view car detection and counting with occlusion in dense traffic flow
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
Liu et al. Vehicle detection and ranging using two different focal length cameras
TW201422473A (zh) 可追蹤移動物體之防撞警示方法及其裝置
EP3635684B1 (en) Pyramidal optical flow tracker improvement
KR101374653B1 (ko) 차량의 움직임을 검출하는 장치 및 방법
KR20180047149A (ko) 충돌 위험 경고 장치 및 방법
JP2014062415A (ja) 軌道検出装置及び軌道監視装置
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
Guzman et al. Car detection methodology in outdoor environment based on histogram of oriented gradient (HOG) and support vector machine (SVM)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

R150 Certificate of patent or registration of utility model

Ref document number: 6266238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150