JP5780307B2 - 対象物変化検出装置および対象物変化検出方法 - Google Patents

対象物変化検出装置および対象物変化検出方法 Download PDF

Info

Publication number
JP5780307B2
JP5780307B2 JP2013534490A JP2013534490A JP5780307B2 JP 5780307 B2 JP5780307 B2 JP 5780307B2 JP 2013534490 A JP2013534490 A JP 2013534490A JP 2013534490 A JP2013534490 A JP 2013534490A JP 5780307 B2 JP5780307 B2 JP 5780307B2
Authority
JP
Japan
Prior art keywords
shape
change
information
change detection
probability distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013534490A
Other languages
English (en)
Other versions
JPWO2013042206A1 (ja
Inventor
小川 雅弘
雅弘 小川
金道 敏樹
敏樹 金道
船山 竜士
竜士 船山
深町 映夫
映夫 深町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JPWO2013042206A1 publication Critical patent/JPWO2013042206A1/ja
Application granted granted Critical
Publication of JP5780307B2 publication Critical patent/JP5780307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物変化検出装置および対象物変化検出方法に関する。
従来、車両周辺の対象物を検出する技術が開発されている。
例えば、特許文献1には、自車両の前方に存在する歩行者の位置及び移動速度の時系列変化と周辺情報とを取得し、取得された位置及び移動速度の時系列変化と、歩行者が車道に飛び出すときの位置及び移動速度の時系列変化のパターンと比較すると共に、取得した周辺情報と、歩行者が車道に飛び出すときの予め求められた周辺情報とを比較することにより、自車両が走行している車道に歩行者が飛び出すか否かを予測する歩行者飛び出し予測装置が開示されている。
また、特許文献2には、外界センサから入力される画像データからエッジ画像を生成し、歩行者候補の左右の脚部の開度Wを検出すると共に、歩行者候補の頭部を推定し、この頭部の位置に応じて歩行者候補の身長Hを推定し、歩行者候補の身長Hおよび脚部の開度Wに基づき、身長Hに対する脚部Wの比率(W/H)が所定値α以上であるか否かを判定することにより、歩行者候補が自車両の進路を横断する可能性があるか否かを判定する歩行者認識装置が開示されている。
また、特許文献3には、距離画像を所定間隔で区分した区分毎にヒストグラムを作成して立体物の存在位置とその距離を求め、区分毎の距離が接近しているものをグループとしてまとめ、各グループについてデータの並び方向が大きく変化する部分でグループを分割した後、各グループの相互の位置関係からグループを再結合して1個の立体物を物体と側壁との組み合わせとして認識し、立体物のコーナー点の位置を算出して立体物の位置、前後・左右方向への移動速度等のパラメータを算出することで、斜め前方の車両の位置および挙動を検出する車外監視装置が開示されている。
特開2010−102437号公報 特開2007−264778号公報 特開平10−283461号公報
しかしながら、従来技術(特許文献1〜3等)においては、車両周辺の対象物の変化を迅速かつ正確に検出できないという問題点があった。
例えば、特許文献1に記載の歩行者飛び出し予測装置では、歩行者の位置変化および速度変化のみを見ているため、位置および速度の変化が確認できるまで歩行者の飛び出しを予測できず、歩行者の姿勢(すなわち、対象物の形状)から予測する場合よりも、歩行者の飛び出し予測が遅くなるという問題があった。
また、特許文献2に記載の歩行者認識装置では、歩行者の姿勢(すなわち、対象物の形状)として、身長Hに対する開脚度Wのみを見ているため、歩行者が横断を開始した後でないと、自車両の進路を横断する可能性がある歩行者を予測できないという問題があった。また、当該歩行者認識装置では、全ての歩行者について身長Hに対する開脚度Wの閾値を1つしか設定できないため、小さな歩幅で飛び出してくる歩行者の行動を予測できないという問題もあった。
また、特許文献3に記載の車外監視装置では、車両の横に側壁が存在しなければならないため、車線幅の広い高速道路では適用できないという問題があった。また、当該車両監視装置では、入力として距離画像が必須であるため、センサの構成が複雑になるという問題もあった。
本発明は、上記の事情に鑑みてなされたものであって、車両周辺の対象物の変化を迅速かつ正確に検出できる対象物変化検出装置および対象物変化検出方法を提供することを目的とする。
本発明の対象物変化検出装置は、カメラから自車両周辺が写し出されている画像データを取得し、取得した当該画像データから対象物を検出する対象物検出手段と、所定の特徴量を用いて、前記対象物検出手段により検出した前記対象物の形状情報を表す特徴量分布を取得する形状情報取得手段と、前記形状情報取得手段により取得した前記特徴量分布を正規化して、当該特徴量分布に対応する確率分布を取得する正規化手段と、前記正規化手段により取得した前記確率分布を蓄積する形状情報蓄積手段と、所定の尺度を用いて、前記形状情報蓄積手段により蓄積した所定時間前の前記確率分布と現在の前記確率分布との差を計算し、計算された差が所定の閾値より大きい場合に、前記対象物の変化を検出する対象物変化検出手段と、を備えることを特徴とする。
また、上記記載の対象物変化検出装置は、前記対象物検出手段により検出した前記対象物を含む画像領域から処理対象領域を抽出する処理対象領域抽出手段、を更に備え、前記形状情報取得手段は、前記処理対象領域抽出手段により抽出した前記処理対象領域から前記対象物の特徴量分布を取得することが好ましい。
また、上記記載の対象物変化検出装置は、前記形状情報蓄積手段により蓄積した前記確率分布を用いて、前記所定時間前の前記確率分布と現在の前記確率分布との差を、前記対象物の形状変化情報として取得する形状変化情報取得手段と、前記形状変化情報取得手段により取得した前記形状変化情報を蓄積する形状変化情報蓄積手段と、を更に備え、前記対象物変化検出手段は、前記形状変化情報蓄積手段により蓄積した前記形状変化情報を用いて類似度を計算し、当該類似度が所定の閾値より小さい場合に、前記対象物の変化を検出することが好ましい。
また、上記記載の対象物変化検出装置は、前記形状変化情報蓄積手段により蓄積した複数の前記形状変化情報を平均化して、平均化形状変化情報を取得する形状変化平均化手段、を更に備え、前記対象物変化検出手段は、前記形状変化平均化手段により取得した平均化形状変化情報を用いて前記類似度を計算し、当該類似度が前記所定の閾値より小さい場合に、前記対象物の変化を検出することが好ましい。
また、上記記載の対象物変化検出装置において、前記所定の特徴量は、確率分布として表せる特徴量であり、画像の輝度自体を使用する第1特徴量、画像のエッジを使用する第2特徴量、および、画像の色を使用する第3特徴量のうち少なくとも1つを含むことが好ましい。
また、上記記載の対象物変化検出装置において、前記第1特徴量は、輝度、輝度のPCA、Hu moment、LBP、Haarlike feature、および、poseletのうち少なくとも1つを含み、第2特徴量は、SIFT、PCA、SURF、GLOH、shape context、HOG、CoHOG、FIND、および、edgeletのうち少なくとも1つを含み、第3特徴量は、RGB、および、Labのうち少なくとも1つを含むことが好ましい。
また、上記記載の対象物変化検出装置において、前記所定の尺度は、確率分布間の差異を距離または擬距離で計る尺度であることが好ましい。
また、上記記載の対象物変化検出装置において、前記距離は、マンハッタン距離、ユークリッド距離、一様ノルム、マハラノビス距離、ハミング距離のうち少なくとも1つを含み、前記擬距離は、カルバック・ライブラー情報量を含むことが好ましい。
また、上記記載の対象物変化検出装置において、前記類似度は、コサイン類似度を含むことが好ましい。
本発明の対象物変化検出方法は、カメラから自車両周辺が写し出されている画像データを取得し、取得した当該画像データから対象物を検出する対象物検出ステップと、所定の特徴量を用いて、前記対象物検出ステップにて検出した前記対象物の形状情報を表す特徴量分布を取得する形状情報取得ステップと、前記形状情報取得ステップにて取得した前記特徴量分布を正規化して、当該特徴量分布に対応する確率分布を取得する正規化ステップと、前記正規化ステップにて取得した前記確率分布を蓄積する形状情報蓄積ステップと、所定の尺度を用いて、前記形状情報蓄積ステップにて蓄積した所定時間前の前記確率分布と現在の前記確率分布との差を計算し、計算された差が所定の閾値より大きい場合に、前記対象物の変化を検出する対象物変化検出ステップと、を含むことを特徴とする。
本発明は、車両周辺の対象物の変化を迅速かつ正確に検出できるという効果を奏する。
図1は、本発明に係る対象物変化検出装置の構成の一例を示すブロック図である。 図2は、実施形態1にかかる対象物変化検出処理の一例を示すフローチャートである。 図3は、実施形態1にかかる変化検出用グラフの一例を示す図である。 図4は、実施形態2にかかる対象物変化検出処理の一例を示すフローチャートである。 図5は、実施形態2にかかる対象物画像領域と処理対象領域の一例を示す図である。 図6は、実施形態3にかかる対象物変化検出処理の一例を示すフローチャートである。 図7は、実施形態3にかかる変化検出用グラフの一例を示す図である。 図8は、実施形態4にかかる対象物変化検出処理の一例を示すフローチャートである。 図9は、実施形態4にかかる変化検出用グラフの一例を示す図である。
以下に、本発明にかかる対象物変化検出装置および対象物変化検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記の実施形態における構成要素には、当業者が容易に想定できるもの、あるいは実質的に同一のものが含まれる。
本発明にかかる対象物変化検出装置の構成について図1を参照しながら説明する。図1は、本発明にかかる対象物変化検出装置の構成の一例を示すブロック図である。
図1に示すように、対象物変化検出装置1は、例えば車両に搭載された自動車制御用コンピュータなどを用いて構成されたものであり、車両に搭載されているカメラ2と通信可能に接続されている。カメラ2は、自車両周辺を撮影し、自車両周辺が写し出されている画像データを生成する機器である。カメラ2は、例えば可視光領域または赤外線領域にて撮像可能なCCDカメラまたはCMOSカメラ等である。カメラ2は、車両の前方、側方、後方等の車両周辺を撮像可能な任意の位置に設置される。
対象物変化検出装置1は、制御部12および記憶部14を備えている。制御部12は、対象物変化検出装置1を統括的に制御するものであり、例えばCPU(Central Processing Unit)などである。記憶部14は、データを記憶するためのものであり、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、またはハードディスクなどである。
記憶部14は、形状情報記憶部14a、処理対象領域記憶部14b、形状変化情報記憶部14c、平均化形状変化情報記憶部14dを備えている。
形状情報記憶部14aは、画像データから抽出された対象物の形状情報を記憶する形状情報記憶手段である。対象物は、自車両周辺に存在する、歩行者、自転車、バイク、車両等の移動物体の少なくとも1つを含む。また、対象物は、車両のドア等の対象物の一部であってもよい。形状情報は、対象物の形状の特徴量を示すデータである。なお、特徴量は、これに限定されないが、画像データの輝度自体を使用する第1特徴量、画像データのエッジを使用する第2特徴量、および、画像データの色を使用する第3特徴量のうち少なくとも1つを含む。第1特徴量は、例えば、輝度、輝度のPCA、Hu moment、LBP、Haarlike feature、および、poseletのうち少なくとも1つを含む。第2特徴量は、例えば、SIFT、PCA、SURF、GLOH、shape context、HOG、CoHOG、FIND、および、edgeletのうち少なくとも1つを含む。第3特徴量は、例えば、RGB、および、Labのうち少なくとも1つを含む。
処理対象領域記憶部14bは、対象物を含む画像データの画像領域の一部に対応する処理対象領域を記憶する処理対象領域記憶手段である。形状変化情報記憶部14cは、所定時間内における形状情報の時間変化を示す形状変化情報を記憶する形状変化情報記憶手段である。平均化形状変化情報記憶部14dは、形状変化情報の平均を示す平均化形状変化情報を記憶する平均化形状変化情報記憶手段である。
制御部12は、対象物検出部12a、処理対象領域抽出部12b、形状情報取得部12c、正規化部12d、形状情報蓄積部12e、形状変化情報取得部12f、形状変化情報蓄積部12g、形状変化平均化部12h、および、対象物変化検出部12iを備えている。
対象物検出部12aは、画像から対象物を検出する対象物検出手段である。対象物検出部12aは、予め記憶部14に記憶された対象物の形状の概要を示すデータを用いて、パターンマッチング等を行うことにより対象物を検出する。
処理対象領域抽出部12bは、対象物検出部12aにより検出した対象物を含む画像領域から処理対象領域を抽出する処理対象領域抽出手段である。処理対象領域は、後述する対象物変化検出部12iによる対象物の変化検出処理に有効な所定領域である。例えば対象物が歩行者の場合、処理対象領域は、歩行者の全体のみまたは下半身のみを含む領域等を含む。処理対象領域抽出部12bは、抽出した処理対象領域を処理対象領域記憶部14bに格納してもよい。
形状情報取得部12cは、対象物検出部12aにより検出した対象物の形状情報を表す特徴量分布を取得する形状情報取得手段である。具体的には、形状情報取得部12cは、所定の特徴量を用いて、対象物検出部12aにより検出した対象物の特徴量分布を取得する。ここで、所定の特徴量は、確率分布として表せる特徴量であり、上述の第1特徴量、第2特徴量、および、第3特徴量の少なくとも1つを含む。また、形状情報取得部12cは、処理対象領域抽出部12bにより抽出した処理対象領域、または、処理対象領域記憶部14bに記憶された処理対象領域から対象物の特徴量分布を取得してもよい。
正規化部12dは、形状情報取得部12cにより取得した特徴量分布により表される形状情報を正規化する正規化手段である。具体的には、正規化部12dは、形状情報取得部12cにより取得した特徴量分布を正規化して、当該特徴量分布に対応する確率分布を取得する。
形状情報蓄積部12eは、形状情報取得部12cにより取得した特徴量分布により表される形状情報を蓄積する形状情報蓄積手段である。ここで、形状情報蓄積部12eは、正規化部12dにより正規化した形状情報を蓄積する。具体的には、形状情報蓄積部12eは、正規化部12dにより取得した確率分布を蓄積する。すなわち、形状情報蓄積部12eは、正規化した形状情報(確率分布)を形状情報記憶部14aに格納する。なお、本実施形態において、形状情報蓄積部12eは、形状情報取得部12cにより取得した正規化前の特徴量分布を蓄積してもよい。
形状変化情報取得部12fは、形状情報蓄積部12eにより蓄積した正規化済みの形状情報、すなわち、形状情報記憶部14aに記憶された確率分布、を用いて、所定時間前の確率分布と現在の確率分布との差を、対象物の形状変化情報として取得する形状変化情報取得手段である。
形状変化情報蓄積部12gは、形状変化情報取得部12fにより取得した形状変化情報を蓄積する形状変化情報蓄積手段である。すなわち、形状変化情報蓄積部12gは、取得した形状変化情報を形状変化情報記憶部14cに格納する。
形状変化平均化部12hは、形状変化情報蓄積部12gにより蓄積した複数の形状変化情報、すなわち、形状変化情報記憶部14cに記憶された形状変化情報、を平均化して、平均化形状変化情報を取得する形状変化平均化手段である。形状変化平均化部12hは、取得した平均化形状変化情報を平均化形状変化情報記憶部14dに格納してもよい。
対象物変化検出部12iは、形状情報蓄積部12eにより蓄積した形状情報、すなわち、形状情報記憶部14aに記憶された形状情報、を用いて、所定時間前の形状情報と現在の形状情報とを比較することで、対象物の変化を検出する対象物変化検出手段である。対象物の変化とは、交通環境における対象物の危険な変化を意味し、対象物の運動変化開始時における形状の変化を含む。対象物の変化としては、これに限定されないが、例えば、歩行者や自転車が急に動きを変えて道路に出てくるという変化、併走車車両やバイクが急に車線変更して自車線に割り込んでくるという変化、前方車両が急にUターンを開始するという変化、前方車両が道路脇の店等に入るために急に右左折を開始するという変化、および、駐車車両のドアが急に開くという変化などを含む。
具体的には、対象物変化検出部12iは、所定の尺度を用いて、形状情報記憶部14aに記憶された所定時間前の確率分布と現在の確率分布との差を計算し、計算された差が所定の閾値より大きい場合に、対象物の変化を検出する。所定の尺度とは、確率分布間の差異を距離または擬距離で計る尺度である。距離は、これに限定されないが、Lp norm、例えば、L1 norm(マンハッタン距離)、L2 norm(ユークリッド距離)、L infinity norm(一様ノルム)等を含む。また、距離は、マハラノビス距離を含んでいてもよい。このマハラノビス距離を用いる場合、過去の複数のベクトルp(t)から分布を作成しておくことが好ましい。また、距離は、ハミング距離を含んでいてもよい。このハミング距離を用いる場合、ある程度数値を離散化しておくことが好ましい。また、擬距離は、これに限定されないが、カルバック・ライブラー情報量(Kullback−Leibler divergence)(以下、KL情報量と呼ぶ)を含む。ここで、KL情報量とは、2つの確率分布P,Q間の差異を計る尺度であり、情報理論分野において周知である。
なお、本実施形態において、対象物変化検出部12iは、形状情報蓄積部12eにより正規化前の特徴量分布を蓄積した場合、形状情報記憶部14aに記憶された所定時間前の特徴量分布および現在の特徴量分布をそれぞれ正規化して、当該所定時間前の特徴量分布および当該現在の特徴量分布に対応する確率分布をそれぞれ取得し、所定の尺度を用いて、取得した所定時間前の確率分布と現在の確率分布との差を計算して、計算された差が所定の閾値より大きい場合に、対象物の変化を検出してもよい。
ここで、対象物変化検出部12iは、形状変化情報蓄積部12gにより蓄積した形状変化情報、すなわち、形状変化情報記憶部14cに記憶された形状変化情報、を用いて類似度を計算し、当該類似度が所定の閾値より小さい場合に、対象物の変化を検出してもよい。類似度は、これに限定されないが、コサイン類似度等を含む。また、対象物変化検出部12iは、形状変化平均化部12hにより取得した平均化形状変化情報、または、平均化形状変化情報記憶部14dに記憶された平均化形状変化情報を用いて類似度を計算し、当該類似度が所定の閾値より小さい場合に、対象物の変化を検出してもよい。
続いて、図2〜図9を参照して、上述した対象物変化検出装置1において実行される対象物変化検出処理について説明する。以下、本発明における対象物変化検出装置1において実行される対象物変化検出処理について、実施形態1〜4の順に説明する。なお、以下の対象物変化検出処理において、車両周辺に存在する対象物として、歩行者を一例に説明するが、これに限定されない。また、対象物の形状を示す特徴量として、SIFT特徴量を一例に説明するが、これに限定されない。また、確率分布P,Q間の差異を計る尺度として、KL情報量を一例に説明するが、これに限定されない。
〔実施形態1〕
実施形態1では、対象物検出部12aと、形状情報取得部12cと、正規化部12dと、形状情報蓄積部12eと、対象物変化検出部12iとを備える対象物変化検出装置1において実行される対象物変化検出処理について、図2および図3を参照して説明する。図2は、実施形態1にかかる対象物変化検出処理の一例を示すフローチャートである。図3は、実施形態1にかかる変化検出用グラフの一例を示す図である。
図2に示すように、まず、対象物変化検出装置1の制御部12は、カメラ2から自車両周辺が写し出されている画像データを取得する(ステップSA1)。
つぎに、対象物変化検出装置1の対象物検出部12aは、ステップSA1で取得した画像データから対象物として歩行者を検出する(ステップSA2)。例えば、対象物検出部12aは、予め記憶部14に記憶された歩行者等の対象物の形状の概要を示すデータを用いて、パターンマッチング等を行うことにより対象物を検出する。
つぎに、対象物変化検出装置1の形状情報取得部12cは、ステップSA2で検出した対象物の形状情報を表す特徴量分布を取得する(ステップSA3)。具体的には、形状情報取得部12cは、ステップSA2で検出した対象物から、形状情報を表す特徴量分布v(t)として、SIFT特徴量の計算を行う。ここで、SIFT特徴量は、形状を表す特徴量として画像認識分野等において周知である。また、SIFT特徴量は、対象物を含む画像データのどの部分にどの向きのエッジが分布しているかをヒストグラムで表せるため、確率分布として表せる。
つぎに、正規化部12dは、下記の数式(1)を示すように、ステップSA3で取得した特徴量分布v(t)のL1 normを1に正規化して、特徴量(確率分布)p(t)を取得する(ステップSA4)。
Figure 0005780307
つぎに、対象物変化検出装置1の形状情報蓄積部12eは、ステップSA4で取得した形状情報を形状情報記憶部14aに蓄積する(ステップSA5)。すなわち、形状情報蓄積部12eは、ステップSA4で正規化した特徴量(確率分布)p(t)の蓄積を行う。
つぎに、対象物変化検出装置1の制御部12は、下記の数式(2)に示すように、ステップSA5で蓄積した特徴量(確率分布)p(t)から、nフレーム前の特徴量と現在の特徴量との間の差d(t,n)の計算を行う(ステップSA6)。制御部12は、下記の数式(3)に示すように、KL情報量を用いて、差d(t,n)の計算を行う。
Figure 0005780307
Figure 0005780307
つぎに、対象物変化検出部12iは、ステップSA6で計算した差d(t,n)が、図3に示すように、所定の閾値Threより大きいか否かを判定する(ステップSA7)。図3の縦軸は、KL情報量を示し、横軸は、時間のフレームを示している。図3において、フレーム54〜174までは、対象物の歩行者が歩道に沿って移動している状態を表しており、フレーム180では歩行者が急に動きを変えた状態を表している。
対象物変化検出部12iは、ステップSA7で差d(t,n)が閾値Threより大きいと判定した場合(ステップSA7:Yes)、対象物の変化があると判定する(ステップSA8)。その後、対象物変化検出処理を終了する。なお、ステップSA8の処理の後、ステップSA1に戻り、対象物変化検出処理を繰り返し実行してもよい。
対象物変化検出部12iは、ステップSA7で差d(t,n)が閾値Thre未満であると判定した場合(ステップSA7:No)、ステップSA1の処理に戻る。
このように、実施形態1において、対象物変化検出部12iは、蓄積した形状情報を用いて、所定時間前の形状情報と現在の形状情報とを比較することで、対象物の変化を検出する。その後、対象物変化検出部12iは、対象物の変化の有無の判定終了後、次のフレームjの画像取得に戻る。
以上、実施形態1によれば、従来技術よりも、車両周辺の対象物の変化を迅速かつ正確に検出できる。例えば、従来技術の特許文献1に記載の歩行者飛び出し予測装置では、歩行者の姿勢(すなわち、対象物の形状)から予測する場合よりも、歩行者の飛び出し予測が遅くなるという問題があったが、実施形態1によれば、対象物の形状に基づいて、交通環境における対象物の危険な変化(例えば、歩行者の飛び出し)を検出しているので、車両周辺の対象物の変化を迅速かつ正確に検出することができる。また、従来技術の特許文献2に記載の歩行者認識装置では、歩行者が横断を開始した後でないと、自車両の進路を横断する可能性がある歩行者を予測できず、小さな歩幅で飛び出してくる歩行者の行動を予測できないという問題もあったが、実施形態1によれば、歩行者の歩幅の大小に関係なく、歩行者が横断を開始する前に対象物の変化を検出できるので、車両周辺の対象物の変化を迅速かつ正確に検出できる。また、従来技術の特許文献3に記載の車外監視装置では、車線幅の広い高速道路では適用できず、センサの構成が複雑になるという問題があったが、実施形態1によれば、側壁の有無に関係なく、簡易なカメラの構成で対象物変化検出を実現できる。このように、実施形態1によれば、運転者が車両を運転中に車両周辺の対象物の危険な変化が生じた場合、迅速かつ正確に運転者に危険を報知することができるので、交通事故の発生可能性を低減することができる。
ここで、車両周辺の対象物の危険な変化は、連続変化と不連続変化に分類できる。例えば、対象物を歩行者とした場合、連続変化としては、歩行者が歩道から車道に向かって一定速度で直線的に進入する動作等が挙げられる。一方、不連続変化としては、歩行者が歩道に沿って移動している状態から急に進行方向を変えて車道側へ進入する動作、歩行者が歩道に沿って低速度で移動している状態から急に高速度で移動する動作、および、歩行者が止まっている状態から急に動き出す動作等が挙げられる。従来技術では、線形予測により、この連続変化(例えば、対象物が連続的に移動する動作、対象物が動いている状態から停止する動作、および、対象物が減速する動作等)については、検出可能であったが、不連続変化については迅速かつ正確に検出することができなかった。
一方、実施形態1の対象物変化検出装置1は、画像から対象物を検出し、所定の特徴量を用いて、検出した対象物の形状情報を表す特徴量分布を取得し、取得した特徴量分布を正規化して、当該特徴量分布に対応する確率分布を取得し、取得した確率分布を蓄積する。そして、実施形態1の対象物変化検出装置1は、所定の尺度を用いて、蓄積した所定時間前の確率分布と現在の確率分布との差を計算し、計算された差が所定の閾値より大きい場合に、対象物の変化を検出する。これにより、実施形態1の対象物変化検出装置1によれば、従来技術では十分に対応できなかった不連続変化(例えば、対象物が止まっている状態から動き始める動作、対象物が加速する動作、および、対象物が方向転換する動作等)についても、迅速かつ正確に検出することができる。例えば、実施形態1によれば、不連続変化の一例として、歩行者や自転車が急に動きを変えて道路に出てくる、併走車車両やバイクが急に車線変更して自車線に割り込んでくる、前方車両が急にUターンを開始する、前方車両が道路脇の店等に入るために急に右左折を開始する、および、駐車車両のドアが急に開くといった、車両周辺の対象物の危険な変化が生じた場合に、迅速かつ正確に運転者に危険を報知することができるので、交通事故の発生可能性を低減することができる。
〔実施形態2〕
実施形態2では、対象物検出部12aと、処理対象領域抽出部12bと、形状情報取得部12cと、正規化部12dと、形状情報蓄積部12eと、対象物変化検出部12iとを備える対象物変化検出装置1において実行される対象物変化検出処理について、図4および図5を参照して説明する。図4は、実施形態2にかかる対象物変化検出処理の一例を示すフローチャートである。図5は、実施形態2にかかる対象物画像領域と処理対象領域の一例を示す図である。
図4に示すように、まず、対象物変化検出装置1の制御部12は、カメラ2から自車両周辺が写し出されている画像データを取得する(ステップSB1)。
つぎに、対象物変化検出装置1の対象物検出部12aは、ステップSB1で取得した画像データから対象物として歩行者を検出する(ステップSB2)。
つぎに、対象物変化検出装置1の処理対象領域抽出部12bは、ステップSB2で検出した対象物を含む画像領域から処理対象領域を抽出する(ステップSB3)。具体的には、図5に示すように、処理対象領域抽出部12bは、対象物を含む画像領域内でパターンマッチング等を行うことにより、対象物の変化検出処理に有効な領域である処理対象領域(図5(a)および(b)の太字で囲った領域)を抽出する。図5(a)では、対象物が歩行者の場合は下半身の形状の変化が重要となるため、処理対象領域を画像領域の下半分に設定している。図5(b)では、対象物が歩行者の場合は歩道の線などの背景画像は変化検出処理に不要な領域となるため、歩行者の全体のみを含むよう処理対象領域を設定している。ここで、処理対象領域抽出部12bは、抽出した処理対象領域を処理対処領域記憶部14bに格納してもよい。
つぎに、対象物変化検出装置1の形状情報取得部12cは、ステップSB3で抽出した処理対象領域から対象物の形状情報を取得する(ステップSB4)。具体的には、形状情報取得部12cは、ステップSB3で抽出した処理対象領域から、対象物の形状情報を表す特徴量分布v(t)として、SIFT特徴量の計算を行う。
つぎに、正規化部12dは、下記の数式(1)を示すように、ステップSB4で取得した特徴量分布v(t)のL1 normを1に正規化して、特徴量(確率分布)p(t)を取得する(ステップSB5)。
Figure 0005780307
つぎに、対象物変化検出装置1の形状情報蓄積部12eは、ステップSB5で取得した形状情報を形状情報記憶部14aに蓄積する(ステップSB6)。すなわち、形状情報蓄積部12eは、ステップSB5で正規化した特徴量(確率分布)p(t)の蓄積を行う。
つぎに、対象物変化検出装置1の制御部12は、下記の数式(2)に示すように、ステップSB6で蓄積した特徴量(確率分布)p(t)から、nフレーム前の特徴量と現在の特徴量との間の差d(t,n)の計算を行う(ステップSB7)。制御部12は、例えば、下記の数式(3)に示すように、KL情報量を用いて、差d(t,n)の計算を行う。
Figure 0005780307
Figure 0005780307
つぎに、対象物変化検出部12iは、ステップSB7で計算した差d(t,n)が、上述の図3に示すように、所定の閾値Threより大きいか否かを判定する(ステップSB8)。
対象物変化検出部12iは、ステップSB8で差d(t,n)が閾値Threより大きいと判定した場合(ステップSB8:Yes)、対象物の変化があると判定する(ステップSB9)。その後、対象物変化検出処理を終了する。なお、ステップSB9の処理の後、ステップSB1に戻り、対象物変化検出処理を繰り返し実行してもよい。
対象物変化検出部12iは、ステップSB8で差d(t,n)が閾値Thre未満であると判定した場合(ステップSB8:No)、ステップSB1の処理に戻る。
このように、実施形態2において、形状情報取得部12cは、抽出した処理対象領域から対象物の形状情報を取得し、対象物変化検出部12iは、蓄積した形状情報を用いて、所定時間前の形状情報と現在の形状情報とを比較することで、対象物の変化を検出する。その後、対象物変化検出部12iは、対象物の変化の有無の判定終了後、次のフレームjの画像取得に戻る。
以上、実施形態2によれば、対象物の形状の変化を検出する範囲を限定しているため、対象物変化検出処理の検出精度や計算速度を向上させることができる。これにより、実施形態2によれば、車両周辺の対象物の変化をより迅速かつ正確に検出できるので、交通事故の発生可能性をより低減することができる。
〔実施形態3〕
実施形態3では、対象物検出部12aと、形状情報取得部12cと、正規化部12dと、形状情報蓄積部12eと、形状変化情報取得部12fと、形状変化情報蓄積部12gと、対象物変化検出部12iとを備える対象物変化検出装置1において実行される対象物変化検出処理について、図6および図7を参照して説明する。図6は、実施形態3にかかる対象物変化検出処理の一例を示すフローチャートである。図7は、実施形態3にかかる変化検出用グラフの一例を示す図である。
図6に示すように、まず、対象物変化検出装置1の制御部12は、カメラ2から自車両周辺が写し出されている画像データを取得する(ステップSC1)。
つぎに、対象物変化検出装置1の対象物検出部12aは、ステップSC1で取得した画像データから対象物として歩行者を検出する(ステップSC2)。
つぎに、対象物変化検出装置1の形状情報取得部12cは、ステップSC2で検出した対象物の形状情報を取得する(ステップSC3)。具体的には、形状情報取得部12cは、ステップSC2で検出した対象物から、形状情報を表す特徴量分布v(t)として、SIFT特徴量の計算を行う。
つぎに、正規化部12dは、下記の数式(1)を示すように、ステップSC3で取得した特徴量分布v(t)のL1 normを1に正規化して、特徴量(確率分布)p(t)を取得する(ステップSC4)。
Figure 0005780307
つぎに、対象物変化検出装置1の形状情報蓄積部12eは、ステップSC4で取得した形状情報を形状情報記憶部14aに蓄積する(ステップSC5)。すなわち、形状情報蓄積部12eは、ステップSC4で正規化した特徴量(確率分布)p(t)の蓄積を行う。
つぎに、対象物変化検出装置1の形状変化情報取得部12fは、下記の数式(2)に示すように、ステップSC5で蓄積した特徴量(確率分布)p(t)から、nフレーム前の特徴量と現在の特徴量との間の差d(t,n)(すなわち、本実施形態3において、形状変化情報)の計算を行う(ステップSC6)。形状変化情報取得部12fは、下記の数式(3)に示すように、KL情報量を用いて、形状変化情報として差d(t,n)の計算を行う。このように、形状変化情報取得部12fは、ステップSC5で蓄積した形状情報を用いて、対象物の形状変化情報を取得する。
Figure 0005780307
Figure 0005780307
つぎに、対象物変化検出装置1の形状変化情報蓄積部12gは、ステップSC6で取得した形状変化情報d(t,n)を形状変化情報記憶部14cに蓄積する(ステップSC7)。具体的には、形状変化情報蓄積部12gは、ステップSC6で計算した形状変化情報d(t,n)をlフレーム分蓄積した、下記の数式(4)に示すベクトルu(t,n,l)を計算する。
Figure 0005780307
つぎに、対象物変化検出装置1の対象物変化検出部12iは、下記の数式(5)および数式(6)を用いて、類似度cosθを計算する(ステップSC8)。ここで、類似度cosθは、n次元空間での類似度を分析する際に当該技術分野において一般的に用いられるn次元ベクトルの類似度である。具体的には、類似度cosθは、コサイン類似度と呼ばれ、ベクトルのなす角θの余弦cosθのことを意味し、ベクトルの向きの近さを類似性の指標としたものである。ベクトルの向きが一致している場合は最大値の1となり、ベクトルの向きが直行する場合は0となり、ベクトルの向きが逆になる場合は最小値の−1となる。
Figure 0005780307
Figure 0005780307
つぎに、対象物変化検出装置1の対象物変化検出部12iは、ステップSC8で計算した類似度cosθが、図7に示すように、所定の閾値Threより小さいか否かを判定する(ステップSC9)。図7の縦軸は、cosθを示し、横軸は、時間のフレームを示している。図7において、フレーム66〜162までは、対象物の歩行者が歩道に沿って移動している状態を表しており、フレーム168〜180では、歩行者が急に動きを変えた状態を表している。
対象物変化検出部12iは、ステップSC9で類似度cosθが閾値Threより小さいと判定した場合(ステップSC9:Yes)、対象物の変化があると判定する(ステップSC10)。その後、対象物変化検出処理を終了する。なお、ステップSC10の処理の後、ステップSC1に戻り、対象物変化検出処理を繰り返し実行してもよい。
対象物変化検出部12iは、ステップSC9で類似度cosθが閾値Thre以上であると判定した場合(ステップSC9:No)、ステップSC1の処理に戻る。
このように、実施形態3において、形状変化情報取得部12fは、蓄積した形状情報を用いて、所定時間前の形状情報と現在の形状情報との差を対象物の形状変化情報として取得し、形状変化情報蓄積部12gは、取得した形状変化情報を蓄積する。そして、対象物変化検出部12iは、蓄積した形状変化情報を用いて類似度を計算し、当該類似度が所定の閾値より小さい場合に、対象物の変化を検出する。その後、対象物変化検出部12iは、対象物の変化の有無の判定終了後、次のフレームjの画像取得に戻る。
以上、実施形態3によれば、対象物の形状情報の時間変化を形状変化情報として蓄積し、コサイン類似度を用いて類似性を分析しているため、対象物変化検出処理の検出精度をより一層向上させることができる。これにより、実施形態3によれば、車両周辺の対象物の変化をより一層迅速かつ正確に検出できるので、交通事故の発生可能性をより一層低減することができる。なお、実施形態3において、対象物の変化を検出する際に、類似度を閾値と比較する例について説明したが、これに限られない。実施形態3の対象物変化検出装置1は、類似度の有無のみで対象物の変化を検出してもよい。
〔実施形態4〕
実施形態4では、対象物検出部12aと、形状情報取得部12cと、正規化部12dと、形状情報蓄積部12eと、形状変化情報取得部12fと、形状変化情報蓄積部12gと、形状変化平均化部12hと、対象物変化検出部12iとを備える対象物変化検出装置1において実行される、対象物変化検出処理について、図8および図9を参照して説明する。図8は、実施形態4にかかる対象物変化検出処理の一例を示すフローチャートである。図9は、実施形態4にかかる変化検出用グラフの一例を示す図である。
図8に示すように、まず、対象物変化検出装置1の制御部12は、カメラ2から自車両周辺が写し出されている画像データを取得する(ステップSD1)。
つぎに、対象物変化検出装置1の対象物検出部12aは、ステップSD1で取得した画像データから対象物として歩行者を検出する(ステップSD2)。
つぎに、対象物変化検出装置1の形状情報取得部12cは、ステップSD2で検出した対象物の形状情報を取得する(ステップSD3)。具体的には、形状情報取得部12cは、ステップSC2で検出した対象物から、形状情報を表す特徴量分布v(t)として、SIFT特徴量の計算を行う。
つぎに、正規化部12dは、下記の数式(1)を示すように、ステップSD3で取得した特徴量分布v(t)のL1 normを1に正規化して、特徴量(確率分布)p(t)を取得する(ステップSD4)。
Figure 0005780307
つぎに、対象物変化検出装置1の形状情報蓄積部12eは、ステップSC4で取得した形状情報を形状情報記憶部14aに蓄積する(ステップSC5)。すなわち、形状情報蓄積部12eは、ステップSC4で正規化した特徴量(確率分布)p(t)の蓄積を行う。
つぎに、対象物変化検出装置1の形状変化情報取得部12fは、下記の数式(2)に示すように、ステップSC5で蓄積した特徴量(確率分布)p(t)から、nフレーム前の特徴量と現在の特徴量との間の差d(t,n)(すなわち、本実施形態4において、形状変化情報)の計算を行う(ステップSD6)。形状変化情報取得部12fは、下記の数式(3)に示すように、KL情報量を用いて、形状変化情報として差d(t,n)の計算を行う。このように、形状変化情報取得部12fは、ステップSD5で蓄積した形状情報を用いて、対象物の形状変化情報を取得する。
Figure 0005780307
Figure 0005780307
つぎに、対象物変化検出装置1の形状変化情報蓄積部12gは、ステップSD6で取得した形状変化情報d(t,n)を形状変化情報記憶部14cに蓄積する(ステップSD7)。具体的には、形状変化情報蓄積部12gは、ステップSD6で計算した形状変化情報d(t,n)をlフレーム分蓄積した、下記の数式(4)に示すベクトルu(t,n,l)を計算する。
Figure 0005780307
つぎに、対象物変化検出装置1の形状変化平均化部12hは、下記の数式(7)を用いて、ステップSD7で計算したベクトルu(t,n,l)を更にK個分足し合わせて、時間平均を取ることによりノイズを低減する(ステップSD8)。このように、形状変化平均化部12hは、ステップSD7で蓄積した複数の形状変化情報を平均化して、平均化形状変化情報としてベクトルu(t,K,n,l)を取得する。
Figure 0005780307
つぎに、対象物変化検出装置1の対象物変化検出部12iは、下記の数式(5)および数式(6)を用いて、類似度cosθを計算する(ステップSD9)。
Figure 0005780307
Figure 0005780307
つぎに、対象物変化検出装置1の対象物変化検出部12iは、ステップSD9で計算した類似度cosθが、図9に示すように、所定の閾値Threより小さいか否かを判定する(ステップSD10)。図9の縦軸は、cosθを示し、横軸は、時間のフレームを示している。図9では、4つのサンプル数分(K=4)の時間平均を取った場合を表している。図9に示すように、4つともフレーム180付近で急激な変化を示しており、フレーム180付近で歩行者が急に動きを変えた状態を表している。
対象物変化検出部12iは、ステップSD10で類似度cosθが閾値Threより小さいと判定した場合(ステップSD10:Yes)、対象物の変化があると判定する(ステップSD11)。その後、対象物変化検出処理を終了する。なお、ステップSD11の処理の後、ステップSD1に戻り、対象物変化検出処理を繰り返し実行してもよい。
対象物変化検出部12iは、ステップSD10で類似度cosθが閾値Thre以上であると判定した場合(ステップSD10:No)、ステップSD1の処理に戻る。
このように、実施形態4において、形状変化情報取得部12fは、蓄積した形状情報を用いて、所定時間前の形状情報と現在の形状情報との差を対象物の形状変化情報として取得し、形状変化情報蓄積部12gは、取得した形状変化情報を蓄積する。更に、形状変化平均化部12hは、蓄積した複数の形状変化情報を平均化して、平均化形状変化情報を取得する。そして、対象物変化検出部12iは、取得した平均化形状変化情報を用いて類似度を計算し、当該類似度が所定の閾値より小さい場合に、対象物の変化を検出する。その後、対象物変化検出部12iは、対象物の変化の有無の判定終了後、次のフレームjの画像取得に戻る。
以上、実施形態4によれば、対象物の形状情報の時間変化を形状変化情報として蓄積し、平均化したコサイン類似度を用いて類似性を分析しているため、実施形態3よりも対象物変化検出処理の検出精度をより一層向上させることができる。これにより、実施形態4によれば、車両周辺の対象物の変化をより一層迅速かつ正確に検出できるので、交通事故の発生可能性をより一層低減することができる。
その他、本発明に係る対象物変化検出装置1は、上述の実施形態1〜4を適宜組み合わせて実行してもよい。また、本発明に係る対象物変化検出装置1は、対象物を含む画像の背景の複雑度に応じて実施形態1〜4を使い分けてもよい。例えば、車両が街中を走行中の場合、対象物である歩行者や他車両を含む背景に種々の物体が含まれるため複雑になることが考えられる。この場合、本発明に係る対象物変化検出装置1は、背景画像のノイズを低減するために実施形態4を実行してもよい。また、例えば、高速道路を走行中の場合、対象物である他車両やバイクを含む背景が比較的単純になることが考えられる。この場合、本発明に係る対象物変化検出装置1は、計算負荷の少ない実施形態1を実行してもよい。また、本発明に係る対象物変化検出装置1は、実施形態1〜4に示した不連続変化を検出する処理と並行して、従来の線形予測を行うことで連続変化を検出する処理を実行してもよい。
1 対象物変化検出装置
12 制御部
12a 対象物検出部
12b 処理対象領域抽出部
12c 形状情報取得部
12d 正規化部
12e 形状情報蓄積部
12f 形状変化情報取得部
12g 形状変化情報蓄積部
12h 形状変化平均化部
12i 対象物変化検出部
14 記憶部
14a 形状情報記憶部
14b 処理対象領域記憶部
14c 形状変化情報記憶部
14d 平均化形状変化情報記憶部
2 カメラ

Claims (9)

  1. カメラから自車両周辺が写し出されている画像データを取得し、取得した当該画像データから対象物を検出する対象物検出手段と、
    所定の特徴量を用いて、前記対象物検出手段により検出した前記対象物の形状情報を表す特徴量分布を取得する形状情報取得手段と、
    前記形状情報取得手段により取得した前記特徴量分布を正規化して、当該特徴量分布に対応する確率分布を取得する正規化手段と、
    前記正規化手段により取得した前記確率分布を蓄積する形状情報蓄積手段と、
    所定の尺度を用いて、前記形状情報蓄積手段により蓄積した所定時間前の前記確率分布と現在の前記確率分布との差を計算する手段と、
    前記形状情報蓄積手段により蓄積した前記確率分布を用いて、前記所定時間前の前記確率分布と現在の前記確率分布との差を、前記対象物の形状変化情報として取得する形状変化情報取得手段と、
    前記形状変化取得情報手段により取得した前記形状変化情報を蓄積する形状変化情報蓄積手段と、
    前記形状変化情報蓄積手段により蓄積した各前記形状変化情報を成分とする所定の次元のベクトルuを計算し、前記ベクトルuと、該ベクトルuと同じ次元でありかつ各成分が1である重みベクトルと、の類似度を計算し、前記類似度が所定の閾値より小さい場合に、前記対象物の変化を検出する対象物変化検出手段と、
    を備えることを特徴とする対象物変化検出装置。
  2. 前記対象物検出手段により検出した前記対象物を含む画像領域から処理対象領域を抽出する処理対象領域抽出手段、
    を更に備え、
    前記形状情報取得手段は、
    前記処理対象領域抽出手段により抽出した前記処理対象領域から前記対象物の前記特徴量分布を取得することを特徴とする請求項1に記載の対象物変化検出装置。
  3. 前記形状変化情報蓄積手段により蓄積した複数の前記形状変化情報を平均化して、平均化形状変化情報を取得する形状変化平均化手段、
    を更に備え、
    前記対象物変化検出手段は、
    前記形状変化平均化手段により取得した平均化形状変化情報を用いて前記類似度を計算し、当該類似度が前記所定の閾値より小さい場合に、前記対象物の変化を検出することを特徴とする請求項に記載の対象物変化検出装置。
  4. 前記所定の特徴量は、確率分布として表せる特徴量であり、
    画像の輝度自体を使用する第1特徴量、画像のエッジを使用する第2特徴量、および、画像の色を使用する第3特徴量のうち少なくとも1つを含むことを特徴とする請求項1に記載の対象物変化検出装置。
  5. 前記第1特徴量は、
    輝度、輝度のPCA、Hu moment、LBP、Haarlike feature、および、poseletのうち少なくとも1つを含み、
    第2特徴量は、
    SIFT、PCA、SURF、GLOH、shape context、HOG、CoHOG、FIND、および、edgeletのうち少なくとも1つを含み、
    第3特徴量は、
    RGB、および、Labのうち少なくとも1つを含むことを特徴とする請求項に記載の対象物変化検出装置。
  6. 前記所定の尺度は、確率分布間の差異を距離または擬距離で計る尺度であることを特徴とする請求項1に記載の対象物変化検出装置。
  7. 前記距離は、
    マンハッタン距離、ユークリッド距離、一様ノルム、マハラノビス距離、ハミング距離のうち少なくとも1つを含み、
    前記擬距離は、
    カルバック・ライブラー情報量を含むことを特徴とする請求項に記載の対象物変化検出装置。
  8. 前記類似度は、コサイン類似度を含むことを特徴とする請求項に記載の対象物変化検出装置。
  9. カメラから自車両周辺が写し出されている画像データを取得し、取得した当該画像データから対象物を検出する対象物検出ステップと、
    所定の特徴量を用いて、前記対象物検出ステップにて検出した前記対象物の形状情報を表す特徴量分布を取得する形状情報取得ステップと、
    前記形状情報取得ステップにて取得した前記特徴量分布を正規化して、当該特徴量分布に対応する確率分布を取得する正規化ステップと、
    前記正規化ステップにて取得した前記確率分布を蓄積する形状情報蓄積ステップと、
    所定の尺度を用いて、前記形状情報蓄積ステップにて蓄積した所定時間前の前記確率分布と現在の前記確率分布との差を計算するステップと、
    前記形状情報蓄積ステップにて蓄積した前記確率分布を用いて、前記所定時間前の前記確率分布と現在の前記確率分布との差を、前記対象物の形状変化情報として取得する形状変化情報取得ステップと、
    前記形状変化取得情報ステップにて取得した前記形状変化情報を蓄積する形状変化情報蓄積ステップと、
    前記形状変化情報蓄積ステップにて蓄積した各前記形状変化情報を成分とする所定の次元のベクトルuを計算し、前記ベクトルuと、該ベクトルuと同じ次元でありかつ各成分が1である重みベクトルと、の類似度を計算し、前記類似度が所定の閾値より小さい場合に、前記対象物の変化を検出する対象物変化検出ステップと、
    を含むことを特徴とする対象物変化検出方法。
JP2013534490A 2011-09-20 2011-09-20 対象物変化検出装置および対象物変化検出方法 Active JP5780307B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/071399 WO2013042206A1 (ja) 2011-09-20 2011-09-20 対象物変化検出装置および対象物変化検出方法

Publications (2)

Publication Number Publication Date
JPWO2013042206A1 JPWO2013042206A1 (ja) 2015-03-26
JP5780307B2 true JP5780307B2 (ja) 2015-09-16

Family

ID=47914018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013534490A Active JP5780307B2 (ja) 2011-09-20 2011-09-20 対象物変化検出装置および対象物変化検出方法

Country Status (5)

Country Link
US (1) US9373042B2 (ja)
EP (1) EP2759997B1 (ja)
JP (1) JP5780307B2 (ja)
CN (1) CN103814401B (ja)
WO (1) WO2013042206A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101808937B1 (ko) * 2016-02-29 2017-12-13 국민대학교산학협력단 그래디언트 히스토그램을 이용한 오브젝트 주행 패턴 검출 방법 및 장치

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2759998B1 (en) * 2011-09-20 2018-11-28 Toyota Jidosha Kabushiki Kaisha Pedestrian action prediction device and pedestrian action prediction method
JP5983865B2 (ja) * 2013-04-03 2016-09-06 トヨタ自動車株式会社 検出装置及び運転支援装置
JP6224344B2 (ja) * 2013-04-26 2017-11-01 パイオニア株式会社 情報処理装置、情報処理方法並びに情報処理システム及び情報処理プログラム
JP6224343B2 (ja) * 2013-04-26 2017-11-01 パイオニア株式会社 サーバ装置、情報処理方法並びに情報処理システム及び情報処理プログラム
DE102014201159A1 (de) * 2014-01-23 2015-07-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
JP6174516B2 (ja) * 2014-04-24 2017-08-02 本田技研工業株式会社 衝突回避支援装置、衝突回避支援方法、及びプログラム
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
US20170199994A1 (en) * 2016-01-13 2017-07-13 Microsoft Technology Licensing, Llc Imaging devices and methods for authenticating a user
JP6627680B2 (ja) * 2016-07-27 2020-01-08 株式会社Jvcケンウッド 人物検出装置、人物検出システム、人物検出方法及び人物検出プログラム
JP6558393B2 (ja) * 2017-04-06 2019-08-14 トヨタ自動車株式会社 進路設定装置及び進路設定方法
JP6613265B2 (ja) * 2017-06-01 2019-11-27 本田技研工業株式会社 予測装置、車両、予測方法およびプログラム
KR101970358B1 (ko) * 2017-12-12 2019-04-18 엘지전자 주식회사 중앙 서버 및 이를 포함하는 공연 시스템
JP6847876B2 (ja) * 2018-01-29 2021-03-24 株式会社東芝 情報処理装置、情報処理システム、および情報処理方法
CN109827578B (zh) * 2019-02-25 2019-11-22 中国人民解放军军事科学院国防科技创新研究院 基于轮廓相似性的卫星相对姿态估计方法
CN115410059B (zh) * 2022-11-01 2023-03-24 山东锋士信息技术有限公司 基于对比损失的遥感图像部分监督变化检测方法及设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3349060B2 (ja) 1997-04-04 2002-11-20 富士重工業株式会社 車外監視装置
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
US7263472B2 (en) * 2004-06-28 2007-08-28 Mitsubishi Electric Research Laboratories, Inc. Hidden markov model based object tracking and similarity metrics
JP4321821B2 (ja) * 2005-01-28 2009-08-26 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
JP4657765B2 (ja) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
JP4536674B2 (ja) * 2006-03-27 2010-09-01 本田技研工業株式会社 歩行者認識装置
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
JP2008152586A (ja) * 2006-12-18 2008-07-03 Nec Engineering Ltd エリア警戒自動識別監視システム
JP2009122859A (ja) * 2007-11-13 2009-06-04 Toyota Motor Corp 物体検出装置
JP4623135B2 (ja) * 2008-05-08 2011-02-02 株式会社デンソー 画像認識装置
US20110109745A1 (en) * 2008-07-07 2011-05-12 Yuzuru Nakatani Vehicle traveling environment detection device
JP2010020594A (ja) * 2008-07-11 2010-01-28 Kddi Corp 瞳画像認識装置
JP4935795B2 (ja) 2008-10-22 2012-05-23 株式会社豊田中央研究所 歩行者飛び出し予測装置及びプログラム
JP2010267134A (ja) * 2009-05-15 2010-11-25 Fuji Heavy Ind Ltd リスク認識システム
US8175617B2 (en) * 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
JP2011113313A (ja) * 2009-11-26 2011-06-09 Secom Co Ltd 姿勢推定装置
JP5574692B2 (ja) 2009-12-17 2014-08-20 キヤノン株式会社 映像情報処理方法及びその装置
JP2011150577A (ja) * 2010-01-22 2011-08-04 Toyota Motor Corp 警報装置
JP5484118B2 (ja) * 2010-02-17 2014-05-07 本田技研工業株式会社 車両の周辺監視装置
WO2011108258A1 (ja) * 2010-03-03 2011-09-09 パナソニック株式会社 車両周辺監視装置および車両周辺監視方法
US8660355B2 (en) * 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101808937B1 (ko) * 2016-02-29 2017-12-13 국민대학교산학협력단 그래디언트 히스토그램을 이용한 오브젝트 주행 패턴 검출 방법 및 장치

Also Published As

Publication number Publication date
EP2759997B1 (en) 2020-05-06
CN103814401A (zh) 2014-05-21
US9373042B2 (en) 2016-06-21
EP2759997A1 (en) 2014-07-30
US20150049908A1 (en) 2015-02-19
CN103814401B (zh) 2016-04-13
EP2759997A4 (en) 2015-04-15
WO2013042206A1 (ja) 2013-03-28
JPWO2013042206A1 (ja) 2015-03-26

Similar Documents

Publication Publication Date Title
JP5780307B2 (ja) 対象物変化検出装置および対象物変化検出方法
JP5786947B2 (ja) 歩行者行動予測装置および歩行者行動予測方法
JP5737397B2 (ja) 歩行者動作予測装置
EP2919159A2 (en) Image processing device and image processing method
JP5838940B2 (ja) 画像処理装置及び車両制御システム
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
JP5986949B2 (ja) 境界線認識装置
US8160300B2 (en) Pedestrian detecting apparatus
JP2005316607A (ja) 画像処理装置及び画像処理方法
JP6046327B2 (ja) 車両用蛇行運転検出装置
JP2007112213A (ja) 歩行者判定装置
JP2016015043A (ja) 対象物認識装置
JP2010072947A (ja) 障害物検出装置
JP5692024B2 (ja) 対象物変化検出装置および対象物変化検出方法
JP2013008315A (ja) 歩行者認識装置
JP5811951B2 (ja) 対象物変化検出装置
JP5892075B2 (ja) 対象物検出装置及び対象物検出方法、警報装置及び警報方法、運転支援装置及び運転支援方法
JP4239834B2 (ja) 物体検出装置
JP5686119B2 (ja) 対象物変化検出装置および対象物変化検出方法
WO2021161655A1 (ja) 画像処理装置
JP2020101935A (ja) 画像認識装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150629

R151 Written notification of patent or utility model registration

Ref document number: 5780307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151