JP2015143946A - 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム - Google Patents

移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム Download PDF

Info

Publication number
JP2015143946A
JP2015143946A JP2014017256A JP2014017256A JP2015143946A JP 2015143946 A JP2015143946 A JP 2015143946A JP 2014017256 A JP2014017256 A JP 2014017256A JP 2014017256 A JP2014017256 A JP 2014017256A JP 2015143946 A JP2015143946 A JP 2015143946A
Authority
JP
Japan
Prior art keywords
tracking
moving object
representative color
image
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2014017256A
Other languages
English (en)
Inventor
村下 君孝
Kimitaka Murashita
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014017256A priority Critical patent/JP2015143946A/ja
Publication of JP2015143946A publication Critical patent/JP2015143946A/ja
Ceased legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】検知された移動物体の追跡性能を向上させることを可能とする移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラムを提供する。【解決手段】カメラ2により撮像された画像に基づいて、接近物体を検知する検知部42と、画像を代表色で描画されている代表色画像に変換する画像変換部43と、検知された接近物体における複数の代表色を特定する代表色特定部44と、特定された代表色の特徴量を算出する特徴量算出部45と、特定された複数の代表色と算出された特徴量とに基づいて、代表色画像上での接近物体の追跡を開始する追跡処理部46と、を備える。【選択図】図1

Description

本発明は、移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラムに関する。
運転手が車両を運転する場合、運転手の視界には、車体などに遮られ、運転手が直接視認、又は、サイドミラーなどのミラーを介して視認できない死角部分が存在している。このような死角部分の視認性を確保するための手段として、例えば、ブラインドコーナモニタやバックカメラシステムなどがある。
ブラインドコーナモニタは、駐車場での発進の際や交差点において左右を確認するための装置であり、プリズムミラー、又は、魚眼カメラを用いて、死角部分である前方側方を撮像し、撮像した画像をモニタ上に表示する装置である。バックカメラシステムは、後退する際に、後方を確認するための装置であり、魚眼カメラなどを用いて、死角部分である後方を撮像し、撮像した画像をモニタ上に表示する装置である。
また、安全運転を支援する装置として、カメラが撮像した画像の中から、移動物体を検知し、移動物体を検知した場合には、運転手にその旨を報知して、注意を促す装置がある(例えば、非特許文献1を参照)。
移動物体の検知は、通常、オプティカルフローを用いて行われる。オプティカルフローでは、画像内に複数の特徴点を特定し、各特徴点の時間変動に基づいて、移動物体を検知している。
自車両が静止している状態では、信号機などの非移動物体の特徴点は全て静止していることから、時間変動(移動)する特徴点は、歩行者などの移動物体の特徴点とみなすことができる。このように、自車両が静止している状態では、移動物体の検知を行うことが可能である。
また、自車両が静止している状態では、自車両から遠ざかっていく移動物体の特徴点のフローは、外向きのベクトルとなり、自車両に接近してくる移動物体(以下、接近物体という)の特徴点のフローは、内向きのベクトルとなる。したがって、自車両が静止している状態では、検知した移動物体の中から接近物体を抽出することも可能である。
一方、自車両が移動している状態では、特徴点の移動の大きさや向きが、自車両の移動により生じたものか否かを判定することで、精度は下がるが(特に、歩行者など低速で移動する移動物体を検知することは困難となる。)、移動物体と非移動物体とを区別することが可能である。しかしながら、自車両が移動している状態では、接近物体の特徴点は、遠ざかっていく移動物体の特徴点と同じ動き方をすることから、移動物体の中から接近物体を抽出することは非常に困難となる。
この問題を解決するための方法としては、例えば、オプティカルフローとパターンマッチングを組み合わせる方法がある。より具体的には、自車両が静止している時に、オプティカルフローを用いて、接近物体を検知し、検知した接近物体の領域をテンプレートに、テンプレートマッチングで追跡する方法である。
テンプレートマッチングで移動物体を追跡する場合、画素値に基づいて、移動物体を特定するため、ズレが生じ、そのズレは時間の経過とともに大きくなるという問題がある。これは、対応する画素位置における画素値は、光などの各種の条件により、微妙に変化してしまうからである。
この問題を解決するための方法としては、背景と各移動物体の代表色をそれぞれ特定し、特定した代表色に基づいて、追跡する方法がある(例えば、特許文献1を参照)。この方法を適用することで、画素値の微妙な変化を抑制できるため、ズレの要因を排除することが可能となる。
特開2009−231921号公報
[2014年1月6日検索]、インターネット〈URL:http://www.nissan-global.com/JP/TECHNOLOGY/OVERVIEW/mod.html〉
しかしながら、特許文献1で提案されている方法では、各フレームにおいて、移動物体の代表色と同じ色の領域をその移動物体の領域として特定することから、移動物体の代表色が背景の代表色と同じ場合には追跡ができないという問題がある。すなわち、特許文献1で提案されている方法では、追跡性能に問題がある。
一つの側面では、本発明は、検知された移動物体の追跡性能を向上させることを可能とする移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラムを提供することを課題とする。
一態様に係る移動物体検知・追跡装置は、撮像手段により撮像され、順次入力されるフレームの画像に基づいて、移動物体を検知する検知手段と、前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換する画像変換手段と、前記検知手段により検知された前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定する代表色特定手段と、前記代表色特定手段により特定された前記代表色が占める前記移動物体領域上の領域の特徴量を算出する特徴量算出手段と、前記代表色特定手段により特定された複数の前記代表色と、前記特徴量算出手段により算出された前記特徴量と、に基づいて、前記代表色画像上での前記移動物体の追跡を開始する追跡手段と、を備える、ことを特徴としている。
移動物体の追跡性能を向上させることで、運転手は車両周辺の状況を的確に把握することが可能となる。これにより、安全運転に寄与できる。
実施形態1における移動物体検知・追跡システムの構成例を示す図と、車載装置の構成例を示す機能ブロック図である。 カメラの配置例を示す図である。 HSVモデルを例にした色の分類例を示す図である。 実施形態1における代表色設定テーブルの例を示す図である。 実施形態1における代表色設定テーブルの別の例を示す図である。 実施形態1における代表色・特徴量管理テーブルの例を示す図である。 実施形態1における代表色画像への画像変換を説明するための具体例を示す図である。 実施形態1における追跡方法を説明するための具体例を示す図であり、追跡対象の代表色の一部が背景の代表色と同じ場合の例である。 図9(A)〜(C)は、いずれも、実施形態1における追跡方法を説明するための別の具体例を示す図であり、追跡対象の代表色が背景の代表色と同じ場合の例である。 実施形態1における出力処理部の出力結果を示す図である。 実施形態1における接近物体検知・追跡処理のフローを説明するためのフローチャートの例である。 実施形態1における接近物体検知処理のフローを説明するためのフローチャートの例である。 実施形態1における接近物体追跡処理のフローを説明するためのフローチャートの例である。 実施形態1における特徴量算出処理のフローを説明するためのフローチャートの例である。 実施形態1における検知・追跡結果出力処理のフローを説明するためのフローチャートの例である。 実施形態2における移動物体検知・追跡システムを構成する車載装置の構成例を示す機能ブロック図である。 実施形態2における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。 実施形態2における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の他の一部である。 実施形態3における移動物体検知・追跡システムを構成する車載装置の構成例を示す機能ブロック図である。 実施形態3における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。 実施形態3における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の他の一部である。 実施形態4における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。 実施形態5における移動物体検知・追跡システムを構成する車載装置の構成例を示す機能ブロック図である。 実施形態5における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。 実施形態5における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の他の一部である。 実施形態6における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。 実施形態7における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。 実施形態における移動物体検知・追跡システムのハードウェア構成の例を示す図である。
以下に本発明の実施の形態について図面を参照しながら詳細に説明する。
(実施形態1)
図1は、本実施形態1における移動物体検知・追跡システム1の構成例を示す図と、車載装置3の構成例を示す機能ブロック図である。移動物体検知・追跡システム1は、図1に示すように、一又は複数のカメラ2と、移動物体検知・追跡装置である車載装置3と、を備えて構成されている。車載装置3には、図1に示すように、一又は複数のカメラ2が、画像入力部21を介して、接続されており、カメラ2により撮像された画像が、車載装置3に順次入力される。
カメラ2は、CCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)、MOS(Metal-Oxide Semiconductor)などの撮像素子などで構成され、所定頻度(例えば、30fps(frame per second))で車両周辺を撮像する。そして、撮像された画像は、後述の画像バッファ21に順次格納される。
ここで、図2を参照して、カメラ2の配置について説明する。図2は、カメラ2の配置例を示す図である。カメラ2は、図2に示すように、例えば、車両のリア部に配置され、車両後方を撮像範囲とする後方カメラである。カメラ2を、例えば、後方カメラとして配置することで、車両を後退させる際に、運転手は、カメラ2により撮像された画像をモニタ上で確認することで、車両後方の状況、例えば、車両や歩行者の接近などを知ることができる。
なお、カメラ2の配置位置は車両のリア部に限定されるものではなく、直接視認しづらい部分が撮像範囲に含まれるような位置であればよい。例えば、車両の前方側方が撮像範囲に含まれるように、車両のフロント部にカメラ2を配置してもよい。
図1に戻り、本実施形態1における車載装置3は、図1に示すように、画像入力部10、記憶部20と、出力部30と、制御部40と、を備えて構成されている。
画像入力部10は、カメラ2を接続するためのカメラインターフェースなどで構成され、カメラ2により撮像された車両周辺の画像が順次入力され、画像入力部10に入力された画像は、画像バッファ21に順次格納される。
記憶部20は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などで構成されている。記憶部20は、制御部40を構成する、例えば、CPU(Central Processing Unit)のワークエリア、車載装置3全体を制御するための動作プログラムなどの各種プログラムを格納するプログラムエリア、詳しくは後述の代表色設定テーブルT1などのテーブルなど各種データを格納するデータエリアとして機能する。
また、記憶部20は、画像バッファ21と、テーブル記憶部22として機能する。画像バッファ21は、カメラ2により撮像された自車両周辺の画像データを順次格納する。テーブル記憶部22は、代表色設定テーブルT1などのテーブルを格納する。
ここで、図3乃至図6を参照して、テーブル記憶部22に格納されている各テーブルについて説明する。図3は、HSV(Hue, Saturation, Value)モデルを例にした色の分類例を示す図である。図4は、本実施形態1における代表色設定テーブルT1の例を示す図である。
代表色は、色を複数の区分に分類した際に、同じ区分に属する色を代表する色である。例えば、図3に例示するように、色相(H)、彩度(S)、明度(V)の3つの成分で構成される色空間であるHSVモデルを用いて色を複数の区分に分類し、区分ごとに代表色を対応付ける。色の区分は、例えば、カテゴリカル色知覚に基づいて、設定する。なお、色の区分の設定は任意であるが、移動物体(車両、歩行者、バイク、自転車など)に使用されている色を考慮して設定するのが好ましい。
色相(H)は、色の種類であり、HSVモデルでは、図3に示すように、色相を配置した色環に沿って0〜360の範囲で変化する角度で定義されている。
彩度(S)は、色の鮮やかさを示す尺度であり、HSVモデルでは、0〜1の範囲で変化する値で定義されている。値が大きいほど、色の鮮やかさを増し、値が小さいほど、グレー度が増し、くすんだ色となる。S=0の場合は、無彩色、つまり、白色、黒色、グレーのいずれかとなる。
明度(V)は、色の明るさを示す尺度であり、HSVモデルでは、0〜1の範囲で変化する値で定義されている。値が大きいほど、色の明るみを増し、V=1の場合は、白色、V=0の場合は、黒色となる。
代表色設定テーブルT1は、色の分類をテーブル化したものであり、画像変換部43(詳しくは後述)がカメラ2により撮像された画像を代表色画像に変換する際に参照されるテーブルである。代表色設定テーブルT1は、図4に示すように、[色相(H)、彩度(S)、明度(V)]の組ごとに、代表色が対応付けられているテーブルである。
図5は、本実施形態1における代表色設定テーブルT1の別の例を示す図である。図5に例示する代表色設定テーブルT1では、[色相(H)、彩度(S)、明度(V)]の組ごとに、代表色と関連代表色とが対応付けられている。図3に示すように、色の区分に対応する領域の境界付近の色は、例えば、光のあたり具合により、隣接する別の区分に属する色となり得る。これは、代表色が変化することを意味し、追跡対象の代表色が追跡中に変化してしまうと、代表色による追跡が困難となってしまう。そこで、図5に例示する代表色設定テーブルT1では、代表色が変化しても、関連代表色による追跡が可能となるように、境界付近の色に対しては、周辺環境の変化により属する可能性がある区分の代表色を、関連代表色として、予め対応付けて構成している。
例えば、接近を検知した時には、代表色が赤色として識別されていた車両が、近づくにつれて、車体の照り返しなどで色相が変化し、代表色がピンク色となってしまうことがある。このようなことが起こり得る[色相(H)、彩度(S)、明度(V)]の組に対して関連代表色を対応付けておくことで、追跡処理部46(詳しくは後述)は、対応付けられている関連代表色で追跡対象を追跡することが可能となる。上述の例では、追跡処理部46は、代表色(赤色)と関連代表色(ピンク色)の2色で追跡対象の車両を追跡することが可能となることから、追跡性能を向上させることが可能となる。
図6は、本実施形態1における代表色・特徴量管理テーブルT2の例を示す図である。代表色・特徴量管理テーブルT2は、代表色特定部44(詳しくは後述)と特徴量算出部45(詳しくは後述)と追跡処理部46により管理され、追跡対象の代表色と特徴量を管理しているテーブルであり、追跡処理部46が追跡対象を追跡する際に参照されるテーブルである。代表色・特徴量管理テーブルT2は、図6に示すように、追跡対象である接近物体毎に、代表色と特徴量(詳しくは後述)とが対応付けられているテーブルである。
接近物体は、検知部42(詳しくは後述)により検知された接近物体であり、本フィールドには、代表色特定部44により、接近物体を一意に識別可能な識別子が格納される。特徴量のフィールドには、特徴量算出部45により算出された、対応する接近物体の代表色の特徴量が初期において格納され、この特徴量は、追跡処理部46により更新される。
代表色のフィールドには、代表色特定部44により特定された対応する接近物体の代表色が初期において格納され、この代表色は、追跡処理部46により更新される。例えば、一つの接近物体に対して複数の代表色が特定された場合には、特定された複数の代表色が格納される。例えば、特定された代表色が、赤色と黒色と白色の場合には、例えば、{赤、黒、白}のように格納する。また、例えば、保持している代表色設定テーブルT1が、図5に例示するようなテーブルであり、関連代表色が対応付けられている代表色が特定された場合には、関連代表色と代表色との対応関係が識別可能なように格納される。例えば、特定された代表色が、赤色と黒色と白色であり、代表色の赤色にピンク色と白色の関連代表色が対応付けられている場合には、例えば、{(赤、ピンク、白)、黒、白}のように格納する。
図1に戻り、出力部30は、外部機器(不図示)を接続するための機器インターフェースなどで構成され、検知部42による検知結果、あるいは、追跡処理部46による追跡結果を、これらの出力先となる外部機器に出力する。
制御部40は、例えば、CPUなどで構成され、記憶部20のプログラムエリアに格納されている動作プログラムを実行して、図1に示すように、取得部41と、検知部42と、画像変換部43と、代表色特定部44と、特徴量算出部45と、追跡処理部46と、出力処理部47としての機能を実現すると共に、車載装置3全体を制御する制御処理や詳しくは後述の接近物体検知・追跡処理などの処理を実行する。
取得部41は、カメラ2により撮像され画像バッファ21に順次格納されるフレームの画像を、撮像されたタイミングが早い順に一フレームずつ取得する。
検知部42は、従来技術を用いて、自車両に接近してくる接近物体を検知し、検知できた場合には、検知結果(検知した接近物体の位置を示す位置情報、例えば、各フレームで検知した接近物体の座標)を出力処理部47に出力する。例えば、検知部42は、取得部41により取得されたフレームの画像に対して、オプティカルフローを適用して移動物体を検知し、検知した移動物体の中から接近物体を抽出する。また、例えば、検知部42は、取得部41により取得されたフレームの画像に対して、一般物体認識技術を適用して、特定物体(例えば、歩行者、車両、バイク、自転車など移動する物体)を検知してもよい。一般物体認識技術としては、輝度勾配ヒストグラム(HOG:Histograms of Oriented Gradients)特徴量と機械学習アルゴリズム(例えば、AdaBoost)との組み合わせなどが考えられる。
画像変換部43は、検知された接近物体毎に、処理対象のフレームの画像から当該接近物体を含む領域(以下、検知物体周辺領域という)を切り出して、切り出した検知物体周辺領域の画像を代表色画像に変換する。
より具体的には、画像変換部43は、以下に示す式にしたがって、切り出した検知物体周辺領域の各画素のR、G、Bの値に基づいて、各画素のH、S、Vの値を算出する。但し、式中の、MAXは、R、G、Bの3つの値の内の最大値を意味し、MINは、R、G、Bの3つの値の内の最小値を意味する。なお、以下において、R、G、Bの値に基づいて、H、S、Vの値を算出することを、RGB→HSV変換すると称することとする。
そして、画像変換部43は、テーブル記憶部22に格納されている代表色設定テーブルT1を参照して、算出したH、S、Vの値に基づいて、対応する代表色を特定し、対応する画素の色を特定した代表色に変換することで、代表色で描画されている代表色画像を生成する。
例えば、図7を参照して、画像変換部43は、図7に例示する検知物体周辺領域の画像に対して、RGB→HSV変換を行い、代表色設定テーブルT1を参照して、算出した各画素のH、S、Vの値に基づいて、代表色を特定し、図7に例示する代表色画像を生成する。なお、図7は、本実施形態1における代表色画像への画像変換を説明するための具体例を示す図である。
図1に戻り、代表色特定部44は、検知された接近物体の代表色(関連代表色が対応付けられている場合には、関連代表色を含む)を複数特定し、特定した代表色を接近物体毎に対応付けて代表色・特徴量管理テーブルT2に格納する。より具体的には、代表色特定部44は、検知部42により検知された接近物体の座標と画像変換部43により特定された各画素の代表色とに基づいて、接近物体の代表色を複数特定する。移動物体(車両、歩行者、バイク、自転車など)が、単一色で構成されている場合は、極めて稀であり、通常、接近物体の代表色を複数特定することは可能である。
例えば、背景と接近物体を分離できる場合には、代表色特定部44は、接近物体が存在する領域の代表色を特定する。一方、背景と接近物体とを厳密に分離できない場合には、代表色特定部44は、画像変換部43により特定された代表色から、背景に対応する代表色と画素数が所定値以下の代表色を除外し、残った代表色を接近物体の代表色として特定する。
特徴量算出部45は、代表色特定部44により特定された接近物体の代表色の特徴量を算出し、代表色・特徴量管理テーブルT2の対応するエントリの特徴量フィールドに、算出した特徴量を格納する。
特徴量としては、例えば、代表色の領域(以下、代表色領域という)で構成される接近物体の領域の外郭形状や、接近物体の領域を構成する代表色領域の面積比(画素数比)や、接近物体の領域を構成する代表色領域の重心の相対位置や、接近物体の領域を構成する代表色領域の座標などが考えられる。すなわち、特徴量は、接近物体の領域を構成する代表色領域の特徴量である。隣接するフレーム間におけるこれらの特徴量の変動は非常に小さいことから、これらの特徴量に基づいて追跡対象を追跡することで、追跡処理部46は、追跡対象の追跡を高い精度で行うことが可能となる。
追跡処理部46は、検知部42により検知された接近物体の代表色と代表色の特徴量とに基づいて、その接近物体を追跡し、追跡結果(接近物体の位置を示す位置情報、例えば、各フレームで特定した接近物体の領域の座標)を出力処理部47に出力する。そして、追跡処理部46は、特定した接近物体の領域における代表色と代表色の特徴量で、代表色・特徴量管理テーブルT2の対応するエントリの代表色と代表色の特徴量を更新する。なお、接近物体以外の移動物体も、追跡処理部46の追跡対象とするように構成してもよい。
より具体的には、追跡処理部46は、代表色・特徴量管理テーブルT2を参照して、追跡対象の接近物体の代表色と代表色の特徴量を特定し、特定した代表色と代表色の特徴量との組と、画像変換部43により生成された対応する代表色画像内の比較対象領域における代表色と代表色の特徴量との組と、を比較し、代表色と代表色の特徴量との組が、特定した代表色と代表色の特徴量との組に最も近い領域を、追跡対象の接近物体の領域として特定する。この際、追跡対象の接近物体の代表色に関連代表色が対応付けられている場合には、追跡処理部46は、対応する代表色を関連代表色に置き換えた組と比較対象領域における代表色と代表色の特徴量との組との比較も行い、最も近い領域を、追跡対象の接近物体の領域として特定する。
例えば、図8を参照して、追跡対象の接近物体の代表色の一部が背景の代表色と同じ場合であっても、追跡対象の接近物体に対して複数の代表色を対応付けておくことで、追跡処理部46は、背景の代表色以外の代表色により、追跡対象の接近物体を追跡することが可能である。追跡対象は、車両や歩行者などであり、これらが単一色であることは極めて稀であり、通常、複数の代表色で構成される。なお、図8は、本実施形態1における追跡方法を説明するための具体例を示す図であり、追跡対象の代表色の一部が背景の代表色と同じ場合の例である。
また、例えば、図9を参照して、追跡対象の接近物体の代表色が背景の代表色と同じ場合であっても、代表色だけでなく代表色の特徴量に基づいて追跡することで、追跡処理部46は、追跡を継続することが可能である。なお、図9(A)〜(C)は、いずれも、本実施形態1における追跡方法を説明するための別の具体例を示す図であり、追跡対象の代表色が背景の代表色と同じ場合の例である。
図9(A)を参照して、例えば、追跡対象の接近物体の領域が、緑色の代表色領域とグレーの代表色領域で構成されており、図9(B)を参照して、例えば、背景の街路樹の代表色が緑色であり、背景の防音壁の代表色がグレーであるものと仮定する。この場合、図9(B)に示すように、追跡対象の接近物体の代表色は背景の代表色と同じとなる。図9(C)を参照して、このような場合であっても、追跡処理部46は、例えば、代表色領域で構成される接近物体の領域の外郭形状をテンプレートにして、テンプレートマッチングを行い、代表色領域の面積比と代表色領域の重心の相対位置が最も近い領域を、追跡対象の接近物体の領域として特定することで、追跡を継続することが可能である。
図1に戻り、出力処理部47は、検知部42による検知結果、又は、追跡処理部46による追跡結果を、出力部30を介して、接続されている外部機器に出力する。より具体的には、図10に示すように、出力処理部47は、処理対象のフレームにおいて検知部42により接近物体が検知された場合には、同フレームにおいて追跡処理部46による接近物体の追跡が行われたとしても、検知部42による検知結果を出力する。一方、処理対象のフレームにおいて追跡処理部46による接近物体の追跡が行われ、同フレームにおいて検知部42により接近物体が検知されなかった場合には、出力処理部47は、追跡処理部46による追跡結果を出力する。なお、図10は、本実施形態1における出力処理部47の出力結果を示す図である。
次に、図11を参照して、本実施形態1における接近物体検知・追跡処理の流れについて説明する。図11は、本実施形態1における接近物体検知・追跡処理のフローを説明するためのフローチャートの例である。本接近物体検知・追跡処理は、例えば、カメラ2により撮像された画像が画像バッファ21に格納されたことをトリガとして開始される。
取得部41は、画像バッファ21から第1フレームを処理対象として取得する(ステップS001)。そして、検知部42は、取得部41により取得されたフレームの画像において、接近物体検知処理を行い(ステップS002)、追跡処理部46は、画像変換部43と連係して、接近物体追跡処理を行う(ステップS003)。
そして、特徴量算出部45は、画像変換部43などと連係して、特徴量算出処理を
行い(ステップS004)、出力処理部47は、検知・追跡結果出力処理を行って、検知結果、又は、追跡結果を出力先となる外部機器に出力する(ステップS005)。
そして、取得部41は、全フレームの処理を行ったか否かを判定する(ステップS006)。つまり、取得部41は、全フレームを取得したか否かを判定する。取得部41により、全フレームの処理を行ったと判定された場合には(ステップS006;YES)、本処理は終了する。
一方、未処理のフレームが有ると判定した場合には(ステップS006;NO)、取得部41は、次フレームを処理対象として取得し(ステップS007)、処理はステップS002の処理へと戻り、前述の処理を繰り返す。
次に、図12を参照して、本実施形態1における接近物体検知処理の流れについて説明する。図12は、本実施形態1における接近物体検知処理のフローを説明するためのフローチャートの例である。本接近物体検知処理は、上述の接近物体検知・追跡処理のステップS002の処理に対応する処理である。
検知部42は、取得部41により取得されたフレームの画像において、接近物体の検知処理を行い(ステップS101)、接近物体が検知できたか否かを判定する(ステップS102)。
検知部42により、検知できなかったと判定された場合には(ステップS102;NO)、本処理は終了して、接近物体検知・追跡処理のステップS003の処理へと移行する。一方、検知できたと判定した場合には(ステップS102;YES)、検知部42は、検知結果を出力処理部47に出力する(ステップS103)。そして、本処理は終了して、接近物体検知・追跡処理のステップS003の処理へと移行する。
次に、図13を参照して、本実施形態1における接近物体追跡処理の流れについて説明する。図13は、本実施形態1における接近物体追跡処理のフローを説明するためのフローチャートの例である。本接近物体追跡処理は、上述の接近物体検知・追跡処理のステップS003の処理に対応する処理である。
追跡処理部46は、代表色・特徴量管理テーブルT2を参照して、エントリが有るか否かを判定する(ステップS201)。追跡処理部46により、エントリは無いと判定された場合には(ステップS201;NO)、本処理は終了して、接近物体検知・追跡処理のステップS004の処理へと移行する。
一方、追跡処理部46により、エントリが有ると判定された場合には(ステップS201;YES)、画像変換部43は、直前のフレームにおいて接近物体が存在していた領域の近傍を処理対象のフレームから切り出して、切り出した領域の画像を代表色画像に変換する(ステップS202)。
そして、追跡処理部46は、代表色・特徴量管理テーブルT2を参照して、追跡対象の接近物体の代表色と特徴量を特定し、特定した代表色と特徴量とに基づいて、代表色画像を探索して、追跡対象の接近物体の領域を特定する(ステップS203)。
そして、追跡処理部46は、追跡結果を出力処理部47に出力する(ステップS204)。そして、本処理は終了して、接近物体検知・追跡処理のステップS004の処理へと移行する。
次に、図14を参照して、本実施形態1における特徴量算出処理の流れについて説明する。図14は、本実施形態1における特徴量算出処理のフローを説明するためのフローチャートの例である。本特徴量算出処理は、上述の接近物体検知・追跡処理のステップS004の処理に対応する処理である。
画像変換部43は、処理対象のフレームにおいて、接近物体が検知されたか否かを判定する(ステップS301)。接近物体が検知されたと判定した場合には(ステップS301;YES)、画像変換部43は、検知された接近物体毎に、当該接近物体を含む領域を切り出して、切り出した領域の画像を代表色画像に変換する(ステップS302)。
そして、代表色特定部44は、検知された接近物体の座標と、画像変換部43により代表色画像の生成過程で特定された各画素の代表色と、に基づいて、接近物体の代表色をそれぞれ特定し、接近物体毎に、特定した代表色を対応付けて代表色・特徴量管理テーブルT2に格納する(ステップS303)。
そして、特徴量算出部45は、代表色特定部44により特定された接近物体の代表色の特徴量を算出し、算出した特徴量を、代表色・特徴量管理テーブルT2の対応するエントリの特徴量フィールドに格納する(ステップS304)。そして、本処理は終了して、接近物体検知・追跡処理のステップS005の処理へと移行する。
ステップS301の処理において、画像変換部43により、接近物体が検知されなかったと判定された場合には(ステップS301;NO)、追跡処理部46は、処理対象のフレームにおいて、接近物体の追跡を行ったか否かを判定する(ステップS305)。追跡処理部46により、接近物体の追跡を行っていないと判定された場合には(ステップS305;NO)、本処理は終了して、接近物体検知・追跡処理のステップS005の処理へと移行する。
一方、接近物体の追跡を行ったと判定した場合には(ステップS305;YES)、追跡処理部46は、特定した接近物体の領域における代表色と代表色の特徴量で、代表色・特徴量管理テーブルT2の対応するエントリの代表色と代表色の特徴量を更新する(ステップS306)。そして、本処理は終了して、接近物体検知・追跡処理のステップS005の処理へと移行する。
次に、図15を参照して、本実施形態1における検知・追跡結果出力処理の流れについて説明する。図15は、本実施形態1における検知・追跡結果出力処理のフローを説明するためのフローチャートの例である。本検知・追跡結果出力処理は、上述の接近物体検知・追跡処理のステップS005の処理に対応する処理である。
出力処理部47は、検知部42から検知結果の入力が有ったか否かを判定する(ステップS401)。検知結果の入力が有ったと判定した場合には(ステップS401;YES)、出力処理部47は、検知部42から入力された検知結果を出力部30に接続されている外部機器に出力する(ステップS402)。そして、本処理は終了して、接近物体検知・追跡処理のステップS006の処理へと移行する。
一方、検知結果の入力は無いと判定した場合には(ステップS401;NO)、出力処理部47は、更に、追跡処理部46から追跡結果の入力が有ったか否かを判定する(ステップS403)。出力処理部47により、追跡結果の入力も無いと判定された場合には(ステップS403;NO)、本処理は終了して、接近物体検知・追跡処理のステップS006の処理へと移行する。
一方、追跡結果の入力があったと判定した場合には(ステップS403;YES)、出力処理部47は、追跡処理部46から入力された追跡結果を出力部30に接続されている外部機器に出力する(ステップS404)。そして、本処理は終了して、接近物体検知・追跡処理のステップS006の処理へと移行する。
上記実施形態1によれば、検知した接近物体が存在する領域における代表色を複数特定し、それら複数の代表色で接近物体を追跡するように構成した。このように構成することで、例えば、接近物体の代表色の一部が背景の代表色と同じであったとしても、それ以外の代表色により接近物体を追跡することが可能となり、追跡性能を向上させることが可能となる。また、接近物体が存在すると推定される領域を代表色画像に変換して、接近物体の代表色で探索することから、処理負荷を軽減することが可能となる。
また、上記実施形態1によれば、特定した代表色における複数の特徴量を算出し、接近物体を追跡する際に、これらの特徴量も利用するように構成した。このように構成することで、例えば、接近物体の代表色の全てが背景の代表色と同じような場合であっても、特徴量が最も近い領域を特定することで、接近物体を追跡することが可能となり、追跡性能を向上させることが可能となる。
また、上記実施形態1によれば、接近物体の探索を行う領域を、直前のフレームで特定した接近物体の領域の近傍とすることで、処理負荷を軽減し、追跡処理の時間を短縮することが可能となる。
また、上記実施形態1によれば、照り返しなど周辺環境の変化により色相などが変化し、属する区分が変化し得る色に対しては、他の区分の代表色を関連代表色として代表色に対応付け、代表色だけでなく関連代表色による接近物体の追跡も行うように構成した。このように構成することで、周辺環境の変化により接近物体の色が変化しても追跡を継続することが可能となり、追跡性能を向上させることが可能となる。
また、上記実施形態1によれば、移動物体(車両、バイク、自転車、歩行者など)に使用される色を考慮して区分を設定し、各色を代表色と対応付けるように構成した。このように構成することで、背景と接近物体を分離しやすくなり、追跡性能を向上させることが可能となる。
(実施形態2)
実施形態1においては、検知部42による接近物体の検知と、追跡処理部46による接近物体の追跡が並行して行われるように構成した。本実施形態2においては、検知部42により接近物体が検知されている間は、追跡処理部46による追跡処理を行わないように構成する。
図16は、本実施形態2における移動物体検知・追跡システム1を構成する車載装置3の構成例を示す機能ブロック図である。本実施形態2における車載装置3の構成は、基本的には実施形態1の場合と同じである。但し、車載装置3の制御部40は、図16に示すように、出力処理部47を備えていない。これは、本実施形態2の構成では、同じフレームの処理において、検知結果と追跡結果が同時に出力されることがないからである。したがって、検知部42と追跡処理部46は、それぞれ、検知結果と追跡結果を、出力部30に接続されている外部機器に直接出力する点で、実施形態1の場合と異なっている。
次に、図17と図18を参照して、本実施形態2における接近物体検知・追跡処理の流れについて説明する。図17と図18は、それぞれ、本実施形態2における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部と、他の一部である。本接近物体検知・追跡処理は、例えば、カメラ2により撮像された画像が画像バッファ21に格納されたことをトリガとして開始される。
取得部41は、画像バッファ21から第1フレームを処理対象として取得する(ステップS501)。そして、検知部42は、取得部41により取得されたフレームの画像において、接近物体の検知処理を行い(ステップS502)、接近物体が検知できたか否かを判定する(ステップS503)。
検知できたと判定した場合には(ステップS503;YES)、検知部42は、検知結果を出力部30に接続されている外部機器に出力する(ステップS504)。そして、画像変換部43は、検知された接近物体毎に、当該接近物体を含む領域を切り出して、切り出した領域の画像を代表色画像に変換する(ステップS505)。
そして、代表色特定部44は、検知された接近物体の座標と、画像変換部43により代表色画像の生成過程で特定された各画素の代表色と、に基づいて、接近物体の代表色をそれぞれ特定し、接近物体毎に、特定した代表色を対応付けて代表色・特徴量管理テーブルT2に格納する(ステップS506)。
そして、特徴量算出部45は、代表色特定部44により特定された接近物体の代表色の特徴量を算出し、算出した特徴量を、代表色・特徴量管理テーブルT2の対応するエントリの特徴量フィールドに格納する(ステップS507)。
そして、取得部41は、全フレームの処理を行ったか否かを判定する(ステップS508)。つまり、取得部41は、全フレームを取得したか否かを判定する。取得部41により、全フレームの処理を行ったと判定された場合には(ステップS508;YES)、本処理は終了する。
一方、未処理のフレームが有ると判定した場合には(ステップS508;NO)、取得部41は、次フレームを処理対象として取得し(ステップS509)、処理はステップS502の処理へと戻り、前述の処理を繰り返す。
ステップS503の処理において、検知部42により、検知できなかったと判定された場合には(ステップS503;NO)、画像変換部43は、代表色・特徴量管理テーブルT2を参照して、エントリが有るか否かを判定する(ステップS510)。画像変換部43により、エントリは無いと判定された場合には(ステップS510;NO)、処理はステップS508の処理へと進み、前述の処理を繰り返す。
一方、エントリが有ると判定した場合には(ステップS510;YES)、画像変換部43は、直前のフレームにおいて接近物体が存在していた領域の近傍を処理対象のフレームから切り出して、切り出した領域の画像を代表色画像に変換する(ステップS511)。
そして、追跡処理部46は、代表色・特徴量管理テーブルT2を参照して、追跡対象の接近物体の代表色と特徴量を特定し、特定した代表色と特徴量とに基づいて、代表色画像を探索して、追跡対象の接近物体の領域を特定する(ステップS512)。
そして、追跡処理部46は、追跡結果を出力部30に接続されている外部機器に出力すると共に(ステップS513)、特定した接近物体の領域における代表色と代表色の特徴量で、代表色・特徴量管理テーブルT2の対応するエントリの代表色と代表色の特徴量を更新する(ステップS514)。そして、処理はステップS508の処理へと進み、前述の処理を繰り返す。
上記実施形態2によれば、検知部42による接近物体の検知ができない場合であって、代表色・特徴量管理テーブルT2にエントリがある場合、すなわち、直前のフレームでは接近物体の検知ができていた場合のみ、代表色と特徴量とに基づいて、接近物体の追跡を行うように構成した。このように構成することで、処理負荷を軽減することが可能となる。
また、同じフレームに対して、検知結果と追跡結果の両方が出力されることがないことから、出力処理部47を備える必要がなくなる。したがって、処理を簡略化することが可能となる。
(実施形態3)
本実施形態3においては、自車両が静止している間は、検知部42による接近物体の検知を行い、自車両が移動を開始すると、検知部42による接近物体の検知を中止し、追跡処理部46による接近物体の追跡を開始するように構成する。
図19は、本実施形態3における移動物体検知・追跡システム1を構成する車載装置3の構成例を示す機能ブロック図である。本実施形態3における車載装置3の構成は、基本的には実施形態1の場合と同じである。
但し、図19に示すように、車載装置3が入力部50を更に備える点と、車載装置3の制御部40が出力処理部47を備えていない点と、制御部40が走行判定部48を更に備える点で、実施形態1の場合と異なっている。また、検知部42と追跡処理部46は、それぞれ、検知結果と追跡結果を、出力部30に接続されている外部機器に直接出力する点で、実施形態1の場合と異なっている。
入力部50は、例えば、機器インターフェースなどで構成され、走行判定部48が自車両の移動を判定する際に必要となる情報が入力される。例えば、CAN(Controller Area Network)やLIN(Local Interconnect Network)を介して、車速センサの情報が入力部50に入力される。また、例えば、ナビゲーションシステムから自車両の位置情報が入力部50に入力される。
走行判定部48は、入力部50に入力された情報に基づいて、自車両の移動を判定する。なお、車載装置3自体が、自車両の移動を検知するセンサ類、例えば、加速度センサなどを備えるように構成してもよい。
次に、図20と図21を参照して、本実施形態3における接近物体検知・追跡処理の流れについて説明する。図20と図21は、それぞれ、本実施形態3における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部と、他の一部である。本接近物体検知・追跡処理は、例えば、カメラ2により撮像された画像が画像バッファ21に格納されたことをトリガとして開始される。
取得部41は、画像バッファ21から第1フレームを処理対象として取得する(ステップS601)。そして、検知部42は、取得部41により取得されたフレームの画像において、接近物体の検知処理を行い(ステップS602)、接近物体が検知できたか否かを判定する(ステップS603)。検知部42により、接近物体が検知できなかったと判定された場合には(ステップS603;NO)、処理は後述のステップS605の処理へと進む。
一方、検知できたと判定した場合には(ステップS603;YES)、検知部42は、検知結果を出力部30に接続されている外部機器に出力する(ステップS604)。そして、取得部41は、全フレームの処理を行ったか否かを判定する(ステップS605)。つまり、取得部41は、全フレームを取得したか否かを判定する。取得部41により、全フレームの処理を行ったと判定された場合には(ステップS605;YES)、本処理は終了する。
一方、取得部41により、未処理のフレームが有ると判定された場合には(ステップS605;NO)、走行判定部48は、自車両が移動しているか否かを判定する(ステップS606)。走行判定部48により、自車両は移動していないと判定された場合には(ステップS606;NO)、取得部41は、次フレームを処理対象として取得し(ステップS607)、処理はステップS602の処理へと戻り、前述の処理を繰り返す。
一方、走行判定部48により、自車両が移動していると判定された場合には(ステップS606;YES)、画像変換部43は、検知部42により接近物体が検知されたか否かを判定する(ステップS608)。画像変換部43により、接近物体が検知されなかったと判定された場合には(ステップS608;NO)、本処理は終了する。
一方、接近物体が検知されたと判定した場合には(ステップS608;YES)、画像変換部43は、検知された接近物体毎に、当該接近物体を含む領域を切り出して、切り出した領域の画像を代表色画像に変換する(ステップS609)。
そして、代表色特定部44は、検知された接近物体の座標と、画像変換部43により代表色画像の生成過程で特定された各画素の代表色と、に基づいて、接近物体の代表色をそれぞれ特定し、接近物体毎に、特定した代表色を対応付けて代表色・特徴量管理テーブルT2に格納する(ステップS610)。
そして、特徴量算出部45は、代表色特定部44により特定された接近物体の代表色の特徴量を算出し、算出した特徴量を、代表色・特徴量管理テーブルT2の対応するエントリの特徴量フィールドに格納する(ステップS611)。
そして、取得部41は、次フレームを処理対象として取得し(ステップS612)、画像変換部43は、直前のフレームにおいて接近物体が存在していた領域の近傍を処理対象のフレームから切り出して、切り出した領域の画像を代表色画像に変換する(ステップS613)。
そして、追跡処理部46は、代表色・特徴量管理テーブルT2を参照して、追跡対象の接近物体の代表色と特徴量を特定し、特定した代表色と特徴量とに基づいて、代表色画像を探索して、追跡対象の接近物体の領域を特定する(ステップS614)。
そして、追跡処理部46は、追跡結果を出力部30に接続されている外部機器に出力すると共に(ステップS615)、特定した接近物体の領域における代表色と代表色の特徴量で、代表色・特徴量管理テーブルT2の対応するエントリの代表色と代表色の特徴量を更新する(ステップS616)。
そして、取得部41は、全フレームの処理を行ったか否かを判定する(ステップS617)。つまり、取得部41は、全フレームを取得したか否かを判定する。取得部41により、全フレームの処理を行ったと判定された場合には(ステップS617;YES)、本処理は終了する。
一方、取得部41により、未処理のフレームが有ると判定された場合には(ステップS617;NO)、処理はステップS612の処理へと戻り、前述の処理を繰り返す。
上記実施形態3によれば、自車両が移動を開始した後に、代表色と特徴量とに基づく追跡処理部46による接近物体の追跡が行われるように構成した。このように構成することで、検知部42による接近物体の検知が高精度で行えなくなる自車両の移動中は、追跡処理部46による追跡に切り替えることで、追跡を高精度で継続することが可能となる。
また、上記実施形態3によれば、接近物体が検知された際の代表色の特定や特徴量の算出といった処理を、自車両の移動開始時のみ行うように構成した。このように構成したことで、処理負荷を軽減することが可能となる。
(実施形態4)
実施形態3で説明した接近物体検知・追跡処理では、ステップS617の処理でNOと判定された場合には、処理はステップS612の処理へと戻るように構成した。
本実施形態4においては、ステップS617でNOと判定された場合には、図22に示すように、処理はステップS618の処理へと進み、走行判定部48は、再び、自車両が移動しているか否かを判定する(ステップS618)。そして、走行判定部48により、自車両は移動していないと判定された場合には(ステップS618;NO)、処理はステップS607の処理へと進み、再び、検知部42による接近物体の検知が開始される。
一方、走行判定部48により、自車両が移動していると判定された場合には(ステップS618;YES)、処理はステップS612の処理へと戻り、前述の処理を繰り返す。
なお、図22は、本実施形態4における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。その他の部分の処理は実施形態3の場合と同じである。
上記実施形態4によれば、追跡処理部46による接近物体の追跡が開始された後であっても、自車両が静止状態になると、再び、検知部42による接近物体の検知が開始されるように構成した。このように構成することで、追跡中にズレが生じていても、自車両が再び静止した際に検知された接近物体の位置情報により、ズレを補正することが可能となる。これにより、追跡性能を向上させることが可能となる。
(実施形態5)
実施形態3においては、自車両が移動を開始すると、検知部42による接近物体の検知を中止し、追跡処理部46が接近物体の追跡を行うように構成した。本実施形態5においては、自車両が移動を開始した後の所定時間(例えば、2秒間)は、テンプレートマッチングによる追跡を行い、その後に、代表色と特徴量とに基づく、追跡処理部46による追跡を行うように構成する。
図23は、本実施形態5における移動物体検知・追跡システム1を構成する車載装置3の構成例を示す機能ブロック図である。本実施形態5における車載装置3の構成は、基本的には実施形態3の場合と同じである。
但し、図23に示すように、車載装置3の制御部40がタイマ49とテンプレートマッチング部4Aを更に備える点で、実施形態3の場合と異なっている。
タイマ49は、自車両が移動を開始した後、所定時間(テンプレートマッチング部4Aによる追跡期間)が経過したか否かを判定するためのタイマであり、制御部40により制御されている。
テンプレートマッチング部4Aは、従来のテンプレートマッチング技術を用いて、検知部42により検知された接近物体の追跡を行い、追跡結果(接近物体の位置を示す位置情報、例えば、各フレームで特定した接近物体の領域の座標)を出力部30に接続されている外部機器に出力する。
次に、図24と図25を参照して、本実施形態5における接近物体検知・追跡処理の流れについて説明する。図24と図25は、それぞれ、本実施形態5における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部と、他の一部である。本接近物体検知・追跡処理は、例えば、カメラ2により撮像された画像が画像バッファ21に格納されたことをトリガとして開始される。
取得部41は、画像バッファ21から第1フレームを処理対象として取得する(ステップS601)。そして、検知部42は、取得部41により取得されたフレームの画像において、接近物体の検知処理を行い(ステップS602)、接近物体が検知できたか否かを判定する(ステップS603)。検知部42により、接近物体が検知できなかったと判定された場合には(ステップS603;NO)、処理は後述のステップS605の処理へと進む。
一方、検知できたと判定した場合には(ステップS603;YES)、検知部42は、検知結果を出力部30に接続されている外部機器に出力する(ステップS604)。そして、取得部41は、全フレームの処理を行ったか否かを判定する(ステップS605)。つまり、取得部41は、全フレームを取得したか否かを判定する。取得部41により、全フレームの処理を行ったと判定された場合には(ステップS605;YES)、本処理は終了する。
一方、取得部41により、未処理のフレームが有ると判定された場合には(ステップS605;NO)、走行判定部48は、自車両が移動しているか否かを判定する(ステップS606)。走行判定部48により、自車両は移動していないと判定された場合には(ステップS606;NO)、取得部41は、次フレームを処理対象として取得し(ステップS607)、処理はステップS602の処理へと戻り、前述の処理を繰り返す。
一方、走行判定部48により、自車両が移動していると判定された場合には(ステップS606;YES)、画像変換部43は、検知部42により接近物体が検知されたか否かを判定する(ステップS608)。画像変換部43により、接近物体が検知されなかったと判定された場合には(ステップS608;NO)、本処理は終了する。
一方、画像変換部43により、接近物体が検知されたと判定された場合には(ステップS608;YES)、制御部40は、タイマ49をスタートさせ(ステップS701)、取得部41は、次フレームを処理対象として取得する(ステップS702)。そして、テンプレートマッチング部4Aは、テンプレートマッチングを用いて、検知部42により検知された接近物体を追跡し(ステップS703)、追跡結果を出力部30に接続されている外部機器に出力する(ステップS704)。
そして、取得部41は、全フレームの処理を行ったか否かを判定する(ステップS705)。つまり、取得部41は、全フレームを取得したか否かを判定する。取得部41により、全フレームの処理を行ったと判定された場合には(ステップS705;YES)、本処理は終了する。
一方、取得部41により、未処理のフレームが有ると判定された場合には(ステップS705;NO)、制御部40は、タイムアウトしたか否かを判定する(ステップS706)。制御部40により、まだタイムアウトしていないと判定された場合には(ステップS706;NO)、処理はステップS702の処理へと戻り、前述の処理を繰り返す。
一方、制御部40により、タイムアウトしたと判定された場合には(ステップS706;YES)、画像変換部43は、検知された接近物体(テンプレートマッチング部4Aにより追跡された接近物体)毎に、当該接近物体を含む領域を切り出して、切り出した領域の画像を代表色画像に変換する(ステップS609)。
そして、代表色特定部44は、処理対象のフレームにおける接近物体の座標(テンプレートマッチング部4Aが特定した接近物体の領域の座標)と、画像変換部43により代表色画像の生成過程で特定された各画素の代表色と、に基づいて、接近物体の代表色をそれぞれ特定し、接近物体毎に、特定した代表色を対応付けて代表色・特徴量管理テーブルT2に格納する(ステップS610)。
そして、特徴量算出部45は、代表色特定部44により特定された接近物体の代表色の特徴量を算出し、算出した特徴量を、代表色・特徴量管理テーブルT2の対応するエントリの特徴量フィールドに格納する(ステップS611)。
そして、取得部41は、次フレームを処理対象として取得し(ステップS612)、画像変換部43は、直前のフレームにおいて接近物体が存在していた領域の近傍を処理対象のフレームから切り出して、切り出した領域の画像を代表色画像に変換する(ステップS613)。
そして、追跡処理部46は、代表色・特徴量管理テーブルT2を参照して、追跡対象の接近物体の代表色と特徴量を特定し、特定した代表色と特徴量とに基づいて、代表色画像を探索して、追跡対象の接近物体の領域を特定する(ステップS614)。
そして、追跡処理部46は、追跡結果を出力部30に接続されている外部機器に出力すると共に(ステップS615)、特定した接近物体の領域における代表色と代表色の特徴量で、代表色・特徴量管理テーブルT2の対応するエントリの代表色と代表色の特徴量を更新する(ステップS616)。
そして、取得部41は、全フレームの処理を行ったか否かを判定する(ステップS617)。つまり、取得部41は、全フレームを取得したか否かを判定する。取得部41により、全フレームの処理を行ったと判定された場合には(ステップS617;YES)、本処理は終了する。
一方、取得部41により、未処理のフレームが有ると判定された場合には(ステップS617;NO)、処理はステップS612の処理へと戻り、前述の処理を繰り返す。
上記実施形態5によれば、自車両の移動開始から所定時間が経過する迄は、テンプレートマッチング部4Aによるテンプレートマッチングを用いた接近物体の追跡を行い、その後は、追跡処理部46による接近物体の追跡を行うように構成した。このように構成することで、例えば、自車両の移動開始時に検知されている接近物体が遠方にあり、その接近物体の領域が微小であるような場合であっても、短時間であればズレの蓄積が少なく高精度の追跡が行えるテンプレートマッチングによる接近物体の追跡を最初に行い、接近物体の領域がある程度大きくなった時点で、代表色などによる追跡を行うことで、追跡が可能となる。これにより、追跡性能を向上させることが可能となる。
(実施形態6)
実施形態5で説明した接近物体検知・追跡処理では、ステップS705の処理で、NOと判定された場合には、ステップS706の処理へと進み、ステップS617の処理でNOと判定された場合には、処理はステップS612の処理へと戻るように構成した。
本実施形態6においては、ステップS705でNOと判定された場合には、図26に示すように、処理はステップS801の処理へと進み、走行判定部48は、再び、自車両が移動しているか否かを判定する(ステップS801)。そして、走行判定部48により、自車両は移動していないと判定された場合には(ステップS801;NO)、処理はステップS607の処理へと進み、再び、検知部42による接近物体の検知が開始される。
一方、走行判定部48により、自車両が移動していると判定された場合には(ステップS801;YES)、処理はステップS706の処理へと進む。
また、ステップS617でNOと判定された場合には、図26に示すように、処理はステップS618の処理へと進み、走行判定部48は、再び、自車両が移動しているか否かを判定する(ステップS618)。そして、走行判定部48により、自車両は移動していないと判定された場合には(ステップS618;NO)、処理はステップS607の処理へと進み、再び、検知部42による接近物体の検知が開始される。
一方、走行判定部48により、自車両が移動していると判定された場合には(ステップS618;YES)、処理はステップS612の処理へと戻り、前述の処理を繰り返す。
なお、図26は、本実施形態6における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。その他の部分の処理は実施形態5の場合と同じである。
上記実施形態6によれば、テンプレートマッチング部4A、又は、追跡処理部46による接近物体の追跡が開始された後であっても、自車両が静止状態になると、再び、検知部42による接近物体の検知が開始されるように構成した。このように構成することで、追跡中にズレが生じていても、自車両が再び静止した際に検知された接近物体の位置情報により、ズレを補正することが可能となる。これにより、追跡性能を向上させることが可能となる。
(実施形態7)
実施形態3乃至6で説明した接近物体検知・追跡処理では、ステップS608の処理でNOと判定された場合には、接近物体検知・追跡処理を終了するように構成した。
本実施形態7においては、ステップS608の処理でNOと判定された場合には、図27に示すように、ステップS607の処理へと進み、再び、検知部42による接近物体の検知が開始される。
なお、図27は、本実施形態7における接近物体検知・追跡処理のフローを説明するためのフローチャートの例の一部である。
(実施形態8)
実施形態3乃至7で説明した接近物体検知・追跡処理では、接近物体を検知、又は、追跡するためのアルゴリズムの切り替えを、自車両が静止状態か否かによって行うように構成した。
本実施形態8においては、自車両の走行速度が所定の閾値M(M>0)以下であれば、検知部42による接近物体の検知を行うように構成する。これは、非常に低速であれば、自車両が移動中であっても接近物体を検知できると考えられるからである。この場合、走行判定部48は、入力部50に入力された情報に基づいて、自車両の走行速度を算出(又は、特定)し、算出(又は、特定)した走行速度が所定の閾値M以下か否かを判定すればよい。
上記実施形態8によれば、自車両が移動を開始しても、走行速度が所定の閾値M以下であれば、検知部42による接近物体の検知が行われるように構成した。このように構成することで、検知精度を保ちながら、頻繁にアルゴリズムが切り替わるのを防止することが可能となる。
図28は、各実施形態における移動物体検知・追跡システム1のハードウェア構成の例を示す図である。図1、図16、図19、図23に示す車載装置3は、例えば、図28に示す各種ハードウェアにより実現されてもよい。図28の例では、車載装置3は、CPU201、RAM202、ROM203、HDD204、カメラ2が接続されているカメラインターフェース205、検知結果(又は、追跡結果)の出力先の外部機器などが接続されている機器インターフェース206、無線通信モジュール207、および読取装置208を備え、これらのハードウェアはバス209を介して接続されている。
CPU201は、HDD204に格納されている動作プログラムをRAM202にロードし、RAM202をワーキングメモリとして使いながら各種処理を実行する。CPU201は、動作プログラムを実行することで、図1、図16、図19、図23に示す制御部40の各機能部を実現することができる。
なお、上記動作を実行するための動作プログラムを、フレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical disk)などのコンピュータで読み取り可能な記録媒体210に記憶して配布し、これを車載装置3の読取装置208で読み取ってコンピュータにインストールすることにより、上述の処理を実行するように構成してもよい。さらに、インターネット上のサーバ装置が有するディスク装置等に動作プログラムを記憶しておき、無線通信モジュール207を介して、車載装置3のコンピュータに動作プログラムをダウンロード等するものとしてもよい。
なお、実施形態に応じて、RAM202、ROM203、HDD204以外の他の種類の記憶装置が利用されてもよい。例えば、車載装置3は、CAM(Content Addressable Memory)、SRAM(Static Random Access Memory)、SDRAM(Synchronous Dynamic Random Access Memory)などの記憶装置を有してもよい。
無線通信モジュール207は、無線接続における物理層の処理を行うハードウェアである。無線通信モジュール207は、例えば、アンテナ、ADC(Analog-to-Digital Converter)、DAC(Digital-to-Analog Converter)、変調器、復調器、符号化器、復号器などを含む。
なお、実施形態に応じて、移動物体検知・追跡システム1のハードウェア構成は図28とは異なっていてもよく、図28に例示した規格・種類以外のその他のハードウェアを移動物体検知・追跡システム1に適用することもできる。
例えば、図1、図16、図19、図23に示す車載装置3の制御部40の各機能部は、ハードウェア回路により実現されてもよい。具体的には、CPU201の代わりに、FPGA(Field Programmable Gate Array)などのリコンフィギュラブル回路や、ASIC(Application Specific Integrated Circuit)などにより、図1、図16、図19、図23に示す制御部40の各機能部が実現されてもよい。もちろん、CPU201とハードウェア回路の双方により、これらの機能部が実現されてもよい。
以上において、いくつかの実施形態について説明した。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態及び代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨及び範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態を成すことができることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除して又は置換して、或いは実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。
以上の実施形態1〜8を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
撮像手段により撮像され、順次入力されるフレームの画像に基づいて、移動物体を検知する検知手段と、
前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換する画像変換手段と、
前記検知手段により検知された前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定する代表色特定手段と、
前記代表色特定手段により特定された前記代表色が占める前記移動物体領域上の領域の特徴量を算出する特徴量算出手段と、
前記代表色特定手段により特定された複数の前記代表色と、前記特徴量算出手段により算出された前記特徴量と、に基づいて、前記代表色画像上での前記移動物体の追跡を開始する追跡手段と、
を備える、
ことを特徴とする移動物体検知・追跡装置。
(付記2)
前記追跡手段は、直前のフレームの前記移動物体領域の前記代表色と前記特徴量とに基づいて、前記移動物体領域を特定することを繰り返すことで、前記代表色画像上での前記移動物体の前記追跡を継続する、
ことを特徴とする付記1に記載の移動物体検知・追跡装置。
(付記3)
自装置が搭載されている車両の走行速度が所定の閾値以下か否かを判定する判定手段を、更に、備え、
前記追跡手段は、前記判定手段により前記走行速度が前記閾値を超えたと判定された際に、前記検知手段により前記移動物体が検知されている場合のみ、前記追跡を開始する、
ことを特徴とする付記1又は2に記載の移動物体検知・追跡装置。
(付記4)
自装置が搭載されている車両の走行速度が所定の閾値以下か否かを判定する判定手段と、
テンプレートマッチングにより前記移動物体を追跡するテンプレートマッチング手段と、
を、更に、備え、
前記テンプレートマッチング手段は、前記判定手段により前記走行速度が前記閾値を超えたと判定された際に、前記検知手段により前記移動物体が検知されている場合のみ、前記走行速度が前記閾値を超えたと判定されてから所定時間が経過する迄、前記移動物体の追跡を行い、
前記追跡手段は、前記所定時間が経過した後に、前記追跡を開始する、
ことを特徴とする付記1又は2に記載の移動物体検知・追跡装置。
(付記5)
前記閾値は、ゼロである、
ことを特徴とする付記3又は4に記載の移動物体検知・追跡装置。
(付記6)
前記検知手段は、前記追跡手段、又は、前記テンプレートマッチング手段による前記移動物体の追跡が開始されると、前記移動物体の検知を終了する、
ことを特徴とする付記3乃至5のいずれか一に記載の移動物体検知・追跡装置。
(付記7)
前記追跡手段、又は、前記テンプレートマッチング手段は、前記接近物体の前記追跡を開始後、前記走行速度が前記閾値以下となった場合には、前記追跡を終了し、
前記検知手段は、前記追跡手段、又は、前記テンプレートマッチング手段が追跡を終了すると、前記移動物体の検知を再開する、
ことを特徴とする付記6に記載の移動物体検知・追跡装置。
(付記8)
前記追跡手段は、現フレームにおいて前記移動物体が検知されなかったが、直前のフレームにおいて前記移動物体が検知されていた場合のみ、前記追跡を開始する、
ことを特徴とする付記1又は2に記載の移動物体検知・追跡装置。
(付記9)
前記追跡手段は、前記検知手段により、再び、前記接近物体が検知されると、追跡を終了する、
ことを特徴とする付記8に記載の移動物体検知・追跡装置。
(付記10)
色毎に、前記代表色が対応付けられているテーブルを格納するテーブル記憶手段を、更に、備え、
前記画像変換手段は、前記テーブルを参照して、前記画像上の各色を、前記代表色に変換して、前記代表色画像を生成する、
ことを特徴とする付記1乃至9のいずれか一に記載の移動物体検知・追跡装置。
(付記11)
少なくとも一部の色に対し、前記代表色とは異なる色の一又は複数の関連代表色が、前記代表色と対応付けられて設定されており、
前記関連代表色は、周辺環境の変化により色が変化し得る場合における変化後の色に設定されている前記代表色であり、
前記追跡手段は、前記移動物体の前記代表色の中に、前記関連代表色が対応付けられている前記代表色が有る場合には、前記関連代表色に基づく前記追跡も行う、
ことを特徴とする付記1乃至10のいずれか一に記載の移動物体検知・追跡装置。
(付記12)
前記画像変換手段は、前記移動物体を含む領域を前記フレームの画像から切り出し、切り出した領域の画像を前記代表色画像に変換する、
ことを特徴とする付記1乃至11のいずれか一に記載の移動物体検知・追跡装置。
(付記13)
検知、又は、追跡されている前記移動物体の位置を示す位置情報を出力する出力手段を、更に、備える、
ことを特徴とする付記1乃至12のいずれか一に記載の移動物体検知・追跡装置。
(付記14)
前記検知手段により検知される前記移動物体は、接近してくる移動物体である、
ことを特徴とする付記1乃至13のいずれか一に記載の移動物体検知・追跡装置。
(付記15)
前記代表色は、前記移動物体に使用される色に基づいて設定される、
ことを特徴とする付記1乃至14のいずれか一に記載の移動物体検知・追跡装置。
(付記16)
撮像装置と移動物体検知・追跡装置とを含む移動物体検知・追跡システムであって、
前記移動物体検知・追跡装置は、
前記撮像装置により撮像され、順次入力される画像に基づいて、移動物体を検知する検知手段と、
前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換する画像変換手段と、
前記検知手段により検知された前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定する代表色特定手段と、
前記代表色特定手段により特定された前記代表色が占める前記移動物体領域上の領域の特徴量を算出する特徴量算出手段と、
前記代表色特定手段により特定された複数の前記代表色と、前記特徴量算出手段により算出された前記特徴量と、に基づいて、前記代表色画像上での前記移動物体の追跡を開始する追跡手段と、
を備える、
ことを特徴とする移動物体検知・追跡システム。
(付記17)
撮像手段により撮像され、順次入力される画像に基づいて、移動物体を検知し、
前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換し、
検知した前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定し、
特定した前記代表色が占める前記移動物体領域上の領域の特徴量を算出し、
特定した複数の前記代表色と算出した前記特徴量とに基づいて、前記代表色画像上での前記移動物体の追跡を開始する、
ことを特徴とする移動物体検知・追跡方法。
(付記18)
撮像手段により撮像された画像が順次入力される移動物体検知・追跡装置のコンピュータに、
前記画像に基づいて、移動物体を検知し、
前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換し、
検知した前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定し、
特定した前記代表色が占める前記移動物体領域上の領域の特徴量を算出し、
特定した複数の前記代表色と算出した前記特徴量とに基づいて、前記代表色画像上での前記移動物体の追跡を開始する、
処理を実行させる、
ことを特徴とするプログラム。
(付記19)
撮像手段により撮像された画像が順次入力される移動物体検知・追跡装置のコンピュータに、
前記画像に基づいて、移動物体を検知し、
前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換し、
検知した前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定し、
特定した前記代表色が占める前記移動物体領域上の領域の特徴量を算出し、
特定した複数の前記代表色と算出した前記特徴量とに基づいて、前記代表色画像上での前記移動物体の追跡を開始する、
処理を実行させるプログラムを記憶した記録媒体。
1 移動物体検知・追跡システム
2 カメラ
3 車載装置
10 画像入力部
20 記憶部
21 画像バッファ
22 テーブル記憶部
T1 代表色設定テーブル
T2 代表色・特徴量管理テーブル
30 出力部
40 制御部
41 取得部
42 検知部
43 画像変換部
44 代表色特定部
45 特徴量算出部
46 追跡処理部
47 出力処理部
48 走行判定部
49 タイマ
4A テンプレートマッチング部
50 入力部
201 CPU
202 RAM
203 ROM
204 HDD
205 カメラインターフェース
206 機器インターフェース
207 無線通信モジュール
208 読取装置
209 バス
210 記録媒体

Claims (13)

  1. 撮像手段により撮像され、順次入力されるフレームの画像に基づいて、移動物体を検知する検知手段と、
    前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換する画像変換手段と、
    前記検知手段により検知された前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定する代表色特定手段と、
    前記代表色特定手段により特定された前記代表色が占める前記移動物体領域上の領域の特徴量を算出する特徴量算出手段と、
    前記代表色特定手段により特定された複数の前記代表色と、前記特徴量算出手段により算出された前記特徴量と、に基づいて、前記代表色画像上での前記移動物体の追跡を開始する追跡手段と、
    を備える、
    ことを特徴とする移動物体検知・追跡装置。
  2. 前記追跡手段は、直前のフレームの前記移動物体領域の前記代表色と前記特徴量とに基づいて、前記移動物体領域を特定することを繰り返すことで、前記代表色画像上での前記移動物体の前記追跡を継続する、
    ことを特徴とする請求項1に記載の移動物体検知・追跡装置。
  3. 自装置が搭載されている車両の走行速度が所定の閾値以下か否かを判定する判定手段を、更に、備え、
    前記追跡手段は、前記判定手段により前記走行速度が前記閾値を超えたと判定された際に、前記検知手段により前記移動物体が検知されている場合のみ、前記追跡を開始する、
    ことを特徴とする請求項1又は2に記載の移動物体検知・追跡装置。
  4. 自装置が搭載されている車両の走行速度が所定の閾値以下か否かを判定する判定手段と、
    テンプレートマッチングにより前記移動物体を追跡するテンプレートマッチング手段と、
    を、更に、備え、
    前記テンプレートマッチング手段は、前記判定手段により前記走行速度が前記閾値を超えたと判定された際に、前記検知手段により前記移動物体が検知されている場合のみ、前記走行速度が前記閾値を超えたと判定されてから所定時間が経過する迄、前記移動物体の追跡を行い、
    前記追跡手段は、前記所定時間が経過した後に、前記追跡を開始する、
    ことを特徴とする請求項1又は2に記載の移動物体検知・追跡装置。
  5. 前記検知手段は、前記追跡手段、又は、前記テンプレートマッチング手段による前記移動物体の追跡が開始されると、前記移動物体の検知を終了する、
    ことを特徴とする請求項3又は4に記載の移動物体検知・追跡装置。
  6. 前記追跡手段、又は、前記テンプレートマッチング手段は、前記接近物体の前記追跡を開始後、前記走行速度が閾値以下となった場合には、前記追跡を終了し、
    前記検知手段は、前記追跡手段、又は、前記テンプレートマッチング手段が追跡を終了すると、前記移動物体の検知を再開する、
    ことを特徴とする請求項5に記載の移動物体検知・追跡装置。
  7. 前記追跡手段は、現フレームにおいて前記移動物体が検知されなかったが、直前のフレームにおいて前記移動物体が検知されていた場合のみ、前記追跡を開始する、
    ことを特徴とする請求項1又は2に記載の移動物体検知・追跡装置。
  8. 色毎に、前記代表色が対応付けられているテーブルを格納するテーブル記憶手段を、更に、備え、
    前記画像変換手段は、前記テーブルを参照して、前記画像上の各色を、前記代表色に変換して、前記代表色画像を生成する、
    ことを特徴とする請求項1乃至7のいずれか一に記載の移動物体検知・追跡装置。
  9. 少なくとも一部の色に対し、前記代表色とは異なる色の一又は複数の関連代表色が、前記代表色と対応付けられて設定されており、
    前記関連代表色は、周辺環境の変化により色が変化し得る場合における変化後の色に設定されている前記代表色であり、
    前記追跡手段は、前記移動物体の前記代表色の中に、前記関連代表色が対応付けられている前記代表色が有る場合には、前記関連代表色に基づく前記追跡も行う、
    ことを特徴とする請求項1乃至8のいずれか一に記載の移動物体検知・追跡装置。
  10. 前記画像変換手段は、前記移動物体を含む領域を前記フレームの画像から切り出し、切り出した領域の画像を前記代表色画像に変換する、
    ことを特徴とする請求項1乃至9のいずれか一に記載の移動物体検知・追跡装置。
  11. 撮像装置と移動物体検知・追跡装置とを含む移動物体検知・追跡システムであって、
    前記移動物体検知・追跡装置は、
    前記撮像装置により撮像され、順次入力される画像に基づいて、移動物体を検知する検知手段と、
    前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換する画像変換手段と、
    前記検知手段により検知された前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定する代表色特定手段と、
    前記代表色特定手段により特定された前記代表色が占める前記移動物体領域上の領域の特徴量を算出する特徴量算出手段と、
    前記代表色特定手段により特定された複数の前記代表色と、前記特徴量算出手段により算出された前記特徴量と、に基づいて、前記代表色画像上での前記移動物体の追跡を開始する追跡手段と、
    を備える、
    ことを特徴とする移動物体検知・追跡システム。
  12. 撮像手段により撮像され、順次入力される画像に基づいて、移動物体を検知し、
    前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換し、
    検知した前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定し、
    特定した前記代表色が占める前記移動物体領域上の領域の特徴量を算出し、
    特定した複数の前記代表色と算出した前記特徴量とに基づいて、前記代表色画像上での前記移動物体の追跡を開始する、
    ことを特徴とする移動物体検知・追跡方法。
  13. 撮像手段により撮像された画像が順次入力される移動物体検知・追跡装置のコンピュータに、
    前記画像に基づいて、移動物体を検知し、
    前記画像上の各色を、色毎に予め設定されている代表色に変換して、前記画像を前記代表色で描画されている代表色画像に変換し、
    検知した前記移動物体が存在する前記代表色画像上の領域である移動物体領域における複数の前記代表色を特定し、
    特定した前記代表色が占める前記移動物体領域上の領域の特徴量を算出し、
    特定した複数の前記代表色と算出した前記特徴量とに基づいて、前記代表色画像上での前記移動物体の追跡を開始する、
    処理を実行させる、
    ことを特徴とするプログラム。
JP2014017256A 2014-01-31 2014-01-31 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム Ceased JP2015143946A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014017256A JP2015143946A (ja) 2014-01-31 2014-01-31 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014017256A JP2015143946A (ja) 2014-01-31 2014-01-31 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2015143946A true JP2015143946A (ja) 2015-08-06

Family

ID=53888936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014017256A Ceased JP2015143946A (ja) 2014-01-31 2014-01-31 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2015143946A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019068312A (ja) * 2017-10-03 2019-04-25 Kyb株式会社 画像監視装置および画像監視システム
KR20200102564A (ko) * 2019-02-21 2020-09-01 주식회사 와이즈오토모티브 사각 지대 탐색 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04329490A (ja) * 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 自動追尾装置
JPH09138676A (ja) * 1995-11-15 1997-05-27 Fujitsu Ltd 減色画像処理装置
JP2012208887A (ja) * 2011-03-30 2012-10-25 Denso Corp 対象物追跡装置および対象物追跡システム
JP2013210705A (ja) * 2012-03-30 2013-10-10 Mega Chips Corp 物体検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04329490A (ja) * 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 自動追尾装置
JPH09138676A (ja) * 1995-11-15 1997-05-27 Fujitsu Ltd 減色画像処理装置
JP2012208887A (ja) * 2011-03-30 2012-10-25 Denso Corp 対象物追跡装置および対象物追跡システム
JP2013210705A (ja) * 2012-03-30 2013-10-10 Mega Chips Corp 物体検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019068312A (ja) * 2017-10-03 2019-04-25 Kyb株式会社 画像監視装置および画像監視システム
KR20200102564A (ko) * 2019-02-21 2020-09-01 주식회사 와이즈오토모티브 사각 지대 탐색 장치 및 방법
KR102184418B1 (ko) 2019-02-21 2020-12-01 주식회사 와이즈오토모티브 사각 지대 탐색 장치 및 방법

Similar Documents

Publication Publication Date Title
CN107273788B (zh) 在车辆中执行车道检测的成像系统与车辆成像系统
CN107179767B (zh) 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质
JP6649738B2 (ja) 駐車区画認識装置、駐車区画認識方法
EP2960829A2 (en) Lane boundary estimation device and lane boundary estimation method
EP2698982B1 (en) Image processing device
JP5999127B2 (ja) 画像処理装置
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
JP2020052647A (ja) 物体検出装置、物体検出方法、物体検出用コンピュータプログラム及び車両制御システム
JP2008276308A (ja) 動画像処理装置、動画像処理システムおよびナビゲーション装置
JP2008033750A (ja) 物体傾き検出装置
WO2018211930A1 (ja) 物体検出装置、物体検出方法、及び、コンピュータが読取可能な記録媒体
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP2016136321A (ja) 物体検出装置及び物体検出方法
US20210027074A1 (en) Vehicle system, space area estimation method, and space area estimation apparatus
JP2005196590A (ja) 歩行者抽出装置
WO2016151976A1 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
JP6795379B2 (ja) 運転制御装置、運転制御方法及び運転制御プログラム
US20230252804A1 (en) Learning method, learning device, mobile object control device, mobile object control method, and storage medium
JP2006318060A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
WO2022230319A1 (en) Data driven dynamically reconfigured disparity map
JP2018073275A (ja) 画像認識装置
CN107430821B (zh) 图像处理装置
JP2010003253A (ja) 運動推定装置
JP2015143946A (ja) 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム
CN113810567A (zh) 用于执行对象检测的电子装置及其操作方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20180626