JP2016012226A - 対象物認識装置 - Google Patents
対象物認識装置 Download PDFInfo
- Publication number
- JP2016012226A JP2016012226A JP2014133185A JP2014133185A JP2016012226A JP 2016012226 A JP2016012226 A JP 2016012226A JP 2014133185 A JP2014133185 A JP 2014133185A JP 2014133185 A JP2014133185 A JP 2014133185A JP 2016012226 A JP2016012226 A JP 2016012226A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- patch
- tracking
- image
- patches
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】対象物をロストする可能性を低減させて対象物を好適に追跡可能な対象物認識装置を提供することを課題とする。【解決手段】本発明の対象物認識装置は、自車両の周辺を撮像した画像から対象物を検出し、対象物の特徴点を抽出し、抽出された特徴点を中心とする一定の領域を対象物の追跡用のパッチとして当該対象物に対して複数設定し、順次取得された時系列的に前後する複数の画像をパッチごとに比較することで対象物を追跡し、対象物を追跡できたパッチの数が予め設定したパッチの数より減少していた場合にパッチを補充し、追跡できたパッチごとに飛出し検出を行って検出結果を統合することで対象物の飛出しの有無を判定する。【選択図】図1
Description
本発明は、対象物認識装置に関する。
従来の対象物認識装置としては、例えば、特許文献1に記載の技術が報告されている。特許文献1に記載の技術では、自車両の周辺を撮像した画像から特徴点を抽出し、特徴点ごとに自車両に近づいているか否かを判定し、自車両に近づいていると判定された特徴点については、当該特徴点を中心とする一定の領域を与えてパッチとして設定する。そして、特許文献1に記載の技術では、パッチ同士が重なっている特徴点についてグルーピングし、グルーピングされた特徴点の数が一定数以上の場合は、そのグループ化された特徴点の集合を対象物として認識する。そして、特許文献1に記載の技術では、追跡対象として認識した対象物について、自車両に近づいているか否かを判定している。
しかしながら、従来の対象物認識装置(特許文献1等)においては、グルーピングされた特徴点の数が一定数未満の場合は、そのグループ化された特徴点の集合を対象物として認識しないため、追跡対象として認識していた対象物をロストしてしまう可能性がある。例えば、対象物の一部分が障害物に隠れることで、特徴点の数が少なくなった場合などに、追跡対象として認識すべき対象物をロストしてしまう可能性がある。
本発明は、上記の事情に鑑みてなされたものであって、追跡対象として認識すべき対象物の一部が障害物に隠れる等により、特徴点が少なくなった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡可能な対象物認識装置を提供することを目的とする。
本発明の対象物認識装置は、自車両の周辺を撮像した画像を取得する画像取得部と、前記画像取得部により取得された前記画像から前記自車両の周辺に存在する対象物を検出する対象物検出部と、前記対象物検出部により検出された前記対象物の特徴点を抽出する特徴点抽出部と、前記特徴点抽出部により抽出された前記特徴点を中心とする一定の領域を、前記対象物の追跡用のパッチとして当該対象物に対して複数設定する追跡パッチ設定部と、前記画像取得部により順次取得された時系列的に前後する複数の画像を、前記追跡パッチ設定部により設定された前記パッチごとに比較することで、前記対象物を追跡する対象物追跡部と、前記対象物追跡部により前記対象物を追跡できたパッチの数が、前記追跡パッチ設定部により設定したパッチの数より減少していた場合に、前記パッチを補充するパッチ補充部と、前記対象物追跡部により追跡できたパッチごとに飛出し検出を行い、検出結果を統合することで、前記対象物の飛出しの有無を判定する飛出し判定部と、を備えることを特徴とする。
本発明にかかる対象物認識装置は、対象物の追跡用のパッチとして当該対象物に対して複数設定されたパッチについて、対象物を追跡できたパッチの数が予め設定したパッチの数より減少していた場合には、パッチを補充することができるので、認識すべき対象物の一部が障害物に隠れる等により、特徴点が少なくなった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡できるという効果を奏する。
以下に、本発明にかかる対象物認識装置の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記の実施形態における構成要素には、当業者が容易に想定できるもの、あるいは実質的に同一のものが含まれる。
[実施形態]
本実施形態にかかる対象物の構成について図1乃至図5を参照しながら説明する。図1は、実施形態にかかる対象物認識装置の構成の一例を示すブロック図である。図2乃至図5は、パッチが設定された対象物の一例を示す図である。
本実施形態にかかる対象物の構成について図1乃至図5を参照しながら説明する。図1は、実施形態にかかる対象物認識装置の構成の一例を示すブロック図である。図2乃至図5は、パッチが設定された対象物の一例を示す図である。
図1に示すように、カメラ1は、自車両の周辺を撮影し、自車両の周辺が映し出されている画像データを生成する機器である。カメラ1は、例えば可視光領域または赤外線領域にて撮像可能なCCDカメラまたはCMOSカメラ等である。カメラ1は、車両の前方、側方、後方等の車両周辺を撮影可能な任意の位置に設置される。
対象物認識装置2は、例えば車両に搭載された自動車制御用コンピュータなどを用いて構成されたものであり、車両に搭載されているカメラ1と、車室内の運転者等に対して音声を出力するスピーカ3と、車両の挙動を制御するアクチュエータ4と、通信可能に接続されている。
対象物認識装置2は、画像取得部2aと、対象物検出部2bと、特徴点抽出部2cと、追跡パッチ設定部2dと、対象物追跡部2eと、パッチ補充部2fと、飛出し判定部2gと、注意喚起部2hと、車両制御部2iと、を少なくとも備える。
画像取得部2aは、自車両の周辺を撮像した画像を取得する画像取得手段である。画像取得部2aは、カメラ1から入力される画像データを、自車両の周辺を撮像した画像として取得する。画像取得部2aは、カメラ1から入力される画像データを順次取得することで、異なる時刻で自車両の周辺を撮像した複数の画像を取得する。
対象物検出部2bは、画像取得部2aにより取得された画像から自車両の周辺に存在する対象物を検出する対象物検出手段である。本実施形態において、対象物とは、後述する飛出し検出を行うために追跡対象とする移動体を意味する。移動体としては、例えば、自車両の周辺に存在する歩行者、自転車、相手車両等を含む。なお、対象物検出手法としては、パターンマッチング等の当該分野で公知の手法が用いられる。
特徴点抽出部2cは、対象物検出部2bにより検出された対象物の特徴点を抽出する特徴点抽出手段である。本実施形態において、対象物の特徴点とは、追跡対象とする対象物と、背景や障害物とを明確に区別可能な特徴量を有する画像上の画素領域を意味する。特徴量は、例えば、色、形状、テクスチャ等の特徴を示す量である。なお、特徴点抽出手法としては、SIFTやSURF等の当該分野で既知の手法が用いられる。
追跡パッチ設定部2dは、特徴点抽出部2cにより抽出された特徴点を中心とする一定の領域を、対象物の追跡用のパッチとして当該対象物に対して複数設定する追跡パッチ設定手段である。本実施形態において、追跡用のパッチは、特徴点抽出部2cにより抽出された対象物に関する複数の特徴点に対して夫々、各特徴点を中心とする正方形などの一定領域を与えることで設定される。なお、1つの対象物に対して設定されるパッチの数は、予め設定されているものとする。
ここで、図2を参照して、追跡パッチ設定部2dにより設定されたパッチの一例について説明する。図2において、対象物は歩行者であり、当該歩行者に対して特徴点抽出部2cにより5つの特徴点1〜5が抽出されているものとする。このような場合、図2に示すように、追跡パッチ設定部2dは、特徴点抽出部2cにより抽出された歩行者に関する5つの特徴点1〜5に対して夫々、各特徴点1〜5を中心とする正方形のパッチA1〜A5を設定する。
図1に戻り、対象物追跡部2eは、画像取得部2aにより順次取得された時系列的に前後する複数の画像を、追跡パッチ設定部2dにより設定されたパッチごとに比較することで、対象物を追跡する対象物追跡手段である。本実施形態において、例えば、画像取得部2aにより第1の時刻で取得された画像を第1の画像とし、第1の時刻よりも後の時刻である第2の時刻で取得される画像を第2の画像とした場合、これら第1の画像と第2の画像が、時系列的に前後する複数の画像となる。より具体的には、第1の画像は、現在から所定時間前の画像であり、第2の画像は、現在の画像となる。
ここで、図2及び図3を参照し、一例として、図2に示す画像を第1の画像とし、図3に示す画像を第2の画像として、対象物追跡部2eの処理を説明する。図2と同様に、図3において、歩行者に対して特徴点抽出部2cにより5つの特徴点1〜5が抽出されており、追跡パッチ設定部2dにより、各特徴点1〜5を中心とする正方形のパッチB1〜B5が設定されているものとする。このような場合、図2及び図3に示すように、対象物追跡部2eは、画像取得部2aにより順次取得された時系列的に前後する第1の画像(図2参照)と第2の画像(図3参照)を、追跡パッチ設定部2dにより設定されたパッチA1〜A5,B1〜B5ごとに比較する。
具体的には、対象物追跡部2eは、第1の画像と第2の画像とを比較する際には、同一の特徴点に対して設定されたパッチごとに比較する。例えば、特徴点1について、第1の画像においてはパッチA1が設定され、第2の画像においてはパッチB1が設定されているので、対象物追跡部2eは、まず、パッチA1とパッチB1とを比較する。そして、対象物追跡部2eは、時系列的に前後する第1の画像と第2の画像間において、同一の特徴点1に対して設定されたパッチA1とパッチB1が存在し、且つ、第1の画像と第2の画像とを重ね合わせた場合にパッチA1の領域とパッチB1の領域の一部が重なる場合、特徴点1については追跡できていると判定する。一方、対象物追跡部2eは、時系列的に前後する第1の画像と第2の画像間において、同一の特徴点に対して設定されたパッチが存在しない場合、そのパッチの中心となる特徴点については追跡できずロストしたと判定する。同様に、対象物追跡部2eは、特徴点2〜5に対して夫々設定されたパッチA2〜A5とパッチB2〜B5に対しても上述のように比較して、特徴点2〜5についても追跡できているか否かを判定する。
対象物追跡部2eは、特徴点1〜5の夫々について判定された追跡結果を統合し、所定数以上の特徴点について追跡できている場合は、対象物を追跡できていると判定する。一方、対象物追跡部2eは、所定数未満の特徴点についてのみ追跡できている場合は、対象物追跡部2eは、対象物を追跡できずにロストしたと判定する。例えば、対象物追跡部2eは、5つの特徴点1〜5の追跡結果に基づいて、少なくとも1つの特徴点について追跡できている場合は、対象物を追跡できていると判定し、全ての特徴点について追跡できなかった場合は、対象物を追跡できずにロストとした判定してもよい。
図1に戻り、パッチ補充部2fは、対象物追跡部2eにより対象物を追跡できたパッチの数が、追跡パッチ設定部2dにより設定したパッチの数より減少していた場合に、パッチを補充するパッチ補充手段である。パッチ補充部2fは、パッチを補充する際、追跡パッチ設定部2dにより設定したパッチの数になるようにパッチを追加する。具体的には、パッチ補充部2fは、上述の特徴点抽出部2cによる特徴点抽出処理を再度行い、新たな特徴点に対して、当該特徴点を中心とするパッチを必要数だけ設定することでパッチを補充する。なお、パッチ補充部2fは、対象物追跡部2eにより対象物を追跡できたパッチが所定数未満である場合は、対象物をロストしたと判定し、パッチの補充は行わないものとする。
ここで、図4及び図5を参照し、一例として、図2に示す画像を第1の画像とし、図4及び図5に示す画像を第2の画像として、パッチ補充部2fの処理を説明する。図2に示す第1の画像においては、歩行者に対して特徴点抽出部2cにより5つの特徴点1〜5が抽出されていたものの、図4に示す第2の画像においては、電信柱等の障害物によって歩行者の一部が隠れることで、特徴点1〜3を追跡できなくなっているものとする。このような場合、パッチ補充部2fは、図4に示す第2の画像中の歩行者について再度、特徴点抽出部2cを制御して特徴点抽出処理を行う。そして、パッチ補充部2fは、図5に示すように、歩行者に対して再度抽出した新たな特徴点6〜8に夫々対応するパッチB6〜B8を設定する。このようにして、パッチ補充部2fは、追跡パッチ設定部2dにより最初に設定したパッチの数(図2において5つ)になるように、新たなパッチB6〜B8を3つ追加する。その結果、第2の画像中の歩行者について予め決められた数のパッチを確保できるので、この第2の画像の後に順次取得される画像との比較処理により引き続き対象物を追跡することが可能となる。
飛出し判定部2gは、対象物追跡部2eにより追跡できたパッチごとに飛出し検出を行い、検出結果を統合することで、対象物の飛出しの有無を判定する飛出し判定手段である。例えば、飛出し判定部2gは、時系列的に前後する複数の画像(例えば、第1の画像と第2の画像)間で、パッチごとに、そのパッチの中心となる特徴点の移動量や移動方向などに基づく特徴点の変化量を、当該分野で公知の手法を用いて算出する。そして、飛出し判定部2gは、パッチごとに算出した変化量が、時系列的に前後する複数の画像間で急激な変化があることを検出するための所定の変化検出用閾値以上である場合、そのパッチに対して飛出しスコアをカウントする。一方、飛出し判定部2gは、パッチごとに算出した変化量が所定の変化検出用閾値未満である場合、そのパッチに対して飛出しスコアをカウントしない。飛出し判定部2gは、対象物追跡部2eにより追跡できた全てのパッチについて飛出し検出を行った後、各パッチについてカウントされた飛出しスコアを集計し平均化することで統合する。そして、飛出し判定部2gは、統合された飛出しスコアが所定の飛出し検出用閾値以上である場合に、対象物の飛出しが有ると判定し、統合された飛出しスコアが所定の飛出し検出用閾値未満である場合に、対象物の飛出しは無いと判定する。
本実施形態において、対象物の飛出しとは、交通環境において危険な対象物の変化を意味する。このような危険な対象物の変化としては、例えば、歩行者や自転車が急に動きを変えて道路に出てくるという変化、併走車車両やバイクが急に車線変更して自車線に割り込んでくるという変化、前方車両が急にUターンを開始するという変化、前方車両が道路脇の店等に入るために急に右左折を開始するという変化等を含むが、これらに限定されない。
注意喚起部2hは、飛出し判定部2gにより対象物の飛出しが有ると判定された場合、スピーカ3を介して音声を出力することで、自車両の運転者に対して注意喚起を行う注意喚起手段である。例えば、注意喚起部2hは、対象物が飛出してくると予測される方向に運転者の注意が向くように促す音声情報やブザー音等を出力する。
車両制御部2iは、飛出し判定部2gにより対象物の飛出しが有ると判定された場合、アクチュエータ4を介して車両の挙動を制御することで、自車両が対象物を回避するように車両制御を行う車両制御手段である。例えば、車両制御部2iは、自車両が対象物を回避できるように、アクチュエータ4を介して操舵制御や減速制御等を行う。
続いて、図6及び図7を参照して、上述した対象物認識装置2において実行される処理について説明する。なお、以下の処理において、車両周辺に存在する対象物として、歩行者を一例に説明するが、これに限定されない。
まず、図6を参照して、対象物認識装置2により実行されるパッチ設定処理の一例について説明する。
図6に示すように、画像取得部2aは、カメラ1から入力される時刻t=0の画像データを自車両の周辺を撮像した画像として取得する(ステップST11)。
そして、対象物検出部2bは、ステップS11で画像取得部2aにより取得された画像から自車両の周辺に存在する対象物として歩行者を検出する(ステップST12)。
そして、特徴点抽出部2cは、ステップST12で対象物検出部2bにより検出された対象物としての歩行者の特徴点を抽出する(ステップST13)。例えば、図2に示すような画像が、ステップST11で画像取得部2aにより取得されたとすると、ステップST13において、特徴点抽出部2cは、図2に示すように、歩行者に関して特徴点1〜5を抽出する。
そして、追跡パッチ設定部2dは、ステップST13において特徴点抽出部2cにより抽出された特徴点を中心とする一定の領域を、対象物としての歩行者を追跡する際に用いる追跡用のパッチとして当該歩行者に対して複数設定する(ステップST14)。例えば、図2に示すように、追跡パッチ設定部2dは、特徴点抽出部2cにより歩行者に関して抽出された特徴点1〜5について夫々、パッチA1〜A5を設定する。その後、本処理を終了する。
次に、図7を参照して、対象物認識装置2により実行される対象物追跡処理、パッチ補充処理、及び、対象物飛出し検出処理の一例について説明する。図7に示す処理は、図6に示したパッチ設定処理を終了後、画像取得部2aにより画像が順次取得されるたびに繰り返し実行される。
図7に示すように、画像取得部2aは、カメラ1から入力される次のフレームの画像データを自車両の周辺を撮像した画像として取得する(ステップST21)。例えば、第1の時刻に取得された第1の画像とすると、ステップST21において、画像取得部2aは、第1の時刻より後の時刻である第2の時刻に取得される第2の画像を、次のフレームの画像データとして取得する。
そして、対象物追跡部2eは、ステップST21で画像取得部2aにより取得された次のフレームの画像データとしての第2の画像と、既に画像取得部2aにより取得されていた前回画像としての第1の画像とを、パッチ毎に比較して、ロスト判定を行う(ステップST22)。例えば、図2に示す画像を第1の画像とし、図3に示す画像を第2の画像とすると、ステップST22において、対象物追跡部2eは、図2及び図3に示すように、画像取得部2aにより順次取得された時系列的に前後する第1の画像(図2参照)と第2の画像(図3参照)を、追跡パッチ設定部2dにより設定されたパッチA1〜A5,B1〜B5ごとに比較する。
そして、パッチ補充部2fは、パッチ数が前回画像と比べて減ったか否かを判定する(ステップST23)。ステップST23において、パッチ補充部2fは、ステップST22において対象物追跡部2eにより対象物を追跡できたパッチの数が、例えば図6のステップST14において追跡パッチ設定部2dにより設定したパッチの数と比べて、減ったか否かを判定する。
ここで、ステップST23において、パッチ補充部2fは、パッチ数が前回画像と比べて減ったと判定した場合(ステップST23:Yes)、パッチを補充する(ステップST24)。例えば、図2に示す画像を第1の画像とし、図4及び図5に示す画像を第2の画像とすると、ステップST24において、パッチ補充部2fは、図4に示す第2の画像中の歩行者について再度、特徴点抽出部2cを制御して特徴点抽出処理を行う。そして、パッチ補充部2fは、図5に示すように、歩行者に対して再度抽出した新たな特徴点6〜8に夫々対応するパッチB6〜B8を設定する。その後、後述のステップST25の処理へ移行する。
一方、ステップST23において、パッチ補充部2fは、パッチ数が前回画像と比べて減っていないと判定した場合(ステップST23:No)、パッチを補充せずに、後述のステップST25の処理へ移行する。なお、ステップST23において、パッチ補充部2fは、対象物追跡部2eにより対象物を追跡できたパッチが所定数未満である場合は、対象物をロストしたと判定して、本処理を終了するものとする。
そして、飛出し判定部2gは、ステップST22で対象物追跡部2eにより追跡できたパッチごとに飛出し検出を行い、検出結果を統合することで、対象物の飛出しの有無を判定する(ステップST25)。その後、本処理を終了する。
以上説明したように、本実施形態に係る対象物認識装置2によれば、対象物の追跡用のパッチとして当該対象物に対して複数設定されたパッチについて、対象物を追跡できたパッチの数が予め設定したパッチの数より減少していた場合には、パッチを補充することができる。これにより、認識すべき対象物の一部が障害物に隠れる等により、特徴点が少なくなった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡できる。
なお、本実施形態において、図7のステップST25の処理の後、注意喚起部2hは、ステップST25において飛出し判定部2gにより対象物の飛出しが有ると判定された場合、スピーカ3を介して音声を出力することで、自車両の運転者に対して注意喚起を行ってもよい。また、ステップST25の処理の後、車両制御部2iは、ステップST25において、飛出し判定部2gにより対象物の飛出しが有ると判定された場合、アクチュエータ4を介して車両の挙動を制御することで、自車両が対象物を回避するように車両制御を行ってもよい。
1 カメラ
2 対象物認識装置
2a 画像取得部
2b 対象物検出部
2c 特徴点抽出部
2d 追跡パッチ設定部
2e 対象物追跡部
2f パッチ補充部
2g 飛出し判定部
2h 注意喚起部
2i 車両制御部
3 スピーカ
4 アクチュエータ
2 対象物認識装置
2a 画像取得部
2b 対象物検出部
2c 特徴点抽出部
2d 追跡パッチ設定部
2e 対象物追跡部
2f パッチ補充部
2g 飛出し判定部
2h 注意喚起部
2i 車両制御部
3 スピーカ
4 アクチュエータ
Claims (1)
- 自車両の周辺を撮像した画像を取得する画像取得部と、
前記画像取得部により取得された前記画像から前記自車両の周辺に存在する対象物を検出する対象物検出部と、
前記対象物検出部により検出された前記対象物の特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部により抽出された前記特徴点を中心とする一定の領域を、前記対象物の追跡用のパッチとして当該対象物に対して複数設定する追跡パッチ設定部と、
前記画像取得部により順次取得された時系列的に前後する複数の画像を、前記追跡パッチ設定部により設定された前記パッチごとに比較することで、前記対象物を追跡する対象物追跡部と、
前記対象物追跡部により前記対象物を追跡できたパッチの数が、前記追跡パッチ設定部により設定したパッチの数より減少していた場合に、前記パッチを補充するパッチ補充部と、
前記対象物追跡部により追跡できたパッチごとに飛出し検出を行い、検出結果を統合することで、前記対象物の飛出しの有無を判定する飛出し判定部と、
を備えることを特徴とする対象物認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014133185A JP2016012226A (ja) | 2014-06-27 | 2014-06-27 | 対象物認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014133185A JP2016012226A (ja) | 2014-06-27 | 2014-06-27 | 対象物認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016012226A true JP2016012226A (ja) | 2016-01-21 |
Family
ID=55228908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014133185A Pending JP2016012226A (ja) | 2014-06-27 | 2014-06-27 | 対象物認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016012226A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018045405A (ja) * | 2016-09-14 | 2018-03-22 | 株式会社デンソーアイティーラボラトリ | 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム |
-
2014
- 2014-06-27 JP JP2014133185A patent/JP2016012226A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018045405A (ja) * | 2016-09-14 | 2018-03-22 | 株式会社デンソーアイティーラボラトリ | 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074651B (zh) | 移动体的周围环境识别装置 | |
US10796171B2 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
JP7397807B2 (ja) | ライダー支援システム及び方法 | |
US9852334B2 (en) | Method and apparatus for detecting moving objects | |
JP6511283B2 (ja) | 物体検知装置 | |
US11804048B2 (en) | Recognizing the movement intention of a pedestrian from camera images | |
JP7259437B2 (ja) | 車両における運転支援制御装置、運転支援システムおよび運転支援方法 | |
US10618467B2 (en) | Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle | |
US20150262365A1 (en) | Image processing device and image processing method | |
US20170132932A1 (en) | Method for detecting right lane area and left lane area of rear of vehicle using region of interest and image monitoring system for vehicle using the same | |
JP2018063708A (ja) | 大型車両の移動オブジェクト衝突警告装置および方法 | |
JP2018097582A (ja) | 運転支援装置、及び運転支援方法 | |
WO2015114654A1 (en) | Vehicle detection system and method thereof | |
JP6569385B2 (ja) | 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム | |
JP2013225295A5 (ja) | ||
JP6325927B2 (ja) | 物体検知装置及びそれを用いた車両制御システム | |
JP6747389B2 (ja) | 衝突推定装置および衝突推定方法 | |
US8160300B2 (en) | Pedestrian detecting apparatus | |
JP2009237897A (ja) | 画像認識装置 | |
US9824449B2 (en) | Object recognition and pedestrian alert apparatus for a vehicle | |
JP6713349B2 (ja) | 画像処理装置、外界認識装置 | |
JP2016015043A (ja) | 対象物認識装置 | |
JP2015185135A (ja) | 停車認識装置、停車認識方法及びプログラム | |
JP2010072947A (ja) | 障害物検出装置 | |
JP2016012226A (ja) | 対象物認識装置 |