JP2014215718A - 車両検知装置、および、車両検知システム - Google Patents
車両検知装置、および、車両検知システム Download PDFInfo
- Publication number
- JP2014215718A JP2014215718A JP2013090775A JP2013090775A JP2014215718A JP 2014215718 A JP2014215718 A JP 2014215718A JP 2013090775 A JP2013090775 A JP 2013090775A JP 2013090775 A JP2013090775 A JP 2013090775A JP 2014215718 A JP2014215718 A JP 2014215718A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- detection
- detection device
- detects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/91—Radar or analogous systems specially adapted for specific applications for traffic control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】車両を高精度に検知できる車両検知装置および車両検知システムを提供する。【解決手段】実施形態によれば、車両検知装置は、画像取得手段と、画像検出手段と、物体検知手段と、確定手段とを有する。画像取得手段は、ステレオカメラが所定の撮影領域を撮影した画像を入力する。画像検出手段は、画像取得手段により取得する画像から車両画像を検出する。物体検知手段は、ステレオカメラの撮影領域を検知位置として車両を形成する物体の有無を検知する。確定手段は、画像検知手段により車両画像を検出し、かつ、物体検知手段により車両を形成する物体を検知した場合、ステレオカメラの撮影領域に車両が実在することを確定する。【選択図】図2
Description
本発明の実施形態は、車両検知装置および車両検知システムに関する。
従来、車両検知装置は、複数のカメラが撮影した画像から車両を検出する。従来の車両検知装置は、複数のカメラが光学的に撮影した画像から車両らしい画像を検出することにより車両を検知する。しかしながら、カメラは、排気ガス、霧、雪、雨などの透過性の低い固体ではない物質の塊も画像として撮影する。このため、車両検知装置は、排気ガス、霧、雪、雨などを車両としてご検出する可能性がある。
本発明は、車両を高精度に検知できる車両検知装置および車両検知システムを提供することを目的とする。
実施形態によれば、車両検知装置は、画像取得手段と、画像検出手段と、物体検知手段と、確定手段とを有する。画像取得手段は、ステレオカメラが所定の撮影領域を撮影した画像を入力する。画像検出手段は、画像取得手段により取得する画像から車両画像を検出する。物体検知手段は、ステレオカメラの撮影領域を検知位置として車両を形成する物体の有無を検知する。確定手段は、画像検知手段により車両画像を検出し、かつ、物体検知手段により車両を形成する物体を検知した場合、ステレオカメラの撮影領域に車両が実在することを確定する。
以下、図面を参照しつつ、実施形態について説明する。
図1は、本実施形態に係る車両検知装置10を含む車両検知システムの構成例を示す図である。
本実施形態に係る車両検知システムは、検知対象物としての車両を検知するシステムである。車両検知システムは、道路の所定位置を通行する車両を検知する。たとえば、本実施形態に係る車両検知システムは、高速道路又は有料道路などの料金所に接近してくる車両を検知するシステムとして利用される。また、車両検知システムは、駐車場などの出入り口を通行する車両を検知するシステムとしても利用可能である。
図1は、本実施形態に係る車両検知装置10を含む車両検知システムの構成例を示す図である。
本実施形態に係る車両検知システムは、検知対象物としての車両を検知するシステムである。車両検知システムは、道路の所定位置を通行する車両を検知する。たとえば、本実施形態に係る車両検知システムは、高速道路又は有料道路などの料金所に接近してくる車両を検知するシステムとして利用される。また、車両検知システムは、駐車場などの出入り口を通行する車両を検知するシステムとしても利用可能である。
本実施形態に係る車両検知システムは、ステレオカメラと称する複数のカメラが車両の検知領域となる1つの撮影領域を撮影する。また、車両検知システムは、一方のカメラが撮影する画像と他方のカメラが撮影する画像との視差を用いて被検知対象物(車両)の位置情報を算出する機能を有する。
図1に示す構成例において、車両検知システムは、車両検知装置10、第1カメラ11、第2カメラ12、および、ミリ波レーダ13などにより構成される。
車両検知装置10は、車両を検知する処理を行う。車両検知装置10は、たとえば、CPUなどのプロセッサ、各種のメモリ、及び、各種のインターフェースなどを有するコンピュータで構成される。車両検知装置10は、第1カメラ11、第2カメラ12、およびミリ波レーダ13などと接続される。
車両検知装置10は、車両を検知する処理を行う。車両検知装置10は、たとえば、CPUなどのプロセッサ、各種のメモリ、及び、各種のインターフェースなどを有するコンピュータで構成される。車両検知装置10は、第1カメラ11、第2カメラ12、およびミリ波レーダ13などと接続される。
車両検知装置10は、第1カメラ11および第2カメラ12が撮影する画像から車両らしい画像を検出する機能と、ミリ波レーダ13により物体の有無(物体が実在するか否か)を検知する機能を有する。また、車両検知装置10は、第1カメラ11が撮影した画像と第2カメラ12が撮影した画像とに基づいて、第1カメラ11及び第2カメラ12が撮影した画像に含まれる車両までの距離を算出する機能を有する。
車両検知装置10が有する各機能は、CPUがメモリに記憶されたプログラムを実行することで実現するようにしても良いし、ハードウエアによって実現されるようにしても良い。たとえば、第1カメラ11および第2カメラ12が撮影した画像を処理する画像処理機能は、CPUがメモリに記憶した画像処理用のプログラムを実行することで実現するようにしても良いし、画像処理用のLSIなどのハードウエアによって実現しても良い。
第1カメラ11および第2カメラ12は、ステレオカメラを構成する。ステレオカメラは、高速道路又は有料道路の入場口又は出場口などに設置される。車両検知装置は、第1カメラ11及び第2カメラ12が撮影する画像から入場又は出場する車両を検知する。車両検知装置10による車両の検出結果は、車両の利用者に対する料金決済処理などに利用される。
第1カメラ11および第2カメラ12は、同じ撮影領域を撮影する複数のカメラとしてのステレオカメラを構成する。たとえば、第1カメラ11及び第2カメラ12は、CCDカメラなどである。第1カメラ11および第2カメラ12は、視差の生じる位置に設置されていればよい。図1に示す構成例では、第1カメラ11および第2カメラ12は、上下に所定の距離離れて設置される。
また、第1カメラ11および第2カメラ12は、通行する車両の検知対象領域となる道路の脇に固定して設置される。第1カメラ11および第2カメラ12は、たとえば、道路を通行する車両(検知対象となる車両)の上面及び側面を含む画像を撮影するように、当該道路を斜め下に見込むように設置される。第1カメラ11および第2カメラ12は、撮影した画像を車両検知装置10へ送信する。また、図1に示す構成例では、第1カメラ11および第2カメラ12は、道路脇に設置された支柱14に固定されている。
ミリ波レーダ13は、第1カメラ11および第2カメラ12の撮影領域内における物体の有無を検知する。ミリ波レーダ13は、ミリ波帯の電波を発信し、発信した電波の反射を受信して物体の有無を検知する。ミリ波レーダ13が発信するミリ波帯の電波は、排気ガス、霧、水蒸気、雨および雪などに対する透過率が高く、金属などに反射する。つまり、ミリ波レーダ13は、排気ガス、霧、水蒸気、雨および雪などを検知することなく、車両を構成する金属などを検知する。また、ミリ波レーダ13は、人物なども検知しにくくなっている。
図1に示す構成例において、第1カメラ11、第2カメラ12およびミリ波レーダ13は、支柱14に固定されている。図1に示す構成例では、ミリ波レーダ13は、第1カメラ11と第2カメラ12との間に設置されている。ただし、ミリ波レーダ13の設定位置は、図1に示す設置位置に限定されるものではない。ミリ波レーダ13は、第1カメラ11及び第2カメラ12の撮影領域において車両としての物体が実在するか否かを検知できる位置に設置されるものであれば良い。
また、第1カメラ11及び第2カメラ12の撮影領域において車両としての物体が実在するか否かを検知する装置としては、ミリ波レーダ13以外の物体検知装置を採用しても良い。すなわち、ミリ波レーダ13は、第1カメラ11及び第2カメラ12の撮影画像からでは車両として誤検知する可能性がある排気ガス、霧、水蒸気、雨および雪などを、実在の車両らしい物体(固体)であるか否かを検知できるものであれば良い。
次に、車両検知装置10の構成例について説明する。
図2は、車両検知装置10の構成例を示すブロック図である。
図2に示す構成例において、車両検知装置10は、制御部21、記憶部22、第1の画像インターフェース(I/F)23、第2の画像インターフェース(I/F)24、レーダ制御部25、画像処理部26、データ通信部27を有する。
図2は、車両検知装置10の構成例を示すブロック図である。
図2に示す構成例において、車両検知装置10は、制御部21、記憶部22、第1の画像インターフェース(I/F)23、第2の画像インターフェース(I/F)24、レーダ制御部25、画像処理部26、データ通信部27を有する。
制御部21は、車両検知装置10全体の制御およびデータ処理などを実行する。制御部21は、たとえば、CPU、RAM、ROM、及び、各種の内部インターフェースを有する。制御部21は、CPUが内部メモリ或いは記憶部22に記憶されているプログラムを実行することにより各部の制御および各種の処理機能を実現する。また、データ通信部27は、外部装置と通信するためのインターフェースである。たとえば、データ通信部27は、上位装置に接続される。
記憶部22は、各種データを記憶する。記憶部22は、たとえば、書換え可能な不揮発榮メモリである。記憶部22は、設定情報およびアプリケーションプログラムなどを記憶する。
第1及び第2の画像I/F23、24は、画像キャプチャボードにより構成する。第1の画像I/F23は、第1カメラ11に接続する。第1の画像I/F23は、第1カメラ11が撮影した画像を取得する。第2の画像I/F24は、第2カメラ12に接続する。第2の画像I/F24は、第2カメラ12が撮影した画像を取得する。また、第1及び第2の画像I/F23、24は、第1及び第2カメラ11、12が画像を撮影したタイミングを示す情報を制御部21へ通知する。
レーダ制御部25は、ミリ波レーダ13に接続する。レーダ制御部25は、ミリ波レーダ13の駆動を制御し、ミリ波レーダ13による物体(車両)の検知結果を示す情報を取得する。たとえば、レーダ制御部25は、制御21から指示に従ってミリ波レーダ13に車両の検知を実行させる。また、レーダ制御部25は、ミリ波レーダ13から車両の結果を取得し、ミリ波レーダによる車両の検知結果を示す情報を制御部21へ供給する。なお、レーダ制御部25は、制御部21で実現しても良い。
画像処理部26は、第1カメラ11および第2カメラ12が撮影した画像を処理する。画像処理部26は、たとえば、第1カメラ11が撮影した画像と第2カメラ12が撮影した画像とから車両を検出する機能(画像検知手段)、第1カメラ11が撮影した画像と第2カメラ12が撮影した画像との視差に基づいて車両の位置情報(距離)を算出する機能などを有する。なお、画像処理部26は、制御部21のCPUがプログラムを実行することにより実現する機能であっても良いし、画像処理用のLSIにより実現しても良い。
次に、本実施形態に係る車両検知装置10における車両検知処理の概要について説明する。
図3(a)は、第1カメラ11あるいは第2カメラ12が撮影した撮影画像の例である。図3(a)に示す撮影画像には、車両と車両の後に続く煙霧(排気ガス、霧、雨、雪等)とが存在する。第1及び第2カメラ11、12は、光学的に画像を撮影するため、図3(a)に示す撮影画像の例では、煙霧が車両と同程度の大きさ(車両画像として検出される程度の大きさ)の塊の領域として撮影されている。
図3(a)は、第1カメラ11あるいは第2カメラ12が撮影した撮影画像の例である。図3(a)に示す撮影画像には、車両と車両の後に続く煙霧(排気ガス、霧、雨、雪等)とが存在する。第1及び第2カメラ11、12は、光学的に画像を撮影するため、図3(a)に示す撮影画像の例では、煙霧が車両と同程度の大きさ(車両画像として検出される程度の大きさ)の塊の領域として撮影されている。
図3(b)及び図3(c)は、図3(a)に示す画像に対して、車両画像の検出処理を実施した例である。図3(b)に示す例では、車両画像の検出処理によって、実際の車両の画像と煙霧の画像とがそれぞれ検出されている。また、図3(c)に示す例では、車両画像の検出処理によって、車両と煙霧とを含む1つの画像領域が検出されている。すなわち、図3(b)及び図3(c)に示す検出結果の例では、煙霧の領域を車両又は車両の一部として検出されている。撮影画像において煙霧が車両と同程度の大きさの塊として撮影されている場合、当該画像に対する画像処理だけでは、煙霧の塊の画像を車両画像でないと識別することは容易ではない。
図3(d)は、図3(b)あるいは図3(c)に示す検出結果をミリ波レーダによる物体の検知結果に従って補正した車両検知結果の例である。ミリ波レーダ13は、車両が実在する領域は物体有りを示す検知信号を出力するが、図3(b)に示す煙霧の領域、あるいは、図3(c)に示す車両の後ろ側の煙霧の領域は物体が存在しないことを示す検知信号を出力する。従って、車両検知装置10は、車両画像の検出処理において図3(b)或いは図3(c)に示すような煙霧の領域を車両画像として検出した場合であっても、ミリ波レーダ13の検知結果により物体として実在しない煙霧の領域を車両検知結果から排除できる。すなわち、車両検知装置10は、第1及び第2カメラ11,12の撮影画像に対する車両画像の検知結果をミリ波レーダ13の検知結果に基づいて修正することにより物体として実在する領域を車両として検知できる。
次に、本実施形態に係る車両検知装置10における車両検知処理について説明する。
図4は、本実施形態に係る車両検知装置10における第1の車両検知処理の流れを説明するためのフローチャートである。
第1の車両検知処理を実行中において、車両検知装置10は、第1の画像I/F23及び第2の画像I/F24により第1カメラ11が撮影した画像及び第2カメラ12が撮影した画像を取得する(ステップS11)。第1カメラ11が撮影した画像と第2カメラ12が撮影した画像を取得すると、車両検知装置10の制御部21は、画像処理部26に第1及び第2カメラ11、12の撮影画像から車両画像を検出する処理を実行させる(ステップS12)。画像処理部26は、第1の画像I/F23及び第2の画像I/F24が取得する第1及び第2カメラ11、12の撮影画像に対して車両画像を検出する処理を実行し、車両画像の検出結果を制御部21へ出力する。
図4は、本実施形態に係る車両検知装置10における第1の車両検知処理の流れを説明するためのフローチャートである。
第1の車両検知処理を実行中において、車両検知装置10は、第1の画像I/F23及び第2の画像I/F24により第1カメラ11が撮影した画像及び第2カメラ12が撮影した画像を取得する(ステップS11)。第1カメラ11が撮影した画像と第2カメラ12が撮影した画像を取得すると、車両検知装置10の制御部21は、画像処理部26に第1及び第2カメラ11、12の撮影画像から車両画像を検出する処理を実行させる(ステップS12)。画像処理部26は、第1の画像I/F23及び第2の画像I/F24が取得する第1及び第2カメラ11、12の撮影画像に対して車両画像を検出する処理を実行し、車両画像の検出結果を制御部21へ出力する。
制御部21は、画像処理部26により第1及び第2カメラ11、12の撮影画像からの車両画像の検出結果を取得する(ステップS13)。画像処理部26が第1及び第2カメラ11、12の撮影画像から車両画像を検出できなかった場合(ステップS13、NO)、制御部21は、ステップS11へ戻り、次の撮影画像に対する処理に移行する。
また、画像処理部26が第1及び第2カメラ11、12の撮影画像から車両画像を検出した場合(ステップS13、YES)、制御部21は、車両画像を検出された画像の撮影領域に対するミリ波レーダ13による物体の検知結果をレーダ制御部25から取得する(ステップS14)。なお、車両画像が検出された画像を撮影したときのミリ波レーダ13の検知結果を取得するため、ミリ波レーダ13の検知結果は、制御部21あるいはレーダ制御部25の内部メモリもしくは記憶部22に保持しておくようにしても良い。
ミリ波レーダ13が車両画像を検出した領域において実在の物体を検知した場合(ステップS15、YES)、制御部21は、当該車両画像が実在の車両を撮影したものであると判断する。車両画像が実在の車両を撮影したものであると判断した場合、制御部21は、車両を検知したことを確定し(ステップS16)、必要に応じて車両を検知したことを示す信号を出力する。車両を検知した後、制御部21は、ステップ11へ戻り、上述した処理を繰り返し実行する。
また、ミリ波レーダ13が車両画像を検出した領域において実在の物体を検知できなかった場合(ステップS15、NO)、制御部21は、当該車両画像が実在の車両を撮影したものでないと判断する。車両画像が実在の車両を撮影したものでないと判断した場合、制御部21は、当該車両画像の検知結果を破棄し、ステップS11へ戻り、上述した処理を繰り返し実行する。
なお、撮影画像から複数の車両画像が検出された場合、制御部21は、各車両画像に対してミリ波レーダ13の検知結果により車両が実在するか否かを判定するものとする。
なお、撮影画像から複数の車両画像が検出された場合、制御部21は、各車両画像に対してミリ波レーダ13の検知結果により車両が実在するか否かを判定するものとする。
上記の第1の車両検知処理によれば、車両検知装置は、ステレオカメラが撮影した撮影画像を取得し、ステレオカメラの撮影画像に対する車両画像の検出処理の結果を、ミリ波レーダ13による実在の物体の検知結果により修正(確定)するようにしたものである。
これにより、本実施形態に係る車両検知装置および車両検知システムによれば、排気ガス、霧、雨、雪などの塊の画像を車両画像でないと判定でき、排気ガス、霧、雨、雪などを車両として誤検知することがなく、高精度な車両の検知が実現できる。
これにより、本実施形態に係る車両検知装置および車両検知システムによれば、排気ガス、霧、雨、雪などの塊の画像を車両画像でないと判定でき、排気ガス、霧、雨、雪などを車両として誤検知することがなく、高精度な車両の検知が実現できる。
次に、車両検知装置10による第2の車両検知処理について説明する。
本実施形態に係る車両検知装置10は、第2の車両検知処理として、ミリ波レーダ13が実在の物体を検知した場合、第1及び第2カメラ11、12の撮影画像に対する車両画像の検出処理結果を実行するようにしても良い。
本実施形態に係る車両検知装置10は、第2の車両検知処理として、ミリ波レーダ13が実在の物体を検知した場合、第1及び第2カメラ11、12の撮影画像に対する車両画像の検出処理結果を実行するようにしても良い。
図5は、本実施形態に係る車両検知装置10における第2の車両検知処理の流れを説明するためのフローチャートである。
第2の車両検知処理を実行中において、車両検知装置10は、第1及び第2カメラ11、12の撮影領域(車両の検知領域)に対するミリ波レーダ13による物体の検知結果をレーダ制御部25から取得する(ステップS21)。ミリ波レーダ13が車両画像と検出した領域に実在の物体を検知していない場合(ステップS22、NO)、制御部21は、ステップS21へ戻る。
第2の車両検知処理を実行中において、車両検知装置10は、第1及び第2カメラ11、12の撮影領域(車両の検知領域)に対するミリ波レーダ13による物体の検知結果をレーダ制御部25から取得する(ステップS21)。ミリ波レーダ13が車両画像と検出した領域に実在の物体を検知していない場合(ステップS22、NO)、制御部21は、ステップS21へ戻る。
また、ミリ波レーダ13が実在の物体(固体)を検知した場合(ステップS22、YES)、制御部21は、第1の画像I/F23及び第2の画像I/F24により第1及び第2カメラ11、12が撮影した画像を取得する(ステップS23)。第1及び第2カメラ11、12が撮影した画像を取得すると、制御部21は、第1及び第2カメラ11、12の撮影画像から車両画像を検出する処理を画像処理部26に実行させる(ステップS24)。
画像処理部26は、第1及び第2カメラ11、12の撮影画像に対して車両画像を検出する処理を実行し、車両画像の検出結果を制御部21へ出力する。制御部21は、第1及び第2カメラ11、12の撮影画像からの車両画像の検出結果を画像処理部26から取得する(ステップS25)。画像処理部26が第1及び第2カメラ11、12の撮影画像から車両画像を検出できなかった場合(ステップS25、NO)、制御部21は、ステップS11へ戻る。
また、画像処理部26が第1及び第2カメラ11、12の撮影画像から車両画像を検出した場合(ステップS25、YES)、制御部21は、ミリ波レーダ13が実在の物体として検知した車両の画像を検出したものと判断する。実在する物体としての車両の画像を検出した場合、制御部21は、車両を検知したことを確定し(ステップS26)、必要に応じて車両を検知したことを示す信号を出力する。車両を検知した後、制御部21は、ステップ11へ戻る。
また、物体が検知されたときに撮影された画像から車両画像を検出できない場合、つまり、ミリ波レーダ13が検知した実在の物体が車両でないと検出した場合(ステップS25、NO)、制御部21は、実在の物体として検知された物体が車両ではなく、撮影領域には車両が存在しないと判断する。撮影領域には車両がないと判断した場合、制御部21は、ステップS11へ戻る。
上記の第2の車両検知処理によれば、車両検知装置は、ミリ波レーダ13により実在の物体が検知された場合、ステレオカメラが撮影した撮影画像に対する車両画像の検出処理の結果を実行するようにしたものである。
これにより、第2の車両検知処理を適用した車両検知装置および車両検知システムでは、排気ガス、霧、雨、雪などの塊が発生した場合であっても、実在の物体(固体)を検知しなければ、ステレオカメラが撮影した撮影画像に対する車両画像の検出処理の結果が実行されず、結果として、排気ガス、霧、雨、雪の塊などを車両として誤検知することがなく、高精度な車両の検知が実現できる。
これにより、第2の車両検知処理を適用した車両検知装置および車両検知システムでは、排気ガス、霧、雨、雪などの塊が発生した場合であっても、実在の物体(固体)を検知しなければ、ステレオカメラが撮影した撮影画像に対する車両画像の検出処理の結果が実行されず、結果として、排気ガス、霧、雨、雪の塊などを車両として誤検知することがなく、高精度な車両の検知が実現できる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…車両検知装置、11…第1カメラ、12…第2カメラ、13…ミリ波レーダ(物体検知装置)、21…制御部(確定手段)、22…記憶部、23…第1の画像インターフェース(画像取得手段)、24…第2の画像インターフェース(画像取得手段)、25…レーダ制御部(物体検知手段)、26…画像処理部(画像検出手段)。
Claims (10)
- ステレオカメラが所定の撮影領域を撮影した画像を入力する画像取得手段と、
前記画像取得手段により取得する画像から車両画像を検出する画像検出手段と、
前記ステレオカメラの撮影領域を検知位置として車両を形成する物体の有無を示す検知信号を取得する物体検知手段と、
前記画像検知手段により車両画像を検出し、かつ、前記物体検知手段により車両を形成する物体の有りを示す検知信号を取得した場合、前記ステレオカメラの撮影領域に車両が実在することを確定する確定手段と、
を有する車両検知装置。 - 前記物体検知手段は、排気ガス、霧、雨及び雪を検知しない電波により車両を形成する物体を検知する物体検知装置から検知振動を取得するインターフェースである、
前記請求項1に記載の車両検知装置。 - 前記物体検知手段は、ミリ波レーダを接続するインターフェースである、
前記請求項1に記載の車両検知装置。 - 前記確定手段は、前記画像検出手段が車両画像を検出した場合、前記物体検知手段が車両を形成する物体を検知したか否かにより車両が実在するか否かを確定する、
前記請求項1乃至3の何れか1項に記載の車両検知装置。 - 前記確定手段は、前記物体検知手段が車両を形成する物体を検知した場合に、前記画像検出手段が車両画像を検出したか否かにより車両が実在するか否かを確定する、
前記請求項1乃至3の何れか1項に記載の車両検知装置。 - 所定の撮影領域を撮影するステレオカメラと車両検知装置とを有する車両検知システムであって、
さらに、前記ステレオカメラの撮影領域を検知位置として車両を形成する物体の有無を検知する物体検知装置を有し、
前記車両検知装置は、
前記ステレオカメラが撮影した画像から車両画像を検出する画像検出手段と、
前記画像検出手段により車両画像を検出し、かつ、前記物体検知装置が車両を形成する物体を検知した場合、前記ステレオカメラの撮影領域に車両が実在することを確定する確定手段と、を有する、
車両検知システム。 - 前記物体検知装置は、排気ガス、霧、雨及び雪を検知しない電波により車両を形成する物体を検知する、
前記請求項6に記載の車両検知システム。 - 前記物体検知装置は、ミリ波レーダである、
前記請求項7に記載の車両検知システム。 - 前記確定手段は、前記画像検出手段が車両画像を検出した場合、前記物体検知装置が車両を形成する物体を検知したか否かにより車両が実在するか否かを確定する、
前記請求項6乃至8の何れか1項に記載の車両検知システム。 - 前記確定手段は、前記物体検知装置が車両を形成する物体を検知した場合に、前記画像検出手段が車両画像を検出したか否かにより車両が実在するか否かを確定する、
前記請求項6乃至8の何れか1項に記載の車両検知システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013090775A JP2014215718A (ja) | 2013-04-23 | 2013-04-23 | 車両検知装置、および、車両検知システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013090775A JP2014215718A (ja) | 2013-04-23 | 2013-04-23 | 車両検知装置、および、車両検知システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014215718A true JP2014215718A (ja) | 2014-11-17 |
Family
ID=51941449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013090775A Pending JP2014215718A (ja) | 2013-04-23 | 2013-04-23 | 車両検知装置、および、車両検知システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014215718A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017209631A1 (de) | 2016-06-14 | 2017-12-14 | Toyota Jidosha Kabushiki Kaisha | Objektidentifizierungsvorrichtung |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06206507A (ja) * | 1993-01-08 | 1994-07-26 | Toyota Motor Corp | 車間距離検出装置 |
JP2000111644A (ja) * | 1998-10-05 | 2000-04-21 | Mitsubishi Electric Corp | 車両検出装置 |
JP2008046927A (ja) * | 2006-08-17 | 2008-02-28 | Fujitsu Ltd | 追跡信頼度判定プログラム、追跡信頼度判定方法および追跡信頼度判定装置 |
JP2010185824A (ja) * | 2009-02-13 | 2010-08-26 | Fujitsu Ltd | 車両検出装置、車両検出方法、および車両検出プログラム |
JP2013045429A (ja) * | 2011-08-26 | 2013-03-04 | Toshiba Corp | 車両検知装置 |
-
2013
- 2013-04-23 JP JP2013090775A patent/JP2014215718A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06206507A (ja) * | 1993-01-08 | 1994-07-26 | Toyota Motor Corp | 車間距離検出装置 |
JP2000111644A (ja) * | 1998-10-05 | 2000-04-21 | Mitsubishi Electric Corp | 車両検出装置 |
JP2008046927A (ja) * | 2006-08-17 | 2008-02-28 | Fujitsu Ltd | 追跡信頼度判定プログラム、追跡信頼度判定方法および追跡信頼度判定装置 |
JP2010185824A (ja) * | 2009-02-13 | 2010-08-26 | Fujitsu Ltd | 車両検出装置、車両検出方法、および車両検出プログラム |
JP2013045429A (ja) * | 2011-08-26 | 2013-03-04 | Toshiba Corp | 車両検知装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017209631A1 (de) | 2016-06-14 | 2017-12-14 | Toyota Jidosha Kabushiki Kaisha | Objektidentifizierungsvorrichtung |
US10380743B2 (en) | 2016-06-14 | 2019-08-13 | Toyota Jidosha Kabushiki Kaisha | Object identifying apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102384175B1 (ko) | 차량의 카메라 장치 | |
JP6396714B2 (ja) | 物体認識装置 | |
CN104108392B (zh) | 车道估计装置和方法 | |
JP6361366B2 (ja) | 物体認識装置 | |
KR101584693B1 (ko) | 카메라 파라미터 측정 장치 및 그 방법 | |
RU151809U1 (ru) | Видеосистема для обеспечения безопасности транспортных средств | |
JP6717240B2 (ja) | 物標検出装置 | |
GB2601689A (en) | Determining the state of infrastructure in a region of interest | |
JP2011180982A (ja) | 区画線検出装置 | |
WO2016131361A1 (zh) | 一种监控系统和方法 | |
JP6881917B2 (ja) | 距離計測装置、撮像制御装置 | |
JP2014137288A (ja) | 車両周辺監視装置および車両周辺監視方法 | |
WO2016159364A1 (ja) | 歩行者判定装置 | |
JP2017103688A5 (ja) | ||
JP2014203344A (ja) | 境界線認識装置 | |
JP2019164521A (ja) | 追尾装置 | |
US10102628B2 (en) | Object recognizing apparatus and haze determination method | |
JP2016189084A (ja) | 車両状態判定装置 | |
JP2013161190A (ja) | 物体認識装置 | |
JP2005156199A (ja) | 車両検知方法及び車両検知装置 | |
JP2014215718A (ja) | 車両検知装置、および、車両検知システム | |
KR101420242B1 (ko) | 스테레오 카메라를 이용한 차량 검지 방법 및 장치 | |
JP2018010466A (ja) | 物体検知装置 | |
JP5132164B2 (ja) | 背景画像作成装置 | |
JP2015121954A (ja) | 輝度値算出装置及び車線検出システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170620 |