JP2005339175A - 対象物認識装置、ナビゲーション装置及び対象物認識方法 - Google Patents

対象物認識装置、ナビゲーション装置及び対象物認識方法 Download PDF

Info

Publication number
JP2005339175A
JP2005339175A JP2004156720A JP2004156720A JP2005339175A JP 2005339175 A JP2005339175 A JP 2005339175A JP 2004156720 A JP2004156720 A JP 2004156720A JP 2004156720 A JP2004156720 A JP 2004156720A JP 2005339175 A JP2005339175 A JP 2005339175A
Authority
JP
Japan
Prior art keywords
recognition
vehicle
movement prediction
prediction range
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004156720A
Other languages
English (en)
Other versions
JP4570907B2 (ja
Inventor
Akihiko Sasajima
晃彦 笹島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2004156720A priority Critical patent/JP4570907B2/ja
Publication of JP2005339175A publication Critical patent/JP2005339175A/ja
Application granted granted Critical
Publication of JP4570907B2 publication Critical patent/JP4570907B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】 高速な動作が可能な「対象物認識装置、ナビゲーション装置及び対象物認識方法」を提供する。
【解決手段】 対象物認識処理部101aは、自己車両(O)周囲を撮影した取得画像から対象物が映し出された領域を切り出し、当該領域を認識処理することで自己車両周囲に存在する対象物を認識する。危険度特定部101bは、認識結果に基づいて対象物の予測移動範囲を算出し、対象物の自己車両(O)に対する危険度を特定する。また、対象物認識処理部101aは、レーダ装置102で次に検出された対象物の位置が予測移動範囲内にある場合、当該対象物に対する認識処理を省略する。
【選択図】 図2

Description

本発明は、対象物認識装置、ナビゲーション装置及び対象物認識方法に関し、特に撮影手段で撮影した画像を認識処理することで自己車両周囲に存在する対象物を認識するための対象物認識装置、ナビゲーション装置及び対象物認識方法に関する。
従来技術として、車両周囲の物体を検出し、得られた状況から走行における危険度を算出する方法が存在する(たとえば以下に示す特許文献1参照)。この従来技術は、CCD(Charge-Coupled Devices)カメラとレーダ装置とを備え、車両前方に存在する物体(以下、対象物という)を周期的に検出する。また、本従来技術では、検出した対象物の種類や大きさや位置や進行方向や速度を認識する。さらに、本従来技術では、予め用意されたパラメータを用いて、認識された情報から対象物の車両に対する危険度を演算する。なお、ここで言う危険度とは、対象物が車両と激突する可能性である。
以上のように、得られた対象物の危険度は、ディスプレイやスピーカなどからドライバへ通知される。これにより、ドライバへは周囲の危険度が知らされ、安全運転が促される。
特開2003−81039号公報
しかしながら、上記した従来技術のような、CCDカメラを用いた対象物の認識方法は、画像処理などの複雑な演算処理を数多く行わなければならない。このため、高速な処理が困難である。これに比べ、レーダ装置などによる対象物の位置や速度認識は、処理すべきデータ量が少ないため、高速な処理が可能である。
このようなことから、上記した従来技術による方法では、対象物の検出周期(または速度)が画像処理の速度に制限されてしまい、高サイクルでの動作が不可能であるという問題が存在する。
そこで本発明は、上記の問題に鑑みてなされたものであり、高速な動作が可能な対象物認識装置、ナビゲーション装置及び対象物認識方法を提供することを目的とする。
かかる目的を達成するために、本発明は、請求項1記載のように、自己車両周囲を撮影した画像から対象物が映し出された領域を切り出し、当該領域を認識処理することで自己車両周囲に存在する対象物を認識する対象物認識装置であって、前記対象物の所定時間後の自己車両に対する位置が所定範囲内にある場合、当該対象物に対する認識処理を省略するように構成される。所定時間後の対象物の位置が所定範囲、たとえば予測しておいた範囲内にある場合、当該対象物に対する認識処理を省略することで、比較的処理が重い画像処理を省略することが可能となり、高速な動作を実現することができる。
また、本発明の対象物認識装置は、請求項2記載のように、自己車両周囲の対象物を検出するレーダ手段と、自己車両周囲の対象物を撮影する撮影手段と、前記レーダ手段で検出された対象物の前記自己車両に対する位置に基づいて当該対象物が映し出された領域を前記撮影手段で得られた画像から切り出す領域切出し手段と、前記領域切出し手段で切り出した領域を認識処理することで対象物を認識する対象物認識手段と、前記対象物認識手段による認識結果に基づいて所定時間後の前記対象物の移動予測範囲を算出する移動予測範囲算出手段とを有し、前記対象物認識手段が前記所定時間後に前記レーダ手段で検出された対象物の位置が前記移動予測範囲算出手段で算出された移動予測範囲内にある場合、当該対象物に関する認識結果として前回の認識処理で得られた認識結果を出力するように構成される。所定時間後の対象物の位置が移動予測範囲内にある場合、当該対象物に関して前回の認識処理で得られた認識結果を出力することで、当該対象物に対する認識処理を省略できる。結果、比較的処理が重い画像処理を省略することが可能となり、高速な動作を実現することができる。
また、請求項2記載の前記対象物認識装置は、たとえば請求項3記載のように、前記レーダ手段により前記移動予測範囲外に対象物が検出された場合、前記領域切出し手段が前記撮像手段で得られた画像から当該対象物が映し出された領域を切り出し、前記対象物認識手段が切り出した領域を認識処理することで当該対象物を認識するように構成されてもよい。移動予測範囲外に対象物が存在する場合にのみ、当該対象物に関して認識処理を実行するように構成することで、認識済みの対象物に対する認識処理を回避することができる。結果、比較的処理が重い画像処理を省略することが可能となり、高速な動作を実現することができる。
また、本発明のナビゲーション装置は、請求項4記載のように、自己車両周囲の対象物を検出するレーダ手段と、自己車両周囲の対象物を撮影する撮影手段と、前記レーダ手段で検出された対象物の前記自己車両に対する位置に基づいて当該対象物が映し出された領域を前記撮影手段で得られた画像から切り出す領域切出し手段と、前記領域切出し手段で切り出した領域を認識処理することで対象物を認識する対象物認識手段と、前記対象物認識手段による認識結果に基づいて所定時間後の前記対象物の移動予測範囲を算出する移動予測範囲算出手段と、前記移動予測範囲算出手段で算出された移動予測範囲に基づいて前記自己車両に対する対象物の危険度を特定する危険度特定手段と、前記危険度特定手段で特定された危険度に基づいてドライバへ警告する警告手段とを有し、前記対象物認識手段が前記所定時間後に前記レーダ手段で検出された対象物の位置が前記移動予測範囲算出手段で算出された移動予測範囲内にある場合、当該対象物に関する認識結果として前回の認識処理で得られた認識結果を出力するように構成される。所定時間後の対象物の位置が移動予測範囲内にある場合、当該対象物に関して前回の認識処理で得られた認識結果を出力することで、当該対象物に対する認識処理を省略できる。結果、比較的処理が重い画像処理を省略することが可能となり、高速な動作を実現することができる。また、算出した移動予測範囲から対象物の自己車両に対する危険度を特定し、これに基づいてドライバへ警告を発するように構成することで、安全な運転をサポートすることが可能となる。
また、本発明は、請求項5記載のように、自己車両周囲の対象物を検出するレーダ手段で取得された検出結果と、自己車両周囲の対象物を撮影する撮影手段で得られた画像とに基づいて、当該自己車両周囲に存在する対象物を認識処理する対象物認識方法であって、前記レーダ手段で検出された対象物の前記自己車両に対する位置に基づいて当該対象物が映し出された領域を前記撮影手段で得られた画像から切り出す第1ステップと、前記第1ステップで切り出した領域を認識処理することで対象物を認識する第2ステップと、前記第2ステップの認識結果に基づいて所定時間後の前記対象物の移動予測範囲を算出する第3ステップとを有し、前記第2ステップが前記所定時間後に前記レーダ手段で検出された対象物の位置が前記第3ステップで算出された移動予測範囲内にある場合、当該対象物に関する認識結果として前回の認識処理で得られた認識結果を出力するように構成される。所定時間後の対象物の位置が移動予測範囲内にある場合、当該対象物に関して前回の認識処理で得られた認識結果を出力することで、当該対象物に対する認識処理を省略できる。結果、比較的処理が重い画像処理を省略することが可能となり、高速な動作を実現することができる。
本発明によれば、高速な動作が可能な対象物認識装置、ナビゲーション装置及び対象物認識方法を実現することができる。
以下、本発明を実施するための最良の形態を図面と共に詳細に説明する。
まず、本発明による実施例1について図面を用いて詳細に説明する。図1は、本実施例によるカーナビゲーション装置100の構成を示すブロック図である。図1に示すように、カーナビゲーション装置100は、CPU(Central Processing Unit)101と、レーダ装置102とCCD(Charge Coupled Devices)カメラ103とDVD(Digital Versatile Disk)ドライブ111とGPS(Global Positioning System)受信部112と自立航法センサ113と送受信部114と操作部115と表示部116とスピーカ117とを有する。これら各部は、バス118により通信可能に接続されている。
上記の構成において、DVDドライブ111は、地図データやその他の案内データを格納したDVD(Digital Versatile Disk)−ROM等の記録媒体を読み込むため構成である。ただし、本発明では、このほかにもCD(Compact Disk)−ROM(Read Only Memory)ドライブやハードディスクドライブなどのような、地図データやその他の案内データを蓄積することが可能な蓄積手段を適用することができる。
GPS受信部112は、GPS衛星から送信されてくるGPS信号を受信して自己車両(O)の現在位置の緯度及び経度を検出するための構成である。検出された現在位置情報は、CPU101に入力され、ナビゲーションにおける所定の処理に使用される。
自立航法センサ113は、車両方位を検出するためのジャイロ等を含む角度センサ113aと、一定の走行距離毎にパルスを発生する距離センサ113bとを有して構成されており、車両の進行方向や速度を検出する。送受信部114は、各種サービスセンタ等と通信するための車載電話機等で構成される。
操作部115は、ユーザがナビゲーション装置100に各種操作・設定を入力するための構成である。これは、リモートコントローラ装置やコントロールパネル等のように個別に構成されていても、後述の表示部116と一体にタッチパネル式の入力装置として構成されていても良い。更には、音声入力用のマイクロフォン等で構成されてもよい。
表示部116は、例えば液晶表示方式のディスプレイ装置等で構成され、地図や誘導経路や車両の現在位置やその他ランドマーク等の各種情報をユーザへ表示するための構成である。尚、誘導経路とは、ユーザへ実際に提供する目的地までの経路であり、表示部116において地図画像と重畳される経路である。スピーカ117は、音声案内情報等をユーザへ出力するための構成である。尚、スピーカ117はその他、音響装置等から入力された音楽等も出力することができる。
また、CPU101は、DVDドライブ111から読み出した各種プログラムを実行することで、ナビゲーション機能と共に、レーダ装置102およびCCDカメラ103から入力された情報に基づいて自己車両(O)の周囲に存在する物体(対象物)を認識する機能(以下、これを物体認識機能という)およびこれに基づいて運転上における危険の度合いを特定する機能(以下、これを危険度特定機能という)を実現する。これら機能を実現するための構成を、本説明では対象物認識装置110と呼び、以下に図面と共に詳細に説明する。
図2は、対象物認識装置110の構成を示すブロック図である。図2に示すように、対象物認識装置110は、レーダ装置102とCCDカメラ103とCPU101とを含んで構成される。CPU101はたとえばDVDドライブ111から所定のプログラムを読み出すことで、対象物認識処理部101a、危険度特定部101bおよびナビゲーション処理部101cを実現する。
レーダ装置102は、たとえばミリ波レーダなど、自己車両(O)に対する対象物までの距離や対象物の方向や対象物の大きさ、さらには自己車両(O)に対する対象物の相対速度や対象物の移動方向を検出することができるレーダ装置であれば、如何なるものも適用することができる。このレーダ装置102は自己車両(O)周囲360度方向に存在する対象物を検出可能に取り付けられることが好ましい。したがって、たとえばレーダ装置102に指向性がある場合、レーダ装置102のアンテナを回転可能とするか、すべての方向を網羅できるように複数個のレーダ装置102が備えつけられる。
CCDカメラ103は、レーダ装置102で検出可能とされた方角、すなわち自己車両(O)の周囲360度を撮影可能に取り付けられることが好ましい。したがって、CCDカメラ103も撮影方向が回転可能に取り付けられるか、すべての方向を網羅できるように複数個のCCDカメラ103が備えつけられる。なお、本実施例ではCCDカメラを採用したが、本発明はこれに限らず種々の撮影手段を適用することができる。また、レーダ装置102の検出領域の中心線はCCDカメラ103の光軸と略一致することが好ましい。これにより、検出情報から容易に対象物が映し出された領域を算出することができる。
レーダ装置102で取得された検出情報およびCCDカメラ103で取得された画像(これを以下、取得画像という)は、バス118を介してCPU101に入力される。とりわけ、自己車両(O)から対象物までの距離や自己車両(O)に対する対象物の方向や対象物の大きさ(形状等を含んでも良い)などの情報(これを以下、検出情報(A)とする)、および取得画像はCPU101における対象物認識処理部101aに入力される。
対象物認識処理部101aは、入力された検出情報(A)および取得画像に基づいて、自己車両(O)から所定のエリア内に存在する対象物を認識する処理を実行する。
また、対象物認識処理部101aで得られた認識結果は、危険度特定部101bに入力される。危険度特定部101bにはレーダ装置102で検出された、自己車両(O)に対する対象物の相対速度や自己車両(O)に対する対象物の移動方向などの情報(以下、これを検出情報(B)という)も入力される。
危険度特定部101bは、入力された認識結果および検出情報(B)に基づいて、認識された対象物が自己車両(O)に衝突する可能性などの危険の度合い(以下、これを危険度という)を特定し、この結果(いか、危険度特定結果という)をナビゲーション処理部101cに入力する。ナビゲーション処理部101cは、入力された危険度特定結果に基づき、必要とあればドライバへ注意を促すよう警告する。なお、警告が必要とされる条件は、何れかの対象物が自己車両(O)に衝突する確率が所定の閾値を超えることなどが挙げられるが、これに限らず、種々の条件を適用することができる。
以上に示す危険度を特定するまでの処理は、所定のサイクル、たとえば100ms(ミリセカント)周期程度の比較的短期周期で繰返し実行されることが好ましい。これにより、迅速に危険度を察知することが可能となる。ただし、本発明の課題でも触れたように、画像処理(パターン認識処理)は検出情報(A)に対する処理よりも重く、毎サイクルで実行した場合、検出周期を長く、すなわち危険度を察知する感度を悪くする必要がある。そこで、本実施例では、感度の悪化を回避するために、対象物の所定時間(1検出周期)後の移動予測範囲をそれぞれ算出し、対象物がその範囲内に存在する場合、認識処理を省略し、前回の認識結果を引用するように構成する。以下、この処理を図面と共に詳細に説明する。
図3は、対象物認識処理部101aにおける1回目の認識処理を示すフローチャートである。図3に示すように、対象物認識処理部101aは検出情報(A)および取得画像を入力する(ステップS101,S102)。ここで、検出情報(A)に含まれる情報の概要の一例を図4に、取得画像の一例を図5にそれぞれ示す。図4および上述した内容から読み取れるように、検出情報(A)には、自己車両(O)から対象物までの距離や自己車両(O)に対する対象物(C1,C2,W1,W2,W3,B1)の方向や対象物の大きさ(形状等を含んでも良い)などの情報が含まれる。また、図5から読み取れるように、取得画像には対象物として後述する歩行者(W1)および自動車(C1)が含まれている。なお、説明の簡略化のため、以下では、自己車両(O)の前方(図4における斜線領域)を撮影して得られた画像のみに着目して説明する。
以上のように検出情報(A)と取得画像とが入力されると、対象物認識処理部101aは、取得画像における対象物の領域を検出情報(A)に基づいて特定し、その領域を切り出す(ステップS103)。すなわち、対象物認識処理部101aは、取得画像における対象物の領域を切り出す領域切出し手段としても機能する。この切り出した結果を図6に示す。図6に示す例では、対象物(1)および(2)が切り出された。
このように対象物(1),(2)が映し出された領域を抽出すると、次に対象物認識処理部101aは、形状や配色や大きさなどのパターンに基づいて対象物が何であるかを認識する(ステップS104)。すなわち、対象物認識手段として機能する。なお、この際のパターン認識では、予めDVD−ROM(Read Only Memory)などの記録メディアに記録されている形状や配色や大きさなどのパターンを読み出して使用することができる。このようなパターン認識処理の結果、本説明では、図7に示すように、対象物(1)が歩行者(W1)であり、対象物(2)が自動車(C1)であることが認識された。対象物認識処理部101aは、このような処理を自己車両(O)周囲360度に対して行うことで、図8に示すように、自己車両(O)周囲に存在する対象物すべてを特定する。
以上のようにして認識された結果(以下、認識結果という)は、RAM(Random Access Memory)などの記憶手段に一時保持され(ステップS105)、その後、図2に示す危険度特定部101bへ出力される(ステップS106)。なお、認識結果として得られた情報の概要の一例は図8に示した通りである。
次に、危険度特定部101bにおける危険度特定処理を図9に示すフローチャートを用いて説明する。図9に示すように、危険度特定部101bは、対象物認識処理部101aで得られた認識結果および検出情報(B)を入力する(ステップS111,S112)。ここで、検出情報(B)に含まれる情報の概要の一例を図10に示す。図10および上述した内容から読み取れるように、検出情報(B)には、自己車両(O)に対する各対象物の相対速度や自己車両(O)に対する各対象物の移動方向などの情報が含まれる。
以上のように認識結果および検出情報(B)が入力されると、危険度特定部101bは、これらの情報に基づいて、各対象物が所定時間後に存在する可能性があると予測される範囲、すなわち移動予測範囲を算出する(ステップS113)。すなわち、危険度特定部101bは、対象物が所定時間後に存在する位置の範囲を算出する移動予測範囲算出手段としても機能する。ここで、算出された移動予測範囲の一例を図11に示す。ただし、本説明では、簡略化のため、自己車両が停止している場合を例に挙げて図示している。ステップS113の処理では、対象物の種類毎に予め登録された速度と、自己車両(O)と各対象物との相対速度とに基づいて移動予測範囲を算出する。なお、対象物の種類ごとに予め登録された速度とは、たとえば歩行者であれば一般的な歩行速度などであり、自動車であれば一般的な走行速度(もしくは現在走行中の道路の制限速度)などである。
以上のように移動予測範囲を算出すると、危険度特定部101bは、この結果(以下、移動予測範囲情報という)を対象物認識処理部101aへ出力する(ステップS114)。また、危険度特定部101bは、算出した移動予測範囲に基づいて自己車両(O)に対する対象物の危険度合い、すなわち対象物が自己車両(O)に衝突する可能性などを算出し(ステップS115)、この結果(いか、危険度特定結果という)をナビゲーション処理部101cに入力する(ステップS116)。この可能性は、たとえば自己車両(O)の移動予測範囲と対象物の移動予測範囲とに重なり度合いにより特定することができる。たとえば重なりが無い場合は危険が無いとし、大きな重なりがあれば危険の度合いが高いとすることができる。
以上のように危険度特定結果が入力されると、ナビゲーション処理部101cは、入力された危険度特定結果に基づき、必要とあればドライバへ注意を促すよう警告する。
次に、2回目以降の認識処理について図面と共に説明する。図12は、対象物認識処理部101aにおける2回目以降の認識処理を示すフローチャートである。図12に示すように、対象物認識処理部101aは移動予測範囲情報および検出情報(A)を入力する(ステップS201,S202)。
このように移動予測範囲情報および検出情報(A)が入力されると、対象物認識処理部101aは、検出された対象物の位置と移動予測範囲とを比較する(ステップS203)。この比較の様子を図13に示す。図13に示すように、対象物はそれぞれ移動している。図13では、各対象物の移動先の位置を移動予測範囲内としてあるが、実際にはこれに限らず、移動予測範囲外にある場合も存在する。また、新たに別の対象物が認識される場合や、前回認識された対象物が今回認識されない場合なども存在する。
ステップS203の比較の結果、移動予測範囲内に検出されなかった対象物が存在する場合(ステップS204のYes)、対象物認識処理部101aは、検出されなかった対象物の認識結果を破棄し(ステップS205)、これに基づいて、記憶手段に保持しておいた認識結果を更新する(ステップS206)。その後、ステップS207へ移行する。一方、移動予測範囲内に検出されなかった対象物が存在しない場合(ステップS204のNo)、対象物認識処理部101aはそのままステップS207へ移行する。
ステップS207において、対象物認識処理部101aは、ステップS203の比較の結果、移動予測範囲外に位置する対象物があるか否かを判定する(ステップS207)。この判定の結果、移動予測範囲外に存在する対象物が存在する場合(ステップS207のYes)、対象物認識処理部101aは、CCDカメラ103から取得画像を入力し(ステップS208)、この取得画像とステップS202で入力された検出情報(A)とに基づいて、移動予測範囲外に存在する対象物の取得画像における領域を特定し、その領域を切り出す(ステップS209)。
このように移動予測範囲外に存在する対象物の取得画像が映し出された領域を抽出すると、次に対象物認識処理部101aは、図3のステップS104と同様に、当該対象物が何であるかをパターン認識し(ステップS210)、この認識結果に基づいて、記憶手段に保持しておいた認識結果を更新する(ステップS211)。その後、更新した認識結果を記憶手段に保持すると共に(ステップS212)、これを危険度特定部101bへ出力する(ステップS213)。
一方、ステップS203の比較の結果、移動予測範囲外に位置する対象物が無い場合(ステップS207のNo)、対象物認識処理部101aは、記憶手段に記憶してある認識結果を読出し、これを危険度特定部101bへ出力する(ステップS214)。
以上のように動作することで、本実施例によれば、すでに認識してある対象物を再度認識する処理が省ける。すなわち、処理の比較的重い認識処理を省略でき、高速な動作を実現することができる。また、取得画像を用いた処理を行う際のトリガを移動予測範囲領域外に対象物が存在するか否かとしているため、最小限で且つ的確に画像処理を行う処理を実行することができる。
なお、上記した実施例1は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、これらの実施例を種々変形することは本発明の範囲内であり、更に本発明の範囲内において、他の様々な実施例が可能であることは上記記載から自明である。
本発明の実施例1によるカーナビゲーション装置100の構成を示すブロック図である。 本発明の実施例1による対象物認識装置110の構成を示すブロック図である。 対象物認識処理部101aにおける1回目の認識処理を示すフローチャートである。 レーダ装置102で取得された検出情報(A)に含まれる情報の概要の一例を示す図である。 CCDカメラ103で取得された取得画像の一例を示す図である。 図5の取得画像から対象物を切り出した結果を示す図である。 図5に示す取得画像に対してパターン認識処理を行った結果を示す図である。 本発明の実施例1において自己車両(O)周囲に存在する対象物すべてを特定した結果を示す図である。 危険度特定部101bにおける危険度特定処理を示すフローチャートである。 レーダ装置102で取得された検出情報(B)に含まれる情報の概要の一例を示す図である。 自己車両(O)周囲に存在する対象物に対して移動予測範囲を算出した結果の一例を示す図である。 対象物認識処理部101aにおける2回目以降の認識処理を示すフローチャートである。 検出された対象物の位置と図11に示す移動予測範囲とを比較する様子を示す図である。
符号の説明
1、2 対象物
100 ナビゲーション装置
101 CPU
101a 対象物認識処理部
101b 危険度特定部
101c ナビゲーション処理部
102 レーダ装置
103 CCDカメラ
110 対象物認識装置
111 DVDドライブ
112 GPS受信部
113 自立航法センサ
113a 角度センサ
113b 距離センサ
114 送受信部
115 操作部
116 表示部
117 スピーカ
118 バス
A、B 検出情報
C1、C2 自動車
B1 二輪車
O 自己車両
W1、W2、W3 歩行者

Claims (5)

  1. 自己車両周囲を撮影した画像から対象物が映し出された領域を切り出し、当該領域を認識処理することで自己車両周囲に存在する対象物を認識する対象物認識装置であって、
    前記対象物の所定時間後の自己車両に対する位置が所定範囲内にある場合、当該対象物に対する認識処理を省略することを特徴とする対象物認識装置。
  2. 自己車両周囲の対象物を検出するレーダ手段と、
    自己車両周囲の対象物を撮影する撮影手段と、
    前記レーダ手段で検出された対象物の前記自己車両に対する位置に基づいて当該対象物が映し出された領域を前記撮影手段で得られた画像から切り出す領域切出し手段と、
    前記領域切出し手段で切り出した領域を認識処理することで対象物を認識する対象物認識手段と、
    前記対象物認識手段による認識結果に基づいて所定時間後の前記対象物の移動予測範囲を算出する移動予測範囲算出手段とを有し、
    前記対象物認識手段は、前記所定時間後に前記レーダ手段で検出された対象物の位置が前記移動予測範囲算出手段で算出された移動予測範囲内にある場合、当該対象物に関する認識結果として前回の認識処理で得られた認識結果を出力することを特徴とする対象物認識装置。
  3. 前記レーダ手段により前記移動予測範囲外に対象物が検出された場合、前記領域切出し手段が前記撮像手段で得られた画像から当該対象物が映し出された領域を切り出し、前記対象物認識手段が切り出した領域を認識処理することで当該対象物を認識することを特徴とする請求項2記載の対象物認識装置。
  4. 自己車両周囲の対象物を検出するレーダ手段と、
    自己車両周囲の対象物を撮影する撮影手段と、
    前記レーダ手段で検出された対象物の前記自己車両に対する位置に基づいて当該対象物が映し出された領域を前記撮影手段で得られた画像から切り出す領域切出し手段と、
    前記領域切出し手段で切り出した領域を認識処理することで対象物を認識する対象物認識手段と、
    前記対象物認識手段による認識結果に基づいて所定時間後の前記対象物の移動予測範囲を算出する移動予測範囲算出手段と、
    前記移動予測範囲算出手段で算出された移動予測範囲に基づいて前記自己車両に対する対象物の危険度を特定する危険度特定手段と、
    前記危険度特定手段で特定された危険度に基づいてドライバへ警告する警告手段とを有し、
    前記対象物認識手段は、前記所定時間後に前記レーダ手段で検出された対象物の位置が前記移動予測範囲算出手段で算出された移動予測範囲内にある場合、当該対象物に関する認識結果として前回の認識処理で得られた認識結果を出力することを特徴とするナビゲーション装置。
  5. 自己車両周囲の対象物を検出するレーダ手段で取得された検出結果と、自己車両周囲の対象物を撮影する撮影手段で得られた画像とに基づいて、当該自己車両周囲に存在する対象物を認識処理する対象物認識方法であって、
    前記レーダ手段で検出された対象物の前記自己車両に対する位置に基づいて当該対象物が映し出された領域を前記撮影手段で得られた画像から切り出す第1ステップと、
    前記第1ステップで切り出した領域を認識処理することで対象物を認識する第2ステップと、
    前記第2ステップの認識結果に基づいて所定時間後の前記対象物の移動予測範囲を算出する第3ステップとを有し、
    前記第2ステップは、前記所定時間後に前記レーダ手段で検出された対象物の位置が前記第3ステップで算出された移動予測範囲内にある場合、当該対象物に関する認識結果として前回の認識処理で得られた認識結果を出力することを特徴とする対象物認識方法。
JP2004156720A 2004-05-26 2004-05-26 対象物認識装置、ナビゲーション装置及び対象物認識方法 Expired - Fee Related JP4570907B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004156720A JP4570907B2 (ja) 2004-05-26 2004-05-26 対象物認識装置、ナビゲーション装置及び対象物認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004156720A JP4570907B2 (ja) 2004-05-26 2004-05-26 対象物認識装置、ナビゲーション装置及び対象物認識方法

Publications (2)

Publication Number Publication Date
JP2005339175A true JP2005339175A (ja) 2005-12-08
JP4570907B2 JP4570907B2 (ja) 2010-10-27

Family

ID=35492683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004156720A Expired - Fee Related JP4570907B2 (ja) 2004-05-26 2004-05-26 対象物認識装置、ナビゲーション装置及び対象物認識方法

Country Status (1)

Country Link
JP (1) JP4570907B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254134A (ja) * 2007-04-06 2008-10-23 Honda Motor Co Ltd 移動装置、ならびにその制御方法および制御プログラム
WO2017204075A1 (ja) * 2016-05-26 2017-11-30 古野電気株式会社 信号処理装置及びレーダ装置
JP2020177684A (ja) * 2020-07-08 2020-10-29 楽天株式会社 無人航空機制御システム、無人航空機制御方法、及びプログラム
WO2021210268A1 (ja) * 2020-04-13 2021-10-21 ソニーセミコンダクタソリューションズ株式会社 物体検出装置、情報処理装置および物体検出方法
CN114616610A (zh) * 2019-10-29 2022-06-10 株式会社电装 识别装置、方法以及程序
US11635776B2 (en) 2016-06-17 2023-04-25 Rakuten Group, Inc. Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06150196A (ja) * 1992-11-06 1994-05-31 Toyota Central Res & Dev Lab Inc 移動物体検出装置
JPH08124080A (ja) * 1994-10-20 1996-05-17 Honda Motor Co Ltd 車両の障害物検出装置
JP2003084064A (ja) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06150196A (ja) * 1992-11-06 1994-05-31 Toyota Central Res & Dev Lab Inc 移動物体検出装置
JPH08124080A (ja) * 1994-10-20 1996-05-17 Honda Motor Co Ltd 車両の障害物検出装置
JP2003084064A (ja) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254134A (ja) * 2007-04-06 2008-10-23 Honda Motor Co Ltd 移動装置、ならびにその制御方法および制御プログラム
US8204679B2 (en) 2007-04-06 2012-06-19 Honda Motor Co., Ltd. Mobile apparatus, control device and control program
WO2017204075A1 (ja) * 2016-05-26 2017-11-30 古野電気株式会社 信号処理装置及びレーダ装置
CN109154653A (zh) * 2016-05-26 2019-01-04 古野电气株式会社 信号处理装置以及雷达装置
US11262449B2 (en) 2016-05-26 2022-03-01 Furuno Electric Co., Ltd. Signal processing device and radar device
CN109154653B (zh) * 2016-05-26 2023-05-09 古野电气株式会社 信号处理装置以及雷达装置
US11635776B2 (en) 2016-06-17 2023-04-25 Rakuten Group, Inc. Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and program
CN114616610A (zh) * 2019-10-29 2022-06-10 株式会社电装 识别装置、方法以及程序
WO2021210268A1 (ja) * 2020-04-13 2021-10-21 ソニーセミコンダクタソリューションズ株式会社 物体検出装置、情報処理装置および物体検出方法
JP2020177684A (ja) * 2020-07-08 2020-10-29 楽天株式会社 無人航空機制御システム、無人航空機制御方法、及びプログラム
JP7075966B2 (ja) 2020-07-08 2022-05-26 楽天グループ株式会社 無人航空機制御システム、無人航空機制御方法、及びプログラム

Also Published As

Publication number Publication date
JP4570907B2 (ja) 2010-10-27

Similar Documents

Publication Publication Date Title
JP6312831B2 (ja) 走行支援システム及び走行支援方法
JP4134894B2 (ja) 車両運転支援装置
EP3217318B1 (en) Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
US10818177B2 (en) Driving assistance device and driving assistance method
JP2007251257A (ja) 画像認識装置、車両制御装置、画像認識方法および車両制御方法
WO2016181618A1 (ja) 監視対象領域設定装置および監視対象領域設定方法
JP2007164671A (ja) 障害物接近判断装置および障害物衝突警告システム
JP7059786B2 (ja) 車外報知装置
JP2018133072A (ja) 情報処理装置およびプログラム
JP2005165422A (ja) 衝突可能性判定装置
JP2018163112A (ja) 自動駐車制御方法およびそれを利用した自動駐車制御装置、プログラム
JP2013033324A (ja) 周辺車両情報通知装置
JP3915766B2 (ja) 運転支援装置
JP2017162178A (ja) 判定装置、判定方法、および判定プログラム
JP2008114613A (ja) クラクション制御装置
JP2019049812A (ja) 走行位置評価システム
JP2007271384A (ja) 道路案内システム
JP5924395B2 (ja) 周辺車両情報通知装置
JP2009187351A (ja) 障害物検出装置および障害物検出方法
JP2005346648A (ja) 視界支援装置およびプログラム
JP4570907B2 (ja) 対象物認識装置、ナビゲーション装置及び対象物認識方法
JP2015210584A (ja) 画像処理装置
JP6575451B2 (ja) 運転支援装置及び運転支援プログラム
JP6494729B2 (ja) 運転支援システム、プログラム
JP2018010466A (ja) 物体検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100811

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4570907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140820

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees