WO2023095397A1 - 運転支援装置、運転支援方法 - Google Patents

運転支援装置、運転支援方法 Download PDF

Info

Publication number
WO2023095397A1
WO2023095397A1 PCT/JP2022/030922 JP2022030922W WO2023095397A1 WO 2023095397 A1 WO2023095397 A1 WO 2023095397A1 JP 2022030922 W JP2022030922 W JP 2022030922W WO 2023095397 A1 WO2023095397 A1 WO 2023095397A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
person
detected
detection
unit
Prior art date
Application number
PCT/JP2022/030922
Other languages
English (en)
French (fr)
Inventor
卓也 小倉
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2023095397A1 publication Critical patent/WO2023095397A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

本実施の形態にかかる運転支援装置(10)は、遠赤外線カメラによって車両の外部を撮影した映像を取得する映像取得部(11)と、映像取得部(11)が取得した映像から、人物認識モデルを参照して人物を検出する人物検出部(12)と、映像取得部(11)が取得した映像から、車両認識モデルを参照して他車両を検出するとともに、検出した他車両が走行しているか否かを判断する他車両検出部(13)と、他車両が走行していると判断された場合において、他車両検出部(13)が検出した他車両の検出範囲と人物検出部(12)が検出した人物の検出範囲の少なくとも一部が重なっているとき、走行していると判断された他車両の検出範囲に重なって検出された人物は誤検出と判断する判断部(14)とを備える。

Description

運転支援装置、運転支援方法
 本開示は、運転支援装置、運転支援方法に関する。
 遠赤外線カメラにより、撮影対象物から放出される遠赤外線を受光して熱画像を生成し、周囲の物体を検出する技術が知られている。特許文献1では、運転支援装置が、車両に設置された遠赤外線カメラにより得られた熱画像に対し、機械学習により作成された認識モデル(辞書)を用いて、車両や歩行者、乗降者等を検出することが記載されている。
特開2020-27380号公報
 遠赤外カメラで撮影された熱画像は解像度が低い場合が多く、車両等の人物以外の物体の熱分布を人物であると誤認識することがある。特に、車両の進行方向の車線内に、実際には人物が存在しないにも関わらず、人物が存在すると誤認識した場合、車両の運転者は誤った認識結果に基づいて目視で人物を探してしまい、その間の車両の周囲確認が疎かになってしまう。
 本開示は上記の点に鑑みなされたものであり、遠赤外線カメラにより取得された遠赤外線映像中の人物の誤認識を低減することが可能な運転支援装置及び運転支援方法を提供する。
 本実施形態にかかる運転支援装置は、遠赤外線カメラによって車両の外部を撮影した映像を取得する映像取得部と、前記映像取得部が取得した映像から、人物認識モデルを参照して人物を検出する人物検出部と、前記映像取得部が取得した映像から、車両認識モデルを参照して他車両を検出するとともに、検出した他車両が走行しているか否かを判断する他車両検出部と、前記他車両が走行していると判断された場合において、前記他車両検出部が検出した他車両の検出範囲と前記人物検出部が検出した人物の検出範囲の少なくとも一部が重なっているとき、走行していると判断された前記他車両の検出範囲に重なって検出された人物は誤検出と判断する判断部と、を備える。
 本実施形態にかかる運転支援方法は、遠赤外線カメラによって車両の外部を撮影した映像を取得するステップと、取得した映像から、人物認識モデルを参照して人物を検出するステップと、取得した映像から、車両認識モデルを参照して他車両を検出するとともに、検出した他車両が走行しているか否かを判断するステップと、前記他車両が走行していると判断された場合において、検出した他車両の検出範囲と検出した人物の検出範囲の少なくとも一部が重なっているとき、走行していると判断された前記他車両の検出範囲に重なって検出された人物は誤検出と判断するステップと、を備える、運転支援装置が実行する運転支援方法である。
 本開示によれば、遠赤外線カメラにより取得された遠赤外線映像中の人物の誤認識を低減することができる。
実施形態1に係る運転支援装置の概略構成を示すブロック図である。 実施形態1に係る運転支援方法を説明するフロー図である。 実施形態1に係る運転支援方法の他の例を説明するフロー図である。 実施形態2に係る運転支援装置の概略構成を示すブロック図である。 実施形態2に係る運転支援方法を説明するフロー図である。 遠赤外線カメラにより取得された遠赤外線映像において、人物が誤認識された例を示す図である。
 以下、図面を参照して、本発明の実施形態に係る運転支援装置及び運転支援方法について説明する。ただし、本開示が以下の実施形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。
 実施形態1.
 図1は、実施形態1に係る運転支援装置の概略構成を示すブロック図である。運転支援システム100は、運転支援装置10、遠赤外線カメラ20、記憶装置21、表示装置22を含む。運転支援システム100は、例えば、乗用車、二輪車等の車両に取り付けられる。運転支援システム100は、取り付けられた自車両の周辺の物体(他車両、人物等)を検出する。
 遠赤外線カメラ20は、例えば、自車両のフロントグリル又はその周辺部分に取り付けられる。遠赤外線カメラ20は、車両外部の所定の撮影範囲(撮影画角)を所定の撮影レートで連続的に撮影して、時系列の複数の画像データによって構成される遠赤外線映像を生成する。具体的には、遠赤外線カメラ20は、自車両の周囲、特に、自車両の進行方向の遠赤外線映像(熱画像)を撮影して運転支援装置10に出力する。
 遠赤外線カメラ20は、他車両の動作に基づく熱や人物が放出する熱による遠赤外線を受光して遠赤外線映像を生成する。なお、車両の動作に基づく熱とは、例えば、車両前部のボンネットやフロントグリルからの放熱、車両後部の排気筒(排気口)からの放熱、タイヤ及びその周辺からの放熱等を指す。また、夜間であれば、ヘッドライト、テールランプからの放熱も含まれる。
 運転支援装置10は、遠赤外線カメラ20が撮影した遠赤外線映像から、運転支援システム100を搭載した自車両の周辺の他車両、人物等を検出し、必要に応じて映像や音声により自車両の運転者に通知する処理を行う。図1に示すように、運転支援装置10は、映像取得部11、人物検出部12、他車両検出部13、判断部14、表示制御部15を含む。
 記憶装置21は、車両認識モデル、人物認識モデル等の各種学習済モデルのデータを記憶する。これらの学習済モデルは、車両、歩行者等の人物等の遠赤外線映像を機械学習して作成したものである。運転支援装置10は、遠赤外線映像から他車両、人物等を検出するときにこれらの学習済モデルを用いる。なお、他車両、人物等の検出には、通常の画像認識処理を用いることができる。
 映像取得部11は、遠赤外線カメラ20から車両の外部を撮影した遠赤外線映像を取得する。人物検出部12は、記憶装置21から読み出した人物認識モデルを用いて、遠赤外線映像から人物を検出する。上述したように、人物検出部12が人物を認識する対象の画像は遠赤外線映像であり、解像度の低いセンサが用いられることが多く、車両等の熱分布を人物と認識することがある。したがって、人物検出部12が検出した結果には、誤検出、つまり、実際には人物が存在しない範囲における熱分布を人物として誤検出した結果が含まれることもある。
 図6は、遠赤外線カメラにより取得された遠赤外線映像において、人物が誤検出された例を示す図である。この例では、実際には、自車両の進行方向である前方を走行している他車両C1の手前に人物は存在しないものとする。図6に示すように、他車両の動作に基づく熱などによって、熱分布が人物の形状に類似しており、人物が存在すると誤認識した結果、自車両の運転者に対して、取得された遠赤外線映像中に、誤検出された人物H1を示す検出枠などが表示される。この場合、自車両の運転者は、誤った認識結果に基づいて人物H1を実際に目視で確認することとなり、その間の車両の周囲確認が疎かになってしまう。
 そこで、実施形態1に係る運転支援装置10は、他車両検出部13、判断部14が以下の処理を行う。他車両検出部13は、記憶装置21から読み出した車両認識モデルを用いて、遠赤外線映像から自車両周辺の他車両を検出する。また、他車両検出部13は、検出した他車両が走行しているか否かを判断する。
 例えば、他車両検出部13は、時系列の複数の画像データによって構成される遠赤外線映像のうち複数フレームを参照して、他車両が走行しているか否かを判断する。例えば、検出した他車両とその周囲の物体(路面、建造物等)との位置関係が変化する場合や、自車両の走行速度に基づく他車両の相対的な位置関係の変化などに基づき、当該他車両は走行していると判断することができる。
 判断部14は、他車両が走行していると判断された場合に、他車両検出部13が検出した他車両の検出範囲に人物検出部12が検出した人物の検出範囲の少なくとも一部が重複したとき、走行している他車両の検出範囲に重なって検出された人物は誤検出であると判断する。これにより、遠赤外線映像における人物の誤検出を軽減することが可能となる。
 なお、徐行時や、渋滞時に低速で走行している場合には、他車両間から道路を横断する人物が存在することがある。自車両の運転者にとって、このような人物の検出は優先度が高い。このため、判断部14は、他車両が所定の速度以上、例えば、10km/h以上で走行しているときに、他車両が走行していると判断することが望ましい。これにより、所定の速度よりも低速で走行している時には、他車両間から飛び出す人物を検出することができ、所定の速度以上で走行している時には、人物の誤検出を軽減することができる。
 表示制御部15は、検出した人物に関する情報を映像により自車両の運転者に通知する制御を行う。例えば、表示制御部15は、映像取得部11が取得した遠赤外線映像に、人物検出部12が検出した人物のうち、判断部14が誤検出と判断した人物を除く、人物を人物として示す枠線(検出枠)を描画する。
 表示制御部15は、取得された遠赤外線映像に、検出枠を追加した検出結果映像を表示装置22に出力する。表示装置22は、表示制御部15から送信された検出結果映像を、自車両の運転者が目視可能に表示する。これにより、自車両の運転者は、実際に存在する人物を認識することが可能となる。
 なお、検出した人物に関する情報を音声により自車両の運転者に通知してもよい。音声は、運転支援装置10から出力されても良いし、運転支援装置10外の装置から出力されても良い。
 次に、図2を参照して、運転支援装置10の動作、すなわち、運転支援方法について説明する。図2は、実施形態1に係る運転支援方法を説明するフロー図である。運転支援システム100の動作開始に伴い、遠赤外線カメラ20が自車両の進行方向の遠赤外線映像の撮影を開始し、映像取得部11は、この遠赤外線映像を取得する(ステップS10)。
 また、遠赤外線カメラ20の撮影が開始されると、人物検出部12は、人物認識モデルを参照して、遠赤外線映像から人物の検出を開始する(ステップS11)。同様に、他車両検出部13は、車両認識モデルを参照して、遠赤外線映像から他車両の検出を開始する(ステップS12)。次に、人物検出部12は、人物が検出されたか否かを判断する(ステップS13)。ステップS13において、人物が検出されていない場合(ステップS13、NO)、ステップS19に推移する。
 ステップS13において、人物が検出された場合(ステップS13、YES)、他車両検出部13の検出結果に基づいて、判断部14は、人物が検出された範囲に重なっている他車両が存在するか否かを判断する(ステップS14)。ステップS14で実行される判断は、検出された人物の遠赤外線映像における検出範囲を特定するとともに、検出された他車両の遠赤外線映像における検出範囲を特定し、人物の検出範囲の少なくとも一部が、他車両の検出範囲に重なっているか否かを判断する。例えば、人物の検出範囲が他車両の検出範囲に重なっている割合が比較的少ない場合は、検出された他車両の熱分布とは異なる熱分布に基づいて人物が検出されているため、検出された人物は、人物を適切に検出している可能性は高い。人物の検出範囲が他車両の検出範囲に重なっている割合が比較的多い場合は、検出された他車両の熱分布を人物として誤検出している可能性が高い。従って、ステップS14で実行される判断は、検出された人物の検出範囲における所定割合以上、例えば70%以上が、他車両の検出範囲に重なっていることを条件としてもよい。
 ステップS14において、人物検出範囲に重なっている他車両が存在すると判断されない場合(ステップS14、NO)、ステップS17に推移する。また、人物検出範囲の少なくとも一部が重なっている他車両が存在すると判断された場合(ステップS14、YES)、他車両検出部13の検出結果に基づき、人物の検出範囲が重なっている他車両が走行しているか否かを判断する(ステップS15)。他車両が走行しているか否かの判断は、上述したように、他車両が例えば10km/h以上で走行している場合に、他車両が走行していると判断することが好ましい。ステップS15の処理は、ステップS14の処理に含めてもよい。その場合、ステップS14の処理は、人物検出範囲に重なっている走行中の他車両があるか否かを判断することになる。
 また、他車両検出部13は、ステップS12で他車両の検出を開始しているが、ステップS13で人物が検出された場合に、他車両を検出することとしてもよい。また、遠赤外線映像に対して、他車両を検出する範囲は、遠赤外線映像の全体に限らず、ステップS13で検出された人物の周囲に限定してもよい。
 ステップS15において、他車両が走行していると判断されない場合(ステップS15、NO)、つまり他車両が停止しているか、所定速度未満で走行している場合、ステップS17に推移する。また、ステップS15において、他車両が走行していると判断された場合(ステップS15、YES)、ステップS16に推移する。
 ステップS16において、判断部14は、ステップS14及びステップS15の判断結果に基づき、検出された人物は誤検出であると判断する。つまり走行している他車両の検出範囲に重なって検出された人物は誤検出であると判断する。また、ステップS17において、判断部14は、ステップS14又はステップS15の判断結果に基づき、検出された人物は誤検出ではないと判断する。
 次に、表示制御部15は、ステップS16又はステップS17で判断した結果に基づき、映像取得部11が取得した遠赤外線映像に、検出枠を含めて表示する。具体的には、人物検出部12が検出した人物のうち、判断部14が誤検出と判断した人物に対して検出枠を表示せず、判断部14が誤検出ではないと判断した人物に対して検出枠を表示する(ステップS18)。
 ステップS18で検出枠を表示した人物に対しては、遠赤外線映像のフレーム毎にトラッキング処理を行い、遠赤外線映像に人物が含まれなくなるまで、又は、検出枠の表示の必要がなくなるまで、検出枠の表示が継続される。
 次に、運転支援装置10は、処理を終了するか否かを判断する(ステップS19)。処理の終了とは、遠赤外線カメラ20の撮影を終了する条件を満たす場合や、運転支援システム100が取り付けられている自車両のエンジンや電力がオフになるような場合である。処理を終了すると判断された場合(ステップS19、YES)、図2の処理を終了する。また、処理を終了しないと判断された場合(ステップS19、NO)、ステップS13に推移する。
 図3は、実施形態1に係る運転支援方法の他の例を説明するフロー図である。図3において、図2と同一の処理には同一の符号が付されている。図3において、図2と異なる点は、ステップS15とステップS16との間に、ステップS20が設けられている点である。
 図3に示すように、ステップS15において、他車両が走行していると判断された場合(ステップS15、YES)、ステップS20へと進む。ステップS20では、検出した他車両と人物の移動が連動しているか否かが判断される。例えば、他車両検出部13は、他車両の検出位置(検出枠又は接地位置)と、人物検出部12で検出された人物の検出位置(検出枠又は接地位置)とを用い、時間の経過に伴う移動距離及び/又は移動方向が等しい場合に、他車両と人物が連動していると判断することができる。又は、他車両検出部13は、検出された人物の範囲を示す遠赤外線映像の座標と、検出された他車両の範囲を示す遠赤外線映像の座標との、時間の経過に伴う移動ベクトルが、同一又はほぼ同一であることによって、他車両と人物の移動が連動していると判断する。
 そして、判断部14は、他車両の検出位置と人物の検出位置とが連動して移動していると判断した場合(ステップS20、YES)、ステップS16に推移する。つまり、他車両の移動に連動して移動している人物は誤検出であると判断する(ステップS16)。
 このように、図3に示す例では、他車両が走行していると判断された場合において、他車両検出部が検出した他車両の検出範囲と前記人物検出部が検出した人物の検出範囲の少なくとも一部が重なっているときに、他車両の検出位置と人物の検出位置とが連動して移動していると判断した場合に、走行していると判断された他車両の検出範囲に重なって検出された人物は誤検出と判断する。これにより、遠赤外線映像における人物をより正確に検出することが可能となる。
 なお、他車両の検出位置と人物の検出位置とが連動していないと判断した場合(ステップS20、NO)、ステップS17に推移する。つまり、他車両の移動に連動して移動していない人物は、誤検出ではないと判断する(ステップS17)。
 実施形態2.
 図4は、実施形態2に係る運転支援装置の概略構成を示すブロック図である。図4において、図1と同一の構成要素には同一の符号を付し、説明を適宜省略する。実施の形態2では、図1の構成に加えて、車線検出部16をさらに備えている。
 車線検出部16は、遠赤外線映像から車線を検出する。車線検出部16は、例えば、遠赤外線映像に対して、エッジ検出処理を行い、検出したエッジ成分に対する平滑化処理やハフ変換処理などを行うことで車線区分線を検出し、検出した車線区分線の位置に基づいて、車線を検出する。なお、車線区分線及び車線等の検出には、公知の様々な検出処理を用いることができる。
 車線検出部16は、検出した車線区分線の位置に基づき、自車両が走行している車線を検出する。自車両が走行している車線とは、自車両が走行している車線のみであってもよく、同一方向を進行方向とする複数の車線が存在する場合は、自車両が走行している車線に加えて、同一の進行方向である複数の車線を自車両が走行している車線としてもよい。判断部14は、車線検出部16が検出した車線区分線で定義される自車両が走行している車線内を他車両が走行していると判断した場合に、前記他車両の検出範囲に重なって検出された人物は誤検出と判断する。言い換えると、判断部14は、車線内を走行している他車両以外の他車両の検出範囲に重なって検出された人物は誤検出とは判断しない。
 図5は、実施形態2に係る運転支援方法を説明するフロー図である。図5において、図2、3と同一の処理には同一の符号が付されている。図5において、図3に示す例と異なる点は、ステップS12とステップS13との間にステップS30が設けられるとともに、ステップS14とステップS20との間にステップS31が設けられる点である。なお、図5においては、ステップS20は省略されてもよい。
 ステップS30では、車線検出部16は、遠赤外線映像から車線区分線を検出し、検出した車線区分線で定義される、自車両が走行する車線の検出を開始する。そして、ステップS14において、他車両が走行している場合(ステップS14のYES)、他車両が走行する車線が、車線検出部16で検出された、自車両が走行する車線であるか否かが判断する(ステップS31)。
 ステップS31において、他車両が走行する車線が、車線検出部16で検出された、自車両が走行する車線であると判断された場合(ステップS31、YES)、ステップS20に推移する。又は、ステップS20が省略される場合は、ステップS16に推移する。ステップS31において、他車両が走行する車線が、車線検出部16で検出された、自車両が走行する車線ではないと判断された場合(ステップS31、NO)、ステップS17に推移する。
 このように、実施形態2では、他車両が走行していると判断された場合において、他車両検出部が検出した他車両の検出範囲と前記人物検出部が検出した人物の検出範囲の少なくとも一部が重なっているときに、さらに、車線検出部16が検出した車線区分線で定義される車両が走行している車線内を、他車両が走行していると判断された場合に、走行していると判断された他車両の検出範囲に重なって検出された人物は誤検出と判断する。これにより、自車両の運転者が最も注意すべき、自車両の走行車線における人物の誤検出を防止できる。
 なお、運転支援装置10の構成は上記に限られるものではなく、複数の装置、例えば、運転支援装置10及び記憶装置21を一体化して、記憶部を備えた運転支援装置として構成することも可能である。また、運転支援システム100の全ての構成を一体化して、遠赤外線カメラ、記憶部、表示部を備えた運転支援装置として構成することも可能である。
 なお、運転支援装置10の一部の構成については、通信手段を介して接続される運転支援システム100外の装置等を代用しても良い。例えば、人物検出部12、他車両検出部13、車線検出部16については、通信手段を介して接続される運転支援システム100外のサーバを代用しても良い。
 また、自車両に運転支援装置の一部又は全部が搭載されている形態に加えて、運搬可能又は後付け可能に自車両に搭載される形態であっても良い。なお、上記の説明では、運転支援システム100が自動車に搭載されるものとして説明したが、自動車以外の車両に搭載されてもよい。
 また、上述の例では、人物検出部12、他車両検出部13では、車両、人物等の画像を機械学習して作成したモデルを用いる画像認識を用いたが、これに限定されない。例えば、他車両、人物等のテンプレートを用いたパターンマッチング等の別の画像認識を行ってもよい。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。上記の実施の形態の2つ以上を適宜組み合わせることも可能である。
 図面に記載された運転支援装置10の様々な処理を行う各機能ブロックは、ハードウェア的には、プロセッサ、メモリ、その他の回路で構成することができる。また、上述した処理を、プロセッサにプログラムを実行させることにより実現することも可能である。従って、これらの機能ブロックは、ハードウェアのみ、ソフトウェアのみ、又はそれらの組合せによっていろいろな形で実現でき、いずれかに限定されるものではない。
 上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 この出願は、2021年11月25日に出願された日本出願特願2021-190764を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 100 運転支援システム
 10 運転支援装置
 11 映像取得部
 12 人物検出部
 13 他車両検出部
 14 判断部
 15 表示制御部
 16 車線検出部
 20 遠赤外線カメラ
 21 記憶装置
 22 表示装置
 H1 人物
 C1、C2、C3 他車両

Claims (7)

  1.  遠赤外線カメラによって車両の外部を撮影した映像を取得する映像取得部と、
     前記映像取得部が取得した映像から、人物認識モデルを参照して人物を検出する人物検出部と、
     前記映像取得部が取得した映像から、車両認識モデルを参照して他車両を検出するとともに、検出した他車両が走行しているか否かを判断する他車両検出部と、
     前記他車両が走行していると判断された場合において、前記他車両検出部が検出した他車両の検出範囲と前記人物検出部が検出した人物の検出範囲の少なくとも一部が重なっているとき、走行していると判断された前記他車両の検出範囲に重なって検出された人物は誤検出と判断する判断部と、
     を備える、
     運転支援装置。
  2.  前記判断部は、検出した他車両が所定の速度以上で走行している場合に、他車両が走行していると判断する、
     請求項1に記載の運転支援装置。
  3.  前記判断部は、前記人物の検出範囲の所定割合以上が前記他車両の検出範囲に重なっている場合、走行していると判断された前記他車両の検出範囲に重なって検出された人物は誤検出と判断する、
     請求項1又は2に記載の運転支援装置。
  4.  前記判断部は、前記他車両の検出位置と前記人物の検出位置とが連動して移動していると判断した場合に、走行していると判断された前記他車両の検出範囲に重なって検出された人物は誤検出と判断する、
     請求項1又は2に記載の運転支援装置。
  5.  前記映像取得部が取得した映像から、車線区分線及び前記車線区分線に基づく前記車両が走行している車線を検出する車線検出部をさらに備え、
     前記判断部は、前記車線検出部が検出した車線区分線で定義される前記車両が走行している車線内を、前記他車両が走行していると判断された場合に、前記他車両の検出範囲に重なって検出された人物は誤検出と判断する、
     請求項1から4のいずれか1項に記載の運転支援装置。
  6.  前記映像取得部が取得した映像において、前記人物検出部が検出した人物のうち前記判断部が誤検出と判断した人物を除く人物を人物として強調した検出結果映像を前記車両の運転者が目視可能な表示装置に表示させる表示制御部をさらに備える、
     請求項1から5のいずれか1項に記載の運転支援装置。
  7.  遠赤外線カメラによって車両の外部を撮影した映像を取得するステップと、
     取得した映像から、人物認識モデルを参照して人物を検出するステップと、
     取得した映像から、車両認識モデルを参照して他車両を検出するとともに、検出した他車両が走行しているか否かを判断するステップと、
     前記他車両が走行していると判断された場合において、検出した他車両の検出範囲と検出した人物の検出範囲の少なくとも一部が重なっているとき、走行していると判断された前記他車両の検出範囲に重なって検出された人物は誤検出と判断するステップと、
     を備える、
     運転支援装置が実行する運転支援方法。
PCT/JP2022/030922 2021-11-25 2022-08-16 運転支援装置、運転支援方法 WO2023095397A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021190764A JP2023077489A (ja) 2021-11-25 2021-11-25 運転支援装置、運転支援方法
JP2021-190764 2021-11-25

Publications (1)

Publication Number Publication Date
WO2023095397A1 true WO2023095397A1 (ja) 2023-06-01

Family

ID=86539153

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/030922 WO2023095397A1 (ja) 2021-11-25 2022-08-16 運転支援装置、運転支援方法

Country Status (2)

Country Link
JP (1) JP2023077489A (ja)
WO (1) WO2023095397A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001108758A (ja) * 1999-10-06 2001-04-20 Matsushita Electric Ind Co Ltd 人物検出装置
JP2006099603A (ja) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd 人物検出装置及び方法
JP2012120047A (ja) * 2010-12-02 2012-06-21 Denso Corp 車両用表示装置
JP2018101437A (ja) * 2015-09-11 2018-06-28 富士フイルム株式会社 走行支援装置、走行支援装置による走行支援方法及びプログラム
JP2020027380A (ja) * 2018-08-10 2020-02-20 株式会社Jvcケンウッド 認識処理装置、認識処理方法及び認識処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001108758A (ja) * 1999-10-06 2001-04-20 Matsushita Electric Ind Co Ltd 人物検出装置
JP2006099603A (ja) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd 人物検出装置及び方法
JP2012120047A (ja) * 2010-12-02 2012-06-21 Denso Corp 車両用表示装置
JP2018101437A (ja) * 2015-09-11 2018-06-28 富士フイルム株式会社 走行支援装置、走行支援装置による走行支援方法及びプログラム
JP2020027380A (ja) * 2018-08-10 2020-02-20 株式会社Jvcケンウッド 認識処理装置、認識処理方法及び認識処理プログラム

Also Published As

Publication number Publication date
JP2023077489A (ja) 2023-06-06

Similar Documents

Publication Publication Date Title
CN109478324B (zh) 图像处理装置、外界识别装置
WO2018110605A1 (ja) 画像処理装置、外界認識装置
JP5529910B2 (ja) 車両周辺監視装置
US7366325B2 (en) Moving object detection using low illumination depth capable computer vision
US8995723B2 (en) Detecting and recognizing traffic signs
JP4425642B2 (ja) 歩行者抽出装置
JP2013232091A (ja) 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP2005309797A (ja) 歩行者警報装置
US11465629B2 (en) Recognition processing apparatus, recognition processing method, and recognition processing program
JP2007249841A (ja) 画像認識装置
US20140072176A1 (en) Method and apparatus for identifying a possible collision object
TWI585723B (zh) 車輛監控系統及其方法
JP2007323578A (ja) 車両周辺監視装置
KR20190090221A (ko) 지능형 안전 장치
WO2017208601A1 (ja) 画像処理装置、外界認識装置
JP2014146267A (ja) 歩行者検出装置、運転支援装置
KR101374653B1 (ko) 차량의 움직임을 검출하는 장치 및 방법
KR20140104516A (ko) 차선 인식 방법 및 장치
JP2017167608A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
WO2023095397A1 (ja) 運転支援装置、運転支援方法
JP2011103058A (ja) 誤認識防止装置
JP2005309660A (ja) 車両用右左折支援装置
JP2018163530A (ja) 対象物検知装置、対象物検知方法、及び対象物検知プログラム
JPWO2020129517A1 (ja) 画像処理装置
JP6582891B2 (ja) 空車枠特定システム、方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22898182

Country of ref document: EP

Kind code of ref document: A1