JP2019028840A - 車両用安全判定装置、方法及びプログラム - Google Patents
車両用安全判定装置、方法及びプログラム Download PDFInfo
- Publication number
- JP2019028840A JP2019028840A JP2017149294A JP2017149294A JP2019028840A JP 2019028840 A JP2019028840 A JP 2019028840A JP 2017149294 A JP2017149294 A JP 2017149294A JP 2017149294 A JP2017149294 A JP 2017149294A JP 2019028840 A JP2019028840 A JP 2019028840A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- subject
- target
- recognition
- safety
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】 的確な安全判定を行うことが可能な車両用安全判定装置を提供する。【解決手段】 車両用安全判定装置では、画像認識記録部12は、画像内の各認識対象の種類、位置及び形状を認識して記録すると共に、各認識対象の内から安全判断の対象となる対象者を検出する。予測経路算出部16は、対象者についての画像認識の認識結果に基づいて、対象者の予測経路を算出する。安全判定部24は、予測経路に基づいて、車両と対象者とが最も接近する最接近時間における対象者の予測位置を算出し、対象者を除く少なくとも1つの認識対象の種類、位置及び形状と予測位置とに基づいて、対象者の安全判定を行う。【選択図】 図1
Description
本発明は、対象者の安全を判定する車両用安全判定装置、方法及びプログラムに関する。
従来、車両の安全運転を実現するために、車載カメラによって取得された画像の認識結果に基づいて、歩行者等の安全を判定し、当該安全判定の判定結果に基いて、車両の制御や運転者への告知を行う様々な安全運転装置が提案されている(例えば、特許文献1参照)。
しかしながら、従来の安全運転装置の画像認識では、画像内に全体が包含された認識対象について、個別にその種類と概略位置を認識するにすぎず、的確な安全判定を行うことが困難であった。
本発明は上記課題に鑑みてなされたものであり、その目的は、的確な安全判定を行うことが可能な車両用安全判定装置、方法及びプログラムを提供することにある。
本発明は上記課題を解決するために以下の技術的手段を採用する。特許請求の範囲及びこの項に記載した括弧内の符号は、一つの態様として後述する実施の形態に記載の具体的手段との対応関係を示す一例であって、本発明の技術的範囲を限定するものではない。
本発明の第1実施態様は、車両から観察される画像を取得する画像取得部(10)と、前記画像取得部によって取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録すると共に、各認識対象の内から安全判断の対象となる対象者を検出する画像認識記録部(12)と、前記画像認識記録部に記録された前記対象者についての画像認識の認識結果に基づいて、前記対象者の予測経路を算出する予測経路算出部(16)と、前記車両の走行状態を検出する走行状態検出部(18)と、前記対象者の車両からの距離及び移動状態を検出する距離移動状態検出部(20)と、前記車両の走行状態並びに前記対象者の車両からの距離及び移動状態に基づいて、前記車両と前記対象者とが最も接近する最接近時間を算出する最接近時間算出部(22)と、前記予測経路に基づいて前記最接近時間における前記対象者の予測位置を算出し、前記画像認識記録部によって認識された前記対象者を除く少なくとも1つの認識対象の種類、位置及び形状と前記予測位置とに基づいて、前記対象者の安全判定を行う安全判定部(24)と、を具備する車両用安全判定装置である。
本発明の第2実施態様は、車両から観察される画像を取得する画像取得ステップと、前記画像取得ステップによって取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録すると共に、各認識対象の内から安全判断の対象となる対象者を検出する画像認識記録ステップと、前記画像認識記録ステップに記録された前記対象者についての画像認識の認識結果に基づいて、前記対象者の予測経路を算出する予測経路算出ステップと、前記車両の走行状態を検出する走行状態検出ステップと、前記対象者の車両からの距離及び移動状態を検出する距離移動状態検出ステップと、前記車両の走行状態並びに前記対象者の車両からの距離及び移動状態に基づいて、前記車両と前記対象者とが最も接近する最接近時間を算出する最接近時間算出ステップと、前記予測経路に基づいて前記最接近時間における前記対象者の予測位置を算出し、前記画像認識記録ステップによって認識された前記対象者を除く少なくとも1つの認識対象の種類、位置及び形状と前記予測位置とに基づいて、前記対象者の安全判定を行う安全判定ステップと、を具備する車両用安全判定方法である。
本発明の第3実施態様は、コンピュータに、車両から観察される画像を取得する画像取得機能と、前記画像取得機能によって取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録すると共に、各認識対象の内から安全判断の対象となる対象者を検出する画像認識記録機能と、前記画像認識記録機能に記録された前記対象者についての画像認識の認識結果に基づいて、前記対象者の予測経路を算出する予測経路算出機能と、前記車両の走行状態を検出する走行状態検出機能と、前記対象者の車両からの距離及び移動状態を検出する距離移動状態検出機能と、前記車両の走行状態並びに前記対象者の車両からの距離及び移動状態に基づいて、前記車両と前記対象者とが最も接近する最接近時間を算出する最接近時間算出機能と、前記予測経路に基づいて前記最接近時間における前記対象者の予測位置を算出し、前記画像認識記録機能によって認識された前記対象者を除く少なくとも1つの認識対象の種類、位置及び形状と前記予測位置とに基づいて、前記対象者の安全判定を行う安全判定機能と、を実現させるための車両用安全判定プログラムである。
本発明では、的確な安全判定を行うことが可能となっている。
図1乃至図5を参照して、本発明の一実施形態を説明する。
本実施形態の車両用安全運転装置及び方法では、例えば、次のようなステップを行う。即ち、単眼の車載カメラによって車両から観察される画像を取得し、セマンティックセグメンテーションのような画像認識手法を用いて、画像内の歩行者、車道、歩道、ガードレール等の位置及び形状を認識する。画像認識の認識結果に基づいて歩行者の従前の歩行経路を算出し、従前の歩行経路から算出された将来の予測歩行経路から、車両と歩行者とが最も接近する最接近時間における歩行者の予測位置を算出する。画像認識によって認識された車道の分布範囲に基づいて、予測位置における歩行者の車道からの距離を算出し、当該距離に基づいて歩行者の安全判定を行う。また、画像認識によって認識されたガードレール等の分布範囲に基づいて、歩行者の予測歩行経路上に、歩行者の車道への進入を防止するガードレール等の対象が存在するか否か検出し、かかる対象の存否に基づいて歩行者の安全判定を行う。そして、画像認識によって認識された歩行者の接地位置に基づき、歩行者が車道上、歩道上のどこにいるかといった歩行者の配置を検出し、歩行者の安全判定の判定結果を歩行者の配置と共に車両の運転者に告知する。
本実施形態の車両用安全運転装置及び方法では、例えば、次のようなステップを行う。即ち、単眼の車載カメラによって車両から観察される画像を取得し、セマンティックセグメンテーションのような画像認識手法を用いて、画像内の歩行者、車道、歩道、ガードレール等の位置及び形状を認識する。画像認識の認識結果に基づいて歩行者の従前の歩行経路を算出し、従前の歩行経路から算出された将来の予測歩行経路から、車両と歩行者とが最も接近する最接近時間における歩行者の予測位置を算出する。画像認識によって認識された車道の分布範囲に基づいて、予測位置における歩行者の車道からの距離を算出し、当該距離に基づいて歩行者の安全判定を行う。また、画像認識によって認識されたガードレール等の分布範囲に基づいて、歩行者の予測歩行経路上に、歩行者の車道への進入を防止するガードレール等の対象が存在するか否か検出し、かかる対象の存否に基づいて歩行者の安全判定を行う。そして、画像認識によって認識された歩行者の接地位置に基づき、歩行者が車道上、歩道上のどこにいるかといった歩行者の配置を検出し、歩行者の安全判定の判定結果を歩行者の配置と共に車両の運転者に告知する。
図1を参照して、本実施形態の車両用安全運転装置の概略構成について説明する。
安全運転装置において、画像取得部10は、車両から観察される画像を取得する機能を有する。画像認識記録部12は、データベース14に蓄積された画像認識の学習データを利用して、画像取得部10によって取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録する機能を有する。また、画像認識記録部12は、各認識対象の内から安全判断の対象となる対象者を検出する機能を有する。
予測経路算出部16は、画像認識記録部12に記録された各対象者についての画像認識の認識結果に基づいて、各対象者について従前の経路を算出し、算出された従前の経路から将来の予測経路を算出する機能を有する。
走行状態検出部18は、車両の走行状態を検出する機能を有する。距離移動状態検出部20は、各対象者の車両からの距離及び移動状態を検出する機能を有する。最接近時間算出部22は、走行状態検出部18によって検出された走行状態と、距離移動状態検出部20によって検出された各対象者の車両からの距離及び移動状態とに基づいて、車両と各対象者とが最も接近する最接近時間を算出する機能を有する。
安全判定部24は、予測経路算出部16によって算出された予測経路、最接近時間算出部22によって算出された最接近時間、及び、画像認識記録部12による画像認識の認識結果に基づいて、各対象者の内で安全に注意が必要な注意対象者を検出し、各注意対象者について安全度を算出する機能を有する。
安全制御部26は、安全判定部24によって算出された各注意対象者の安全度に基づいて、各注意対象者の内から特に安全に注意すべき警告対象者を決定する機能を有する。そして、安全制御部26は、車両制御部32を制御して、各警告対象者について、最接近時間算出部22によって算出された最接近時間に基づいて、車両を自動運転する機能を有する。また、位置配置検出部28は、画像認識記録部12による画像認識の認識結果に基づいて、各警告対象者の位置及び配置を検出する機能を有する。属性検出部30は、画像取得部10によって取得された画像に基づいて、各警告対象者の属性を検出する機能を有する。安全制御部26は、告知部34を制御して、位置配置検出部28及び属性検出部30によって検出された各警告対象者の位置、配置及び属性を車両の運転者に告知する機能を有する。
図2乃至図5を参照して、本実施形態の車両用安全運転方法について説明する。
図2を参照して、車両用安全運転方法の概略を説明する。
安全運転方法は、以下の各ステップを有する。
なお、安全運転方法の各ステップの内、画像認識記録ステップ(S12)、予測経路算出ステップ(S15)、安全判定ステップ(S19)及び安全制御ステップ(S22)については、改めて順次詳細に説明する。
図2を参照して、車両用安全運転方法の概略を説明する。
安全運転方法は、以下の各ステップを有する。
なお、安全運転方法の各ステップの内、画像認識記録ステップ(S12)、予測経路算出ステップ(S15)、安全判定ステップ(S19)及び安全制御ステップ(S22)については、改めて順次詳細に説明する。
画像取得ステップ(S11)
車両から観察される画像を取得する。本実施形態では、単眼の車載カメラによって車両の前方画像が取得される。
車両から観察される画像を取得する。本実施形態では、単眼の車載カメラによって車両の前方画像が取得される。
画像認識記録ステップ(S12)
画像認識の学習データを利用し、画像取得ステップにおいて取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録する。本実施形態では、歩行者、車道、歩道、ガードレール等の位置及び形状が認識される。
画像認識の学習データを利用し、画像取得ステップにおいて取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録する。本実施形態では、歩行者、車道、歩道、ガードレール等の位置及び形状が認識される。
対象者検出ステップ(S13)
画像認識ステップにおいて得られた画像認識の認識結果から、安全判定の対象となる対象者を検出する。対象者としては、安全判定が必要な様々な対象者が選択される。本実施形態では、対象者として歩行者が選択される。
画像認識ステップにおいて得られた画像認識の認識結果から、安全判定の対象となる対象者を検出する。対象者としては、安全判定が必要な様々な対象者が選択される。本実施形態では、対象者として歩行者が選択される。
対象者存否判断ステップ(S14)
安全判定の対象となる対象者が存在するか否か判断する。対象者が存在しない場合には、画像取得ステップに戻る。一方、対象者が存在する場合には、次の各ステップに進行する。
安全判定の対象となる対象者が存在するか否か判断する。対象者が存在しない場合には、画像取得ステップに戻る。一方、対象者が存在する場合には、次の各ステップに進行する。
予測経路算出ステップ(S15)
画像認識ステップにおいて得られた画像認識の認識結果から、各対象者について従前の経路を算出し、従前の経路から将来の予測経路を算出する。本実施形態では、各歩行者の予測歩行経路が算出される。
画像認識ステップにおいて得られた画像認識の認識結果から、各対象者について従前の経路を算出し、従前の経路から将来の予測経路を算出する。本実施形態では、各歩行者の予測歩行経路が算出される。
走行状態検出ステップ(S16)
車両の走行状態を検出する。本実施形態では、各種車載センサを用いて、車両の速度、加速度及び進行方向が検出される。
車両の走行状態を検出する。本実施形態では、各種車載センサを用いて、車両の速度、加速度及び進行方向が検出される。
距離及び移動状態検出ステップ(S17)
各対象者の車両からの距離及び移動状態を検出する。本実施形態では、車載ミリ波レーダを用いて、歩行者の車両からの距離並びに歩行速度及び歩行方向が検出される。
各対象者の車両からの距離及び移動状態を検出する。本実施形態では、車載ミリ波レーダを用いて、歩行者の車両からの距離並びに歩行速度及び歩行方向が検出される。
最接近時間算出ステップ(S18)
走行状態検出ステップにおいて検出された車両の走行状態と、距離及び移動状態検出ステップにおいて検出された各対象者の車両からの距離及び移動状態とに基づいて、車両と各対象者とが最も接近する最接近時間を算出する。本実施形態では、車両の速度、加速度及び進行方向と、各歩行者の車両からの距離並びに歩行速度及び歩行方向とから、車両と各歩行者との最接近時間が算出される。
走行状態検出ステップにおいて検出された車両の走行状態と、距離及び移動状態検出ステップにおいて検出された各対象者の車両からの距離及び移動状態とに基づいて、車両と各対象者とが最も接近する最接近時間を算出する。本実施形態では、車両の速度、加速度及び進行方向と、各歩行者の車両からの距離並びに歩行速度及び歩行方向とから、車両と各歩行者との最接近時間が算出される。
安全判定ステップ(S19)
予測経路算出ステップにおいて算出された予測経路、最接近時間算出ステップにおいて算出された最接近時間、及び、画像認識ステップにおける画像認識の認識結果に基づいて、各対象者の内で安全に注意が必要となる注意対象者を検出し、各注意対象者について安全度を算出する。
予測経路算出ステップにおいて算出された予測経路、最接近時間算出ステップにおいて算出された最接近時間、及び、画像認識ステップにおける画像認識の認識結果に基づいて、各対象者の内で安全に注意が必要となる注意対象者を検出し、各注意対象者について安全度を算出する。
注意対象者存否判断ステップ(S20)
安全に注意が必要となる注意対象者が存在するか否か判断する。注意対象者が存在しない場合には、安全運転方法を終了する。一方、注意対象者が存在する場合には、警告対象者決定ステップに進行する。
安全に注意が必要となる注意対象者が存在するか否か判断する。注意対象者が存在しない場合には、安全運転方法を終了する。一方、注意対象者が存在する場合には、警告対象者決定ステップに進行する。
警告対象者決定ステップ(S21)
安全判定ステップにおいて算出された各注意対象者の安全度に基づいて、各注意対象者の内から特に安全に注意すべき警告対象者を決定する。本実施形態では、各注意対象者の内、安全度の最も低い注意対象者を警告対象者として決定する。本実施形態の変形例では、各注意対象者の内、所定の閾値以下の安全度の注意対象者を警告対象者としてもよいし、安全度の低い下位数名を警告対象者としてもよい。
安全判定ステップにおいて算出された各注意対象者の安全度に基づいて、各注意対象者の内から特に安全に注意すべき警告対象者を決定する。本実施形態では、各注意対象者の内、安全度の最も低い注意対象者を警告対象者として決定する。本実施形態の変形例では、各注意対象者の内、所定の閾値以下の安全度の注意対象者を警告対象者としてもよいし、安全度の低い下位数名を警告対象者としてもよい。
安全制御ステップ(S22)
各警告対象者について車両の安全制御を行う。車両の安全制御では、各警告対象者について、最接近時間算出ステップにおいて算出された最接近時間に基づいて車両の自動運転を行う。また、車両の安全制御では、画像認識ステップにおける画像認識の認識結果に基づいて、警告対象者の位置及び配置を検出し、さらに警告対象者の属性を検出して、各警告対象者の位置、配置及び属性を車両の運転者に告知する。
各警告対象者について車両の安全制御を行う。車両の安全制御では、各警告対象者について、最接近時間算出ステップにおいて算出された最接近時間に基づいて車両の自動運転を行う。また、車両の安全制御では、画像認識ステップにおける画像認識の認識結果に基づいて、警告対象者の位置及び配置を検出し、さらに警告対象者の属性を検出して、各警告対象者の位置、配置及び属性を車両の運転者に告知する。
以下、画像認識記録ステップ(S12)について詳細に説明する。
従来の安全運転方法における画像認識では、画像内に全体が包含された認識対象について、個別にその種類と概略位置を認識するにすぎなかったが、本実施形態の安全運転方法における画像認識では、画像内の各認識対象の種類、位置及び形状を認識する。
従来の安全運転方法における画像認識では、画像内に全体が包含された認識対象について、個別にその種類と概略位置を認識するにすぎなかったが、本実施形態の安全運転方法における画像認識では、画像内の各認識対象の種類、位置及び形状を認識する。
このような画像認識手法として、例えば、セマンティックセグメンテーションが用いられる。セマンティックセグメンテーションでは、単眼カメラで撮影した画像において、画像認識の学習データを利用して、画像上の各ピクセルを認識対象の種類別に分類することが可能である。このため、例えば、歩行者、車道、歩道、ガードレール等の位置及び形状を同時に認識することができ、歩行者の歩行経路の算出、車両の走行する車道の検出、車道、歩道、ガードレール等の分布範囲の検出、歩行者の接地位置の検出等が可能となる。このような画像認識手法として、例えば、V.Badrinarayanan, and et al., Segnet: A Deep Convolutional Encoder−Decoder Architecture for Image Segmentation, arXiv 2015.に開示されている画像認識手法を用いることが可能である。
図3を参照して、予測経路算出ステップ(S15)について詳細に説明する。
予測経路算出ステップでは、以下の各ステップによって、上述したように、画像認識の認識結果から、各対象者について従前の経路を算出し、従前の経路から将来の予測経路を算出する。本実施形態では、歩行者の予測歩行経路を算出する。
予測経路算出ステップでは、以下の各ステップによって、上述したように、画像認識の認識結果から、各対象者について従前の経路を算出し、従前の経路から将来の予測経路を算出する。本実施形態では、歩行者の予測歩行経路を算出する。
時刻ループステップ(S31、S32〜S40、S41)
Tを現在時刻、δTを検索時間、Nを分割数、δt(=δT/N)を分割時間とする。時刻tについて、時刻T−δTから時刻Tまで、分割時間δt毎に、以下の総数及び位置検出ステップ並びに対象者ループステップについてループを行う。
Tを現在時刻、δTを検索時間、Nを分割数、δt(=δT/N)を分割時間とする。時刻tについて、時刻T−δTから時刻Tまで、分割時間δt毎に、以下の総数及び位置検出ステップ並びに対象者ループステップについてループを行う。
総数及び位置検出ステップ(S32)
時刻tにおける画像認識の認識結果に基づき、画像内の対象者の総数M及び各対象者の位置を検出する。
時刻tにおける画像認識の認識結果に基づき、画像内の対象者の総数M及び各対象者の位置を検出する。
対象者ループステップ(S34、S35〜S39、S40)
時刻tにおいて、1番目の対象者からM番目の対象者まで、対象者毎に、以下の変位距離算出ステップ、変位距離判断ステップ、同一性認定ステップ及び非同一性認定ステップについてループを行う。
時刻tにおいて、1番目の対象者からM番目の対象者まで、対象者毎に、以下の変位距離算出ステップ、変位距離判断ステップ、同一性認定ステップ及び非同一性認定ステップについてループを行う。
変位距離算出ステップ(S36)
時刻tにおけるm番目の対象者と、時刻t−δtにおける各対象者との間の各変位距離を算出し、最小の変位距離lとなる時刻t−δtにおけるm’番目の対象者を検出する。
時刻tにおけるm番目の対象者と、時刻t−δtにおける各対象者との間の各変位距離を算出し、最小の変位距離lとなる時刻t−δtにおけるm’番目の対象者を検出する。
変位距離判断ステップ(S37)
変位距離lが所定の閾値L以下となるか否か判断する。閾値Lは、時間δtの間に対象者が通常移動可能な距離に適宜設定される。本実施形態では、閾値Lは、時間δtの間に歩行者が通常歩行可能な距離に適宜設定される。
変位距離lが所定の閾値L以下である場合には、変位距離lは時間δtの間に対象者が通常移動可能な距離であるから、同一性認定ステップに進行する。一方、変位距離lが所定の閾値L以下ではない場合には、変位距離lは時間δtの間に対象者が通常移動可能な距離ではないから、非同一性認定ステップに進行する。
変位距離lが所定の閾値L以下となるか否か判断する。閾値Lは、時間δtの間に対象者が通常移動可能な距離に適宜設定される。本実施形態では、閾値Lは、時間δtの間に歩行者が通常歩行可能な距離に適宜設定される。
変位距離lが所定の閾値L以下である場合には、変位距離lは時間δtの間に対象者が通常移動可能な距離であるから、同一性認定ステップに進行する。一方、変位距離lが所定の閾値L以下ではない場合には、変位距離lは時間δtの間に対象者が通常移動可能な距離ではないから、非同一性認定ステップに進行する。
同一性認定ステップ(S38)
変位距離lが所定の閾値L以下である場合には、変位距離lは時間δtの間に対象者が通常移動可能な距離であるから、時刻tにおけるm番目の対象者は、時刻t−δtにおけるm’番目の対象者と同一人物であって、時刻t−δtにおけるm’番目の対象者の位置から時刻tにおけるm番目の対象者の位置まで移動したと認定する。
変位距離lが所定の閾値L以下である場合には、変位距離lは時間δtの間に対象者が通常移動可能な距離であるから、時刻tにおけるm番目の対象者は、時刻t−δtにおけるm’番目の対象者と同一人物であって、時刻t−δtにおけるm’番目の対象者の位置から時刻tにおけるm番目の対象者の位置まで移動したと認定する。
非同一性認定ステップ(S39)
一方、変位距離lが所定の閾値L以下ではない場合には、変位距離lは時間δtの間に対象者が通常移動可能な距離ではないから、時刻tにおけるm番目の対象者は、時刻t−δtにおけるm’番目の対象者と同一人物ではなく、時刻tにおいて初めて出現したと認定する。
一方、変位距離lが所定の閾値L以下ではない場合には、変位距離lは時間δtの間に対象者が通常移動可能な距離ではないから、時刻tにおけるm番目の対象者は、時刻t−δtにおけるm’番目の対象者と同一人物ではなく、時刻tにおいて初めて出現したと認定する。
経路検出ステップ(S42)
現在時刻Tにおける各対象者について、最初に出現した時刻T0から現在時刻Tまでの分割時間δt毎の位置に基づいて、時刻T0から現在時刻Tまでの経路を算出する。
現在時刻Tにおける各対象者について、最初に出現した時刻T0から現在時刻Tまでの分割時間δt毎の位置に基づいて、時刻T0から現在時刻Tまでの経路を算出する。
予測経路算出ステップ(S43)
現在時刻Tにおける各対象者について、時刻T0から現在時刻Tまでの経路に基づいて、現在時刻Tから最接近時間後までの予測経路を算出する。本実施形態では、各歩行者について、時刻T0から現在時刻Tまでの歩行経路を線形に延長することで、現在時刻Tから最接近時間後までの予測歩行経路を算出する。
現在時刻Tにおける各対象者について、時刻T0から現在時刻Tまでの経路に基づいて、現在時刻Tから最接近時間後までの予測経路を算出する。本実施形態では、各歩行者について、時刻T0から現在時刻Tまでの歩行経路を線形に延長することで、現在時刻Tから最接近時間後までの予測歩行経路を算出する。
図4を参照して、安全判定ステップについて詳細に説明する。
安全判定ステップでは、以下の各ステップによって、上述したように、予測経路、最接近時間及び画像認識の認識結果に基づいて、各対象者の内で安全に注意が必要な注意対象者を検出し、各注意対象者について安全度を算出する。
安全判定ステップでは、以下の各ステップによって、上述したように、予測経路、最接近時間及び画像認識の認識結果に基づいて、各対象者の内で安全に注意が必要な注意対象者を検出し、各注意対象者について安全度を算出する。
予測位置算出ステップ(S51)
対象者の予測経路に基づいて、最接近時間における対象者の予測位置を算出する。
対象者の予測経路に基づいて、最接近時間における対象者の予測位置を算出する。
車両距離算出ステップ(S52)
自車両の進行方向中心線から対象者の予測位置までの車両距離d1を算出する。
自車両の進行方向中心線から対象者の予測位置までの車両距離d1を算出する。
車両距離判断ステップ(S53)
対象者の車両距離d1が所定の閾値D1以上であるか否か判断する。閾値D1は、車両の進行方向中心線から対象者が距離D1以上離間しているのであれば、車両との位置関係上では、対象者は充分に安全であると認定できる閾値が適宜設定される。対象者の車両距離d1が所定の閾値D1以上であると判断された場合には、車両との位置関係から、対象者は充分に安全であると認定できるため、非該当性認定ステップに進行する。一方、対象者の車両距離d1が所定の閾値D1以上でないと判断された場合には、車両との位置関係上、対象者の安全に注意する必要があり、車道距離算出ステップに進行する。
対象者の車両距離d1が所定の閾値D1以上であるか否か判断する。閾値D1は、車両の進行方向中心線から対象者が距離D1以上離間しているのであれば、車両との位置関係上では、対象者は充分に安全であると認定できる閾値が適宜設定される。対象者の車両距離d1が所定の閾値D1以上であると判断された場合には、車両との位置関係から、対象者は充分に安全であると認定できるため、非該当性認定ステップに進行する。一方、対象者の車両距離d1が所定の閾値D1以上でないと判断された場合には、車両との位置関係上、対象者の安全に注意する必要があり、車道距離算出ステップに進行する。
車道距離算出ステップ(S54)
車道距離算出ステップでは、自車両が走行する車道から対象者の予測位置までの車道距離d2を算出する。対象者の予測位置が車道上にある場合には、車道距離d2はゼロに設定する。上述したように、本実施形態の安全運転方法における画像認識では、車道の分布範囲を認識できるため、車両の走行する車道を検出したうえで、車道からの歩行者の距離を算出することが可能である。
車道距離算出ステップでは、自車両が走行する車道から対象者の予測位置までの車道距離d2を算出する。対象者の予測位置が車道上にある場合には、車道距離d2はゼロに設定する。上述したように、本実施形態の安全運転方法における画像認識では、車道の分布範囲を認識できるため、車両の走行する車道を検出したうえで、車道からの歩行者の距離を算出することが可能である。
車道距離判断ステップ(S55)
車道距離判断ステップでは、対象者の車両距離d2が所定の閾値D2以上であるか否か判断する。閾値D2は、車両の進行方向中心線からの車両距離d1が閾値D1未満であっても、車道から対象者が距離D2以上離間しているのであれば、車道との位置関係からは、対象者は充分に安全であると判断できる閾値が適宜設定される。対象者の車道距離d2が所定の閾値D2以上であると判断された場合には、車道との位置関係からは、対象者は充分に安全であると認定できるため、非該当性認定ステップに進行する。一方、対象者の車道距離d2が所定の閾値D2以上でないと判断された場合には、車両及び車道との位置関係上、対象者の安全に注意する必要があり、進入防止対象検出ステップに進行する。
車道距離判断ステップでは、対象者の車両距離d2が所定の閾値D2以上であるか否か判断する。閾値D2は、車両の進行方向中心線からの車両距離d1が閾値D1未満であっても、車道から対象者が距離D2以上離間しているのであれば、車道との位置関係からは、対象者は充分に安全であると判断できる閾値が適宜設定される。対象者の車道距離d2が所定の閾値D2以上であると判断された場合には、車道との位置関係からは、対象者は充分に安全であると認定できるため、非該当性認定ステップに進行する。一方、対象者の車道距離d2が所定の閾値D2以上でないと判断された場合には、車両及び車道との位置関係上、対象者の安全に注意する必要があり、進入防止対象検出ステップに進行する。
進入防止対象検出ステップ(S56)
進入防止対象検出ステップでは、対象者の予測経路上において、対象者が車道へと進入するのを防止する進入防止対象が存在するか否かを検出する。進入防止対象としては、ガードレールの他、歩道橋への上り階段、地下道への下り階段、歩行者が乗車することが予想される自家用車やバス等の駐停車車両が想定される。本実施形態の安全運転方法における画像認識では、ガードレール等の分布範囲を認識でき、また、画像認識の認識結果から歩行者の予測歩行経路を算出することができるため、歩行者の予測歩行経路上にガードレール等が存在するか否かを検出することが可能である。
進入防止対象検出ステップでは、対象者の予測経路上において、対象者が車道へと進入するのを防止する進入防止対象が存在するか否かを検出する。進入防止対象としては、ガードレールの他、歩道橋への上り階段、地下道への下り階段、歩行者が乗車することが予想される自家用車やバス等の駐停車車両が想定される。本実施形態の安全運転方法における画像認識では、ガードレール等の分布範囲を認識でき、また、画像認識の認識結果から歩行者の予測歩行経路を算出することができるため、歩行者の予測歩行経路上にガードレール等が存在するか否かを検出することが可能である。
進入防止対象存否判断ステップ(S57)
進入防止対象存否判断ステップでは、対象者の予測経路上に進入防止対象が存在するか否か判断する。対象者の予測経路上に進入防止対象が存在すると判断された場合には、対象者が車道に進入する可能性はなく、対象者は充分に安全であると認定できるため、非該当性認定ステップに進行する。一方、対象者の予測経路上に進入防止対象が存在しないと判断された場合には、対象者が車道に進入する可能性があり、対象者の安全に注意する必要があるため、該当性認定ステップに進行する。
進入防止対象存否判断ステップでは、対象者の予測経路上に進入防止対象が存在するか否か判断する。対象者の予測経路上に進入防止対象が存在すると判断された場合には、対象者が車道に進入する可能性はなく、対象者は充分に安全であると認定できるため、非該当性認定ステップに進行する。一方、対象者の予測経路上に進入防止対象が存在しないと判断された場合には、対象者が車道に進入する可能性があり、対象者の安全に注意する必要があるため、該当性認定ステップに進行する。
該当性認定ステップ(S58)
対象者の車両距離d1が所定の閾値D1以上でないと判断され、車道距離d2が所定の閾値D2以上でないと判断され、対象者の予測経路上に進入防止対象が存在しないと判断された場合には、対象者を安全に注意する必要がある注意対象者であると認定する。
対象者の車両距離d1が所定の閾値D1以上でないと判断され、車道距離d2が所定の閾値D2以上でないと判断され、対象者の予測経路上に進入防止対象が存在しないと判断された場合には、対象者を安全に注意する必要がある注意対象者であると認定する。
安全度算出ステップ(S59)
注意対象者について、車両距離d1と車道距離d2とを加算することにより、安全度dを算出する。車両距離d1ないし車道距離d2が大きいほど、対象者は車両の進行方向中心線ないし車道からより離間していることになり、より安全であるといえるため、安全度が高くなるようになっている。
注意対象者について、車両距離d1と車道距離d2とを加算することにより、安全度dを算出する。車両距離d1ないし車道距離d2が大きいほど、対象者は車両の進行方向中心線ないし車道からより離間していることになり、より安全であるといえるため、安全度が高くなるようになっている。
非該当性認定ステップ(S60)
対象者の車両距離d1が所定の閾値D1以上と判断された場合、車両距離d2が所定の閾値D2以上であると判断された場合、又は、対象者の予測経路上に進入防止対象が存在すると判断された場合には、対象者は安全に注意する必要がある注意対象者ではないと認定する。
対象者の車両距離d1が所定の閾値D1以上と判断された場合、車両距離d2が所定の閾値D2以上であると判断された場合、又は、対象者の予測経路上に進入防止対象が存在すると判断された場合には、対象者は安全に注意する必要がある注意対象者ではないと認定する。
図5を参照して、安全制御ステップについて詳細に説明する。
安全制御ステップでは、以下の各ステップにより、上述したように、各注意対象者の内で特に安全に注意すべき警告対象者について車両の安全制御を行う。
安全制御ステップでは、以下の各ステップにより、上述したように、各注意対象者の内で特に安全に注意すべき警告対象者について車両の安全制御を行う。
自動運転要否判断ステップ(S71)
最接近時間Tsが所定の閾値T1以下であるか否か判断する。閾値T1は、運転者自身の運転操作によって、警告対象者を安全に回避することが充分に可能な最短時間に設定される。最接近時間Tsが所定の閾値T1以下であると判断された場合には、運転者自身の運転操作によっては対象者を安全に回避することが充分に可能ではないため、自動運転ステップに進行する。一方、最接近時間Tsが所定の閾値T1以下ではないと判断された場合には、運転者自身の運転操作によって警告対象者を安全に回避することが充分に可能であり、告知要否判断ステップに進行する。
最接近時間Tsが所定の閾値T1以下であるか否か判断する。閾値T1は、運転者自身の運転操作によって、警告対象者を安全に回避することが充分に可能な最短時間に設定される。最接近時間Tsが所定の閾値T1以下であると判断された場合には、運転者自身の運転操作によっては対象者を安全に回避することが充分に可能ではないため、自動運転ステップに進行する。一方、最接近時間Tsが所定の閾値T1以下ではないと判断された場合には、運転者自身の運転操作によって警告対象者を安全に回避することが充分に可能であり、告知要否判断ステップに進行する。
自動運転ステップ(S72)
自動運転要否判断ステップにおいて、最接近時間Tsが所定の閾値T1以下であると判断された場合には、車両を自動運転に移行させて、駆動装置、制動装置、操舵装置等を自動制御して、警告対象者を安全に回避する。
自動運転要否判断ステップにおいて、最接近時間Tsが所定の閾値T1以下であると判断された場合には、車両を自動運転に移行させて、駆動装置、制動装置、操舵装置等を自動制御して、警告対象者を安全に回避する。
告知要否判断ステップ(S73)
最接近時間Tsが所定の閾値T2以上であるか否か判断する。閾値T2は、警告対象者に車両が最も接近するにはまだ充分に時間があるため、当該時点においては運転者に警告対象者の存在を告知する必要はないといえる最短時間に適宜設定される。最接近時間Tsが所定の閾値T2以上であると判断された場合には、警告対象者に車両が最も接近するにはまだ充分に時間があり、当該時点においては運転者に警告対象者の存在を告知する必要はないといえるため、安全制御ステップを終了する。一方、最接近時間Tsが所定の閾値T2以上であると判断された場合には、当該時点において運転者に警告対象者の存在を告知する必要があるといえるため、位置及び配置検出ステップに進行する。
最接近時間Tsが所定の閾値T2以上であるか否か判断する。閾値T2は、警告対象者に車両が最も接近するにはまだ充分に時間があるため、当該時点においては運転者に警告対象者の存在を告知する必要はないといえる最短時間に適宜設定される。最接近時間Tsが所定の閾値T2以上であると判断された場合には、警告対象者に車両が最も接近するにはまだ充分に時間があり、当該時点においては運転者に警告対象者の存在を告知する必要はないといえるため、安全制御ステップを終了する。一方、最接近時間Tsが所定の閾値T2以上であると判断された場合には、当該時点において運転者に警告対象者の存在を告知する必要があるといえるため、位置及び配置検出ステップに進行する。
位置及び配置検出ステップ(S74)
画像認識記憶ステップにおける画像認識の認識結果に基づいて、警告対象者の位置及び配置を検出する。本実施形態では、警告対象者の位置として、運転者から視認される方向である「左前」「前」「右前」が用いられる。警告対象者の配置としては、「車道上」「歩道上」等が用いられる。上述したように、本実施形態の安全運転方法における画像認識では、車道、歩道等の分布範囲と歩行者の接地位置とを同時に認識できるため、警告対象者が「車道上」「歩道上」等のどこにいるのか検出することが可能である。
画像認識記憶ステップにおける画像認識の認識結果に基づいて、警告対象者の位置及び配置を検出する。本実施形態では、警告対象者の位置として、運転者から視認される方向である「左前」「前」「右前」が用いられる。警告対象者の配置としては、「車道上」「歩道上」等が用いられる。上述したように、本実施形態の安全運転方法における画像認識では、車道、歩道等の分布範囲と歩行者の接地位置とを同時に認識できるため、警告対象者が「車道上」「歩道上」等のどこにいるのか検出することが可能である。
属性検出ステップ(S75)
画像取得ステップにおいて取得された画像に基づいて、画像認識によって警告対象者の属性を検出する。本実施形態では、警告対象者の属性として、着衣や荷物の種類、年齢、性別等が用いられる。このような画像認識として、例えば、Y. Deng, and et al., Pedestrian attribute recognition at far distance, ACM MM 2014.に開示されている画像認識を用いることが可能である。
画像取得ステップにおいて取得された画像に基づいて、画像認識によって警告対象者の属性を検出する。本実施形態では、警告対象者の属性として、着衣や荷物の種類、年齢、性別等が用いられる。このような画像認識として、例えば、Y. Deng, and et al., Pedestrian attribute recognition at far distance, ACM MM 2014.に開示されている画像認識を用いることが可能である。
警告文作成ステップ(S76)
位置及び配置検出ステップにおいて検出された警告対象者の位置及び配置、並びに、属性検出ステップによって検出された警告対象者の属性に基づいて、警告文を作成する。本実施形態では、例えば、「『左前』の『歩道』上にいる『赤い服』の『若い』『男性』に注意してください」といった警告文を作成する。
位置及び配置検出ステップにおいて検出された警告対象者の位置及び配置、並びに、属性検出ステップによって検出された警告対象者の属性に基づいて、警告文を作成する。本実施形態では、例えば、「『左前』の『歩道』上にいる『赤い服』の『若い』『男性』に注意してください」といった警告文を作成する。
警告文告知ステップ(S77)
警告文作成ステップにおいて作成された警告文を車両の運転者に告知する。警告文の告知方法としては、画面表示出力、合成音声出力等が用いられる。
警告文作成ステップにおいて作成された警告文を車両の運転者に告知する。警告文の告知方法としては、画面表示出力、合成音声出力等が用いられる。
本実施形態の車両用安全運転装置及び方法は以下の効果を奏する。
本実施形態の車両用安全運転装置及び方法では、車両から観察される画像に基づいて、画像認識によって画像内の各認識対象の種類、位置及び形状を認識している。そして、画像認識の認識結果に基づいて、安全判断の対象となる対象者の予測経路を算出し、算出された予測経路に基づいて、車両と対象者とが最も接近する最接近時間における対象者の予測位置を算出している。さらに、対象者の予測位置と、画像認識によって認識された対象者以外の少なくとも1つの認識対象の種類、位置及び形状とに基づいて、対象者の安全判定を行っている。このため、対象者の安全判定を的確に行うことが可能となっている。
本実施形態の車両用安全運転装置及び方法では、車両から観察される画像に基づいて、画像認識によって画像内の各認識対象の種類、位置及び形状を認識している。そして、画像認識の認識結果に基づいて、安全判断の対象となる対象者の予測経路を算出し、算出された予測経路に基づいて、車両と対象者とが最も接近する最接近時間における対象者の予測位置を算出している。さらに、対象者の予測位置と、画像認識によって認識された対象者以外の少なくとも1つの認識対象の種類、位置及び形状とに基づいて、対象者の安全判定を行っている。このため、対象者の安全判定を的確に行うことが可能となっている。
特に、本実施形態では、画像認識において、歩行者及び車道の位置及び形状を同時に認識しているため、歩行者の歩行経路の算出、車両の走行する車道の検出、車道の分布範囲の検出ができ、最接近時間における歩行者の車道からの距離を算出することが可能となっている。ここで、車両の進行方向中心線の比較的近くに歩行者が位置する場合であっても、車道から比較的離れて歩行者が位置するのであれば、歩行者は安全であるということができる。本実施形態では、歩行者の車道からの距離を算出し、当該距離に基づいて安全判定を行うようにしているため、歩行者の安全判定を的確に行うことが可能となっている。
さらに、画像認識において、ガードレール等の位置及び形状も同時に認識しているため、歩行者の予測歩行経路上において、歩行者が車道へと進入するのを防止するガードレール等が存在するか否かを検出することが可能となっている。ここで、最接近時間における歩行者の車道からの距離が比較的小さく、車道上に歩行者が位置する場合であっても、歩行者の予測歩行経路上に歩行者が車道へと進入するのを防止するガードレール等が存在するのであれば、歩行者が車道へと進入することはなく、歩行者は安全であるということができる。本実施形態では、歩行者の予測歩行経路上において、歩行者が車道へと進入するのを防止するガードレール等が存在するか否かに基づいて、安全判定を行うようにしているため、歩行者の安全判定をさらに的確に行うことが可能となっている。
また、本実施形態の車両用安全運転装置及び方法では、画像認識の認識結果に基づいて対象者の配置を検出し、対象者についての安全判定の判定結果を対象者の配置と共に車両の運転者に告知するようにしている。このため、運転者に対して対象者についての的確な注意喚起を行うことが可能となっている。
特に、本実施形態では、画像認識において、歩行者、車道、歩道等の位置及び形状を同時に認識しているため、歩行者の接地位置を検出でき、歩行者が車道上、歩道上等のどこにいるのかを検出することが可能となっている。このため、運転者に対して警告対象者が車道上、歩道上等のどこにいるのかを告知することができ、運転者に対して警告対象者についての的確な注意喚起を行うことが可能となっている。
以上述べた一実施形態及びその変形例では、安全運転装置及び方法について説明したが、コンピュータに一実施形態及びその変形例の安全運転装置の各種機能を実現させるためのプログラム、コンピュータに一実施形態及びその変形例の安全運転方法の各種手順を実行させるためのプログラムも本願発明の範囲に含まれる。
10…画像取得部 12…画像認識記録部 14…データベース
16…予測経路算出部 18…走行状態検出部 20…距離移動状態検出部
22…最接近時間算出部 24…安全判定部 26…安全制御部
28…位置配置検出部 30…属性検出部 32…車両制御部 34…告知部
16…予測経路算出部 18…走行状態検出部 20…距離移動状態検出部
22…最接近時間算出部 24…安全判定部 26…安全制御部
28…位置配置検出部 30…属性検出部 32…車両制御部 34…告知部
Claims (7)
- 車両から観察される画像を取得する画像取得部(10)と、
前記画像取得部によって取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録すると共に、各認識対象の内から安全判断の対象となる対象者を検出する画像認識記録部(12)と、
前記画像認識記録部に記録された前記対象者についての画像認識の認識結果に基づいて、前記対象者の予測経路を算出する予測経路算出部(16)と、
前記車両の走行状態を検出する走行状態検出部(18)と、
前記対象者の車両からの距離及び移動状態を検出する距離移動状態検出部(20)と、
前記車両の走行状態並びに前記対象者の車両からの距離及び移動状態に基づいて、前記車両と前記対象者とが最も接近する最接近時間を算出する最接近時間算出部(22)と、
前記予測経路に基づいて前記最接近時間における前記対象者の予測位置を算出し、前記画像認識記録部によって認識された前記対象者を除く少なくとも1つの認識対象の種類、位置及び形状と前記予測位置とに基づいて、前記対象者の安全判定を行う安全判定部(24)と、
を具備する車両用安全判定装置。 - 前記安全判定部は、前記車両が走行する車道の位置及び形状と前記予測位置とに基づいて前記対象者の安全判定を行う、
請求項1に記載の車両用安全判定装置。 - 前記安全判定部は、前記車道から前記予測位置までの距離が大きいほど前記対象者の安全度を増大させる、
請求項2に記載の車両用安全判定装置。 - 前記安全判定部は、前記予測経路上に前記対象者の前記車道への進入を防止する進入防止対象が存在するか否かに基づいて前記対象者の安全判定を行う、
請求項2に記載の車両用安全判定装置。 - 請求項1に記載の前記車両用安全判定装置と、
前記画像認識記録部による各認識対象についての画像認識の認識結果に基づいて、前記対象者の配置を検出する配置検出部(28)と、
前記安全判定部による前記対象者についての安全判定の判定結果を前記対象者の配置と共に前記車両の運転者に告知する告知部(34)と、
を具備する車両用安全運転装置。 - 車両から観察される画像を取得する画像取得ステップと、
前記画像取得ステップによって取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録すると共に、各認識対象の内から安全判断の対象となる対象者を検出する画像認識記録ステップと、
前記画像認識記録ステップに記録された前記対象者についての画像認識の認識結果に基づいて、前記対象者の予測経路を算出する予測経路算出ステップと、
前記車両の走行状態を検出する走行状態検出ステップと、
前記対象者の車両からの距離及び移動状態を検出する距離移動状態検出ステップと、
前記車両の走行状態並びに前記対象者の車両からの距離及び移動状態に基づいて、前記車両と前記対象者とが最も接近する最接近時間を算出する最接近時間算出ステップと、
前記予測経路に基づいて前記最接近時間における前記対象者の予測位置を算出し、前記画像認識記録ステップによって認識された前記対象者を除く少なくとも1つの認識対象の種類、位置及び形状と前記予測位置とに基づいて、前記対象者の安全判定を行う安全判定ステップと、
を具備する車両用安全判定方法。 - コンピュータに、
車両から観察される画像を取得する画像取得機能と、
前記画像取得機能によって取得された画像に基づいて、画像内の各認識対象の種類、位置及び形状を認識して記録すると共に、各認識対象の内から安全判断の対象となる対象者を検出する画像認識記録機能と、
前記画像認識記録機能に記録された前記対象者についての画像認識の認識結果に基づいて、前記対象者の予測経路を算出する予測経路算出機能と、
前記車両の走行状態を検出する走行状態検出機能と、
前記対象者の車両からの距離及び移動状態を検出する距離移動状態検出機能と、
前記車両の走行状態並びに前記対象者の車両からの距離及び移動状態に基づいて、前記車両と前記対象者とが最も接近する最接近時間を算出する最接近時間算出機能と、
前記予測経路に基づいて前記最接近時間における前記対象者の予測位置を算出し、前記画像認識記録機能によって認識された前記対象者を除く少なくとも1つの認識対象の種類、位置及び形状と前記予測位置とに基づいて、前記対象者の安全判定を行う安全判定機能と、
を実現させるための車両用安全判定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017149294A JP2019028840A (ja) | 2017-08-01 | 2017-08-01 | 車両用安全判定装置、方法及びプログラム |
US16/048,599 US10706296B2 (en) | 2017-08-01 | 2018-07-30 | Vehicle safety determination apparatus, method, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017149294A JP2019028840A (ja) | 2017-08-01 | 2017-08-01 | 車両用安全判定装置、方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019028840A true JP2019028840A (ja) | 2019-02-21 |
Family
ID=65229881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017149294A Pending JP2019028840A (ja) | 2017-08-01 | 2017-08-01 | 車両用安全判定装置、方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10706296B2 (ja) |
JP (1) | JP2019028840A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020202741A1 (ja) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705474B (zh) * | 2019-09-30 | 2022-05-03 | 清华大学 | 一种行人属性识别方法和装置 |
WO2022094772A1 (zh) * | 2020-11-03 | 2022-05-12 | 深圳市大疆创新科技有限公司 | 位置估计方法、跟随控制方法、设备及存储介质 |
CN116343176B (zh) * | 2023-05-30 | 2023-08-11 | 济南城市建设集团有限公司 | 一种路面异常监测系统及其监测方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004046875A (ja) | 2002-07-03 | 2004-02-12 | Iwane Kenkyusho:Kk | 交通機関自動案内装置 |
JP4716371B2 (ja) | 2006-05-19 | 2011-07-06 | 富士通株式会社 | 移動体用運転支援装置 |
US9248834B1 (en) * | 2014-10-02 | 2016-02-02 | Google Inc. | Predicting trajectories of objects based on contextual information |
JP2016192104A (ja) | 2015-03-31 | 2016-11-10 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法及びプログラム |
-
2017
- 2017-08-01 JP JP2017149294A patent/JP2019028840A/ja active Pending
-
2018
- 2018-07-30 US US16/048,599 patent/US10706296B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020202741A1 (ja) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190042862A1 (en) | 2019-02-07 |
US10706296B2 (en) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2015262344B2 (en) | Processing apparatus, processing system, processing program, and processing method | |
US10387733B2 (en) | Processing apparatus, processing system, and processing method | |
JP2019028840A (ja) | 車両用安全判定装置、方法及びプログラム | |
Jain et al. | Lookup: Enabling pedestrian safety services via shoe sensing | |
US10336252B2 (en) | Long term driving danger prediction system | |
JP4670805B2 (ja) | 運転支援装置、及びプログラム | |
US9424468B2 (en) | Moving object prediction device, hypothetical movable object prediction device, program, moving object prediction method and hypothetical movable object prediction method | |
JP4614005B2 (ja) | 移動軌跡生成装置 | |
JP5938569B2 (ja) | 方位情報を考慮する高度運転者支援システム、及びその動作方法 | |
US20150332103A1 (en) | Processing apparatus, computer program product, and processing method | |
JP5587170B2 (ja) | 運転支援装置及びプログラム | |
KR20180099280A (ko) | 가상 차로 생성 장치 및 방법 | |
JP2018197964A (ja) | 車両の制御方法及び装置 | |
JP5535816B2 (ja) | 移動物予測装置及びプログラム | |
KR102101956B1 (ko) | 보행자 검지를 이용한 어린이보호구역 단속시스템 | |
JP6418574B2 (ja) | 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム | |
JP5898001B2 (ja) | 車両周辺監視装置 | |
KR20180092781A (ko) | 맞춤형 ui 제공 자율 주행 차량의 주행 정보를 표시하는 방법, 이를 위한 차량용 단말 및 관리자 단말 | |
JP2017151694A (ja) | 安全確認診断システム及び安全確認診断方法 | |
KR102310433B1 (ko) | 보행자를 감지하여 운전자에게 경고하는 시스템 및 방법 | |
JP2020013173A (ja) | 運転支援装置および運転支援方法 | |
JP2020129331A (ja) | 逆走判定システム、逆走判定方法、及び逆走判定プログラム | |
JP2011034128A (ja) | 運転誘導装置 | |
KR20170082840A (ko) | 통행 보조 장치 및 방법 | |
KR102310434B1 (ko) | 보행자의 보행패턴을 저장하여 보행패턴에 따라 도로 횡단을 예측하는 시스템 및 방법 |