JP7416276B2 - 不安全運転検出装置、方法、及びプログラム - Google Patents

不安全運転検出装置、方法、及びプログラム Download PDF

Info

Publication number
JP7416276B2
JP7416276B2 JP2022551524A JP2022551524A JP7416276B2 JP 7416276 B2 JP7416276 B2 JP 7416276B2 JP 2022551524 A JP2022551524 A JP 2022551524A JP 2022551524 A JP2022551524 A JP 2022551524A JP 7416276 B2 JP7416276 B2 JP 7416276B2
Authority
JP
Japan
Prior art keywords
vehicle
movement vector
image
behavior
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022551524A
Other languages
English (en)
Other versions
JPWO2022064641A5 (ja
JPWO2022064641A1 (ja
Inventor
康則 二木
康博 水越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022064641A1 publication Critical patent/JPWO2022064641A1/ja
Publication of JPWO2022064641A5 publication Critical patent/JPWO2022064641A5/ja
Application granted granted Critical
Publication of JP7416276B2 publication Critical patent/JP7416276B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、車両行動推定装置、不安全運転検出装置、方法、及びコンピュータ可読媒体に関する。
関連技術として、特許文献1は、危険運転を抽出する危険運転解析装置を開示する。特許文献1に記載の危険運転解析装置は、車両の走行情報及び操作情報を取得する。走行情報は、車両の速度及び加速度の情報を含む。操作情報は、ブレーキ操作の有無、操舵角、方向指示器の操作の有無、及びアクセルの操作の有無などを含む。危険運転解析装置は、走行情報及び操作情報に基づいて、車両が直進状態にあるのか、右折若しくは左折状態にあるのか、又は停止状態にあるのかなどの走行状態を判断する。危険運転解析装置は、車両の地図上の位置及び走行状態などに基づいて、危険運転パターンを特定する。
別の関連技術として、特許文献2は、車両周辺に存在する障害物を検知する周辺監視装置を開示する。特許文献2に記載の周辺監視装置は、カメラにより撮像された車両周辺の映像から特徴点を抽出する。周辺監視装置は、抽出された特徴点の近傍エリアにおいて、所定速度範囲の速さで移動する特徴点を特定し、特定した特徴点を追跡する。周辺監視装置は、所定速度範囲の速さで移動する特徴点のうち同一移動物を構成すると推定される特徴点を一つにまとめてグルーピングし、グループ化された特徴点を追跡する。
上記周辺監視装置は、車速センサ、舵角センサ、及び、ヨーレートセンサの出力信号に基づいて、車両が所定車速範囲内で旋回中であるか否かを判定する。周辺監視装置は、車両が旋回中であると判定した場合、同一のグループに属する各特徴点の移動ベクトルの全てが、旋回方向に対応する所定方向に向いているか否かを判定する。周辺監視装置は、各特徴点の移動ベクトルの全てが所定方向に向いていないグループは、移動物に対応するグループであると判定し、移動物の存在を運転者に視覚的に知らせる。周辺監視装置は、各特徴点の移動ベクトルの全てが所定方向に向いているグループは移動物に対応したグループではないと判定し、運転者への通知は行わない。
特開2011-227571号公報 特開2015-158874号公報
特許文献1では、車両の運転状態(車両行動)の判定に、車両から取得される、車速や舵角などの情報が使用される。このため、特許文献1に記載の危険運転解析装置は、車両から情報を取得するために、車載ネットワークに接続される必要がある。特許文献2に記載の周辺監視装置も、同様に、車両から取得される情報を使用して旋回中か否かを判定している。このため、周辺監視装置は、車載ネットワークに接続される必要がある。
本開示は、上記事情に鑑み、車載ネットワークに接続されない場合であっても、車両行動の推定が可能な車両行動推定装置、不安全運転検出装置、車両行動推定方法、不安全運転検出方法、及びコンピュータ可読媒体を提供することを目的とする。
上記目的を達成するために、本開示は、第1の態様として、車両行動推定装置を提供する。車両行動推定装置は、動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算する移動ベクトル計算手段と、前記車両の前方の映像に含まれる移動可能物体を示す領域を推定する領域推定手段と、前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去するベクトル除去手段と、前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定する行動推定手段とを備える。
本開示は、第2の態様として、不安全運転検出装置を提供する。不安全運転検出装置は、動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算する移動ベクトル計算手段と、前記車両の前方の映像に含まれる移動可能物体を示す領域を推定する領域推定手段と、前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去するベクトル除去手段と、前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定する行動推定手段と、前記車両の周囲情報を取得する周囲情報取得手段と、前記車両の運転者の体勢情報を取得する体勢情報取得手段と、前記推定された車両の行動、前記車両の周囲情報、及び前記運転者の体勢情報の少なくとも1つに基づいて、前記車両の不安全運転を検出する不安全運転検出手段とを備える。
本開示は、第3の態様として、車両行動推定方法を提供する。車両行動推定方法は、動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算し、前記車両の前方の映像に含まれる移動可能物体を示す領域を推定し、前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去し、前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定することを含む。
本開示は、第4の態様として、不安全運転検出方法を提供する。不安全運転検出方法は、動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算し、前記車両の前方の映像に含まれる移動可能物体を示す領域を推定し、前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去し、前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定し、前記車両の周囲情報を取得し、前記車両の運転者の体勢情報を取得し、前記推定された車両の行動、前記車両の周囲情報、及び前記運転者の体勢情報の少なくとも1つに基づいて、前記車両の不安全運転を検出することを含む。
本開示は、第5の態様として、コンピュータ可読媒体を提供する。コンピュータ可読媒体は、動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算し、前記車両の前方の映像に含まれる移動可能物体を示す領域を推定し、前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去し、前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定する処理をプロセッサに実行させるためのプログラムを格納する。
本開示は、第6の態様として、コンピュータ可読媒体を提供する。コンピュータ可読媒体は、動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算し、前記車両の前方の映像に含まれる移動可能物体を示す領域を推定し、前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去し、前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定し、前記車両の周囲情報を取得し、前記車両の運転者の体勢情報を取得し、前記推定された車両の行動、前記車両の周囲情報、及び前記運転者の体勢情報の少なくとも1つに基づいて、前記車両の不安全運転を検出する処理をプロセッサに実行させるためのプログラムを格納する。
本開示に係る車両行動推定装置、不安全運転検出装置、車両行動推定方法、不安全運転検出方法、及びコンピュータ可読媒体は、車載ネットワークに接続されない場合であっても、車両行動を推定することができる。
本開示に係る車両行動推定装置を示すブロック図。 車両行動推定装置を含む不安全運転検出装置を示すブロック図。 本開示の第1実施形態に係る不安全運転検出装置を示すブロック図。 領域認識の結果の例を示す図。 不安全運転検出装置の動作手順を示すフローチャート。 車両の左折時の各映像の移動ベクトルを示す図。 車両の右折時の各映像の移動ベクトルを示す図。 本開示の第3実施形態に係る不安全運転検出装置を示すブロック図。 電子機器のハードウェア構成を示すブロック図。
本開示の実施の形態の説明に先立って、本開示の概要を説明する。図1は、本開示に係る車両行動推定装置を示す。車両行動推定装置10は、移動ベクトル計算手段11、領域推定手段12、ベクトル除去手段13、及び行動推定手段14を有する。
移動ベクトル計算手段11には、カメラ30を用いて撮影された動画像が入力される。カメラ30は、車両の前方の映像を含む動画像を撮影する。移動ベクトル計算手段11は、車両の前方の映像のフレーム間の移動ベクトルを計算する。領域推定手段12は、カメラ30を用いて撮影された車両の前方の映像に含まれる移動可能物体を示す領域を推定する。
ベクトル除去手段13は、移動ベクトル計算手段11で計算された移動ベクトルのうち、領域推定手段12にて移動可能物体を示す領域として推定された領域の移動ベクトルを除去する。行動推定手段14は、ベクトル除去手段13にて移動可能物体の領域と推定された領域が除去された移動ベクトルに基づいて、車両の行動を推定する。
仮に、行動推定手段14が、移動ベクトル計算手段11で計算された移動ベクトルの全てを用いて車両の行動を推定したとする。その場合、映像に他の車両や人などが含まれると、車両が停止している場合でも、他の車両などが動いていることで、車両が走行していると誤って推定される可能性がある。本開示では、行動推定手段14は、移動ベクトル計算手段11が計算した移動ベクトルのうち、移動可能物体の領域と推定された領域を除く領域の移動ベクトルに基づいて、車両の行動を推定する。このようにすることで、行動推定手段14は、他の車両などの動きの影響を受けずに、精度よく車両の行動を推定できる。
本開示では、車両行動推定装置10は、車両の前方の映像を含む動画像から、車両の行動を推定できる。このため、車両行動推定装置10は、車両から車両の情報を取得する必要がない。本開示に係る車両行動推定装置10は、車載ネットワークに接続されない場合であっても、映像から、車両の行動を精度よく推定することができる。
上記車両行動推定装置10は、不安全運転検出装置に用いられ得る。図2は、上記車両行動推定装置10を含む不安全運転検出装置を示す。不安全運転検出装置20は、車両行動推定装置10に加えて、周囲情報取得手段21、体勢情報取得手段22、及び不安全運転検出手段23を有する。
周囲情報取得手段21は、車両の周囲情報を取得する。体勢情報取得手段22は、車両の運転者の体勢情報を取得する。不安全運転検出手段23は、車両行動推定装置10によって推定された車両の行動、周囲情報取得手段21が取得した車両の周囲情報、及び体勢情報取得手段22が取得した運転者の体勢情報の少なくとも1つに基づいて、車両の不安全運転を検出する。
本開示に係る不安全運転検出装置20は、車両行動推定装置10が推定した車両行動を用いて、車両の不安全運転を検出する。上記したように、車両行動推定装置10は、車載ネットワークに接続されない場合でも車両の行動を精度よく推定できる。このため、不安全運転検出装置20は、車載ネットワークに接続されない場合でも、推定された車両の行動を用いて、不安全運転を検出することができる。
以下、本開示の実施の形態を詳細に説明する。図3は、本開示の第1実施形態に係る不安全運転検出装置を示す。不安全運転検出装置100は、移動ベクトル計算部101、領域認識部102、移動物体領域除去部103、行動推定部104、周囲情報取得部120、体勢情報取得部130、及び不安全運転検出部140を有する。移動ベクトル計算部101、領域認識部102、移動物体領域除去部103、及び行動推定部104は、車両行動推定装置110を構成する。車両行動推定装置110は、図1に示される車両行動推定装置10に対応する。
不安全運転検出装置100は、例えば、車両に後から取り付け可能な電子機器として構成される。不安全運転検出装置100は、車両に取り付けられる電子機器に内蔵されていてもよい。例えば、不安全運転検出装置100は、車両の外部を撮影するカメラと、撮影した映像を記録媒体に記録するコントローラとを含むドライブレコーダに内蔵される。不安全運転検出装置100は、車両の車載ネットワークなどには接続されている必要はない。別の言い方をすれば、不安全運転検出装置100は、CAN(Controller Area Network)バスなどを通じて車両の情報を取得可能な装置として構成されていなくてもよい。不安全運転検出装置100は、図2に示される不安全運転検出装置20に対応する。
車両行動推定装置110は、車両に搭載されるカメラ200を用いて撮影された映像を用いて、車両の行動を推定する。カメラ200は、車両の前方の外部の映像を撮影する。カメラ200は、例えば、ウィンドシールドのルームミラーの根元などの位置に、車両の外部に向けて設置される。カメラ200は、例えば、車両の前方、後方、右側面、左側面、及び車室を撮影する360度カメラであってもよい。カメラ200は、撮影した映像を、動画像として車両行動推定装置110に出力する。カメラ200は、車両行動推定装置110の一部であってもよい。カメラ200は、図1に示されるカメラ30に対応する。
移動ベクトル計算部101は、カメラ200から車両の前方の映像を含む動画像を取得する。移動ベクトル計算部101は、車両の前方の映像のフレーム間の移動ベクトルを計算する。移動ベクトル計算部101は、例えば、フレーム間における、光学的な各点の動き(オプティカルフロー)を計算する。オプティカルフローの計算には、任意のアルゴリズムを用いることができる。移動ベクトル計算部101は、カメラ200が360度カメラなどの、車両の前方以外の映像も撮影するカメラである場合は、動画像のうち、車両の前方の映像に対応する領域についてオプティカルフローを計算すればよい。移動ベクトル計算部101は、図1に示される移動ベクトル計算手段11に対応する。
領域認識部102は、カメラ200が撮影した映像に対して領域認識処理を行う。領域認識部102は、例えばフレームごとに、各ピクセルが何に対応する領域であるかを推定する。領域認識部102は、例えばピクセルが、自動車、人、二輪車、道路、建物、空、植栽、又は白線などの路上標示のどれに対応したピクセルであるかを推定する。領域認識部102は、特に、車両の前方の映像に含まれる移動可能物体を示す領域を推定する。領域認識部102は、例えば、自動車及び二輪車などの車両に対応する領域と、人の領域とを、移動可能物体の領域として推定する。領域認識部102は、図1に示される領域推定手段12に対応する。
図4は、領域認識の結果の例を示す。図4の例では、領域認識部102が認識した道路上に存在する人の領域301と、車両の領域302とが示されている。領域認識部102は、人の領域301と車両の領域302とを含む領域認識結果を、移動物体領域除去部103及び周囲情報取得部120に出力する。領域認識部102は、移動物体領域除去部103には、移動可能物体の領域を示す情報のみを、領域認識結果として出力してもよい。
移動物体領域除去部103は、領域認識部102の領域認識結果を参照し、移動ベクトル計算部101で計算された移動ベクトルのうち、移動可能物体の領域として推定された領域の移動ベクトルを除去する。移動物体領域除去部103は、例えば車両の前方の映像のオプティカルフローから、人の領域301及び車両の領域302の移動ベクトルを除去する。移動物体領域除去部103は、移動可能物体の領域の移動ベクトルが除去されたオプティカルフローを、行動推定部104に出力する。移動物体領域除去部103は、図1に示されるベクトル除去手段13に対応する。
行動推定部104は、移動物体領域除去部103から入力される、移動可能物体の領域が除去されたオプティカルフローを参照し、車両の行動を推定する。行動推定部104は、例えば、オプティカルフローに基づいて、車両が走行しているか、停止しているか、右折しているか、又は左折しているかを推定する。行動推定部104は、例えば移動ベクトルの大きさが所定のしきい値以下の場合、車両は停止していると推定する。行動推定部104は、例えば移動ベクトルの大きさが所定のしきい値より大きい場合、車両は走行していると推定する。行動推定部104は、例えば移動ベクトルの向きに基づいて、車両が右折しているか、又は左折しているかを推定する。行動推定部104は、図1に示される行動推定手段14に対応する。
周囲情報取得部120は、車両の周囲の情報を取得する。本実施形態において、周囲情報取得部120は、領域認識部102が行った領域認識の結果を参照し、車両の周囲の情報を取得する。例えば、周囲情報取得部120は、領域認識部102で推定された車両を示す領域、人を示す領域、道路を示す領域、及び路面標示を示す領域を参照し、車両の周囲情報を取得する。周囲情報取得部120は、例えば車両の周囲に他の車両や人が存在するか否かを示す情報、及び車両の前方に横断歩道が存在するか否かを示す情報などの情報を、車両の周囲情報として取得する。周囲情報取得部120は、図2に示される周囲情報取得手段21に対応する。
体勢情報取得部130は、車両の運転者の体勢情報を取得する。体勢情報取得部130は、例えばカメラ201を用いて撮影された映像から、運転者の体勢情報を取得してもよい。カメラ201は、車両の運転席を含む車両内部の映像を撮影する。体勢情報取得部130は、例えば、運転者の画像から運転者の骨格構造を推定し、推定した骨格構造に基づいて運転者の体勢を推定する。カメラ201は、不安全運転検出装置100の一部であってもよい。カメラ200が360度カメラなどの車内の映像を撮影するカメラである場合、体勢情報取得部130は、カメラ200が撮影した映像を用いて運転者の体勢情報を取得してもよい。その場合、カメラ201は省略可能である。体勢情報取得部130は、図2に示される体勢情報取得手段22に対応する。
不安全運転検出部140は、行動推定部104で推定された車両の行動、周囲情報取得部120が取得した車両の周囲情報、及び体勢情報取得部130が取得した運転者の体勢情報の少なくとも1つに基づいて、車両の不安全運転を検出する。例えば、不安全運転検出部140は、運転者の体勢情報に基づいて運転者の顔の向きなどを判定し、運転者が脇見しているか否かを判定する。また、不安全運転検出部140は、運転者の体勢情報に基づいて、運転者の手が頭部に近づいているか否かを判定し、運転者が運転以外の動作をしているか否かを判定する。不安全運転検出部140は、車両の周囲情報に基づいて、他の車両の有無や、横断歩道の有無などを判定する。不安全運転検出部140は、車両の行動と、運転者の体勢と、周囲の状況との組み合わせに応じて、不安全運転を検出する。不安全運転は、例えば、危険が生じ得る可能性がある運転、及びあらかじめ定められたルールに従わない運転などを示す。
不安全運転検出部140は、例えば、不安全運転検出の条件を記憶する。不安全運転検出部140は、車両の行動と、運転者の体勢と、周囲の状況との組み合わせが、不安全運転検出の条件に一致するか否かを判定する。不安全運転検出部140は、上記組み合わせが不安全運転検出の条件と一致すると判定した場合、不安全運転を検出する。例えば、不安全運転検出部140は、例えば車両が走行しており、運転者の体勢が脇見運転の状態を示し、かつ車両の周囲に他の車両が存在する場合、不安全運転を検出する。不安全運転検出部140は、例えば車両が停止している場合は、運転者の体勢が脇見運転の状態を示し、かつ車両の周囲に他の車両が存在する場合でも、不安全運転ではないと判定する。不安全運転検出部140は、図2に示される不安全運転検出手段23に対応する。
次いで、動作手順を説明する。図5は、不安全運転検出装置100の動作手順(不安全運転検出方法)を示す。移動ベクトル計算部101は、カメラ200から入力される動画像から、車両の前方の映像の各ピクセルのフレーム間の移動ベクトルを計算する(ステップS1)。領域認識部102は、カメラ200から入力される車両の前方の映像に対して領域認識を行う(ステップS2)。領域認識部102は、ステップS2では、車両の前方の映像に含まれる移動可能物体の領域などを識別する。
移動物体領域除去部103は、ステップS2の領域認識結果を参照し、ステップS1で計算された移動ベクトルから、移動可能物体の領域に対応する移動ベクトルを除去する(ステップS3)。行動推定部104は、ステップS3で移動可能物体の領域が除去された移動ベクトルに基づいて、車両の行動を推定する(ステップS4)。ステップS1からステップS4は、車両行動推定装置110で実施される車両行動推定方法に対応する。
周囲情報取得部120は、車両の周囲情報を取得する(ステップS5)。周囲情報取得部120は、ステップS5では、例えば、ステップS2の領域認識結果に基づいて車両の周囲情報を取得する。体勢情報取得部130は、車両の運転者の体勢情報を取得する(ステップS6)。体勢情報取得部130は、ステップS6では、例えば、カメラ201を用いて撮影された映像に基づいて運転者の骨格構造を推定し、推定した骨格構造に基づいて運転者の体勢情報を取得してもよい。
不安全運転検出部140は、ステップS4で推定された車両の行動、ステップS5で取得された車両の周囲情報、及びステップS6で取得された運転者の体勢情報の少なくとも1つに基づいて、不安全運転を検出する(ステップS7)。不安全運転検出部140は、ステップS7では、例えば車両の行動と、車両の周囲情報と、運転者の体勢情報との組み合わせが、所定の条件に一致する場合、不安全運転を検出する。不安全運転検出部140は、不安全運転を検出した場合、警告音などをスピーカなどから出力させ、不安全運転の検出を運転者に通知してもよい。
本実施形態では、移動物体領域除去部103は、移動ベクトル計算部101で計算された移動ベクトルのうち、領域認識部102にて移動可能物体の領域と識別された領域の移動ベクトルを除去する。行動推定部104は、移動物体領域除去部103にて移動可能物体の領域が除去された移動ベクトルを用いて、車両の行動を推定する。本実施形態では、行動推定部104は、車両の動きとは無関係に動く可能性がある領域の移動ベクトルを除外して、車両の行動を推定できる。このため、行動推定部104は、車両の行動を、精度よく推定できる。また、本実施形態において、車両行動推定装置110は、車両の行動の推定にカメラ200を用いて撮影された映像を用いる。このため、車両行動推定装置110は、車両から車速や操舵角などの情報を取得する必要がなく、車載ネットワークに接続されている必要はない。不安全運転検出装置100は、車載ネットワークに接続されていない場合でも、推定された車両の行動に応じて、不安全運転を検出することができる。
続いて、本開示の第2実施形態を説明する。本開示の第2実施形態に係る不安全運転検出装置の構成は、図3に示される第1実施形態で説明した不安全運転検出装置100の構成と同じでよい。本実施形態において、車両行動推定装置110は、車両の前方の映像だけでなく、車両の右側方の映像、及び左側方の映像を用いて車両の行動を推定する。他の動作は、第1実施形態における動作と同様でよい。
本実施形態において、カメラ200は、例えば360度カメラとして構成されており、車両の前方、車両の右側方、及び車両の左側方を撮影する。右側方の映像は、例えば車両の前席の右側の窓の外側の映像である。左側方の映像は、例えば車両の前席の左側の窓の外側の映像である。1つのカメラで車両の前方、車両の右側方、及び車両の左側方を撮影するのに代えて、複数のカメラを用いて、車両の前方、車両の右側方、及び車両の左側方を撮影してもよい。
移動ベクトル計算部101は、車両の前方の映像のフレーム間の移動ベクトルに加えて、車両の右側方の映像のフレーム間の移動ベクトル、及び車両の左側方の映像のフレーム間の移動ベクトルを計算する。移動ベクトル計算部101は、例えば、360度カメラを用いて撮影された動画像における、車両のウィンドシールドに対応する領域の映像を用いて車両の前方の映像のフレーム間の移動ベクトルを計算する。移動ベクトル計算部101は、360度カメラを用いて撮影された動画像における、車両の右側の窓に対応する領域の映像を用いて車両の右側方の映像のフレーム間の移動ベクトルを計算する。移動ベクトル計算部101は、360度カメラを用いて撮影された動画像における、車両の左側の窓に対応する領域の映像を用いて車両の左側方の映像のフレーム間の移動ベクトルを計算する。
領域認識部102は、車両の前方の映像だけなく、車両の右側方の映像、及び左側方の映像に対しても領域認識を行う。領域認識部102は、車両の右側方の映像に含まれる移動可能物体を示す領域、及び車両の左側方の映像に含まれる移動可能物体を示す領域を識別する。領域認識部102は、例えば、360度カメラを用いて撮影された動画像における、車両のウィンドシールドに対応する領域の映像に対して領域認識を行う。領域認識部102は、360度カメラを用いて撮影された動画像における、車両の右側の窓に対応する領域の映像に対して領域認識を行う。領域認識部102は、360度カメラを用いて撮影された動画像における、車両の左側の窓に対応する領域の映像に対して領域認識を行う。
移動物体領域除去部103は、車両の前方の映像のフレーム間の移動ベクトルから、車両の前方の映像に含まれる移動可能物体の領域の移動ベクトルを除去する。また、移動物体領域除去部103は、車両の右側方の映像のフレーム間の移動ベクトルから、車両の右側方の映像に含まれる移動可能物体の領域の移動ベクトルを除去する。移動物体領域除去部103は、車両の左側方の映像のフレーム間の移動ベクトルから、移動可能物体の領域の移動ベクトルを除去する。
行動推定部104は、それぞれ移動可能物体の領域が除去された、車両の前方の映像の移動ベクトル、車両の右側方の映像の移動ベクトル、及び車両の左側方の映像の移動ベクトルに基づいて、車両の行動を推定する。行動推定部104は、例えば、主に車両の前方の映像の移動ベクトルに基づいて車両の行動を推定する。行動推定部104は、車両の右側方の映像の移動ベクトル、及び車両の左側方の映像の移動ベクトルを補助的に使用し、車両が右折しているか、又は左折しているかを推定してもよい。
図6は、車両の左折時の各映像の移動ベクトルを示す。図6において、移動ベクトル(オプティカルフロー)400Fは、車両の前方の映像から計算された移動ベクトルを示す。移動ベクトル400Rは、車両の右側方の映像から計算された移動ベクトルを示す。移動ベクトル400Lは、車両の左側方の映像から計算された移動ベクトルを示す。移動ベクトル400F、400R、及び400Lにおいて、移動可能物体の領域の移動ベクトルは移動物体領域除去部103により除去されている。
車両が左折する場合、移動ベクトル400F、400R、及び400Lは全体として右方向を向くと考えられる。このとき、車両の回転半径が車両の右側と左側とで異なることに起因して、車両の右側方の映像の移動ベクトル400Rと、車両の左側方の映像の移動ベクトル400Lとで、ベクトルの大きさが異なると考えられる。行動推定部104は、車両の右側方の映像の移動ベクトル400Rの大きさと、車両の左側方の映像の移動ベクトル400Lの大きさとの差を計算する。行動推定部104は、左右の映像の移動ベクトルの差と、車両の前方の映像の移動ベクトル400Fとに基づいて、車両が右折しているか、又は左折しているかを推定する。行動推定部104は、図6に示されるように、車両の前方の映像の移動ベクトル400Fが右方向を向き、かつ、移動ベクトル400Lの大きさが移動ベクトル400Rの大きさより小さい場合、車両は左折していると推定してもよい。
図7は、車両の右折時の各映像の移動ベクトルを示す。車両が右折する場合、上記とは逆に、移動ベクトル400F、400R、及び400Lは全体として左方向を向くと考えられる。このとき、車両の回転半径の差に起因して、車両の右側方の映像の移動ベクトル400Rと、車両の左側方の映像の移動ベクトル400Lとで、ベクトルの大きさが異なると考えられる。行動推定部104は、図7に示されるように、車両の前方の映像の移動ベクトルが左方向を向き、かつ、移動ベクトル400Rの大きさが移動ベクトル400Lの大きさより小さい場合、車両は右折していると推定してもよい。
本実施形態では、行動推定部104は、車両の前方の映像の移動ベクトルに加えて、車両の右側方の映像の移動ベクトル、及び左側方の映像の移動ベクトルを用いて、車両の行動を推定する。行動推定部104は、車両の右側方の映像の移動ベクトルの大きさと、左側方の映像の移動ベクトルの大きさとの差を参照することで、車両が右折しているか、又は左折しているかを精度よく推定することができる。他の効果は、第1実施形態における効果と同様である。
続いて、本開示の第3実施形態を説明する。図8は、本開示の第3実施形態に係る不安全運転検出装置を示す。本開示に係る不安全運転検出装置100aは、車両行動推定装置110aが位置情報取得部105を有する点で、図3に示される第1実施形態に係る不安全運転検出装置100と異なる。本実施形態において、行動推定部104は、第2実施形態と同様に、車両の右側方の映像の移動ベクトル、及び車両の左側方の映像の移動ベクトルを更に用いて、車両の行動を推定してもよい。
位置情報取得部105は、車両の位置情報を取得する。位置情報取得部105は、例えばGNSS(Global Navigation Satellite System)を利用して、車両の位置情報を取得する。行動推定部104は、移動可能物体の領域が除去された移動ベクトルと、位置情報取得部105が取得した位置情報を用いて、車両の行動を推定する。行動推定部104は、例えば車両の位置情報の変化に基づいて、移動ベクトルに基づく車両の行動の推定結果を補正してもよい。
本実施形態では、行動推定部104は、移動ベクトル計算部101が計算した移動ベクトルに加えて、位置情報取得部105が取得した位置情報を用いて、車両の行動を推定する。行動推定部104は、例えば、位置情報を時系列で参照することで、車両が動いているか否か、車両がどの方向に動いているかなどを推定できる。従って、行動推定部104は、更に精度よく、車両の行動の推定することができる。
なお、上記実施形態では、車両行動推定装置110が不安全運転検出装置100に含まれる例を説明したが、本開示はこれには限定されない。車両行動推定装置110と不安全運転検出装置100とは、別々の装置として構成されていてもよい。また、上記実施形態では、車両行動推定装置110が推定した車両の行動が不安全運転検出装置100で使用される例を説明したが、本開示はこれには限定されない。車両行動推定装置110は、不安全運転検出装置100とは異なる装置に、車両の行動の推定結果を出力してもよい。
本開示において、不安全運転検出装置100及び車両行動推定装置110は、はプロセッサを有する電子機器として構成され得る。図9は、不安全運転検出装置100及び車両行動推定装置110に使用され得る電子機器のハードウェア構成を示す。電子機器500は、プロセッサ501、ROM(read only memory)502、及びRAM(random access memory)503を有する。電子機器500において、プロセッサ501、ROM502、及びRAM503は、バス504を介して相互に接続される。電子機器500は、図示は省略するが、周辺回路、及びインタフェース回路などの他の回路を含み得る。
ROM502は、不揮発性の記憶装置である。ROM502には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。ROM502は、プロセッサ501が実行するプログラムを格納する。
上記プログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、電子機器500に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体を含む。非一時的なコンピュータ可読媒体の例は、例えばフレキシブルディスク、磁気テープ、又はハードディスクなどの磁気記録媒体、例えば光磁気ディスクなどの光磁気記録媒体、CD(compact disc)、又はDVD(digital versatile disk)などの光ディスク媒体、及び、マスクROM、PROM(programmable ROM)、EPROM(erasable PROM)、フラッシュROM、又はRAMなどの半導体メモリを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体を用いて電子機器に供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路、又は無線通信路を介して、プログラムを電子機器に供給できる。
RAM503は、揮発性の記憶装置である。RAM503には、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)などの各種半導体メモリデバイスが用いられる。RAM540は、データなどを一時的に格納する内部バッファとして用いられ得る。
プロセッサ501は、ROM502に格納されたプログラムをRAM503に展開し、プログラムを実行する。プロセッサ501がプログラムを実行することで、不安全運転検出装置100及び車両行動推定装置110の各部の機能が実現され得る。
以上、本開示の実施形態を詳細に説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本開示に含まれる。
例えば、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算する移動ベクトル計算手段と、
前記車両の前方の映像に含まれる移動可能物体を示す領域を推定する領域推定手段と、
前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去するベクトル除去手段と、
前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定する行動推定手段とを備える車両行動推定装置。
[付記2]
前記移動ベクトル計算手段は、フレーム間における、光学的な各点の動きを前記移動ベクトルとして計算する付記1に記載の車両行動推定装置。
[付記3]
前記行動推定手段は、前記車両が走行しているか、停止しているか、右折しているか、又は左折しているかを推定する付記1又は2に記載の車両行動推定装置。
[付記4]
前記移動ベクトル計算手段は、360度カメラを用いて撮影された動画像における、前記車両の前方に対応する領域の映像を用いて、車両の前方の映像のフレーム間の移動ベクトルを計算する付記1から3何れか1つに記載の車両行動推定装置。
[付記5]
前記移動ベクトル計算手段は、動画像として入力される、前記車両の右側方の映像のフレーム間の移動ベクトル、及び動画像として入力される、前記車両の左側方の映像のフレーム間の移動ベクトルを更に計算し、
領域推定手段は、前記車両の右側方の映像に含まれる移動可能物体を示す領域、及び前記車両の左側方の映像に含まれる移動可能物体を示す領域を更に推定し、
前記ベクトル除去手段は、前記車両の右側方の映像のフレーム間の移動ベクトル、及び前記車両の左側方の映像のフレーム間の移動ベクトルから、前記移動可能物体を示す領域として推定された領域の移動ベクトルを更に除去する付記1から4何れか1つに記載の車両行動推定装置。
[付記6]
行動推定手段は、前記移動可能物体を示す領域として推定された領域が除去された前記車両の右側方の映像のフレーム間の移動ベクトルと前記移動可能物体を示す領域として推定された領域が除去された前記車両の左側方の映像のフレーム間の移動ベクトルとの差と、前記移動可能物体を示す領域として推定された領域が除去された前記車両の前方の映像のフレーム間の移動ベクトルとに基づいて、前記車両が右折しているか、又は左折しているかを推定する付記5に記載の車両行動推定装置。
[付記7]
前記移動ベクトル計算手段は、360度カメラを用いて撮影された動画像における、前記車両の右側方に対応する領域の映像を用いて前記車両の右側方の映像のフレーム間の移動ベクトルを計算し、前記車両の左側方に対応する領域の映像を用いて前記車両の左側方の映像のフレーム間の移動ベクトルを計算する付記5又は6に記載の車両行動推定装置。
[付記8]
前記車両の位置を計測する位置計測手段を更に有し、
前記行動推定手段は、更に前記車両の位置計測結果に基づいて前記車両の行動を推定する付記1から7何れか1つに記載の車両行動推定装置。
[付記9]
動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算する移動ベクトル計算手段と、
前記車両の前方の映像に含まれる移動可能物体を示す領域を推定する領域推定手段と、
前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去するベクトル除去手段と、
前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定する行動推定手段と、
前記車両の周囲情報を取得する周囲情報取得手段と、
前記車両の運転者の体勢情報を取得する体勢情報取得手段と、
前記推定された車両の行動、前記車両の周囲情報、及び前記運転者の体勢情報の少なくとも1つに基づいて、前記車両の不安全運転を検出する不安全運転検出手段とを備える不安全運転検出装置。
[付記10]
前記領域推定手段は、更に道路を示す領域、及び路面標示を示す領域を推定し、
前記周囲情報取得手段は、前記推定された道路を示す領域、及び路面標示を示す領域に基づいて、前記車両の周囲情報を取得する付記9に記載の不安全運転検出装置。
[付記11]
前記体勢情報取得手段は、前記車両の運転者を撮影した映像に基づいて前記運転者の体勢情報を取得する付記9又は10に記載の不安全運転検出装置。
[付記12]
動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算し、
前記車両の前方の映像に含まれる移動可能物体を示す領域を推定し、
前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去し、
前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定する車両行動推定方法。
[付記13]
動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算し、
前記車両の前方の映像に含まれる移動可能物体を示す領域を推定し、
前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去し、
前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定し、
前記車両の周囲情報を取得し、
前記車両の運転者の体勢情報を取得し、
前記推定された車両の行動、前記車両の周囲情報、及び前記運転者の体勢情報の少なくとも1つに基づいて、前記車両の不安全運転を検出する不安全運転検出方法。
[付記14]
動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算し、
前記車両の前方の映像に含まれる移動可能物体を示す領域を推定し、
前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去し、
前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定する処理をプロセッサに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
[付記15]
動画像として入力される、車両の前方の映像のフレーム間の移動ベクトルを計算し、
前記車両の前方の映像に含まれる移動可能物体を示す領域を推定し、
前記計算された移動ベクトルのうち、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去し、
前記移動可能物体を示す領域として推定された領域が除去された移動ベクトルに基づいて、前記車両の行動を推定し、
前記車両の周囲情報を取得し、
前記車両の運転者の体勢情報を取得し、
前記推定された車両の行動、前記車両の周囲情報、及び前記運転者の体勢情報の少なくとも1つに基づいて、前記車両の不安全運転を検出する処理をプロセッサに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
10:車両行動推定装置
11:移動ベクトル計算手段
12:領域推定手段
13:ベクトル除去手段
14:行動推定手段
20:不安全運転検出装置
21:周囲情報取得手段
22:体勢情報取得手段
23:不安全運転検出手段
30:カメラ
100:不安全運転検出装置
101:移動ベクトル計算部
102:領域認識部
103:移動物体領域除去部
104:行動推定部
105:位置情報取得部
110:車両行動推定装置
120:周囲情報取得部
130:体勢情報取得部
140:不安全運転検出部
200、201:カメラ

Claims (9)

  1. 動画像として入力される、車両の周囲の映像のフレーム間の移動ベクトルを計算する移動ベクトル計算手段と、
    前記車両の周囲の映像のフレームごとに、前記フレームに含まれる物体を示す領域、及び前記物体の種別を推定する領域推定手段と、
    算された前記移動ベクトルから、推定された前記種別が車両又は人を含む移動可能物体である領域の移動ベクトルを除去するベクトル除去手段と、
    推定された前記種別が移動可能物体である領域が除去された移動ベクトルに基づいて、前記車両の行動を推定する行動推定手段と
    前記車両の行動、および、前記物体の種別を含む前記車両の周囲情報に基づいて、前記車両の不安全運転を検出する不安全運転検出手段とを備える不安全運転検出装置。
  2. 前記行動推定手段は、前記車両が走行しているか、停止しているか、右折しているか、又は左折しているかを推定する請求項1に記載の不安全運転検出装置。
  3. 前記車両の周囲の映像は、360度カメラを用いて撮影される、請求項1又は2に記載の不安全運転検出装置。
  4. 前記移動ベクトル計算手段は、動画像として入力される、前記車両の前方の映像のフレーム間の移動ベクトルである第1の移動ベクトルと、前記車両の右側方の映像のフレーム間の移動ベクトルである第2の移動ベクトルと、前記車両の左側方の映像のフレーム間の移動ベクトルである第3の移動ベクトルとを計算し、
    前記領域推定手段は、前記車両の前方の映像と、前記車両の右側方の映像と、前記車両の左側方の映像に含まれる移動可能物体を示す領域を推定し、
    前記ベクトル除去手段は、前記第1乃至第3の移動ベクトルから、前記移動可能物体を示す領域として推定された領域の移動ベクトルを除去する請求項1から3何れか1項に記載の不安全運転検出装置。
  5. 前記行動推定手段は、前記第2の移動ベクトルと前記第3の移動ベクトルとの大小関係に基づいて、前記車両の行動を推定する、請求項4に記載の不安全運転検出装置。
  6. 前記車両の位置を計測する位置計測手段を更に有し、
    前記行動推定手段は、更に前記車両の位置計測結果に基づいて前記車両の行動を推定する請求項1から何れか1項に記載の不安全運転検出装置。
  7. 記車両の運転者の体勢情報を前記映像から取得する体勢情報取得手段を更に備え
    前記不安全運転検出手段は、前記車両の行動、前記車両の周囲情報、及び前記運転者の体勢情報に基づいて、前記車両の不安全運転を検出する、請求項1から6何れか1項に記載の不安全運転検出装置。
  8. コンピュータが、動画像として入力される、車両の周囲の映像のフレーム間の移動ベクトルを計算し、
    前記コンピュータが、前記車両の周囲の映像のフレームごとに、前記フレームに含まれる物体を示す領域および前記物体の種別を推定し、
    前記コンピュータが、計算された前記移動ベクトルから、推定された前記種別が車両または人を含む移動可能物体である領域の移動ベクトルを除去し、
    前記コンピュータが、推定された前記種別が移動可能物体である領域が除去された移動ベクトルに基づいて、前記車両の行動を推定し、
    前記コンピュータが、前記車両の行動、及び前記物体の種別を含む前記車両の周囲情報に基づいて、前記車両の不安全運転を検出する不安全運転検出方法。
  9. 動画像として入力される、車両の周囲の映像のフレーム間の移動ベクトルを計算し、
    前記車両の周囲の映像のフレームごとに、前記フレームに含まれる物体を示す領域及び前記物体の種別を推定し、
    算された前記移動ベクトルから、推定された前記種別が車両又は人を含む移動可能物体である領域の移動ベクトルを除去し、
    推定された前記種別が移動可能物体である領域除去された移動ベクトルに基づいて、前記車両の行動を推定し、
    前記車両の行動、及び前記物体の種別を含む前記車両の周囲情報に基づいて、前記車両の不安全運転を検出する処理をプロセッサに実行させるためのプログラム。
JP2022551524A 2020-09-25 2020-09-25 不安全運転検出装置、方法、及びプログラム Active JP7416276B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/036317 WO2022064641A1 (ja) 2020-09-25 2020-09-25 車両行動推定装置、不安全運転検出装置、方法、及びコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2022064641A1 JPWO2022064641A1 (ja) 2022-03-31
JPWO2022064641A5 JPWO2022064641A5 (ja) 2023-05-24
JP7416276B2 true JP7416276B2 (ja) 2024-01-17

Family

ID=80846347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022551524A Active JP7416276B2 (ja) 2020-09-25 2020-09-25 不安全運転検出装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US20240029449A1 (ja)
JP (1) JP7416276B2 (ja)
WO (1) WO2022064641A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000128031A (ja) 1998-08-21 2000-05-09 Sumitomo Electric Ind Ltd ドライブレコ―ダ、安全運転支援システムおよび盗難防止システム
JP2005276057A (ja) 2004-03-26 2005-10-06 Mitsubishi Motors Corp ノーズビューモニタ装置
JP2010157093A (ja) 2008-12-26 2010-07-15 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
JP2012168788A (ja) 2011-02-15 2012-09-06 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
JP2013025635A (ja) 2011-07-22 2013-02-04 Toyota Motor Corp 運転支援装置および運転支援方法
JP2016110374A (ja) 2014-12-05 2016-06-20 富士通テン株式会社 情報処理装置、情報処理方法、および、情報処理システム
JP2018184092A (ja) 2017-04-26 2018-11-22 富士通株式会社 波形推定装置、波形推定方法および波形推定プログラム
WO2019215923A1 (ja) 2018-05-11 2019-11-14 三菱電機株式会社 データ同期装置、データ同期方法およびデータ同期プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000128031A (ja) 1998-08-21 2000-05-09 Sumitomo Electric Ind Ltd ドライブレコ―ダ、安全運転支援システムおよび盗難防止システム
JP2005276057A (ja) 2004-03-26 2005-10-06 Mitsubishi Motors Corp ノーズビューモニタ装置
JP2010157093A (ja) 2008-12-26 2010-07-15 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
JP2012168788A (ja) 2011-02-15 2012-09-06 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
JP2013025635A (ja) 2011-07-22 2013-02-04 Toyota Motor Corp 運転支援装置および運転支援方法
JP2016110374A (ja) 2014-12-05 2016-06-20 富士通テン株式会社 情報処理装置、情報処理方法、および、情報処理システム
JP2018184092A (ja) 2017-04-26 2018-11-22 富士通株式会社 波形推定装置、波形推定方法および波形推定プログラム
WO2019215923A1 (ja) 2018-05-11 2019-11-14 三菱電機株式会社 データ同期装置、データ同期方法およびデータ同期プログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
山口 晃一郎 Koichiro Yamaguchi,電気関係学会東海支部連合大会,電気学会論文誌C Vol.129 No.12 IEEJ,日本,(社)電気学会 The Institute of Electrical Engine,2009年12月01日,第2213頁-第2221頁
石渡 要介 YOSUKE ISHIWATARI,フレーム間対応点の移動方向を利用した動画像とセンサデータの同期手法の検討 A synchronization method b,情報処理学会 研究報告 モバイルコンピューティングとパーベイシブシステム(MBL) 2018-MBL,日本,情報処理学会,2018年05月17日
藤原 良子 Ryoko FUJIWARA,車載カメラによる動画像からの走行軌跡抽出に関する一検討 Car's Track Estimation from The Moving Image,映像情報メディア学会技術報告 Vol.27 No.66 ITE Technical Report,日本,(社)映像情報メディア学会 The Institute of Image,2003年11月21日,第5頁-第10頁
高橋 寛明 Hiroaki TAKAHASHI,オプティカルフローを用いた全方位動画像におけるカメラの移動方向推定に関する考察 A note on estimation,映像情報メディア学会技術報告 Vol.30 No.55 ITE Technical Report,日本,(社)映像情報メディア学会 The Institute of Image,2006年10月30日,第53頁-第56頁

Also Published As

Publication number Publication date
US20240029449A1 (en) 2024-01-25
JPWO2022064641A1 (ja) 2022-03-31
WO2022064641A1 (ja) 2022-03-31

Similar Documents

Publication Publication Date Title
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
US7253389B2 (en) Mobile body surrounding surveillance apparatus, mobile body surrounding surveillance method, control program and computer-readable recording medium
US20210073557A1 (en) Systems and methods for augmenting upright object detection
JP4899424B2 (ja) 物体検出装置
EP1562147B1 (en) Mobile body surrounding surveillance
JP4631096B2 (ja) 車両周辺監視装置
US10561356B2 (en) Driver's physical condition detection device and method
CN107121132B (zh) 求取车辆环境图像的方法和设备及识别环境中对象的方法
JP2007188417A (ja) 画像認識装置、画像認識方法および画像認識プログラム
KR102349979B1 (ko) 어안 렌즈가 장착된 2차원 카메라를 사용하여 2차원 이미지 샷에서 승객의 상태를 예측하기 위한 방법 및 장치
WO2010109831A1 (ja) ドライブレコーダ
US20220155075A1 (en) Method and apparatus with localization
JP6384802B2 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
WO2019068699A1 (en) METHOD FOR CLASSIFYING AN OBJECT POINT AS STATIC OR DYNAMIC, DRIVER ASSISTANCE SYSTEM, AND MOTOR VEHICLE
US20180012368A1 (en) Moving object detection device, image processing device, moving object detection method, and integrated circuit
JP5261752B2 (ja) ドライブレコーダ
JP4502733B2 (ja) 障害物測定方法及び障害物測定装置
JP7416276B2 (ja) 不安全運転検出装置、方法、及びプログラム
KR20180047149A (ko) 충돌 위험 경고 장치 및 방법
JPH09249083A (ja) 移動体識別装置および方法
US20230311899A1 (en) Driving state determination apparatus, method, and computer readable medium
JP7347644B2 (ja) 物体測距装置、方法、及びプログラム
CN112660121A (zh) 隐患车辆的识别预警方法、装置、车载终端和存储介质
JP2008066953A (ja) 画像監視装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R151 Written notification of patent or utility model registration

Ref document number: 7416276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151