JP7234614B2 - 異常検出装置、異常検出システム及び異常検出プログラム - Google Patents

異常検出装置、異常検出システム及び異常検出プログラム Download PDF

Info

Publication number
JP7234614B2
JP7234614B2 JP2018231198A JP2018231198A JP7234614B2 JP 7234614 B2 JP7234614 B2 JP 7234614B2 JP 2018231198 A JP2018231198 A JP 2018231198A JP 2018231198 A JP2018231198 A JP 2018231198A JP 7234614 B2 JP7234614 B2 JP 7234614B2
Authority
JP
Japan
Prior art keywords
vehicle
driver
image
detection device
abnormality detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018231198A
Other languages
English (en)
Other versions
JP2020095356A (ja
Inventor
亮 神田
功一 鈴木
大輝 久保
光一郎 三巻
美久 安藤
俊治 立石
吉孝 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018231198A priority Critical patent/JP7234614B2/ja
Priority to US16/597,045 priority patent/US11232313B2/en
Priority to CN201911173820.XA priority patent/CN111292509A/zh
Publication of JP2020095356A publication Critical patent/JP2020095356A/ja
Application granted granted Critical
Publication of JP7234614B2 publication Critical patent/JP7234614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、異常検出装置、異常検出システム及び異常検出プログラムに関する。
従来、車両の運転者の状態を監視する装置が知られている。例えば特許文献1には、ルームミラーカメラ等によって撮影された自車両内の映像から自車両の運転者の状態を把握し、自車両の運転者の状態に基づいて警告を発報する安全運転補助装置が開示されている。
特開2018-92554号公報
自車両の安全な走行は、他車両の運転者の状態が異常になることによって妨げられることがある。車両が運転者の異常状態を検出する装置を搭載していない場合でも、その車両の運転者の異常状態を検出することが求められる。
かかる事情に鑑みてなされた本開示の目的は、車両が運転者の異常状態を検出する装置を搭載しているか否かにかかわらず、その車両の運転者の異常状態を検出することにある。
本開示の一実施形態に係る異常検出装置は、
少なくとも2台の第1車両のそれぞれの車載カメラによって前記第1車両とは異なる第2車両が撮影されている第1画像を取得し、
前記第1画像に含まれる前記第2車両の運転者の画像に基づいて、前記第2車両の運転者の異常状態を検出し、
前記第2車両の運転者の異常状態の検出結果を、前記第2車両の影響を受け得る歩行者又は車両の搭乗者に報知し、
前記第1車両及び前記第2車両のいずれにも設置されていない
本開示の一実施形態に係る異常検出システムは、
少なくとも2台の第1車両と、異常検出装置とを備える異常検出システムであって、
前記異常検出装置は、
前記少なくとも2台の第1車両のそれぞれの車載カメラによって前記第1車両とは異なる第2車両が撮影されている第1画像を取得し、
前記第1画像に含まれる前記第2車両の運転者の画像に基づいて、前記第2車両の運転者の異常状態を検出し、
前記第2車両の運転者の異常状態の検出結果を、前記第2車両の影響を受け得る歩行者又は車両の搭乗者に報知し、
前記第1車両及び前記第2車両のいずれにも設置されていない
本開示の一実施形態に係る異常検出プログラムは、
少なくとも2台の第1車両のそれぞれの車載カメラによって前記第1車両とは異なる第2車両が撮影されている第1画像を取得するステップと、
前記第1画像に含まれる前記第2車両の運転者の画像に基づいて、前記第2車両の運転者の異常状態を検出するステップと、
前記第2車両の運転者の異常状態の検出結果を、前記第2車両の影響を受け得る歩行者又は車両の搭乗者に報知するステップと
、前記第1車両及び前記第2車両のいずれにも設置されていない異常検出装置のプロセッサに実行させる。
本開示の一実施形態に係る異常検出装置、異常検出システム及び異常検出プログラムによれば、車両が運転者の異常状態を検出する装置を搭載しているか否かにかかわらず、その車両の運転者の異常状態が検出されうる。
一実施形態に係る異常検出システムの構成例を示す模式図である。 一実施形態に係る異常検出システムの概略構成例を示すブロック図である。 異常検出装置を備える車両の構成例を示すブロック図である。 異常検出装置を備える車両を含む異常検出システムの構成例を示すブロック図である。 サーバが異常検出装置の機能を実現している異常検出システムの構成例を示すブロック図である。 異常検出方法の手順の一例を示すフローチャートである。
図1及び図2に示されるように、一実施形態に係る異常検出システム100は、第1車両1を備える。異常検出システム100は、複数の第1車両1を備えてもよい。複数の第1車両1は、互いに通信可能であるとする。各第1車両1は、ネットワーク60を介して他の第1車両1と通信してもよいし、ネットワーク60を介さずに直接、他の第1車両1と通信してもよい。異常検出システム100は、サーバ50をさらに備えてもよい。第1車両1は、サーバ50と通信可能であるとする。第1車両1は、ネットワーク60を介してサーバ50と通信してもよい。
第1車両1は、車載カメラ20を備える。車載カメラ20は、第1車両1に搭載されているカメラであり、第1車両1の周囲に位置する対象物を撮影する。車載カメラ20による撮影の対象物は、自車両以外の車両の運転者を含む。異常検出システム100は、車載カメラ20が撮影した自車両以外の車両の運転者の画像に基づいて、その運転者の異常状態を検出できる。異常検出システム100による状態検出の対象となる運転者が運転している車両は、第2車両2と称されるとする。言い換えれば、異常検出システム100は、監視対象として、車載カメラ20に第2車両2を撮影させる。第1車両1は、車載カメラ20が撮影した第2車両2の画像を、第1車両1の間で共有したり、サーバ50に送信したりしてよい。第1車両1は、監視車両ともいう。第2車両2は、被監視車両ともいう。第1車両1及び第2車両2は、例えば自動車であるが、これに限られず任意の車両であってもよい。
異常検出システム100は、異常検出装置10を備える。異常検出装置10は、1つ以上のプロセッサによって実現されてよい。異常検出装置10は、1つ以上のプロセッサを含むコントローラを備えてもよい。本実施形態において「プロセッサ」は、汎用のプロセッサ、特定の処理に特化した専用のプロセッサ等であるが、これらに限られない。異常検出装置10は、第1車両1に搭載されていてよい。異常検出装置10は、第1車両1に搭載されている場合、第1車両1のECU(Electronic Control Unit)の機能の一部として実現されてもよい。異常検出システム100がサーバ50を備える場合、異常検出装置10は、サーバ50の機能の一部として実現されてもよい。
異常検出装置10を搭載している第1車両1は、第1車両1aと称されるとする。第1車両1aは、異常検出装置10と、車載カメラ20と、通信装置30とを搭載している。異常検出装置10を搭載していない第1車両1は、第1車両1bと称されるとする。第1車両1bは、車載カメラ20と、通信装置30とを搭載している。異常検出装置10と、車載カメラ20と、通信装置30とは、例えばCAN(Controller Area Network)等の車載ネットワーク又は専用線を介して、互いに通信可能に接続されている。
通信装置30は、他の第1車両1に搭載されている通信装置30と通信する。通信装置30は、ネットワーク60を介して、他の第1車両1に搭載されている通信装置30と通信してよい。本実施形態において、第1車両1は、ネットワーク60を介して互いに通信すると仮定する。通信装置30は、ネットワーク60を介して、サーバ50と通信してもよい。通信装置30は、例えばDCM(Data Communication Module)等の車載通信機であってよい。通信装置30は、ネットワーク60に接続する通信モジュールを含んでよい。通信モジュールは、例えば4G(4th Generation)及び5G(5th Generation)等の移動体通信規格に対応する通信モジュールを含んでよいが、これらに限られない。
サーバ50は、サーバ制御部51と、サーバ通信部52と、サーバ記憶部53とを備える。サーバ制御部51は、1つ以上のプロセッサを含んでよい。サーバ通信部52は、通信モジュールを含み、第1車両1の通信装置30と通信してよい。サーバ記憶部53は、1つ以上のメモリを含んでよい。本実施形態において「メモリ」は、例えば半導体メモリ、磁気メモリ、又は光メモリ等であるが、これらに限られない。サーバ記憶部53に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。サーバ記憶部53は、磁気ディスク等の電磁記憶媒体を含んでもよい。サーバ記憶部53は、サーバ50の動作に用いられる任意の情報を記憶する。例えば、サーバ記憶部53は、システムプログラム、又はアプリケーションプログラム等を記憶してもよい。
車載カメラ20は、第1車両1の周囲又は車室内に位置する対象物を撮影する。車載カメラ20が撮影した画像は、車載カメラ画像ともいう。車載カメラ画像は、静止画像を含んでよいし、動画を含んでもよい。
車載カメラ20は、図3に例示されているように、前方カメラ21、側方カメラ22、後方カメラ23及び車内カメラ24のうち少なくとも1つを備えてよい。前方カメラ21は、第1車両1の前方に位置する対象物を撮影する。前方カメラ21が撮影した画像は、前方画像ともいう。側方カメラ22は、第1車両1の側方に位置する対象物を撮影する。側方カメラ22が撮影した画像は、側方画像ともいう。後方カメラ23は、第1車両1の後方に位置する対象物を撮影する。後方カメラ23が撮影した画像は、後方画像ともいう。車内カメラ24は、第1車両1の車室内に位置する対象物及び第1車両1の後方に位置する対象物を撮影する。車内カメラ24が撮影した画像は、車内画像ともいう。
車載カメラ20は、車載カメラ画像を、自車両内の異常検出装置10に出力してよい。車載カメラ20は、車載カメラ画像を、通信装置30を介して、他の第1車両1aに搭載されている異常検出装置10、又は、異常検出装置10の機能を実現するサーバ50に出力してもよい。
異常検出装置10は、車載カメラ20から取得した車載カメラ画像を解析する。異常検出装置10は、車載カメラ画像から、監視対象とする第2車両2の画像を検出する。異常検出装置10は、車載カメラ画像に含まれる車両の画像のうち、所定条件を満たす画像を、第2車両2の画像として検出してよい。所定条件は、監視対象判定条件ともいう。監視対象判定条件は、例えば、車両の位置若しくは動き、車両の形状若しくは色等の外観、又は、車両の登録ナンバー等の、車載カメラ画像に含まれる画像が第2車両2に該当するか判定するための条件を含んでよい。監視対象判定条件は、予め設定されていてもよいし、他の機器から取得されてもよい。第2車両2の画像を含んでいる車載カメラ画像は、第1画像と称されるとする。
異常検出装置10は、前方画像から、対向車として走行している第2車両2の運転者を正面から見た画像を第1画像として検出してよい。異常検出装置10は、前方画像から、自車両の前を走行している第2車両2の運転者を背後から見た画像を第1画像として検出してもよい。異常検出装置10は、側方画像から、複数の車線で並走している第2車両2の運転者を側面から見た画像を第1画像として検出してよい。異常検出装置10は、後方画像又は車内画像から、自車両の後ろを走行している第2車両2の運転者を正面から見た画像を第1画像として検出してよい。
異常検出装置10は、第1画像に基づいて、第2車両2の運転者に関する情報を検出してよい。第2車両2の運転者に関する情報は、運転者情報ともいう。運転者情報は、第2車両2の運転者の顔、姿勢、又は行動に関する情報を含んでよい。異常検出装置10は、複数の視点から第2車両2の運転者を見た第1画像に基づいて、運転者情報を検出してよい。
図3に例示されているように、第1車両1は、車載カメラ画像を解析する画像解析部40を備えてよい。画像解析部40は、1つ以上のプロセッサによって実現されてよい。画像解析部40は、車載カメラ20に含まれてもよい。画像解析部40は、前方カメラ21から前方画像を取得し、前方画像を解析する前方画像解析部41を含んでよい。画像解析部40は、側方カメラ22から側方画像を取得し、側方画像を解析する側方画像解析部42を含んでよい。画像解析部40は、後方カメラ23から後方画像を取得し、車内カメラ24から車内画像を取得し、後方画像と、車内画像に含まれる第1車両1の後方の対象物の画像とを解析する後方画像解析部43を含んでよい。
画像解析部40は、車載カメラ画像から、第2車両2、又は、第2車両2とは異なる車両を含む画像を抽出し、出力してよい。画像解析部40が抽出する、第2車両2、又は、第2車両2とは異なる車両を含む画像は、車両抽出画像ともいう。画像解析部40は、監視対象判定条件に基づいて、車載カメラ画像から第2車両2を含む第1画像を抽出し、車両抽出画像として出力してもよい。画像解析部40は、車両抽出画像を、自車両内の異常検出装置10に出力してよい。画像解析部40は、車両抽出画像を、通信装置30を介して、他の第1車両1aに搭載されている異常検出装置10、又は、異常検出装置10の機能を実現するサーバ50に出力してもよい。異常検出装置10が画像解析部40から車両抽出画像として第2車両2又は第2車両2の運転者を含む画像を取得することによって、異常検出装置10による画像解析処理の一部が省略されうる。その結果、異常検出装置10の負荷が軽くなる。
画像解析部40は、車載カメラ画像に基づいて運転者情報を検出してもよい。画像解析部40は、運転者情報を、自車両内の異常検出装置10に出力してよい。画像解析部40は、運転者情報を、通信装置30を介して、他の第1車両1aに搭載されている異常検出装置10、又は、異常検出装置10の機能を実現するサーバ50に出力してもよい。異常検出装置10が画像解析部40から運転者情報を取得することによって、異常検出装置10による画像解析処理の一部が省略されうる。その結果、異常検出装置10の負荷が軽くなる。
車載カメラ20又は画像解析部40は、異常検出装置10とともに第1車両1aに搭載されている場合、第1車両1aの内部で異常検出装置10に車載カメラ画像若しくは車両抽出画像又は運転者情報を出力してよい。つまり、異常検出装置10は、第1車両1aの内部で車載カメラ画像若しくは車両抽出画像又は運転者情報を取得してよい。一方で、第1車両1aに搭載されている異常検出装置10は、自装置を搭載している第1車両1aとは異なる第1車両1から車載カメラ画像若しくは車両抽出画像又は運転者情報を取得してもよい。
第1車両1が車載カメラ20と画像解析部40とを備える場合、画像解析部40は、車載カメラ画像又は車両抽出画像と運転者情報とを両方とも出力してよい。異常検出装置10は、車載カメラ画像又は車両抽出画像と運転者情報とを両方とも取得した場合、車載カメラ画像又は車両抽出画像を解析して得られる運転者情報と、画像解析部40から取得した運転者情報とを比較してよい。このようにすることで、運転者情報の解析精度が向上しうる。異常検出装置10は、車載カメラ画像又は車両抽出画像と運転者情報とを両方とも取得した場合、運転者情報のうち、画像解析部40で解析されていない事項を、車載カメラ画像又は車両抽出画像に基づいて検出してもよい。このようにすることで、より詳細な運転者情報が検出されうる。
第1車両1は、車載カメラ20と画像解析部40とを備える場合、画像解析部40から運転者情報だけを出力してもよい。第1車両1が運転者情報だけを出力する場合、画像解析部40から異常検出装置10への通信負荷が軽くなりうる。また、異常検出装置10における画像解析の負荷が軽くなりうる。
第1車両1は、上述のように画像解析部40を備えない場合、車載カメラ20から車載カメラ画像を出力する。異常検出装置10は、車載カメラ画像を解析することによって、運転者情報を取得できる。第1車両1が画像解析部40を備えないことによって、構成が簡易化される。
第1車両1は、車載カメラ20で撮影した車載カメラ画像、画像解析部40で車載カメラ画像から抽出した車両抽出画像、及び、画像解析部40で解析した運転者情報の少なくとも一つを出力する。車載カメラ画像、車両抽出画像、及び、運転者情報の少なくとも一つを含む情報は、カメラ出力情報ともいう。異常検出装置10を搭載している第1車両1aは、カメラ出力情報を、自車両の内部で異常検出装置10に出力してもよいし、サーバ50に出力してもよい。異常検出装置10を搭載していない第1車両1bは、カメラ出力情報を、第1車両1aに搭載されている異常検出装置10に出力してもよいし、サーバ50に出力してもよい。
異常検出装置10は、カメラ出力情報が車載カメラ画像又は車両抽出画像を含む場合、車載カメラ画像又は車両抽出画像に基づいて運転者情報を検出する。異常検出装置10は、カメラ出力情報が運転者情報を含む場合、カメラ出力情報から運転者情報を抽出する。異常検出装置10は、運転者情報に基づいて、第2車両2の運転者の異常状態を検出する。異常検出装置10が第2車両2の運転者の異常状態を検出する構成は、後述される。
図4及び図5に、異常検出装置10を備える異常検出システム100のより詳細な構成例を表すブロック図が示されている。
図4に示されるように、第1車両1が異常検出装置10を備えてよい。異常検出装置10を備える第1車両1aは、異常検出装置10として、車両情報演算部11と、危険度解析部12とを備えてよい。第1車両1aは、車載カメラ20と、通信装置30とをさらに備える。異常検出装置10を備えない第1車両1bは、車載カメラ20と、通信装置30とを備える。第1車両1a又は1bは、画像解析部40をさらに備えてよい。第1車両1a又は1bは、危険情報抽出部13をさらに備えてよい。第1車両1a又は1bは、車両報知部14をさらに備えてよい。
図5に示されるように、サーバ50が異常検出装置10の機能を実現してもよい。サーバ50は、図2に示されるように、サーバ制御部51と、サーバ通信部52と、サーバ記憶部53とを備える。サーバ制御部51は、後述する危険度解析部12の機能を実現してよい。サーバ通信部52は、第1車両1にデータを送信する送信部521と、第1車両1からデータを受信する受信部522とを備えてよい。サーバ記憶部53は、後述する、車両情報データベース531の機能と、危険度情報データベース532の機能とを実現してよい。
サーバ50は、サーバ通信部52を介して、端末70と通信可能に接続されてもよい。端末70は、例えばスマートフォン等の携帯端末であってよい。端末70は、歩行者によって所持されていてよい。端末70は、第1車両1の運転者又は同乗者によって所持されていてよい。端末70は、危険情報抽出部13として機能する端末制御部72と、端末報知部74とを備えてよい。
通信装置30は、送信部31と、受信部32とを備えてよい。送信部31は、他の第1車両1に対してデータを送信する。受信部32は、他の第1車両1からデータを受信する。通信装置30は、送信用データ処理部33を備えてよい。送信用データ処理部33は、車載カメラ20又は画像解析部40から取得したカメラ出力情報に基づいて、他の第1車両1に対して送信可能なデータを生成する。送信用データ処理部33は、通信装置30とは別の構成として第1車両1に含まれてもよい。通信装置30は、受信データ解析部34を備えてよい。受信データ解析部34は、他の第1車両1から受信したデータからカメラ出力情報を抽出し、出力する。受信データ解析部34は、通信装置30とは別の構成として第1車両1に含まれてもよい。
図4に示されるように、第1車両1aに搭載されている異常検出装置10は、車両情報演算部11と、危険度解析部12とを備えるとする。図5に示されるように、異常検出装置10を備えない第1車両1bは、異常検出装置10と別の構成として車両情報演算部11を備えるとする。
車両情報演算部11は、車載カメラ20若しくは画像解析部40、又は、通信装置30からカメラ出力情報を取得する。車両情報演算部11は、カメラ出力情報が運転者情報を含む場合、カメラ出力情報から運転者情報を抽出する。車両情報演算部11は、カメラ出力情報が運転者情報を含まない場合、カメラ出力情報に含まれている車載カメラ画像又は車両抽出画像に基づいて運転者情報を検出する。
車両情報演算部11は、第2車両2の運転者の異常状態を判定する根拠となる可能性のある情報を運転者情報として検出してよい。車両情報演算部11は、例えば、第2車両2の運転者の顔の位置若しくは向き、視線若しくは瞼の開閉状態、又は表情等の運転者の顔に関する情報を検出してよい。車両情報演算部11は、第2車両2の運転者の手若しくは頭の動き、又は、第2車両2の運転者が手になにか持っているか等の運転者の行動に関する情報を検出してもよい。車両情報演算部11は、第1画像が動画である場合に、運転者の行動に関する情報を検出してよい。車両情報演算部11は、第1画像がそれぞれ異なる時刻に撮影された少なくとも2枚の静止画像を含む場合に、各静止画像の比較に基づいて、運転者の行動に関する情報を検出してもよい。車両情報演算部11は、第2車両2の運転者の上体がまっすぐになっているか、又は、第2車両2の運転者の上体がハンドルに突っ伏しているか、若しくは、シートにもたれかかっているか等の、運転者の姿勢に関する情報を検出してもよい。
車両情報演算部11は、カメラ出力情報から、第2車両2に関する情報を検出してもよい。第2車両2に関する情報は、車両情報ともいう。車両情報は、第2車両2の位置に関する情報を含んでよいし、第2車両2が進行する方角又は速度に関する情報を含んでよい。車両情報は、画像解析部40によって検出されてもよい。
図4において、車両情報演算部11は、運転者情報を危険度解析部12に出力する。車両情報演算部11は、車両情報を危険度解析部12に出力してもよい。図5において、車両情報演算部11は、運転者情報を通信装置30の送信部31に出力する。車両情報演算部11は、車両情報を通信装置30の送信部31に出力してもよい。送信部31は、運転者情報を、サーバ50に送信する。送信部31は、車両情報をサーバ50に送信してもよい。サーバ50は、運転者情報を、受信部522で受信し、車両情報データベース531として機能するサーバ記憶部53に格納し、危険度解析部12として機能するサーバ制御部51に出力する。サーバ50は、車両情報を受信部522で受信し、サーバ記憶部53に格納し、サーバ制御部51に出力してもよい。
危険度解析部12は、運転者情報に基づいて、第2車両2の運転者の異常状態を検出する。危険度解析部12は、運転者情報を解析し、運転者が危険運転を行う可能性を表すスコアを算出してよい。運転者が危険運転を行う可能性を表すスコアは、危険度ともいう。運転者が危険運転を行う可能性が高いほど、危険度の値が大きくなるように算出されてよい。運転者が危険運転を行う可能性が高いほど、危険度の値が小さくなるように算出されてもよい。運転者が危険運転を行う可能性が高いほど、危険度の絶対値が大きくなるように算出されてもよい。
本実施形態において、運転者が危険運転を行う可能性が高いほど、危険度は、大きい値で表されるとする。危険度解析部12は、例えば、第2車両2の運転者の顔又は視線が第2車両2の進行方向を向いていないと判定した場合に、危険度を大きい値に算出してよい。危険度解析部12は、例えば、第2車両2の運転者が手に携帯端末等の機器を持っていると判定した場合に、危険度を大きい値に算出してよい。危険度解析部12は、これらの例に限られず、運転者情報に含まれる種々の情報に基づいて、危険度を算出してよい。危険度解析部12は、算出した危険度が所定条件を満たす場合に、第2車両2の運転者の状態が異常であると判定してもよい。所定条件は、例えば、危険度が所定値以上であることを含んでよい。
図4において、危険度解析部12は、第2車両2の運転者の異常状態に関する検出結果を危険情報抽出部13に出力する。第2車両2の運転者の異常状態に関する検出結果は、運転者状態検出結果ともいう。第1車両1aに搭載されている異常検出装置10の危険度解析部12は、運転者状態検出結果を、他の第1車両1に出力してもよいし、サーバ50に出力してもよい。図5において、危険度解析部12は、運転者状態検出結果を、危険度情報データベース532として機能するサーバ記憶部53に格納する。サーバ50は、運転者状態検出結果を、危険度情報データベース532から送信部521を介して、第1車両1bの危険情報抽出部13、又は、端末70の、危険情報抽出部13として機能する端末制御部72に出力する。運転者状態検出結果は、第2車両2の運転者の状態が異常であるか否かの検出結果を含んでよい。運転者状態検出結果は、危険度解析部12が算出した危険度を含んでよい。
第1車両1の危険情報抽出部13は、運転者状態検出結果に含まれる情報のうち、自車両に対して影響を及ぼしうる第2車両2に関する情報を抽出してよい。自車両に対して影響を及ぼしうる第2車両2に関する情報は、自車危険情報ともいう。危険情報抽出部13は、抽出した自車危険情報を車両報知部14に出力してよい。危険情報抽出部13は、車両情報にさらに基づいて、自車危険情報を抽出してよい。危険情報抽出部13は、第2車両2と自車両との位置関係に基づいて、自車危険情報を抽出してもよい。危険情報抽出部13は、第2車両2と自車両との相対速度に基づいて、自車危険情報を抽出してもよい。危険情報抽出部13は、これらの例に限られず、種々の条件に基づいて自車危険情報を抽出してよいし、複数の条件を組み合わせた条件に基づいて自車危険情報を抽出してもよい。危険情報抽出部13は、例えば、第2車両2が自車両から所定距離以内に位置する場合、且つ、第2車両2が自車両に所定値以上の相対速度で接近してくる場合に、その第2車両2に関する情報を自車危険情報として抽出してよい。
端末70において端末制御部72が危険情報抽出部13として機能してよい。以下、端末制御部72が危険情報抽出部13の機能を実現すると仮定する。端末制御部72は、運転者状態検出結果に含まれる情報のうち、端末70を所持している人物に対して影響を及ぼしうる第2車両2に関する情報を抽出してよい。端末70を所持している人物は、端末所持者ともいう。端末所持者に対して影響を及ぼしうる第2車両2に関する情報は、端末所持者危険情報ともいう。端末制御部72は、抽出した端末所持者危険情報を端末報知部74に出力してよい。端末制御部72は、第2車両2と端末所持者との位置関係に基づいて、端末所持者危険情報を抽出してもよい。端末制御部72は、これらの例に限られず、種々の条件に基づいて端末所持者危険情報を抽出してよいし、複数の条件を組み合わせた条件に基づいて端末所持者危険情報を抽出してもよい。
車両報知部14及び端末報知部74は、危険情報抽出部13で抽出された、自車危険情報及び端末所持者危険情報をそれぞれ取得する。車両報知部14は、取得した自車危険情報に基づく警告を、自車両の運転者に報知する。端末報知部74は、取得した端末所持者危険情報に基づく警告を、端末所持者に報知する。
車両報知部14及び端末報知部74は、表示デバイスを含んでよい。表示デバイスは、自車両の運転者又は端末所持者に対して報知する情報を表す、文字、図形又は画像等を表示してよい。表示デバイスは、LED(Light Emission Diode)等の発光デバイスを含んでよい。表示デバイスは、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)であってよい。表示デバイスは、有機EL(Electro-Luminescence)ディスプレイ又は無機ELディスプレイであってよい。表示デバイスは、プラズマディスプレイ(PDP:Plasma Display Panel)であってよい。表示デバイスは、これらのディスプレイに限られず、他の種々の方式のディスプレイであってもよい。
車両報知部14が第1車両1の運転者に対して情報を報知する場合において、ドライバーディストラクションの観点から、報知する情報の量が多い場合、報知する情報が要約されてよいし、短文化又は記号化されてもよい。
車両報知部14及び端末報知部74は、スピーカを含んでよい。スピーカは、自車両の運転者又は端末所持者に対して報知する情報を表す音声を出力してよい。車両報知部14は、振動デバイスを含んでよい。振動デバイスは、自車両の運転者又は端末所持者に対して報知する情報を表す振動パターンを出力してよい。車両報知部14及び端末報知部74は、これらの例に限られず、他の種々のデバイスを含んでよい。
第1車両1の運転者は、車両報知部14から報知される警告によって、危険の発生を予め想定できる。その結果、実際に危険な状況が発生した場合に、第1車両1の運転者がその状況を回避できる確率が高まる。端末所持者は、端末報知部74から報知される警告によって、危険の発生を予め想定できる。例えば端末所持者が歩行者である場合、端末所持者は、第2車両2が歩道又は歩行者天国等に進入すること等による危険に巻き込まれうる。例えば端末所持者が第1車両1又は他の車両の搭乗者である場合、端末所持者は、第2車両2が自車両に接近することによる危険に巻き込まれうる。端末所持者が端末所持者危険情報に基づく警告を受けることによって、実際に危険な状況が発生した場合に端末所持者がその状況を回避できる確率が高まる。
以上説明してきたように、一実施形態に係る異常検出装置10は、第2車両2が運転者の異常状態を検出する装置を搭載しているか否かにかかわらず、第2車両2の運転者の異常状態を検出できる。このようにすることで、第2車両2の運転者の状態が異常である場合に、その第2車両2の周囲又はその第2車両2の進入が想定される範囲に位置する第1車両1の運転者及び端末保持者が情報を受けることができる。その結果、運転者の状態が異常となっている第2車両2によって危険な状況が引き起こされた場合に、その状況における被害が低減されうる。
異常検出装置10は、第1車両1aに搭載されているか、サーバ制御部51の機能の一部として実現されるかにかかわらず、図6に例示されるフローチャートの手順を含む異常検出方法を実行してよい。異常検出方法は、プロセッサに実行させる異常検出プログラムとして実現されてもよい。
異常検出装置10は、車載カメラ20又は画像解析部40からカメラ出力情報を取得する(ステップS1)。カメラ出力情報は、第2車両2を含む第1画像に基づく情報を含んでよい。
異常検出装置10は、カメラ出力情報から運転者情報を抽出する(ステップS2)。車両情報演算部11は、カメラ出力情報が運転者情報を含む場合、カメラ出力情報から運転者情報を抽出する。車両情報演算部11は、カメラ出力情報が運転者情報を含まない場合、カメラ出力情報に含まれている車載カメラ画像又は車両抽出画像に基づいて運転者情報を検出する。異常検出装置10は、カメラ出力情報から車両情報を検出してもよい。
異常検出装置10は、運転者情報に基づいて、運転者の危険度を算出する(ステップS3)。異常検出装置10は、車両の危険度を算出してもよい。
異常検出装置10は、危険度が判定値以上か判定する(ステップS4)。
異常検出装置10は、危険度が判定値以上である場合(ステップS4:YES)、運転者が異常状態であることを検出する(ステップS5)。異常検出装置10は、ステップS5の手順を実行した後、ステップS7の手順を実行する。
異常検出装置10は、危険度が判定値以上でない場合(ステップS4:NO)、運転者が正常状態であることを検出する(ステップS6)。言い換えれば、異常検出装置10は、危険度が判定値未満である場合、運転者が正常状態であることを検出する。異常検出装置10は、ステップS6の手順を実行した後、ステップS7の手順を実行する。
異常検出装置10は、運転者の異常状態に関する検出結果を、車両報知部14又は端末報知部74に報知させる(ステップS7)。異常検出装置10は、第1車両1aに搭載されている場合、運転者状態検出結果を、危険情報抽出部13を介して車両報知部14に出力することによって、車両報知部14に自車危険情報に基づく警告を報知させてよい。異常検出装置10は、サーバ50の機能として実現されている場合、運転者状態検出結果を、第1車両1に出力することによって、車両報知部14に自車危険情報に基づく警告を報知させてよい。異常検出装置10は、サーバ50の機能として実現されている場合、運転者状態検出結果を、端末70に出力することによって、端末報知部74に端末所持者危険情報に基づく警告を報知させてよい。異常検出装置10は、ステップS7の手順を実行した後、図6のフローチャートに示されている手順の実行を終了する。
異常検出装置10は、ステップS3及びステップS4の手順として示されている危険度を算出する手順を省略してもよい。この場合、異常検出装置10は、危険度を算出せずに、運転者情報に基づいて運転者が異常状態か否か検出してもよい。
以上説明してきたように、一実施形態に係る異常検出方法によれば、第2車両2が運転者の異常状態を検出する装置を搭載しているか否かにかかわらず、第2車両2の運転者の状態が異常か否か検出されうる。
異常検出装置10は、運転者情報として、第2車両2の運転者の行動を検出してもよい。異常検出装置10は、第2車両2の運転者の顔の向きに基づいて、第2車両2の運転者の行動を検出してもよい。例えば、第2車両2の運転者の顔が第2車両2の進行方向に対して左又は右を向いている場合、異常検出装置10は、第2車両2の運転者が脇見運転をしていると検出してよい。例えば、第2車両2の運転者の顔が下を向いている場合、異常検出装置10は、第2車両2の運転者が居眠りをしている又は第2車両2の運転者が病気等に起因して意識を失っていると検出してもよい。
異常検出装置10は、第2車両2の運転者の顔の周りに位置する物に基づいて、第2車両2の運転者の行動を検出してもよい。例えば、第2車両2の運転者の顔の周りに携帯電話又はスマートフォン等の機器がある場合、異常検出装置10は、第2車両2の運転者が機器に注意をとられていると検出してもよい。
異常検出装置10は、運転者情報として、第2車両2の運転者の目線又は表情を検出してもよい。異常検出装置10は、第2車両2の運転者の目線に基づいて、第2車両2の運転者の異常状態を検出してもよい。例えば、第2車両2の運転者の目線が定まっていない場合、異常検出装置10は、第2車両2の運転者の状態が異常状態であると検出してよい。例えば、異常検出装置10は、第2車両2の運転者の表情に基づいて、第2車両2の運転者の異常状態を検出してもよい。異常検出装置10は、第2車両2の運転者が怒り、焦り、又は苛立ち等の、運転に悪影響を及ぼす感情を抱いているか、表情に基づいて判定してよい。異常検出装置10は、第2車両2の運転者の感情に関する判定結果に基づいて、第2車両2の運転者の状態が異常状態であるか検出してよい。
異常検出装置10は、運転者情報として、第2車両2の運転者の姿勢を検出してもよい。異常検出装置10は、第2車両2の運転者の姿勢が前後左右のいずれかの方向に傾いている場合に、第2車両2の運転者の状態が異常状態であると検出してよい。
異常検出装置10は、少なくとも2枚の第1画像から抽出した運転者情報に基づいて、第2車両2の運転者の異常状態を検出してもよい。異常検出装置10は、少なくとも2台の第1車両1それぞれから取得した第1画像から抽出した運転者情報に基づいて、第2車両2の運転者の異常状態を検出してもよい。複数の第1画像から抽出した運転者情報に基づいて第2車両2の運転者の異常状態を検出することで、運転者の異常状態の誤検出が起こりにくくなる。その結果、運転者の異常状態の検出精度が向上する。
異常検出装置10は、少なくとも2つの異なる時刻それぞれに撮影された第1画像から抽出した運転者情報に基づいて、第2車両2の運転者の異常状態を検出してもよい。このようにすることで、第2車両2の運転者の異常状態が経時的に検出されうる。その結果、運転者の異常状態の検出精度が向上する。例えば、異常検出装置10は、第2車両2の運転者の状態が一時的に異常状態と判定されたか、継続的に異常状態と判定されているか検出してよい。異常検出装置10は、第2車両2の運転者の状態が所定時間以上にわたって異常状態と判定されている場合に、その運転者の危険度を高くしてよい。異常検出装置10は、第2車両2の運転者の状態が異常状態と判定された回数が所定回数以上となった場合に、その運転者の危険度を高くしてよい。
異常検出システム100は、移動可能な第1車両1の車載カメラ画像に基づいて第2車両2の運転者を監視できる。このようにすることで、移動する第2車両2が見失われにくくなる。
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。したがって、これらの変形及び修正は本開示の範囲に含まれることに留意されたい。例えば、各手段又は各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段又はステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。
1(1a、1b) 第1車両(監視車両)
2 第2車両(被監視車両)
10 異常検出装置
11 車両情報演算部
12 危険度解析部
13 危険情報抽出部
14 車両報知部
20 車載カメラ
21 前方カメラ
22 側方カメラ
23 後方カメラ
24 車内カメラ
30 通信装置
31 送信部
32 受信部
33 送信用データ処理部
34 受信データ解析部
40 画像解析部
41 前方画像解析部
42 側方画像解析部
43 後方画像解析部
50 サーバ
51 サーバ制御部
52 サーバ通信部
521 送信部
522 受信部
53 サーバ記憶部
531 車両情報データベース
532 危険度情報データベース
60 ネットワーク
70 端末
72 端末制御部
74 端末報知部
100 異常検出システム

Claims (9)

  1. 少なくとも2台の第1車両のそれぞれの車載カメラによって前記第1車両とは異なる第2車両が撮影されている第1画像を取得し、
    前記第1画像に含まれる前記第2車両の運転者の画像に基づいて、前記第2車両の運転者の異常状態を検出し、
    前記第2車両の運転者の異常状態の検出結果を、前記第2車両の影響を受け得る歩行者又は車両の搭乗者に報知し、
    前記第1車両及び前記第2車両のいずれにも設置されていない、異常検出装置。
  2. 前記第2車両の運転者の異常状態の検出結果を、検出に用いられた画像を提供した車両以外の車両の搭乗者に報知する、請求項1に記載の異常検出装置。
  3. 請求項1又は2に記載の異常検出装置であって、
    前記第2車両の運転者の画像に基づいて、前記第2車両の危険度を算出する、異常検出装置。
  4. 請求項3に記載の異常検出装置であって、
    前記第2車両の危険度を出力する、異常検出装置。
  5. 請求項1からのいずれか一項に記載の異常検出装置であって、
    少なくとも2つの時刻に撮影された前記第1画像に基づいて、前記第2車両の運転者の異常状態を検出する、異常検出装置。
  6. 請求項1からのいずれか一項に記載の異常検出装置であって、
    前記第2車両の運転者の顔、姿勢及び行動のうちの少なくとも1つに関する情報に基づいて、前記第2車両の運転者の異常状態を検出する、異常検出装置。
  7. 請求項1からのいずれか一項に記載の異常検出装置であって、
    前記車載カメラは、前方カメラ、側方カメラ、後方カメラ及び車内カメラの少なくとも1つのカメラを含む、異常検出装置。
  8. 少なくとも2台の第1車両と、異常検出装置とを備える異常検出システムであって、
    前記異常検出装置は、
    前記少なくとも2台の第1車両のそれぞれの車載カメラによって前記第1車両とは異なる第2車両が撮影されている第1画像を取得し、
    前記第1画像に含まれる前記第2車両の運転者の画像に基づいて、前記第2車両の運転者の異常状態を検出し、
    前記第2車両の運転者の異常状態の検出結果を、前記第2車両の影響を受け得る歩行者又は車両の搭乗者に報知し、
    前記第1車両及び前記第2車両のいずれにも設置されていない、異常検出システム。
  9. 少なくとも2台の第1車両のそれぞれの車載カメラによって前記第1車両とは異なる第2車両が撮影されている第1画像を取得するステップと、
    前記第1画像に含まれる前記第2車両の運転者の画像に基づいて、前記第2車両の運転者の異常状態を検出するステップと、
    前記第2車両の運転者の異常状態の検出結果を、前記第2車両の影響を受け得る歩行者又は車両の搭乗者に報知するステップと
    、前記第1車両及び前記第2車両のいずれにも設置されていない異常検出装置のプロセッサに実行させる、異常検出プログラム。
JP2018231198A 2018-12-10 2018-12-10 異常検出装置、異常検出システム及び異常検出プログラム Active JP7234614B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018231198A JP7234614B2 (ja) 2018-12-10 2018-12-10 異常検出装置、異常検出システム及び異常検出プログラム
US16/597,045 US11232313B2 (en) 2018-12-10 2019-10-09 Abnormality detection device, abnormality detection system, and abnormality detection program
CN201911173820.XA CN111292509A (zh) 2018-12-10 2019-11-26 异常检测装置、异常检测系统以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231198A JP7234614B2 (ja) 2018-12-10 2018-12-10 異常検出装置、異常検出システム及び異常検出プログラム

Publications (2)

Publication Number Publication Date
JP2020095356A JP2020095356A (ja) 2020-06-18
JP7234614B2 true JP7234614B2 (ja) 2023-03-08

Family

ID=70971935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231198A Active JP7234614B2 (ja) 2018-12-10 2018-12-10 異常検出装置、異常検出システム及び異常検出プログラム

Country Status (3)

Country Link
US (1) US11232313B2 (ja)
JP (1) JP7234614B2 (ja)
CN (1) CN111292509A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7232094B2 (ja) * 2019-03-25 2023-03-02 株式会社Subaru 車両の制御装置、車両の制御方法及びプログラム
CN115179957A (zh) * 2021-04-01 2022-10-14 华为技术有限公司 一种驾驶提醒方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150091740A1 (en) 2013-08-02 2015-04-02 Honda Motor Co., Ltd. System and method for detection and utilization of driver distraction level
WO2017056401A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 制御装置、制御方法及びプログラム
JP2017084157A (ja) 2015-10-29 2017-05-18 三菱電機株式会社 警報装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101159847B1 (ko) * 2005-01-20 2012-06-25 삼성전자주식회사 졸음운전 감지용 얼굴 검출 정규화 장치 및 방법
JP4815943B2 (ja) * 2005-08-19 2011-11-16 株式会社デンソー 危険箇所情報表示装置
JP4980076B2 (ja) * 2007-01-11 2012-07-18 富士重工業株式会社 車両の運転支援装置
JP4492702B2 (ja) * 2008-01-11 2010-06-30 トヨタ自動車株式会社 異常検出装置
US20110273527A1 (en) * 2010-05-06 2011-11-10 Tzu-Chuan Liu Electronic Infrared Wide-Angle and Safety-Promotion External Vehicular Back Mirror
JP2012128561A (ja) * 2010-12-14 2012-07-05 Toshiba Corp 異常車両検出装置
KR101405679B1 (ko) * 2011-10-11 2014-06-13 현대자동차주식회사 차량 위치 정보 기반 비정상 운전 판정 및 경보 시스템
US9396658B2 (en) * 2012-10-04 2016-07-19 Mitsubishi Electric Corporation On-vehicle information processing device
US20150353014A1 (en) * 2012-10-25 2015-12-10 Po Yiu Pauline Li Devices, systems and methods for identifying potentially dangerous oncoming cars
US9351019B2 (en) * 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
CN103714660B (zh) 2013-12-26 2017-02-08 苏州清研微视电子科技有限公司 基于图像处理融合心率特征与表情特征实现疲劳驾驶判别的系统
CN103770733B (zh) * 2014-01-15 2017-01-11 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测方法及装置
JP6252304B2 (ja) 2014-03-28 2017-12-27 株式会社デンソー 車両用認知通知装置、車両用認知通知システム
JP2016045714A (ja) * 2014-08-22 2016-04-04 株式会社デンソー 車載制御装置
CN105590410A (zh) * 2014-10-22 2016-05-18 鸿富锦精密工业(武汉)有限公司 安全驾驶监控系统及安全驾驶监控方法
US9472098B2 (en) * 2015-01-15 2016-10-18 International Business Machines Corporation Vehicle-based abnormal travel event detecting and reporting
US10232772B2 (en) 2015-03-26 2019-03-19 Mitsubishi Electric Corporation Driver assistance system
JP6488922B2 (ja) * 2015-07-06 2019-03-27 株式会社デンソー 運転者異常検出装置
KR101832189B1 (ko) * 2015-07-29 2018-02-26 야마하하쓰도키 가부시키가이샤 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량
JP2017074867A (ja) * 2015-10-15 2017-04-20 株式会社デンソー 異常判定装置
US9925987B1 (en) * 2015-12-11 2018-03-27 Lytx, Inc. Driving abnormality detection
JP6563798B2 (ja) * 2015-12-17 2019-08-21 大学共同利用機関法人自然科学研究機構 視覚認知支援システムおよび視認対象物の検出システム
US10460600B2 (en) * 2016-01-11 2019-10-29 NetraDyne, Inc. Driver behavior monitoring
JP6775135B2 (ja) * 2016-05-20 2020-10-28 マツダ株式会社 ドライバ状態検出装置
JP6971020B2 (ja) * 2016-11-14 2021-11-24 株式会社日立製作所 異常検出装置および異常検出方法
JP2018092554A (ja) 2016-12-02 2018-06-14 システム東京株式会社 事故発生予測装置
CN106710306A (zh) * 2016-12-09 2017-05-24 深圳市元征科技股份有限公司 车辆驾驶行为监控方法及装置
US10152642B2 (en) * 2016-12-16 2018-12-11 Automotive Research & Testing Center Method for detecting driving behavior and system using the same
CN107180219A (zh) 2017-01-25 2017-09-19 问众智能信息科技(北京)有限公司 基于多模态信息的驾驶危险系数评估方法和装置
US11599883B2 (en) * 2017-03-08 2023-03-07 Visa International Service Association System and method for fraud risk analysis in IoT
US11117515B2 (en) * 2017-05-19 2021-09-14 Yazaki Corporation Monitoring system
CN108010373B (zh) * 2017-09-15 2019-04-09 路特迩科技(杭州)有限公司 基于泊位状态信息的泊位服务与管理系统及方法
CN108725448B (zh) 2018-03-30 2020-05-08 东风商用车有限公司 一种基于驾驶员状态监控的主动控车方法和系统
CN108961678A (zh) 2018-04-26 2018-12-07 华慧视科技(天津)有限公司 一种基于人脸检测驾驶员疲劳检测系统及其检测方法
CN110866427A (zh) * 2018-08-28 2020-03-06 杭州海康威视数字技术股份有限公司 一种车辆行为检测方法及装置
KR20200029805A (ko) * 2018-09-11 2020-03-19 현대자동차주식회사 차량 및 그 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150091740A1 (en) 2013-08-02 2015-04-02 Honda Motor Co., Ltd. System and method for detection and utilization of driver distraction level
WO2017056401A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 制御装置、制御方法及びプログラム
JP2017084157A (ja) 2015-10-29 2017-05-18 三菱電機株式会社 警報装置

Also Published As

Publication number Publication date
CN111292509A (zh) 2020-06-16
US11232313B2 (en) 2022-01-25
US20200184243A1 (en) 2020-06-11
JP2020095356A (ja) 2020-06-18

Similar Documents

Publication Publication Date Title
US11295143B2 (en) Information processing apparatus, information processing method, and program
US11787408B2 (en) System and method for controlling vehicle based on condition of driver
CN111361552B (zh) 自动驾驶系统
JP4517393B2 (ja) 運転支援装置
JP4683192B2 (ja) 車両用死角監視装置及び車両用運転支援システム
CN108263379A (zh) 基于姿势信息的行人检测和行人碰撞预防装置和方法
CN106233159A (zh) 使用位置数据的误警告减少
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
CN108725454B (zh) 安全驾驶辅助系统及其控制方法
JP7234614B2 (ja) 異常検出装置、異常検出システム及び異常検出プログラム
JP4751894B2 (ja) 自動車の前方にある障害物を検知するシステム
WO2019003792A1 (ja) 制御装置、制御方法、及びプログラム
JP4768499B2 (ja) 車載周辺他車検出装置
KR20200071968A (ko) 차량 및 그 제어방법
JP4884806B2 (ja) 車両周辺監視システム
CN115131749A (zh) 图像处理装置、图像处理方法以及计算机可读取存储介质
JP2008269399A (ja) 車両の車線逸脱警報装置
US11643012B2 (en) Driving assistance device, driving situation information acquisition system, driving assistance method, and program
JP2007249324A5 (ja)
KR20150074753A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
JP2018200701A (ja) 車両用制御装置
JP7495900B2 (ja) 情報提供装置、情報提供方法、及び情報提供プログラム
JP7294483B2 (ja) 運転支援装置、運転支援方法及びプログラム
KR102671440B1 (ko) 첨단 운전자 지원 시스템 통합 모듈
US20230311919A1 (en) Control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R151 Written notification of patent or utility model registration

Ref document number: 7234614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151