JP6930765B2 - V2v連結によって人の状態認識を活用して検出された運転者の異常状態を警告するための方法及び装置{method and device for alerting abnormal driver situation detected by using humans’ status recognition via v2v connection} - Google Patents

V2v連結によって人の状態認識を活用して検出された運転者の異常状態を警告するための方法及び装置{method and device for alerting abnormal driver situation detected by using humans’ status recognition via v2v connection} Download PDF

Info

Publication number
JP6930765B2
JP6930765B2 JP2020010700A JP2020010700A JP6930765B2 JP 6930765 B2 JP6930765 B2 JP 6930765B2 JP 2020010700 A JP2020010700 A JP 2020010700A JP 2020010700 A JP2020010700 A JP 2020010700A JP 6930765 B2 JP6930765 B2 JP 6930765B2
Authority
JP
Japan
Prior art keywords
driver
state
specific driver
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020010700A
Other languages
English (en)
Other versions
JP2020126644A (ja
Inventor
金桂賢
金鎔重
金鶴京
南雲鉉
夫碩▲くん▼
成明哲
申東洙
呂東勳
柳宇宙
李明春
李炯樹
張泰雄
鄭景中
諸泓模
趙浩辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126644A publication Critical patent/JP2020126644A/ja
Application granted granted Critical
Publication of JP6930765B2 publication Critical patent/JP6930765B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0863Inactivity or incapacity of driver due to erroneous selection or response of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Combustion & Propulsion (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Chemical & Material Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Atmospheric Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、ディープラーニング(deep learning)に基づいて車両運転手の居眠り状態及び異常状態を検出して、前記居眠り状態及び異常状態を警告する方法及び装置に関し、より詳細には、前記車両の室内イメージから前記運転者の目の瞬き状態に基づいて前記運転者の前記居眠り状態を検出し、前記運転者のポーズを参照にして前記運転者の前記異常状態を検出することにより警告を与える方法及び装置に関する。
車両事故の中でも最も大きな被害を引き起こす事故は、走行中に発生し、このうちのほとんどは、居眠り運転・飲酒運転・注意力分散などによって引き起こされる。
このような事故を事前に防止する方法として、従来は運転者自らが自覚し、気をつけるしかなかったが、最近は技術を活用して運転者の状態を監視し、これを運転者に警告することで安全運行を誘導している。その代表的な技術として、運転者状態監視装置(Driven−State Monitoring Device,DSM)が挙げられる。
運転者状態監視装置は、NIR(Near Infra−Red)カメラを用いて運転者の顔部位に近赤外線を投射し、それによって運転者の顔のイメージを取得して運転者の顔を監視する。瞬き頻度や回数など、瞬きの特性に対して優先順位を決め、居眠りに近い要素に重み付け値を与えるアルゴリズムを活用して運転者が居眠りをしているかを判断する。また、注意力分散状態は、顔の向き、目の状態を認識して判断し、運転者が予め設定された時間の間に前方を注視しないと判断されると、運転者は警告を受ける。
しかし、このような従来の方法では、運転者がこのような警告に対応できない状態に陥った場合には、運転者への警告が無意味になるという問題点がある。
また、このような従来の方法では、運転者のポーズが変わった場合、カメラを利用して運転者の異常状態を検出することに限界がある。
したがって、本発明は、運転手の居眠り運転や異常状態等を示す危険状態を効果的に検出し、交通事故を事前に防止することができる方法を提案したい。
本発明は、前述した問題点を全て解決することを目的とする。
本発明は、特定運転者の少なくとも一つの異常状態を効果的に検出できるようにすることを他の目的とする。
本発明は、特定運転者の周辺車両の運転者に特定運転者の異常状態を警告するようにすることをまた他の目的とする。
本発明は、特定運転者の異常状態により発生し得る交通事故を防止できるようにすることをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための、本発明の特徴的な構成は下記の通りである。
本発明の一態様によれば、ディープラーニングに基づいて特定車両の特定運転者の居眠り状態及び異常状態を検出して警告する方法において、(a)前記特定車両の室内の少なくとも一つの室内イメージが取得されると、運転者状態検出装置が、(i)前記室内イメージを居眠り検出ネットワークに入力して、前記居眠り検出ネットワークをもって、前記室内イメージから前記特定運転者の少なくとも一つの顔部分を検出し、前記顔部分から前記特定運転者の少なくとも一つの目の部分を検出し、前記特定運転者の少なくとも一つの目の瞬き状態を検出するようにすることにより、前記特定運転者の前記居眠り状態を判断するようにするプロセス、及び(ii)前記室内イメージをポーズマッチングネットワークに入力して、前記ポーズマッチングネットワークをもって、前記室内イメージから前記特定運転者のボディに対応する一つ以上のボディキーポイント(body keypoint)を検出するようにし、前記ボディキーポイントが予め設定された走行ポーズのうちの一つとマッチングするかを判断するようにすることにより、前記特定運転者の前記異常状態を判断するようにするプロセスのうちの少なくとも一部を遂行する段階;及び(b)前記居眠り検出ネットワークから出力された前記特定運転者の前記居眠り状態及び前記ポーズマッチングネットワークから出力された前記特定運転者の前記異常状態のうちの少なくとも一部を参照にして、前記特定運転者が危険状態であると判断されると、前記運転者状態検出装置は、V2V(vehicle−to−vehicle)通信によって、前記特定運転者の前記危険状態に対する情報を一つ以上の周辺車両に伝送して前記周辺車両の一つ以上の周辺運転者をもって、前記特定運転者の前記危険状態を認識するようにするプロセスを遂行する段階;を含むことを特徴とする方法が開示される。
一実施例として、前記(a)段階で、前記運転者状態検出装置は、前記居眠り検出ネットワークをもって、(i)(i−1)顔検出器のコンボリューション(convolution)レイヤによって少なくとも一つのコンボリューション演算を前記室内イメージに適用して少なくとも一つの特徴マップを生成し、(i−2)前記顔検出器のRPN(Region Proposal Network)によって前記特徴マップ上の一つ以上の物体に対応する一つ以上のプロポーザルボックスを生成し、(i−3)前記顔検出器のプーリングレイヤによって前記特徴マップ上の前記プロポーザルボックスに対応する一つ以上の領域に少なくとも一つのプーリング演算を適用して少なくとも一つの特徴ベクトルを生成し、(i−4)前記顔検出器のFC(fully connected)レイヤによって前記特徴ベクトルに少なくとも一つのFC演算を適用して少なくとも一つのFC出力値を生成し、(i−5)前記FCレイヤの前記FC出力値に少なくとも一つの分類演算及び少なくとも一つのリグレッション演算を適用して、それぞれの前記物体に対するクラス情報及びリグレッション情報を出力した後、前記顔検出器の分類レイヤ及びリグレッションレイヤによって前記室内イメージ上の前記特定運転者の前記顔部分を検出するようにし、前記物体それぞれは、前記プロポーザルボックスそれぞれに対応し、(ii)目検出器によって前記顔部分を少なくとも一つのMCT(Modified Census Transform)イメージに変換し、前記顔部分の明るさと局部部分の明るさの平均との間の差が前記MCTイメージにエンコードされ、エイダブースト(Adaboost)アルゴリズムを利用して前記MCTイメージから取得された目検出用特徴データから前記特定運転者の前記目の部分を検出し、前記目の開閉状態を参照して前記目の部分の前記目の瞬き状態を検出するようにすることを特徴とする。
一実施例として、前記(a)段階で、前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、(i)特徴抽出器によって前記室内イメージから一つ以上の特徴を抽出して生成された一つ以上の特徴テンソル(tensor)を生成し、(ii)キーポイントヒートマップ(keypoint heatmap)及びパートアフィニティフィールド(part affinity field)抽出器によって前記特徴テンソルそれぞれに対応する一つ以上のキーポイントヒートマップ及び一つ以上のパートアフィニティフィールドを生成し、(iii)前記キーポイントヒートマップそれぞれにおける一つ以上のキーポイントを抽出し、前記パートアフィニティフィールドそれぞれを参照にして前記抽出されたキーポイントをグルーピング(grouping)することにより、キーポイントグルーピングレイヤによって、前記室内イメージに位置する前記特定運転者に対応する前記ボディキーポイントを生成するようにすることを特徴とする。
一実施例として、前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記特徴抽出器の少なくとも一つのコンボリューションレイヤによって、前記室内イメージに少なくとも一つのコンボリューション演算を適用することで、前記特徴テンソルを生成するようにすることを特徴とする。
一実施例として、前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器のフルコンボリューションネットワークまたは少なくとも一つの1x1コンボリューションレイヤによって、前記特徴テンソルに少なくとも一つのフルコンボリューション演算または少なくとも一つの1x1コンボリューション演算を適用することにより、前記特徴テンソルそれぞれに対応する前記キーポイントヒートマップ及び前記パートアフィニティフィールドを生成するようにすることを特徴とする。
一実施例として、前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記キーポイントグルーピングレイヤによって、前記キーポイントヒートマップそれぞれの最も高い地点それぞれを前記キーポイントヒートマップそれぞれに対応する前記キーポイントそれぞれとして抽出するようにすることを特徴とする。
一実施例として、前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記キーポイントグルーピングレイヤによって、前記パートアフィニティフィールドを参照にして、前記抽出されたキーポイントの各ペアのうちの、互いにつながる確率の最も高い各ペアそれぞれをつなげることで、前記抽出されたキーポイントをグルーピングするようにすることを特徴とする。
一実施例として、前記(a)段階で、前記特定運転者の前記目が閉じていて、前記目を閉じている時間が予め設定された第1閾値以上ならば、前記運転状態検出装置は、前記居眠り検出ネットワークをもって、前記特定運転者を前記居眠り状態であると判断するようにするプロセスを遂行することを特徴とする。
一実施例として、前記(a)段階で、前記ボディキーポイントが前記すべての走行ポーズとマッチングされず、前記ボディキーポイントと前記すべての走行ポーズとがマッチングされない状態が維持される時間が予め設定された第2閾値以上であれば、前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記運転者が前記異常状態であると判断するようにすることを特徴とする。
本発明の他の態様によれば、ディープラーニングに基づいて特定車両の特定運転者の居眠り状態及び異常状態を検出して警告する運転者状態検出装置において、各インストラクションを格納する少なくとも一つのメモリ;及び(I)前記特定車両の室内の少なくとも一つの室内イメージが取得されると、(i)前記室内イメージを居眠り検出ネットワークに入力して、前記居眠り検出ネットワークをもって、前記室内イメージから前記特定運転者の少なくとも一つの顔部分を検出し、前記顔部分から前記特定運転者の少なくとも一つの目の部分を検出し、前記特定運転者の少なくとも一つの目の瞬き状態を検出するようにすることにより、前記特定運転者の前記居眠り状態を判断するようにするプロセス、及び(ii)前記室内イメージをポーズマッチングネットワークに入力して、前記ポーズマッチングネットワークをもって、前記室内イメージから前記特定運転者のボディに対応する一つ以上のボディキーポイント(body keypoint)を検出するようにし、前記ボディキーポイントが予め設定された走行ポーズのうちの一つとマッチングするかを判断するようにすることにより、前記特定運転者の前記異常状態を判断するようにするプロセスのうちの少なくとも一部を遂行するプロセス;及び(II)前記居眠り検出ネットワークから出力された前記特定運転者の前記居眠り状態及び前記ポーズマッチングネットワークから出力された前記特定運転者の前記異常状態のうちの少なくとも一部を参照にして、前記特定運転者が危険状態であると判断されると、V2V(vehicle−to−vehicle)通信によって、前記特定運転者の前記危険状態に対する情報を一つ以上の周辺車両に伝送して前記周辺車両の一つ以上の周辺運転者をもって、前記特定運転者の前記危険状態を認識するようにするプロセスを遂行するプロセス;を遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;を含むことを特徴とする運転者状態検出装置が開示される。
一実施例として、前記(I)プロセスで、前記プロセッサは、前記居眠り検出ネットワークをもって、(i)(i−1)顔検出器のコンボリューション(convolution)レイヤによって少なくとも一つのコンボリューション演算を前記室内イメージに適用して少なくとも一つの特徴マップを生成し、(i−2)前記顔検出器のRPN(Region Proposal Network)によって前記特徴マップ上の一つ以上の物体に対応する一つ以上のプロポーザルボックスを生成し、(i−3)前記顔検出器のプーリングレイヤによって前記特徴マップ上の前記プロポーザルボックスに対応する一つ以上の領域に少なくとも一つのプーリング演算を適用して少なくとも一つの特徴ベクトルを生成し、(i−4)前記顔検出器のFC(fully connected)レイヤによって前記特徴ベクトルに少なくとも一つのFC演算を適用して少なくとも一つのFC出力値を生成し、(i−5)前記FCレイヤの前記FC出力値に少なくとも一つの分類演算及び少なくとも一つのリグレッション演算を適用して、それぞれの前記物体に対するクラス情報及びリグレッション情報を出力した後、前記顔検出器の分類レイヤ及びリグレッションレイヤによって前記室内イメージ上の前記特定運転者の前記顔部分を検出するようにし、前記物体それぞれは、前記プロポーザルボックスそれぞれに対応し、(ii)目検出器によって前記顔部分を少なくとも一つのMCT(Modified Census Transform)イメージに変換し、前記顔部分の明るさと局部部分の明るさの平均との間の差が前記MCTイメージにエンコードされ、エイダブースト(Adaboost)アルゴリズムを利用して前記MCTイメージから取得された目検出用特徴データから前記特定運転者の前記目の部分を検出し、前記目の開閉状態を参照して前記目の部分の前記目の瞬き状態を検出するようにすることを特徴とする。
一実施例として、前記(I)プロセスで、前記プロセッサは、前記ポーズマッチングネットワークをもって、(i)特徴抽出器によって前記室内イメージから一つ以上の特徴を抽出して生成された一つ以上の特徴テンソル(tensor)を生成し、(ii)キーポイントヒートマップ(keypoint heatmap)及びパートアフィニティフィールド(part affinity field)抽出器によって前記特徴テンソルそれぞれに対応する一つ以上のキーポイントヒートマップ及び一つ以上のパートアフィニティフィールドを生成し、(iii)前記キーポイントヒートマップそれぞれにおける一つ以上のキーポイントを抽出し、前記パートアフィニティフィールドそれぞれを参照にして前記抽出されたキーポイントをグルーピング(grouping)することにより、キーポイントグルーピングレイヤによって、前記室内イメージに位置する前記特定運転者に対応する前記ボディキーポイントを生成するようにすることを特徴とする。
一実施例として、前記プロセッサは、前記ポーズマッチングネットワークをもって、前記特徴抽出器の少なくとも一つのコンボリューションレイヤによって、前記室内イメージに少なくとも一つのコンボリューション演算を適用することで、前記特徴テンソルを生成するようにすることを特徴とする。
一実施例として、前記プロセッサは、前記ポーズマッチングネットワークをもって、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器のフルコンボリューションネットワークまたは少なくとも一つの1x1コンボリューションレイヤによって、前記特徴テンソルに少なくとも一つのフルコンボリューション演算または少なくとも一つの1x1コンボリューション演算を適用することにより、前記特徴テンソルそれぞれに対応する前記キーポイントヒートマップ及び前記パートアフィニティフィールドを生成するようにすることを特徴とする。
一実施例として、前記プロセッサは、前記ポーズマッチングネットワークをもって、前記キーポイントグルーピングレイヤによって、前記キーポイントヒートマップそれぞれの最も高い地点それぞれを前記キーポイントヒートマップそれぞれに対応する前記キーポイントそれぞれとして抽出するようにすることを特徴とする。
一実施例として、前記プロセッサは、前記ポーズマッチングネットワークをもって、前記キーポイントグルーピングレイヤによって、前記パートアフィニティフィールドを参照にして、前記抽出されたキーポイントの各ペアのうちの、互いにつながる確率の最も高い各ペアそれぞれをつなげることで、前記抽出されたキーポイントをグルーピングするようにすることを特徴とする。
一実施例として、前記(I)プロセスで、前記特定運転者の前記目が閉じていて、前記目を閉じている時間が予め設定された第1閾値以上ならば、前記プロセッサは、前記居眠り検出ネットワークをもって、前記特定運転者を前記居眠り状態であると判断するようにするプロセスを遂行することを特徴とする。
一実施例として、前記(I)プロセスで、前記ボディキーポイントが前記すべての走行ポーズとマッチングされず、前記ボディキーポイントと前記すべての走行ポーズとがマッチングされない状態が維持される時間が予め設定された第2閾値以上であれば、前記プロセッサは、前記ポーズマッチングネットワークをもって、前記運転者が前記異常状態であると判断するようにすることを特徴とする。
この他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取可能な記録媒体がさらに提供される。
本発明は、特定運転者の瞬き状態及び走行ポーズをそれぞれ評価して前記特定運転者の居眠り状態及び異常状態を効果的に検出できるようにする効果がある。
本発明は、前記特定運転者の危険状態に対する情報をV2V通信によって周辺車両に伝送して、前記周辺運転者に前記特定運転者の危険状態を警告できる他の効果がある。
本発明は、前記特定運転者の危険状態に対する情報をV2V通信によって周辺車両に伝送して、前記特定運転者の危険状態により発生し得る交通事故を防止できる他の効果がある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうちの一部に過ぎず、本発明が属する技術分野でおいて、通常の知識を有する者(以下「通常の技術者」)は、発明的作業が行われることなくこの図面に基づいて他の図面が得られ得る。
図1は、本発明の一実施例に係る特定車両の特定運転者の少なくとも一つの異常状態及び少なくとも一つの居眠り状態を検出して警告する運転者状態検出装置を概略的に示した図面である。 図2は、本発明の一実施例に係る前記特定車両の前記特定運転者の前記異常状態及び前記居眠り状態を検出して警告する方法を概略的に示した図面である。 図3は、本発明の一実施例に係る前記特定運転者の前記居眠り状態及び前記異常状態を検出する方法において、前記特定車両の前記特定運転者の前記居眠り状態を判断する過程を概略的に示した図面である。 図4は、本発明の一実施例に係る前記特定運転者の前記居眠り状態及び前記異常状態を検出する方法において、前記特定運転者の顔を検出する過程を概略的に示した図面である。 図5は、本発明の一実施例に係る前記特定運転者の前記居眠り状態及び前記異常状態を検出する方法において、前記特定運転者のポーズを活用して前記特定運転者の前記異常状態を判断する過程を概略的に示した図面である。 図6は、本発明の一実施例に係る前記特定運転者の前記居眠り状態及び前記異常状態を検出する方法において、前記特定運転者のボディキーポイントを検出する過程を概略的に示した図面である。
後述する本発明に対する詳細な説明は、本発明の各目的、技術的解決方法及び長所を明確にするために、本発明が実施され得る特定実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように充分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のあらゆる可能な組み合わせを網羅する。本発明の多様な実施例は相互異なるが、相互排他的である必要はないことを理解されたい。例えば、ここに記載されている特定の形状、構造及び特性は一例と関連して、本発明の精神及び範囲を逸脱せず、かつ他の実施例で実装され得る。また、各々の開示された実施例内の個別構成要素の位置または配置は、本発明の精神及び範囲を逸脱せずに変更され得ることを理解されたい。従って、後述する詳細な説明は限定的な意味で捉えようとするものではなく、本発明の範囲は、適切に説明されれば、その請求項が主張することと均等なすべての範囲と、併せて添付された請求項によってのみ限定される。図面で類似した参照符号は、いくつかの側面にかけて同一であるか類似した機能を指称する。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について添付の図面を参照して詳細に説明する。
図1は、本発明の一実施例に係る特定車両の特定運転者の少なくとも一つの異常状態及び少なくとも一つの居眠り状態を検出して警告する運転者状態検出装置を概略的に示した図面である。図1を参照すれば、前記運転者状態検出装置1000は、前記特定車両の前記特定運転者の前記異常状態及び前記居眠り状態を検出して警告を与えるインストラクションを格納するメモリ1100と、前記特定運転者の前記居眠り状態及び前記異常状態を検出する前記メモリ1100に格納されたインストラクションに対応するプロセスを遂行するプロセッサ1200とを含むことができる。
具体的に、前記運転者状態検出装置1000は、典型的に少なくとも一つのコンピューティング装置(例えば、コンピュータのプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他の従来のコンピューティング装置の各構成要素を含むことができる装置;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージエリアネットワーク(SAN)のような電子情報ストレージシステム)と、少なくとも一つのコンピュータソフトウェア(つまり、前記コンピューティング装置をもって、特定の方式で機能させる各インストラクション)との組み合わせを利用して希望するシステム性能を達成するものであり得る。
前記コンピューティング装置のプロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
しかし、このような前記コンピューティング装置に対する説明が本発明を実施するためのプロセッサ、メモリ、媒体またはその他のコンピューティング構成要素が統合された形である統合プロセッサを含む場合を排除するものではない。
このように構成された、本発明の一実施例に係る前記運転者状態検出装置1000を利用して特定車両の少なくとも一つの室内イメージから前記特定運転者の前記居眠り状態及び前記異常状態を検出して警告をする方法は、図2を参照して説明すると次の通りである。
まず、少なくとも一つのカメラ10によって撮影された前記特定車両の室内イメージが取得されると、前記運転者状態検出装置1000が、(i)前記室内イメージを居眠り検出ネットワーク100に入力して、前記居眠り検出ネットワーク100をもって、前記室内イメージから前記特定運転者の少なくとも一つの顔の部分を検出し、前記検出された顔の部分において、前記特定運転者の少なくとも一つの目の部分を検出するようにするプロセス及び(ii)前記特定運転者の少なくとも一つの瞬き状態を検出するようにすることにより、前記特定運転者の前記居眠り状態を判断するようにするプロセスを遂行することができる。この際、前記運転者状態検出装置1000は、前記室内イメージから前記特定運転者の顔が位置する上半身をクロッピング(cropping)するプロセス及び前記室内イメージの前記クロッピングされた上半身を前記眠気検出ネットワーク100に入力するプロセスを遂行して、前記居眠り検出ネットワーク100をもって、前記室内イメージの前記クロッピングされた上半身から前記特定運転者の顔の部分を検出するようにして前記全体室内イメージから前記顔の部分を検出することに比べて、前記居眠り検出ネットワーク100の演算量を減少させることができる。
一例として、図3を参照すれば、前記居眠り検出ネットワーク100は、前記室内イメージを顔検出器110に入力して、前記顔検出器110をもって、ディープラーニング基盤で前記室内イメージを分析することにより、前記室内イメージ上の前記特定運転者の前記顔を検出するようにする。
この際、前記顔検出器110は、CNN(Convolutional Neural Network)基盤の検出器に基づいた検出器であり得るが、本発明の範囲は、これに限定されない。
一方、図4を参照すれば、前記CNN基盤の前記顔検出器110は、少なくとも一つのコンボリューションレイヤ111によって前記室内イメージに少なくとも一つのコンボリューション演算を適用して少なくとも一つの特徴マップを生成するようにし、RPN(region proposal network)112によって、前記特徴マップ上の一つ以上の物体に対応する一つ以上のプロポーザルボックスを生成するプロセスを遂行することができる。そして、前記顔検出器110は、プーリングレイヤ113によって、前記特徴マップ上の前記プロポーザルボックスに対応する一つ以上の領域に少なくとも一つのプーリング演算を適用して、少なくとも一つの特徴ベクトルを生成するプロセス、及びFCレイヤ114によって、前記特徴ベクトルに少なくとも一つのFC演算を適用して、少なくとも一つのFC出力値を生成するプロセスを遂行することができる。以降、前記顔検出器110は、少なくとも一つの分類演算と少なくとも一つのリグレッション演算を前記FCレイヤ114の前記FC出力値に適用して、前記物体それぞれに対するクラス情報とリグレッション情報とを出力して、前記物体それぞれがプロポーザルボックスそれぞれに対応する分類レイヤ115及びリグレッションレイヤ116によって、前記室内イメージ上の前記特定運転者の前記顔の部分を検出することができる。
再び、図3を参照すれば、前記居眠り検出ネットワーク100は、前記顔検出器110によって検出された前記特定運転者の前記顔の部分を目検出器120に入力して、前記目検出器120をもって、(i)前記顔部分を少なくとも一つのMCT(Modified Census Transform)イメージに変換するようにして、前記顔部分の明るさと局部部分の明るさの平均との間の差がエンコードされるようにし、(ii)エイダブースト(Adaboost)アルゴリズムを利用して前記MCTイメージから取得した目検出用特徴データから前記特定運転者の前記目の部分を検出するようにし、(iii)前記目の部分の前記目の開閉状態を参照にして、前記目の前記瞬き状態を検出するようにすることができる。この際、前記瞬き状態は、前記MCTイメージの目の部分の瞳孔の開閉状態で確認され得、前記開閉状態は、目、すなわち瞳孔が開いているか閉じているか示すことができる。例えば、前記特定運転者の目が完全に開いているときの瞳孔サイズと、前記特定運転者の目が閉じているときの瞳孔サイズは異なるように検出され得、これによって前記特定運転者の目の瞬き状態が判断され得る。
また、前記特定運転者の目の瞬き状態を検出するための別途の瞬き検出器130が追加され得る。この際、前記瞬き検出器130は、前記目の部分の瞳孔を追跡して前記目の瞬き状態を検出することができる。
そして、前記特定運転者の前記目が閉じていて、前記目が閉じている時間が予め設定された第1閾値以上であれば、前記居眠り検出装置100は、前記特定運転者の目の瞬きの状態を参照にして前記特定運転者が前記居眠り状態であると判断することができる。
次に、再び図2を参照すれば、前記運転者検出装置1000は、前記室内イメージをポーズマッチングネットワーク200に入力して、前記ポーズマッチングネットワーク200をもって、前記室内イメージから前記特定運転者のボディに対応する一つ以上のボディキーポイント(body keypoint)を検出するようにし、前記ボディキーポイントが予め設定された走行ポーズのうちの一つとマッチングするかを判断するようにすることにより、前記特定運転者の前記異常状態を判断するようにするプロセスを遂行することができる。この際、前記走行ポーズは、前記運転者が運転席に着席して正常に車両を運転する際のポーズであり得、前記車両を走行する正常位置に該当する前記運転者の予め設定されたポーズとして事前にデータベースに格納することができる。
一例として、図5を参照すれば、前記ポーズマッチングネットワーク200は、前記室内イメージをボディキーポイント検出器210に入力して、前記ボディキーポイント検出器210をもって、前記特定運転者の前記ボディキーポイントを検出するようにすることができる。
その際、前記特定車両の前記室内に設置されたカメラで取得した映像またはイメージは、ボディ(すなわち、人の身体)を多く隠した状態であり得、運転席の場合、前記特定運転者の上半身だけ見え得る。こうした場合、従来の物体検出器は、たくさん隠された特定運転手を検出するのに失敗し得るが、前記ボディキーポイント検出器210は、見える部分のみを利用して前記特定運転者がいるかを判断することができる。そして、前記特定運転者はポーズ多様性範囲が広いため、前記ボディキーポイント検出器210は、前記従来の物体検出器に比べてはるかに有用である。
そして、図6を参照して、ボディキーポイント検出器210が前記室内イメージで前記特定運転者の前記ボディキーポイントを検出する過程をもう少し詳しく説明すると、次の通りである。
前記ボディキーポイント検出器210が前記室内イメージを特徴抽出ネットワーク211に入力して、前記特徴抽出ネットワーク211をもって、前記室内イメージから一つ以上の特徴を抽出して一つ以上の特徴テンソルを生成するようにすることができる。この際、前記特徴抽出ネットワーク211は、少なくとも一つのコンボリューション演算を前記室内イメージに適用して前記室内イメージに対応する前記特徴テンソルを生成することができる。そして、前記特徴抽出ネットワーク211は、少なくとも一つのコンボリューション演算を遂行できる一つ以上のコンボリューションレイヤを含む一つ以上のコンボリューションブロックであり得る。
そして、前記ボディキーポイント検出器210は、前記特徴テンソルをキーポイントヒートマップ(keypoint heatmap)及びパートアフィニティフィールド(part affinity field)抽出器212に入力して、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器212をもって、前記特徴テンソルそれぞれに対応するそれぞれのキーポイントヒートマップ及び(ii)前記キーポイント間の関係を示すベクトルマップであるパートアフィニティフィールドを生成するようにすることができる。この際、それぞれの前記パートアフィニティフィールドは、特定キーポイントと他のキーポイントとの連結性を示したマップであり得、それぞれのキーポイントヒートマップペアに対して互いにつながる確率を示すマップであり得る。そして、「ヒートマップ」は熱を意味するヒート(heat)と地図を意味するマップ(map)とを結合させたもので、色で表現できる多様な情報を一定のイメージ上に熱分布形のグラフィックとして生成したものであり得る。
この際、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器212は、フルコンボリューションネットワークを含むことができる。
また、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器212は、少なくとも一つの1x1コンボリューション演算を前記特徴テンソルに適用する少なくとも一つの1x1コンボリューションレイヤを含むことができる。
また、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器212は、二部分マッチング(bipartite matching)を利用して、それぞれのキーポイント間の関係を検出することで、前記パートアフィニティフィールドを生成することができる。すなわち、前記キーポイント間の関係は、前記二部分マッチングによって確認することができる。
その後、前記ボディキーポイント検出器210は、前記キーポイントヒートマップそれぞれから前記キーポイントを抽出し、前記パートアフィニティフィールドそれぞれを参照にして前記抽出されたキーポイントをグルーピング(grouping)することにより、キーポイントグルーピングレイヤ213によって、前記室内イメージに位置する前記特定運転者に対応する前記ボディキーポイントを生成することができる。
つまり、前記ボディキーポイント検出器210は、前記キーポイントグルーピングレイヤ213をもって、前記キーポイントヒートマップそれぞれから前記キーポイントを抽出し、前記抽出された相互連結確率を参照して、連結される確率が最も高いキーポイント同士を各ペアそれぞれとして連結するようにすることができる。この際、前記ボディキーポイント検出器は、各チャネルに対応するそれぞれの前記キーポイントヒートマップ内のそれぞれの最も高い地点、すなわち最も高いヒート値を有するそれぞれのポイントを、それぞれの前記キーポイントヒートマップに対応するそれぞれの前記キーポイントとして抽出することができ、前記パートアフィニティフィールドを参照して、前記抽出されたキーポイントのうち、連結される確率が最も高いキーポイント同士をペアにしてつなげることにより、前記抽出されたキーポイントをグルーピングすることができる。一例として、前記抽出されたキーポイントのうちの一つのキーポイントと連結される確率が最も高い他の一つのキーポイントを一つのペアにして連結する過程を抽出されたキーポイント全てに対して遂行することで各キーポイントをグルーピングすることができる。
次に、再び図5を参照すれば、前記ポーズマッチングネットワーク200は、ポーズマッチング装置220をもって、前記ボディキーポイント検出器210から取得された前記ボディキーポイント間のポーズマッチングを遂行することで、前記ボディキーポイントが前記予め設定された走行ポーズのうちの一つとマッチングされるかを確認することができる。
この際、前記ボディキーポイントが前記予め設定された走行ポーズのいずれともマッチングされないと判断されれば、前記ポーズマッチングネットワーク200は、前記ボディキーポイントが予め設定された走行ポーズのいずれともマッチングされない状態が第2閾値以上の時間の間に持続されたかを判断して、前記運転者が異常状態であるか否かを判断することができる。
つまり、前記ボディキーポイントと、前記走行ポーズとのうちのいずれともマッチングされない状態が維持される時間が予め設定された第2閾値値以上であれば、前記運転者は異常状態であると判断され得る。例えば、前記異常状態は、前記特定運転者が走行に集中せずに物を拾うために身をかがめたり、失神等で運転ができなかったりする状況のうちの一つに対応し得る。
つぎに、再び図2を参照すれば、前記特定運転者が、前記居眠り検出ネットワーク100から出力された前記特定運転者の前記居眠り状態及び前記ポーズマッチングネットワーク200から出力された前記特定運転者の前記異常状態のうちの少なくとも一部を参照にして、危険状態であると判断されると、前記運転者状態検出装置1000は、V2V(vehicle−to−vehicle)インターフェイサ20によって、前記特定運転者の前記危険状態に対する情報を一つ以上の周辺車両に伝送して、前記周辺車両の一つ以上の周辺運転者をもって、前記特定運転者の前記危険状態を認識するようにするプロセスを遂行することができる。これによって、前記周辺運転者をもって、前記危険状態で前記特定運転者が運転する前記特定車両に注意を払うようにすることにより、交通事故リスクを低減することができる。
一方、前記特定運転者が前記危険状態にあると判断される場合、前記運転者状態検出装置1000は、前記危険状態にある前記特定運転者に警告をして、前記特定運転者をもって、このような危険状態を認知できるようにすることができる。一例として、前記運転者状態検出装置1000は、前記運転者の状態が危険状態であると判断された場合、警告音を発するか、運転者席またはステアリングホイールに振動を与え、前記運転者がこれを認知できるようにすることができる。
前記で説明したとおり、本発明は、前記人の状態認識を利用して運転者状態をモニタリングすることで、前記危険状態を検出した後、V2V連結を利用したV2V危険警告を遂行して車両間走行安全性を確保することができるようになる。
以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて遂行できるプログラム命令語の形態で具現されてコンピュータ読取り可能な記録媒体に記録され得る。前記コンピュータで読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含まれ得る。前記コンピュータ読取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知となって利用可能なものでもよい。コンピュータで判読可能な記録媒体の例には、ハードディスク、フロッピィディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(flopticaldisk)のような磁気−光媒体(magneto−opticalmedia)、及びROM、RAM、フラッシュメモリなどといったプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その逆も同様である。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (14)

  1. ディープラーニングに基づいて特定車両の特定運転者の居眠り状態及び異常状態を検出して警告する方法において、
    (a)前記特定車両の室内の少なくとも一つの室内イメージが取得されると、運転者状態検出装置が、(i)前記室内イメージを居眠り検出ネットワークに入力して、前記居眠り検出ネットワークをもって、前記室内イメージから前記特定運転者の少なくとも一つの顔部分を検出し、前記顔部分から前記特定運転者の少なくとも一つの目の部分を検出し、前記特定運転者の少なくとも一つの目の瞬き状態を検出するようにすることにより、前記特定運転者の前記居眠り状態を判断するようにするプロセス、及び(ii)前記室内イメージをポーズマッチングネットワークに入力して、前記ポーズマッチングネットワークをもって、前記室内イメージから前記特定運転者のボディに対応する一つ以上のボディキーポイント(body keypoint)を検出するようにし、前記ボディキーポイントが予め設定された走行ポーズのうちの一つとマッチングするかを判断するようにすることにより、前記特定運転者の前記異常状態を判断するようにするプロセスのうちの少なくとも一部を遂行する段階;及び
    (b)前記居眠り検出ネットワークから出力された前記特定運転者の前記居眠り状態及び前記ポーズマッチングネットワークから出力された前記特定運転者の前記異常状態のうちの少なくとも一部を参照にして、前記特定運転者が危険状態であると判断されると、前記運転者状態検出装置は、V2V(vehicle−to−vehicle)通信によって、前記特定運転者の前記危険状態に対する情報を一つ以上の周辺車両に伝送して前記周辺車両の一つ以上の周辺運転者をもって、前記特定運転者の前記危険状態を認識するようにするプロセスを遂行する段階;を含み、
    前記(a)段階で、
    前記運転者状態検出装置は、前記居眠り検出ネットワークをもって、(i)(i−1)顔検出器のコンボリューション(convolution)レイヤによって少なくとも一つのコンボリューション演算を前記室内イメージに適用して少なくとも一つの特徴マップを生成し、(i−2)前記顔検出器のRPN(Region Proposal Network)によって前記特徴マップ上の一つ以上の物体に対応する一つ以上のプロポーザルボックスを生成し、(i−3)前記顔検出器のプーリングレイヤによって前記特徴マップ上の前記プロポーザルボックスに対応する一つ以上の領域に少なくとも一つのプーリング演算を適用して少なくとも一つの特徴ベクトルを生成し、(i−4)前記顔検出器のFC(fully connected)レイヤによって前記特徴ベクトルに少なくとも一つのFC演算を適用して少なくとも一つのFC出力値を生成し、(i−5)前記FCレイヤの前記FC出力値に少なくとも一つの分類演算及び少なくとも一つのリグレッション演算を適用して、それぞれの前記物体に対するクラス情報及びリグレッション情報を出力した後、前記顔検出器の分類レイヤ及びリグレッションレイヤによって前記室内イメージ上の前記特定運転者の前記顔部分を検出するようにし、前記物体それぞれは、前記プロポーザルボックスそれぞれに対応し、(ii)目検出器によって前記顔部分を少なくとも一つのMCT(Modified Census Transform)イメージに変換し、前記顔部分の明るさと局部部分の明るさの平均との間の差が前記MCTイメージにエンコードされ、エイダブースト(Adaboost)アルゴリズムを利用して前記MCTイメージから取得された目検出用特徴データから前記特定運転者の前記目の部分を検出し、前記目の開閉状態を参照して前記目の部分の前記目の瞬き状態を検出するようにし、
    前記(a)段階で、
    前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、(i)特徴抽出器によって前記室内イメージから一つ以上の特徴を抽出して生成された一つ以上の特徴テンソル(tensor)を生成し、(ii)キーポイントヒートマップ(keypoint heatmap)及びパートアフィニティフィールド(part affinity field)抽出器によって前記特徴テンソルそれぞれに対応する一つ以上のキーポイントヒートマップ及び一つ以上のパートアフィニティフィールドを生成し、(iii)前記キーポイントヒートマップそれぞれにおける一つ以上のキーポイントを抽出し、前記パートアフィニティフィールドそれぞれを参照にして前記抽出されたキーポイントをグルーピング(grouping)することにより、キーポイントグルーピングレイヤによって、前記室内イメージに位置する前記特定運転者に対応する前記ボディキーポイントを生成するようにする
    ことを特徴とする方法。
  2. 前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記特徴抽出器の少なくとも一つのコンボリューションレイヤによって、前記室内イメージに少なくとも一つのコンボリューション演算を適用することで、前記特徴テンソルを生成するようにする請求項に記載の方法。
  3. 前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器のフルコンボリューションネットワークまたは少なくとも一つの1x1コンボリューションレイヤによって、前記特徴テンソルに少なくとも一つのフルコンボリューション演算または少なくとも一つの1x1コンボリューション演算を適用することにより、前記特徴テンソルそれぞれに対応する前記キーポイントヒートマップ及び前記パートアフィニティフィールドを生成するようにする請求項に記載の方法。
  4. 前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記キーポイントグルーピングレイヤによって、前記キーポイントヒートマップそれぞれの最も高い地点それぞれを前記キーポイントヒートマップそれぞれに対応する前記キーポイントそれぞれとして抽出するようにする請求項に記載の方法。
  5. 前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記キーポイントグルーピングレイヤによって、前記パートアフィニティフィールドを参照にして、前記抽出されたキーポイントの各ペアのうちの、互いにつながる確率の最も高い各ペアそれぞれをつなげることで、前記抽出されたキーポイントをグルーピングするようにする請求項に記載の方法。
  6. 前記(a)段階で、
    前記特定運転者の前記目が閉じていて、前記目を閉じている時間が予め設定された第1閾値以上ならば、前記運転状態検出装置は、前記居眠り検出ネットワークをもって、前記特定運転者を前記居眠り状態であると判断するようにするプロセスを遂行する請求項1に記載の方法。
  7. 前記(a)段階で、
    前記ボディキーポイントが前記すべての走行ポーズとマッチングされず、前記ボディキーポイントと前記すべての走行ポーズとがマッチングされない状態が維持される時間が予め設定された第2閾値以上であれば、前記運転者状態検出装置は、前記ポーズマッチングネットワークをもって、前記運転者が前記異常状態であると判断するようにする請求項1に記載の方法。
  8. ディープラーニングに基づいて特定車両の特定運転者の居眠り状態及び異常状態を検出して警告する運転者状態検出装置において、
    各インストラクションを格納する少なくとも一つのメモリ;及び
    (I)前記特定車両の室内の少なくとも一つの室内イメージが取得されると、(i)前記室内イメージを居眠り検出ネットワークに入力して、前記居眠り検出ネットワークをもって、前記室内イメージから前記特定運転者の少なくとも一つの顔部分を検出し、前記顔部分から前記特定運転者の少なくとも一つの目の部分を検出し、前記特定運転者の少なくとも一つの目の瞬き状態を検出するようにすることにより、前記特定運転者の前記居眠り状態を判断するようにするプロセス、及び(ii)前記室内イメージをポーズマッチングネットワークに入力して、前記ポーズマッチングネットワークをもって、前記室内イメージから前記特定運転者のボディに対応する一つ以上のボディキーポイント(body keypoint)を検出するようにし、前記ボディキーポイントが予め設定された走行ポーズのうちの一つとマッチングするかを判断するようにすることにより、前記特定運転者の前記異常状態を判断するようにするプロセスのうちの少なくとも一部を遂行するプロセス;及び(II)前記居眠り検出ネットワークから出力された前記特定運転者の前記居眠り状態及び前記ポーズマッチングネットワークから出力された前記特定運転者の前記異常状態のうちの少なくとも一部を参照にして、前記特定運転者が危険状態であると判断されると、V2V(vehicle−to−vehicle)通信によって、前記特定運転者の前記危険状態に対する情報を一つ以上の周辺車両に伝送して前記周辺車両の一つ以上の周辺運転者をもって、前記特定運転者の前記危険状態を認識するようにするプロセスを遂行するプロセス;を遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;を含み、
    前記(I)プロセスで、
    前記プロセッサは、前記居眠り検出ネットワークをもって、(i)(i−1)顔検出器のコンボリューション(convolution)レイヤによって少なくとも一つのコンボリューション演算を前記室内イメージに適用して少なくとも一つの特徴マップを生成し、(i−2)前記顔検出器のRPN(Region Proposal Network)によって前記特徴マップ上の一つ以上の物体に対応する一つ以上のプロポーザルボックスを生成し、(i−3)前記顔検出器のプーリングレイヤによって前記特徴マップ上の前記プロポーザルボックスに対応する一つ以上の領域に少なくとも一つのプーリング演算を適用して少なくとも一つの特徴ベクトルを生成し、(i−4)前記顔検出器のFC(fully connected)レイヤによって前記特徴ベクトルに少なくとも一つのFC演算を適用して少なくとも一つのFC出力値を生成し、(i−5)前記FCレイヤの前記FC出力値に少なくとも一つの分類演算及び少なくとも一つのリグレッション演算を適用して、それぞれの前記物体に対するクラス情報及びリグレッション情報を出力した後、前記顔検出器の分類レイヤ及びリグレッションレイヤによって前記室内イメージ上の前記特定運転者の前記顔部分を検出するようにし、前記物体それぞれは、前記プロポーザルボックスそれぞれに対応し、(ii)目検出器によって前記顔部分を少なくとも一つのMCT(Modified Census Transform)イメージに変換し、前記顔部分の明るさと局部部分の明るさの平均との間の差が前記MCTイメージにエンコードされ、エイダブースト(Adaboost)アルゴリズムを利用して前記MCTイメージから取得された目検出用特徴データから前記特定運転者の前記目の部分を検出し、前記目の開閉状態を参照して前記目の部分の前記目の瞬き状態を検出するようにし、
    前記(I)プロセスで、
    前記プロセッサは、前記ポーズマッチングネットワークをもって、(i)特徴抽出器によって前記室内イメージから一つ以上の特徴を抽出して生成された一つ以上の特徴テンソル(tensor)を生成し、(ii)キーポイントヒートマップ(keypoint heatmap)及びパートアフィニティフィールド(part affinity field)抽出器によって前記特徴テンソルそれぞれに対応する一つ以上のキーポイントヒートマップ及び一つ以上のパートアフィニティフィールドを生成し、(iii)前記キーポイントヒートマップそれぞれにおける一つ以上のキーポイントを抽出し、前記パートアフィニティフィールドそれぞれを参照にして前記抽出されたキーポイントをグルーピング(grouping)することにより、キーポイントグルーピングレイヤによって、前記室内イメージに位置する前記特定運転者に対応する前記ボディキーポイントを生成するようにする、
    ことを特徴とする運転者状態検出装置。
  9. 前記プロセッサは、前記ポーズマッチングネットワークをもって、前記特徴抽出器の少なくとも一つのコンボリューションレイヤによって、前記室内イメージに少なくとも一つのコンボリューション演算を適用することで、前記特徴テンソルを生成するようにする請求項に記載の運転者状態検出装置。
  10. 前記プロセッサは、前記ポーズマッチングネットワークをもって、前記キーポイントヒートマップ及びパートアフィニティフィールド抽出器のフルコンボリューションネットワークまたは少なくとも一つの1x1コンボリューションレイヤによって、前記特徴テンソルに少なくとも一つのフルコンボリューション演算または少なくとも一つの1x1コンボリューション演算を適用することにより、前記特徴テンソルそれぞれに対応する前記キーポイントヒートマップ及び前記パートアフィニティフィールドを生成するようにする請求項に記載の運転者状態検出装置。
  11. 前記プロセッサは、前記ポーズマッチングネットワークをもって、前記キーポイントグルーピングレイヤによって、前記キーポイントヒートマップそれぞれの最も高い地点それぞれを前記キーポイントヒートマップそれぞれに対応する前記キーポイントそれぞれとして抽出するようにする請求項に記載の運転者状態検出装置。
  12. 前記プロセッサは、前記ポーズマッチングネットワークをもって、前記キーポイントグルーピングレイヤによって、前記パートアフィニティフィールドを参照にして、前記抽出されたキーポイントの各ペアのうちの、互いにつながる確率の最も高い各ペアそれぞれをつなげることで、前記抽出されたキーポイントをグルーピングするようにする請求項11に記載の運転者状態検出装置。
  13. 前記(I)プロセスで、
    前記特定運転者の前記目が閉じていて、前記目を閉じている時間が予め設定された第1閾値以上ならば、前記プロセッサは、前記居眠り検出ネットワークをもって、前記特定運転者を前記居眠り状態であると判断するようにするプロセスを遂行する請求項に記載の運転者状態検出装置。
  14. 前記(I)プロセスで、
    前記ボディキーポイントが前記すべての走行ポーズとマッチングされず、前記ボディキーポイントと前記すべての走行ポーズとがマッチングされない状態が維持される時間が予め設定された第2閾値以上であれば、前記プロセッサは、前記ポーズマッチングネットワークをもって、前記運転者が前記異常状態であると判断するようにする請求項に記載の運転者状態検出装置。
JP2020010700A 2019-01-31 2020-01-27 V2v連結によって人の状態認識を活用して検出された運転者の異常状態を警告するための方法及び装置{method and device for alerting abnormal driver situation detected by using humans’ status recognition via v2v connection} Active JP6930765B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962799181P 2019-01-31 2019-01-31
US62/799,181 2019-01-31
US16/738,484 2020-01-09
US16/738,484 US10713948B1 (en) 2019-01-31 2020-01-09 Method and device for alerting abnormal driver situation detected by using humans' status recognition via V2V connection

Publications (2)

Publication Number Publication Date
JP2020126644A JP2020126644A (ja) 2020-08-20
JP6930765B2 true JP6930765B2 (ja) 2021-09-01

Family

ID=69191902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010700A Active JP6930765B2 (ja) 2019-01-31 2020-01-27 V2v連結によって人の状態認識を活用して検出された運転者の異常状態を警告するための方法及び装置{method and device for alerting abnormal driver situation detected by using humans’ status recognition via v2v connection}

Country Status (5)

Country Link
US (1) US10713948B1 (ja)
EP (1) EP3690729B1 (ja)
JP (1) JP6930765B2 (ja)
KR (1) KR102321011B1 (ja)
CN (1) CN111507170B (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494865B2 (en) 2020-04-21 2022-11-08 Micron Technology, Inc. Passenger screening
US11091166B1 (en) * 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
KR102463143B1 (ko) * 2020-06-15 2022-11-04 세종대학교산학협력단 졸음 운전 감지 방법 및 그 장치
US11256937B2 (en) * 2020-07-17 2022-02-22 Toyota Motor Engineering & Manufacturing North America, Inc. Anomalous event detection and/or validation using inherent human behavior
CN111832526B (zh) * 2020-07-23 2024-06-11 浙江蓝卓工业互联网信息技术有限公司 一种行为检测方法及装置
CN112733767B (zh) * 2021-01-15 2022-05-31 西安电子科技大学 一种人体关键点检测方法、装置、存储介质及终端设备
CN112991685A (zh) * 2021-02-10 2021-06-18 武汉理工大学 考虑驾驶人疲劳状态影响的交通系统风险评估及预警方法
CN112970030A (zh) * 2021-02-10 2021-06-15 华为技术有限公司 交通灯检测的方法和装置
CN112937479A (zh) * 2021-03-31 2021-06-11 北京市商汤科技开发有限公司 车辆控制方法及装置、电子设备和存储介质
CN113269162A (zh) * 2021-07-16 2021-08-17 智道网联科技(北京)有限公司 数据获取方法及其装置
US11767021B2 (en) 2021-09-15 2023-09-26 Toyota Research Institute, Inc. Systems and methods for remotely assisting an operator
CN114495257B (zh) * 2021-12-03 2022-10-14 清华大学 险态工况下融合行为机制的姿态预测方法和装置
CN116363632A (zh) * 2021-12-23 2023-06-30 比亚迪股份有限公司 车内异常行为的监测方法、装置和计算机存储介质
CN114596624B (zh) * 2022-04-20 2022-08-05 深圳市海清视讯科技有限公司 人眼状态检测方法、装置、电子设备及存储介质
FR3136730A1 (fr) * 2022-06-21 2023-12-22 Orange Procédé d’alerte d’un conducteur d’un véhicule automobile après détermination de zones non surveillées par le conducteur
US12077174B2 (en) 2022-08-24 2024-09-03 Toyota Motor Engineering & Manufacturing North America, Inc. Compensating mismatch in abnormal driving behavior detection
GB2621863A (en) * 2022-08-25 2024-02-28 Continental Automotive Tech Gmbh Pose classification and in-cabin monitoring methods and associated systems
IT202200017931A1 (it) 2022-08-31 2024-03-02 Fiat Ricerche “metodo e sistema di allerta per guidatori di gruppi di autoveicoli”
KR20240067757A (ko) * 2022-11-09 2024-05-17 주식회사 스파이더코어 위험 자세 감지 방법 및 시스템
CN115641570B (zh) * 2022-12-26 2023-06-23 中国汽车技术研究中心有限公司 驾驶行为确定方法、装置、电子设备和存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6950027B2 (en) * 2000-08-23 2005-09-27 Siemens Vdo Automotive Corporation Method to alert drowsy driver
JP2005190082A (ja) * 2003-12-25 2005-07-14 Fuji Photo Film Co Ltd 居眠り運転警告装置及びカーナビゲーション装置
JP2008146327A (ja) * 2006-12-08 2008-06-26 Toshiba Lighting & Technology Corp 乗り物用照明装置
US20140309839A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle Registration to Enter Automated Control of Vehicular Traffic
CN103507809B (zh) * 2013-09-27 2016-05-18 奇瑞汽车股份有限公司 一种控制车辆行驶的方法和装置
JP6323318B2 (ja) * 2014-12-12 2018-05-16 ソニー株式会社 車両制御装置および車両制御方法、並びにプログラム
US10127813B2 (en) * 2015-01-20 2018-11-13 Invent F&W, Llc Systems and methods for alerting drivers of approaching emergency vehicles
KR101669447B1 (ko) * 2015-03-26 2016-11-09 조선대학교산학협력단 영상 기반의 운전자 졸음 인식 시스템 및 그 인식 방법
CN105769120B (zh) * 2016-01-27 2019-01-22 深圳地平线机器人科技有限公司 疲劳驾驶检测方法和装置
US9524430B1 (en) * 2016-02-03 2016-12-20 Stradvision Korea, Inc. Method for detecting texts included in an image and apparatus using the same
US10262219B2 (en) * 2016-04-21 2019-04-16 Hyundai Motor Company Apparatus and method to determine drowsiness of a driver
KR101839089B1 (ko) * 2016-06-02 2018-03-16 한국산업기술대학교산학협력단 운전자의 졸음 인식 방법 및 졸음 인식 장치
US10467488B2 (en) * 2016-11-21 2019-11-05 TeleLingo Method to analyze attention margin and to prevent inattentive and unsafe driving
WO2018118958A1 (en) * 2016-12-22 2018-06-28 Sri International A driver monitoring and response system
CN106650688A (zh) * 2016-12-30 2017-05-10 公安海警学院 基于卷积神经网络的眼部特征检测方法,装置及识别系统
JP6998564B2 (ja) * 2017-02-08 2022-01-18 パナソニックIpマネジメント株式会社 覚醒度推定装置及び覚醒度推定方法
JP2018133032A (ja) * 2017-02-17 2018-08-23 オムロン株式会社 運転切替支援装置、及び運転切替支援方法
JP6862629B2 (ja) * 2017-03-30 2021-04-21 株式会社日本総合研究所 見守り送迎システムにおける車両管理サーバ、車載端末、見守り方法、及びプログラム
KR101950476B1 (ko) * 2017-04-25 2019-04-29 만도헬라일렉트로닉스(주) 운전자 상태 감지 시스템, 운전자 상태 감지 방법 및 운전자 감지 시스템을 장착한 차량
JP7005933B2 (ja) * 2017-05-09 2022-01-24 オムロン株式会社 運転者監視装置、及び運転者監視方法
US20190018418A1 (en) * 2017-07-13 2019-01-17 Horng-Huei Tseng Vehicle summon system
KR102438191B1 (ko) * 2017-09-29 2022-08-31 주식회사 루멘스 차량용 졸음 방지 장치
CN108491858A (zh) * 2018-02-11 2018-09-04 南京邮电大学 基于卷积神经网络的疲劳驾驶检测方法及系统
US11163317B2 (en) * 2018-07-31 2021-11-02 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing

Also Published As

Publication number Publication date
EP3690729A1 (en) 2020-08-05
US10713948B1 (en) 2020-07-14
KR102321011B1 (ko) 2021-11-03
CN111507170B (zh) 2023-11-28
EP3690729B1 (en) 2024-05-01
KR20200095383A (ko) 2020-08-10
CN111507170A (zh) 2020-08-07
JP2020126644A (ja) 2020-08-20
EP3690729C0 (en) 2024-05-01
US20200250982A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
JP6930765B2 (ja) V2v連結によって人の状態認識を活用して検出された運転者の異常状態を警告するための方法及び装置{method and device for alerting abnormal driver situation detected by using humans’ status recognition via v2v connection}
CN110214107B (zh) 提供驾驶员教育的自主车辆
JP6917080B2 (ja) ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡
JP6938055B2 (ja) 運転者の状態に応じて特化型のキャリブレーションのために運転者補助装置を自動で調整する方法及び装置
KR101276770B1 (ko) 사용자 적응형 특이행동 검출기반의 안전운전보조시스템
CN107273785B (zh) 多尺度融合的道路表面状况检测
US20150116493A1 (en) Method and system for estimating gaze direction of vehicle drivers
US9785828B2 (en) System and method for partially occluded object detection
CN109636924A (zh) 基于现实路况信息三维建模的车载多模式增强现实系统
US20190202477A1 (en) Providing location and driving behavior based alerts
US11934985B2 (en) Driving risk computing device and methods
JP2004362586A (ja) 車両用画像処理システム
KR101165106B1 (ko) 얼굴 인식에 기반한 운전자 인증 장치 및 방법
JP6814334B2 (ja) ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置
JP6919925B2 (ja) バイクライダー用スマートヘルメットを利用してバイクのブラインドスポットをモニタリングする方法及びこれを利用したブラインドスポットモニタリング装置
KR101513540B1 (ko) 손 제스처 인식에 의한 차량 제어 장치 및 방법
US10745029B2 (en) Providing relevant alerts to a driver of a vehicle
JP2021034739A (ja) 事象発生推定のための学習データ生成方法・プログラム、学習モデル及び事象発生推定装置
WO2021241261A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、学習方法
Kim et al. Driving environment assessment using fusion of in-and out-of-vehicle vision systems
Nair et al. Smart System for Drowsiness and Accident Detection
US20230391366A1 (en) System and method for detecting a perceived level of driver discomfort in an automated vehicle
US11745647B2 (en) Method for sending information to an individual located in the environment of a vehicle
Berri et al. ADAS classifier for driver monitoring and driving qualification using both internal and external vehicle data
Radhika et al. Container based Driver Fatigue System using IoT

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200710

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210804

R150 Certificate of patent or registration of utility model

Ref document number: 6930765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250