JP2021064343A - 行動認識装置、行動認識方法、及び情報生成装置 - Google Patents
行動認識装置、行動認識方法、及び情報生成装置 Download PDFInfo
- Publication number
- JP2021064343A JP2021064343A JP2020003134A JP2020003134A JP2021064343A JP 2021064343 A JP2021064343 A JP 2021064343A JP 2020003134 A JP2020003134 A JP 2020003134A JP 2020003134 A JP2020003134 A JP 2020003134A JP 2021064343 A JP2021064343 A JP 2021064343A
- Authority
- JP
- Japan
- Prior art keywords
- information
- driver
- state
- recognition device
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 239000013598 vector Substances 0.000 claims abstract description 51
- 230000009471 action Effects 0.000 claims abstract description 48
- 238000012937 correction Methods 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 abstract description 61
- 239000000284 extract Substances 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 50
- 230000006399 behavior Effects 0.000 description 48
- 230000006870 function Effects 0.000 description 42
- 238000001514 detection method Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
Abstract
Description
すなわち、従来技術では、特徴ベクトルの要素となる特徴の選定には、収集した時系列データから、どの特徴がドライバの行動に影響を与えているのかを判定できる高度な専門性が必要となる。また、従来技術では、特徴の選定され方によって、認識性能が大きく変動する。このため、判定に使用する特徴の選定が難しいという課題があった。
本開示の一つの局面は、ドライバ状態から運転行動を高速かつ高精度に認識する装置を、高度な専門性を必要とすることなく簡易に構成する技術を提供する。
[1.構成]
図1に示す行動認識装置1は、車両に搭載され、車両において取得される様々な情報からドライバが実行しようとしている運転行動を認識する。行動認識装置1は、カメラ10と、画像処理部20とを備える。行動認識装置1は、通信部30を備えてもよい。
情報生成部21としての機能を実現するために、画像処理部20が実行する情報生成処理について、図2のフローチャートを用いて説明する。情報生成処理は、予め設定された周期で繰り返し起動される。
続くS2では、画像処理部20は、顔検出処理を実行する。顔検出処理は、S1で取得した画像から、顔が撮像された領域である顔領域を検出する処理である。顔検出処理では、例えば、パターンマッチングを用いることができるが、これに限定されるものではない。顔検出処理の結果、例えば、図3中の枠Wで示す部分が顔領域として検出される。
[3.運転行動認識]
[3−1.概要]
行動認識処理で使用される方法、すなわち、情報生成部21が生成する複数の個別状態情報の時系列からドライバが実施しようとしている運転行動を認識する方法について説明する。行動認識処理は、画像処理部20が行動認識部22としての機能を実現するために実行する処理である。
行動認識処理では、複数の個別状態情報の時系列から時間窓Tを用いて切り出される判定用情報群IEが用いられる。時間窓Tは、図6に示すように、認識対象となる運転行動を検出したいタイミングから、その運転行動が実際に開始されるタイミングまでの長さ以上の時間幅に設定される。図5は、時間窓Tによって切り出された判定用情報群IEの一例である。
行動認識用パラメータを設定するための学習処理について、図10のフローチャートを用いて説明する。学習処理は、画像処理部20が学習部23としての機能を実現するために実行する処理である。学習処理を実行する際には、メモリ20bに学習用の個別状態情報が記憶される。学習用の個別状態情報には、画像の1フレーム単位で、ドライバの運転行動の正解ラベルが予め付与される。
続くS16では、画像処理部20は、学習情報毎に、残り修正量ckを(7)式を用いて算出する。
・注視される視領域が変化するタイミング。
・ある視領域が注視されてから他の視領域が注視されるまでの時間間隔。
・異なる視領域、且つ時刻が異なる2点間の状態変化。
続くS18では、画像処理部20は、S17で選択した比較データペア(Pe0,Pe1)の差分値を、学習情報を分類する際の指標とし、すべての学習情報において残り修正量ckに近い値が得られるような回帰木RTkを生成する。すなわち、回帰木RTkによって実現される回帰関数Gkを生成する。
続くS21では、画像処理部20は、k>Kであるか否かを判定する。S21において否定判定された場合は、新たな回帰木を作成するために処理をS16に戻し、S21において肯定判定された場合は、処理を終了させる。
[3−3.行動認識処理]
画像処理部20が実行する行動認識処理について、図11のフローチャートを用いて説明する。行動認識処理では、上述の学習処理によって生成された行動認識用パラメータが用いられる。行動認識処理は、S1にて画像が取得される毎、すなわち1フレーム毎に行ってもよいし、複数フレーム毎に行ってもよい。
続くS33では、画像処理部20は、回帰木インデックスkで識別される回帰木RTkと、S31で取得された判定用情報群IEと、学習処理で算出された行動判定用パラメータとを用いて回帰関数Gkの値を取得し、(8)式を用いて修正関数Fkを更新する。
続くS35では、画像処理部20は、k>Kであるか否かを判定する。つまり、K個の回帰木RT1〜RTKの全てが修正関数FKの算出に用いられたか否かを判定する。S35において否定判定された場合は処理をS33に戻し、S35において肯定判定された場合は処理をS36に進める。S33〜S35の処理により、最終的に(4)式に示された修正関数FKが算出され、(3)式に示すように、この修正関数FKによって得られる値が、スコアベクトルの初期値A(0)に対する修正量Rとなる。
続くS37では、画像処理部20は、修正されたスコアベクトルAのうち、最大スコアSCを有する要素を抽出する。
[4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(4f)本実施形態によれば、ドライバが実施しようとしている運転行動を認識するため、認識された運転行動に関わる情報の提示や、その運転行動を支援するためのシステム制御を早目に開始できる。
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
Claims (12)
- 車両の状態、前記車両を運転するドライバの状態、及び前記車両の周辺の状態のうち、少なくとも一つを含む1以上の一次情報を繰り返し取得するように構成された情報取得部(20:S4)と、
前記情報取得部が取得した前記一次情報毎に、前記一次情報から抽出される1以上の対象状態のそれぞれについて、前記対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成するように構成された情報変換部(20:S5)と、
前記情報変換部で生成される複数の前記二次情報の時系列から、時間窓を用いて判定用情報群を抽出するように構成された抽出部(20:S31)と、
各要素が前記ドライバの運転行動に対応づけられたベクトルを行動ベクトルとして、前記行動ベクトルの初期値を与え、前記判定用情報群を用いて算出される前記行動ベクトルの修正量によって、前記行動ベクトルを更新するように構成された更新部(20:S32〜S36)と、
前記更新部にて更新された前記行動ベクトルを用いて、前記ドライバの運転行動を認識するように構成された認識部(20:S37〜S40)と、
を備える、行動認識装置。 - 請求項1に記載の行動認識装置であって、
前記更新部は、前記判定用情報群から算出される特徴量と、前記行動ベクトルに対する修正量との関係を表す回帰関数を用いて、前記行動ベクトルの修正量を算出する、
行動認識装置。 - 請求項2に記載の行動認識装置であって、
前記更新部にて使用される前記回帰関数は、勾配ブースティングによって学習される回帰木であって、木構造をとる弱仮説の集合として実現される
行動認識装置。 - 請求項2又は請求項3に記載の行動認識装置であって、
前記更新部は、前記特徴量として、前記判定用情報群から抽出される二つのデータである比較データペアの差分値を用いる、
行動認識装置。 - 請求項4に記載の行動認識装置であって、
前記比較データペアは、同一の前記二次情報から抽出される
行動認識装置。 - 請求項4に記載の行動認識装置であって、
前記比較データペアは、異なる前記二次情報から抽出される
行動認識装置。 - 請求項1から請求項6までのいずれか1項に記載の行動認識装置であって、
前記行動ベクトルの各要素に対応づけられる前記ドライバの運転行動には、直進、左車線変更、及び右車線変更のうち、少なくとも一つが含まれる
行動認識装置。 - 請求項1から請求項7までのいずれか1項に記載の行動認識装置であって、
前記一次情報には、前記ドライバの状態を表す情報が含まれ、
前記二次情報には、前記ドライバが注視する領域である視領域を表す情報、前記ドライバの眼の開閉状態を表す情報、及び前記ドライバの顔向きを表す情報のうち、少なくとも一つが含まれる
行動認識装置。 - ドライバの運転行動を認識する行動認識方法であって、
車両の状態、前記車両を運転する前記ドライバの状態、及び前記車両の周辺の状態のうち、少なくとも一つを含む1以上の一次情報を繰り返し取得する情報取得ステップ(S4)と、
前記情報取得ステップにて取得された前記一次情報毎に、前記一次情報から抽出される一つ以上の対象状態のそれぞれについて、前記対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成する情報変換ステップ(S5)と、
前記情報変換ステップで生成される複数の前記二次情報の時系列から、時間窓を用いて判定用情報群を抽出する抽出ステップ(S31)と、
各要素が前記ドライバの運転行動に対応づけられたベクトルを行動ベクトルとして、前記行動ベクトルの初期値を与え、前記判定用情報群を用いて算出される前記行動ベクトルの修正量によって、前記行動ベクトルを更新する更新ステップ(S32〜S36)と、
前記更新ステップにて更新された前記行動ベクトルを用いて、前記ドライバの運転行動を認識する認識ステップ(S37〜S40)と、
を備える、行動認識方法。 - 車両の状態、前記車両を運転するドライバの状態、及び前記車両の周辺の状態のうち、少なくとも一つを含む1以上の一次情報を繰り返し取得するように構成された情報取得部(20:S4)と、
前記情報取得部が取得した前記一次情報毎に、前記一次情報から抽出される1以上の対象状態のそれぞれについて、前記対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成するように構成された情報変換部(20:S5)と、
を備える情報生成装置。 - 請求項10に記載の情報生成装置であって、
前記一次情報には、前記ドライバの状態の一つとして前記ドライバの注視方向が含まれ、
前記二次情報には、前記ドライバが注視する領域である視領域を、前記ドライバが前記視領域を注視している状態を前記対象状態とする
情報生成装置。 - 請求項10又は請求項11に記載の情報生成装置であって、
一つの前記一次情報から前記二次情報が複数生成され、任意の時点でいずれか一つの前記二次情報が、択一的に前記対象状態に該当するように設定された
情報生成装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/038149 WO2021075348A1 (ja) | 2019-10-16 | 2020-10-08 | 行動認識装置、行動認識方法、及び情報生成装置 |
US17/717,484 US20220242418A1 (en) | 2019-10-16 | 2022-04-11 | Behavior recognition apparatus and behavior recognition method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019189632 | 2019-10-16 | ||
JP2019189632 | 2019-10-16 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021064343A true JP2021064343A (ja) | 2021-04-22 |
JP2021064343A5 JP2021064343A5 (ja) | 2021-10-28 |
JP7120258B2 JP7120258B2 (ja) | 2022-08-17 |
Family
ID=75486381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020003134A Active JP7120258B2 (ja) | 2019-10-16 | 2020-01-10 | 行動認識装置、及び行動認識方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220242418A1 (ja) |
JP (1) | JP7120258B2 (ja) |
WO (1) | WO2021075348A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116403171B (zh) * | 2023-06-08 | 2023-09-01 | 松立控股集团股份有限公司 | 一种车辆重识别方法、系统及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010204984A (ja) * | 2009-03-04 | 2010-09-16 | Nissan Motor Co Ltd | 運転支援装置 |
JP2018520444A (ja) * | 2015-09-21 | 2018-07-26 | 三菱電機株式会社 | 顔の位置合わせのための方法 |
JP2019113925A (ja) * | 2017-12-21 | 2019-07-11 | 株式会社デンソー | 居眠り警報装置 |
-
2020
- 2020-01-10 JP JP2020003134A patent/JP7120258B2/ja active Active
- 2020-10-08 WO PCT/JP2020/038149 patent/WO2021075348A1/ja active Application Filing
-
2022
- 2022-04-11 US US17/717,484 patent/US20220242418A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010204984A (ja) * | 2009-03-04 | 2010-09-16 | Nissan Motor Co Ltd | 運転支援装置 |
JP2018520444A (ja) * | 2015-09-21 | 2018-07-26 | 三菱電機株式会社 | 顔の位置合わせのための方法 |
JP2019113925A (ja) * | 2017-12-21 | 2019-07-11 | 株式会社デンソー | 居眠り警報装置 |
Also Published As
Publication number | Publication date |
---|---|
US20220242418A1 (en) | 2022-08-04 |
WO2021075348A1 (ja) | 2021-04-22 |
JP7120258B2 (ja) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107292386B (zh) | 使用深度学习的基于视觉的雨水检测 | |
CN108062562B (zh) | 一种物体重识别方法及装置 | |
EP3561727A1 (en) | A device and a method for extracting dynamic information on a scene using a convolutional neural network | |
KR101708547B1 (ko) | 사상(事象) 검출 장치 및 사상 검출 방법 | |
CN111783505A (zh) | 伪造人脸的识别方法、装置和计算机可读存储介质 | |
US20220076117A1 (en) | Methods for generating a deep neural net and for localising an object in an input image, deep neural net, computer program product, and computer-readable storage medium | |
CN110827265B (zh) | 基于深度学习的图片异常检测方法 | |
CN111783665A (zh) | 一种动作识别方法、装置、存储介质和电子设备 | |
CN111914665A (zh) | 一种人脸遮挡检测方法、装置、设备及存储介质 | |
US20230104196A1 (en) | Device and a Method for Processing Data Sequences Using a Convolutional Neural Network | |
CN112560827A (zh) | 模型训练方法、装置、预测方法、电子设备及介质 | |
WO2021075348A1 (ja) | 行動認識装置、行動認識方法、及び情報生成装置 | |
CN104794446A (zh) | 基于合成描述子的人体动作识别方法及系统 | |
CN111611944A (zh) | 身份识别方法及装置、电子设备、存储介质 | |
CN110046701B (zh) | 在连接网络中处理和生成图像数据的方法 | |
WO2022171590A1 (en) | Method for determining a degradation degree of a captured image, computer program product, computer-readable storage medium as well as assistance system | |
CN111435457B (zh) | 对传感器获取的采集进行分类的方法 | |
JP5360143B2 (ja) | 走行場面認識モデル生成装置、運転支援装置、及びプログラム | |
KR102219906B1 (ko) | 기계학습을 위한 학습데이터 자동 생성 방법 및 장치 | |
CN110827319B (zh) | 一种基于局部敏感直方图改进的Staple目标跟踪方法 | |
JP7013722B2 (ja) | 運転支援装置 | |
WO2021112048A1 (ja) | 運転分析装置、及び運転分析方法 | |
Palazzi et al. | Where should you attend while driving? | |
CN114863570A (zh) | 视频动作识别模型的训练、识别方法、装置以及介质 | |
JPWO2020003392A1 (ja) | 運転支援装置および運転モード判断モデル生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210916 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211001 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220718 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7120258 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |