JP2019040465A - 行動認識装置,学習装置,並びに方法およびプログラム - Google Patents
行動認識装置,学習装置,並びに方法およびプログラム Download PDFInfo
- Publication number
- JP2019040465A JP2019040465A JP2017162660A JP2017162660A JP2019040465A JP 2019040465 A JP2019040465 A JP 2019040465A JP 2017162660 A JP2017162660 A JP 2017162660A JP 2017162660 A JP2017162660 A JP 2017162660A JP 2019040465 A JP2019040465 A JP 2019040465A
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- vehicle
- occupant
- feature
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Probability & Statistics with Applications (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】行動識別装置は,車両内を撮影した動画像の各フレーム画像から車両内乗員に関する情報を取得する乗員情報取得手段と,前記乗員情報に基づく特徴量である第1特
徴量を算出する第1特徴量算出手段と,所定期間のフレーム画像についての第1特徴量を連結した特徴量である第2特徴量を算出する第2特徴量算出手段と,第2特徴量から所定期間
における行動ラベルの確率分布を求めるようあらかじめ学習された識別器と,前記第2特
徴量算出手段が算出した第2特徴量とを用いて,車両内乗員の行動を識別する識別手段と
,を備える。
【選択図】図2
Description
されている。非特許文献1では,入力画像から解像度の異なる複数の画像(ピラミッド画像)を作成し,得られたピラミッド画像から高密度に着目点を検出する。また,各々の着目点を時間方向に追跡して得られた軌跡毎に,HOG,HOF,MBHといった複数の種類の画像
特徴量を算出する。さらに,これらの画像特徴量を次元方向に連結し,Bag-of-Feature表現を用いて,より記述能力の高い画像特徴量に変換する。最終的に,識別対象となる行動毎に得られた画像特徴量を入力とする非線形SVMを用いて識別器を学習する。
)を用いて,第一の特徴量を算出する。また,得られた第一の特徴量に対して,フィッシャー・カーネル(Fisher Kernel)を適用することで,より記述能力の高い第2の特徴量(Fisher Vector)に変換する。最終的に,識別対象となる行動毎に算出した第2の特徴量を入力とする非線形SVMを用いて識別器を学習する。
位の位置を検出し,得られた人体の部位間の距離の順序関係に基づいて,特徴量を算出する。また,得られた特徴量を入力とするランダム・フォレスト(Random Forest)を用い
て識別器を学習する。最終的に,得られた識別器による各時刻の識別対象カテゴリに対する確率密度を時間方向に積算し,その確度を高めることで車両内乗員の行動を認識する。
用する場合,ジェスチャー認識のような,動画像中の人物が意図した行動を認識するのに有効である反面,動画像中の人物が意図しない危険行動などを認識するのは困難であるという問題がある。
を検出し,得られた人体の部位間の距離の順序関係を特徴量とするランダム・フォレスト(Random Forest)を適用する場合,車両内乗員の状態(人体姿勢,手指姿勢,顔の位置
,顔の向き,視線など)の時系列的変化に依存した行動を認識するのは困難であるという問題がある。
第2特徴量を算出する第2特徴量算出手段と,前記第2特徴量算出手段が算出した第2特徴量と,前記確率分布算出手段が算出した確率分布とに基づいて,車両内乗員が所定期間にお
いて取った各行動の確率分布を識別するための識別器を学習する学習手段と,を備える。
おける第1特徴量を時系列方向に連結した特徴量である。
徴量を人体部位の位置の関係に基づいて決定してもよい。この場合,第1特徴量は,人体
部位の間の距離の大きさの順位に基づいて決定してもよい。このような順位特徴量は,スケール変換・回転・平行移動に対して不変であり,また,微小変動に対して頑強である。したがって,順位特徴量の使用により,ロバスト性の高い認識が可能となる。
(たとえば,順位特徴量)と,上記情報とを組み合わせたものとして決定すればよい。頭部領域や手指領域の位置や顔の向きなども利用することによって,より精度のよい認識が可能となる。
り,学習データの数を増やしてもよい。微小変動を加えた学習データを利用することで,識別時における人体部位位置の推定誤差に対して頑強な識別器が学習できる。
を非一時的に記憶したコンピュータ可読記憶媒体として捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明の第1の実施形態に関して,図面を参照して説明する。図1(a)は,本実施形態に
係る行動認識装置1の概略構成を示すブロック図である。本実施形態に係る行動認識装置1は,半導体集積回路(LSI)を用いて実現できる。ここで,行動認識装置1は,図1(a)に示すように,赤外画像入力部11と,奥行画像入力部12と,人体部位検出部13と,特徴量算出部14と,識別部16とを有する。これらの構成要素は,行動認識装置1が果たす機能にそれぞ
れ対応している。
。本実施形態に係る学習装置2は,半導体集積回路(LSI)を用いて実現できる。ここで,学習装置2は,図1(b)に示すように,赤外画像入力部11,奥行情報入力部12,人体部位検出
部13,学習部15を有する。学習部15は,真値付与部151,順位特徴量算出部152,確率分布算出部153,時系列特徴量算出部154,確率分布学習部154を含む。ここで,学習装置2が有する機能ブロックのうち行動認識装置1が有するものと同一のものについては,同一の参
照番号を付している。
まず,学習装置2が行う学習処理について説明する。図2は学習処理の流れを示すフローチャートである。
奥行情報)を取得し,時刻t (t=1,2,…,T)での奥行情報D(t)を人体部位検出部13に出力する。ここで,奥行情報D(t)は,すでに市販されているステレオ型カメラやTOF型センサー
などを車両内に設置して取得すればよい。
して行われる。
。また,ym(t)は,時刻tでのm番目の部位の赤外画像I(t)における垂直方向座標を表す。
一方,zm(t)は,時刻tでのm番目の部位の奥行方向座標を表し,奥行情報D(t)における2次元座標(xm(t),ym(t))上の値で与えられる。
タを用いて,車両内乗員のM個の部位の2次元座標(xm(t),ym(t)) (m=1,2,…,M)を検出するための識別器C1を構成し,得られた識別器C1を用いて,車両内乗員のM個の部位の2次元座標(xm(t),ym(t)) (m=1,2,…,M)を検出すればよい。
て,車両内乗員のM個の部位の2次元座標(xm(t),ym(t)) (m=1,2,…,M)を検出してもよい。
の車両内乗員のM個の部位の2次元座標(xm(t),ym(t))または3次元座標(xm(t),ym(t),zm(t)) (m=1,2,…,M)に基づいて,特徴量F(t)を算出する。具体的には,特徴量F(t)は,次の式(1)を用いて算出される。
ークリッド距離,R(D(m,n))はD(1,2),D(1,3),...,D(8,9),D(9,10)を降順に並び替えたと
きのD(m,n)の順位を各々表す。たとえば,図5(a)のように,便宜上4つの部位を考え,す
べての部位のペア間の距離D(t)が,
D(t) = (D(1,2), D(1,3), D(1,4), D(2,3), D(2,4), D(3,4))
= (5.5, 2.6, 2.8, 3.5, 4.3, 4.0)
で与えられたとすると,時刻tにおける特徴量F(t)は
F(t)=(1,6,5,4,2,3)
のように算出できる。
る。
てもよいし,3次元空間内での3次元距離であってもよい。
れた時刻tsと終了した時刻teとを付与する。ここで,Lは識別対象となる行動ラベルの個
数を表し,実現したいアプリケーションに応じて,あらかじめ適切に決められる。真値付与部151への行動ラベル(正解ラベル)の入力は,ユーザ(人間)が手動で行えばよい。
なお,入力データの各フレームに行動ラベルが付されていてもよい。行動ラベルの非限定的な例として,ハンドル操作,バックミラーの調整,コントロール・パネルの調整,シートベルトの着用・着脱,スマートフォン操作,飲食などが挙げられる。真値付与部151が
,本発明の正解行動入力手段に相当する。
えられる。ここで,時間窓の大きさΔtは,実現したいアプリケーションに応じて試行錯
誤的に決められばよい。また,Tiの増分は入力画像のタイムステップと同じとしてもよいし,それよりも大きくしてもよい。
率分布Ptr(t=T2)は,Ptr(t=T2)=((t2-T2)/Δt,(T2+Δt-t2)/Δt)と決定される。さらに,図7(c)に示すように,時刻t=T3〜T3+Δtにおいて単一の行動ラベル2が付与されているの
で,確率分布Ptr(t=T3)はPtr(t=T3)=(0,1)と決定される。
場合(L=3)を考える。図8(a)に示すように,時刻t=T1〜T1+Δtにおいて単一の行動ラベ
ル1が付与されているので,確率分布Ptr(t=T1)はPtr(t=T1)=(1, 0, 0)決定される。また
,図8(b)に示すように,時刻t=T2〜T2+Δtにおいて2つの行動ラベル1と2とが混在してい
るので,確率分布Ptr(t=T2)はPtr(t=T2)=((t2-T2)/Δt, (T2+Δt-t2)/Δt, 0)と決定される。また,図8(c)に示すように,時刻t=T3〜T3+Δtにおいて3つの行動ラベル1, 2, 3が混在しているので,確率分布Ptr(t=T3)はPtr(t=T3)=((t2-T2)/Δt, (t3-t2)/Δt, (T3+Δt-t3)/Δt)でと決定される。また,図8(d)に示すように,時刻t=T4〜T4+Δtにおいて2つの
行動ラベル2と3とが混在しているので,確率分布Ptr(t=T4)はPtr(t=T4)=(0, (t3-T4)/Δt, (T4+Δt-t3)/Δt)と決定される。さらに,図8(e)に示すように,時刻t=T5〜T5+Δtにおいて単一の行動ラベル3が付与されているので,確率分布Ptr(t=T5)は,Ptr(t=T5)=(0, 0, 1)で与えられる。
布Ptr(t)を算出することができる。
… , F(t+Δt))を算出する。時系列特徴量Fts(t)が本発明の第2特徴量に相当し,時系列特徴量算出部154が本発明の第2特徴量算出手段に相当する。
出部153で得られた,時刻tにおける確率分布Ptr(t) (t=1,2,…,T)を推定するための識別
器C1を学習する。ここで,Tは,行動ラベルl(=1,2,…,L)に対する識別器C1を学習する際
の学習サンプル(赤外画像と奥行情報のペア)の個数を表し,識別対象となる行動ラベルの個数Lと,行動ラベル毎の識別の難易度(似て非なる行動ラベルが多いほど難易度が高
い)に応じて,試行錯誤的に決められる。
時系列データの短期的情報だけでなく長期的情報も取り込み可能な長期短期記憶(LSTM: Long Short Term Memory)がある。LSTMは,RNN (Recurrent Neural Network)の拡張であり,RNNの中間層のユニットをLSTM blockと呼ばれるメモリと3つのゲートを持つブロックに置き換えたニューラルネットワークである。LSTMには様々な拡張があり,たとえば,非特許文献7や8のような手法も採用可能である。なお,採用可能な学習アルゴリズムはLSTM
に限定されず,時系列データを分類可能なアルゴリズムであれば既存の任意の手法が採用可能である。
次に,行動認識装置1が行う行動認識処理について説明する。なお,行動認識装置1が有する識別部16は,学習装置2によって学習された識別器C1を利用する。図11は行動認識処
理の流れを示すフローチャートである。
して行われる。
テップS21およびS22における処理は,学習処理におけるステップS11およびS12の処理と同様である。
(t=t'〜t'+Δt, t' = 1,2,…,T')を対象にして行われる。
方向に時間方向に連結した時系列特徴量時系列特徴量Fts(t’)=(F(t’), F(t’+1), F(t
’+2), … , F(t’+Δt)) (t’=1,2,…,T’)を算出する。この処理は,学習処理におけるステップS15の処理と同様である。
徴量Fts(t’)=(F(t’), F(t’+1), F(t’+2), … , F(t’+Δt)) (t’=1,2,…,T’)を入
力することで,行動ラベルl(=1,2,…L)に対する確率分布Pte(t’) (t’=1,2,…,T’)を算出する。ステップS25において,識別部16は,得られた確率分布Pte(t’) (t’=1,2,…,T
’)の各時刻t’ (=1,2,…,T’)での最大値を与える行動ラベルlout(t’) (t’=1,2,…,T
’)に変換し,行動認識装置1の外部に出力する。ここで,時間T’は,行動ラベルが未知
の識別対象サンプル(赤外画像と奥行情報のペア)の個数を表す。
とする様々なアプリケーションに適用される。たとえば,車両内乗員によるスマホ操作や飲食といった危険行動を認識し,車両の走行状態と照らし合わせることで適応的に注意を促すことなどに適用される。
とえば,車両内乗員の乗降,シートベルトの着脱,右左折時のステアリング操作,ナビゲーション・システム操作時の上下左右へのスワイプ操作などの認識精度を向上することができる。
本発明の第2の実施形態について,図12,図13を参照して説明する。図12(a)および図12(b)は本実施形態に係る行動認識装置3および学習装置4の概略構成を示すブロック図である。本実施形態に係る行動認識装置は,半導体集積回路(LSI)を用いて実現できる。
および学習装置3が果たす機能にそれぞれ対応している。なお,本実施形態においては,
第1の実施形態との相違箇所のみ言及する。
出し,得られた人体の部位間の距離の順序関係のみに基づいて,特徴量を算出したのに対して,本実施形態では,人体の部位間の距離の順序関係だけでなく,車両内乗員の顔の向き,頭部領域(車両内乗員の頭部領域が画像空間上のどこにあるのか),手領域(車両内乗員の手領域が画像空間上のどこにあるのか)に基づいて特徴量を算出する点に特徴がある。車両内乗員の顔の向き,頭部領域,手領域は,車両内乗員の姿勢に関する情報の一例である。
う。
向ベクトルr3=(X3(t),Y3(t),Z3(t))と,車両内乗員の手領域を包含する矩形領域を表す2
点r4=(X4(t),Y4(t),Z4(t)), r5=(X5(t),Y5(t),Z5(t))とに基づいて,乗員情報I(t)を抽出し,特徴量算出部25に出力する。具体的には,姿勢情報P(t)は,式(2)のように,これら
の3次元情報を次元方向に連結して与えればよい。
ルr3=(X’3(t),Y’3(t),Z’3(t))と,車両内乗員の手領域を包含する矩形領域を表す2点r4=(X’4(t),Y’4(t),Z’4(t)), r5=(X’5(t),Y’5(t),Z’5(t))が付与された大量の学習
用データを用いて,車両内乗員の姿勢情報P(t)=(r1,r2,r3,r4,r5)を推定するための識別
器C2を構成し,得られた識別器C2を用いて,ある時刻tでの車両内乗員の姿勢情報P(t)=(r1,r2,r3,r4,r5)を推定すればよい。
次元座標(xm(t),ym(t)) (m=1,2,…,M)の距離の順位を表す順位特徴量と,姿勢情報検出部24で得られた時刻tでの姿勢情報P(t)とに基づいて,特徴量F(t)を算出し,学習部15およ
び識別部16に出力する。具体的には,特徴量F(t)は,式(3)を用いて算出すればよい。順
位特徴量は,第1の実施形態と同様にして求められる。
情報検出部34の両方が乗員情報取得手段に相当する。
並べた時系列特徴量であることを除けば,第1の実施形態と同様である。すなわち,学習
部36は,各時間窓における行動ラベルの確率分布を求め,同一の時間窓内の時系列特徴量と確率分布の組を学習データとして,時系列データから行動ラベルの確率分布を求める識別器C1を学習する。また,識別部37は,時系列特徴量に対応する行動ラベルの確率分布を識別器C1によって求め,最大値を与える行動ラベルを対象の時間窓内での行動として決定する。
上記の説明では,人体の部位の位置として2次元位置(xm(t), ym(t))を求めており,し
たがって,部位間の距離もxy面内での距離が用いられている。しかしながら,人体の部位の位置を3次元で求めて,部位間の距離として3次元空間内での距離を用いることも好適である。
限定されず,汎用的なマイクロプロセッサやメモリを有するコンピュータがプログラムを実行することによって実現されても構わない。また,上記の説明では,行動認識装置1,3
と学習装置2,4を異なる装置として説明したが,1台の装置において学習モードを認識モードとを切り替えられるように構成しても構わない。
11…赤外画像入力部
12…奥行情報入力部
13…人体部位検出部
14…特徴量算出部
15…学習部
16…識別部
Claims (14)
- 車両内を撮影した動画像に基づいて,車両内乗員の行動を識別する行動識別装置であって,
前記動画像の各フレーム画像から,車両内乗員に関する乗員情報を取得する乗員情報取得手段と,
前記動画像の各フレーム画像について,前記乗員情報に基づく特徴量である第1特徴量
を算出する第1特徴量算出手段と,
所定期間のフレーム画像についての第1特徴量を連結した特徴量である第2特徴量を算出する第2特徴量算出手段と,
第2特徴量から所定期間における行動ラベルの確率分布を求めるようあらかじめ学習さ
れた識別器と,前記第2特徴量算出手段が算出した第2特徴量とを用いて,車両内乗員の行動を識別する識別手段と,
を備えることを特徴とする行動識別装置。 - 前記乗員情報は,車両内乗員の複数の人体部位の位置を含み,
前記第1特徴量は,前記人体部位の位置の関係に基づく特徴量である,
請求項1に記載の行動識別装置。 - 前記第1特徴量は,前記人体部位の間の距離の大きさの順位に基づく特徴量である,
請求項2に記載の行動識別装置。 - 前記乗員情報は,さらに,頭部領域の位置,顔の向き,および手領域の位置の少なくともいずれかを含み,
前記第1特徴量は,前記人体部位の位置の関係に基づく特徴量と,顔領域の位置,顔の
向き,および手領域の位置の少なくともいずれかとを組み合わせたものである,
請求項2または3に記載の行動識別装置。 - 前記動画像は,赤外画像と距離画像とを含む,
請求項1から4のいずれか1項に記載の行動識別装置。 - 前記識別手段は,前記識別器から得られる確率分布において最大値を与える行動ラベルを,前記車両内乗員の行動として決定する,
請求項1から5のいずれか1項に記載の行動識別装置。 - 車両内を撮影した動画像の各フレーム画像から,車両内乗員に関する情報を取得する乗員情報取得手段と,
各フレーム画像における前記車両内乗員の正解行動を取得する正解行動入力手段と,
所定期間のフレーム画像において前記車両内乗員が取った各正解行動の割合を表す確率分布を算出する確率分布算出手段と,
各フレーム画像について,前記乗員情報に基づく特徴量である第1特徴量を算出する第1特徴量算出手段と,
所定期間のフレーム画像についての第1特徴量を連結した特徴量である第2特徴量を算出する第2特徴量算出手段と,
前記第2特徴量算出手段が算出した第2特徴量と,前記確率分布算出手段が算出した確率分布とに基づいて,車両内乗員が所定期間において取った各行動の確率分布を識別するための識別器を学習する学習手段と,
を備えることを特徴とする学習装置。 - 前記乗員情報は,車両内乗員の複数の人体部位の位置を含む,
前記第1特徴量は,前記人体部位の位置の関係に基づく特徴量である,
請求項7に記載の学習装置。 - 前記第1特徴量は,前記人体部位の間の距離の大きさの順位に基づく特徴量である,
請求項8に記載の学習装置。 - 前記乗員情報は,さらに,頭部領域の位置,顔の向き,および手領域の位置の少なくともいずれかを含み,
前記第1特徴量は,前記人体部位の位置の関係に基づく特徴量と,顔領域の位置,顔の
向き,および手領域の位置の少なくともいずれかとを組み合わせたものである,
請求項8または9に記載の学習装置。 - 前記動画像は,赤外画像と距離画像とを含む,
請求項7から10のいずれか1項に記載の学習装置。 - 車両内を撮影した動画像に基づいて,車両内乗員の行動を識別する行動識別方法であって,
前記動画像の各フレーム画像から,車両内乗員に関する乗員情報を取得する乗員情報取得ステップと,
前記動画像の各フレーム画像について,前記乗員情報に基づく特徴量である第1特徴量
を算出する第1特徴量算出ステップと,
所定期間のフレーム画像についての第1特徴量を連結した特徴量である第2特徴量を算出する第2特徴量算出ステップと,
第2特徴量から所定期間における行動ラベルの確率分布を求めるようあらかじめ学習さ
れた識別器と,前記第2特徴量算出ステップにおいて算出した第2特徴量を用いて,車両内乗員の行動を識別する識別ステップと,
を含むことを特徴とする行動識別方法。 - 車両内を撮影した動画像の各フレーム画像から,車両内乗員に関する乗員情報を取得する乗員情報取得ステップと,
各フレーム画像における前記車両内乗員の正解行動を取得する正解行動入力ステップと,
所定期間のフレーム画像において前記車両内乗員が取った各正解行動の割合を表す確率分布を算出する確率分布算出ステップと,
各フレーム画像について,前記乗員情報に基づく特徴量である第1特徴量を算出する第1特徴量算出ステップと,
所定期間のフレーム画像についての第1特徴量を連結した特徴量である第2特徴量を算出する第2特徴量算出ステップと,
前記第2特徴量算出ステップにおいて算出した第2特徴量と,前記確率分布算出ステップにおいて算出した確率分布とに基づいて,車両内乗員が所定期間において取った各行動の確率分布を識別するための識別器を学習する学習ステップと,
を含むことを特徴とする学習方法。 - 請求項12または13に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162660A JP2019040465A (ja) | 2017-08-25 | 2017-08-25 | 行動認識装置,学習装置,並びに方法およびプログラム |
US16/102,258 US20190065872A1 (en) | 2017-08-25 | 2018-08-13 | Behavior recognition apparatus, learning apparatus, and method and program therefor |
CN201810963624.1A CN109426808A (zh) | 2017-08-25 | 2018-08-23 | 行为辨识装置、学习装置以及方法及程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162660A JP2019040465A (ja) | 2017-08-25 | 2017-08-25 | 行動認識装置,学習装置,並びに方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019040465A true JP2019040465A (ja) | 2019-03-14 |
Family
ID=65436065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017162660A Pending JP2019040465A (ja) | 2017-08-25 | 2017-08-25 | 行動認識装置,学習装置,並びに方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190065872A1 (ja) |
JP (1) | JP2019040465A (ja) |
CN (1) | CN109426808A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112052815A (zh) * | 2020-09-14 | 2020-12-08 | 北京易华录信息技术股份有限公司 | 一种行为检测方法、装置及电子设备 |
JP2021039598A (ja) * | 2019-09-04 | 2021-03-11 | 日本電信電話株式会社 | 学習装置、照合装置、学習方法、照合方法及びプログラム |
JP2021072059A (ja) * | 2019-11-01 | 2021-05-06 | 学校法人トヨタ学園 | ジェスチャ検出装置 |
JP2021103092A (ja) * | 2019-12-24 | 2021-07-15 | 株式会社アイシン | シート姿勢検出装置 |
JP2022528847A (ja) * | 2019-03-28 | 2022-06-16 | アークソフト コーポレイション リミテッド | 手によるハンドルの把握状態の検出方法及び装置 |
JP2022095994A (ja) * | 2019-05-29 | 2022-06-28 | コニカミノルタ株式会社 | 画像処理システム、画像処理プログラム、および画像処理方法 |
WO2023188264A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電気株式会社 | 情報処理システム |
JP7380266B2 (ja) | 2020-01-29 | 2023-11-15 | 株式会社アイシン | 車室内状態検出装置、および車室内状態検出プログラム |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509029B (zh) * | 2018-03-09 | 2021-07-02 | 苏州佳世达电通有限公司 | 非接触式输入方法及非接触式输入系统 |
US11195030B2 (en) | 2018-09-14 | 2021-12-07 | Honda Motor Co., Ltd. | Scene classification |
US10860873B2 (en) * | 2018-09-17 | 2020-12-08 | Honda Motor Co., Ltd. | Driver behavior recognition and prediction |
US10482334B1 (en) * | 2018-09-17 | 2019-11-19 | Honda Motor Co., Ltd. | Driver behavior recognition |
US11034357B2 (en) | 2018-09-14 | 2021-06-15 | Honda Motor Co., Ltd. | Scene classification prediction |
US11270525B2 (en) * | 2018-11-06 | 2022-03-08 | Alliance For Sustainable Energy, Llc | Automated vehicle occupancy detection |
US10635917B1 (en) * | 2019-01-30 | 2020-04-28 | StradVision, Inc. | Method and device for detecting vehicle occupancy using passenger's keypoint detected through image analysis for humans' status recognition |
US10825196B2 (en) * | 2019-02-15 | 2020-11-03 | Universal City Studios Llc | Object orientation detection system |
CN110316200B (zh) * | 2019-07-05 | 2021-11-02 | 重庆愉客行网络有限公司 | 一种用于出租车驾驶人员的行为管理系统及方法 |
CN112208475B (zh) * | 2019-07-09 | 2023-02-03 | 奥迪股份公司 | 用于车辆乘员的安全保护系统、车辆及相应的方法和介质 |
CN112528824B (zh) * | 2020-12-02 | 2022-11-25 | 创新奇智(深圳)技术有限公司 | 防止幼儿食用异物的方法及装置、电子设备、存储介质 |
CN113254596B (zh) * | 2021-06-22 | 2021-10-08 | 湖南大学 | 基于规则匹配和深度学习的用户质检需求分类方法及系统 |
-
2017
- 2017-08-25 JP JP2017162660A patent/JP2019040465A/ja active Pending
-
2018
- 2018-08-13 US US16/102,258 patent/US20190065872A1/en not_active Abandoned
- 2018-08-23 CN CN201810963624.1A patent/CN109426808A/zh not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022528847A (ja) * | 2019-03-28 | 2022-06-16 | アークソフト コーポレイション リミテッド | 手によるハンドルの把握状態の検出方法及び装置 |
JP7253639B2 (ja) | 2019-03-28 | 2023-04-06 | アークソフト コーポレイション リミテッド | 手によるハンドルの把握状態の検出方法及び装置 |
JP2022095994A (ja) * | 2019-05-29 | 2022-06-28 | コニカミノルタ株式会社 | 画像処理システム、画像処理プログラム、および画像処理方法 |
JP2021039598A (ja) * | 2019-09-04 | 2021-03-11 | 日本電信電話株式会社 | 学習装置、照合装置、学習方法、照合方法及びプログラム |
JP7174382B2 (ja) | 2019-09-04 | 2022-11-17 | 日本電信電話株式会社 | 学習装置、照合装置、学習方法、照合方法及びプログラム |
JP2021072059A (ja) * | 2019-11-01 | 2021-05-06 | 学校法人トヨタ学園 | ジェスチャ検出装置 |
JP7216373B2 (ja) | 2019-11-01 | 2023-02-01 | 学校法人トヨタ学園 | ジェスチャ検出装置 |
JP2021103092A (ja) * | 2019-12-24 | 2021-07-15 | 株式会社アイシン | シート姿勢検出装置 |
JP7380266B2 (ja) | 2020-01-29 | 2023-11-15 | 株式会社アイシン | 車室内状態検出装置、および車室内状態検出プログラム |
CN112052815A (zh) * | 2020-09-14 | 2020-12-08 | 北京易华录信息技术股份有限公司 | 一种行为检测方法、装置及电子设备 |
CN112052815B (zh) * | 2020-09-14 | 2024-02-20 | 北京易华录信息技术股份有限公司 | 一种行为检测方法、装置及电子设备 |
WO2023188264A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電気株式会社 | 情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
CN109426808A (zh) | 2019-03-05 |
US20190065872A1 (en) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019040465A (ja) | 行動認識装置,学習装置,並びに方法およびプログラム | |
JP6443393B2 (ja) | 行動認識装置,学習装置,並びに方法およびプログラム | |
CN112590794B (zh) | 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置 | |
CN111033512B (zh) | 用于基于简单的二维平面摄像装置与自主行驶车辆通信的动作控制装置 | |
JP5253588B2 (ja) | 内部距離形状関連法を用いた手姿勢の取り込み及び認識 | |
JP6398979B2 (ja) | 映像処理装置、映像処理方法および映像処理プログラム | |
WO2020186867A1 (zh) | 注视区域检测方法、装置及电子设备 | |
JP4625074B2 (ja) | サインに基づく人間−機械相互作用 | |
García et al. | Driver monitoring based on low-cost 3-D sensors | |
Sun et al. | Combining machine learning and dynamic time wrapping for vehicle driving event detection using smartphones | |
Matzka et al. | Efficient resource allocation for attentive automotive vision systems | |
Martin et al. | Real time driver body pose estimation for novel assistance systems | |
Haid et al. | Inertial-based gesture recognition for artificial intelligent cockpit control using hidden Markov models | |
US11080562B1 (en) | Key point recognition with uncertainty measurement | |
Wang et al. | A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu | |
CN114973425A (zh) | 一种交警手势识别方法及装置 | |
Gan et al. | Modeling intent and destination prediction within a Bayesian framework: Predictive touch as a usecase | |
Farmer et al. | Smart automotive airbags: Occupant classification and tracking | |
CN114201985A (zh) | 一种人体关键点的检测方法及装置 | |
JP2022531828A (ja) | 手動作の対称性の認識方法及びシステム | |
US20210327066A1 (en) | Apparatus and method for determining musculoskeletal disease | |
CN113520397A (zh) | 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 | |
Raman et al. | Beyond estimating discrete directions of walk: a fuzzy approach | |
Englund | Action intention recognition of cars and bicycles in intersections | |
JP6770488B2 (ja) | 注視対象物推定装置、注視対象物推定方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190806 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200218 |