JP2023120663A - 行動推定装置及び行動推定方法 - Google Patents

行動推定装置及び行動推定方法 Download PDF

Info

Publication number
JP2023120663A
JP2023120663A JP2022023630A JP2022023630A JP2023120663A JP 2023120663 A JP2023120663 A JP 2023120663A JP 2022023630 A JP2022023630 A JP 2022023630A JP 2022023630 A JP2022023630 A JP 2022023630A JP 2023120663 A JP2023120663 A JP 2023120663A
Authority
JP
Japan
Prior art keywords
behavior
occupant
vehicle
information
skeleton information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022023630A
Other languages
English (en)
Inventor
龍也 桑本
Tatsuya Kuwamoto
栄地 瀬戸
Eiji Seto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2022023630A priority Critical patent/JP2023120663A/ja
Publication of JP2023120663A publication Critical patent/JP2023120663A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】乗員の行動を適切に推定する行動推定装置及び行動推定方法を提供する。【解決手段】行動推定装置は、車両内を撮影した車内画像に基づいて、車両内の乗員における複数の身体部位の位置を含む骨格情報を求める骨格情報生成部と、乗員の身体部位のうち、車内画像の撮影範囲から外れた非撮影部位について、撮影範囲から外れるまでの動きに基づいて非撮影部位の位置を求め、非撮影部位の位置を示す情報を骨格情報に加えて骨格情報を補完する骨格情報補完部と、補完した骨格情報に基づいて乗員の行動を推定する行動推定部と、を有する制御部を備える。【選択図】図3

Description

本発明は、行動推定装置及び行動推定方法に関する。
車両内をカメラで撮影した乗員の画像から乗員の行動を推定するための技術がある。例えば、特許文献1では、車両内を撮影した車内画像に基づいて,車両内の人物における複数の部位の位置を検出する人体部位検出手段と,この人体部位検出手段で得られた部位間の距離の大きさの順位に基づく特徴量である順位特徴量を算出する特徴量算出手段と,あらかじめ学習された識別器と、特徴量算出手段が算出した順位特徴量とを用いて,車両内乗員の行動を識別することが提案されている。
特開2017-215861号公報 特開2019-86932号公報
車室内の場合は車室内カメラの画角や乗員の姿勢により、乗員が撮影範囲外に移動してしまうことが発生しやすく、その場合は一部骨格位置の検知が不可になり、結果として行動推定ができなくなる問題がある。
本発明は、乗員の行動を適切に推定する技術の提供を目的とする。
上記課題を解決するため、本発明の行動推定装置は、
車両内を撮影した車内画像に基づいて、前記車両内の乗員における複数の身体部位の位置を含む骨格情報を求めることと、
前記乗員の身体部位のうち、前記車内画像の撮影範囲から外れた非撮影部位について、前記撮影範囲から外れるまでの動きに基づいて前記非撮影部位の位置を求め、前記非撮影部位の位置を示す情報を前記骨格情報に加えて前記骨格情報を補完することと、
補完した前記骨格情報に基づいて前記乗員の行動を推定することと、
を実行する制御部を備えた。
本発明によれば、乗員の行動を適切に推定する技術を提供することができる。
図1は、行動推定システムの概略構成を示す図である。 図2は、撮影装置の構成を示す図である。 図3は、行動推定装置の構成を示す図である。 図4は、骨格情報の例を示す図である。 図5は、行動推定部が骨格情報及び追加特徴量に基づいて乗員の行動を推定する処理の説明図である。 図6Aは、第一の実施形態に係る行動推定装置の制御部が実行する行動推定方法のフローを示す図である。 図6Bは、第一の実施形態に係る行動推定装置の制御部が実行する行動推定方法のフローを示す図である。 図7は、乗員が動いた際の骨格情報を示す図である。 図8は、第二の実施形態に係る行動推定部が骨格情報及び追加特徴量に基づいて乗員の行動を推定する処理の説明図である。 図9Aは、第二の実施形態に係る行動推定装置の制御部が実行する行動推定方法のフローを示す図である。 図9Bは、第二の実施形態に係る行動推定装置の制御部が実行する行動推定方法のフローを示す図である。
以下、図面を参照して本発明の実施形態について説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
<第一の実施形態>
図1は、行動推定システム100の概略構成を示す図である。行動推定システム100は、車両1に搭載され、行動推定装置10や、車内を撮影する撮影装置20、車載機器30、ナビゲーション装置40、検出部50、ECU(electronic control unit)60を
有している。
撮影装置(カメラ)20は、車両1に設けられ、車両1に乗車している乗員を撮影する。また、撮影装置20は、乗員の位置を検出する位置センサの機能を有してもよい。図2は、撮影装置20の構成を示す図である。撮影装置20は、撮影光学系21、受光素子22、計測部23、光源24を備えている。なお、撮影装置20は、図1に示すように車室内前方のインストルメントパネル(ダッシュボード)中央付近に配置されることを例示したが、これに限定されるものではなく、例えば、車載機器30付近や、天井など、対象とする乗員を撮影できれば他の箇所に配置されても良い。また、撮影装置20は、行動推定専用に設けられたものでなくてもよく、ドライブレコーダ等、他の機器に備えられた撮影装置であってもよい。
撮影光学系21は、乗員等の被写体の像を受光素子22の受光面上に形成する所謂撮影レンズである。受光素子22は、例えば、ToF(Time Of Flight)距離画像センサであり、受光面上に形成された被写体像を電気信号に変換し、画像データとして出力する。計測部23は、受光素子22から出力される電気信号の画素毎の値に基づいて、被写体との距離を求める。このとき、光源24から照射される計測光は、強度が所定の周波数で変調されており、被写体で反射され受光素子22で受光された反射光と比較すると、この変調された強度の位相が被写体と受光素子との距離(光路長)に応じてシフトする。例えば、被写体と受光素子との距離が長くなると、位相の遅延(シフト量)が大きくなる。そこで、計測部23は、受光素子22の各画素で受光した反射光における位相のシフト量に基づいて、被写体との距離を画素毎に求め、距離情報として出力する。この距離情報が、後述のように行動推定装置10において身体部位等の位置を求めるための情報として用いられる。
被写体との距離、又は被写体の位置を求める手法としては、ToF距離画像センサを用いるものに限らず、三次元レーザースキャナで身体部位をスキャンするものや、ステレオカメラで被写体を撮影し、視差に基づいて画像中の物体(被写体)との距離を求めるもの、所定のパターン光を対象物体(被写体)に拡大して投影し、投影距離が長くなる程、当該パターンが大きくなるようにして、対象物体上に投影されたパターンの大きさの変化に応じて対象物体との距離を求めるものであっても良い。
車載機器30は、後席に座る乗員(以下、後席乗員とも称す)のため、後席に割り当て
られた機器であり、後席乗員に対して表示や音出力が可能な位置に設けられている。車載機器30は、行動推定装置10からの通知情報を後席乗員に対して出力する第一通知部の一形態である。また、車載機器30は、テレビ番組や動画の出力、DVDの再生、電子書籍の表示などを行う車内エンターテイメント機器であってもよい。また、車載機器30は、エアコンの温度調整や、窓ガラスの開閉、カーテンの開閉など、車内設備を操作するための操作部であってもよい。また、車載機器30は、マイクを有し、後席乗員の声を電気信号に変換して行動推定装置10に入力してもよい。
ナビゲーション装置40は、運転者や同乗者といったユーザに対し、車両周囲の地図や、車両の現在位置、目的地までの経路等の情報を表示することにより、車両の運行に関する案内(ナビゲーション)を行うものである。ナビゲーション装置40は、例えばGPS(Global Positioning System)衛星からの信号を受信して自車両の位置を求める機能や
、地図情報を記憶したデータベース、地図情報を参照して自車両の位置から目的地までの経路や周囲の情報を取得する機能等を有する。また、ナビゲーション装置40は、車速や、操舵角、加速度など、車両1の走行状態を検出する機能を有する。なお、ナビゲーション装置40については、公知の構成を用いることができるため、詳細な説明は省略する。行動推定装置10は、ナビゲーション装置40と一体に形成されてもよい。更に、行動推定装置10は、音楽を再生するオーディオ機能や、動画の再生やテレビ放送の表示を行うビジュアル機能を備えたオーディオ・ビジュアル・ナビゲーション一体型の電子機器(AVN機とも称す)であっても良い。
検出部50は、例えば、車両1の車速や、操舵角、シフトポジション、ブレーキの動作状態、前照灯の点灯状態、ドアの開閉状態、車内灯の点灯状態、シートベルトのロック/アンロック情報など、車両内の情報を検出するセンサである。また、検出部50は、車載機器30等に設けられ、車内の音を電気信号に変換するマイクであってもよい。
ECU(electronic control unit)60は、検出部50で検出した車両1の状態を行
動推定装置10へ送信する。また、ECU60が、窓ガラスの開閉スイッチや前照灯のスイッチ等、車内設備の状態を検出し、検出部として機能してもよい。
図3は、行動推定装置10の構成を示す図である。行動推定装置10は、接続バス11によって相互に接続された制御部12、メモリ53、入出力IF(インターフェース)54、通信IF15、撮影装置20を有するコンピュータである。制御部12は、入力された情報を処理し、処理結果を出力することにより、装置全体の制御等を行う。制御部12は、CPU(Central Processing Unit)や、MPU(Micro-processing unit)とも呼ばれる。制御部12は、単一のプロセッサに限られず、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のチップ内に複数のコアを有したマルチコア構成であってもよい。
メモリ53は、主記憶装置と補助記憶装置とを含む。主記憶装置は、制御部12の作業領域、制御部12で処理される情報を一時的に記憶する記憶領域、通信データのバッファ領域として使用される。主記憶装置は、制御部12がプログラムやデータをキャッシュしたり、作業領域を展開したりするための記憶媒体である。主記憶装置は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、フラッシュメモリを含む。補助記憶装置は、制御部12により実行されるプログラムや、情報処理に用いられるデータ、動作の設定情報などを記憶する記憶媒体である。補助記憶装置は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USBメモリ、メモリカード等である。また、補助記憶装置
は、撮影画像(車内画像)や、判定結果を記憶してもよい。
入出力IF14は、車載機器30や、ナビゲーション装置40、ECU60など行動推定装置10と接続した機器との間でデータの入出力を行うインターフェースである。入出力IF14は、例えば、CDやDVD等の記憶媒体からデータを読み取るディスクドライブ、操作部、表示装置、マイク、撮影装置20、検出部50等の機器との間でデータの入出力を行う。操作部は、マウスやキーボード、タッチパネル等、オペレータの操作によって行動推定装置10に対する情報が入力される入力部である。表示装置は、処理結果などの情報をオペレータに対して表示出力する出力部である。入出力IF14は、検出部50で検出した情報を検出部50から直接受信しても、ECU60を介して受信してもよい。
通信IF15は、有線又は無線の通信回線(ネットワーク)を介して他の装置との通信を行うインターフェース(通信モジュール)であり、CCU(Communication Control Unit)とも称す。車載機器30や、ナビゲーション装置40、ECU60との通信は、通信IF15が行ってもよい。
本実施形態の行動推定装置10では、制御部12が、アプリケーションプログラムを実行することにより、制御部12が、画像取得部121、骨格情報生成部122、骨格情報補完部123、特徴量算出部124、行動推定部125、通知制御部126といった各処理部として機能する。即ち、制御部12は、実行するソフトウェアに応じて各処理部として兼用され得る。但し、上記各処理部の一部又は全部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の専用LSI(large scale integration)、論理回路、その
他のデジタル回路といったハードウェアで形成されたものであってもよい。また、上記各処理部の少なくとも一部にアナログ回路を含む構成としてもよい。制御部12は、一つのプロセッサが複数の処理部として機能する構成であっても、一つの処理部として機能するプロセッサを複数備える構成であってもよい。
画像取得部121は、撮影装置20を制御して、撮影装置20に車内を撮影させ、撮影装置20から撮影画像(画像データ)を取得する。
骨格情報生成部122は、撮影装置20で撮影した車内画像及び撮影装置20で取得した位置情報に基づいて、乗員の骨格情報を生成する。骨格情報生成部122は、例えば、図4に示されるように、車内画像から、撮影された乗員を抽出し、当該乗員の頭A1、右肩A2、左肩A3、肩中央(首の付け根)A4、首A21、右肘A5、右手首A6、右手A7、右手先端A22、右手親指A23、左肘A8、左手首A9、左手A10、左手先端A24、左手親指A25、脊柱A11、腰A12、右股関節A13、右膝A14、右足首A15、右足先A16、左股関節A17、左膝A18、左足首A19、左足先A20、右眼A26、左眼A27、右耳A28、左耳A29を身体部位として特定する。
この身体部位の特定は、例えば、人の頭、上腕、前腕、手、胴など、認識すべき部位の標準的な形状や大きさを標準データとして予め記憶しておき、ToF距離画像センサの受光素子22で撮影した画像から標準データと適合する部位をパターンマッチングによって特定する。また、上腕と前腕の接続部を肘、上腕の胴側の付け根を肩のように、パターンマッチングした部位の位置関係から身体部位を求めても良い。更に、頭に目や鼻、口が存在する場合、目や鼻、口が存在する側面を人の正面と認識し、この正面に向かって左側に位置する肩を右肩、正面に向かって右側に位置する手を左手のように、身体部位の左右を認識しても良い。
また、骨格情報生成部122は、各身体部位A1~A29の位置情報を求める。例えば、受光素子22(図2)において各画素に対応する受光部は、受光面上に二次元配列されており、この受光面上の各画素の位置は、被写体が存在する空間における二次元方向の位
置と対応している。また、各画素の位置情報が示す被写体との距離は、被写体が存在する空間における奥行き方向の位置と対応している。このため、骨格情報生成部122は、各身体部位が撮影された画素の受光面上の位置および当該画素における被写体との距離に基づき、被写体が存在する三次元空間内における各身体部位の三次元座標を求める。なお、各身体部位の三次元座標は、画素毎に求めなくてもよく、本例では各身体部位の基準となる一点の三次元座標を求めている。例えば、頭A1であれば頭頂部、肩中央A4であれば首の付け根となる両肩A2,A3の中心等である。骨格情報生成部122は、これら身体部位A1~A29毎の位置情報を骨格情報として出力する。また、右手首A6と右肘A5は右前腕で接続され、右肘A5と右肩A2は右上腕で接続されるなど、各身体部位A1~A29は、これらの間に位置する身体部位(接続部位)を介して接続されており、骨格情報生成部122は、この接続部位の接続関係や、接続部位の位置、接続部位の向き(基準とする方向に対する傾き)を示す情報を求め、骨格情報に含めてもよい。
骨格情報補完部123は、骨格情報生成部122によって生成された骨格情報を補完する。骨格情報生成部122は、撮影装置20が撮影した車内画像に基づいて骨格情報を生成する。このため、乗員の身体部位が撮影装置20の撮影範囲から出たり、座席の陰に隠れたりして、車内画像に写っていないと、この身体部位(以下、非撮影部位とも称す)の情報は骨格情報に含まれないことになる。このため、骨格情報補完部123は、非撮影部位について、撮影範囲から外れるまでの動きに基づいて、この非撮影部位の位置を求め、非撮影部位の位置を示す情報を骨格情報に加えて前記骨格情報を補完する。
特徴量算出部124は、乗員の行動を推定するための追加特徴量を算出する。例えば、特徴量算出部124は、乗員の身体部位のうち、手首A6,A9と肩A2,A3、肩中央A4と腰A12など複数の箇所に特徴点を定め、当該特徴点間の位置関係を追加特徴量として求める。例えば、右手首A6が右肩A2に対して右側水平方向に離れた位置にある場合、手を右側に伸ばしたと判定でき、窓から手を出すといった危険行為を行動推定装置10が精度良く推定できるようにしている。
また、特徴量算出部124は、身体部位A1~A29の位置を時系列に求め、当該位置の変化量、当該変化量の平均値、又は当該変化量の最大値と最小値の差分に基づいて、行動の大きさ又は速さを追加特徴量として求める。例えば、乗員が暴れている場合、手足を大きく且つ素早く動かす傾向にあるため、特徴量として行動の大きさ又は速さを求めることにより、乗員が暴れているといった行動を行動推定装置10が精度良く推定できるようにしている。
特徴量算出部124は、乗員が基本の着座姿勢をとった際の各身体部位の位置を基準値として保持し、当該基準値からの変化量を追加特徴量として求める。これにより撮影装置20の画角や乗員の体格などの影響を抑え、乗員の行動を行動推定装置10が精度良く推定できるようにしている。
行動推定部125は、補完した骨格情報と追加特徴量とに基づいて乗員の行動を推定する。なお、追加特徴量は必須ではなく、行動推定部125は、骨格情報に基づいて乗員の行動を推定してもよい。行動推定部125は、例えば、股関節A13、A17と膝A14、A18との間の大腿部が、腰A12から肩中央A4までの上体に対して屈曲し、略水平方向に向いている場合、座っていると判定する。また、腰A12から肩中央A4までの上体が前方に傾いた場合、前屈みになったと判定する。更に、股関節A13、A17と膝A14、A18との間の大腿部が、略垂直方向であり、腰A12から肩中央A4までの上体と略同方向に延びている場合、立っていると判定する。
図5は、行動推定部125が骨格情報及び追加特徴量に基づいて乗員の行動を推定する
処理の説明図である。図5に示すように、処理S1では、行動推定部125が、骨格情報に基づいて乗員の行動を推定する。例えば、乗員が立ち上がったことや、座った状態で暴れていることなどを推定する。そして、行動推定部125が、追加特徴量に基づいて乗員の行動を推定し(S2)、この推定結果を骨格情報に基づく推定結果を用いて補正する(S3)。例えば、手を動かす大きさや速さを特徴量として求めてスコア化し、この「暴れている程度」が50点であり、骨格情報に基づき「立ち上がった」と推定した場合、20点加算し、合計値が閾値60点を超えたため、「暴れている」と推定する。一方、特徴量に基づいてスコア化した「暴れている程度」が50点であり、骨格情報に基づいて「座っている」と推定した場合、10点減算し、この合計値が閾値60点を超えないため、暴れていないと推定する。
通知制御部126は、推定した乗員の行動が、所定の危険行為に該当するか否かを判定し、危険行為に該当する場合、通知情報の出力を行う。通知制御部126は、例えば第一通知部としての車載機器30に通知情報を送信し、後席乗員に対して通知情報を出力させる。また、後席乗員への通知後も危険行為が継続している場合、行動推定装置10の表示装置やスピーカから運転者に対して通知情報を出力する。本実施形態の行動推定装置10はセンタコンソール又はインパネに配置され、行動推定装置10に備えられた表示装置やスピーカが車両1の運転席に割り当てた第二通知部の一形態である。これに限らず、車両1に備えられたスピーカや、ナビゲーション装置に備えられたディスプレイやスピーカを第二通知部として用いてもよい。
<行動推定方法>
図6A,図6Bは、第一の実施形態に係る行動推定装置10の制御部12が実行する行動推定方法のフローを示す図である。車両1のアクセサリー電源がONとなる等して行動推定装置10に電力が供給されると、制御部12が図5の処理を開始する。また、制御部12は、電力の供給が停止するまで、図6A,図6Bの処理を周期的に実行する。
ステップS10にて、制御部12は、撮影装置20から車内画像及び当該車内画像における画素毎の位置情報を取得する。
ステップS20にて、制御部12は、ステップS10で取得した車内画像及び位置情報に基づいて骨格情報を生成する。
ステップS30にて、制御部12は、ECU60を介して検出部50から車両内の情報(車両情報)を取得する。ここで、車両内の情報は、例えば、車両1の車速や、操舵角、シフトポジション、ブレーキの動作状態、前照灯の点灯状態、ドアの開閉状態、車内灯の点灯状態、シートベルトのロック/アンロック情報、乗員の声等を示すものである。また、車内の情報として、座席の位置や、窓の位置、車載機器30の位置等の情報をメモリに格納しておき、制御部12が、これらの情報をメモリから取得する。また、制御部12は、車内画像からチャイルドシートやシートベルト等、特定の物体を抽出する。
ステップS40にて、制御部12は、乗員の身体部位のうち、車内画像の撮影範囲から外れた非撮影部位について、撮影範囲から外れるまでの動きの方向や移動量(運動量)に基づいて非撮影部位の位置を求め、非撮影部位の位置を示す情報を骨格情報に加え、当該骨格情報を補完する。図7は、乗員が動いた際の骨格情報を示す図である。状態Aでは、後部乗員が後部座席に座っており、状態Bでは、後部乗員が立ち上がり、頭部A1が上へ移動している。そして状態Cでは後部乗員が前方へ移動し、頭部A1及び大腿部A31,A32が撮影範囲から外れている。制御部12は、状態Bから状態Cとなるまでの頭部A1及び大腿部A31,A32の動きから状態Dのように頭部A1及び大腿部A31,A32の位置を求めて骨格情報を補完する。また、制御部12は、骨格情報をメモリに格納し
、骨格情報をメモリから時系列に取得できるようにする。
ステップS50にて、制御部12は、乗員が座席に正しく座り、基本の着座姿勢をとっている場合、この際の各身体部位の位置を基準値として取得し、メモリに保持する。なお、基本の着座姿勢をとっているか否かは、例えば基準とすべき値の範囲を設定しておき、各身体部位の位置がこの範囲内であれば基本の着座姿勢をとっていると判定する。乗員が基本の着座姿勢をとっていない場合、基準値の取得を省略する。また、ステップS40で求めた骨格情報に基づき、腰A12を座席に付けて基本の着座姿勢をとったと仮定し、各身体部位A1~A29の位置を求めて基準値としてもよい。
ステップS60にて、制御部12は、身体部位A1~A29のうち複数の箇所に特徴点を定め、当該特徴点間の位置関係を追加特徴量として求める。
ステップS70にて、制御部12は、身体部位A1~A29の位置を時系列に求め、当該位置の変化量、当該変化量の平均値、又は当該変化量の最大値と最小値の差分に基づいて、行動の大きさ又は速さを追加特徴量として求める。
ステップS80にて、制御部12は、身体部位A1~A29の位置について、ステップS50で定めた基準値からの変化量を追加特徴量として求める。例えば腰A12の位置が座席の座面から離れた距離を追加特徴量とすることで、乗員が立ち上がったことや、歩き回っていることを示す情報が得られる。
ステップS90にて、制御部12は、ステップS30で取得した車内の情報と骨格情報とに基づいて乗員の行動を推定する。例えば、制御部12は、骨格情報に基づいて乗員が、「座っている」「立っている」「手を伸ばしている」「暴れている」等の行動を推定する。また、制御部12は、車内の情報を用い、車載機器30の操作部の位置や、車内灯のスイッチの位置に向かって手を伸ばしている場合、単に「手を伸ばしている」とするのではなく、「車載機器30を操作している」「車内灯を操作している」などと推定してもよい。また、制御部12は、車速や加速度など車両の走行状態に応じて乗員の行動を推定してもよい。例えば、車両1がカーブした道路を走行し、遠心力が働くことで乗員の上体が傾いた場合、ユーザが意図して上体を傾けたのではなく、遠心力の働きがなくなれば上体の傾きが解消されるため、「上体を傾けた」とは推定しない。また、「立っている」「前屈みになった」などの行動は、車速が低いときよりも車速が高いときの方が、危険度が高まり易いため、車速に応じて行動を推定するための閾値を変更してもよい。例えば乗員の上体が前方へ傾いた際、車速が所定値以上であれば、傾きが第一閾値を越えた場合に「前屈みになった」と判定し、車速が所定値未満であれば、傾きが第一閾値を越えても「前屈みになった」と判定せず、第一閾値よりも大きな第二閾値を越えた場合に「前屈みになった」と判定してもよい。
また、制御部12は、乗員が「立っている」と推定する場合、危険度が高くなり易いため+20点などのように補正値を求め、「座っている」場合、危険度が高くなりにくいため-10点などのように補正値を求める。
ステップS100にて、制御部12は、ステップS60~S80で求めた追加特徴量に基づいて乗員の行動を推定する。例えば、制御部12は、「特徴点間の距離や傾き」「暴れている程度」「基準値からの変化量」等の追加特徴量をスコア化する。
ステップS110にて、制御部12は、ステップS100で追加特徴量に基づいて推定した結果(スコア)をステップS90で骨格情報に基づいて推定した結果(補正値)に応じて補正し、行動を推定する。
なお、制御部12は、図6A,図6Bの処理を周期的に行っており、図6A,図6Bの処理を繰り返す毎にステップS110で行動の推定を行っている。ステップS120にて、制御部12は、今回ステップS110で推定した行動と、前回ステップS110で推定した行動を比較し、今回推定した行動が、前回と異なる行動に更新されたか否かを判定する。
ステップ120で肯定判定の場合、制御部12は、ステップS130へ移行し、行動が更新された時点からの経過時間をリセットし、経過時間計数を開始する。なお、ステップ120で否定判定の場合、制御部12は、経過時間をリセットせずにステップS140へ移行する。
ステップS140にて、制御部12は、更新された行動の経過時間が、所定値(所定期間)以上か否か否かを判定する。制御部12は、ステップS140で、否定判定であれば、図6A,図6Bの処理を終了し、肯定安定であればステップS150へ移行する。即ち、制御部12は、更新された行動が所定期間以上継続するまでは、危険行為に該当するか否かの判定(ステップS150)を行わず、更新された行動が所定期間以上継続した場合、当該行動が危険行為に該当するか否かの判定(ステップS150)を行う。
ステップS150にて、制御部12は、ステップS110で推定した行動とステップS30で取得した車内の情報に基づいて、当該行動が危険行為に該当するか否かを判定する。制御部12は、例えば、「走行中にシートベルトを外そうとしている」「シートベルトが首の位置にある」「走行中に立ち上がった」「暴れている」「チャイルドシートから乗り出した」「夜間走行中に車内灯を点けた」「窓から手又は頭を出す」「前屈みになる」「高速道路を走行中に窓を開けた」「サイドエアバッグにもたれ掛かっている」などの場合に危険行為に該当すると判定する。また、制御部12は、骨格情報だけでなく車両情報に基づいて判定を行うので、例えば乗員が窓側へ手を伸ばした場合でも窓が開いていなければ否定判定とする。同様に、乗員が立ち上がった場合でも車両が停車している場合は否定判定とする。
制御部12は、ステップS150で否定判定であれば図6A,図6Bの処理を終了する。なお、一旦図6A,図6Bの処理を終了した場合でも制御部12は、図6A,図6Bの処理を繰り返し実行する。ステップS150で肯定判定の場合、制御部12は、ステップS160へ移行する。
ステップS160にて、制御部12は、後部乗員に対し、危険行為を止めさせるように車載機器(第二通知部)30へ通知信号を送り、通知を行わせる。
ステップS170にて、制御部12は、ステップS160の通知後、危険行為が所定時間継続しているか否かを判定する。制御部12は、ステップS170で否定判定であれば図6A,図6Bの処理を終了し、肯定判定であればステップ180へ移行する。
ステップS180にて、制御部12は、行動推定装置10の表示装置やスピーカ(第一通知部へ通知信号を送り、運転者に対して通知を行わせる。
<実施形態の効果>
上述のように本実施形態の行動推定装置10は、乗員の身体部位が撮影装置20の撮影範囲から外れて非撮影部位となった場合でも撮影範囲から外れるまでの動きに基づいて骨格情報を補完し、補完した骨格情報に基づいて行動を推定するので、適切に乗員の行動を推定できる。
また、本実施形態の行動推定装置10は、補完後の骨格情報における所定種類の身体部位の位置と車両内に設けられた車載機器30の操作部の位置とに基づいて乗員の行動を推定する。これにより行動推定装置10は、例えば、乗員が車載機器30の操作部の位置や、車内灯のスイッチの位置に向かって手を伸ばしている場合、単に「手を伸ばしている」とするのではなく、「車載機器30を操作している」「車内灯を操作している」などと推定でき、適切に乗員の行動を推定できる。
本実施形態の行動推定装置10は、骨格情報に加えて、車両の状態を示す車両情報に基づいて乗員の行動を推定する。これにより行動推定装置10は、車両1の走行状況に応じて適切に乗員の行動を推定できる。
本実施形態の行動推定装置10は、推定した乗員の行動が、所定の危険行為に該当する場合に、通知情報の出力を行う。これにより行動推定装置10は、乗員が危険行為となる行動をとった場合に当該乗員や運転者に通知することができる。
なお、乗員の行動が危険行為に該当する際に、運転者へ通知することとした場合、運転者に通知する頻度が高すぎると、運転者が運転に集中できないという問題があった。
そこで、本実施形態の行動推定装置10は、車両1の後席に座る乗員の行動が危険行為に該当する場合、後席に割り当てた車載機器(第一通知部)30から通知情報を出力させ、当該通知後も危険行為が継続している場合、車両1の運転席に割り当てた第二通知部から通知情報を出力する。これにより行動推定装置10は、後席に座る乗員の行動が危険行為に該当する場合、先ず、後席乗員に対して通知を行い、これで危険行為が解消すれば運転者への通知を行わず、危険行為が解消しないときにだけ運転者への通知を行うことで、運転者への通知頻度を抑制し、運転者が運転に集中できるようにしている。
また、車室内では乗員の動きが制限されることから、骨格位置の情報だけでは行動の推定が難しい場合があるという問題があった。
そこで、本実施形態の行動推定装置10は、乗員の行動に加えて、車両1の状態を示す車両情報に基づいて乗員の行動が危険行為に該当するか否かを判定する。これにより行動推定装置10は、例えば、乗員が窓側に手を伸ばしたとしても、窓が開いていなければ危険行為と判定せず、ノイズとなる通知を抑制し、適切に通知を行うことができる。
本実施形態の行動推定装置10は、行動の推定を周期的に行い、推定された行動が前回と異なる行動に更新された場合、更新された行動が所定期間以上継続するまでは、更新された行動が危険行為に該当するか否かの判定を行わず、更新された行動が所定期間以上継続した場合に、当該行動が危険行為に該当するか否かの判定を行う。これにより行動推定装置10は、乗員の行動が一時的なものである場合には危険行為の判定に用いず、的確に危険行為の判定を行えるようにすることで、ノイズとなる通知を抑制することができる。
本実施形態の行動推定装置10は、乗員の身体部位のうち複数の箇所に特徴点を定め、当該特徴点間の位置関係を追加特徴量として求め、当該追加特徴量と骨格情報とに基づいて乗員の行動を判定する。これにより行動推定装置10は、例えば、肩と手首の距離が離れ、肩に対して手頸が水平方向において窓側に位置した場合に、乗員が窓に向かって手を伸ばしたと推定するなど、複数の身体部位の位置関係から適切に乗員の行動を推定できる。
本実施形態の行動推定装置10は、身体部位の位置を時系列に求め、当該位置の変化量
、当該変化量の平均値、又は当該変化量の最大値と最小値の差分に基づいて、行動の大きさ又は速さを追加特徴量として求め、当該追加特徴量と骨格情報とに基づいて乗員の行動を判定する。これにより行動推定装置10は、乗員が暴れている場合など、身体部位を大きく且つ素早く動かす傾向にある行動を精度良く推定することができる。
本実施形態の行動推定装置10は、乗員が基本の着座姿勢をとった際の各身体部位の位置を基準値として保持し、当該基準値からの変化量を追加特徴量として求め、当該追加特徴量と骨格情報とに基づいて乗員の行動を判定する。これにより行動推定装置10は、乗員が立ち上がった場合や、歩き回った場合など、着座姿勢との差に応じた値が得られ、着座姿勢から大きく外れ、問題となるような行動を適切に推定できる。
本実施形態の行動推定装置10は、追加特徴量に基づいて乗員の行動を判定し、当該追加特徴量に基づく判定結果を骨格情報に基づいて補正し、乗員の行動を推定する。これにより行動推定装置10は、追加特徴量と骨格情報とに基づいて精度良く乗員の行動を推定できる。
<第二の実施形態>
図8は、第二の実施形態に係る行動推定部125が骨格情報及び追加特徴量に基づいて乗員の行動を推定する処理の説明図である。第一の実施形態では、図5に示すように行動推定部125が、追加特徴量に基づいて乗員の行動を推定すると共に、この推定結果を骨格情報に基づく推定結果を用いて補正し、推定結果を求めている。これに対して本実施形態では、図8に示すように行動推定部125が、追加特徴量に基づく行動の推定と骨格情報に基づく行動の推定とを並行して行い、これらを比較して推定結果を決定する。なお、その他の構成は、前述の実施形態と同じであるため、同一の要素に同符号を付すなどして再度の説明を省略する。
行動推定部125は、図8に示すように、処理S1において、追加特徴量に基づいて乗員の行動を判定し、これと共に処理S2において、骨格情報に基づいて乗員の行動を判定する。
行動推定部125は、追加特徴量に基づく判定結果と骨格情報に基づく判定結果とを比較し、両判定結果が一致した場合、当該判定結果を乗員の行動として推定し、ステップS150で危険行為に該当するか否かの判定に用いる行動として決定する。
また、行動推定部125は、追加特徴量に基づく判定結果と骨格情報に基づく判定結果とが一致しない場合、推定結果の決定を保留する。また、行動推定部125は、追加特徴量に基づく判定結果と骨格情報に基づく判定結果とが一致しない場合、所定の優先度に応じて追加特徴量に基づく判定結果若しくは骨格情報に基づく判定結果を乗員の行動として推定し、ステップS150で危険行為に該当するか否かの判定に用いる行動として決定してもよい。
図9A,図9Bは、第二の実施形態に係る行動推定装置10の制御部12が実行する行動推定方法のフローを示す図である。なお、ステップS10~S100までの処理は、前述した図6A,図6Bの処理と同じである。
ステップS111にて、制御部12は、ステップS90で骨格情報に基づいて求めた乗員の行動と、ステップS100で追加特徴量に基づいて求めた乗員の行動を比較し、骨格情報に基づく行動と追加特徴量に基づく行動が一致するか否かを判定する。制御部12は、ステップS111で肯定判定であればステップS120へ移行し、否定判定であればステップS112へ移行する。即ち、制御部12は、骨格情報に基づく行動と追加特徴量に
基づく行動とが一致しない場合、推定結果の決定を保留する。
ステップS112にて、制御部12は、ステップS111で不一致と判定された状態が所定時間以上継続しているか否かを判定する。制御部12は、ステップS112で否定判定であれば図9A,図9Bの処理を終了し、肯定判定であればステップS113へ移行する。
ステップS113にて、制御部12は、所定の優先度に応じて追加特徴量に基づく判定結果若しくは骨格情報に基づく判定結果を乗員の行動として決定する。例えば、追加特徴量に基づく判定結果を優先することとし、制御部12は、ステップS100の判定結果を危険行為の判定に用いる行動に決定する。これに限らず、優先度は、追加特徴量に基づく判定結果と骨格情報に基づく判定結果のうち、継続している時間が長い方を優先するなど、他の条件であってもよい。
ステップS113の後、制御部12は、ステップS120へ移行する。なお、ステップS120以降の処理については、前述した図6A,図6Bの処理と同じである。本実施形態によれば、追加特徴量に基づく判定結果と骨格情報に基づく判定結果とを用いて乗員の行動を推定しており、精度良く乗員の行動を推定することができる。
以上、本発明の実施形態を説明したが、これらはあくまで例示にすぎず、本発明はこれらに限定されるものではなく、特許請求の範囲の趣旨を逸脱しない限りにおいて、当業者の知識に基づく種々の変更が可能である。
1: 車両
10: 行動推定装置
100: 行動推定システム
12: 制御部
121: 画像取得部
122: 骨格情報生成部
123: 骨格情報補完部
124: 特徴量算出部
125: 行動推定部
126: 通知制御部
20: 撮影装置
21: 撮影光学系
22: 受光素子
23: 計測部
24: 光源
30: 車載機器
40: ナビゲーション装置
50: 検出部
51: 接続バス
53: メモリ
56: 撮影装置

Claims (13)

  1. 車両内を撮影した車内画像に基づいて、前記車両内の乗員における複数の身体部位の位置を含む骨格情報を求めることと、
    前記乗員の身体部位のうち、前記車内画像の撮影範囲から外れた非撮影部位について、前記撮影範囲から外れるまでの動きに基づいて前記非撮影部位の位置を求め、前記非撮影部位の位置を示す情報を前記骨格情報に加えて前記骨格情報を補完することと、
    補完した前記骨格情報に基づいて前記乗員の行動を推定することと、
    を実行する制御部を備えた行動推定装置。
  2. 前記補完後の骨格情報における所定種類の身体部位の位置と前記車両内に設けられた車載機器の操作部の位置とに基づいて前記乗員の行動を推定する請求項1に記載の行動推定装置。
  3. 前記骨格情報に加えて、前記車両の状態を示す車両情報に基づいて前記乗員の行動を推定する請求項1又は2に記載の行動推定装置。
  4. 推定した前記乗員の行動が、所定の危険行為に該当するか否かを判定し、危険行為に該当する場合に、通知情報の出力を行う請求項1~3の何れか1項に記載の行動推定装置。
  5. 前記車両の後席に座る乗員の行動が前記危険行為に該当する場合、前記後席に割り当てた第一通知部から前記通知情報を出力させ、当該通知後も前記危険行為が継続している場合、前記車両の運転席に割り当てた第二通知部から前記通知情報を出力する請求項4に記載の行動推定装置。
  6. 前記乗員の行動に加えて、前記車両の状態を示す車両情報に基づいて前記行動が前記危険行為に該当するか否かを判定する請求項4又は5に記載の行動推定装置。
  7. 前記行動の推定を周期的に行い、推定された行動が前回と異なる行動に更新された場合、更新された前記行動が所定期間以上継続するまでは、更新された前記行動が前記危険行為に該当するか否かの判定を行わず、更新された前記行動が所定期間以上継続した場合に、当該行動が前記危険行為に該当するか否かの判定を行う請求項4~6の何れか1項に記載の行動推定装置。
  8. 前記乗員の身体部位のうち複数の箇所に特徴点を定め、当該特徴点間の位置関係を追加特徴量として求め、当該追加特徴量と前記骨格情報とに基づいて前記乗員の行動を判定する請求項1~7の何れか1項に記載の行動推定装置。
  9. 前記身体部位の位置を時系列に求め、当該位置の変化量、当該変化量の平均値、又は当該変化量の最大値と最小値の差分に基づいて、前記行動の大きさ又は速さを追加特徴量として求め、当該追加特徴量と前記骨格情報とに基づいて前記乗員の行動を判定する請求項1~8の何れか1項に記載の行動推定装置。
  10. 前記乗員が基本の着座姿勢をとった際の各身体部位の位置を基準値として保持し、当該基準値からの変化量を追加特徴量として求め、当該追加特徴量と前記骨格情報とに基づいて前記乗員の行動を判定する請求項1~9の何れか1項に記載の行動推定装置。
  11. 前記追加特徴量に基づいて前記乗員の行動を判定し、当該追加特徴量に基づく判定結果を前記骨格情報に基づいて補正し、前記乗員の行動を推定する請求項8~10の何れか1項に記載の行動推定装置。
  12. 前記追加特徴量に基づいて前記乗員の行動を判定すると共に、前記骨格情報に基づいて前記乗員の行動を判定し、
    前記追加特徴量に基づく判定結果と前記骨格情報に基づく判定結果が一致した場合、当該判定結果を前記乗員の行動として推定し、
    前記追加特徴量に基づく判定結果と前記骨格情報に基づく判定結果が一致しない場合、所定の優先度に基づいて前記追加特徴量に基づく判定結果若しくは前記骨格情報に基づく判定結果を前記乗員の行動として推定する、又は前記乗員の行動の推定を保留する請求項8~10の何れか1項に記載の行動推定装置。
  13. 車両内を撮影した車内画像に基づいて、前記車両内の乗員における複数の身体部位の位置を含む骨格情報を求めるステップと、
    前記乗員の身体部位のうち、前記車内画像の撮影範囲から外れた非撮影部位について、前記撮影範囲から外れるまでの動きに基づいて前記非撮影部位の位置を求め、前記非撮影部位の位置を示す情報を前記骨格情報に加えて前記骨格情報を補完するステップと、
    補完した前記骨格情報に基づいて前記乗員の行動を推定するステップと、
    を制御部が実行する行動推定方法。
JP2022023630A 2022-02-18 2022-02-18 行動推定装置及び行動推定方法 Pending JP2023120663A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022023630A JP2023120663A (ja) 2022-02-18 2022-02-18 行動推定装置及び行動推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022023630A JP2023120663A (ja) 2022-02-18 2022-02-18 行動推定装置及び行動推定方法

Publications (1)

Publication Number Publication Date
JP2023120663A true JP2023120663A (ja) 2023-08-30

Family

ID=87797216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022023630A Pending JP2023120663A (ja) 2022-02-18 2022-02-18 行動推定装置及び行動推定方法

Country Status (1)

Country Link
JP (1) JP2023120663A (ja)

Similar Documents

Publication Publication Date Title
CN113556975B (zh) 检测车辆中的对象并获得对象信息的系统、装置和方法
US6925193B2 (en) Image processing system for dynamic suppression of airbags using multiple model likelihoods to infer three dimensional information
US8059867B2 (en) Detection system, informing system, actuation system and vehicle
JP6870294B2 (ja) 乗員情報検出装置およびプログラム
US20070289799A1 (en) Vehicle occupant detecting system
JPH1115980A (ja) 自動車内の物体の存在を検知する装置
US20180096475A1 (en) Vehicle occupant head positioning system
JP2003267182A (ja) イメージ処理システム及びそのための方法
JP2008269496A (ja) 乗員情報検出システム、乗員拘束システム、車両
JP2003212081A (ja) イメージ処理システム及びそのための方法
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
CN110537207B (zh) 脸部朝向推定装置及脸部朝向推定方法
CN111665513A (zh) 面部特征部检测装置、面部特征部检测方法
JP2003141513A (ja) 車両用乗員頭部検出装置
JP2007280352A (ja) 視線方向判定装置
JP2006143159A (ja) 車両用動き認識装置
CN115635890A (zh) 用于运载工具的方法和系统以及非暂时性存储介质
JP2023120663A (ja) 行動推定装置及び行動推定方法
JP7267467B2 (ja) 注意方向判定装置および注意方向判定方法
JP2006142897A (ja) 車両用表示装置、および車両用表示装置の制御方法
JP2006253787A (ja) 画像入力装置及びこの装置を備えた車両の乗員監視装置
US20050040632A1 (en) Distance detecting apparatus, air bag system controlling apparatus, and method of detecting distance
JP2020194294A (ja) 関節点検出装置
JP2021056968A (ja) 物体判定装置
JP4175167B2 (ja) 車載情報提供装置