JP2022155451A - 乗員状態検出システム - Google Patents
乗員状態検出システム Download PDFInfo
- Publication number
- JP2022155451A JP2022155451A JP2021178196A JP2021178196A JP2022155451A JP 2022155451 A JP2022155451 A JP 2022155451A JP 2021178196 A JP2021178196 A JP 2021178196A JP 2021178196 A JP2021178196 A JP 2021178196A JP 2022155451 A JP2022155451 A JP 2022155451A
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- information
- vehicle
- state
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Eye Examination Apparatus (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】車両が走行状態と停車状態とにおける、最適な監視方法により、乗員の身体状態を常に、正確に検出することができる乗員状態検出システムを提供する。【解決手段】乗員の身体状態を監視する乗員監視装置10と、車両の走行状態と停車状態とを判別する判別装置100と、乗員監視装置10からの乗員監視情報に基づいて車両の乗員の状態を検出する乗員状態検出装置200とを備え、乗員状態検出装置200は、乗員監視情報と判別装置100からの判別情報とを受信し、判別情報に基づいて、受信した乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報または停車状態時比較情報とを照合し、車両の乗員の状態を検出する。【選択図】図3
Description
本発明は、乗員状態検出システムに関する。
近年、車両の安全運転を支援するためにドライバの状態をモニタリングする、所謂、ドライバモニタリングシステムの開発が進んでいる。このようなドライバモニタリングシステムでは、例えば、運転者がどこを注視しているのかを検出し、運転者が現在の状況に気付いていない場合には、運転者に警報を行うようになっている。
例えば、この種の装置として、運転者を含む乗員の監視する乗員監視装置において、監視対象の乗員が増えた場合であっても、撮像デバイスの使用個数を抑えることができる乗員監視装置が開示されている(例えば、特許文献1参照)。
しかしながら、特許文献1に記載の技術は、車両の走行時における運転者を含む乗員を監視するものであり、車両が停車状態である場合に、運転者を含む車両の乗員を監視し、乗員の身体状態を判定することは行っていないという課題があった。
また、走行状態と停車状態とでは、乗員監視装置において監視する対象が大きく異なることから、停車時に走行時と同じ乗員監視制御をそのまま適用しても、乗員の状態を正しく検出することができないという課題もあった。
また、走行状態と停車状態とでは、乗員監視装置において監視する対象が大きく異なることから、停車時に走行時と同じ乗員監視制御をそのまま適用しても、乗員の状態を正しく検出することができないという課題もあった。
そこで、本発明は、上述の課題に鑑みてなされたものであって、車両が走行状態における監視方法と停車状態における監視方法とを最適化し、乗員の身体状態を常に、正確に検出することができる乗員状態検出システムを提供することを目的とする。
形態1;本発明の1またはそれ以上の実施形態は、車両の乗員の身体状態を監視する乗員監視装置と、前記車両の走行状態と停車状態とを判別する判別装置と、前記乗員監視装置からの乗員監視情報に基づいて前記車両の乗員の状態を検出する乗員状態検出装置と、を備え、前記乗員状態検出装置は、1つまたは複数のプロセッサと、前記1つまたは複数のプロセッサに通信可能に接続される1つまたは複数のメモリと、を備え、前記1つまたは複数のメモリには、前記走行状態の前記車両の乗員の状態を検出するための照合データである走行状態時比較情報と、前記停車状態の前記車両の乗員の状態を検出するための照合データである停車状態時比較情報と、を含む情報が格納され、前記1つまたは複数のプロセッサは、前記乗員監視情報と前記判別装置からの判別情報とを受信し、該受信した前記乗員監視情報を前記1つまたは複数のメモリに格納し、前記判別情報に基づいて、前記車両が走行状態である場合には、前記乗員監視情報と前記走行状態時比較情報とを照合し、前記車両が停車状態である場合には、前記乗員監視情報と前記停車状態時比較情報とを照合して、前記車両の乗員の状態を検出する乗員状態検出システムを提案している。
形態2;本発明の1またはそれ以上の実施形態は、前記判別装置が、イグニッション情報を取得し、イグニッションがOFF状態であるときに、前記1つまたは複数のプロセッサに前記車両が前記停車状態である旨の前記判別情報を送信し、イグニッションがON状態であるときに、前記1つまたは複数のプロセッサに前記車両が前記走行状態である旨の前記判別情報を送信する乗員状態検出システムを提案している。
形態3;本発明の1またはそれ以上の実施形態は、前記乗員監視装置が前記車両の乗員の画像を撮像するカメラを含み、前記車両の乗員の表情や挙動、生体情報を含む前記乗員監視情報を取得し、前記1つまたは複数のプロセッサに送信する乗員状態検出システムを提案している。
形態4;本発明の1またはそれ以上の実施形態は、前記1つまたは複数のプロセッサは、前記判別情報が前記走行状態である場合には、前記乗員監視装置が監視する監視対象を前記車両の乗員の挙動に割当て、前記判別情報が前記停車状態である場合には、前記監視対象を前記車両の乗員の生体情報に割当てる乗員状態検出システムを提案している。
形態5;本発明の1またはそれ以上の実施形態は、前記1つまたは複数のプロセッサは、前記判別情報が前記走行状態である場合には、前記乗員監視装置が監視する監視対象を前記車両の運転席の乗員に割当て、前記判別情報が前記停車状態である場合には、前記監視対象を前記車両の室内全体の乗員に割当てる乗員状態検出システムを提案している。
形態6;本発明の1またはそれ以上の実施形態は、前記1つまたは複数のプロセッサは、前記判別情報が走行状態である場合には、前記乗員監視装置が監視する監視対象を前記車両の乗員の挙動および生体情報に割当て、前記判別情報が前記停車状態である場合には、前記監視対象を前記車両の乗員の挙動に割当てる乗員状態検出システムを提案している。
本発明の1またはそれ以上の実施形態によれば、車両が走行状態における監視方法と停車状態における監視方法とが最適化され、乗員の身体状態を常に、正確に検出することができるという効果がある。
以下、本発明の実施形態について、図1から図14を用いて説明する。
<第1の実施形態>
図1から図4を用いて、本実施形態に係る乗員状態検出システム1について説明する。
<第1の実施形態>
図1から図4を用いて、本実施形態に係る乗員状態検出システム1について説明する。
本実施形態に係る乗員状態検出システム1は、乗員監視装置10と、判別装置100と、乗員状態検出装置200とを含んで構成され、乗員状態検出装置200は、図1に示すように、例えば、車両内の運転席の前方中央部に設けられ、後述する乗員監視装置10により得られる乗員監視情報と判別装置100からの判別情報とを受信し、判別情報に基づいて、受信した乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報または停車状態時比較情報とを照合し、車両の乗員の状態を検出する装置である。
なお、詳細な構成については、別途、詳述する。
なお、詳細な構成については、別途、詳述する。
<乗員状態検出システム1の構成>
図2に示すように、本実施形態に係る乗員状態検出システム1は、乗員監視装置10と、判別装置100と、乗員状態検出装置200とを含んで構成されている。
図2に示すように、本実施形態に係る乗員状態検出システム1は、乗員監視装置10と、判別装置100と、乗員状態検出装置200とを含んで構成されている。
乗員監視装置10は、例えば、CCD(Charge Coupled Device)、またはCIS(CMOS Image Sensor)等の撮像素子を内蔵し、撮像素子によって撮像された車両内の乗員の画像(動画像、静止画像を含む)を取得するカメラを用いて、車両の乗員の身体状態を監視する。
カメラは、専用のカメラであってもよいが、例えば、乗員認識装置を備えている場合には、乗員認識装置内のカメラを用いることが好ましい。また、カメラは、光学式カメラと近赤外線カメラとの双方により構成されていることが好ましい。
なお、本実施形態に係る乗員状態検出システム1において、乗員監視装置10は、外部から観察可能な乗員の表情や挙動、生体情報といった情報を監視するのに好適である。
カメラは、専用のカメラであってもよいが、例えば、乗員認識装置を備えている場合には、乗員認識装置内のカメラを用いることが好ましい。また、カメラは、光学式カメラと近赤外線カメラとの双方により構成されていることが好ましい。
なお、本実施形態に係る乗員状態検出システム1において、乗員監視装置10は、外部から観察可能な乗員の表情や挙動、生体情報といった情報を監視するのに好適である。
乗員監視装置10から主に得られる乗員監視情報としては、視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体の動き等を含む「挙動」や、血流、脈拍数、呼吸数、睡眠時間、睡眠状態、寝返り回数、休息時間等を含む「生体情報」等を例示することができる。
ここで、目の開度は、居眠りを検知する指標として、瞬き回数は、眼精疲労の度合いや睡眠時間の不足等を検知する指標として、目の開度は乗員の睡眠状態等を検知する指標として例示することができる。
ここで、目の開度は、居眠りを検知する指標として、瞬き回数は、眼精疲労の度合いや睡眠時間の不足等を検知する指標として、目の開度は乗員の睡眠状態等を検知する指標として例示することができる。
判別装置100は、車両の走行状態と停車状態とを判別する。
判別装置100は、例えば、図示しない車両のCPU(Central Processing Unit)から、イグニッション情報を取得し、イグニッションがON状態であるときには、車両が走行状態であると判別し、イグニッションがOFF状態であるときには、車両が停車状態であると判別する。
なお、判別装置100が、さらに、車速パルスやパーキングブレーキの作動状態等を監視して、上記イグニッションのON/OFF状態と併せて、車両の走行状態と停車状態とを判別するようにしてもよい。
判別装置100は、例えば、図示しない車両のCPU(Central Processing Unit)から、イグニッション情報を取得し、イグニッションがON状態であるときには、車両が走行状態であると判別し、イグニッションがOFF状態であるときには、車両が停車状態であると判別する。
なお、判別装置100が、さらに、車速パルスやパーキングブレーキの作動状態等を監視して、上記イグニッションのON/OFF状態と併せて、車両の走行状態と停車状態とを判別するようにしてもよい。
乗員状態検出装置200は、判別装置100からの車両が走行状態あるいは停車状態である旨の情報を受信する。そして、乗員状態検出装置200は、判別装置100からの判別情報に基づいて、車両が走行状態である場合には、乗員監視装置10から受信した乗員監視情報と走行状態時比較情報とを照合し、車両が停車状態である場合には、乗員監視装置10から乗員監視情報を受信した乗員監視情報と停車状態時比較情報とを照合して、車両の乗員の状態を検出する。
<乗員状態検出装置200の構成>
図3に示すように、本実施形態に係る乗員状態検出装置200は、プロセッサ210と、メモリ220とを含んで構成されている。
図3に示すように、本実施形態に係る乗員状態検出装置200は、プロセッサ210と、メモリ220とを含んで構成されている。
プロセッサ210は、後述するメモリ220に格納された制御プログラムに従って乗員状態検出装置200全体の制御を行う。
そして、プロセッサ210は、判別装置100からの車両が走行状態あるいは停車状態である旨の情報を受信する。そして、プロセッサ210は、乗員監視装置10から乗員監視情報を受信し、受信した乗員監視情報と、後述するメモリ220に格納された走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
そして、プロセッサ210は、判別装置100からの車両が走行状態あるいは停車状態である旨の情報を受信する。そして、プロセッサ210は、乗員監視装置10から乗員監視情報を受信し、受信した乗員監視情報と、後述するメモリ220に格納された走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
メモリ220は、ROM(Read Only Memory)、RAM(Random Access Memory)等を含み、ROMには、上述の制御プログラム等が格納され、RAMには、各種データ等が保存されている。
本実施形態においては、例えば、乗員監視装置10から受信した乗員監視情報等がメモリ220に格納される。
本実施形態においては、例えば、乗員監視装置10から受信した乗員監視情報等がメモリ220に格納される。
走行状態時比較情報は、車両が走行状態のときに、乗員の身体状態を検出するために、プロセッサ210が参照する照合データである。
また、停車状態時比較情報は、車両が停車状態のときに、乗員の身体状態を検出するために、プロセッサ210が参照する照合データである。
具体的には、走行状態時比較情報は、車両が走行状態であるときの平時の乗員の挙動や生体情報等に関する情報であり、停車状態時比較情報は、車両が停車状態であるときの平時の乗員の挙動や生体情報等に関する情報であって、メモリ220に格納されている。
プロセッサ210は、乗員監視装置10から受信した乗員監視情報と走行状態時比較情報あるいは停車状態時比較情報とを比較することにより、車両走行時あるいは車両停車時の乗員の異常な挙動や生体情報等の身体状態を検出する。
また、停車状態時比較情報は、車両が停車状態のときに、乗員の身体状態を検出するために、プロセッサ210が参照する照合データである。
具体的には、走行状態時比較情報は、車両が走行状態であるときの平時の乗員の挙動や生体情報等に関する情報であり、停車状態時比較情報は、車両が停車状態であるときの平時の乗員の挙動や生体情報等に関する情報であって、メモリ220に格納されている。
プロセッサ210は、乗員監視装置10から受信した乗員監視情報と走行状態時比較情報あるいは停車状態時比較情報とを比較することにより、車両走行時あるいは車両停車時の乗員の異常な挙動や生体情報等の身体状態を検出する。
<乗員状態検出システム1の処理>
図4を用いて、本実施形態に係る乗員状態検出システム1の処理について説明する。
図4を用いて、本実施形態に係る乗員状態検出システム1の処理について説明する。
プロセッサ210は、乗員監視装置10から乗員監視情報を受信し、メモリ220に格納する(ステップS10)。
プロセッサ210は、判別装置100からのイグニッションがON状態である車両の走行状態を示す情報を受信したか否かを判断する(ステップS20)。
プロセッサ210が、イグニッションがON状態である車両の走行状態を示す情報を受信していないと判断した場合(ステップS20の「NO」)には、車両が停止状態であると判断し、処理をステップS30に移行させる。
プロセッサ210は、受信した乗員監視情報とメモリ220に格納された停車状態時比較情報とを照合し、乗員状態を検出する(ステップS30)。
具体的には、プロセッサ210は、例えば、「血流、脈拍数、呼吸数」等の乗員監視情報(「生体情報」)と、停車状態時比較情報とを照合し、乗員の身体の異常等を検出する。
具体的には、プロセッサ210は、例えば、「血流、脈拍数、呼吸数」等の乗員監視情報(「生体情報」)と、停車状態時比較情報とを照合し、乗員の身体の異常等を検出する。
一方で、プロセッサ210が、イグニッションがON状態である車両の走行状態を示す情報を受信していると判断した場合(ステップS20の「YES」)には、処理をステップS40に移行させる。
プロセッサ210は、乗員監視装置10から受信した乗員監視情報とメモリ220に格納された走行状態時比較情報とを照合し、乗員状態を検出する(ステップS40)。
具体的には、プロセッサ210は、例えば、「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報(「挙動」)と、走行状態時比較情報とを照合し、わき見、居眠り、疲労状態、体勢等の異常状態を検出する。
プロセッサ210は、乗員監視装置10から受信した乗員監視情報とメモリ220に格納された走行状態時比較情報とを照合し、乗員状態を検出する(ステップS40)。
具体的には、プロセッサ210は、例えば、「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報(「挙動」)と、走行状態時比較情報とを照合し、わき見、居眠り、疲労状態、体勢等の異常状態を検出する。
そして、プロセッサ210は、乗員状態検出処理を継続するか否かを判定する(ステップS50)。
プロセッサ210が、乗員状態検出処理を継続すると判定した場合(ステップS50の「YES」)には、処理をステップS10に戻し、乗員状態検出処理を継続する。
一方で、プロセッサ210が、乗員状態検出処理を継続しないと判定した場合(ステップS50の「NO」)には、乗員状態検出処理を終了する。
プロセッサ210が、乗員状態検出処理を継続すると判定した場合(ステップS50の「YES」)には、処理をステップS10に戻し、乗員状態検出処理を継続する。
一方で、プロセッサ210が、乗員状態検出処理を継続しないと判定した場合(ステップS50の「NO」)には、乗員状態検出処理を終了する。
<作用・効果>
以上、説明したように、本実施形態に係る乗員状態検出システム1は、車両の乗員の身体状態を監視する乗員監視装置10と、車両の走行状態と停車状態とを判別する判別装置100と、乗員監視装置10からの乗員監視情報に基づいて車両の乗員の状態を検出する乗員状態検出装置200とを備え、乗員状態検出装置200は、プロセッサ210と、プロセッサ210に通信可能に接続されるメモリ220とを備え、メモリ220には、走行状態の車両の乗員の状態を検出するための照合データである走行状態時比較情報と、停車状態の車両の乗員の状態を検出するための照合データである停車状態時比較情報と、を含む情報が格納され、プロセッサ210は、乗員監視情報と判別装置100からの判別情報とを受信し、該受信した乗員監視情報をメモリ220に格納し、判別情報に基づいて、車両が走行状態にある場合には、乗員監視情報と走行状態時比較情報とを照合し、車両が停車状態である場合には、乗員監視情報と停車状態時比較情報とを照合して、車両の乗員の状態を検出する。
つまり、本実施形態に係る乗員状態検出システム1では、車両が走行状態であるのか停車状態であるのかを判別する判別情報に基づいて、乗員監視装置10からの乗員監視情報と、走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
そのため、乗員の身体状態の検出において、停車状態あるいは走行状態における監視方法が最適化されることから、乗員の身体状態を常に、正確に検出することができる。
以上、説明したように、本実施形態に係る乗員状態検出システム1は、車両の乗員の身体状態を監視する乗員監視装置10と、車両の走行状態と停車状態とを判別する判別装置100と、乗員監視装置10からの乗員監視情報に基づいて車両の乗員の状態を検出する乗員状態検出装置200とを備え、乗員状態検出装置200は、プロセッサ210と、プロセッサ210に通信可能に接続されるメモリ220とを備え、メモリ220には、走行状態の車両の乗員の状態を検出するための照合データである走行状態時比較情報と、停車状態の車両の乗員の状態を検出するための照合データである停車状態時比較情報と、を含む情報が格納され、プロセッサ210は、乗員監視情報と判別装置100からの判別情報とを受信し、該受信した乗員監視情報をメモリ220に格納し、判別情報に基づいて、車両が走行状態にある場合には、乗員監視情報と走行状態時比較情報とを照合し、車両が停車状態である場合には、乗員監視情報と停車状態時比較情報とを照合して、車両の乗員の状態を検出する。
つまり、本実施形態に係る乗員状態検出システム1では、車両が走行状態であるのか停車状態であるのかを判別する判別情報に基づいて、乗員監視装置10からの乗員監視情報と、走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
そのため、乗員の身体状態の検出において、停車状態あるいは走行状態における監視方法が最適化されることから、乗員の身体状態を常に、正確に検出することができる。
また、本実施形態に係る乗員状態検出システム1における判別装置100は、イグニッション情報を取得し、イグニッションがOFF状態であるときに、プロセッサ210に車両が停車状態である旨の判別情報を送信し、イグニッションがON状態であるときに、プロセッサ210に車両が走行状態である旨の判別情報を送信する。
つまり、判別装置100は、イグニッションのON/OFFにより、車両の走行状態と停車状態とを判別する。
そのため、乗員状態検出システム1は、特別なセンサ等を用いることなく、一意に車両の走行状態と停車状態とを判別することができる。
つまり、判別装置100は、イグニッションのON/OFFにより、車両の走行状態と停車状態とを判別する。
そのため、乗員状態検出システム1は、特別なセンサ等を用いることなく、一意に車両の走行状態と停車状態とを判別することができる。
また、本実施形態に係る乗員状態検出システム1における乗員監視装置10は、車両の乗員の画像を撮像するカメラを含み、車両の乗員の挙動、生体情報を含む乗員監視情報を取得し、プロセッサ210に送信する。
つまり、乗員状態検出システム1では、乗員監視装置10に対して、内蔵するカメラの特性を考慮しつつ、乗員の身体状態を検出する情報として、車両の乗員の挙動や生体情報を含む乗員監視情報を取得させる。
そのため、乗員状態検出システム1は、車両の乗員の挙動、生体情報等について、確度の高い情報を得ることができるため、車両の乗員の身体状態を検出する精度を向上させることができる。
つまり、乗員状態検出システム1では、乗員監視装置10に対して、内蔵するカメラの特性を考慮しつつ、乗員の身体状態を検出する情報として、車両の乗員の挙動や生体情報を含む乗員監視情報を取得させる。
そのため、乗員状態検出システム1は、車両の乗員の挙動、生体情報等について、確度の高い情報を得ることができるため、車両の乗員の身体状態を検出する精度を向上させることができる。
また、カメラが、光学式カメラと近赤外線カメラとの双方により構成されている場合には、昼夜を問わず乗員の画像を取得することができる。
そのため、時間帯を問わず、車両の走行状態あるいは停車状態における乗員の身体状態を常に、的確に把握することができる。
そのため、時間帯を問わず、車両の走行状態あるいは停車状態における乗員の身体状態を常に、的確に把握することができる。
<第2の実施形態>
図5から図8を用いて、本実施形態に係る乗員状態検出システム1Aについて説明する。
なお、第1の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は省略する。
<乗員状態検出システム1Aの構成>
図5に示すように、本実施形態に係る乗員状態検出システム1Aは、乗員監視装置10と、判別装置100と、乗員状態検出装置200Aとを含んで構成されている。
図5から図8を用いて、本実施形態に係る乗員状態検出システム1Aについて説明する。
なお、第1の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は省略する。
<乗員状態検出システム1Aの構成>
図5に示すように、本実施形態に係る乗員状態検出システム1Aは、乗員監視装置10と、判別装置100と、乗員状態検出装置200Aとを含んで構成されている。
<乗員状態検出装置200Aの構成>
図6に示すように、本実施形態に係る乗員状態検出装置200Aは、プロセッサ210Aと、メモリ220とを含んで構成されている。
図6に示すように、本実施形態に係る乗員状態検出装置200Aは、プロセッサ210Aと、メモリ220とを含んで構成されている。
プロセッサ210Aは、後述するメモリ220に格納された制御プログラムに従って乗員状態検出装置200A全体の制御を行う。
また、プロセッサ210Aは、本実施形態においては、特に、後述する情報受信部211A、監視割当部212A、乗員状態検出部213A等の機能を実行する。
また、プロセッサ210Aは、本実施形態においては、特に、後述する情報受信部211A、監視割当部212A、乗員状態検出部213A等の機能を実行する。
<プロセッサ210Aの構成>
図6に示すように、本実施形態に係るプロセッサ210Aは、情報受信部211Aと、監視割当部212Aと、乗員状態検出部213Aとを含んで構成されている。
図6に示すように、本実施形態に係るプロセッサ210Aは、情報受信部211Aと、監視割当部212Aと、乗員状態検出部213Aとを含んで構成されている。
情報受信部211Aは、乗員監視装置10からの乗員監視情報を受信し、受信した乗員監視情報をメモリ220に格納する。
監視割当部212Aは、判別装置100から判別情報を受信し、乗員監視装置10において監視する監視対象を割当てる。
具体的には、図7に示すように、監視割当部212Aは、判別装置100から車両が走行状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を、例えば、「乗員の挙動」に割当てる(割当処理A)。
つまり、車両が走行状態のときには、乗員の異常な姿勢等を検出するために、乗員監視装置10の監視対象が、例えば、「乗員の挙動」に割当てられ、例えば、「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報が情報受信部211Aに送信される。
具体的には、図7に示すように、監視割当部212Aは、判別装置100から車両が走行状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を、例えば、「乗員の挙動」に割当てる(割当処理A)。
つまり、車両が走行状態のときには、乗員の異常な姿勢等を検出するために、乗員監視装置10の監視対象が、例えば、「乗員の挙動」に割当てられ、例えば、「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報が情報受信部211Aに送信される。
また、監視割当部212Aは、判別装置100から車両が停車状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を、例えば、「乗員の生体情報」に割当てる(割当処理B)。
つまり、車両が停車状態のときには、睡眠、休憩等で乗員が横になり、乗員監視装置10により、顔の情報が取得できなくなることがある。
そのため、乗員監視装置10の監視対象が、例えば、「乗員の生体情報」に割当てられ、例えば、「血流、脈拍数、呼吸数」等の乗員監視情報が情報受信部211Aに送信される。
また、監視割当部212Aは、判別装置100から受信した判別情報を乗員状態検出部213Aに送信する。
つまり、車両が停車状態のときには、睡眠、休憩等で乗員が横になり、乗員監視装置10により、顔の情報が取得できなくなることがある。
そのため、乗員監視装置10の監視対象が、例えば、「乗員の生体情報」に割当てられ、例えば、「血流、脈拍数、呼吸数」等の乗員監視情報が情報受信部211Aに送信される。
また、監視割当部212Aは、判別装置100から受信した判別情報を乗員状態検出部213Aに送信する。
乗員状態検出部213Aは、監視割当部212Aから受信した判別情報に基づいて、メモリ220に格納された乗員監視装置10からの乗員監視情報と、走行状態時比較情報あるいは停車状態時比較情報と、を照合し、乗員の身体状態を検出する。
具体的には、乗員状態検出部213Aは、監視割当部212Aからの走行状態である旨の判別情報を受信した場合には、例えば、上述した「乗員の挙動」を示す「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報と対応する走行状態時比較情報とを照合し、わき見、居眠り、疲労状態、体勢等の異常状態を検出する。
具体的には、乗員状態検出部213Aは、監視割当部212Aからの走行状態である旨の判別情報を受信した場合には、例えば、上述した「乗員の挙動」を示す「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報と対応する走行状態時比較情報とを照合し、わき見、居眠り、疲労状態、体勢等の異常状態を検出する。
また、乗員状態検出部213Aは、監視割当部212Aからの停車状態である旨の情報を受信した場合には、例えば、上述した「乗員の生体情報」を示す「血流、脈拍数、呼吸数」等の乗員監視情報と、この乗員監視情報と対応する停車状態時比較情報とを照合し、乗員の身体の異常等を検出する。
<乗員状態検出システム1Aの処理>
図8を用いて、本実施形態に係る乗員状態検出システム1Aの処理について説明する。
図8を用いて、本実施形態に係る乗員状態検出システム1Aの処理について説明する。
プロセッサ210Aの監視割当部212Aは、判別装置100からのイグニッションがON状態である車両の走行状態を示す情報を受信したか否かを判断する(ステップS110)。
監視割当部212Aが、イグニッションがON状態である車両の走行状態を示す情報を受信していると判断した場合(ステップS110の「YES」)には、割当処理A(ステップS120)を実行する。
割当処理A(ステップS120)において、監視割当部212Aは、乗員監視装置10の監視対象を、例えば、「乗員の挙動」に割当て、その旨の信号を乗員監視装置10に送信し、処理をステップS140に移行する。
割当処理A(ステップS120)において、監視割当部212Aは、乗員監視装置10の監視対象を、例えば、「乗員の挙動」に割当て、その旨の信号を乗員監視装置10に送信し、処理をステップS140に移行する。
一方で、監視割当部212Aが、イグニッションがON状態である車両の走行状態を示す情報を受信していないと判断した場合(ステップS110の「NO」)には、車両が停止状態であると判断し、割当処理B(ステップS130)を実行する。
割当処理B(ステップS130)において、監視割当部212Aは、乗員監視装置10の監視対象を、例えば、「乗員の生体情報」に割当て、その旨の信号を乗員監視装置10に送信し、処理をステップS140に移行する。
割当処理B(ステップS130)において、監視割当部212Aは、乗員監視装置10の監視対象を、例えば、「乗員の生体情報」に割当て、その旨の信号を乗員監視装置10に送信し、処理をステップS140に移行する。
ここで、プロセッサ210Aは、監視割当部212Aにおける割当処理A(ステップS120)または、割当処理B(ステップS130)の実行後に、すでに起動している乗員監視装置10に対して、情報受信部211Aへの情報出力を許可する。
なお、プロセッサ210Aは、監視割当部212Aにおける割当処理A(ステップS120)または割当処理B(ステップS130)の実行後に、情報受信部211Aにおける乗員監視装置10からの乗員監視情報の受信を許可するようにしてもよい。
あるいは、プロセッサ210Aは、監視割当部212Aにおける割当処理A(ステップS120)、または、割当処理B(ステップS130)の実行後に、情報受信部211Aに対して、乗員監視装置10からの乗員監視情報のメモリ220への書き込みを許可するようにしてもよい。
なお、プロセッサ210Aは、監視割当部212Aにおける割当処理A(ステップS120)または割当処理B(ステップS130)の実行後に、情報受信部211Aにおける乗員監視装置10からの乗員監視情報の受信を許可するようにしてもよい。
あるいは、プロセッサ210Aは、監視割当部212Aにおける割当処理A(ステップS120)、または、割当処理B(ステップS130)の実行後に、情報受信部211Aに対して、乗員監視装置10からの乗員監視情報のメモリ220への書き込みを許可するようにしてもよい。
情報受信部211Aは、監視割当部212Aにより監視対象が割当てられた乗員監視装置10からの乗員監視情報を受信する。そして、情報受信部211Aは、乗員監視装置10から受信した乗員監視情報をメモリ220に格納する(ステップS140)。
乗員状態検出部213Aは、メモリ220に格納された乗員監視装置10からの乗員監視情報と、メモリ220に格納された乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態等を検出する(ステップS150)。
具体的には、乗員状態検出部213Aは、例えば、監視割当部212Aからの走行状態である旨の判別情報を受信した場合には、例えば、「乗員の挙動」を示す「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報とを照合し、わき見、居眠り、疲労状態、体勢等の異常状態を検出する。
また、乗員状態検出部213Aは、監視割当部212Aからの停車状態である旨の情報を受信した場合には、例えば、「乗員の生体情報」を示す「血流、脈拍数、呼吸数」等の乗員監視情報と、この乗員監視情報に対応する停車状態時比較情報とを照合し、乗員の身体の異常等を検出する。
具体的には、乗員状態検出部213Aは、例えば、監視割当部212Aからの走行状態である旨の判別情報を受信した場合には、例えば、「乗員の挙動」を示す「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報とを照合し、わき見、居眠り、疲労状態、体勢等の異常状態を検出する。
また、乗員状態検出部213Aは、監視割当部212Aからの停車状態である旨の情報を受信した場合には、例えば、「乗員の生体情報」を示す「血流、脈拍数、呼吸数」等の乗員監視情報と、この乗員監視情報に対応する停車状態時比較情報とを照合し、乗員の身体の異常等を検出する。
そして、プロセッサ210Aは、乗員状態検出処理を継続するか否かを判定する(ステップS160)。
プロセッサ210Aが、乗員状態検出処理を継続すると判定した場合(ステップS160の「YES」)には、処理をステップS110に戻し、乗員状態検出処理を継続する。
一方で、プロセッサ210Aが、乗員状態検出処理を継続しないと判定した場合(ステップS160の「NO」)には、乗員状態検出処理を終了する。
プロセッサ210Aが、乗員状態検出処理を継続すると判定した場合(ステップS160の「YES」)には、処理をステップS110に戻し、乗員状態検出処理を継続する。
一方で、プロセッサ210Aが、乗員状態検出処理を継続しないと判定した場合(ステップS160の「NO」)には、乗員状態検出処理を終了する。
<作用・効果>
以上、説明したように、本実施形態に係る乗員状態検出システム1Aにおけるプロセッサ210Aは、判別情報が走行状態である場合には、乗員監視装置10が監視する監視対象を車両の乗員の挙動に割当て、判別情報が停車状態である場合には、監視対象を車両の乗員の生体情報に割当てる。
つまり、プロセッサ210Aは、判別装置100からの判別情報に基づいて、車両が走行状態である場合には、監視対象を車両の乗員の挙動に割当て、車両が停車状態である場合には、監視対象を車両の乗員の生体情報に割当てる。
そのため、乗員の身体状態の検出において、停車状態あるいは走行状態における監視方法が最適化されることから、乗員の身体状態を常に、正確に検出することができる。
また、本実施形態に係る乗員状態検出システム1Aは、車両が停車状態であるときに、乗員が睡眠、休憩等をとると、乗員監視装置10において、乗員の顔が監視できなくなることから、車両が停車状態である場合には、乗員監視装置10が監視する監視対象を「乗員の挙動」ではなく、「乗員の生体情報」に割当てる。
そのため、乗員状態検出システム1Aは、車両が停車状態であっても、乗員の身体状態を精度よく検出することができる。
さらに、本実施形態に係る乗員状態検出システム1Aは、車両が走行状態である場合には、乗員監視装置10が監視する監視対象を「乗員の挙動」に割当てる。
つまり、乗員状態検出システム1Aは、車両が走行状態のときには、乗員の「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報とを照合し、乗員のわき見、居眠り、疲労状態、体勢等の走行中の危険な状態を直ちに検出することができる。
以上、説明したように、本実施形態に係る乗員状態検出システム1Aにおけるプロセッサ210Aは、判別情報が走行状態である場合には、乗員監視装置10が監視する監視対象を車両の乗員の挙動に割当て、判別情報が停車状態である場合には、監視対象を車両の乗員の生体情報に割当てる。
つまり、プロセッサ210Aは、判別装置100からの判別情報に基づいて、車両が走行状態である場合には、監視対象を車両の乗員の挙動に割当て、車両が停車状態である場合には、監視対象を車両の乗員の生体情報に割当てる。
そのため、乗員の身体状態の検出において、停車状態あるいは走行状態における監視方法が最適化されることから、乗員の身体状態を常に、正確に検出することができる。
また、本実施形態に係る乗員状態検出システム1Aは、車両が停車状態であるときに、乗員が睡眠、休憩等をとると、乗員監視装置10において、乗員の顔が監視できなくなることから、車両が停車状態である場合には、乗員監視装置10が監視する監視対象を「乗員の挙動」ではなく、「乗員の生体情報」に割当てる。
そのため、乗員状態検出システム1Aは、車両が停車状態であっても、乗員の身体状態を精度よく検出することができる。
さらに、本実施形態に係る乗員状態検出システム1Aは、車両が走行状態である場合には、乗員監視装置10が監視する監視対象を「乗員の挙動」に割当てる。
つまり、乗員状態検出システム1Aは、車両が走行状態のときには、乗員の「視線の向き、顔の向き、瞬き回数、目の開度、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報とを照合し、乗員のわき見、居眠り、疲労状態、体勢等の走行中の危険な状態を直ちに検出することができる。
<第3の実施形態>
図9から図11を用いて、本実施形態に係る乗員状態検出システム1Bについて説明する。
なお、第1の実施形態および第2の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は省略する。
図9から図11を用いて、本実施形態に係る乗員状態検出システム1Bについて説明する。
なお、第1の実施形態および第2の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は省略する。
<乗員状態検出システム1Bの構成>
図9に示すように、本実施形態に係る乗員状態検出システム1Bは、乗員監視装置10と、判別装置100と、乗員状態検出装置200Bとを含んで構成されている。
乗員状態検出装置200Bは、判別装置100から車両が走行状態あるいは停車状態である旨の情報を受信したときに、乗員監視装置10において監視する監視対象を割当てる。
そして、乗員状態検出装置200Bは、監視対象が割当てられた乗員監視装置10から、乗員監視情報を受信し、乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
そして、乗員状態検出装置200Bは、監視対象が割当てられた乗員監視装置10から、乗員監視情報を受信し、乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
<乗員状態検出装置200Bの構成>
図9に示すように、本実施形態に係る乗員状態検出装置200Bは、プロセッサ210Bと、メモリ220とを含んで構成されている。
図9に示すように、本実施形態に係る乗員状態検出装置200Bは、プロセッサ210Bと、メモリ220とを含んで構成されている。
プロセッサ210Bは、メモリ220に格納された制御プログラムに従って乗員状態検出装置200B全体の制御を行う。
また、プロセッサ210Bは、本実施形態においては、特に、後述する情報受信部211B、監視割当部212B、乗員状態検出部213B等の機能を実行する。
また、プロセッサ210Bは、本実施形態においては、特に、後述する情報受信部211B、監視割当部212B、乗員状態検出部213B等の機能を実行する。
<プロセッサ210Bの構成>
図9に示すように、本実施形態に係るプロセッサ210Bは、情報受信部211Bと、監視割当部212Bと、乗員状態検出部213Bとを含んで構成されている。
図9に示すように、本実施形態に係るプロセッサ210Bは、情報受信部211Bと、監視割当部212Bと、乗員状態検出部213Bとを含んで構成されている。
情報受信部211Bは、監視割当部212Bによって監視対象が割当てられた乗員監視装置10からの乗員監視情報を受信し、受信した乗員監視情報をメモリ220に格納する。
監視割当部212Bは、判別装置100からの判別情報を受信し、乗員監視装置10において監視する監視対象を割当てる。
具体的には、図10に示すように、監視割当部212Bは、判別装置100からの車両が走行状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を、「運転席の乗員」に割当てる(割当処理C)。
つまり、車両が走行状態のときには、運転席にいる乗員の異常な姿勢、居眠り、わき見等を検出するために、乗員監視装置10の監視対象を運転席の乗員に割当てる。
一方で、監視割当部212Bは、判別装置100からの車両が停車状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を、「室内全体の乗員」に割当てる(割当処理D)。
つまり、車両が停車状態のときには、室内にいる全ての乗員の状態を監視するために、乗員監視装置10の監視対象を室内全体の乗員に割当てる。
また、監視割当部212Bは、判別装置100から受信した判別情報を乗員状態検出部213Bに送信する。
具体的には、図10に示すように、監視割当部212Bは、判別装置100からの車両が走行状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を、「運転席の乗員」に割当てる(割当処理C)。
つまり、車両が走行状態のときには、運転席にいる乗員の異常な姿勢、居眠り、わき見等を検出するために、乗員監視装置10の監視対象を運転席の乗員に割当てる。
一方で、監視割当部212Bは、判別装置100からの車両が停車状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を、「室内全体の乗員」に割当てる(割当処理D)。
つまり、車両が停車状態のときには、室内にいる全ての乗員の状態を監視するために、乗員監視装置10の監視対象を室内全体の乗員に割当てる。
また、監視割当部212Bは、判別装置100から受信した判別情報を乗員状態検出部213Bに送信する。
乗員状態検出部213Bは、監視割当部212Bから受信した判別情報に基づいて、メモリ220に格納された乗員監視装置10からの乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
具体的には、乗員状態検出部213Bは、監視割当部212Bからの走行状態である旨の判別情報を受信した場合には、例えば、上述したように、運転席にいる乗員の「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報とこの乗員監視情報に対応する走行状態時比較情報とを照合し、運転席にいる乗員のわき見、居眠り、疲労等を検出する。
また、乗員状態検出部213Bは、監視割当部212Bからの停車状態である旨の判別情報を受信した場合には、例えば、上述したように、室内全体にいる乗員の「姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する停車状態時比較情報とを照合し、車両の全ての乗員の居眠り、姿勢、携帯使用、テレビ視聴、喫煙、飲食、会話等の状態を検出する。
<乗員状態検出システム1Bの処理>
図11を用いて、本実施形態に係る乗員状態検出システム1Bの処理について説明する。
図11を用いて、本実施形態に係る乗員状態検出システム1Bの処理について説明する。
プロセッサ210Bの監視割当部212Bは、判別装置100からイグニッションがON状態である車両の走行状態を示す情報を受信したか否かを判断する(ステップS210)。
このとき、監視割当部212Bが、イグニッションがON状態である車両の走行状態を示す情報を受信していると判断した場合(ステップS210の「YES」)には、割当処理Cを実行する(ステップS220)。
割当処理C(ステップS220)において、監視割当部212Bは、乗員監視装置10の監視対象を「運転席の乗員」に割当て、その旨の信号を乗員監視装置10に送信する。
割当処理C(ステップS220)において、監視割当部212Bは、乗員監視装置10の監視対象を「運転席の乗員」に割当て、その旨の信号を乗員監視装置10に送信する。
一方で、監視割当部212Bが、イグニッションがON状態である車両の走行状態を示す情報を受信していないと判断した場合(ステップS210の「NO」)には、車両が停止状態であると判断し、割当処理Dを実行する(ステップS230)。
割当処理D(ステップS230)において、監視割当部212Bは、乗員監視装置10の監視対象を「室内全体の乗員」に割当て、その旨の信号を乗員監視装置10に送信する。
割当処理D(ステップS230)において、監視割当部212Bは、乗員監視装置10の監視対象を「室内全体の乗員」に割当て、その旨の信号を乗員監視装置10に送信する。
監視割当部212Bにより割当処理C(ステップS220)または、割当処理D(ステップS230)の処理が実行されると、情報受信部211Bは、監視割当部212Bにより監視対象が割当てられた乗員監視装置10からの乗員監視情報を受信し、受信した乗員監視情報をメモリ220に格納する。(ステップS240)。
乗員状態検出部213Bは、メモリ220に格納された乗員監視装置10からの乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態等を検出する(ステップS250)。
つまり、乗員状態検出部213Bは、監視割当部212Bからの走行状態である旨の判別情報を受信した場合には、例えば、運転席にいる乗員の「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報とを照合し、運転席にいる乗員の睡眠状態、疲労状態、漫然運転、感情、ストレス等の状態を検出する。
また、乗員状態検出部213Bは、監視割当部212Bからの停車状態である旨の判別情報を受信した場合には、例えば、室内全体にいる乗員の「姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する停車状態時比較情報とを照合し、車両の全ての乗員の居眠り、姿勢、携帯使用、テレビ視聴、喫煙、飲食、会話等の状態を検出する。
つまり、乗員状態検出部213Bは、監視割当部212Bからの走行状態である旨の判別情報を受信した場合には、例えば、運転席にいる乗員の「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報とを照合し、運転席にいる乗員の睡眠状態、疲労状態、漫然運転、感情、ストレス等の状態を検出する。
また、乗員状態検出部213Bは、監視割当部212Bからの停車状態である旨の判別情報を受信した場合には、例えば、室内全体にいる乗員の「姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する停車状態時比較情報とを照合し、車両の全ての乗員の居眠り、姿勢、携帯使用、テレビ視聴、喫煙、飲食、会話等の状態を検出する。
そして、プロセッサ210Bは、乗員状態検出処理を継続するか否かを判定する(ステップS260)。
プロセッサ210Bが、乗員状態検出処理を継続すると判定した場合(ステップS260の「YES」)には、処理をステップS210に戻し、乗員状態検出処理を継続する。
一方で、プロセッサ210Bが、乗員状態検出処理を継続しないと判定した場合(ステップS260の「NO」)には、乗員状態検出処理を終了する。
プロセッサ210Bが、乗員状態検出処理を継続すると判定した場合(ステップS260の「YES」)には、処理をステップS210に戻し、乗員状態検出処理を継続する。
一方で、プロセッサ210Bが、乗員状態検出処理を継続しないと判定した場合(ステップS260の「NO」)には、乗員状態検出処理を終了する。
<作用・効果>
以上、説明したように、本実施形態に係る乗員状態検出システム1Bにおけるプロセッサ210Bは、判別情報が走行状態のときには、乗員監視装置10が監視する監視対象を車両の運転席の乗員に割当て、判別情報が停車状態である場合には、監視対象を車両の室内全体の乗員に割当てる。
つまり、乗員状態検出システム1Bにおけるプロセッサ210Bは、車両が停止状態のときには、運転手が車室内を移動することがあるために、監視対象を室内全体の乗員に割当てる。
そのため、車両が停車状態のときには、常に車両にいる全ての乗員の身体状態を検出することができる。
また、本実施形態に係る乗員状態検出システム1Bにおけるプロセッサ210Bは、車両が走行状態のときには、運転手の異常状態を検出するために、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報を取得し、その取得した乗員監視情報と走行状態時比較情報とを照合する。
そのため、車両が走行状態のときには、車両の運転手のわき見、居眠り、疲労、漫然運転等を直ちに検出することができる。
以上、説明したように、本実施形態に係る乗員状態検出システム1Bにおけるプロセッサ210Bは、判別情報が走行状態のときには、乗員監視装置10が監視する監視対象を車両の運転席の乗員に割当て、判別情報が停車状態である場合には、監視対象を車両の室内全体の乗員に割当てる。
つまり、乗員状態検出システム1Bにおけるプロセッサ210Bは、車両が停止状態のときには、運転手が車室内を移動することがあるために、監視対象を室内全体の乗員に割当てる。
そのため、車両が停車状態のときには、常に車両にいる全ての乗員の身体状態を検出することができる。
また、本実施形態に係る乗員状態検出システム1Bにおけるプロセッサ210Bは、車両が走行状態のときには、運転手の異常状態を検出するために、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報を取得し、その取得した乗員監視情報と走行状態時比較情報とを照合する。
そのため、車両が走行状態のときには、車両の運転手のわき見、居眠り、疲労、漫然運転等を直ちに検出することができる。
<第4の実施形態>
図12から図14を用いて、本実施形態に係る乗員状態検出システム1Cについて説明する。
図12から図14を用いて、本実施形態に係る乗員状態検出システム1Cについて説明する。
<乗員状態検出システム1Cの構成>
図12に示すように、本実施形態に係る乗員状態検出システム1Cは、乗員監視装置10と、判別装置100と、乗員状態検出装置200Cとを含んで構成されている。
なお、第1の実施形態から第3の実施形態と同一の符号を付す構成要素については、同一の機能を有することから、その詳細な説明は省略する。
なお、第1の実施形態から第3の実施形態と同一の符号を付す構成要素については、同一の機能を有することから、その詳細な説明は省略する。
乗員状態検出装置200Cは、判別装置100から車両が走行状態あるいは停車状態である旨の情報を受信したときに、乗員監視装置10において監視する車両の乗員の監視対象を割当てる。
そして、乗員状態検出装置200Cは、乗員の監視対象が割当てられた乗員監視装置10から、乗員監視情報を受信し、乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
そして、乗員状態検出装置200Cは、乗員の監視対象が割当てられた乗員監視装置10から、乗員監視情報を受信し、乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態を検出する。
<乗員状態検出装置200Cの構成>
図12に示すように、本実施形態に係る乗員状態検出装置200Cは、プロセッサ210Cと、メモリ220とを含んで構成されている。
図12に示すように、本実施形態に係る乗員状態検出装置200Cは、プロセッサ210Cと、メモリ220とを含んで構成されている。
プロセッサ210Cは、メモリ220に格納された制御プログラムに従って乗員状態検出装置200C全体の制御を行う。
また、プロセッサ210Cは、本実施形態においては、特に、後述する情報受信部211C、監視割当部212C、乗員状態検出部213C等の機能を実行する。
また、プロセッサ210Cは、本実施形態においては、特に、後述する情報受信部211C、監視割当部212C、乗員状態検出部213C等の機能を実行する。
<プロセッサ210Cの構成>
図12に示すように、本実施形態に係るプロセッサ210Cは、情報受信部211Cと、監視割当部212Cと、乗員状態検出部213Cとを含んで構成されている。
図12に示すように、本実施形態に係るプロセッサ210Cは、情報受信部211Cと、監視割当部212Cと、乗員状態検出部213Cとを含んで構成されている。
情報受信部211Cは、監視割当部212Cにおいて監視対象が割当てられた乗員監視装置10からの乗員監視情報を受信し、受信した乗員監視情報をメモリ220に格納する。
監視割当部212Cは、判別装置100からの判別情報を受信し、その判別情報に基づいて、乗員監視装置10において検出する車両の乗員の監視対象を割当てる。
具体的には、例えば、図13に示すように、監視割当部212Cは、判別装置100からの車両が走行状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を「乗員の挙動および生体情報」に割当てる(割当処理E)。
つまり、車両が走行状態のときには、乗員の居眠り、わき見等の乗員の挙動により判断できる乗員状態(外面状態)と、ストレス、感情、漫然運転等の乗員の挙動だけでは判断できない乗員状態(内面状態)とを検出するために、乗員監視装置10の監視対象を「乗員の挙動および生体情報」に割当てる。
また、監視割当部212Cは、判別装置100からの車両が停車状態である旨の情報を受信したときには、乗員監視装置10の監視対象を「乗員の挙動」に割当てる(割当処理F)。
つまり、車両が停車状態であるときには、乗員の居眠り、わき見、携帯使用、テレビ視聴、喫煙、飲食、会話等の乗員状態(外面状態)を検出するために、乗員監視装置10の監視対象を「乗員の挙動」に割当てる。
また、監視割当部212Cは、判別装置100から受信した判別情報を乗員状態検出部213Cに送信する。
具体的には、例えば、図13に示すように、監視割当部212Cは、判別装置100からの車両が走行状態である旨の判別情報を受信したときには、乗員監視装置10の監視対象を「乗員の挙動および生体情報」に割当てる(割当処理E)。
つまり、車両が走行状態のときには、乗員の居眠り、わき見等の乗員の挙動により判断できる乗員状態(外面状態)と、ストレス、感情、漫然運転等の乗員の挙動だけでは判断できない乗員状態(内面状態)とを検出するために、乗員監視装置10の監視対象を「乗員の挙動および生体情報」に割当てる。
また、監視割当部212Cは、判別装置100からの車両が停車状態である旨の情報を受信したときには、乗員監視装置10の監視対象を「乗員の挙動」に割当てる(割当処理F)。
つまり、車両が停車状態であるときには、乗員の居眠り、わき見、携帯使用、テレビ視聴、喫煙、飲食、会話等の乗員状態(外面状態)を検出するために、乗員監視装置10の監視対象を「乗員の挙動」に割当てる。
また、監視割当部212Cは、判別装置100から受信した判別情報を乗員状態検出部213Cに送信する。
乗員状態検出部213Cは、監視割当部212Cから受信した判別情報に基づいて、メモリ220に格納された乗員監視装置10からの乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報と、を照合し、乗員の身体状態を検出する。
具体的には、乗員状態検出部213Cは、監視割当部212Cからの走行状態である旨の判別情報を受信した場合には、例えば、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動、血流、脈拍数、呼吸数」等の乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報とを照合し、乗員の眠気、漫然運転、感情、ストレス、わき見、居眠り、携帯使用、テレビ視聴、喫煙、飲食、会話などの乗員状態を検出する。
また、乗員状態検出部213Cは、監視割当部212Cからの停車状態である旨の情報を受信した場合には、例えば、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する停車状態時比較情報とを照合し、乗員のわき見、居眠り、携帯使用、テレビ視聴、喫煙、飲食、会話などの乗員状態を検出する。
具体的には、乗員状態検出部213Cは、監視割当部212Cからの走行状態である旨の判別情報を受信した場合には、例えば、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動、血流、脈拍数、呼吸数」等の乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報とを照合し、乗員の眠気、漫然運転、感情、ストレス、わき見、居眠り、携帯使用、テレビ視聴、喫煙、飲食、会話などの乗員状態を検出する。
また、乗員状態検出部213Cは、監視割当部212Cからの停車状態である旨の情報を受信した場合には、例えば、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報と、この乗員監視情報に対応する停車状態時比較情報とを照合し、乗員のわき見、居眠り、携帯使用、テレビ視聴、喫煙、飲食、会話などの乗員状態を検出する。
<乗員状態検出システム1Cの処理>
図14を用いて、本実施形態に係る乗員状態検出システム1Cの処理について説明する。
図14を用いて、本実施形態に係る乗員状態検出システム1Cの処理について説明する。
プロセッサ210Cの監視割当部212Cは、判別装置100から、イグニッションがON状態である車両の走行状態を示す情報を受信したか否かを判断する(ステップS310)。
このとき、監視割当部212Cが、イグニッションがON状態である車両の走行状態を示す情報を受信していると判断した場合(ステップS310の「YES」)には、処理をステップS320に移行し、割当処理E(ステップS320)を実行する。
上述したように、割当処理E(ステップS320)において、監視割当部212Cは、乗員監視装置10の監視対象を「車両の挙動および生体情報」に割当て、その旨の信号を乗員監視装置10に送信する。
上述したように、割当処理E(ステップS320)において、監視割当部212Cは、乗員監視装置10の監視対象を「車両の挙動および生体情報」に割当て、その旨の信号を乗員監視装置10に送信する。
一方で、プロセッサ210Cの監視割当部212Cが、イグニッションがON状態である車両の走行状態を示す情報を受信していないと判断した場合(ステップS310の「NO」)には、車両が停止状態であると判断し、処理をステップS330に移行し、割当処理F(ステップS330)を実行する。
上述したように、監視割当部212Cは、割当処理F(ステップS330)において、監視割当部212Cは、乗員監視装置10の監視対象を「乗員の挙動」に割当て、その旨の信号を乗員監視装置10に送信する。
監視割当部212Cは、割当処理E(ステップS320)または、割当処理F(ステップS330)の処理が実行されると、情報受信部211Cは、監視割当部212Cにより監視対象が割当てられた乗員監視装置10からの乗員監視情報を受信し、受信した乗員監視情報をメモリ220に格納する。(ステップS340)。
乗員状態検出部213Cは、メモリ220に格納された乗員監視装置10からの乗員監視情報と、この乗員監視情報に対応する走行状態時比較情報あるいは停車状態時比較情報とを照合し、乗員の身体状態等を検出する(ステップS350)。
つまり、乗員状態検出部213Cは、監視割当部212Cからの走行状態である旨の判別情報を受信した場合には、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動、血流、脈拍数、呼吸数」等の乗員監視情報と、走行状態時比較情報とを照合し、乗員の眠気、漫然運転、感情、ストレス、わき見、居眠り、携帯使用、テレビ視聴、喫煙、飲食、会話等の状態を検出する。
また、乗員状態検出部213Cは、監視割当部212Cからの停車状態である旨の判別情報を受信した場合には、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報と停車状態時比較情報とを照合し、乗員のわき見、居眠り、携帯使用、テレビ視聴、喫煙、飲食、会話等の状態を検出する。
つまり、乗員状態検出部213Cは、監視割当部212Cからの走行状態である旨の判別情報を受信した場合には、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動、血流、脈拍数、呼吸数」等の乗員監視情報と、走行状態時比較情報とを照合し、乗員の眠気、漫然運転、感情、ストレス、わき見、居眠り、携帯使用、テレビ視聴、喫煙、飲食、会話等の状態を検出する。
また、乗員状態検出部213Cは、監視割当部212Cからの停車状態である旨の判別情報を受信した場合には、「視線の向き、顔の向き、目の開度、瞬き回数、眼球運動、姿勢、体動」等の乗員監視情報と停車状態時比較情報とを照合し、乗員のわき見、居眠り、携帯使用、テレビ視聴、喫煙、飲食、会話等の状態を検出する。
そして、プロセッサ210Cは、乗員状態検出処理を継続するか否かを判定する(ステップS360)。
プロセッサ210Cが、乗員状態検出処理を継続すると判定した場合(ステップS360の「YES」)には、処理をステップS310に戻し、乗員状態検出処理を継続する。
一方で、プロセッサ210Cが、乗員状態検出処理を継続しないと判定した場合(ステップS360の「NO」)には、乗員状態検出処理を終了する。
プロセッサ210Cが、乗員状態検出処理を継続すると判定した場合(ステップS360の「YES」)には、処理をステップS310に戻し、乗員状態検出処理を継続する。
一方で、プロセッサ210Cが、乗員状態検出処理を継続しないと判定した場合(ステップS360の「NO」)には、乗員状態検出処理を終了する。
<作用・効果>
以上、説明したように、本実施形態に係る乗員状態検出システム1Cにおけるプロセッサ210Cは、判別情報が走行状態である場合には、乗員監視装置10が監視する監視対象を車両の乗員の挙動および生体情報に割当て、判別情報が停車状態である場合には、監視対象を車両の乗員の挙動に割当てる。
つまり、乗員状態検出システム1Cは、車両が走行状態のときには、運転中の危険状態を直ちに検出する必要があるため、乗員の挙動および生体情報を監視する。
そのため、乗員の挙動および生体情報を監視することにより、乗員の挙動(外面状態)だけでは判断できない、乗員のストレス、眠気、感情、漫然運転、疲労等の内面状態を検出することができる。
また、走行中の乗員の危険な身体状態を検知できるために、乗員に対して警告や休憩を促す等の情報を提示することができる。
さらに、本実施形態に係る乗員状態検出システム1Cは、車両が停車状態であるときには、乗員のストレス、眠気、感情、漫然運転、疲労等の危険状態を直ちに検出する必要がないため、「乗員の挙動」に基づいて車両の乗員の身体状態を検出する。
そのため、乗員の身体状態検出において、停車状態あるいは走行状態における監視方法が最適化されることから、乗員の身体状態を常に、正確に検出することができる。
以上、説明したように、本実施形態に係る乗員状態検出システム1Cにおけるプロセッサ210Cは、判別情報が走行状態である場合には、乗員監視装置10が監視する監視対象を車両の乗員の挙動および生体情報に割当て、判別情報が停車状態である場合には、監視対象を車両の乗員の挙動に割当てる。
つまり、乗員状態検出システム1Cは、車両が走行状態のときには、運転中の危険状態を直ちに検出する必要があるため、乗員の挙動および生体情報を監視する。
そのため、乗員の挙動および生体情報を監視することにより、乗員の挙動(外面状態)だけでは判断できない、乗員のストレス、眠気、感情、漫然運転、疲労等の内面状態を検出することができる。
また、走行中の乗員の危険な身体状態を検知できるために、乗員に対して警告や休憩を促す等の情報を提示することができる。
さらに、本実施形態に係る乗員状態検出システム1Cは、車両が停車状態であるときには、乗員のストレス、眠気、感情、漫然運転、疲労等の危険状態を直ちに検出する必要がないため、「乗員の挙動」に基づいて車両の乗員の身体状態を検出する。
そのため、乗員の身体状態検出において、停車状態あるいは走行状態における監視方法が最適化されることから、乗員の身体状態を常に、正確に検出することができる。
<変形例>
上述した、乗員状態検出システム1,1A,1B、1Cでは、カメラを備えた乗員監視装置10により乗員の身体状態を監視したが、ミリ波レーダを備えた乗員監視装置をさらに備えて、乗員の身体状態を監視するようにしてもよい。
ミリ波レーダは、物体の検出と、検出した物体との距離や水平角度および相対速度を波長の短い電波によって測定することが可能であり、「生体情報」である、心拍数、心拍変動、呼吸数、脳波等を詳細に取得することが可能になる。
つまり、ミリ波レーダは、乗員の外面状態(挙動)から判断することが難しい、例えば、乗員の健康状態等を監視するための生体情報を得るのに好適であり、ミリ波レーダを用いて乗員を監視することにより、乗員の身体状態をさらに詳細に把握することができる。
上述した、乗員状態検出システム1,1A,1B、1Cでは、カメラを備えた乗員監視装置10により乗員の身体状態を監視したが、ミリ波レーダを備えた乗員監視装置をさらに備えて、乗員の身体状態を監視するようにしてもよい。
ミリ波レーダは、物体の検出と、検出した物体との距離や水平角度および相対速度を波長の短い電波によって測定することが可能であり、「生体情報」である、心拍数、心拍変動、呼吸数、脳波等を詳細に取得することが可能になる。
つまり、ミリ波レーダは、乗員の外面状態(挙動)から判断することが難しい、例えば、乗員の健康状態等を監視するための生体情報を得るのに好適であり、ミリ波レーダを用いて乗員を監視することにより、乗員の身体状態をさらに詳細に把握することができる。
また、第2の実施形態~第4の実施形態においては、乗員監視装置10からの情報を車両に接続されたサーバに転送し、サーバにおいて、監視割当部212A、212B、212Cの処理、乗員状態検出部213A、213B、213Cの処理を実行させる構成としてもよい。
このようにすることにより、多くの情報を迅速に処理して、車両の走行状態および停車状態における乗員の身体状態等を、常に、正確に検出することができる。
このようにすることにより、多くの情報を迅速に処理して、車両の走行状態および停車状態における乗員の身体状態等を、常に、正確に検出することができる。
なお、第1の実施形態~第4の実施形態におけるプロセッサ210、210A、210B、210Cの処理をコンピュータシステムが読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムをプロセッサ210、210A、210B、210Cに読み込ませ、実行することによって本発明の乗員状態検出システム1~1Cを実現することができる。
ここでいうコンピュータシステムとは、OSや周辺装置等のハードウェアを含む。
ここでいうコンピュータシステムとは、OSや周辺装置等のハードウェアを含む。
また、「コンピュータシステム」は、WWW(World Wide Web)システムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1;乗員状態検出システム
1A;乗員状態検出システム
1B;乗員状態検出システム
10;乗員監視装置
100;判別装置
200;乗員状態検出装置
200A;乗員状態検出装置
200B;乗員状態検出装置
200C;乗員状態検出装置
210;プロセッサ
210A;プロセッサ
210B;プロセッサ
210C;プロセッサ
211A;情報受信部
211B;情報受信部
211C;情報受信部
212A;監視割当部
212B;監視割当部
212C;監視割当部
213A;乗員状態検出部
213B;乗員状態検出部
213C;乗員状態検出部
220;メモリ
1A;乗員状態検出システム
1B;乗員状態検出システム
10;乗員監視装置
100;判別装置
200;乗員状態検出装置
200A;乗員状態検出装置
200B;乗員状態検出装置
200C;乗員状態検出装置
210;プロセッサ
210A;プロセッサ
210B;プロセッサ
210C;プロセッサ
211A;情報受信部
211B;情報受信部
211C;情報受信部
212A;監視割当部
212B;監視割当部
212C;監視割当部
213A;乗員状態検出部
213B;乗員状態検出部
213C;乗員状態検出部
220;メモリ
Claims (6)
- 車両の乗員の身体状態を監視する乗員監視装置と、
前記車両の走行状態と停車状態とを判別する判別装置と、
前記乗員監視装置からの乗員監視情報に基づいて前記車両の乗員の状態を検出する乗員状態検出装置と、
を備え、
前記乗員状態検出装置は、1つまたは複数のプロセッサと、前記1つまたは複数のプロセッサに通信可能に接続される1つまたは複数のメモリと、を備え、
前記1つまたは複数のメモリには、前記走行状態の前記車両の乗員の状態を検出するための照合データである走行状態時比較情報と、前記停車状態の前記車両の乗員の状態を検出するための照合データである停車状態時比較情報と、を含む情報が格納され、
前記1つまたは複数のプロセッサは、前記乗員監視情報と前記判別装置からの判別情報とを受信し、該受信した前記乗員監視情報を前記1つまたは複数のメモリに格納し、前記判別情報に基づいて、前記車両が走行状態にある場合には、前記乗員監視情報と前記走行状態時比較情報とを照合し、前記車両が停車状態である場合には、前記乗員監視情報と前記停車状態時比較情報とを照合して、前記車両の乗員の状態を検出する乗員状態検出システム。 - 前記判別装置は、イグニッション情報を取得し、イグニッションがOFF状態であるときに、前記1つまたは複数のプロセッサに前記車両が前記停車状態である旨の前記判別情報を送信し、イグニッションがON状態であるときに、前記1つまたは複数のプロセッサに前記車両が前記走行状態である旨の前記判別情報を送信する請求項1に記載の乗員状態検出システム。
- 前記乗員監視装置が前記車両の乗員の画像を撮像するカメラを含み、
前記車両の乗員の挙動、生体情報を含む前記乗員監視情報を取得し、前記1つまたは複数のプロセッサに送信する請求項1に記載の乗員状態検出システム。 - 前記1つまたは複数のプロセッサは、前記判別情報が前記走行状態である場合には、前記乗員監視装置が監視する監視対象を前記車両の乗員の挙動に割当て、前記判別情報が前記停車状態である場合には、前記監視対象を前記車両の乗員の生体情報に割当てる請求項3に記載の乗員状態検出システム。
- 前記1つまたは複数のプロセッサは、前記判別情報が前記走行状態である場合には、前記乗員監視装置が監視する監視対象を前記車両の運転席の乗員に割当て、前記判別情報が前記停車状態である場合には、前記監視対象を前記車両の室内全体の乗員に割当てる請求項3に記載の乗員状態検出システム。
- 前記1つまたは複数のプロセッサは、前記判別情報が走行状態である場合には、前記乗員監視装置が監視する監視対象を前記車両の乗員の挙動および生体情報に割当て、前記判別情報が前記停車状態である場合には、前記監視対象を前記車両の乗員の挙動に割当てる請求項3に記載の乗員状態検出システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/698,349 US11750775B2 (en) | 2021-03-30 | 2022-03-18 | Occupant state detection system |
DE102022106794.7A DE102022106794A1 (de) | 2021-03-30 | 2022-03-23 | Insassen-zustands-erfassungssystem |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021058859 | 2021-03-30 | ||
JP2021058859 | 2021-03-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022155451A true JP2022155451A (ja) | 2022-10-13 |
Family
ID=83556895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021178196A Pending JP2022155451A (ja) | 2021-03-30 | 2021-10-29 | 乗員状態検出システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022155451A (ja) |
-
2021
- 2021-10-29 JP JP2021178196A patent/JP2022155451A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11027608B2 (en) | Driving assistance apparatus and driving assistance method | |
US8045766B2 (en) | Device, program, and method for determining sleepiness | |
KR20200063193A (ko) | 운전 관리 방법 및 시스템, 차량 탑재 지능형 시스템, 전자 기기, 매체 | |
US11751784B2 (en) | Systems and methods for detecting drowsiness in a driver of a vehicle | |
WO2020145161A1 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
CN112406882A (zh) | 人机共驾过程驾驶员状态监测装置及可接管能力评估方法 | |
US20220036101A1 (en) | Methods, systems and computer program products for driver monitoring | |
KR20180042742A (ko) | 운전자 모니터링 장치 및 방법 | |
JP7252438B2 (ja) | 異常検知装置及びシート | |
JP2022155451A (ja) | 乗員状態検出システム | |
JP2022155397A (ja) | 乗員状態検出システム | |
US20210256248A1 (en) | Systems including image detection to inhibit vehicle operation | |
US10981574B2 (en) | Biological information storage system and in-vehicle biological information storage device | |
JP2022155398A (ja) | 乗員状態検出システム | |
US20190149777A1 (en) | System for recording a scene based on scene content | |
CN114760417A (zh) | 一种图像拍摄方法和装置、电子设备和存储介质 | |
WO2022113275A1 (ja) | 睡眠検出装置及び睡眠検出システム | |
US11750775B2 (en) | Occupant state detection system | |
JP6689470B1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
US11256939B2 (en) | Methods, systems and computer program products for eye based spoof detection | |
JP7485521B2 (ja) | 車両用制御装置 | |
JP2022045460A (ja) | 車載器制御システム、車載器及び車載器制御方法 | |
JP2021149488A (ja) | 画像記憶制御装置及び画像記憶制御方法 | |
WO2018185910A1 (ja) | 車両制御装置、車両制御方法、及び車両制御プログラム | |
US20180140243A1 (en) | System and method for attention management |