JP2022155398A - 乗員状態検出システム - Google Patents

乗員状態検出システム Download PDF

Info

Publication number
JP2022155398A
JP2022155398A JP2021058861A JP2021058861A JP2022155398A JP 2022155398 A JP2022155398 A JP 2022155398A JP 2021058861 A JP2021058861 A JP 2021058861A JP 2021058861 A JP2021058861 A JP 2021058861A JP 2022155398 A JP2022155398 A JP 2022155398A
Authority
JP
Japan
Prior art keywords
occupant
information
vehicle
occupant monitoring
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021058861A
Other languages
English (en)
Inventor
亮太 中村
Ryota Nakamura
司 三国
Tsukasa Mikuni
拓也 本間
Takuya Homma
由多可 石井
Yutaka Ishii
政俊 柘植
Masatoshi Tsuge
和裕 早川
Kazuhiro Hayakawa
亨 加藤
Toru Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2021058861A priority Critical patent/JP2022155398A/ja
Priority to US17/698,624 priority patent/US20220319202A1/en
Publication of JP2022155398A publication Critical patent/JP2022155398A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/06Ignition switch
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Abstract

【課題】複数の乗員状態検出装置を設け、車両が停車状態にあるときに、これら乗員状態検出装置が乗員状態検出において相互補完することにより、車両の停車状態における運転者を含む乗員の身体状態を常に、正確に検出する。【解決手段】第1のプロセッサー210と、第1のメモリ220と、を備え、第1のプロセッサー210は、判別装置100から車両が停車状態である旨の情報を受信したときには、第1の乗員監視装置10と第2の乗員監視装置20とにおいて検出する車両の乗員の監視部位、取得情報を割り当て、第1の乗員監視装置10からの情報と、第2の乗員監視装置20からの情報と、を受信し、受信した乗員監視情報を第1のメモリ220に格納し、第1のメモリ220に格納された第1の乗員監視装置10からの情報と、第2の乗員監視装置20からの情報と、に基づいて乗員の身体状態を検出する。【選択図】図4

Description

本発明は、乗員状態検出システムに関する。
近年、車両の安全運転を支援するためにドライバの状態をモニタリングする、所謂、ドライバモニタリングシステムの開発が進んでいる。このようなドライバモニタリングシステムでは、例えば、運転者がどこを注視しているのかを検出し、運転者が現在の状況に気付いていない場合には、運転者に警報を行うようになっている。
例えば、この種の装置として、運転者を含む乗員の監視をする乗員監視装置において、監視対象の乗員が増えた場合であっても、撮像デバイスの使用個数を抑えることができる乗員監視装置が開示されている(例えば、特許文献1参照)。
特開2019-202726号公報
しかしながら、特許文献1に記載の技術は、車両の走行時における運転者を含む乗員を監視するものであり、車両が停車状態である場合に、運転者を含む車両の乗員を監視し、乗員の身体状態等を判定することは行っていなかった。
また、撮像デバイスを用いて、運転者を含む乗員を監視する場合には、運転者を含む乗員が車室内の設置物等により隠れてしまう場合、または、運転者を含む乗員が撮像デバイスの画角の範囲外となってしまう場合には、正確に運転者を含む乗員の身体状態等を検出できないという課題があった。
さらに、車両が停車状態である場合には、運転者を含む乗員の着座状態が一意に定まらない場合があり、シートバックを倒して休憩をとる、または、後部座席に移動して休憩をとる場合には、正確に運転者を含む乗員の身体状態等を検出できないという課題があった。
そこで、本発明は、上述の課題に鑑みてなされたものであって、2つの乗員状態検出装置を設け、車両が停車状態にあるときに、乗員状態検出において、これら乗員状態検出装置が相互補完することにより、車両の停車状態における運転者を含む乗員の身体状態等を常に、正確に検出する乗員状態検出システムを提供することを目的とする。
形態1;本発明の1またはそれ以上の実施形態は、車両の乗員の身体状態を監視する第1の乗員監視装置と、前記第1の乗員監視装置とは異なる方法で前記車両の乗員の身体状態を監視する第2の乗員監視装置と、前記車両の走行状態と停車状態とを判別する判別装置と、前記第1の乗員監視装置からの第1の乗員監視情報と、前記第2の乗員監視装置からの第2の乗員監視情報と、に基づいて前記車両の乗員の身体状態を検出する乗員状態検出装置と、を備え、前記乗員状態検出装置は、1つまたは複数の第1のプロセッサーと、前記1つまたは複数の第1のプロセッサーに通信可能に接続される1つまたは複数の第1のメモリと、を備え、前記1つまたは複数の第1のプロセッサーは、前記判別装置から前記車両が前記停車状態である旨の情報を受信したときには、前記第1の乗員監視装置と前記第2の乗員監視装置とにおいて検出する前記車両の乗員の監視部位、取得情報を割り当て、前記第1の乗員監視装置からの前記第1の乗員監視情報と、前記第2の乗員監視装置からの前記第2の乗員監視情報と、を受信し、該受信した乗員監視情報を前記1つまたは複数の第1のメモリに格納し、該第1のメモリに格納された第1の乗員監視装置からの前記第1の乗員監視情報と、前記第2の乗員監視装置からの前記第2の乗員監視情報と、に基づいて乗員の身体状態を検出する乗員状態検出システムを提案している。
形態2;本発明の1またはそれ以上の実施形態は、前記判別装置は、イグニッション情報を取得し、該イグニッション情報からイグニッションがOFF状態であるときに、前記1つまたは複数のプロセッサーに前記車両が前記停車状態である旨の前記判別情報を送信し、前記イグニッション情報からイグニッションがON状態であるときに、前記1つまたは複数のプロセッサーに前記車両が前記走行状態である旨の前記判別情報を送信する乗員状態検出システムを提案している。
形態3;本発明の1またはそれ以上の実施形態は、前記判別装置が、前記車両に装備され、シートバックの角度を自在に変更可能な運転者が着座する着座装置を含み、1つまたは複数の第2のプロセッサーと、1つまたは複数の第2のプロセッサーに通信可能に接続される1つまたは複数の第2のメモリと、を備え、前記判別装置は、前記シートバックの角度が所定の角度以上に倒されたときに、前記1つまたは複数の前記第1のプロセッサーに前記車両が前記停車状態である旨の情報を送信する乗員状態検出システムを提案している。
形態4;本発明の1またはそれ以上の実施形態は、前記判別装置が、前記運転者それぞれが休息時に操作したシートバックの操作角度を前記運転者ごとの前記所定の角度として登録する乗員状態検出システムを提案している。
形態5;本発明の1またはそれ以上の実施形態は、前記1つまたは複数の第2のプロセッサーは、前記運転者ごとに、前記1つまたは複数の第2のメモリに格納した前記シートバックの操作角度のうち、最も小さい前記シートバックの操作角度を前記運転者ごとの前記所定の角度として登録する乗員状態検出システムを提案している。
形態6;本発明の1またはそれ以上の実施形態は、前記第1の乗員監視装置が前記車両の乗員の画像を撮像するカメラを含み、前記車両の乗員の挙動や表情、姿勢を含む前記第1の乗員監視情報を取得し、前記1つまたは複数のプロセッサーに送信する乗員状態検出システムを提案している。
形態7;本発明の1またはそれ以上の実施形態は、前記1つまたは複数の第2のプロセッサーは、前記第1の乗員監視装置が撮像する前記運転者の画像から前記運転者が前記休息時であるのか否かを判断する乗員状態検出システムを提案している。
形態8;本発明の1またはそれ以上の実施形態は、前記1つまたは複数の第2のプロセッサーは、前記第1の乗員監視装置が撮像する前記画像を取り込み、前記画像の画角内から運転者の頭部画像が消えたときに、前記運転者が、前記着座装置のシートバックの角度を所定の角度以上に倒したときの姿勢になったと判断し、前記1つまたは複数の第1のプロセッサーに前記車両が前記停車状態である旨の情報を送信する乗員状態検出システムを提案している。
形態9;本発明の1またはそれ以上の実施形態は、前記第2の乗員監視装置がミリ波レーダーを含み、前記車両の乗員の心拍や脳波を含む生体情報を取得し、前記1つまたは複数のプロセッサーに送信する乗員状態検出システムを提案している。
本発明の1またはそれ以上の実施形態によれば、2つの乗員状態検出装置を設け、車両が停車状態にあるときに、乗員状態検出において、これら乗員状態検出装置が相互補完することにより、車両の停車状態における運転者を含む乗員の身体状態等を常に、正確に検出することができるという効果がある。
本発明の第1の実施形態に係る乗員状態検出ステムの構成を示す図である。 本発明の第1の実施形態に係る乗員状態検出ステムにおける第1の乗員監視情報と第2の乗員監視情報との関連性を示す図である。 本発明の第1の実施形態に係る乗員状態検出ステムにおける乗員状態検出装置の構成を示す図である。 本発明の第1の実施形態に係る乗員状態検出ステムの処理フロー図である。 本発明の第2の実施形態に係る乗員状態検出ステムの構成を示す図である。 本発明の第2の実施形態に係る乗員状態検出ステムにおける判別装置の構成を示す図である。 本発明の第2の実施形態に係る乗員状態検出ステムの処理フロー図である。 本発明の第2の実施形態に係る乗員状態検出ステムにおける判別装置の処理フロー図である。 本発明の第2の実施形態に係る乗員状態検出ステムにおける第2のメモリに格納された休息時における車両の乗員ごとのシートの操作角度履歴を示す図である。 本発明の第3の実施形態に係る乗員状態検出ステムの構成を示す図である。 本発明の第3の実施形態に係る乗員状態検出ステムにおける判別装置の構成を示す図である。 本発明の第3の実施形態に係る乗員状態検出ステムの処理フロー図である。 本発明の第3の実施形態に係る乗員状態検出ステムにおける判別装置の処理フロー図である。
以下、本発明の実施形態について、図1から図13を用いて説明する。
<第1の実施形態>
図1から図4を用いて、本実施形態に係る乗員状態検出システム1について説明する。
<乗員状態検出システム1の構成>
図1に示すように、本実施形態に係る乗員状態検出システム1は、第1の乗員監視装置10と、第2の乗員監視装置20と、判別装置100と、乗員状態検出装置200と、を含んで構成されている。
第1の乗員監視装置10は、例えば、CCD(Charge Coupled Device)、またはCIS(CMOS Image Sensor)等の撮像素子を内蔵し、撮像素子によって撮像された車両の乗員の画像(動画像、静止画像を含む)を取得するカメラを用いて、車両の乗員の身体状態等を監視する。
カメラは、専用のカメラであってもよいが、例えば、乗員認識装置を備えている場合には、乗員認識装置内のカメラを用いることが好ましい。
なお、本実施形態に係る乗員状態検出システム1において、第1の乗員監視装置10は、外部から観察可能な乗員の表情や姿勢、挙動といった情報を監視するのに好適である。
第2の乗員監視装置20は、例えば、物体の検出と、検出した物体との距離や水平角度および相対速度を波長の短い電波によって測定するミリ波レーダーを用いて、車両の乗員の身体状態等を監視する。
また、第2の乗員監視装置20は、第1の乗員監視装置10に対してある程度距離をおいた位置に配設され、遮蔽物により第1の乗員監視装置10では、車両の乗員の画像が取得できない場合であっても、車両の乗員の検出が可能となっている。
なお、本実施形態に係る乗員状態検出システム1において、第2の乗員監視装置20は、例えば、外部からの観察が難しい乗員の心拍、呼吸といった生体情報を得るのに好適である。
図2に示すように、第1の乗員監視装置10から主に得られる情報としては、車両の乗員の姿勢や目の開度、瞬きの回数等の顔の表情、睡眠時間、休息時間、寝返り回数等を例示することができる。また、第2の乗員監視装置20から得られる情報としては、心拍数、脳波、心拍変動、呼吸数等を例示することができる。
ここで、目の開度は、居眠りを検知する指標として、瞬き回数は、眼精疲労の度合いを検知する指標として、寝返り回数、レム睡眠、ノンレム睡眠等の睡眠状態は、睡眠の質を含む睡眠状態を検知する指標として例示することができる。
判別装置100は、車両の走行状態と停車状態とを判別する。判別装置100は、例えば、イグニッション情報を取得し、イグニッション情報からイグニッションがOFF状態であるときに、乗員状態検出装置200に車両が停車状態である旨の判別情報を送信し、イグニッション情報からイグニッションがON状態であるときに、1つまたは複数のプロセッサーに車両が走行状態である旨の前記判別情報を送信する。
なお、判別装置100が、さらに、車速パルスやパーキングブレーキの作動状態等をモニターして、上記イグニッションキーのON/OFF状態と併せて、車両の走行状態と停止状態とを判別するようにしてもよい。
乗員状態検出装置200は、判別装置100から車両が停車状態である旨の情報を受信したときに、第1の乗員監視装置10と第2の乗員監視装置20とにおいて検出する車両の乗員の監視部位、取得情報を割り当てる。
また、乗員状態検出装置200は、第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、を受信する。
そして、乗員状態検出装置200は、第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、に基づいて乗員の身体状態等を検出する。
<乗員状態検出装置200の構成>
図3に示すように、本実施形態に係る乗員状態検出装置200は、第1のプロセッサー210と、第1のメモリ220とを含んで構成されている。
第1のプロセッサー210は、後述する第1のメモリ220に格納された制御プログラムに従って乗員状態検出装置200全体の制御を行う。
また、本実施形態においては、特に、後述する情報受信部211、監視割当部212、乗員状態検出部213等の機能を実行する。
第1のメモリ220は、ROM(Read Only Memory)、RAM(Random Access Memory)等を含み、ROMには、上述の制御プログラム等が格納され、RAMには、各種データ等が保存されている。
本実施形態においては、例えば、第1の乗員監視装置10からの第1の乗員監視情報および第2の乗員監視装置20からの第2の乗員監視情報等の情報をRAMに格納する。
<第1のプロセッサー210の構成>
図3に示すように、本実施形態に係る第1のプロセッサー210は、情報受信部211と、監視割当部212と、乗員状態検出部213と、を含んで構成されている。
情報受信部211は、判別装置100から車両が走行状態である旨の情報あるいは車両が停車状態である旨の情報を受信する。
情報受信部211は、少なくとも判別装置100から車両が停車状態である旨の情報を受信した場合には、当該情報を後述する監視割当部212に送信する。
また、情報受信部211は、後述する監視割当部212により検出する車両の乗員の監視部位、取得情報を割り当てられた第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの前記第2の乗員監視情報と、を受信する。
情報受信部211は、第1の乗員監視装置10から受信した第1の乗員監視情報と、第2の乗員監視装置20から受信した前記第2の乗員監視情報と、を第1のメモリ220内のRAMに格納する。
監視割当部212は、情報受信部211から車両が停止状態である旨の情報を受信したときに、第1の乗員監視装置10と第2の乗員監視装置20とにおいて検出する車両の乗員の監視部位、取得情報等を割り当てる。
具体的には、監視割当部212は、例えば、第1の乗員監視装置10に、監視部位として「顔」、パラメータとしての取得情報として「表情、表情の変化」を割り当てる。
また、監視割当部212は、例えば、第1の乗員監視装置10に、監視部位として「全身」、パラメータとしての取得情報として「挙動」を割り当てる。
さらに、監視割当部212は、例えば、第2の乗員監視装置20に、監視部位として「首」、パラメータとしての取得情報として「脈拍」を割り当てる。
また、監視割当部212は、例えば、第2の乗員監視装置20に、監視部位として「頭」、パラメータとしての取得情報として「脳波」を割り当てる。
乗員状態検出部213は、第1のメモリ220に格納された第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、に基づいて乗員の身体状態等を検出する。
具体的には、乗員状態検出部213は、例えば、第1の乗員監視装置から得られる第1の乗員監視情報である目の開度、瞬きの回数等の顔の表情や姿勢、睡眠時間、休息時間、寝返り回数等の挙動から車両の乗員の疲労状態等を検出する。
また、乗員状態検出部213は、例えば、第2の乗員監視装置から得られる第2の乗員監視情報である脈拍や心拍等から車両の乗員の精神的疲労状態や健康状態等を検出する。
<乗員状態検出システム1の処理>
図4を用いて、本実施形態に係る乗員状態検出システム1の処理について説明する。
第1のプロセッサー210の監視割当部212は、情報受信部211を介して、判別装置100から、イグニッションキーがOFF状態である車両の停止状態を示す情報を受信したか否かを判断する(ステップS110)。
このとき、監視割当部212が、イグニッションキーがOFF状態である車両の停止状態を示す情報を受信していないと判断する場合(ステップS110の「NO」)には、処理を元に戻して待機モードに移行する。
一方で、監視割当部212が、イグニッションキーがOFF状態である車両の停止状態を示す情報を受信していると判断する場合(ステップS110の「YES」)には、割当処理に移行する(ステップS120)。
割当処理(ステップS120)では、監視割当部212は、第1の乗員監視装置10と第2の乗員監視装置20とにおいて検出する車両の乗員の監視部位、取得情報を割り当て、その旨の信号を第1の乗員監視装置10と第2の乗員監視装置20とに送信する処理を実行する。
第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、既に起動している第1の乗員監視装置10と第2の乗員監視装置20とに対して、情報受信部211への情報出力を許可する。
なお、第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、情報受信部211における第1の乗員監視装置10からの第1の乗員監視情報と第2の乗員監視装置20からの第2の乗員監視情報との受信を許可するようにしてもよい。
あるいは、第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、情報受信部211に対して、第1の乗員監視装置10からの第1の乗員監視情報と第2の乗員監視装置20からの第2の乗員監視情報との第1のメモリ220への情報の書き込みを許可するようにしてもよい。
情報受信部211は、監視割当部212により検出する車両の乗員の監視部位、取得情報を割り当てられた第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、を受信する(ステップS140)。
情報受信部211は、第1の乗員監視装置10から受信した第1の乗員監視情報と、第2の乗員監視装置20から受信した第2の乗員監視情報と、を第1のメモリ220に格納する。
乗員状態検出部213は、第1のメモリ220に格納された第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、に基づいて乗員の身体状態等を検出する(ステップS150)。
<作用・効果>
以上、説明したように、本実施形態に係る乗員状態検出システム1は、車両の乗員の身体状態を監視する第1の乗員監視装置10と、第1の乗員監視装置10とは異なる方法で車両の乗員の身体状態を監視する第2の乗員監視装置20と、車両の走行状態と停車状態とを判別する判別装置100と、第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、に基づいて車両の乗員の身体状態を検出する乗員状態検出装置200と、を備え、乗員状態検出装置200は、1つまたは複数の第1のプロセッサー210と、1つまたは複数の第1のプロセッサー210に通信可能に接続される1つまたは複数の第1のメモリ220と、を備え、1つまたは複数の第1のプロセッサー210は、判別装置100から車両が停車状態である旨の情報を受信したときには、第1の乗員監視装置10と第2の乗員監視装置20とにおいて検出する車両の乗員の監視部位、取得情報を割り当て、第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、を受信し、その受信した乗員監視情報を1つまたは複数の第1のメモリ220に格納し、その第1のメモリ220に格納された第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、に基づいて乗員の身体状態を検出する。
つまり、車両が停車状態である場合に、車両の乗員の監視部位、取得情報がそれぞれ割り当てられた第1の乗員監視装置10と第2の乗員監視装置20とを用いて、車両の乗員の状態を検出する。
そのため、車両が停車状態である場合に、乗員の状態検出において、第1の乗員監視装置10と第2の乗員監視装置20とが相互補完することにより、車両の停車状態における乗員の身体状態を、常に、正確に検出することができる。
また、本実施形態に係る乗員状態検出システム1における判別装置100は、イグニッションキーであり、判別装置100は、イグニッションキーがOFFポジションであるときに、1つまたは複数の第1のプロセッサー210に車両が停車状態である旨の情報を送信する。
つまり、判別装置100は、イグニッションキーのON/OFFで車両の走行状態と停車状態とを判別する。
そのため、乗員状態検出システム1は、特別なセンサ等を用いることなく、一意に車両の走行状態と停車状態とを検知することができる。
また、本実施形態に係る乗員状態検出システム1における第1の乗員監視装置10は、車両の乗員の画像を撮像するカメラを含み、車両の乗員の挙動や表情、姿勢を含む第1の乗員監視情報を取得し、1つまたは複数の第1のプロセッサー210に送信する。
つまり、乗員状態検出システム1では、第1の乗員監視装置10対して、内蔵するカメラの特性を考慮して乗員の状態を検出する情報として、車両の乗員の挙動や表情、姿勢を含む第1の乗員監視情報を取得させる。
そのため、乗員状態検出システム1は、車両の乗員の挙動や表情、姿勢等について、確度の高い情報を得ることができるため、車両の停車状態における車両の乗員の身体状態を検出する精度を向上させることができる。
そのため、時間帯を問わず、車両の停車状態における乗員の状態を常に、的確に把握することができる。
さらに、車両の停車状態には、ロードノイズの影響がないため、走行状態に比べて、検出精度の向上を図ることができる。
また、本実施形態に係る乗員状態検出システム1における第2の乗員監視装置20がミリ波レーダーを含み、車両の乗員の心拍や脳波を含む生体情報を取得し、1つまたは複数の第1のプロセッサー210に送信する。
つまり、乗員状態検出システム1では、第2の乗員監視装置20対して、内蔵するミリ波レーダーの特性を考慮して乗員の状態を検出する情報として、車両の乗員の心拍や脳波を含む生体情報を第2の乗員監視情報として取得させる。
そのため、乗員状態検出システム1は、車両の乗員の心拍や脳波を含む生体情報について、確度の高い情報を得ることができるため、車両の停車状態における車両の乗員の身体状態を検出する精度を向上させることができる。
また、ミリ波レーダーは、昼夜を問わず同様の性能を発揮することから、時間帯を問わず、車両の停車状態における乗員の身体状態を常に、的確に把握することができる。
さらに、車両の停車状態には、ロードノイズの影響がないため、走行状態に比べて、検出精度の向上を図ることができる。
<第2の実施形態>
図5から図9を用いて、本実施形態に係る乗員状態検出システム1Aについて説明する。
<乗員状態検出システム1の構成>
図5に示すように、本実施形態に係る乗員状態検出システム1Aは、第1の乗員監視装置10と、第2の乗員監視装置20と、判別装置100Aと、乗員状態検出装置200と、を含んで構成されている。
なお、第1の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は省略する。
判別装置100Aは、車両の走行状態と停車状態とを判別する。
判別装置100Aは、例えば、車両に装備され、シートバックの角度を自在に変更可能な着座装置を含む。
判別装置100Aは、例えば、シートバックの角度を検出するセンサを備え、シートバックの操作角度が所定の角度以上であるときに、乗員状態検出装置200の第1のプロセッサー210に車両が停車状態である旨の情報を送信する。
ここで、「所定の角度」とは、例えば、運転者が休息をとる場合のシートバックの操作角度を例示することができる。
この「所定の角度」には、運転者ごとの好みの角度があると考えられる。
判別装置100Aでは、後述するように、例えば、運転者ごとに、休息時に操作したシートバックの操作角度から、運転者ごとの「所定の角度」を登録する。
なお、判別装置100Aが、さらに、車速パルスやパーキングブレーキの作動状態等をモニターして、上記センサからの情報と併せて、車両の走行状態と停止状態とを判別するようにしてもよい。
<判別装置100Aの構成>
本実施形態に係る判別装置100Aは、図6に示すように、第2のプロセッサー110と、第2のメモリ120とを含んで構成されている。
第2のプロセッサー110は、後述する第2のメモリ120に格納された制御プログラムに従って判別装置100A全体の制御を行う。
また、本実施形態においては、特に、後述する角度検出部111、判別部112、登録部113等の機能の制御を実行する。
第2のメモリ120は、ROM(Read Only Memory)、RAM(Random Access Memory)等を含み、ROMには、上述の制御プログラム等が格納され、RAMには、各種データ等が保存されている。
本実施形態においては、例えば、車両の乗員が休息時に操作したシートバックの操作角度情報等の情報をRAMに格納する。
<第2のプロセッサー110の構成>
図6に示すように、本実施形態に係る第2のプロセッサー110は、角度検出部111と、判別部112と、登録部113と、を含んで構成されている。
角度検出部111は、車両に装備される着座装置30に備えられた、例えば、センサからの情報に基づいて、着座装置30に着座する運転者が操作したシートバックの操作角度を検出する。
角度検出部111は、検出したシートバックの角度情報を後述する判別部112に送信する。
判別部112は、角度検出部111から受信したシートバックの操作角度情報に基づいて、シートバックの操作角度が所定の角度以上であると判断した場合には、第1のプロセッサー210に車両が停車状態である旨の情報を送信する。
ここで、「所定の角度」については、後述する登録部113において登録された情報を用いる。
また、判別部112は、第1の乗員監視装置10からの画像情報により運転者を特定するとともに、当該運転者が休息状態であるのか否かを判別し、休息状態であって、角度検出部111から受信した角度が後述する登録部113において登録されている角度よりも小さい時には、運転者情報と操作角度情報とを紐付けて第2のメモリ120に格納する処理を行う。
登録部113は、運転者それぞれが休息時に操作したシートバックの操作角度を運転者ごとの所定の角度として登録する。
ここで、「所定の角度」としては、個人登録されたシートバックの角度とすることが好ましい。
なお、走行前に、個人登録されたシートバックの角度を乗員の意思で調整する場合を考慮する場合には、例えば、一部走行時を含むとしても、休息時の乗員の身体状態は漏れなく検出する意図で、運転者ごとに、第2のメモリ120に格納したシートバックの操作角度のうち、最も小さいシートバックの操作角度を運転者ごとの所定の角度として登録部113に登録させるようにしてもよい。
より具体的には、図9に示すように、運転者A~Dが休息時に操作したシートバックの操作角度がある場合には、その中で最も小さいシートバックの操作角度、例えば、運転者Aの場合には、110度、運転者Bの場合には、120度、運転者Cの場合には、130度、運転者Dの場合には、150度を運転者A~Dの所定の角度として登録させるようにしてもよい。
一方で、一部に漏れがあっても、休息時の乗員の身体状態だけを検出したいとする意図の場合には、運転者ごとに、第2のメモリ120に格納したシートバックの操作角度のうち、最も大きいシートバックの操作角度を運転者ごとの所定の角度として登録部113に登録させるようにしてもよい。
より具体的には、図9に示すように、運転者A~Dが休息時に操作したシートバックの操作角度がある場合には、その中で最も小さいシートバックの操作角度、例えば、運転者Aの場合には、140度、運転者Bの場合には、160度、運転者Cの場合には、160度、運転者Dの場合には、170度を運転者A~Dの所定の角度として登録させるようにしてもよい。
<乗員状態検出システム1Aの処理>
図7を用いて、本実施形態に係る乗員状態検出システム1Aの処理について説明する。
第2のプロセッサー110の判別部112は、車両が停車状態であるか否かの判別処理を実行する(ステップS210)。
なお、判別処理(ステップS210)の詳細については、後述する。
第2のプロセッサー110の判別部112は、車両が停止状態であると判別した場合(ステップS210)には、割当処理に移行する(ステップS120)。
割当処理(ステップS120)では、監視割当部212は、第1の乗員監視装置10と第2の乗員監視装置20とにおいて検出する車両の乗員の監視部位、取得情報を割り当て、その旨の信号を第1の乗員監視装置10と第2の乗員監視装置20とに送信する処理を実行する。
第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、既に起動している第1の乗員監視装置10と第2の乗員監視装置20とに対して、情報受信部211への情報出力を許可する。
なお、第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、情報受信部211における第1の乗員監視装置10からの第1の乗員監視情報と第2の乗員監視装置20からの第2の乗員監視情報との受信を許可するようにしてもよい。
あるいは、第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、情報受信部211に対して、第1の乗員監視装置10からの第1の乗員監視情報と第2の乗員監視装置20からの第2の乗員監視情報との第1のメモリ220への情報の書き込みを許可するようにしてもよい。
情報受信部211は、監視割当部212により検出する車両の乗員の監視部位、取得情報を割り当てられた第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、を受信する(ステップS140)。
情報受信部211は、第1の乗員監視装置10から受信した第1の乗員監視情報と、第2の乗員監視装置20から受信した第2の乗員監視情報と、を第1のメモリ220に格納する。
乗員状態検出部213は、第1のメモリ220に格納された第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、に基づいて乗員の身体状態等を検出する(ステップS150)。
<停車状態判別処理>
図8を用いて、本実施形態に係る乗員状態検出システム1Aにおける判別部112の処理について説明する。
第2のプロセッサー110の角度検出部111は、着座装置30のセンサ等から取得した情報に基づいて、シートバックの操作角度を取得する(ステップS211)。角度検出部111が取得した操作角度は、判別部112に出力される。
判別部112は、第1の乗員監視装置からの画像情報により運転者を判別し(ステップS212)、判別した運転者に対応する所定の角度を第2のメモリ120から読み出す(ステップS213)。
判別部112は、第2のメモリ120から読みだした所定の角度と、角度検出部111から取得した操作角度とを比較して、シートバックの操作角度が所定の角度以上か否かを判定する(ステップS214)。
そして、判別部112が、シートバックの操作角度が、所定の角度以上であると判定した場合(ステップS214の「YES」)には、車両が停車状態であると判別して処理を終了する。
一方で、判別部112が、シートバックの操作角度は、所定の角度未満であると判定した場合(ステップS214の「NO」)には、車両が走行状態であると判別して処理を終了する。
<作用・効果>
以上、説明したように、本実施形態に係る乗員状態検出システム1Aは、判別装置100Aとして、車両に装備され、シートバックの角度を自在に変更可能な着座装置30を備える。
そして、判別部112は、シートバックの角度が所定の角度以上であるときに、1つまたは複数の第1のプロセッサー210に車両が停車状態である旨の情報を送信する。
つまり、「所定の角度」を、例えば、運転者が休息をとる場合のシートバックの角度とすれば、車両の状態は、走行状態ではなく、停止状態であることを容易に判別することができる。
そのため、車両が停車状態である場合に、乗員の状態検出において、第1の乗員監視装置10と第2の乗員監視装置20が相互補完することにより、車両の停車状態における乗員の身体状態等を、常に、正確に検出することができる。
また、本実施形態に係る乗員状態検出システム1Aにおける判別装置100Aの登録部113は、個人登録されたシートバックの角度を所定の角度として登録する。
そのため、複数の運転者に対して、運転者が休息状態であるのか、ひいては車両が停車状態であるのかを的確に判断することができる。
なお、走行前に、個人登録されたシートバックの角度を乗員の意思で調整する場合を考慮する場合には、本実施形態に係る乗員状態検出システム1Aにおける判別装置100Aの登録部113は、運転者ごとに、1つまたは複数の第2のメモリ120に格納したシートバックの操作角度のうち、最も小さいシートバックの操作角度を運転者ごとの所定の角度として登録してもよい。
すなわち、運転者ごとにシートバックの操作角度のうち、最も小さいシートバックの操作角度を運転者ごとの所定の角度として登録すれば、一部非休息時の身体状態を含むとしても、凡そ全ての休息時における乗員の身体状態については、的確に判断することができる。
また、本実施形態に係る乗員状態検出システム1Aにおける判別装置100Aの登録部113は、運転者ごとに、1つまたは複数の第2のメモリ120に格納したシートバックの操作角度のうち、最も大きいシートバックの操作角度を運転者ごとの所定の角度として登録してもよい。
すなわち、運転者ごとにシートバックの操作角度のうち、最も大きいシートバックの操作角度を運転者ごとの所定の角度として登録すれば、一部休息時の身体状態については、検出漏れがあっても、休息時の乗員の身体状態だけを抜き出して、休息時の乗員の身体状態を的確に判断することができる。
また、本実施形態に係る乗員状態検出システム1Aにおける判別装置100Aの判別部112は、第1の乗員監視装置10が撮像する運転者の画像から運転者が休息時であるのか否かを判断する。
すなわち、判別部112は、第1の乗員監視装置10が撮像する運転者の顔や挙動に関する画像から運転者が休息時であるのか否かを判断するため、シートバックの操作角度が所定の角度以上であるのが休息をとる目的であったのか、単に、運転者の操作ミスにより一時的にシートバックの操作角度が所定の角度以上になったのかを判別することができる。
そのため、運転者が休息状態であるのか否かをより明確に把握できることから、ひいては車両が停車状態であるのかを的確に判断することができる。
<第3の実施形態>
図10から図13を用いて、本実施形態に係る乗員状態検出システム1Bについて説明する。
<乗員状態検出システム1Bの構成>
図10に示すように、本実施形態に係る乗員状態検出システム1Bは、第1の乗員監視装置10と、第2の乗員監視装置20と、判別装置100Bと、乗員状態検出装置200と、を含んで構成されている。
なお、第1の実施形態および第2の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は省略する。
判別装置100Bは、車両の走行状態と停車状態とを判別する。
判別装置100Bは、例えば、車両に装備され、シートバックの角度を自在に変更可能な着座装置30を含む。
判別装置100Bは、例えば、第1の乗員監視装置10が撮像する画像を取り込み、取り込んだ画像の画角内から運転者の頭部画像が消えたときに、運転者が、着座装置30のシートバックの角度を所定の角度以上に倒したときの姿勢になったと判断する。
また、判別装置100Bは、第1のプロセッサー210に車両が停車状態である旨の情報を送信する。
なお、判別装置100Bが、さらに、車速パルスやパーキングブレーキの作動状態等をモニターして、上記センサからの情報と併せて、車両の走行状態と停止状態とを判別するようにしてもよい。
<第2のプロセッサー110Aの構成>
図11に示すように、本実施形態に係る第2のプロセッサー110Aは、判別部112Bを含んで構成されている。
判別部112Bは、第1の乗員監視装置10が撮像する画像を取り込み、取り込んだ画像の画角内から運転者の頭部画像が消えたときに、運転者が、着座装置30のシートバックの操作角度が所定の角度以上にしたときの姿勢になったと判断する。
また、判別装置100Bは、第1のプロセッサー210に車両が停車状態である旨の情報を送信する。
<乗員状態検出システム1Bの処理>
図12を用いて、本実施形態に係る乗員状態検出システム1Bの処理について説明する。
第2のプロセッサー110の判別部112Aは、車両が停車状態であるか否かの判別処理を実行する(ステップS310)。
なお、判別処理(ステップS310)の詳細については、後述する。
第2のプロセッサー110の判別部112Aは、車両が停止状態であると判別した場合(ステップS310)には、割当処理に移行する(ステップS120)。
割当処理(ステップS120)では、監視割当部212は、第1の乗員監視装置10と第2の乗員監視装置20とにおいて検出する車両の乗員の監視部位、取得情報を割り当て、その旨の信号を第1の乗員監視装置10と第2の乗員監視装置20とに送信する処理を実行する。
第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、既に起動している第1の乗員監視装置10と第2の乗員監視装置20とに対して、情報受信部211への情報出力を許可する。
なお、第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、情報受信部211における第1の乗員監視装置10からの第1の乗員監視情報と第2の乗員監視装置20からの第2の乗員監視情報との受信を許可するようにしてもよい。
あるいは、第1のプロセッサー210は、監視割当部212における割当処理(ステップS120)の実行後に、情報受信部211に対して、第1の乗員監視装置10からの第1の乗員監視情報と第2の乗員監視装置20からの第2の乗員監視情報との第1のメモリ220への情報の書き込みを許可するようにしてもよい。
情報受信部211は、監視割当部212により検出する車両の乗員の監視部位、取得情報を割り当てられた第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、を受信する(ステップS140)。
情報受信部211は、第1の乗員監視装置10から受信した第1の乗員監視情報と、第2の乗員監視装置20から受信した第2の乗員監視情報と、を第1のメモリ220に格納する。
乗員状態検出部213は、第1のメモリ220に格納された第1の乗員監視装置10からの第1の乗員監視情報と、第2の乗員監視装置20からの第2の乗員監視情報と、に基づいて乗員の身体状態等を検出する(ステップS150)。
<停車状態判別処理>
図13を用いて、本実施形態に係る乗員状態検出システム1Bにおける判別部112Aの処理について説明する。
判別部112Aは、第1の乗員監視装置10からの画像情報により運転者の頭部画像を取得する(ステップS311)。なお、取得する画像は、運転者の上半身の画像であってもよい。
判別部112Aは、第1の乗員監視装置10からの画像情報の中に運転者の頭部画像があるか否かを判定する(ステップS312)。
そして、判別部112Aが、第1の乗員監視装置10からの画像情報の中に運転者の頭部画像があると判定した場合(ステップS312の「YES」)には、車両が停車状態(ステップS314)であると判別して処理を終了する。
一方で、判別部112Aが、第1の乗員監視装置10からの画像情報の中に運転者の頭部画像がないと判定した場合(ステップS312の「NO」)には、車両が走行状態である(ステップS313)と判別して処理を終了する。
<作用・効果>
以上、説明したように、本実施形態に係る乗員状態検出システム1Bにおける判別装置100Bは、第1の乗員監視装置10が撮像する画像を取り込み、画像の画角内から運転者の頭部画像が消えたときに、運転者が、着座装置30のシートバックの角度を所定の角度以上としたときの姿勢になったと判断し、第1のプロセッサー210に車両が停車状態である旨の情報を送信する。
つまり、判別装置100Bは、第1の乗員監視装置10が撮像する画像を取り込み、画像の画角内から運転者の頭部画像があるか否かにより、運転者が、着座装置30のシートバックの角度を所定の角度以上としたか否かを判定する。
ここで、「所定の角度」を、例えば、運転者が休息をとる場合のシートバックの角度とすれば、車両の状態は、走行状態ではなく、停止状態であることを容易に判別することができる。
そのため、車両が停車状態である場合に、乗員の状態検出において、第1の乗員監視装置10と第2の乗員監視装置20が相互補完することにより、車両の停車状態における乗員の身体状態を、常に、正確に検出することができる。
<変形例>
例えば、上記実施形態においては、乗員状態検出装置200内に、監視割当部212、乗員状態検出部213を設け、判別装置100、100A内に、角度検出部111、判別部112、112A、登録部113を設けることを例示したが、第1の乗員監視装置10、第2の乗員監視装置20、着座装置30からの情報を車両に接続されたサーバーに転送し、サーバーにおいて、監視割当部212の処理、乗員状態検出部213の処理、角度検出部111の処理、判別部112、112Aの処理、登録部113の処理を実行させる構成としてもよい。
このようにすることにより、多くの情報を迅速に処理して、車両の停車状態における乗員の身体状態等を、常に、正確に検出することができる。
また、上記実施形態においては、乗員の状態を検出することを例示したが、視覚刺激デバイスや聴覚刺激デバイス、触覚刺激デバイス、味覚刺激デバイス等を備えることにより、車両が停車状態であるときの乗員の状態に応じて、肉体的疲労や精神的疲労を緩和させることも可能となる。
ここで、視覚刺激デバイスは、乗員の覚醒や疲労回復を促す車両デバイスの1つであり、車両内の光源(室内灯やメータ、HUD(Head-Up Display)、モニター等の光源)やサンルーフの開閉機構等を含む。
具体的には、視覚刺激デバイスは、制御部からの制御信号に応じて、夜間の場合には、室内灯を点灯させ、輝度や色度を変更する。また、昼間であれば、サンルーフを作動し、車室内に外光を取り入れる動作を行う。
そのため、視覚刺激デバイスを備えることにより、車両が停車状態であるときに、車両の乗員の覚醒や疲労回復を促すことができる。
聴覚刺激デバイスは、乗員の覚醒や疲労回復を促す車両デバイスの1つであり、車載音響装置等を含む。
具体的には、警告音、警告メッセージ、音楽、環境音、予め登録された人の声、ASMR(Autonomous Sensory Meridian Response)を促す音声等を出力する。
そのため、聴覚刺激デバイスを備えることにより、車両が停車状態であるときに、車両の乗員の覚醒や疲労回復を促すことができる。
触覚刺激デバイスは、乗員の覚醒や疲労回復を促す車両デバイスの1つであり、座席の座面や背面を振動させる振動機構やヘッドレストを振動させる振動機構を含み、目的部位に応じた疲労回復マッサージのやり方に関する画像や音声を出力する機能も有する。
そのため、触覚刺激デバイスを備えることにより、車両が停車状態であるときに、車両の乗員の覚醒や疲労回復を促すことができる。
嗅覚刺激デバイスは、乗員の覚醒や疲労回復を促す車両デバイスの1つであり、芳香発生装置等を含む。具体的には、疲労からの覚醒を促すミントの香りやアロマオイルの香り等を発生させる。
そのため、触覚刺激デバイスを備えることにより、車両が停車状態であるときに、車両の乗員の覚醒や疲労回復を促すことができる。
第3の実施形態においては、判別装置100Bは、第1の乗員監視装置10が撮像する画像を取り込み、画像の画角内から運転者の頭部画像があるか否かにより、運転者が、着座装置のシートバックの角度を所定の角度以上としたか否かを判定することを例示したが、判別装置100Bが、画像の画角内から運転者の頭部画像が消えた時間を併せて計測するようにしてもよい。
このようにすることにより、運転者が休息をとるために、シートバックの角度を所定の角度以上に倒したことにより、画像の画角内から運転者の頭部画像が消えたのか、単に、運転者の操作ミスにより一時的にシートバックの角度が所定の角度以上としただけなのかを判別することができる。
なお、第1のプロセッサー210、第2のプロセッサー110、110Aの処理をコンピュータシステムが読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムを第1のプロセッサー210、第2のプロセッサー110、110Aに読み込ませ、実行することによって本発明の乗員状態検出システム1、1A、1Bを実現することができる。
ここでいうコンピュータシステムとは、OSや周辺装置等のハードウェアを含む。
また、「コンピュータシステム」は、WWW(World Wide Web)システムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。
ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1;乗員状態検出システム
1A;乗員状態検出システム
1B;乗員状態検出システム
10;第1の乗員監視装置
20;第2の乗員監視装置
30;着座装置
100;判別装置
100A;判別装置
100B;判別装置
110;第2のプロセッサー
110A;第2のプロセッサー
111;角度検出部
112;判別部
112A;判別部
113;登録部
120;第2のメモリ
210;第1のプロセッサー
211;情報受信部
212;監視割当部
213;乗員状態検出部
220;第1のメモリ

Claims (5)

  1. 車両の乗員の身体状態を監視する第1の乗員監視装置と、
    前記第1の乗員監視装置とは異なる方法で前記車両の乗員の身体状態を監視する第2の乗員監視装置と、
    前記車両の走行状態と停車状態とを判別する判別装置と、
    前記第1の乗員監視装置からの第1の乗員監視情報と、前記第2の乗員監視装置からの第2の乗員監視情報と、に基づいて前記車両の乗員の身体状態を検出する乗員状態検出装置と、
    を備え、
    前記乗員状態検出装置は、1つまたは複数の第1のプロセッサーと、前記1つまたは複数の第1のプロセッサーに通信可能に接続される1つまたは複数の第1のメモリと、を備え、
    前記1つまたは複数の第1のプロセッサーは、前記判別装置から前記車両が前記停車状態である旨の情報を受信したときには、前記第1の乗員監視装置と前記第2の乗員監視装置とにおいて検出する前記車両の乗員の監視部位、取得情報を割り当て、前記第1の乗員監視装置からの前記第1の乗員監視情報と、前記第2の乗員監視装置からの前記第2の乗員監視情報と、を受信し、該受信した乗員監視情報を前記1つまたは複数の第1のメモリに格納し、該第1のメモリに格納された第1の乗員監視装置からの前記第1の乗員監視情報と、前記第2の乗員監視装置からの前記第2の乗員監視情報と、に基づいて乗員の身体状態を検出する乗員状態検出システム。
  2. 前記判別装置は、イグニッション情報を取得し、該イグニッション情報からイグニッションがOFF状態であるときに、前記1つまたは複数のプロセッサーに前記車両が前記停車状態である旨の前記判別情報を送信し、前記イグニッション情報からイグニッションがON状態であるときに、前記1つまたは複数のプロセッサーに前記車両が前記走行状態である旨の前記判別情報を送信する請求項1に記載の乗員状態検出システム。
  3. 前記判別装置が、前記車両に装備され、シートバックの角度を自在に変更可能な運転者が着座する着座装置を含み、1つまたは複数の第2のプロセッサーと、1つまたは複数の第2のプロセッサーに通信可能に接続される1つまたは複数の第2のメモリと、を備え、
    前記判別装置は、前記シートバックの角度が所定の角度以上に倒されたときに、前記1つまたは複数の前記第1のプロセッサーに前記車両が前記停車状態である旨の情報を送信する請求項1に記載の乗員状態検出システム。
  4. 前記判別装置が、前記運転者それぞれが休息時に操作したシートバックの操作角度を前記運転者ごとの前記所定の角度として登録することを特徴とする請求項3に記載の乗員状態検出システム。
  5. 前記1つまたは複数の第2のプロセッサーは、前記第1の乗員監視装置が撮像する前記運転者の画像から前記運転者が前記休息時であるのか否かを判断することを特徴とする請求項4に記載の乗員状態検出システム。
JP2021058861A 2021-03-30 2021-03-30 乗員状態検出システム Pending JP2022155398A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021058861A JP2022155398A (ja) 2021-03-30 2021-03-30 乗員状態検出システム
US17/698,624 US20220319202A1 (en) 2021-03-30 2022-03-18 Occupant state detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021058861A JP2022155398A (ja) 2021-03-30 2021-03-30 乗員状態検出システム

Publications (1)

Publication Number Publication Date
JP2022155398A true JP2022155398A (ja) 2022-10-13

Family

ID=83450474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021058861A Pending JP2022155398A (ja) 2021-03-30 2021-03-30 乗員状態検出システム

Country Status (2)

Country Link
US (1) US20220319202A1 (ja)
JP (1) JP2022155398A (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11707197B2 (en) * 2017-12-22 2023-07-25 Resmed Sensor Technologies Limited Apparatus, system, and method for physiological sensing in vehicles
US10949659B2 (en) * 2019-04-16 2021-03-16 GM Global Technology Operations LLC Vehicle occupant detection

Also Published As

Publication number Publication date
US20220319202A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US11383721B2 (en) System and method for responding to driver state
EP3683623B1 (en) System and method for responding to driver state
US9944228B2 (en) System and method for vehicle control integrating health priority alerts of vehicle occupants
US8725311B1 (en) Driver health and fatigue monitoring system and method
CN111048171B (zh) 解决晕动病的方法和装置
JPWO2019188398A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US20140276090A1 (en) Driver health and fatigue monitoring system and method using optics
CN106687026A (zh) 驾驶员健康以及疲劳监控系统和方法
WO2021145131A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
WO2015174963A1 (en) Driver health and fatigue monitoring system and method
JP7357006B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US11751784B2 (en) Systems and methods for detecting drowsiness in a driver of a vehicle
US20220036101A1 (en) Methods, systems and computer program products for driver monitoring
JP7252438B2 (ja) 異常検知装置及びシート
JP2022155398A (ja) 乗員状態検出システム
CN112932426A (zh) 用于检测车辆乘员的警觉性的系统和方法
JP2022155397A (ja) 乗員状態検出システム
JP2022155451A (ja) 乗員状態検出システム
GB2556410A (en) System for managing alertness of a driver
KR102613180B1 (ko) 차량 및 그 제어방법
JP2022155393A (ja) 運転支援システム
JP2022155394A (ja) 運転支援システム
Deserno et al. Combining vehicle BUS and vital sign sensors for continuous health monitoring during driving: Concept and first results
US20240051585A1 (en) Information processing apparatus, information processing method, and information processing program
JP2022155395A (ja) 運転支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240211