JP2019217830A - 乗員認識装置 - Google Patents

乗員認識装置 Download PDF

Info

Publication number
JP2019217830A
JP2019217830A JP2018114879A JP2018114879A JP2019217830A JP 2019217830 A JP2019217830 A JP 2019217830A JP 2018114879 A JP2018114879 A JP 2018114879A JP 2018114879 A JP2018114879 A JP 2018114879A JP 2019217830 A JP2019217830 A JP 2019217830A
Authority
JP
Japan
Prior art keywords
occupant
seat
determination unit
detection value
hidden
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018114879A
Other languages
English (en)
Inventor
忠政 入佐
Tadamasa Irisa
忠政 入佐
雅一 戸部田
Masakazu Tobeta
雅一 戸部田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2018114879A priority Critical patent/JP2019217830A/ja
Publication of JP2019217830A publication Critical patent/JP2019217830A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Chair Legs, Seat Parts, And Backrests (AREA)
  • Seats For Vehicles (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】乗員の有無の判定精度を向上させることのできる乗員認識装置を提供すること。【解決手段】実施形態にかかる乗員認識装置は、第1取得部と、第1判定部と、第2取得部と、第2判定部とを備える。第1取得部は、撮像装置によって撮像された車室内の画像を取得する。第1判定部は、第1取得部によって取得された画像に基づき、乗員が隠れている可能性がある物体が存在するか否かを判定する。第2取得部は、車室内における座席上の物体を検出するセンサの検出値を取得する。第2判定部は、第1判定部によって乗員が隠れている可能性がある物体が存在すると判定された場合に、第2取得部によって取得された検出値の経時変化に基づき、乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定する。【選択図】図3

Description

本発明の実施形態は、乗員認識装置に関する。
従来、車室内を撮像し、得られた画像に基づいて乗員の有無を判定してエアバッグやシートベルトといった車載機器の制御等に利用する技術が知られている。
特開2012−127811号公報
上述した従来技術には、一例として、乗員の有無の判定精度を向上させるという点で更なる改善の余地がある。
たとえば、上述した従来技術では、乗員が毛布を頭から被っていたり、後ろ向きに設置されたチャイルドシートに子供が乗せられていたりする場合、実際には乗員がいるにも関わらず、車室内を撮像した画像に乗員が写り込まないおそれがある。このような場合、上述した従来技術では、その乗員の有無を精度よく判定することが困難である。
本発明の実施形態にかかる乗員認識装置は、一例として、撮像装置によって撮像された車室内の画像を取得する第1取得部と、前記第1取得部によって取得された前記画像に基づき、乗員が隠れている可能性がある物体が存在するか否かを判定する第1判定部と、前記車室内における座席上の物体を検出するセンサの検出値を取得する第2取得部と、前記第1判定部によって前記乗員が隠れている可能性がある物体が存在すると判定された場合に、前記第2取得部によって取得された前記検出値の経時変化に基づき、前記乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定する第2判定部とを備える。よって、一例としては、たとえば乗員が毛布を頭から被っている場合や、後ろ向きに設置されたチャイルドシートに子供が座っている場合のように、乗員が存在するか否かを画像で判別することが困難な場合であっても、その乗員の有無を判定することができる。
上記乗員認識装置では、一例として、前記座席に乗員が着座している場合における前記センサの検出値の経時変化をモデリングした人特徴モデルを記憶する記憶部を備え、前記第2判定部は、前記第2取得部によって取得された前記検出値の経時変化を前記人特徴モデルと比較することにより、前記乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定する。よって、一例としては、物体に隠れている乗員の存在を精度良く判定することができる。
上記乗員認識装置では、一例として、前記人特徴モデルは、心拍に起因する前記検出値の揺らぎおよび呼吸に起因する前記検出値の揺らぎの少なくとも一方を含む。よって、一例としては、生物と無生物とを切り分けることができることから、物体に隠れている乗員の存在を精度良く判定することができる。
上記乗員認識装置では、一例として、前記第2判定部は、前記検出値の大きさを閾値と比較する第1比較処理および前記第2取得部によって取得された前記検出値の経時変化を前記人特徴モデルと比較する第2比較処理の結果に基づき、前記乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定する。よって、一例としては、乗員の有無の判定精度をさらに向上させることができる。
上記乗員認識装置では、一例として、前記センサは、荷重センサである。よって、一例としては、検出値の経時変化を精度良く捉えることができる。
図1は、実施形態に係る乗員認識装置が搭載される車両の車室内を上方から見た平面図である。 図2は、実施形態に係る制御システムの構成を示すブロック図である。 図3は、ECUの機能的構成を示すブロック図である。 図4は、撮像装置によって撮像される画像の一例を示す図である。 図5は、ECUが実行する乗員認識処理の手順を示すフローチャートである。 図6は、変形例に係る判定結果の一例を示す図である。 図7は、変形例においてECUが実行する第3判定処理の手順を示すフローチャートである。
以下に、本願に係る乗員認識装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る乗員認識装置が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.車両1の構成〕
図1は、実施形態に係る乗員認識装置が搭載される車両1の車室内を上方から見た平面図である。
図1に示すように、車両1の車室内には、複数の座席2が設けられている。たとえば、車室内の前方側には運転席2aおよび助手席2bが設けられ、後方側には複数の後部座席2c〜2eが設けられる。複数の後部座席2c〜2eのうち、後部座席2cは、運転席2aの後方に設けられ、後部座席2dは、助手席2bの後方に設けられ、後部座席2eは、後部座席2cと後部座席2dとの間に設けられる。
各座席2には、座席2上の物体を検出するセンサとして荷重センサ3が設けられている。具体的には、運転席2aには荷重センサ3aが設けられ、助手席2bには荷重センサ3bが設けられ、後部座席2c〜2eにはそれぞれ荷重センサ3c〜3eが設けられる。
荷重センサ3は、たとえば、座席2における座部、あるいは、座席2を支持する左右一対のレールと座部との間に設けられ、座部に加わる荷重を検出する。荷重センサ3の検出値は、後述するECU(Electronic Control Unit)10(図2参照)に出力される。
なお、1つの座席2に対して複数の荷重センサ3が設けられてもよい。たとえば、各座席2における座部の四隅に荷重センサ3が1つずつ設けられてもよい。このように、1つの座席2に対して複数の荷重センサ3を設けることで、各荷重センサ3の検出値から座席2に着座した乗員の姿勢変化をより精度良く捉えることができる。なお、1つの座席2に対して1つの荷重センサ3が設けられる場合であっても、座席2に着座した乗員の姿勢変化を捉えることは可能である。
荷重センサ3としては、受ける力を検出して出力するものであればよく、任意の種類のセンサが採用可能である。たとえば、荷重センサ3としては、圧電式やひずみゲージ式を始めとする各種のロードセルを用いることができる。
車室内の前方側には、撮像装置4が設けられる。撮像装置4は、CCD(Charge Coupled Device)、またはCIS(CMOS Image Sensor)等の撮像素子を内蔵し、撮像素子によって撮像された画像を後述するECU10(図2参照)に出力する。
撮像装置4は、車室内を撮像する。本実施形態において、撮像装置4は、車室内の全ての座席2を撮像可能なように、すなわち、車室内の全ての座席2に着座した乗員全員を撮像可能なように、向き、画角および設置位置等が決められる。たとえば、撮像装置4は、ダッシュボード、ルームミラー、天井等に設置され得る。なお、車室内には、複数の撮像装置4が設置されてもよい。この場合、複数の撮像装置4によって車室内の全ての座席2に着座した乗員全員が撮像されればよい。
撮像装置4としては、任意の種類のカメラが採用可能である。たとえば、単眼カメラ、ステレオカメラ、可視光カメラ、赤外線カメラ、またはTOF距離画像カメラ等が撮像装置4として採用可能である。これらのうち、赤外線カメラは、車外が明るい状況でも白飛びしにくく、また、車室内が暗い状況でも乗員をある程度捉えることができるという点で有効である。
〔2.制御システム100の構成〕
車両1には、乗員認識装置を含む制御システム100が設けられる。かかる制御システム100の構成について図2を参照して説明する。図2は、実施形態に係る制御システム100の構成を示すブロック図である。
図2に示すように、制御システム100は、複数の荷重センサ3と、撮像装置4と、複数のエアバッグ装置7と、警報装置8と、ECU10と、車内ネットワーク20とを備える。ECU10は、乗員認識装置の一例である。乗員認識装置は、ECU10の他、複数の荷重センサ3および撮像装置4を含んで構成されてもよい。
複数のエアバッグ装置7は、複数の座席2の各々に対応して設けられる。エアバッグ装置7は、車両1の衝突時などにエアバッグを展開することによって、座席2に着座した乗員を衝撃から保護する。警報装置8は、たとえば警告灯やスピーカなどを含んで構成され、光や音によって乗員に警報を発する。なお、警報装置8は、通信部を備え、乗員が所持するスマートフォン等の携帯端末に対して所定の警報情報を送信してもよい。
荷重センサ3、エアバッグ装置7および警報装置8は、車内ネットワーク20を介してECU10に電気的に接続されている。車内ネットワーク20は、たとえばCAN(Controller Area Network)として構成される。また、撮像装置4は、たとえばNTSC(National Television System Committee)ケーブル等の出力線を介してECU10に接続される。
ECU10は、車内ネットワーク20を介して荷重センサ3の検出値を取得することができる。また、ECU10は、出力線を介して撮像装置4から車室内の画像を取得することができる。
ECU10は、乗員認識装置としての機能の他にも車両1の種々の制御機能を実現することができる。たとえば、ECU10は、車内ネットワーク20を介して制御信号を送ることにより、エアバッグ装置7および警報装置8を制御することができる。その他、ECU10は、ブレーキシステムの制御、操舵システムの制御等を実行し得る。
ECU10は、たとえば、CPU(Central Processing Unit)11と、SSD(Solid State Drive)12と、ROM(Read Only Memory)13と、RAM(Random Access Memory)14とを備える。CPU11は、ROM13等の不揮発性の記憶装置にインストールされ記憶されたプログラムを実行することによって、乗員認識装置としての機能を実現する。RAM14は、CPU11での演算で用いられる各種のデータを一時的に記憶する。SSD12は、書き換え可能な不揮発性の記憶装置であって、ECU10の電源がオフされた場合にあってもデータを記憶することができる。CPU11、ROM13、およびRAM14等は、同一パッケージ内に集積され得る。ECU10は、CPU11に替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。SSD12に替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD12またはHDDは、ECU10とは別に設けられてもよい。
〔3.ECU10の機能的構成〕
次に、ECU10の機能的構成について図3を参照して説明する。図3は、ECU10の機能的構成を示すブロック図である。
図3に示すように、ECU10は、第1取得部31と、第1判定部32と、第2取得部33と、記憶部34と、第2判定部35と、車載機器制御部36とを備える。第1取得部31、第1判定部32、第2取得部33、第2判定部35および車載機器制御部36は、CPU11が、ROM13に格納されたプログラムを実行することによって実現される。なお、これらの構成は、ハードウェア回路にて実現されてもよい。記憶部34は、たとえばSSD12により構成される。
第1取得部31は、撮像装置4によって撮像された車室内の画像を出力線を介して取得する。また、第1取得部31は、取得した画像を第1判定部32へ渡す。
第1判定部32は、撮像装置4によって撮像された画像に基づき、乗員が車室内に存在するか否か、および、乗員が隠れている可能性がある物体が車室内に存在するか否かを判定する第1判定処理を行う。
第1判定部32は、第1判定処理を座席2ごとに行う。図4は、撮像装置4によって撮像される画像の一例を示す図である。
図4に示すように、撮像装置4により撮像された画像には、複数の探索領域Ra〜Reが設定される。複数の探索領域Ra〜Reは、各座席2a〜2eにそれぞれ対応しており、たとえば、対応する座席2a〜2eに着座した乗員の頭部および両肩部を含む上半身を含む位置および大きさに設定される。探索領域Ra〜Reの位置および大きさは、予め設定されていてもよいし、第1判定部32が画像認識によって設定してもよい。
第1判定部32は、探索領域Ra〜Reごとに第1判定処理を行う。第1判定処理は、記憶部34に記憶された多数の画像モデル341を用いて行われる。画像モデル341は、探索対象の形状をモデリングした画像であり、探索対象ごとに複数の画像モデル341が予め用意される。
第1判定部32は、第1判定処理において、探索対象である乗員の形状をモデリングした画像モデル341を用いた画像認識により探索領域Ra〜Re内の乗員を探索する第1探索処理を行う。乗員の形状には、たとえば、撮像装置4に正対した状態で設置されたチャイルドシートに座った子供の形状も含まれ得る。すなわち、第1判定部32は、座席2に着座している乗員だけでなく、チャイルドシートに座った子供も検出可能である。
また、第1判定部32は、第1判定処理において、「乗員が隠れている可能性がある物体」を探索する第2探索処理を行う。「乗員が隠れている可能性がある物体」は、たとえば、「人間と同等のサイズの何かに被せられた布」、「撮像装置4に背を向けた状態で設置されたチャイルドシート」、「着ぐるみの衣装」などである。
「人間と同等のサイズの何かに被せられた布」が画像に写り込んでいる場合、その布の中に乗員が隠れている可能性がある。たとえば、乗員が毛布を頭から被って寝ているような場合、実際には乗員がいるにも関わらず、画像に乗員は写り込まない。また、「撮像装置4に背を向けた状態で設置されたチャイルドシート」が画像に写り込んでいる場合、そのチャイルドシートに子供が座っていても、チャイルドシートが死角となって子供が画像に写り込まない可能性がある。また、「着ぐるみの衣装」が画像に写り込んでいる場合、着ぐるみを着た乗員は画像に写り込まない。また、画像からでは、着ぐるみの衣装の中に乗員が存在するのか、着ぐるみの衣装だけが座席2に置かれているのかの判別が困難である。さらに、着ぐるみの衣装なのか、人間と同等のサイズのぬいぐるみなのかを画像から判別することも困難である。
第1判定部32は、第2探索処理において、乗員が隠れている可能性がある物体をモデリングした画像モデル341を用いた画像認識により、乗員が隠れている可能性がある物体を探索領域Ra〜Reごとに探索する。たとえば、第1判定部32は、「人間と同等のサイズの何かに被せられた布」をモデリングした画像モデル341を用いて、「人間と同等のサイズの何かに被せられた布」を探索する。同様に、第1判定部32は、「撮像装置4に背を向けた状態で設置されたチャイルドシート」をモデリングした画像モデル341を用いて、「撮像装置4に背を向けた状態で設置されたチャイルドシート」を探索する。また、第1判定部32は、「着ぐるみの衣装」をモデリングした画像モデル341を用いて、「着ぐるみの衣装」を探索する。
第1探索処理の結果、探索領域Ra〜Reから乗員が検出された場合、第1判定部32は、乗員が検出された探索領域Ra〜Reに対応する座席2に乗員が存在すると判定する。また、第1探索処理の結果、探索領域Ra〜Reから乗員が検出されず、且つ、第2探索処理の結果、乗員が隠れている可能性がある物体も検出されなかった場合、第1判定部32は、これらが検出されなかった探索領域Ra〜Reに対応する座席2に乗員が存在しないと判定する。乗員が存在すること、および、乗員が存在しないことの判定結果は、車載機器制御部36に出力される。
一方、第2探索処理の結果、探索領域Ra〜Reから、乗員が隠れている可能性がある物体が検出された場合、第1判定部32は、乗員が隠れている可能性がある物体が検出された探索領域Ra〜Reに対応する座席2に、乗員が隠れている可能性がある物体が存在すると判定する。乗員が隠れている可能性がある物体が存在することの判定結果は、第2判定部35に出力される。
第2取得部33は、荷重センサ3の検出値を車内ネットワーク20を介して取得する。第2取得部33は、荷重センサ3から検出値を取得するごとに、取得した検出値を検出値履歴342として記憶部34に記憶させる。検出値履歴342は、荷重センサ3の検出値の経時変化を示す情報であり、荷重センサ3ごとに、言い換えれば、座席2ごとに記憶される。
第2判定部35は、「乗員が隠れている可能性がある物体」に乗員が隠れているか否かを判定する第2判定処理を行う。まず、第2判定部35は、荷重センサ3の検出値の大きさを閾値と比較する第1比較処理を行う。
第1比較処理は、乗員が隠れている可能性がある物体が存在すると判定された座席2ごとに行われる。たとえば、第2判定部35は、探索領域Rbについて、乗員が隠れている可能性がある物体が存在すると判定された場合、探索領域Rbに対応する助手席2bに設けられた荷重センサ3bの検出値の大きさを閾値と比較する。
第1比較処理において、第2判定部35は、記憶部34に記憶された検出値履歴342の中から最新の検出値を取得する。なお、第2判定部35は、記憶部34に記憶された検出値履歴342から検出値の平均値を算出し、算出した検出値の平均値を第1比較処理に用いてもよい。
つづいて、第2判定部35は、検出値が第1閾値よりも大きいか否かを判定する。この判定において、検出値が第1閾値よりも大きい場合、第2判定部35は、「乗員が隠れている可能性がある物体」に乗員が隠れている、すなわち、座席2に乗員が存在すると判定し、判定結果を車載機器制御部36に出力する。第1閾値は、たとえば、成人男性の平均体重よりも大きい値(たとえば、70〜80Kg程度)である。
また、第2判定部35は、検出値が第2閾値よりも小さい場合には、「乗員が隠れている可能性がある物体」に乗員が隠れていない、すなわち、座席2に乗員が存在しないと判定し、判定結果を車載機器制御部36に出力する。第2閾値は、たとえば、0歳児の平均体重よりも小さい値(たとえば、2〜3Kg程度)である。
一方、検出値の大きさが第2閾値以上第1閾値以下である場合、第2判定部35は、荷重センサ3の検出値の経時変化を記憶部34に記憶された人特徴モデル343と比較する第2比較処理を行う。
人特徴モデル343は、座席2に着座した乗員から荷重センサ3が受ける荷重の経時的な変化をモデリングした情報である。荷重センサ3の検出値には、たとえば、乗員の呼吸、心拍による揺らぎが生じ得る。また、荷重センサ3の検出値には、乗員の姿勢変化による揺らぎも生じ得る。呼吸、心拍による荷重の揺らぎは周期的であり、姿勢変化による荷重の揺らぎは非周期的である。人特徴モデル343は、これらの荷重変動をモデリングした情報である。人特徴モデル343は、たとえば、サポートベクターマシンやディープラーニング等の任意のアルゴリズムを用いた機械学習によって生成される。
第2判定部35は、記憶部34から検出値履歴342と人特徴モデル343とを取得し、検出値履歴342と人特徴モデル343との一致度を算出する。そして、第2判定部35は、検出値履歴342と人特徴モデル343との一致度が閾値を超えた場合、「乗員が隠れている可能性がある物体」に乗員が隠れている、すなわち、座席2に乗員が存在すると判定し、判定結果を車載機器制御部36に出力する。一方、第2判定部35は、検出値履歴342と人特徴モデル343との一致度が閾値以下である場合、「乗員が隠れている可能性がある物体」に乗員が隠れていない、すなわち、座席2に乗員が存在しないと判定し、判定結果を車載機器制御部36に出力する。
なお、ここでは、「乗員が隠れている可能性がある物体」に乗員が隠れているか否かを、人特徴モデル343を用いて判定することとしたが、第2判定部35は、必ずしも人特徴モデル343を用いることを要しない。たとえば、第2判定部35は、一定周期の変動が検出値履歴342に含まれるか否かを判定し、一定周期の変動が含まれる場合に、乗員であると判定してもよい。
車載機器制御部36は、車両1に搭載される各種機器の制御を行う。一例として、車載機器制御部36は、第1判定部32および第2判定部35の判定結果に基づき、複数のエアバッグ装置7の展開を個別に制御する。
たとえば、車載機器制御部36は、複数のエアバッグ装置7のうち、第1判定部32または第2判定部35によって乗員が存在することが判定された座席2に対応するエアバッグ装置7について、衝撃を受けた際にエアバッグを展開させるエアバッグ展開機能をオンにする。一方、車載機器制御部36は、第1判定部32または第2判定部35によって乗員が存在しないことが判定された座席2に対応するエアバッグ装置7については、エアバッグ展開機能をオフにする。
さらに、車載機器制御部36は、エアバッグ展開機能がオン状態である座席2について、第1判定部32または第2判定部35の判定結果に基づき、エアバッグ装置7の展開モードの切り替えを行ってもよい。たとえば、第1判定部32によって「撮像装置4に背を向けた状態で設置されたチャイルドシート」が検出され、且つ、第2判定部35によって当該チャイルドシートに乗員が隠れていると判定された場合、すなわち、子供が座っている場合、車載機器制御部36は、エアバッグ装置7の展開モードを、通常よりも弱く展開するエアバッグ弱展開モードに切り替えてもよい。撮像装置4に正対した状態で設置されたチャイルドシートに座った子供が第1判定部32によって検出された場合も同様である。このように、乗員の体格に応じた強度でエアバッグを展開させることで、エアバッグの安全性を高めることができる。
また、車載機器制御部36は、警報装置8を制御して子供の置き去りを警報する警報制御処理を行ってもよい。たとえば、車載機器制御部36は、第1判定部32または第2判定部35によってチャイルドシートに子供が座っていることが判定されている状態で、車両1のエンジンが停止し、他の乗員の存在が判定されなくなり、且つ、車両1のドアが施錠された場合に、警報制御処理を行ってもよい。警報制御処理により、警報装置8は、たとえば、警告灯やスピーカを用いて光や音によって乗員に警報を発する。また、警報装置8は、乗員が所持するスマートフォン等の携帯端末に対して所定の警報情報を送信してもよい。
〔4.ECU10の具体的動作〕
次に、ECU10の具体的動作について図5を参照して説明する。図5は、ECU10が実行する乗員認識処理の手順を示すフローチャートである。なお、図5に示す処理は、座席2a〜2eごとに実行される。
図5に示すように、第1判定部32は、撮像装置4によって撮像された画像に乗員が写っているか否かを判定する(ステップS101)。この処理において、乗員が写っていない場合(ステップS101,No)、第1判定部32は、乗員が隠れている可能性がある物体が画像に写っているか否かを判定する(ステップS102)。
ステップS102において、乗員が隠れている可能性がある物体が画像に写っていると判定された場合(ステップS102,Yes)、第2判定部35は、荷重センサ3の検出値が第1閾値を超えているか否かを判定する(ステップS103)。
ステップS103において、荷重センサ3の検出値が第1閾値を超えていない場合(ステップS103,No)、第2判定部35は、荷重センサ3の検出値が第2閾値未満であるか否かを判定する(ステップS104)。
ステップS104において、荷重センサ3の検出値が第2閾値未満でない場合(ステップS104,No)、第2判定部35は、人特徴モデル343と、荷重センサ3の検出値の経時変化との一致度が閾値を超えているか否かを判定する(ステップS105)。
ステップS101において、画像に乗員が写っていると判定された場合(ステップS101,Yes)、ステップS103において、荷重センサ3の検出値が第1閾値を超えていると判定された場合(ステップS103,Yes)およびステップS105において、人特徴モデル343と、荷重センサ3の検出値の経時変化との一致度が閾値を超えていると判定された場合(ステップS105,Yes)、ECU10は、座席2に乗員が存在すると判定する(ステップS106)。一方、ステップS102において、乗員が隠れている可能性がある物体が画像に写っていない場合(ステップS102,No)、ステップS104において、荷重センサ3の検出値が第2閾値未満である場合(ステップS104,Yes)およびステップS105において、人特徴モデル343と、荷重センサ3の検出値の経時変化との一致度が閾値を超えていない場合(ステップS105,No)、ECU10は、座席2に乗員が存在しないと判定する(ステップS107)。
ステップS106またはステップS107の判定を行うと、ECU10は、処理をステップS101に戻し、ステップS101〜S107の処理を繰り返す。
〔5.変形例〕
次に、第2判定部35により実行される第2判定処理および第3判定処理の変形例について図6および図7を参照して説明する。図6は、変形例に係る第2判定部35の判定結果の一例を示す図である。また、図7は、変形例においてECU10が実行する第3判定処理の手順を示すフローチャートである。
上述した実施形態では、先ず、荷重センサ3の検出値の大きさを閾値と比較する第1比較処理を行い、その結果、検出値が第2閾値以上第1閾値以下である場合に、検出値の経時変化を人特徴モデル343と比較する第2比較処理を行うこととした。これに限らず、第2判定部35は、第1比較処理および第2比較処理を行い、これらの判定結果の組合せに応じて、座席2に乗員が存在するか否かを判定してもよい。
たとえば、図6に示すように、検出値の大きさをX、検出値の経時変化と人特徴モデル343との一致度をYとしたとき、第2判定部35は、「第1閾値<X」且つ「第3閾値<Y」である場合、「第1閾値<X」且つ「第4閾値≦Y≦第3閾値」である場合、および、「第2閾値≦X≦第1閾値」且つ「第3閾値<Y」である場合に、座席2に乗員が存在すると判定してもよい。また、第2判定部35は、「X<第2閾値」且つ「Y<第4閾値」である場合、「X<第2閾値」且つ「第4閾値≦Y≦第3閾値」である場合、および、「第2閾値≦X≦第1閾値」且つ「Y<第4閾値」である場合に、座席2に乗員が存在しないと判定してもよい。なお、第4閾値は、第3閾値よりも小さい。一例として、第4閾値は30%であり、第3閾値は70%である。
一方、第2判定部35は、「第1閾値<X」且つ「Y<第4閾値」である場合、「第2閾値≦X≦第1閾値」且つ「第4閾値≦Y≦第3閾値」である場合、「X<第2閾値」且つ「第3閾値<Y」である場合、第1比較処理および第2比較処理では判定不能であると判定してもよい。
第2判定部35は、判定不能であると判定した場合、判定不能であると判定された座席2に乗員が存在するか否かを、乗員との対話によって判定する第3判定処理を行ってもよい。
図7に示すように、第3判定処理において、第2判定部35は、車室内に設けられた図示しないスピーカから、判定不能であると判定された座席2の名称を含む質問音声、たとえば「助手席に乗員は乗っていますか?」等の音声を出力する(ステップS201)。第2判定部35は、質問音声を出力した後の一定期間において、乗員の音声を認識する。
つづいて、第2判定部35は、音声認識の結果に基づき、乗員がいる旨の回答があったか否かを判定する(ステップS202)。この処理において、乗員がいる旨の回答があったと判定した場合(ステップS202,Yes)、第2判定部35は、判定不能であると判定された座席2に乗員が存在すると判定する(ステップS203)。
一方、ステップS202において、乗員がいる旨の回答がなかった場合(ステップS202,No)、第2判定部35は、判定不能であると判定された座席2に乗員が存在しないと判定する(ステップS204)。
このように、第2判定部35は、第1比較処理および第2比較処理では判定不能である場合に、判定不能であると判定された座席2に乗員が存在するか否かを、乗員との対話によって判定してもよい。
なお、第2判定部35は、第1比較処理および第2比較処理では判定不能である場合、安全性の観点から、乗員が存在すると判定してもよい。
〔6.その他の変形例〕
第2判定部35は、荷重センサ3の検出値の経時変化に基づく第3判定処理を行い、その結果、たとえば、「第4閾値≦Y≦第3閾値」であった場合に、荷重センサ3の検出値の大きさに基づく第2判定処理を行ってもよい。
また、ECU10は、必ずしも第1比較処理を行うことを要さず、第1判定部32による第1判定処理および第2判定部35による第2比較処理のみを行ってもよい。また、ECU10は、第1判定処理を行うことなく第1比較処理および第2比較処理を行ってもよいし、第1判定処理および第1比較処理を行うことなく第2比較処理を行ってもよい。ECU10は、第1判定処理、第1比較処理および第2比較処理のうち、乗員認識処理に用いる処理を乗員の操作等に応じて切り替えるモード切替部を備えていてもよい。
上述してきた実施形態および変形例では、座席2上の物体を検出するセンサとして、荷重センサ3を例に挙げて説明したが、座席2上の物体を検出するセンサは、荷重センサ3に限定されない。たとえば、座席2上の物体を検出するセンサは、静電容量式の着座センサであってもよい。着座センサは、静電容量の変化から生体を検知する非接触式のセンサであり、荷重センサ3と同様、座席2に設けられる。着座センサは、着座センサの電極と生体との間に生じる静電容量の変化を電気信号に変換して出力する。
座席2上の物体を検出するセンサとして上記着座センサを用いる場合、第2判定部35は、第2判定処理において、着座センサの検出値を第1閾値および第2閾値と比較する。また、第2判定部35は、第3判定処理において、着座センサの検出値の経時変化を人特徴モデル343と比較する。この場合の人特徴モデル343は、座席2に着座した乗員と着座センサの電極との間に生じる静電容量の変化の経時的な変化をモデリングした情報である。
その他、座席2上の物体を検出するセンサとしては、たとえば、遠赤外線センサやドップラセンサ等を用いることもできる。遠赤外線センサは、生体が発する遠赤外線を検知するセンサであり、ドップラセンサは、電波を物体に照射し、反射してきた電波の周波数と照射した電波の周波数とを比較することにより物体の動きを検知するセンサである。
車室内に設けられる座席2の個数、配置、形状等は、上述した例に限定されない。たとえば、上述した実施形態では、車両1がいわゆる2列シート車である場合を例に挙げて説明したが、車両1は3列シート車であってもよい。
また、上述した実施形態では、車両1がベンチシートタイプの後部座席2c〜2eを有する場合を例に挙げて説明したが、後部座席2c〜2eは、運転席2aや助手席2bと同じように、それぞれ独立した座面を有するタイプの座席であってもよい。
また、車両1は、たとえば、エンジン等の内燃機関を駆動源とする自動車であってもよいし、モータ等の電動機を駆動源とする電気自動車や燃料電池自動車等であってもよいし、それらの双方を駆動源とするハイブリッド自動車であってもよい。車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置を搭載することができる。車両1における車輪の駆動に関わる装置の方式、個数、及び、レイアウト等は、種々に設定することができる。
また、上述した実施形態では、車室内に設けられた全ての座席2a〜2eに対して荷重センサ3a〜3eが設けられることとしたが、荷重センサ3は、必ずしも全ての座席2に設けられることを要しない。たとえば、荷重センサ3は、後部座席2c〜2eにのみ設けられてもよいし、運転席2aにのみ設けられてもよい。
上述してきたように、実施形態にかかる乗員認識装置(一例として、ECU10)は、第1取得部31と、第1判定部32と、第2取得部33と、第2判定部35とを備える。第1取得部31は、撮像装置4によって撮像された車室内の画像を取得する。第1判定部32は、第1取得部31によって取得された画像に基づき、乗員が隠れている可能性がある物体が存在するか否かを判定する。第2取得部33は、車室内における座席上の物体を検出するセンサの検出値を取得する。第2判定部35は、第1判定部32によって乗員が隠れている可能性がある物体が存在すると判定された場合に、第2取得部33によって取得された検出値の経時変化に基づき、乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定する。
このため、実施形態にかかる乗員認識装置によれば、たとえば、乗員が毛布を頭から被っている場合や、後ろ向きに設置されたチャイルドシートに子供が座っている場合のように、乗員が存在するか否かを画像で判別することが困難な場合であっても、その乗員の有無を判定することができる。
実施形態に係る乗員認識装置は、座席に乗員が着座している場合におけるセンサ(一例として、荷重センサ3)の検出値の経時変化をモデリングした人特徴モデル343を記憶する記憶部34を備えていてもよい。この場合、第2判定部35は、第2取得部33によって取得された検出値の経時変化を人特徴モデル343と比較することにより、乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定してもよい。これにより、物体に隠れている乗員の存在を精度良く判定することができる。
人特徴モデル343は、心拍に起因する検出値の揺らぎおよび呼吸に起因する検出値の揺らぎの少なくとも一方を含んでいてもよい。このように、生物特有の揺らぎを含む人特徴モデル343を用いることで、生物と無生物とを切り分けることができることから、物体に隠れている乗員の存在を精度良く判定することができる。
第2判定部35は、検出値の大きさを閾値と比較する第1比較処理および第2取得部33によって取得された検出値の経時変化を人特徴モデル343と比較する第2比較処理の結果に基づき、乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定してもよい。これにより、乗員の有無の判定精度をさらに向上させることができる。
車室内における座席上の物体を検出するセンサは、荷重センサであってもよい。荷重センサを用いることで、検出値の経時変化を精度良く捉えることができる。
以上、本発明の実施形態を例示したが、上記実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上記実施形態や変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、各実施形態や各変形例の構成や形状は、部分的に入れ替えて実施することも可能である。
1…車両、2…座席、3…荷重センサ、4…撮像装置、7…エアバッグ装置、8…警報装置、10…ECU、20…車内ネットワーク、31…第1取得部、32…第1判定部、33…第2取得部、34…記憶部、35…第2判定部、36…車載機器制御部、100…制御システム。

Claims (5)

  1. 撮像装置によって撮像された車室内の画像を取得する第1取得部と、
    前記第1取得部によって取得された前記画像に基づき、乗員が隠れている可能性がある物体が存在するか否かを判定する第1判定部と、
    前記車室内における座席上の物体を検出するセンサの検出値を取得する第2取得部と、
    前記第1判定部によって前記乗員が隠れている可能性がある物体が存在すると判定された場合に、前記第2取得部によって取得された前記検出値の経時変化に基づき、前記乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定する第2判定部と
    を備える、乗員認識装置。
  2. 前記座席に乗員が着座している場合における前記センサの検出値の経時変化をモデリングした人特徴モデルを記憶する記憶部
    を備え、
    前記第2判定部は、
    前記第2取得部によって取得された前記検出値の経時変化を前記人特徴モデルと比較することにより、前記乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定する、請求項1に記載の乗員認識装置。
  3. 前記人特徴モデルは、
    心拍に起因する前記検出値の揺らぎおよび呼吸に起因する前記検出値の揺らぎの少なくとも一方を含む、請求項2に記載の乗員認識装置。
  4. 前記第2判定部は、
    前記検出値の大きさを閾値と比較する第1比較処理および前記第2取得部によって取得された前記検出値の経時変化を前記人特徴モデルと比較する第2比較処理の結果に基づき、前記乗員が隠れている可能性がある物体に乗員が隠れているか否かを判定する、請求項2または3に記載の乗員認識装置。
  5. 前記センサは、荷重センサである、請求項1〜4のいずれか一つに記載の乗員認識装置。
JP2018114879A 2018-06-15 2018-06-15 乗員認識装置 Pending JP2019217830A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018114879A JP2019217830A (ja) 2018-06-15 2018-06-15 乗員認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018114879A JP2019217830A (ja) 2018-06-15 2018-06-15 乗員認識装置

Publications (1)

Publication Number Publication Date
JP2019217830A true JP2019217830A (ja) 2019-12-26

Family

ID=69095290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018114879A Pending JP2019217830A (ja) 2018-06-15 2018-06-15 乗員認識装置

Country Status (1)

Country Link
JP (1) JP2019217830A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021124548A1 (ja) * 2019-12-20 2021-06-24
WO2023195060A1 (ja) * 2022-04-05 2023-10-12 三菱電機株式会社 乗員検知装置および乗員検知方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021124548A1 (ja) * 2019-12-20 2021-06-24
JP7154443B2 (ja) 2019-12-20 2022-10-17 三菱電機株式会社 車内監視装置、車内監視システム、及び車内監視方法
WO2023195060A1 (ja) * 2022-04-05 2023-10-12 三菱電機株式会社 乗員検知装置および乗員検知方法
JP7499997B2 (ja) 2022-04-05 2024-06-14 三菱電機株式会社 乗員検知装置および乗員検知方法

Similar Documents

Publication Publication Date Title
JP4210696B2 (ja) 座席コンポーネントを調節するための装置
EP3326869B1 (en) Passenger information detection device and program
JP4898261B2 (ja) 対象物検出システム、作動装置制御システム、車両、対象物検出方法
CN113459982B (zh) 用于乘员分类和基于此调节气囊展开的系统和方法
JP2008269496A (ja) 乗員情報検出システム、乗員拘束システム、車両
US20190329671A1 (en) Occupant information determination apparatus
JP2007022401A (ja) 乗員情報検出システム、乗員拘束装置、車両
JP2005526971A (ja) 車両安全装置
US10723240B2 (en) Passenger detection device and passenger detection program
JP6969254B2 (ja) 画像処理装置及びプログラム
CN107585125B (zh) 车辆仪表板安全部件
JP2006176075A (ja) 検知システム、乗員保護装置、車両、検知方法
US11330189B2 (en) Imaging control device for monitoring a vehicle occupant
US20150158447A1 (en) Vehicle emergency call apparatus
US20190375312A1 (en) Method and system for controlling a state of an occupant protection feature for a vehicle
JP2019523726A (ja) 選択画像データ表示を有する車両表示
JP2021066275A (ja) 車両制御装置
JP2019217830A (ja) 乗員認識装置
US7231051B2 (en) Detection of viewing direction by microphone
JP6686448B2 (ja) 車両用ドア開閉装置
CN113291247A (zh) 车辆后视镜的控制方法、装置、车辆及存储介质
JP2018156212A (ja) 体格判定装置、体格判定方法およびプログラム
JP7087809B2 (ja) 事故対応装置
JP2019060608A (ja) 乗員体格判定装置
JP2020194294A (ja) 関節点検出装置