JP6804416B2 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
JP6804416B2
JP6804416B2 JP2017183383A JP2017183383A JP6804416B2 JP 6804416 B2 JP6804416 B2 JP 6804416B2 JP 2017183383 A JP2017183383 A JP 2017183383A JP 2017183383 A JP2017183383 A JP 2017183383A JP 6804416 B2 JP6804416 B2 JP 6804416B2
Authority
JP
Japan
Prior art keywords
unit
monitoring
image
display
detection position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017183383A
Other languages
English (en)
Other versions
JP2019061329A (ja
Inventor
勝又 健一
健一 勝又
清 那須
清 那須
英和 大橋
英和 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Yazaki Corp
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp, Hitachi Industry and Control Solutions Co Ltd filed Critical Yazaki Corp
Priority to JP2017183383A priority Critical patent/JP6804416B2/ja
Priority to US16/132,661 priority patent/US10949688B2/en
Priority to DE102018216026.0A priority patent/DE102018216026A1/de
Priority to CN201811104774.3A priority patent/CN109561277B/zh
Publication of JP2019061329A publication Critical patent/JP2019061329A/ja
Application granted granted Critical
Publication of JP6804416B2 publication Critical patent/JP6804416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/29Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area inside the vehicle, e.g. for viewing passengers or cargo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Description

本発明は、監視システムに関する。
車両に搭載される従来の監視システムとして、例えば、特許文献1には、検出手段と、判定手段と、通知手段と、停車手段とを備える運転者監視装置が開示されている。検出手段は、カメラにより撮影された車両の運転席の画像に基づいて、運転者の姿勢崩れを検出する。判定手段は、検出手段により検出された運転者の姿勢崩れが、運転者の癖による姿勢崩れか否か判定する。通知手段は、判定手段により癖による姿勢崩れと判定された場合と、判定手段により癖以外の姿勢崩れと判定された場合とで、異なる態様により運転者に姿勢崩れに関する通知を行う。停車手段は、通知手段により注意を喚起した後に運転者の姿勢が改善されず、かつ、予め定められた条件が成立した場合に、車両を安全に停車させる信号を車両制御装置へ出力する。
特開2016−038793号公報
ところで、上述の特許文献1に記載の運転者監視装置は、例えば、適正な監視を確保すべく、監視対象者等に対してシステムの現在の動作状態を適正に把握させることができる構成が望まれている。
本発明は、上記の事情に鑑みてなされたものであって、動作状態を把握させることができる監視システムを提供することを目的とする。
上記目的を達成するために、本発明に係る監視システムは、車両の室内の監視対象者を含む画像を撮像する撮像部と、前記撮像部によって撮像された前記画像に基づいて前記監視対象者の監視対象部位を検出し、検出した前記監視対象部位の位置である対象部位検出位置に基づいて前記監視対象者の状態を監視する監視部と、前記車両の室内に設けられ、予め設定された監視適正位置に対する前記対象部位検出位置の相対位置を表す視覚情報を表示する表示部とを備え、前記表示部は、前記視覚情報として、前記監視適正位置に対する前記対象部位検出位置の相対位置に応じて表示色が変化する状態表示画像に加えて、前記監視適正位置に対して前記対象部位検出位置の相対位置が相対的に離れていることを報知するための報知図形を構成する報知画像を表示することを特徴とする。
また、上記監視システムでは、前記表示部は、前記監視適正位置に対する前記対象部位検出位置の相対位置が相対的に近い場合、前記報知画像を前記状態表示画像と同化して表示し、前記監視適正位置に対する前記対象部位検出位置の相対位置が相対的に離れている場合、前記報知画像を前記状態表示画像に重畳し当該状態表示画像から浮き出したように表示するものとすることができる。
また、上記監視システムでは、前記表示部は、前記視覚情報として、前記監視適正位置を表す適正位置画像に、前記対象部位検出位置を表す検出位置画像を組み合わせて表示するものとすることができる。
また、上記監視システムでは、前記車両の天井の前記室内側の面に設けられ、前記撮像部、前記監視部、及び、前記表示部が組み付けられる筐体を備えるものとすることができる。
本発明に係る監視システムは、監視部が撮像部によって撮像された画像に基づいて監視対象者の監視対象部位を検出し、検出した監視対象部位の対象部位検出位置に基づいて監視対象者の状態を監視する。そして、監視システムは、表示部が予め設定された監視適正位置に対する対象部位検出位置の相対位置を表す視覚情報を表示する。この結果、監視システムは、当該視覚情報によって監視部が適正に監視対象者の監視対象部位を検出しているか否かを把握させることができるので、監視対象者に対して動作状態を把握させることができる、という効果を奏する。
図1は、実施形態に係る監視システムが適用される車両の室内の概略構成を表す模式図である。 図2は、実施形態に係る監視システムの概略構成を表すブロック図である。 図3は、実施形態に係る監視システムの外観を表す斜視図である。 図4は、実施形態に係る監視システムの表示部における表示態様の一例を表す模式図である。 図5は、実施形態に係る監視システムの表示部における表示色の変化の一例を表す模式図である。 図6は、実施形態に係る監視システムの表示部における報知画像の一例を表す模式図である。 図7は、実施形態に係る監視システムの表示部における報知画像の一例を表す模式図である。 図8は、実施形態に係る監視システムの表示部における表示態様の一例を表す模式図である。 図9は、実施形態に係る監視システムの表示部における表示態様の一例を表す模式図である。
以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
[実施形態]
図1、図2、図3に示す本実施形態に係る監視システム1は、車両100に搭載され、当該車両100の室内101の監視対象者OBを監視し、監視対象者OBが異常である場合に様々な処理を行う車載システム(車室内監視システム)である。監視対象者OBは、監視システム1による監視の対象者である。監視対象者OBは、車両100の室内101に乗車した搭乗者であり、車両100の運転者や運転者以外の同乗者を含む。本実施形態の監視対象者OBは、一例として、運転者であるものとして説明する。そして、本実施形態の監視システム1は、全体が車両100の天井102の室内101側の面に設けられ、種々の機能を統合したオーバーヘッドモジュール(OHM:Over−Head Module)を構成する。以下、各図を参照して監視システム1の構成について詳細に説明する。
具体的には、監視システム1は、筐体2と、撮像部3と、出力部4と、照明部5と、操作部6と、外部接続部7と、制御部8とを備える。なお、オーバーヘッドモジュールを構成する監視システム1は、この他、例えば、無線通信部、アンテナ、電源分配部等を備えていてもよい。
筐体2は、監視システム1を構成する各部を収容するものである。筐体2は、複数の部材が組み合わさって全体として中空箱状に形成される。筐体2は、絶縁性を有する合成樹脂によって形成される。ここでは、筐体2は、内部に撮像部3、出力部4、照明部5、操作部6、外部接続部7、及び、制御部8が組み付けられこれらを収容し、オーバーヘッドモジュールとしてユニット化する。筐体2は、内部に収容した撮像部3、出力部4、照明部5、操作部6、外部接続部7の一部が外面に露出している。そして、本実施形態の筐体2は、車両100の天井(ルーフパネル)102の室内101側の面に設けられる。天井102は、ピラー等を介して車両ボデー本体に連結され当該車両ボデー本体の鉛直方向上側に支持された構造体である。車両100は、天井102を鉛直方向上側の境界として、室内101と室外とに領域分けされる。ここでは、筐体2は、例えば、天井102とウインドシールド103との交差部分でかつ車両100の車幅方向の略中央位置に設けられる。ウインドシールド103は、車両100の前部に設けられ室内101と室外との境界となるものであり、フロントガラスとも呼ばれる。典型的には、筐体2は、車両100を操舵するための操舵部材であるステアリング104と対面する運転席105に着座した監視対象者OBである運転者から手が届く位置に設けられる。
撮像部3は、車両100の室内101の監視対象者OBである運転者を含む画像を撮像するものである。本実施形態の撮像部3は、監視対象者OBの状態として、運転席105に着座した運転者の3次元位置を計測可能な3次元画像を撮像する機能を有する。撮像部3は、例えば、ステレオカメラ等の撮像装置によって構成される。撮像部3は、例えば、ステレオカメラのレンズが筐体2の外面に露出し、光軸が室内101の運転席105側を向くようにして当該筐体2に設けられる。撮像部3は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。例えば、撮像部3は、撮像した画像を制御部8に出力する。なお、撮像部3は、ステレオカメラの他、3次元画像を撮像する機能を有するTOF(Time of Flight)カメラやその他の単眼カメラによって構成されてもよい。
出力部4は、車両100の室内101に向けて、種々の情報を出力するものである。ここでは、出力部4は、表示部41と、スピーカ42とを含んで構成される。表示部41は、視覚情報(図形情報、文字情報)を出力する視覚情報表示装置であり、例えば、薄型の液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等によって構成される。表示部41は、視覚情報を表示する表示面が筐体2の外面に露出し、室内101の運転席105側を向くようにして当該筐体2に設けられる。表示部41は、典型的には、監視対象者OBから目視可能な位置に設けられる。スピーカ42は、聴覚情報(音声情報、音情報)を出力する聴覚情報出力装置である。出力部4を構成する表示部41、スピーカ42は、それぞれ、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。例えば、表示部41は、撮像部3から制御部8を介して出力された画像等の視覚情報を表示する。なお、出力部4は、表示部41、スピーカ42の他、例えば、車両100のハンドル振動、座席振動、ペダル反力などの触覚情報等を出力する触覚情報出力装置等を含んで構成されてもよい。
照明部5は、車両100の室内101を照明するものであり、例えば、マップランプ等である。照明部5は、例えば、白色光、赤色光、青色光、緑色光等、種々の発光色で発光するLED(Light Emitting Diode)素子等の光源を含んで構成される。照明部5は、例えば、照明光を照射する照射面が筐体2の外面に露出し、室内101側を向くようにして当該筐体2に設けられる。照明部5は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。例えば、照明部5は、制御部8によって操作部6に対する操作入力に応じて制御され点灯、あるいは、消灯する。
操作部6は、車両100の室内101側から種々の操作を入力可能な操作子である。操作部6は、例えば、押しボタン、静電容量式タッチスイッチや赤外線センサ等の非接触式センサ等によって構成される。操作部6は、操作が入力される部分が筐体2の外面において搭乗者の手が届く位置に露出し、室内101側を向くようにして当該筐体2に設けられる。ここでは、操作部6は、一例として、照明部5の点灯、消灯を切り替える照明操作部61、表示部41による表示内容を切り替える表示操作部62、監視システム1の各種設定を行う設定操作部63等を含んで構成される。操作部6を構成する照明操作部61、表示操作部62、設定操作部63は、それぞれ、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。例えば、操作部6は、操作入力に応じて操作信号を制御部8に出力する。
外部接続部7は、筐体2の外部の電気機器が電気的に接続される部分である。外部接続部7は、種々の形式のコネクタやインターフェース部によって構成される。ここでは、外部接続部7は、例えば、車両100の各部を統括的に制御する車両ECU(Electronic Control Unit)や車両100の天井102の室内101側の面の後部座席側の位置に設けられるリヤモジュール等が電気的に接続される。外部接続部7は、制御部8、及び、筐体2の外部の電気機器に電気的に接続され、相互に電気信号を授受可能である。
制御部8は、監視システム1の各部を統括的に制御する部分である。制御部8は、監視対象者OBの状態監視や様々な支援に関する種々の演算処理を実行する。制御部8は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)及びインターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御部8は、撮像部3、出力部4、照明部5、操作部6、及び、外部接続部7が電気的に接続される。制御部8は、撮像された画像に対応した画像信号、各部を駆動させるための駆動信号等の各種の電気信号を各部との間で相互に授受することができる。
具体的には、制御部8は、機能概念的に、記憶部81、及び、処理部82を含んで構成される。記憶部81、及び、処理部82は、電気的に接続されている各種機器との間で種々の情報を授受することができる。記憶部81は、メモリ等の記憶装置である。記憶部81は、制御部8での各種処理に必要な条件や情報、制御部8で実行する各種プログラム等が格納されている。そして、記憶部81は、表示部41に表示する一部の画像等の視覚情報やスピーカ42で出力する音声等の聴覚情報も記憶している。また、記憶部81は、撮像部3が撮像した画像に関する情報や外部接続部7を介して取得された各種情報を一時的に記憶することもできる。記憶部81は、処理部82(後述する監視部83(検出部83a、判定部83b)、動作制御部84)等によってこれらの情報が必要に応じて読み出される。処理部82は、各種入力信号等に基づいて、記憶部81に記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する。処理部82は、より詳細には、機能概念的に、監視部83、及び、動作制御部84を含んで構成される。
監視部83は、監視処理を実行可能な部分である。監視処理とは、撮像部3によって撮像された画像に基づいて監視対象者OBの状態を監視する処理である。監視部83は、撮像部3によって撮像された画像に基づいて監視対象者OBの監視対象部位TGを検出する。そして、監視部83は、検出した監視対象部位TGの位置である対象部位検出位置に基づいて監視対象者OBの状態を監視する。ここで、監視部83が検出する監視対象部位TGは、監視対象者OBにおいて監視の対象となる部位であり、例えば、監視対象者OBの頭部であるがこれに限らない。
より具体的には、監視部83は、機能概念的に、検出部83a、及び、判定部83bを含んで構成される。検出部83a、及び、判定部83bは、それぞれ相互に電気的に接続されると共に、記憶部81、動作制御部84とも電気的に接続される。さらに、検出部83aは、撮像部3とも電気的に接続される。検出部83aは、撮像部3によって撮像された画像に基づいて監視対象者OBの監視対象部位TG、ここでは、頭部の3次元位置(位置座標)を検出する部分である。検出部83aは、種々の公知の画像処理技術や画像認識技術を用いて、監視対象部位TGとして監視対象者OBの頭部を検出し3次元位置を検出する。検出部83aは、撮像部3によって撮像された画像に基づいてリアルタイムで監視対象者OBの監視対象部位TGとして頭部の3次元位置を検出する。判定部83bは、検出部83aが検出した監視対象部位TGの3次元位置である対象部位検出位置に基づいて監視対象者OBの状態を判定する部分である。判定部83bは、検出部83aが検出した監視対象部位TGの対象部位検出位置や当該対象部位検出位置の動きに基づいて種々の公知の手法を用いて監視対象者OBの状態を判定する。判定部83bは、例えば、監視対象者OBの状態として、正常状態、異常状態等を区別して判定する。つまり、判定部83bは、例えば、監視対象者OBの頭部の位置や当該頭部の動きに基づいて、監視対象者OBの正常状態や、監視対象者OBの異常状態を区別して判定する。判定部83bは、例えば、対象部位検出位置(言い換えれば頭部の位置)が異常な動き方をした場合に監視対象者OBが異常状態であるものと判定する。
動作制御部84は、動作制御処理を実行可能な部分である。動作制御処理とは、撮像部3、出力部4、照明部5、及び、操作部6等の監視システム1の各部の動作を制御する処理である。動作制御部84は、撮像部3、出力部4(表示部41、スピーカ42)、照明部5、操作部6(照明操作部61、表示操作部62、設定操作部63)、外部接続部7、記憶部81、監視部83(検出部83a、判定部83b)と電気的に接続される。動作制御部84は、撮像部3に駆動信号を出力することで撮像部3の動作を制御し、監視対象者OBを含む画像の撮像を開始させたり当該撮像を終了させたりすることができる。また、動作制御部84は、出力部4(表示部41、スピーカ42)に駆動信号を出力することで出力部4の動作を制御し、表示部41に視覚情報を表示させたりスピーカ42に聴覚情報を出力させたりすることができる。また、動作制御部84は、照明部5に駆動信号を出力することで照明部5の動作を制御し、照明部5を点灯させたり照明部5を消灯させたりすることができる。さらに、動作制御部84は、操作部6(照明操作部61、表示操作部62、設定操作部63)から入力された操作信号に基づいて操作部6に対する操作入力を受け付け、照明部5の点灯、消灯を切り替えたり表示部41による表示内容を切り替えたり各種設定を行ったりすることができる。また、動作制御部84は、例えば、判定部83bによる監視対象者OBの状態の判定結果に基づいて出力部4等の各部の動作を制御することもできる。この場合、動作制御部84は、例えば、判定部83bによる監視対象者OBの状態の判定結果に基づいて、出力部4を制御し、注意喚起や警告を含む種々の情報を出力させるようにしてもよい。例えば、動作制御部84は、判定部83bによって監視対象者OBの状態が正常状態であるものと判定された場合、出力部4から監視に関する情報の出力を行わないようにしてもよい。一方、動作制御部84は、判定部83bによって監視対象者OBの状態が異常状態であるものと判定された場合、出力部4を制御し、監視対象者OBに対して注意喚起や警告を表す情報を出力するようにしてもよい。また、動作制御部84は、出力部4に警告を出力させた後、予め定められた支援開始条件(例えば、所定時間の経過等)が成立したら、外部接続部7を介して車両ECUに支援要求信号を出力し、車両100の自動減速や自動停止、緊急連絡先への通報等の各種支援を行わせるようにしてもよい。
そして、本実施形態の動作制御部84は、表示部41を制御し、動作状態表示処理を実行可能である。動作状態表示処理とは、予め設定された監視適正位置に対する対象部位検出位置の相対位置を表す視覚情報(以下、「動作状態視覚情報」という場合がある。)を表示部41に表示させる処理である。表示部41は、動作制御部84によって当該動作状態表示処理が実行されることで、図4、図8、図9に例示するように、監視適正位置に対する対象部位検出位置の相対位置を表す当該動作状態視覚情報を表示する。ここで、監視適正位置は、監視部83によって監視対象者OBの状態監視を適正に行うことができる位置として、当該監視対象者OBの着座位置等に応じて車両100の室内101に設定される仮想の位置であり、所定の範囲を有する空間領域である。監視適正位置は、例えば、実車評価等に応じて予め設定される。監視適正位置は、例えば、監視対象者OBである運転者が運転席105に着座し正常に車両100を運転している状態における頭部の位置の分布を統計的に把握しこれを基準として予め設定される。対象部位検出位置は、上述したように、撮像部3が撮像した監視対象者OBを含む画像に基づいて検出部83aによって検出された監視対象部位TG、ここでは頭部の3次元位置である。動作制御部84は、表示部41に動作状態視覚情報を常時表示させてもよいし、操作部6に対する操作入力に応じて要求に応じて適宜表示させてもよい。
表示部41は、例えば、図4に例示するように、動作状態視覚情報として、監視適正位置に対する対象部位検出位置の相対位置に応じて表示色が変化する状態表示画像I1を表示するようにしてもよい。状態表示画像I1は、例えば、表示部41の表示面に略矩形帯状に表示される画像である。状態表示画像I1は、例えば、図5に例示するように、監視適正位置に対する対象部位検出位置の相対位置が相対的に近いほど濃い表示色(図5中の「良」側の表示色)で表示される。一方、状態表示画像I1は、監視適正位置に対する対象部位検出位置の相対位置が相対的に離れるほど薄い表示色(図5中の「悪」側の表示色)で表示される。言い換えれば、状態表示画像I1は、濃い表示色で表示されることで監視適正位置に対する対象部位検出位置の相対位置が相対的に近いことを表し、薄い表示色で表示されることで監視適正位置に対する対象部位検出位置の相対位置が相対的に離れていることを表す。動作制御部84は、記憶部81に記憶されている状態表示画像I1を読み出し、予め設定されている監視適正位置と、検出部83aによって検出された監視対象部位TGの対象部位検出位置との相対的な位置関係に応じた表示色で表示部41に表示させる。動作制御部84は、撮像部3によって撮像され検出部83aによって検出された監視対象部位TGの対象部位検出位置の変化に応じてリアルタイムで状態表示画像I1の表示色を変化させて表示部41に表示させる。
またさらに、表示部41は、例えば、図6、図7に例示するように、動作状態視覚情報として、上述の状態表示画像I1に加えて、報知画像I1aを表示するようにしてもよい。報知画像I1aは、予め設定された監視適正位置に対して対象部位検出位置の相対位置が相対的に離れていることを報知するための報知図形を構成する画像である。報知画像I1aは、例えば、運転者等に直感的に認識させ易い比較的に簡便な形体の図形であることが好ましく、図7等の例では「×」の形状を模した図形であるがこれに限らない。ここでは、動作制御部84は、例えば、記憶部81に記憶されている報知画像I1aを読み出し、監視適正位置に対する対象部位検出位置の相対位置が相対的に近い場合の濃い表示色(図5中の「良」側の表示色)で報知画像I1aを表示部41に表示させる。この場合、報知画像I1aは、図6に示すように、状態表示画像I1が濃い表示色で表示されている場合、すなわち、監視適正位置に対する対象部位検出位置の相対位置が相対的に近い場合には、当該状態表示画像I1と同化して表示され、ほぼ視認できない状態となる。一方、報知画像I1aは、図7に示すように、状態表示画像I1が薄い表示色で表示されている場合、すなわち、監視適正位置に対する対象部位検出位置の相対位置が相対的に離れている場合には、当該状態表示画像I1に重畳され当該状態表示画像I1から浮き出したように表示され、相対的に視認しやすい状態となる。上記のように、表示部41は、状態表示画像I1に報知画像I1aを組み合わせて表示することで、監視適正位置に対する対象部位検出位置の相対位置を表す動作状態視覚情報を、より直感的に素早く認識させ易く表示するこができる。
また、表示部41は、例えば、図8に例示するように、動作状態視覚情報として、監視適正位置を表す適正位置画像I21に、対象部位検出位置を表す検出位置画像I22を組み合わせて表示してもよい。図8に例示する適正位置画像I21は、監視適正位置を囲う枠状の画像である。検出位置画像I22は、監視対象者OBの監視対象部位TGである頭部を模した画像であり、ここでは、略楕円形状の画像である。適正位置画像I21は、基本的には、表示位置が固定された静止画像である。これに対して、検出位置画像I22は、撮像部3によって撮像され検出部83aによって検出された監視対象部位TGの対象部位検出位置の変化に応じて表示位置が変化する動画像である。表示部41は、適正位置画像I21と検出位置画像I22との相対的な位置関係によって監視適正位置に対する対象部位検出位置の相対位置を平面表示する。ここでは、表示部41は、適正位置画像I21、検出位置画像I22に組み合わせてステアリング104を模したステアリング画像I23や運転席105を模したシート画像I24も合わせて表示する。これにより、監視システム1は、監視適正位置に対する対象部位検出位置の相対位置を、より感覚的に分かり易いようにすることができる。検出位置画像I22は、適正位置画像I21内に表示されることで対象部位検出位置が監視適正位置内にあることを表し、適正位置画像I21外に表示されることで対象部位検出位置が監視適正位置外にあることを表す。動作制御部84は、記憶部81に記憶されている適正位置画像I21、検出位置画像I22、ステアリング画像I23、シート画像I24を読み出し、予め設定されている監視適正位置と、検出部83aによって検出された監視対象部位TGの対象部位検出位置との相対的な位置関係に応じて表示部41に表示させる。動作制御部84は、撮像部3によって撮像され検出部83aによって検出された監視対象部位TGの対象部位検出位置の変化に応じてリアルタイムで検出位置画像I22の表示位置を変化させて表示部41に表示させる。
また、表示部41は、例えば、図9に例示するように、動作状態視覚情報として、監視適正位置を表す適正位置画像I31に、対象部位検出位置を表す検出位置画像I32を組み合わせて表示してもよい。図9に例示する適正位置画像I31は、監視適正位置を囲う枠状の画像である。検出位置画像I32は、監視対象者OBの監視対象部位TGである頭部の位置を表すポインタ画像である。適正位置画像I31は、適正位置画像I21と同様に、基本的には、表示位置が固定された静止画像である。これに対して、検出位置画像I32は、検出位置画像I22と同様に、撮像部3によって撮像され検出部83aによって検出された監視対象部位TGの対象部位検出位置の変化に応じて表示位置が変化する動画像である。ここでは、表示部41は、適正位置画像I31と検出位置画像I32との相対的な位置関係によって監視適正位置に対する対象部位検出位置の相対位置を立体表示する。ここでは、表示部41は、適正位置画像I31、検出位置画像I32に組み合わせて、撮像部3によって撮像された画像(動画像)自体も合わせて表示する。これにより、監視システム1は、監視適正位置に対する対象部位検出位置の相対位置を、より感覚的に分かり易いようにすることができる。検出位置画像I32は、適正位置画像I31内に表示されることで対象部位検出位置が監視適正位置内にあることを表し、適正位置画像I31外に表示されることで対象部位検出位置が監視適正位置外にあることを表す。動作制御部84は、記憶部81に記憶されている適正位置画像I31、検出位置画像I32、撮像部3によって撮像された画像を読み出し、予め設定されている監視適正位置と、検出部83aによって検出された監視対象部位TGの対象部位検出位置との相対的な位置関係に応じて表示部41に表示させる。またこの場合、動作制御部84は、撮像部3によって撮像された画像をそのまま表示部41に表示させるようにしてもよい。動作制御部84は、撮像部3によって撮像され検出部83aによって検出された監視対象部位TGの対象部位検出位置の変化に応じてリアルタイムで検出位置画像I32の表示位置を変化させて表示部41に表示させる。
以上で説明した監視システム1は、監視部83が撮像部3によって撮像された画像に基づいて監視対象者OBの監視対象部位TGを検出し、検出した監視対象部位TGの対象部位検出位置に基づいて監視対象者OBの状態を監視する。そして、監視システム1は、表示部41が予め設定された監視適正位置に対する対象部位検出位置の相対位置を表す視覚情報を表示する。この結果、監視システム1は、当該視覚情報によって監視対象者OB等に対して監視部83が適正に監視対象者OBの監視対象部位TGを検出しているか否かを把握させることができる。例えば、監視システム1は、監視対象者OBが監視対象部位TGを意図的に動かした際にこれに応じて動作状態視覚情報が変化する場合には、監視部83が監視対象者OBの監視対象部位TGを適正に検出していることを把握させることができる。一方、監視システム1は、監視対象者OBが監視対象部位TGを意図的に動かしているにもかかわらず動作状態視覚情報に変化がない場合には、監視対象者OB等に対して監視部83が監視対象者OBの監視対象部位TGを適正に検出していないことを把握させることができる。この結果、監視システム1は、監視対象者OBに対して動作状態を把握させることができる。これにより、監視システム1は、例えば、監視対象者OBが検出部83aによる監視対象部位TGの検出の妨げになるようなもの(例えば、ツバの大きな帽子、マスク、大きなサングラス等)を身に着けているような場合にこれらを外すように促すことができる。また、監視システム1は、例えば、監視対象者OBに対して監視対象部位TGを監視適正位置に位置させるように促すことができる。これにより、監視システム1は、監視部83による監視対象者OBの状態監視をより適正に行うことができる。
例えば、以上で説明した監視システム1は、表示部41が、視覚情報として、監視適正位置に対する対象部位検出位置の相対位置に応じて表示色が変化する状態表示画像I1を表示する。これにより、監視システム1は、状態表示画像I1の表示色によって監視適正位置に対する対象部位検出位置の相対位置の変化を簡易的に表すことができる。つまり、監視システム1は、監視対象部位TGの動きに伴って撮像部3によって撮像され検出部83aによって検出された監視対象部位TGの対象部位検出位置が適正に変化しているか否かを簡易的に表し認識させることができる。この結果、監視システム1は、監視対象者OBに対して簡易的に動作状態を把握させることができる。
また例えば、以上で説明した監視システム1は、表示部41が、視覚情報として、監視適正位置を表す適正位置画像I21、I31に、対象部位検出位置を表す検出位置画像I22、I32を組み合わせて表示してもよい。この場合、監視システム1は、適正位置画像I21、I31と検出位置画像I22、I32との相対的な位置関係によって監視適正位置に対する対象部位検出位置の相対位置を分かり易く表すことができる。つまり、監視システム1は、監視対象部位TGの動きに伴って撮像部3によって撮像され検出部83aによって検出された監視対象部位TGの対象部位検出位置が適正に変化しているか否かを分かり易く表し認識させることができる。この結果、監視システム1は、監視対象者OBに対して動作状態をより分かり易く把握させることができる。
さらに、以上で説明した監視システム1は、撮像部3、出力部4、照明部5、操作部6、外部接続部7、制御部8を含む各部が筐体2に設けられるので、当該監視システム1全体をオーバーヘッドモジュールとしてユニット化することができる。この構成により、監視システム1は、車両100に対する搭載性を向上することができる。
なお、上述した本発明の実施形態に係る監視システムは、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。
以上の説明では、監視部83は、一例として車両100の室内101の監視対象者OBとして、運転席105に着座した運転者の状態を監視するものとして説明したがこれに限らない。監視対象者OBは、車両100の運転者以外の同乗者であってもよい。また、監視対象部位TGは、監視対象者OBの頭部であるものとして説明したがこれに限らず、例えば、腕等であってもよい。
以上の説明では、監視システム1は、全体が車両100の天井102の室内101側の面に設けられ、オーバーヘッドモジュールを構成するものとして説明したがこれに限らない。監視システム1は、例えば、制御部8が筐体2の外部に設けられ、配索材を介して各部と電気的に接続される構成であってもよく、例えば、制御部8が車両100の各部を統括的に制御する車両ECUによって兼用されて構成されてもよい。また、表示部41、スピーカ42は、例えば、車両100に搭載されたナビゲーションシステムのディスプレイやスピーカ等が兼用されてもよい。
1 監視システム
2 筐体
3 撮像部
41 表示部
83 監視部
100 車両
101 室内
102 天井
I1 状態表示画像
I21、I31 適正位置画像
I22、I32 検出位置画像
OB 監視対象者
TG 監視対象部位

Claims (4)

  1. 車両の室内の監視対象者を含む画像を撮像する撮像部と、
    前記撮像部によって撮像された前記画像に基づいて前記監視対象者の監視対象部位を検出し、検出した前記監視対象部位の位置である対象部位検出位置に基づいて前記監視対象者の状態を監視する監視部と、
    前記車両の室内に設けられ、予め設定された監視適正位置に対する前記対象部位検出位置の相対位置を表す視覚情報を表示する表示部とを備え
    前記表示部は、前記視覚情報として、前記監視適正位置に対する前記対象部位検出位置の相対位置に応じて表示色が変化する状態表示画像に加えて、前記監視適正位置に対して前記対象部位検出位置の相対位置が相対的に離れていることを報知するための報知図形を構成する報知画像を表示することを特徴とする、
    監視システム。
  2. 前記表示部は、前記監視適正位置に対する前記対象部位検出位置の相対位置が相対的に近い場合、前記報知画像を前記状態表示画像と同化して表示し、前記監視適正位置に対する前記対象部位検出位置の相対位置が相対的に離れている場合、前記報知画像を前記状態表示画像に重畳し当該状態表示画像から浮き出したように表示する
    請求項1に記載の監視システム。
  3. 前記表示部は、前記視覚情報として、前記監視適正位置を表す適正位置画像に、前記対象部位検出位置を表す検出位置画像を組み合わせて表示する、
    請求項1又は請求項2に記載の監視システム。
  4. 前記車両の天井の前記室内側の面に設けられ、前記撮像部、前記監視部、及び、前記表示部が組み付けられる筐体を備える、
    請求項1乃至請求項3のいずれか1項に記載の監視システム。
JP2017183383A 2017-09-25 2017-09-25 監視システム Active JP6804416B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017183383A JP6804416B2 (ja) 2017-09-25 2017-09-25 監視システム
US16/132,661 US10949688B2 (en) 2017-09-25 2018-09-17 Monitoring system for person in a vehicle
DE102018216026.0A DE102018216026A1 (de) 2017-09-25 2018-09-20 Überwachungssystem
CN201811104774.3A CN109561277B (zh) 2017-09-25 2018-09-21 监视系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017183383A JP6804416B2 (ja) 2017-09-25 2017-09-25 監視システム

Publications (2)

Publication Number Publication Date
JP2019061329A JP2019061329A (ja) 2019-04-18
JP6804416B2 true JP6804416B2 (ja) 2020-12-23

Family

ID=65638866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017183383A Active JP6804416B2 (ja) 2017-09-25 2017-09-25 監視システム

Country Status (4)

Country Link
US (1) US10949688B2 (ja)
JP (1) JP6804416B2 (ja)
CN (1) CN109561277B (ja)
DE (1) DE102018216026A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6969493B2 (ja) * 2018-05-16 2021-11-24 株式会社Jvcケンウッド 映像出力装置、映像出力方法、及びコンピュータプログラム
JP6782283B2 (ja) * 2018-07-03 2020-11-11 矢崎総業株式会社 監視システム
JP6881401B2 (ja) * 2018-07-09 2021-06-02 株式会社デンソー 異常判定装置
US11345298B2 (en) * 2019-12-26 2022-05-31 Panasonic Intellectual Property Management Co., Ltd. Driver monitoring device and driver monitoring method

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6792342B2 (en) * 1995-06-07 2004-09-14 Automotive Technologies International, Inc. Apparatus and method for controlling a vehicular component
WO2000044580A1 (en) * 1999-01-27 2000-08-03 Compumedics Sleep Pty. Ltd. Vigilance monitoring system
JP4232462B2 (ja) * 2001-05-28 2009-03-04 三菱電機株式会社 移動体用表示装置
US6752444B2 (en) * 2001-05-28 2004-06-22 Mitsubishi Denki Kabushiki Kaisha Device installation apparatus for moving body
US6947071B2 (en) * 2002-11-13 2005-09-20 Kirstin Eichmann Vehicle compartment monitor
JP3947726B2 (ja) * 2003-05-22 2007-07-25 クラリオン株式会社 車載用表示制御装置、車載用表示装置、表示制御方法、制御プログラムおよび記録媒体
WO2004108466A1 (en) * 2003-06-06 2004-12-16 Volvo Technology Corporation Method and arrangement for controlling vehicular subsystems based on interpreted driver activity
JP2007111247A (ja) * 2005-10-20 2007-05-10 Nissan Motor Co Ltd 運転者状態表示装置、および運転者状態表示方法
JP4832321B2 (ja) * 2007-01-26 2011-12-07 三洋電機株式会社 カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
JP2009113621A (ja) * 2007-11-06 2009-05-28 Toyota Motor Corp 乗員画像撮像装置、運転支援装置
US8116528B2 (en) * 2008-10-08 2012-02-14 Honda Motor Company, Ltd. Illumination source for an image based occupant classification system and vehicle using same
US8947219B2 (en) * 2011-04-22 2015-02-03 Honda Motors Co., Ltd. Warning system with heads up display
US8872640B2 (en) 2011-07-05 2014-10-28 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring health and ergonomic status of drivers of vehicles
US9602779B2 (en) * 2012-07-10 2017-03-21 Christopher DeJuliis System for passenger monitoring
CN104620076B (zh) * 2012-08-17 2017-05-17 本田技研工业株式会社 驾驶辅助装置
WO2015200224A2 (en) * 2014-06-23 2015-12-30 Honda Motor Co., Ltd. System and method for responding to driver state
JP6364702B2 (ja) * 2013-03-29 2018-08-01 アイシン精機株式会社 画像表示制御装置、画像表示システム、および表示ユニット
JP6170757B2 (ja) 2013-06-26 2017-07-26 富士通テン株式会社 表示制御装置、表示システム、情報提供方法及びプログラム
CN103770733B (zh) * 2014-01-15 2017-01-11 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测方法及装置
FR3021912B1 (fr) * 2014-06-10 2017-11-24 Renault Sas Systeme de detection pour vehicule automobile pour signaler a l'aide d'une scene sonore un defaut de vigilance du conducteur
JP6372388B2 (ja) * 2014-06-23 2018-08-15 株式会社デンソー ドライバの運転不能状態検出装置
JP6303907B2 (ja) * 2014-08-08 2018-04-04 株式会社デンソー 運転者監視装置
KR101619651B1 (ko) * 2014-11-26 2016-05-10 현대자동차주식회사 운전자 감시장치 및 그의 조명제어방법
JP6154411B2 (ja) * 2015-02-27 2017-06-28 本田技研工業株式会社 車両の注意喚起装置
JP6507015B2 (ja) * 2015-04-08 2019-04-24 日野自動車株式会社 運転者状態判定装置
US11311210B2 (en) * 2016-07-14 2022-04-26 Brightday Technologies, Inc. Posture analysis systems and methods
CN106230853A (zh) * 2016-08-29 2016-12-14 陕西西北铁道电子有限公司 一种轨道车安全防护系统
US10732420B2 (en) * 2016-09-20 2020-08-04 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Head up display with symbols positioned to augment reality

Also Published As

Publication number Publication date
DE102018216026A1 (de) 2019-03-28
CN109561277A (zh) 2019-04-02
US10949688B2 (en) 2021-03-16
JP2019061329A (ja) 2019-04-18
CN109561277B (zh) 2021-07-02
US20190095734A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP6804416B2 (ja) 監視システム
JP6814153B2 (ja) 車両用照明装置、車両システム及び車両
JP6761426B2 (ja) 車両用照明装置、車両システム及び車両
US10867515B2 (en) Drive assist device
CN107408349B (zh) 信息提示装置以及信息提示方法
US20180118109A1 (en) Information presentation apparatus
JP6782283B2 (ja) 監視システム
US11117515B2 (en) Monitoring system
WO2014188903A1 (ja) 灯火制御装置
JP5277974B2 (ja) 運転支援装置
JP6605615B2 (ja) 画像処理装置、撮像装置、カメラモニタシステム、および画像処理方法
JP2016540680A (ja) 室内ディスプレイシステム及び室内ディスプレイ方法
US11584298B2 (en) Vehicle display system and vehicle
WO2015146037A1 (ja) 車両用表示入力装置
JP6585662B2 (ja) 車両ルーフ搭載システム
JP2016055782A (ja) 表示機能付きミラー装置および表示切替方法
JP7046734B2 (ja) 車内照明システム
US20170282792A1 (en) Detection system for a motor vehicle, for indicating with the aid of a sound stage a lack of vigilance on the part of the driver
US11447139B2 (en) Driving assistance apparatus
JP4857891B2 (ja) 運転支援装置及びプログラム
JP6786451B2 (ja) 監視システム
JP2020126528A (ja) 自動運転状況のドライバ通知装置
KR20140141285A (ko) 자동차용 탑승자 추적 장치
JP6913316B2 (ja) 情報提示システム
JP2023016510A (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201202

R150 Certificate of patent or registration of utility model

Ref document number: 6804416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150