JP2020008931A - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
JP2020008931A
JP2020008931A JP2018126749A JP2018126749A JP2020008931A JP 2020008931 A JP2020008931 A JP 2020008931A JP 2018126749 A JP2018126749 A JP 2018126749A JP 2018126749 A JP2018126749 A JP 2018126749A JP 2020008931 A JP2020008931 A JP 2020008931A
Authority
JP
Japan
Prior art keywords
monitoring
unit
vehicle
monitoring target
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018126749A
Other languages
English (en)
Other versions
JP6782283B2 (ja
Inventor
後藤 潤
Jun Goto
潤 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2018126749A priority Critical patent/JP6782283B2/ja
Priority to US16/452,824 priority patent/US11132534B2/en
Priority to EP19183209.6A priority patent/EP3590772B1/en
Priority to CN201910589599.XA priority patent/CN110682913B/zh
Publication of JP2020008931A publication Critical patent/JP2020008931A/ja
Application granted granted Critical
Publication of JP6782283B2 publication Critical patent/JP6782283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R2021/01315Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over monitoring occupant displacement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8006Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying scenes of vehicle interior, e.g. for monitoring passengers or cargo
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/80User interfaces
    • E05Y2400/85User input means
    • E05Y2400/856Actuation thereof
    • E05Y2400/858Actuation thereof by body parts, e.g. by feet
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/80User interfaces
    • E05Y2400/85User input means
    • E05Y2400/856Actuation thereof
    • E05Y2400/858Actuation thereof by body parts, e.g. by feet
    • E05Y2400/86Actuation thereof by body parts, e.g. by feet by hand
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Emergency Alarm Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】監視対象者の動作を正確に把握することができる監視システムを提供することを目的とする。【解決手段】監視システム1は、車両の室内の監視対象者までの距離を含む深度画像を撮像する撮像部3と、撮像部3によって撮像された深度画像から監視対象者の3次元の人体モデルを推定する推定部83と、推定部83によって推定された人体モデルに基づいて、当該人体モデルの監視対象部位が室内のドア操作に関する監視座標に接近する動作を監視して降車動作を検出する監視部84と、を備えることを特徴とする。【選択図】図3

Description

本発明は、監視システムに関する。
車両の室内で用いられる従来の監視システムとして、例えば、特許文献1には、撮像データに基づいて乗員の腕がドア方向に移動することを認識し、この腕の移動に続いて乗員の身体がドア方向に傾いたことを認識したときに、乗員の降車動作と判定することが開示されている。
特開2014−203317号公報
ところで、上述の特許文献1に記載の監視方法は、例えば、乗員が姿勢を正すための座り直しや座席の移動や振り向き等に腕がドア方向に移動して姿勢が傾いただけで、乗員の降車動作と判定されてしまう虞がある。
本発明は、上記の事情に鑑みてなされたものであって、監視対象者の動作を正確に把握することができる監視システムを提供することを目的とする。
上記目的を達成するために、本発明に係る監視システムは、車両の室内の監視対象者までの距離を含む深度画像を撮像する撮像部と、前記撮像部によって撮像された前記深度画像から前記監視対象者の3次元の人体モデルを推定する推定部と、前記推定部によって推定された前記人体モデルに基づいて、当該人体モデルの監視対象部位が前記室内のドア操作に関する監視座標に接近する動作を監視して前記監視対象者の降車動作を検出する監視部と、を備えることを特徴とする。
また、上記監視システムでは、前記監視部は、前記監視座標を基準とした前記室内の監視領域内に位置する前記監視対象部位が前記監視座標に接近する動作を監視して前記降車動作を検出し、前記監視領域の外に位置する前記監視対象部位が前記監視座標に接近する動作を前記降車動作として検出しないものとすることができる。
また、上記監視システムでは、前記監視座標は、前記室内におけるドアノブの3次元座標であり、前記監視対象部位は、前記監視対象者の手であるものとすることができる。
また、上記監視システムでは、前記監視部の監視結果に基づいて前記降車動作を検出した場合に、当該降車動作に応じた処理を行う動作制御部をさらに備えるものとすることができる。
また、上記監視システムでは、前記動作制御部は、前記監視部の監視結果に基づいて前記降車動作が検出され、かつ前記車両が停車状態である場合に、当該降車動作に応じた処理を行うものとすることができる。
また、上記監視システムでは、前記室内に設けられ、前記監視対象者に対して警報を行う警報部をさらに備え、前記動作制御部は、前記監視部の監視結果に基づいて前記降車動作が検出され、かつ前記車両に対して他車両が接近している場合に、前記他車両の接近を前記警報部に警報させる前記処理を行うものとすることができる。
また、上記監視システムでは、前記車両の天井の前記室内側の面に設けられ、前記撮像部及び前記監視部が組み付けられる筐体を備えるものとすることができる。
本発明に係る監視システムは、推定部が撮像部によって撮像された深度画像から監視対象者の3次元の人体モデルを推定し、当該人体モデルの監視対象部位が室内のドア操作に関する監視座標に接近する動作を監視して監視対象者の降車動作を監視する。この結果、監視システムは、3次元の人体モデルの監視対象部位が室内の監視座標に接近する動作を監視することができるので、監視対象者の降車動作を正確に把握することできる、という効果を奏する。
図1は、実施形態に係る監視システムが適用される車両の室内の概略構成を表す模式図である。 図2は、実施形態に係る監視システムが適用される車両の室内を表す模式図である。 図3は、実施形態に係る監視システムの概略構成を表すブロック図である。 図4は、実施形態に係る監視システムの外観を表す斜視図である。 図5は、実施形態に係る監視システムが推定する人体モデルの一例を示す図である。 図6は、実施形態に係る監視システムが監視する室内の一例を表す模式図である。 図7は、実施形態に係る監視システムの降車動作を監視する一例を示す図である。 図8は、実施形態に係る監視システムの制御部の制御の一例を表すフローチャート図である。 図9は、実施形態に係る監視システムの人体モデルの推定処理の一例を表すフローチャート図である。 図10は、実施形態に係る監視システムの制御部の制御の他の一例を表すフローチャート図である。
以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
[実施形態]
図1から図5を参照して、実施形態について説明する。図1は、実施形態に係る監視システムが適用される車両の室内の概略構成を表す模式図である。図2は、実施形態に係る監視システムが適用される車両の室内を表す模式図である。図3は、実施形態に係る監視システムの概略構成を表すブロック図である。図4は、実施形態に係る監視システムの外観を表す斜視図である。図5は、実施形態に係る監視システムが推定する人体モデルの一例を示す図である。なお、図1、図2に示す矢印X方向は、車両100の車幅方向とする。図1、図2に示す矢印Y方向は、車両100の高さ方向とする。図1、図2に示す矢印Z方向は、車両100の長さ方向(前後方向)とする。矢印Z方向は、車両100の奥行き方向である。以下の説明において、車両100を「自車両」と表記する場合がある。
図1に示す本実施形態に係る監視システム1は、車両100に搭載され、当該車両100の室内101の監視対象者OBを監視し、監視対象者OBに対する様々な処理を行う車載システム(車室内監視システム)である。監視対象者OBは、監視システム1による監視の対象者である。監視対象者OBは、車両100の室内101に乗車した搭乗者であり、車両100の運転者や運転者以外の同乗者を含む。
図1、図2に示す一例では、車両100は、運転席105と、助手席106と、2列目の後部座席107と、3列目の後部座席108とを備える。車両100は、一例として、ウォークスルーが可能な車両である。換言すると、車両100は、2列目の後部座席107と3列目の後部座席108との間を、座席を倒すことなく室内101を移動できる車両である。本実施形態の監視対象者OBは、一例として、車両100の後部座席107,108の同乗者であるものとして説明する。なお、本実施形態では、車両100は、自動車である場合について説明するが、例えば、バス、電車等であってもよい。
図2に示す一例では、車両100は、監視対象者OBが乗降する後部のドア110を備える。車両100のドア110は、室内の監視対象者OBが降車する場合に用いるドアノブ120が室内側に設けられている。そして、本実施形態の監視システム1は、全体が車両100の天井102の室内101側の面に設けられ、種々の機能を統合したオーバーヘッドモジュール(OHM:Over−Head Module)を構成する。
以下、図1、図2、図3、図4、図5を参照して監視システム1の構成について詳細に説明する。
監視システム1は、筐体2と、撮像部3と、出力部4と、照明部5と、操作部6と、外部接続部7と、制御部8と、警報部9とを備える。なお、オーバーヘッドモジュールを構成する監視システム1は、この他、例えば、無線通信部、アンテナ、電源分配部等を備えていてもよい。
筐体2は、監視システム1を構成する各部を収容するものである。筐体2は、複数の部材が組み合わさって全体として中空箱状に形成される。筐体2は、絶縁性を有する合成樹脂によって形成される。ここでは、筐体2は、内部に撮像部3、出力部4、照明部5、操作部6、外部接続部7、及び、制御部8が組み付けられこれらを収容し、オーバーヘッドモジュールとしてユニット化する。筐体2は、内部に収容した撮像部3、出力部4、照明部5、操作部6、外部接続部7の一部が外面に露出している。そして、本実施形態の筐体2は、車両100の天井(ルーフパネル)102の室内101側の面に設けられる。天井102は、ピラー等を介して車両ボデー本体に連結され当該車両ボデー本体の鉛直方向上側に支持された構造体である。車両100は、天井102を鉛直方向上側の境界として、室内101と室外とに領域分けされる。ここでは、筐体2は、例えば、天井102とウインドシールド103との交差部分でかつ車両100の車幅方向の略中央位置に設けられる。
撮像部3は、車両100の室内101の監視対象者OBまでの距離を計測する3次元のTOF(Time of Flight)カメラ、距離画像センサ等を含む。撮像部3は、監視対象者OBまでの距離を含む深度画像を撮像するものである。本実施形態の撮像部3によって撮像される深度画像は、例えば、室内101の3次元座標(XYZ座標)における各点の距離(座標)を示す3次元点群データに相当する。3次元点群データは、撮像部3によって撮像した対象を立体的に示すデータである。3次元点群データは、各点でのXYZ座標における座標を示す座標値を含む。本実施形態の撮像部3は、室内101の監視対象者OBの監視対象部位TGの3次元位置を計測可能な深度画像を撮像する機能を有する。監視対象部位TGは、例えば、搭乗者の手、手及び前腕、手及び腕等を含む。本実施形態では、撮像部3は、TOFカメラを用いることで、暗い環境でも監視対象者OBの撮像を可能としている。
撮像部3は、例えば、レンズが筐体2の外面に露出し、光軸が室内101の運転席105、後部座席107側を向くように当該筐体2に設けられる。撮像部3は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。例えば、撮像部3は、撮像した深度画像を制御部8に出力する。
出力部4は、車両100の室内101に向けて、種々の情報を出力するものである。ここでは、出力部4は、表示部41と、スピーカ42とを含んで構成される。表示部41は、視覚情報(図形情報、文字情報)を出力する表示装置である。表示部41は、例えば、薄型の液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等によって構成される。スピーカ42は、聴覚情報(音声情報、音情報)を出力する出力装置である。出力部4を構成する表示部41、スピーカ42は、それぞれ、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
照明部5は、車両100の室内101を照明するものであり、例えば、マップランプ等である。照明部5は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
操作部6は、車両100の室内101側から種々の操作を入力可能な操作機器である。操作部6は、例えば、押しボタン、静電容量式タッチスイッチや赤外線センサ等の非接触式センサ等によって構成される。操作部6は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
外部接続部7は、筐体2の外部の電気機器が電気的に接続される部分である。外部接続部7は、種々の形式のコネクタやインターフェース部によって構成される。外部接続部7は、警報部9が電気的に接続される。警報部9は、室内101のドア110に対応して設けられている。警報部9は、例えば、ドア110を開けようとする監視対象者OBに対して警報を行う。警報部9は、例えば、ランプ、スピーカ等を有する。警報部9は、ドア110を開けようとする監視対象者OBに気付かせるために、ドア110やドア110の近くに設けることが好ましい。例えば、警報部9は、自車両に対する他車両の接近を光によって警報する場合、他車両の自車両までの距離や接近状況に応じて赤ランプを点灯させてもよい。例えば、警報部9は、他車両の接近を音によって警報する場合、「車両が接近しています」等の音声データや、ブザーをパターン吹鳴させてもよい。なお、他車両は、例えば、自動車、自動二輪車、自転車等を含む。
外部接続部7は、車両100の各部を統括的に制御するECU(Electronic Control Unit)や車両100の天井102の室内101側の面の後部座席側の位置に設けられるリヤモジュール等が電気的に接続される。外部接続部7は、制御部8、及び、筐体2の外部の電気機器に電気的に接続され、相互に電気信号を授受可能である。
図3に示す一例では、外部接続部7は、例えば、ブレーキECU201と、先進運転支援システム(ADAS:Advanced Driver Assistance System)ECU202とが電気的に接続されている。ブレーキECU201は、車両100のブレーキに関する車両情報を出力する。車両情報は、例えば、車両が停止状態であるか否かを示す情報を含む。先進運転支援システムECU202は、車両100の周辺状況に関する周辺状況情報を出力する。周辺状況情報は、例えば、車両100の周辺環境や車両100の周辺の人物、他車両、障害物等の外部物体を撮像した周辺画像情報、外部物体の有無や当該外部物体との相対距離、相対速度、TTC(Time−To−Collision:接触余裕時間)等を表す外部物体情報等を含んでいてもよい。
制御部8は、監視システム1の各部を統括的に制御する部分である。制御部8は、監視対象者OBの状態監視や様々な支援に関する種々の演算処理を実行する。制御部8は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)及びインターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御部8は、撮像部3、出力部4、照明部5、操作部6、及び、外部接続部7が電気的に接続される。制御部8は、撮像部3によって撮像された深度画像に対応した画像信号、各部を駆動させるための駆動信号等の各種の電気信号を各部との間で相互に授受することができる。
具体的には、制御部8は、機能概念的に、記憶部81、及び、処理部82を含んで構成される。記憶部81、及び、処理部82は、電気的に接続されている各種機器との間で種々の情報を授受することができる。記憶部81は、メモリ等の記憶装置である。記憶部81は、制御部8での各種処理に必要な条件や情報、制御部8で実行する各種プログラム等が格納されている。そして、記憶部81は、表示部41に表示する一部の画像等の視覚情報やスピーカ42で出力する音声等の聴覚情報も記憶している。また、記憶部81は、撮像部3が撮像した深度画像に関する情報や外部接続部7を介して取得された各種情報を一時的に記憶することもできる。記憶部81は、処理部82によって各種情報が必要に応じて読み出される。処理部82は、各種入力信号等に基づいて、記憶部81に記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する。
図3に示す一例では、記憶部81は、条件情報81aと、監視結果情報81bとを記憶することができる。条件情報81aは、監視対象者OBの降車動作の判定に必要な条件や情報を含む。条件情報81aの一例については、後述する。監視結果情報81bは、撮像部3によって撮像した深度画像に基づいて、監視対象者OBの監視対象部位が室内のドア操作に関する監視座標に接近する動作を監視した監視対象者の降車動作の監視結果を示す情報を含む。監視結果情報81bは、監視対象者OBの監視対象部位の経時的な3次元座標と監視結果とを含む。
処理部82は、より詳細には、機能概念的に、推定部83、監視部84、及び、動作制御部85を含んで構成される。処理部82は、プログラムを実行することにより、推定部83、監視部84、及び、動作制御部85を実現する。
推定部83は、撮像部3によって撮像された深度画像から監視対象者OBの3次元の人体モデルを推定する。例えば、推定部83は、背景差分法、Random Forest、Mean Shift法、パターンマッチング等によって深度画像から監視対象者OBを抽出し、当該監視対象者OBの輪郭等に基づいて人体モデルを推定する。図5に示す人体モデルOBMは、監視対象者OBの骨格位置を示すモデルである。図5に示す一例では、人体モデルOBMは、監視対象者OBの頭、肩、肘、手、腰、膝及び足の人体パーツを特徴的に示している。そして、推定部83は、深度画像の3次元点群データが示す各点の座標値に基づいて監視対象者OBを深度画像から抽出し、当該監視対象者OBの骨格位置に着目して人体モデルOBMを推定する。なお、人体モデルOBMの推定処理の一例については、後述する。推定部83は、推定した人体モデルOBMの各人体パーツから監視対象部位TGを特定し、室内101の3次元空間における監視対象部位TGの3次元座標を算出する。監視対象部位TGが監視対象者OBの手である場合、推定部83は、人体モデルOBMの人体パーツから左右の手の3次元座標を算出する。手の3次元座標は、例えば、手の中心座標、手の任意の1または複数のポイントの座標等を含む。推定部83は、算出した監視対象部位TGの3次元座標を、深度画像のフレームに紐付けて記憶部81に記憶する。また、例えば、撮像部3によって撮像された深度画像に監視対象者OBの手が写っていない場合、推定部83は、監視対象者OBの肩や肘等の人体パーツの位置と監視対象者OBのサイズと姿勢とに着目し、着目した人体パーツから監視対象者OBの手の3次元座標を推測することができる。
監視部84は、推定部83によって推定された監視対象者OBの人体モデルOBMに基づいて、当該人体モデルOBMの監視対象部位TGが室内101の監視座標に接近する動作を監視する。例えば、監視対象者OBは、車両100から降車する場合、ドア110のドアノブ120を操作してドア110を開く。このため、監視システム1は、監視対象者OBの降車動作を監視する場合、室内101の3次元空間におけるドアノブ120の3次元座標をドア110に関する監視座標とする。監視座標は、例えば、ドアノブ120の輪郭に対応した3次元座標の範囲、ドアノブ120の任意のポイントに対応した3次元座標等を含む。そして、監視部84は、監視対象部位TGの時系列の3次元座標に基づいて、監視対象部位TGの監視座標に接近する動作を監視する。例えば、監視部84は、監視対象部位TGのオプティカルフローを推定し、当該オプティカルフローに基づいて視対象部位TGの監視座標に接近する動作を監視する。なお、監視対象部位TGのオプティカルフローを推定する手法は、例えば、Lucas Kanade法、Hom−Schunk法等を用いることができる。監視部84は、人体モデルOBMの監視対象部位TGの3次元座標とドアノブ120の監視座標との距離が判定閾値よりも小さくなった場合、監視対象部位TGが監視座標に接近する動作を降車動作として検出する。なお、監視部84は、人体モデルOBMの監視対象部位TGの3次元座標がドアノブ120の監視座標に到達したことを、監視対象部位TGの降車動作として検出してもよい。監視部84は、監視対象部位TGが監視座標に接近する降車動作を検出したことを示す情報を監視結果情報81bに記憶する。監視部84は、監視対象部位TGが監視座標に接近する降車動作の検出に用いた3次元座標を、監視結果に紐付けて監視結果情報81bに記憶することができる。
動作制御部85は、動作制御処理を実行可能な部分である。動作制御処理とは、撮像部3、出力部4、照明部5、操作部6、及び、警報部9等の監視システム1の各部の動作を制御する処理である。動作制御部85は、撮像部3、出力部4(表示部41、スピーカ42)、照明部5、操作部6、外部接続部7、記憶部81と電気的に接続される。動作制御部85は、撮像部3に駆動信号を出力することで撮像部3の動作を制御し、監視対象者OBを含む深度画像の撮像を開始させたり当該撮像を終了させたりすることができる。また、動作制御部85は、出力部4(表示部41、スピーカ42)に駆動信号を出力することで出力部4の動作を制御し、表示部41に視覚情報を表示させたりスピーカ42に聴覚情報を出力させたりすることができる。また、動作制御部85は、照明部5に駆動信号を出力することで照明部5の動作を制御し、照明部5を点灯させたり照明部5を消灯させたりすることができる。さらに、動作制御部85は、操作部6から入力された操作信号に基づいて操作部6に対する操作入力を受け付け、照明部5の点灯、消灯を切り替えたり表示部41による表示内容を切り替えたり各種設定を行ったりすることができる。動作制御部85は、外部接続部7を介してブレーキECU201、先進運転支援システムECU202等に支援要求信号を出力し、上記の車両情報、周辺状況情報等を取得することができる。動作制御部85は、外部接続部7を介して警報部9に駆動信号を出力することで、警報部9の動作を制御することができる。
動作制御部85は、監視部84によって監視対象部位TGが監視座標に接近する降車動作を検出した場合に、当該降車動作に応じた処理を行う。動作制御部85は、監視対象部位TGが監視座標に接近する降車動作に応じた処理として、監視対象部位TGが監視座標に向かったことを警報部9に警報させる処理を実行できる。動作制御部85は、監視対象部位TGが監視座標に向かう動作に応じた処理として、監視対象部位TGが監視座標に向かったことを運転者等に警報する警報情報を出力部4から出力させる処理を実行できる。
動作制御部85は、監視対象部位TGが監視座標に接近する降車動作を監視している場合に、外部接続部7を介して上記の車両情報、周辺状況情報等を取得できる。動作制御部85は、取得した車両情報に基づいて、車両100が停車状態であるか否かを判定する機能を有する。動作制御部85は、取得した周辺状況情報に基づいて、車両100に対して他車両が接近しているか否かを判定する機能を有する。
動作制御部85は、車両100が停車状態である場合、かつ車両100に対して他車両が接近している場合、かつ監視部84によって監視対象部位TGが監視座標に接近する降車動作を検出した場合に、自車両に対して他車両が接近していることを警報部9に警報させることができる。
次に、図6を参照しながら、監視システム1が監視する室内101の3次元空間の一例を説明する。図6は、実施形態に係る監視システム1が監視する室内の一例を表す模式図である。
図6に示すように、監視システム1は、室内101を監視対象の3次元空間として監視する。監視システム1は、車両100の後部のドア110から降車しようとする監視対象者OBの降車動作を監視する。この場合、監視システム1は、監視対象の3次元空間におけるドアノブ120の位置を示す監視座標P1,P2を含む条件情報81aを記憶部81に予め記憶している。本実施形態では、条件情報81aは、監視座標P1、P2にそれぞれ対応した3次元の監視領域E1、E2を示す情報を含んでいる。監視領域E1は、例えば、車両100の右側のドア110に対する降車動作の判定対象とする室内101の領域である。監視領域E2は、例えば、車両100の左側のドア110に対する降車動作の判定対象とする室内101の領域である。図6に示す一例では、監視領域E1は、室内101の右側のドア110のドアノブ120の監視座標P1を基準とし、後部座席107とドアノブ120とを含む領域となっている。そして、監視領域E2は、室内101の左側のドア110のドアノブ120の監視座標P2を基準とし、室内101の左側の後部座席107とドアノブ120とを含む領域となっている。
本実施形態では、条件情報81aは、監視領域E1、E2を右側と左側との後部座席107に対して設定する場合について説明するが、これに限定されない。例えば、条件情報81aは、監視座標P1、P2と、室内101の2列目の2つの後部座席107との双方を含む3次元の領域を監視領域としてもよい。換言すると、監視情報810の監視領域は、室内101の座席と車両100のドア110との配置関係に応じて適宜設定することができる。
次に、図7を参照しながら、本実施形態に係る監視システム1の降車動作を監視する一例を説明する。図7は、実施形態に係る監視システム1の降車動作を監視する一例を示す図である。
図7に示すステップS1の場面では、監視対象者OBは、室内101の右側の後部座席107に、車両100の進行方向に向かった姿勢で着席している。なお、車両100は、走行状態であることを前提とする。
ステップS1に示す場面では、監視システム1の撮像部3は、右側の後部座席107に着席している監視対象者OBを含む深度画像を撮像する。監視システム1の推定部83は、当該深度画像から後部座席107に着席した状態の監視対象者OBの人体モデルOBMを推定する。そして、推定部83は、推定した人体モデルOBMから監視対象部位TGを特定し、当該監視対象部位TGの室内101における3次元座標を算出し、算出した監視対象部位TGの3次元座標を時系列的に記憶部81に記憶する。そして、監視部84は、推定部83によって推定された人体モデルOBMに基づいて、人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する動作を監視する。この場合、監視部84は、監視対象部位TGの時系列の3次元座標に基づいて、監視対象部位TGが監視領域E1内に留まっており、かつ監視座標P1に向かっていないので、降車動作を検出していないことを示す監視結果を監視結果情報81bに記憶する。そして、監視部84は、監視対象部位TGの降車動作の監視を継続する。
次に、図7に示すステップS2の場面では、監視対象者OBは、右側の後部座席107から右側のドア110のドアノブ120に向かって監視対象の手を移動させる動作を行っている。この場合、車両100は、走行状態から停車状態に遷移している。そして、停車状態の車両100には、例えば後方から他車両が接近している。
ステップS2に示す例では、監視システム1の撮像部3は、右側の後部座席107で姿勢を変化させ、手をドアノブ120に向かって移動させている監視対象者OBを含む深度画像を撮像する。監視システム1の推定部83は、当該深度画像から後部座席107で手を移動させている監視対象者OBの人体モデルOBMを推定する。そして、推定部83は、推定した人体モデルOBMから監視対象部位TGを特定し、当該監視対象部位TGの3次元座標を算出し、算出した監視対象部位TGの3次元座標を時系列的に記憶部81に記憶する。そして、監視部84は、推定部83によって推定された人体モデルOBMに基づいて、人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する監視動作を検出すると、降車動作を検出したことを示す監視結果を監視結果情報81bに記憶する。詳細には、監視部84は、監視対象部位TGの時系列の3次元座標に基づいて、監視対象部位TGが監視領域E1内に留まっており、かつ監視座標P1と監視対象部位TGの3次元座標との距離が判定閾値よりも小さくなったことを降車動作として検出する。そして、動作制御部85は、外部接続部7を介して上記の車両情報を取得し、当該車両情報が停車状態を示していると、車両100が停車状態であることを検出する。動作制御部85は、外部接続部7を介して上記の周辺状況情報を取得すると、車両100に対して他車両が接近していることを検出する。この場合、動作制御部85は、監視部84の監視結果に基づいて降車動作が検出された場合に、車両100の停車状態を検出し、かつ車両100に対して他車両の接近を検出しているので、車両100に対する他車両の接近を警報部9に警報させる処理を実行する。これにより、監視システム1は、ドア110のドアノブ120を操作しようとする監視対象者OBに対し、他車両の接近を警報部9によって警報することができる。すなわち、監視システム1は、監視対象者OBが車両100から降車する前に、他車両の接近を警報部9によって警報することができる。
例えば、図6に示す室内101において、右側の3列目の後部座席108に着席していた監視対象者OBが、監視領域E1の外で、右側のドア110のドアノブ120に向かって降車するために移動し始めたとする。
この場合、監視システム1の撮像部3は、右側の後部座席108から移動し始めた監視対象者OBを含む深度画像を撮像する。監視システム1の推定部83は、当該深度画像から当該監視対象者OBの人体モデルOBMを推定する。そして、推定部83は、推定した人体モデルOBMから監視対象部位TGを特定し、当該監視対象部位TGの室内101における3次元座標を算出し、算出した監視対象部位TGの3次元座標を時系列的に記憶部81に記憶する。そして、監視部84は、推定部83によって推定された人体モデルOBMに基づいて、人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する動作を監視する。しかし、監視部84は、監視対象部位TGの時系列の3次元座標に基づいて、監視対象部位TGが監視領域E1の外に位置しており、かつ監視座標P1までの距離が判定閾値よりも大きいので、降車動作を検出していないことを示す監視結果を監視結果情報81bに記憶する。そして、監視部84は、監視対象部位TGの動作の監視を継続する。
その後、監視システム1の監視部84は、監視対象部位TGが監視領域E1に位置する状態で、当該監視対象部位TGと監視座標P1との距離が判定閾値よりも小さくなった場合に、降車動作を検出したことを示す監視動作を検出したことを示す監視結果を監視結果情報81bに記憶する。
以上で説明した監視システム1は、推定部83が撮像部3によって撮像された深度画像から監視対象者OBの3次元の人体モデルOBMを推定し、当該人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する動作を監視する。この結果、監視システム1は、3次元の人体モデルOBMの監視対象部位TGが室内101の監視座標P1に接近する動作を監視することができるので、監視対象者OBの降車動作を正確に把握することできる。
監視システム1は、監視部84が監視座標P1を基準とした室内101の監視領域E1内に位置する監視対象部位TGが監視座標P1に接近する動作を監視する。そして、監視システム1は、監視領域E1の外に位置する監視対象部位TGが監視座標P1に接近する動作を降車動作として検出しない。この結果、監視システム1は、監視領域E1の外部で監視対象部材TGが監視領域E1の監視座標P1に接近する動作を降車動作から除外することができるので、監視対象の動作をより一層正確に監視することができる。
監視システム1は、監視座標P1が室内101におけるドアノブ120の3次元座標であり、監視対象部位TGが監視対象者OBの手である。この結果、監視システム1は、推測した監視対象者OBの3次元の人体モデルOBMに基づいて、監視対象者OBの手がドアノブ120に接近する動作を監視することができるので、監視対象者OBがドア110を開こうとする降車動作をより一層正確に監視することができる。
監視システム1は、動作制御部85が監視部84の監視結果に基づいて降車動作を検出した場合に、当該降車動作に応じた処理を行う。この結果、監視システム1は、監視対象部位TGが監視座標P1に接近する動作を検出した場合、降車動作に応じた処理を実行することができるので、当該降車動作に応じたサービスを提供して利便性を向上させることができる。
監視システム1は、動作制御部85が監視部84の監視結果に基づいて降車動作が検出された場合、かつ車両100が停車状態である場合、当該降車動作に応じた処理を行う。この結果、監視システム1は、車両100が停車状態のときに、降車動作に応じた処理を実行することができるので、車両100の停車時の降車動作に適したサービスを提供して利便性をより一層向上させることができる。
監視システム1は、動作制御部85が監視部84の監視結果に基づいて降車動作が検出された場合、かつ車両100に対して他車両が接近している場合に、他車両の接近を警報部9に警報させる処理を行う。この結果、監視システム1は、降車動作を検出した場合に、他車両の接近を監視対象者OBに警報することができるので、ドア110の開放時の事故を未然に防いで監視対象者OBの安全性を向上させることができる。
監視システム1は、撮像部3、制御部8を含む各部が筐体2に設けられるので、当該監視システム1全体をオーバーヘッドモジュールとしてユニット化することができる。この構成により、監視システム1は、車両100に対する搭載性を向上することができる。なお、監視システム1は、警報部9を筐体2の外部の監視座標P1,P2の近くに設けることで、監視対象者OBに対する警報を速やかに認識させることができる。
次に、図8のフローチャート図を参照して、制御部8の処理部82の制御の一例を説明する。図8は、実施形態に係る監視システムの制御部の制御の一例を表すフローチャート図である。図8に示すフローチャート図は、監視対象者OBの降車動作の監視に関する処理手順の一例を示す。図8に示す処理手順は、処理部82がプログラムを実行することによって実現される。図8に示す処理手順は、処理部82によって繰り返し実行される。
まず、監視システム1の制御部8の処理部82は、撮像部3によって撮像された深度画像を取得する(ステップS101)。そして、処理部82は、取得した深度画像から3次元の人体モデルOBMを推定する推定処理を実行する(ステップS102)。例えば、処理部82は、推定処理を実行することにより、深度画像の3次元点群データが示す各点の座標値に基づいて監視対象者OBを抽出し、当該監視対象者OBの骨格位置に着目して人体モデルOBMを推定し、当該人体モデルOBMから監視対象部位TGを抽出する。なお、推定処理の詳細については、後述する。処理部82は、ステップS102の処理を実行することにより、上記の推定部83として機能する。処理部82は、推定処理が終了すると、処理をステップS103に進める。
処理部82は、抽出した人体モデルOBMに基づいて、監視対象部位TGが監視座標に接近する動作を監視して監視対象者OBの降車動作を検出して監視対象者OBの降車動作を検出する(ステップS103)。例えば、処理部82は、監視対象部位TGの3次元座標と条件情報81aの監視座標P1,P2との距離が判定閾値よりも小さくなったか否かを判定する。なお、処理部82は、監視対象部位TGの3次元座標がドアノブ120の監視座標に到達したか否かを判定してもよい。例えば、処理部82は、監視対象部位TGの3次元座標と条件情報81aの監視座標P1との距離が判定閾値よりも小さくなったと判定する。この場合、監視対象部位TGが監視座標P1に接近する動作であるので、処理部82は、監視対象者OBの降車動作を検出したことを示す監視結果を監視結果情報81bに記憶する。例えば、処理部82は、監視対象部位TGの3次元座標と条件情報81aの監視座標P1との距離が判定閾値よりも小さくなっていないと判定する。この場合、監視対象部位TGが監視座標P1に接近する動作ではないので、処理部82は、監視対象者OBの降車動作を検出していないことを示す監視結果を監視結果情報81bに記憶する。処理部82は、ステップS103の処理を実行することにより、上記の監視部84として機能する。処理部82は、監視対象部位TGを抽出すると、処理をステップS104に進める。
処理部82は、外部接続部7を介して車両情報及び周辺状況情報を取得する(ステップS104)。処理部82は、取得した車両情報及び周辺状況情報を一時的に記憶部81に記憶すると、処理をステップS105に進める。
処理部82は、車両100が停車状態であるか否かを判定する(ステップS105)。例えば、処理部82は、ステップS105で取得した車両情報が停車状態を示している場合、車両100が停車状態であると判定する。処理部82は、車両100が停車状態ではないと判定した場合(ステップS105でNo)、図8に示す処理手順を終了させる。処理部82は、車両100が停車状態であると判定した場合(ステップS105でYes)、処理をステップS106に進める。
処理部82は、監視対象者OBの降車動作を検出したか否かを判定する(ステップS106)。例えば、処理部82は、監視結果情報81bの監視結果が監視対象者OBの降車動作を検出したことを示す場合、監視対象者OBの降車動作を検出したと判定する。処理部82は、監視対象者OBの降車動作を検出していないと判定した場合(ステップS106でNo)、図8に示す処理手順を終了させる。処理部82は、監視対象者OBの降車動作を検出したと判定した場合(ステップS106でYes)、処理をステップS107に進める。
処理部82は、他車両が接近中であるか否かを判定する(ステップS107)。例えば、処理部82は、ステップS104で取得した周辺状況情報が車両100の周辺の他車両を示している場合に、他車両が接近中であると判定する。処理部82は、他車両が接近中ではないと判定した場合(ステップS107でNo)、図8に示す処理手順を終了させる。処理部82は、他車両が接近中であると判定した場合(ステップS107でYes)、処理をステップS108に進める。
処理部82は、他車両の接近を警報部9によって警報させる(ステップS108)。例えば、処理部82は、監視座標の近くに設けられた警報部9を特定し、外部接続部7を介して、当該警報部9に他車両の接近を警報させる。その結果、監視座標の近くに設けられた警報部9は、監視対象者OBに対して、例えば他車両の接近を警報部9の発光によって警報する。処理部82は、ステップS105からステップS108の一連の処理を実行することにより、動作制御部85として機能する。そして、処理部82は、警報部9に警報させると、図8に示す処理手順を終了させる。
次に、図9のフローチャート図を参照して、制御部8の処理部82による人体モデルOBMの推定処理の一例を説明する。図9は、実施形態に係る監視システム1の人体モデルOBMの推定処理の一例を表すフローチャート図である。図9に示すフローチャート図は、人体モデルOBMの推定方法に関する処理手順の一例を示す。図9に示す処理手順は、処理部82がプログラムを実行することによって実現される。図9に示す処理手順は、処理部82が図8に示すステップS102を実行することにより、起動される。
まず、監視システム1の制御部8の処理部82は、深度画像から監視対象者OBの人体部分を抽出する(ステップS201)。例えば、処理部82は、公知である背景差分法を用いて、撮像部3によって撮像された深度画像の3次元点群データと事前に用意しておいた室内101の3次元点群データとを比較し、室内101の3次元点群データには存在しない3次元点群を人体部分として抽出する。処理部82は、人体部分を抽出すると、処理をステップS202に進める。
処理部82は、抽出した人体部分から各人体パーツを特定する(ステップS202)。例えば、処理部82は、公知であるRandom Forestを用いて、予め定められた頭、肩、肘、手、腰、膝及び足の人体パーツを人体部分から特定する。監視対象者OBの向き、姿勢等によって全ての人体パーツを特定できない場合、処理部82は、特定可能な人体パーツを特定する。処理部82は、特定を終了すると、処理をステップS203に進める。
処理部82は、室内101の3次元空間における各人体パーツの3次元座標を算出する(ステップS203)。例えば、処理部82は、公知であるMean Shift法を用いて、各人体パーツの重心を計算し、計算した重心の座標値と深度画像の3次元点群データが示す各点の座標値とに基づいて、人体パーツの3次元座標を算出する。処理部82は、各人体パーツの3次元座標を算出すると、処理をステップS204に進める。
処理部82は、各人体パーツをつなぎ合わせて人体モデルOBMを推定する(ステップS204)。処理部82は、推定した室内101の3次元空間における人体モデルOBMを示す情報を記憶部81に記憶すると、図9に示す処理手順を終了させる。
なお、上述した本発明の実施形態に係る監視システム1は、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。
[実施形態の変形例]
実施形態の変形例について説明する。実施形態に係る監視システム1における制御部8の処理部82の制御の他の一例について、図10のフローチャート図を参照して説明する。以下の説明において、監視システム1の同様の処理手順について同一の符号を付すことがある。さらに、重複する説明は省略することがある。
図10は、実施形態に係る監視システムの制御部の制御の他の一例を表すフローチャート図である。図10に示すフローチャート図は、監視対象者OBの降車動作の監視に関する処理手順の他の一例を示す。図10に示す処理手順は、処理部82がプログラムを実行することによって実現される。図10に示す処理手順は、処理部82によって繰り返し実行される。
まず、監視システム1の制御部8の処理部82は、撮像部3によって撮像された深度画像を取得する(ステップS101)。そして、処理部82は、取得した深度画像から3次元の人体モデルOBMを推定する推定処理を実行する(ステップS102)。処理部82は、抽出した人体モデルOBMに基づいて、監視対象部位TGが監視座標に接近する動作を監視して監視対象者OBの降車動作を検出する(ステップS103)。処理部82は、外部接続部7を介して車両情報及び周辺状況情報を取得する(ステップS104)。処理部82は、取得した車両情報及び周辺状況情報を一時的に記憶部81に記憶すると、処理をステップS106に進める。
処理部82は、監視対象者OBの降車動作を検出したか否かを判定する(ステップS106)。処理部82は、監視対象者OBの降車動作を検出していないと判定した場合(ステップS106でNo)、図10に示す処理手順を終了させる。処理部82は、監視対象者OBの降車動作を検出したと判定した場合(ステップS106でYes)、処理をステップS105に進める。
処理部82は、車両100が停車状態であるか否かを判定する(ステップS105)。処理部82は、車両100が停車状態であると判定した場合(ステップS105でYes)、処理をステップS107に進める。処理部82は、他車両が接近中であるか否かを判定する(ステップS107)。処理部82は、他車両が接近中ではないと判定した場合(ステップS107でNo)、図10に示す処理手順を終了させる。処理部82は、他車両が接近中であると判定した場合(ステップS107でYes)、処理をステップS108に進める。そして、処理部82は、他車両の接近を警報部9によって警報させる(ステップS108)。処理部82は、警報部9に警報させると、図10に示す処理手順を終了させる。
また、処理部82は、車両100が停車状態ではないと判定した場合(ステップS105でNo)、車両100が走行状態であるので、処理をステップS111に進める。処理部82は、監視対象部者OBの降車動作を検出したことを出力部4によって警報する(ステップS111)。例えば、処理部82は、監視対象部者OBの降車動作を検出したことを警報する警報情報を出力部4の表示部41に表示させるとともに、スピーカ42から警報音を出力させる。その結果、出力部4は、運転者、他の同乗者等に対して、監視対象者OBの降車動作を把握させることができる。処理部82は、ステップS106、ステップS105及びステップS111の一連の処理を実行することにより、動作制御部85として機能する。そして、処理部82は、出力部4に警報させると、図10に示す処理手順を終了させる。
以上により、監視システム1は、動作制御部85が監視部84の監視結果に基づいて監視対象部者OBの降車動作が検出され、かつ車両100が走行状態である場合に、監視対象者OBの降車動作を警報する処理を行う。この結果、監視システム1は、車両100が走行状態のときに、監視対象者OBの降車動作を警報する処理を実行することができるので、同乗者が車両100の走行中にドア110を誤って開放することを事前に防止することができる。
以上の説明では、監視部84は、監視領域E1、E2における監視対象部位TGの移動を監視する場合について説明したが、これに限定されない。例えば、監視部84は、監視領域E1、E2を設定せずに、監視対象部位TGが監視座標P1、P2に向かう動作を監視する構成としてもよい。
以上の説明では、監視部84は、一例として車両100の室内101の監視対象者OBとして、後部空間の搭乗者の動作を監視するものとして説明したがこれに限らない。監視対象者OBは、助手席106の同乗者であってもよい。また、監視対象部位TGは、監視対象者OBの手であるものとして説明したがこれに限らず、例えば、腕等であってもよい。
以上の説明では、監視システム1は、全体が車両100の天井102の室内101側の面に設けられ、オーバーヘッドモジュールを構成するものとして説明したがこれに限らない。監視システム1は、例えば、制御部8が筐体2の外部に設けられ、配索材を介して各部と電気的に接続される構成であってもよく、例えば、制御部8が車両100の各部を統括的に制御する車両ECUによって兼用されて構成されてもよい。また、警報部9は、例えば、車両100の室内101の後部空間に搭載されたディスプレイやスピーカ等が兼用されてもよい。監視システム1は、出力部4を警報部として兼用してもよい。
1 監視システム
2 筐体
3 撮像部
4 出力部
5 照明部
6 操作部
7 外部接続部
8 制御部
81 記憶部
81a 条件情報
81b 監視結果情報
82 処理部
83 推定部
84 監視部
85 動作制御部
9 警報部
100 車両
101 室内
110 ドア
120 ドアノブ
107 後部座席
OB 監視対象者
OBM 人体モデル
P1、P2 監視座標
TG 監視対象部位

Claims (7)

  1. 車両の室内の監視対象者までの距離を含む深度画像を撮像する撮像部と、
    前記撮像部によって撮像された前記深度画像から前記監視対象者の3次元の人体モデルを推定する推定部と、
    前記推定部によって推定された前記人体モデルに基づいて、当該人体モデルの監視対象部位が前記室内のドア操作に関する監視座標に接近する動作を監視して前記監視対象者の降車動作を検出する監視部と、
    を備えることを特徴とする監視システム。
  2. 前記監視部は、前記監視座標を基準とした前記室内の監視領域内に位置する前記監視対象部位が前記監視座標に接近する動作を監視して前記降車動作を検出し、前記監視領域の外に位置する前記監視対象部位が前記監視座標に接近する動作を前記降車動作として検出しない、
    請求項1に記載の監視システム。
  3. 前記監視座標は、前記室内におけるドアノブの3次元座標であり、
    前記監視対象部位は、前記監視対象者の手である、
    請求項1または2に記載の監視システム。
  4. 前記監視部の監視結果に基づいて前記降車動作を検出した場合に、当該降車動作に応じた処理を行う動作制御部をさらに備える、
    請求項1から3のいずれか1項に記載の監視システム。
  5. 前記動作制御部は、前記監視部の監視結果に基づいて前記降車動作が検出され、かつ前記車両が停車状態である場合に、当該降車動作に応じた処理を行う、
    請求項4に記載の監視システム。
  6. 前記室内に設けられ、前記監視対象者に対して警報を行う警報部をさらに備え、
    前記動作制御部は、前記監視部の監視結果に基づいて前記降車動作が検出され、かつ前記車両に対して他車両が接近している場合に、前記他車両の接近を前記警報部に警報させる前記処理を行う、
    請求項4または5に記載の監視システム。
  7. 前記車両の天井の前記室内側の面に設けられ、前記撮像部及び前記監視部が組み付けられる筐体を備える、
    請求項1から6のいずれか1項に記載の監視システム。
JP2018126749A 2018-07-03 2018-07-03 監視システム Active JP6782283B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018126749A JP6782283B2 (ja) 2018-07-03 2018-07-03 監視システム
US16/452,824 US11132534B2 (en) 2018-07-03 2019-06-26 Monitoring system
EP19183209.6A EP3590772B1 (en) 2018-07-03 2019-06-28 Monitoring system
CN201910589599.XA CN110682913B (zh) 2018-07-03 2019-07-02 监视系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018126749A JP6782283B2 (ja) 2018-07-03 2018-07-03 監視システム

Publications (2)

Publication Number Publication Date
JP2020008931A true JP2020008931A (ja) 2020-01-16
JP6782283B2 JP6782283B2 (ja) 2020-11-11

Family

ID=67139620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018126749A Active JP6782283B2 (ja) 2018-07-03 2018-07-03 監視システム

Country Status (4)

Country Link
US (1) US11132534B2 (ja)
EP (1) EP3590772B1 (ja)
JP (1) JP6782283B2 (ja)
CN (1) CN110682913B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021147854A (ja) * 2020-03-18 2021-09-27 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6629810B2 (ja) * 2017-10-06 2020-01-15 株式会社Subaru ドア制御装置
JP7204421B2 (ja) * 2018-10-25 2023-01-16 キヤノン株式会社 検知装置およびその制御方法
JP7109866B2 (ja) * 2019-04-19 2022-08-01 矢崎総業株式会社 照明制御システム及び照明制御方法
US11485383B2 (en) * 2019-12-06 2022-11-01 Robert Bosch Gmbh System and method for detecting and mitigating an unsafe condition in a vehicle
JP7400697B2 (ja) * 2020-11-12 2023-12-19 豊田合成株式会社 車両用乗員保護システム
US11673559B2 (en) * 2020-12-22 2023-06-13 Toyota Jidosha Kabushiki Kaisha Disembarkation action determination device, vehicle, disembarkation action determination method, and non-transitory storage medium stored with program
US20230219578A1 (en) * 2022-01-07 2023-07-13 Ford Global Technologies, Llc Vehicle occupant classification using radar point cloud

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015209154A (ja) * 2014-04-28 2015-11-24 矢崎総業株式会社 車載警報装置
WO2017056401A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 制御装置、制御方法及びプログラム
JP2017177883A (ja) * 2016-03-28 2017-10-05 株式会社オートネットワーク技術研究所 車載報知装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19537619C2 (de) * 1995-10-09 1997-09-18 Rolf Dipl Ing Schiller Überwachungsvorrichtung für das Öffnen von (Kfz)-Türen
US8711217B2 (en) * 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
CN201402328Y (zh) * 2009-03-30 2010-02-10 德尔福技术有限公司 离车安全性检测设备
DE102010056171A1 (de) * 2010-12-24 2012-06-28 Volkswagen Ag Verfahren zum automatischen Betätigen eines Schließelements eines Fahrzeugs sowie entsprechende Vorrichtung und Fahrzeug
US8457355B2 (en) * 2011-05-05 2013-06-04 International Business Machines Corporation Incorporating video meta-data in 3D models
JP2014203317A (ja) 2013-04-08 2014-10-27 カルソニックカンセイ株式会社 携帯型通信機器
DE102014016749A1 (de) * 2014-11-12 2016-05-12 Daimler Ag Sensor zur Erfassung einer Fahrzeugumgebung
KR20160097661A (ko) * 2015-02-09 2016-08-18 엘지전자 주식회사 차량 내 탑승자 인식 장치 및 그 방법
JP6650595B2 (ja) * 2015-09-24 2020-02-19 パナソニックIpマネジメント株式会社 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
JP6427125B2 (ja) * 2016-01-29 2018-11-21 矢崎総業株式会社 車内照明装置
JP2017224049A (ja) * 2016-06-13 2017-12-21 クラリオン株式会社 車載装置、報知方法
US10000172B2 (en) * 2016-06-28 2018-06-19 Ford Global Technologies, Llc Detecting hazards in anticipation of opening vehicle doors
JP6909960B2 (ja) * 2017-03-31 2021-07-28 パナソニックIpマネジメント株式会社 検知装置、検知方法及び検知プログラム
JP6804416B2 (ja) * 2017-09-25 2020-12-23 矢崎総業株式会社 監視システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015209154A (ja) * 2014-04-28 2015-11-24 矢崎総業株式会社 車載警報装置
WO2017056401A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 制御装置、制御方法及びプログラム
JP2017177883A (ja) * 2016-03-28 2017-10-05 株式会社オートネットワーク技術研究所 車載報知装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021147854A (ja) * 2020-03-18 2021-09-27 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム

Also Published As

Publication number Publication date
EP3590772A1 (en) 2020-01-08
US11132534B2 (en) 2021-09-28
CN110682913A (zh) 2020-01-14
JP6782283B2 (ja) 2020-11-11
CN110682913B (zh) 2022-08-16
US20200012848A1 (en) 2020-01-09
EP3590772B1 (en) 2020-09-09

Similar Documents

Publication Publication Date Title
JP6782283B2 (ja) 監視システム
JP5088669B2 (ja) 車両周辺監視装置
CN106484275B (zh) 提供停驶车辆移动模式的方法、驾驶员辅助设备及包括其的车辆
JP7161318B2 (ja) 乗車人数監視システム
JP6341055B2 (ja) 車載制御装置
US11008783B2 (en) Vehicle periphery monitoring apparatus
KR101487165B1 (ko) 차량 승객을 위한 승하차 안전 시스템
WO2016027412A1 (ja) 車載制御装置
US9981598B2 (en) Alighting notification device
US11292386B2 (en) Vehicle interior lighting system for illuminating an interior of a vehicle based on a predicted movement intention of an object person
JP2017146744A (ja) ドライバ状態判定装置
US10949688B2 (en) Monitoring system for person in a vehicle
ES2902698T3 (es) Determinación de la posición de un objeto ajeno a un vehículo en un vehículo
JP2018139070A (ja) 車両用表示制御装置
US20230234564A1 (en) Agent apparatus
JP6973019B2 (ja) 走行支援システム及び車載装置
WO2021085371A1 (ja) 運転支援装置、運転支援方法、及び運転支援プログラム
US20210279486A1 (en) Collision avoidance and pedestrian detection systems
JP6786451B2 (ja) 監視システム
KR20140141285A (ko) 자동차용 탑승자 추적 장치
JP2017149273A (ja) 車載装置、車両用システム、及びプログラム
JP2018160151A (ja) 運転支援装置
JP2006117118A (ja) 車両用前方視界表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201019

R150 Certificate of patent or registration of utility model

Ref document number: 6782283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250