JP7161318B2 - 乗車人数監視システム - Google Patents

乗車人数監視システム Download PDF

Info

Publication number
JP7161318B2
JP7161318B2 JP2018116649A JP2018116649A JP7161318B2 JP 7161318 B2 JP7161318 B2 JP 7161318B2 JP 2018116649 A JP2018116649 A JP 2018116649A JP 2018116649 A JP2018116649 A JP 2018116649A JP 7161318 B2 JP7161318 B2 JP 7161318B2
Authority
JP
Japan
Prior art keywords
unit
passenger
coordinates
upper body
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018116649A
Other languages
English (en)
Other versions
JP2019219899A (ja
Inventor
健一 勝又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2018116649A priority Critical patent/JP7161318B2/ja
Priority to EP19175871.3A priority patent/EP3584746B1/en
Priority to US16/420,490 priority patent/US11256936B2/en
Priority to CN201910531654.XA priority patent/CN110633615B/zh
Publication of JP2019219899A publication Critical patent/JP2019219899A/ja
Application granted granted Critical
Publication of JP7161318B2 publication Critical patent/JP7161318B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、乗車人数監視システムに関する。
車両に乗車する人数を監視する技術として、例えば、カメラによって乗員全員が撮影された画像を顔認識して、顔認識された人の数から乗車人数を計数する自律走行車両が開示されている。また、特許文献2には、画像を複数の認識ブロックへ分割し、当該認識ブロックに人がいるか否かを判断して人数をカウントする監視装置が記載されている。
特開2015-200933号公報 特開2015-007953号公報
ところで、車両に乗車する人数を計数する従来の計数方法では、乗車人数を計数する精度を向上させたいとのニーズがある。
本発明は、上記の事情に鑑みてなされたものであって、乗車人数を計数する精度を向上させることができる乗車人数監視システムを提供することを目的とする。
上記目的を達成するために、本発明に係る乗車人数監視システムは、車両の室内の搭乗者までの距離を含む深度画像を撮像する撮像部と、前記撮像部によって撮像された前記深度画像から前記搭乗者の顔を認識する顔認識部と、前記撮像部によって撮像された前記深度画像から前記搭乗者の上半身を認識する上半身認識部と、前記顔認識部による前記顔の認識結果と前記上半身認識部による前記上半身の認識結果とを組み合わせて前記搭乗者の人数を計数する計数部と、を備え、前記計数部は、前記顔認識部によって認識された前記顔の前記室内における3次元の第1座標と前記上半身認識部によって認識された前記上半身の頭部の前記室内における3次元の第2座標とを組み合わせて前記人数を計数し、前記第1座標と前記第2座標との距離が予め設定された閾値よりも小さい場合、前記顔認識部によって認識された前記顔と前記上半身認識部によって認識された前記上半身とを組み合わせて1人と計数し、前記第1座標と前記第2座標との距離が前記閾値以上である場合、前記顔認識部によって認識された前記顔と前記上半身認識部によって認識された前記上半身とを組み合わせずそれぞれ1人として計数する、ことを特徴とする。
また、上記乗車人数監視システムでは、前記計数部は、前記第1座標と前記第2座標とのいずれか一方に、前記距離が前記閾値よりも小さい他方が複数存在する場合、前記距離が近いもの同士を組み合わせて1人として計数し、残りをそれぞれ1人として計数するものとすることができる。
また、上記乗車人数監視システムでは、前記計数部によって計数された前記人数が予め設定された前記車両の定員数を超えている場合に警報する処理を行う動作制御部をさらに備えるものとすることができる。
また、上記乗車人数監視システムでは、前記車両の天井の前記室内側の面に設けられ、前記撮像部、前記顔認識部、前記上半身認識部、及び、前記計数部の少なくとも1つが組み付けられる筐体を備えるものとすることができる。
本発明に係る乗車人数監視システムは、顔認識部が深度画像から認識した顔の第1座標と、上半身認識部が深度画像から認識した上半身の第2座標とを組み合わせて、搭乗者の人数を計数する。この結果、乗車人数監視システム1は、深度画像で顔及び上半身の少なくとも一方が認識できれば、搭乗者の人数を計数することができるので、乗車人数を計数する精度を向上させることができる、という効果を奏する。
図1は、実施形態に係る乗車人数監視システムが適用される車両の室内の概略構成を表す模式図である。 図2は、実施形態に係る乗車人数監視システムの概略構成を表すブロック図である。 図3は、実施形態に係る乗車人数監視システムの外観を表す斜視図である。 図4は、実施形態に係る乗車人数監視システムの撮像例を表す図である。 図5は、実施形態に係る乗車人数監視システムの計数動作の一例を示す図である。 図6は、実施形態に係る乗車人数監視システムの処理部の制御の一例を表すフローチャート図である。 図7は、実施形態に係る乗車人数監視システムの顔認識処理の一例を表すフローチャート図である。 図8は、実施形態に係る乗車人数監視システムの上半身認識処理の一例を表すフローチャート図である。 図9は、実施形態に係る乗車人数監視システムの計数処理の一例を表すフローチャート図である。
以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
[実施形態]
図1から図5を参照して、実施形態について説明する。図1は、実施形態に係る乗車人数監視システムが適用される車両の室内の概略構成を表す模式図である。図2は、実施形態に係る乗車人数監視システムの概略構成を表すブロック図である。図3は、実施形態に係る乗車人数監視システムの外観を表す斜視図である。図4は、実施形態に係る乗車人数監視システムの撮像例を表す図である。なお、図1に示す矢印X方向は、車両100の車幅方向とする。図1に示す矢印Y方向は、車両100の長さ方向(前後方向)とする。図1に示す矢印Z方向は、車両100の高さ方向とする。
図1に示す本実施形態に係る乗車人数監視システム1は、車両100に搭載され、当該車両100の室内101の搭乗者OBを監視し、搭乗者OBに対する様々な処理を行う車載システム(車室内監視システム)である。搭乗者OBは、乗車人数監視システム1による監視の対象者である。搭乗者OBは、車両100の室内101に乗車した搭乗者であり、車両100の運転者や運転者以外の同乗者を含む。
図1に示す一例では、車両100は、運転席105と、後部座席107とを備える。なお、本実施形態では、車両100は、自動車である場合について説明するが、例えば、バス、電車等であってもよい。そして、本実施形態の乗車人数監視システム1は、全体が車両100の天井102の室内101側の面に設けられ、種々の機能を統合したオーバーヘッドモジュール(OHM:Over-Head Module)を構成する。
以下、図1、図2、図3、図4を参照して乗車人数監視システム1の構成について詳細に説明する。
乗車人数監視システム1は、筐体2と、撮像部3と、出力部4と、照明部5と、操作部6と、外部接続部7と、制御部8とを備える。なお、オーバーヘッドモジュールを構成する乗車人数監視システム1は、この他、例えば、無線通信部、アンテナ、電源分配部等を備えていてもよい。
筐体2は、乗車人数監視システム1を構成する各部を収容するものである。筐体2は、複数の部材が組み合わさって全体として中空箱状に形成される。筐体2は、絶縁性を有する合成樹脂によって形成される。ここでは、筐体2は、内部に撮像部3、出力部4、照明部5、操作部6、外部接続部7、及び、制御部8が組み付けられこれらを収容し、オーバーヘッドモジュールとしてユニット化する。筐体2は、内部に収容した撮像部3、出力部4、照明部5、操作部6、外部接続部7の一部が外面に露出している。そして、本実施形態の筐体2は、車両100の天井(ルーフパネル)102の室内101側の面に設けられる。天井102は、ピラー等を介して車両ボデー本体に連結され当該車両ボデー本体の鉛直方向上側に支持された構造体である。車両100は、天井102を鉛直方向上側の境界として、室内101と室外とに領域分けされる。ここでは、筐体2は、例えば、天井102とウインドシールド103との交差部分でかつ車両100の車幅方向の略中央位置に設けられる。
撮像部3は、車両100の室内101の搭乗者OBまでの距離を計測する3次元のTOF(Time of Flight)カメラ、距離画像センサ等を含む。撮像部3は、搭乗者OBまでの距離と画素値とが対応付けられた画素を含む深度画像を撮像するものである。本実施形態の撮像部3は、室内101の搭乗者OBの顔及び上半身の3次元位置を計測可能な深度画像を撮像する機能を有する。本実施形態では、撮像部3は、TOFカメラを用いることで、暗い環境でも搭乗者OBの撮像を可能としている。
撮像部3は、例えば、レンズが筐体2の外面に露出し、光軸が室内101の運転席105、後部座席107側を向くように当該筐体2に設けられる。撮像部3は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。例えば、撮像部3は、撮像した深度画像を制御部8に出力する。なお、本実施形態では、撮像部3は、筐体2に設けられる場合について説明するが、例えば、車両100の前列及び後列に分けて設ける構成としてもよい。
例えば、図4に示す深度画像Gは、運転席105で前方を向いている搭乗者OB1と、助手席106で下方を向いている搭乗者OB2とを含む室内101を撮像部3によって撮像した画像である。この場合、深度画像Gは、2次元画像G1と、3次元情報である距離画像G2とを含む。2次元画像G1は、搭乗者OB1及び搭乗者OB2と、その背景である室内101とを示す画像である。2次元画像G1は、搭乗者OB1及び搭乗者OB2の顔認識に用いられる。距離画像G2は、室内101の物体までの奥行き、高さ、幅、形状を示す画像である。距離画像G2は、搭乗者OB1及び搭乗者OB2の上半身認識に用いられる。なお、図4に示す一例では、距離画像G2は、搭乗者OB1及び搭乗者OB2に対応した部分のみを示し、背景に対応した部分を省略している。
出力部4は、車両100の室内101に向けて、種々の情報を出力するものである。ここでは、出力部4は、表示部41と、スピーカ42とを含んで構成される。表示部41は、視覚情報(図形情報、文字情報)を出力する表示装置である。表示部41は、例えば、薄型の液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等によって構成される。スピーカ42は、聴覚情報(音声情報、音情報)を出力する出力装置である。出力部4を構成する表示部41、スピーカ42は、それぞれ、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
照明部5は、車両100の室内101を照明するものであり、例えば、マップランプ等である。照明部5は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
操作部6は、車両100の室内101側から種々の操作を入力可能な操作機器である。操作部6は、例えば、押しボタン、静電容量式タッチスイッチや赤外線センサ等の非接触式センサ等によって構成される。操作部6は、制御部8に電気的に接続され、相互に電気信号を授受可能であり、当該制御部8によって各部の動作が制御される。
外部接続部7は、筐体2の外部の電気機器が電気的に接続される部分である。外部接続部7は、種々の形式のコネクタやインターフェース部によって構成される。外部接続部7は、警報装置9が電気的に接続される。警報装置9は、搭乗者OBに定員オーバーを警報することができる。
外部接続部7は、車両100の各部を統括的に制御するECU(Electronic Control Unit)や車両100の天井102の室内101側の面の後部座席側の位置に設けられるリヤモジュール等が電気的に接続される。外部接続部7は、制御部8、及び、筐体2の外部の電気機器に電気的に接続され、相互に電気信号を授受可能である。
図2に示す一例では、外部接続部7は、例えば、メータユニット201と、先進運転支援システム(ADAS:Advanced Driver Assistance System)ECU202とが電気的に接続されている。メータユニット201は、車両100の運転席105の前方に設けられ、当該車両100の運転者、搭乗者等から目視可能なものである。メータユニット201は、例えば、車両100のコンビネーションメータ、ヘッドアップディスプレイ、テレビジョン等が用いられる。
先進運転支援システムECU202は、車両100の周辺状況に関する周辺状況情報を出力する。周辺状況情報は、例えば、車両100の周辺環境や車両100の周辺の人物、他車両、障害物等の外部物体を撮像した周辺画像情報、外部物体の有無や当該外部物体との相対距離、相対速度、TTC(Time-To-Collision:接触余裕時間)等を表す外部物体情報等を含んでいてもよい。
制御部8は、乗車人数監視システム1の各部を統括的に制御する部分である。制御部8は、搭乗者OBの状態監視や様々な支援に関する種々の演算処理を実行する。制御部8は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)及びインターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御部8は、撮像部3、出力部4、照明部5、操作部6、及び、外部接続部7が電気的に接続される。制御部8は、撮像部3によって撮像された深度画像に対応した画像信号、各部を駆動させるための駆動信号等の各種の電気信号を各部との間で相互に授受することができる。
具体的には、制御部8は、機能概念的に、記憶部81、及び、処理部82を含んで構成される。記憶部81、及び、処理部82は、電気的に接続されている各種機器との間で種々の情報を授受することができる。記憶部81は、メモリ等の記憶装置である。記憶部81は、制御部8での各種処理に必要な条件や情報、制御部8で実行する各種プログラム等が格納されている。そして、記憶部81は、表示部41に表示する一部の画像等の視覚情報やスピーカ42で出力する音声等の聴覚情報も記憶している。また、記憶部81は、撮像部3が撮像した深度画像に関する情報や外部接続部7を介して取得された各種情報を一時的に記憶することもできる。記憶部81は、処理部82によって各種情報が必要に応じて読み出される。処理部82は、各種入力信号等に基づいて、記憶部81に記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する。
図2に示す一例では、記憶部81は、必要情報81aと、人数情報81bとを記憶することができる。必要情報81aは、搭乗者OBの顔及び上半身の認識、人数の計数等に必要な条件や情報を含む。例えば、必要情報81aは、搭乗者OBの顔及び上半身の認識に用いられる学習辞書、車両100の定員数等を示す情報を含む。なお、学習辞書の一例については、後述する。人数情報81bは、室内101の搭乗者OBの人数を計数した結果を示す情報を含む。
処理部82は、より詳細には、機能概念的に、顔認識部83、上半身認識部84、計数部85、及び、動作制御部86を含んで構成される。処理部82は、プログラムを実行することにより、顔認識部83、上半身認識部84、計数部85、及び、動作制御部86を実現する。
顔認識部83は、撮像部3によって撮像された深度画像Gから搭乗者OBの顔を認識する。顔認識部83は、例えば、種々の公知の人工知能(Artificial Intelligence)技術や深層学習(Deep Learning)技術を用いて、深度画像Gの2次元画像G1を走査した画素値に基づいて搭乗者OBの顔を認識する。例えば、顔認識部83は、記憶部81の必要情報81aに記憶されている学習辞書等と撮像部3によって撮像された深度画像Gの2次元画像G1とを照合し、搭乗者OBの顔を認識する。なお、学習辞書は、人工知能技術や深層学習技術を用いた様々な手法を用いて顔の特徴量等がデータベース化された情報である。学習辞書は、例えば、外部接続部7を介して他の電子機器から取得してもよい。また、顔認識部83は、例えば、背景差分法、Random Forest、Mean Shift法、パターンマッチング等によって深度画像Gの画素値に基づいて搭乗者OBの顔を認識してもよい。例えば、顔認識部83は、撮像部3によって撮像された深度画像Gの2次元画像G1と事前に撮像しておいた室内101の室内画像との画素値の情報を比較し、室内画像とは異なる画素値の画素部分を搭乗者OBの人体部分として抽出し、当該人体部分から顔の部分を認識してもよい。顔認識部83は、室内101に車両100の前方を向いている搭乗者OBの顔を認識する。そして、顔認識部83は、認識した搭乗者OBの顔の特定ポイントを検出し、当該特定ポイントの室内101における3次元の第1座標を算出する。特定ポイントは、例えば、顔の中心、目、鼻、口等のポイントを含む。顔認識部83は、算出した第1座標を深度画像に紐付けて記憶部81に記憶する。
例えば、顔認識部83は、図4に示す深度画像Gの2次元画像G1から搭乗者OBの顔を認識する場合、前方を向いている搭乗者OB1の顔を認識でき、下方を向いている搭乗者OB2の顔を認識できない。この結果、顔認識部83は、認識できた搭乗者OB1の顔の中心である第1座標C1を算出する。
上半身認識部84は、撮像部3によって撮像された深度画像Gから搭乗者OBの上半身を認識する。上半身認識部84は、例えば、種々の公知の人工知能技術や深層学習技術を用いて、深度画像Gの距離画像G2を走査した画素が示す距離の情報に基づいて搭乗者OBの上半身を認識する。例えば、顔認識部83は、記憶部81の必要情報81aに記憶されている学習辞書等と撮像部3によって撮像された深度画像Gの距離画像G2とを照合し、搭乗者OBの上半身を認識する。なお、学習辞書は、人工知能技術や深層学習技術を用いた様々な手法を用いて上半身の特徴量等がデータベース化された情報である。また、顔認識部83は、撮像部3によって撮像された深度画像Gの距離画像G2と事前に撮像しておいた室内101の室内距離画像との画素が示す距離の情報を比較し、室内画像とは異なる距離の画素部分を搭乗者OBの人体部分として抽出し、当該人体部分から上半身を認識してもよい。そして、上半身認識部84は、認識した搭乗者OBの上半身を認識すると、当該上半身の頭部の室内101における3次元の第2座標を算出する。上半身認識部84は、算出した第2座標を深度画像に紐付けて記憶部81に記憶する。
例えば、上半身認識部84は、図4に示す深度画像Gの距離画像G2から搭乗者OBの上半身を認識する場合、前方を向いている搭乗者OB1の上半身、及び、下方を向いている搭乗者OB2の上半身の双方を認識できる。この結果、上半身認識部84は、認識できた搭乗者OB1、OB2のそれぞれの上半身の頭部の中心である第2座標D1、D2を算出する。
計数部85は、顔認識部83による搭乗者OBの顔の認識結果と上半身認識部84による搭乗者OBの上半身の認識結果とを組み合わせて搭乗者OBの人数を計数する。言い換えると、計数部85は、顔認識部83によって認識された搭乗者OBの顔と、上半身認識部84によって認識された搭乗者OBの上半身とを組み合わせて搭乗者OBの人数を計数する。本実施形態では、計数部85は、顔認識部83によって認識された顔の室内101における3次元の第1座標と、上半身認識部84によって認識された上半身の室内101における3次元の第2座標とを組み合わせて搭乗者OBの人数を計数する。計数部85は、計数した搭乗者OBの人数を人数情報81bに記憶する。計数部85は、第1座標と第2座標との組み合わせ結果に基づいて人数を計数する機能を有する。計数部85は、第1座標と第2座標との距離が予め定められた必要情報81bの判定閾値よりも小さい場合、顔認識部83によって認識された顔と上半身認識部84によって認識された上半身とを組み合わせて1人と計数する。言い換えると、計数部85は、第1座標と第2座標との距離が必要情報81bの判定閾値よりも小さい場合、第1座標と第2座標との1つの組み合わせを1人と計数する。すなわち、計数部85は、距離が必要情報81bの判定閾値よりも小さい第1座標と第2座標とが同一の搭乗者OBの3次元座標であると判定し、第1座標と第2座標と組み合わせることで、3次元座標が重複するのを回避している。また、計数部85は、第1座標と第2座標との距離が必要情報81bの判定閾値以上である場合、顔認識部83によって認識された顔と上半身認識部84によって認識された上半身とを組み合わせずそれぞれ1人として計数する。言い換えると、計数部85は、第1座標と第2座標との距離が必要情報81bの判定閾値以上である場合、第1座標と第2座標とを組み合わせずに、それぞれの第1座標の数と第2座標の数とを計数する。なお、必要情報81bの判定閾値は、第1座標と第2座標とが同一の搭乗者OBのものであるか否かを判定するための閾値である。例えば、第1座標が顔の中心を示す3次元座標であり、第2座標が頭部の中心を示す3次元座標である場合、必要情報81bの判定閾値は、一般的な顔の中心位置と頭部の中心位置とを距離を学習して定められた閾値となっている。また、計数部85は、第1座標と第2座標とのいずれか一方に、距離が判定閾値よりも小さい他方が複数存在する場合、距離が近いもの同士を組み合わせて1人として計数し、残りをそれぞれ1人として計数する機能を有する。
図4に示す一例では、計数部85は、2次元画像G1から算出された搭乗者OB1の第1座標C1と、距離画像G2の搭乗者OB1の第2座標D1及び搭乗者OB2の第2座標D2との組み合わせから人数を計数する。この場合、計数部85は、室内101において、第1座標C1と第2座標D1との距離が判定閾値よりも小さいので、第1座標C1と第2座標D1とを組み合わせ、当該組み合わせを1人と計数する。そして、計数部85は、室内101において、第2座標D2の周囲には第1座標が存在しないので、第2座標D2を1人として計数する。すなわち、計数部85は、第1座標C1と第2座標D1との組み合わせが1つと、第2座標D2が1つなので、室内101の搭乗者の人数は2人と計数する。このように、計数部85は、搭乗者OB1の第1座標C1と第2座標D1とが重複しているので、重複した3次元座標の計数を回避している。
動作制御部86は、動作制御処理を実行可能な部分である。動作制御処理とは、撮像部3、出力部4、照明部5、及び、操作部6等の乗車人数監視システム1の各部の動作を制御する処理である。動作制御部86は、撮像部3、出力部4(表示部41、スピーカ42)、照明部5、操作部6、外部接続部7、記憶部81と電気的に接続される。動作制御部86は、撮像部3に駆動信号を出力することで撮像部3の動作を制御し、搭乗者OBを含む深度画像Gの撮像を開始させたり当該撮像を終了させたりすることができる。また、動作制御部86は、出力部4(表示部41、スピーカ42)に駆動信号を出力することで出力部4の動作を制御し、表示部41に視覚情報を表示させたりスピーカ42に聴覚情報を出力させたりすることができる。また、動作制御部86は、照明部5に駆動信号を出力することで照明部5の動作を制御し、照明部5を点灯させたり照明部5を消灯させたりすることができる。さらに、動作制御部86は、操作部6から入力された操作信号に基づいて操作部6に対する操作入力を受け付け、照明部5の点灯、消灯を切り替えたり表示部41による表示内容を切り替えたり各種設定を行ったりすることができる。動作制御部86は、外部接続部7を介してメータユニット201に表示要求を出力することで、メータユニット201に情報を表示させることができる。動作制御部86は、外部接続部7を介して先進運転支援システムECU202に支援要求信号を出力し、上記の車両情報、周辺状況情報等を取得することができる。動作制御部86は、外部接続部7を介して警報装置9に駆動信号を出力することで、警報装置9の動作を制御することができる。
そして、動作制御部86は、計数部85によって計数された人数が車両100の定員数を超えている場合に警報する処理を行う。動作制御部86は、当該警報する処理を実行することにより、定員オーバーを示す警報情報を出力部4に出力させたり、外部接続部7を介して定員オーバーを警報装置9に警報させたりすることができる。
次に、図5を参照しながら、乗車人数監視システム1による乗車人数を計数する動作の一例を説明する。図5は、実施形態に係る乗車人数監視システム1の計数動作の一例を示す図である。
図5に示すステップS1では、車両100の室内101には、搭乗者OB1、OB2、OB3、OB4が乗車している。具体的には、搭乗者OB1は、車両100の運転席105に座り、顔を車両100の進行方向Mに向けている。搭乗者OB2は、車両100の助手席106に座り、顔は進行方向Mとは異なる方向に向けている。搭乗者OB3は、車両100の後部座席107に座り、顔を進行方向Mに向けている。搭乗者OB4は、搭乗者OB3の子供であり、搭乗者OB3に抱えられた状態で車両100の後部座席107に位置し、顔を進行方向Mとは逆方向に向けている。
ステップS1では、乗車人数監視システム1の撮像部3は、搭乗者OB1、OB2、OB3、OB4を含む室内101の深度画像Gを撮像する。撮像部3は、撮像した深度画像Gを記憶部81に記憶する。
ステップS2では、乗車人数監視システム1の顔認識部83は、撮像部3によって撮像された深度画像Gの2次元画像G1から運転席105の搭乗者OB1の顔と、後部座席107の搭乗者OB3の顔とを認識する。すなわち、顔認識部83は、当該深度画像Gの2次元画像G1から助手席106の搭乗者OB2の顔と、後部座席107の搭乗者OB4の顔とを認識できていない。この結果、顔認識部83は、運転席105付近の第1座標C1と、後部座席107付近の第1座標C3とを算出する。
また、ステップS2では、乗車人数監視システム1の上半身認識部84は、撮像部3によって撮像された深度画像Gの距離画像G2から運転席105の搭乗者OB1の上半身と、助手席106の搭乗者OB2の上半身と、後部座席107の搭乗者OB3の上半身と、後部座席107の搭乗者OB4の上半身とを認識する。この結果、上半身認識部84は、運転席105付近の第2座標D1と、助手席106付近の第2座標D2と、後部座席107付近の2つの第2座標D3、D4とを算出する。
ステップS2では、乗車人数監視システム1の計数部85は、顔認識部83によって算出された第1座標C1、C3と上半身認識部84によって算出された第2座標D1、D2、D3、D4との組み合わせを判別する。例えば、計数部85は、第1座標C1、C3と第2座標D1、D2、D3、D4との距離が判定閾値よりも小さくなる組み合わせを求める。この結果、計数部85は、運転席105では、第1座標C1と第2座標D1とが1対1に組み合わされると判断する。計数部85は、助手席106では、第2座標D1と組になる第1座標が存在しないと判断する。計数部85は、後部座席107では、第1座標C3と第2座標D3、D4とが1対2に組み合わされると判断する。なお、図5に示す一例では、第1座標C3と第2座標D3との距離L1は、第1座標C3と第2座標D4との距離L2よりも小さくなっているものとする。
ステップS3では、計数部85は、組み合わせ結果に基づいて、運転席105では第2座標D1、後部座席107では第1座標C3をそれぞれ無効化している。この結果、計数部85は、運転席105では第1座標C1、助手席106では第2座標D2、後部座席107では第2座標D3、D4をそれぞれ正規化する。そして、計数部85は、正規化した4つの第1座標C1、第2座標D2、第2座標D3、第2座標D4の数を計数して、室内101における搭乗者OB1、OB2、OB3、OB4の人数を4人と計数する。計数部85は、計数した人数を人数情報81bに記憶する。すなわち、計数部85は、第1座標C3との距離が判定閾値よりも小さい第2座標D3、D4が存在するので、当該距離が近い第1座標C3と第2座標D3とを組み合わせて1人として計数し、残りの第2座標D4を1人として計数している。
また、例えば、着席している搭乗者OBの足下から胸元に至る荷物を当該搭乗者OBの前方に置いている場合、乗車人数監視システム1は、撮像部3によって撮像した深度画像Gの2次元画像G1から搭乗者OBの顔を認識できても、当該荷物によって距離画像G2から搭乗者OBの上半身を認識できない可能性がある。この場合、乗車人数監視システム1は、深度画像Gの2次元画像G1から搭乗者OBの顔を認識することができるので、距離画像G2から上半身を認識できない搭乗者OBも室内101の人数として計数することができる。
以上で説明した乗車人数監視システム1は、顔認識部83が深度画像Gから認識した搭乗者OBの顔と、上半身認識部84が深度画像Gから認識した搭乗者OBの上半身とを組み合わせて、搭乗者OBの人数を計数する。例えば、搭乗者OBが下方を向いた状態で就寝している場合、長時間にわたって搭乗者OBの顔を認識できない可能性がある。このような場合、乗車人数監視システム1は、搭乗者OBの上半身に基づいて就寝中の搭乗者OBを計数できる。この結果、乗車人数監視システム1は、深度画像Gから顔及び上半身の少なくとも一方が認識できれば、搭乗者OBの人数を計数することができるので、乗車人数を計数する精度を向上させることができる。
乗車人数監視システム1は、計数部85が顔認識部83によって認識された顔の3次元の第1座標と、上半身認識部84によって認識された上半身の頭部の3次元の第2座標とを組み合わせて搭乗者OBの人数を計数する。この結果、乗車人数監視システム1は、搭乗者OBの顔と頭部という近い人体の部位の3次元座標の組み合わせを確認するので、組み合わせの判定精度を向上させることができる。
乗車人数監視システム1は、第1座標と第2座標との距離が予め設定された必要情報81aの判定閾値よりも小さい場合、計数部85が顔認識部83によって認識された顔と上半身認識部84によって認識された上半身とを組み合わせて1人と計数し、第1座標と第2座標との距離が判定閾値以上である場合、計数部85が顔認識部83によって認識された顔と上半身認識部84によって認識された上半身とを組み合わせずそれぞれ1人として計数する。この結果、乗車人数監視システム1は、離れた位置の第1座標と第2座標とが組み合わされることを防止し、かつ、近接する複数の搭乗者OBの3次元座標を計数に用いることができるので、乗車人数を計数する精度をより一層向上させることができる。
乗車人数監視システム1は、計数部85が第1座標と第2座標とのいずれか一方に、距離が必要情報81aの判定閾値よりも小さい他方が複数存在する場合、第1座標と第2座標との距離が近いもの同士を組み合わせて1人として計数し、残りをそれぞれ1人として計数する。この結果、乗車人数監視システム1は、複数の搭乗者OBの顔、頭部等が接近していても、当該複数の搭乗者OBの人数を算出できるので、乗車人数を計数する精度をより一層向上させることができる。
乗車人数監視システム1は、撮像部3、制御部8を含む各部が筐体2に設けられるので、当該乗車人数監視システム1全体をオーバーヘッドモジュールとしてユニット化することができる。この構成により、乗車人数監視システム1は、車両100に対する搭載性を向上することができる。
次に、図6のフローチャート図を参照して、制御部8の処理部82の制御の一例を説明する。図6は、実施形態に係る乗車人数監視システム1の処理部82の制御の一例を表すフローチャート図である。図6に示すフローチャート図は、車両100の乗車人数の監視に関する処理手順の一例を示す。図6に示す処理手順は、処理部82がプログラムを実行することによって実現される。図6に示す処理手順は、処理部82によって繰り返し実行される。
まず、乗車人数監視システム1の制御部8の処理部82は、撮像部3によって撮像された深度画像Gを取得する(ステップS101)。そして、処理部82は、顔認識処理を実行する(ステップS102)。顔認識処理は、例えば、ステップS1で取得した深度画像Gの2次元画像G1から搭乗者OBの顔を認識し、認識した顔の3次元座標を算出する処理である。なお、顔認識処理の詳細については、後述する。処理部82は、ステップS102の処理を実行することにより、上記の顔認識部83として機能する。そして、処理部82は、顔認識処理が終了すると、処理をステップS103に進める。
処理部82は、上半身認識処理を実行する(ステップS103)。上半身認識処理は、例えば、ステップS1で取得した深度画像Gの距離画像G2から搭乗者OBの上半身を認識し、認識した上半身の頭部の3次元座標を算出する処理である。なお、上半身認識処理の詳細については、後述する。処理部82は、ステップS103の処理を実行することにより、上記の上半身認識部84として機能する。そして、処理部82は、上半身認識処理が終了すると、処理をステップS104に進める。
処理部82は、乗車人数の計数処理を実行する(ステップS104)。計数処理は、例えば、ステップS2で算出した第1座標とステップS3で算出した第2座標とを組み合わせて乗車人数を計数する処理である。なお、計数処理の詳細については、後述する。処理部82は、ステップS104の処理を実行することにより、上記の計数部85として機能する。そして、処理部82は、計数処理が終了すると、処理をステップS105に進める。
処理部82は、乗車人数が車両100の定員数を超えているか否かを判定する(ステップS105)。例えば、処理部82は、ステップS104で計数された人数が、必要情報81aが示す車両100の定員数を超えている場合に、乗車人数が車両100の定員数を超えていると判定する。処理部82は、乗車人数が車両100の定員数を超えていると判定した場合(ステップS105でYes)、処理をステップS106に進める。
処理部82は、乗車人数が定員数を超えていることを警報させる(ステップS106)。例えば、処理部82は、定員オーバーを示す警報情報を出力部4に出力させる。この結果、出力部4は、警報情報を搭乗者OBに対して出力することで、定員オーバーを警報する。なお、処理部82は、外部接続部7を介して警報情報による警報を警報装置9、メータユニット201等に要求してもよい。この結果、警報装置9、メータユニット201等は、警報情報に基づいて定員オーバーを警報できる。処理部82は、ステップS106の処理を実行することにより、上記の動作制御部86として機能する。処理部82は、警報させると、図6に示す処理手順を終了させる。
処理部82は、乗車人数が車両100の定員数を超えていないと判定した場合(ステップS105でNo)、処理をステップS107に進める。処理部82は、人数を出力する(ステップS107)。例えば、処理部82は、ステップS104で計数された人数を示す情報を出力部4に出力させる。この結果、出力部4は、人数を搭乗者OBに対して出力することができる。なお、処理部82は、外部接続部7を介してメータユニット201に人数を示す情報を出力してもよい。処理部82は、人数を出力すると、図6に示す処理手順を終了させる。
図6に示す処理手順は、乗車人数が車両100の定員数を超えていないと、ステップS107で人数を出力させる場合について説明したが、これに限定されない。例えば、図6に示す処理手順は、ステップS107の処理を削除し、乗車人数が車両100の定員数を超えていない場合は、処理を行わない処理手順としてもよい。
以上で説明した乗車人数監視システム1は、動作制御部86が計数部85によって計数された人数が車両100の定員数を超えている場合に警報する処理を行う。この結果、乗車人数監視システム1は、計数の精度が向上しているので、当該人数が車両100定員数を超えたことを警報することで、警報の精度を向上させることができる。特に、複数の搭乗者OBが顔を接近させている状態であっても、乗車人数監視システム1は、人数を正確に計数できるので、定員オーバーの警報精度も向上させることができる。
次に、図7のフローチャート図を参照して、制御部8の処理部82による顔認識処理の一例を説明する。図7は、実施形態に係る乗車人数監視システム1の顔認識処理の一例を表すフローチャート図である。図7に示す処理手順は、処理部82がプログラムを実行することによって実現される。図7に示す処理手順は、処理部82が図6に示すステップS102を実行することにより、起動される。
まず、乗車人数監視システム1の制御部8の処理部82は、深度画像Gの2次元画像G1から搭乗者OBの顔を認識する(ステップS201)。例えば、処理部82は、深度画像Gの2次元画像G1を走査した結果と学習辞書の顔の特徴量とを照合し、2次元画像G1から搭乗者OBの顔を認識する。処理部82は、顔の認識結果を記憶部81に記憶すると、処理をステップS202に進める。
処理部82は、ステップS201の認識結果に基づいて、顔が認識できたか否かを判定する(ステップS202)。処理部82は、顔が認識できていないと判定した場合(ステップS202でNo)、図7に示す処理手順を終了させ、図6に示した処理手順に復帰する。処理部82は、顔が認識できたと判定した場合(ステップS202でYes)、処理をステップS203に進める。
処理部82は、顔の中心を示す2次元座標を算出する(ステップS203)。例えば、処理部82は、顔を認識した2次元画像G1における顔の中心を示す2次元座標(x,y)を算出する。そして、処理部82は、算出した2次元座標(x,y)を3次元の第1座標に変換する(ステップS204)。例えば、処理部82は、顔の中心を示す2次元座標(x,y)を距離画像G2上に投影、すなわち、顔の中心に対応した距離画像G2における3次元座標(x,y,z)を第1座標として求める。また、処理部82は、顔の中心を示す3次元座標(x,y,z)を中心に予め定められた半径の球範囲のトリム平均値を算出して第1座標を求めてもよい。そして、処理部82は、変換した第1座標を記憶部81に記憶する(ステップS205)。その後、処理部82は、図7に示す処理手順を終了させ、図6に示した処理手順に復帰する。
なお、図7に示す処理手順は、深度画像Gの2次元画像G1から顔を複数認識した場合、ステップS203からステップS205が複数の顔の全てに対してそれぞれの処理を行うことを前提としているが、これに限定されない。例えば、図7に示す処理手順は、ステップS203からステップS205の一連の処理を、認識した顔の数だけ繰り返す処理手順としてもよい。
次に、図8のフローチャート図を参照して、制御部8の処理部82による上半身認識処理の一例を説明する。図8は、実施形態に係る乗車人数監視システム1の上半身認識処理の一例を表すフローチャート図である。図8に示す処理手順は、処理部82がプログラムを実行することによって実現される。図8に示す処理手順は、処理部82が図6に示すステップS103を実行することにより、起動される。
まず、乗車人数監視システム1の制御部8の処理部82は、深度画像Gの距離画像G2から搭乗者OBの上半身を認識する(ステップS301)。例えば、処理部82は、深度画像Gの距離画像G2を走査した結果と学習辞書の上半身の特徴量とを照合し、距離画像G2から搭乗者OBの上半身を認識する。処理部82は、上半身の認識結果を記憶部81に記憶すると、処理をステップS302に進める。
処理部82は、ステップS301の認識結果に基づいて、上半身が認識できたか否かを判定する(ステップS302)。処理部82は、上半身が認識できていないと判定した場合(ステップS302でNo)、図8に示す処理手順を終了させ、図6に示した処理手順に復帰する。処理部82は、上半身が認識できたと判定した場合(ステップS302でYes)、処理をステップS303に進める。
処理部82は、上半身の頭部を推定する(ステップS303)。例えば、処理部82は、距離画像G2で認識した上半身と学習辞書の頭部の特徴量とを照合し、上半身の頭部を推定する。そして、処理部82は、推定した頭部の中心を示す3次元の第2座標を算出する(ステップS304)。例えば、処理部82は、上半身を認識した距離画像G2における上半身の頭部の中心を示す3次元座標(x,y,z)を算出する。なお、処理部82は、距離画像G2における頭部の領域のトリム平均値を算出して第2座標を算出してもよい。そして、処理部82は、算出した第2座標を記憶部81に記憶する(ステップS305)。その後、処理部82は、図8に示す処理手順を終了させ、図6に示した処理手順に復帰する。
なお、図8に示す処理手順は、深度画像の距離画像G2から上半身を複数認識した場合、ステップS303からステップS305が複数の上半身の全てに対してそれぞれの処理を行うことを前提としているが、これに限定されない。例えば、図8に示す処理手順は、ステップS303からステップS305の一連の処理を、認識した上半身の数だけ繰り返す処理手順としてもよい。
次に、図9のフローチャート図を参照して、制御部8の処理部82による計数処理の一例を説明する。図9は、実施形態に係る乗車人数監視システム1の計数処理の一例を表すフローチャート図である。図9に示す処理手順は、処理部82がプログラムを実行することによって実現される。図9に示す処理手順は、処理部82が図6に示すステップS104を実行することにより、起動される。
まず、乗車人数監視システム1の制御部8の処理部82は、第1座標及び第2座標を一元化する(ステップS401)。例えば、処理部82は、顔認識処理で算出した第1座標と上半身認識処理で算出した第2座標とを室内101の3次元空間にプロットする。そして、処理部82は、第1座標と第2座標との距離が判定閾値よりも小さくなる組み合わせを検出する(ステップS402)。例えば、図5に示した一例の場合、処理部82は、第1座標C1と第2座標D1との1対1の組み合わせと、第1座標C3と第2座標D3、D4との1対2の組み合わせとを2つ検出することになる。
処理部82は、ステップS402の検出結果に基づいて、組み合わせを検出したか否かを判定する(ステップS403)。処理部82は、組み合わせを検出していないと判定した場合(ステップS403でNo)、処理を後述するステップS409に進める。処理部82は、組み合わせを検出したと判定した場合(ステップS403でYes)、処理をステップS404に進める。
処理部82は、ステップS402の検出結果に基づいて、1対1の組み合わせパターンがあるか否かを判定する(ステップS404)。処理部82は、1対1の組み合わせパターンがないと判定した場合(ステップS404でNo)、処理を後述するステップS406に進める。処理部82は、1対1の組み合わせパターンがあると判定した場合(ステップS404でYes)、処理をステップS405に進める。
処理部82は、1対1の第1座標と第2座標との組み合わせを紐付ける(ステップS405)。例えば、図5に示した一例の場合、処理部82は、第1座標C1と第2座標D1とを紐付ける。なお、処理部82は、1対1の第1座標と第2座標との組み合わせが複数ある場合、全ての組み合わせに対して紐付け処理を行う。処理部82は、ステップS405の処理を終了すると、処理をステップS406に進める。
処理部82は、ステップS402の検出結果に基づいて、1対1とは異なる組み合わせパターンがあるか否かを判定する(ステップS406)。処理部82は、1対1とは異なる組み合わせパターンがないと判定した場合(ステップS406でNo)、処理を後述するステップS408に進める。処理部82は、1対1とは異なる組み合わせパターンがあると判定した場合(ステップS406でYes)、処理をステップS407に進める。
処理部82は、複数の組み合わせパターンの中から、距離が最小となる第1座標と第2座標との組み合わせを紐付ける(ステップS407)。例えば、図5に示した一例の場合、複数の組み合わせパターンは、第1座標C3と第2座標D3との組み合わせパターンと、第1座標C3と第2座標D4との組み合わせパターンとを含む。この場合、処理部82は、第1座標C3と第2座標D3との距離L1、第1座標C3と第2座標D4との距離L2を求める。そして、処理部82は、距離L1が距離L2よりも小さいので、第1座標C3と第2座標D3とを紐付ける。すなわち、処理部82は、第1座標C3と第2座標D4とを紐付けない。処理部82は、ステップS407の処理を終了すると、処理をステップS408に進める。
処理部82は、紐付けられた第1座標と第2座標とのうち一方を正規化する(ステップS408)。例えば、処理部82は、第1座標と第2座標とのうちの削除する3次元座標を指定する情報等に基づいて、紐付けられた第1座標と第2座標とのうちの一方を正規化し、他方を削除する。そして、処理部82は、正規化した3次元座標を記憶部81に記憶すると、処理をステップS409に進める。
処理部82は、紐付けられていない第1座標及び第2座標を正規化する(ステップS409)。すなわち、処理部82は、深度画像Gから搭乗者OBに対して第1座標または第2座標の一方のみ算出した場合、当該算出した3次元座標を正規化する。そして、処理部82は、正規化した3次元座標を記憶部81に記憶すると、処理をステップS410に進める。なお、処理部82は、紐付けられていない第1座標及び第2座標が記憶部81に記憶されていない場合、ステップS409の処理を行わずに、処理をステップS410に進める。
処理部82は、正規化した3次元座標の数を人数として計数する(ステップS410)。例えば、処理部82は、正規化した3次元座標の数が4つである場合、人数は4人として計数する。そして、処理部82は、計数した人数を人数情報81bに記憶すると、図9に示す処理手順を終了させ、図6に示した処理手順に復帰する。
以上の説明では、乗車人数監視システム1は、計数した乗員人数に基づいて定員オーバーを監視する場合について説明したが、これに限定されない。例えば、乗車人数監視システム1は、計数した乗員人数を車両100の乗車履歴として記憶部81に記憶したり、車両100を監視する外部装置に外部接続部7を介して出力したりしてもよい。
以上の説明では、乗車人数監視システム1は、全体が車両100の天井102の室内101側の面に設けられ、オーバーヘッドモジュールを構成するものとして説明したがこれに限らない。乗車人数監視システム1は、例えば、制御部8が筐体2の外部に設けられ、配索材を介して各部と電気的に接続される構成であってもよく、例えば、制御部8が車両100の各部を統括的に制御する車両ECUによって兼用されて構成されてもよい。また、乗車人数監視システム1は、例えば、車両100に搭載されるドライブレコーダ、メータユニット、ナビゲーション装置、カーオーディオ装置等の他の車載機器に組み込んで実現してもよい。
1 乗車人数監視システム
2 筐体
3 撮像部
4 出力部
5 照明部
6 操作部
7 外部接続部
8 制御部
81 記憶部
81a 必要情報
81b 人数情報
82 処理部
83 顔認識部
84 上半身認識部
85 計数部
86 動作制御部
9 警報装置
100 車両
101 室内
105 運転席
106 助手席
107 後部座席
C1、C3 第1座標
D1、D2、D3、D4 第2座標
G 深度画像
G1 2次元画像
G2 距離画像
OB 搭乗者

Claims (4)

  1. 車両の室内の搭乗者までの距離を含む深度画像を撮像する撮像部と、
    前記撮像部によって撮像された前記深度画像から前記搭乗者の顔を認識する顔認識部と、
    前記撮像部によって撮像された前記深度画像から前記搭乗者の上半身を認識する上半身認識部と、
    前記顔認識部による前記顔の認識結果と前記上半身認識部による前記上半身の認識結果とを組み合わせて前記搭乗者の人数を計数する計数部と、
    を備え
    前記計数部は、
    前記顔認識部によって認識された前記顔の前記室内における3次元の第1座標と前記上半身認識部によって認識された前記上半身の頭部の前記室内における3次元の第2座標とを組み合わせて前記人数を計数し、
    前記第1座標と前記第2座標との距離が予め設定された閾値よりも小さい場合、前記顔認識部によって認識された前記顔と前記上半身認識部によって認識された前記上半身とを組み合わせて1人と計数し、
    前記第1座標と前記第2座標との距離が前記閾値以上である場合、前記顔認識部によって認識された前記顔と前記上半身認識部によって認識された前記上半身とを組み合わせずそれぞれ1人として計数する、
    ことを特徴とする乗車人数監視システム。
  2. 前記計数部は、前記第1座標と前記第2座標とのいずれか一方に、前記距離が前記閾値よりも小さい他方が複数存在する場合、前記距離が近いもの同士を組み合わせて1人として計数し、残りをそれぞれ1人として計数する、
    請求項に記載の乗車人数監視システム。
  3. 前記計数部によって計数された前記人数が予め設定された前記車両の定員数を超えている場合に警報する処理を行う動作制御部をさらに備える、
    請求項1または2に記載の乗車人数監視システム。
  4. 前記車両の天井の前記室内側の面に設けられ、前記撮像部、前記顔認識部、前記上半身認識部、及び、前記計数部の少なくとも1つが組み付けられる筐体を備える、
    請求項1からのいずれか1項に記載の乗車人数監視システム。
JP2018116649A 2018-06-20 2018-06-20 乗車人数監視システム Active JP7161318B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018116649A JP7161318B2 (ja) 2018-06-20 2018-06-20 乗車人数監視システム
EP19175871.3A EP3584746B1 (en) 2018-06-20 2019-05-22 Vehicle occupant count monitoring system
US16/420,490 US11256936B2 (en) 2018-06-20 2019-05-23 Vehicle occupant count monitoring system
CN201910531654.XA CN110633615B (zh) 2018-06-20 2019-06-19 乘车人数监视系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116649A JP7161318B2 (ja) 2018-06-20 2018-06-20 乗車人数監視システム

Publications (2)

Publication Number Publication Date
JP2019219899A JP2019219899A (ja) 2019-12-26
JP7161318B2 true JP7161318B2 (ja) 2022-10-26

Family

ID=66630207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116649A Active JP7161318B2 (ja) 2018-06-20 2018-06-20 乗車人数監視システム

Country Status (4)

Country Link
US (1) US11256936B2 (ja)
EP (1) EP3584746B1 (ja)
JP (1) JP7161318B2 (ja)
CN (1) CN110633615B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7134364B2 (ja) * 2019-09-05 2022-09-09 三菱電機株式会社 体格判定装置および体格判定方法
JP7143836B2 (ja) * 2019-12-25 2022-09-29 株式会社デンソー 解析処理装置、解析処理方法、及び解析処理プログラム
CN111369394B (zh) * 2020-02-27 2021-05-14 浙江力石科技股份有限公司 基于大数据的景区客流量统计评估系统及方法
JP7419122B2 (ja) * 2020-03-18 2024-01-22 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
US11494865B2 (en) * 2020-04-21 2022-11-08 Micron Technology, Inc. Passenger screening
US11091166B1 (en) 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
CN112185143A (zh) * 2020-09-21 2021-01-05 成都三维大川新材料科技有限公司 一种城市智能化公交系统
JP7444272B2 (ja) * 2020-09-30 2024-03-06 日本電気株式会社 画像処理システム、通信装置、方法、及びプログラム
WO2022097260A1 (ja) * 2020-11-06 2022-05-12 日本電気株式会社 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130051677A1 (en) 2011-08-31 2013-02-28 Morris Lee Methods and apparatus to count people in images
WO2014061195A1 (ja) 2012-10-19 2014-04-24 日本電気株式会社 乗車人数計数システム、乗車人数計数方法および乗車人数計数プログラム
JP2015200933A (ja) 2014-04-04 2015-11-12 株式会社ニコン 自律走行車両
WO2017158647A1 (ja) 2016-03-17 2017-09-21 日本電気株式会社 乗車人数計測装置、システム、方法およびプログラムならびに車両移動量算出装置、方法およびプログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2861699A (en) * 1950-10-16 1958-11-25 Gen Mills Inc Method and apparatus for performing operations at a remote point
US7650212B2 (en) * 1995-06-07 2010-01-19 Automotive Technologies International, Inc. Pedal adjustment system and method
US5983147A (en) * 1997-02-06 1999-11-09 Sandia Corporation Video occupant detection and classification
US6771818B1 (en) * 2000-04-04 2004-08-03 Microsoft Corporation System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions
US7110570B1 (en) * 2000-07-21 2006-09-19 Trw Inc. Application of human facial features recognition to automobile security and convenience
JP4506381B2 (ja) * 2004-09-27 2010-07-21 沖電気工業株式会社 単独行動者及びグループ行動者検知装置
EP1650085A1 (en) * 2004-10-22 2006-04-26 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Occupant-sensing imaging system
CA2540404A1 (en) * 2005-03-21 2006-09-21 Magna International Inc. Image-based vehicle occupant classification system
US20130314536A1 (en) * 2009-03-02 2013-11-28 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
JP5448952B2 (ja) * 2010-03-16 2014-03-19 グローリー株式会社 同一人判定装置、同一人判定方法および同一人判定プログラム
US11935281B2 (en) * 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
WO2012144195A1 (ja) * 2011-04-18 2012-10-26 パナソニック株式会社 撮像装置、撮像装置の合焦制御方法、及び集積回路
JP5866360B2 (ja) * 2011-07-13 2016-02-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像評価装置、画像評価方法、プログラム、および集積回路
JP5441071B2 (ja) * 2011-09-15 2014-03-12 国立大学法人 大阪教育大学 顔分析装置、顔分析方法、及びプログラム
US9964643B2 (en) * 2011-12-08 2018-05-08 Conduent Business Services, Llc Vehicle occupancy detection using time-of-flight sensor
US9195883B2 (en) * 2012-04-09 2015-11-24 Avigilon Fortress Corporation Object tracking and best shot detection system
JP2014006586A (ja) * 2012-06-21 2014-01-16 Canon Inc 情報処理装置及びその制御方法、コンピュータプログラム
US9321173B2 (en) * 2012-06-22 2016-04-26 Microsoft Technology Licensing, Llc Tracking and following people with a mobile robotic device
US20140074566A1 (en) * 2012-09-11 2014-03-13 James K. McCoy Remote Sensing of Vehicle Occupancy
CA2834877A1 (en) * 2012-11-28 2014-05-28 Henry Leung System and method for event monitoring and detection
US9020189B2 (en) * 2012-12-07 2015-04-28 The Nielsen Company (Us), Llc Methods and apparatus to monitor environments
US9292923B2 (en) * 2013-03-06 2016-03-22 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor environments
US9866900B2 (en) * 2013-03-12 2018-01-09 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to detect shapes
TWI532620B (zh) 2013-06-24 2016-05-11 Utechzone Co Ltd Vehicle occupancy number monitor and vehicle occupancy monitoring method and computer readable record media
US9552374B2 (en) * 2013-08-19 2017-01-24 Kodak Alaris, Inc. Imaging workflow using facial and non-facial features
US9547085B2 (en) * 2014-05-16 2017-01-17 Palo Alto Research Center Incorporated Computer-implemented system and method for detecting vehicle occupancy
US9609385B2 (en) * 2014-08-28 2017-03-28 The Nielsen Company (Us), Llc Methods and apparatus to detect people
WO2016046212A1 (en) * 2014-09-22 2016-03-31 Foundation For Research And Technology - Hellas (Forth) Apparatuses, method and systems for recovering a 3-dimensional skeletal model of the human body
JP2016177393A (ja) * 2015-03-19 2016-10-06 カシオ計算機株式会社 情報処理装置、顔認識方法、及びプログラム
CN204791055U (zh) * 2015-07-07 2015-11-18 都伊林 一种基于双目视觉的监狱人数统计装置
JP6664163B2 (ja) * 2015-08-05 2020-03-13 キヤノン株式会社 画像識別方法、画像識別装置及びプログラム
US20170068863A1 (en) * 2015-09-04 2017-03-09 Qualcomm Incorporated Occupancy detection using computer vision
JP6509691B2 (ja) * 2015-09-10 2019-05-08 株式会社東芝 改札監視システム
JP6458792B2 (ja) * 2016-11-04 2019-01-30 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US20190318491A1 (en) * 2017-07-13 2019-10-17 Tempo Analytics Inc. System and method for gathering data related to quality service in a customer service environment
US11919531B2 (en) * 2018-01-31 2024-03-05 Direct Current Capital LLC Method for customizing motion characteristics of an autonomous vehicle for a user
US11295139B2 (en) * 2018-02-19 2022-04-05 Intellivision Technologies Corp. Human presence detection in edge devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130051677A1 (en) 2011-08-31 2013-02-28 Morris Lee Methods and apparatus to count people in images
WO2014061195A1 (ja) 2012-10-19 2014-04-24 日本電気株式会社 乗車人数計数システム、乗車人数計数方法および乗車人数計数プログラム
JP2015200933A (ja) 2014-04-04 2015-11-12 株式会社ニコン 自律走行車両
WO2017158647A1 (ja) 2016-03-17 2017-09-21 日本電気株式会社 乗車人数計測装置、システム、方法およびプログラムならびに車両移動量算出装置、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山下 隆義 外2名,距離情報を考慮したパーツ統合による人物検出の高精度化,電気学会論文誌D(産業応用部門誌),日本,電気学会,2011年04月01日,Vol. 131, No. 4 (2011),pp. 475-481,https://www.jstage.jst.go.jp/article/ieejias/131/4/131_4_475/_article/-char/ja/

Also Published As

Publication number Publication date
EP3584746B1 (en) 2023-06-28
CN110633615A (zh) 2019-12-31
US20190392233A1 (en) 2019-12-26
CN110633615B (zh) 2023-04-25
JP2019219899A (ja) 2019-12-26
US11256936B2 (en) 2022-02-22
EP3584746A1 (en) 2019-12-25

Similar Documents

Publication Publication Date Title
JP7161318B2 (ja) 乗車人数監視システム
US10909399B2 (en) Apparatus detecting driving incapability state of driver
US10572746B2 (en) Apparatus detecting driving incapability state of driver
EP3590772B1 (en) Monitoring system
CN106463065B (zh) 驾驶员的驾驶不能状态检测装置
CN107176161B (zh) 识别结果提示装置、识别结果提示方法以及自主移动体
CN109636924B (zh) 基于现实路况信息三维建模的车载多模式增强现实系统
CN112989907A (zh) 使用空间模型的基于神经网络的注视方向确定
US10249088B2 (en) System and method for remote virtual reality control of movable vehicle partitions
US20140226015A1 (en) Apparatus for monitoring surroundings of vehicle
CN110371018A (zh) 使用其他车辆车灯的信息改善车辆行为
EP3587186A1 (en) Vehicle interior lighting system
CN113276821A (zh) 驾驶员状态推断装置
CN113276822A (zh) 驾驶员状态推断装置
KR102655800B1 (ko) 차량 및 장애물 검출 방법
JP7331632B2 (ja) 運転支援装置、運転支援方法、及び運転支援プログラム
US11564073B2 (en) System and method for emotion detection and inter-vehicle communication
US20240078819A1 (en) Steering wheel contact detection
JP2022094829A (ja) 運転支援装置、運転支援方法、運転支援プログラム
CN117440902A (zh) 车辆用报告控制装置以及车辆用报告控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221014

R150 Certificate of patent or registration of utility model

Ref document number: 7161318

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350