JP2022190504A - 画像解析装置及び監視システム - Google Patents

画像解析装置及び監視システム Download PDF

Info

Publication number
JP2022190504A
JP2022190504A JP2021098861A JP2021098861A JP2022190504A JP 2022190504 A JP2022190504 A JP 2022190504A JP 2021098861 A JP2021098861 A JP 2021098861A JP 2021098861 A JP2021098861 A JP 2021098861A JP 2022190504 A JP2022190504 A JP 2022190504A
Authority
JP
Japan
Prior art keywords
hidden state
image
image analysis
captured image
analysis device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021098861A
Other languages
English (en)
Inventor
義晃 戸松
Yoshiaki Tomatsu
貴之 中込
Takayuki Nakagome
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Corp filed Critical Aisin Corp
Priority to JP2021098861A priority Critical patent/JP2022190504A/ja
Priority to US17/830,667 priority patent/US20220398765A1/en
Priority to CN202210651929.5A priority patent/CN115484365A/zh
Publication of JP2022190504A publication Critical patent/JP2022190504A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】監視空間内の人が正しく撮影画像に映らない状態にあることを把握する。【解決手段】画像解析装置10は、カメラが映す車両の車室を監視空間として、その撮影画像を解析することにより、この撮影画像に映る人の情報、即ち乗員の乗員情報を取得する人情報取得部を備える。そして、画像解析装置10は、撮影画像に複数の乗員が重なって映る隠れ状態の発生を検知する隠れ状態検知部40を備える。【選択図】図7

Description

本発明は、画像解析装置及び監視システムに関するものである。
従来、カメラが映す監視空間の撮影画像を解析することにより、この撮影画像に映る人の情報を取得する画像解析装置がある。そして、例えば、特許文献1には、車両の車室を監視空間として、そのカメラの撮影画像に映る乗員の姿勢及び体格を検出する構成が開示されている。
特開2020-104680号公報
しかしながら、カメラとの位置関係によっては、その監視空間に位置する人が、正しく撮影画像に映らない場合がある。そして、これにより、その情報の取得が阻害される可能性がある。
上記課題を解決する画像解析装置は、カメラが映す監視空間の撮影画像を解析することにより該撮影画像に映る人の情報を取得する人情報取得部と、前記撮影画像に複数の前記人が重なって映る隠れ状態の発生を検知する隠れ状態検知部と、を備える。
上記構成によれば、撮影画像に生じた隠れ状態を検知して、監視空間内の人が正しく撮影画像に映らない状態にあることを把握することができる。そして、この場合、例えば、その隠れ状態が生じた撮影画像の解析的な利用を控えることで、高精度の情報取得を担保することが可能になる。
上記課題を解決する画像解析装置は、前記撮影画像に映る前記各人の移動予測を実行する移動予測部と、前記移動予測に基づき前記重なって映ると推定される前記各人の撮像領域について該撮像領域の重なり率を演算する重なり率演算部と、を備え、前記隠れ状態検知部は、前記重なり率と重なり判定値との比較に基づいて、前記隠れ状態の検知判定を実行することが好ましい。
上記構成によれば、精度よく、撮影画像における隠れ状態の発生を検知することができる。更に、隠れ状態の発生を事前に予測することができるという利点がある。そして、これにより、より高精度の情報取得を行なうことができる。
上記課題を解決する画像解析装置は、前記監視空間に出入りする前記人の出入人数を計測する出入人数計測部を備え、前記隠れ状態検知部は、前記出入人数の計測により特定される前記監視空間内の総人数と前記撮影画像に映る前記人の検出人数との差分に基づいて、前記隠れ状態の検知判定を実行することが好ましい。
即ち、撮影画像に隠れ状態が生じていない場合、この撮影画像に映る人の検出人数は、監視空間内の総人数と等しくなる。従って、上記構成によれば、簡素な構成にて、容易に、その撮影画像に生じた隠れ状態を検知することができる。
上記課題を解決する画像解析装置において、前記隠れ状態検知部は、前記カメラに近接した隠し位置において前記撮影画像に映る前記人が検出されている場合には、前記隠れ状態が発生しているとみなすことが好ましい。
即ち、カメラに近接した隠し位置で撮影画像に映る人が、そのカメラの視野を遮ることにより、監視空間内に位置する他の人を隠すかたちで、その撮影画像に隠れ状態が発生する可能性がある。そして、この場合、その隠れ状態が実際に発生しているか否かは判定することができない。この点を踏まえ、上記構成のように、隠れ状態が発生しているとみなす。そして、この場合、例えば、その隠れ状態が生じた撮影画像の解析的な利用を控えることで、高精度の情報取得を担保することが可能になる。
上記課題を解決する画像解析装置は、前記人の撮像領域が前記撮影画像の全体に占める割合を画像比率として演算する画像比率演算部と、所定の近接判定値以上の前記画像比率を有する前記人が検出されている場合に該人が前記隠し位置において前記撮影画像に映っていると判定するカメラ近接位置判定部と、を備えることが好ましい。
上記構成によれば、簡素な構成にて、カメラに近接した隠し位置において撮影画像に映る人を検出することができる。
上記課題を解決する画像解析装置は、前記撮影画像に含まれる前記人の骨格点を検出する骨格点検出部と、前記骨格点の検出により前記取得される前記人の情報に基づいて前記監視空間に生じた異常を検知する異常検知部と、を備えることが好ましい。
即ち、骨格点の検出により、精度よく、人の姿勢や体格等、身体的な情報を取得することができる。そして、これにより、その取得した人の情報に基づいて、高精度に、監視空間の異常検知判定を行うことができる。しかしながら、撮影画像に隠れ状態が発生することで、その骨格点の検出状態もまた低下する。その結果、精度よく、その異常検知判定を行えない可能性が生ずる。従って、このような構成について、上記各構成の何れかに示す隠れ状態の検知判定を適用することで、より顕著な効果を得ることができる。
上記課題を解決する画像解析装置は、前記隠れ状態の発生が検知された場合に、前記隠れ状態の検知出力として、前記隠れ状態の発生が検知された前記撮影画像における前記骨格点の検出状態についての判定出力を実行する判定出力部を備えることが好ましい。
上記構成によれば、隠れ状態の発生により変化した骨格点の検出状態を正しく把握することができる。そして、これにより、その隠れ状態が生じた撮影画像を、適切に利用することが可能になる。
上記課題を解決する画像解析装置において、前記監視空間は、車両の車室であり、前記人は、前記車両の乗員であることが好ましい。
上記構成によれば、車室内の乗員について、高精度の情報取得を行なうことができる。
上記課題を解決する監視システムは、上記何れかに記載の画像解析装置を備える。
本発明によれば、監視空間内の人が正しく撮影画像に映らない状態にあることを把握することができる。
監視システムが適用される車両の斜視図。 車室内の乗員、及び、この乗員を撮影するカメラの説明図。 車室を上面視で見た場合の説明図。 画像解析装置の概略構成を示すブロック図。 人の骨格点を示す説明図。 監視システムの概略構成図。 隠れ状態検知部の概略構成を示すブロック図。 乗員の移動予測及び重なり率演算の説明図。 重なり率判定に基づいた隠れ状態検知の処理手順を示すフローチャート。 乗車検出の説明図。 降車検出の説明図。 乗降人数計測の処理手順を示すフローチャート。 人数差分判定に基づいた隠れ状態検知の処理手順を示すフローチャート。 カメラに近接した隠し位置で撮影画像に映る乗員の説明図。 カメラ近接位置判定に基づいた隠れ状態検知の処理手順を示すフローチャート。 隠れ状態検知及び異常検知の処理手順を示すフローチャート。 骨格点の検出状態についての判定出力の処理手順を示すフローチャート。
以下、画像解析装置及び監視システムの一実施形態を図面に従って説明する。
図1~図3に示すように、本実施形態の車両1は、車両前後方向に延在する四角略箱状の車体2を有している。また、車体2の側面には、乗員の乗降口となるドア開口部3が設けられている。尚、このドア開口部3には、車両前後方向、相反する方向に開閉動作する一対のスライドドア4,4が設けられている。そして、車両1の乗員5は、車室6内に設けられたシート7に着座する「座位姿勢」、又は、例えば、図示しない吊り革や手すりを利用する等、「立位姿勢」で、この車両1に乗車する構成になっている。
また、本実施形態の車両1には、その車室6内を撮影するカメラ8が設けられている。本実施形態の車両1において、このカメラ8は、車室6の前方位置において、そのコーナー部6fa近傍の天井部9付近に設けられている。尚、このカメラ8には、例えば、赤外線カメラ等が用いられる。そして、本実施形態のカメラ8は、これにより、車両1の乗員5を、その車室6に設定された所定の方向から撮影する構成となっている。
図4に示すように、本実施形態の車両1において、カメラ8が映す車室6内の撮影画像Vdは、画像解析装置10に入力される。更に、この画像解析装置10は、その撮影画像Vdを解析することにより、この撮影画像Vdに映る車室6内の状態を監視する機能を備えている。そして、本実施形態の車両1には、これにより、そのカメラ8が映す車室6を監視空間11とした監視システム15が構築されている。
詳述すると、本実施形態の画像解析装置10は、画像解析部20と、この画像解析部20による画像解析の結果に基づいて、その撮影画像Vdに映る車室6内の人H、つまりは車両1の乗員5を認識する人認識部21と、を備えている。本実施形態の画像解析装置10において、人認識部21は、機械学習により生成された推論モデルを用いることにより、その人Hの認識処理を実行する。そして、本実施形態の画像解析装置10は、これにより認識した車両1の乗員5を監視することで、そのカメラ8が映す車室6内に生じた異常を検知する異常検知部22を備えている。
具体的には、図4及び図5に示すように、本実施形態の画像解析装置10は、撮影画像Vdに含まれる人Hの骨格点SPを検出する骨格点検出部23を備えている。即ち、骨格点SPは、関節や体表面上の点等、人Hの身体を特徴付ける固有の点であり、例えば、頭部、首、肩、腋、肘、手首、手先、腰、股関節、臀部、膝、足首等が該当する。そして、本実施形態の画像解析装置10においては、この骨格点検出部23もまた、機械学習により生成された推論モデルを用いることにより、その骨格点SPの検出処理を実行する。
また、図4に示すように、本実施形態の画像解析装置10は、この骨格点SPの検出に基づいた特徴量Vspを演算する特徴量演算部24を備えている。具体的には、本実施形態の画像解析装置10において、この特徴量演算部24は、撮影画像Vdにおける骨格点SPの二次元座標上の位置に基づいて、その撮影画像Vdに映る人Hの特徴量Vspを演算する。更に、この特徴量演算部24は、例えば、乗員5の肩幅等、その複数の骨格点SPに示される身体寸法に基づいて、その撮影画像Vdに映る人Hの特徴量Vspを演算する。そして、本実施形態の画像解析装置10は、この一連の解析処理により得られる人Hの特徴量Vspに基づいて、そのカメラ8が映す監視空間11に認識された人Hの情報Ihを取得する人情報取得部25を備えている。
詳述すると、本実施形態の人情報取得部25は、その撮影画像Vdに映る人Hの姿勢を判定する姿勢判定部26を備えている。本実施形態の姿勢判定部26は、上記特徴量演算部24から取得した人Hの特徴量Vspを機械学習により生成された推論モデルに入力する。そして、これにより得られる姿勢判別確率値に基づいて、その車室6内の撮影画像Vdに映る人Hの姿勢を判別する。
具体的には、本実施形態の姿勢判定部26は、姿勢判別の対象者となる乗員5の姿勢が「立位姿勢」であることの確率を演算する立位判別確率値演算部26aを備えている。また、姿勢判定部26は、対象者となる乗員5の姿勢が「座位姿勢」であることの確率を演算する座位判別確率値演算部26bを備えている。そして、本実施形態の姿勢判定部26は、対象者となる乗員5の姿勢が「転倒姿勢」であることの確率を演算する転倒判別確率値演算部26cを備えている。
即ち、本実施形態の姿勢判定部26は、姿勢判別確率値として、立位判別確率値演算部26aが立位判別確率値XAを演算し、座位判別確率値演算部26bが座位判別確率値XBを演算し、転倒判別確率値演算部26cが転倒判別確率値XCを演算する。更に、本実施形態の姿勢判定部26は、これらの立位判別確率値XA、座位判別確率値XB、及び転倒判別確率値XCの合計値が「1.0」となるように、その姿勢判別確率値の演算を実行する。そして、本実施形態の姿勢判定部26は、これにより、その姿勢判別確率値に基づいて、矛盾なく、乗員5の姿勢を判定することが可能になっている。
尚、本実施形態の立位判別確率値演算部26aが演算する立位判別確率値XAは、更に、その「立位姿勢」にある乗員5が、「移動状態」である確率、「静止状態」である確率、及び「吊り革や手すり等を利用している状態」である確率に区分される。そして、本実施形態の姿勢判定部26は、これにより、その「立位姿勢」を細分化して判別することのできる構成となっている。
本実施形態の画像解析装置10において、上記異常検知部22は、この姿勢判定部26によって、車両1の乗員5が転倒したと判定された場合に、そのカメラ8の撮影画像Vdに映る車室6内に異常が発生したものと判定する。そして、本実施形態の監視システム15は、これにより、その車室6内の安全を確保することのできる構成になっている。
尚、本実施形態の画像解析装置10において、人情報取得部25には、この姿勢判定部26の他、撮影画像Vdに映る人Hの属性を判定する属性判定部27や、その体格を判定する体格判定部28等が設けられている。そして、本実施形態の画像解析装置10は、これにより、精度よく、その撮影画像Vdに映る人Hの状態を検知することが可能になっている。
また、図6に示すように、本実施形態の監視システム15は、図示しない情報通信ネットワークを介して車両1の内外に配置された複数の情報処理装置30を相互に接続することにより形成されている。具体的には、本実施形態の画像解析装置10は、車両1に搭載された車載の情報処理装置30aと、クラウドサーバ31を構成する車外の情報処理装置30bとが、その画像解析処理を分散して行なう構成になっている。そして、本実施形態の監視システム15は、これにより、車両1に搭載する情報処理装置30aの演算負荷を軽減することで、その車両1に対する優れた搭載性を確保する構成になっている。
更に、本実施形態の監視システム15は、異常発生時、カメラ8が映す車室6内の撮影画像Vdを、車両1の運行センター32に駐在するオペレータ33等、車外の管理者35が確認することのできる構成となっている。そして、本実施形態の監視システム15においては、これにより、その高い信頼性及び安全性が確保されている。
(隠れ状態検知)
次に、本実施形態の画像解析装置10に実装された隠れ状態の検知機能について説明する。
図4に示すように、本実施形態の画像解析装置10は、撮影画像Vdに複数の人Hが重なって映ることにより、その画像解析に基づいた情報Ihの取得が阻害される可能性のある所謂隠れ状態の発生を検知する隠れ状態検知部40を備えている。即ち、複数の乗員5が車両1に乗車している場合、カメラ8が映す車室6の撮影画像Vd中、このカメラ8から離れた位置の乗員5が、より近い位置の乗員5に隠れてしまう可能性がある。その結果、手前の乗員5に隠れた奥側の乗員5については、その存在が認識できない、或いは、骨格点SPの検出が不完全になることで、精度よく、その乗員情報Ichを取得することができないという問題が生ずる。
この点を踏まえ、本実施形態の画像解析装置10においては、上記隠れ状態検知部40によって、このような隠れ状態の発生が検知される。そして、本実施形態の監視システム15は、これにより、車室6内の乗員5が正しく撮影画像Vdに映らない状態にあることを把握することができる構成となっている。
具体的には、図7に示すように、本実施形態の隠れ状態検知部40は、第1隠れ状態判定部41、第1隠れ状態判定部42、及び第3隠れ状態判定部43を備えている。そして、これらの第1隠れ状態判定部41、第2隠れ状態判定部42、及び第3隠れ状態判定部43が、それぞれ、異なる方法で、そのカメラ8の撮影画像Vdに生じた隠れ状態の判定を実行する構成になっている。
(重なり率判定)
先ず、第1隠れ状態判定部41が実行する重なり率判定に基づいた隠れ状態の検知判定について説明する。
図8に示すように、本実施形態の隠れ状態検知部40において、第1隠れ状態判定部41は、カメラ8の撮影画像Vdに映る人Hについて、その移動予測を実行する。また、この第1隠れ状態判定部41は、その移動予測に基づいて、所定の将来時間後に、「重なって映る」と推定される人Hの撮像領域50があるか否かを判定する。尚、「所定の将来時間」としては、例えば、次回の画像解析を実行する予定のタイミング等が設定される。更に、第1隠れ状態判定部41は、このような重なって映る人Hの撮像領域50について、その撮像領域50の重なり率αを演算する。そして、本実施形態の第1隠れ状態判定部41は、この重なり率αと所定の重なり判定値αthとの比較に基づいて、その撮影画像Vdに生じた隠れ状態の検知判定を実行する。
詳述すると、本実施形態の画像解析装置10において、この第1隠れ状態判定部41が実行する重なり率αの演算には、その人Hの撮像領域50として、撮影画像Vdに映る乗員5の上半身、詳しくは、その胴体部分の撮像領域60が用いられる。具体的には、本実施形態の第1隠れ状態判定部41は、前回及び今回の解析タイミングで撮影画像Vd中に検出した胴体部分の撮像領域61,62について、その中心点60xの移動方向及び移動量を演算する。更に、第1隠れ状態判定部41は、これら各撮像領域61,62の大きさを比較する。そして、本実施形態の第1隠れ状態判定部41は、これにより、所定の将来時間において、その撮影画像Vd中に映る撮像領域63の位置及び大きさを予測する構成になっている。
例えば、図8中には、後部座席領域A1のシート7に着座した着座姿勢の乗員5aよりもカメラ8に近い手前側の位置を立位姿勢の乗員5bが歩いて横切る状況が例示されている。この場合、着座姿勢の乗員5aについては、その撮影画像Vd中の撮像領域50aが、ほぼ移動しない。一方、立位姿勢の乗員5bについては、この乗員5bが歩行することにより、その撮像領域50bが、図8の撮影画像Vd中、右下から左上に向かって移動すると予測されている。更に、この移動予測に基づいて、撮影画像Vd中、これら各乗員5a、5bの撮像領域50a,50bが重なって映る重なり領域55が推定される。そして、本実施形態の第1隠れ状態判定部41は、これにより、カメラ8に近い立位姿勢の乗員5bに隠れると予測される遠い位置の乗員5aについて、その撮像領域50aに占める重なり領域55の割合を重なり率αとして演算する構成になっている。
即ち、図9に示すように、本実施形態の第1隠れ状態判定部41は、撮影画像Vdに映る各乗員5について、それぞれ、その撮像領域50を検出する(ステップ101)。次に、第1隠れ状態判定部41は、これらの各乗員5の移動予測を実行する(ステップ102)。続いて、第1隠れ状態判定部41は、この移動予測に基づき、各乗員5の撮像領域50に形成される重なり領域55を推定し、及び、その重なり率αを演算する(ステップ103)。そして、本実施形態の第1隠れ状態判定部41は、この重なり率αが所定の重なり判定値αth以上である場合(α≧αth、ステップ104:YES)に、その撮影画像Vdに隠れ状態が発生しているものと判定する構成になっている(ステップ105)。
(人数差分判定)
次に、第2隠れ状態判定部42が実行する人数差分判定に基づいた隠れ状態の検知判定について説明する。
図10及び図11に示すように、本実施形態の隠れ状態検知部40において、第2隠れ状態判定部42は、撮影画像Vdの解析に基づいて、この撮影画像Vdに映る監視空間11としての車室6に出入りする人Hの出入人数、即ち車両1の乗降人数を計測する。そして、本実施形態の第2隠れ状態判定部42は、この乗降人数の計測に基づいて、その車室6内の総人数を特定する構成になっている。
詳述すると、図1及び図3に示すように、本実施形態の監視システム15において、カメラ8が映す車両1の車室6には、略コの字状に配置された後部座席領域A1、前部座席領域A2、及び中間座席領域A3が設定されている。また、この車両1の車室6には、これらの後部座席領域A1、前部座席領域A2、及び中間座席領域A3に囲まれた範囲に、乗員5が立位姿勢で乗車することのできるフロア領域A4が設定されている。更に、この車両1の車室6には、そのドア開口部3を開閉するスライドドア4,4の近傍に、乗員5の滞留を禁止する乗降領域A5が設定されている。そして、本実施形態の第2隠れ状態判定部42は、この乗降領域A5に乗員5が検出された場合に、その乗員5が、車両1に乗車した乗員5又は車両1から降車する乗員5であると判定する。
具体的には、図10及び図11に示すように、本実施形態の第2隠れ状態判定部42は、乗降領域A5に位置する乗員5について、その移動方向を特定する。更に、第2隠れ状態判定部42は、乗員5の移動方向が、ドア開口部3から車室6内に向かう方向である場合(図10参照、同図中、左側)に、この乗員5が車両1に乗車したと判定する。そして、第2隠れ状態判定部42は、乗員5の移動方向が、車室6内からドア開口部3に向かう方向である場合(図11参照、同図中、右側)に、この乗員5が車両1から降車すると判定する。
尚、本実施形態の画像解析装置10において、この第2隠れ状態判定部42による乗員5の乗降判定は、カメラ8が映す車室6の撮影画像Vdを、図3に示すような上面視に変換した状態で行われる。そして、本実施形態の第2隠れ状態判定部42は、これにより、精度よく、その車両1の乗降人数Nを計測することが可能になっている。
更に、本実施形態の第2隠れ状態判定部42は、車両1に乗車した乗員5を一人検出した場合には「+1」、車両1から降車する乗員5を一人検出した場合には「-1」として、その車両1の乗降人数を計測する。そして、本実施形態の第2隠れ状態判定部42においては、これにより、その乗降人数の計測に基づいて、車室6内に位置する乗員5の総人数を特定することが可能になっている。
即ち、図12に示すように、本実施形態の第2隠れ状態判定部42は、カメラ8が映す車室6の撮影画像Vdを上面視に変換し(ステップ201)、そのドア開口部3前の乗降領域A5に乗員5が検出されているかを判定する(ステップ202)。次に、第2隠れ状態判定部42は、乗降領域A5に乗員5が検出されている場合(ステップ202:YES)、その乗員5が、車両1に乗車するか、又は車両1から降車するかを判定する(ステップ203及びステップ204)。更に、第2隠れ状態判定部42は、車両1に乗車する乗員5を検出した場合(ステップ203:YES)には、その計測する車両1の乗降人数Nに「1」を加算する(N=N+1、ステップ205)。また、第2隠れ状態判定部42は、車両1から降車する乗員5を検出した場合(ステップ204:YES)に、その計測する車両1の乗降人数Nから「1」を減算する構成となっている(N=N-1、ステップ206)。そして、本実施形態の第2隠れ状態判定部42は、これにより積算された乗降人数Nを、その車室6内に位置する乗員5の総人数Naとして特定する(Na=N、ステップ207)。
また、本実施形態の第2隠れ状態判定部42は、車室6の撮影画像Vdに映る人Hの検出人数として、上記のような骨格点SPの検出に基づいて、その撮影画像Vdに映る乗員5の検出人数Ndを算出する。具体的には、本実施形態の第2隠れ状態判定部42は、カメラ8が映す車室6の撮影画像Vd中に、上記姿勢判定等に用いられる主要な骨格点SPを抽出することのできる乗員5を検出した場合に、この乗員5を、その撮影画像Vd中の検出人数Ndに加算する。更に、第2隠れ状態判定部42は、上記のように乗降人数Nの計測により特定された車室6内の総人数Naと、この撮影画像Vdに映る乗員5の検出人数Ndとを比較する。そして、本実施形態の第2隠れ状態判定部42は、その総人数Naと検出人数Ndとの差分に基づいて、撮影画像Vdに生じた隠れ状態の検知判定を実行する構成になっている。
さらに詳述すると、図13に示すように、本実施形態の第2隠れ状態判定部42は、乗降人数Nの計測に基づき車室6内の総人数Naを特定すると(ステップ301)、続いて、撮影画像Vdに映る乗員5の検出人数Ndを算出する(ステップ302)。次に、第2隠れ状態判定部42は、その乗降人数Nの計測に基づき特定された車室6内の総人数Naと撮影画像Vdに映る乗員5の検出人数Ndとの差分値δを演算する(δ=Na-Nd、ステップ303)。そして、本実施形態の第2隠れ状態判定部42は、この差分値δが「0」よりも大きい値である場合(δ>0、ステップ304:YES)である場合に、その撮影画像Vdに隠れ状態が発生しているものと判定する構成になっている(ステップ305)。
(カメラ近接位置判定)
次に、第3隠れ状態判定部43が実行するカメラ近接位置判定に基づいた隠れ状態の検知判定について説明する。
図14に示すように、車室6内の乗員5がカメラ8に近接した位置に立つことで、この乗員5が、そのカメラ8の視野を遮る場合がある。そして、これにより、このカメラ8に近接した位置の乗員5が、車室6内に位置する他の乗員5を隠すかたちで、その撮影画像Vdに隠れ状態が発生する可能性がある。
この点を踏まえ、本実施形態の隠れ状態検知部40において、第3隠れ状態判定部43は、このようなカメラ8に近接した隠し位置Pxで、その撮影画像Vdに映る乗員5の検出判定を実行する。そして、本実施形態の第3隠れ状態判定部43は、その隠し位置Pxで撮影画像Vdに映る乗員5が検出されている場合、この撮影画像Vdに隠れ状態が発生しているとみなす構成となっている。
具体的には、図14及び図15に示すように、本実施形態の第3隠れ状態判定部43は、撮影画像Vdに映る乗員5の撮像領域70について、その大きさを演算する(ステップ401)。次に、第3隠れ状態判定部43は、その乗員5の撮像領域70が撮影画像Vdの全体に占める割合を画像比率βとして演算する(ステップ402)。続いて、第3隠れ状態判定部43は、この画像比率βを所定の近接判定値βthと比較する(ステップ403)。尚、本実施形態の第2隠れ状態判定部42において、このステップ401~ステップ403の各処理は、撮影画像Vdに映る全ての乗員5を対象として行われる。更に、第3隠れ状態判定部43は、近接判定値βth以上の画像比率βを有する乗員5が検出されている場合(β≧βth、ステップ403:YES)に、この乗員5が、カメラ8に近接した隠し位置Pxで撮影画像Vdに映っていると判定する(ステップ404)。そして、本実施形態の第3隠れ状態判定部43は、これにより、その撮影画像Vdに隠れ状態が発生しているとみなす構成となっている(ステップ405)。
(骨格点の検出状態についての判定出力)
次に、隠し状態の発生が検知された撮影画像Vdにおける骨格点SPの検出状態についての判定出力について説明する。
本実施形態の監視システム15は、上記のように隠れ状態の発生が検知された場合にも、そのカメラ8が映す車室6の撮影画像Vdを車両1の運行センター32に駐在するオペレータ33等、車外の管理者35が確認することのできる構成となっている。そして、本実施形態の監視システム15においては、この際、その車室6の撮影画像Vdとともに、上記隠れ状態検知部40による隠れ状態の検知出力が、そのオペレータ33が駐在する運行センター32に配信される構成となっている。
詳述すると、図7に示すように、本実施形態の隠れ状態検知部40は、隠れ状態の発生を検知した場合、その検知出力として、隠れ状態の発生が検知された撮影画像Vdにおける骨格点SPの検出状態についての判定出力を実行する判定出力部80を備えている。
具体的には、本実施形態の判定出力部80は、第1隠れ状態判定部41が実行する重なり率判定に基づいて撮影画像Vdに生じた隠れ状態を検知した場合、その検知出力として、撮影画像Vdを用いた骨格点SPの検出状態を「不定」と出力する。また、この判定出力部80は、第2隠れ状態判定部42が実行する人数差分判定に基づいて撮影画像Vdに生じた隠れ状態を検知した場合にも、その検知出力として、この撮影画像Vdを用いた骨格点SPの検出状態を「不定」と出力する。そして、本実施形態の判定出力部80は、第3隠れ状態判定部43が実行するカメラ近接位置判定に基づいて撮影画像Vdに隠れ状態が発生しているとみなした場合、その検知出力として、この撮影画像Vdを用いた骨格点SPの検出状態を「判定不能」と出力する。
即ち、隠れ状態検知部40による「不定」の出力は、骨格点SPの検出ができていない未検出の乗員5が存在することで、その骨格点SPの検出に基づいた乗員情報Ichの取得精度が低下した状態にあることを示している。また、隠れ状態検知部40による「判定不能」の出力は、第1隠れ状態判定部41が実行する重なり率判定、及び第2隠れ状態判定部42が実行する人数差分判定によっても、その骨格点SPが未検出であるかを判定することができない状態にあることを示している。更に、本実施形態の監視システム15において、この「判定不能」の出力は、上記異常検知部22による異常検知出力と同様、緊急性の高い「異常の発生」として取り扱われるものとなっている。そして、本実施形態の監視システム15は、これにより、その骨格点SPの検出状態、つまりは画像解析により取得される乗員情報Ichの精度を参照しつつ、その車室6の撮影画像Vdを車外の管理者35が確認することのできる構成になっている。
詳述すると、図16に示すように、本実施形態の画像解析装置10は、車室6内の撮影画像Vdを取得すると(ステップ501)、画像解析を実行することにより、その撮影画像Vdに映る乗員5の骨格点SPを検出する(ステップ502)。次に、画像解析装置10は、その隠れ状態検知部40による隠れ状態判定を実行する(ステップ503)。そして、この隠れ状態判定により撮影画像Vdの隠れ状態を検知した場合(ステップ504:YES)には、この隠れ状態の検知出力を撮影画像Vdとともに車外の管理者35に配信する検知出力制御を実行する(ステップ505)。
具体的には、図17に示すように、本実施形態の画像解析装置10において、隠れ状態検知部40は、先ず、その第3隠れ状態判定部43による隠れ状態の検知判定、即ちカメラ近接位置判定を実行する(ステップ601)。そして、本実施形態の隠れ状態検知部40は、これにより、カメラ8に近接した隠し位置Pxで撮影画像Vdに映る乗員5が検出された場合(ステップ602:YES)に、その判定出力部80が「判定不能」を出力する(ステップ603)。
また、隠れ状態検知部40は、そのカメラ8に近接した隠れ位置Pxに乗員5を検出しない場合(ステップ602:NO)に、その第1隠れ状態判定部41による隠れ状態の検知判定、即ち重なり率判定を実行する(ステップ604)。続いて、隠れ状態検知部40は、その第2隠れ状態判定部42による隠れ状態の検知判定、即ち人数差分判定を実行する(ステップ605)。更に、隠れ状態検知部40は、これらの重なり率判定及び人数差分判定によって、撮影画像Vdの隠れ状態が検知された場合(ステップ606:YES)、車室6内に、骨格点SPが未検出の乗員5がいると判定する(ステップ607)。そして、本実施形態の画像解析装置10は、これにより、隠れ状態検知部40の判定出力部80が、その隠れ状態の検知出力として「不定」を出力する構成となっている(ステップ608)。
尚、図16に示すように、画像解析装置10は、その隠れ状態判定において、撮影画像Vdの隠れ状態を検知しなかった場合(ステップ504:NO)に、その異常検知部22が撮影画像Vdに映る車室6の異常検知判定を実行する(ステップ506)。即ち、上記のように、本実施形態の画像解析装置10において、この異常検知部22の実行する異常検知判定は、骨格点SPの検出に基づいて姿勢判定部26が実行する乗員5の姿勢判定、詳しくは、転倒姿勢の検出によるものとなっている。そして、本実施形態の画像解析装置10は、これにより車室6の異常が検知された場合(ステップ507:YES)に、その異常検知部22が、撮影画像Vdとともに異常検知出力を車外の管理者35に配信する構成となっている(ステップ508)。
次に、本実施形態の作用について説明する。
即ち、本実施形態の画像解析装置10においては、車室6の撮影画像Vdに映る各乗員5について、その移動予測に基づき推定される撮像領域50の重なり率αが演算される。また、乗降人数Nの計測により特定された車室6内の総人数Naと撮影画像Vdに映る乗員5の検出人数Ndとの差分値δが演算される。更に、カメラ8に近接した隠し位置Pxにおいて、その撮影画像Vdに映る乗員5の有無についての検出判定が実行される。そして、これらの重なり率判定、人数差分判定、及びカメラ近接位置判定の結果に基づいて、その撮影画像Vdに複数の乗員5が重なって映る隠れ状態の発生が検知される。
次に、本実施形態の効果について説明する。
(1)画像解析装置10は、カメラ8が映す車両1の車室6を監視空間11として、その撮影画像Vdを解析することにより、この撮影画像Vdに映る人Hの情報Ih、即ち乗員5の乗員情報Ichを取得する人情報取得部25を備える。そして、画像解析装置10は、撮影画像Vdに複数の乗員5が重なって映る隠れ状態の発生を検知する隠れ状態検知部40を備える。
上記構成によれば、撮影画像Vdに生じた隠れ状態を検知して、車室6内の乗員5が正しく撮影画像Vdに映らない状態にあることを把握することができる。そして、この場合、例えば、その隠れ状態が生じた撮影画像Vdの解析的な利用を控えることで、高精度の情報取得を担保することができる。
(2)隠れ状態検知部40に設けられた第1隠れ状態判定部41は、撮影画像Vdに映る各乗員5の移動予測を実行する移動予測部90aとしての機能を有する。また、この第1隠れ状態判定部41は、その移動予測に基づいて撮影画像Vdに重なって映ると推定される各乗員5の撮像領域50について、その重なり率αを演算する重なり率演算部90bとしての機能を備える。そして、第1隠れ状態判定部41は、この重なり率αと重なり判定値αthとの比較に基づいて、その隠れ状態の検知判定を実行する。
上記構成によれば、精度よく、撮影画像Vdにおける隠れ状態の発生を検知することができる。更に、隠れ状態の発生を事前に予測することができるという利点がある。そして、これにより、より高精度の情報取得を行なうことができる。
(3)隠れ状態検知部40に設けられた第2隠れ状態判定部42は、監視空間11に出入りする人Hの出入人数となる乗員5の乗降人数Nを計測する出入人数計測部90cとしての機能を有する。そして、この第2隠れ状態判定部42は、乗降人数Nの計測により特定される車室6内の総人数Naと撮影画像Vdに映る乗員5の検出人数Ndとの差分に基づいて、その隠れ状態の検知判定を実行する。
即ち、撮影画像Vdに隠れ状態が生じていない場合、この撮影画像Vdに映る乗員5の検出人数Ndは、車室6内の総人数Naと等しくなる。従って、上記構成によれば、簡素な構成にて、容易に、その撮影画像Vdに生じた隠れ状態を検知することができる。
(4)隠れ状態検知部40に設けられた第3隠れ状態判定部43は、カメラ8に近接した隠し位置Pxにおいて撮影画像Vdに映る乗員5が検出されている場合には、この撮影画像Vdに隠れ状態が発生しているとみなす。
即ち、カメラ8に近接した隠し位置Pxで撮影画像Vdに映る乗員5が、そのカメラ8の視野を遮ることにより、車室6内に位置する他の乗員5を隠すかたちで、その撮影画像Vdに隠れ状態が発生する可能性がある。そして、この場合、その隠れ状態が実際に発生しているか否かは判定することができない。この点を踏まえ、上記構成のように、隠れ状態が発生しているとみなす。そして、この場合、例えば、その隠れ状態が生じた撮影画像Vdの解析的な利用を控えることで、高精度の情報取得を担保することが可能になる。
(5)第3隠れ状態判定部43は、撮影画像Vdに映る乗員5の撮像領域70が撮影画像Vdの全体に占める割合を画像比率βとして演算する画像比率演算部90dとしての機能を有する。そして、第3隠れ状態判定部43は、所定の近接判定値βth以上の画像比率βを有する乗員5が検出されている場合に、この乗員5が隠し位置Pxにおいて、その撮影画像Vdに映っていると判定するカメラ近接位置判定部90eとしての機能を有する。これにより、簡素な構成にて、カメラ8に近接した隠し位置Pxにおいて撮影画像Vdに映る乗員5を検出することができる。
(6)画像解析装置10は、撮影画像Vdに含まれる乗員5の骨格点SPを検出する骨格点検出部23を備える。そして、画像解析装置10は、この骨格点SPの検出により取得される乗員情報Ichに基づいて車室6内に生じた異常を検知する異常検知部22を備える。
即ち、骨格点SPの検出により、精度よく、乗員5の姿勢や体格等、身体的な乗員情報Ichを取得することができる。そして、これにより、取得した乗員情報Ichに基づいて、乗員5が乗車する車室6について、高精度の異常検知判定を行うことができる。しかしながら、撮影画像Vdに隠れ状態が発生することで、その骨格点SPの検出状態も低下する。その結果、精度よく、その異常検知判定を行えない可能性が生ずる。従って、このような構成について、上記(1)~(5)に示す隠れ状態の検知判定を適用することで、より顕著な効果を得ることができる。
(7)隠れ状態検知部40は、隠れ状態の発生が検知された場合に、その隠れ状態の検知出力として、隠れ状態の発生が検知された撮影画像Vdにおける骨格点SPの検出状態についての判定出力を実行する判定出力部80を備える。
上記構成によれば、隠れ状態の発生により変化した骨格点SPの検出状態を正しく把握することができる。そして、これにより、その隠れ状態が生じた撮影画像Vdを、適切に活用することができる。
なお、上記実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、カメラ8には、赤外線カメラが用いられることとしたが、その型式は任意に変更してもよい。例えば、可視光カメラ等を用いる構成であってもよい。
・上記実施形態では、重なり率αの演算には、その人Hの撮像領域50として胴体部分の撮像領域60が用いられることとしたが、例えば、頭部を含める等、重なり率αの演算に用いる撮像領域50の範囲は、任意に変更してもよい。また、移動予測及び重なり推定を行なう将来時間についてもまた、任意に変更してもよい。そして、移動予測の具体的な手法については、任意に変更してもよい。
・上記実施形態では、乗員5の乗降判定は、撮影画像Vdを上面視変換して行われることとしたが、上面視変換は、必ずしも行わなくともよい。そして、例えば、乗車予約情報等、画像解析以外の方法で車室6内の総人数Naを取得可能な場合には、その値を利用してもよい。
・上記実施形態では、骨格点SPの検出、詳しくは、主要な骨格点SPの抽出可能性に基づいて、その撮影画像Vdに映る乗員5の検出人数Ndを算出することとしたが、必ずしも、骨格点SPの検出によるものでなくともよい。その他の方法を用いて撮影画像Vd内に認識した乗員5の数を、その検出人数Ndとする構成であってもよい。そして、車室6内の総人数Naと乗員5の検出人数Ndとの差分値δは、必ずしも演算しなくともよく、単に一致判定を行なう構成であってもよい。
・上記実施形態では、撮影画像Vdに映る乗員5の撮像領域70が撮影画像Vdの全体に占める割合を画像比率βとして、所定の近接判定値βth以上の画像比率βを有する乗員5を、隠し位置Pxで撮影画像Vdに映っていると判定することとした。しかし、これに限らず、隠し位置Pxで撮影画像Vdに映る乗員5の検出判定については、任意に変更してもよい。即ち、車室6内の乗員5がカメラ8に近接した位置に立つことで、この乗員5がカメラ8の視野を遮ることを特定できればよく、その特定された乗員5の位置が隠し位置Pxである。例えば、必ずしも画像比率βは演算しなくともよく、撮像領域70の大きさと、その乗員5がカメラ8に近接した位置にいることを示す車両1の備品、例えばつり革や手摺などの利用状態との組み合わせ等により、そのカメラ近接位置判定を行なう構成としてもよい。
・上記実施形態では、骨格点SPの検出に基づいて乗員5の姿勢判定を実行する。そして、転倒姿勢の検出により、その撮影画像Vdに映る車室6の異常を検知することとした。しかし、これに限らず、撮影画像Vdの画像解析により取得した他の乗員情報Ichを利用して、その異常検知判定を実行する構成であってもよい。更に、骨格点SPの検出に依らず、乗員情報Ichの取得を実行する構成に適用してもよい。そして、その取得した乗員情報Ichを、異常検知判定以外の用途に用いる構成であってもよい。
・上記実施形態では、図示しない情報通信ネットワークを介して車両1の内外に配置された複数の情報処理装置30を相互に接続することにより、その監視システム15が形成される。そして、画像解析装置10は、車両1に搭載された車載の情報処理装置30aと、クラウドサーバ31を構成する車外の情報処理装置30bとが、その画像解析処理を分散して行なうこととした。しかし、これに限らず、監視システム15のシステム構成は、任意に変更してもよい。例えば、車両1に搭載された車載の情報処理装置30aに、その画像解析装置10が実装される構成であってもよい。そして、管理者35としてのオペレータ33が駐在する車両1の運行センター32に、その画像解析装置10を構成する車外の情報処理装置30bを配置する構成であってもよい。
・また、異常発生時や隠れ状態の検知時に、管理者35が確認する車室6内の撮影画像Vdについてもまた、そのカメラ8が映す撮影画像Vdが、車外の管理者35に対し、常時、配信される構成であってよく、イベント発生時のみ配信される構成であってもよい。
・上記実施形態では、車両1のカメラ8が映す車室6を監視空間11とした監視システム15に具体化した。しかし、これに限らず、建物の室内を監視空間11とする構成であってもよい。そして、例えば、屋外に監視空間11を設定する構成であってもよい。
1…車両
5…乗員
6…車室
8…カメラ
11…監視空間
25…人情報取得部
40…隠れ状態検知部
Vd…撮影画像
H…人
Ih…情報
Ich…乗員情報

Claims (9)

  1. カメラが映す監視空間の撮影画像を解析することにより該撮影画像に映る人の情報を取得する人情報取得部と、
    前記撮影画像に複数の前記人が重なって映る隠れ状態の発生を検知する隠れ状態検知部と、を備える画像解析装置。
  2. 請求項1に記載の画像解析装置において、
    前記撮影画像に映る前記各人の移動予測を実行する移動予測部と、
    前記移動予測に基づき前記重なって映ると推定される前記各人の撮像領域について該撮像領域の重なり率を演算する重なり率演算部と、を備え、
    前記隠れ状態検知部は、前記重なり率と重なり判定値との比較に基づいて、前記隠れ状態の検知判定を実行すること、を特徴とする画像解析装置。
  3. 請求項1又は請求項2に記載の画像解析装置において、
    前記監視空間に出入りする前記人の出入人数を計測する出入人数計測部を備え、
    前記隠れ状態検知部は、前記出入人数の計測により特定される前記監視空間内の総人数と前記撮影画像に映る前記人の検出人数との差分に基づいて、前記隠れ状態の検知判定を実行すること、を特徴とする画像解析装置。
  4. 請求項1~請求項3の何れか一項に記載の画像解析装置において、
    前記隠れ状態検知部は、前記カメラに近接した隠し位置において前記撮影画像に映る前記人が検出されている場合には、前記隠れ状態が発生しているとみなすこと、
    を特徴とする画像解析装置。
  5. 請求項4に記載の画像解析装置において、
    前記人の撮像領域が前記撮影画像の全体に占める割合を画像比率として演算する画像比率演算部と、
    所定の近接判定値以上の前記画像比率を有する前記人が検出されている場合に該人が前記隠し位置において前記撮影画像に映っていると判定するカメラ近接位置判定部と、
    を備えること、を特徴とする画像解析装置。
  6. 請求項1~請求項5の何れか一項に記載の画像解析装置において、
    前記撮影画像に含まれる前記人の骨格点を検出する骨格点検出部と、
    前記骨格点の検出により前記取得される前記人の情報に基づいて前記監視空間に生じた異常を検知する異常検知部と、を備えること、を特徴とする画像解析装置。
  7. 請求項6に記載の画像解析装置において、
    前記隠れ状態の発生が検知された場合に、前記隠れ状態の検知出力として、前記隠れ状態の発生が検知された前記撮影画像における前記骨格点の検出状態についての判定出力を実行する判定出力部を備えること、を特徴とする画像解析装置。
  8. 請求項1~請求項7の何れか一項に記載の画像解析装置において、
    前記監視空間は、車両の車室であり、前記人は、前記車両の乗員であること、
    を特徴とする画像解析装置。
  9. 請求項1~請求項8の何れか一項に記載の画像解析装置を備えた監視システム。
JP2021098861A 2021-06-14 2021-06-14 画像解析装置及び監視システム Pending JP2022190504A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021098861A JP2022190504A (ja) 2021-06-14 2021-06-14 画像解析装置及び監視システム
US17/830,667 US20220398765A1 (en) 2021-06-14 2022-06-02 Image analysis apparatus and monitoring system
CN202210651929.5A CN115484365A (zh) 2021-06-14 2022-06-10 图像解析装置以及监视系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021098861A JP2022190504A (ja) 2021-06-14 2021-06-14 画像解析装置及び監視システム

Publications (1)

Publication Number Publication Date
JP2022190504A true JP2022190504A (ja) 2022-12-26

Family

ID=84390859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021098861A Pending JP2022190504A (ja) 2021-06-14 2021-06-14 画像解析装置及び監視システム

Country Status (3)

Country Link
US (1) US20220398765A1 (ja)
JP (1) JP2022190504A (ja)
CN (1) CN115484365A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220176969A1 (en) * 2020-12-07 2022-06-09 Hyundai Motor Company Vehicle configured to check number of passengers and method of controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220176969A1 (en) * 2020-12-07 2022-06-09 Hyundai Motor Company Vehicle configured to check number of passengers and method of controlling the same

Also Published As

Publication number Publication date
CN115484365A (zh) 2022-12-16
US20220398765A1 (en) 2022-12-15

Similar Documents

Publication Publication Date Title
EP2300949B1 (en) Video-based system and method of elevator door detection
JP4753320B2 (ja) エスカレータ監視システム
JP5988472B2 (ja) 監視システム、および、混雑率算出方法
CN102323822B (zh) 一种避免工业机器人碰撞工人的方法
JP6281492B2 (ja) 乗車人数計測装置、方法およびプログラム
CN106144816B (zh) 基于深度传感器的乘客检测
CN106144862A (zh) 用于乘客运输门控制的基于深度传感器的乘客感测
CN106144798A (zh) 用于乘客运输控制的传感器融合
JP2015000807A (ja) エレベータ制御システムおよびエレベータ制御方法
JP2022190504A (ja) 画像解析装置及び監視システム
JP4883415B2 (ja) 監視装置及びプログラム
JP2599701B2 (ja) エレベータの待機乗客数の検出方法
EP2546807A2 (en) Traffic monitoring device
CN109919066A (zh) 一种检测轨道交通车厢内乘客密度异常的方法和装置
KR20200075378A (ko) Cctv를 이용한 건물내 재실자 밀도 모니터링 시스템 및 방법
JP5334008B2 (ja) 異常動作検出装置
CN112561967A (zh) 一种车辆门锁的控制方法及装置
JP5881149B2 (ja) 車両内でのアラーム対象者検知装置、アラーム対象者検知方法、プログラム、記録媒体およびアラーム対象者検知システム
JP2000053361A (ja) マンコンベアの乗客監視装置
CN114983397A (zh) 姿势辨别装置
JP2022133723A (ja) 身体情報取得装置
US20220405956A1 (en) Monitoring system
JP2022134088A (ja) 姿勢判別装置
JP2022191798A (ja) 監視システム
JP7353540B2 (ja) 動作判定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240403