JPWO2017141454A1 - 混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム - Google Patents

混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム Download PDF

Info

Publication number
JPWO2017141454A1
JPWO2017141454A1 JP2017542207A JP2017542207A JPWO2017141454A1 JP WO2017141454 A1 JPWO2017141454 A1 JP WO2017141454A1 JP 2017542207 A JP2017542207 A JP 2017542207A JP 2017542207 A JP2017542207 A JP 2017542207A JP WO2017141454 A1 JPWO2017141454 A1 JP WO2017141454A1
Authority
JP
Japan
Prior art keywords
congestion
person
state
degree
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017542207A
Other languages
English (en)
Other versions
JP6397581B2 (ja
Inventor
大輔 松原
大輔 松原
都 飯田
都 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2017141454A1 publication Critical patent/JPWO2017141454A1/ja
Application granted granted Critical
Publication of JP6397581B2 publication Critical patent/JP6397581B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

エリアの混雑を適切に判定する。混雑解析装置(4)は、人物を撮影した動画から、人数を決定する人物分類部(43)と、各人物の移動軌跡を決定する移動軌跡決定部(44)と、この動画に撮影されている各人物の移動軌跡から、これら人物の状態を決定し、人数と各人物の状態とに応じて混雑度を判定する混雑情報解析部(45)とを備える。

Description

本発明は、混雑解析装置、混雑解析方法および混雑解析プログラムに関する。
近年、IT(Information Technology)技術の進化により、リアルタイムに変化する駅の混雑状況を、いつでもどこでも確認できるサービスが提供されるようになっている。
特許文献1の解決手段には、「画像生成部11の画像列から動き情報を算出する動き情報生成部13と、画像のテクスチャ情報を生成するテクスチャ情報生成部15と、動きの基準となる基準動き情報を保持・更新する基準動き情報生成部14と、人の有無を判定するための基準テクスチャ情報を保持・更新する基準テクスチャ情報生成部16と、動きがあるかどうかを判定する動き情報判定部18と、人と同じテクスチャ情報があるかどうかを判定するテクスチャ情報判定部19と、動き情報とテクスチャ情報判定の結果を受けて、人が存在するかしないかどうかを判定する滞留判定部20とを備え、動きの有無とテクスチャを用いた類似度判定を用いて個々の領域毎の各種状態を判別して混雑度を推定し、また混雑状況の指標および異常状態かどうかの情報を提供する。」と記載されている。
特開2009−110152号公報
混雑とは、多くの人が集まって混み合うことをいう。また、駅などでは、単に多くの人が集まるだけが問題ではなく、その結果として移動が妨げられることが問題である。このような状況を、混雑度として判定することが求められている。
特許文献1に記載されている発明によれば、個々の領域の状態として滞留領域、移動領域、ノイズ領域、前景領域を出力することで、混雑判定手段での混雑推定処理を行う際に領域の種別毎に計測可能である。また、合計混雑度は、移動領域の数と滞留領域の数を加算した値や、滞留領域の割合や、移動領域の割合で算出することが記載されている。
特許文献1では、単位面積あたり人数については言及されておらず、単にテクスチャ情報判定部人非存在判定/テクスチャ情報判定部人存在判定について記載されているだけである。しかし一般的には、移動領域や滞留領域が存在するとしても、単位面積あたり人数が少なければ混雑とはいえない。
そこで、本発明は、エリアの混雑を適切に判定する混雑解析装置、混雑解析方法および混雑解析プログラムを提供することを課題とする。
前記した課題を解決するため、本発明の混雑解析装置は、人物を撮影した動画から、人数と各前記人物の移動軌跡とを決定する軌跡決定部と、前記動画に撮影されている各前記人物の移動軌跡から当該人物の状態を決定し、前記人数と各前記人物の状態とに応じて混雑度を判定する混雑情報解析部とを備える。
その他の手段については、発明を実施するための形態のなかで説明する。
本発明によれば、混雑解析装置、混雑解析方法、および混雑解析プログラムにおいて、エリアの混雑を適切に判定することが可能となる。
混雑解析システムの論理構成を示すブロック図である。 混雑解析システムのハードウェア構成を示すブロック図である。 画像解析のうち特徴点抽出と軌跡抽出とを説明する図である。 画像解析のうち人物分類と移動軌跡決定とを説明する図である。 混雑度の判定と配信の方法を示すフローチャートである。 混雑度のデフォルトの第1判定条件を示すグラフである。 混雑度のイベント用の第2判定条件を示すグラフである。 混雑度の第3判定条件を示すグラフである。 混雑度の第4判定条件を示すグラフである。 表示装置に配信されたヒートマップを示す図である。 表示装置に配信された混雑画像を示す図である。 混雑画像の生成方法を示すフローチャートである。 人物の移動状態と静止状態とを示すアイコンである。 混雑画像の生成方法の変形例を示すフローチャートである。 変形例の人物の移動状態と静止状態とを示すアイコンである。 変形例の人物の滞留時間を示すアイコンである。 混雑動画の生成方法を示すフローチャートである。 平均通過時間の算出方法を示すフローチャートである。 スムーズ性による混雑度判定方法を示すフローチャートである。 スムーズ性評価の概念図である。
以降、本発明を実施するための形態を、各図と数式とを参照して詳細に説明する。
図1は、混雑解析システム1の論理構成を示すブロック図である。
混雑解析システム1は、映像撮影装置2a,2bまたは/および映像記憶装置3と、混雑解析装置4と、表示装置5とを含んで構成される。
映像撮影装置2a,2bは、例えば駅などの所定エリアに設置されたアナログカメラやIPカメラなどであり、動画を撮影して混雑解析装置4に出力する。以下、各映像撮影装置2a,2bを特に区別しないときには、単に映像撮影装置2と記載する。映像記憶装置3は、カメラで撮影した動画を記憶し、この記憶している動画を混雑解析装置4に出力する。映像撮影装置2a,2bまたは/および映像記憶装置3の台数は、任意台数であってもよい。
表示装置5は、例えば映像撮影装置2a,2bが設置される駅の利用者が有する携帯端末であるが、単なるモニタディスプレイであってもよい。
混雑解析装置4は、駅などを撮影した動画から混雑状況を解析する装置である。混雑解析装置4は、映像入力部40、特徴点抽出部41、軌跡抽出部42、人物分類部43、移動軌跡決定部44、混雑情報解析部45、混雑情報出力部46、混雑情報データベース492の各部を備えている。
映像入力部40は、アナログカメラやIPカメラからエリアを撮影した動画を取得する。アナログカメラから動画を取得する際、映像入力部40は、アナログの映像信号をキャプチャしてデジタル信号に変換する。IP(Internet Protocol)カメラから動画を取得する際、映像入力部40はIPネットワークを介して動画ストリームを受信する。
特徴点抽出部41は、動画を構成する各フレーム中のエッジや角などの特徴的な部分を抽出する。軌跡抽出部42は、特徴点抽出部41が抽出した特徴点を複数フレームに亘って追跡して、同一の特徴点から軌跡を抽出する。
人物分類部43は、軌跡抽出部42が抽出した軌跡のうち類似した軌跡をまとめることで、人物毎に軌跡を分類する。人物分類部43は更に、分類した軌跡により、エリアの人数を判定する。
移動軌跡決定部44は、人物分類部43により分類された特徴点の軌跡から各人物の重心を求め、この重心の軌跡を用いて人物の移動軌跡を決定する。これら映像入力部40、特徴点抽出部41、軌跡抽出部42、人物分類部43、移動軌跡決定部44は、人物を撮影した動画から、人数と各人物の移動軌跡とを決定する軌跡決定部として機能する。なお、本発明は、動画からエリアの人数と各人物の移動軌跡とを決定できればよく、その構成は本実施形態に限定されない。
混雑情報解析部45は、人数と状態とを判定し、この人数と状態に応じて混雑度を判定する。更に混雑情報解析部45は、混雑画像やヒートマップを生成し、通過人数のカウントを行う。
混雑情報データベース492は、混雑情報解析部45が用いる各種情報や、混雑情報解析部45が出力する各種情報を格納するデータベースである。図面では、混雑情報データベース492のことを、「混雑情報DB」と省略記載している。
混雑情報出力部46は、混雑情報解析部45が判定した結果を示す混雑画像やヒートマップを配信(出力)し、混雑情報解析部45が判定した混雑度を配信(出力)する。混雑情報出力部46は、直接に表示装置5に混雑度を出力してもよく、またサーバ等を経由して表示装置5に混雑度を配信してもよい。
図2は、混雑解析システム1のハードウェア構成を示すブロック図である。
混雑解析システム1は、図1と同様に映像撮影装置2a,2bまたは/および映像記憶装置3と、混雑解析装置4と、表示装置5とを含んで構成され、更にネットワークNを含んでいる。ネットワークNは、表示装置5と混雑解析装置4とを通信可能に接続するものであり、例えばキャリアネットワークである。
混雑解析装置4は、例えばサーバコンピュータであり、プロセッサ47、ネットワークインタフェース48a,48b、記憶装置49を含んで構成される。プロセッサ47と、ネットワークインタフェース48a,48bと、記憶装置49とは、バスを介して相互に接続される。
記憶装置49は、例えばHDD(Hard Disk Drive)やフラッシュメモリであり、混雑解析プログラム491と、混雑情報データベース492とを格納する。なお、記憶装置49は、メディアリーダとメディアの組合せであってもよい。
ネットワークインタフェース48aは、映像撮影装置2a,2bまたは/および映像記憶装置3と、混雑解析装置4とを通信可能に接続するインタフェースである。ネットワークインタフェース48bは、表示装置5と混雑解析装置4とを通信可能に接続するインタフェースである。
プロセッサ47は、例えばCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)を含んで構成される。プロセッサ47が混雑解析プログラム491を実行することにより、映像入力部40、特徴点抽出部41、軌跡抽出部42、人物分類部43、移動軌跡決定部44、混雑情報解析部45、混雑情報出力部46(図1参照)が具現化される。
図3は、画像解析のうち特徴点抽出と軌跡抽出とを説明する図である。
図3のフレームF1〜F3は、それぞれ時間軸が異なるフレームを示している。フレームF1は、時刻tのフレームである。フレームF2は、時刻(t+1)のフレームであり、フレームF1の次に撮影されている。フレームF3は、時刻(t+2)のフレームであり、フレームF2の次に撮影されている。
フレームF1には、撮影された人物61が実線で表示されている。このフレームF1には更に、特徴点抽出部41により抽出された、人物61に関する特徴点62a〜62cが表示されている。以下、各特徴点62a〜62cを特に区別しないときには、単に特徴点62と記載する。
フレームF2には、人物61が実線で表示され、フレームF1の人物61pが細線で表示されている。このフレームF2には更に、特徴点抽出部41により抽出された、人物61に関する特徴点62a〜62cが表示されている。各特徴点62a〜62cには、その左側に、軌跡抽出部42により抽出された軌跡63a〜63cが描かれている。以下、各軌跡63a〜63cを特に区別しないときには、単に軌跡63と記載する。
時刻(t+1)の各特徴点62a〜62cと、時刻tの各特徴点62a〜62cにより、軌跡63a〜63cを描くことができる。各特徴点62から軌跡63を描く際には、例えばLucas-Kanade法を用いてもよく、更にパーティクルフィルタ、カルマンフィルタを用いてもよく、限定されない。
フレームF3には、人物61が実線で表示され、フレームF1の人物61pとフレームF2の人物61qとが細線で表示されている。このフレームF3は、特徴点抽出部41により、人物61に関する特徴点62a〜62cが抽出されている。各特徴点62a〜62cには、軌跡抽出部42により、その左側に軌跡63a〜63cが描かれている。時刻(t+2)の各特徴点62a〜62cと、時刻(t+1)の各特徴点62a〜62cにより、軌跡63a〜63cを描くことができる。以降同様な処理を繰り返すことにより、各特徴点の移動軌跡を得ることができる。
図4は、画像解析のうち人物分類と移動軌跡決定とを説明する図である。
図4のフレームF11〜F13は、時刻(t+N)のフレームを示している。フレームF11には、人物61a,61bに関する特徴点62が示されている。
フレームF12には、特徴点62のみが表示されている。人物分類部43は、これら特徴点62を、現在と過去の位置情報を考慮したクラスタリングで分類する。特徴点62を分類した結果を、フレームF13に示す。
フレームF13には、各特徴点62と、人物分類部43により分類された特徴点62の外接矩形である人物矩形64a,64bが表示される。更にフレームF13には、分類された特徴点62に係る人物61a,61bの重心65a,65bと、各重心65a,65bの軌跡から決定した人物移動軌跡66a,66bとが表示される。移動軌跡決定部44は、人物分類部43により分類された特徴点62の外接矩形である人物矩形64a,64bを決定し、各人物61a,61bの特徴点62から重心65a,65bを決定する。移動軌跡決定部44は更に、各重心65a,65bの軌跡から、人物移動軌跡66a,66bを決定する。以下、人物移動軌跡66a,66bを特に区別しないときには、単に人物移動軌跡66と記載する。
図5は、混雑度の判定と配信の方法を示すフローチャートである。
最初、混雑情報解析部45〈図1参照〉は、この駅で何かイベントが開催されているか否かを判断する(ステップS10)。混雑情報解析部45は、イベントが開催されているならば、判定条件をイベント用条件として設定する(ステップS12)。混雑情報解析部45は、イベントが開催されていないならば、判定条件をデフォルト条件として設定する(ステップS11)。この判定条件は、後記するステップS20で用いられる。
このようにすることで、混雑情報解析部45は、イベント時に一般的に想定される混雑を織り込んだ上で、更に混雑しているか否かを判定することができる。
次に人物分類部43〈図1参照〉が、動画に含まれる画面(フレーム)中の人数を取得する(ステップS13)。混雑情報解析部45は、この画面中の全人物について、ステップS14〜S19の処理を繰り返す。
混雑情報解析部45は、この画面中の一人について着目し、この人物の移動速度を取得する〈ステップS15〉。この人物の移動速度は、移動軌跡決定部44〈図1参照〉が決定した人物移動軌跡66(図4参照)によって決定される。
混雑情報解析部45は、この人物の移動速度が所定値を超えているか否かを判定する(ステップS16)。混雑情報解析部45は、この人物の移動速度が所定値を超えていたならば、この人物の状態を「移動」と判定する(ステップS17)。混雑情報解析部45は、この人物の移動速度が所定値を超えていなかったならば、この人物の状態を「静止」と判定する(ステップS18)。
混雑情報解析部45は、この画面中の全人物について、ステップS14〜S19の処理を繰り返したのち、人数と状態と判定条件とから混雑度を判定する〈ステップS20〉。この判定条件の詳細は、後記する図6から図9で詳細に説明する。
混雑情報出力部46は、判定した混雑度を表示装置5(図1参照)に配信(出力)して(ステップS21)、図5の処理を終了する。
表示装置5に配信された混雑度により、表示装置5の利用者は、この駅の混雑状況を好適に知ることができる。
この混雑度は、処理対象となる1台の映像撮影装置2が撮影したエリアに関するものである。混雑情報解析部45は、駅に設置された複数の映像撮影装置2が撮影した各エリアの混雑度の平均を算出することにより、更に駅全体としての混雑度を算出可能である。混雑情報解析部45は、その瞬間の混雑度を算出してもよく、所定期間の平均の混雑度を算出してもよい。更に混雑情報解析部45は、処理対象となる1台の映像撮影装置2が撮影したエリアのうち一部に関する混雑度を算出してもよい。
図6は、混雑度のデフォルトの第1判定条件を示すグラフである。
以下の図6から図9に示すグラフの横軸は、所定領域内に存在する人数であり、例えば画面内の人数のことをいう。グラフの縦軸の状態は、所定領域内に存在する人の状態のことであり、例えば移動状態の人数と静止状態の人数との割合のことをいう。
混雑度は、人数と状態とから判定される。人数が多い程、混雑度が高くなる。人数が同じであっても、静止状態の人数割合が高ければ、混雑度が高くなる。移動状態の人数割合が高いならば、自由に移動できることを意味するため、混雑度が高いとはいえないためである。
混雑度の第1判定条件で、混雑度1は、状態の値yが以下の式(1)よりも小さい場合である。境界線91aは式(1)に該当し、混雑度1と混雑度2とを分ける境界である。混雑度1の場合には、人数が少なく滞留もない。
Figure 2017141454
なお、本実施形態において混雑度は1から4の数値で示される。混雑度1は最も混雑度が低い状態を意味する。
混雑度2は、状態の値yが以下の式(2)よりも小さく、かつ式(1)以上の場合である。境界線92aは式(2)に該当し、混雑度2と混雑度3とを分ける境界である。混雑度2の場合には、人数が少なく滞留もさほど多くない。
Figure 2017141454
混雑度3は、状態の値yが以下の式(3)よりも小さく、かつ式(2)以上の場合である。境界線93aは式(3)に該当し、混雑度3と混雑度4とを分ける境界である。混雑度3の場合には、人数が少ないものの滞留が発生しているか、または滞留が発生していなくても人数がかなり多い。
Figure 2017141454
混雑度4は、状態の値yが式(3)以上の場合である。このとき、人数が多いか、または滞留が発生している。
図7は、混雑度のイベント時の第2判定条件を示すグラフである。
イベント時において境界線91bは、境界線91aよりも右上に位置している。境界線92bは、境界線92aよりも右上に位置している。境界線93bは、境界線93aよりも右上に位置している。このように判定することで、イベント時に一般的に想定される混雑を織り込んだ上で、更に混雑しているか否かを判定することができる。
これら第1、第2判定条件では、加算と乗算のみで混雑度の境界を算出しているので、計算負荷を小さくすることができる。
図8は、混雑度の第3判定条件を示すグラフである。
混雑度の第3判定条件で、混雑度1は、状態の値yが以下の式(4)よりも小さい場合である。境界線91cは式(4)に該当し、混雑度1と混雑度2とを分ける境界である。
Figure 2017141454
混雑度2は、状態の値yが以下の式(5)よりも小さく、かつ式(4)以上の場合である。境界線92cは式(5)に該当し、混雑度2と混雑度3とを分ける境界である。
Figure 2017141454
混雑度3は、状態の値yが以下の式(6)よりも小さく、かつ式(5)以上の場合である。境界線93cは式(6)に該当し、混雑度3と混雑度4とを分ける境界である。
Figure 2017141454
混雑度4は、状態の値yが式(6)以上の場合である。
これら混雑度の第1〜第3判定条件のいずれも、人数が多いほど混雑度が高いと判定し、かつ各人物の静止割合が多いほど混雑度が高いと判定するという条件である。このように、人物と各人物の状態に応じて混雑度を判定しているので、人間の感覚に近く有用な混雑度を判定することができる。
図9は、混雑度の第4判定条件を示すグラフである。
混雑度の第4判定条件で、混雑度1は、状態の値yが状態閾値よりも小さく、かつ人数xが第1閾値よりも小さい場合である。
混雑度2は、状態の値yが状態閾値よりも小さく、かつ人数xが第1閾値以上の場合である。
混雑度3は、状態の値yが状態閾値以上であり、かつ人数xが第2閾値よりも小さい場合である。混雑度4は、状態の値yが状態閾値以上であり、かつ人数xが第2閾値以上の場合である。これにより、第1〜第3判定条件よりも簡単に混雑度を判定することができる。
図10は、表示装置5に配信されたヒートマップ71を示す図である。
ヒートマップ71は、駅の構内地図に対して、混雑度を色や濃度により重畳表示したものである。これにより表示装置5のユーザは、この駅の構内の混雑状況を容易に知覚することができる。このヒートマップ71に表示されている各ルーペ・アイコン85a〜85hは、それぞれ映像撮影装置2を示している。ユーザがルーペ・アイコン85a〜85hのいずれかをタップすることにより、対応する映像撮影装置2による混雑画像72(図11参照)を閲覧可能である。
このヒートマップ71は、例えば、駅の構内地図の各エリアに対して、図5で計算した混雑度を色や濃度で重畳表示することにより生成される。
図11は、表示装置5に配信された混雑画像72を示す図である。
混雑画像72は、人物が撮影されていない背景画像の上に、人物を示すアイコンが配置されて構成される。この混雑画像72には、複数の静アイコン81と、複数の動アイコン82とが配置されている。混雑解析装置4は、撮影画像を直接に配信していないので、被撮影者のプライバシーを守ることができる。
静アイコン81は黄色であり、動アイコン82は紫色である。この黄色と紫色とは、赤色盲、緑色盲などの色覚異常を有する者であっても、その大多数が識別可能な色の組合せである。これら静アイコン81と動アイコン82の密度と、静アイコン81と動アイコン82との割合により、ユーザは直感的に混雑度を察知可能である。
混雑画像72の下部には、混雑度バー73が表示されている。混雑度バー73には、混雑度を示す棒グラフと、この混雑度に係る時刻とが表示されている。これにより、各ユーザは、駅の混雑度を適切に知ることができる。
図12は、混雑画像72の生成方法を示すフローチャートである。
最初、人物分類部43〈図1参照〉が、動画に含まれる画面(フレーム)中の人数を取得する(ステップS30)。混雑情報解析部45は、この画面中の全人物について、ステップS31〜S39の処理を繰り返す。
混雑情報解析部45は、各人物の状態が移動/静止のいずれかを取得し(ステップS32)、この人物が移動状態であるか否かを判定する(ステップS33)。なお、ステップS32の処理は、図5に示したステップS15〜S18の処理と同様である。
混雑情報解析部45は、この人物が移動状態ならば、その移動方向を取得して(ステップS34)、移動方向に応じた動アイコン82を生成する(ステップS35)。更に混雑情報解析部45は、この人物が移動状態でないならば、その滞留時間を取得して(ステップS36)、滞留時間に応じた静アイコン81を生成する(ステップS37)。
その後混雑情報解析部45は、背景画像に生成したアイコンを重畳加工する(ステップS38)。
混雑情報解析部45がこの画面中の全人物について、ステップS31〜S39の処理を繰り返す。その後、混雑情報出力部46は、生成した混雑画像72(図11参照)を表示装置5に配信(出力)し(ステップS40)、図12の処理を終了する。
これにより、混雑解析装置4は、ユーザの表示装置5に対して、混雑画像72(図11参照)を配信(出力)することができる。
なお、混雑情報解析部45は、各人の状態として移動/静止のいずれかを判定するのみでなく、荷物の有無を判定してもよい。荷物の有無は、例えばスーツケースやキャリングバッグの画像データベースとフレーム画像との照合により判定可能である。このとき、混雑情報解析部45は、荷物の有無を示すアイコンを付与することができる。これによりユーザは、スーツケースやキャリーバッグなどの荷物を有する人物により混雑していることを、容易に察知できる。
また混雑情報解析部45は、荷物を有する人物の割合が多いときは、混雑度のレベルを上げるように判定してもよい。これによりユーザは、その人物が有する荷物により空間が占有されてエリアが混雑していることを、容易に察知できる。
更に、混雑情報解析部45は、各人の状態として人物の性別、人物の年齢などの属性を判定してもよい。人物の性別、人物の年齢などの属性は、例えば顔画像データベースとフレーム画像との照合により判定可能である。このとき、混雑情報解析部45は、人物の性別、人物の年齢などの属性を示すアイコンを付与することができる。これによりユーザは、どのような属性の人物によって混雑しているかを容易に察知できる。
また混雑情報解析部45は、特性の属性を有する人物の割合が多いときには、混雑度のレベルを調整して判定してもよい。例えば14歳を超える人物が多いときには混雑度を高く判定し、14歳以下の人物が多いときには混雑度を低く判定するなどである。
図13は、人物の移動状態と静止状態とを示すアイコンである。
これらアイコンは、特定エリア内に設置された映像撮影装置2(カメラ)で撮影された人の行動を表示するものである。混雑解析装置4は、映像撮影装置2(カメラ)で撮影されたエリア内の人の混雑や滞留などの状況を以下のアイコンで表示する。
動アイコン82Lは紫色であり、図ではハッチングで示している。この動アイコン82Lは、足を開いた人物と、その頭部が左を向いているアイコンで表示される。これにより、対応する人物が左に移動している状況を示している。
動アイコン82Fは紫色であり、図ではハッチングで示している。この動アイコン82Fは、足を開いた人物と、その頭部が前方(紙面の手前方向)を向いているアイコンで表示される。これにより、対応する人物が前方(紙面の手前方向)に移動している状況を示している。
動アイコン82Bは紫色であり、図ではハッチングで示している。この動アイコン82Bは、足を開いた人物と、その頭部が後方(紙面の奥方向)を向いているアイコンで表示される。これにより、対応する人物が後方(紙面の奥方向)に移動している状況を示している。
動アイコン82Rは紫色であり、図ではハッチングで示している。この動アイコン82Rは、足を開いた人物と、その頭部が右を向いているアイコンで表示される。これにより、対応する人物が右に移動している状況を示している。
静アイコン81a,81bは黄色であり、図では白抜きで示している。この静アイコン81a,81bは、足を閉じた人物のアイコンで表示される。これにより、対応する人物が立ち止まっている状況を示している。
この静アイコン81aの上側には、吹き出し内に「3分」を表示した滞留時間アイコン83aが配置される。静アイコン81bの上側には、吹き出し内に「5分」を表示した滞留時間アイコン83bが配置される。これによりユーザは、立ち止まっている各人物の滞留時間を容易に視認することができる。以下、各滞留時間アイコン83a,83bを特に区別しないときには、単に滞留時間アイコン83と記載する。
なお、静アイコン81の上に吹き出しの滞留時間アイコン83を表示するだけでなく、動アイコン82の上に吹き出しの滞留時間アイコン83を表示してよい。この変形例については、後記する図14から図16で詳細に説明する。
動アイコン82L,82F,82B,82Rは、いずれも足を開いた様子がデザインされている。これによりユーザは、このアイコンに対応する人物が移動していることを直感的に知ることができる。
その反対に、静アイコン81a,81bは、いずれも足を閉じた様子がデザインされている。これによりユーザは、このアイコンに対応する人物が立ち止まっていることを直感的に知ることができる。
図14は、混雑画像72の生成方法の変形例を示すフローチャートである。
ステップS30〜S35までの処理は、図12に示した混雑画像72の生成方法と同様である。
ステップS33の処理で移動状態ではないと判定されたならば、混雑情報解析部45は、この人物の向きを取得し〈ステップS41〉、向きに応じた静アイコン81を生成する(ステップS42)。混雑情報解析部45は、例えば顔の向きの画像データベースとフレーム画像との照合により、立ち止まっている人物の向きを判定(取得)可能である。
ステップS35またはステップS42の処理の後、更に混雑情報解析部45は、この人物の滞留時間を取得して(ステップS43)、滞留時間に応じた吹き出しである滞留時間アイコン83を追加する(ステップS44)。以下、混雑情報解析部45が背景画像に生成したアイコンを重畳加工するステップS38以降の処理と、ステップS36,S37の処理とは、図12に示した混雑画像72の生成方法と同様である。
図15は、変形例における人物の移動状態と静止状態とを示すアイコンである。
これらアイコンは、特定エリア内に設置された映像撮影装置2(カメラ)で撮影された人の行動を表示するものである。混雑解析装置4は、映像撮影装置2(カメラ)で撮影されたエリア内の人の混雑や滞留などの状況を以下のアイコンで表示する。
動アイコン82Lは紫色であり、図ではハッチングで示している。この動アイコン82Lは、足を開いた人物と、その頭部が左を向いているアイコンで表示される。これにより、対応する人物が左に移動している状況を示している。
静アイコン81Lは黄色であり、図では白抜きで示している。この静アイコン81Lは、足を閉じた人物と、その頭部が左を向いているアイコンで表示される。これにより、対応する人物が左を向いて立ち止まっている状況を示している。
動アイコン82Fは紫色であり、図ではハッチングで示している。この動アイコン82Fは、足を開いた人物と、その頭部が前方(紙面の手前方向)を向いているアイコンで表示される。これにより、対応する人物が前方(紙面の手前方向)に移動している状況を示している。
静アイコン81Fは黄色であり、図では白抜きで示している。この静アイコン81Fは、足を閉じた人物と、その頭部が前方(紙面の手前方向)を向いているアイコンで表示される。これにより、対応する人物が前方(紙面の手前方向)を向いて立ち止まっている状況を示している。
動アイコン82Bは紫色であり、図ではハッチングで示している。この動アイコン82Bは、足を開いた人物と、その頭部が後方(紙面の奥方向)を向いているアイコンで表示される。これにより、対応する人物が後方(紙面の奥方向)に移動している状況を示している。
静アイコン81Bは黄色であり、図では白抜きで示している。この静アイコン81Bは、足を閉じた人物と、その頭部が後方(紙面の奥方向)を向いているアイコンで表示される。これにより、対応する人物が後方(紙面の奥方向)を向いて立ち止まっている状況を示している。
動アイコン82Rは紫色であり、図ではハッチングで示している。この動アイコン82Rは、足を開いた人物と、その頭部が右を向いているアイコンで表示される。これにより、対応する人物が右に移動している状況を示している。
静アイコン81Rは黄色であり、図では白抜きで示している。この静アイコン81Rは、足を閉じた人物と、その頭部が右を向いているアイコンで表示される。これにより、対応する人物が右を向いて立ち止まっている状況を示している。
動アイコン82L,82F,82B,82Rは、いずれも足を開いた様子がデザインされている。これによりユーザは、このアイコンに対応する人物が移動していることを直感的に知ることができる。これら動アイコン82L,82F,82B,82Rは、図14に示したステップS35の処理で生成される。
その反対に、静アイコン81L,81F,81B,81Rは、いずれも足を閉じた様子がデザインされている。これによりユーザは、このアイコンに対応する人物が立ち止まっていることを直感的に知ることができる。これら静アイコン81L,81F,81B,81Rは、図14に示したステップS42の処理で生成される。
図16は、変形例の人物の滞留時間を示すアイコンである。
動アイコン82cは、図15に示した動アイコン82Bと同様である。この動アイコン82cの上側には、吹き出し内に「8秒」を表示した滞留時間アイコン83cが配置される。
動アイコン82dは、図15に示した動アイコン82Bと同様である。この動アイコン82dの上側には、吹き出し内に「14秒」を表示した滞留時間アイコン83dが配置される。これによりユーザは、移動中の各人物の滞留時間を容易に視認することができる。
なお、動アイコン82の滞留時間とは、予め設定したエリアに対象人物が入ってから出るまでの時間を指す。ここで予め設定したエリアは、映像撮影装置2の撮影画角の範囲でもよく、また、改札の入り口から出口までの範囲でもよく、限定されない。
静アイコン81aは、図15に示した静アイコン81Bと同様である。この静アイコン81aの上側には、吹き出し内に「3分」を表示した滞留時間アイコン83aが配置される。
静アイコン81bは、図15に示した静アイコン81Bと同様である。この静アイコン81bの上側には、吹き出し内に「5分」を表示した滞留時間アイコン83bが配置される。これによりユーザは、立ち止まっている各人物の滞留時間を容易に視認することができる。
以下、各滞留時間アイコン83a〜83dを特に区別しないときには、単に滞留時間アイコン83と記載する。これら滞留時間アイコン83は、図14に示したステップS44の処理で生成される。滞留時間アイコン83を、任意の動アイコン82L,82F,82B,82Rや、静アイコン81L,81F,81B,81Rと組み合わせて表示することにより、各人物の滞留時間を知ることができる。よってユーザは、各エリアの混雑状況を容易に把握可能となる。
図17は、混雑動画の生成方法を示すフローチャートである。
最初、人物分類部43〈図1参照〉が、動画に含まれる画面(フレーム)中の人数を取得する(ステップS50)。
混雑情報解析部45は、所定時間に亘ってステップS51〜S57の処理を繰り返す。更に混雑情報解析部45は、各時間における画面中の全人物についてステップS52〜S55の処理を繰り返す。
混雑情報解析部45は、各人物の状態が移動/静止のいずれかを取得し(ステップS53)、各人物の状態に応じたアイコンを生成する(ステップS54)。混雑情報解析部45は、画面中の全人物についてステップS52〜S55の処理を繰り返したならば、背景画像に生成したアイコンを重畳加工して混雑画像72を作成する。更に混雑情報解析部45は、作成した混雑画像72を保存する(ステップS56)。
更に混雑情報解析部45は、所定時間に亘ってステップS51〜S57の処理を繰り返したならば、保存した混雑画像72をGIF(Graphics Interchange Format)動画に加工し(ステップS58)する。混雑情報解析部45は更に、加工したGIF動画を表示装置5に配信〈出力〉し(ステップS59)、図17の処理を終了する。
これにより、混雑解析装置4は、ユーザの表示装置5に対して、混雑動画を配信(出力)することができる。この混雑動画により、ユーザは、混雑状況の変化をより好適に把握可能である。
図18は、平均通過時間の算出方法を示すフローチャートである。
混雑情報解析部45は、人数と状態に限られず、ユーザにとって有用な混雑度の尺度を配信する。例えは、ここでは改札通り抜けに要する平均通過時間を、ユーザの表示装置5に配信している。
具体的にいうと、混雑情報解析部45は、ステップS70〜S73の処理を所定時間に亘って繰り返す。混雑情報解析部45は、改札を通過した人物の移動軌跡を取得し(ステップS71)、改札通過所要時間を計算する(ステップS72)。
所定時間に亘って処理を繰り返した(ステップS73)のち、混雑情報解析部45は、この所定時間に通過した人物群の平均通過時間を計算する(ステップS74)。混雑情報解析部45は、計算した平均通過時間を表示装置5に配信(出力)し(ステップS75)、図18の処理を終了する。これによりユーザは、改札通り抜けに要する平均通過時間を知ることができ、駅の混雑の状況を把握することができる。
また混雑情報解析部45は、改札通り抜けに要する平均通過時間に限定されず、単位時間に改札を通り抜けた人数をカウントして、カウントした平均通り抜け人数を配信してもよい。これによってもユーザは、駅の混雑の状況を把握することができる。
混雑情報解析部45は、列車到着時とそれ以外とを分けたり、混雑時とそれ以外とを分けたりして、改札通り抜けに要する平均通過時間を計算してもよく、限定されない。
図19は、スムーズ性による混雑度判定方法を示すフローチャートである。
混雑情報解析部45は、人数と状態に限られず、更に衝突性やスムーズ性を用いた混雑判定により、ユーザの体感に即した混雑度を判定することができる。人は、他の人にぶつかりそうになると、混雑していると感じるためである。
混雑情報解析部45は、ステップS80〜S86の処理を所定時間に亘って繰り返す。
混雑情報解析部45は、ある人物の移動軌跡を取得し(ステップS81)、この人物の所定距離以内に存在する別の人物の移動方向を取得する(ステップS82)。この移動方向は、上方向から見たときの移動方向である。混雑情報解析部45は、各人物の移動軌跡を座標変換して、斜めから撮影した画像から、上方向から見たときの移動方向を取得する。
更に混雑情報解析部45は、人物同士の移動方向の成す角度を算出する(ステップS83)。混雑情報解析部45は、算出した角度から算出される設定範囲内に収まる別の人物がいたならば(ステップS84)、これを該当人数としてカウントする(ステップS85)。
所定時間に亘ってステップS80〜S86の処理を繰り返したならば、混雑情報解析部45は、カウントした該当人数を混雑度として判定する(ステップS87)。これによっても、ユーザの体感に即した混雑度を判定することができる。
図20は、スムーズ性評価の概念図である。図19に示したステップS84の判定条件の概念が図示されている。
人物61c〜61iは、その移動方向が矢印により示されている。図20では、人物61hに着目して、衝突のおそれがある設定範囲をハッチングで示している。この設定範囲は、人物61hの移動方向を中心とする約90度の扇型である。図20では、この設定範囲内に人物61c,61dが位置しているので、2名が該当人数としてカウントされる。
これにより、ユーザの体感に即した混雑度を容易に判定することができる。
(変形例)
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば上記した実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路などのハードウェアで実現してもよい。上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリ、ハードディスクなどの記録装置、または、フラッシュメモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。
各実施形態において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には、殆ど全ての構成が相互に接続されていると考えてもよい。
本発明の変形例として、例えば、次の(a)〜(i)のようなものがある。
(a) 駅全体の混雑度は、単なる各エリアの混雑度の平均ではなく、各エリアに応じた重み付けを行ってもよい。例えば、改札付近にいる人物への重み付けを行い、混雑度を算出してもよい。
(b) 改札付近では、静止と移動の判定条件の閾値を変えてもよい。これにより混雑解析装置4は、改札前で自然に発生する移動速度の低下を、混雑として検知しなくなる。
(c) 更に混雑解析装置4は、列車の発着に応じた混雑判定を行ってもよい。例えば、列車の発着直後には、混雑の判定条件を引き上げるなどである。これにより混雑解析装置4は、列車の発着時に自然に発生する移動速度の低下を、混雑として検知しなくなる。
(d) 混雑解析装置4は、通常の混雑状況に応じて、閾値を設定してもよい。例えば朝晩のラッシュ時には混雑の判定条件を引き上げるなどである。これにより混雑解析装置4は、ラッシュ時に自然に発生する移動速度の低下を、混雑として検知しなくなる。
(e) 混雑解析装置4は、表示装置5に配信するヒートマップ71や混雑画像72に、列車の到着状況を同時に表示してもよい。
(f) 混雑解析装置4は、通常の混雑状況に応じて、閾値を設定してもよい。例えば朝晩のラッシュ時には混雑の判定条件を引き上げるなどである。これにより混雑解析装置4は、ラッシュ時に自然に発生する移動速度の低下を、混雑として検知しなくなる。
(g) 混雑画像72は、予め用意した背景画像の上に、人物を示す静アイコン81や動アイコン82を配置している。しかし、これに限られず、混雑画像72は、予め用意した背景画像の上に、実画像中の人物領域にモザイクを掛けたものを配置してもよく、限定されない。
(h) 混雑解析装置4が解析する対象は、駅に限られず、イベント会場やショッピングモールやテーマパークなどであってもよく、限定されない。
(i) 混雑解析装置4が配信する混雑動画の形式は、GIF動画に限定されない。例えば、MPEG(Moving Picture Experts Group)1、MPEG2、MPEG4、AVI(Audio Video Interleave)など任意のコーデックであってもよい。
1 混雑解析システム
2a,2b 映像撮影装置
3 映像記憶装置
4 混雑解析装置
40 映像入力部
41 特徴点抽出部
42 軌跡抽出部
43 人物分類部
44 移動軌跡決定部 (軌跡決定部)
45 混雑情報解析部
46 混雑情報出力部 (出力部)
47 プロセッサ
48a,48b ネットワークインタフェース
49 記憶装置
491 混雑解析プログラム
492 混雑情報データベース
5 表示装置
61 人物
62 特徴点
63a〜63c 軌跡
64a,64b 人物矩形
65a,65b 重心
66a,66b 人物移動軌跡
71 ヒートマップ
72 混雑画像
81,81L,81F,81B,81R 静アイコン
82,82L,82F,82B,82R 動アイコン
83a〜83d 滞留時間アイコン
N ネットワーク
本発明は、混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラムに関する。
特許文献1では、単位面積あたり人数については言及されておらず、単にテクスチャ情報判定部人非存在判定/テクスチャ情報判定部人存在判定について記載されているだけである。しかし一般的には、移動領域や滞留領域が存在するとしても、単位面積あたり人数が少なければ混雑とはいえない。
そこで、本発明は、ユーザがエリアの混雑を適切に判定でき混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラムを提供することを課題とする。
前記した課題を解決するため、本発明の混雑状況可視化装置は、撮影画像から人物の移動方向を検出し、前記人物の移動方向に応じて、移動している方向を示す人型アイコンを生成し、背景画像へ前記人型アイコンを重畳した混雑画像を生成する処理部を有する
その他の手段については、発明を実施するための形態のなかで説明する。
本発明によれば、混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラムにおいて、ユーザがエリアの混雑を適切に判定することが可能となる。

Claims (13)

  1. 人物を撮影した動画から、人数と各前記人物の移動軌跡とを決定する軌跡決定部と、
    前記動画に撮影されている各前記人物の移動軌跡から当該人物の状態を決定し、前記人数と各前記人物の状態とに応じて混雑度を判定する混雑情報解析部と、
    を備えることを特徴とする混雑解析装置。
  2. 前記混雑情報解析部が判定した前記混雑度を表示装置に出力する出力部、
    を更に備えることを特徴とする請求項1に記載の混雑解析装置。
  3. 前記混雑情報解析部は、前記人物の状態として、当該人物が移動中と静止中のうちいずれかを決定する、
    ことを特徴とする請求項1に記載の混雑解析装置。
  4. 前記混雑情報解析部は、前記人数が多いほど混雑度が高いと判定し、かつ各前記人物の静止割合が多いほど混雑度が高いと判定する、
    ことを特徴とする請求項3に記載の混雑解析装置。
  5. 前記混雑情報解析部は、前記人物の状態として更に移動方向を決定する、
    ことを特徴とする請求項3に記載の混雑解析装置。
  6. 前記混雑情報解析部は、前記人物の状態として更に荷物の有無を決定する、
    ことを特徴とする請求項3に記載の混雑解析装置。
  7. 前記混雑情報解析部は、前記人物の状態として更に性別を決定する、
    ことを特徴とする請求項3に記載の混雑解析装置。
  8. 前記混雑情報解析部は、前記人物の状態として更に年齢を決定する、
    ことを特徴とする請求項3に記載の混雑解析装置。
  9. 前記混雑情報解析部は、予め用意した背景画像の上に、各前記人物の位置および当該人物の状態を示す図形を配置して、混雑状況を示す画像を生成する、
    ことを特徴とする請求項3ないし8のうちいずれか1項に記載の混雑解析装置。
  10. 混雑状況を示す前記画像を表示装置に出力する出力部、
    を更に備えることを特徴とする請求項9に記載の混雑解析装置。
  11. 前記混雑情報解析部は、混雑状況を示す前記画像を複数生成して混雑状況を示す動画を生成し、
    前記出力部は、混雑状況を示す前記動画を表示装置に出力する、
    ことを特徴とする請求項10に記載の混雑解析装置。
  12. 人物を撮影した動画から、人数と各前記人物の移動軌跡とを決定するステップ、
    前記動画に撮影されている各前記人物の移動軌跡から当該人物の状態を決定するステップ、
    前記人数と各前記人物の状態とに応じて混雑度を判定するステップ、
    判定した前記混雑度を表示装置に出力するステップ、
    を備えることを特徴とする混雑解析方法。
  13. コンピュータに、
    人物を撮影した動画から、人数と各前記人物の移動軌跡とを決定するステップ、
    前記動画に撮影されている各前記人物の移動軌跡から当該人物の状態を決定するステップ、
    前記人数と各前記人物の状態とに応じて混雑度を判定するステップ、
    判定した前記混雑度を表示装置に出力するステップ、
    を実行させるための混雑解析プログラム。
JP2017542207A 2016-05-13 2016-05-13 混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム Active JP6397581B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/064209 WO2017141454A1 (ja) 2016-05-13 2016-05-13 混雑解析装置、混雑解析方法および混雑解析プログラム

Publications (2)

Publication Number Publication Date
JPWO2017141454A1 true JPWO2017141454A1 (ja) 2018-02-22
JP6397581B2 JP6397581B2 (ja) 2018-09-26

Family

ID=59624920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017542207A Active JP6397581B2 (ja) 2016-05-13 2016-05-13 混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム

Country Status (6)

Country Link
US (1) US10607356B2 (ja)
EP (1) EP3457358A4 (ja)
JP (1) JP6397581B2 (ja)
CN (1) CN108027973A (ja)
SG (1) SG11201802242YA (ja)
WO (1) WO2017141454A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6583826B2 (ja) * 2016-09-06 2019-10-02 パナソニックIpマネジメント株式会社 混雑検知装置、混雑検知システムおよび混雑検知方法
JP6908617B2 (ja) * 2016-11-07 2021-07-28 株式会社日立国際電気 混雑状況分析システム
JP6469139B2 (ja) * 2017-01-17 2019-02-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6918523B2 (ja) * 2017-03-06 2021-08-11 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法ならびに情報処理方法をコンピュータに実行させるプログラム
JP7158828B2 (ja) * 2017-05-31 2022-10-24 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN110659549B (zh) * 2018-06-29 2023-01-13 华为技术有限公司 一种列车拥挤程度的通知方法及装置
JP2020201674A (ja) * 2019-06-07 2020-12-17 キヤノン株式会社 映像解析装置及びその制御方法及びプログラム
WO2021106696A1 (ja) * 2019-11-26 2021-06-03 富士フイルム株式会社 情報処理装置及び方法並びに誘導システム及び方法
US11595723B2 (en) 2020-08-20 2023-02-28 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on voice recognition
US11763591B2 (en) * 2020-08-20 2023-09-19 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on voice recognition, thermal imaging, and facial recognition
US11553247B2 (en) 2020-08-20 2023-01-10 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition
JP7284130B2 (ja) * 2020-08-28 2023-05-30 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7355769B2 (ja) * 2021-01-19 2023-10-03 トヨタ自動車株式会社 情報処理装置、情報処理方法、およびプログラム
WO2023181266A1 (ja) * 2022-03-24 2023-09-28 日本電気株式会社 人数推定システム、人数推定装置、人数推定方法、及び非一時的なコンピュータ可読媒体

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092657A (ja) * 2003-09-19 2005-04-07 Hitachi Ltd 画像表示装置および画像表示方法
JP2006331065A (ja) * 2005-05-26 2006-12-07 Matsushita Electric Ind Co Ltd 顔情報送信装置、顔情報送信方法及びそのプログラムを記録した記録媒体
JP2007317052A (ja) * 2006-05-29 2007-12-06 Japan Airlines International Co Ltd 行列の待ち時間の計測システム
JP2010169521A (ja) * 2009-01-22 2010-08-05 Nec Corp 位置検出装置、位置検出方法及びプログラム
JP2012022370A (ja) * 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc 監視システムおよび監視方法
WO2012161291A1 (ja) * 2011-05-20 2012-11-29 日本電気株式会社 部位分離位置抽出装置、プログラム、方法
JP2015069639A (ja) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
JP2015149557A (ja) * 2014-02-05 2015-08-20 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
WO2016002400A1 (ja) * 2014-06-30 2016-01-07 日本電気株式会社 誘導処理装置及び誘導方法
JP2016062414A (ja) * 2014-09-19 2016-04-25 クラリオン株式会社 車内監視装置及び車内監視システム
WO2017155126A1 (ja) * 2016-03-08 2017-09-14 一般社団法人 日本画像認識協会 情報伝送システム、情報送信装置、情報受信装置、およびコンピュータプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8564661B2 (en) * 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
JP4646933B2 (ja) 2007-03-01 2011-03-09 技研トラステム株式会社 混雑レベル判別システム
JP4966820B2 (ja) 2007-10-29 2012-07-04 パナソニック株式会社 混雑推定装置および方法
CN101681555B (zh) * 2007-10-26 2012-11-28 松下电器产业株式会社 状况判定装置、状况判定方法、异常判定装置、异常判定方法
JP2009181556A (ja) 2008-02-01 2009-08-13 Sony Corp 混雑判定装置、混雑判定方法
JP5070376B2 (ja) 2009-06-01 2012-11-14 中央電子株式会社 混雑状況検出装置、方法、およびプログラム
US20130101159A1 (en) * 2011-10-21 2013-04-25 Qualcomm Incorporated Image and video based pedestrian traffic estimation
US9693023B2 (en) 2014-02-05 2017-06-27 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
JP5597781B1 (ja) * 2014-03-26 2014-10-01 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
JP5707562B1 (ja) * 2014-05-23 2015-04-30 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
WO2016000240A1 (en) 2014-07-03 2016-01-07 Pioneer Overseas Corporation Plants having altered agronomic characteristics under abiotic conditions and related constructs and methods involving drought tolerance genes and cold tolerance genes
JP5866564B1 (ja) * 2014-08-27 2016-02-17 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092657A (ja) * 2003-09-19 2005-04-07 Hitachi Ltd 画像表示装置および画像表示方法
JP2006331065A (ja) * 2005-05-26 2006-12-07 Matsushita Electric Ind Co Ltd 顔情報送信装置、顔情報送信方法及びそのプログラムを記録した記録媒体
JP2007317052A (ja) * 2006-05-29 2007-12-06 Japan Airlines International Co Ltd 行列の待ち時間の計測システム
JP2010169521A (ja) * 2009-01-22 2010-08-05 Nec Corp 位置検出装置、位置検出方法及びプログラム
JP2012022370A (ja) * 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc 監視システムおよび監視方法
WO2012161291A1 (ja) * 2011-05-20 2012-11-29 日本電気株式会社 部位分離位置抽出装置、プログラム、方法
JP2015149557A (ja) * 2014-02-05 2015-08-20 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP2015069639A (ja) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
WO2016002400A1 (ja) * 2014-06-30 2016-01-07 日本電気株式会社 誘導処理装置及び誘導方法
JP2016062414A (ja) * 2014-09-19 2016-04-25 クラリオン株式会社 車内監視装置及び車内監視システム
WO2017155126A1 (ja) * 2016-03-08 2017-09-14 一般社団法人 日本画像認識協会 情報伝送システム、情報送信装置、情報受信装置、およびコンピュータプログラム

Also Published As

Publication number Publication date
JP6397581B2 (ja) 2018-09-26
US10607356B2 (en) 2020-03-31
SG11201802242YA (en) 2018-11-29
CN108027973A (zh) 2018-05-11
EP3457358A4 (en) 2019-11-20
US20180286068A1 (en) 2018-10-04
EP3457358A1 (en) 2019-03-20
WO2017141454A1 (ja) 2017-08-24

Similar Documents

Publication Publication Date Title
JP6397581B2 (ja) 混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム
Matern et al. Exploiting visual artifacts to expose deepfakes and face manipulations
US10909697B2 (en) Image processing apparatus, monitoring system, image processing method,and program
JP6474919B2 (ja) 混雑状況監視システム及び混雑状況監視方法
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US10529109B1 (en) Video stream customization using graphics
US8706663B2 (en) Detection of people in real world videos and images
Cho et al. Abnormal behavior detection using hybrid agents in crowded scenes
Gupta et al. CrowdVAS-Net: A deep-CNN based framework to detect abnormal crowd-motion behavior in videos for predicting crowd disaster
JP2013035690A (ja) エレベータかご内の表示装置およびエレベータかご内の表示方法
US20210134146A1 (en) Tracking and alerting traffic management system using iot for smart city
JP7359621B2 (ja) エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム
WO2023029574A1 (zh) 获取客流信息的方法、装置、计算机设备以及存储介质
CN108363953A (zh) 一种行人检测的方法及双目监控设备
JP2017090965A (ja) 群衆分類装置、その方法、及び、そのプログラム
CN112070052A (zh) 一种间距监测方法、装置、系统及存储介质
JP2007261722A (ja) エレベータかご内の表示装置およびエレベータかご内の表示方法
JP5088463B2 (ja) 監視システム
JP6909657B2 (ja) 映像認識システム
Smith et al. Tracking the multi person wandering visual focus of attention
GB2467643A (en) Improved detection of people in real world videos and images.
Yan et al. The detecting of abnormal crowd activities based on motion vector
KR101807201B1 (ko) 영상분석을 이용한 공감 감성 추론 방법 및 시스템
Bhardwaj et al. Age and Gender Detection With Real Time Database
Ali et al. Algorithm for Accurate People Counting in Conference Halls

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170810

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170810

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180831

R150 Certificate of patent or registration of utility model

Ref document number: 6397581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150