JP2019021019A - 人流分析方法、人流分析装置及び人流分析システム - Google Patents

人流分析方法、人流分析装置及び人流分析システム Download PDF

Info

Publication number
JP2019021019A
JP2019021019A JP2017138854A JP2017138854A JP2019021019A JP 2019021019 A JP2019021019 A JP 2019021019A JP 2017138854 A JP2017138854 A JP 2017138854A JP 2017138854 A JP2017138854 A JP 2017138854A JP 2019021019 A JP2019021019 A JP 2019021019A
Authority
JP
Japan
Prior art keywords
persons
information
human flow
unit
flow analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017138854A
Other languages
English (en)
Other versions
JP6898165B2 (ja
Inventor
由理 西川
Yuri Nishikawa
由理 西川
小澤 順
Jun Ozawa
順 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2017138854A priority Critical patent/JP6898165B2/ja
Priority to US16/026,113 priority patent/US10776627B2/en
Priority to CN201810750697.2A priority patent/CN109271832B/zh
Publication of JP2019021019A publication Critical patent/JP2019021019A/ja
Application granted granted Critical
Publication of JP6898165B2 publication Critical patent/JP6898165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人物の移動する動線を高い精度で予測することができる人流分析方法、人流分析装置及び人流分析システムを提供する。
【解決手段】人流分析装置1は、所定の空間内を移動する複数の人物の所定の空間内における移動履歴を示す移動情報を取得する移動情報取得部111と、移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物を抽出する関連ノード抽出部131と、抽出された少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報を特定する関連性情報特定部132と、特定された関連性情報に基づいて、少なくとも2人の人物をグループ化するか否かを判断するノード融合判断部133と、グループ化すると判断された少なくとも2人の人物の行動を予測する行動予測部134とを備える。
【選択図】図1

Description

本開示は、所定の空間内を移動する複数の人物の流れを分析する人流分析方法、人流分析装置及び人流分析システムに関するものである。
従来、複数の人物がいる場所において、複数の人物のそれぞれの移動方向から、複数の人物のそれぞれの次の移動先を予測する人流予測が行われている。
例えば、特許文献1では、複数の入出場ゲートの周辺に設置された複数のセンサから人の流動状況を取得し、流動状況に基づき、入出場ゲートの各方向の将来の流動需要を予測し、流動需要に基づき、各入出場ゲートの通行方向を決定し、複数の入出場ゲートに通行方向を設定する入出場ゲート制御システムが開示されている。
特開2016−35665号公報
特許文献1では、例えば、カメラより収集したデータを活用して、現在の人の流動状況、もしくは流動状況の予測値を算出している。そして、流動状況としては、例えば特定の場所にいる人の人数、それらの人の位置、移動方向、速さなどが含まれる。
しかしながら、上記従来の技術では、人物の移動する動線を高い精度で予測することができず、更なる改善が必要とされていた。
本開示は、上記の問題を解決するためになされたもので、人物の移動する動線を高い精度で予測することができる人流分析方法、人流分析装置及び人流分析システムを提供することを目的とするものである。
本開示の一態様に係る人流分析方法は、所定の空間内を移動する複数の人物の流れを分析する人流分析装置における人流分析方法であって、前記複数の人物の前記所定の空間内における移動履歴を示す移動情報を取得し、取得した前記移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物を抽出し、抽出した前記少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報を特定し、特定した前記関連性情報に基づいて、前記少なくとも2人の人物をグループ化するか否かを判断し、グループ化すると判断した前記少なくとも2人の人物の行動を予測する。
本開示によれば、互いに関連して移動していると推定される少なくとも2人の人物をグループ化するか否かが判断され、グループ化すると判断された少なくとも2人の人物の行動が予測されるので、人物の移動する動線を高い精度で予測することができる。
本開示の実施の形態1における人流分析システムの構成を示す図である。 本実施の形態1における移動情報の一例を示す図である。 グラフ最適化処理を用いた人物追跡について説明するための模式図である。 本実施の形態1において、融合ノードに付与されるラベルの一例を示す図である。 本実施の形態1における融合ノード情報の一例を示す図である。 本実施の形態1において、融合ノードの移動方向を予測する処理について説明するための模式図である。 本実施の形態1における人流分析装置の処理について説明するためのフローチャートである。 本実施の形態1における人流分析装置の動作について説明するための模式図である。 人口密度が低い領域における人物ノードの配置の一例を示す図である。 人口密度が高い領域における人物ノードの配置の一例を示す図である。 各人物ノード間の距離を示す図である。 2人の人物ノードを結ぶ直線と、2人の人物ノードの進行方向との角度φ(φ<90度)に基づいて2人の人物ノードを抽出する第1の処理について説明するための模式図である。 2人の人物ノードを結ぶ直線と、2人の人物ノードの進行方向との角度φ(φ>90度)に基づいて2人の人物ノードを抽出する第1の処理について説明するための模式図である。 2人の人物ノードを結ぶ直線と、2人の人物ノードの進行方向との角度に基づいて2人の人物ノードを抽出する第2の処理について説明するための模式図である。 2人の人物がゲートを通過する際の位置関係に応じて関連性情報を特定する処理について説明するための模式図である。 展示物に対する視線情報に基づいて、停止している2人の人物ノードの関連性情報を特定する処理について説明するための模式図である。 展示物に対する視線情報に基づいて、移動している2人の人物ノードの関連性情報を特定する処理について説明するための模式図である。 人物を案内するための案内情報に対する視線情報に基づいて、2人の人物ノードの関連性情報を特定する処理について説明するための模式図である。 2人の人物のうちの一方の所有物に対する視線情報に基づいて、2人の人物ノードの関連性情報を特定する処理について説明するための模式図である。 人物の顔の向きにより人物の視線の方向を推定する処理について説明するための図である。 本開示の実施の形態2における人流分析システムの構成を示す図である。 本実施の形態2における人流分析装置及び端末装置の処理について説明するためのフローチャートである。 本実施の形態2における人流分析装置の予測結果について説明するための模式図である。 本実施の形態2における人流分析装置によって生成される移動軌跡画像の一例を示す図である。
(本開示の基礎となった知見)
上記のように、特許文献1では、例えば、カメラより収集したデータを活用して、現在の人の流動状況、もしくは流動状況の予測値を算出している。そして、流動状況としては、例えば特定の場所にいる人の人数、それらの人の位置、移動方向、速さなどが含まれる。
しかしながら、上記従来の技術では、複数の人の移動方向をそれぞれ個別に予測しているので、例えば、カメラのオクルージョンなどにより、画像中から人が一時的に消失した場合に、当該消失した人の移動方向を算出することができず、人の移動する動線を高い精度で予測することができなかった。
以上の課題を解決するために、本開示の一態様に係る人流分析方法は、所定の空間内を移動する複数の人物の流れを分析する人流分析装置における人流分析方法であって、前記複数の人物の前記所定の空間内における移動履歴を示す移動情報を取得し、取得した前記移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物を抽出し、抽出した前記少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報を特定し、特定した前記関連性情報に基づいて、前記少なくとも2人の人物をグループ化するか否かを判断し、グループ化すると判断した前記少なくとも2人の人物の行動を予測する。
この構成によれば、複数の人物の所定の空間内における移動履歴を示す移動情報が取得される。取得された移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物が抽出される。抽出された少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報が特定される。特定された関連性情報に基づいて、少なくとも2人の人物をグループ化するか否かが判断される。グループ化すると判断された少なくとも2人の人物の行動が予測される。
したがって、互いに関連して移動していると推定される少なくとも2人の人物をグループ化するか否かが判断され、グループ化すると判断された少なくとも2人の人物の行動が予測されるので、人物の移動する動線を高い精度で予測することができる。
また、上記の人流分析方法において、前記抽出は、所定の期間、互いの間の距離が所定の距離以下である前記少なくとも2人の人物を抽出してもよい。
この構成によれば、所定の期間、互いの間の距離が所定の距離以下である少なくとも2人の人物は、互いに関連して移動していると推定することができるので、互いに関連して移動している少なくとも2人の人物を確実に抽出することができる。
また、上記の人流分析方法において、前記抽出は、所定の範囲において前記複数の人物間の距離を計算し、計算した全ての距離の中から所定の閾値より短い距離に対応する2人の人物を抽出してもよい。
この構成によれば、所定の範囲において複数の人物間の距離が計算され、計算された全ての距離の中から所定の閾値より短い距離に対応する2人の人物が抽出されるので、互いに関連して移動している2人の人物を高い精度で抽出することができる。
また、上記の人流分析方法において、前記抽出は、さらに、前記複数の人物のうちの2人の人物の進行方向に対する位置関係を利用して、互いに関連して移動していると推定される前記2人の人物を抽出してもよい。
この構成によれば、複数の人物のうちの2人の人物の進行方向に対する位置関係を利用して、互いに関連して移動していると推定される2人の人物が抽出されるので、互いに関連して移動している少なくとも2人の人物を確実に抽出することができる。
また、上記の人流分析方法において、前記関連情報の特定は、さらに、前記2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、90度を中心とする所定の範囲内であるときに、前記2人の人物が、友人、カップル又は家族の関連性を有していると特定してもよい。
この構成によれば、2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、90度を中心とする所定の範囲内であるときに、2人の人物が、友人、カップル又は家族の関連性を有していると特定される。
したがって、関連性を有している2人の人物が会話しながら移動している場合、2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、90度を中心とする所定の範囲内になる。そのため、2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、90度を中心とする所定の範囲内であると判断された場合に、容易に関連性情報を特定することができる。
また、上記の人流分析方法において、前記関連情報の特定は、さらに、前記2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、所定の角度以下であるときに、前記2人の人物が、車いすに乗る人物と介護者との関連性を有していると特定してもよい。
この構成によれば、2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、所定の角度以下であるときに、2人の人物が、車いすに乗る人物と介護者との関連性を有していると特定される。
したがって、2人の人物が、車いすに乗る人物と介護者とである場合、2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、略0度になる。そのため、2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、所定の角度以下であると判断された場合に、容易に関連性情報を特定することができる。
また、上記の人流分析方法において、前記抽出は、さらに、所定の人数だけが一度に通過可能なゲートに対して、前記複数の人物のうちの2人の人物が連続して通過したことを示す情報を利用して前記2人の人物を抽出してもよい。
この構成によれば、所定の人数だけが一度に通過可能なゲートに対して、複数の人物のうちの2人の人物が連続して通過したことを示す情報を利用して2人の人物が抽出される。
したがって、所定の人数だけが一度に通過可能なゲートを、複数の人物のうちの2人の人物が連続して通過した場合、この2人の人物は互いに関連して移動していると判断することができる。
また、上記の人流分析方法において、さらに、前記複数の人物の外観画像を取得し、前記特定は、取得した前記外観画像に含まれる前記少なくとも2人の人物のそれぞれの顔画像から、前記少なくとも2人の人物のそれぞれの年齢及び性別を識別し、識別した前記少なくとも2人の人物のそれぞれの前記年齢及び前記性別を用いて、前記関連性情報を特定してもよい。
この構成によれば、複数の人物の外観画像が取得される。取得された外観画像に含まれる少なくとも2人の人物のそれぞれの顔画像から、少なくとも2人の人物のそれぞれの年齢及び性別が識別され、識別された少なくとも2人の人物のそれぞれの年齢及び性別を用いて、関連性情報が特定される。
したがって、識別された少なくとも2人の人物のそれぞれの年齢及び性別の組み合せから、少なくとも2人の人物がどのような関連性を有しているかを特定することができる。
また、上記の人流分析方法において、さらに、前記複数の人物の視線の方向を示す視線情報を取得し、前記特定は、取得した前記視線情報のうち、前記少なくとも2人の人物の前記視線の方向を用いて、前記関連性情報を特定してもよい。
この構成によれば、複数の人物の視線の方向を示す視線情報が取得される。取得された視線情報のうち、少なくとも2人の人物の視線の方向を用いて、関連性情報が特定される。
したがって、少なくとも2人の人物の視線の方向が交わる、又は2人の人物の視線の方向が同じである場合に、当該2人の人物が何らかの関連性を有していると判断することができる。
また、上記の人流分析方法において、前記特定は、前記少なくとも2人の人物の前記視線の方向が共通の対象物へ向いている場合、前記関連性情報を特定してもよい。
この構成によれば、少なくとも2人の人物の視線の方向が共通の対象物へ向いている場合、関連性情報が特定されるので、共通の対象物を見ている少なくとも2人の人物は、何らかの関連性を有していると判断することができる。
また、上記の人流分析方法において、前記共通の対象物は、前記少なくとも2人の人物のうちの1人の人物の所有物であってもよい。
この構成によれば、少なくとも2人の人物のうちの1人の人物の所有物を見ている少なくとも2人の人物は、何らかの関連性を有していると判断することができる。
また、上記の人流分析方法において、前記共通の対象物は、公共の案内情報を提示する物体であってもよい。
この構成によれば、公共の案内情報を提示する物体を見ている少なくとも2人の人物は、何らかの関連性を有していると判断することができる。
また、上記の人流分析方法において、前記視線情報の取得は、前記複数の人物の外観画像から検出された前記複数の人物の顔の向きを、前記複数の人物の前記視線の方向とした前記視線情報を取得してもよい。
この構成によれば、複数の人物の外観画像から検出された複数の人物の顔の向きを、複数の人物の視線の方向とした視線情報が取得される。
したがって、人物の視線の方向を検出することができない場合であっても、人物の顔の向きから視線の方向を推定することができる。
また、上記の人流分析方法において、さらに、前記複数の人物のそれぞれが発話した音声情報を取得し、前記特定は、取得した前記音声情報のうち、前記少なくとも2人の人物が会話している前記音声情報を用いて、前記関連性情報を特定してもよい。
この構成によれば、複数の人物のそれぞれが発話した音声情報が取得される。取得された音声情報のうち、少なくとも2人の人物が会話している音声情報を用いて、関連性情報が特定される。
したがって、少なくとも2人の人物が会話している音声情報に、関連性を特定することが可能な文言が含まれている場合に、少なくとも2人の人物がどのような関連性を有しているかを特定することができる。
また、上記の人流分析方法において、前記特定は、前記少なくとも2人の人物が会話している前記音声情報の中から、固有名詞、又は親族関係を特定するキーワードを抽出することで、前記関連性情報を特定してもよい。
この構成によれば、少なくとも2人の人物が会話している音声情報の中から、固有名詞、又は親族関係を特定するキーワードを抽出することで、関連性情報が特定される。
したがって、少なくとも2人の人物の会話の中に、固有名詞、又は親族関係を特定するキーワードが含まれている場合に、少なくとも2人の人物がどのような関連性を有しているかを特定することができる。
また、上記の人流分析方法において、前記予測は、前記少なくとも2人の人物の前記関連性情報と、前記少なくとも2人の人物の前記移動情報とを用いて、前記少なくとも2人の人物をグループ化したグループ単位の移動方向を予測してもよい。
この構成によれば、少なくとも2人の人物の関連性情報と、少なくとも2人の人物の移動情報とを用いて、少なくとも2人の人物をグループ化したグループ単位の移動方向を予測することができる。
また、上記の人流分析方法において、前記予測は、前記少なくとも2人の人物の前記関連性情報と、前記所定の空間内に存在する領域に対応付けられた前記関連性情報の種別を示す領域種別情報とを用いて、前記少なくとも2人の人物をグループ化したグループ単位の移動方向を予測してもよい。
この構成によれば、少なくとも2人の人物の関連性情報と、所定の空間内に存在する領域に対応付けられた関連性情報の種別を示す領域種別情報とを用いて、少なくとも2人の人物をグループ化したグループ単位の移動方向が予測される。
したがって、少なくとも2人の人物の関連性情報の種別が、所定の空間内に存在する領域に対応付けられた関連性情報の種別と一致する場合に、少なくとも2人の人物をグループ化したグループが当該領域に向かって移動していると予測することができる。
また、上記の人流分析方法において、さらに、グループ化すると判断された前記少なくとも2人の人物間の距離をグループ化後に計算し、計算した前記距離が所定の距離を超えた場合、前記少なくとも2人の人物のグループ化を解消してもよい。
この構成によれば、グループ化すると判断された少なくとも2人の人物間の距離がグループ化後に再度計算され、再度計算された距離が所定の距離を超えた場合、少なくとも2人の人物のグループ化が解消される。
したがって、共に移動していた少なくとも2人の人物が、別々に移動し始めた場合、少なくとも2人の人物のグループ化を解消することができ、グループ単位の移動方向を正確に予測することができる。
本開示の他の態様に係る人流分析装置は、所定の空間内を移動する複数の人物の前記所定の空間内における移動履歴を示す移動情報を取得する移動情報取得部と、前記移動情報取得部によって取得された前記移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物を抽出する関連人物抽出部と、前記関連人物抽出部によって抽出された前記少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報を特定する関連性情報特定部と、前記関連性情報特定部によって特定された前記関連性情報に基づいて、前記少なくとも2人の人物をグループ化するか否かを判断するグループ化判断部と、前記グループ化判断部によってグループ化すると判断された前記少なくとも2人の人物の行動を予測する行動予測部と、を備える。
この構成によれば、所定の空間内を移動する複数の人物の所定の空間内における移動履歴を示す移動情報が取得される。取得された移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物が抽出される。抽出された少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報が特定される。特定された関連性情報に基づいて、少なくとも2人の人物をグループ化するか否かが判断される。グループ化すると判断された少なくとも2人の人物の行動が予測される。
したがって、互いに関連して移動していると推定される少なくとも2人の人物をグループ化するか否かが判断され、グループ化すると判断された少なくとも2人の人物の行動が予測されるので、人物の移動する動線を高い精度で予測することができる。
本開示の他の態様に係る人流分析システムは、所定の空間内を移動する複数の人物の流れを分析する人流分析装置と、前記人流分析装置とネットワークを介して通信可能に接続された端末装置と、を備え、前記人流分析装置は、前記複数の人物の前記所定の空間内における移動履歴を示す移動情報を取得する移動情報取得部と、前記移動情報取得部によって取得された前記移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物を抽出する関連人物抽出部と、前記関連人物抽出部によって抽出された前記少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報を特定する関連性情報特定部と、前記関連性情報特定部によって特定された前記関連性情報に基づいて、前記少なくとも2人の人物をグループ化するか否かを判断するグループ化判断部と、前記グループ化判断部によってグループ化すると判断された前記少なくとも2人の人物の行動を予測する行動予測部と、前記行動予測部による前記少なくとも2人の人物の行動予測結果を前記端末装置へ送信する送信部と、を備え、前記端末装置は、前記人流分析装置によって送信された前記行動予測結果を受信する受信部と、前記受信部によって受信された前記行動予測結果を表示する表示部と、を備える。
この構成によれば、人流分析装置は、所定の空間内を移動する複数の人物の流れを分析する。端末装置は、人流分析装置とネットワークを介して通信可能に接続されている。人流分析装置において、複数の人物の所定の空間内における移動履歴を示す移動情報が取得される。取得された移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物が抽出される。抽出された少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報が特定される。特定された関連性情報に基づいて、少なくとも2人の人物をグループ化するか否かが判断される。グループ化すると判断された少なくとも2人の人物の行動が予測される。少なくとも2人の人物の行動予測結果が端末装置へ送信される。端末装置において、人流分析装置によって送信された行動予測結果が受信される。受信された行動予測結果が表示される。
したがって、互いに関連して移動していると推定される少なくとも2人の人物をグループ化するか否かが判断され、グループ化すると判断された少なくとも2人の人物の行動が予測されるので、人物の移動する動線を高い精度で予測することができる。
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
(実施の形態1)
図1は、本開示の実施の形態1における人流分析システムの構成を示す図である。
図1に示す人流分析システムは、人流分析装置1、第1のカメラ2、第2のカメラ3及びマイク4を備える。
第1のカメラ2は、所定の空間内を俯瞰する位置に配置され、所定の空間内を俯瞰した画像を取得する。例えば、所定の空間が店舗であれば、第1のカメラ2は、店舗内の天井に配置される。第1のカメラ2は、撮影した画像から、人物ノードの頭部を認識し、認識した頭部を識別するためのノードIDを付与し、撮影した時刻と、ノードIDと、座標位置とを対応付けた移動情報を生成する。人物ノードは、人物を示す。座標位置は、所定の空間を2次元座標系で表した際の座標値で表される。また、第1のカメラ2は、所定時間(例えば、2分)毎に撮影し、移動情報を生成する。なお、第1のカメラ2は、常時撮影し、所定時間(例えば、2分)毎に移動情報を生成してもよい。第1のカメラ2は、生成した移動情報を人流分析装置1へ送信する。
なお、本実施の形態1における人流分析システムは、1つの第1のカメラ2を備えているが、本開示は特にこれに限定されず、複数の第1のカメラ2を備えてもよい。複数の第1のカメラ2は、複数の領域に分割された所定の空間の各領域をそれぞれ撮影し、複数の撮影画像を合成してもよい。
第2のカメラ3は、所定の空間内に配置され、所定の空間内の複数の人物ノードの外観画像を撮影した画像を取得する。特に、第2のカメラ3は、複数の人物の顔を含む外観画像を取得する。第2のカメラ3は、撮影した外観画像を示す画像情報を人流分析装置1へ送信する。また、第2のカメラ3は、第1のカメラ2と同じタイミングで撮影することが望ましい。
なお、本実施の形態1における人流分析システムは、1つの第2のカメラ3を備えているが、本開示は特にこれに限定されず、複数の第2のカメラ3を備えてもよい。複数の第2のカメラ3は、複数の領域に分割された所定の空間の各領域をそれぞれ撮影してもよい。例えば、所定の空間の2次元平面上を10×10の領域に分割し、各領域に第2のカメラ3を配置してもよい。各第2のカメラ3は、各領域内を撮影し、撮影した位置を特定する2次元座標位置とともに画像情報を人流分析装置1へ送信してもよい。これにより、所定の空間内のどの位置で画像が取得されたかを特定することができる。
マイク4は、所定の空間内の複数の人物のそれぞれが発話した音声を収集し、収集した音声情報を人流分析装置1へ送信する。例えば、人流分析システムは、複数のマイク4を備えてもよい。複数のマイク4は、複数の領域に分割された所定の空間の各領域の音声を収集し、収集した領域の2次元座標位置とともに音声情報を人流分析装置1へ送信する。例えば、所定の空間の2次元平面上を10×10の領域に分割し、各領域にマイク4を配置してもよい。各マイク4は、各領域で発話された音声を収集し、収集した位置を特定する2次元座標位置とともに音声情報を人流分析装置1へ送信してもよい。これにより、所定の空間内のどの位置で音声が収集されたかを特定することができる。
人流分析装置1は、第1のカメラ2、第2のカメラ3及びマイク4とネットワーク5を介して互いに通信可能に接続される。なお、ネットワーク5は、例えばインターネットである。人流分析装置1は、例えばサーバであり、通信部11、記憶部12及び制御部13を備える。
通信部11は、ネットワーク5を介して第1のカメラ2、第2のカメラ3及びマイク4から情報を受信する。通信部11は、移動情報取得部111、画像情報取得部112及び音声情報取得部113を備える。
移動情報取得部111は、複数の人物ノードの所定の空間内における移動履歴を示す移動情報を取得する。移動情報取得部111は、第1のカメラ2によって送信された移動情報を受信する。
図2は、本実施の形態1における移動情報の一例を示す図である。図2に示す移動情報は、カメラ2で撮影した時刻と、人物ノードを識別するためのノードIDと、所定の空間における人物ノードの位置を示す座標位置とを含む。なお、座標位置において、x座標の値及びy座標の値は、所定の空間の2次元平面上の位置を示し、z座標の値は、建物の階数を示す。例えば、図2では、ノードIDが「ABX123」である人物ノードは、15時5分に、建物の3階の座標(215,341)で示される2次元座標系の位置に存在している。なお、2次元座標系の原点は、例えば、所定の空間の複数の角のうちの1の角に設定する。
移動情報取得部111は、受信した移動情報を関連ノード抽出部131へ出力する。また、移動情報取得部111は、受信した移動情報を記憶部12に記憶してもよい。
また、移動情報取得部111は、各時刻に、カメラ2に映った複数の人物が、それぞれ、どのノードIDであるかを特定する多人数追跡を行うために、例えば、グラフ最適化処理を用いることも可能である。グラフ最適化処理を用いた多人数追跡では、移動情報取得部111は、カメラ2が撮影した、各時刻の画像中の、人物の検出結果を用いてグラフを作成する。そして、グラフ最適化処理を用いた多人数追跡では、移動情報取得部111は、グラフの始点から終点までのすべてのパスの中から最適なパスを求めることで、複数の人物の移動軌跡を求めることができる。
図3は、グラフ最適化処理を用いた人物追跡について説明するための模式図である。
移動情報取得部111は、具体的なグラフ最適化処理として、K−Shortest Pathsアルゴリズムを用いてもよい。K−Shortest Pathsアルゴリズムを用いる場合、グラフの各人物ノードは、具体的には、図3に示すように、各時刻フレームにおける、空間領域の座標位置を表してもよい。そして、人物ノードと人物ノードとの間を結ぶエッジは、人間の存在確率から求められる重みの値に設定してもよい。そして、移動情報取得部111は、K−Shortest Pathsアルゴリズムを用いて求められたK個の最短経路を、K人の人物の移動軌跡と見なしてよい。
なお、上記のグラフ最適化処理は、空間領域が広い、追跡する時間長が長い、又は人物が多数検出される場合には、計算量が多くなる。そこで、空間領域、又は追跡する時間領域を、複数に分割し、分割した領域に各々計算資源を割り当てた並列計算を行うことで、高速な演算が可能になる。さらに、クラウド上の大型計算機を利用することで、より効率的な計算が可能になる。
画像情報取得部112は、複数の人物ノードの外観画像を示す画像情報を取得する。画像情報取得部112は、第2のカメラ3によって送信された画像情報を受信する。画像情報取得部112は、受信した画像情報を関連性情報特定部132へ出力する。
音声情報取得部113は、複数の人物ノードのそれぞれが発話した音声情報を取得する。音声情報取得部113は、マイク4によって送信された音声情報を受信する。音声情報取得部113は、受信した音声情報を関連性情報特定部132へ出力する。
記憶部12は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)又はハードディスクドライブで構成される。記憶部12は、通信部11によって受信された移動情報、画像情報及び音声情報を記憶してもよい。
制御部13は、例えば、CPU(中央演算処理装置)で構成される。制御部13は、関連ノード抽出部131、関連性情報特定部132、ノード融合判断部133及び行動予測部134を備える。
関連ノード抽出部131は、移動情報取得部111によって取得された移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物ノードを抽出する。関連ノード抽出部131は、所定の期間、互いの間の距離が所定の距離以下である少なくとも2人の人物ノードを抽出する。例えば、2人の人物が、互いの間の距離が所定の距離以下を維持しながら移動している場合、この2人の人物は、互いに関連して移動していると推定することができる。
関連性情報特定部132は、関連ノード抽出部131によって抽出された少なくとも2人の人物ノードがどのような関連性を有しているかを示す関連性情報を特定する。具体的には、関連性情報特定部132は、画像情報取得部112によって取得された外観画像に含まれる少なくとも2人の人物ノードのそれぞれの顔画像から、少なくとも2人の人物ノードのそれぞれの年齢及び性別を識別し、識別した少なくとも2人の人物ノードのそれぞれの年齢及び性別を用いて、関連性情報を特定する。
例えば、抽出された3人の人物ノードのうち、第1の人物ノードが40歳の男性であり、第2の人物ノードが40歳の女性であり、第3の人物ノードが乳児であると識別された場合、この3人の人物ノードの関連性は親子であると判断することができる。例えば、特開2011−123657には、人物の年齢及び性別から家庭内の家族構成を判定する技術が開示されている。また、同姓の年齢の近い2人の人物ノードの関連性は、友人であると判断することができ、異性の年齢の近い2人の人物ノードの関連性は、カップルであると判断することができる。
また、関連性情報特定部132は、音声情報取得部113によって取得された音声情報のうち、少なくとも2人の人物ノードが会話している音声情報を用いて、関連性情報を特定してもよい。関連性情報特定部132は、少なくとも2人の人物が会話している音声情報の中から、固有名詞、又は親族関係を特定するキーワードを抽出することで、関連性情報を特定してもよい。例えば、抽出された2人の人物ノードの会話の中に、「お父さん」などの親子関係を推定することが可能なキーワードが含まれている場合、この2人の人物ノードの関連性は親子であると判断することができる。
ノード融合判断部133は、関連性情報特定部132によって特定された関連性情報に基づいて、少なくとも2人の人物ノードをグループ化するか否かを判断する。すなわち、ノード融合判断部133は、関連性情報特定部132によって関連性情報が特定された場合、少なくとも2人の人物ノードをグループ化すると判断する。
ノード融合判断部133は、少なくとも2人の人物ノードをグループ化した融合ノードに対して、関連性情報を示すラベルを付与する。
図4は、本実施の形態1において、融合ノードに付与されるラベルの一例を示す図である。図4に示すように、関連性情報を示すラベルには、大カテゴリと、大カテゴリをさらに細分化した小カテゴリとがある。大カテゴリとしては、例えば、家族、友人及びカップルがある。家族の小カテゴリとしては、例えば、父母−乳児グループ、父母−幼児グループ及び母−小学生グループなどがあり、友人の小カテゴリとしては、例えば、10代女性友人グループ及び20代男性友人グループなどがあり、カップルの小カテゴリとしては、例えば、10代男女ペア及び20代男女ペアなどがある。
関連性情報特定部132は、抽出された少なくとも2人の人物ノードが、少なくとも、家族、友人及びカップルなどの大カテゴリのうちのいずれの関連性情報であるかを特定する。また、関連性情報特定部132は、抽出された少なくとも2人の人物ノードが、さらに、父母−乳児グループ、10代女性友人グループ及び10代男女ペアなどの小カテゴリのうちのいずれの関連性情報であるかを特定してもよい。
ノード融合判断部133は、少なくとも2人の人物ノードをグループ化すると判断すると、少なくとも2人の人物ノードをグループ化した融合ノードに関する融合ノード情報を生成し、記憶部12に記憶する。
図5は、本実施の形態1における融合ノード情報の一例を示す図である。図5に示す融合ノード情報は、融合ノードを識別するための融合ノードIDと、少なくとも2人の人物ノードを識別するためのノードIDと、大カテゴリのラベルと、小カテゴリのラベルとを含む。ノード融合判断部133は、少なくとも2人の人物ノードをグループ化すると判断すると、融合ノードIDを付与する。例えば、図5において、融合ノードIDが「XYZ111」である融合ノード情報には、グループ化された「ABX123」及び「ABX125」のノードIDが含まれ、大カテゴリが「家族」であり、小カテゴリが「母−幼児グループ」であるラベルが付与されている。
行動予測部134は、ノード融合判断部133によってグループ化すると判断された少なくとも2人の人物ノードの行動を予測する。行動予測部134は、少なくとも2人の人物ノードの関連性情報と、グループ化すると判断された少なくとも2人の人物ノードの移動情報とを用いて、少なくとも2人の人物ノードをグループ化した融合ノード(グループノード)の移動方向を予測する。
図6は、本実施の形態1において、融合ノードの移動方向を予測する処理について説明するための模式図である。
図6に示す第1の人物ノード101は母親を示し、第2の人物ノード102は幼児を示し、第1の人物ノード101と第2の人物ノード102とをグループ化した融合ノード103は、「母−幼児グループ」の関連性情報が対応付けられている。
第1の人物ノード101及び第2の人物ノード102の移動方向は、ベクトルの向きで表され、第1の人物ノード101及び第2の人物ノード102の移動速度は、ベクトルの大きさで表される。融合ノード103の移動方向は、第1の人物ノード101の重み付きベクトルwと、第2の人物ノード102の重み付きベクトルwとの和(w+w)によって算出される。
これにより、例えば、カメラのオクルージョンなどにより、2つの人物ノードのうちの1つの人物ノードが消失した場合であっても、融合ノードの他の人物ノードの移動情報を用いることによって、消失した人物ノードの移動方向を推定することができる。
また、幼児を示す第2の人物ノード102は、母親を示す第1の人物ノード101に依存して移動することになる。そのため、第1の人物ノード101の重みwは、第2の人物ノード102の重みwより大きい(w>w)ことが好ましい。特に、第2の人物ノード102の重みwを0とし、融合ノードの移動方向を、第1の人物ノード101の移動方向のみとしてもよい。
これにより、融合ノードの移動方向を推定するための演算リソースを節約することができる。特に、K−Shortest Pathsをはじめとする、グラフ最適化処理を用いて、人物を追跡するときは、人物ノードを融合することで、グラフのノード数を削減でき、計算量が大幅に削減できる。このため、グラフ最適化処理を用いて人流を推定するときは、本開示の効果が、特に大きい。
なお、本実施の形態1では、人流分析装置は、画像情報及び音声情報を取得しているが、本開示は特にこれに限定されず、画像情報及び音声情報のいずれか一方のみを取得してもよい。画像情報のみを取得する場合は、音声情報取得部113及びマイク4は不要となり、音声情報のみを取得する場合は、画像情報取得部112及び第2のカメラ3は不要となる。
また、本実施の形態1において、人流分析装置1が人流分析装置の一例に相当し、移動情報取得部111が移動情報取得部の一例に相当し、関連ノード抽出部131が関連人物抽出部の一例に相当し、関連性情報特定部132が関連性情報特定部の一例に相当し、ノード融合判断部133がグループ化判断部の一例に相当し、行動予測部134が行動予測部の一例に相当する。
続いて、本実施の形態1における人流分析装置の処理について説明する。
図7は、本実施の形態1における人流分析装置の処理について説明するためのフローチャートである。なお、図7に示すフローチャートでは、音声情報を取得せずに、画像情報のみを取得する処理について説明する。
まず、ステップS1において、移動情報取得部111は、複数の人物ノードの所定の空間内における移動履歴を示す移動情報を取得する。このとき、移動情報取得部111は、第1のカメラ2から移動情報を受信する。
なお、本実施の形態1では、移動情報取得部111は、第1のカメラ2から移動情報を受信しているが、本開示は特にこれに限定されず、移動情報取得部111は、所定の空間を俯瞰する位置から撮影された画像を第1のカメラ2から受信し、受信した画像から移動情報を生成してもよい。
次に、ステップS2において、関連ノード抽出部131は、移動情報取得部111によって取得された移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物ノードを抽出する。このとき、関連ノード抽出部131は、所定の期間、互いの間の距離が所定の距離以下である少なくとも2人の人物ノードを抽出する。
次に、ステップS3において、画像情報取得部112は、複数の人物ノードの外観画像を示す画像情報を取得する。このとき、画像情報取得部112は、第2のカメラ3から画像情報を受信する。
次に、ステップS4において、関連性情報特定部132は、関連ノード抽出部131によって抽出された少なくとも2人の人物ノードがどのような関連性を有しているかを示す関連性情報を特定する。このとき、関連性情報特定部132は、画像情報取得部112によって取得された外観画像に含まれる少なくとも2人の人物ノードのそれぞれの顔画像から、少なくとも2人の人物ノードのそれぞれの年齢及び性別を識別し、識別した少なくとも2人の人物ノードのそれぞれの年齢及び性別の組み合わせを用いて、関連性情報を特定する。
次に、ステップS5において、ノード融合判断部133は、関連性情報特定部132によって特定された関連性情報に基づいて、少なくとも2人の人物ノードをグループ化するか否かを判断する。このとき、ノード融合判断部133は、関連性情報特定部132によって関連性情報が特定された場合、少なくとも2人の人物ノードをグループ化すると判断し、関連性情報が特定されなかった場合、少なくとも2人の人物ノードをグループ化しないと判断する。ここで、少なくとも2人の人物ノードをグループ化しないと判断された場合(ステップS5でNO)、ステップS1の処理に戻る。
一方、少なくとも2人の人物ノードをグループ化すると判断された場合(ステップS5でYES)、ステップS6において、行動予測部134は、ノード融合判断部133によってグループ化すると判断された少なくとも2人の人物ノードを1つの融合ノードとして決定し、融合ノードの行動を予測する。例えば、行動予測部134は、少なくとも2人の人物ノードのそれぞれの移動ベクトルを合成することにより、融合ノードの移動ベクトルを算出し、算出した移動ベクトルから融合ノードの移動方向を予測する。
次に、ステップS7において、行動予測部134は、予測結果を記憶部12に記憶する。
なお、本実施の形態1では、行動予測部134は、予測結果を記憶部12に記憶しているが、本開示は特にこれに限定されず、通信部11は、行動予測部134による予測結果を、人流分析装置と通信可能に接続された端末装置へ送信してもよく、端末装置は、受信した予測結果を表示してもよい。
図8は、本実施の形態1における人流分析装置の動作について説明するための模式図である。図8の上図に示すように、従来では、複数の人物ノードのそれぞれの移動方向(移動ベクトル)が算出され、複数の人物ノードのそれぞれの移動先が予測されている。これに対し、図8の下図に示すように、本実施の形態1では、複数の人物ノードのうちの第1の人物ノード101と第2の人物ノード102とが、互いに関連して移動しているとして抽出される。そして、第1の人物ノード101及び第2の人物ノード102の関連性情報が特定され、第1の人物ノード101及び第2の人物ノード102をグループ化するか否かが判断される。第1の人物ノード101及び第2の人物ノード102をグループ化すると判断された場合、第1の人物ノード101及び第2の人物ノード102をグループ化した融合ノード103の移動方向が予測される。
これにより、一緒に移動する可能性が高い複数の人物ノードをグループ化し、グループ単位で移動方向が予測されるので、人物の移動する動線を高い精度で予測することができる。
なお、第2のカメラ3は、複数の人物ノードを撮影し、複数の人物ノードの2次元平面上における視線の方向を示す視線情報を生成し、人流分析装置1へ送信してもよい。人流分析装置1の通信部11は、複数の人物ノードの視線の方向を示す視線情報を取得してもよい。そして、関連性情報特定部132は、取得した視線情報のうち、少なくとも2人の人物ノードの視線の方向を用いて、関連性情報を特定してもよい。例えば、関連性情報特定部132は、少なくとも2人の人物ノードの視線の方向が所定の期間一致する場合、少なくとも2人の人物ノードが、何らかの社会的な関連性を有していることを示す関連性情報を特定してもよい。また、関連性情報特定部132は、少なくとも2人の人物ノードの視線の方向が所定の期間交わる(互いを注視している)場合、少なくとも2人の人物ノードが、何らかの社会的な関連性を有していることを示す関連性情報を特定してもよい。
また、人流分析装置1は、予測された融合ノード103の移動方向に応じて電気機器を制御してもよい。例えば、電気機器が照明機器である場合、人流分析装置1は、予測された融合ノード103の移動方向に存在する照明機器を点灯させてもよい。このように、人物ノードの行動予測結果に基づいて電気機器を効率的に制御することができる。
また、実施の形態1において、関連ノード抽出部131は、2人の人物の距離が所定の距離より小さい範囲での移動が継続していた場合に、2人の人物が関連して移動していると推定した。しかしながら、2人の人物間の距離は、環境に応じて異なる場合が多い。そこで、関連ノード抽出部131は、複数の人物の周囲の環境に応じた閾値を定め、複数の人物間の距離が閾値より短い場合に、複数の人物が関連して移動していると推定してもよい。
図9は、人口密度が低い領域における人物ノードの配置の一例を示す図であり、図10は、人口密度が高い領域における人物ノードの配置の一例を示す図であり、図11は、各人物ノード間の距離を示す図である。なお、図9及び図10において、実線で示した円は、人物ノードを示し、円内の数字は、各人物ノードを識別するためのノード番号を示し、矢印は、人物ノードの移動方向を示す。
図9に示すように、例えば、公園等の広い領域においては、関連性のない人物間の距離は大きい。これに対して、親子又は知り合い同士などの関連性のある人物間の距離は、相対的には短くなるが、少し離れていることもある。
一方で、図10に示すように、混雑した駅又は交差点などの領域においては、関連性のある人物間の距離は十分に小さく、関連性のない人物間の距離よりも相対的に小さくなる。そこで、関連ノード抽出部131は、所定の領域の人口密度に応じて、関連性があると判断するための2つの人物ノード間の距離の閾値を決めてもよい。関連ノード抽出部131は、所定の領域に含まれる複数の人物ノード間の距離を全て計算し、計算した全ての距離の中から全体の距離に対して十分に距離が短い2人の人物ノードを関連性のある人物ノードとして抽出してもよい。
具体的には、図11に示すように、関連ノード抽出部131は、所定の領域に含まれる複数の人物ノード間の距離を全て計算し、計算した全ての距離の中から所定の閾値より短い距離に対応する2人の人物ノードを抽出してもよい。
例えば、図11では、人物ノード間の距離が「8」である2つの人物ノードが、関連性のある人物ノードとして特定される。このとき、関連ノード抽出部131は、複数の人物ノードが存在する所定の領域の人口密度を算出し、人口密度に応じて閾値を設定する。関連ノード抽出部131は、人口密度が所定値より低い場合、第1の閾値を設定し、人口密度が所定値以上である場合、第1の閾値より小さい第2の閾値を設定する。関連ノード抽出部131は、人物ノード間の距離が閾値より小さい2つの人物ノードを関連性のある人物ノードとして抽出する。
また、実施の形態1において、関連ノード抽出部131は、人物ノード間の距離を用いて、関連性のある2人の人物ノードを抽出しているが、さらに、複数の人物ノードのうちの2人の人物ノードの進行方向に対する位置関係を利用して、2人の人物ノードを抽出してもよい。
図12は、2人の人物ノードを結ぶ直線と、2人の人物ノードの進行方向との角度φ(φ<90度)に基づいて2人の人物ノードを抽出する第1の処理について説明するための模式図であり、図13は、2人の人物ノードを結ぶ直線と、2人の人物ノードの進行方向との角度φ(φ>90度)に基づいて2人の人物ノードを抽出する第1の処理について説明するための模式図である。
一般に、2人の人物が会話しながら歩行している場合には、頭頂を俯瞰する画像において、2人の人物の頭頂を結ぶ直線201と、2人の人物の進行方向202とがなす角度φは、略90度になる。図12及び図13においては、第1の人物ノード101と第2の人物ノード102との関連性が高い場合には、角度φは略90度になる。一方、角度φが180度又は0度に近い角度になると、2人の人物は、会話が困難な位置関係となる。そこで、実施の形態1においては、関連ノード抽出部131は、2人の人物ノードを結ぶ直線201と進行方向202とがなす角度φを用いて、2人の人物ノードを抽出してもよい。
例えば、関連ノード抽出部131は、2人の人物ノードを結ぶ直線201と進行方向202とがなす角度φが80度より大きくかつ110度より小さい場合、2人の人物ノードを抽出してもよい。また、関連ノード抽出部131は、所定の期間における2人の人物ノードの間の距離が所定の距離以下であり、かつ2人の人物ノードを結ぶ直線201と進行方向202とがなす角度φが80度より大きくかつ110度より小さい場合、2人の人物ノードを抽出してもよい。
さらに、実施の形態1において、関連性情報特定部132は、抽出された2人の人物ノードを結ぶ直線と進行方向とがなす角度φを用いて、2人の関連性情報を特定してもよい。例えば、歩行しながら会話した結果、2人の人物ノードの角度φの値が所定の値を超えた場合、関連性情報特定部132は、抽出された2人の人物ノードの関連性情報を、家族、カップル又は友人であると特定することができる。
関連性情報特定部132は、2人の人物ノードの頭頂部を結ぶ直線と、進行方向とのなす角度φが、90度を中心とする所定の範囲内であるときに、2人の人物ノードが、友人、カップル又は家族の関連性を有していると特定してもよい。特に、関連性情報特定部132は、角度φが80度より大きくかつ110度より小さい場合、抽出された2人の人物ノードの関連性情報を、家族、カップル又は友人であると特定してもよい。
一方、関連性のある2人の人物ノードであっても、2人の人物ノードを結ぶ直線と進行方向とがなす角度φが略90度とならない場合もある。
図14は、2人の人物ノードを結ぶ直線と、2人の人物ノードの進行方向との角度に基づいて2人の人物ノードを抽出する第2の処理について説明するための模式図である。
図14に示すように、第1の人物ノード101が介護者であり、第2の人物ノード102が車いすに乗った人物である場合には、進行方向に沿って2人の人物が並ぶため、角度φの値が所定の値より小さくなる。そこで、関連性情報特定部132は、2人の人物ノードを結ぶ直線201と、抽出された2人の人物ノードの進行方向202とがなす角度φが所定の値より小さい場合、抽出された2人の人物ノードの関連性情報を、車いすに乗った人物とその介護者との関係であると特定することが可能になる。
関連性情報特定部132は、2人の人物ノードの頭頂部を結ぶ直線と、進行方向とのなす角度が、所定の角度以下であるときに、2人の人物ノードが、車いすに乗る人物と介護者との関連性を有していると特定する。特に、関連性情報特定部132は、角度φが0度より大きくかつ20度より小さい場合、抽出された2人の人物ノードの関連性情報を、車いすに乗った人物とその介護者との関係であると特定してもよい。
図15は、2人の人物がゲートを通過する際の位置関係に応じて関連性情報を特定する処理について説明するための模式図である。
例えば、図15に示すように、駅の改札口、公共施設の入口、又は公共施設の出口等のゲート203で、各人物ごとに通過がチェックされる場合、関連性のある人物同士は、連続して通過するか、又は、複数の通過ゲートが人物の進行方向に対して垂直方向に並んでいるときには、並んで通過することが多い。そこで、関連ノード抽出部131は、ゲート203を通過するときの人物ノードの位置関係に基づいて、互いに関連して移動していると推定される少なくとも2人の人物ノードを抽出してもよい。
関連ノード抽出部131は、所定の人数だけが一度に通過可能なゲートに対して、複数の人物のうちの2人の人物が連続して通過したことを示す情報を利用して2人の人物を抽出する。関連ノード抽出部131は、ゲート203を通過する際に、2人の人物ノードを結ぶ直線201と、抽出された2人の人物ノードの進行方向202とがなす角度φが0度になった場合、2人の人物ノードを抽出する。
また、関連性情報特定部132は、抽出された2人の人物ノードのうち、ゲート203を先に通過する人物ノードを親と判定し、ゲート203を後に通過する人物ノードを子供と判定し、抽出された2人の人物ノードの関連性情報を親子に特定してもよい。
また、本実施の形態1において、関連性情報特定部132は、人物の視線情報を用いて関連性情報を特定することについて説明しているが、さらに、周囲の状況又は注視している対象と視線との関係を用いて、関連性情報を特定することも可能である。
図16は、展示物に対する視線情報に基づいて、停止している2人の人物ノードの関連性情報を特定する処理について説明するための模式図であり、図17は、展示物に対する視線情報に基づいて、移動している2人の人物ノードの関連性情報を特定する処理について説明するための模式図である。なお、図16及び図17において、破線の矢印は、人物の視線の方向を示し、実線の矢印は、人物の進行方向を示す。
例えば、図16及び図17に示すように、飲食店又はアパレルショップ等において、通行者向けに商品が展示されている際に、関連する2人の人物が同じ対象物の方向に視線を向けて対話する場合がある。そこで、図16に示すように、関連性情報特定部132は、抽出された第1の人物ノード101及び第2の人物ノード102が同じ対象物に視線を向けている場合には、第1の人物ノード101及び第2の人物ノード102に関連性があると判断してもよい。関連性情報特定部132は、少なくとも2人の人物の視線の方向が共通の対象物へ向いている場合、関連性情報を特定してもよい。
また、2人の人物ノードの視線の方向が、共通の対象物に向いている場合には、周りの他の人物ノードの移動速度に対して、関連性の高い2人の人物ノードの移動速度が相対的に遅くなることがある。そこで、図17に示すように、関連性情報特定部132は、抽出された2人の人物ノードの視線の方向が共通の対象物に向いており、かつ、抽出された2人の人物ノードの移動速度の平均と、周りの他の人物ノードの移動速度の平均との差分が所定値以上である場合、抽出された2人の人物ノードに関連性があると判断してもよい。
さらに、公共の地図を表示している案内板の前において、関連する複数の人物が行先等を確認する場合がある。
図18は、人物を案内するための案内情報に対する視線情報に基づいて、2人の人物ノードの関連性情報を特定する処理について説明するための模式図である。この場合においても、関連性情報特定部132は、人物を案内するための案内情報を提示する案内板204に対する第1の人物ノード101及び第2の人物ノード102の視線情報を用いて関連性を判断してもよい。抽出された2人の人物ノードの視線方向が地図等の案内板204に向いている場合には、抽出された2人の人物ノードは、その地域の地理情報に関する知識が少ないという共通点がある。そこで、関連性情報特定部132は、少なくとも2人の人物の視線の方向が、公共の案内情報を提示する物体へ向いている場合、関連性情報を特定してもよい。特に、関連性情報特定部132は、抽出された2人の人物ノードの視線方向が案内情報に向いている場合、2人の人物ノードの関連性情報を観光客グループであると特定してもよい。
また、2人の人物の視線が、2人の人物のうちの一方の所有物に対して向いていることもある。そこで、関連性情報特定部132は、少なくとも2人の人物のうちの1人の人物の所有物に対する少なくとも2人の人物の視線情報を用いて関連性情報を特定してもよい。関連性情報特定部132は、少なくとも2人の人物の視線の方向が、少なくとも2人の人物のうちの1人の人物の所有物へ向いている場合、関連性情報を特定してもよい。
図19は、2人の人物のうちの一方の所有物に対する視線情報に基づいて、2人の人物ノードの関連性情報を特定する処理について説明するための模式図である。
例えば、図19に示すように、関連性情報特定部132は、抽出された第1の人物ノード101及び第2の人物ノード102の両者の視線方向が第1の人物ノード101の所有物205に向いている場合に、抽出された第1の人物ノード101及び第2の人物ノード102に関連性があると判断してもよい。所有物205は、例えば、タブレット型コンピュータ又はスマートフォン等の端末装置である。また、所有物205は、例えば、地図、パンフレット又はガイドブックなどであってもよい。
なお、各人物の視線の方向は、画像情報から眼球の画像を抽出し、眼球の画像の位置を用いて特定することが可能である。また、本実施の形態1においては、人物が歩行中であるため、画像情報から眼球の位置を検出することが困難である場合には、顔の向きが視線の方向であると推定してもよい。
図20は、人物の顔の向きにより人物の視線の方向を推定する処理について説明するための図である。例えば、図20に示すように、人物206が下方を向いている場合、視線の方向207も下方となり、画像情報から眼球の位置を検出することが困難となる。この場合、第2のカメラ3は、人物ノードの顔の向きを検出し、検出した顔の向きを視線の方向として視線情報を生成し、人流分析装置1へ送信してもよい。人流分析装置1の通信部11は、複数の人物の外観画像から検出された複数の人物の顔の向きを、複数の人物の視線の方向とした視線情報を取得してもよい。
また、実施の形態1においては、人流分析装置1のノード融合判断部133は、2人の人物ノード間の距離が所定の距離以下になった場合に、関連性が高いと推定し、1つのノードに融合しているが、融合後にも、一定時間ごとに、2人の人物ノード間の距離を計算してもよい。そして、ノード融合判断部133は、融合後に、2人の人物ノード間の距離が所定の距離より長くなったときには、融合を解消してもよい。すなわち、ノード融合判断部133は、グループ化すると判断された少なくとも2人の人物間の距離をグループ化後に再度計算し、再度計算した距離が所定の距離を超えた場合、少なくとも2人の人物のグループ化を解消してもよい。また、ノード融合判断部133は、距離だけでなく、融合後に、2人の人物ノード間に所定数の他のノードが存在するようになった場合に、融合を解消してもよい。
(実施の形態2)
実施の形態2では、人流分析装置は、複数の人物が存在する所定の空間に関する空間情報を取得し、取得した空間情報を利用して融合ノードの行動を予測し、人流分析装置と通信可能に接続された端末装置へ予測結果を送信し、端末装置は、受信した予測結果を表示する。
図21は、本開示の実施の形態2における人流分析システムの構成を示す図である。
図21に示す人流分析システムは、人流分析装置1A、第1のカメラ2、第2のカメラ3、マイク4及び端末装置6を備える。なお、実施の形態2において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
人流分析装置1Aは、第1のカメラ2、第2のカメラ3、マイク4及び端末装置6とネットワーク5を介して互いに通信可能に接続される。なお、ネットワーク5は、例えばインターネットである。人流分析装置1Aは、例えばサーバであり、通信部11A、記憶部12及び制御部13Aを備える。
通信部11Aは、移動情報取得部111、画像情報取得部112、音声情報取得部113、空間情報取得部114及び予測結果送信部115を備える。
制御部13Aは、例えば、CPUで構成される。制御部13Aは、関連ノード抽出部131、関連性情報特定部132、ノード融合判断部133及び行動予測部134Aを備える。
空間情報取得部114は、所定の空間に関する空間情報を外部のサーバから取得する。空間情報取得部114は、外部のサーバによって送信された空間情報を受信する。空間情報は、例えば、地図情報であり、所定の空間が建物内の空間であれば、建物の間取り図を示す情報である。空間情報は、所定の空間内に存在する領域に対応付けられた関連性情報の種別を示す領域種別情報を含む。
所定の空間内に存在する領域には、当該領域を主に利用するグループの関連性情報の種別が対応付けられている。例えば、玩具店を示す領域には、父母−乳児グループ、父母−幼児グループ及び母−小学生グループなどの玩具店を主に利用するグループの関連性情報の種別が予め対応付けられている。
なお、本実施の形態2では、空間情報取得部114は、取得した空間情報を行動予測部134Aへ出力しているが、本開示は特にこれに限定されず、取得した空間情報を記憶部12に記憶してもよい。この場合、行動予測部134Aは、記憶部12から空間情報を読み出してもよい。また、記憶部12は、予め空間情報を記憶してもよい。
行動予測部134Aは、少なくとも2人の人物ノードの関連性情報と、所定の空間内に存在する領域に対応付けられた関連性情報の種別を示す領域種別情報とを用いて、少なくとも2人の人物ノードをグループ化した融合ノード(グループノード)の移動方向を予測する。行動予測部134Aは、所定の空間内の複数の領域のうち、少なくとも2人の人物ノードの関連性情報の種別と一致する関連性情報の種別が対応付けられている領域を、少なくとも2人の人物ノードをグループ化した融合ノードの移動先として予測する。
予測結果送信部115は、行動予測部134Aによる予測結果を端末装置6へ送信する。
端末装置6は、例えば、パーソナルコンピュータ、スマートフォン又はタブレット型コンピュータである。端末装置6は、通信部61、制御部62、表示部63及び入力部64を備える。
通信部61は、人流分析装置1Aによって送信された予測結果を受信する。
制御部62は、例えばCPUで構成され、通信部61、表示部63及び入力部64を制御する。
表示部63は、例えば、液晶表示装置であり、通信部61によって受信された予測結果を表示する。
入力部64は、例えば、タッチパネル、キーボード又はマウスであり、ユーザによる入力を受け付ける。
続いて、本実施の形態2における人流分析装置の処理について説明する。
図22は、本実施の形態2における人流分析装置及び端末装置の処理について説明するためのフローチャートである。なお、図22に示すフローチャートでは、音声情報を取得せずに、画像情報のみを取得する処理について説明する。
図22に示すステップS11〜ステップS15の処理は、図7に示すステップS1〜S5の処理と同じである。
少なくとも2人の人物ノードをグループ化すると判断された場合(ステップS15でYES)、ステップS16において、空間情報取得部114は、所定の空間に関する空間情報を外部のサーバから取得する。
次に、ステップS17において、行動予測部134Aは、ノード融合判断部133によってグループ化すると判断された少なくとも2人の人物ノードを1つの融合ノードとして決定し、融合ノードの行動を予測する。このとき、行動予測部134Aは、少なくとも2人の人物ノードの関連性情報と、所定の空間内に存在する領域に対応付けられた関連性情報の種別を示す領域種別情報とを用いて、少なくとも2人の人物ノードをグループ化した融合ノード(グループノード)の移動方向を予測する。行動予測部134Aは、所定の空間内の複数の領域のうち、少なくとも2人の人物ノードの関連性情報の種別と一致する関連性情報の種別が対応付けられている領域を融合ノードの移動先として予測する。
次に、ステップS18において、予測結果送信部115は、行動予測部134Aによる予測結果を端末装置6へ送信する。
次に、ステップS19において、端末装置6の通信部61は、人流分析装置1Aによって送信された予測結果を受信する。
次に、ステップS20において、表示部63は、通信部61によって受信された予測結果を表示する。
図23は、本実施の形態2における人流分析装置の予測結果について説明するための模式図である。
図23において、所定の空間は建物200内の空間であり、建物200内には、玩具店201と10代の女性向けのアパレル店202とが存在している。そして、玩具店201には、父母−乳児グループ、父母−幼児グループ、母−幼児グループ及び母−小学生グループなどの関連性情報の種別が予め対応付けられている。また、アパレル店202には、10代女性友人グループの関連性情報の種別が予め対応付けられている。
また、図23に示す第1の人物ノード101は母親を示し、第2の人物ノード102は幼児を示し、第1の人物ノード101と第2の人物ノード102とをグループ化した融合ノード103は、「母−幼児グループ」の関連性情報が対応付けられている。
第1の人物ノード101の移動ベクトルと第2の人物ノード102の移動ベクトルとを合成した融合ノード103の移動ベクトルが図23の破線の矢印で表される場合、行動予測部134Aは、融合ノード103が、玩具店201とアパレル店202とのいずれの方向へ向かって移動するのかを予測することできない。
そこで、行動予測部134Aは、建物200内の玩具店201及びアパレル店202のうち、融合ノード103の関連性情報の種別(母−幼児グループ)と一致する関連性情報の種別が対応付けられている玩具店201を融合ノード103の移動先として予測する。
図23に示すように、行動予測部134Aは、融合ノード103から、移動先である玩具店201へ伸びる矢印を付加した予測結果画像を生成してもよい。予測結果送信部115は、図23に示す予測結果画像を端末装置6へ送信してもよい。端末装置6の表示部63は、図23に示す予測結果画像を表示してもよい。
また、行動予測部134Aは、所定の空間内における融合ノードの移動の軌跡を示す移動軌跡画像を生成し、端末装置6へ送信してもよい。
図24は、本実施の形態2における人流分析装置によって生成される移動軌跡画像の一例を示す図である。
端末装置6の表示部63は、建物の間取り図上に融合ノードを表示し、入力部64は、建物内における移動の軌跡(動線)を表示する融合ノードのユーザによる選択を受け付ける。通信部61は、選択された融合ノードを特定するための情報を人流分析装置1Aへ送信する。人流分析装置1Aの通信部11Aは、端末装置6によって送信された融合ノードを特定するための情報を受信する。そして、行動予測部134Aは、移動情報を参照し、ユーザによって選択された融合ノードの移動の軌跡(動線)を建物の間取り図上に重畳した移動軌跡画像を生成する。通信部11Aは、行動予測部134Aによって生成された移動軌跡画像を端末装置6へ送信する。端末装置6の通信部61は、人流分析装置1Aによって送信された移動軌跡画像を受信する。表示部63は、通信部61によって受信された移動軌跡画像を表示する。
図24に示す移動軌跡画像では、建物の間取り図上に融合ノード103の移動の軌跡が重畳されている。融合ノード103は、「母−幼児グループ」の関連性情報が対応付けられている。融合ノード103の移動の軌跡は、点で表され、店舗に滞在した滞在時間の長さが色の濃淡で表されている。すなわち、滞在時間が長いほど、点の色が濃くなるように表示される。なお、融合ノード103の移動の軌跡は、線分で表されてもよく、滞在時間の長さに応じて線分の太さ又は線分の色を変化させてもよい。店舗に滞在した時間を建物の間取り図上に表示してもよい。また、表示部63は、1つの融合ノードの移動の軌跡を表示するのではなく、複数の融合ノードの移動の軌跡を表示してもよい。
本開示に係る人流分析方法、人流分析装置及び人流分析システムは、人物の移動する動線を高い精度で予測することができ、所定の空間内を移動する複数の人物の流れを分析する人流分析方法、人流分析装置及び人流分析システムとして有用である。
1,1A 人流分析装置
2 第1のカメラ
3 第2のカメラ
4 マイク
5 ネットワーク
6 端末装置
11,11A 通信部
12 記憶部
13,13A 制御部
61 通信部
62 制御部
63 表示部
64 入力部
111 移動情報取得部
112 画像情報取得部
113 音声情報取得部
114 空間情報取得部
115 予測結果送信部
131 関連ノード抽出部
132 関連性情報特定部
133 ノード融合判断部
134,134A 行動予測部

Claims (20)

  1. 所定の空間内を移動する複数の人物の流れを分析する人流分析装置における人流分析方法であって、
    前記複数の人物の前記所定の空間内における移動履歴を示す移動情報を取得し、
    取得した前記移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物を抽出し、
    抽出した前記少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報を特定し、
    特定した前記関連性情報に基づいて、前記少なくとも2人の人物をグループ化するか否かを判断し、
    グループ化すると判断した前記少なくとも2人の人物の行動を予測する、
    人流分析方法。
  2. 前記抽出は、所定の期間、互いの間の距離が所定の距離以下である前記少なくとも2人の人物を抽出する、
    請求項1記載の人流分析方法。
  3. 前記抽出は、所定の範囲において前記複数の人物間の距離を計算し、計算した全ての距離の中から所定の閾値より短い距離に対応する2人の人物を抽出する、
    請求項2記載の人流分析方法。
  4. 前記抽出は、さらに、前記複数の人物のうちの2人の人物の進行方向に対する位置関係を利用して、互いに関連して移動していると推定される前記2人の人物を抽出する、
    請求項2記載の人流分析方法。
  5. 前記関連情報の特定は、さらに、前記2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、90度を中心とする所定の範囲内であるときに、前記2人の人物が、友人、カップル又は家族の関連性を有していると特定する、
    請求項4記載の人流分析方法。
  6. 前記関連情報の特定は、さらに、前記2人の人物の頭頂部を結ぶ直線と、進行方向とのなす角度が、所定の角度以下であるときに、前記2人の人物が、車いすに乗る人物と介護者との関連性を有していると特定する、
    請求項4記載の人流分析方法。
  7. 前記抽出は、さらに、所定の人数だけが一度に通過可能なゲートに対して、前記複数の人物のうちの2人の人物が連続して通過したことを示す情報を利用して前記2人の人物を抽出する、
    請求項2記載の人流分析方法。
  8. さらに、前記複数の人物の外観画像を取得し、
    前記特定は、取得した前記外観画像に含まれる前記少なくとも2人の人物のそれぞれの顔画像から、前記少なくとも2人の人物のそれぞれの年齢及び性別を識別し、識別した前記少なくとも2人の人物のそれぞれの前記年齢及び前記性別を用いて、前記関連性情報を特定する、
    請求項1記載の人流分析方法。
  9. さらに、前記複数の人物の視線の方向を示す視線情報を取得し、
    前記特定は、取得した前記視線情報のうち、前記少なくとも2人の人物の前記視線の方向を用いて、前記関連性情報を特定する、
    請求項1記載の人流分析方法。
  10. 前記特定は、前記少なくとも2人の人物の前記視線の方向が共通の対象物へ向いている場合、前記関連性情報を特定する、
    請求項9記載の人流分析方法。
  11. 前記共通の対象物は、前記少なくとも2人の人物のうちの1人の人物の所有物である、
    請求項10記載の人流分析方法。
  12. 前記共通の対象物は、公共の案内情報を提示する物体である、
    請求項10記載の人流分析方法。
  13. 前記視線情報の取得は、前記複数の人物の外観画像から検出された前記複数の人物の顔の向きを、前記複数の人物の前記視線の方向とした前記視線情報を取得する、
    請求項9記載の人流分析方法。
  14. さらに、前記複数の人物のそれぞれが発話した音声情報を取得し、
    前記特定は、取得した前記音声情報のうち、前記少なくとも2人の人物が会話している前記音声情報を用いて、前記関連性情報を特定する、
    請求項1記載の人流分析方法。
  15. 前記特定は、前記少なくとも2人の人物が会話している前記音声情報の中から、固有名詞、又は親族関係を特定するキーワードを抽出することで、前記関連性情報を特定する、
    請求項14記載の人流分析方法。
  16. 前記予測は、前記少なくとも2人の人物の前記関連性情報と、前記少なくとも2人の人物の前記移動情報とを用いて、前記少なくとも2人の人物をグループ化したグループ単位の移動方向を予測する、
    請求項1記載の人流分析方法。
  17. 前記予測は、前記少なくとも2人の人物の前記関連性情報と、前記所定の空間内に存在する領域に対応付けられた前記関連性情報の種別を示す領域種別情報とを用いて、前記少なくとも2人の人物をグループ化したグループ単位の移動方向を予測する、
    請求項1記載の人流分析方法。
  18. さらに、グループ化すると判断された前記少なくとも2人の人物間の距離をグループ化後に再度計算し、再度計算した前記距離が所定の距離を超えた場合、前記少なくとも2人の人物のグループ化を解消する、
    請求項2記載の人流分析方法。
  19. 所定の空間内を移動する複数の人物の前記所定の空間内における移動履歴を示す移動情報を取得する移動情報取得部と、
    前記移動情報取得部によって取得された前記移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物を抽出する関連人物抽出部と、
    前記関連人物抽出部によって抽出された前記少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報を特定する関連性情報特定部と、
    前記関連性情報特定部によって特定された前記関連性情報に基づいて、前記少なくとも2人の人物をグループ化するか否かを判断するグループ化判断部と、
    前記グループ化判断部によってグループ化すると判断された前記少なくとも2人の人物の行動を予測する行動予測部と、
    を備える人流分析装置。
  20. 所定の空間内を移動する複数の人物の流れを分析する人流分析装置と、
    前記人流分析装置とネットワークを介して通信可能に接続された端末装置と、
    を備え、
    前記人流分析装置は、
    前記複数の人物の前記所定の空間内における移動履歴を示す移動情報を取得する移動情報取得部と、
    前記移動情報取得部によって取得された前記移動情報に基づいて、互いに関連して移動していると推定される少なくとも2人の人物を抽出する関連人物抽出部と、
    前記関連人物抽出部によって抽出された前記少なくとも2人の人物がどのような関連性を有しているかを示す関連性情報を特定する関連性情報特定部と、
    前記関連性情報特定部によって特定された前記関連性情報に基づいて、前記少なくとも2人の人物をグループ化するか否かを判断するグループ化判断部と、
    前記グループ化判断部によってグループ化すると判断された前記少なくとも2人の人物の行動を予測する行動予測部と、
    前記行動予測部による前記少なくとも2人の人物の行動予測結果を前記端末装置へ送信する送信部と、
    を備え、
    前記端末装置は、
    前記人流分析装置によって送信された前記行動予測結果を受信する受信部と、
    前記受信部によって受信された前記行動予測結果を表示する表示部と、
    を備える、
    人流分析システム。
JP2017138854A 2017-07-18 2017-07-18 人流分析方法、人流分析装置及び人流分析システム Active JP6898165B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017138854A JP6898165B2 (ja) 2017-07-18 2017-07-18 人流分析方法、人流分析装置及び人流分析システム
US16/026,113 US10776627B2 (en) 2017-07-18 2018-07-03 Human flow analysis method, human flow analysis apparatus, and human flow analysis system
CN201810750697.2A CN109271832B (zh) 2017-07-18 2018-07-10 人流分析方法、人流分析装置以及人流分析系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017138854A JP6898165B2 (ja) 2017-07-18 2017-07-18 人流分析方法、人流分析装置及び人流分析システム

Publications (2)

Publication Number Publication Date
JP2019021019A true JP2019021019A (ja) 2019-02-07
JP6898165B2 JP6898165B2 (ja) 2021-07-07

Family

ID=65019095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017138854A Active JP6898165B2 (ja) 2017-07-18 2017-07-18 人流分析方法、人流分析装置及び人流分析システム

Country Status (3)

Country Link
US (1) US10776627B2 (ja)
JP (1) JP6898165B2 (ja)
CN (1) CN109271832B (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166129A1 (ja) * 2019-02-14 2020-08-20 株式会社日立製作所 状態認識装置
JP2020154458A (ja) * 2019-03-18 2020-09-24 富士通株式会社 情報提供方法、情報提供プログラムおよび情報提供装置
JPWO2021064943A1 (ja) * 2019-10-03 2021-04-08
WO2021241239A1 (ja) * 2020-05-25 2021-12-02 株式会社日立情報通信エンジニアリング 予測システム、予測方法、および予測プログラム
JP2022511402A (ja) * 2019-11-15 2022-01-31 北京市商▲湯▼科技▲開▼▲發▼有限公司 来訪者情報管理方法及び装置、電子機器、並びに記憶媒体
JP2022514726A (ja) * 2019-11-15 2022-02-15 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 同行人を検出する方法および装置、システム、電子機器、記憶媒体及びコンピュータプログラム
WO2022054249A1 (ja) * 2020-09-11 2022-03-17 日本電気株式会社 情報管理装置、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2023152983A1 (ja) * 2022-02-14 2023-08-17 三菱電機株式会社 人物相関判定装置、人物相関判定方法および人物相関判定プログラム
JP7416260B2 (ja) 2020-03-23 2024-01-17 日本電気株式会社 コンテキスト閾値を決定する方法、装置及びプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11314968B2 (en) * 2017-09-12 2022-04-26 Nec Corporation Information processing apparatus, control method, and program
US20210342475A1 (en) * 2018-07-18 2021-11-04 Nec Corporation Control apparatus, data analysys system, conrol method, and computer program
SG10201807663PA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd System and method for multi-layer potential associates discovery
WO2020176872A1 (en) * 2019-02-28 2020-09-03 Stats Llc System and method for generating player tracking data from broadcast video
CN114096999A (zh) * 2019-07-19 2022-02-25 三菱电机株式会社 显示处理装置、显示处理方法和程序
CN110555381A (zh) * 2019-07-31 2019-12-10 深圳市城市公共安全技术研究院有限公司 人员疏导系统及人员疏导方法
JP7443002B2 (ja) * 2019-09-13 2024-03-05 キヤノン株式会社 画像解析装置、画像解析方法、及びプログラム
WO2021106696A1 (ja) * 2019-11-26 2021-06-03 富士フイルム株式会社 情報処理装置及び方法並びに誘導システム及び方法
CN112884190B (zh) * 2019-11-29 2023-11-03 杭州海康威视数字技术股份有限公司 一种流量预测方法及装置
US20210391089A1 (en) * 2020-06-15 2021-12-16 Honeywell International Inc. Methods and systems for reducing a risk of spread of an illness in a building
JP7415848B2 (ja) * 2020-08-17 2024-01-17 横河電機株式会社 装置、システム、方法およびプログラム
CN112633608B (zh) * 2021-01-06 2022-04-12 南方科技大学 人流转移预测方法、装置、设备及存储介质
CN113362368B (zh) * 2021-07-26 2022-02-25 北京邮电大学 一种基于多层次时空图神经网络的人群轨迹预测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030107649A1 (en) * 2001-12-07 2003-06-12 Flickner Myron D. Method of detecting and tracking groups of people
JP2004054376A (ja) * 2002-07-17 2004-02-19 Japan Science & Technology Corp グループ属性推定方法及びグループ属性推定装置
JP2010204912A (ja) * 2009-03-03 2010-09-16 Fujitsu Ltd 安全保持システム、その方法、及びプログラム
JP2012133530A (ja) * 2010-12-21 2012-07-12 Denso Corp 車載装置
JP2015184878A (ja) * 2014-03-24 2015-10-22 パイオニア株式会社 表示制御装置、制御方法、プログラム及び記憶媒体
WO2016002400A1 (ja) * 2014-06-30 2016-01-07 日本電気株式会社 誘導処理装置及び誘導方法
JP2016085667A (ja) * 2014-10-28 2016-05-19 株式会社Nvc 動線情報処理システム及び方法、並びにプログラム
JP2017084083A (ja) * 2015-10-28 2017-05-18 株式会社日立製作所 送客管理装置、および送客管理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5973732A (en) * 1997-02-19 1999-10-26 Guthrie; Thomas C. Object tracking system for monitoring a controlled space
US7359821B1 (en) * 2002-06-11 2008-04-15 Injury Sciences Llc Methods and apparatus for using black box data to analyze vehicular accidents
US20050256813A1 (en) * 2004-03-26 2005-11-17 Radvan Bahbouh Method and system for data understanding using sociomapping
US20060018516A1 (en) * 2004-07-22 2006-01-26 Masoud Osama T Monitoring activity using video information
JP2007041964A (ja) 2005-08-04 2007-02-15 Matsushita Electric Ind Co Ltd 画像処理装置
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
US20090138415A1 (en) * 2007-11-02 2009-05-28 James Justin Lancaster Automated research systems and methods for researching systems
CN101325690A (zh) * 2007-06-12 2008-12-17 上海正电科技发展有限公司 监控视频流中人流分析与人群聚集过程的检测方法及系统
JP2011070275A (ja) 2009-09-24 2011-04-07 Seiko Epson Corp 画像処理装置
WO2011046138A1 (ja) * 2009-10-14 2011-04-21 株式会社エヌ・ティ・ティ・ドコモ 位置情報分析装置および位置情報分析方法
CN106237331A (zh) * 2009-12-09 2016-12-21 田边三菱制药株式会社 T细胞活化抑制剂、含有其的药物组合物以及抑制t细胞活化的物质的筛选方法
CN102244695A (zh) * 2010-05-12 2011-11-16 深圳富泰宏精密工业有限公司 联络人分组系统及方法
US8749630B2 (en) * 2010-05-13 2014-06-10 Ecole Polytechnique Federale De Lausanne (Epfl) Method and system for automatic objects localization
JP2012155274A (ja) 2011-01-28 2012-08-16 Ricoh Co Ltd 粉体収容容器、トナー収容容器、プロセスカートリッジ及び画像形成装置
JP6272158B2 (ja) * 2014-06-24 2018-01-31 株式会社日立製作所 人流分析システム
JP6286316B2 (ja) 2014-08-04 2018-02-28 株式会社日立製作所 入出場ゲート制御システム及び入出場制御方法
JP6619927B2 (ja) * 2014-10-24 2019-12-11 株式会社日立製作所 キャリブレーション装置
US10824878B2 (en) * 2016-03-08 2020-11-03 Accuware, Inc. Method and arrangement for receiving data about site traffic derived from imaging processing
US10936882B2 (en) * 2016-08-04 2021-03-02 Nec Corporation People flow estimation device, display control device, people flow estimation method, and recording medium
CN106650652A (zh) * 2016-12-14 2017-05-10 黄先开 基于人脸识别技术的轨迹跟踪系统及其方法
JP6968645B2 (ja) * 2017-10-02 2021-11-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030107649A1 (en) * 2001-12-07 2003-06-12 Flickner Myron D. Method of detecting and tracking groups of people
JP2004054376A (ja) * 2002-07-17 2004-02-19 Japan Science & Technology Corp グループ属性推定方法及びグループ属性推定装置
JP2010204912A (ja) * 2009-03-03 2010-09-16 Fujitsu Ltd 安全保持システム、その方法、及びプログラム
JP2012133530A (ja) * 2010-12-21 2012-07-12 Denso Corp 車載装置
JP2015184878A (ja) * 2014-03-24 2015-10-22 パイオニア株式会社 表示制御装置、制御方法、プログラム及び記憶媒体
WO2016002400A1 (ja) * 2014-06-30 2016-01-07 日本電気株式会社 誘導処理装置及び誘導方法
CN106664391A (zh) * 2014-06-30 2017-05-10 日本电气株式会社 引导处理装置和引导方法
JP2016085667A (ja) * 2014-10-28 2016-05-19 株式会社Nvc 動線情報処理システム及び方法、並びにプログラム
JP2017084083A (ja) * 2015-10-28 2017-05-18 株式会社日立製作所 送客管理装置、および送客管理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KANDA, A.: "Recognizing groups of visitors for a robot museum guide tour", 7TH INTERNATIONAL COFERENCE ON HUMAN SYSTEM INTERACTIONS(HSI), JPN6020006502, June 2014 (2014-06-01), pages 123 - 128, XP032622560, ISSN: 0004406614, DOI: 10.1109/HSI .2014.6860460 *
守口 裕介: "軌跡間の時空間特徴量を用いた人のグループ検出", 電子情報通信学会論文誌, vol. 第J96-D巻,第11号, JPN6020048014, 1 November 2013 (2013-11-01), JP, pages 2776 - 2783, ISSN: 0004406615 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166129A1 (ja) * 2019-02-14 2020-08-20 株式会社日立製作所 状態認識装置
JP2020154458A (ja) * 2019-03-18 2020-09-24 富士通株式会社 情報提供方法、情報提供プログラムおよび情報提供装置
JP7298221B2 (ja) 2019-03-18 2023-06-27 富士通株式会社 情報提供方法、情報提供プログラムおよび情報提供装置
JPWO2021064943A1 (ja) * 2019-10-03 2021-04-08
WO2021064943A1 (ja) * 2019-10-03 2021-04-08 三菱電機株式会社 表示処理装置、表示処理方法及びプログラム
JP2022511402A (ja) * 2019-11-15 2022-01-31 北京市商▲湯▼科技▲開▼▲發▼有限公司 来訪者情報管理方法及び装置、電子機器、並びに記憶媒体
JP2022514726A (ja) * 2019-11-15 2022-02-15 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 同行人を検出する方法および装置、システム、電子機器、記憶媒体及びコンピュータプログラム
JP7416260B2 (ja) 2020-03-23 2024-01-17 日本電気株式会社 コンテキスト閾値を決定する方法、装置及びプログラム
WO2021241239A1 (ja) * 2020-05-25 2021-12-02 株式会社日立情報通信エンジニアリング 予測システム、予測方法、および予測プログラム
WO2022054249A1 (ja) * 2020-09-11 2022-03-17 日本電気株式会社 情報管理装置、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2023152983A1 (ja) * 2022-02-14 2023-08-17 三菱電機株式会社 人物相関判定装置、人物相関判定方法および人物相関判定プログラム
JP7374401B1 (ja) 2022-02-14 2023-11-06 三菱電機株式会社 人物相関判定装置、人物相関判定方法および人物相関判定プログラム

Also Published As

Publication number Publication date
CN109271832B (zh) 2023-11-14
US10776627B2 (en) 2020-09-15
US20190026560A1 (en) 2019-01-24
CN109271832A (zh) 2019-01-25
JP6898165B2 (ja) 2021-07-07

Similar Documents

Publication Publication Date Title
JP6898165B2 (ja) 人流分析方法、人流分析装置及び人流分析システム
US11823398B2 (en) Information processing apparatus, control method, and program
US11436866B2 (en) System and method for eye-tracking
JP2016006611A (ja) 情報処理装置、情報処理方法およびプログラム
Kuribayashi et al. Linechaser: a smartphone-based navigation system for blind people to stand in lines
WO2022022292A1 (zh) 手持物体识别方法及装置
AU2018379393A1 (en) Monitoring systems, and computer implemented methods for processing data in monitoring systems, programmed to enable identification and tracking of human targets in crowded environments
JP2016006612A (ja) 情報処理装置、情報処理方法およびプログラム
JP2017090965A (ja) 群衆分類装置、その方法、及び、そのプログラム
Hub et al. Interactive tracking of movable objects for the blind on the basis of environment models and perception-oriented object recognition methods
Nair et al. ASSIST: Personalized indoor navigation via multimodal sensors and high-level semantic information
US9301722B1 (en) Guiding computational perception through a shared auditory space
JP2018094645A (ja) 行動コマンド生成システム、応答システムおよび行動コマンド生成方法
AU2021204584A1 (en) Methods, apparatuses, devices and storage media for detecting correlated objects involved in image
CN109540138B (zh) 基于视觉神经网络的室内导航方法、系统及可读存储器
JP7266984B2 (ja) サーバ装置
US11715332B2 (en) System and method for eye-tracking
Lee et al. Object Detection System for the Blind with Voice Command and Guidance
KR102356165B1 (ko) 영상에서의 얼굴 인덱싱 방법 및 장치
JP2021071967A (ja) 対応支援システム、方法及びプログラム
US20240038403A1 (en) Image display apparatus, image display system, image display method, and non-transitory computer readable medium
Yu Computer Vision Methods for Enhancing Remote Sighted Assistance
CN113916233A (zh) 导航路线确定方法、装置、设备及存储介质
CN114282734A (zh) 室内参观引导方法、装置、电子设备与存储介质
Ienaga et al. Eating and Drinking Recognition via Integrated Information of Head Directions and Joint Positions in a Group.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210610

R151 Written notification of patent or utility model registration

Ref document number: 6898165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151