JP2024007265A - 映像分析装置、映像分析方法、及びプログラム - Google Patents
映像分析装置、映像分析方法、及びプログラム Download PDFInfo
- Publication number
- JP2024007265A JP2024007265A JP2022108650A JP2022108650A JP2024007265A JP 2024007265 A JP2024007265 A JP 2024007265A JP 2022108650 A JP2022108650 A JP 2022108650A JP 2022108650 A JP2022108650 A JP 2022108650A JP 2024007265 A JP2024007265 A JP 2024007265A
- Authority
- JP
- Japan
- Prior art keywords
- display
- information
- people
- image
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims description 244
- 230000007704 transition Effects 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims description 91
- 238000003384 imaging method Methods 0.000 abstract description 26
- 238000010586 diagram Methods 0.000 description 35
- 238000000034 method Methods 0.000 description 28
- 230000036544 posture Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000006399 behavior Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】画像に含まれる人の間隔を解析した結果を活用する。【解決手段】映像分析装置100は、間隔取得部110及び表示制御部113を備える。間隔取得部110は、対象領域を撮影することで得られる映像に含まれる人の間隔を求める。表示制御部113は、求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示部に表示させる。【選択図】図1
Description
本発明は、映像分析装置、映像分析方法、及びプログラムに関する。
特許文献1には、密集の解消を促すための混雑状況報知システムが開示されている。混雑状況報知システムは、監視対象領域を撮影した画像に基づいて、撮影画像中の人を骨格情報のみで表示するように画像処理を施したプライバシー保護処理済画像を生成する。混雑状況報知システムは、監視対象領域における実際の距離において個々の人から所定距離内にある個々の円形領域の外縁を示す環状線を、個々の人の動きに応じて移動させながら、プライバシー保護処理済画像中に重ねて表示する。混雑状況報知システムは、環状線が重ねて表示されているプライバシー保護処理済画像を、混雑情報として発信する。
なお、特許文献2には、画像に含まれる人体の複数のキーポイント各々の特徴量を算出し、算出した特徴量に基づき姿勢が似た人体や動きが似た人体を含む画像を検索したり、当該姿勢や動きが似たもの同士でまとめて分類したりする技術が記載されている。また、非特許文献1には、人物の骨格推定に関連する技術が記載されている。
Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh, [Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields];, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, P. 7291-7299
特許文献1では、プライバシー保護処理済画像を発信することの他に、映像に含まれる人の間隔を解析した結果を活用することは記載されていない。なお、特許文献2及び非特許文献1でも、映像に含まれる人の間隔を解析した結果を活用する技術は開示されていない。
本発明の目的の一例は、上述した課題を鑑み、映像に含まれる人の間隔を解析した結果を活用することを解決する映像分析装置、映像分析方法、及びプログラムを提供することにある。
本発明の一態様によれば、
対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる表示制御手段とを備える
映像分析装置が提供される。
対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる表示制御手段とを備える
映像分析装置が提供される。
本発明の一態様によれば、
対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる表示制御手段とを備える
映像分析装置が提供される。
対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる表示制御手段とを備える
映像分析装置が提供される。
本発明の一態様によれば、
コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる
映像分析方法が提供される。
コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる
映像分析方法が提供される。
本発明の一態様によれば、
コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させることを実行させるためのプログラムが提供される。
コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させることを実行させるためのプログラムが提供される。
本発明の一態様によれば、
コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる
映像分析方法が提供される。
コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる
映像分析方法が提供される。
本発明の一態様によれば、
コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させることを実行させるためのプログラムが提供される。
コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させることを実行させるためのプログラムが提供される。
本発明の一態様によれば、映像に含まれる人の間隔を解析した結果を活用することが可能になる。
以下、本発明の実施形態について、図面を用いて説明する。なお、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
<実施形態1>
図1は、実施形態1に係る映像分析装置100の概要を示す図である。映像分析装置100は、間隔取得部110及び表示制御部113を備える。
図1は、実施形態1に係る映像分析装置100の概要を示す図である。映像分析装置100は、間隔取得部110及び表示制御部113を備える。
間隔取得部110は、対象領域を撮影することで得られる映像に含まれる人の間隔を求める。表示制御部113は、求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示部に表示させる。
この映像分析装置100によれば、映像に含まれる人の間隔を解析した結果を活用することが可能になる。
図2は、実施形態1に係る映像分析システム120の概要を示す図である。映像分析システム120は、映像分析装置100、少なくとも1つの撮影装置121_1及び解析装置122を備える。
撮影装置121_1は、対象領域を撮影することで映像を生成する装置である。解析装置122は、映像を解析して、映像に含まれる人を検出するとともに当該人の位置を求める。
この映像分析システム120によれば、映像に含まれる人の間隔を解析した結果を活用することが可能になる。
図3は、実施形態1に係る映像分析処理の一例を示すフローチャートである。
間隔取得部110は、対象領域を撮影することで得られる映像に含まれる人の間隔を求める(ステップS101)。表示制御部113は、求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示部に表示させる(ステップS104)。
この映像分析処理によれば、映像に含まれる人の間隔を解析した結果を活用することが可能になる。
以下、実施形態1に係る映像分析システム120の詳細例について説明する。
図4は、本実施形態に係る映像分析システム120の構成の詳細例を示す図である。
映像分析システム120は、映像分析装置100、撮影装置121_1を含むK台の撮影装置121_1~121_K及び解析装置122を備える。ここで、Kは、1以上の整数である。
映像分析装置100、撮影装置121_1~121_Kの各々及び解析装置122は、有線、無線又はこれらを組み合わせて構成される通信ネットワークNを介して互いに接続されている。映像分析装置100、撮影装置121_1~121_Kの各々及び解析装置122は、通信ネットワークNを介して互いに情報を送受信する。
(撮影装置121_1~121_Kの構成)
撮影装置121_2~121_Kの各々は、上述の撮影装置121_1と同様に、対象領域を撮影することで映像を生成する装置である。撮影装置121_1~121_Kの各々は、例えば、予め定められた対象領域内における所定の撮影領域を撮影するために設置されるカメラである。対象領域は、建物、施設、市町村、都道府県などであってもよく、これらの中で適宜定められる範囲であってもよい。撮影装置121_1~121_Kの各々の撮影領域は、一部が互いに重なり合っていてもよく、互いに異なる領域であってもよい。
撮影装置121_2~121_Kの各々は、上述の撮影装置121_1と同様に、対象領域を撮影することで映像を生成する装置である。撮影装置121_1~121_Kの各々は、例えば、予め定められた対象領域内における所定の撮影領域を撮影するために設置されるカメラである。対象領域は、建物、施設、市町村、都道府県などであってもよく、これらの中で適宜定められる範囲であってもよい。撮影装置121_1~121_Kの各々の撮影領域は、一部が互いに重なり合っていてもよく、互いに異なる領域であってもよい。
撮影装置121_2~121_Kのいずれか1台が撮影する映像は、例えば所定のフレームレートで撮影された時系列のフレーム画像(以下、単に「画像」とも称する。)から構成される。撮影装置121_2~121_Kの各々は、撮影することで得られる映像を、例えばリアルタイムで、解析装置122へ通信ネットワークNを介して送信する。
(解析装置122の機能)
解析装置122は、撮影装置121_1~121_Kの各々が撮影することで得られる映像を解析する。解析装置122は、図4に示すように、解析部123と、解析記憶部124とを備える。
解析装置122は、撮影装置121_1~121_Kの各々が撮影することで得られる映像を解析する。解析装置122は、図4に示すように、解析部123と、解析記憶部124とを備える。
解析部123は、映像を構成する画像を含む画像情報124aを撮影装置121_1~121_Kの各々から取得し、取得した画像情報124aを解析記憶部124に記憶させる。解析部123は、取得した画像情報124aのそれぞれに含まれる画像を解析する。解析部123は、画像を解析した結果を示す解析情報124bを生成し解析記憶部124に記憶させる。また、解析部123は、画像情報124a及び解析情報124bを映像分析装置100へ通信ネットワークNを介して送信する。
解析部123は、複数種類のエンジンを用いて画像を解析する。各種のエンジンは、画像を解析して当該画像に含まれる検出対象を検出するための機能を備える。検出対象は、人を含む。検出対象は、自動車、鞄など予め定められる物を含んでもよい。
解析部123は、複数種類のエンジンを用いて画像を解析することで、画像に含まれる人の外観属性を求めてもよい。
外観属性とは、人の外観上の属性である。外観属性は、例えば、年齢層、性別、服装のタイプ(例えば、カジュアル、フォーマルなど)や色、靴のタイプ(例えば、スニーカ、革靴、ハイヒールなど)や色、髪型、帽子の着用又は非着用、ネクタイの着用又は非着用、眼鏡の着用又は非着用、傘を所持しているか否か、傘をさしているか否かなどの1つ以上を含む。
エンジンの種類の例として、(1)物体検出エンジン、(2)顔解析エンジン、(3)人型解析エンジン、(4)姿勢解析エンジン、(5)行動解析エンジン、(6)外観属性解析エンジン、(7)勾配特徴解析エンジン、(8)色特徴解析エンジン、(9)動線解析エンジンを挙げることができる。なお、解析装置122は、ここで例示した種類のエンジン及びその他の種類のエンジンのうちの少なくとも1つのエンジンを備えるとよい。
(1)物体検出エンジンは、画像から人物及び物を検出する。物体検出機能は、画像内の人物及び物の位置を求めることもできる。物体検出処理に適用されるモデルとして、例えば、YOLO(You Only Look Once)がある。
(2)顔解析エンジンは、画像から人の顔を検出し、検出した顔の特徴量(顔特徴量)の抽出、検出した顔の分類(クラス分け)などを行う。顔解析エンジンは、顔の画像内の位置を求めることもできる。顔解析エンジンは、異なる画像から検出した人物の顔特徴量同士の類似度などに基づいて、異なる画像から検出した人物の同一性を判定することもできる。
(3)人型解析エンジンは、画像に含まれる人の人体的特徴量(例えば、体形の肥痩や、身長、服装などの全体的な特徴を示す値)の抽出、画像に含まれる人の分類(クラス分け)などを行う。人型解析エンジンは、人の画像内の位置を特定することもできる。人型解析エンジンは、異なる画像に含まれる人の人体的特徴量などに基づいて、異なる画像に含まれる人の同一性を判定することもできる。
(4)姿勢解析エンジンは、人の姿勢を示す姿勢情報を生成する。姿勢情報は、例えば、人物の姿勢推定モデルを含む。姿勢推定モデルは、画像から推定される人物の関節を繋いだモデルである。姿勢推定モデルは、例えば、関節に対応する関節要素、胴体に対応する体幹要素、関節間を接続する骨に対応する骨要素などに対応する複数のモデル要素から構成される。姿勢解析機能は、例えば、画像から人物の関節点を検出し、関節点を繋げて姿勢推定モデルを作成する。
そして、姿勢解析エンジンは、姿勢推定モデルの情報を用いて、人の姿勢を推定し、推定した姿勢の特徴量(姿勢特徴量)の抽出、画像に含まれる人の分類(クラス分け)などを行う。姿勢解析エンジンは、異なる画像に含まれる人の姿勢特徴量などに基づいて、異なる画像に含まれる人の同一性を判定することもできる。
姿勢解析エンジンには、例えば、特許文献2、非特許文献1に開示された技術を適用することができる。
(5)行動解析エンジンは、姿勢推定モデルの情報、姿勢の変化などを用いて、人の動きを推定し、人の動きの特徴量(動き特徴量)の抽出、画像に含まれる人の分類(クラス分け)などを行うことができる。行動解析エンジンでは、棒人間モデルの情報を用いて、人の身長を推定したり、人物の画像内の位置を特定したりすることもできる。行動解析エンジンは、例えば、姿勢の変化又は推移、移動(位置の変化又は推移)などの行動を画像から推定し、その行動に関する動き特徴量を抽出することができる。
(6)外観属性解析エンジンは、人に付随する外観属性を認識することができる。外観属性解析エンジンは、認識した外観属性に関する特徴量(外観属性特徴量)の抽出、画像に含まれる人の分類(クラス分け)などを行う。外観属性とは、外観上の属性であり、例えば、服装の色、靴の色、髪型、帽子やネクタイ、眼鏡の着用又は非着用などの1つ以上を含む。
(7)勾配特徴解析エンジンは、画像における勾配の特徴量(勾配特徴量)を抽出する。勾配特徴解析エンジンには、例えば、SIFT、SURF、RIFF、ORB、BRISK、CARD、HOGなどの技術を適用することができる。
(8)色特徴解析エンジンは、画像から物体を検出し、検出した物体の色の特徴量(色特徴量)の抽出、検出した物体の分類(クラス分け)などを行うことができる。色特徴量は、例えばカラーヒストグラムなどである。色特徴解析エンジンは、例えば、画像に含まれる人物、物を検出することができる。
(9)動線解析エンジンは、例えば上述のエンジンのいずれか1つ又は複数が行った同一性の判定の結果を用いて、映像に含まれる人の動線(移動の軌跡)を求めることができる。詳細には例えば、時系列的に異なる画像間で同一であると判定された人を接続することで、その人の動線を求めることができる。また例えば、動線解析エンジンは、人の移動方向及び移動速度を示す移動特徴量を求めることができる。移動特徴量は、人の移動方向及び移動速度のいずれか1つであってもよい。
動線解析エンジンは、異なる撮影領域を撮影する複数の撮影装置121_2~121_Kで撮影した映像を取得した場合などには、異なる撮影領域を撮影した複数の画像間に跨る動線を求めることもできる。
また、(1)~(9)のエンジンは、それぞれが求める特徴量の信頼度を求めることができる。
なお、(1)~(9)の各エンジンは、他のエンジンが行った解析の結果を適宜利用してもよい。映像分析装置100は、解析装置122の機能を備える解析部を備えてもよい。
解析記憶部124は、画像情報124a、解析情報124bなどの各種の情報を記憶するための記憶部である。
画像情報124aは、複数の画像の各々を示す情報である。図5は、画像情報124aの構成例を示す図である。画像情報124aは、例えば、画像ID、撮影装置ID、撮影時間及び画像を関連付ける。
画像IDは、映像を構成する画像の各々を識別するための情報(画像識別情報)である。撮影装置IDは、撮影装置121_1~121_Kの各々を識別するための情報(撮影識別情報)である。撮影時間は、画像が撮影された時間を示す情報である。撮影時間は、例えば、日付及び時刻を含む。
画像情報124aでは、画像IDと、当該画像IDを用いて識別される画像とが関連付けられる。また、画像情報124aでは、当該画像IDを用いて識別される画像を撮影した撮影装置121_1~121_Kを識別するための撮影装置IDと、当該画像IDが示す画像が撮影された時間を示す撮影時間と、が関連付けられる。
図6は、解析情報124bの構成例を示す図である。解析情報124bは、画像ID、撮影装置ID、撮影時間及び解析結果を関連付ける。
解析情報124bにて関連付けられる画像ID、撮影装置ID及び撮影時間は、画像情報124aにて関連付けられる画像ID、撮影装置ID及び撮影時間のそれぞれと同様である。
解析結果は、これに関連付けられた画像IDを用いて識別される画像を解析した結果を示す情報である。解析情報124bにおいて、解析結果には、当該解析結果を得るために解析の対象となった画像を識別するための画像IDが関連付けられる。
解析結果は、例えば、人ID及び位置を関連付ける。
人IDは、画像から検出された人を識別するための情報(人識別情報)である。解析情報124bにおいて、人IDは、これに関連付けられた画像IDを用いて識別される画像に含まれる人を識別するための情報である。人IDは、検出対象が同一人物であるか否かに関わらず、複数の画像の各々から検出された人に対応する画像の各々を識別するための情報である。
なお、人IDは、複数の画像の各々から検出された人に対応する画像が示す人物の各々を識別するための情報であってもよい。この場合の人IDは、検出対象が同一人物である場合に同一の人IDとなり、検出対象が異なる人物である場合に異なる人IDとなる。
位置は、人の位置を示す情報である。人の位置は、例えば画像内における位置を用いて表される。なお、位置は、実空間における位置を用いて表されてもよい。解析情報124bにおいて、位置は、これに関連付けられた人IDを用いて識別される人の位置を示す。
外観属性は、人の外観属性を示す。解析情報124bにおいて、外観属性は、これに関連付けられた人IDを用いて識別される人の外観属性を示す。
(映像分析装置100の機能)
図7は、本実施形態に係る映像分析装置100の機能的な構成の詳細例を示す図である。映像分析装置100は、記憶部108、受信部109、間隔取得部110、第1処理部111、第2処理部112、表示制御部113及び表示部114を備える。なお、映像分析装置100は、解析部123を備えてもよく、この場合、映像分析システム120は解析装置122を備えなくてもよい。
図7は、本実施形態に係る映像分析装置100の機能的な構成の詳細例を示す図である。映像分析装置100は、記憶部108、受信部109、間隔取得部110、第1処理部111、第2処理部112、表示制御部113及び表示部114を備える。なお、映像分析装置100は、解析部123を備えてもよく、この場合、映像分析システム120は解析装置122を備えなくてもよい。
記憶部108は、各種情報を記憶するための記憶部である。
受信部109は、画像情報124a、解析情報124bなどの各種の情報を解析装置122から通信ネットワークNを介して受信する。受信部109は、画像情報124a、解析情報124bを解析装置122から、リアルタイムで受信してもよく、映像分析装置100での処理に用いる場合など必要に応じて受信してもよい。
受信部109は、受信した情報を記憶部108に記憶させる。すなわち、本実施形態において記憶部108に記憶される情報は、画像情報124a及び解析情報124bを含む。
なお、受信部109は、画像情報124aを撮影装置121_1~121_Kから通信ネットワークNを介して受信し、受信した情報を記憶部108に記憶させてもよい。また、受信部109は、映像分析装置100での処理に用いる場合など必要に応じて、画像情報124a及び解析情報124bを解析装置122から通信ネットワークNを介して受信してもよい。この場合、画像情報124a及び解析情報124bは、記憶部108に記憶されなくてもよい。さらに、例えば受信部109が画像情報124a、解析情報124bのすべてを解析装置122から受信して記憶部108に記憶させる場合などには、解析装置122は画像情報124a及び解析情報124bを保持しなくてもよい。
間隔取得部110は、解析情報124bに基づいて、撮影装置121_1~121_Kが対象領域を撮影することで得られる映像に含まれる人の間隔を求める。詳細には、間隔取得部110は、解析情報124bに基づいて、映像を構成する各画像に含まれる人の組み合わせを特定する。間隔取得部110は、特定した組み合わせごとに、解析情報124bの位置を用いて人の間隔を求める。
第1処理部111は、間隔取得部110が求めた間隔が基準値以下である人の人数に関する第1情報を生成する。基準値は、例えば1メートル、2メートルなど、人の間隔に関して予め定められる値である。第1処理部111は、例えばユーザの入力に基づいて、基準値を予め保持する。
第1情報は、間隔が基準値以下である人の人数に関する情報である。第1情報は、例えば、対象領域内を撮影することで得られた各画像に含まれる人のうち、間隔が基準値以下である人の人数、割合などの少なくとも1つを含むとよい。この割合を求める場合、第1処理部111は、例えば、各画像に含まれる人の全人数を求め、間隔が基準値以下である人の人数を当該全人数で除することで割合を求める。
第2処理部112は、解析情報124bに基づいて、間隔取得部110が求めた間隔が基準値以下である人の外観属性について統計処理を行う。そして、第2処理部112は、統計処理を行った結果を示す第2情報を生成する。
第2情報は、求められた間隔が基準値以下である人の外観属性について統計処理を行った結果を示す情報である。
例えば、第2情報は、対象領域内を撮影することで得られた各画像において間隔が基準値以下である人について、外観属性別の人数、構成割合などの少なくとも1つを含んでもよい。この構成割合を求める場合、第2処理部112は、例えば、各画像に含まれる人の全人数を求め、間隔が基準値以下である人の外観属性別の人数を全人数で除することで割合を求める。
また例えば、第2情報は、対象領域内を撮影することで得られた各画像において間隔が基準値以下である人について、属する人数が最も多い外観属性、この外観属性に属する人の人数などの少なくとも1つを含んでもよい。さらに例えば、第2情報は、属する人数が多い順で並べた外観属性のリストを含んでもよい。
表示制御部113は、各種の情報を表示部114(例えば、ディスプレイ)に表示させる。
例えば、表示制御部113は、第1処理部111が生成した第1情報の時系列での推移を表示部114に表示させる。また例えば、表示制御部113は、第2処理部112が生成した第2情報を表示部114に表示させる。
さらに例えば、表示制御部113は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けてもよい。そして、表示制御部113は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、第1情報の時系列での推移、第2情報などを表示部114に表示させてもよい。
表示対象期間の指定を受け付けた場合、表示制御部113は、例えば、表示対象期間に撮影された映像に基づく第1情報の時系列での推移、第2情報などを表示部114に表示させるとよい。表示対象領域を受け付けた場合、表示制御部113は、例えば、表示対象期間に対応する映像に基づく第1情報の時系列での推移、第2情報などを表示部114に表示させるとよい。
表示対象期間、表示対象領域を指定する方法は種々である。表示対象期間は、日付、時間帯、日付及び時間帯の組み合わせなどで指定されてもよい。表示対象領域は、1つ以上の撮影装置IDを用いて指定されてもよい。この場合、表示制御部113は、指定された撮影装置IDを用いて識別される撮影装置121_1~121_Kの撮影領域を表示対象領域に設定するとよい。
また、表示制御部113は、撮影装置121_1~121_Kが対象領域を撮影することで得られる映像を表示部114に表示させてもよい。この場合、表示対象期間の始期及び終期の各々に対応する画像の指定を受け付けることで、表示制御部113は、表示対象期間の指定を受け付けてもよい。映像を構成する画像中の領域の指定を受け付けることで、表示制御部113は、表示対象領域の指定を受け付けてもよい。
(映像分析装置100の物理的構成)
図8は、本実施形態に係る映像分析装置100の物理的な構成例を示す図である。映像分析装置100は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050及びユーザインタフェース1060を有する。
図8は、本実施形態に係る映像分析装置100の物理的な構成例を示す図である。映像分析装置100は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050及びユーザインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050及びユーザインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は、映像分析装置100の機能を実現するためのプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030に読み込んで実行することで、そのプログラムモジュールに対応する機能が実現される。
ネットワークインタフェース1050は、映像分析装置100を通信ネットワークNに接続するためのインタフェースである。
ユーザインタフェース1060は、ユーザが情報を入力するためのインタフェースとしてのタッチパネル、キーボード、マウスなど、及び、ユーザに情報を提示するためのインタフェースとしての液晶パネル、有機EL(Electro-Luminescence)パネルなどである。
解析装置122は、物理的には、映像分析装置100と同様に構成されるとよい(図8参照)。
(映像分析システム120の動作)
ここから、映像分析システム120の動作について、図を参照して説明する。
ここから、映像分析システム120の動作について、図を参照して説明する。
(解析処理)
図9は、本実施形態に係る解析処理の一例を示すフローチャートである。解析処理は、撮影装置121_1~121_Kが撮影した画像を解析するための処理である。解析処理は、例えば、撮影装置121_1~121_K及び解析部123の稼働中に繰り返し実行される。
図9は、本実施形態に係る解析処理の一例を示すフローチャートである。解析処理は、撮影装置121_1~121_Kが撮影した画像を解析するための処理である。解析処理は、例えば、撮影装置121_1~121_K及び解析部123の稼働中に繰り返し実行される。
解析部123は、撮影装置121_1~121_Kの各々から、例えばリアルタイムで、画像情報124aを通信ネットワークNを介して取得する(ステップS201)。
解析部123は、ステップS201にて取得した画像情報124aを解析記憶部124に記憶させ、当該画像情報124aに含まれる画像を解析する(ステップS202)。これにより、解析部123は、解析情報124bを生成する。
解析部123は、ステップS202での解析を行うことで生成した解析情報124bを解析記憶部124に記憶させるとともに、通信ネットワークNを介して映像分析装置100へ送信する(ステップS203)。このとき、解析部123は、ステップS201にて取得した画像情報124aを通信ネットワークNを介して映像分析装置100へ送信してもよい。
受信部109は、ステップS203にて送信された解析情報124bを通信ネットワークNを介して受信する(ステップS204)。このとき、受信部109は、ステップS203にて送信された画像情報124aを通信ネットワークNを介して受信してもよい。
受信部109は、ステップS204にて受信した解析情報124bを記憶部108に記憶させて(ステップS205)、解析処理を終了する。このとき、受信部109は、ステップS204にて受信した画像情報124aを通信ネットワークNを介して受信してもよい。
(映像分析処理)
映像分析処理は、図3を参照して説明したように、画像を解析した結果を用いて、映像に含まれる人の間隔を解析し、その結果を活用するための処理である。映像分析処理は、例えばユーザがログインすると開始され、表示制御部113は、処理対象指定画面131を表示部114に表示させる。処理対象指定画面131は、ユーザの指定を受け付けるための画面である。
映像分析処理は、図3を参照して説明したように、画像を解析した結果を用いて、映像に含まれる人の間隔を解析し、その結果を活用するための処理である。映像分析処理は、例えばユーザがログインすると開始され、表示制御部113は、処理対象指定画面131を表示部114に表示させる。処理対象指定画面131は、ユーザの指定を受け付けるための画面である。
図10は、本実施形態に係る処理対象指定画面131の一例を示す図である。図10に示す処理対象指定画面131は、処理対象領域及び処理対象期間を指定するための画面である。
処理対象領域及び処理対象期間は、それぞれ、間隔取得部110が人の間隔を求める処理の対象となる領域及び時間である。処理対象領域は、例えば、1つ以上の撮影装置IDを用いて指定される。この場合、処理対象領域には、指定された撮影装置IDを用いて識別される撮影装置121_1~121_Kの撮影領域が設定される。
処理対象指定画面131は、処理対象領域及び処理対象期間のそれぞれに対応する入力欄を含む。例えばユーザは、各入力欄に入力することで処理対象領域及び処理対象期間を指定する。
図10は、「処理対象領域」に対応付けられた入力欄を用いて、「撮影装置1」、「撮影装置2」及び「撮影装置3」という3つの撮影装置IDが指定されている例を示す。また、図10は、「処理対象期間」に対応付けられた入力欄を用いて、「2022年4月1日10:00」を始期とし、「2022年4月1日11:00」を終期とする処理対象期間が指定されている例を示す。
例えば、ユーザが開始ボタン131aを押下すると、映像分析装置100は、図11に示す映像分析処理を開始する。
図11は、本実施形態に係る映像分析処理の詳細例を示すフローチャートである。
間隔取得部110は、例えば記憶部108に記憶された解析情報124bに基づいて、撮影装置121_1~121_Kが対象領域を撮影することで得られる映像に含まれる人の間隔を求める(ステップS101)。
詳細には、間隔取得部110は、画像に含まれる人について、2人ずつのすべての組み合わせを特定する。そして、間隔取得部110は、特定した組み合わせごとに、解析情報124bの位置を用いて人の間隔を求める。
図12は、人の間隔の例を示す図である。解析情報124bに人ID「P1」、「P2」及び「P3」の人が含まれるとする。この場合、間隔取得部110は、すべての組み合わせとして、人ID「P1」及び「P2」の組み合わせ、人ID「P1」及び「P3」の組み合わせ、人ID「P2」及び「P3」の組み合わせを特定する。
そして、間隔取得部110は、人ID「P1」及び「P2」の組み合わせについて、これらの人IDに関連付けられた位置に基づいて、間隔D1-2を求める。間隔取得部110は、人ID「P1」及び「P3」の組み合わせについて、これらの人IDに関連付けられた位置に基づいて、間隔D1-3を求める。間隔取得部110は、人ID「P2」及び「P3」の組み合わせについて、これらの人IDに関連付けられた位置に基づいて、間隔D2-3を求める。
図11を再び参照する。
第1処理部111は、ステップS101にて求められた間隔に基づいて、間隔が基準値以下である人の人数に関する第1情報を生成する(ステップS102)。
第1処理部111は、ステップS101にて求められた間隔に基づいて、間隔が基準値以下である人の人数に関する第1情報を生成する(ステップS102)。
第2処理部112は、解析情報124bに基づいて、間隔取得部110が求めた間隔が基準値以下である人の外観属性について統計処理を行い、当該統計処理の結果を示す第2情報を生成する(ステップS103)。
詳細には例えば、第2処理部112は、ステップS101にて求められた間隔が基準値以下である人の人IDと、当該人IDに関連付けられた外観情報を取得する。第2処理部112は、取得した人ID及び外観情報に基づいて、間隔が基準値以下である人の外観属性について統計処理を行う。
表示制御部113は、例えば、ステップS102で生成された第1情報とステップS103で生成された第2情報との少なくとも一方を表示部114に表示させる(ステップS104)。
詳細には例えば、表示制御部113は、第1情報の時系列での推移を表示させるための単位時間の指定を受け付ける。表示制御部113は、単位時間の指定を受け付けると、当該受け付けた単位時間に従った時間間隔で第1情報の時系列での推移を示す情報を表示部114に表示させる。
図13は、人数表示画面132の一例を示す図である。人数表示画面132は、第1情報を表示部114に表示させるための画面の一例である。図13に例示する人数表示画面132は、単位時間を10分として、画像に含まれる人の全人数と、間隔が基準値以下である人の人数を折れ線グラフで示す例である。なお、第1情報の時系列での推移は、折れ線グラフに限られず、棒グラフなどで示されてもよい。
図14は、割合表示画面133の一例を示す図である。割合表示画面133は、第1情報を表示部114に表示させるための画面の他の例である。図14に例示する割合表示画面133は、単位時間を10分として、間隔が基準値以下である人の割合を折れ線グラフで示す例である。なお、第1情報の時系列での推移は、折れ線グラフに限られず、棒グラフなどで示されてもよい。
また、図14に例示する割合表示画面133は、間隔が基準値以下である人の割合とともに、各時間帯の第2情報を含む。図14に例示する第2情報は、属する人数が最も多い外観属性である。図14において、例えば10:00~10:10の時間帯に関連付けられた第2情報は、属する人数が最も多い外観属性が「カジュアル」な服装であることを示す。
なお、表示制御部113は、例えばユーザの指定に基づいて、表示部114に表示させる画面の態様(例えば、人数表示画面132又は割合表示画面133)を決定するとよい。
(作用・効果)
以上、本実施形態によれば、映像分析装置100は、間隔取得部110及び表示制御部113を備える。間隔取得部110は、対象領域を撮影することで得られる映像に含まれる人の間隔を求める。表示制御部113は、求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示部114に表示させる。
以上、本実施形態によれば、映像分析装置100は、間隔取得部110及び表示制御部113を備える。間隔取得部110は、対象領域を撮影することで得られる映像に含まれる人の間隔を求める。表示制御部113は、求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示部114に表示させる。
これにより、ユーザは、映像に含まれる人について、間隔が基準値以下である人の人数に関する第1情報の時系列での推移を閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
本実施形態によれば、第1情報は、間隔が基準値以下である人の割合、間隔が基準値以下である人の人数の少なくとも1つを含む。
これにより、ユーザは、間隔が基準値以下である人の割合、間隔が基準値以下である人の人数の少なくとも1つの時系列での推移を閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
本実施形態によれば、表示制御部113は、さらに、求められた人の間隔が基準値以下である人の外観属性について統計処理を行った結果を示す第2情報を表示部114に表示させる。
これにより、ユーザは、映像に含まれる人について、間隔が基準値以下である人の外観属性について統計処理を行った結果を示す第2情報を閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
本実施形態によれば、表示制御部113は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、第1情報の時系列での推移を表示部114に表示させる。
これにより、ユーザは、所望の表示対象期間及び表示対象領域の少なくとも一方に対応する映像に含まれる人について、間隔が基準値以下である人の人数に関する第1情報の時系列での推移を閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
本実施形態によれば、表示制御部113は、時系列での推移を表示させるための単位時間の指定を受け付けると、単位時間に従った時間間隔で第1情報の時系列での推移を示す情報を表示部114に表示させる。
これにより、ユーザは、単位時間に従った時間間隔で第1情報の時系列での推移を閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
<実施形態2>
実施形態1では、映像に含まれる人の間隔に基づいて、第1情報の時系列での推移などを表示部114に表示させる例を説明した。映像に含まれる人の間隔を解析した結果を活用する方法は、これに限られない。実施形態2では、映像に含まれる人の間隔に基づいて、人の密集レベルを表示部114に表示させる例を説明する。本実施形態では、説明を簡明にするため、実施形態1と異なる点について主に説明し、実施形態1と重複する説明は適宜省略する。
実施形態1では、映像に含まれる人の間隔に基づいて、第1情報の時系列での推移などを表示部114に表示させる例を説明した。映像に含まれる人の間隔を解析した結果を活用する方法は、これに限られない。実施形態2では、映像に含まれる人の間隔に基づいて、人の密集レベルを表示部114に表示させる例を説明する。本実施形態では、説明を簡明にするため、実施形態1と異なる点について主に説明し、実施形態1と重複する説明は適宜省略する。
図15は、実施形態2に係る映像分析装置200の概要を示す図である。映像分析装置200は、実施形態1と同様の間隔取得部110、及び、実施形態1に係る表示制御部113に代わる表示制御部213を備える。
表示制御部213は、求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、対象領域を示す画像に重ねて表示部に表示させる。
この映像分析装置200によれば、映像に含まれる人の間隔を解析した結果を活用することが可能になる。
図16は、実施形態2に係る映像分析システム220の概要を示す図である。映像分析システム220は、実施形態1に係る映像分析装置100に代わる映像分析装置200と、実施形態1と同様の少なくとも1つの撮影装置121_1及び解析装置122と、を備える。
この映像分析システム220によれば、映像に含まれる人の間隔を解析した結果を活用することが可能になる。
図17は、実施形態2に係る映像分析処理の一例を示すフローチャートである。本実施形態に係る映像分析処理は、実施形態1と同様のステップS101と、実施形態1に係るステップS104に代わるステップS214とを含む。
ステップS214では、表示制御部213は、求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、対象領域を示す画像に重ねて表示部に表示させる。
この映像分析処理によれば、映像に含まれる人の間隔を解析した結果を活用することが可能になる。
以下、実施形態2に係る映像分析システム220の詳細例について説明する。
図18は、本実施形態に係る映像分析システム220の構成の詳細例を示す図である。
映像分析システム220は、詳細には、実施形態1に係る映像分析装置100に代わる映像分析装置200と、実施形態1と同様の撮影装置121_1~121_K及び解析装置122と、を備える。
(映像分析装置200の機能)
図19は、本実施形態に係る映像分析装置200の機能的な構成の詳細例を示す図である。映像分析装置200は、実施形態1と同様の記憶部108、受信部109、間隔取得部110及び表示部114を備える。映像分析装置200は、さらに、実施形態1に係る第1処理部111及び第2処理部112に代わる第3処理部215と、実施形態1に係る表示制御部113に代わる表示制御部213と、を備える。
図19は、本実施形態に係る映像分析装置200の機能的な構成の詳細例を示す図である。映像分析装置200は、実施形態1と同様の記憶部108、受信部109、間隔取得部110及び表示部114を備える。映像分析装置200は、さらに、実施形態1に係る第1処理部111及び第2処理部112に代わる第3処理部215と、実施形態1に係る表示制御部113に代わる表示制御部213と、を備える。
第3処理部215は、間隔取得部110が求めた人の間隔に基づいて得られる第3情報を生成する。第3情報は、人の密集レベルを少なくとも3段階で示す情報である。
詳細には例えば、第3処理部215は、予め定められた方法で対象領域を分割したセグメントごとに、間隔取得部110が求めた人の間隔が基準値以下である人の数を特定する。第3処理部215は、予め定められた基準と、セグメントごとの間隔が基準値以下である人の数とに基づいて、各セグメントの密集レベルを決定する。第3処理部215は、決定した密集レベルに基づいて、第3情報を生成する。第3処理部215は、さらに、解析情報124bに基づいて、第3情報を生成してもよい。第3処理部215は、生成した第3情報を記憶部108に記憶させてもよい。
図20は、本実施形態に係る第3情報の構成例を示す図である。第3情報は、解析情報124bと同様の画像情報と、この画像情報に基づいて得られる密集情報とを関連付ける情報である。
密集情報は、密集領域に関する情報である。密集情報は、密集領域を識別するための密集領域ID(密集領域識別情報)と、当該密集領域に居る人の人IDと、当該密集領域に居る人の外観属性と、当該密集領域に対応する密集レベルと、を関連付ける。
図19を再び参照する。
表示制御部213は、実施形態1と同様に、各種の情報を表示部114(例えば、ディスプレイ)に表示させる。本実施形態に係る表示制御部213は、第3処理部215が生成した第3情報を、対象領域を示す画像に重ねて表示部114に表示させる。
表示制御部213は、実施形態1と同様に、各種の情報を表示部114(例えば、ディスプレイ)に表示させる。本実施形態に係る表示制御部213は、第3処理部215が生成した第3情報を、対象領域を示す画像に重ねて表示部114に表示させる。
なお、表示制御部213は、実施形態1に係る表示制御部113と同様に、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、第3情報の時系列での推移を表示部114に表示させてもよい。また、表示制御部213は、時系列での推移を表示させるための単位時間の指定を受け付けると、単位時間に従った時間間隔で第3情報の時系列での推移を示す情報を表示部114に表示させてもよい。
映像分析装置200は、物理的には、実施形態1に係る映像分析装置100と同様に構成されるとよい(図8参照)。
(映像分析システム220の動作)
映像分析システム220は、実施形態1と同様の解析処理と、実施形態1とは異なる映像分析処理とを実行する。
映像分析システム220は、実施形態1と同様の解析処理と、実施形態1とは異なる映像分析処理とを実行する。
図21は、本実施形態に係る映像分析処理の詳細例を示すフローチャートである。映像分析処理は、例えば、実施形態1と同様の処理対象指定画面131(図11参照)にて処理対象領域及び処理対象期間の指定を受け付けて、ユーザが開始ボタン131aを押下することで開始されるとよい。
本実施形態に係る映像分析処理は、実施形態1と同様のステップS101と、実施形態1に係るステップS102~S103に代わるステップS215と、実施形態1に係るステップS104に代わるステップS214とを含む。
ステップS215では、第3処理部215は、間隔取得部110が求めた人の間隔と、解析情報124bとに基づいて、第3情報を生成する。
詳細には例えば、上述したように、第3処理部215は、予め定められた基準と、セグメントごとの間隔が基準値以下である人の数とに基づいて、各セグメントの密集レベルを決定して第3情報を生成する。
なお、第3情報を生成する方法はこれに限られない。
例えば、第3処理部215は、間隔取得部110が求めた人の間隔が基準値以下である人を特定してもよい。この場合、第3処理部215は、解析情報124bに基づいて、間隔が基準値以下である人の各々の位置を中心とし、かつ、基準値を半径とする円形領域である人領域を特定してもよい。
例えば、第3処理部215は、間隔取得部110が求めた人の間隔が基準値以下である人を特定してもよい。この場合、第3処理部215は、解析情報124bに基づいて、間隔が基準値以下である人の各々の位置を中心とし、かつ、基準値を半径とする円形領域である人領域を特定してもよい。
そして、第3処理部215は、少なくとも一部が互いに重なり合う人領域がある場合に、当該重なり合う人領域を統合してもよい。これにより、第3処理部215は、間隔取得部110が求めた間隔が基準値以下である人が居る領域(密集領域)を特定することができる。
第3処理部215は、密集領域における人の密度(単位は、例えば[人/平方メートル])。第3処理部215は、予め定められた基準と密度とに基づいて、密集領域に対応する密集レベルを決定してもよい。
ステップS214では、表示制御部213は、例えば、ステップS215で生成された第3情報を、当該第3情報を生成する基となった画像とともに表示部114に表示させる。
図22は、密集レベル表示画面134の一例を示す図である。密集レベル表示画面134は、密集レベルを画像とともに表示部114に表示させるための画面である。図22に例示する密集レベル表示画面134は、3段階の密集レベルのうち、レベル2,3に相当する密集領域が検出されて、レベル2,3の密集領域が画像とともに表示される画面の例である。
異なる密集レベルの密集領域は、異なる態様で表示されるとよい。図22の例では、レベル2の密集領域には点が施されており、レベル3の密集領域にはハッチングが施されている。なお、異なる密集レベルの密集領域を表示するための態様は、ハッチング、点などの模様に限られず、色、色の濃さなどを含んでもよい。
図22において、密集レベル表示画面134は、映像を構成する画像が時系列で表示されてもよい。そして、表示制御部213は、各画像とともに、表示中の画像に対応する第3情報を含む密集レベル表示画面134を表示部114に表示させてもよい。これにより、第3情報の時系列での推移を示す情報を表示部114に表示させることができる。
(作用・効果)
以上、本実施形態によれば、映像分析装置200は、間隔取得部110と、表示制御部213とを備える。表示制御部213は、求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、対象領域を示す画像に重ねて表示部114に表示させる。
以上、本実施形態によれば、映像分析装置200は、間隔取得部110と、表示制御部213とを備える。表示制御部213は、求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、対象領域を示す画像に重ねて表示部114に表示させる。
これにより、ユーザは、映像に含まれる人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、対象領域を示す画像とともに閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
本実施形態によれば、表示制御部213は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、第3情報の時系列での推移を表示部114に表示させる。
これにより、ユーザは、所望の表示対象期間及び表示対象領域の少なくとも一方に対応する映像に含まれる人の間隔に基づいて得られる第3情報を、対象領域を示す画像とともに閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
本実施形態によれば、表示制御部213は、時系列での推移を表示させるための単位時間の指定を受け付けると、単位時間に従った時間間隔で第3情報の時系列での推移を示す情報を表示部114に表示させる。
これにより、ユーザは、単位時間に従った時間間隔で第3情報を閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
(変形例1)
映像分析装置は、実施形態1に係る第1処理部111及び第2処理部112と、実施形態2に係る第3処理部215とを備えてもよい。図23は、本変形例に係る映像分析装置300の機能的な構成例を示す図である。映像分析装置300は、実施形態1に係る映像分析装置100の機能的な構成に加えて第3処理部215を備えるとともに、表示制御部113に代わる表示制御部313を備える。表示制御部313は、例えば、ユーザの指示に従って、第1情報、第2情報、第3情報の少なくとも1つを表示部114に表示させる。
映像分析装置は、実施形態1に係る第1処理部111及び第2処理部112と、実施形態2に係る第3処理部215とを備えてもよい。図23は、本変形例に係る映像分析装置300の機能的な構成例を示す図である。映像分析装置300は、実施形態1に係る映像分析装置100の機能的な構成に加えて第3処理部215を備えるとともに、表示制御部113に代わる表示制御部313を備える。表示制御部313は、例えば、ユーザの指示に従って、第1情報、第2情報、第3情報の少なくとも1つを表示部114に表示させる。
変形例1によれば、ユーザは、第1情報、第2情報、第3情報の少なくとも1つを閲覧することができる。従って、画像に含まれる人の間隔を解析した結果を活用することが可能になる。
以上、図面を参照して本発明の実施形態及び変形例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、実施形態で実行される工程の実行順序は、その記載の順番に制限されない。実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の実施形態及び変形例は、内容が相反しない範囲で組み合わせることができる。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた人の間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる表示制御手段とを備える
映像分析装置。
2. 前記第1情報は、前記間隔が基準値以下である人の割合、前記間隔が基準値以下である人の人数の少なくとも1つを含む
1.に記載の映像分析装置。
3. 前記表示制御手段は、さらに、前記求められた人の間隔が基準値以下である人の外観属性について統計処理を行った結果を示す第2情報を前記表示手段に表示させる
1.又は2.に記載の映像分析装置。
4. 前記表示制御手段は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、前記第1情報の時系列での推移を前記表示手段に表示させる
1.~3.のいずれか1つに記載の映像分析装置。
5. 前記表示制御手段は、前記時系列での推移を表示させるための単位時間の指定を受け付けると、前記単位時間に従った時間間隔で前記第1情報の時系列での推移を示す情報を前記表示手段に表示させる
1.から4.のいずれか1つに記載の映像分析装置。
6. 対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる表示制御手段とを備える
映像分析装置。
7. 前記表示制御手段は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、前記第3情報の時系列での推移を前記表示手段に表示させる
6.に記載の映像分析装置。
8. 前記表示制御手段は、時系列での推移を表示させるための単位時間の指定を受け付けると、前記単位時間に従った時間間隔で前記第3情報の時系列での推移を示す情報を前記表示手段に表示させる
6.又は7.に記載の映像分析装置。
9. 上記1.~8.のいずれか1つに記載の映像分析装置と、
前記対象領域を撮影することで前記映像を生成する少なくとも1つの撮影装置と、
前記映像を解析して、前記映像に含まれる人を検出するとともに当該人の位置を求める解析装置とを備える
映像分析システム。
10. コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる
映像分析方法。
11. コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させることを実行させるためのプログラム。
12. コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させることを実行させるためのプログラムが記録された記録媒体。
13. コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる
映像分析方法。
14. コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させることを実行させるためのプログラム。
15. コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させることを実行させるためのプログラムが記録された記録媒体。
前記求められた人の間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる表示制御手段とを備える
映像分析装置。
2. 前記第1情報は、前記間隔が基準値以下である人の割合、前記間隔が基準値以下である人の人数の少なくとも1つを含む
1.に記載の映像分析装置。
3. 前記表示制御手段は、さらに、前記求められた人の間隔が基準値以下である人の外観属性について統計処理を行った結果を示す第2情報を前記表示手段に表示させる
1.又は2.に記載の映像分析装置。
4. 前記表示制御手段は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、前記第1情報の時系列での推移を前記表示手段に表示させる
1.~3.のいずれか1つに記載の映像分析装置。
5. 前記表示制御手段は、前記時系列での推移を表示させるための単位時間の指定を受け付けると、前記単位時間に従った時間間隔で前記第1情報の時系列での推移を示す情報を前記表示手段に表示させる
1.から4.のいずれか1つに記載の映像分析装置。
6. 対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる表示制御手段とを備える
映像分析装置。
7. 前記表示制御手段は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、前記第3情報の時系列での推移を前記表示手段に表示させる
6.に記載の映像分析装置。
8. 前記表示制御手段は、時系列での推移を表示させるための単位時間の指定を受け付けると、前記単位時間に従った時間間隔で前記第3情報の時系列での推移を示す情報を前記表示手段に表示させる
6.又は7.に記載の映像分析装置。
9. 上記1.~8.のいずれか1つに記載の映像分析装置と、
前記対象領域を撮影することで前記映像を生成する少なくとも1つの撮影装置と、
前記映像を解析して、前記映像に含まれる人を検出するとともに当該人の位置を求める解析装置とを備える
映像分析システム。
10. コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる
映像分析方法。
11. コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させることを実行させるためのプログラム。
12. コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させることを実行させるためのプログラムが記録された記録媒体。
13. コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる
映像分析方法。
14. コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させることを実行させるためのプログラム。
15. コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた人の間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させることを実行させるためのプログラムが記録された記録媒体。
100,200,300 映像分析装置
108 記憶部
109 受信部
110 間隔取得部
111 第1処理部
112 第2処理部
113,213,313 表示制御部
114 表示部
120,220 映像分析システム
121_1~121_K 撮影装置
122 解析装置
123 解析部
124 解析記憶部
124a 画像情報
124b 解析情報
131 処理対象指定画面
132 人数表示画面
133 割合表示画面
134 密集レベル表示画面
215 第3処理部
108 記憶部
109 受信部
110 間隔取得部
111 第1処理部
112 第2処理部
113,213,313 表示制御部
114 表示部
120,220 映像分析システム
121_1~121_K 撮影装置
122 解析装置
123 解析部
124 解析記憶部
124a 画像情報
124b 解析情報
131 処理対象指定画面
132 人数表示画面
133 割合表示画面
134 密集レベル表示画面
215 第3処理部
Claims (10)
- 対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる表示制御手段とを備える
映像分析装置。 - 前記第1情報は、前記間隔が基準値以下である人の割合、前記間隔が基準値以下である人の人数の少なくとも1つを含む
請求項1に記載の映像分析装置。 - 前記表示制御手段は、さらに、前記求められた間隔が基準値以下である人の外観属性について統計処理を行った結果を示す第2情報を前記表示手段に表示させる
請求項1又は2に記載の映像分析装置。 - 前記表示制御手段は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定表示に基づいて、前記第1情報の時系列での推移を前記表示手段に表示させる
請求項1又は2に記載の映像分析装置。 - 対象領域を撮影することで得られる映像に含まれる人の間隔を求める間隔取得手段と、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる表示制御手段とを備える
映像分析装置。 - 前記表示制御手段は、表示対象期間及び表示対象領域の少なくとも一方の指定を受け付けると、当該受け付けた指定に基づいて、前記第3情報の時系列での推移を前記表示手段に表示させる
請求項5に記載の映像分析装置。 - コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させる
映像分析方法。 - コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔が基準値以下である人の人数に関する第1情報の時系列での推移を表示手段に表示させることを実行させるためのプログラム。 - コンピュータが、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させる
映像分析方法。 - コンピュータに、
対象領域を撮影することで得られる映像に含まれる人の間隔を求め、
前記求められた間隔に基づいて得られる当該人の密集レベルを少なくとも3段階で示す第3情報を、前記対象領域を示す画像に重ねて表示手段に表示させることを実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022108650A JP2024007265A (ja) | 2022-07-05 | 2022-07-05 | 映像分析装置、映像分析方法、及びプログラム |
US18/215,540 US20240013534A1 (en) | 2022-07-05 | 2023-06-28 | Video analysis apparatus, video analysis method, and non-transitory storage medium |
EP23183584.4A EP4303828A3 (en) | 2022-07-05 | 2023-07-05 | Video analysis apparatus, video analysis method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022108650A JP2024007265A (ja) | 2022-07-05 | 2022-07-05 | 映像分析装置、映像分析方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024007265A true JP2024007265A (ja) | 2024-01-18 |
Family
ID=87158175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022108650A Pending JP2024007265A (ja) | 2022-07-05 | 2022-07-05 | 映像分析装置、映像分析方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240013534A1 (ja) |
EP (1) | EP4303828A3 (ja) |
JP (1) | JP2024007265A (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60213136A (ja) | 1984-04-09 | 1985-10-25 | Ainsu:Kk | Avm方式を適用する基地局無線装置 |
WO2021084677A1 (ja) | 2019-10-31 | 2021-05-06 | 日本電気株式会社 | 画像処理装置、画像処理方法及び画像処理プログラムが格納された非一時的なコンピュータ可読媒体 |
US20220028535A1 (en) * | 2020-07-27 | 2022-01-27 | VergeSense, Inc. | Method for mitigating disease transmission in a facility |
-
2022
- 2022-07-05 JP JP2022108650A patent/JP2024007265A/ja active Pending
-
2023
- 2023-06-28 US US18/215,540 patent/US20240013534A1/en active Pending
- 2023-07-05 EP EP23183584.4A patent/EP4303828A3/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4303828A2 (en) | 2024-01-10 |
US20240013534A1 (en) | 2024-01-11 |
EP4303828A3 (en) | 2024-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3779772B1 (en) | Trajectory tracking method and apparatus, and computer device and storage medium | |
Jiang et al. | Seeing invisible poses: Estimating 3d body pose from egocentric video | |
US11138420B2 (en) | People stream analysis method, people stream analysis apparatus, and people stream analysis system | |
Balazia et al. | Human gait recognition from motion capture data in signature poses | |
US9183431B2 (en) | Apparatus and method for providing activity recognition based application service | |
JP6254836B2 (ja) | 画像検索装置、画像検索装置の制御方法およびプログラム | |
JP2017220085A (ja) | 画像検索装置、画像検索システム及び画像検索方法 | |
CN110569918B (zh) | 一种样本分类的方法以及相关装置 | |
CN109299658A (zh) | 脸部检测方法、脸部图像渲染方法、装置及存储介质 | |
CN110069983A (zh) | 基于显示媒质的活体识别方法、装置、终端及可读介质 | |
JP2019109843A (ja) | 分類装置、分類方法、属性認識装置、及び機械学習装置 | |
CN112915539A (zh) | 一种虚拟对象检测方法、装置以及可读存储介质 | |
CN113139415A (zh) | 视频关键帧提取方法、计算机设备和存储介质 | |
JP2020154808A (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム | |
WO2020217812A1 (ja) | 被写体の状態を認識する画像処理装置及びその方法 | |
CN104794446A (zh) | 基于合成描述子的人体动作识别方法及系统 | |
CN110532838A (zh) | 对象检测装置和方法及存储介质 | |
JP6649232B2 (ja) | 検索装置、表示装置および検索方法 | |
CN111274854B (zh) | 一种人体动作识别方法和视觉增强处理系统 | |
Xu et al. | Robust abnormal human-posture recognition using OpenPose and Multiview cross-information | |
CN114550201A (zh) | 服装规范化检测方法及装置 | |
Ntouskos et al. | Saliency prediction in the coherence theory of attention | |
JP2024007265A (ja) | 映像分析装置、映像分析方法、及びプログラム | |
Nguyen et al. | Vision-based global localization of points of gaze in sport climbing | |
Dong et al. | GIAD: Generative inpainting-based anomaly detection via self-supervised learning for human monitoring |