JP6800509B1 - 撮影システム、及び、撮影方法 - Google Patents
撮影システム、及び、撮影方法 Download PDFInfo
- Publication number
- JP6800509B1 JP6800509B1 JP2020166358A JP2020166358A JP6800509B1 JP 6800509 B1 JP6800509 B1 JP 6800509B1 JP 2020166358 A JP2020166358 A JP 2020166358A JP 2020166358 A JP2020166358 A JP 2020166358A JP 6800509 B1 JP6800509 B1 JP 6800509B1
- Authority
- JP
- Japan
- Prior art keywords
- area
- shooting
- unit
- attribute information
- photographing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 49
- 239000013598 vector Substances 0.000 claims abstract description 61
- 238000003384 imaging method Methods 0.000 claims abstract description 45
- 238000010801 machine learning Methods 0.000 claims abstract description 15
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims description 71
- 238000012545 processing Methods 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 18
- 230000000694 effects Effects 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- WABPQHHGFIMREM-UHFFFAOYSA-N lead(0) Chemical compound [Pb] WABPQHHGFIMREM-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、本発明の撮影システムの好ましい実施形態の一例である撮影システム1の構成を示すブロック図である。以下の説明では、撮影システム1について、その具体的な構成の一例を示して説明を行う。但し、本発明の撮影システムの技術的範囲は、以下の実施形態に限定されるものではなく、本発明の技術的範囲内において適宜変更して実施することができる。
撮影部10は、複数のカメラ11(11A、11B、11C)によって構成される。これらの各カメラは撮影した画像をデジタル情報として演算処理部に向けて出力できるものであれば、従来公知の種々のデジタル撮影方式のカメラによって構成することができる。撮影部10を構成する個々のカメラ11(11A、11B、11C)は、図2に示すように、管理対象領域100の一部である個々の部分撮影領域12(12A、12B、12C)を、それぞれのカメラが撮影することができる位置に設置される。尚、個々の部分撮影領域12(12A、12B、12C)の範囲を特定する情報である部分撮影領域情報は、演算処理部20を構成する部分撮影領域情報記憶部21に記憶される。
演算処理部20は、撮影部10から送信された画像データに対して、撮影システム1の動作に必要な演算処理を行う。演算処理部20は、例えば、パーソナルコンピュータ、或いは、上記動作に特化した専用の情報処理装置によって構成することができる。これらの何れの構成においても、演算処理部20は、CPU、メモリ、通信部等のハードウェアを備えている。そして、以上の構成からなる演算処理部20は、コンピュータプログラムを実行することにより、以下に説明する各種動作、及び、撮影方法を撮影システム1に具体的に実行させることができる。
部分撮影領域情報記憶部21は、個々のカメラ11(11A、11B、11C)の部分撮影領域12(12A、12B、12C)の範囲を特定可能な位置情報を記憶し、必要に応じて当該位置情報を出力する。部分撮影領域情報記憶部21は、そのような機能を発揮し得る従来工程の各種の情報記憶媒体や情報記憶デバイス等によって構成することできる。
人物認識部22は、撮影部10を構成するカメラ11(11A、11B、11C)によって撮影された撮影画像中の「人物」を被検知体として認識する。人物認識部22は、具体的には、従来公知の様々な画像認識手段の何れか、又は、それらの組合せによって構成することができる。画像認識手段として、例えば、背景差分によって監視領域内の「人物」を認識する手段を用いることができる。この背景差分は公知の技術であり、監視カメラで取得された画像データと、事前に取得しておいた監視領域の背景画像との差分をとることで、動きのある人物を認識する技術である。
属性情報抽出部23は、被検知体の属性情報、即ち、人物認識部22によって認識された撮影画像中の「人物」の属性情報を、当該撮影画像から抽出する。この属性情報は、身長、体重、服装の色、性別、年齢、及び、その他の画像からの抽出が可能な被検知体固有のあらゆる情報のうちから選択される複数の属性情報の任意の組合せであればよい。但し、属性情報抽出部23によって抽出する属性情報は、上記のうちでも、身長及び服装の色と、性別及び年齢を含む複数の属性情報であることが好ましい。属性情報としてこれらの組合せを得ることによって、同一性判定部における個々の被検知体の同一性の判定精度を高めることができる。
「ディープラーニングと画像認識、オペレーションズ・リサーチ」
(http://www.orsj.o.jp/archive2/or60−4/or60_4_198.pdf)
速度ベクトル抽出部24は、被検知体の速度ベクトル、即ち、人物認識部22によって認識された撮影画像中の「人物」の速度ベクトルを撮影画像から抽出する。ここで、本明細書における被検知体(人物)の「速度ベクトル」とは、2次元の撮影画像内における被検知体の動きを、当該部分撮影領域に対応する実際の3次元空間内での動きに換算した場合における被検体の実際の移動方向とその速さとを表すベクトル量である。例えば、速度ベクトル抽出部24に、2次元画像である撮影画像上のXY方向に対応する座標を、更に奥行情報も加えた3次元座標に変換する座標設定機能を備えさせ、このようにして設定された座標上における被検知体の所定単位時間毎の位置を検出することによって、撮影画像から被検知体の「速度ベクトル」を抽出することができる。
継続撮影領域予測部25は、被検知体、即ち、人物認識部22によって認識された撮影画像中の「人物」の移動先である継続撮影領域を予測する。本明細書において「継続撮影領域」とは、ある時点において一の部分撮影領域内に存在する被検知体が移動して、次に侵入する「他の部分撮影領域」が存在するときにおける移動先にあたる部分撮影領域のことを言う。つまり、「一の部分撮影領域」から「他の部分撮影領域」に被検知体が移動する場合に、当該「他の部分撮影領域」は、当該「一の部分撮影領域」の「継続撮影領域」である。
同一性判定部26は、一の部分撮影領域内で認識された人物と、他の部分撮影領域内で認識された人物との同一性を判定する。「人物の同一性を判定する」とは、具体的には、図3における部分撮影領域12B内で人物認識部22によって被検知体(人物)13が認識された場合において、所定時間後に、他の部分撮影領域12A内で認識された被検知体(人物)が、上述の被検知体(人物)13と同一の人物か否かを判定することである。
タグ情報付与部27は、同一性判定部26において同一性が肯定された撮影画像中の複数の人物に、当該人物同士が同一人物であることを示すタグ情報を付与する。
骨格抽出部28は、撮影画像から、複数の特徴点を連接する骨格線で構成される人物の骨格を抽出する。骨格抽出部28を備えることにより、被検知体の画像から抽出した骨格によって特定される特徴点の動きを解析して、当該被検知体の速度ベクトルを算出することができる。尚、本明細書において、監視対象人物の「骨格」とは、監視対象人物の複数の特徴点とこれらを連接してなる線状の図形である。
「Zhe Cao 他 Realtime Multi−Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017」
本発明の撮影方法は上記において詳細を説明した本発明の撮影システムを用いて行うことができるプロセスである。以下においては、本発明の撮影システムを用いた実施態様について、詳細を説明する。但し、本発明の撮影方法の技術的範囲は、当該実施態様に限定されるものではなく、本発明の技術的範囲内において適宜変更して実施することができる。
撮影ステップST1では、撮影部10を構成する個々のカメラ11(11A、11B、11C)が、管理対象領域の一部であって相互に重複しない個々の部分撮影領域である、それぞれの部分撮影領域12(12A、12B、12C)を撮影する。この撮影は、静止画の撮影を所定間隔で連続して行ってもよいし、撮影間隔を非常に短くすることにより、実質的には、動画撮影として行ってもよい。
人物識別ステップST2では、撮影ステップST1で取得した撮影画像中の人物を被検知体として特定する。より具体的には、人物認識部22が、撮影部10が撮影した撮影画像中の人物を被検知体として認識して特定したか否かについて判断を行う。人物を検知して特定した場合には、属性情報抽出ステップST3へ進み、人物が特定されていない場合には、撮影ステップST1へ戻り、撮影を継続する。人物の検知は、上述した背景差分による抽出方法の他、公知の各種の映像解析技術によることができる。
属性情報抽出ステップST3では、属性情報抽出部23が、被検知体の属性情報を撮影画像から抽出する。上述の通り、「ニューラルネットワークを有する機械学習型の画像認識装置」、所謂ディープラーニング型の画像認識装置を用いることにより、撮影画像中の「人物」の様々な属性情報を、自動的に、且つ、極めて高い認識正解率で抽出することができる。
骨格抽出ステップST4では、骨格抽出部28が、人物識別ステップST2で被検知体として特定された人物について、複数の特徴点とそれらの複数の特徴点を連接する骨格線とで構成される各人物の骨格を抽出する。
速度ベクトル抽出ステップST5では、速度ベクトル抽出部24が、人物識別ステップST2において抽出された人物の位置の経時的変化を示す速度ベクトルを、撮影画像から抽出する。速度ベクトルの抽出は下記の通り人物の骨格の特徴点の位置情報から得ることが好ましいが、必ずしもこれに限られない。被検知体の位置と動きを検出可能な公知の画像解析技術によるものであってもよく、その場合は、上記の骨格抽出ステップST4は必ずしも必須の処理ではない。
継続撮影領域予測ステップST6では、速度ベクトル抽出ステップST5において抽出された一の撮影領域内における被検知体の速度ベクトルと、部分撮影領域情報記憶部21に記憶されている撮影領域情報及び撮影領域の範囲に係る位置情報から、被検知体の継続撮影領域を予測する。予測処理の実施態様は上述した通りである。
同一性判定ステップST7では、同一性判定部26が、一の部分撮影領域内と他の部分撮影領域内に存在する人物との同一性を、判定する。この判定は、一の部分撮影領域内で認識された被検知体の継続撮影領域と属性情報との組合せと、継続撮影領域である他の部分撮影領域と当該部分撮影領域内で認識された被検知体の属性情報との組合せとを照合し、それらが同一であるか否かに基づいて、判定される。
タグ情報付与ステップST8では、タグ情報付与部27が、同一性判定ステップST7において同一性が肯定された複数の被検知体に、該人物が同一人物であることを示すタグ情報が付与される。
本発明は、上記において、その詳細を説明した「撮影システム」を含んでなる、「マーケティング活動支援システム」或いは、「マーケティング活動支援方法」としても実施することができる。この「マーケティング活動支援システム(マーケティング活動支援方法)」は、共通の属性を有する被検知体群の管理対象領域内における移動態様に係る統計量を算出する属性別移動データ算出手段を備える。
10 撮影部
11(11A、11B、11C) カメラ
12(12A、12B、12C) 部分撮影領域
20 演算処理部
21 部分撮影領域情報記憶部
22 人物認識部
23 属性情報抽出部
24 速度ベクトル抽出部
25 継続撮影領域予測部
26 同一性判定部
27 タグ情報付与部
28 骨格抽出部
100 管理対象領域
ST1 撮影ステップ
ST2 人物識別ステップ
ST3 属性情報抽出ステップ
ST4 骨格抽出ステップ
ST5 速度ベクトル抽出ステップ
ST6 継続撮影領域予測ステップ
ST7 同一性判定ステップ
ST8 タグ情報付与ステップ
Claims (11)
- 管理対象領域の一部であって相互に重複しない個々の部分撮影領域を撮影するカメラが前記管理対象領域内に複数配置されている撮影システムであって、
複数の前記カメラからなる撮影部と、
個々の前記部分撮影領域の範囲を示す部分撮影領域情報が記憶されている、部分撮影領域情報記憶部と、
前記撮影部が撮影した撮影画像中の人物を被検知体として認識する、人物認識部と、
前記被検知体の属性情報を前記撮影画像から抽出する、属性情報抽出部と、
前記被検知体の速度ベクトルを前記撮影画像から抽出する、速度ベクトル抽出部と、
前記被検知体の移動先である継続撮影領域を予測する継続撮影領域予測部と、
複数の被検知体同士の同一性を判定する、同一性判定部と、を備え、
前記継続撮影領域予測部は、ニューラルネットワークを有する機械学習型の推論装置を含んで構成されていて、前記速度ベクトルを前記推論装置によって解析することによって前記被検知体の所定時間後の予測到達位置を算出して、前記予測到達位置と前記部分撮影領域情報を照合することによって継続撮影領域を予測し、
前記同一性判定部は、一の部分撮影領域内で認識された前記被検知体の前記属性情報と該部分撮影領域の前記継続撮影領域内で認識された被検知体の前記属性情報とを照合することによって前記同一性を判定する、
撮影システム。 - 前記属性情報抽出部は、ニューラルネットワークを有する機械学習型の画像認識装置を含んで構成されていて、前記属性情報として、身長及び服装の色と、性別及び年齢を含む複数の属性情報を抽出する、
請求項1に記載の撮影システム。 - 前記同一性判定部において同一性が肯定された撮影画像中の被検知体に、該被検知体が同一人物であることを示すタグ情報を付与するタグ情報付与部を更に備える、
請求項1又は2に記載の撮影システム。 - 前記被検知体から、骨格を抽出する骨格抽出部を更に備え、前記速度ベクトル抽出部においては、前記骨格によって特定される特徴点の動きを解析することによって、前記速度ベクトルを抽出する、請求項1から3の何れかに記載の撮影システム。
- 請求項1から4の何れかに記載の撮影システムを含んでなる、マーケティング活動支援システムであって、共通する属性を有する被検知体群の前記管理対象領域内における移動態様に係る統計量を算出する、属性別移動データ算出手段を備える、マーケティング活動支援装置。
- 管理対象領域の一部であって相互に重複しない個々の部分撮影領域を撮影するカメラが前記管理対象領域内に複数配置されている撮影システムにおける撮影方法であって、
前記カメラによって構成される撮影部が、前記部分撮影領域を撮影する撮影ステップと、
人物認識部が、前記撮影部が撮影した撮影画像中の人物を被検知体として認識する、人物識別ステップと、
属性情報抽出部が、前記被検知体の属性情報を前記撮影画像から抽出する、属性情報抽出ステップと、
速度ベクトル抽出部が、前記被検知体の速度ベクトルを、前記撮影画像から抽出する、速度ベクトル抽出ステップと、
ニューラルネットワークを有する機械学習型の推論装置を含んで構成される継続撮影領域予測部が、前記被検知体の移動先である継続撮影領域を予測する継続撮影領域予測ステップと、
同一性判定部が、複数の被検知体同士の同一性を判定する同一性判定ステップと、を含んでなり、
前記継続撮影領域予測ステップにおいては、前記速度ベクトルを前記推論装置によって解析することによって前記被検知体の所定時間後の予測到達位置を算出して、前記予測到達位置と部分撮影領域情報を照合することによって継続撮影領域を予測し、
前記同一性判定ステップにおいては、一の部分撮影領域内で認識された前記被検知体の前記属性情報と該部分撮影領域の前記継続撮影領域内で認識された被検知体の前記属性情報とを照合することによって前記同一性を判定する、
撮影方法。 - 前記属性情報抽出部は、ニューラルネットワークを有する機械学習型の画像認識装置を含んで構成されていて、前記属性情報抽出ステップにおいては、前記属性情報として、身長及び服装の色と、性別及び年齢を含む複数の属性情報を抽出する、
請求項6に記載の撮影方法。 - タグ情報付与部が、前記同一性判定部において同一性が肯定された複数の被検知体に、該人物が同一人物であることを示すタグ情報を付与する、タグ情報付与ステップを更に含んでなる、請求項6又は7に記載の撮影方法。
- 前記被検知体から、骨格を抽出する骨格抽出部を更に備え、
前記速度ベクトル抽出ステップにおいては、前記骨格によって特定される特徴点の動きを解析することによって、前記速度ベクトルが抽出される、請求項6から8の何れかに記載の撮影方法。 - 属性別移動データ算出手段が、請求項6から9の何れかに記載の撮影方法において抽出された前記被検知体の前記属性情報に基づいて、共通の属性を有する被検知体群の前記管理対象領域内における移動態様に係る統計量を算出する、属性別移動データ算出ステップを行う、
マーケティング活動支援方法。 - 請求項6から9の何れかに記載の撮影方法において、
前記人物識別ステップ、前記属性情報抽出ステップ、前記速度ベクトル抽出ステップ、前記継続撮影領域予測ステップ、及び、前記同一性判定ステップを、前記人物認識部、前記属性情報抽出部、前記速度ベクトル抽出部、前記継続撮影領域予測部、及び、前記同一性判定部を含んで構成される演算処理部に実行させる、撮影システム用のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020166358A JP6800509B1 (ja) | 2020-09-30 | 2020-09-30 | 撮影システム、及び、撮影方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020166358A JP6800509B1 (ja) | 2020-09-30 | 2020-09-30 | 撮影システム、及び、撮影方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6800509B1 true JP6800509B1 (ja) | 2020-12-16 |
JP2022057885A JP2022057885A (ja) | 2022-04-11 |
Family
ID=73741034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020166358A Active JP6800509B1 (ja) | 2020-09-30 | 2020-09-30 | 撮影システム、及び、撮影方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6800509B1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6359647B1 (en) * | 1998-08-07 | 2002-03-19 | Philips Electronics North America Corporation | Automated camera handoff system for figure tracking in a multiple camera system |
JP4125634B2 (ja) * | 2003-05-26 | 2008-07-30 | Necソフト株式会社 | 顧客情報収集管理方法及びそのシステム |
JP6659095B2 (ja) * | 2015-06-30 | 2020-03-04 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2018207282A1 (ja) * | 2017-05-10 | 2018-11-15 | 富士通株式会社 | 対象物認識方法、装置、システム、プログラム |
JP6828708B2 (ja) * | 2018-03-29 | 2021-02-10 | 京セラドキュメントソリューションズ株式会社 | 制御装置、監視システム、及び監視カメラ制御方法 |
-
2020
- 2020-09-30 JP JP2020166358A patent/JP6800509B1/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2022057885A (ja) | 2022-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021036828A1 (zh) | 目标跟踪方法、装置、存储介质及电子设备 | |
Plastiras et al. | Efficient convnet-based object detection for unmanned aerial vehicles by selective tile processing | |
Xiao et al. | Vision-based method for tracking workers by integrating deep learning instance segmentation in off-site construction | |
Natarajan et al. | Multi-camera coordination and control in surveillance systems: A survey | |
JP7040463B2 (ja) | 解析サーバ、監視システム、監視方法及びプログラム | |
KR101891887B1 (ko) | 실시간 영상을 이용하여 위험 상황을 예측하기 위한 영상 처리 방법, 장치 및 그를 이용하여 위험 상황을 예측하는 방법, 서버 | |
Rout | A survey on object detection and tracking algorithms | |
KR101380628B1 (ko) | 복수의 카메라를 사용한 객체 추적 방법 및 장치 | |
JP2017191501A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2009015827A (ja) | 物体追跡方法、物体追跡システム、及び物体追跡プログラム | |
CN113632097B (zh) | 对象间的关联性的预测方法、装置、设备和存储介质 | |
AU2015203666A1 (en) | Methods and systems for controlling a camera to perform a task | |
CN111062263A (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
CN114241379B (zh) | 一种乘客异常行为识别方法、装置、设备及乘客监控系统 | |
CN113781519A (zh) | 目标跟踪方法和目标跟踪装置 | |
Arsic et al. | Applying multi layer homography for multi camera person tracking | |
US20220300774A1 (en) | Methods, apparatuses, devices and storage media for detecting correlated objects involved in image | |
Panahi et al. | Automated Progress Monitoring in Modular Construction Factories Using Computer Vision and Building Information Modeling | |
EP4287145A1 (en) | Statistical model-based false detection removal algorithm from images | |
JP6800509B1 (ja) | 撮影システム、及び、撮影方法 | |
Wang et al. | Automatic detection and tracking of precast walls from surveillance construction site videos | |
CN114943873A (zh) | 一种工地人员异常行为分类方法及装置 | |
Nazarkevych et al. | A YOLO-based Method for Object Contour Detection and Recognition in Video Sequences. | |
JP2022180238A (ja) | 監視システムおよび監視方法 | |
JP2021077177A (ja) | 動作認識装置、動作認識方法及び動作認識プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201005 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201005 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201008 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6800509 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |