JP6969668B2 - 映像監視装置、その制御方法、及び、プログラム - Google Patents
映像監視装置、その制御方法、及び、プログラム Download PDFInfo
- Publication number
- JP6969668B2 JP6969668B2 JP2020508701A JP2020508701A JP6969668B2 JP 6969668 B2 JP6969668 B2 JP 6969668B2 JP 2020508701 A JP2020508701 A JP 2020508701A JP 2020508701 A JP2020508701 A JP 2020508701A JP 6969668 B2 JP6969668 B2 JP 6969668B2
- Authority
- JP
- Japan
- Prior art keywords
- acquisition unit
- information
- retention
- degree
- image acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Alarm Systems (AREA)
Description
監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定部と、
前記位置・姿勢決定部で決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部と、
を備える。
監視対象エリア内を、映像取得部を用いて監視する映像監視装置の制御方法であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定ステップと、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示ステップと、
を含む。
監視対象エリア内を、映像取得部を用いて監視するコンピュータに、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まる監視対象のオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する手順と、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う手順と、
を実行させるためのプログラムが格納される。
解析・表示部111は、映像取得部110から出力される映像を解析するか、あるいは表示するか、の少なくとも一方を行う。
映像取得部110は、監視エリア内を撮影するデバイスである。映像取得部110としては、アナログカメラやIP(Internet Protocol)カメラ(ネットワークカメラ)など、映像監視で用いられている様々なカメラを用いることができる。また、カメラとしては、用途に応じて、可視光のカメラ以外に、赤外カメラなど、可視光以外の波長のカメラも用いることができる。なお、以下では、映像取得部は単にカメラとも呼ぶ。
あるいは、解析・表示部111は、映像取得部110により入力された映像を解析し、監視対象となるオブジェクトの検出や追跡処理を行い、その結果を映像と合わせて提示してもよい。例えば、解析・表示部111は、検出されたオブジェクトを枠で囲って提示してもよいし、オブジェクトを追跡した結果に従ってオブジェクトに対してID(identifier)を割り振り、そのIDの値を一緒に提示してもよい。あるいは、解析・表示部111は、オブジェクトを検出・追跡した結果に基づいてオブジェクトの異常行動を検知し、アラートを挙げてもよい。また、解析・表示部111は、特定のエリアにオブジェクトが侵入したときにアラートを挙げてもよい。これらの処理については、既存の様々な方法を用いることが可能である。
位置・姿勢決定部103には、環境物情報記憶部101に記憶された監視エリアの環境物情報と、環境物依存オブジェクト滞留特性情報記憶部102に記憶された環境物依存オブジェクト滞留特性情報と、が入力される。
図2Aは、レジカウンタに並ぶ人物を撮影する映像取得部110(以後単にカメラ110とも呼ぶ)のカメラ配置例を示しており、真上から見た図を示している。図2Aには、2通りのカメラ配置(A)、(B)が示されており、カメラ配置(A)は、レジカウンタ側からその前に並ぶ人物を正面から撮影するカメラ配置を示しており、カメラ配置(B)は、レジカウンタに並ぶ人物を斜め前方から撮影するカメラ配置を示している。図2Bは、カメラ配置(A)の場合に撮影されると想定される人物の映像の例であり、図2Cは、カメラ配置(B)の場合に撮影されると想定される人物の映像の例である。想定される映像処理が人物検出である場合、なるべく人物同士の重なりが少ないほうが検知されやすくなる。よって、想定される映像処理が人物検出である場合、図2Aのカメラ配置例であれば、位置・姿勢決定部103は、カメラ配置(B)の方を選択することになる。以下では、カメラ配置(A)、(B)のそれぞれの場合の空間的隠ぺい度合の算出方法について述べる。
次に、環境物の構造物がレジカウンタで、レジカウンタ前に複数の行列ができる場合について述べる。
図5Aは、複数の行列ができるレジカウンタに並ぶ人物を撮影するカメラ110のカメラ配置例を示しており、真上から見た図を示している。この図5Aでも、2通りのカメラ配置(A’)、(B’)が示されており、カメラ配置(A’)は、レジカウンタ側からその前に並ぶ1つの行列の人物を正面から撮影するカメラ配置を示しており、カメラ配置(B’)は、2つの行列の真ん中で2つの行列を共に斜めから見るカメラ配置を示している。図5Bは、カメラ配置(A’)の場合に撮影されると想定される人物の映像の例であり、図5Cは、カメラ配置(B’)の場合に撮影されると想定される人物の映像の例である。図5Aのカメラ配置例であれば、具体例1で述べたように、カメラ配置(B’)の方が、カメラ配置(A’)よりも、空間的隠ぺい度合が小さくなる。さらに、カメラ配置(A’)の場合には、もう1つの行列も見るには、その行列の正面にもう1台のカメラ110が必要になる。一方、カメラ配置(B’)の場合には、2つの行列を1つのカメラ110でカバーできるため、カメラ110の台数の観点からもより望ましいといえる。
図6Aは、複数の行列ができるレジカウンタに並ぶ人物を撮影するカメラ110のカメラ配置例を示しており、真上から見た図を示している。図5Aとの相違点は、図6Aは、左側は通常レジで右側はエクスプレスレジ(例えば、商品のチェックのみは店員が行い、精算は客が行うセルフレジなど)となっており、右側の行列の方が進む速度が速く、行列間で進む速度に差がある点である。この図6でも、2通りのカメラ配置(A’’)、(B’’)が示されており、カメラ配置(A’’)は、行列間の中心の線よりも通常レジ側に寄った位置にカメラ110が配置され、両方の行列を撮影するカメラ配置を示している。逆に、カメラ配置(B’’)は、行列間の中心の線よりもエクスプレスレジ側に寄った位置にカメラ110が配置され、両方の行列を撮影するカメラ配置を示している。図6Aのカメラ配置例の場合、空間的隠ぺい度合のみを考慮すると、カメラ配置(A’’)、(B’’)は、行列間の中心線からのカメラ110のずれが同じであれば、隠ぺい度合は同じになる。しかしながら、通常レジの方がエクスプレスレジよりも行列の進む速度が遅いため、隠ぺい状態が継続する時間が長くなる。よって、時間的隠ぺい度合まで考慮した総合的隠ぺい度合を算出すると、カメラ配置(B’’)の方が、カメラ配置(A’’)よりも、総合的隠ぺい度合が小さくなり、望ましいといえる。以下では、時間的隠ぺい度合の算出方法と、時間的隠ぺい度合に基づく総合的隠ぺい度合の算出方法について述べる。
この場合、位置・姿勢決定部103は、カメラ配置(A’’)のときの総合的隠ぺい度合を、数式(3)のように、2つの行列の平均をとって算出できる。
図8Aは、商品棚付近の人物を撮影するカメラ110のカメラ配置例を示しており、真上から見た図を示している。ここでは、構造物としての棚に加え、その構造物に配置される配置物である商品(この場合は本)も提示されている。一方、通路を挟んで棚の反対側は壁になっている。この図8Aでも、2通りのカメラ配置(C)、(D)が示されており、カメラ配置(C)は、本が配置される棚寄りから撮影するカメラ配置を示しており、カメラ配置(D)は、壁寄りから撮影するカメラ配置を示している。図8Bは、カメラ配置(C)の場合に撮影されると想定される人物の映像の例であり、図8Cは、カメラ配置(D)の場合に撮影されると想定される人物の映像の例である。図8B及び図8Cは、本を配置する棚の前に人物が2名並んで滞留した状況がどのように撮影されるかを示している。本の棚の前は買い物客が滞留しやすいことを考えると、このように滞留する状況が生じやすい。よって、図8Aのカメラ配置例であれば、カメラ配置(D)の方が、カメラ配置(C)よりも、空間的隠ぺい度合を小さくでき、望ましいといえる。以下では、カメラ配置(C)、(D)のそれぞれの場合の空間的隠ぺい度合の算出方法について述べる。
図9Aは、商品棚付近の人物を撮影するカメラ110のカメラ配置例を示しており、真上から見た図を示している。ここでは、構造物としての棚に加え、その構造物に配置される配置物である商品(この場合は本と日用雑貨)も提示されている。この図9Aでも、2通りのカメラ配置(C’)、(D’)が示されており、カメラ配置(C’)は、本が配置される棚寄りから撮影するカメラ配置を示しており、カメラ配置(D’)は、日用雑貨が配置される棚寄りから撮影するカメラ配置を示している。図9Bは、カメラ配置(C’)の場合に撮影されると想定される人物の映像の例であり、図9Cは、カメラ配置(D’)の場合に撮影されると想定される人物の映像の例である。図9B及び図9Cは、本を配置する棚と日用雑貨を配置する棚の前に人物が2名ずつ並んで滞留した状況がどのように撮影されるかを示している。図9B及び図9Cの映像だけからでは、空間的隠ぺい度合は、カメラ配置(C’)、(D’)で変わりはない。しかしながら、本の棚の方が長い時間人物が滞留する傾向にあり、隠ぺい状態が継続する時間が長くなる。よって、時間的隠ぺい度合まで考慮すると、カメラ配置(D)の方が望ましいといえる。以下では、カメラ配置(C’)、(D’)のそれぞれの場合の時間的隠ぺい度合とそれを用いた総合的隠ぺい度合の算出方法について述べる。
図10を参照すると、本開示の第2の実施の形態である映像監視装置200の構成例が示されている。映像監視装置200は、映像取得部210、解析・表示部111、環境物情報記憶部101、環境物依存オブジェクト滞留特性情報記憶部102、位置・姿勢決定部203、及び位置・姿勢制御部204を備えている。
映像取得部210は、外部からの制御で位置及び姿勢を変更可能な映像取得部である。映像取得部210は、位置・姿勢制御部204から出力される位置・姿勢制御情報に従って位置及び姿勢を変更し、撮影した映像を解析・表示部111へ出力する。
環境物情報記憶部101、環境物依存オブジェクト滞留特性情報記憶部102の動作は、図1の映像監視装置100と同様である。ただし、環境物情報は、時間ごとに設定されていてもよい。例えば、レジ前のカウンタや空港のカウンタが、時間帯によって開く数が予め決まっている場合には、その時間帯ごとに開くカウンタの情報を構造物情報に含めておき、位置・姿勢決定部203は、それを用いて時間帯ごとに映像取得部210の配置を求め、映像取得部配置情報を出力するようになっていてもよい。位置・姿勢決定部203で生成された映像取得部配置情報は、位置・姿勢制御部204へ入力される。
解析・表示部111の動作は、図1の映像監視装置100と同様である。
図11を参照すると、本開示の第3の実施の形態に係る映像監視装置300の構成例が示されている。映像監視装置300は、映像取得部210、解析・表示部111、環境物情報記憶部101、環境物依存オブジェクト滞留特性情報記憶部102、位置・姿勢決定部303、位置・姿勢制御部204、及びオブジェクト状態取得部305を備えている。
位置・姿勢決定部303は、環境物情報記憶部101に記憶された監視エリアの環境物情報と、環境物依存オブジェクト滞留特性情報記憶部102に記憶された環境物依存オブジェクト滞留特性情報と、オブジェクト状態取得部305から出力されるオブジェクト状態情報と、に基づいて、映像取得部配置情報を生成し、生成した映像取得部配置情報を位置・姿勢制御部204へ出力する。
それ以外の構成は、図10に示す映像監視装置200と同様である。
オブジェクト状態取得部305は、監視対象エリアのオブジェクトの状態を観測する手段であり、オブジェクトの数や動き、オブジェクトがなす構造(例えば、行列など)などのオブジェクトの状態を観測する。具体的には、オブジェクト状態取得部305は、監視対象エリアの固定位置に配置されたセンサであったり、映像を取得する撮像デバイスであったりする。センサは、オブジェクトを検知するセンサ(人物の場合は人感センサ)であったり、RFID(Radio Frequency IDentification)やWiFi(Wireless Fidelity)、BlueTooth(登録商標)などの信号を捕捉して、自センサの近くのオブジェクトの有無や数を推定するセンサであってもよい。あるいは、センサは、マイクなどの音響情報を収集するデバイスであり、収集した音響情報を分析してオブジェクトの状態を把握するようになっていてもよい。オブジェクト状態取得部305が映像を取得するデバイスの場合には、デバイスは、映像中のオブジェクトを解析して、オブジェクトの数や状態を把握するようになっていてもよい。あるいは、映像取得部210自体が、そのデバイスの役割を担っていてもよい。オブジェクトを分析し、オブジェクトの状態を把握する方式としては、従来の様々な方式を用いることが可能である。オブジェクト状態取得部305で取得されたオブジェクト状態情報は、位置・姿勢決定部303へ入力される。
位置・姿勢制御部204、映像取得部210、解析・表示部111の動作は、図10に示す映像監視装置200と同様である。
(付記1)
監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定部と、
前記位置・姿勢決定部で決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部と、
を備える映像監視装置。
(付記2)
前記映像取得部は、外部からの制御により位置及び姿勢を変更可能であり、
前記位置・姿勢決定部で決定された位置及び姿勢に基づいて、前記映像取得部を制御する制御情報を生成する位置・姿勢制御部をさらに備え、
前記映像取得部は、前記位置・姿勢制御部で生成された制御情報に基づいて位置及び姿勢を変更する、
付記1に記載の映像監視装置。
(付記3)
オブジェクトの状態を取得するオブジェクト状態取得部をさらに備え、
前記位置・姿勢決定部は、前記オブジェクト状態取得部で取得されたオブジェクトの状態も用いて、前記映像取得部の位置及び姿勢を決定する、
付記1に記載の映像監視装置。
(付記4)
前記滞留特性情報は、前記環境物に依存して定まり、滞留オブジェクトが並ぶ線である滞留線の位置及び向きの情報と、滞留オブジェクトの滞留継続時間の情報と、の少なくとも一方を含み、
前記位置・姿勢決定部は、前記滞留線と前記映像取得部との相対的な方位角及び距離と、前記映像取得部の俯角と、に基づいて、空間的な隠ぺいの度合を算出するか、あるいは、前記滞留継続時間に基づいて、時間的な隠ぺいの度合を算出することによって、前記隠ぺいの度合を算出する、
付記1から3のいずれか1項に記載の映像監視装置。
(付記5)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を表す情報であるときに、前記位置・姿勢決定部は、前記映像取得部を滞留線間に配置することに決定する、
付記1から3のいずれか1項に記載の映像監視装置。
(付記6)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を示す情報であり、行列間で進む速さに差があるときに、前記位置・姿勢決定部は、前記映像取得部を、行列間の中央よりも、進む速さが速い行列側に配置することに決定する、
付記1から3のいずれか1項に記載の映像監視装置。
(付記7)
前記環境物情報が、通路を表す情報と該通路の両側の構造物に配置される配置物を表す情報とを含み、前記滞留特性情報が、オブジェクトの滞留の度合に差があることを表すときに、前記位置・姿勢決定部は、通路の中心よりも滞留の度合が小さい方に寄った位置に前記映像取得部を配置することに決定する、
付記1から3のいずれか1項に記載の映像監視装置。
(付記8)
監視対象エリア内を、映像取得部を用いて監視する映像監視装置の制御方法であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定ステップと、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示ステップと、
を含む、映像監視装置の制御方法。
(付記9)
前記映像取得部は、外部からの制御により位置及び姿勢を変更可能であり、
前記位置・姿勢決定ステップで決定された位置及び姿勢に基づいて、前記映像取得部を制御する制御情報を生成する位置・姿勢制御ステップをさらに含み、
前記映像取得部は、前記位置・姿勢制御部で生成された制御情報に基づいて位置及び姿勢を変更する、
付記8に記載の映像監視装置の制御方法。
(付記10)
オブジェクトの状態を取得するオブジェクト状態取得ステップをさらに含み、
前記位置・姿勢決定ステップでは、前記オブジェクト状態取得ステップで取得されたオブジェクトの状態も用いて、前記映像取得部の位置及び姿勢を決定する、
付記8に記載の映像監視装置の制御方法。
(付記11)
前記滞留特性情報は、前記環境物に依存して定まり、滞留オブジェクトが並ぶ線である滞留線の位置及び向きの情報と、滞留オブジェクトの滞留継続時間の情報と、の少なくとも一方を含み、
前記位置・姿勢決定ステップでは、前記滞留線と前記映像取得部との相対的な方位角及び距離と、前記映像取得部の俯角と、に基づいて、空間的な隠ぺいの度合を算出するか、あるいは、前記滞留継続時間に基づいて、時間的な隠ぺいの度合を算出することによって、前記隠ぺいの度合を算出する、
付記8から10のいずれか1項に記載の映像監視装置の制御方法。
(付記12)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を表す情報であるときに、前記位置・姿勢決定ステップでは、前記映像取得部を滞留線間に配置することに決定する、
付記8から10のいずれか1項に記載の映像監視装置の制御方法。
(付記13)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を示す情報であり、行列間で進む速さに差があるときに、前記位置・姿勢決定ステップでは、前記映像取得部を、行列間の中央よりも、進む速さが速い行列側に配置することに決定する、
付記8から10のいずれか1項に記載の映像監視装置の制御方法。
(付記14)
前記環境物情報が、通路を表す情報と該通路の両側の構造物に配置される配置物を表す情報とを含み、前記滞留特性情報が、オブジェクトの滞留の度合に差があることを表すときに、前記位置・姿勢決定ステップでは、通路の中心よりも滞留の度合が小さい方に寄った位置に前記映像取得部を配置することに決定する、
付記8から10のいずれか1項に記載の映像監視装置の制御方法。
(付記15)
監視対象エリア内を、映像取得部を用いて監視するコンピュータに、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まる監視対象のオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する手順と、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う手順と、
を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
(付記16)
監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部を備え、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように決定された位置及び姿勢にて、前記映像取得部が配置される、
映像監視装置。
(付記17)
前記滞留特性情報は、前記環境物に依存して定まり、滞留オブジェクトが並ぶ線である滞留線の位置及び向きの情報と、滞留オブジェクトの滞留継続時間の情報と、の少なくとも一方を含み、
前記滞留線と前記映像取得部との相対的な方位角及び距離と、前記映像取得部の俯角と、に基づいて、空間的な隠ぺいの度合を算出するか、あるいは、前記滞留継続時間に基づいて、時間的な隠ぺいの度合を算出することによって、前記隠ぺいの度合が算出される、
付記16に記載の映像監視装置。
(付記18)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を表す情報であるときに、前記映像取得部は、滞留線間に配置される、
付記16に記載の映像監視装置。
(付記19)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を示す情報であり、行列間で進む速さに差があるときに、前記映像取得部は、行列間の中央よりも、進む速さが速い行列側に配置される、
付記16に記載の映像監視装置。
(付記20)
前記環境物情報が、通路を表す情報と該通路の両側の構造物に配置される配置物を表す情報とを含み、前記滞留特性情報が、オブジェクトの滞留の度合に差があることを表すときに、前記映像取得部は、通路の中心よりも滞留の度合が小さい方に寄った位置に配置される、
付記16に記載の映像監視装置。
102 環境物依存オブジェクト滞留特性情報記憶部
103 位置・姿勢決定部
110 映像取得部
111 解析・表示部
203 位置・姿勢決定部
204 位置・姿勢制御部
210 映像取得部
303 位置・姿勢決定部
305 オブジェクト状態取得部
Claims (10)
- 監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定部と、
前記位置・姿勢決定部で決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部と、
を備える映像監視装置。 - 前記映像取得部は、外部からの制御により位置及び姿勢を変更可能であり、
前記位置・姿勢決定部で決定された位置及び姿勢に基づいて、前記映像取得部を制御する制御情報を生成する位置・姿勢制御部をさらに備え、
前記映像取得部は、前記位置・姿勢制御部で生成された制御情報に基づいて位置及び姿勢を変更する、
請求項1に記載の映像監視装置。 - オブジェクトの状態を取得するオブジェクト状態取得部をさらに備え、
前記位置・姿勢決定部は、前記オブジェクト状態取得部で取得されたオブジェクトの状態も用いて、前記映像取得部の位置及び姿勢を決定する、
請求項1に記載の映像監視装置。 - 前記滞留特性情報は、前記環境物に依存して定まり、滞留オブジェクトが並ぶ線である滞留線の位置及び向きの情報と、滞留オブジェクトの滞留継続時間の情報と、の少なくとも一方を含み、
前記位置・姿勢決定部は、前記滞留線と前記映像取得部との相対的な方位角及び距離と、前記映像取得部の俯角と、に基づいて、空間的な隠ぺいの度合を算出するか、あるいは、前記滞留継続時間に基づいて、時間的な隠ぺいの度合を算出することによって、前記隠ぺいの度合を算出する、
請求項1から3のいずれか1項に記載の映像監視装置。 - 前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を表す情報であるときに、前記位置・姿勢決定部は、前記映像取得部を滞留線間に配置することに決定する、
請求項1から3のいずれか1項に記載の映像監視装置。 - 前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を示す情報であり、行列間で進む速さに差があるときに、前記位置・姿勢決定部は、前記映像取得部を、行列間の中央よりも、進む速さが速い行列側に配置することに決定する、
請求項1から3のいずれか1項に記載の映像監視装置。 - 前記環境物情報が、通路を表す情報と該通路の両側の構造物に配置される配置物を表す情報とを含み、前記滞留特性情報が、オブジェクトの滞留の度合に差があることを表すときに、前記位置・姿勢決定部は、通路の中心よりも滞留の度合が小さい方に寄った位置に前記映像取得部を配置することに決定する、
請求項1から3のいずれか1項に記載の映像監視装置。 - 監視対象エリア内を、映像取得部を用いて監視する映像監視装置の制御方法であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定ステップと、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示ステップと、
を含む、映像監視装置の制御方法。 - 監視対象エリア内を、映像取得部を用いて監視するコンピュータに、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まる監視対象のオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する手順と、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う手順と、
を実行させるためのプログラム。 - 監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部を備え、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように決定された位置及び姿勢にて、前記映像取得部が配置される、
映像監視装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/013230 WO2019186890A1 (ja) | 2018-03-29 | 2018-03-29 | 映像監視装置、その制御方法、及び、コンピュータ可読媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019186890A1 JPWO2019186890A1 (ja) | 2021-02-12 |
JP6969668B2 true JP6969668B2 (ja) | 2021-11-24 |
Family
ID=68058067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020508701A Active JP6969668B2 (ja) | 2018-03-29 | 2018-03-29 | 映像監視装置、その制御方法、及び、プログラム |
Country Status (5)
Country | Link |
---|---|
US (6) | US11381782B2 (ja) |
JP (1) | JP6969668B2 (ja) |
AR (1) | AR115316A1 (ja) |
TW (1) | TW201946029A (ja) |
WO (1) | WO2019186890A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949350B (zh) * | 2019-12-10 | 2024-04-09 | 晶睿通讯股份有限公司 | 队列分析方法及其图像监控设备 |
US11030757B1 (en) | 2019-12-10 | 2021-06-08 | Vivotek Inc. | Queue analyzing method and image monitoring apparatus |
TWI740297B (zh) * | 2019-12-10 | 2021-09-21 | 晶睿通訊股份有限公司 | 隊列分析方法及其影像監控設備 |
EP4158572A2 (en) * | 2020-06-01 | 2023-04-05 | Trax Technology Solutions Pte Ltd. | Systems and methods for retail environments |
TWI738538B (zh) * | 2020-10-14 | 2021-09-01 | 中華學校財團法人中華科技大學 | 無人載具之三維影像重組方法及系統 |
CN113223056B (zh) * | 2021-06-01 | 2021-12-10 | 北京理工大学 | 一种基于多Kinect V2的无标记运动追踪系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3257165B2 (ja) | 1993-08-06 | 2002-02-18 | 株式会社日立製作所 | 移動物体監視装置 |
JP2001142138A (ja) * | 1999-11-12 | 2001-05-25 | Sanai Kogyo:Kk | 監視カメラ装置および監視カメラシステム |
JP2006197226A (ja) | 2005-01-13 | 2006-07-27 | Kanshi Kakumei:Kk | 監視カメラシステム |
US8306265B2 (en) * | 2009-01-12 | 2012-11-06 | Eastman Kodak Company | Detection of animate or inanimate objects |
JP5269002B2 (ja) | 2010-06-28 | 2013-08-21 | 株式会社日立製作所 | カメラ配置決定支援装置 |
JP2013106175A (ja) * | 2011-11-14 | 2013-05-30 | Canon Inc | カメラシステム |
US9367752B2 (en) | 2012-06-28 | 2016-06-14 | Nec Corporation | Camera position posture evaluating device, camera position posture evaluating method, and camera position posture evaluating program |
US9955124B2 (en) * | 2013-06-21 | 2018-04-24 | Hitachi, Ltd. | Sensor placement determination device and sensor placement determination method |
EP3092603B1 (en) * | 2014-01-07 | 2022-05-11 | ML Netherlands C.V. | Dynamic updating of composite images |
-
2018
- 2018-03-29 WO PCT/JP2018/013230 patent/WO2019186890A1/ja active Application Filing
- 2018-03-29 JP JP2020508701A patent/JP6969668B2/ja active Active
- 2018-03-29 US US16/981,898 patent/US11381782B2/en active Active
-
2019
- 2019-03-14 TW TW108108557A patent/TW201946029A/zh unknown
- 2019-03-29 AR ARP190100832A patent/AR115316A1/es active IP Right Grant
-
2022
- 2022-05-11 US US17/741,607 patent/US11924585B2/en active Active
-
2023
- 2023-09-06 US US18/242,768 patent/US20230421730A1/en active Pending
- 2023-09-06 US US18/242,695 patent/US20230412776A1/en active Pending
- 2023-09-06 US US18/242,683 patent/US20230412775A1/en active Pending
- 2023-09-06 US US18/242,667 patent/US20230412774A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US11924585B2 (en) | 2024-03-05 |
US20230412776A1 (en) | 2023-12-21 |
TW201946029A (zh) | 2019-12-01 |
WO2019186890A1 (ja) | 2019-10-03 |
JPWO2019186890A1 (ja) | 2021-02-12 |
US11381782B2 (en) | 2022-07-05 |
US20230412775A1 (en) | 2023-12-21 |
US20230421730A1 (en) | 2023-12-28 |
US20210127091A1 (en) | 2021-04-29 |
US20230412774A1 (en) | 2023-12-21 |
AR115316A1 (es) | 2020-12-23 |
US20220272304A1 (en) | 2022-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6969668B2 (ja) | 映像監視装置、その制御方法、及び、プログラム | |
US20210400200A1 (en) | Video surveillance system and video surveillance method | |
JP4876687B2 (ja) | 注目度計測装置及び注目度計測システム | |
US7796154B2 (en) | Automatic multiscale image acquisition from a steerable camera | |
JP6019414B2 (ja) | モニタリング装置、モニタリングシステムおよびモニタリング方法 | |
TWI778030B (zh) | 店鋪裝置、店鋪管理方法及程式 | |
US9805265B2 (en) | Surveillance camera control device and video surveillance system | |
CN108051777B (zh) | 目标的追踪方法、装置及电子设备 | |
WO2016013298A1 (ja) | 画像処理装置、監視システム、画像処理方法、及びプログラム | |
JP6988996B2 (ja) | カメラ配置適性度評価装置、その制御方法、最適カメラ配置算出装置、及び、プログラム | |
JP2018148422A (ja) | 情報処理システム、情報処理装置、情報処理方法ならびに情報処理方法をコンピュータに実行させるプログラム | |
WO2014093209A1 (en) | Security video system using customer regions for monitoring point of sale areas | |
US11448508B2 (en) | Systems and methods for autonomous generation of maps | |
WO2022160592A1 (zh) | 一种信息处理方法、装置、电子设备及存储介质 | |
US10565786B1 (en) | Sensor placement interface | |
JP3489491B2 (ja) | 人物行動解析装置及び人物行動解析プログラムを記録した記録媒体 | |
JP2023041931A (ja) | 評価装置、評価方法、及びプログラム | |
CN111429194B (zh) | 用户轨迹确定系统、方法、装置及服务器 | |
JP6032283B2 (ja) | 監視カメラ管理装置、監視カメラ管理方法およびプログラム | |
JP2020022177A (ja) | 映像監視システム及び映像監視方法 | |
JP2017028688A (ja) | 画像管理装置、画像管理方法及びプログラム | |
Chen et al. | Pedestrian behaviour analysis using the microsoft kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200714 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6969668 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |