JP6969668B2 - 映像監視装置、その制御方法、及び、プログラム - Google Patents

映像監視装置、その制御方法、及び、プログラム Download PDF

Info

Publication number
JP6969668B2
JP6969668B2 JP2020508701A JP2020508701A JP6969668B2 JP 6969668 B2 JP6969668 B2 JP 6969668B2 JP 2020508701 A JP2020508701 A JP 2020508701A JP 2020508701 A JP2020508701 A JP 2020508701A JP 6969668 B2 JP6969668 B2 JP 6969668B2
Authority
JP
Japan
Prior art keywords
acquisition unit
information
retention
degree
image acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020508701A
Other languages
English (en)
Other versions
JPWO2019186890A1 (ja
Inventor
亮磨 大網
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019186890A1 publication Critical patent/JPWO2019186890A1/ja
Application granted granted Critical
Publication of JP6969668B2 publication Critical patent/JP6969668B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Alarm Systems (AREA)

Description

本開示は、映像取得部を用いて映像の監視を行う映像監視装置に関する。
従来、カメラで撮影された映像を監視する様々な映像監視装置が提案されている。例えば、特許文献1には、複数のカメラを監視対象エリアに配置し、カメラでオブジェクトを検出・追跡する技術が記載されている。特許文献1に記載の技術は、追跡した結果に基づいて、オブジェクトの行動状態を監視画面の監視領域上に提示する。
一方、特許文献2には、監視対象エリア内にカメラを配置したときに、そのカメラ配置が映像処理に適しているかどうかを評価する技術が記載されている。特許文献2に記載の技術では、障害物による隠れ、解像度、カメラから見たときの注視点の角度に基づいて、カメラ配置(カメラの向きや位置)が、特定の映像処理に適しているかどうかを評価し、その評価結果を表示する。特許文献2に開示された技術を用いて監視装置を設計すれば、人物検出などの映像処理に適した監視装置を構築することができる。
特許第3257165号公報 国際公開第2014/002398号
しかしながら、特許文献1には、映像に映るオブジェクトを監視する上で適したカメラ配置については記載されていない。
また、特許文献2に記載の技術では、監視対象エリアの構造や監視対象エリア内に配置されている固定的な構造物に関しては考慮されている。しかし、特許文献2に記載の技術では、監視対象となるオブジェクトがどこに滞留しやすいか、オブジェクト同士でどのような隠ぺいがどこでどの程度発生しやすいかといった情報は考慮されておらず、オブジェクト同士が重なって、映像処理に適さなくなる可能性については考慮されていない。このため、特許文献2に記載の技術では、監視対象エリア内に複数のオブジェクトが存在し、お互いに重なりあう状況下では、必ずしも映像監視に適しているカメラ配置にならない可能性がある。
本開示の目的は、上述した課題のいずれかを解決し、監視エリア内でオブジェクト同士が重なりあう状況下であっても、より適切に映像監視が可能な映像監視装置を提供することにある。
一態様による映像監視装置は、
監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定部と、
前記位置・姿勢決定部で決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部と、
を備える。
一態様による映像監視装置の制御方法は、
監視対象エリア内を、映像取得部を用いて監視する映像監視装置の制御方法であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定ステップと、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示ステップと、
を含む。
一態様による非一時的なコンピュータ可読媒体は、
監視対象エリア内を、映像取得部を用いて監視するコンピュータに、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まる監視対象のオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する手順と、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う手順と、
を実行させるためのプログラムが格納される。
上述の態様によれば、監視エリア内でオブジェクト同士が重なりあう状況下であっても、より適切に映像監視が可能な映像監視装置を提供できる。
本開示の第1の実施形態に係る映像監視装置100の構成例を示すブロック図である。 レジカウンタに並ぶ人物を撮影するカメラのカメラ配置例を示す図である。 図2Aのカメラ配置(A)で撮影した際に想定される映像の例を示す図である。 図2Aのカメラ配置(B)で撮影した際に想定される映像の例を示す図である。 図2Aのカメラ配置(A)を上から見た図である。 図2Aのカメラ配置(B)を上から見た図である。 図2Aのカメラ配置(A)、(B)を横から見た図である。 複数の行列ができるレジカウンタに並ぶ人物を撮影するカメラのカメラ配置例を示す図である。 図5Aのカメラ配置(A’)で撮影した際に想定される映像の例を示す図である。 図5Aのカメラ配置(B’)で撮影した際に想定される映像の例を示す図である。 複数の行列ができるレジカウンタに並ぶ人物を撮影するカメラのカメラ配置例を示す図である。 図6Aのカメラ配置(A”)で撮影した際に想定される映像の例を示す図である。 図6Aのカメラ配置(B”)で撮影した際に想定される映像の例を示す図である。 隠ぺい継続時間と時間的隠ぺい度合との関係の例を示すグラフである。 片側が壁でもう片側に棚が配置された通路で、通路にいる人物を撮影するカメラのカメラ配置例を示す図である。 図8Aのカメラ配置(C)で撮影した際に想定される映像の例を示す図である。 図8Aのカメラ配置(D)で撮影した際に想定される映像の例を示す図である。 両側に棚が配置された通路で、通路にいる人物を撮影するカメラのカメラ配置例を示す図である。 図9Aのカメラ配置(C’)で撮影した際に想定される映像の例を示す図である。 図9Aのカメラ配置(D’)で撮影した際に想定される映像の例を示す図である。 本開示の第2の実施形態に係る映像監視装置200の構成例を示すブロック図である。 本開示の第3の実施形態に係る映像監視装置300の構成例を示すブロック図である。
以下、図面を参照して本開示の実施の形態について説明する。なお、以下の記載及び図面は、説明の明確化のため、適宜、省略及び簡略化がなされている。また、以下の各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
図1を参照すると、本開示の第1の実施の形態に係る映像監視装置100の構成例が示されている。映像監視装置100は、映像取得部110、解析・表示部111、環境物情報記憶部101、環境物依存オブジェクト滞留特性情報記憶部102、及び位置・姿勢決定部103を備えている。
映像取得部110は、監視対象エリアの映像を撮影し、撮影した映像を解析・表示部111へ出力する。
解析・表示部111は、映像取得部110から出力される映像を解析するか、あるいは表示するか、の少なくとも一方を行う。
ここで、映像取得部110は、監視エリア内を撮影できるように、監視エリア内、あるいはその周辺に配置される。映像取得部110の位置と姿勢は、位置・姿勢決定部103によって決定される映像取得部配置情報に基づいて定められている。
位置・姿勢決定部103は、環境物情報記憶部101に記憶された監視エリアの環境物情報と、環境物依存オブジェクト滞留特性情報記憶部102に記憶された環境物依存オブジェクト滞留特性情報と、に基づいて、上記の映像取得部配置情報を決定する。
次に、図1に示した映像監視装置100の動作について説明する。
映像取得部110は、監視エリア内を撮影するデバイスである。映像取得部110としては、アナログカメラやIP(Internet Protocol)カメラ(ネットワークカメラ)など、映像監視で用いられている様々なカメラを用いることができる。また、カメラとしては、用途に応じて、可視光のカメラ以外に、赤外カメラなど、可視光以外の波長のカメラも用いることができる。なお、以下では、映像取得部は単にカメラとも呼ぶ。
ここで、映像取得部110の配置(位置及び姿勢)は、後述する位置・姿勢決定部103で決定される映像取得部配置情報に基づいて定まる。映像取得部配置情報とは、ある監視対象エリア内に配置される映像取得部110の位置及び姿勢に関する情報であり、監視対象エリア内での映像取得部110の位置や設置高さ、映像取得部110の向き(映像取得部110の姿勢)、ズームの程度(画角の広さ)などの情報を含む。映像取得部配置情報は、後述する環境物情報と対応付けられて記述される。例えば、環境物情報が監視対象エリアの図面情報として与えられている場合には、映像取得部配置情報は、その図面に対する座標で表されていてもよい。あるいは、映像取得部配置情報は、実空間上のある点を原点として定義される実世界座標系で表されていてもよい。また、映像取得部配置情報のうち映像取得部110の向きやズーム率などの情報については、これを特定するカメラパラメータによって記述されていればよい。なお、映像取得部配置情報に基づく映像取得部110の配置、調整は、自動で行ってもよいし、手動で行ってもよい。映像取得部110によって撮影された映像は、解析・表示部111へ出力される。
解析・表示部111は、映像取得部110により入力された映像を監視員に提示する。これにより、監視員が監視対象エリアにおける監視対象オブジェクトの状況を把握できるようになる。
あるいは、解析・表示部111は、映像取得部110により入力された映像を解析し、監視対象となるオブジェクトの検出や追跡処理を行い、その結果を映像と合わせて提示してもよい。例えば、解析・表示部111は、検出されたオブジェクトを枠で囲って提示してもよいし、オブジェクトを追跡した結果に従ってオブジェクトに対してID(identifier)を割り振り、そのIDの値を一緒に提示してもよい。あるいは、解析・表示部111は、オブジェクトを検出・追跡した結果に基づいてオブジェクトの異常行動を検知し、アラートを挙げてもよい。また、解析・表示部111は、特定のエリアにオブジェクトが侵入したときにアラートを挙げてもよい。これらの処理については、既存の様々な方法を用いることが可能である。
なお、解析・表示部111は、映像自体は表示せず、映像を解析した結果のみを提示してもよい。例えば、解析・表示部111は、追跡した結果に基づいて、オブジェクトの位置や移動軌跡を地図上に表示してもよい。そして、監視員が、特定の映像取得部110で撮影した映像を確認したいときに、表示処理コマンドを発行することで、解析・表示部111が、映像を画面に提示してもよい。
次に、位置・姿勢決定部103の動作について説明する。
位置・姿勢決定部103には、環境物情報記憶部101に記憶された監視エリアの環境物情報と、環境物依存オブジェクト滞留特性情報記憶部102に記憶された環境物依存オブジェクト滞留特性情報と、が入力される。
ここで、環境物情報とは、監視対象エリア内の図面で記述される構造物の情報や、その構造物に配置される配置物の情報である。具体的には、構造物とは、監視対象エリア内に設置される、柱、壁、什器、天井から釣り下がる照明、広告、ディスプレイ、案内板などである。構造物情報とは、監視対象エリア内に設置される構造物の3次元的な位置や大きさ(両方とも高さ情報も含む)、形状、向きなどの情報である。また、配置物とは、監視対象エリア内に設置される構造物に配置される物であり、店舗内が監視対象エリアの場合は、店舗内に構造物として設置される什器に配置される商品などである。配置物情報とは、構造物に配置される配置物の種類に関する情報である。例えば、店舗内が監視対象エリアの場合には、その店舗内に設置される什器などの構造物の図面情報と、什器に配置される商品の種類の情報と、が環境物情報として入力される。ここで、構造物情報において、構造物の位置や高さの情報は、図面上の座標で表されていてもよいし、実世界座標系で表されていてもよい。
一方、環境物依存オブジェクト滞留特性情報とは、環境物に依存して定まる監視対象のオブジェクトの滞留の特性に関する情報である。例えば、監視対象エリアが店舗でありオブジェクトが人物である場合、店舗内のレジ前には人物の行列による滞留ができやすい。また、店舗内の書籍コーナーの前では、立ち読みする人物で滞留が生じやすい。このような状況は、レジといった構造物や、書籍といった配置物に依存して生じているといえる。この結果、これらの場所では、オブジェクトの滞留により、オブジェクト同士が重なり、隠ぺいが生じやすいという滞留特性がある。環境物依存オブジェクト滞留特性情報は、このような滞留特性を表す情報である。例えば、環境物依存オブジェクト滞留特性情報は、滞留特性を記述する空間的なパラメータ(滞留位置や滞留間隔、あるいは、滞留する複数のオブジェクトが並ぶ線(以後滞留線と呼ぶ)の位置や向きの情報)であったり、滞留の頻度であったり、滞留継続時間であったりする。あるいは、これら滞留継続時間等の値に基づいて算出され、滞留の程度を表す値を滞留度合として定義される情報を、環境物依存オブジェクト滞留特性情報としてもよい。あるいは、滞留特性に基づいて算出された隠ぺい度合情報や、隠ぺい度合などの指標を、環境物依存オブジェクト滞留特性情報としてもよい。環境物依存オブジェクト滞留特性情報の詳細については、具体例のところで述べる。
位置・姿勢決定部103は、環境物情報と環境物依存オブジェクト滞留特性情報とから、映像取得部110の配置(位置及び姿勢)を決定する。この際、位置・姿勢決定部103は、オブジェクト同士の滞留によって生じる隠ぺいの度合を考慮する。
ここで、隠ぺい度合とは、オブジェクト同士の重なりによって生じる隠ぺいの度合を表し、空間的隠ぺい度合と時間的隠ぺい度合(あるいはその両方を考慮した隠ぺい度合)とに分けられる。空間的隠ぺい度合とは、オブジェクトが空間的にどの程度隠されているかを表す指標であり、映像中に映るオブジェクト全体の面積に対する隠される部分の面積の比率(以下では空間的隠ぺい比率とも呼ぶ)によって表すことができる。一方、時間的隠ぺい度合とは、オブジェクトが時間的にどの程度隠されているかを表す指標であり、隠ぺいの継続時間によって定義することができる。総合的な隠ぺい度合としては、空間的隠ぺい度合と時間的隠ぺい度合を統合することで表すことができ、例えば、両者を掛け合わせた値を、総合的隠ぺい度合としてもよい。ただし、統合方法としては、これに限らず、既存のどのような統合方式で統合してもよい。空間的隠ぺい度合と時間的隠ぺい度合の具体例については後述する。
位置・姿勢決定部103は、隠ぺい度合が小さくなるように映像取得部110の配置を決定する。なお、以後、配置といった場合には、映像取得部の位置だけでなく、その姿勢情報も含むものとする。例えば、位置・姿勢決定部103は、映像取得部110の複数の配置を生成し、その中で隠ぺいの度合が最も小さくなる配置を決定する。あるいは、位置・姿勢決定部103は、隠ぺいの度合が満たすべき値を閾値として設け、隠ぺいの度合が閾値以下となる配置を求める。そして、位置・姿勢決定部103は、求まった複数の配置の中で、他の指標も含めて最も望ましい配置を決定してもよい。他の指標には、例えば、映像上での監視対象のオブジェクトの解像度(大きさ)や、オブジェクトの向き、オブジェクトを撮影する角度(俯角)などがある。特に、解析・表示部111で映像処理を行う場合には、その映像処理に適した配置であることが望ましいため、位置・姿勢決定部103は、映像処理の特性を考慮して、最適なものを選ぶようにする。なお、以下では、映像取得部の配置を単にカメラ配置とも呼ぶ。
図1に示す映像監視装置100は、オブジェクトの滞留特性を考慮し、隠ぺい度合が小さくなるような映像取得部110の配置を求め、その配置で撮影された映像を用いて映像監視を行う。このため、複数のオブジェクトが滞留する場合でも、適切に映像監視を行うことが可能となる。
以下、本実施形態について、具体例を例示しながら説明する。
(具体例1)環境物の構造物がレジカウンタの場合
図2Aは、レジカウンタに並ぶ人物を撮影する映像取得部110(以後単にカメラ110とも呼ぶ)のカメラ配置例を示しており、真上から見た図を示している。図2Aには、2通りのカメラ配置(A)、(B)が示されており、カメラ配置(A)は、レジカウンタ側からその前に並ぶ人物を正面から撮影するカメラ配置を示しており、カメラ配置(B)は、レジカウンタに並ぶ人物を斜め前方から撮影するカメラ配置を示している。図2Bは、カメラ配置(A)の場合に撮影されると想定される人物の映像の例であり、図2Cは、カメラ配置(B)の場合に撮影されると想定される人物の映像の例である。想定される映像処理が人物検出である場合、なるべく人物同士の重なりが少ないほうが検知されやすくなる。よって、想定される映像処理が人物検出である場合、図2Aのカメラ配置例であれば、位置・姿勢決定部103は、カメラ配置(B)の方を選択することになる。以下では、カメラ配置(A)、(B)のそれぞれの場合の空間的隠ぺい度合の算出方法について述べる。
まず、位置・姿勢決定部103は、カメラ110のカメラ配置(カメラ110の位置及び姿勢)の候補として、2つのカメラ配置(A)、(B)を生成する。位置・姿勢決定部103は、カメラ配置(A)、(B)と環境物情報とから、図2Aに示すような、監視対象エリア内の構造物(この場合はレジカウンタ)とカメラ110との位置関係を定めることができる。これに伴い、位置・姿勢決定部103は、精算時に客が行列を作る位置も定めることができ、その位置とカメラ110との配置関係(カメラ110から行列までの距離や行列に対するカメラ110の角度など)を定めることができる。なお、行列を作る位置があらかじめ指定されるケースであれば、その位置を構造物情報とともに環境物情報に含めて入力する。
図3A及び図3Bに、カメラ110の位置と行列位置との関係を示す。図3Aは、図2Aのカメラ配置(A)の場合の行列線(行列が伸びる方向を表す線。滞留する人が並ぶ線であるため、上述の滞留線に相当)とカメラ110との位置関係を上から見た図を示している。ここで、カメラの位置を(Xcam,Ycam)とし、レジカウンタの位置によって定まる行列の先頭の位置を(Xa,Ya)とすると、位置・姿勢決定部103は、これらの座標の差から、カメラ110と行列の先頭との間の距離を求めることができる。また、位置・姿勢決定部103は、行列線も、構造物情報からわかるため、行列線と、カメラと行列の先頭の人物とを結ぶ線と、のなす角(以後、人物の並ぶ方向に対する相対方位角、あるいは単に相対方位角と呼ぶ)も求めることができる。カメラ配置(A)の場合は、上から見た図では、相対方位角が0になる。相対方位角によって、映像の水平方向での人物の重なり方が変わり、隠ぺい度合が変化する。一方、カメラ110は上方(通常は天井)に設置されており、図4に示すように、カメラ110の高さと人物の想定身長との差と、カメラ110から行列の先頭までの距離と、によって、行列の先頭の人物への俯角φが求まる。この俯角によって、映像の垂直方向での人物の重なり方が変わり、隠ぺい度合が変化する。よって、位置・姿勢決定部103は、俯角と相対方位角との両方を求めることによって、行列に並ぶ人物の空間的隠ぺいの度合を算出できる。
同様に、図3Bは、図2Aのカメラ配置(B)の場合の行列線とカメラ110との位置関係を上から見た図を示している。カメラ配置(B)の場合は、相対方位角はθとなる。よって、位置・姿勢決定部103は、この相対方位角θと俯角φとを求めることによって、行列に並ぶ人物の空間的隠ぺい度合を算出できる。
例えば、人物同士の間隔をd、人物の大きさを幅W及び高さHの円柱で近似したとすると、位置・姿勢決定部103は、カメラ110から人物までの距離をD、俯角をφ、相対方位角をθとしたときの空間的な隠ぺいの比率r(D,θ,φ)を、以下の数式(1)によって近似できる。
Figure 0006969668
環境物依存オブジェクト滞留特性情報記憶部102には、環境物依存オブジェクト滞留特性情報として、滞留特性を表すd、W、Hの情報、及びレジカウンタに対する行列線(滞留線)の位置、向きの情報を記憶させておき、位置・姿勢決定部103は、数式(1)によって空間的隠ぺい度合を算出する。あるいは、各D、θ、φに対する空間的な隠ぺい度合を予め算出しておき、この空間的な隠ぺい度合を環境物依存オブジェクト滞留特性情報記憶部102に記憶させておいてもよい。位置・姿勢決定部103は、環境物情報にレジカウンタなど行列ができる構造物が含まれる場合には、環境物情報とカメラ配置とからD、θ、φを求め、対応する空間的な隠ぺい度合を環境物依存オブジェクト滞留特性情報記憶部102から読み出すようにする。
実際には、人物同士の間隔dや人物の大きさW,Hの値については、ある程度ばらつきがある。また、人物が立つ位置にもばらつきがある。このため、位置・姿勢決定部103は、このようなばらつきを考慮し、空間的隠ぺい度合をD、θとφで定まる1つの値としてではなく、分布p(r(D,θ,φ))として扱うようにしてもよい。分布は、人物同士の間隔dや人物の大きさW,Hの値や人物が立つ位置を一定の範囲内で振って空間的な隠ぺい度合を算出することを繰り返し行い、頻度分布を求めることで算出できる。そして、分布p(r(D,θ,φ))の代表値(平均、モード、メディアンなど)を算出し、環境物依存オブジェクト滞留特性情報記憶部102に記憶させておいて、位置・姿勢決定部103で用いるようにしてもよい。
図2Aのカメラ配置例の場合には、カメラ配置(B)の方が、カメラ配置(A)よりも、空間的な隠ぺい度合が低くなる。このため、この場合は、位置・姿勢決定部103ではカメラ配置(B)が選ばれる。位置・姿勢決定部103は、このようなカメラ配置の候補を複数生成し、その中で空間的な隠ぺいの度合が最小となるカメラ配置を選択する。あるいは、位置・姿勢決定部103は、空間的隠ぺい度合が所定の閾値以下となるカメラ配置を複数求め、その中で他の指標を用いて最適なものを選ぶようにしてもよい。他の指標は、他の障害物による遮蔽であったり、オブジェクトの解像度や角度であったり、カメラ110がどれだけ広い範囲をカバーできているかというカバー率であったりする。最適なカメラ配置を選択する方法としては、例えば、特許文献2に記載された方法を用いることができる。
これまでは、空間的隠ぺい度合を1つの値として求めたが、実際には、空間的隠ぺい度合は、場所によって異なる。例えば、上述の行列の例でも、行列の先頭と後ろの方では、カメラからの距離や角度が変わるため、空間的隠ぺい度合の値が異なってくる。よって、位置・姿勢決定部103は、監視対象エリアの位置(X,Y)ごとに空間的隠ぺい度合を算出し、その代表値(例えば平均など)に基づいてカメラ配置を選択してもよい。
なお、具体例1では時間的隠ぺい度合を考慮しなかった。これは、具体例1の場合には、時間的隠ぺい度合の影響は、カメラ配置によらず同じ(例えば、カメラ配置(A)とカメラ配置(B)とは同じ行列を見ているため時間的隠ぺい度合は変わらない)であるためである。時間的隠ぺい度合を考慮する例については、後述する。
なお、具体例1では、構造物がレジカウンタの例について述べたが、行列ができる(あるいは行列を誘因する)構造物であれば何でもよい。例えば、ATM(Automatic Teller Machine)の前の行列、空港のイミグレーションカウンタ前の行列、あるいは駅の券売機前の行列などについても同様に具体例1が適用できる。
(具体例2)環境物の構造物がレジカウンタで複数の行列ができる場合
次に、環境物の構造物がレジカウンタで、レジカウンタ前に複数の行列ができる場合について述べる。
図5Aは、複数の行列ができるレジカウンタに並ぶ人物を撮影するカメラ110のカメラ配置例を示しており、真上から見た図を示している。この図5Aでも、2通りのカメラ配置(A’)、(B’)が示されており、カメラ配置(A’)は、レジカウンタ側からその前に並ぶ1つの行列の人物を正面から撮影するカメラ配置を示しており、カメラ配置(B’)は、2つの行列の真ん中で2つの行列を共に斜めから見るカメラ配置を示している。図5Bは、カメラ配置(A’)の場合に撮影されると想定される人物の映像の例であり、図5Cは、カメラ配置(B’)の場合に撮影されると想定される人物の映像の例である。図5Aのカメラ配置例であれば、具体例1で述べたように、カメラ配置(B’)の方が、カメラ配置(A’)よりも、空間的隠ぺい度合が小さくなる。さらに、カメラ配置(A’)の場合には、もう1つの行列も見るには、その行列の正面にもう1台のカメラ110が必要になる。一方、カメラ配置(B’)の場合には、2つの行列を1つのカメラ110でカバーできるため、カメラ110の台数の観点からもより望ましいといえる。
よって、位置・姿勢決定部103は、カメラ配置(B’)の方を選択する。ただし、行列間の間隔が狭い場合や、天井高などの制約でカメラ110の俯角が浅くなる場合には、空間的隠ぺい度合を十分小さくできない場合がある。この場合には、具体例1で述べたカメラ配置を行列ごとに採用することで空間的隠ぺい度合を小さくすることができる。
(具体例3)環境物の構造物がレジカウンタで複数の行列ができ、かつ行列間の進む速度に差がある場合
次に、環境物の構造物がレジカウンタで、レジカウンタ前に複数の行列ができ、かつ行列間で進む速度に差がある場合について述べる。
図6Aは、複数の行列ができるレジカウンタに並ぶ人物を撮影するカメラ110のカメラ配置例を示しており、真上から見た図を示している。図5Aとの相違点は、図6Aは、左側は通常レジで右側はエクスプレスレジ(例えば、商品のチェックのみは店員が行い、精算は客が行うセルフレジなど)となっており、右側の行列の方が進む速度が速く、行列間で進む速度に差がある点である。この図6でも、2通りのカメラ配置(A’’)、(B’’)が示されており、カメラ配置(A’’)は、行列間の中心の線よりも通常レジ側に寄った位置にカメラ110が配置され、両方の行列を撮影するカメラ配置を示している。逆に、カメラ配置(B’’)は、行列間の中心の線よりもエクスプレスレジ側に寄った位置にカメラ110が配置され、両方の行列を撮影するカメラ配置を示している。図6Aのカメラ配置例の場合、空間的隠ぺい度合のみを考慮すると、カメラ配置(A’’)、(B’’)は、行列間の中心線からのカメラ110のずれが同じであれば、隠ぺい度合は同じになる。しかしながら、通常レジの方がエクスプレスレジよりも行列の進む速度が遅いため、隠ぺい状態が継続する時間が長くなる。よって、時間的隠ぺい度合まで考慮した総合的隠ぺい度合を算出すると、カメラ配置(B’’)の方が、カメラ配置(A’’)よりも、総合的隠ぺい度合が小さくなり、望ましいといえる。以下では、時間的隠ぺい度合の算出方法と、時間的隠ぺい度合に基づく総合的隠ぺい度合の算出方法について述べる。
位置・姿勢決定部103は、時間的隠ぺい度合を、隠ぺいの継続時間(隠ぺい状態が継続する時間)によって定義することができる。すなわち、位置・姿勢決定部103は、隠ぺいの継続時間が長いほど、時間的な隠ぺいの度合が大きいとみなす。例えば、位置・姿勢決定部103は、時間的な隠ぺいの度合を、図7に示すような、数式(2)を満たす隠ぺいの継続時間tの単調非減少関数r(t)として数値化できる。
Figure 0006969668
行列の場合、先頭の人物の精算が終わり、次の人物が前に進むと、行列全体が前に進む。このタイミングで、一旦隠ぺい状態が解消されるため、隠ぺい継続時間は、行列の静止状態が持続する時間と考えることができる。よって、位置・姿勢決定部103は、行列が静止状態となる時間の分布を求め、代表的な値を隠ぺい継続時間とすればよい。位置・姿勢決定部103は、この隠ぺい継続時間を用いて、r(t)によって、時間的隠ぺい度合を算出できる。
位置・姿勢決定部103は、総合的隠ぺい度合を、空間的隠ぺい度合と時間的隠ぺい度合とを統合した値として定義でき、例えば、両者を乗じた値を統合的隠ぺい度合とすればよい。図6Aの左側、右側の行列の隠ぺい継続時間をそれぞれ、T、T(ただし、T>T)とし、図6Bのときの左側、右側の行列の空間的隠ぺい度合をR、R(ただし、R>R)とする。
この場合、位置・姿勢決定部103は、カメラ配置(A’’)のときの総合的隠ぺい度合を、数式(3)のように、2つの行列の平均をとって算出できる。
Figure 0006969668
一方、位置・姿勢決定部103は、カメラ配置(B’’)のときの総合的隠ぺい度合を、数式(4)のように算出できる。
Figure 0006969668
今、T>Tであるから、r(T)>r(T)となり、数式(3)の総合隠ぺい度合の方が、数式(4)の総合隠ぺい度合よりも大きくなる。
よって、図6Aのカメラ配置例では、位置・姿勢決定部103は、カメラ配置(B’’)の方を選択する。ただし、行列間の間隔が狭い場合や、天井高などの制約でカメラの俯角が浅くなる場合には、空間的隠ぺい度合を十分小さくできない場合がある。この場合には、位置・姿勢決定部103は、具体例2と同様の選択をすればよい。
このように、行列間に速度差がある場合には、行列間の中心線よりも、進みが速い行列側にカメラ110の位置を寄せた方がよいことがわかる。上述の説明では、滞留持続時間を用いて総合的隠ぺい度合を算出し、カメラ配置を選択したが、滞留特性として、レジの種別ごとに行列の進む速度のみがわかっていれば、どちらの行列側にカメラ110を寄せればよいかがわかる。よって、環境物依存オブジェクト滞留特性情報記憶部102には、環境依存オブジェクト滞留特性情報として、行列の速度情報を記憶させておき、位置・姿勢決定部103は、行列の速度情報のみからどちらの行列側にカメラ110を寄せるかを決定するようにしてもよい。あるいは、行列間の速度差によって、行列間の中央線からカメラ110をずらす程度を予め算出しておき、その算出結果を環境依存オブジェクト滞留特性情報に含めて、環境物依存オブジェクト滞留特性情報記憶部102に記憶させておいてもよい。そして、位置・姿勢決定部103は、環境物情報から、隣り合わせの行列間で速度差があることがわかったときに、速度差に応じてカメラ110をずらす程度の情報を環境物依存オブジェクト滞留特性情報記憶部102から読み出し、映像取得部配置情報を決定してもよい。
(具体例4)環境物の構造物が壁および什器(棚)で配置物が商品の場合
図8Aは、商品棚付近の人物を撮影するカメラ110のカメラ配置例を示しており、真上から見た図を示している。ここでは、構造物としての棚に加え、その構造物に配置される配置物である商品(この場合は本)も提示されている。一方、通路を挟んで棚の反対側は壁になっている。この図8Aでも、2通りのカメラ配置(C)、(D)が示されており、カメラ配置(C)は、本が配置される棚寄りから撮影するカメラ配置を示しており、カメラ配置(D)は、壁寄りから撮影するカメラ配置を示している。図8Bは、カメラ配置(C)の場合に撮影されると想定される人物の映像の例であり、図8Cは、カメラ配置(D)の場合に撮影されると想定される人物の映像の例である。図8B及び図8Cは、本を配置する棚の前に人物が2名並んで滞留した状況がどのように撮影されるかを示している。本の棚の前は買い物客が滞留しやすいことを考えると、このように滞留する状況が生じやすい。よって、図8Aのカメラ配置例であれば、カメラ配置(D)の方が、カメラ配置(C)よりも、空間的隠ぺい度合を小さくでき、望ましいといえる。以下では、カメラ配置(C)、(D)のそれぞれの場合の空間的隠ぺい度合の算出方法について述べる。
まず、位置・姿勢決定部103は、カメラ110のカメラ配置(カメラ110の位置・姿勢)の候補として、2つのカメラ配置(C)、(D)を生成する。位置・姿勢決定部103は、カメラ配置(C)、(D)と環境物情報とから、図8Aに示すような、監視対象エリア内の構造物及び配置物(この場合は棚と商品)とカメラ110との位置関係を定めることができる。これにより、位置・姿勢決定部103は、人物が滞留しやすい位置を定めることができ、具体例1の場合と同様に、その位置とカメラ110との配置関係(カメラ110から滞留人物までの距離や滞留人物が並ぶ方向に対するカメラ110の角度など)を定めることができる。よって、位置・姿勢決定部103は、具体例1の場合と同様に、滞留人物が並ぶ方向に対する相対方位角と俯角とを求めることができる。
次に、位置・姿勢決定部103は、環境物依存オブジェクト滞留特性情報から、上記で求めた俯角、相対方位角に対する空間的隠ぺい度合を求める。この際、環境物依存オブジェクト滞留特性情報には、具体例1と同様に、空間的隠ぺい度合を求めるのに必要な人物間の間隔などのパラメータが含まれており、位置・姿勢決定部103は、このパラメータを用いて空間的隠ぺい度合を算出する。この空間的隠ぺい度合は、具体例1の行列の場合と比べ、人物間の間隔などのパラメータの値は異なるものの、具体例1の場合と同様に算出できる。あるいは、具体例1と同様に、予め、滞留位置までの距離、カメラの俯角、相対方位角ごとに算出した隠ぺい度合の情報を、環境物依存オブジェクト滞留特性情報として、環境物依存オブジェクト滞留特性情報記憶部102に記憶させておいてもよい。この隠ぺい度合の特性は、棚に配置される商品の種類によって異なるため、棚に置かれる各配置物に対して隠ぺい度合を求めて記憶させておき、位置・姿勢決定部103は、入力される環境物情報に含まれる配置物の情報に応じて、対応する隠ぺい度合情報を用いるようにする。なお、棚の配置物によって、滞留時間も異なるが、これを考慮するケースについては、後述する。
位置・姿勢決定部103は、図8のカメラ配置例の場合は、空間的隠ぺい度合の値は、カメラ配置(D)の方がカメラ配置(C)よりも小さくなるため、カメラ配置(D)が選ばれる。具体例1の場合と同様に、具体例4の場合も、位置・姿勢決定部103は、複数のカメラ配置を生成し、それぞれに対して算出した空間的隠ぺい度合の値に基づいて、カメラ配置を決定するようにする。
(具体例5)環境物の構造物が什器(棚)で配置物が商品の場合
図9Aは、商品棚付近の人物を撮影するカメラ110のカメラ配置例を示しており、真上から見た図を示している。ここでは、構造物としての棚に加え、その構造物に配置される配置物である商品(この場合は本と日用雑貨)も提示されている。この図9Aでも、2通りのカメラ配置(C’)、(D’)が示されており、カメラ配置(C’)は、本が配置される棚寄りから撮影するカメラ配置を示しており、カメラ配置(D’)は、日用雑貨が配置される棚寄りから撮影するカメラ配置を示している。図9Bは、カメラ配置(C’)の場合に撮影されると想定される人物の映像の例であり、図9Cは、カメラ配置(D’)の場合に撮影されると想定される人物の映像の例である。図9B及び図9Cは、本を配置する棚と日用雑貨を配置する棚の前に人物が2名ずつ並んで滞留した状況がどのように撮影されるかを示している。図9B及び図9Cの映像だけからでは、空間的隠ぺい度合は、カメラ配置(C’)、(D’)で変わりはない。しかしながら、本の棚の方が長い時間人物が滞留する傾向にあり、隠ぺい状態が継続する時間が長くなる。よって、時間的隠ぺい度合まで考慮すると、カメラ配置(D)の方が望ましいといえる。以下では、カメラ配置(C’)、(D’)のそれぞれの場合の時間的隠ぺい度合とそれを用いた総合的隠ぺい度合の算出方法について述べる。
時間的隠ぺい度合の算出は、基本的には、具体例3の場合と同様である。すなわち、位置・姿勢決定部103は、隠ぺい継続時間の関数として、時間的隠ぺい度合を求めることができる。ただし、隠ぺい継続時間の求め方は、行列の場合とは異なる。滞留の場合、隠ぺい継続時間は、滞留の発生頻度と1回の滞留あたりの滞留時間によって変化する。例えば、滞留状態が一様に発生すると仮定し、単位時間当たりの滞留の発生回数がN、1回当たりの滞留の滞留時間がTとすると、平均的な隠ぺい継続時間は、数式(5)で近似できる。
Figure 0006969668
ここで、1/Nは、滞留発生が生じる時間間隔ととらえることができる。実際には、滞留の発生は一様分布に従わない場合も考えられる。また、滞留時間も一定値ではなく、ある程度分布を持つのが普通である。よって、位置・姿勢決定部103は、これらを考慮して、隠ぺい継続時間を算出してもよい。具体的には、位置・姿勢決定部103は、滞留の発生時間間隔と滞留時間のそれぞれの分布を実測し、それに基づいてシミュレーションにより隠ぺい継続時間を求めるようにしてもよい。すなわち、位置・姿勢決定部103は、それぞれ実測した分布に従う滞留状況を発生させ、隠ぺい状態が継続する時間を求めるようにすればよい。このようにして求まる隠ぺい継続時間は配置物によって変化する。このため、配置物ごとに隠ぺい継続時間を求め、配置物ごとの隠ぺい継続時間を、環境依存オブジェクト滞留特性情報として、環境物依存オブジェクト滞留特性情報記憶部102に記憶させておけばよい。
そして、位置・姿勢決定部103は、具体例3の場合と同様に、このようにして求めた時間的隠ぺい度合と空間的隠ぺい度合とを掛け合わせることによって、総合的隠ぺい度合情報を算出できる。位置・姿勢決定部103は、上記で求めた総合的隠ぺい度合情報に基づいて、カメラ配置を決定する。図9Aのカメラ配置例の場合は、具体例3の場合と同様の理由で、カメラ配置(D')が選択される。このように、滞留の継続時間が異なるなど、滞留の度合が異なる棚挟む通路の場合には、中央よりも滞留が少ない棚の方にカメラ110を配置したほうが、全体としての隠ぺい度合を小さくできる。すなわち、位置・姿勢決定部103は、少なくとも、通路中央よりも、滞留しにくい棚の方にカメラ110を寄らせたカメラ配置にすればよく、その中で隠ぺい度合が小さくなるカメラ配置を選択すればよい。
なお、上述の説明では、滞留持続時間及び滞留頻度を用いて総合的隠ぺい度合を算出し、カメラ配置を選択した。しかし、滞留特性として、棚に置かれる配置物ごとに、滞留持続時間及び滞留頻度で定まる隠ぺい継続時間のみがわかっていれば、どちらの棚側にカメラ110を寄せればよいかがわかる。よって、環境依存オブジェクト滞留特性情報として、棚の配置物の隠ぺい継続時間情報を、環境物依存オブジェクト滞留特性情報記憶部102に記憶させておき、位置・姿勢決定部103は、この情報のみから直接どちらの棚側にカメラを寄せるかを決定するようにしてもよい。あるいは、隠ぺい継続時間によって求まる時間的隠ぺい度合自体を、滞留の生じやすさを表す指標(滞留度合)として環境依存オブジェクト滞留特性情報に含めておいてもよい。さらに、滞留度合の差によって、通路の中央線からカメラ110をずらす程度を予め算出しておき、その結果を環境依存オブジェクト滞留特性情報に含めておいてもよい。そして、位置・姿勢決定部103は、環境物情報から、通路を挟んだ両側で滞留度合に差があることが分かったときに、滞留度合の差に応じてカメラ110をずらす程度の情報を環境物依存オブジェクト滞留特性情報記憶部102から読み出し、カメラ配置情報を決定してもよい。
以上説明したように本第1の実施の形態によれば、映像監視装置100は、監視対象エリア内に存在する構造物及びその構造物に配置される配置物を含む環境物を表す環境物情報と、環境物に依存して定まる監視対象のオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように映像取得部110の位置及び姿勢を決定する。
このように、本第1の実施の形態によれば、映像監視装置100は、監視エリア内の静的な環境物の情報だけでなく、その環境物に依存して定まるオブジェクトの滞留特性まで考慮して、映像取得部の位置及び姿勢を決定する。このため、環境物に依存して定まるオブジェクトの滞留により、オブジェクト同士が重なり合い、隠ぺいが生じる状況下でも、より適切な映像監視が可能になる。また、より適切な映像監視が可能になるため、より適切に監視対象オブジェクトのモニタリングや、オブジェクト検出・追跡処理を行うことができ、より適切な解析結果を提供することが可能となる。
(第2の実施の形態)
図10を参照すると、本開示の第2の実施の形態である映像監視装置200の構成例が示されている。映像監視装置200は、映像取得部210、解析・表示部111、環境物情報記憶部101、環境物依存オブジェクト滞留特性情報記憶部102、位置・姿勢決定部203、及び位置・姿勢制御部204を備えている。
位置・姿勢決定部203は、環境物情報記憶部101に記憶された監視エリアの環境物情報と、環境物依存オブジェクト滞留特性情報記憶部102に記憶された環境物依存オブジェクト滞留特性情報と、に基づいて、映像取得部配置情報を生成し、生成した映像取得部配置情報を位置・姿勢制御部204へ出力する。
位置・姿勢制御部204は、位置・姿勢決定部203から出力される映像取得部配置情報に基づいて、位置・姿勢制御情報を生成し、映像取得部210へ出力する。
映像取得部210は、外部からの制御で位置及び姿勢を変更可能な映像取得部である。映像取得部210は、位置・姿勢制御部204から出力される位置・姿勢制御情報に従って位置及び姿勢を変更し、撮影した映像を解析・表示部111へ出力する。
次に、図10に示した映像監視装置200の動作について説明する。
環境物情報記憶部101、環境物依存オブジェクト滞留特性情報記憶部102の動作は、図1の映像監視装置100と同様である。ただし、環境物情報は、時間ごとに設定されていてもよい。例えば、レジ前のカウンタや空港のカウンタが、時間帯によって開く数が予め決まっている場合には、その時間帯ごとに開くカウンタの情報を構造物情報に含めておき、位置・姿勢決定部203は、それを用いて時間帯ごとに映像取得部210の配置を求め、映像取得部配置情報を出力するようになっていてもよい。位置・姿勢決定部203で生成された映像取得部配置情報は、位置・姿勢制御部204へ入力される。
位置・姿勢制御部204は、位置・姿勢決定部203により入力される映像取得部配置情報に基づいて、映像取得部210を制御する位置・姿勢制御情報を生成する。位置・姿勢制御部204で生成された位置・姿勢制御情報は、映像取得部210へ出力される。
映像取得部210は、外部からの制御で位置及び姿勢を変更することが可能な移動型の映像取得部である。例えば、映像取得部210は、UAV(Unmanned Aerial Vehicle)のように、空中に浮揚して撮影することが可能なデバイスであってもよい。あるいは、映像取得部210は、壁や天井に設置されたカメラであって、敷設されたレール上を移動できるようになっているカメラであってもよい。あるいは、映像取得部210は、ロボットに搭載されたカメラで、ロボットが移動できるようになっていてもよい。映像取得部210は、位置・姿勢制御部204により入力される位置・姿勢制御情報に従って、位置及び姿勢を変更し、映像を撮影する。そして、映像取得部210は、撮影した映像を解析・表示部111へ出力する。
解析・表示部111の動作は、図1の映像監視装置100と同様である。
以上説明したように本第2の実施の形態によれば、映像監視装置200は、時間ごとに環境物情報を設定する。このため、映像監視装置200は、時間帯によって変化する構造物の状況に応じて、映像取得部210の位置及び姿勢を適切に変更することができるため、より適した監視映像や解析結果を提供することが可能となる。
(第3の実施の形態)
図11を参照すると、本開示の第3の実施の形態に係る映像監視装置300の構成例が示されている。映像監視装置300は、映像取得部210、解析・表示部111、環境物情報記憶部101、環境物依存オブジェクト滞留特性情報記憶部102、位置・姿勢決定部303、位置・姿勢制御部204、及びオブジェクト状態取得部305を備えている。
オブジェクト状態取得部305は、監視対象となるオブジェクトの状態を取得し、オブジェクトの状態を表すオブジェクト状態情報を位置・姿勢決定部303へ出力する。
位置・姿勢決定部303は、環境物情報記憶部101に記憶された監視エリアの環境物情報と、環境物依存オブジェクト滞留特性情報記憶部102に記憶された環境物依存オブジェクト滞留特性情報と、オブジェクト状態取得部305から出力されるオブジェクト状態情報と、に基づいて、映像取得部配置情報を生成し、生成した映像取得部配置情報を位置・姿勢制御部204へ出力する。
それ以外の構成は、図10に示す映像監視装置200と同様である。
次に、図11に示した映像監視装置300の動作について説明する。
オブジェクト状態取得部305は、監視対象エリアのオブジェクトの状態を観測する手段であり、オブジェクトの数や動き、オブジェクトがなす構造(例えば、行列など)などのオブジェクトの状態を観測する。具体的には、オブジェクト状態取得部305は、監視対象エリアの固定位置に配置されたセンサであったり、映像を取得する撮像デバイスであったりする。センサは、オブジェクトを検知するセンサ(人物の場合は人感センサ)であったり、RFID(Radio Frequency IDentification)やWiFi(Wireless Fidelity)、BlueTooth(登録商標)などの信号を捕捉して、自センサの近くのオブジェクトの有無や数を推定するセンサであってもよい。あるいは、センサは、マイクなどの音響情報を収集するデバイスであり、収集した音響情報を分析してオブジェクトの状態を把握するようになっていてもよい。オブジェクト状態取得部305が映像を取得するデバイスの場合には、デバイスは、映像中のオブジェクトを解析して、オブジェクトの数や状態を把握するようになっていてもよい。あるいは、映像取得部210自体が、そのデバイスの役割を担っていてもよい。オブジェクトを分析し、オブジェクトの状態を把握する方式としては、従来の様々な方式を用いることが可能である。オブジェクト状態取得部305で取得されたオブジェクト状態情報は、位置・姿勢決定部303へ入力される。
位置・姿勢決定部303の動作のうち、オブジェクト状態取得部305からオブジェクト状態情報が入力されない場合の動作は、図10の位置・姿勢決定部203の動作と同様である。一方、オブジェクト状態取得部305からオブジェクト状態情報が入力された場合には、位置・姿勢決定部303は、オブジェクト状態情報に基づいて、映像取得部配置情報を修正する。例えば、複数の行列ができ得るエリアで、行列の数が状況に応じて変わる場合などは、位置・姿勢決定部303は、オブジェクト状態情報に基づいて、実際にどの位置に行列ができているかを把握した上で、隠ぺい度合を算出し、映像取得部配置情報を生成するようにする。あるいは、位置・姿勢決定部303は、オブジェクト状態情報がない状態で求めた隠ぺい度合と、オブジェクト状態情報に基づいて求めた隠ぺい度合と、をオブジェクト状態情報の信頼度に応じて重みづけし、加重平均をとることで隠ぺい度合を求め、映像取得部配置情報を生成するようにしてもよい。位置・姿勢決定部303で生成された映像取得部配置情報は、位置・姿勢制御部204へ出力される。
位置・姿勢制御部204、映像取得部210、解析・表示部111の動作は、図10に示す映像監視装置200と同様である。
以上説明したように本第3の実施の形態によれば、映像監視装置300は、オブジェクトの状態を取得し、オブジェクトの状態に基づいて、映像取得部210位置及び姿勢を変更する。このため、映像監視装置300は、状況によって変化するオブジェクトの状態に応じて映像取得部110の位置及び姿勢を適切に変更することができるため、より適切な映像監視や解析結果を提供することが可能となる。
なお、上記実施の形態において、様々な処理を行う機能ブロックとして図面に記載される各要素は、ハードウェア的には、CPU(Central Processing Unit)、メモリ、その他の回路で構成することができ、ソフトウェア的には、CPUがメモリにロードして実行するプログラム等によって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、又はそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
また、上記のプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Compact Disc-Read Only Memory)、CD−R(CD-Recordable)、CD−R/W(CD-ReWritable)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、実施の形態を参照して本開示を説明したが、本開示は上記の実施の形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定部と、
前記位置・姿勢決定部で決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部と、
を備える映像監視装置。
(付記2)
前記映像取得部は、外部からの制御により位置及び姿勢を変更可能であり、
前記位置・姿勢決定部で決定された位置及び姿勢に基づいて、前記映像取得部を制御する制御情報を生成する位置・姿勢制御部をさらに備え、
前記映像取得部は、前記位置・姿勢制御部で生成された制御情報に基づいて位置及び姿勢を変更する、
付記1に記載の映像監視装置。
(付記3)
オブジェクトの状態を取得するオブジェクト状態取得部をさらに備え、
前記位置・姿勢決定部は、前記オブジェクト状態取得部で取得されたオブジェクトの状態も用いて、前記映像取得部の位置及び姿勢を決定する、
付記1に記載の映像監視装置。
(付記4)
前記滞留特性情報は、前記環境物に依存して定まり、滞留オブジェクトが並ぶ線である滞留線の位置及び向きの情報と、滞留オブジェクトの滞留継続時間の情報と、の少なくとも一方を含み、
前記位置・姿勢決定部は、前記滞留線と前記映像取得部との相対的な方位角及び距離と、前記映像取得部の俯角と、に基づいて、空間的な隠ぺいの度合を算出するか、あるいは、前記滞留継続時間に基づいて、時間的な隠ぺいの度合を算出することによって、前記隠ぺいの度合を算出する、
付記1から3のいずれか1項に記載の映像監視装置。
(付記5)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を表す情報であるときに、前記位置・姿勢決定部は、前記映像取得部を滞留線間に配置することに決定する、
付記1から3のいずれか1項に記載の映像監視装置。
(付記6)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を示す情報であり、行列間で進む速さに差があるときに、前記位置・姿勢決定部は、前記映像取得部を、行列間の中央よりも、進む速さが速い行列側に配置することに決定する、
付記1から3のいずれか1項に記載の映像監視装置。
(付記7)
前記環境物情報が、通路を表す情報と該通路の両側の構造物に配置される配置物を表す情報とを含み、前記滞留特性情報が、オブジェクトの滞留の度合に差があることを表すときに、前記位置・姿勢決定部は、通路の中心よりも滞留の度合が小さい方に寄った位置に前記映像取得部を配置することに決定する、
付記1から3のいずれか1項に記載の映像監視装置。
(付記8)
監視対象エリア内を、映像取得部を用いて監視する映像監視装置の制御方法であって、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定ステップと、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示ステップと、
を含む、映像監視装置の制御方法。
(付記9)
前記映像取得部は、外部からの制御により位置及び姿勢を変更可能であり、
前記位置・姿勢決定ステップで決定された位置及び姿勢に基づいて、前記映像取得部を制御する制御情報を生成する位置・姿勢制御ステップをさらに含み、
前記映像取得部は、前記位置・姿勢制御部で生成された制御情報に基づいて位置及び姿勢を変更する、
付記8に記載の映像監視装置の制御方法。
(付記10)
オブジェクトの状態を取得するオブジェクト状態取得ステップをさらに含み、
前記位置・姿勢決定ステップでは、前記オブジェクト状態取得ステップで取得されたオブジェクトの状態も用いて、前記映像取得部の位置及び姿勢を決定する、
付記8に記載の映像監視装置の制御方法。
(付記11)
前記滞留特性情報は、前記環境物に依存して定まり、滞留オブジェクトが並ぶ線である滞留線の位置及び向きの情報と、滞留オブジェクトの滞留継続時間の情報と、の少なくとも一方を含み、
前記位置・姿勢決定ステップでは、前記滞留線と前記映像取得部との相対的な方位角及び距離と、前記映像取得部の俯角と、に基づいて、空間的な隠ぺいの度合を算出するか、あるいは、前記滞留継続時間に基づいて、時間的な隠ぺいの度合を算出することによって、前記隠ぺいの度合を算出する、
付記8から10のいずれか1項に記載の映像監視装置の制御方法。
(付記12)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を表す情報であるときに、前記位置・姿勢決定ステップでは、前記映像取得部を滞留線間に配置することに決定する、
付記8から10のいずれか1項に記載の映像監視装置の制御方法。
(付記13)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を示す情報であり、行列間で進む速さに差があるときに、前記位置・姿勢決定ステップでは、前記映像取得部を、行列間の中央よりも、進む速さが速い行列側に配置することに決定する、
付記8から10のいずれか1項に記載の映像監視装置の制御方法。
(付記14)
前記環境物情報が、通路を表す情報と該通路の両側の構造物に配置される配置物を表す情報とを含み、前記滞留特性情報が、オブジェクトの滞留の度合に差があることを表すときに、前記位置・姿勢決定ステップでは、通路の中心よりも滞留の度合が小さい方に寄った位置に前記映像取得部を配置することに決定する、
付記8から10のいずれか1項に記載の映像監視装置の制御方法。
(付記15)
監視対象エリア内を、映像取得部を用いて監視するコンピュータに、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まる監視対象のオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する手順と、
前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う手順と、
を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
(付記16)
監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部を備え、
前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように決定された位置及び姿勢にて、前記映像取得部が配置される、
映像監視装置。
(付記17)
前記滞留特性情報は、前記環境物に依存して定まり、滞留オブジェクトが並ぶ線である滞留線の位置及び向きの情報と、滞留オブジェクトの滞留継続時間の情報と、の少なくとも一方を含み、
前記滞留線と前記映像取得部との相対的な方位角及び距離と、前記映像取得部の俯角と、に基づいて、空間的な隠ぺいの度合を算出するか、あるいは、前記滞留継続時間に基づいて、時間的な隠ぺいの度合を算出することによって、前記隠ぺいの度合が算出される、
付記16に記載の映像監視装置。
(付記18)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を表す情報であるときに、前記映像取得部は、滞留線間に配置される、
付記16に記載の映像監視装置。
(付記19)
前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を示す情報であり、行列間で進む速さに差があるときに、前記映像取得部は、行列間の中央よりも、進む速さが速い行列側に配置される、
付記16に記載の映像監視装置。
(付記20)
前記環境物情報が、通路を表す情報と該通路の両側の構造物に配置される配置物を表す情報とを含み、前記滞留特性情報が、オブジェクトの滞留の度合に差があることを表すときに、前記映像取得部は、通路の中心よりも滞留の度合が小さい方に寄った位置に配置される、
付記16に記載の映像監視装置。
本開示の映像監視装置は、屋内、屋外の様々な場所を監視したり、その中のオブジェクトを解析し、不審な状態や危険な状態を検知した場合にアラートを挙げたりする、映像監視システムとして利用することができる。特に、本開示の映像監視装置は、複数の監視対象オブジェクトが存在し、特定の場所で滞留が発生するエリアの監視に利用することができる。
101 環境物情報記憶部
102 環境物依存オブジェクト滞留特性情報記憶部
103 位置・姿勢決定部
110 映像取得部
111 解析・表示部
203 位置・姿勢決定部
204 位置・姿勢制御部
210 映像取得部
303 位置・姿勢決定部
305 オブジェクト状態取得部

Claims (10)

  1. 監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
    前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定部と、
    前記位置・姿勢決定部で決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部と、
    を備える映像監視装置。
  2. 前記映像取得部は、外部からの制御により位置及び姿勢を変更可能であり、
    前記位置・姿勢決定部で決定された位置及び姿勢に基づいて、前記映像取得部を制御する制御情報を生成する位置・姿勢制御部をさらに備え、
    前記映像取得部は、前記位置・姿勢制御部で生成された制御情報に基づいて位置及び姿勢を変更する、
    請求項1に記載の映像監視装置。
  3. オブジェクトの状態を取得するオブジェクト状態取得部をさらに備え、
    前記位置・姿勢決定部は、前記オブジェクト状態取得部で取得されたオブジェクトの状態も用いて、前記映像取得部の位置及び姿勢を決定する、
    請求項1に記載の映像監視装置。
  4. 前記滞留特性情報は、前記環境物に依存して定まり、滞留オブジェクトが並ぶ線である滞留線の位置及び向きの情報と、滞留オブジェクトの滞留継続時間の情報と、の少なくとも一方を含み、
    前記位置・姿勢決定部は、前記滞留線と前記映像取得部との相対的な方位角及び距離と、前記映像取得部の俯角と、に基づいて、空間的な隠ぺいの度合を算出するか、あるいは、前記滞留継続時間に基づいて、時間的な隠ぺいの度合を算出することによって、前記隠ぺいの度合を算出する、
    請求項1から3のいずれか1項に記載の映像監視装置。
  5. 前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を表す情報であるときに、前記位置・姿勢決定部は、前記映像取得部を滞留線間に配置することに決定する、
    請求項1から3のいずれか1項に記載の映像監視装置。
  6. 前記環境物情報が、複数の行列の生成を誘因する構造物を表す情報を含み、前記滞留特性情報が、該構造物の前にできる複数の行列にそれぞれ対応する、滞留オブジェクトが並ぶ線である滞留線を示す情報であり、行列間で進む速さに差があるときに、前記位置・姿勢決定部は、前記映像取得部を、行列間の中央よりも、進む速さが速い行列側に配置することに決定する、
    請求項1から3のいずれか1項に記載の映像監視装置。
  7. 前記環境物情報が、通路を表す情報と該通路の両側の構造物に配置される配置物を表す情報とを含み、前記滞留特性情報が、オブジェクトの滞留の度合に差があることを表すときに、前記位置・姿勢決定部は、通路の中心よりも滞留の度合が小さい方に寄った位置に前記映像取得部を配置することに決定する、
    請求項1から3のいずれか1項に記載の映像監視装置。
  8. 監視対象エリア内を、映像取得部を用いて監視する映像監視装置の制御方法であって、
    前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する位置・姿勢決定ステップと、
    前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示ステップと、
    を含む、映像監視装置の制御方法。
  9. 監視対象エリア内を、映像取得部を用いて監視するコンピュータに、
    前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まる監視対象のオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように前記映像取得部の位置及び姿勢を決定する手順と、
    前記決定された位置及び姿勢にて前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う手順と、
    を実行させるためのプログラ
  10. 監視対象エリア内を、映像取得部を用いて監視する映像監視装置であって、
    前記映像取得部で撮影された映像を解析するか、あるいは、表示するか、の少なくも一方を行う解析・表示部を備え、
    前記監視対象エリア内に存在する構造物及び該構造物に配置される配置物を含む環境物を表す環境物情報と、前記環境物に依存して定まるオブジェクトの滞留特性を表す滞留特性情報と、に基づいて、オブジェクト間の重なりによって生じる隠ぺいの度合が小さくなるように決定された位置及び姿勢にて、前記映像取得部が配置される、
    映像監視装置。
JP2020508701A 2018-03-29 2018-03-29 映像監視装置、その制御方法、及び、プログラム Active JP6969668B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/013230 WO2019186890A1 (ja) 2018-03-29 2018-03-29 映像監視装置、その制御方法、及び、コンピュータ可読媒体

Publications (2)

Publication Number Publication Date
JPWO2019186890A1 JPWO2019186890A1 (ja) 2021-02-12
JP6969668B2 true JP6969668B2 (ja) 2021-11-24

Family

ID=68058067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020508701A Active JP6969668B2 (ja) 2018-03-29 2018-03-29 映像監視装置、その制御方法、及び、プログラム

Country Status (5)

Country Link
US (6) US11381782B2 (ja)
JP (1) JP6969668B2 (ja)
AR (1) AR115316A1 (ja)
TW (1) TW201946029A (ja)
WO (1) WO2019186890A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949350B (zh) * 2019-12-10 2024-04-09 晶睿通讯股份有限公司 队列分析方法及其图像监控设备
US11030757B1 (en) 2019-12-10 2021-06-08 Vivotek Inc. Queue analyzing method and image monitoring apparatus
TWI740297B (zh) * 2019-12-10 2021-09-21 晶睿通訊股份有限公司 隊列分析方法及其影像監控設備
EP4158572A2 (en) * 2020-06-01 2023-04-05 Trax Technology Solutions Pte Ltd. Systems and methods for retail environments
TWI738538B (zh) * 2020-10-14 2021-09-01 中華學校財團法人中華科技大學 無人載具之三維影像重組方法及系統
CN113223056B (zh) * 2021-06-01 2021-12-10 北京理工大学 一种基于多Kinect V2的无标记运动追踪系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257165B2 (ja) 1993-08-06 2002-02-18 株式会社日立製作所 移動物体監視装置
JP2001142138A (ja) * 1999-11-12 2001-05-25 Sanai Kogyo:Kk 監視カメラ装置および監視カメラシステム
JP2006197226A (ja) 2005-01-13 2006-07-27 Kanshi Kakumei:Kk 監視カメラシステム
US8306265B2 (en) * 2009-01-12 2012-11-06 Eastman Kodak Company Detection of animate or inanimate objects
JP5269002B2 (ja) 2010-06-28 2013-08-21 株式会社日立製作所 カメラ配置決定支援装置
JP2013106175A (ja) * 2011-11-14 2013-05-30 Canon Inc カメラシステム
US9367752B2 (en) 2012-06-28 2016-06-14 Nec Corporation Camera position posture evaluating device, camera position posture evaluating method, and camera position posture evaluating program
US9955124B2 (en) * 2013-06-21 2018-04-24 Hitachi, Ltd. Sensor placement determination device and sensor placement determination method
EP3092603B1 (en) * 2014-01-07 2022-05-11 ML Netherlands C.V. Dynamic updating of composite images

Also Published As

Publication number Publication date
US11924585B2 (en) 2024-03-05
US20230412776A1 (en) 2023-12-21
TW201946029A (zh) 2019-12-01
WO2019186890A1 (ja) 2019-10-03
JPWO2019186890A1 (ja) 2021-02-12
US11381782B2 (en) 2022-07-05
US20230412775A1 (en) 2023-12-21
US20230421730A1 (en) 2023-12-28
US20210127091A1 (en) 2021-04-29
US20230412774A1 (en) 2023-12-21
AR115316A1 (es) 2020-12-23
US20220272304A1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
JP6969668B2 (ja) 映像監視装置、その制御方法、及び、プログラム
US20210400200A1 (en) Video surveillance system and video surveillance method
JP4876687B2 (ja) 注目度計測装置及び注目度計測システム
US7796154B2 (en) Automatic multiscale image acquisition from a steerable camera
JP6019414B2 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
TWI778030B (zh) 店鋪裝置、店鋪管理方法及程式
US9805265B2 (en) Surveillance camera control device and video surveillance system
CN108051777B (zh) 目标的追踪方法、装置及电子设备
WO2016013298A1 (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
JP6988996B2 (ja) カメラ配置適性度評価装置、その制御方法、最適カメラ配置算出装置、及び、プログラム
JP2018148422A (ja) 情報処理システム、情報処理装置、情報処理方法ならびに情報処理方法をコンピュータに実行させるプログラム
WO2014093209A1 (en) Security video system using customer regions for monitoring point of sale areas
US11448508B2 (en) Systems and methods for autonomous generation of maps
WO2022160592A1 (zh) 一种信息处理方法、装置、电子设备及存储介质
US10565786B1 (en) Sensor placement interface
JP3489491B2 (ja) 人物行動解析装置及び人物行動解析プログラムを記録した記録媒体
JP2023041931A (ja) 評価装置、評価方法、及びプログラム
CN111429194B (zh) 用户轨迹确定系统、方法、装置及服务器
JP6032283B2 (ja) 監視カメラ管理装置、監視カメラ管理方法およびプログラム
JP2020022177A (ja) 映像監視システム及び映像監視方法
JP2017028688A (ja) 画像管理装置、画像管理方法及びプログラム
Chen et al. Pedestrian behaviour analysis using the microsoft kinect

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R150 Certificate of patent or registration of utility model

Ref document number: 6969668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150