JP7036138B2 - 行列検出システム、方法及びプログラム - Google Patents

行列検出システム、方法及びプログラム Download PDF

Info

Publication number
JP7036138B2
JP7036138B2 JP2020043673A JP2020043673A JP7036138B2 JP 7036138 B2 JP7036138 B2 JP 7036138B2 JP 2020043673 A JP2020043673 A JP 2020043673A JP 2020043673 A JP2020043673 A JP 2020043673A JP 7036138 B2 JP7036138 B2 JP 7036138B2
Authority
JP
Japan
Prior art keywords
matrix
person
input
objects
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020043673A
Other languages
English (en)
Other versions
JP2020113300A (ja
Inventor
有紀江 海老山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2020113300A publication Critical patent/JP2020113300A/ja
Application granted granted Critical
Publication of JP7036138B2 publication Critical patent/JP7036138B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E40/00Technologies for an efficient electrical power generation, transmission or distribution
    • Y02E40/30Reactive power compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、映像から行列を検出するためのシステム、方法及びプログラムに関する。
カメラ映像から行列を検出する方法、及び、行列を成す人数や長さ、待ち時間等を解析する方法が種々提案されている。
特許文献1に記載された技術は、入力画像に対し、背景差分を用いて人物領域の面積を求め、その面積をあらかじめ定めた一人あたりの単位面積で除算して人数を推定する。特許文献1に記載された技術は、推定した人数に対し、別途所定の方法で集計した単位時間当たりの入場者数で除算することにより、待ち時間を推定する。
特許文献2に記載された技術は、天井に設置したカメラで行列を真上から撮影し、背景差分及びオプティカルフローを用いて、滞留及び移動中の個々の人物領域を抽出する。特許文献2に記載された技術は、抽出した個々の人物領域を順に結んで行列線を生成し、各行列の総延長及び長さに基づく待ち時間を算出する。
特開2002-329196号公報 特開2007-317052号公報
しかしながら、上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。
本発明の目的は、上述の課題を解決可能な技術を提供することである。
本発明に係る行列検出システムは、行列位置の入力を受け付ける行列情報入力部と、入力画像から対象物を検出する検出部と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定部と、を含む。
本発明に係る行列検出方法は、行列位置の入力を受け付け、入力画像から対象物を検出し、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。
本発明に係るプログラムは、行列位置の入力を受け付ける行列情報入力処理と、入力画像から対象物を検出する検出処理と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定処理と、をコンピュータに実行させる。
本発明によれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、誤ってその人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。
本発明の実施形態1の構成例を示す機能ブロック図である。 行列情報の入力方法の例を示す説明図である。 行列情報の入力方法の例を示す説明図である。 行列待ち情報の生成過程の例を示す説明図である。 行列待ち情報の生成過程の例を示す説明図である。 本発明の実施形態1の処理経過の例を示すフローチャートである。 本発明の実施形態1の処理経過の例を示すフローチャートである。 本発明の実施形態2の構成例を示す機能ブロック図である。 本発明の実施形態2の処理経過の例を示すフローチャートである。 本発明の各実施形態を実現可能なコンピュータのハードウェア構成例を説明する図である。
まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。
上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。
例えば、特許文献1に記載の技術は、入力画像に対し、背景差分を用いて人物領域の面積を求めるため、行列に並ぶつもりではない人が行列の付近に立ち止まった場合、その単に滞留している人も含めて人物領域の面積を求めることになる。また、本来の行列から離れた位置に複数の滞留者がいた場合、特許文献1に記載の技術はその複数の滞留者が行列を構成する人々であると認識しうる。特許文献1に記載の技術には、その他の課題として、オクルージョンの発生による未検出等がある。特許文献1のような背景差分に基づく手法では、人物の体格の違い、荷物等付帯物の有無、及び、人物同士の重なりや遮蔽物による隠れによって、実際の人物と差分ベースで取得する人物領域との関係に容易に誤差が生じる。また、この手法では、個々の人物やその並び順を認識しないため、人物ごとの待ち時間を算出することができない。
また、特許文献2に記載の技術においても、特許文献1と同様に単なる滞留者を行列に並ぶ人であるとする誤処理が生じうる。また、その他の課題として、特許文献2に記載の手法は、人物の検出及び追跡が良好に行えることを前提としているが、実環境においては、カメラの設置位置や建物の構造等により、人物同士の重なりや遮蔽物によるオクルージョンの発生が想定される。これにより、オクルージョン領域において人物の検出漏れが生じ、その結果行列に並ぶ人物を正しく繋ぐことに失敗し、誤った人数及び待ち時間を推定してしまう。特許文献2では、このようなオクルージョンの問題を解決するために、高い位置にカメラを設置し人物を真上から撮影することを提案している。しかし、一般的な屋内施設または屋外において必ずしも高い位置にカメラを設置できる環境が整っているとは限らない。また、一般的な監視カメラとも設置位置及び画角が異なるため、行列検出専用のカメラとして新たに設置する必要があり、導入コストの増大につながる。したがって、特殊な設置条件のカメラを使用するのではなく、人物を斜め上から撮影するような既設の監視カメラ映像を使用し、オクルージョンの問題を解決することが望ましい。
以下に説明される本発明の実施形態によれば、上述の課題が解決され、行列に並ぶ意図でない人物の誤検出が防止され、また、天井設置型等特殊なカメラでなくても、オクルージョンに頑健に行列を検出することができる。
以下、本発明の実施形態を、図面を参照して説明する。
<実施形態1>
図1は本発明の実施形態1の構成例を示すブロック図である。
図1に示すように、本実施形態に係る行列検出システムは、画像入力部1と、行列情報入力部2と、行列検出部3と、出力部4とを含む。
画像入力部1は、所定の監視領域を撮影した時系列の画像と撮影時刻との組を、行列検出部3に逐次入力する。画像入力部1が行列検出部3に入力する画像は、例えば監視カメラなどの撮影装置を用いて取得されてもよい。または、画像入力部1は、記憶装置(図示せず)に記憶された映像データを読み出して得られる時系列の画像を行列検出部3に入力してもよい。
なお、本実施形態において検出対象とする物体の種別は特に限定されず、人物、動物、車、ロボット、又は物であってもよい。以下では、人物の検出を例にして説明する。
行列情報入力部2は、解析対象となる行列の発生位置(以下「行列位置」という。)を入力する。行列情報入力部2は、例えばマウスや、タブレット端末のタッチパネルを介してユーザによる行列の発生位置の入力を受け付ける。行列情報入力部2は、ユーザによるマウス操作や、タッチペンや指などによるタッチパネル操作に基づき、監視カメラ映像が表示された画面上に行列の発生位置を入力してもよい。具体的には、行列情報入力部2は、画面上に、行列発生時の人物の足元位置の始点、中継点及び終点を描画して、行列の経路及び進行方向を入力してもよい。この時、ユーザは、始点及び終点を少なくともそれぞれ1点以上指定する必要があるが、中継点の指定は0点であってもよい。また、分岐や合流を含む行列を表現するために、ユーザは、始点又は終点の少なくともいずれかについて2つ以上入力してもよい。また、行列情報入力部2は、始点、中継点、終点間を結ぶ行列線ごとに、横に並ぶ人数の指定を、ユーザから受け付けるようにしてもよい。
また、入力された始点、中継点、終点及び横に並ぶ人数を、監視カメラ映像が表示された画面上に重畳して描画することで、ユーザが入力内容を容易に確認できるようにしてもよい。また、行列情報の入力は、行列検出処理を開始する前にあらかじめ行われていてもよいし、行列検出処理を実行中の任意のタイミングで、変更した行列情報が反映されるようにしてもよい。
なお、行列情報の入力方法は、上述のものに限定されない。例えば、行列発生時の人物の足元位置の始点、中継点及び終点の入力が行われるのではなく、ユーザがタッチパネル上に直接、直線や曲線をなぞることで行列位置を入力するようにしてもよい。または、行列情報入力部2は、ユーザによる入力に基づくのではなく、装置内外で格納されている所定の書式で行列位置が記述されたファイルを読み込む等の方法により自動的に行列位置を入力するようにしてもよい。
ここで、行列情報の入力について具体的に説明する。図2は行列に並ぶ人物を監視カメラで撮影した画像を示す図である図2は、奥から手前方向に人物が並んでいる様子を示す。また、図2は、行列の最後尾では二股に分かれているが、途中で合流し、2列の行列となって先頭まで続いている様子を示している。図3は、行列情報として、行列の最後尾である2つの終点(終点1及び終点2)と、2つの中継点(中継点1及び中継点2)と、行列の先頭である1つの始点(始点1)とが入力された様子を示す。また、図3は、終点1及び2から中継点1までは1列の行列、中継点1から始点1までは2列の行列として入力された様子を示す。
行列情報入力部2は、上述のようにして入力された始点、中継点、終点及び各地点間の情報を、任意のタイミングで行列位置として反映させる。例えば、入力情報を反映させるための「反映」ボタンを表示画面上に表示しておき、ユーザによるそのボタンの押下を検出すると、行列情報入力部2は、入力情報を反映させてもよい。これにより反映された行列情報が、判定部33の判定等に用いられることになる。
行列検出部3は、画像入力部1から逐次入力される画像を解析し、画像中の行列を検出する。行列検出部3は、検出部31と、追跡部32と、判定部33と、生成部34とを備える。
検出部31は、画像入力部1から取得した画像中に存在するすべての、又は一部の人物を検出する。検出部31は、例えば、あらかじめ人物の頭部、上半身など特定部位の人体領域のパターンを認識するために構築された識別器を利用し入力画像から人物を検出する処理を行ってもよい。識別器を利用する方法に限定されず、検出部31は、人物の検出方法としてパターン認識における公知の手法を用いればよい。
また、検出部31は、行列位置の近辺に存在する人物のみを検出対象とするために、行列情報入力部2から入力される行列位置に基づいて、検出対象領域を限定して検出処理を行うようにしてもよい。すなわち、検出部31は、入力された行列位置の近傍の領域に対してのみ検出処理を行うようにしてもよい。
検出部31は、検出結果として、画像入力部1から取得した画像の時刻と、検出した人物の位置座標を出力する。入力画像を撮影したカメラのキャリブレーション情報について、あらかじめ算出されている等によりわかっている場合、検出部31は、キャリブレーション情報を用いて、人物の検出結果である画面上の位置座標を世界座標に変換して出力してもよい。
追跡部32は、検出部31により各フレーム画像から検出された人物を対象に、複数フレーム間に渡って人物の追跡を行う。追跡部32は、例えば、パーティクルフィルタなどの公知のアルゴリズムを用いて、人物の追跡処理を行うようにしてもよい。
追跡部32は、追跡対象の人物の位置を更新するために用いる移動モデルに関し、対象が行列に並ぶ人物か否かによって、異なる移動モデルを使用してもよい。追跡部32は、行列に並ぶ人物であるかどうかにつき、例えば判定部33が管理する行列人物ID(IDentifier)リストを参照してもよい。その場合、追跡部32は、追跡対象の人物IDが行列人物IDリストに登録されていれば行列に並ぶ人物であると判定し、登録されていなければ行列に並んでいない人物であると判定しても良い。
行列に並ぶ人物に関し、並んでいる時間の多くは静止状態である。そのため、多くの時間で静止状態を表す(すなわち、ほとんど移動しない)移動モデルを適用することが適切である。また、行列情報入力部2から得られる行列位置情報により、場所ごとの進行方向は既知である。そのため、進行方向を限定した移動モデルを適用することができる。つまり、追跡部32は、行列に並ぶ人物に対して、移動状態と静止状態を表す2状態モデルを使用した追跡処理を行うことで、より頑健に追跡することが可能になる。追跡部32は、行列に並ぶ人物が静止状態か移動状態かに応じて、各状態モデルの重みを変化させるようにしてもよい。
一方で、行列に並んでいない人物は、移動方向に制限がない。そのため、追跡部32は、行列に並んでいない人物に対しては、所定範囲の移動速度で全方位に移動することを想定した移動モデルを適用してもよい。
入力された人物の位置情報が画像上の平面座標である場合で、あらかじめ算出されている等の事情により入力画像を撮影したカメラのキャリブレーション情報をわかっている場合、追跡部32は、世界座標系で追跡処理を行ってもよい。すなわち、追跡部32は、キャリブレーション情報を用いて、画面上の座標系を世界座標系に変換してから追跡処理を行ってもよい。人物の位置情報が世界座標系で入力される場合は、追跡部32は、そのまま世界座標系にて追跡処理を行ってもよい。
追跡部32は、追跡結果を出力する。追跡部32は、例えば、追跡結果として、追跡対象の人物毎の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。
判定部33は、追跡部32から出力される時刻ごとの人物の位置座標をもとに、各人物の移動速度を算出する。判定部33は、人物の位置座標と、行列情報入力部2から入力される行列位置の座標とを比較し、各人物と行列位置との距離を算出する。
判定部33は、移動速度及び行列位置との距離が所定の閾値よりも小さくなる人物を、行列に並ぶ人物(以下、「行列人物」という。)と判定する。判定部33は、当該移動速度または行列位置との距離が所定の閾値以上となる人物を、行列に並ばない人物(以下、「移動人物」という。)と判定する。
判定部33は、検出部31が特定部位として頭部を検出した場合、カメラパラメータを用いて、頭部の位置から人物の足元に相当する下端位置を推定し、推定した下端位置と行列位置との距離に基づいて、人物が行列に並んでいるか否かを判定してもよい。これにより、足元を直接検出することが困難な場合にも、比較的検出が容易な頭部を検出し、そこから足元を推定するとこで、判定部33は、精度よく行列人物か否かを判定することができる。判定部33は、人物が大人である可能性や子供である可能性を考慮してもよい。具体的には、例えば、判定部33は、頭部の世界座標系における高さを複数のバリエーションで仮定し、カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定する。判定部33は、推定した複数の下端位置と行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定してもよい。
判定部33は、追跡中の各人物IDが、行列人物と移動人物のどちらであるかを示す行列人物IDリストを保持しておく。行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報と、の組を管理しているリストである。
判定部33は、追跡中の各人物IDについて、移動速度と行列位置との距離に基づく判定結果を用いて、行列人物IDリストを更新する。
判定部33は、行列人物であると判定した人物の情報を出力する。判定部33は、例えば、行列人物であると判定した人物の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。
生成部34は、判定部33から入力される行列人物の情報と、行列情報入力部2から入力される行列位置の情報とに基づいて、欠損のない全体の行列情報を生成する。すなわち、生成部34は、未検出領域を推定し、行列人物の情報から未検出領域に並ぶ人物の情報を補完して、行列情報を生成する。
具体的には、生成部34は、行列人物の位置座標と、行列位置と、に基づいてオクルージョンの発生状況(オクルージョンの影響による人物の未検出領域)を推定する。生成部34は、推定したオクルージョンの発生状況と、未検出領域前後の行列人物の検出状況等から、オクルージョンの影響により検出されなかった人物の存在を推定する。また、生成部34は、見えが小さすぎることにより人物が検出できない領域(見えの影響による人物の未検出領域)を推定する。生成部34は、見えの影響による未検出の可能性と、行列人物の検出状況とから、検出されなかった人物の存在を推定する。生成部34は、未検出だが存在すると推定された人物の情報を補完することで、欠損のない全体の行列情報を生成する。生成部34は、欠損のない全体の行列情報として、例えば、行列に並ぶ人数、行列の長さ、行列に並ぶ各人の累積待ち時間、行列の進行速度、行列に並び始めてから行列を抜けるまでの推定待ち時間などの情報を生成してもよい。
オクルージョンの発生状況の推定方法として、図4、図5を用いて説明する。
図4は、折り返しのある行列を撮影した画像を示す図である。図4は、画像中の左上が行列の始点(先頭)となり、途中で2回折り返し、右下が行列の終点(最後尾)となっている様子を示す。
斜め下を見下ろす画角で撮影された映像は、カメラからの距離が遠い場所ほど俯角が浅くなる。そのため、人物が等間隔に並んだ行列においても、カメラから遠い人物ほど手前の人物に隠れやすくなってしまう。また、カメラから離れるほど人物の見えが小さくなる。そのため、カメラから遠くに存在する人物は、人物を検出可能な最小画素数を下回ることで、検出されなくなることがある。具体例として、図4では、網掛けで示した領域で、オクルージョンや人物の見えが小さすぎることにより未検出となったことを示している。
このような状況において、例えば行列全体の待ち人数を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、判定部33により行列人物と判定された人物の位置座標と、行列情報入力部2から入力された行列位置とに基づいて、途切れた行列長を算出する。また、生成部34は、人物位置が得られている領域から人口密度(所定の距離内で並ぶ人数)を推定する。生成部34は、推定した人口密度に基づいて途切れた行列長に存在する人数を推定し、検出できた人数と合算して待ち人数を算出する。生成部34は、例えば上述の方法で待ち人数を算出する。
また、各人の累積待ち時間を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、上述の方法でオクルージョン領域に存在する人数を推定する。生成部34は、オクルージョン領域の直前及び直後で検出された人物について、行列に並び始めてからの累積待ち時間を算出する。生成部34は、算出した2つの累積待ち時間の時間差をオクルージョン領域に存在する推定人数で除算する。生成部34は、除算することで算出した時間差を、オクルージョン領域に存在する先頭の人物から順に、前に並んでいる人物の累積待ち時間に加算していくことで、累積待ち時間の補間処理を行う。
出力部4は、行列検出部3から入力される行列情報を出力する。出力部4の出力様態は、例えば、表示出力である。この場合、出力部4は、外部に備えられたディスプレイ装置に表示を行えばよい。ただし、出力部4の出力態様は表示に限定されず、他の態様であってもよい。
次に、本実施形態に係る行列検出システムの動作について、図6及び図7のフローチャートを参照して説明する。図6は、ユーザが行列位置を入力する際の処理フローの一例を示す。図7は、行列位置が入力されたのち、行列を検出し、欠損のない全体の行列情報を生成する際の処理フローの一例を示す。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更してもしくは並列に実行してもよく、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行してもよく、便宜上複数に分けて記載されているステップを1ステップとして実行してもよい。
はじめに、ユーザが行列位置を入力する際の処理について、図6のフローチャートを参照して説明する。
行列情報入力部2は、所定の監視領域を撮影した画像を取得し、行列位置を設定するための画面上に表示する(ステップSA1)。
次に、ユーザは、表示された画面上に、未設定である行列が存在するかどうかを確認する。行列の設定が完了しておらず未設定の行列が存在する場合、行列情報入力部2は、所定の入力装置を介してユーザによる行列位置の入力の開始を受け付ける(ステップSA2のno)。入力装置としては、例えばマウスやタッチパネルが該当し、タッチパネルであれば、ユーザはタッチペンや指などを使用して入力すればよい。
行列情報入力部2は、ユーザによる行列の始点の入力を受け付ける(ステップSA3)。ユーザが設定しようとしている行列に始点が複数存在する場合は、行列情報入力部2は、ステップSA3ですべての始点の入力を受け付ける。
次に、行列情報入力部2は、ユーザによる行列の分岐や経由地点を表す中継点の入力を受け付ける(ステップSA4)。もし行列が始点と終点を結ぶ直線で表すことができる場合は、中継点の入力は必要ないため、ステップSA4の処理は省略される。また、ユーザが設定しようとしている行列に中継点が複数存在する場合は、行列情報入力部2は、ステップSA4ですべての中継点の入力を受け付ける。
次に、行列情報入力部2は、行列の終点の入力を受け付ける(ステップSA5)。ユーザが設定しようとしている行列に終点が複数存在する場合は、行列情報入力部2は、ステップSA5ですべての終点の入力を受け付ける。
なお、ステップSA3、SA4及びSA5で入力した始点、中継点及び終点は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各点を確認できるものとしてもよい。
次に、ユーザは、入力した始点、中継点及び終点の地点間を結ぶ各線分に対し、列の数(横に並ぶ人数)の入力が未設定である線分が存在するかどうかを確認する。列数の設定が完了しておらず未設定の線分が存在する場合、行列情報入力部2は、未設定の線分に対し、上述した入力装置を介してユーザによる列の数の入力の開始を受け付ける(ステップSA6のno)。行列情報入力部2は、ユーザによる列の数の入力を受け付ける(ステップSA7)。
なお、ステップSA7で入力した地点間を結ぶ各線分及び列の数は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各線分の人数を確認できるものとしてもよい。
行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了する(ステップSA6のyes)と、ステップSA2に戻り、次の行列に関する入力の受付を開始する。行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。
行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを判定すると(ステップSA2のyes)、行列情報入力部2における行列情報の入力は完了となる。行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。
次に、行列を検出し行列待ち情報を生成する際の処理について、図7のフローチャートを参照して説明する。
検出部31は、入力部1から、撮影画像とその撮影時刻を取得する(ステップSB1)。検出部31は、画像中に存在するすべての人物を検出し、時刻及び検出した人物の位置座標を出力する(ステップSB2)。
次に、追跡部32の追跡結果を受け、判定部33は、前フレーム画像に対する処理結果として得られた追跡人物に関して、行列人物IDリストを参照し(ステップSB3)、行列人物であるかどうかを判定する(ステップSB4)。なお、行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報との組を管理しているリストである。
行列人物である場合(ステップSB4のyes)、判定部33は、行列人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5a)。判定部33は、行列人物用の移動モデルとして、例えば、行列が静止している状態を表す移動モデルと、行列が進む状態を表す移動モデルの2状態モデルを用いてもよい。具体的には、静止状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像でほとんど位置の変化がないという予測を行う。一方、進む状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像とで、行列情報入力部2から得られる行列位置の情報に基づいて移動方向を限定した予測を行う。
一方、移動人物である場合(ステップSB4のno)、判定部33は、移動人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5b)。判定部33は、移動人物用の移動モデルとして、例えば、移動方向に制限がないため、所定範囲の移動速度で全方位に移動することを想定したモデルを用いてもよい。
次に、判定部33は、ステップSB5a及びステップSB5bにて算出した、現在から過去数フレーム分の人物位置座標及び各時刻情報を用いて、人物の移動速度を算出する(ステップSB6)。
判定部33は、現フレームにおける人物位置座標と、行列情報入力部2から得られる行列位置との最短距離等適切な距離を算出する(ステップSB7)。
判定部33は、ステップSB6で算出した移動速度と、ステップSB7で算出した距離とを用い、移動速度があらかじめ定めた閾値よりも小さく、かつ、距離があらかじめ定めた閾値よりも小さいかどうかを判定する(ステップSB8)。前記条件を満たす場合(ステップSB8のyes)は、当該人物は行列人物であると判定する(ステップSB9a)。一方、前記条件を満たさない場合(ステップSB8のno)は、当該人物は、移動人物であると判定する(ステップSB9b)。
判定部33は、ステップSB9a及びステップSB9bにおける行列に並ぶ人物か否かの判定結果を用いて、判定部33が管理している行列人物IDリストを更新する(ステップSB10)。
次に、生成部34は、ステップSB9aで行列人物と判定された人物の人物位置と、行列情報入力部2から取得した行列位置とに基づいて、オクルージョンの発生状況を推定する。生成部34は、オクルージョン領域に存在する行列情報の補間処理を行う(ステップSB11)。具体的には、行列情報として待ち人数を算出する場合、生成部34は、ステップSB9aで行列人物と判定された人物の位置情報と、行列情報入力部2から得られる行列位置情報とを用いて、オクルージョンにより途切れた未検出領域の行列長を算出する。また、生成部34は、行列人物の人口密度(所定の距離内で並ぶ人数)を算出する。生成部34は、算出した人口密度に基づいて途切れた未検出領域の行列長に存在する人数を推定し、検出できている行列人物と合算して待ち人数を算出する。
出力部4は、生成部34から出力される行列情報を、例えばアプリケーションや記憶媒体などの外部モジュールに対して出力する(ステップSB12)。
また、図6に示す行列情報の入力処理は、図7に示す行列検出処理を開始する前にあらかじめ行われていてもよい。あるいは、図7に示す行列検出処理が実行中の任意のタイミングで、図6に示す処理が行われて行列情報が更新され、更新された行列情報を用いて図7に示す行列検出処理が再開されるようにしてもよい。
実施形態1に係るプログラムは、上記の一連の処理をコンピュータに実行させるプログラムであれば良い。
以上説明したように実施形態1に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。
また、オクルージョンが発生する環境においても、隠れている領域の行列の長さを推定することで、人数の補間処理が可能になる。また、行列形状が複雑な場合でも、場所ごとの進行方向が既知となるため、行列人物追跡時の移動モデルに進行方向を活用することで、追跡の頑健性が向上する。そのため、実施形態1に係る行列検出システムによれば、行列に並ぶ人物を検出し、人数や待ち時間等の行列情報を好適に推定することができる。
また、行列に並ぶことを意図していない人物が行列の付近に立ち止まった場合にも、人物と行列位置との距離の閾値を適切に設定することで、行列に並ぶ人物ではないと判定することが可能になる。さらに、行列に並ぶ人物か否かの判定に、人物と行列位置との距離を考慮するのみではなく、人物の移動速度も考慮することで、行列の間を横切って通過する人物についての行列位置付近での判定において、当該人物は行列に並ぶ人物ではない、と精度よく判定することが可能になる。
<実施形態2>
次に図8を参照して、本発明の実施形態2に係る行列検出システムの機能構成を説明する。
図8は本発明の実施形態2の構成例を示すブロック図である。
図8に示すように、本実施形態に係る行列検出システムは、行列情報入力部51と、検出部52と、判定部53とを含む。
行列情報入力部51は、行列位置の入力を受け付ける。
検出部52は、入力画像から対象物を検出する。
判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。
図9は実施形態2に係る行列検出システムの動作を示すフローチャート図である。
行列情報入力部51は、行列位置の入力を受け付ける(ステップSC1)。
検出部52は、入力画像から対象物を検出する(ステップSC2)。
判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する(ステップSC3)。
以上説明したように、実施形態2に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。
<ハードウェア構成例>
上述の各実施形態の行列検出システムを構成する各部は、制御部、メモリ、メモリにロードされたプログラム、プログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェース等からなり、ハードウェアとソフトウェアの任意の組合せによって実現される。
図10は、実施形態1又は実施形態2に係る行列検出システムのハードウェア構成の一例を示すブロック図である。
図10に示すように、行列検出システムは、CPU11(Central Processing Unit)と、ネットワーク接続用の通信IF12(通信インターフェース12)と、メモリ13と、プログラムを格納するハードディスク等の記憶装置14とを含む、コンピュータ装置によって実現される。ただし、行列検出システムの構成は、図10に示す構成に限定されない。
CPU11は、オペレーティングシステムを動作させて行列検出システムの全体を制御する。また、CPU11は、例えばドライブ装置などに装着された記録媒体からメモリ13にプログラムやデータを読み出す。CPU11がメモリ13にプログラムやデータを読み出すことで、画像入力部1、行列情報入力部2、行列検出部3(検出部31、追跡部32、判定部33及び生成部34)及び出力部4の各機能部が実現される。
行列検出システムは、例えば通信IF12を介して他のコンピュータである画像入力装置と接続されても良い。
記録装置14は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、半導体メモリ等であって、コンピュータプログラムをコンピュータ読み取り可能に記録する。記憶装置14は、例えば、統合したデータを格納するデータ格納部でも良い。また、コンピュータプログラムは、通信網に接続されている図示しない外部コンピュータからダウンロードされても良い。
行列検出システムは、入力装置15又は出力装置16と接続されていても良い。入力装置15は、例えばキーボード、マウス等である。出力装置16は、例えばディスプレイ等でも良く、出力部4が出力する行列情報をディスプレイ上に表示しても良い。
なお、図1及び図8の機能ブロック図においては、各実施形態の構成部は物理的に結合した一つの装置により実現されるよう記載されているが、その実現手段は特に限定されない。すなわち、二つ以上の物理的に分離した装置を有線または無線で接続し、これら複数の装置により、各実施形態のシステムを実現しても良い。
以上、各実施形態及び実施例を参照して本発明を説明したが、本発明は以上の実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で同業者が理解し得る様々な変更をすることができる。
<実施形態の他の表現>
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
行列位置の入力を受け付ける行列情報入力手段と、
入力画像から対象物を検出する検出手段と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
を含む行列検出システム。
(付記2)
前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む付記1に記載の行列検出システム。
(付記3)
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
付記2に記載の行列検出システム。
(付記4)
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
付記3に記載の行列検出システム。
(付記5)
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する
付記1~4のいずれかに記載の行列検出システム。
(付記6)
対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、検出した対象物の位置を追跡する追跡手段、
をさらに含み、
前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する
付記5に記載の行列検出システム。
(付記7)
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
付記6に記載の行列検出システム。
(付記8)
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
付記1~7のいずれかに記載の行列検出システム。
(付記9)
前記行列情報入力手段は、
入力画像上に前記始点、中継点、終点及び各地点間の列数を描画したものを入力情報として用い、任意のタイミングで前記行列位置として反映させる
付記8に記載の行列検出システム。
(付記10)
前記検出手段は、前記対象物の特定部位を検出し、
前記判定手段は、カメラパラメータを用いて、前記特定部位の位置から前記対象物の下端位置を推定し、推定した下端位置と前記行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記1~9のいずれかに記載の行列検出システム。
(付記11)
前記判定手段は、前記特定部位の世界座標系における高さを複数のバリエーションで仮定し、前記カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定し、推定した複数の下端位置と前記行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記10に記載の行列検出システム。
(付記12)
行列位置の入力を受け付け、
入力画像から対象物を検出し、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する、
行列検出方法。
(付記13)
行列位置の入力を受け付ける行列情報入力処理と、
入力画像から対象物を検出する検出処理と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
をコンピュータに実行させるプログラム。
この出願は、2015年9月14日に出願された日本出願特願2015-180260を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、精度の良い行列監視システムを提供でき、監視領域内で発生する行列を検出し、待ち人数や待ち時間を提示するシステムに好適に適用することができる。
また、本発明では、あらかじめ入力した行列の発生位置情報を活用することにより、棚や柱や人物同士の重なりによるオクルージョンが発生しやすい環境においても、特殊なカメラの設置条件を必要とせずに、欠損なく待ち人数や待ち時間を推定することができるため、行列検出システムの導入が容易になる。
1 画像入力部
2、51 行列情報入力部
3 行列検出部
4 出力部
31、52 検出部
32 追跡部
33、53 判定部
34 生成部
11 CPU
12 通信IF
13 メモリ
14 記憶装置
15 入力装置
16 出力装置

Claims (9)

  1. 少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との指定により行列位置の入力を受け付ける行列情報入力手段と、
    記行列位置を、撮像画像上に重畳描画させる表示制御手段と、
    前記撮像画像に映る対象物の位置と、前記行列位置とに基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
    を含む行列検出システム。
  2. 前記撮像画像に映る対象物の特定部位である頭部を検出する検出手段、
    をさらに含み、
    前記判定手段は、前記頭部の位置から、前記頭部が検出された対象物の下端位置を推定し、推定した下端位置と前記行列位置との距離に基づいて、前記頭部が検出された対象物が行列に並んでいるか否かを判定する
    請求項1に記載の行列検出システム。
  3. 前フレームの撮像画像において行列に並んでいると判定された対象物について、行列に並ぶ対象物用の移動モデルを用いて現フレームの撮像画像における対象物の位置を予測し、前記前フレームの撮像画像において行列に並んでいないと判定された対象物について、行列に並ばない対象物用の移動モデルを用いて前記現フレームの撮像画像における対象物の位置を予測する追跡手段、
    をさらに含み、
    前記判定手段は、前記現フレームから過去フレームの撮像画像における対象物の位置と、前記行列位置とに基づいて、前記対象物が行列に並んでいるか否かを判定する
    請求項1または2に記載の行列検出システム。
  4. 前記行列に並ぶ対象物用の移動モデルは、行列が静止している状態を表す移動モデルと、行列の進行方向に行列が進む状態を表す移動モデルとを含む2状態モデルであり、
    前記行列に並ばない対象物用の移動モデルは、所定範囲の移動速度で全方位に対象物が移動することを想定した移動モデルである
    請求項3に記載の行列検出システム。
  5. 前記行列位置に存在する対象物の数を推定する生成手段と、
    をさらに含む、
    請求項1から4のいずれか1項に記載の行列検出システム。
  6. 前記判定手段は、前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する
    請求項1から5のいずれか1項に記載の行列検出システム。
  7. 前記行列情報入力手段は、隣接する前記始点と、前記中継点と、前記終点との間を結ぶ線分に対して、前記対象物が横並びになる列数の入力を受け付ける、
    請求項1から6のいずれか1項に記載の行列検出システム。
  8. 少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との指定により行列位置の入力を受け付け、
    記行列位置を、撮像画像上に重畳描画させ、
    前記撮像画像に映る対象物の位置と、前記行列位置とに基づいて、前記対象物が行列に並んでいるか否かを判定する、
    行列検出方法。
  9. 少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との指定により行列位置の入力を受け付ける行列情報入力処理と、
    記行列位置を、撮像画像上に重畳描画させる表示制御処理と、
    前記撮像画像に映る対象物の位置と、前記行列位置とに基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
    をコンピュータに実行させるプログラム。
JP2020043673A 2015-09-14 2020-03-13 行列検出システム、方法及びプログラム Active JP7036138B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015180260 2015-09-14
JP2015180260 2015-09-14

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017540493A Division JP6852675B2 (ja) 2015-09-14 2016-09-12 行列検出システム、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020113300A JP2020113300A (ja) 2020-07-27
JP7036138B2 true JP7036138B2 (ja) 2022-03-15

Family

ID=58288534

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017540493A Active JP6852675B2 (ja) 2015-09-14 2016-09-12 行列検出システム、方法及びプログラム
JP2020043673A Active JP7036138B2 (ja) 2015-09-14 2020-03-13 行列検出システム、方法及びプログラム
JP2021033283A Active JP7060126B2 (ja) 2015-09-14 2021-03-03 行列検出システム、方法及びプログラム
JP2022064304A Pending JP2022101591A (ja) 2015-09-14 2022-04-08 行列検出システム、方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017540493A Active JP6852675B2 (ja) 2015-09-14 2016-09-12 行列検出システム、方法及びプログラム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021033283A Active JP7060126B2 (ja) 2015-09-14 2021-03-03 行列検出システム、方法及びプログラム
JP2022064304A Pending JP2022101591A (ja) 2015-09-14 2022-04-08 行列検出システム、方法及びプログラム

Country Status (2)

Country Link
JP (4) JP6852675B2 (ja)
WO (1) WO2017047060A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6852791B2 (ja) * 2017-06-30 2021-03-31 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP7129209B2 (ja) * 2018-05-16 2022-09-01 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN110505438B (zh) * 2018-05-18 2021-03-26 杭州海康威视数字技术股份有限公司 一种排队数据的获取方法和摄像机
CN110503284B (zh) * 2018-05-18 2022-08-05 杭州海康威视数字技术股份有限公司 一种基于排队数据的统计方法及装置
KR102040218B1 (ko) * 2018-06-11 2019-11-04 엘지전자 주식회사 대기열을 인식하는 이동식 로봇 및 이동식 로봇의 동작 방법
JP7195367B2 (ja) * 2021-04-22 2022-12-23 三菱電機株式会社 待機者誘導装置、待機者誘導方法及び待機者誘導プログラム
JP7445906B1 (ja) 2022-12-02 2024-03-08 パナソニックIpマネジメント株式会社 設置支援装置、設置支援方法、及び、設置支援プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519567A (ja) 2004-11-02 2008-06-05 センサーマティック・エレクトロニクス・コーポレーション 行列監視のためのシステム及び方法
JP2015069639A (ja) 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3480847B2 (ja) * 2003-02-03 2003-12-22 株式会社東芝 画像監視装置を利用したエレベータ制御装置
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
JP2007317052A (ja) 2006-05-29 2007-12-06 Japan Airlines International Co Ltd 行列の待ち時間の計測システム
US9530060B2 (en) * 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
GB201306313D0 (en) * 2013-04-08 2013-05-22 Vision Semantics Ltd Queue analysis
JP6276519B2 (ja) * 2013-05-22 2018-02-07 株式会社 日立産業制御ソリューションズ 人数計測装置および人物動線解析装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519567A (ja) 2004-11-02 2008-06-05 センサーマティック・エレクトロニクス・コーポレーション 行列監視のためのシステム及び方法
JP2015069639A (ja) 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法

Also Published As

Publication number Publication date
JP2022101591A (ja) 2022-07-06
JP2020113300A (ja) 2020-07-27
JP6852675B2 (ja) 2021-03-31
JP2021093205A (ja) 2021-06-17
JPWO2017047060A1 (ja) 2018-06-28
WO2017047060A1 (ja) 2017-03-23
JP7060126B2 (ja) 2022-04-26

Similar Documents

Publication Publication Date Title
JP7036138B2 (ja) 行列検出システム、方法及びプログラム
US10082879B2 (en) Head mounted display device and control method
JP6525545B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US20190191098A1 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
JP5885398B2 (ja) 画像処理装置、画像処理方法
JP6639091B2 (ja) 表示制御装置及び表示制御方法
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20130066438A (ko) 영상 처리 장치 및 영상 처리 방법
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
US20210329175A1 (en) Image processing system, image processing method, and program
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP6629139B2 (ja) 制御装置、制御方法およびプログラム
US20110249862A1 (en) Image display device, image display method, and image display program
JP2007034525A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP6789421B2 (ja) 情報処理装置、追跡方法、及び追跡プログラム
KR102344227B1 (ko) 동체 검출 장치, 동체 검출 방법, 동체 검출 프로그램
JP2006236184A (ja) 画像処理による人体検知方法
JP2014186547A (ja) 移動物体追跡システム、方法及びプログラム
JP6736348B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP6723822B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6780639B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP5893400B2 (ja) 画像監視装置
JP5854098B2 (ja) 情報表示装置及び情報表示用プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R151 Written notification of patent or utility model registration

Ref document number: 7036138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151