JP7444284B2 - カメラデバイス制御装置、カメラデバイス制御方法、および、カメラデバイス制御プログラム - Google Patents

カメラデバイス制御装置、カメラデバイス制御方法、および、カメラデバイス制御プログラム Download PDF

Info

Publication number
JP7444284B2
JP7444284B2 JP2022563296A JP2022563296A JP7444284B2 JP 7444284 B2 JP7444284 B2 JP 7444284B2 JP 2022563296 A JP2022563296 A JP 2022563296A JP 2022563296 A JP2022563296 A JP 2022563296A JP 7444284 B2 JP7444284 B2 JP 7444284B2
Authority
JP
Japan
Prior art keywords
image data
image
target
specific detection
device control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022563296A
Other languages
English (en)
Other versions
JPWO2022107231A1 (ja
Inventor
博史 野口
卓万 磯田
誠亮 新井
昌宏 宮坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022107231A1 publication Critical patent/JPWO2022107231A1/ja
Application granted granted Critical
Publication of JP7444284B2 publication Critical patent/JP7444284B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、人物等の発見対象を認証するために、任意に設置された複数のカメラデバイスを制御する、カメラデバイス制御装置、カメラデバイス制御方法、および、カメラデバイス制御プログラムに関する。
モノのインターネットと呼ばれるIoT(Internet of Things)が急速な普及拡大をみせており2025年には100億台を超えるデバイスがインターネットに接続されると言われている。ネットワークにつながる代表的なデバイスの一つにネットワークカメラがある。2020年時点において、店舗やオフィスビルには、保安監視を目的とする多数のネットワークカメラが設置されている。これらのカメラは、特定の保安監視用途にのみ設置され、特定の事業者によってのみ使用されているが、今後、IoTのさらなる普及に伴い、事業者を跨った多様な用途への利用が想定される。
広域に設置された複数のネットワークカメラを活用するサービスの一つに、人物の認定(発見)、追跡サービスがある。これは、ネットワークカメラがリアルタイムに撮影した画像から人物を抽出し、画像分析処理を行うことで同一人物を判定して追跡するサービスである。画像分析の学術研究では、このような画像分析を、ID-ReIndentification(非特許文献1参照)と呼んでいる。
このような任意設置されたカメラの撮影画像を用いる画像解析は、データ品質の確保が問題となる。人物の顔認識のような高度な画像解析には、分析対象とするデータの品質が重要である。画像分析ソフトウェアの仕様によって詳細の条件は異なるが、一般的には、正面から顔をとらえ、目や鼻といった特徴点が隠れておらず、また、一定以上の解像度の画像が必要である。
テーマパークや空港のパスポート認証のような特定環境下のカメラを用いて人物照合を行うサービスでは、照合対象者の協力のもと、このような画像の用意が可能である。一方、前述のような任意設置されたネットワークカメラを適宜活用する場合には、偶然にこのような画像が得られることは稀である。例えば、店舗天井に設置された監視カメラを用いて無作為に撮影を行うことで得られる画像は、人物の顔が隠れている、もしくは顔領域の画像サイズが極めて小さいといった、顔認識の要件を満たさないものが大半と予想される。
このような画像を分析処理にかけたところで、正確な画像分析結果を獲得できず、また、処理にかかったコンピュータの消費電力、ネットワークカメラの稼働電力、および、ネットワークカメラからコンピュータへのデータ通信にかかる通信コストに無駄が生じる。さらに、要件を満たす画像が偶然撮影されるまで処理を実行すると、目的の画像分析結果を得るまでに長い時間を要してしまう。そして、処理に要する時間が長大になるほど、サービス品質を損なうことになり、また、システム全体のコストを増加させてしまう。
この問題に対し、従来、収集データの品質を向上させる手段の一つとして、PTZカメラを利用する手段が知られている。PTZカメラとは、パン、チルト、ズームといった可動機能を有し、特定領域の拡大画像を取得することが可能なカメラである。PTZカメラを適切に制御することで、画像分析対象の高精細なデータを取得することが可能である。例えば、発見対象である人物等を検知して、その人物等の移動に合わせて撮影範囲を自動的に移動させるカメラが販売されている(非特許文献2参照)。また、市販のデジタルカメラの中には、人物の顔を判定してその周辺を自動的にズームする機能を有するものがある(非特許文献3参照)。
Zheng, Liang, Yi Yang, and Alexander G. Hauptmann. "Person re-identification: Past, present and future." arXiv preprint arXiv:1610.02984 (2016). "BEST CAM", [online],株式会社塚本無線,[令和2年11月10日検索],インターネット<URL:https://www.best-cam.jp/> "PowerShot SX70 HS 「フレーミングアシスト(オートズム)」",[online],キャノン株式会社,[令和2年11月10日検索],インターネット<URL:https://cweb.canon.jp/camera/dcam/lineup/powershot/sx70hs/feature-zoom.html>
しかしながら、上記した技術は、複数の検知対象の候補の中から、特定の検知対象(例えば、特定の人物)を発見し追跡することを考慮したものではない。例えば、非特許文献2に記載した技術は、任意設置されたネットワークカメラが複数の検知対象を同時に撮影している状況下では、追跡対象を適切に選択できない。また、非特許文献3に記載した技術は、追跡対象(人物)の発見、追跡という観点でズーム対象を選択するものではなく、追跡対象となる人物を予めユーザ側が指定してからその追跡対象についてズームをするものである。つまり、これらの機能は、複数の検知対象の候補の中から、特定の検知対象の発見、追跡といった目的に利用すると、適切な検知対象を高品質(高精度)なデータとして抽出することができず、目的達成に多大な時間とコストを要してしまう。
このような点を鑑みて本発明がなされたのであり、環境内に任意設置されたネットワークカメラを用いて複数の検知対象の候補から特定の検知対象を発見する場合において、高品質データを効率的に収集することを課題とする。
具体的には、目的とする画像分析結果獲得にかける時間、ネットワークカメラの稼働電力、データ分析に要するコンピュータの消費電力、および、ネットワークカメラからコンピュータへのデータ通信にかかる通信コスト、を最小化するカメラデバイス制御を実行することを課題とする。
本発明に係るデバイス制御装置は、複数のネットワークカメラを制御するカメラデバイス制御装置であって、発見対象が撮影された画像データである発見対象画像データ、および、前記ネットワークカメラ毎の稼働に伴うコストの情報が格納されるデバイス管理情報を記憶する記憶部と、検知対象を撮影した画像データを、前記ネットワークカメラそれぞれから取得し、取得した前記画像データで示される特定の検知対象の画像と、前記発見対象画像データで示される前記発見対象の画像とについて、類似している度合いを示す類似度を算出し、前記特定の検知対象ごとに、前記画像データを、算出した前記類似度に紐付けて前記記憶部に格納する画像分析部と、前記記憶部に格納された前記特定の検知対象ごとの複数の前記画像データに基づき、複数の前記画像データそれぞれの画像サイズ、前記画像データの数、および、複数の前記画像データで示される特定の検知対象の画像のばらつきを示す分散に基づき、算出された前記類似度の確からしさを示す確信度を算出し、前記類似度および前記確信度を用いて、前記特定の検知対象と前記発見対象との一致若しくは不一致を判定する一致判定部と、前記デバイス管理情報で示される前記ネットワークカメラごとの稼働に伴うコストにより算出される撮影開始までの時間、および、前記分散の所定時間における変動率により、予想データ収集時間を算出し、算出した前記予想データ収集時間と、前記記憶部に格納された前記特定の検知対象ごとの複数の前記画像データに紐付く前記類似度のうちの最大の類似度とを用いて、行動優先度を算出し、前記行動優先度が最も小さくなる組み合わせである、撮影対象とする前記特定の検知対象、当該特定の検知対象を撮影するネットワークカメラ、および、当該ネットワークカメラにより前記特定の検知対象を撮影するための稼働制御を選択し、選択したネットワークカメラが、選択した特定の検知対象を、選択した稼働制御により撮影するように制御するデバイス制御部と、を備えることを特徴とする。
本発明によれば、環境内に任意設置されたネットワークカメラを用いて複数の検知対象の候補から特定の検知対象を発見する場合において、高品質データを効率的に収集することができる。
具体的には、目的とする画像分析結果獲得にかける時間、ネットワークカメラの稼働電力、データ分析に要するコンピュータの消費電力、および、ネットワークカメラからコンピュータへのデータ通信にかかる通信コスト、を最小化するカメラデイバス制御を実行することができる。
本実施形態に係るカメラデバイス制御装置を含むカメラデバイス制御システムの構成を示す機能ブロック図である。 本実施形態に係るデバイス管理情報の一例を示す図である。 本実施形態に係るデバイス管理情報の一例を示す図である。 本実施形態に係るカメラデバイス制御装置が実行する処理の流れを示すフローチャートである。 本実施形態に係るカメラデバイス制御装置のデバイス制御部による、ネットワークカメラ制御の処理の流れを示すフローチャートである。 本実施形態に係るカメラデバイス制御装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
次に、本発明を実施するための形態(以下、「本実施形態」と称する。)について説明する。
図1は、本実施形態に係るカメラデバイス制御装置1を含むカメラデバイス制御システム1000の構成を示す機能ブロック図である。
カメラデバイス制御システム1000は、任意に設置された複数のネットワークカメラ5と、各ネットワークカメラ5と通信接続されるカメラデバイス制御装置1とを備える。
ネットワークカメラ5は、通信ネットワークを介して、撮影画像をカメラデバイス制御装置1に送信する機能を備えるとともに、カメラデバイス制御装置1からカメラの制御情報を受け取りその制御を実行する。ここで、ネットワークカメラ5に対する制御情報とは、例えば、そのネットワークカメラ5が撮影目的とする検知対象(後記する「注視対象」)や、パン、チルト、ズーム等の稼働制御、カメラデバイス自体の電源制御などである。
本実施形態に係るカメラデバイス制御装置1は、複数の検知対象が複数のネットワークカメラ5によって撮影されている場合において、複数の検知対象から特定の検知対象を発見するため、画像の品質および画像の収集効率の観点から、どのネットワークカメラ5において、複数の検知対象のうちのどの検知対象(注視対象)を注視するのかを選択し、その選択した検知対象(注視対象)を撮影するためのネットワークカメラ5の最適な制御を実行する。
なお、本実施形態におけるカメラデバイス制御装置1が対象とする検知対象は、人物に限定されず、ペット等の動物や、車両等でも適用可能であるが、以下の説明では、ネットワークカメラ5での検知対象を人(人物)であるものとして説明する。
このカメラデバイス制御装置1は、図1に示すように、制御部10と、入出力部11と、記憶部12とを備える。
入出力部11は、他の装置(複数のネットワークカメラ5等)との間の情報について入出力を行う。この入出力部11は、通信回線を介して情報の送受信を行う通信インタフェースと、不図示のキーボード等の入力装置やモニタ等の出力装置との間で情報の入出力を行う入出力インタフェースとから構成される。
記憶部12は、ハードディスクやフラッシュメモリ、RAM(Random Access Memory)等により構成される。
この記憶部12には、発見対象画像データ200、分析済み画像情報DB(DataBase)210およびデバイス管理情報DB220が格納される。
また、記憶部12には、各ネットワークカメラ5の識別情報に対応付けて、その位置情報が予め格納される。ネットワークカメラ5が撮影位置の移動が可能な装置に搭載されている場合には、そのネットワークカメラ5の現時点の位置情報がカメラデバイス制御装置1に送信されるものとする。
この記憶部12には、さらに、制御部10の各機能部を実行させるためのプログラム(カメラデバイス制御プログラム)や、制御部10の処理に必要な情報(例えば、後記する「所定時間ごとに算出された画像データの分散値の実績」等)が一時的に記憶される。
発見対象画像データ200は、発見対象となる人物等が撮影された画像データである。本実施形態においては、発見対象となる1以上の人物等の画像データが発見対象画像データ200として記憶部12に格納される。
この発見対象画像データ200は、カメラデバイス制御装置1が各ネットワークカメラ5の制御を開始する前に取得し、記憶部12に格納しておく。
分析済み画像情報DB210には、ネットワークカメラ5から取得した撮影画像(画像データ)に、後記する画像分析部110が画像分析した結果(後記する「類似度」)が紐付けられて格納される(詳細は後記)。
デバイス管理情報DB220には、ネットワークカメラ5ごとに、カメラの稼働にかかる制御速度の情報や、その処理を実行する際の消費電力など、デバイスの稼働に伴うコストの情報がデバイス管理情報22として格納される。詳細は、後記する図2および図3を参照して説明する。
制御部10は、カメラデバイス制御装置1が実行する処理の全般を司り、画像分析部110と、一致判定部111と、デバイス制御部112とを含んで構成される。
≪画像分析部≫
画像分析部110は、各ネットワークカメラ5が撮影した撮影画像を取得し、画像内に含まれる人物(特定の検知対象)が、発見対象と類似している度合いを「類似度」として算出する。
類似度とは、画像の絶対的な類似性を示す指標であり、類似度が高いほど、撮影画像内の人物と発見対象の人物とについて、同一である可能性が高いものとなる。
この類似度は、既存の画像分析ソフトウェアにより算出することができる。画像分析ソフトウェアごとに仕様差分はあるが、機械学習や画像分析による一般的な画像分析ソフトウェアや画像分析クラウドサービスを用いることにより、予め指定した比較画像(記憶部12内の発見対象画像データ200)から、画像の特徴が相対的に最も一致する種類(例えば、人物名等で示される画像のラベル)若しくはその類似度、またはその両方を算出することができる。
画像分析部110による画像分析処理は、以下の手法により実現する。
例えば、発見対象を示す複数の人物画像データに対して、それぞれの人物名をラベルとして付与したものを発見対象画像データ200とし、ある人物の画像データと発見対象画像データ200との類似度とを機械学習させて学習モデルを作成する。画像分析部110は、ネットワークカメラ5から検知対象である人物が撮影された画像データを取得した場合に、その学習モデルを用いて分類することにより、最も類似する人物のラベルとその類似度を出力する。
また、他の手法として画像分析部110は、単一の発見対象の人物画像のみを発見対象画像データ200とすることもできる。この場合に、画像分析部110は、ネットワークカメラ5から取得した撮影画像(画像データ)に対して、発見対象画像データ200との類似度のみを画像分析ソフトウェア等を用いて算出する。
人物を検知対象とした本実施形態の場合は、ネットワークカメラ5の撮影画像から発見対象を特定することが目的となる。よって、画像分析部110は、類似度を算出する対象となる画像として、服装を含む全身の特徴を用いた画像分析を行ってもよいし、より正確性の高い人物の顔画像を用いた画像分析を行ってもよい。
なお、画像分析部110による画像分析は、ネットワークカメラ5が撮影した画像をそのまま画像分析処理に使用することも可能であるが、画像分析結果の精度を向上させるために、撮影画像に加工を施した上で画像分析処理を行ってもよい。撮影画像の加工処理は、例えば、人物の顔周辺の部分のみを切り出すといった処理である。一般的な画像処理ソフトウェアを用いることで、撮影画像から人物の顔領域のみを抽出することは可能であり、抽出された顔画像領域のみの画像データを作成して画像解析することにより、加工前と比較して分類や類似度の精度の向上が期待できる。画像分析部110は、撮影画像の加工処理をした場合には、加工後の画像データについて、分類(人物のラベル判定)と類似度の算出を実行する。
そして、画像分析部110は、画像分析処理をした画像データを、その画像内の分析対象である一致候補人物(特定の検知対象)ごとに、算出した類似度と紐づけて、記憶部12内の分析済み画像情報DB210に格納する。
≪一致判定部≫
一致判定部111は、画像分析部110によって算出された「類似度」と、この一致判定部111が算出する「確信度」とに基づき、画像内の分析対象(一致候補人物)である特定の検知対象が、発見対象画像データ200(図1)の発見対象と一致する目的の人物であるかを判定する。
「確信度」とは、本実施形態に係るカメラデバイス制御装置1において、画像解析結果(「類似度」)の確からしさを示す指標であり、画像内の分析対象(特定の検知対象)である人物ごとに、どの程度の「数」(画像の量)と「品質」のデータを用いて画像分析を行ったかにより求めるものである。本実施形態では、データの「品質」を、分析したデータの「画像サイズ」と「分散」により表す。
「画像サイズ」とは、画像内において分析対象となる人物の領域を抽出した画像のサイズであり、解像度によって表される。解像度が大きいほど高品質なデータであり、画像分析の正確性に寄与するものとなる。
画像の「分散」とは、画像内の分析対象(特定の検知対象)ごとに蓄積した画像データのばらつきを表す。「分散」をデータの品質の指標とするのは以下の理由による。
動き回る検知対象を所定時間周期で撮影し分析を行う上で、データ量が多いということは、様々な角度、状況の画像を確認することができるということになる。一方、撮影される検知対象が静止している場合には、類似した画像しか取得できず、単純に数が多くても分析結果への影響は少ない。これを解消するため、画像の「数」(量)、「画像サイズ」とともに、分析した画像の「分散」を考慮する。画像の「数」「画像サイズ」「分散」がともに大きい場合には、検知対象に関する様々な種類の画像を分析できることになり、分析の確度が高まる。
一致判定部111は、この「分散」を次に示す手法で算出する。
例えば、画像データを画素に対応したn次元行列で表現し、各次元ごとに蓄積データの分散を算出した上で、最終的に全要素の分散の平均を蓄積画像データの分散とする。つまり、画像X(x1,x2,…,xn),画像Y(y1,y2,…,yn),画像Z(z1,z2,…,zn)が、分析対象である一致候補人物の画像データとして、記憶部12内の分析済み画像情報DB210(図1)に蓄積されている場合に、要素1(x1,y1,z1)の分散(V1)と、要素2(x2,y2,z2)の分散(V2)、要素3(x3,y3,z3)の分散(V3)を算出し、(V1+V2+V3)/3の計算値を最終的な分散とする。
なお、一致判定部111は、所定時間ごとに各画像データについて算出した分散の実績を、分析対象である一致候補人物(特定の検知対象)ごとに、記憶部12に記憶しておく。
また、画像の「分散」は、機械学習等を利用した画像分類器によって出力される類似度によって代用することも可能である。この場合には、分析済み画像情報DB210に蓄積された、分析対象である一致候補人物ごとの全画像データにおける、全画像の組み合わせでの類似度を算出し、その平均を求める。つまり、画像データの数がKの場合に、K×(K-1)/2通りの組み合わせに対して、それぞれ類似度を算出し、その平均を求める。当該平均は、画像データごとの類似の程度を反映したものであり、値が小さいほど画像データのばらつきが大きいことから、分散の代用として用いることが可能である。
上記の考え方に基づき、一致判定部111は、撮影画像内のある人物(特定の検知対象)に対して、複数回の画像分析を行った際の各画像データにおける、画像サイズの平均、画像の量(数)、分散を用いた、以下の式(1)に基づき「確信度」を算出する。
なお、画像サイズ、画像の量、分散は、正規化のために任意に定めた最大値で除して扱う。また、各要素が「確信度」に貢献する比率は、適用環境、状況によって適切な値が異なることが予想されるため、各要素に重み(ω)を設け、システムの設計者が任意の値を設定するものとする。
Figure 0007444284000001
ここで、
C:確信度
L:平均画像サイズ
max:最大画像サイズ
A:画像の量
max:画像の最大量
V:画像の分散
max:画像の最大分散
ω1、ω2、ω3:重み
を表す。
一致判定部111は、記憶部12内の分析済み画像情報DB210を参照し、分析対象である一致候補人物それぞれについて、所定時間ごとに、上記式(1)による「確信度」を算出する。そして、一致判定部111は、「類似度」が所定の閾値Fs(所定の第1閾値)を上回る場合に、その画像内の分析対象である一致候補人物と発見対象の人物とが一致すると判定する。
この場合、一致判定部111は、特定人物の発見という目的が果たされたことから、デバイス制御に関する処理を終了する。
なお、従来技術を用いて、発見した人物を追跡する機能をネットワークカメラ5に備えさせることにより、対象の人物を発見したネットワークカメラ5において当該人物を追跡して撮影することができる。
また、一致判定部111は、「確信度」が所定の閾値Fc(所定の第2閾値)を上回り、かつ、「類似度」が所定の閾値Fsを上回らなかった場合には、分析対象である一致候補人物と発見対象の人物とが不一致であると判定し、以降のネットワークカメラ5の制御における注視対象から、その分析対象画像データ内の一致候補人物を除外する。除外された一致候補人物については、それ以降、画像分析部110、一致判定部111およびデバイス制御部112のいずれにおいても処理を行わない。これにより、画像内に発見対象が存在しない場合に、無駄なコストをかけてデータ収集、分析を行うことを避けることができる。
さらに、一致判定部111は、「確信度」が所定の閾値Fcを上回らず、かつ、「類似度」が所定の閾値Fsを上回らかった場合に、その旨の情報を、デバイス制御部112に出力する。これにより、デバイス制御部112が、後記する各ネットワークカメラ5の制御を実行する。
なお、一致判定部111による「確信度」の算出手法は、上記に限定されず、データの品質指標に基づいて拡張が可能である。例えば、式(1)において、さらにカメラフォーカスの適合度合を乗ずることにより、画像の鮮明さを考慮することも可能である。
≪デバイス制御部≫
デバイス制御部112は、複数のネットワークカメラ5が重複して同一人物を撮影可能である場合であっても、別々のネットワークカメラ5が同一人物への制御を同時に実行することがないように、画像内の複数の一致候補人物(特定の検知対象)の中から適切な注視対象を選択するとともに、注視を行うネットワークカメラ5を決定してその制御を実行させる。
ここで、「注視」とは、ネットワークカメラ5が、ズームやパン、チルト等の可動機能を用いて、特定の人物に関する高解像度の画像を取得する行為である。
本実施形態に係るデバイス制御部112は、注視対象、その注視対象を撮影するネットワークカメラ5、および、そのネットワークカメラ5の制御情報(稼働制御)からなる多数の組み合わせを選択できるが、高品質データを効率的にデータ収集するため、「行動優先度」という指標を用いる。「行動優先度」は以下の式(2)~式(4)により算出する。
Figure 0007444284000002
ここで、
i:注視対象
j:カメラ
k:カメラの制御
ijk:(i,j,kの組み合わせにおける)行動優先度
i:注視対象iの分析実績上の最大類似度
Tcijk:(i,j,kの組み合わせにおける)予想データ収集時間
α:重み
Taijk:(i,j,kの組み合わせにおける)行動基本時間
t:時刻tにおける画像の分散
max:画像の最大分散
ijk :データ分散増加速度
Δt:データ分散増加速度算出周期
を表す。
行動優先度(Pijk)は、式(2)で示すように、分析対象(注視対象)の画像分析結果である類似度の実績のうちの最大の類似度(Si)の逆数に、応答時間(αTcijk)を和したものとする。式(2)の第一項における注視対象の分析実績上の最大類似度の逆数により、複数候補の中から目的とする人物である可能性の高い人物を優先して注視することが可能となる。
また、式(2)の第二項の応答時間(αTcijk)のうちの予想データ収集時間(Tcijk)により、データ取得の効率性が高い組み合わせを優先することが可能となる。予想データ収集時間(Tcijk)は、一致判定を行うためのデータ収集に要する時間の見積もりである。なお、この予想データ収集時間(Tcijk)を考慮することにより、発見対象の検出にかかる時間をより短縮することができる。また、重み(α)は、優先度を算出するため、類似度とデータ取得の効率性の比率を決定するものであり、検出対象や人数といった状況に応じて任意に設定される。
予想データ収集時間(Tcijk)は、式(3)で示すように、行動基本時間(Taijk)と、データ収集時間(Vmax-Vt) / Dijkの和で求められる。行動基本時間(Taijk)とは、ネットワークカメラ5などのデバイスがある行動をとりデータ収集を開始するまでに要する時間である。ズーム行動の場合には、カメラレンズの移動時間が該当し、移動行動の場合には、目標物(若しくは目標位置)まで移動するのに要する時間が該当する。この行動基本時間(Taijk)は、後記するデバイス管理情報22(図2、図3参照)等を用いて算出することができる。
データ収集時間(Vmax-Vt) / Dijkは、データ分散増加速度(Dijk)を算出して求める。データ分散増加速度(Dijk)とは、ある対象を注視するため、ある制御を実行している間に、取得した画像データの分散がどの程度増加したかを表すものである。一致判定部111は、所定時間ごとに算出された画像データの分散値の実績から、一定時間の分散値の変動率であるデータ分散増加速度(Dijk)を算出する。ここで述べるデータ分散増加速度(Dijk)とは、式(4)で示すように、単純に一定時間前後の分散の値の差(Vt-Vt-1)を、一定時間(Δt)で除したものである。データ分散増加速度(Dijk)が大きいほど、選択した注視対象と行動の効果が大きいといえる。また、画像の最大分散(Vmax)と現時点(時刻t)における画像の分散(Vt)との差分を、データ分散増加速度(Dijk)で除したものをデータ収集時間(Vmax-Vt) / Dijkとする。
デバイス制御部112は、この式(2)~式(4)を用いて、注視対象、ネットワークカメラ5およびその制御ごとに、行動優先度を算出し、最も行動優先度が小さい組み合わせを選択する。
また、制御対象のネットワークカメラ5が複数ある場合において、全てのネットワークカメラが同じ人物だけを注視してしまうことを防ぐため、デバイス制御部112は、一つの注視対象(i)に対して、一つのネットワークカメラ(j)だけが割り当てられるという制約を設けた上で、行動優先度の総和が最小となる組み合わせを選択する。
さらに、デバイス制御部112は、ネットワークカメラ5を制御することにより、最大類似度とデータ分散増加速度が更新されるため、行動優先度を所定時間ごとに常に算出して更新する。そして、デバイス制御部112は、行動優先度が最低となる組み合わせが変更された場合には、各ネットワークカメラ5の制御を切り替える。
なお、デバイス制御部112は、ネットワークカメラ5を制御する以前に注視対象を俯瞰状態で撮影し、画像分析処理を行うことで、注視対象候補(分析対象である一致候補人物)を検出するものとする。人物の特定は、顔による個人識別よりも画像に対する要件が低く、例えば、既存の画像分類ソフトウェアを用いることにより、解像度の低い俯瞰撮影画像から人物を抽出することができる。このような人物抽出によって、画像内に含まれる注視対象候補それぞれの位置を把握するとともに、注視行動における具体的なネットワークカメラ5の制御量を定める基準位置として用いることができる。
また、デバイス制御部112は、候補となる注視行動を、そのネットワークカメラ5ごとに規定されるデバイス管理情報22(図2、図3参照)により管理する。
デバイス管理情報22は、例えば図2で示すように、パン、チルト、ズームといった行動が記述され、行動優先度の算出において必要な行動基本時間を求めるための制御情報が格納される。例えば、図2に示すような各行動の制御速度が登録される。さらに、その制御を行う際の消費電力の情報が格納される。
このデバイス管理情報22を参照することにより、デバイス制御部112は、注視行動の選択時に、消費電力を確認することで、予め定めた閾値以上の消費電力の制御を選択肢から除外することも可能となる。
また、このデバイス管理情報22には、図3に示すように、ネットワークカメラ5が移動可能な装置に搭載されるデバイスであれば、注視対象へ接近するための移動という行動を記述してもよい。これにより、移動可能なネットワークカメラ5の移動時間も考慮にいれて、行動基本時間を算出することができる。
<処理の流れ>
次に、カメラデバイス制御装置1が実行する処理の流れについて説明する。
図4は、本実施形態に係るカメラデバイス制御装置1が実行する処理の流れを示すフローチャートである。
まず、カメラデバイス制御装置1の画像分析部110は、各ネットワークカメラ5から撮影画像を取得する(ステップS10)。なお、各ネットワークカメラ5は、発見対象の人物がすべて発見されるまで、予め設定した(所定の)時間間隔もしくは撮影する度(リアルタイム)に、順次撮影画像をカメラデバイス制御装置1へ送信しており、カメラデバイス制御装置1の画像分析部110がその撮影画像を取得する。
次に、画像分析部110は、撮影画像に含まれる人物と、発見対象画像データ200(図1)で示される発見対象の人物との「類似度」を算出する(ステップS11)。
例えば、画像分析部110は、ある人物の画像データと発見対象画像データ200との類似度を機械学習させた学習モデルを用いて、検知対象である人物を含む画像データを、その学習モデルを組み込んだ機械学習装置に入力し、最も類似する発見対象のラベルとその「類似度」とを出力させることができる。
なお、画像分析部110は、撮影画像に含まれる複数の検知対象の人物それぞれの顔周辺の部分を切り出すような加工処理を行った画像データを生成し、その生成した画像データを用いて人物の「類似度」を算出してもよい。
続いて、画像分析部110は、画像分析処理した画像データ(以下、「分析対象画像データ」と称する。)を、その画像内の分析対象(一致候補人物)である特定の検知対象ごとに、算出した「類似度」と紐付けて、記憶部12内の分析済み画像情報DB210に格納する(ステップS12)。
そして、画像分析部110は、ステップS10~S12の処理を繰り返して、「類似度」が付された分析対象画像データを、その画像内の分析対象(一致候補人物)ごとに、分析済み画像情報DB210に蓄積していく。
次に、カメラデバイス制御装置1の一致判定部111は、画像分析部110によって算出された「類似度」と、一致判定部111が算出する「確信度」とに基づき、画像内の分析対象(一致候補人物)が、発見対象画像データ200の発見対象と一致するかを判定する。
具体的には、一致判定部111は、分析済み画像情報DB210に格納された、分析対象(一致候補人物)ごとの画像データ(分析対象画像データ)を参照し、各要素である画像サイズ、画像の量、画像の分散を用いて、上記した式(1)により、「確信度」を算出する(ステップS13)。
なお、このステップS13において、一致判定部111は、所定時間ごとに各画像データ(分析対象画像データ)について算出した分散の実績を、分析対象である一致候補人物(特定の検知対象)ごとに、記憶部12に記憶しておく。
次に、一致判定部111は、画像分析処理した画像データ(分析対象画像データ)と発見対象画像データの「類似度」が所定の閾値Fs(所定の第1閾値)を上回るか否かを判定する(ステップS14)。ここで「類似度」が所定の閾値Fsを上回っていた場合には(ステップS14→Yes)、分析対象画像データ内の一致候補人物と、発見対象の人物が一致するものとし、以降のネットワークカメラ5の制御を行わす、処理を終了する(ステップS15)。
一方、ステップS14において、「類似度」が所定の閾値Fsを上回っていない場合には(ステップS14→No)、次のステップS16へ進む。
ステップS16において、一致判定部111は、ステップS13で算出した「確信度」が所定の閾値Fc(所定の第2閾値)を上回っているか否かを判定する。つまり、一致判定部111は、分析対象画像データについて、「類似度」が閾値Fs以下であり、かつ、「確信度」が閾値Fcを上回っているか否かを判定することとなる。
ここで、「確信度」が所定の閾値Fcを上回っていた場合に(ステップS16→Yes)、一致判定部111は、分析対象画像データ内の一致候補人物と、発明対象の人物とが不一致であるものとし、以降のネットワークカメラ5の制御における注視対象から、その分析対象画像データ内の一致候補人物を除外する(ステップS17)。
一方、ステップS16において、「確信度」が所定の閾値Fcを上回っていない場合(ステップS16→No)、つまり、「類似度」が閾値Fs以下であり、かつ、「確信度」が閾値Fc以下である場合には、ネットワークカメラ5の制御を実行して(ステップS18)、処理を終える。なお、ステップS18のネットワークカメラ制御の詳細は、図5を参照して説明する。
≪ネットワークカメラ制御≫
図5は、本実施形態に係るカメラデバイス制御装置1のデバイス制御部112による、ネットワークカメラ制御の処理の流れを示すフローチャートである。
デバイス制御部112は、複数のネットワークカメラ5が重複して同一人物(一致候補人物)を撮影しないように注視対象を選択するとともに、その注視対象を撮影するネットワークカメラ5を選択して制御を実行させる。以下、具体的に説明する。
まず、デバイス制御部112は、注視対象、ネットワークカメラ5、制御の全組み合わせに、「行動優先度」の初期値を設定する(ステップS181)。
ここで、「行動優先度」は上記した、式(2)~式(4)により求まるものである。
デバイス制御部112は、初期値の設定の際に、注視対象候補を俯瞰した画像データを画像分析部110を介して取得し、各注視対象候補の位置情報を取得する。そして、デバイス制御部112は、ネットワークカメラ5毎のデバイス管理情報22(例えば、図2、図3)を参照して、各行動(パン、チルト、ズーム、移動等)の制御速度等の情報から制御量を定め行動基本時間(Taijk)等を算出し、初期値として設定する。
次に、デバイス制御部112は、記憶部12に記憶された、分析対象画像データについての分散の実績に基づき、上記式(4)によりデータ分散増加速度(Dijk)を求めた上で、上記式(3)の予想データ収集時間(Tcijk)を算出する。また、デバイス制御部112は、分析済み画像情報DB210を参照して、注視対象iの分析実績上の最大類似度(Si)の情報を抽出する(ステップS182)。
続いて、デバイス制御部112は、注視対象、カメラデバイス、制御(稼働制御)の全組み合わせについての「行動優先度」を、上記式(2)を用いて算出する(ステップS183)。
次に、デバイス制御部112は、注視対象、カメラデバイス、制御の各組み合わせにおいて算出した「行動優先度」のうち、最も「行動優先度」の値が小さい組み合わせを選択する(ステップS184)。
なお、デバイス制御部112は、複数のネットワークカメラ5が同じ注視対象を選択することを防ぐために、一つの注視対象に対して、一つのネットワークカメラ5が割り当てられるという制約を設けた上で、各組み合わせにおいて算出した「行動優先度」の総和が最小となる組み合わせを選択する。
そして、デバイス制御部112は、選択された組み合わせに従い、各ネットワークカメラ5に対し制御情報を送信することにより、制御を実行させる(ステップS185)。
デバイス制御部112は、所定の時間間隔で、ステップS182~ステップS185の処理を繰り返すことにより、高品質データを効率的に継続して収集することができる。
<ハードウェア構成>
本実施形態に係るカメラデバイス制御装置1は、例えば図6に示すようなコンピュータ900によって実現される。
図6は、本実施形態に係るカメラデバイス制御装置1の機能を実現するコンピュータ900の一例を示すハードウェア構成図である。コンピュータ900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM903、HDD(Hard Disk Drive)904、入出力I/F(Interface)905、通信I/F906およびメディアI/F907を有する。
CPU901は、ROM902またはHDD904に記憶されたプログラム(カメラデバイス制御プログラム)に基づき作動し、図1に示すカメラデバイス制御装置1の制御部10による制御を行う。ROM902は、コンピュータ900の起動時にCPU901により実行されるブートプログラムや、コンピュータ900のハードウェアに係るプログラム等を記憶する。
CPU901は、入出力I/F905を介して、マウスやキーボード等の入力装置910、および、ディスプレイ等の出力装置911を制御する。CPU901は、入出力I/F905を介して、入力装置910からデータを取得するとともに、生成したデータを出力装置911へ出力する。なお、プロセッサとしてCPU901とともに、GPU(Graphics Processing Unit)等を用いても良い。
HDD904は、CPU901により実行されるプログラムおよび当該プログラムによって使用されるデータ等を記憶する。通信I/F906は、通信網(例えば、NW(Network)920)を介して他の装置からデータを受信してCPU901へ出力し、また、CPU901が生成したデータを、通信網を介して他の装置へ送信する。
メディアI/F907は、記録媒体912に格納されたプログラムまたはデータを読み取り、RAM903を介してCPU901へ出力する。CPU901は、目的の処理に係るプログラムを、メディアI/F907を介して記録媒体912からRAM903上にロードし、ロードしたプログラムを実行する。記録媒体912は、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto Optical disk)等の光磁気記録媒体、磁気記録媒体、導体メモリテープ媒体又は半導体メモリ等である。
例えば、コンピュータ900が本実施形態に係るカメラデバイス制御装置1として機能する場合、コンピュータ900のCPU901は、RAM903上にロードされたプログラムを実行することによりカメラデバイス制御装置1の機能を実現する。また、HDD904には、RAM903内のデータが記憶される。CPU901は、目的の処理に係るプログラムを記録媒体912から読み取って実行する。この他、CPU901は、他の装置から通信網(NW920)を介して目的の処理に係るプログラムを読み込んでもよい。
<効果>
以下、本発明に係るカメラデバイス制御装置1等の効果について説明する。
本発明に係るカメラデバイス制御装置は、複数のネットワークカメラ5を制御するカメラデバイス制御装置1であって、発見対象が撮影された画像データである発見対象画像データ200、および、ネットワークカメラ5毎の稼働に伴うコストの情報が格納されるデバイス管理情報22を記憶する記憶部12と、検知対象を撮影した画像データを、ネットワークカメラ5それぞれから取得し、取得した画像データで示される特定の検知対象の画像と、発見対象画像データ200で示される発見対象の画像とについて、類似している度合いを示す類似度を算出し、特定の検知対象ごとに、画像データを、算出した類似度に紐付けて記憶部12に格納する画像分析部110と、記憶部12に格納された特定の検知対象ごとの複数の画像データに基づき、複数の画像データそれぞれの画像サイズ、画像データの数、および、複数の画像データで示される特定の検知対象の画像のばらつきを示す分散に基づき、算出された類似度の確からしさを示す確信度を算出し、類似度および確信度を用いて、特定の検知対象と発見対象との一致若しくは不一致を判定する一致判定部111と、デバイス管理情報22で示されるネットワークカメラ5ごとの稼働に伴うコストにより算出される撮影開始までの時間、および、分散の所定時間における変動率により、予想データ収集時間を算出し、算出した予想データ収集時間と、記憶部12に格納された特定の検知対象ごとの複数の画像データに紐付く類似度のうちの最大の類似度とを用いて、行動優先度を算出し、行動優先度が最も小さくなる組み合わせである、撮影対象とする特定の検知対象、当該特定の検知対象を撮影するネットワークカメラ5、および、当該ネットワークカメラ5により特定の検知対象を撮影するための稼働制御を選択し、選択したネットワークカメラ5が、選択した特定の検知対象を、選択した稼働制御により撮影するように制御するデバイス制御部112と、を備えることを特徴とする。
このようにすることで、カメラデバイス制御装置1は、発見対象と一致する特定の検知対象を発見するため、特定の検知対象、ネットワークカメラ5およびそのネットワークカメラ5の稼働制御についての最適な組み合わせを選択して、高品質のデータを効率的に収集することができる。
また、カメラデバイス制御装置1において、一致判定部111が、特定の検知対象ごとの複数の画像データそれぞれに紐づく類似度のうち、少なくとも一つ以上の類似度が、所定の第1閾値を上回る場合に、特定の検知対象と発見対象とが同一であると判定することを特徴とする。
このようにすることで、カメラデバイス制御装置1は、類似度に関する所定の第1閾値を上回る画像データについての特定の検知対象を、発見対象と同一と判定することができる。よって、カメラデバイス制御装置1は、それ以降のカメラデバイス制御に関する処理を終了できるため、カメラデバイス制御装置1の消費電力や、制御対象のネットワークカメラ5の稼働電力、および、ネットワークカメラ5からカメラデバイス制御装置1への通信コストを削減することが可能となる。
また、カメラデバイス制御装置1において、一致判定部111が、特定の検知対象ごとの複数の画像データそれぞれに紐づく類似度において、所定の第1閾値を上回るものがなく、かつ、確信度が所定の第2閾値を上回る場合に、特定の検知対象と発見対象とが不一致であると判定することを特徴とする。
このようにすることで、カメラデバイス制御装置1は、類似度が所定の第1閾値を上回らず、かつ、確信度が所定の第2閾値を上回る画像データについての特定の検知対象を、発見対象と不一致であると判定することができる。よって、発見対象と不一致である検知対象を、ネットワークカメラ5の制御における注視対象から除外して、ネットワークカメラ5を不必要に稼働させることを防ぎ、システム全体を効率的に運用することができる。
また、カメラデバイス制御装置1において、デバイス制御部112は、複数の特定の検知対象が存在する場合において、一つの選択した特定の検知対象について、一つの選択したネットワークカメラ5が割り当てられる制約を設け、各組み合わせにおいて算出した行動優先度の総和が最小となる組み合わせを選択することを特徴とする。
このようにすることで、複数のネットワークカメラ5が同じ特定の検知対象を撮影することを防ぐことができ、システム全体を効率的に運用することができる。
なお、本発明は、以上説明した実施形態に限定されるものではなく、多くの変形が本発明の技術的思想内で当分野において通常の知識を有する者により可能である。
1 カメラデバイス制御装置
5 ネットワークカメラ
10 制御部
11 入出力部
12 記憶部
22 デバイス管理情報
110 画像分析部
111 一致判定部
112 デバイス制御部
200 発見対象画像データ
210 分析済み画像情報DB
220 デバイス管理情報DB
1000 カメラデバイス制御システム

Claims (6)

  1. 複数のネットワークカメラを制御するカメラデバイス制御装置であって、
    発見対象が撮影された画像データである発見対象画像データ、および、前記ネットワークカメラ毎の稼働に伴うコストの情報が格納されるデバイス管理情報を記憶する記憶部と、
    検知対象を撮影した画像データを、前記ネットワークカメラそれぞれから取得し、取得した前記画像データで示される特定の検知対象の画像と、前記発見対象画像データで示される前記発見対象の画像とについて、類似している度合いを示す類似度を算出し、前記特定の検知対象ごとに、前記画像データを、算出した前記類似度に紐付けて前記記憶部に格納する画像分析部と、
    前記記憶部に格納された前記特定の検知対象ごとの複数の前記画像データに基づき、複数の前記画像データそれぞれの画像サイズ、前記画像データの数、および、複数の前記画像データで示される特定の検知対象の画像のばらつきを示す分散に基づき、算出された前記類似度の確からしさを示す確信度を算出し、前記類似度および前記確信度を用いて、前記特定の検知対象と前記発見対象との一致若しくは不一致を判定する一致判定部と、
    前記デバイス管理情報で示される前記ネットワークカメラごとの稼働に伴うコストにより算出される撮影開始までの時間、および、前記分散の所定時間における変動率により、予想データ収集時間を算出し、算出した前記予想データ収集時間と、前記記憶部に格納された前記特定の検知対象ごとの複数の前記画像データに紐付く前記類似度のうちの最大の類似度とを用いて、行動優先度を算出し、前記行動優先度が最も小さくなる組み合わせである、撮影対象とする前記特定の検知対象、当該特定の検知対象を撮影するネットワークカメラ、および、当該ネットワークカメラにより前記特定の検知対象を撮影するための稼働制御を選択し、選択したネットワークカメラが、選択した特定の検知対象を、選択した稼働制御により撮影するように制御するデバイス制御部と、
    を備えることを特徴とするカメラデバイス制御装置。
  2. 前記一致判定部は、
    前記特定の検知対象ごとの複数の前記画像データそれぞれに紐づく前記類似度のうち、少なくとも一つ以上の前記類似度が、所定の第1閾値を上回る場合に、前記特定の検知対象と前記発見対象とが同一であると判定すること
    を特徴とする請求項1に記載のカメラデバイス制御装置。
  3. 前記一致判定部は、
    前記特定の検知対象ごとの複数の前記画像データそれぞれに紐づく前記類似度において、所定の第1閾値を上回るものがなく、かつ、前記確信度が所定の第2閾値を上回る場合に、前記特定の検知対象と前記発見対象とが不一致であると判定すること
    を特徴とする請求項1または請求項2に記載のカメラデバイス制御装置。
  4. 前記デバイス制御部は、
    複数の前記特定の検知対象が存在する場合において、一つの前記選択した特定の検知対象について、一つの前記選択したネットワークカメラが割り当てられる制約を設け、各前記組み合わせにおいて算出した行動優先度の総和が最小となる組み合わせを選択すること
    を特徴とする請求項1に記載のカメラデバイス制御装置。
  5. 複数のネットワークカメラを制御するカメラデバイス制御装置のカメラデバイス制御方法であって、
    前記カメラデバイス制御装置は、
    発見対象が撮影された画像データである発見対象画像データ、および、前記ネットワークカメラ毎の稼働に伴うコストの情報が格納されるデバイス管理情報が記憶される記憶部を備えており、
    検知対象を撮影した画像データを、前記ネットワークカメラそれぞれから取得し、取得した前記画像データで示される特定の検知対象の画像と、前記発見対象画像データで示される前記発見対象の画像とについて、類似している度合いを示す類似度を算出し、前記特定の検知対象ごとに、前記画像データを、算出した前記類似度に紐付けて前記記憶部に格納するステップと、
    前記記憶部に格納された前記特定の検知対象ごとの複数の前記画像データに基づき、複数の前記画像データそれぞれの画像サイズ、前記画像データの数、および、複数の前記画像データで示される特定の検知対象の画像のばらつきを示す分散に基づき、算出された前記類似度の確からしさを示す確信度を算出し、前記類似度および前記確信度を用いて、前記特定の検知対象と前記発見対象との一致若しくは不一致を判定するステップと、
    前記デバイス管理情報で示される前記ネットワークカメラごとの稼働に伴うコストにより算出される撮影開始までの時間、および、前記分散の所定時間における変動率により、予想データ収集時間を算出し、算出した前記予想データ収集時間と、前記記憶部に格納された前記特定の検知対象ごとの複数の前記画像データに紐付く前記類似度のうちの最大の類似度とを用いて、行動優先度を算出し、前記行動優先度が最も小さくなる組み合わせである、撮影対象とする前記特定の検知対象、当該特定の検知対象を撮影するネットワークカメラ、および、当該ネットワークカメラにより前記特定の検知対象を撮影するための稼働制御を選択し、選択したネットワークカメラが、選択した特定の検知対象を、選択した稼働制御により撮影するように制御するステップと、
    を実行することを特徴とするカメラデバイス制御方法。
  6. コンピュータを、請求項1乃至請求項4のいずれか一項に記載のカメラデバイス制御装置として機能させるためのカメラデバイス制御プログラム。
JP2022563296A 2020-11-18 2020-11-18 カメラデバイス制御装置、カメラデバイス制御方法、および、カメラデバイス制御プログラム Active JP7444284B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/042920 WO2022107231A1 (ja) 2020-11-18 2020-11-18 カメラデバイス制御装置、カメラデバイス制御方法、および、カメラデバイス制御プログラム

Publications (2)

Publication Number Publication Date
JPWO2022107231A1 JPWO2022107231A1 (ja) 2022-05-27
JP7444284B2 true JP7444284B2 (ja) 2024-03-06

Family

ID=81708502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022563296A Active JP7444284B2 (ja) 2020-11-18 2020-11-18 カメラデバイス制御装置、カメラデバイス制御方法、および、カメラデバイス制御プログラム

Country Status (2)

Country Link
JP (1) JP7444284B2 (ja)
WO (1) WO2022107231A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098442A1 (ja) 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法
WO2020090390A1 (ja) 2018-10-29 2020-05-07 日本電気株式会社 センサ情報統合システム、センサ情報統合方法、プログラム、及び記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022442A (ja) * 2001-07-10 2003-01-24 Nippon Telegr & Teleph Corp <Ntt> 物体検出/位置測定方法およびその装置、ならびにこの方法の実行プログラムおよびその記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098442A1 (ja) 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法
WO2020090390A1 (ja) 2018-10-29 2020-05-07 日本電気株式会社 センサ情報統合システム、センサ情報統合方法、プログラム、及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山登 庸次,外4名,IoTアプリケーションのGPUオフロード時の並列処理部抽出とデータ転送回数低減手法,電子情報通信学会技術研究報告 Vol.118 No.293,日本,一般社団法人電子情報通信学会,2018年

Also Published As

Publication number Publication date
WO2022107231A1 (ja) 2022-05-27
JPWO2022107231A1 (ja) 2022-05-27

Similar Documents

Publication Publication Date Title
JP6425856B1 (ja) ビデオ録画方法、サーバー、システム及び記憶媒体
Arroyo et al. Expert video-surveillance system for real-time detection of suspicious behaviors in shopping malls
JP6018674B2 (ja) 被写体再識別のためのシステム及び方法
JP7038744B2 (ja) 顔画像検索方法およびシステム、撮影装置、ならびにコンピュータ記憶媒体
JP6854881B2 (ja) 顔画像照合システムおよび顔画像検索システム
KR101711677B1 (ko) 위치에 의한 비디오들의 클러스터링
US8989506B1 (en) Incremental image processing pipeline for matching multiple photos based on image overlap
JP5459674B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
JP2017033547A (ja) 情報処理装置及びその制御方法及びプログラム
WO2014081726A1 (en) Method and system for metadata extraction from master-slave cameras tracking system
JP2004192637A (ja) 顔検出
CN116994390A (zh) 基于物联网的安防监控系统及其方法
JP2010140425A (ja) 画像処理システム
TW201140470A (en) System and method for monitoring objects and key persons of the objects
CN113869274B (zh) 基于城市管理的无人机智能跟踪监控方法及系统
KR101826669B1 (ko) 동영상 검색 시스템 및 그 방법
Singh et al. A multi-gait dataset for human recognition under occlusion scenario
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
JP7444284B2 (ja) カメラデバイス制御装置、カメラデバイス制御方法、および、カメラデバイス制御プログラム
JP6410427B2 (ja) 情報処理装置、情報処理方法及びプログラム
GB2553105B (en) Method and system for determining a relationship between two regions of a scene
EP4287145A1 (en) Statistical model-based false detection removal algorithm from images
KR20190101692A (ko) 학습 전이 기반의 비디오 감시 방법
JP7020567B2 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
WO2023039331A1 (en) Object detection systems and methods including an object detection model using a tailored training dataset

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7444284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150