JP2023042400A - データ収集装置、データ収集方法及びデータ収集プログラム - Google Patents

データ収集装置、データ収集方法及びデータ収集プログラム Download PDF

Info

Publication number
JP2023042400A
JP2023042400A JP2021149678A JP2021149678A JP2023042400A JP 2023042400 A JP2023042400 A JP 2023042400A JP 2021149678 A JP2021149678 A JP 2021149678A JP 2021149678 A JP2021149678 A JP 2021149678A JP 2023042400 A JP2023042400 A JP 2023042400A
Authority
JP
Japan
Prior art keywords
image data
data
objects
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021149678A
Other languages
English (en)
Other versions
JP7074244B1 (ja
Inventor
大樹 横山
Daiki Yokoyama
晃人 伊藤
Akito Ito
亮 中林
Akira Nakabayashi
達也 今村
Tatsuya Imamura
智洋 金子
Tomohiro Kaneko
宏樹 村田
Hiroki Murata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021149678A priority Critical patent/JP7074244B1/ja
Application granted granted Critical
Publication of JP7074244B1 publication Critical patent/JP7074244B1/ja
Priority to US17/941,604 priority patent/US20230081930A1/en
Publication of JP2023042400A publication Critical patent/JP2023042400A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】検出された物体の数が多くてもプロセッサの処理負荷を低く抑えるデータ収集装置を提供する。【解決手段】データ収集装置は、撮影装置から受信した連続する画像群を表す画像データに基づいて、所定の処理に用いられるデータを収集する。データ収集装置は、撮影装置からの画像データの送信を制御する送信制御部239と、撮影装置から受信した画像データによって表される画像群のそれぞれの画像に含まれる物体を検出する物体検出部231と、検出された物体をトラッキングする物体追跡部232と、トラッキングされた物体に関する物体画像データを記憶装置に記憶させるデータ記憶部233と、画像に含まれる物体の数を算出する数算出部238と、を有する。送信制御部は、数算出部によって算出された物体の数が相対的に多い場合には、データ記憶部によって記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、送信を制御する。【選択図】図3

Description

本開示は、データ収集装置、データ収集方法及びデータ収集プログラム関する。
スマートシティにおいて、そのコミュニティ内の複数の主体からデータを収集することが提案されている。特に、特許文献1では、異なる事業主体の情報システムから得られるデータには不確かさがあることから、斯かる不確かさを解消すべく、得られたデータを補正した上でデータを収集することが提案されている。
特開2013-069084号公報
ところで、スマートシティなどでは、スマートシティなどに設けられた複数のカメラなどから取得された画像データに基づいて、様々な処理を行うことが考えられる。このような処理を行うにあたっては、複数のカメラから画像データを受信すると共に、受信した画像データを上記処理に使用し易いように加工し、加工されたデータを上記処理のために収集することが必要になる。
具体的には、例えば、連続した画像群を表す画像データのそれぞれにおいて物体を検出し、検出された物体を連続した画像間でトラッキングし、このようにしてトラッキングされた各物体に関する連続的な画像データを収集することが考えられる。そして、このようにして収集された各物体に関する連続的な画像データを機械学習モデルに入力し、各物体についての評価を機械学習モデルから出力させることが考えられる。
ここで、検出された物体の連続した画像間でのトラッキングは、検出された物体毎に行われる。したがって、各画像データにおいて検出された物体の数が多すぎると、プロセッサにおけるトラッキングに必要な処理負荷が大きくなる。
上記課題に鑑みて、本開示の目的は、画像データにおいて検出された物体の数が多いときであってもプロセッサの処理負荷を低く抑えることにある。
本開示の要旨は以下のとおりである。
(1)撮影装置から受信した連続する画像群を表す画像データに基づいて、所定の処理に用いられるデータを収集するデータ収集装置であって、
前記撮影装置から当該データ収集装置への画像データの送信を制御する送信制御部と、
前記撮影装置から受信した前記画像データによって表される画像群のそれぞれの画像に含まれる物体を検出する物体検出部と、
検出された物体を連続する画像間でトラッキングする物体追跡部と、
前記物体追跡部によってトラッキングされた各物体に関する物体画像データを前記処理に用いられるデータとして記憶装置に記憶させるデータ記憶部と、
前記撮影装置から受信した画像データによって表される画像に含まれる物体の数を算出する数算出部と、を有し、
前記送信制御部又は前記物体検出部は、前記数算出部によって算出された物体の数が相対的に多い場合には、前記数算出部によって算出された物体の数が相対的に少ない場合に比べて、前記データ記憶部によって記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、前記送信を制御するか又は前記物体を検出する、データ収集装置。
(2)前記送信制御部は、前記数算出部によって算出された物体の数が相対的に多い場合には、前記数算出部によって算出された物体の数が相対的に少ない場合に比べて、前記撮影装置から当該データ収集装置への前記画像の送信頻度を低くさせる、上記(1)に記載のデータ収集装置。
(3)前記物体検出部は、前記数算出部によって算出された物体の数が相対的に多い場合には、前記数算出部によって算出された物体の数が相対的に少ない場合に比べて、前記物体の検出頻度を低くする、上記(1)又は(2)に記載のデータ収集装置。
(4)前記送信制御部又は前記物体検出部は、前記数算出部によって算出された物体の数が多いほど前記データ記憶部によって記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、前記送信を制御するか又は前記物体を検出する、上記(1)~(3)のいずれか1つに記載のデータ収集装置。
(5)前記数算出部は、前記物体検出部によって検出された物体の数を算出する、上記(1)~(4)のいずれか1つに記載のデータ収集装置。
(6)前記所定の処理は、画像データを入力すると該画像データに関連する出力パラメータの値を出力する機械学習モデルに、前記記憶装置に記憶された各物体に関する物体画像データを入力して前記出力パラメータの値を出力する処理である、上記(1)~(5)のいずれか1つに記載のデータ収集装置。
(7)撮影装置から受信した連続する画像群を表す画像データに基づいて、所定の処理に用いられるデータを収集するデータ収集方法であって、
前記撮影装置からの画像データの送信を制御することと、
前記撮影装置から受信した前記画像データによって表される画像群のそれぞれの画像に含まれる物体を検出することと、
検出された物体を連続する画像間でトラッキングすることと、
前記トラッキングされた各物体に関する物体画像データを前記処理に用いられるデータとして記憶装置に記憶させることと、
前記撮影装置から受信した画像データによって表される画像に含まれる物体の数を算出することと、を有し、
前記画像データの送信の制御又は前記物体の検出は、前記算出された物体の数が相対的に多い場合には、前記算出された物体の数が相対的に少ない場合に比べて、前記記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、行われる、データ収集方法。
(8)撮影装置から受信した連続する画像群を表す画像データに基づいて、所定の処理に用いられるデータを収集するデータ収集プログラムであって、
前記撮影装置からの画像データの送信を制御することと、
前記撮影装置から受信した前記画像データによって表される画像群のそれぞれの画像に含まれる物体を検出することと、
検出された物体を連続する画像間でトラッキングすることと、
前記トラッキングされた各物体に関する物体画像データを前記処理に用いられるデータとして記憶装置に記憶させることと、
前記撮影装置から受信した画像データによって表される画像に含まれる物体の数を算出することと、をコンピュータに実行させ、
前記画像データの送信の制御又は前記物体の検出は、前記算出された物体の数が相対的に多い場合には、前記算出された物体の数が相対的に少ない場合に比べて、前記記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、行われる、データ収集プログラム。
本開示によれば、画像データにおいて検出された物体の数が多いときであってもプロセッサの処理負荷を低く抑えることができる。
図1は、一つの実施形態に係る機械学習システムの概略的な構成図である。 図2は、サーバのハードウェア構成を概略的に示す図である。 図3は、サーバのプロセッサの機能ブロック図である。 図4は、サーバのプロセッサにおいて行われる、機械学習モデルを用いた不審者の通知処理の流れを示すフローチャートである。 図5は、サーバのプロセッサにおいて行われる機械学習モデルの学習処理の流れを示すフローチャートである。 図6は、サーバのプロセッサにおいて行われる画像データの収集処理の流れを示すフローチャートである。 図7は、人物の数と画像データの目標送信頻度との関係を示す図である。 図8は、第二実施形態に係るサーバのプロセッサの機能ブロック図である。 図9は、第二実施形態に係るサーバのプロセッサにおいて行われる画像データの収集処理の流れを示すフローチャートである。 図10は、人物の数と目標検出頻度との関係を示す図である。
以下、図面を参照して実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
・第一実施形態
<機械学習システムの構成>
図1~7を参照して、第一実施形態に係る機械学習システム1の構成について説明する。図1は、一つの実施形態に係る機械学習システム1の概略的な構成図である。機械学習システム1は、サーバにおいて用いられる機械学習モデルを学習させる。また、機械学習システムは、機械学習モデルの学習に必要なデータを複数の撮影装置から収集するデータ収集システムとしても機能する。
図1に示したように、機械学習システム1は、複数の撮影装置10と、撮影装置10と通信可能なサーバ20とを有する。複数の撮影装置10のそれぞれとサーバ20とは、通信ネットワーク4及び必要に応じて無線基地局5を介して相互に通信可能に構成される。通信ネットワーク4は、例えば、光通信回線などで構成され、インターネット網やキャリア網などを含む。無線基地局5は、通信ネットワーク4にゲートウェイ(図示せず)を介して接続される。撮影装置10と無線基地局5との通信としては、通信距離が長い種々の広域無線通信を用いることができ、例えば、3GPP、IEEEによって策定された4G、LTE、5G、WiMAX等の任意の通信規格に準拠した通信が用いられる。
特に、本実施形態では、サーバ20は、所定の対象エリア内に位置する撮影装置10と通信する。対象エリアは、予め定められた境界によって囲まれた範囲であり、例えば、「ICT等の新技術を活用しつつ、マネジメント(計画、整備、管理・運営等)の高度化により、都市や地域の抱える諸課題の解決を行い、また新たな価値を創出し続ける、持続可能な都市や地域」として定義されるスマートシティである。
各撮影装置10は、所定の対象エリア内の所定の位置に設置され、撮影装置10の周囲を撮影して連続した画像群を表す画像データを生成する。撮影装置10は、例えば、対象エリア内に配置された監視カメラである。なお、撮影装置10は、対象エリア内の任意の領域を撮影することができれば、如何なるカメラであってもよい。したがって、撮影装置10は、対象エリア内に位置する車両に配置されたカメラであってもよいし、対象エリア内に位置するカメラ付きの端末機器(例えば、メガネ型端末など、個人に保持される端末)であってもよい。
撮影装置10は、通信ネットワーク4に直接接続される通信モジュールを備え、撮影装置10によって生成された画像データは、通信ネットワークを介して撮影装置10からサーバ20に送信される。或いは、撮影装置10は、無線基地局5と通信可能な通信モジュールを備えていてもよい。この場合、撮影装置10によって生成された画像データは無線基地局5及び通信ネットワーク4を介して撮影装置10からサーバ20に送信される。
サーバ20は、通信ネットワーク4を介して、複数の撮影装置10と接続される。サーバ20は、複数の撮影装置10によって生成された画像データに基づいて、後述する機械学習モデルを用いた処理を行う。加えて、サーバ20は、サーバ20において用いられる機械学習モデルを学習させる学習装置としても機能する。また、サーバ20は、複数の撮影装置10から受信した連続する画像データに基づいて、機械学習モデルの使用及び学習に用いられるデータを収集するデータ収集装置としても機能する。
図2は、サーバ20のハードウェア構成を概略的に示す図である。サーバ20は、図2に示したように、通信モジュール21と、ストレージ装置22と、プロセッサ23とを備える。また、サーバ20は、キーボード及びマウスといった入力装置、及び、ディスプレイ及びスピーカといった出力装置を有していてもよい。
通信モジュール21は、サーバ20外の機器と通信を行う通信装置の一例である。通信モジュール21は、サーバ20を通信ネットワーク4に接続するためのインターフェース回路を備える。通信モジュール21は、通信ネットワーク4及び無線基地局5を介して、複数の撮影装置10それぞれと通信可能に構成される。
ストレージ装置22は、データを記憶する記憶装置の一例である。ストレージ装置22は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)又は光記録媒体を有する。また、ストレージ装置22は、揮発性の半導体メモリ(例えば、RAM)、不揮発性の半導体メモリ(例えば、ROM)等を有していてもよい。ストレージ装置22は、プロセッサ23によって各種処理を実行するためのコンピュータプログラム、及びプロセッサ23によって各種処理が実行されるときに使用される各種データを記憶する。特に、ストレージ装置22は、撮影装置10から受信した画像データ、及び機械学習モデルによる処理及び機械学習モデルの学習に使用されるデータを記憶する。
プロセッサ23は、一つ又は複数のCPU及びその周辺回路を有する。プロセッサ23は、更にGPU、又は論理演算ユニット若しくは数値演算ユニットのような演算回路を有していてもよい。プロセッサ23は、ストレージ装置22に記憶されたコンピュータプログラムに基づいて、各種処理を実行する。サーバ20のプロセッサ23によって実行される具体的な処理については後述する。
<機械学習モデル>
本実施形態では、サーバ20において、任意の処理を行うときに、機械学習された機械学習モデルが用いられる。機械学習モデルは、様々な機械学習アルゴリズムに基づいたモデルである。本実施形態では、機械学習モデルは、例えば、ニューラルネットワーク(NN)、サポートベクトルマシン(SVM)、決定木(DT)といった、教師あり学習によって学習されるモデルである。
また、本実施形態では、機械学習モデルには、連続した画像群を表す画像データによって表される画像に含まれる同一の物体(特に、人物)に関する連続した画像群を表す画像データが入力パラメータとして入力される。そして、機械学習モデルは、このようにして連続した画像群を表す画像データが入力された物体に関する特性を出力パラメータとして出力する。具体的には、機械学習モデルは、同一の人物に関する連続した画像群を表す画像データを入力すると、その人物に関する不審度(その人物が将来犯罪等の異常な行動を行う可能性の度合い)を算出するモデルである。
なお、機械学習モデルは、同一の人物に関する連続した画像群を表す画像データを入力すると、その人物に関する特性を出力するモデルであれば、如何なるモデルであってもよい。したがって、例えば、機械学習モデルは、同一の人物に関する連続した画像群を表す画像データを入力すると、その人物に関する体調不良度合い(その人物の体調が不良である度合い)を算出するモデルであってもよい。
具体的には、本実施形態では、機械学習モデルとして、例えば、リカレントニューラルネットワーク(RNN)モデルが用いられる。特に、本実施形態では、機械学習モデルとして、RNNモデルのうち、LSTM(Long Short-Term Memory)ネットワークが用いられる。RNNモデルは、同一の人物についての時系列の連続した画像データが入力されると、その人物に関する不審度を出力する。
斯かる機械学習モデルは、入力パラメータとして使用されるデータと、このデータに対応する出力パラメータの値(正解値又は正解ラベル)とを含む学習用データセットを用いて学習される。本実施形態では、学習用データセットは、同一の人物に関する連続した画像群を表す画像データと、その画像データに対応する正解値(例えば、実際に犯罪等の異常な行動を行った場合には1、斯かる行動を行っていない場合には0)とを含む。
RNNモデルの機械学習にあたっては、例えば、RNNモデルの出力値と学習用データセットに含まれる出力パラメータの正解値との差が小さくなるように、公知の誤差逆伝搬法によって、RNNモデルにおける学習パラメータ(例えば、重み及びバイアス)が繰り返し更新される。この結果、RNNモデルが学習され、学習済みのRNNモデルが生成される。なお、機械学習モデルにおける機械学習は、公知の任意の手法を用いることができる。また、本明細書では、学習パラメータは、学習によって値が繰り返し更新されるパラメータを意味する。
<機械学習モデルの使用>
次に、図3及び図4を参照して、サーバ20における機械学習モデルを使用した処理について説明する。本実施形態では、サーバ20は、撮影装置10によって作成された画像データに基づいて、画像データに表される画像中の人物の不審度を算出する。加えて、サーバ20は、不審度が一定の基準値以上になったときにはサーバを利用するユーザに不審度が高い人物を通知する。
図3は、サーバ20のプロセッサ23の機能ブロック図である。図3に示したように、プロセッサ23は、物体検出部231と、物体追跡部232と、データ記憶部233と、算出部234と、通知部235と、データセット作成部236と、モデル学習部237と、数算出部238と、送信制御部239と、を有する。サーバ20のプロセッサ23が有するこれら機能ブロックは、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。或いは、プロセッサ23が有するこれら機能ブロックは、プロセッサ23に設けられる専用の演算回路であってもよい。特に、不審度を算出してユーザに不審人物を通知するにあたっては、物体検出部231と、物体追跡部232と、データ記憶部233と、算出部234と、通知部235と、が用いられる。
物体検出部231は、撮影装置10から受信した画像データによって表される画像群のそれぞれの画像に含まれる物体を検出する。特に、本実施形態では、物体検出部231は、撮影装置10から受信した画像データによって表される画像群のそれぞれの画像に含まれる人物を検出する。
画像データによって表される画像群の各画像に含まれる人物の検出は、公知の任意の物体認識手法によって行われる。例えば、物体検出部231は、一つの画像を表す画像データを入力するとその画像データによって表される画像に含まれる人物及びその人物の画像中の座標を出力する物体検出モデル(例えば、NNモデル)を用いて人物の検出を行う。この場合、物体検出部231は、撮影装置10から受信した連続した画像群を表す画像データから各画像を表す画像データを抜き出す。そして、物体検出部231は、各画像を表す画像データをNNモデルに入力して、その画像に含まれる人物を検出する。斯かる人物を検出するNNモデルとしては、例えば、faster-RCNN、YOLO、SSDといったコンボリューショナルニューラルネットワーク(CNN)モデル等、公知の任意の物体検出アルゴリズムを用いたモデルが使用される。
物体追跡部232は、検出された物体(特に、人物)を連続する画像間でトラッキングする。すなわち、物体追跡部232は、撮影装置10から受信した画像データに含まれる各画像において検出された人物と、その直前の画像において検出された人物とを関連付ける。物体追跡部232は、連続する二つの画像のうち一つ目の画像において複数の人物が検出された場合には、それぞれの人物について直前の二つ目の画像において検出された対応する人物との関連続けを行う。物体追跡部232は、連続する二つの画像のうち一つ目の画像において検出された人物に対応する人物が、その直前の二つ目の画像において検出されていない場合には、その人物が一つ目の画像において初めて出現したものとして取り扱う。同様に、物体追跡部232は、連続する二つの画像のうち一つ目の画像において検出された人物に対応する人物が、その直後の二つ目の画像において検出されていない場合には、その人物が一つ目の画像を最後に画像内から消えたものとして取り扱う。
物体追跡部232におけるトラッキングは、公知の任意のトラッキング手法によって行われる。具体的には、トラッキング手法としては、例えば、Lucas-Kanade法やHorn-Schunk法といったオプティカルフローを用いた手法等が用いられる。
データ記憶部233は、物体追跡部232によってトラッキングされた各物体(特に、各物体)に関する物体画像データを、ストレージ装置22に記憶させる。具体的には、本実施形態では、データ記憶部233は、物体追跡部232によってトラッキングされた各人物について、その人物が検出された各画像からその人物の画像を抜き出す。そして、データ記憶部233は、このようにして抜き出した各人物についての複数の連続した画像を物体画像データとしてストレージ装置22に記憶させる。したがって、物体追跡部232により複数の人物がトラッキングされた場合には、トラッキングされた人物の数に等しい数の物体画像データをストレージ装置22に記憶させる。このようにしてストレージ装置22に記憶された各人物に関する物体画像データは、機械学習モデルを用いて不審度を算出するのに用いられる他、機械学習モデルを学習させるのにも用いられる。
算出部234は、ストレージ装置22に記憶されている各人物に関する物体画像データに基づいて、機械学習モデルを用いて、その物体(特に、人物)の不審度を算出する。機械学習モデルは、例えば、各人物に関する連続した画像群を表す物体画像データを入力パラメータとして入力すると、その人物の不審度を出力パラメータとして出力するRNNモデルである。したがって、算出部234は、各人物に関する物体画像データを入力パラメータとして機械学習モデルに入力し、機械学習モデルから出力された出力パラメータである不審度を出力する。
通知部235は、算出部234によって算出された不審度が予め設定された所定の閾値以上である人物がある場合には、ユーザ又は他の処理装置(図示せず)に対して不審な人物がいる旨の通知を行う。このとき、通知部235は、不審な人物の画像及び不審な人物の現在の位置など、不審な人物に関する他の情報を併せて通知してもよい。ユーザへの通知は、例えば、サーバ20に設けられたディスプレイ又はスピーカなどの出力装置によって行われる。他の処理装置は、例えば、警察などの行政機関や警備会社などにおいて、不審者情報等を収集する装置を含む。他の処理装置は、例えば、通信ネットワーク4を介してサーバ20に接続される。したがって、他の処理装置への通知は、通信ネットワーク4を介して行われる。
なお、本実施形態では、算出部234は、各人物に関する物体画像データに基づいて機械学習モデルを用いてその人物の不審度を算出している。しかしながら、算出部234は、機械学習モデルを用いてその人物についての別のパラメータの値を算出してもよい。この場合、通知部235は、算出部234によって算出されたパラメータの値に基づいて、ユーザ又は他の処理装置への通知を行う。
具体的には、例えば、算出部234は、各人物に関する連続した画像群を表す物体画像データに基づいて、機械学習モデルを用いて、その人物に関する体調不良度合いを算出してもよい。この場合、通知部235は、体調不良度合いが予め設定された所定の閾値以上である人物がいる場合には、ユーザ又は他の処理装置に対して体調不良である人物がいる旨の通知を行う。加えて、通知部235は、体調不良の人物の画像及びその人物の現在位置など、体調不良の人物に関する他の情報を併せて通知してもよい。
いずれにせよ、機械学習モデルは、機械学習モデルは、各人物(又は各物体)に関する物体画像データを入力パラメータとして入力すると、その物体画像データに関連する出力パラメータの値を出力するモデルであれば、如何なるモデルであってもよい。そして、算出部234は、斯かる機械学習モデルに各人物に関する物体画像データを入力し、機械学習モデルから出力された出力パラメータの値を出力する。
図4は、サーバ20のプロセッサ23において行われる、機械学習モデルを用いた不審者の通知処理の流れを示すフローチャートである。
図4に示したように、サーバ20のプロセッサ23は、通信ネットワーク4を介して撮影装置10から受信した連続的な画像群を表す画像データを取得する(ステップS11)。具体的には、撮影装置10は、撮影装置10の周囲を撮影した画像を表す画像データを生成する毎に、生成した画像データをサーバ20に送信する。したがって、撮影装置10は、撮影装置10の周囲を撮影した画像を表す画像データを連続的に送信する。プロセッサ23は、斯かる画像データを受信すると、受信した画像データをサーバ20のストレージ装置22に記憶させる。したがって、ストレージ装置22には、撮影装置10から受信した連続的な画像群を表す画像データが記憶される。そして、プロセッサ23の物体検出部231は、ストレージ装置22から、ストレージ装置22に記憶されていた画像データ(撮影装置10から受信した連続的な画像群を表す画像データ)を取得する。
物体検出部231は、画像データを取得すると、取得した各画像データによって表される画像群のそれぞれの画像に含まれる人物を検出する(ステップS12)。具体的には、物体検出部231は、ステップS11において取得された画像データのうちのそれぞれの画像を表すデータを物体検出モデルに入力する。この結果、物体検出モデルから、各画像に含まれる人物及びその人物の画像中の座標が出力される。
物体検出部231によって人物が検出されると、物体追跡部232は、ステップS12において物体検出部231によって検出された各人物を、連続する画像間でトラッキングする(ステップS13)。物体追跡部232は、トラッキングの結果、異なる画像における同一の人物について、同一のラベルを付ける。
物体追跡部232によるトラッキングが行われると、データ記憶部233は、トラッキングされた各人物に関する物体画像データを、ストレージ装置22に記憶させる(ステップS14)。具体的には、データ記憶部233は、物体追跡部232によって同一のラベルが付された人物の画像を切り出し、その人物に関する連続的な画像群を表す物体画像データを生成し、生成した物体画像データをストレージ装置22に記憶させる。切り出された人物の画像の大きさは、撮影装置10から人物までの距離などに応じて異なる。このため人物の各画像の画像サイズは画像間又は人物間で異なっている。データ記憶部233は、このように画像毎及び人物毎に異なる人物の画像の画像サイズが同一になるように、人物の各画像をリサイズしてもよい。したがって、この場合、全ての人物に関する物体画像データに含まれる全ての画像は同一の画像サイズを有する。
データ記憶部233によって人物に関する物体画像データがストレージ装置22に記憶されると、算出部234は、記憶された物体画像データに基づいて、その人物の不審度を算出する(ステップS15)。具体的には、算出部234は、不審度を算出するRNNモデルに、各人物に関する物体画像データ(各人物の連続的な画像群を表す画像データ)を入力する。特に、算出部234は、物体画像データに含まれる各人物に関する画像群のデータを時系列に沿って順次RNNモデルに入力する。その結果、RNNモデルから、その人物についての不審度が出力される。算出部234は、ストレージ装置22に記憶されている全ての人物について、同様な操作を繰り返し実行する。
そして、通知部235は、ステップS15において算出された不審度が所定の閾値以上となる人物がいた場合には、ユーザへ又は他の処理装置へ、不審人物がいる旨、不審人物の画像及び不審人物の現在位置などを通知する(ステップS16)。不審人物の現在位置は、例えば、最後にその人物が検出された撮影装置10の位置及びその撮影装置10によって作成された画像内におけるその人物の位置などに基づいて特定される。
<機械学習モデルの学習>
次に、図3及び図5を参照して、サーバ20における機械学習モデルの学習処理について説明する。本実施形態では、サーバ20は、撮影装置10によって作成された画像データに基づいて、不審度を算出する機械学習モデルの学習を行う。機械学習モデルの学習にあたっては、物体検出部231、物体追跡部232及びデータ記憶部233に加えて、データセット作成部236及びモデル学習部237が用いられる(図3を参照)。
データセット作成部236は、機械学習モデルを学習させるのに用いられる学習用データセットを作成する。上述したように、学習用データセットは、同一の人物に関する連続した画像群を表す画像データと、その画像データに対応する正解値とを含む。
各人物に関する連続した画像群を表す画像データは、データ記憶部233によってストレージ装置22に物体画像データとして記憶されている。したがって、データセット作成部236は、ストレージ装置22から物体画像データを取得する。
また、データセット作成部236は、例えば、警察などの行政機関や警備会社などに設置された端末機器から、犯罪等の異常な行動を行った人物の情報を取得する。或いは、データセット作成部236は、対象エリア内に位置する移動型の端末機器(例えば、携帯端末)などから、異常な行動を行った人物の情報を取得する。異常な行動を行った人物の情報は、例えば、異常な行動を行った人物の画像並びに異常な行動を行った時間及び位置の情報などを含む。そして、データセット作成部236は、端末機器から取得した異常な行動を行った人物の情報と、ストレージ装置22に記憶されている多くの人物の物体画像データとに基づいて、異常な行動を取った人物の物体画像データを特定する。物体画像データの特定は、例えば、物体画像データに含まれる各画像の撮影場所及び撮影時刻と異常な行動を行った場所及び時刻とを対比し、且つ物体画像データに含まれる人物の画像と異常な行動を行った人物の画像とを対比することによって行われる。このようにして異常な行動を取った人物に関する物体画像データが特定されると、その物体画像データに対応する不審度の正解値を1としてデータセットが作成される。一方、一定時間を経過しても異常な行動を行った情報が端末機器から取得されなかった人物については、その人物の物体画像データに対応する不審度の正解値を0としてデータセットが作成される。
モデル学習部237は、データセット作成部236によって作成されたデータセットに基づいて、機械学習モデルの学習を行う。具体的には、モデル学習部237は、上述したように、公知の誤差逆伝播法等を用いて、機械学習モデルに用いられる学習パラメータを更新する。
図5は、サーバ20のプロセッサ23において行われる機械学習モデルの学習処理の流れを示すフローチャートである。学習処理においても図4に示した処理と同様に、物体画像データがストレージ装置22に記憶される。特に、本実施形態では、図4に示した通知処理を実行するときにストレージ装置22に記憶された物体画像データを、図5に示した学習処理に用いることもできる。いずれにせよ、ステップS21~S24は、ステップS11~S14と同様であるため説明を省略する。
ステップS24においてデータ記憶部233によって人物に関する物体画像データがストレージ装置22に記憶された後に、データセット作成部236は学習用データセットを作成する(ステップS25)。データセット作成部236は、行政機関等の端末機器及び対象エリア内に位置する移動端末機器等において異常な行動を行った人物の情報が入力されると、その人物についての物体画像データと正解値の1とを組み合わせてデータセットを作成する。また、一定時間が経過しても異常な行動を行った情報が端末機器から入力されなかった人物については、その人物についての物体画像データと正解値の0とを組み合わせてデータセットを作成する。
ステップS25においてデータセット作成部236によってある程度の数のデータセットが作成されると、モデル学習部237は、作成されたデータセットを用いて、機械学習モデルを学習させる(ステップS26)。そして、モデル学習部237は、学習済みの機械学習モデルの学習パラメータを用いて、図4のステップS15において用いられる機械学習モデルの学習パラメータの値を更新する(ステップS27)。機械学習モデルの学習パラメータの値が更新された後は、ステップS15では更新後の学習パラメータを用いた機械学習モデルによって不審度が算出される。
<データの収集>
次に、図3及び図6を参照して、サーバ20における画像データの収集処理について説明する。画像データの収集にあたっては、物体検出部231に加えて、数算出部238及び送信制御部239が用いられる(図3を参照)。
ところで、上述したように、機械学習モデルを用いて各人物の不審度を算出したり、その機械学習モデルを学習したりするためには、各人物についての物体画像データが必要になる。そして、物体画像データを作成するためには、上述したように、撮影装置10から送信されてきた画像データによって表される画像に含まれる人物の検出や、検出された人物の画像間でのトラッキングが必要になる。
画像間でのトラッキングは、検出された人ブル毎に行われる。したがって、撮影装置10から送信されてきた画像データに含まれる各画像内の人物の数が多くなるほど、トラッキングの回数が増え、よってサーバ20のプロセッサ23に加わる処理負荷が大きくなる。このようにプロセッサ23に加わる処理負荷が大きくなり過ぎると、プロセッサ23の動作速度の低下や電力消費量の増大を招く。
そこで、本実施形態では、撮影装置10によって生成された画像データによって表される画像に含まれる人物の数が多いときには、撮影装置10からの画像データの送信頻度を低下させるようにしている。
数算出部238は、撮影装置10から受信した画像データによって表される画像に含まれる人物の数を算出する。本実施形態では、数算出部238は、物体検出部231によって検出された人物の数を算出する。具体的には、数算出部238は、或る時刻において、サーバ20に画像データを送信する全ての撮影装置10によって撮影された画像のそれぞれに含まれる人物の数をカウントする。そして、各画像について求められた人物の数を、全ての画像に亘って合計する。これにより、或る時刻において全ての撮影装置10によって撮影された全ての画像に含まれる人物の数が算出される。
なお、数算出部238は、必ずしも全ての撮影装置10から受信した画像データによって表される画像に含まれる人物の数を正確に算出する必要はない。例えば、一部の撮影装置10から受信した画像データによって表される画像に含まれている全ての人物の数を算出(推定)してもよい。一部の画像に含まれる人物の数が多ければ、全体の画像に含まれる人物の数も多くなり、両者には一定の相関があるためである。また、数算出部238は、撮影装置10によって生成された画像データに基づかずに、例えば対象エリア内に位置する携帯端末の数に基づいて、撮影装置10から受信した画像データによって表される画像に含まれる人物の数を算出(推定)してもよい。対象エリア内に位置する携帯端末の数が多ければ全体の画像に含まれる人物の数も多くなり、両者には一定の相関があるためである。
送信制御部239は、撮影装置10からサーバ20への画像データの送信を制御する。送信制御部239は、例えば、各撮影装置10からの画像データの送信頻度を制御する。換言すると、送信制御部239、撮影装置10が撮影した画像のうちサーバ20へ送信する画像の割合を制御する。したがって、画像データの送信頻度が高く制御されているときには、撮影装置10によって生成された全ての画像を含む画像データがサーバ20へ送信される。一方、画像データの送信頻度が低く制御されているときには、撮影装置10によって生成された画像のうち一部の画像を含む画像データがサーバ20へ送信される。各撮影装置10からの画像データの送信頻度を制御するために、送信制御部239は、例えば、各撮影装置10へ、画像データの送信頻度に関する指令を送信する。
なお、送信制御部239は、撮影装置10からサーバ20への画像データの送信速度を制御してもよい。この場合、送信制御部239は、例えば、各撮影装置10へ、サーバ20への画像データの上限送信速度に関する指令を送信する。何れにせよ、送信制御部239は、撮影装置10からサーバ20へ単位時間当たりに送信される画像データのデータ量を制御する。
図6は、サーバ20のプロセッサ23において行われる画像データの収集処理の流れを示すフローチャートである。収集処理においても図4に示した処理と同様に、画像データによって表される画像に含まれる人物の検出が行われる。特に、本実施形態では、図4に示した通知処理を実行するときに行われた物体検出の結果を、図6に示した収集処理に用いることができる。いずれにせよ、ステップS31及びS32は、ステップS11及びS12と同様であるため、説明を省略する。
ステップS32において画像に含まれる人物が検出されると、数算出部238は、物体検出部231によって検出された人物の数を算出する(ステップS33)。特に、数算出部238は、物体検出部231によって、或る時刻において全ての撮影装置10によって作成された画像について物体検出が完了したときに、その時刻における人物の数を算出する。
ステップS33において人物の数が算出されると、送信制御部239は、算出された人物の数に基づいて、各撮影装置10からの画像データの目標送信頻度を設定する(ステップS34)。図7は、ステップS33において算出された人物の数と、各撮影装置10からサーバ20への画像データの目標送信頻度との関係を示す図である。図7に示したように、本実施形態では、送信制御部239は、画像に含まれる人物の数が多いほど画像データの目標送信頻度が低くなるように目標送信頻度を設定する。
目標送信頻度が低くなると、各撮影装置10からサーバ20への画像データの送信頻度が低下するため、単位時間当たりにサーバ20が受信する画像データに含まれる画像の数が減少する。このようにサーバ20が受信する画像データに含まれる画像の数が減少すると、物体検出部231において物体検出が行われる頻度が低下すると共に、物体追跡部232においてトラッキングが行われる頻度が低下する。そして、最終的には、データ記憶部によってストレージ装置22に記憶されるデータの単位物体数当たりのデータ量が少なくなる。換言すると、本実施形態では、送信制御部239は、ステップS33において算出された画像に含まれる人物の数が多いほど単位物体数当たりのデータ量が少なくなるように、各撮影装置10からの画像データの送信を制御する。
ステップS34において、各撮影装置10からの画像データの目標送信頻度が設定されると、送信制御部239は、各撮影装置10に目標送信頻度に関する指令を送信する(ステップS35)。
<効果及び変形例>
本実施形態では、撮影装置10から受信した画像データによって表される画像に含まれる人物の数が多いほど、撮影装置10からサーバ20への画像データの目標送信頻度が低くされる。この結果、画像に含まれる人物の数が多いほど、物体追跡部232により一つの人物について行われるトラッキングの頻度が低下する。したがって、トラッキングに必要な処理負荷を低く抑えることができ、よってプロセッサ23の動作速度の低下や電力消費量の増大を抑制することができる。
なお、上記実施形態では、図7に示したように、画像に含まれる人物の数が多いほど撮影装置10からサーバ20への画像データの目標送信頻度が低くなるように、人物の数に応じて連続的に目標送信頻度が設定される。しかしながら、画像に含まれる人物の数が多いほど撮影装置10からサーバ20への画像データの目標送信頻度が低くなるように、人物の数に応じて段階的に目標送信頻度が設定されてもよい。したがって、例えば、画像に含まれる人物の数が所定数未満の場合には目標送信頻度が第1頻度に設定され、画像に含まれる人物の数が所定数以上の場合には目標送信頻度が第1頻度よりも少ない第2頻度に設定されてもよい。いずれにせよ、送信制御部239は、数算出部238によって算出された人物の数が相対的に多い場合には、数算出部238によって算出された人物の数が相対的に少ない場合に比べて、撮影装置10からサーバ20への画像の送信頻度を低くさせる。換言すると、本実施形態では、送信制御部239は、数算出部238によって算出された人物の数が相対的に多い場合には、数算出部238によって算出された人物の数が相対的に少ない場合に比べて、データ記憶部233によってストレージ装置22に記憶されるデータの単位人物数当たりのデータ量が少なくなるように、各撮影装置10からの画像データの送信を制御する。
・第二実施形態
次に、図8~図10を参照して第2実施形態に係る機械学習システム1について説明する。以下では、第1実施形態に係る機械学習システム1とは異なる部分を中心に説明する。
上記第一実施形態では、撮影装置10から受信した画像データによって表される画像に含まれる人物の数が多いほど、撮影装置10からサーバ20への画像データの目標送信頻度が低くされる。これに対して、本実施形態では、撮影装置10から受信した画像データによって表される画像に含まれる人物の数が多いほど、物体検出部231において人物の検出頻度が低くされる。
図8は、第二実施形態に係るサーバ20のプロセッサ23の機能ブロック図である。図8に示したように、第二実施形態では、プロセッサ23は、送信制御部239を有していない。したがって、本実施形態では、撮影装置10は、撮影装置10によって生成された全ての画像データをサーバ20に送信する。
本実施形態では、物体検出部231は、上記第一実施形態と同様に、撮影装置10から受信した画像データによって表される画像群のそれぞれの画像に含まれる人物を検出する。しかしながら、本実施形態では、物体検出部231は、任意の検出頻度にて人物の検出を行う。したがって、物体検出部231は、必ずしも撮影装置10から受信した画像データに含まれる全ての画像ついて人物を検出するわけではない。目標検出頻度が高く設定されているときには、物体検出部231は、撮影装置10から受信した画像データに含まれる全ての画像について人物を検出する。一方で、目標検出頻度が低く設定されているときには、物体検出部231は、撮影装置10から受信した画像データに含まれる画像のうち一部についてのみ人物を検出する。
図9は、第二実施形態に係るサーバ20のプロセッサ23において行われる画像データの収集処理の流れを示すフローチャートである。図中のステップS41及びS43は、図6のステップS31及びS33と同様であるため、説明を省略する。
ステップS31においてプロセッサ23が画像データを取得すると、物体検出部231は、取得した画像データに含まれる画像内の人物を検出する(ステップS42)。特に、本実施形態では、物体検出部231は、後述するステップS44において以前に設定された目標検出頻度にて画像内の人物を検出する。
その後、ステップS43において人物の数が算出されると、物体検出部231は、算出された人物の数に基づいて目標検出頻度を設定する(ステップS44)。図10は、ステップS43において算出された人物の数と、物体検出部231における目標検出頻度との関係を示す図である。図10に示したように、本実施形態では、物体検出部231は、画像に含まれる人物の数が多いほど人物の検出頻度が低くなるように目標検出頻度を設定する。
目標検出頻度が低下すると、物体検出部231において人物の検出が行われる画像の数が減少する。このため、物体追跡部232においてトラッキングが行われる頻度が低下し、データ記憶部によってストレージ装置22に記憶されるデータの単位物体数当たりのデータ量が少なくなる。換言すると、本実施形態では、物体検出部231は、ステップS43において算出された画像に含まれる人物の数が多いほど単位人物数当たりのデータ量が少なくなるように、人物を検出する。
本実施形態では、撮影装置10から受信した画像データによって表される画像に含まれる人物の数が多いほど、物体検出部231における目標検出頻度が低くされる。この結果、画像に含まれる人物の数が多いほど、物体追跡部232により一つの人物について行われるトラッキングの頻度が低下する。したがって、トラッキングに必要な処理負荷を低く抑えることができ、よってプロセッサ23の動作速度の低下や電力消費量の増大を抑制することができる。
なお、上記実施形態では、図10に示したように、画像に含まれる人物の数が多いほど物体検出部231における目標検出頻度が低くなるように、人物の数に応じて連続的に目標検出頻度が設定される。しかしながら、画像に含まれる人物の数が多いほど物体検出部231における目標検出頻度が低くなるように、人物の数に応じて段階的に目標検出頻度が設定されてもよい。したがって、例えば、画像に含まれる人物の数が所定数未満の場合には目標検出頻度が第1頻度に設定され、画像に含まれる人物の数が所定数以上の場合には目標検出頻度が第1頻度よりも少ない第2頻度に設定されてもよい。いずれにせよ、物体検出部231は、数算出部238によって算出された人物の数が相対的に多い場合には、数算出部238によって算出された人物の数が相対的に少ない場合に比べて、物体検出部231における検出頻度を低くさせる。換言すると、本実施形態では、物体検出部231は、数算出部238によって算出された人物の数が相対的に多い場合には、数算出部238によって算出された人物の数が相対的に少ない場合に比べて、データ記憶部233によってストレージ装置22に記憶されるデータの単位人物数当たりのデータ量が少なくなるように、人物を検出する。
また、本実施形態においても、プロセッサ23は、送信制御部239を有していてもよい。この場合、数算出部238によって算出された人物の数が多いほどストレージ装置22に記憶されるデータの単位人物数当たりのデータ量が少なくなるように、送信制御部239による送信の制御及び物体検出部231による人物の検出が行われる。
また、上記実施形態では、物体検出部231は人物を検出し、物体追跡部232は検出された人物のトラッキングを行う。しかしながら、物体検出部231は、人物以外の物体を検出してもよいし、物体追跡部232は人物以外の物体をトラッキングしてもよい。この場合、算出部234で用いられる機械学習モデルは、例えば、人物以外の物体に関する画像群を表す画像データが入力されると、その物体に関する不審度を算出するモデルである。
以上、本発明に係る好適な実施形態を説明したが、本発明はこれら実施形態に限定されるものではなく、特許請求の範囲の記載内で様々な修正及び変更を施すことができる。
1 機械学習システム
4 通信ネットワーク
5 無線基地局
10 撮影装置
20 サーバ

Claims (8)

  1. 撮影装置から受信した連続する画像群を表す画像データに基づいて、所定の処理に用いられるデータを収集するデータ収集装置であって、
    前記撮影装置から当該データ収集装置への画像データの送信を制御する送信制御部と、
    前記撮影装置から受信した前記画像データによって表される画像群のそれぞれの画像に含まれる物体を検出する物体検出部と、
    検出された物体を連続する画像間でトラッキングする物体追跡部と、
    前記物体追跡部によってトラッキングされた各物体に関する物体画像データを前記処理に用いられるデータとして記憶装置に記憶させるデータ記憶部と、
    前記撮影装置から受信した画像データによって表される画像に含まれる物体の数を算出する数算出部と、を有し、
    前記送信制御部又は前記物体検出部は、前記数算出部によって算出された物体の数が相対的に多い場合には、前記数算出部によって算出された物体の数が相対的に少ない場合に比べて、前記データ記憶部によって記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、前記送信を制御するか又は前記物体を検出する、データ収集装置。
  2. 前記送信制御部は、前記数算出部によって算出された物体の数が相対的に多い場合には、前記数算出部によって算出された物体の数が相対的に少ない場合に比べて、前記撮影装置から当該データ収集装置への前記画像の送信頻度を低くさせる、請求項1に記載のデータ収集装置。
  3. 前記物体検出部は、前記数算出部によって算出された物体の数が相対的に多い場合には、前記数算出部によって算出された物体の数が相対的に少ない場合に比べて、前記物体の検出頻度を低くする、請求項1又は2に記載のデータ収集装置。
  4. 前記送信制御部又は前記物体検出部は、前記数算出部によって算出された物体の数が多いほど前記データ記憶部によって記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、前記送信を制御するか又は前記物体を検出する、請求項1~3のいずれか1項に記載のデータ収集装置。
  5. 前記数算出部は、前記物体検出部によって検出された物体の数を算出する、請求項1~4のいずれか1項に記載のデータ収集装置。
  6. 前記所定の処理は、画像データを入力すると該画像データに関連する出力パラメータの値を出力する機械学習モデルに、前記記憶装置に記憶された各物体に関する物体画像データを入力して前記出力パラメータの値を出力する処理である、請求項1~5のいずれか1項に記載のデータ収集装置。
  7. 撮影装置から受信した連続する画像群を表す画像データに基づいて、所定の処理に用いられるデータを収集するデータ収集方法であって、
    前記撮影装置からの画像データの送信を制御することと、
    前記撮影装置から受信した前記画像データによって表される画像群のそれぞれの画像に含まれる物体を検出することと、
    検出された物体を連続する画像間でトラッキングすることと、
    前記トラッキングされた各物体に関する物体画像データを前記処理に用いられるデータとして記憶装置に記憶させることと、
    前記撮影装置から受信した画像データによって表される画像に含まれる物体の数を算出することと、を有し、
    前記画像データの送信の制御又は前記物体の検出は、前記算出された物体の数が相対的に多い場合には、前記算出された物体の数が相対的に少ない場合に比べて、前記記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、行われる、データ収集方法。
  8. 撮影装置から受信した連続する画像群を表す画像データに基づいて、所定の処理に用いられるデータを収集するデータ収集プログラムであって、
    前記撮影装置からの画像データの送信を制御することと、
    前記撮影装置から受信した前記画像データによって表される画像群のそれぞれの画像に含まれる物体を検出することと、
    検出された物体を連続する画像間でトラッキングすることと、
    前記トラッキングされた各物体に関する物体画像データを前記処理に用いられるデータとして記憶装置に記憶させることと、
    前記撮影装置から受信した画像データによって表される画像に含まれる物体の数を算出することと、をコンピュータに実行させ、
    前記画像データの送信の制御又は前記物体の検出は、前記算出された物体の数が相対的に多い場合には、前記算出された物体の数が相対的に少ない場合に比べて、前記記憶装置に記憶されるデータの単位物体数当たりのデータ量が少なくなるように、行われる、データ収集プログラム。
JP2021149678A 2021-09-14 2021-09-14 データ収集装置、データ収集方法及びデータ収集プログラム Active JP7074244B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021149678A JP7074244B1 (ja) 2021-09-14 2021-09-14 データ収集装置、データ収集方法及びデータ収集プログラム
US17/941,604 US20230081930A1 (en) 2021-09-14 2022-09-09 Data collection device, data collection method, and data collection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021149678A JP7074244B1 (ja) 2021-09-14 2021-09-14 データ収集装置、データ収集方法及びデータ収集プログラム

Publications (2)

Publication Number Publication Date
JP7074244B1 JP7074244B1 (ja) 2022-05-24
JP2023042400A true JP2023042400A (ja) 2023-03-27

Family

ID=81731754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021149678A Active JP7074244B1 (ja) 2021-09-14 2021-09-14 データ収集装置、データ収集方法及びデータ収集プログラム

Country Status (2)

Country Link
US (1) US20230081930A1 (ja)
JP (1) JP7074244B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024095396A1 (ja) * 2022-11-02 2024-05-10 三菱電機株式会社 不審者検出装置および不審者検出方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048702A (ja) * 2012-08-29 2014-03-17 Honda Elesys Co Ltd 画像認識装置、画像認識方法、及び画像認識プログラム
JP2017091092A (ja) * 2015-11-06 2017-05-25 富士通株式会社 画像処理方法、画像処理プログラムおよび画像処理装置
JP2019114110A (ja) * 2017-12-25 2019-07-11 トヨタ自動車株式会社 情報収集システムおよびサーバ装置
JP2019125369A (ja) * 2018-01-13 2019-07-25 トヨタ自動車株式会社 複数のコネクティッド車両による観測値を関連付けるための学習方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048702A (ja) * 2012-08-29 2014-03-17 Honda Elesys Co Ltd 画像認識装置、画像認識方法、及び画像認識プログラム
JP2017091092A (ja) * 2015-11-06 2017-05-25 富士通株式会社 画像処理方法、画像処理プログラムおよび画像処理装置
JP2019114110A (ja) * 2017-12-25 2019-07-11 トヨタ自動車株式会社 情報収集システムおよびサーバ装置
JP2019125369A (ja) * 2018-01-13 2019-07-25 トヨタ自動車株式会社 複数のコネクティッド車両による観測値を関連付けるための学習方法

Also Published As

Publication number Publication date
US20230081930A1 (en) 2023-03-16
JP7074244B1 (ja) 2022-05-24

Similar Documents

Publication Publication Date Title
Vallathan et al. Suspicious activity detection using deep learning in secure assisted living IoT environments
US8560467B2 (en) Apparatus, method, and program for predicting user activity state through data processing
US10510157B2 (en) Method and apparatus for real-time face-tracking and face-pose-selection on embedded vision systems
US11580747B2 (en) Multi-spatial scale analytics
JP5459674B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
JP2018032078A (ja) 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
US11252323B2 (en) Facilitation of visual tracking
JP2013192154A (ja) 監視装置、信頼度算出プログラム、および信頼度算出方法
CN117456419A (zh) 利用神经网络的视频监视
JP7446060B2 (ja) 情報処理装置、プログラム及び情報処理方法
KR102511287B1 (ko) 영상 기반 자세 예측 및 행동 검출 방법 및 장치
JP2018205900A (ja) 監視システム及び監視方法
JP2023042400A (ja) データ収集装置、データ収集方法及びデータ収集プログラム
Krishnan et al. Benchmarking conventional vision models on neuromorphic fall detection and action recognition dataset
CN117351405A (zh) 一种人群行为分析系统及方法
US11209796B2 (en) Surveillance system with intelligent robotic surveillance device
JP2019194758A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021196934A (ja) 画像処理装置、画像処理方法、及びプログラム
CN111695404A (zh) 行人跌倒检测方法、装置、电子设备及存储介质
CN111738059A (zh) 一种面向无感场景的人脸识别方法
KR101982942B1 (ko) 객체 추적 방법 및 이를 수행하는 장치들
JP2014215747A (ja) 追跡装置、追跡システム、及び、追跡方法
JP2020182172A (ja) データ処理システム、データ処理方法、プログラム、センサ装置および受信装置
CN113642519A (zh) 一种人脸识别系统和人脸识别方法
Lu et al. IoT-Enabled Streaming Image Analytics With Privacy-Aware Self-Adaptive and Reflective Designs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R151 Written notification of patent or utility model registration

Ref document number: 7074244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151