JP7458138B2 - Information processing system, information processing device, terminal device, information processing method, and program - Google Patents

Information processing system, information processing device, terminal device, information processing method, and program Download PDF

Info

Publication number
JP7458138B2
JP7458138B2 JP2019239772A JP2019239772A JP7458138B2 JP 7458138 B2 JP7458138 B2 JP 7458138B2 JP 2019239772 A JP2019239772 A JP 2019239772A JP 2019239772 A JP2019239772 A JP 2019239772A JP 7458138 B2 JP7458138 B2 JP 7458138B2
Authority
JP
Japan
Prior art keywords
detection
data
pixel
difference image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019239772A
Other languages
Japanese (ja)
Other versions
JP2021108434A (en
Inventor
展之 大津
卓秀 伊部
桂一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADACOTECH INCORPORATED
Original Assignee
ADACOTECH INCORPORATED
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADACOTECH INCORPORATED filed Critical ADACOTECH INCORPORATED
Priority to JP2019239772A priority Critical patent/JP7458138B2/en
Publication of JP2021108434A publication Critical patent/JP2021108434A/en
Application granted granted Critical
Publication of JP7458138B2 publication Critical patent/JP7458138B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing device, a terminal device, an information processing method, and a program.

近年、映像内における物体を検知する技術が盛んに利用されるようになっている。
例えば、監視カメラで撮影された映像において、異常な物体等を自動的に検知する技術が実用化されている。
また、AI(Artificial Intelligence)の発達に伴い、映像内における物体を、AIを用いた画像認識等によって検知する技術も開発されつつある。
なお、映像内における物体を検知する技術は、例えば、特許文献1に記載されている。
In recent years, technology for detecting objects in videos has become widely used.
For example, technology has been put into practical use that automatically detects abnormal objects in images captured by surveillance cameras.
Furthermore, with the development of AI (Artificial Intelligence), technology is being developed to detect objects in a video by image recognition using AI or the like.
Note that a technique for detecting an object in a video is described in, for example, Patent Document 1.

特開2019-092154号公報JP2019-092154A

しかしながら、映像内における物体の移動を検知する場合、各種外乱によって、物体の移動を検知する精度が低下する可能性がある。
例えば、映像内における物体の特定方向への移動を検知する場合、外乱の影響により、物体の移動方向が誤検知される等の可能性がある。
また、屋外にカメラが設置されたような外乱が大きい場合等において、物体の特定方向への移動を、AIを用いて検知する方法では、演算処理負荷が大きくなったり、学習のためのサンプルデータを多数用意する必要が生じたりする等の問題から導入が困難となるケースがある。
また、検知したい対象をプログラムで表現するアプローチ(ルールベースアプローチ)では、多くの動作パラメータを最適に設定する必要があるが、パラメータ数が多く直感的に設定することが困難である。
However, when detecting the movement of an object within a video, various disturbances may reduce the accuracy of detecting the movement of the object.
For example, when detecting movement of an object in a specific direction within a video, there is a possibility that the direction of movement of the object may be erroneously detected due to the influence of disturbance.
In addition, when there is a large disturbance such as when a camera is installed outdoors, using AI to detect the movement of an object in a specific direction requires a large computational processing load, and sample data for learning There are cases where implementation is difficult due to problems such as the need to prepare a large number of.
Furthermore, in the approach of expressing the target to be detected using a program (rule-based approach), it is necessary to optimally set many operating parameters, but the large number of parameters makes it difficult to set them intuitively.

本発明の課題は、外乱に頑健に映像内の物体速度を推定することである。 An object of the present invention is to estimate the velocity of an object in an image robustly against disturbances.

上記課題を解決するため、本発明の一態様に係る情報処理システムは、
ユーザによって使用される端末装置と、前記端末装置と通信可能に構成されたサーバとを含む情報処理システムであって、
前記端末装置は、
前記サーバに対し、検知対象となる映像において、設定された検知領域内で移動する物体を検知するための検知処理を要求する検知要求手段を備え、
前記サーバは、
前記端末装置の要求に応じて、前記検知対象となる映像において、異なる時間の前記映像のデータにおける前記検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、前記検知領域内で移動する物体を検知する前記検知処理を実行する物体検知手段と、
前記物体検知手段による物体の検知結果を前記端末装置に提示する検知結果提示手段と、
を備えることを特徴とする。
In order to solve the above problems, an information processing system according to one aspect of the present invention includes:
An information processing system including a terminal device used by a user and a server configured to be able to communicate with the terminal device,
The terminal device is
comprising a detection requesting means for requesting the server to perform detection processing for detecting an object moving within a set detection area in a video to be detected;
The server is
In response to a request from the terminal device, in the video to be detected, based on the correlation between a pixel in the detection region and data of pixels around the pixel in data of the video at different times, Object detection means for performing the detection process of detecting a moving object;
Detection result presentation means for presenting a detection result of an object by the object detection means to the terminal device;
It is characterized by having the following.

本発明によれば、外乱に頑健に映像内の物体速度を推定することができる。 According to the present invention, the velocity of an object in an image can be estimated robustly against disturbances.

本発明に係る情報処理システム1全体のシステム構成を示す模式図である。1 is a schematic diagram showing the overall system configuration of an information processing system 1 according to the present invention. 各装置を構成する情報処理装置800のハードウェア構成を示す図である。It is a diagram showing the hardware configuration of an information processing device 800 that configures each device. サーバ20の機能的構成を示すブロック図である。FIG. 2 is a block diagram showing the functional configuration of the server 20. 移動平均特徴量R(t)をN×Nのマトリクスでヒートマップ表示した例を示す模式図である。FIG. 3 is a schematic diagram showing an example of a moving average feature amount R(t) displayed as a heat map in an N×N matrix. ユーザ端末10の機能的構成を示すブロック図である。1 is a block diagram showing the functional configuration of a user terminal 10. FIG. ライブビュー画面の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of a live view screen. 複数の物体検知領域が設定された場合のライブビュー画面の一例を示す模式図である。FIG. 7 is a schematic diagram showing an example of a live view screen when a plurality of object detection areas are set. 検知ログ画面の一例を示す模式図である。FIG. 13 is a schematic diagram illustrating an example of a detection log screen. 条件設定画面の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of a condition setting screen. ユーザ端末10が実行するUI制御処理の流れを示すフローチャートである。3 is a flowchart showing the flow of UI control processing executed by the user terminal 10. FIG. サーバ20が実行する物体検知処理の流れを示すフローチャートである。5 is a flowchart showing the flow of object detection processing executed by the server 20. FIG. 物体検知処理及び処理結果の表示を実行するスタンドアローン型の情報処理装置800の機能的構成を示すブロック図である。FIG. 8 is a block diagram showing the functional configuration of a stand-alone information processing device 800 that executes object detection processing and display of processing results.

以下、本発明の実施形態について、図面を参照して説明する。
本実施形態に係る情報処理システムは、AIへの応用のための膨大な学習サンプルを用意することなく、直感的な操作による設定で、映像内における任意のエリア内を指定の速度で一定の方向へ移動する物体を検知するものであり、例えば、高速道路等の入り口や、建物の入り口等において、特定方向に移動する物体を検知する。
また、本実施形態における情報処理システムでは、映像内において、特定方向へ移動する物体を選別して検知するための条件設定が可能であり、このような条件設定を容易に行うことが可能なユーザインターフェースを提供する。
これにより、本実施形態に係る情報処理システムは、映像内における物体の特定方向への移動を精度良く、より簡単に検知することを可能としている。
また、外乱に頑健(ロバスト)に映像内の物体速度を推定することができる。
Embodiments of the present invention will be described below with reference to the drawings.
The information processing system according to this embodiment can move within any area in a video at a specified speed and in a constant direction with intuitive settings without having to prepare a huge number of learning samples for application to AI. For example, it detects objects moving in a specific direction, such as at entrances to expressways, building entrances, etc.
Furthermore, in the information processing system according to the present embodiment, it is possible to set conditions for selectively detecting objects moving in a specific direction in a video, and a user who can easily set such conditions can Provide an interface.
Thereby, the information processing system according to the present embodiment makes it possible to more easily detect movement of an object in a specific direction in a video with high accuracy.
Furthermore, it is possible to estimate the velocity of an object in an image robustly against disturbances.

[構成]
[システム構成]
図1は、本発明に係る情報処理システム1全体のシステム構成を示す模式図である。
図1に示すように、情報処理システム1は、複数のユーザ端末10と、サーバ20と、撮像装置Cとを含んで構成され、複数のユーザ端末10とサーバ20とは、インターネット等のネットワーク30を介して通信可能に構成されている。なお、情報処理システム1には、ネットワークカメラ等からなる撮像装置Cを必要に応じて備えることができる。この撮像装置Cは、ネットワーク30を介して、ユーザ端末10及びサーバ20と通信可能に構成される。情報処理システム1においては、ユーザ端末10、サーバ20あるいは撮像装置Cによって取得(撮像あるいは読み出し等)された映像のいずれも、映像内における物体の特定方向への移動を検知する対象とすることが可能である。
[composition]
[System configuration]
FIG. 1 is a schematic diagram showing the overall system configuration of an information processing system 1 according to the present invention.
As shown in FIG. 1, the information processing system 1 includes a plurality of user terminals 10, a server 20, and an imaging device C. The plurality of user terminals 10 and the server 20 are connected to a network 30 such as the Internet. It is configured to be able to communicate via. Note that the information processing system 1 can be provided with an imaging device C, such as a network camera, as needed. This imaging device C is configured to be able to communicate with the user terminal 10 and the server 20 via the network 30. In the information processing system 1, any of the images acquired (imaged or read out, etc.) by the user terminal 10, the server 20, or the imaging device C can be used as a target for detecting the movement of an object in a specific direction in the image. It is possible.

ユーザ端末10は、ユーザによって使用される情報処理装置であり、映像内における物体の移動を検知するための各種情報(映像のデータや検知する物体に関する条件等)の入力を受け付けたり、サーバ20に対して、映像内における物体の検知に関する要求を行ったりする。また、ユーザ端末10は、サーバ20から送信された映像内における物体の検知結果(具体的には、検知結果を表示するUI画面)を表示したり、映像内における物体の一連の検知結果に関するデータ(ログデータ)をダウンロードしたりする。 The user terminal 10 is an information processing device used by a user, and accepts input of various information (such as video data and conditions related to the object to be detected) for detecting the movement of an object in a video, and makes requests to the server 20 regarding the detection of an object in the video. The user terminal 10 also displays the detection results of an object in the video sent from the server 20 (specifically, a UI screen that displays the detection results), and downloads data (log data) related to a series of detection results of an object in the video.

サーバ20は、ユーザ端末10から映像内における物体の検知に関する要求が行われた場合に、ユーザ端末10で設定された条件に従って、映像内において条件に適合する物体を検知する。具体的には、サーバ20は、映像内において、特定方向へ移動する物体を検知すると共に、その移動速度やサイズ、あるいは、移動する領域等、ユーザ端末10においてユーザが設定した条件に適合する物体の移動を検知する。そして、サーバ20は、検知結果を表すデータをユーザ端末10に逐次送信したり、映像のデータ全体に関する検知結果のデータをログデータとしてユーザ端末10に送信したりする。
撮像装置Cは、物体を検知する領域を撮像可能な位置に設置され、撮像した映像データを、ネットワーク30を介してユーザ端末10あるいはサーバ20に送信する。
When the user terminal 10 makes a request for detecting an object in the video, the server 20 detects an object in the video that meets the conditions according to the conditions set in the user terminal 10. Specifically, the server 20 detects objects moving in a specific direction in the video, and detects objects that meet conditions set by the user on the user terminal 10, such as the moving speed, size, or moving area. Detect movement of. Then, the server 20 sequentially transmits data representing the detection results to the user terminal 10, or transmits data of the detection results regarding the entire video data to the user terminal 10 as log data.
The imaging device C is installed at a position where it can image an area where an object is detected, and transmits the captured video data to the user terminal 10 or the server 20 via the network 30.

[ハードウェア構成]
次に、情報処理システム1における各装置のハードウェア構成を説明する。
情報処理システム1において、各装置はPC、サーバコンピュータあるいはタブレット端末等の情報処理装置によって構成され、その基本的構成は同様である。
[Hardware configuration]
Next, the hardware configuration of each device in the information processing system 1 will be explained.
In the information processing system 1, each device is constituted by an information processing device such as a PC, a server computer, or a tablet terminal, and the basic configuration thereof is the same.

図2は、各装置を構成する情報処理装置800のハードウェア構成を示す図である。
図2に示すように、各装置を構成する情報処理装置800は、CPU(Central Processing Unit)811と、ROM(Read Only Memory)812と、RAM(Random Access Memory)813と、バス814と、入力部815と、出力部816と、記憶部817と、通信部818と、ドライブ819と、撮像部820と、を備えている。
FIG. 2 is a diagram showing the hardware configuration of the information processing device 800 that constitutes each device.
As shown in FIG. 2, the information processing device 800 that constitutes each device includes a CPU (Central Processing Unit) 811, a ROM (Read Only Memory) 812, a RAM (Random Access Memory) 813, a bus 814, and an input It includes a section 815, an output section 816, a storage section 817, a communication section 818, a drive 819, and an imaging section 820.

CPU811は、ROM812に記録されているプログラム、または、記憶部817からRAM813にロードされたプログラムに従って各種の処理を実行する。
RAM813には、CPU811が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 811 executes various processes according to a program recorded in the ROM 812 or a program loaded from the storage unit 817 to the RAM 813 .
The RAM 813 also stores data and the like necessary for the CPU 811 to execute various processes.

CPU811、ROM812及びRAM813は、バス814を介して相互に接続されている。バス814には、入力部815、出力部816、記憶部817、通信部818、ドライブ819及び撮像部820が接続されている。 The CPU 811, ROM 812, and RAM 813 are interconnected via a bus 814. An input section 815, an output section 816, a storage section 817, a communication section 818, a drive 819, and an imaging section 820 are connected to the bus 814.

入力部815は、各種ボタン等で構成され、指示操作に応じて各種情報を入力する。
出力部816は、ディスプレイやスピーカ等で構成され、映像や音声を出力する。
なお、情報処理装置800がスマートフォンやタブレット端末として構成される場合には、入力部815と出力部816のディスプレイとを重ねて配置し、タッチパネルを構成することとしてもよい。
記憶部817は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各サーバで管理される各種データを記憶する。
通信部818は、ネットワーク30を介して他の装置との間で行う通信を制御する。
The input unit 815 is made up of various buttons and the like, and is used to input various pieces of information in response to instruction operations.
The output unit 816 is composed of a display, a speaker, etc., and outputs video and audio.
In addition, when the information processing device 800 is configured as a smartphone or a tablet terminal, the displays of the input unit 815 and the output unit 816 may be arranged so as to overlap each other to configure a touch panel.
The storage unit 817 is configured with a hard disk or a dynamic random access memory (DRAM) or the like, and stores various data managed by each server.
The communication unit 818 controls communications with other devices via the network 30 .

ドライブ819には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア831が適宜装着される。ドライブ819によってリムーバブルメディア831から読み出されたプログラムは、必要に応じて記憶部817にインストールされる。
撮像部820は、レンズ及び撮像素子等を備えた撮像装置によって構成され、被写体のデジタル映像を撮像する。
なお、情報処理装置800がタブレット端末として構成される場合には、入力部815をタッチセンサによって構成し、出力部816のディスプレイに重ねて配置することにより、タッチパネルを備える構成とすることも可能である。
A removable medium 831 such as a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, etc. is attached to the drive 819 as appropriate. The program read from the removable medium 831 by the drive 819 is installed in the storage unit 817 as necessary.
The imaging unit 820 is configured by an imaging device including a lens, an image sensor, etc., and captures a digital image of a subject.
Note that when the information processing device 800 is configured as a tablet terminal, it is also possible to configure the input unit 815 with a touch sensor and arrange it over the display of the output unit 816 to provide a configuration with a touch panel. be.

[機能的構成]
次に、情報処理システム1における各装置の機能的構成について説明する。
[サーバ20の構成]
図3は、サーバ20の機能的構成を示すブロック図である。
図3に示すように、サーバ20のCPU811においては、データ取得部211と、パラメータ設定部212と、画像フィルタ処理部213と、画像2値化処理部214と、画素値演算部215と、条件判定部216と、可視化処理部217と、検知結果提示部218と、が機能する。また、サーバ20の記憶部817には、映像データ記憶部271と、パラメータ記憶部272と、ログデータ記憶部273と、が形成される。
[Functional configuration]
Next, the functional configuration of each device in the information processing system 1 will be explained.
[Configuration of server 20]
FIG. 3 is a block diagram showing the functional configuration of the server 20.
As shown in FIG. 3, the CPU 811 of the server 20 includes a data acquisition section 211, a parameter setting section 212, an image filter processing section 213, an image binarization processing section 214, a pixel value calculation section 215, and a condition A determination unit 216, a visualization processing unit 217, and a detection result presentation unit 218 function. Further, in the storage unit 817 of the server 20, a video data storage unit 271, a parameter storage unit 272, and a log data storage unit 273 are formed.

映像データ記憶部271には、物体の検知が行われる映像のデータが記憶される。映像データ記憶部271には、ユーザ端末10から送信された、リアルタイムで撮影された映像データ及び過去に撮影された映像データの他、サーバ20がユーザ端末10以外(撮像装置C等)から取得したリアルタイムで撮影された映像データ及び過去に撮影された映像データ等を記憶することができる。また、映像データ記憶部271は、サーバ20においてリアルタイムで撮影された映像データ及び過去に撮影された映像データも記憶することができる。なお、本実施形態における映像データは、動画像のデータ及び連続的に撮影された静止画像のデータ等、物体の動きが記録された各種形態のデータとすることができる。 The video data storage unit 271 stores video data in which an object is detected. The video data storage unit 271 stores video data captured in real time and video data captured in the past transmitted from the user terminal 10, as well as video data acquired by the server 20 from sources other than the user terminal 10 (imaging device C, etc.). Video data shot in real time, video data shot in the past, etc. can be stored. The video data storage unit 271 can also store video data shot in real time by the server 20 and video data shot in the past. Note that the video data in this embodiment can be data in various forms in which the movement of an object is recorded, such as moving image data and still image data that are continuously photographed.

パラメータ記憶部272には、ユーザ端末10から送信された各種パラメータ(例えば、映像内における物体の検知を行う際の条件を示す動作パラメータ等)が記憶される。
ログデータ記憶部273には、映像内における物体の検知が行われた検知結果のデータ(ログデータ)が記憶される。
The parameter storage unit 272 stores various parameters transmitted from the user terminal 10 (for example, operation parameters indicating conditions for detecting an object in a video).
The log data storage unit 273 stores detection result data (log data) obtained by detecting an object in a video.

データ取得部211は、ユーザ端末10または他の装置から送信される映像のデータや、ユーザ端末10から送信される映像内における物体の検知のために設定された各種パラメータ等のデータを取得する。また、データ取得部211は、取得した映像のデータを映像データ記憶部271に記憶すると共に、取得した各種パラメータのデータをパラメータ記憶部272に記憶する。本実施形態において、データ取得部211は、映像のデータを1フレームずつ時系列に取得することが可能である。また、データ取得部211は、取得されたフレームの画像データがカラー画像である場合、グレースケール画像に変換する。
ここで、時刻tに取得された濃淡化画像(グレースケール)のデータは、横方向Wピクセル、縦方向Hピクセルの2次元データで、その座標(x,y)に対する輝度値を、I(t,x,y)と定義する。なお、輝度値は0(黒)~255(白)の値を取る。
The data acquisition unit 211 acquires video data transmitted from the user terminal 10 or another device, and data such as various parameters set for detecting objects in the video transmitted from the user terminal 10. Further, the data acquisition unit 211 stores the acquired video data in the video data storage unit 271 and also stores the acquired data of various parameters in the parameter storage unit 272. In this embodiment, the data acquisition unit 211 can acquire video data frame by frame in time series. Furthermore, if the image data of the acquired frame is a color image, the data acquisition unit 211 converts it into a grayscale image.
Here, the data of the gray scale image acquired at time t is two-dimensional data of W pixels in the horizontal direction and H pixels in the vertical direction, and the luminance value for the coordinates (x, y) is expressed as I(t , x, y). Note that the brightness value takes a value from 0 (black) to 255 (white).

パラメータ設定部212は、ユーザ端末10から送信された動作パラメータに基づいて、映像内における物体の検知を行う際の条件を設定する。なお、パラメータ設定部212は、映像内における物体の検知を行っている途中で、ユーザ端末10から動作パラメータを受信した場合(即ち、物体の検知を行う条件が変更された場合)、新たな動作パラメータに基づいて、映像内における物体の検知を行う際の条件を更新する。 The parameter setting unit 212 sets the conditions for detecting an object in the video based on the operation parameters transmitted from the user terminal 10. Note that if the parameter setting unit 212 receives operation parameters from the user terminal 10 while detecting an object in the video (i.e., if the conditions for detecting an object are changed), the parameter setting unit 212 updates the conditions for detecting an object in the video based on the new operation parameters.

画像フィルタ処理部213は、ユーザの設定に応じて、物体の検知を行うフレームの画像に対し、各種フィルタ処理を行う。例えば、画像フィルタ処理部213は、ユーザによってノイズフィルタを適用する設定とされている場合に、物体の検知を行うフレームの画像にノイズフィルタを適用する。また、画像フィルタ処理部213は、ユーザによって照明変動フィルタを適用する設定とされている場合に、物体の検知を行う画像のフレームに照明変動フィルタを適用する。 The image filter processing unit 213 performs various filter processing on the image of the frame in which an object is to be detected, according to the user's settings. For example, if the user has set the noise filter to be applied, the image filter processing unit 213 applies the noise filter to the image of the frame in which the object is detected. Further, the image filter processing unit 213 applies the illumination variation filter to the frame of the image in which the object is to be detected, when the user has set the illumination variation filter to be applied.

画像2値化処理部214は、物体の検知を行う映像のフレームの画像において、フレーム間における2値化フレーム間差分画像を生成する。時刻tにおけるフレームの画像データをI(t)とした場合、2値化フレーム間差分画像のフレームのデータ座標(x,y)に対する輝度値I’(t,x,y)は、

Figure 0007458138000001
として模式的に表すことができる。ただし、nはフレーム間の時間差を表し、thは閾値であり映像内における物体の検知を行う際の条件を示す動作パラメータとしてユーザによって設定されたパラメータの1つである。
さらに、画像2値化処理部214は、生成した2値化フレーム間差分画像において、ユーザによって設定された物体検知領域以外の画素の値を0に設定する。これにより、不要な情報を除去し、物体の検知における誤判定が生じることを抑制できる。
また、ユーザが指定した監視エリアを示すマスク情報と、2値化フレーム間差分画像のAND演算でI’(t,x,y)を更新することで指定のエリア内の動きにのみ着目することができる。 The image binarization processing unit 214 generates a binarized inter-frame difference image between frames in an image of a frame of a video in which an object is detected. When the frame image data at time t is I(t), the luminance value I'(t, x, y) for the frame data coordinates (x, y) of the binarized inter-frame difference image is
Figure 0007458138000001
It can be schematically expressed as. However, n represents the time difference between frames, and th is a threshold value, which is one of the parameters set by the user as an operation parameter indicating conditions for detecting an object in a video.
Further, the image binarization processing unit 214 sets the values of pixels other than the object detection area set by the user to 0 in the generated binarized inter-frame difference image. As a result, unnecessary information can be removed and erroneous determinations in object detection can be suppressed.
In addition, by updating I'(t, x, y) by ANDing the mask information indicating the monitoring area specified by the user and the binarized inter-frame difference image, it is possible to focus only on the movement within the specified area. Can be done.

画素値演算部215は、物体検知領域内を移動する物体の移動速度(移動方向及び速さ)を定量化する特徴量を算出する。この特徴量としては、物体の移動速度(移動方向及び速さ)を定量化できるものであれば、種々の算出方法で算出された値を用いることができるが、本実施形態においては、2値化フレーム間差分画像における着目ピクセル値(輝度値)I’(t,x,y)と前時刻に取得された2値化フレーム間差分画像I’(t-1,x,y)との相関値を用いることとする。相関値はr(t,dx,dy)=ΣΣI’(t,x,y)I’(t-1、x+dx、y+dy)の数式で計算することができる。ここで(dx,dy)は、画像内の2次元座標に対する変位を示す。
着目画素周辺のN×N画素内の相関値を算出する場合、フレームの画像内の2次元座標に対する変位(dx,dy)の組み合わせがNの2乗パターン存在することから、特徴量はN×N次元の行列r(t)となる。
The pixel value calculation unit 215 calculates a feature quantity that quantifies the moving speed (moving direction and speed) of an object moving within the object detection area. As this feature quantity, values calculated by various calculation methods can be used as long as the moving speed (moving direction and speed) of the object can be quantified. However, in this embodiment, a binary value is used. Correlation between the target pixel value (luminance value) I'(t, x, y) in the binarized inter-frame difference image and the binarized inter-frame difference image I'(t-1, x, y) acquired at the previous time We will use the value. The correlation value can be calculated using the formula r(t, dx, dy)=Σ x Σ y I'(t, x, y) I'(t-1, x+dx, y+dy). Here, (dx, dy) indicates displacement with respect to two-dimensional coordinates within the image.
When calculating the correlation value within N×N pixels around the pixel of interest, the feature amount is N This becomes an N-dimensional matrix r(t).

また、画素値演算部215は、設定された時間窓を用いて、算出した特徴量r(t)の移動平均特徴量R(t)を算出する。特徴量r(t)は、物体の移動に関する特徴を表す値であるが、特徴量r(t)の移動平均特徴量R(t)を算出することで、ノイズによって物体の特定方向への移動が誤検知されることを抑制できる。 Furthermore, the pixel value calculation unit 215 calculates a moving average feature amount R(t) of the calculated feature amount r(t) using the set time window. The feature quantity r(t) is a value representing the feature related to the movement of the object, but by calculating the moving average feature quantity R(t) of the feature quantity r(t), it is possible to detect the movement of the object in a specific direction due to noise. This can prevent false detections.

図4は、移動平均特徴量R(t)をN×Nのマトリクスでヒートマップ表示した例を示す模式図である。
図4の例のように、自転車が接近するシーンに対して計算された移動平均特徴量R(t)をN×Nのマトリックスでヒートマップ表示した場合、接近を示す7~8時の方向に対する値が大きくなる傾向を確認することができる。
この傾向を利用して、画素値演算部215は、算出した移動平均特徴量R(t)とN×N次元の重みの行列Wとの要素ごとの積{R(t,i,j)×W(i,j)}を特徴量R’(t)とする。例えば、算出した特徴量の移動平均において、ユーザが検知したい方向あるいは速度に対する重みを1.0とし、それ以外の重みを0.0とすることができる。なお、速度の重み付けに関しては、N×N画素の中心のアドレスが速度0、中心から離れたアドレスほど、移動速度が高くなるものとして、重み付けW(i,j)を設定することができる。
FIG. 4 is a schematic diagram showing an example in which the moving average feature amount R(t) is displayed as a heat map in an N×N matrix.
As in the example in Figure 4, when the moving average feature R(t) calculated for a scene in which a bicycle approaches is displayed as a heat map in an N×N matrix, It can be seen that the value tends to increase.
Using this tendency, the pixel value calculation unit 215 calculates the product of the calculated moving average feature amount R(t) and the N×N-dimensional weight matrix W for each element {R(t, i, j)× W(i,j)} is the feature amount R'(t). For example, in the moving average of the calculated feature amounts, the weight for the direction or speed that the user wants to detect can be set to 1.0, and the other weights can be set to 0.0. Regarding the weighting of the speed, the weighting W(i, j) can be set such that the address at the center of N×N pixels has a speed of 0, and the further away from the center the address, the higher the moving speed.

さらに、画素値演算部215は、算出した重み付き特徴量R’(t)の各要素値の和s(t)=ΣmxΣmyR’(t,mx,my)を算出する。この値は、検知したい物体の大きさを疑似的に表すものである。ここで、図4はmx,myはヒートマップ上の座標情報を指す。
そして、画素値演算部215は、算出した重み付き特徴量R’(t)において、最大要素座標{(dx,dy)}=arg max{R’(t,dx,dy)},(dx,dy)∈Nへの中心座標(0,0)からの方向ベクトルを検出し、移動速度として取得する。
また、局所最大値(モード)を取得することで移動速度の異なる複数の物体も扱えるような手法を採用してもよい。
Further, the pixel value calculation unit 215 calculates the sum s(t) of each element value of the calculated weighted feature amount R'(t)=Σ mx Σ my R'(t, mx, my). This value pseudo-represents the size of the object to be detected. Here, in FIG. 4, mx and my refer to coordinate information on the heat map.
Then, the pixel value calculation unit 215 calculates the maximum element coordinates {(dx, dy)}=arg max {R'(t, dx, dy)}, (dx, dy)∈N Detect the direction vector from the center coordinates (0, 0) to 2 and obtain it as the moving speed.
Alternatively, a method may be adopted that can handle a plurality of objects having different moving speeds by obtaining local maximum values (modes).

画素値演算部215は、設定された時間窓を用いて、重み付き特徴量の要素の和s(t)の時間積分S(t)を算出する。重み付き特徴量の要素の和s(t)の移動平均を算出することで、ノイズによって物体の特定方向への移動を誤検知することが抑制される。
条件判定部216は、重み付き特徴量の要素の和s(t)の時間積分S(t)が異常値として検出するための条件に合致したか否か(例えば、設定された閾値を超えているか否か)を判定する。なお、重み付き特徴量の要素の和s(t)の時間積分S(t)は、検出された異常の可能性を示すスコアとしての意義を有する。
The pixel value calculation unit 215 uses the set time window to calculate the time integral S(t) of the sum s(t) of the elements of the weighted feature amount. By calculating the moving average of the sum s(t) of the elements of the weighted feature amount, false detection of movement of an object in a specific direction due to noise is suppressed.
The condition determination unit 216 determines whether or not the time integral S(t) of the sum s(t) of the elements of the weighted feature satisfies the conditions for detecting it as an abnormal value (for example, if it exceeds a set threshold). ). Note that the time integral S(t) of the sum s(t) of the elements of the weighted feature has significance as a score indicating the possibility of a detected abnormality.

可視化処理部217は、条件判定部216によって、重み付き特徴量の要素の和s(t)の時間積分S(t)が異常値として検出するための条件に合致したと判定された場合、ユーザ端末10に対し、映像内における物体が異常な状態である(例えば、設定された閾値を超えている)ことを示すアラートを出力する。
また、可視化処理部217は、映像内における物体の検知結果を表す各種情報のデータ(例えば、後述するライブビュー画面に含まれる検知結果のデータ)を生成し、ログデータ記憶部273に逐次記憶する。
If the condition determining unit 216 determines that the time integral S(t) of the sum of elements of the weighted feature amount s(t) meets the conditions for detecting it as an abnormal value, the visualization processing unit 217 An alert indicating that the object in the video is in an abnormal state (for example, exceeds a set threshold) is output to the terminal 10.
Furthermore, the visualization processing unit 217 generates data of various information representing the detection results of objects in the video (for example, detection result data included in the live view screen described later), and sequentially stores them in the log data storage unit 273. .

なお、可視化処理部217は、動作パラメータの設定が適切であることを確認可能とするため、処理内容として、物体検知領域の2値化フレーム間差分画像、特徴量r(t)の要素を2次元マトリクス表示した図、物体の移動方向を表すベクトル、及び、重み付き特徴量の要素の和s(t)の時間積分S(t)(検出された異常の可能性を示すスコア)を後述するライブビュー画面において表示させることができる。 In addition, in order to make it possible to confirm that the operation parameter settings are appropriate, the visualization processing unit 217 converts the binarized inter-frame difference image of the object detection area and the element of the feature amount r(t) into 2. A dimensional matrix display, a vector representing the moving direction of the object, and the time integral S(t) (score indicating the possibility of detected anomaly) of the sum of weighted feature elements s(t) will be described later. It can be displayed on the live view screen.

検知結果提示部218は、可視化処理部217によって生成された画像内における物体の検知結果を表す各種情報のデータをユーザ端末10に逐次送信する。また、検知結果提示部218は、ユーザ端末10からログデータのダウンロードが要求された場合に、ログデータ記憶部273に記憶されているログデータを読み出して、ユーザ端末10に送信する。 The detection result presentation unit 218 sequentially transmits data of various information representing the detection result of the object in the image generated by the visualization processing unit 217 to the user terminal 10. Further, when a download of log data is requested from the user terminal 10, the detection result presentation unit 218 reads the log data stored in the log data storage unit 273 and transmits it to the user terminal 10.

[ユーザ端末10の構成]
図5は、ユーザ端末10の機能的構成を示すブロック図である。
図5に示すように、ユーザ端末10のCPU811においては、UI制御部111と、データ管理部112と、が機能する。また、ユーザ端末10の記憶部817には、映像データ記憶部171と、パラメータ記憶部172と、ログデータ記憶部173と、が形成される。
[Configuration of user terminal 10]
FIG. 5 is a block diagram showing the functional configuration of the user terminal 10.
As shown in FIG. 5, in the CPU 811 of the user terminal 10, a UI control section 111 and a data management section 112 function. Further, the storage unit 817 of the user terminal 10 includes a video data storage unit 171, a parameter storage unit 172, and a log data storage unit 173.

映像データ記憶部171には、物体の検知が行われる映像のデータが記憶される。本実施形態において、物体の検知が行われる映像のデータとしては、リアルタイムで撮影された映像のデータ及び過去に撮影された映像のデータのいずれも対象とすることができ、映像データ記憶部171には、これらの映像のデータが記憶される。 The video data storage unit 171 stores video data in which object detection is performed. In this embodiment, the video data for which object detection is performed can include both video data shot in real time and video data shot in the past, and the data is stored in the video data storage unit 171. The data of these images are stored.

パラメータ記憶部172には、映像内における物体の検知のために設定された各種パラメータ(例えば、検知する物体に関する条件を表す各種パラメータ、映像内における物体の検知結果を表示するための各種パラメータ等)が記憶される。
ログデータ記憶部173には、サーバ20によって映像内における物体の検知が行われた検知結果のデータ(ログデータ)が記憶される。
The parameter storage unit 172 stores various parameters set for detecting an object in a video (for example, various parameters representing conditions related to the object to be detected, various parameters for displaying the detection result of the object in the video, etc.). is memorized.
The log data storage unit 173 stores detection result data (log data) obtained by the server 20 detecting an object in a video.

UI制御部111は、映像内における物体を検知するためのパラメータを入出力する各種入出力画面(以下、「UI画面」と称する。)の表示を制御する。例えば、UI制御部111は、映像のデータをリアルタイムに表示すると共に、映像内における物体の検知結果をリアルタイムに表示するUI画面(以下、「ライブビュー画面」と称する。)、映像内における物体の検知結果のログを表示するUI画面(以下、「検知ログ画面」と称する。)、検知する物体に関する条件を設定するUI画面(以下、「条件設定画面」と称する。)、あるいは、アラートとして通知する内容を設定するUI画面(以下、「アラート設定画面」と称する。)を表示する。なお、UI制御部111は、これらの画面をユーザの選択に応じて表示する。ライブビュー画面の表示が選択された場合、UI制御部111は、サーバ20に対して、映像内における物体の検知に関する要求を行う。 The UI control unit 111 controls the display of various input/output screens (hereinafter referred to as "UI screens") for inputting and outputting parameters for detecting objects in images. For example, the UI control unit 111 displays a UI screen (hereinafter referred to as a "live view screen") that displays video data in real time and the detection results of objects in the video (hereinafter referred to as "live view screen"), A UI screen that displays a log of detection results (hereinafter referred to as the "detection log screen"), a UI screen that sets conditions regarding the object to be detected (hereinafter referred to as the "condition setting screen"), or notification as an alert. Displays a UI screen (hereinafter referred to as "alert setting screen") for setting the content to be displayed. Note that the UI control unit 111 displays these screens according to the user's selection. When displaying the live view screen is selected, the UI control unit 111 makes a request to the server 20 regarding detection of an object in the video.

図6は、ライブビュー画面の一例を示す模式図である。
図6に示すように、ライブビュー画面には、物体の検知が行われる映像が表示される映像表示領域D1と、映像内における物体の検知結果に関する情報が表示される検知結果表示領域D2とが含まれている。なお、図6に示す例では、映像表示領域D1において、自動車専用道路から一般道への出口付近の映像が表示されている。
FIG. 6 is a schematic diagram showing an example of a live view screen.
As shown in FIG. 6, the live view screen includes a video display area D1 where a video in which an object is detected is displayed, and a detection result display area D2 where information regarding the detection result of the object in the video is displayed. include. In the example shown in FIG. 6, an image near the exit from the motorway to the general road is displayed in the image display area D1.

映像表示領域D1には、物体の検知が行われる映像が動画像または連続的な静止画像として表示される。また、映像表示領域D1には、物体の検知を行う対象として設定された領域(以下、「物体検知領域d」と称する。)が表示される。さらに、映像表示領域D1には、設定された条件に合致する物体(特定方向への移動物体)が検知されている場合、検知された物体を識別するマーカー(以下、「検知物体識別マーカーM」と称する。)が表示される。一例として、物体検知領域dは、緑色の枠として表示することができ、検知物体識別マーカーMは、物体を囲う赤色の枠として表示することができる。 In the video display area D1, the video in which the object is detected is displayed as a moving image or a series of still images. In addition, in the video display area D1, an area set as a target for object detection (hereinafter referred to as "object detection area d") is displayed. Furthermore, when an object that matches the set conditions (an object moving in a specific direction) is detected in the video display area D1, a marker that identifies the detected object (hereinafter referred to as "detected object identification marker M") is displayed. As an example, the object detection area d can be displayed as a green frame, and the detected object identification marker M can be displayed as a red frame that surrounds the object.

検知結果表示領域D2には、映像内における物体の検知結果を表す各種情報が表示される。例えば、検知結果表示領域D2には、異常値(例えば、設定された閾値を超えた値)、アラートの有無、検知結果の詳細情報、タイムゾーン、設定された閾値、実行フレームレート等の情報が表示される。検知結果の詳細情報としては、例えば、検知する方向として設定された移動方向、検知された物体の移動方向、移動速度、あるいは、異常の大きさ(閾値の超過度合い)等を表示することができる。図6に示す例では、検知結果の詳細情報として、検知結果表示領域D2内に、設定された移動方向を縦軸の+方向とする座標が表示され(検知結果表示領域D2の右端)、設定された移動方向が幅を有する場合、当該幅が縦軸の+方向から扇形の広がりとして表示される。また、図6に示す例では、検知された物体の移動方向が直線として表示されると共に、検知された物体の移動速度が当該直線の長さとして表されている。なお、検知された物体の移動方向を表す直線の表示形態によって、異常の大きさを表示することが可能であり、例えば、検知された物体の移動方向を表す直線を、異常の大きさに対応させて異なる色で表示することができる。 In the detection result display area D2, various types of information representing the detection results of objects in the video are displayed. For example, the detection result display area D2 includes information such as abnormal values (for example, values exceeding a set threshold), presence or absence of alerts, detailed information on detection results, time zone, set threshold, and execution frame rate. Is displayed. As detailed information on the detection results, for example, the moving direction set as the detection direction, the moving direction of the detected object, the moving speed, or the size of the abnormality (degree of exceeding the threshold) can be displayed. . In the example shown in FIG. 6, coordinates with the set moving direction as the + direction of the vertical axis are displayed in the detection result display area D2 as detailed information of the detection result (at the right end of the detection result display area D2), and the setting If the moved direction has a width, the width is displayed as a fan-shaped spread from the + direction of the vertical axis. Furthermore, in the example shown in FIG. 6, the moving direction of the detected object is displayed as a straight line, and the moving speed of the detected object is expressed as the length of the straight line. Note that the size of the abnormality can be displayed depending on the display format of the straight line representing the moving direction of the detected object. For example, the straight line representing the moving direction of the detected object can be displayed to correspond to the size of the abnormality. It can be displayed in different colors.

なお、ライブビュー画面において、映像表示領域D1に複数の物体検知領域dを設定することが可能であり、この場合、設定された物体検知領域それぞれの検知結果を表す検知結果表示領域D2がライブビュー画面内に表示される。
図7は、複数の物体検知領域が設定された場合のライブビュー画面の一例を示す模式図である。
図7に示す例では、映像表示領域D1内に、2つの物体検知領域d1,d2が設定され、物体検知領域d1は実線、物体検知領域d2は一点鎖線で表されている。また、検知結果表示領域D2には、物体検知領域d1の検知結果及び物体検知領域d2の検知結果が上下または左右に並べて表示されている。
In addition, on the live view screen, it is possible to set multiple object detection areas d in the image display area D1, and in this case, a detection result display area D2 showing the detection results of each of the set object detection areas is displayed within the live view screen.
FIG. 7 is a schematic diagram showing an example of a live view screen when a plurality of object detection areas are set.
7, two object detection areas d1 and d2 are set within image display area D1, with object detection area d1 indicated by a solid line and object detection area d2 indicated by a dashed dotted line. Furthermore, in detection result display area D2, the detection results of object detection area d1 and object detection area d2 are displayed side by side, either vertically or horizontally.

図8は、検知ログ画面の一例を示す模式図である。
図8に示すように、検知ログ画面では、物体の検知結果が記録されたログデータの表示が行われる。
図8に示す例では、ログデータの表示を指示する操作が行われたことに対応して、異常が検知された日時が一覧表示されている。
なお、図8に示すようにログデータを表示させることの他、ログデータをファイルとしてユーザ端末10にダウンロードすることも可能である。
FIG. 8 is a schematic diagram showing an example of a detection log screen.
As shown in FIG. 8, on the detection log screen, log data in which object detection results are recorded is displayed.
In the example shown in FIG. 8, a list of dates and times when an abnormality was detected is displayed in response to an operation instructing display of log data.
In addition to displaying the log data as shown in FIG. 8, it is also possible to download the log data as a file to the user terminal 10.

図9は、条件設定画面の一例を示す模式図である。
図9に示すように、条件設定画面では、入力された画像と、入力された画像に各種フィルタ処理(ノイズフィルタあるいは照明変動フィルタ等による処理)を行い、さらに2値化フレーム間差分処理を行った画像と、検知結果の詳細情報と、異常値のインジケータとが表示される。また、条件設定画面には、「基本設定」、「タイムゾーン設定」、「検知設定」及び「メンテナンス」の各カテゴリについて設定を行うためのボタンアイコンが表示される。
FIG. 9 is a schematic diagram showing an example of a condition setting screen.
As shown in Figure 9, on the condition setting screen, the input image is subjected to various filter processing (processing using a noise filter or illumination variation filter, etc.), and further, binarized inter-frame difference processing is performed on the input image. The detected image, detailed information on the detection result, and abnormal value indicators are displayed. The condition setting screen also displays button icons for making settings for each category of "basic settings,""time zone settings,""detectionsettings," and "maintenance."

「基本設定」が選択された場合、検知領域の設定及びフレームレートの設定が受け付けられる。具体的には、条件設定画面において、ユーザが検知領域を設定するための操作を行うと、画像内における物体検知領域の設定が受け付けられ、ユーザはマウス等のポインティングデバイスによって、物体検知領域を設定することができる。また、条件設定画面において、ユーザがフレームレートを設定するための操作を行うと、物体の検知を行う映像のフレームレートの設定が受け付けられ、ユーザは目的に応じたフレームレートを設定することができる。 When "basic settings" is selected, settings for the detection area and frame rate are accepted. Specifically, when the user performs an operation to set the detection area on the condition setting screen, the setting of the object detection area in the image is accepted, and the user sets the object detection area using a pointing device such as a mouse. can do. In addition, when the user performs an operation to set the frame rate on the condition setting screen, the frame rate setting of the video for object detection is accepted, and the user can set the frame rate according to the purpose. .

「タイムゾーン設定」が選択された場合、1日のうちの時間帯を示すタイムゾーンの設定が受け付けられる。具体的には、条件設定画面において、ユーザがタイムゾーンを設定するための操作を行うと、映像内における物体の検知を行う時間帯(タイムゾーン)の設定が受け付けられ、タイムゾーンを特定する時間の入力が受け付けられる。このとき設定されるタイムゾーンにおいては、後述するように、タイムゾーン毎に物体を検知する際の条件が設定可能となっている。
そのため、タイムゾーンを設定することで、日照条件の変化等に応じて、より適切な条件で映像内における物体の検知を行うことが可能となる。
When "time zone setting" is selected, the time zone setting indicating the time zone of the day is accepted. Specifically, when the user performs an operation to set the time zone on the condition setting screen, the setting for the time zone (time zone) in which objects in the video are detected is accepted, and the time to specify the time zone is accepted. input is accepted. In the time zone set at this time, conditions for detecting an object can be set for each time zone, as described later.
Therefore, by setting the time zone, it becomes possible to detect objects in a video under more appropriate conditions in response to changes in sunlight conditions, etc.

「検知設定」が選択された場合、設定されているタイムゾーン毎に物体を検知する際の条件の設定が受け付けられる。具体的には、条件設定画面において、ユーザがタイムゾーン毎に物体を検知する際の条件を設定する操作を行うと、タイムゾーンの選択が受け付けられ、さらに、選択されたタイムゾーンに関する動作パラメータの入力が受け付けられる。 When "Detection Settings" is selected, the settings of the conditions for detecting objects for each set time zone are accepted. Specifically, when the user performs an operation on the condition setting screen to set the conditions for detecting objects for each time zone, the selection of the time zone is accepted, and further, the input of the operating parameters for the selected time zone is accepted.

動作パラメータとしては、ノイズフィルタ、照明変動フィルタ、2値化閾値、水平方向ブロックサイズ、垂直方向ブロックサイズ、特徴量サイズ、特徴量の移動平均、異常値の移動平均、検知方向、異常値を判定するための閾値、及び、アラートのディレイ時間等を設定することができる。
ノイズフィルタの設定では、ノイズフィルタ(平滑化フィルタ等)を適用するか否かを設定することができると共に、ノイズフィルタのサイズ(3×3画素または5×5画素等)を設定することができる。
Operational parameters include noise filter, illumination variation filter, binarization threshold, horizontal block size, vertical block size, feature size, moving average of features, moving average of abnormal values, detection direction, and abnormal value determination. It is possible to set the threshold value for the alert, the alert delay time, etc.
In the noise filter settings, you can set whether to apply a noise filter (smoothing filter, etc.), and also set the size of the noise filter (3 x 3 pixels or 5 x 5 pixels, etc.). .

照明変動フィルタの設定では、照明変動フィルタ(ソーベルフィルタ等)を適用するか否かを設定することができる。
2値化閾値の設定では、入力された画像に関する2値化フレーム間差分画像を生成する際の閾値を設定することができる。
水平方向ブロックサイズの設定では、画像を水平方向に分割するブロック数を設定することができる。
垂直方向ブロックサイズの設定では、画像を垂直方向に分割するブロック数を設定することができる。
なお、物体の検知は、設定された水平方向ブロックサイズ及び垂直方向ブロックサイズで定まるブロック毎に行われる。
In the illumination fluctuation filter setting, it is possible to set whether or not to apply an illumination fluctuation filter (such as a Sobel filter).
In the binarization threshold setting, a threshold for generating a binarized inter-frame difference image for an input image can be set.
In the horizontal block size setting, the number of blocks into which the image is divided in the horizontal direction can be set.
In the vertical block size setting, the number of blocks into which an image is divided in the vertical direction can be set.
Note that object detection is performed for each block determined by the set horizontal block size and vertical block size.

特徴量サイズの設定では、前述のサーバ20における画素値演算部215で特徴量を計算する際の最大変位量を設定することができる。
特徴量の移動平均の設定では、算出された特徴量に対する積分処理の時間窓の大きさを設定することができる。
異常値の移動平均の設定では、検知された異常値に対する積分処理の時間窓の大きさを設定することができる。
In setting the feature amount size, it is possible to set the maximum displacement amount when the feature amount is calculated by the pixel value calculation unit 215 in the server 20 described above.
In setting the moving average of the feature amount, it is possible to set the size of the time window for integration processing for the calculated feature amount.
When setting the moving average of abnormal values, it is possible to set the size of the time window for integration processing for detected abnormal values.

検知方向の設定では、映像内において検知したい物体の移動方向を設定することができる。検知方向を設定する場合、検知したい物体の移動方向を表す角度(0時の方向を0度として360度のいずれか)、許容する誤差角度(移動方向に対する幅)、速度の下限または上限閾値、検知したい物体の移動方向を両方向とするか否か(逆方向への移動も検知するか)を設定することが可能となっている。
異常値を判定するための閾値の設定では、異常値と判定するための閾値をユーザの目的等に応じて任意に設定することができる。
In setting the detection direction, it is possible to set the moving direction of the object to be detected in the video. When setting the detection direction, the angle representing the moving direction of the object to be detected (any of 360 degrees with the 0 o'clock direction as 0 degrees), the allowable error angle (width relative to the moving direction), the lower or upper speed threshold, It is possible to set whether or not the object to be detected moves in both directions (whether movement in the opposite direction is also detected).
When setting a threshold value for determining an abnormal value, the threshold value for determining an abnormal value can be arbitrarily set according to the user's purpose.

アラートのディレイ時間の設定では、異常値と判定された状態がどの程度継続した場合に、アラートを出力するかを定めるための時間を設定することができる。
図9において、「メンテナンス」が選択された場合、動作パラメータの設定を初期値に戻す操作や、異常値の推移を表すログ画面を表示する操作が受け付けられる。
In setting the alert delay time, it is possible to set a time for determining how long a state determined to be an abnormal value continues before an alert is output.
In FIG. 9, when "maintenance" is selected, an operation to return the setting of the operating parameter to the initial value or an operation to display a log screen showing the transition of abnormal values is accepted.

図5に戻り、データ管理部112は、映像データ記憶部171への映像のデータの記憶及び読み出し、パラメータ記憶部172への各種パラメータの記憶及び読み出し、サーバ20との間でのデータの送受信を管理する。例えば、データ管理部112は、ライブビュー画面に表示する映像のデータを映像データ記憶部171から読み出したり、UI画面において設定された各種パラメータのデータをパラメータ記憶部172に記憶したりする。また、データ管理部112は、映像内における物体の検知をサーバ20に要求する際に、パラメータ記憶部172に記憶された各種パラメータをサーバ20に送信したり、映像内における物体の検知結果のデータをサーバ20から受信したりする。 Returning to FIG. 5, the data management unit 112 stores and reads video data in the video data storage unit 171, stores and reads various parameters in the parameter storage unit 172, and sends and receives data to and from the server 20. to manage. For example, the data management unit 112 reads video data to be displayed on the live view screen from the video data storage unit 171, or stores data on various parameters set on the UI screen in the parameter storage unit 172. Further, when requesting the server 20 to detect an object in the video, the data management unit 112 transmits various parameters stored in the parameter storage unit 172 to the server 20, or sends data of the detection results of the object in the video to the server 20. from the server 20.

[動作]
次に、情報処理システム1の動作を説明する。
[UI制御処理]
図10は、ユーザ端末10が実行するUI制御処理の流れを示すフローチャートである。
UI制御処理は、ユーザ端末10の入力部815を介してUI制御処理の実行が指示入力されることに対応して開始される。
[motion]
Next, the operation of the information processing system 1 will be explained.
[UI control processing]
FIG. 10 is a flowchart showing the flow of the UI control process executed by the user terminal 10.
The UI control process is started in response to an instruction to execute the UI control process being input via the input unit 815 of the user terminal 10 .

UI制御処理が開始されると、ステップS1において、UI制御部111は、映像内における物体の検知を行うためのユーザインターフェースの初期画面を表示する。ユーザインターフェースの初期画面には、各種UI画面に遷移するためのアイコンが表示される。 When the UI control process is started, in step S1, the UI control unit 111 displays an initial screen of a user interface for detecting an object in the video. Icons for transitioning to various UI screens are displayed on the initial screen of the user interface.

ステップS2において、UI制御部111は、ユーザによって、ライブビュー画面に遷移するためのアイコンが選択されたか否かの判定を行う。
ユーザによって、ライブビュー画面に遷移するためのアイコンが選択されていない場合、ステップS2においてNOと判定されて、処理はステップS4に移行する。
一方、ユーザによって、ライブビュー画面に遷移するためのアイコンが選択された場合、ステップS2においてYESと判定されて、処理はステップS3に移行する。
In step S2, the UI control unit 111 determines whether the user has selected an icon for transitioning to a live view screen.
If the user has not selected an icon for transitioning to the live view screen, a negative determination is made in step S2, and the process proceeds to step S4.
On the other hand, if the user selects the icon for transitioning to the live view screen, YES is determined in step S2, and the process proceeds to step S3.

ステップS3において、UI制御部111は、ライブビュー画面を表示する。ライブビュー画面が表示された場合、ライブビュー画面に関連する各種操作が適宜受け付けられる。なお、ライブビュー画面に遷移するためのアイコンが選択された場合、UI制御部111は、サーバ20に対して、映像内における物体の検知に関する要求を行う。
ステップS4において、UI制御部111は、ユーザによって、検知ログ画面に遷移するためのアイコンが選択されたか否かの判定を行う。
ユーザによって、検知ログ画面に遷移するためのアイコンが選択されていない場合、ステップS4においてNOと判定されて、処理はステップS6に移行する。
一方、ユーザによって、検知ログ画面に遷移するためのアイコンが選択された場合、ステップS4においてYESと判定されて、処理はステップS5に移行する。
In step S3, the UI control unit 111 displays a live view screen. When the live view screen is displayed, various operations related to the live view screen are appropriately accepted. When an icon for transitioning to the live view screen is selected, the UI control unit 111 makes a request to the server 20 regarding detection of an object in the video.
In step S4, the UI control unit 111 determines whether or not the user has selected an icon for transitioning to the detection log screen.
If the user has not selected an icon for transitioning to the detection log screen, the result of step S4 is determined to be NO, and the process proceeds to step S6.
On the other hand, if the user selects the icon for transitioning to the detection log screen, the result of the determination in step S4 is YES, and the process proceeds to step S5.

ステップS5において、UI制御部111は、検知ログ画面を表示する。検知ログ画面が表示された場合、検知ログ画面に関連する各種操作(ログデータのダウンロード要求等)が適宜受け付けられる。
ステップS6において、UI制御部111は、条件設定画面に遷移するためのアイコンが選択されたか否かの判定を行う。
条件設定画面に遷移するためのアイコンが選択されていない場合、ステップS6においてNOと判定されて、処理はステップS8に移行する。
一方、条件設定画面に遷移するためのアイコンが選択された場合、ステップS6においてYESと判定されて、処理はステップS7に移行する。
In step S5, the UI control unit 111 displays a detection log screen. When the detection log screen is displayed, various operations related to the detection log screen (log data download request, etc.) are accepted as appropriate.
In step S6, the UI control unit 111 determines whether an icon for transitioning to the condition setting screen has been selected.
If the icon for transitioning to the condition setting screen is not selected, the determination in step S6 is NO, and the process moves to step S8.
On the other hand, if the icon for transitioning to the condition setting screen is selected, YES is determined in step S6, and the process moves to step S7.

ステップS7において、UI制御部111は、条件設定画面を表示する。条件設定画面が表示された場合、条件設定画面に関連する各種操作が適宜受け付けられる。
ステップS8において、UI制御部111は、UI制御処理の終了が指示されたか否かの判定を行う。
UI制御処理の終了が指示されていない場合、ステップS8においてNOと判定されて、処理はステップS1に移行する。
一方、UI制御処理の終了が指示された場合、ステップS8においてYESと判定されて、UI制御処理は終了する。
In step S7, the UI control unit 111 displays a condition setting screen. When the condition setting screen is displayed, various operations related to the condition setting screen are accepted as appropriate.
In step S8, the UI control unit 111 determines whether an instruction has been given to end the UI control process.
If the end of the UI control process has not been instructed, a negative determination is made in step S8, and the process proceeds to step S1.
On the other hand, if an instruction is given to end the UI control process, a YES determination is made in step S8, and the UI control process ends.

次に、サーバ20が実行する処理について説明する。
[物体検知処理]
図11は、サーバ20が実行する物体検知処理の流れを示すフローチャートである。
物体検知処理は、サーバ20の入力部815、あるいは、他の装置から物体検知処理の実行が指示入力されることにより開始される。
Next, the processing executed by the server 20 will be explained.
[Object detection processing]
FIG. 11 is a flowchart showing the flow of object detection processing executed by the server 20.
The object detection process is started when an instruction to execute the object detection process is input from the input unit 815 of the server 20 or another device.

物体検知処理が開始されると、ステップS31において、データ取得部211は、物体の検知を行う映像のデータを取得する。このとき、データ取得部211は、映像のデータを1フレームずつ時系列に取得すると共に、取得されたフレームの画像データがカラー画像である場合、グレースケール画像に変換する。
ステップS32において、画像フィルタ処理部213は、ユーザの設定に応じて、物体の検知を行うフレームの画像に対し、各種フィルタ処理(ノイズフィルタあるいは照明変動フィルタ等による処理)を行う。
When the object detection process is started, in step S31, the data acquisition unit 211 acquires video data for detecting an object. At this time, the data acquisition unit 211 acquires video data one frame at a time in time series, and if the image data of the acquired frame is a color image, converts it into a grayscale image.
In step S32, the image filter processing unit 213 performs various filter processing (processing using a noise filter, an illumination variation filter, etc.) on the image of the frame in which an object is to be detected, according to the user's settings.

ステップS33において、画像2値化処理部214は、物体の検知を行う映像のフレームの画像において、フレーム間における2値化フレーム間差分画像を生成する。
ステップS34において、画像2値化処理部214は、生成した2値化フレーム間差分画像において、ユーザによって設定された物体検知領域以外の画素の値を0に設定する。
ステップS35において、画素値演算部215は、物体検知領域内を移動する物体の移動速度(移動方向及び速さ)を定量化する特徴量r(t)を算出する。
In step S33, the image binarization processing unit 214 generates a binarized inter-frame difference image between frames in the image of the frame of the video in which the object is detected.
In step S34, the image binarization processing unit 214 sets the values of pixels other than the object detection area set by the user to 0 in the generated binarized inter-frame difference image.
In step S35, the pixel value calculation unit 215 calculates a feature amount r(t) that quantifies the moving speed (moving direction and speed) of the object moving within the object detection area.

ステップS36において、画素値演算部215は、設定された時間窓を用いて、算出した特徴量r(t)の移動平均特徴量R(t)を算出する。
ステップS37において、画素値演算部215は、算出した移動平均特徴量R(t)における各要素に重み付けを行い、重み付けした結果である重み付き特徴量R’(t)の各要素値の和s(t)=ΣΣR’(t,x,y)を算出する。また、ステップS37において、画素値演算部215は、算出した重み付き特徴量R’(t)において、最大要素座標{(dx,dy)}=arg max{R’(t,dx,dy)},(dx,dy)∈Nへの中心座標(0,0)からの方向ベクトルを検出し、移動速度として取得する。
ステップS38において、画素値演算部215は、設定された時間窓を用いて、重み付き特徴量の要素の和s(t)の時間積分S(t)を算出する。
In step S36, the pixel value calculation unit 215 calculates a moving average feature amount R(t) of the calculated feature amount r(t) using the set time window.
In step S37, the pixel value calculation unit 215 weights each element in the calculated moving average feature amount R(t), and the sum s of each element value of the weighted feature amount R'(t), which is the weighted result. Calculate (t)=Σ x Σ y R'(t, x, y). In addition, in step S37, the pixel value calculation unit 215 calculates the maximum element coordinate {(dx, dy)}=arg max {R'(t, dx, dy)} in the calculated weighted feature amount R'(t). , (dx, dy)∈N 2 The direction vector from the center coordinates (0, 0) is detected and obtained as the moving speed.
In step S38, the pixel value calculation unit 215 uses the set time window to calculate the time integral S(t) of the sum s(t) of the elements of the weighted feature amount.

ステップS39において、条件判定部216は、重み付き特徴量の要素の和s(t)の時間積分S(t)が異常値として検出するための条件に合致したか否か(例えば、設定された閾値を超えているか否か)の判定を行う。
重み付き特徴量の要素の和s(t)の時間積分S(t)が異常値として検出するための条件に合致していない場合、ステップS39においてNOと判定されて、処理はステップS41に移行する。
一方、重み付き特徴量の要素の和s(t)の時間積分S(t)が異常値として検出するための条件に合致した場合、ステップS39においてYESと判定されて、処理はステップS40に移行する。
In step S39, the condition determination unit 216 determines whether or not the time integral S(t) of the sum s(t) of the elements of the weighted feature satisfies the condition for detecting it as an abnormal value (for example, if the (Whether the threshold value is exceeded or not) is determined.
If the time integral S(t) of the sum s(t) of the elements of the weighted feature does not meet the conditions for detection as an abnormal value, the determination in step S39 is NO, and the process moves to step S41. do.
On the other hand, if the time integral S(t) of the sum s(t) of the elements of the weighted feature satisfies the conditions for detection as an abnormal value, the determination in step S39 is YES, and the process moves to step S40. do.

ステップS40において、可視化処理部217は、ユーザ端末10に対し、映像内における物体が異常な状態である(例えば、設定された閾値を超えている)ことを示すアラートを出力する。
ステップS41において、可視化処理部217は、映像内における物体の検知結果を表す各種情報のデータ(例えば、ライブビュー画面に含まれる検知結果のデータ)を生成し、検知結果提示部218は、可視化処理部217によって生成された映像内における物体の検知結果を表す各種情報のデータをユーザ端末10に逐次送信する。
In step S40, the visualization processing unit 217 outputs an alert to the user terminal 10 indicating that the object in the video is in an abnormal state (for example, exceeds a set threshold).
In step S41, the visualization processing unit 217 generates data of various information representing the detection results of objects in the video (for example, detection result data included in the live view screen), and the detection result presentation unit 218 performs visualization processing. The unit 217 sequentially transmits data of various types of information representing the detection results of objects in the video to the user terminal 10 .

ステップS42において、データ取得部211は、物体の検知を行う映像のデータが終了したか否かの判定を行う。
物体の検知を行う映像のデータが終了していない場合、ステップS42においてNOと判定されて、処理はステップS31に移行する。
一方、物体の検知を行う映像のデータが終了した場合、ステップS42においてYESと判定されて、物体検知処理は終了となる。
In step S42, the data acquisition unit 211 determines whether or not the video data for object detection has ended.
If the image data for object detection has not ended, a NO determination is made in step S42, and the process proceeds to step S31.
On the other hand, if the video data for object detection has been exhausted, a YES determination is made in step S42, and the object detection process ends.

このような処理により、AIへの応用のように膨大な学習サンプルを用意することなく、直感的な操作による設定で、映像内における物体の特定方向への移動を検知することができる。また、映像内において、特定方向へ移動する物体を選別して検知するための条件設定を容易に行うことが可能なユーザインターフェースを提供することができる。
したがって、本実施形態に係る情報処理システム1によれば、映像内における物体の特定方向への移動を精度良く、より簡単に検知することが可能となる。
また、外乱に頑健に映像内の物体速度を推定することができる。
Through such processing, it is possible to detect the movement of an object in a specific direction in a video with intuitive settings, without having to prepare a huge number of learning samples as in the case of AI applications. Further, it is possible to provide a user interface that allows easy setting of conditions for selecting and detecting objects moving in a specific direction in a video.
Therefore, according to the information processing system 1 according to the present embodiment, movement of an object in a video in a specific direction can be detected more easily and with high accuracy.
Furthermore, it is possible to estimate the velocity of an object in an image robustly against disturbances.

なお、物体検知処理を1つの映像のデータに対して複数実行させることが可能であり、例えば、道路の映像のデータにおいて、上り車線の領域と下り車線の領域とをそれぞれ別の物体探知領域として設定し、それぞれの物体探知領域について、物体検知処理を実行することとしてもよい。
また、タイムゾーン(時間帯)に応じて、動作パラメータを切り替えて、物体検知処理を実行することも可能である。
Note that it is possible to perform multiple object detection processes on one video data. For example, in road video data, the up lane area and the down lane area may be treated as separate object detection areas. The object detection process may be performed for each object detection area.
Furthermore, it is also possible to execute object detection processing by switching operation parameters depending on the time zone.

[変形例1]
上述の実施形態においては、クライアント-サーバ型の情報処理システム1を構築し、サーバ20において物体検知処理を実行して、ユーザ端末10に物体検知処理の結果を送信するものとした。
これに対し、物体検知処理を実行するための機能及び物体検知処理の結果を表示するための機能を1つの装置(例えば、ユーザ端末10等)に備えることにより、情報処理システム1の機能を単体の情報処理装置800で実現(即ち、スタンドアローン型のシステムとして実現)することとしてもよい。
[Modification 1]
In the embodiment described above, a client-server type information processing system 1 is constructed, the server 20 executes object detection processing, and the result of the object detection processing is transmitted to the user terminal 10.
In contrast, by providing a single device (for example, user terminal 10, etc.) with a function for executing object detection processing and a function for displaying the result of object detection processing, the functions of information processing system 1 can be integrated into a single device. It is also possible to implement the information processing apparatus 800 (that is, implement it as a stand-alone system).

図12は、物体検知処理及び処理結果の表示を実行するスタンドアローン型の情報処理装置800の機能的構成を示すブロック図である。
図12に示すように、スタンドアローン型として構成する場合、単体の情報処理装置800において、ユーザ端末10のUI制御部111、サーバ20のデータ取得部211、パラメータ設定部212、画像フィルタ処理部213、画像2値化処理部214、画素値演算部215、条件判定部216、可視化処理部217及び検知結果提示部218の機能をCPU811に備えると共に、サーバ20が備える映像データ記憶部271、パラメータ記憶部272及びログデータ記憶部273を記憶部817に備えることとすればよい。
FIG. 12 is a block diagram showing the functional configuration of a stand-alone information processing device 800 that executes object detection processing and display of processing results.
As shown in FIG. 12, when configured as a standalone type, a single information processing device 800 includes a UI control section 111 of the user terminal 10, a data acquisition section 211 of the server 20, a parameter setting section 212, and an image filter processing section 213. , the functions of the image binarization processing section 214, pixel value calculation section 215, condition determination section 216, visualization processing section 217, and detection result presentation section 218 are provided in the CPU 811, and the video data storage section 271 and parameter storage provided in the server 20 are provided. The storage unit 817 may include the storage unit 272 and the log data storage unit 273.

[変形例2]
上述の実施形態において、撮像装置Cにサーバ20の物体検知処理を実行するための機能を備えることが可能である。
この場合、撮像装置Cは、映像内における物体の特定方向への移動を自動的に検知する機能を備えたカメラとして構成することができる。
そして、撮像装置Cにおいて実行された物体検知処理の処理結果をユーザ端末10あるいはサーバ20に送信することで、処理結果の表示や記録を行うことができる。
[Modification 2]
In the embodiment described above, it is possible to provide the imaging device C with a function for executing the object detection process of the server 20.
In this case, the imaging device C can be configured as a camera having a function of automatically detecting movement of an object in a specific direction within the video.
Then, by transmitting the processing results of the object detection processing executed in the imaging device C to the user terminal 10 or the server 20, the processing results can be displayed or recorded.

以上のように、本実施形態に係る情報処理システム1は、ユーザによって使用されるユーザ端末10と、ユーザ端末10と通信可能に構成されたサーバ20とを含む。
ユーザ端末10は、UI制御部111を備える。
UI制御部111は、サーバ20に対し、検知対象となる映像において、設定された検知領域内で移動する物体を検知するための物体検知処理を要求する。
サーバ20は、画素値演算部215及び条件判定部216と、検知結果提示部218とを備える。
画素値演算部215及び条件判定部216は、ユーザ端末10の要求に応じて、検知対象となる映像において、異なる時間の映像のデータにおける検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、検知領域内で移動する物体を検知する物体検知処理を実行する。
検知結果提示部218は、条件判定部216による物体の検知結果をユーザ端末10に提示(例えば、送信)する。
これにより、外乱に頑健に映像内の物体速度を推定することが可能となる。
As described above, the information processing system 1 according to the present embodiment includes the user terminal 10 used by the user and the server 20 configured to be able to communicate with the user terminal 10.
The user terminal 10 includes a UI control section 111.
The UI control unit 111 requests the server 20 to perform object detection processing to detect an object moving within a set detection area in the video to be detected.
The server 20 includes a pixel value calculation section 215, a condition determination section 216, and a detection result presentation section 218.
In response to a request from the user terminal 10, the pixel value calculation unit 215 and the condition determination unit 216 calculate the correlation between the data of the pixels in the detection area and the pixels around the pixel in video data at different times in the video to be detected. Based on this, an object detection process is executed to detect an object moving within the detection area.
The detection result presentation unit 218 presents (for example, transmits) the object detection result obtained by the condition determination unit 216 to the user terminal 10 .
This makes it possible to estimate the object velocity in the video robustly against disturbances.

画素値演算部215及び条件判定部216は、異なる時間の映像のデータにおいて、検知領域内の画素及び当該画素周辺の画素のデータの相関値を各画素について取得し、取得された相関値からなるデータに対し、特定方向への移動に対応する重み付けを行って取得される特徴量に基づいて、設定された検知領域内で特定方向へ移動する物体を検知する。
これにより、AI学習のための膨大な学習サンプルを用意することなく、直感的な操作による設定で、映像内における物体の特定方向への移動を精度良く、より簡単に検知することができる。
The pixel value calculation unit 215 and the condition determination unit 216 acquire a correlation value for each pixel between data of a pixel within the detection area and pixels around the pixel in video data at different times, and calculate a correlation value consisting of the acquired correlation value. An object moving in a specific direction within a set detection area is detected based on a feature quantity obtained by weighting data in accordance with movement in a specific direction.
As a result, movement of an object in a video in a specific direction can be detected more accurately and more easily with intuitive settings without having to prepare a huge number of learning samples for AI learning.

画素値演算部215及び条件判定部216は、重み付き特徴量R’(t)の要素値に基づいて、映像内における任意の物体の移動方向及び移動速度を取得する。
これにより、ユーザが設定した移動方向及び移動速度の物体をより高精度に検知することができる。
The pixel value calculation unit 215 and the condition determination unit 216 obtain the moving direction and moving speed of any object in the video based on the element values of the weighted feature amount R'(t).
This makes it possible to detect with higher accuracy an object moving in the direction and at the speed set by the user.

UI制御部111は、検知する物体の移動方向を含む検知条件を設定するための条件設定画面を表示する。
また、UI制御部111は、条件設定画面において設定された検知条件に従って、サーバ20に対して物体検知処理の要求を行う。
これにより、直感的な操作によって検知条件を設定し、映像内における物体の特定方向への移動を検知することができる。
The UI control unit 111 displays a condition setting screen for setting detection conditions including the moving direction of the object to be detected.
Further, the UI control unit 111 requests the server 20 to perform object detection processing according to the detection conditions set on the condition setting screen.
This makes it possible to set detection conditions through intuitive operations and detect movement of an object in a specific direction within a video.

UI制御部111は、サーバ20から提示された検知結果に基づいて、映像及び検知領域を表示すると共に、検知された物体を識別して表示する。
これにより、物体検知処理によって検知された、映像内において移動する物体をわかりやすい形態で表示することができる。
The UI control unit 111 displays the video and detection area based on the detection results presented by the server 20, and also identifies and displays the detected object.
With this, it is possible to display an object moving within the video that is detected by the object detection process in an easy-to-understand format.

UI制御部111は、検知対象となる映像内に、複数の検知領域を設定してサーバ20に物体検知処理を要求する。
画素値演算部215及び条件判定部216は、複数の検知領域毎に、当該検知領域内で移動する物体を検知する。
検知結果提示部218は、ユーザ端末10に対し、複数の検知領域毎に画素値演算部215及び条件判定部216による物体の検知結果を提示する。
これにより、より複雑な検知条件を設定して、映像内における物体の移動を検知することができる。
The UI control unit 111 sets a plurality of detection areas in the video to be detected, and requests the server 20 to perform object detection processing.
The pixel value calculation unit 215 and the condition determination unit 216 detect objects moving within each of the plurality of detection areas.
The detection result presentation unit 218 presents the object detection results obtained by the pixel value calculation unit 215 and the condition determination unit 216 for each of the plurality of detection areas to the user terminal 10.
This makes it possible to set more complex detection conditions and detect the movement of an object within a video.

また、本実施形態に係る情報処理装置800(サーバ20または変形例1の情報処理装置800)は、画素値演算部215及び条件判定部216と、検知結果提示部218とを備える。
画素値演算部215及び条件判定部216は、検知対象となる映像において、異なる時間の映像のデータにおける設定された検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、検知領域内で移動する物体を検知する物体検知処理を実行する。
検知結果提示部218は、条件判定部216による物体の検知結果を提示(例えば、表示あるいは送信)する。
これにより、外乱に頑健に映像内の物体速度を推定することが可能となる。
Further, the information processing device 800 (the server 20 or the information processing device 800 of the first modification) according to the present embodiment includes a pixel value calculation section 215, a condition determination section 216, and a detection result presentation section 218.
The pixel value calculation unit 215 and the condition determination unit 216 determine the detection area based on the correlation between pixels within the set detection area and data of pixels around the pixel in video data at different times in the video to be detected. Execute object detection processing to detect objects moving within the vehicle.
The detection result presenting unit 218 presents (for example, displays or transmits) the object detection result obtained by the condition determining unit 216.
This makes it possible to estimate the object velocity in the video robustly against disturbances.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、上述の実施形態において、クライアント-サーバ型の情報処理システム1を構成する場合、システムを構成する情報処理装置の組み合わせは、上述の実施形態に示した例に限られない。
例えば、サーバ20に備えられた機能をより多くのサーバに分散して実装したり、ユーザ端末10、サーバ20あるいは撮像装置Cの機能をより少ない装置にまとめて実装したりすることが可能である。
It should be noted that the present invention is not limited to the above-described embodiments, and any modifications, improvements, etc. that can achieve the purpose of the present invention are included in the present invention.
For example, in the above embodiment, when configuring the client-server type information processing system 1, the combination of information processing apparatuses configuring the system is not limited to the example shown in the above embodiment.
For example, it is possible to distribute and implement the functions provided in the server 20 to more servers, or to collectively implement the functions of the user terminal 10, server 20, or imaging device C in fewer devices. .

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、上述の実施形態における機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システム1を構成するいずれかのコンピュータに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に示した例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or software.
In other words, the functional configurations in the embodiments described above are merely examples and are not particularly limited. In other words, it is sufficient that any computer constituting the information processing system 1 is equipped with a function that can execute the series of processes described above as a whole, and it is not particularly important what kind of functional blocks are used to realize this function. It is not limited to the example shown.
Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.

また、上述した一連の処理を実行するためのプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。 Furthermore, the recording medium containing the program for executing the series of processes described above is not only configured as a removable medium that is distributed separately from the device itself in order to provide the program to the user, but also as a removable medium that is pre-installed in the device itself. It consists of recording media, etc. that are provided to users in a state in which they are

以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to the embodiments described above. Further, the effects described in this embodiment are only a list of the most preferable effects resulting from the present invention, and the effects according to the present invention are not limited to those described in this embodiment.

1 情報処理システム、10 ユーザ端末、20 サーバ、30 ネットワーク、C 撮像装置、111 UI制御部、112 データ管理部、171,271 映像データ記憶部、172,272 パラメータ記憶部、173,273 ログデータ記憶部、211 データ取得部、212 パラメータ設定部、213 画像フィルタ処理部、214 画像2値化処理部215 画素値演算部、216 条件判定部、217 可視化処理部、218 検知結果提示部、800 情報処理装置、811 CPU、812 ROM、813 RAM、814 バス、815 入力部、816 出力部、817 記憶部、818 通信部、819 ドライブ、820 撮像部、831 リムーバブルメディア 1 information processing system, 10 user terminal, 20 server, 30 network, C imaging device, 111 UI control unit, 112 data management unit, 171, 271 video data storage unit, 172, 272 parameter storage unit, 173, 273 log data storage unit, 211 data acquisition unit, 212 parameter setting unit, 213 image filter processing unit, 214 image binarization processing unit 215 pixel value calculation unit, 216 condition determination unit, 217 visualization processing unit, 218 detection result presentation unit, 800 information processing Device, 811 CPU, 812 ROM, 813 RAM, 814 Bus, 815 Input section, 816 Output section, 817 Storage section, 818 Communication section, 819 Drive, 820 Imaging section, 831 Removable media

Claims (9)

ユーザによって使用される端末装置と、前記端末装置と通信可能に構成されたサーバとを含む情報処理システムであって、
前記端末装置は、
前記サーバに対し、検知対象となる映像において、設定された検知領域内で移動する物体を検知するための検知処理を要求する検知要求手段を備え、
前記サーバは、
前記端末装置の要求に応じて、前記検知対象となる映像のデータに含まれる2つのフレーム間の差分を表す差分画像において、1つの差分画像における前記検知領域内の着目画素のデータと、前記1つの差分画像とは異なる時間の他の差分画像における前記着目画素周辺の所定範囲に位置する画素のデータとの相関に基づいて、前記検知領域内で移動する物体を検知する前記検知処理を実行する物体検知手段と、
前記物体検知手段による物体の検知結果を前記端末装置に提示する検知結果提示手段と、
を備え
前記物体検知手段は、前記1つの差分画像における前記検知領域内の前記着目画素のデータと、前記他の差分画像における前記着目画素周辺の所定範囲に位置する画素のデータとの相関値を前記所定範囲の各画素について取得し、取得された前記相関値からなるデータに対し、特定方向への移動に対応する重み付けを行って取得される特徴量に基づいて、前記設定された検知領域内で前記特定方向へ移動する物体を検知することを特徴とする情報処理システム。
An information processing system including a terminal device used by a user and a server configured to be able to communicate with the terminal device,
The terminal device is
comprising a detection requesting means for requesting the server to perform detection processing for detecting an object moving within a set detection area in a video to be detected;
The server is
In response to a request from the terminal device, in a difference image representing a difference between two frames included in data of the video to be detected, data of a pixel of interest within the detection area in one difference image, and data of the pixel of interest within the detection area in one difference image; executing the detection process of detecting an object moving within the detection area based on correlation with data of pixels located in a predetermined range around the pixel of interest in another difference image at a different time from the two difference images; an object detection means;
Detection result presentation means for presenting a detection result of an object by the object detection means to the terminal device;
Equipped with
The object detection means calculates a correlation value between data of the pixel of interest in the detection area in the one difference image and data of pixels located in a predetermined range around the pixel of interest in the other difference image. Based on the feature amount obtained by weighting data consisting of the correlation values obtained for each pixel in the range and corresponding to movement in a specific direction, the An information processing system that detects objects moving in a specific direction .
前記物体検知手段は、前記特徴量の要素値に基づいて、映像内における任意の物体の移動方向及び移動速度を取得することを特徴とする請求項に記載の情報処理システム。 The information processing system according to claim 1 , wherein the object detection means acquires the moving direction and moving speed of an arbitrary object in the video based on the element value of the feature amount. 前記端末装置は、
前記物体検知手段によって検知する物体の移動方向を含む検知条件を設定するための条件設定画面を表示する条件設定画面表示手段を備え、
前記検知要求手段は、前記条件設定画面において設定された前記検知条件に従って、前記サーバに対して前記検知処理の要求を行うことを特徴とする請求項1または2に記載の情報処理システム。
The terminal device is
comprising a condition setting screen display means for displaying a condition setting screen for setting detection conditions including a moving direction of the object detected by the object detecting means;
3. The information processing system according to claim 1 , wherein the detection requesting means requests the server to perform the detection processing according to the detection conditions set on the condition setting screen.
前記端末装置は、
前記サーバから提示された前記検知結果に基づいて、前記映像及び前記検知領域を表示すると共に、前記検知された物体を識別して表示する検知結果表示手段を備えることを特徴とする請求項1からのいずれか1項に記載の情報処理システム。
The terminal device is
2. The apparatus according to claim 1, further comprising a detection result display means for displaying the image and the detection area, and identifying and displaying the detected object based on the detection result presented from the server. 3. The information processing system according to any one of 3 .
前記端末装置の前記検知要求手段は、前記検知対象となる映像内に、複数の前記検知領域を設定して前記サーバに前記検知処理を要求し、
前記サーバの前記物体検知手段は、複数の前記検知領域毎に、当該検知領域内で移動する物体を検知し、
前記検知結果提示手段は、前記端末装置に対し、複数の前記検知領域毎に前記物体検知手段による物体の前記検知結果を提示することを特徴とする請求項1からのいずれか1項に記載の情報処理システム。
The detection requesting means of the terminal device sets a plurality of detection areas in the video to be detected and requests the server to perform the detection processing;
The object detection means of the server detects an object moving within the detection area for each of the plurality of detection areas,
5. The detection result presentation means presents the detection results of the object by the object detection means for each of the plurality of detection areas to the terminal device, according to any one of claims 1 to 4 . information processing system.
請求項1に記載の情報処理システムを構成する端末装置であって、
前記物体検知手段によって検知する物体の検知条件を設定するための条件設定画面を表示する条件設定画面表示手段と、
前記サーバから提示された前記検知結果に基づいて、前記映像及び前記検知領域を表示すると共に、前記検知された物体を識別して表示する検知結果表示手段と、
を備え、
前記検知要求手段は、前記条件設定画面において設定された前記検知条件に従って、前記サーバに対して前記検知処理の要求を行うことを特徴とする端末装置。
A terminal device constituting the information processing system according to claim 1,
a condition setting screen display means for displaying a condition setting screen for setting detection conditions for an object to be detected by the object detection means;
a detection result display means for displaying the image and the detection area based on the detection result presented by the server, and for identifying and displaying the detected object;
Equipped with
The terminal device is characterized in that the detection request means makes a request for the detection process to the server in accordance with the detection conditions set on the condition setting screen.
検知対象となる映像のデータに含まれる2つのフレーム間の差分を表す差分画像において、1つの差分画像における設定された検知領域内の着目画素のデータと、前記1つの差分画像とは異なる時間の他の差分画像における前記着目画素周辺の所定範囲に位置する画素のデータとの相関に基づいて、前記検知領域内で移動する物体を検知するための検知処理を実行する物体検知手段と、
前記物体検知手段による物体の検知結果を提示する検知結果提示手段と、
を備え
前記物体検知手段は、前記1つの差分画像における前記検知領域内の前記着目画素のデータと、前記他の差分画像における前記着目画素周辺の所定範囲に位置する画素のデータとの相関値を前記所定範囲の各画素について取得し、取得された前記相関値からなるデータに対し、特定方向への移動に対応する重み付けを行って取得される特徴量に基づいて、前記設定された検知領域内で前記特定方向へ移動する物体を検知することを特徴とする情報処理装置。
In a difference image representing the difference between two frames included in data of a video to be detected, data of a pixel of interest within a set detection area in one difference image and data at a time different from that of the one difference image. Object detection means for performing detection processing for detecting an object moving within the detection area based on correlation with data of pixels located in a predetermined range around the pixel of interest in other difference images ;
Detection result presentation means for presenting a detection result of an object by the object detection means;
Equipped with
The object detection means calculates a correlation value between data of the pixel of interest in the detection area in the one difference image and data of pixels located in a predetermined range around the pixel of interest in the other difference image. Based on the feature amount obtained by weighting data consisting of the correlation values obtained for each pixel in the range and corresponding to movement in a specific direction, the An information processing device characterized by detecting an object moving in a specific direction .
情報処理システムが実行する情報処理方法であって、
検知対象となる映像のデータに含まれる2つのフレーム間の差分を表す差分画像において、1つの差分画像における設定された検知領域内の着目画素のデータと、前記1つの差分画像とは異なる時間の他の差分画像における前記着目画素周辺の所定範囲に位置する画素のデータとの相関に基づいて、前記検知領域内で移動する物体を検知するための検知処理を実行する物体検知ステップと、
前記物体検知ステップにおける物体の検知結果を提示する検知結果提示ステップと、
を含み、
前記物体検知ステップでは、前記1つの差分画像における前記検知領域内の前記着目画素のデータと、前記他の差分画像における前記着目画素周辺の所定範囲に位置する画素のデータとの相関値を前記所定範囲の各画素について取得し、取得された前記相関値からなるデータに対し、特定方向への移動に対応する重み付けを行って取得される特徴量に基づいて、前記設定された検知領域内で前記特定方向へ移動する物体を検知することを特徴とする情報処理方法。
An information processing method executed by an information processing system, the method comprising:
In a difference image representing the difference between two frames included in data of a video to be detected, data of a pixel of interest within a set detection area in one difference image and data at a time different from that of the one difference image. an object detection step of performing a detection process to detect an object moving within the detection area based on correlation with data of pixels located in a predetermined range around the pixel of interest in another difference image ;
a detection result presentation step of presenting the object detection result in the object detection step;
including;
In the object detection step, the correlation value between the data of the pixel of interest in the detection area in the one difference image and the data of pixels located in a predetermined range around the pixel of interest in the other difference image is determined by the predetermined value. Based on the feature amount obtained by weighting data consisting of the correlation values obtained for each pixel in the range and corresponding to movement in a specific direction, the An information processing method characterized by detecting an object moving in a specific direction .
コンピュータに、
検知対象となる映像のデータに含まれる2つのフレーム間の差分を表す差分画像において、1つの差分画像における設定された検知領域内の着目画素のデータと、前記1つの差分画像とは異なる時間の他の差分画像における前記着目画素周辺の所定範囲に位置する画素のデータとの相関に基づいて、前記検知領域内で特定方向へ移動する物体を検知するための検知処理を実行する物体検知機能と、
前記物体検知機能による物体の検知結果を提示する検知結果提示機能と、
を実現させ
前記物体検知機能は、前記1つの差分画像における前記検知領域内の前記着目画素のデータと、前記他の差分画像における前記着目画素周辺の所定範囲に位置する画素のデータとの相関値を前記所定範囲の各画素について取得し、取得された前記相関値からなるデータに対し、特定方向への移動に対応する重み付けを行って取得される特徴量に基づいて、前記設定された検知領域内で前記特定方向へ移動する物体を検知することを特徴とするプログラム。
to the computer,
In a difference image representing the difference between two frames included in data of a video to be detected, data of a pixel of interest within a set detection area in one difference image and data at a time different from that of the one difference image an object detection function that executes a detection process to detect an object moving in a specific direction within the detection area based on correlation with data of pixels located in a predetermined range around the pixel of interest in other difference images; ,
a detection result presentation function that presents a detection result of an object by the object detection function;
Realize ,
The object detection function calculates a correlation value between data of the pixel of interest in the detection area in the one difference image and data of pixels located in a predetermined range around the pixel of interest in the other difference image. Based on the feature amount obtained by weighting data consisting of the correlation values obtained for each pixel in the range and corresponding to movement in a specific direction, the A program that detects objects moving in a specific direction .
JP2019239772A 2019-12-27 2019-12-27 Information processing system, information processing device, terminal device, information processing method, and program Active JP7458138B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019239772A JP7458138B2 (en) 2019-12-27 2019-12-27 Information processing system, information processing device, terminal device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019239772A JP7458138B2 (en) 2019-12-27 2019-12-27 Information processing system, information processing device, terminal device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2021108434A JP2021108434A (en) 2021-07-29
JP7458138B2 true JP7458138B2 (en) 2024-03-29

Family

ID=76968294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239772A Active JP7458138B2 (en) 2019-12-27 2019-12-27 Information processing system, information processing device, terminal device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7458138B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005312018A (en) 2004-03-23 2005-11-04 Canon Inc Monitoring system, imaging control apparatus, imaging setting apparatus, control method, and program
JP2006260049A (en) 2005-03-16 2006-09-28 Sony Corp Moving object detection device, method, and program
JP2006285312A (en) 2005-03-31 2006-10-19 Hitachi Ltd Image processing method and device
JP2006318272A (en) 2005-05-13 2006-11-24 Nissan Motor Co Ltd Vehicular object detection device and method
WO2016125366A1 (en) 2015-02-05 2016-08-11 株式会社リコー Image processing device, image processing system, and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005312018A (en) 2004-03-23 2005-11-04 Canon Inc Monitoring system, imaging control apparatus, imaging setting apparatus, control method, and program
JP2006260049A (en) 2005-03-16 2006-09-28 Sony Corp Moving object detection device, method, and program
JP2006285312A (en) 2005-03-31 2006-10-19 Hitachi Ltd Image processing method and device
JP2006318272A (en) 2005-05-13 2006-11-24 Nissan Motor Co Ltd Vehicular object detection device and method
WO2016125366A1 (en) 2015-02-05 2016-08-11 株式会社リコー Image processing device, image processing system, and image processing method

Also Published As

Publication number Publication date
JP2021108434A (en) 2021-07-29

Similar Documents

Publication Publication Date Title
JP4730431B2 (en) Target tracking device
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
CN107273849B (en) Display control device and display control method
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
AU2006201210A1 (en) Motion characterisation
JP7118934B2 (en) Object number estimation device, object number estimation method, and object number estimation program
JP7085812B2 (en) Image processing device and its control method
CN110199316A (en) The image processing method of camera and camera
CN104969240A (en) Method and system for image processing
US10455144B2 (en) Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium
US11297244B2 (en) Click-and-lock zoom camera user interface
JP6602067B2 (en) Display control apparatus, display control method, and program
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
KR20210067864A (en) Generation of bokeh images using adaptive focus range and layered scattering
CN112492261A (en) Tracking shooting method and device and monitoring system
JP2018084861A (en) Information processing apparatus, information processing method and information processing program
JP7458138B2 (en) Information processing system, information processing device, terminal device, information processing method, and program
CN109740409A (en) Information processing unit and method, photographic device, camera arrangement and storage medium
WO2019047664A1 (en) Code rate control method and apparatus, image acquisition device, and readable storage medium
JP7337557B2 (en) Information processing device, system, information processing method and program
KR20220012785A (en) Apparatus and method for developing object analysis model based on data augmentation
WO2019215797A1 (en) Composition advice system, composition advice method, camera and program
JP6452738B2 (en) Image processing apparatus, image processing method, and program
US11700446B2 (en) Information processing apparatus, system, control method of information processing apparatus, and non-transitory computer-readable storage medium
CN112866631B (en) Region determination method, system and device and electronic equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200229

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240317

R150 Certificate of patent or registration of utility model

Ref document number: 7458138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150