JP6423023B2 - Video stream processing apparatus, video stream processing program, and video monitoring system - Google Patents
Video stream processing apparatus, video stream processing program, and video monitoring system Download PDFInfo
- Publication number
- JP6423023B2 JP6423023B2 JP2017003492A JP2017003492A JP6423023B2 JP 6423023 B2 JP6423023 B2 JP 6423023B2 JP 2017003492 A JP2017003492 A JP 2017003492A JP 2017003492 A JP2017003492 A JP 2017003492A JP 6423023 B2 JP6423023 B2 JP 6423023B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- video stream
- stream processing
- function
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、映像ストリーム処理装置、映像ストリーム処理プログラムおよび映像監視システムに関する。 The present invention relates to a video stream processing device, a video stream processing program, and a video monitoring system.
複数枚の画像が連続する映像ストリームに基づいて監視を行う装置が公知である。たとえば特許文献1には、TVカメラからの映像に基づいて侵入者を監視する技術が記載されている。また、特許文献2には、映像から顔やナンバープレート等を検出する技術が記載されている。
Devices that perform monitoring based on a video stream in which a plurality of images are continuous are known. For example,
しかしながら、従来の技術では、複数のアプリケーションを用いてそれぞれ異なる監視処理を行う場合に、判定結果を時間的に適切に融合することが困難であるという問題があった。 However, the conventional technique has a problem that it is difficult to appropriately combine the determination results in time when different monitoring processes are performed using a plurality of applications.
たとえば、それまで認識されていなかった侵入者が、あるフレームにおいて初めて認識された場合には、侵入者が認識されたことを表す判定結果と、そのフレームに対応する時間情報とが出力される。この時間情報は、映像ストリームの送受信処理や、アプリケーション等における処理遅延等に応じて、相対的に変動する可能性がある。これに起因して、複数のアプリケーションからの判定結果を融合する際に、あるアプリケーションがあるフレームを参照する時刻と、別のアプリケーションが同じフレームを参照する時刻とにずれが発生する場合がある。このような場合には、それぞれの判定結果を1つの映像ストリーム内に適切に融合させて表示するのは困難である。 For example, when an intruder that has not been recognized before is recognized for the first time in a certain frame, a determination result indicating that the intruder has been recognized and time information corresponding to the frame are output. This time information may be relatively changed depending on transmission / reception processing of a video stream, processing delay in an application, and the like. Due to this, when merging determination results from a plurality of applications, there may be a difference between the time at which one application refers to a frame and the time at which another application refers to the same frame. In such a case, it is difficult to display the respective determination results by appropriately fusing them in one video stream.
この発明は、このような問題点を解決するためになされたものであり、複数のアプリケーションを用いてそれぞれ異なる監視処理を行う場合に、判定結果を時間的に適切に融合できるようにする、映像ストリーム処理装置、映像ストリーム処理プログラムおよび映像監視システムを提供することを目的とする。 The present invention has been made in order to solve such problems, and in the case where different monitoring processes are performed using a plurality of applications, a video that enables the determination results to be appropriately fused in time. It is an object to provide a stream processing device, a video stream processing program, and a video monitoring system.
上述の問題点を解決するため、この発明に係る映像ストリーム処理装置は、
映像ストリームを構成する複数枚の画像を取得する機能と、
画像のそれぞれに、前記映像ストリーム内において一意の識別子を関連付ける機能と、
関連付けられた画像および識別子の組を、通信ネットワークを介して画像分析装置に送信する機能と、
前記画像のうち一部のみからなる、低レート映像ストリームを生成する機能と、
前記低レート映像ストリームについて、関連付けられた画像および識別子の組を、通信ネットワークを介して画像分析装置に送信する機能と、
を備える。
特定の態様によれば、
各画像に対応する背景差分画像およびフレーム間差分画像を生成する機能と、
各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられた識別子との組を、通信ネットワークを介して画像分析装置に送信する機能と、
をさらに備える。
特定の態様によれば、
前記識別子は、各画像について、その画像を取得した後、背景差分画像およびフレーム間差分画像を生成する前に取得される。
特定の態様によれば、前記識別子はタイムスタンプである。
In order to solve the above-described problems, a video stream processing apparatus according to the present invention provides:
A function for acquiring a plurality of images constituting a video stream;
A function of associating each image with a unique identifier in the video stream;
A function of transmitting an associated image and identifier pair to an image analysis device via a communication network;
A function of generating a low-rate video stream consisting of only a part of the image;
A function of transmitting, for the low-rate video stream, an associated image and identifier pair to an image analysis device via a communication network;
Is provided.
According to a particular aspect,
A function of generating a background difference image and an inter-frame difference image corresponding to each image;
For each image, a function of transmitting a set of a corresponding background difference image or a corresponding inter-frame difference image and an identifier associated with the image to the image analysis apparatus via a communication network;
Is further provided.
According to a particular aspect,
The identifier is acquired for each image after acquiring the image and before generating the background difference image and the inter-frame difference image.
According to a particular aspect, the identifier is a time stamp .
また、この発明に係る映像ストリーム処理プログラムは、コンピュータを、上述の映像ストリーム処理装置として機能させる。 The video stream processing program according to the present invention causes a computer to function as the above-described video stream processing apparatus.
また、この発明に係る映像監視システムは、
上述の映像ストリーム処理装置と、
前記複数の画像分析装置と、
画像加工装置と
を備える、映像監視システムであって、
前記映像ストリーム処理装置は、さらに、前記映像ストリームを前記画像加工装置に送信する機能を備え、
各画像分析装置は、画像のうち、所定の判定基準を満たすものについて、その画像に関連付けられた識別子および判定結果を出力する機能を備え、
前記画像加工装置は、前記画像分析装置からの出力に応じて、各画像に加工を行う機能を備える。
The video surveillance system according to the present invention is
The video stream processing device described above;
The plurality of image analyzers;
An image monitoring system comprising an image processing device,
The video stream processing device further includes a function of transmitting the video stream to the image processing device,
Each image analysis apparatus has a function of outputting an identifier and a determination result associated with an image that satisfies a predetermined determination criterion among images,
The image processing device has a function of processing each image in accordance with an output from the image analysis device.
この発明に係る映像ストリーム処理装置、映像ストリーム処理プログラムおよび映像監視システムによれば、各画像に一意の識別子が関連付けられるので、識別子に基づいて判定結果を同期させることができ、判定結果を時間的に適切に融合することができる。 According to the video stream processing device, the video stream processing program, and the video monitoring system according to the present invention, since a unique identifier is associated with each image, the determination result can be synchronized based on the identifier, and the determination result is temporally Can be fused appropriately.
以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1.
図1に、本発明の実施の形態1に係る映像監視システム100の構成の例を示す。映像監視システム100は、映像ストリーム処理装置10と、人検知装置31および置き去り検知装置32と、画像加工装置50とを備える。また、映像監視システム100は、図示のように、カメラ20、処理結果格納DB40、等を備えてもよい。人検知装置31および置き去り検知装置32は、画像分析装置の例であり、これら複数の画像分析装置が画像分析装置群30を構成する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
FIG. 1 shows an example of the configuration of a
本明細書において、「画像」とはたとえば静止画を表す画像またはデータを意味し、「映像ストリーム」とはたとえば動画またはビデオを表す画像の組またはデータを意味する。すなわち、複数枚の画像が映像ストリームを構成するということができる。 In this specification, “image” means, for example, an image or data representing a still image, and “video stream” means a set or data of an image representing, for example, a moving image or video. That is, it can be said that a plurality of images constitute a video stream.
映像ストリーム処理装置10は公知のコンピュータとしての構成を備え、演算を行う演算手段11と、情報を格納する記憶手段12とを備える。また、とくに図示しないが、映像ストリーム処理装置10は、使用者の操作を受け付ける入力手段と、情報を出力する出力手段と、外部の通信ネットワークに対し情報の入出力を行う通信手段とを備える。
The video
記憶手段12は、本明細書に記載される映像ストリーム処理装置10の動作に必要な情報に加え、映像ストリーム処理プログラムを格納する。演算手段11がこの映像ストリーム処理プログラムを実行することにより、映像ストリーム処理装置10は本明細書に記載される機能を実現する。すなわち、この映像ストリーム処理プログラムは、コンピュータを、本明細書に記載される映像ストリーム処理装置10として機能させる。
The
人検知装置31、置き去り検知装置32および画像加工装置50もまた公知のコンピュータとしての構成を備える。なお、画像分析装置群30に含まれる各画像分析装置(たとえば人検知装置31および置き去り検知装置32)はそれぞれ異なるコンピュータであってもよいし、同一のコンピュータがそれぞれ異なるアプリケーションプログラムを実行することにより構成される装置であってもよい。
The
映像ストリーム処理装置10、カメラ20、人検知装置31、置き去り検知装置32、処理結果格納DB40、および画像加工装置50は、それぞれ、本明細書に記載されるように、情報を送信、受信、書き込みまたは読み出しすることができる。とくに、映像ストリーム処理装置10は、通信ネットワークを介して、人検知装置31、置き去り検知装置32および画像加工装置50との間で情報を送受信することができる。
The video
処理結果格納DB40は、人検知装置31または置き去り検知装置32等とともにコンピュータとして構成される記憶装置であってもよいし、独立した記憶装置として動作可能なコンピュータによって構成されてもよい。
The processing
図2に、映像ストリーム処理装置10が扱うデータの例を示す。この例では、カメラ20から7枚の画像が取得され、それぞれにタイムスタンプが関連付けられている。この例は30フレーム毎秒(30fps)程度の映像ストリームに対応し、たとえば各画像は30ミリ秒置きに受信されるものとする。ここで、各画像はそれぞれ異なるタイミングで受信される(すなわち、定期的に受信されるものであっても、異なる時刻に受信される)ので、タイムスタンプは各画像を一意に特定する識別子として用いることができる。
FIG. 2 shows an example of data handled by the video
なお、「画像#1」等の数字によって表す画像の番号は、本明細書および図面において説明の便宜上付したものであって、実際の画像データに付されている必要はない。
Note that the number of an image represented by a number such as “
図2に示すように、実施の形態1では、映像ストリーム処理装置10は、取得した映像ストリームと同一のフレームレートの映像ストリーム(「通常レート映像ストリーム」)と、取得した映像ストリームよりも低いフレームレートの映像ストリーム(「低レート映像ストリーム」)とを生成する機能を備える。ここで、低レート映像ストリームとは、取得した映像ストリームを構成する画像のうち一部のみからなる映像ストリームであり、すなわち一部の画像を間引いた映像ストリームであるということができる。
As shown in FIG. 2, in the first embodiment, the video
以下、映像ストリーム処理装置10の動作の例を説明する。映像ストリーム処理装置10は、たとえば図3および図4に示す処理を実行することにより、図2に示すような通常レート映像ストリームおよび低レート映像ストリームを生成する。
Hereinafter, an example of the operation of the video
図3は、映像ストリーム処理装置10が画像を取得する際の処理の流れの例を示すフローチャートである。この処理は、たとえば映像ストリーム処理装置10がカメラ20等から映像ストリームを受信する際に実行される。
FIG. 3 is a flowchart illustrating an example of a processing flow when the video
また、図3の処理は、たとえば画像ごとに独立して実行される。映像ストリーム処理装置10の処理速度が十分に高い場合には、カメラ20から画像を連続的に受信する際に、次の画像を受信するまでにその直前の画像について図3の処理を完了することができるが、実施形態はこれに限らない。
Further, the processing of FIG. 3 is executed independently for each image, for example. When the processing speed of the video
まず映像ストリーム処理装置10は、画像を取得する(ステップS1)。次に、映像ストリーム処理装置10は、タイムスタンプを取得し、画像にタイムスタンプを関連付ける(ステップS2)。このタイムスタンプは、たとえばステップS1またはステップS2が実行される時刻を表すものとして取得される。映像ストリーム処理装置10は、時刻を決定または算出する基準となるクロック信号を生成するクロック装置を備えてもよく、そのようなクロック信号に基づいてタイムスタンプを生成することにより、タイムスタンプを取得してもよい。また、映像ストリーム処理装置10は、画像およびタイムスタンプを関連付けて記憶手段12に記憶してもよい。
First, the video
次に、映像ストリーム処理装置10は、画像に対応する背景差分画像を生成する(ステップS3)。背景差分画像の生成方法は任意であるが、たとえば、事前に所定の背景画像を記憶手段12に記憶しておき、この背景画像との差分を算出することにより生成してもよい。「差分」とは、たとえば各画素を表す数値(RGB値等)についての、各画像において対応する画素間の差分をいう。または、背景差分画像の生成方法として、特許文献1に記載される方法を用いてもよい。図2ではこの差分をマイナス記号を用いて表しており、たとえば「画像#1−背景」とは、1枚目の画像と、背景画像との差分を表す。映像ストリーム処理装置10は、生成した背景差分画像およびタイムスタンプを関連付けて記憶手段12に記憶してもよい。
Next, the video
次に、映像ストリーム処理装置10は、画像に対応するフレーム間差分画像を生成する(ステップS4)。フレーム間差分画像とは、映像ストリーム内の2枚の画像の差分を表す画像であり、たとえば、処理中の画像と、以前の画像(たとえば直前に受信した画像)との間の差分を表す画像を意味する。図2では、背景差分画像と同様に、フレーム間差分画像についてもマイナス記号を用いて表す。映像ストリーム処理装置10は、生成したフレーム間差分画像およびタイムスタンプを関連付けて記憶手段12に記憶してもよい。
Next, the video
次に、映像ストリーム処理装置10は、低レートフレーム間差分画像を生成する(ステップS5)。低レートフレーム間差分画像とは、低レート映像ストリームにおけるフレーム間差分画像である。なお、ステップS1において取得した画像が、低レート映像ストリームに含まれない画像である場合には、ステップS5の処理は省略してもよい。図2の例では、偶数番目の画像についてはこの処理が省略されている。映像ストリーム処理装置10は、生成した低レートフレーム間差分画像およびタイムスタンプを関連付けて記憶手段12に記憶してもよい。
Next, the video
このようにして、映像ストリーム処理装置10は、タイムスタンプを付与した通常レート映像ストリームおよび低レート映像ストリームを生成する。
In this way, the video
図4は、映像ストリーム処理装置10が画像を送信する際の処理の流れの例を示すフローチャートである。この処理は、たとえば映像ストリーム処理装置10が人検知装置31または置き去り検知装置32に映像ストリームを送信する際に実行される。図4の処理は、図3の処理と一部または全部が並列的に実行されてもよい。
FIG. 4 is a flowchart illustrating an example of a processing flow when the video
まず映像ストリーム処理装置10は、画像送信要求を受信する(ステップS11)。画像送信要求は、他のコンピュータ(たとえば人検知装置31、置き去り検知装置32または画像加工装置50等)から送信される要求であり、送信すべき画像の種類を特定する情報を含む。
First, the video
送信すべき画像の種類は、たとえば以下のパターンのいずれかとして特定される。
‐パターン1:通常レート映像ストリームの、画像、背景差分画像およびフレーム間差分画像
‐パターン2:低レート映像ストリームの、画像、背景差分画像およびフレーム間差分画像
‐パターン3:通常レート映像ストリームの画像のみ
‐パターン4:通常レート映像ストリームの背景差分画像のみ
‐パターン5:通常レート映像ストリームのフレーム間差分画像のみ
‐パターン6:低レート映像ストリームの画像のみ
‐パターン7:低レート映像ストリームの背景差分画像のみ
‐パターン8:低レート映像ストリームのフレーム間差分画像のみ
‐その他、上記の任意の組み合わせ
The type of image to be transmitted is specified as one of the following patterns, for example.
-Pattern 1: Normal rate video stream image, background difference image and inter-frame difference image-Pattern 2: Low rate video stream image, background difference image and inter-frame difference image-Pattern 3: Normal rate video stream image Only-Pattern 4: Only the background difference image of the normal rate video stream-Pattern 5: Only the difference image between frames of the normal rate video stream-Pattern 6: Only the image of the low rate video stream-Pattern 7: Background difference of the low rate video stream Image only-Pattern 8: Inter-frame difference image of low-rate video stream only-Other combinations of the above
次に、映像ストリーム処理装置10は、要求された種類の画像について、関連付けられた画像およびタイムスタンプの組を、通信ネットワークを介して、要求元(すなわち画像送信要求を送信してきた人検知装置31、置き去り検知装置32または画像加工装置50)に送信する(ステップS12)。
Next, for the requested type of image, the video
ここで、図4の処理は、画像送信要求ごとに独立して実行される。すなわち、たとえば人検知装置31および置き去り検知装置32が相次いで画像送信要求を送信してきた場合には、映像ストリーム処理装置10は、これら複数の画像分析装置に対して、それぞれ要求された種類の画像およびタイムスタンプの組を送信することができる。
Here, the processing of FIG. 4 is executed independently for each image transmission request. That is, for example, when the
送信される画像は、画像送信要求の内容に応じて異なる。たとえば、映像ストリーム処理装置10は、以下の処理のうち1つ以上を、画像送信要求の内容に応じて選択的に実行する。
‐通常レート映像ストリームの各画像について、その画像と、その画像に関連付けられたタイムスタンプとの組を、少なくとも1つの画像分析装置に送信する
‐通常レート映像ストリームの各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられた識別子との組を、少なくとも1つの画像分析装置に送信する
‐低レート映像ストリームの各画像について、その画像と、その画像に関連付けられたタイムスタンプとの組を、少なくとも1つの画像分析装置に送信する
‐低レート映像ストリームの各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられた識別子との組を、少なくとも1つの画像分析装置に送信する
The image to be transmitted differs depending on the content of the image transmission request. For example, the video
-For each image in the normal rate video stream, send the image and the time stamp associated with that image to at least one image analyzer-For each image in the normal rate video stream, the corresponding background difference Send a set of images or corresponding inter-frame difference images and identifiers associated with the images to at least one image analyzer-for each image in the low-rate video stream, the image and associated with the image A set of time stamps to at least one image analysis device-for each image in the low-rate video stream, a corresponding background difference image or a corresponding inter-frame difference image and an identifier associated with the image Send the set to at least one image analyzer
このようにして、たとえば人検知装置31にはパターン1の画像(通常レート映像ストリームの、画像、背景差分画像およびフレーム間差分画像)を送信し、置き去り検知装置32にはパターン2の画像(低レート映像ストリームの、画像、背景差分画像およびフレーム間差分画像)を送信し、画像加工装置50にはパターン3の画像(通常レート映像ストリームの画像のみ)を送信することができる。
In this way, for example, the image of pattern 1 (the image of the normal rate video stream, the background difference image and the inter-frame difference image) is transmitted to the
具体的な送受信方法は任意に設計可能である。たとえば、人検知装置31および置き去り検知装置32が通信ネットワーク上で独立したコンピュータである場合には、それぞれ異なるIPアドレスを割り当てておき、映像ストリーム処理装置10は異なるIPアドレスに対して送信処理を行ってもよい。または、人検知装置31および置き去り検知装置32が通信ネットワーク上で独立したコンピュータであるか否かに関わらず、それぞれ異なる通信ポートを割り当てておき、映像ストリーム処理装置10は異なる通信ポート(またはソケット)に対して送信処理を行ってもよい。
A specific transmission / reception method can be arbitrarily designed. For example, when the
映像ストリーム処理装置10は、ステップS12の処理を、通信中の画像分析装置から所定の画像停止要求を受信するまで継続する。画像停止要求を受信すると(ステップS13)、映像ストリーム処理装置10は、図4の処理を終了する。なお、画像停止要求は、明示的に送信されるパケット等の形式を取る必要はなく、たとえば通信途絶を暗黙に示すなんらかの情報であってもよい。
The video
人検知装置31および置き去り検知装置32の動作については、とくにフローチャートには示さないが、図4に示す映像ストリーム処理装置10の処理に対応して動作する。たとえば、人検知装置31および置き去り検知装置32は起動すると映像ストリーム処理装置10に画像送信要求を送信し、これに応じて映像ストリーム処理装置10が画像の送信を開始すると、その画像を受信する。要求する画像の種類は、人検知装置31および置き去り検知装置32がそれぞれ実行する分析処理の内容に応じ、事前に定義しておいてもよい。
The operations of the
人検知装置31および置き去り検知装置32は、画像のうち、所定の判定基準を満たすものについて、その画像に関連付けられたタイムスタンプおよび判定結果を出力する。
The
たとえば、人検知装置31は、画像を分析し、人間が映っているか否かを判定する。また、人間が映っている場合には、その位置または領域を決定する。位置は2次元座標値(たとえばX座標およびY座標)として決定される。領域は、たとえば矩形の領域として決定され、2組の2次元座標値(たとえば、矩形の左上頂点のX座標およびY座標と、矩形のX方向サイズおよびY方向サイズ)によって表すことができる。
For example, the
同様に、たとえば置き去り検知装置32は、画像を分析し、置き去られた物が映っているか否かを判定する。また、置き去られた物が映っている場合には、その位置または領域を決定する。位置は2次元座標値(たとえばX座標およびY座標)として決定される。領域は、たとえば矩形の領域として決定され、2組の2次元座標値(たとえば、矩形の左上頂点のX座標およびY座標と、矩形のX方向サイズおよびY方向サイズ)によって表すことができる。
Similarly, for example, the
人検知装置31および置き去り検知装置32の分析処理の具体的内容(判定基準等)は、たとえば公知技術に基づいて設計可能である。たとえば特許文献1または特許文献2に記載される技術を用いてもよい。
Specific contents (determination criteria and the like) of the analysis processing of the
人検知装置31および置き去り検知装置32は、判定結果を処理結果格納DB40に記憶する。判定結果の形式は任意に設計可能であるが、たとえば人検知装置31による判定結果は、各画像のタイムスタンプに、人間が映っているか否かを表すフラグと、映っている場合にはその位置または領域を表す情報とが関連付けられた組として表現することができる。判定結果に画像を含める必要はないが、含めてもよい。
The
ここで、各画像のタイムスタンプは映像ストリーム処理装置10によって付与されており、画像分析装置群30について共通なので、人検知装置31と置き去り検知装置32との間で直接の画像同期処理等を行わなくても、判定結果は同期される。たとえば、人検知装置31と置き去り検知装置32とで処理速度に差がある場合であっても、ある人が検知された時刻と、ある置き去り物が検知された時刻とは、それぞれ検知された画像のタイムスタンプに基づいて正確に比較可能である。
Here, since the time stamp of each image is given by the video
また、画像分析装置群30は、人検知装置31および置き去り検知装置32に代えて、またはこれらに加えて、他の画像分析装置(人同定装置、シャッター開閉判定装置、滞留検知装置、等)を含んでもよい。
The image
画像加工装置50は、起動すると映像ストリーム処理装置10に画像送信要求を送信し、これに応じて映像ストリーム処理装置10が画像の送信を開始すると、その画像を受信する。要求する画像の種類は、たとえば通常レート映像ストリームの画像のみである。
When activated, the
また、画像加工装置50は、処理結果格納DB40に記憶された画像単位の判定結果に基づき、映像ストリーム処理装置10から受信する画像に加工を行う。
Further, the
加工の内容は任意に設計可能であるが、たとえば判定結果に応じて画像に所定のマーク、記号または図形等を重ね合わせる処理としてもよい。具体的には、人間が映っていると判定された画像については、該当する領域に特定の色(たとえば黄色)の矩形の枠を重ね合わせ、置き去り物が映っていると判定された画像については、該当する領域に別の特定の色(たとえば赤色)の矩形の枠を重ね合わせてもよい。 The content of the processing can be arbitrarily designed, but for example, a predetermined mark, symbol, figure or the like may be superimposed on the image according to the determination result. Specifically, for an image that is determined to show a human being, an image that is determined to have left behind by overlaying a rectangular frame of a specific color (for example, yellow) on the corresponding area. A rectangular frame of another specific color (for example, red) may be superimposed on the corresponding area.
画像加工装置50は、加工した画像を記憶する。また、画像加工装置50は、加工した画像を、使用者の操作に応じて表示する。表示される画像には人や物の位置を示す枠が描かれているので、画像加工装置50の使用者(たとえば施設の監視者等)は、カメラ20の映像に映っている人や物を容易に認識することができる。
The
ここでも、各画像のタイムスタンプは映像ストリーム処理装置10によって付与されており、画像分析装置群30と画像加工装置50とで共通なので、画像分析装置群30と画像加工装置50との間で直接の画像同期処理等を行わなくても、判定結果と加工処理とは同期される。たとえば、映像ストリーム処理装置10から画像加工装置50への画像の送信処理と、人検知装置31による処理結果格納DB40への判定結果の書き込み処理とで処理速度に差がある場合であっても、ある画像において人が検知された場合に、正確なタイミングでその人を示す枠を表示することが可能である。
Also here, the time stamp of each image is given by the video
以上説明するように、実施の形態1に係る映像ストリーム処理装置10、映像ストリーム処理プログラムおよび映像監視システム100によれば、各画像に一意の識別子としてタイムスタンプが関連付けられるので、タイムスタンプに基づいて判定結果を同期させることができ、判定結果を時間的に適切に融合することができる。
As described above, according to the video
また、図3の例では、タイムスタンプは、各画像について、その画像を取得した後、かつ、背景差分画像、フレーム間差分画像および低レートフレーム間差分画像を生成する前に取得される。このため、画像ごとにステップS3〜S5の処理時間が変動する場合であっても、画像が発生した時刻を比較的正確に表すタイムスタンプとなる。 In the example of FIG. 3, the time stamp is acquired for each image after the image is acquired and before the background difference image, the inter-frame difference image, and the low-rate inter-frame difference image are generated. For this reason, even if the processing time of steps S3 to S5 varies from image to image, the time stamp represents the time when the image occurred relatively accurately.
実施の形態1において、以下のような変形を施すことができる。
画像分析装置群30に含まれる画像分析装置の数は、少なくとも1つあればよい。画像分析装置が1つの場合には、映像ストリーム処理装置10は、関連付けられた画像およびタイムスタンプの組を、通信ネットワークを介して画像分析装置に送信する。また、映像ストリーム処理装置10は、各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられたタイムスタンプとの組を、通信ネットワークを介して画像分析装置に送信する。
In the first embodiment, the following modifications can be made.
The number of image analysis devices included in the image
実施の形態1のように画像分析装置が複数の場合には、映像ストリーム処理装置10は、関連付けられた画像およびタイムスタンプの組を、通信ネットワークを介して複数の画像分析装置にそれぞれ送信する。また、映像ストリーム処理装置10は、各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられたタイムスタンプとの組を、通信ネットワークを介して少なくとも1つの画像分析装置に送信する。
When there are a plurality of image analysis apparatuses as in the first embodiment, the video
画像加工装置50は、加工した画像を表示するのではなく、他の方法で出力してもよい。たとえば記憶手段に記憶してもよいし、通信ネットワークを介して他のコンピュータに送信してもよい。
The
画像加工装置50は省略してもよい。処理結果格納DB40に記憶された判定結果は、他の用途で利用することも可能である。
The
画像分析装置群30の処理結果に基づいて、より複雑な判定処理を行う装置を追加してもよい。たとえば、各画像において検知された人間の座標等に基づき、「ふらふら歩く人」が映っているか否かの判定を行う装置を追加してもよい。このような装置の判定結果もまた、人検知装置31等の出力と同様の形式で、処理結果格納DB40に記憶されてもよい。
A device that performs more complicated determination processing based on the processing result of the image
図3に示す各ステップの順序はこれに限らない。ステップS3〜S5の順序は任意に入れ替え可能である。また、ステップS2の処理を、ステップS3〜S5の途中または後としてもよい。 The order of the steps shown in FIG. 3 is not limited to this. The order of steps S3 to S5 can be arbitrarily changed. Further, the process of step S2 may be performed during or after steps S3 to S5.
図3のステップS3〜S5のいずれかまたはすべてを省略してもよい。たとえば、実施の形態1では、映像ストリーム処理装置10は低レート映像ストリームを生成する機能を備えるが、この機能は省略してもよい。たとえば、画像分析装置がいずれも比較的高いレートの映像ストリームに対応している場合には、低レートの映像ストリームは不要である。また、実施の形態1では、映像ストリーム処理装置10は背景差分画像およびフレーム間差分画像を生成する機能を備えるが、いずれか一方を生成する機能のみを備えるものであってもよい。または、いずれの機能も備えず、ステップS1で取得した画像についてのみステップS12を実行してもよい。その場合には、送信すべき画像の種類を特定する情報を画像送信要求に含める必要はない。
Any or all of steps S3 to S5 in FIG. 3 may be omitted. For example, in
実施の形態1では、画像の識別子としてタイムスタンプを用いたが、映像ストリーム内において一意となる識別子であれば任意のものを用いることができる。タイムスタンプのように、映像ストリーム処理装置10が扱うすべての映像ストリームに共通して一意の識別子であってもよいし、映像ストリーム内における順序等のように、特定の映像ストリーム内でのみ一意の識別子であってもよい。
In the first embodiment, a time stamp is used as an image identifier. However, any identifier can be used as long as it is a unique identifier in the video stream. It may be a unique identifier common to all video streams handled by the video
実施の形態1では、映像ストリーム処理装置10はカメラ20から画像を取得するが、カメラ20に代えて、任意の映像ストリーム出力装置または映像ストリーム記憶装置を用いてもよい。
In the first embodiment, the video
全体構成は図5のようにしてもよい。図5に示す通り、カメラ映像を入力とし、分析結果を描画した映像を出力としている。映像GW機能(実施の形態1の映像ストリーム処理装置10に対応する)は、カメラ映像を構成する各画像を取得し各分析機能(実施の形態1の画像分析装置群30に含まれる各装置に対応する)にフレーム画像を配布する機能を持つ。分析機能は置去・座込・滞留検知、領域内状態判定、領域内進入検知、異常行動判定、所有物判定の5種があり、必要なものだけ実行することが可能となっている。処理結果統合機能(実施の形態1の処理結果格納DB40および画像加工装置50に対応する)では、それぞれの分析結果、およびそれらを組み合わせた結果を元の画像上に対象を矩形で囲みラベルをつけてマージする。マージされた画像は、映像配信機能を用いて配信され、システムの利用者が分析結果を確認できる。
The overall configuration may be as shown in FIG. As shown in FIG. 5, a camera image is input and an image in which an analysis result is drawn is output. The video GW function (corresponding to the video
5つの分析機能は、処理速度がまちまちであり、それぞれ非同期で動作する。非同期で処理された結果を統合するため、映像GWで画像だけではなくID(実施の形態1のタイムスタンプに対応する)を付与し、各機能に画像を配布する。IDを付与することにより、各機能での処理結果の同期をとることが可能となる。 The five analysis functions have various processing speeds and operate asynchronously. In order to integrate the results processed asynchronously, not only an image but also an ID (corresponding to the time stamp of the first embodiment) is assigned to the video GW, and the image is distributed to each function. By assigning an ID, it is possible to synchronize the processing results of each function.
実施の形態1またはこの変形例の方式を用いることで、処理結果統合機能において映像GWからの配布画像と各分析結果を結びつけることが可能となり、配布画像に対し複数の分析結果をまとめて描画した出力が可能となる。 By using the method of the first embodiment or this modified example, it becomes possible to link the distribution image from the video GW and each analysis result in the processing result integration function, and a plurality of analysis results are drawn together on the distribution image. Output is possible.
また、複数の分析結果を組み合わせた検知条件を作成することも可能である。例えば、所有物判定で大きな荷物や杖の判定を行い、置去・座込・滞留検知で座り込んでいる人の検知を行った上で、これらの判定結果を組み合わせる。これにより、大きな荷物を持って困っていそうな人、高齢者で疲れていそうな人を検知し、援助することが可能になる。例えば、所持物判定でベビーカーの判定、置去・座込・滞留検知で置去り物の検知を行い、組み合わせることで、置き去りまたは人が押していないベビーカーの検知結果を示すことができる。 It is also possible to create a detection condition that combines a plurality of analysis results. For example, a large load or a cane is determined in the possession determination, and a sitting person is detected in the leaving / sitting / staying detection, and then these determination results are combined. As a result, it becomes possible to detect and assist a person who seems to be in trouble with a large baggage or an elderly person who seems tired. For example, the stroller determination can be performed by detecting the stroller that has not been left or pushed by a person by detecting the stroller by carrying out possession determination, by detecting a left-behind object by detecting leaving, sitting, or staying.
様々な検知ニーズに統一的に対応するために、本システムでは処理結果統合機能部に検知条件を集中させるとともに、個別の条件を組み込むことができるよう設計されている。 In order to respond to various detection needs in a unified manner, this system is designed so that detection conditions can be concentrated in the processing result integration function unit and individual conditions can be incorporated.
10 映像ストリーム処理装置、31 人検知装置(画像分析装置)、32 検知装置(画像分析装置)、50 画像加工装置、100 映像監視システム。 10 video stream processing device, 31 human detection device (image analysis device), 32 detection device (image analysis device), 50 image processing device, 100 video monitoring system.
Claims (6)
画像のそれぞれに、前記映像ストリーム内において一意の識別子を関連付ける機能と、
関連付けられた画像および識別子の組を、通信ネットワークを介して画像分析装置に送信する機能と、
前記画像のうち一部のみからなる、低レート映像ストリームを生成する機能と、
前記低レート映像ストリームについて、関連付けられた画像および識別子の組を、通信ネットワークを介して画像分析装置に送信する機能と、
を備える、映像ストリーム処理装置。 A function for acquiring a plurality of images constituting a video stream;
A function of associating each image with a unique identifier in the video stream;
A function of transmitting an associated image and identifier pair to an image analysis device via a communication network;
A function of generating a low-rate video stream consisting of only a part of the image;
A function of transmitting, for the low-rate video stream, an associated image and identifier pair to an image analysis device via a communication network;
A video stream processing apparatus comprising:
各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられた識別子との組を、通信ネットワークを介して画像分析装置に送信する機能と、
をさらに備える、
請求項1に記載の映像ストリーム処理装置。 A function of generating a background difference image and an inter-frame difference image corresponding to each image;
For each image, a function of transmitting a set of a corresponding background difference image or a corresponding inter-frame difference image and an identifier associated with the image to the image analysis apparatus via a communication network;
Further comprising
The video stream processing apparatus according to claim 1.
請求項2に記載の映像ストリーム処理装置。 The identifier is acquired for each image after acquiring the image and before generating the background difference image and the inter-frame difference image.
The video stream processing apparatus according to claim 2.
前記画像分析装置と、
画像加工装置と
を備える、映像監視システムであって、
前記映像ストリーム処理装置は、さらに、前記映像ストリームを前記画像加工装置に送信する機能を備え、
前記画像分析装置は、画像のうち、所定の判定基準を満たすものについて、その画像に関連付けられた識別子および判定結果を出力する機能を備え、
前記画像加工装置は、前記画像分析装置からの出力に応じて、各画像に加工を行う機能を備える、
映像監視システム。 The video stream processing device according to any one of claims 1 to 4 ,
The image analyzer;
An image monitoring system comprising an image processing device,
The video stream processing device further includes a function of transmitting the video stream to the image processing device,
The image analysis device has a function of outputting an identifier and a determination result associated with an image that satisfies a predetermined determination criterion among images,
The image processing device has a function of processing each image according to an output from the image analysis device,
Video surveillance system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003492A JP6423023B2 (en) | 2017-01-12 | 2017-01-12 | Video stream processing apparatus, video stream processing program, and video monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003492A JP6423023B2 (en) | 2017-01-12 | 2017-01-12 | Video stream processing apparatus, video stream processing program, and video monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018113618A JP2018113618A (en) | 2018-07-19 |
JP6423023B2 true JP6423023B2 (en) | 2018-11-14 |
Family
ID=62912638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017003492A Active JP6423023B2 (en) | 2017-01-12 | 2017-01-12 | Video stream processing apparatus, video stream processing program, and video monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6423023B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023152889A1 (en) * | 2022-02-10 | 2023-08-17 | 日本電気株式会社 | Monitoring device, monitoring system, monitoring method, and program |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0397080A (en) * | 1989-09-11 | 1991-04-23 | Secom Co Ltd | Picture monitoring device |
JP4292371B2 (en) * | 2003-03-14 | 2009-07-08 | オムロン株式会社 | Mobile monitoring device |
JP4315827B2 (en) * | 2004-01-29 | 2009-08-19 | 株式会社日立国際電気 | Image display method, image display apparatus, and image display program |
JP2009088666A (en) * | 2007-09-27 | 2009-04-23 | Victor Co Of Japan Ltd | Image processor |
JP2009246917A (en) * | 2008-04-01 | 2009-10-22 | Hitachi Ltd | Video display device, and video processing apparatus |
US8744216B2 (en) * | 2010-03-18 | 2014-06-03 | Panasonic Corporation | Omnidirectional image processing device and method using warp processing for enhanced object visibility |
JP5911227B2 (en) * | 2011-07-12 | 2016-04-27 | キヤノン株式会社 | Determination apparatus, determination method, and program |
US10769913B2 (en) * | 2011-12-22 | 2020-09-08 | Pelco, Inc. | Cloud-based video surveillance management system |
JP6705102B2 (en) * | 2014-12-25 | 2020-06-03 | 三菱電機株式会社 | Imaging device installation support device, imaging device installation support method, and video recording/reproducing device |
-
2017
- 2017-01-12 JP JP2017003492A patent/JP6423023B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018113618A (en) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8982208B2 (en) | Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method | |
JP2017534974A (en) | Docking system | |
CN101815197B (en) | Image display system, image display apparatus, and control method for image display apparatus | |
US10728531B2 (en) | Image display system, image display apparatus, image display method, and storage medium | |
US20160027402A1 (en) | Wireless communications system, and display apparatus | |
CN107977922B (en) | Image analysis method, device and system | |
US11586286B1 (en) | System and method for navigating on an augmented reality display | |
WO2023131105A1 (en) | Display control method and apparatus, and display device and computer-readable medium | |
CN111629264A (en) | Web-based separate front-end image rendering method | |
US11977905B2 (en) | System and method for updating augmented reality navigation instructions based on a detected error | |
JP6423023B2 (en) | Video stream processing apparatus, video stream processing program, and video monitoring system | |
US20130179910A1 (en) | Terminal device, content display method for terminal device, server device, display data transmission method for server device, and ranking information transmission method for server device | |
CN110717994A (en) | Method for realizing remote video interaction and related equipment | |
CN112598938A (en) | Cognitive function training system, method, device, equipment and storage medium based on augmented reality | |
CN113778360A (en) | Screen projection method and electronic equipment | |
CN113219668B (en) | Method and device for refreshing screen of head-mounted display device and electronic device | |
EP2773127A1 (en) | System for visualizing data | |
WO2020039897A1 (en) | Station monitoring system and station monitoring method | |
CN113784067B (en) | Character superposition method and device, storage medium and electronic device | |
WO2021063070A1 (en) | Communication method and apparatus | |
JP2010128567A (en) | Cursor movement control method and device, and program | |
CN1983159A (en) | Network display apparatus, computer and control method thereof | |
KR20040006612A (en) | Video geographic information system | |
CN106657705A (en) | Mobile-terminal-based method and system for transmitting image to display screen | |
CN113099212A (en) | 3D display method, device, computer equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180717 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6423023 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |