JP6423023B2 - Video stream processing apparatus, video stream processing program, and video monitoring system - Google Patents

Video stream processing apparatus, video stream processing program, and video monitoring system Download PDF

Info

Publication number
JP6423023B2
JP6423023B2 JP2017003492A JP2017003492A JP6423023B2 JP 6423023 B2 JP6423023 B2 JP 6423023B2 JP 2017003492 A JP2017003492 A JP 2017003492A JP 2017003492 A JP2017003492 A JP 2017003492A JP 6423023 B2 JP6423023 B2 JP 6423023B2
Authority
JP
Japan
Prior art keywords
image
video stream
stream processing
function
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017003492A
Other languages
Japanese (ja)
Other versions
JP2018113618A (en
Inventor
尭理 中尾
尭理 中尾
裕也 井ノ口
裕也 井ノ口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Information Systems Corp
Priority to JP2017003492A priority Critical patent/JP6423023B2/en
Publication of JP2018113618A publication Critical patent/JP2018113618A/en
Application granted granted Critical
Publication of JP6423023B2 publication Critical patent/JP6423023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像ストリーム処理装置、映像ストリーム処理プログラムおよび映像監視システムに関する。   The present invention relates to a video stream processing device, a video stream processing program, and a video monitoring system.

複数枚の画像が連続する映像ストリームに基づいて監視を行う装置が公知である。たとえば特許文献1には、TVカメラからの映像に基づいて侵入者を監視する技術が記載されている。また、特許文献2には、映像から顔やナンバープレート等を検出する技術が記載されている。   Devices that perform monitoring based on a video stream in which a plurality of images are continuous are known. For example, Patent Document 1 describes a technique for monitoring an intruder based on video from a TV camera. Patent Document 2 describes a technique for detecting a face, a license plate, or the like from an image.

特開平3−097080号公報Japanese Patent Laid-Open No. 3-097080 特開2015−508591号公報Japanese Patent Laying-Open No. 2015-508591

しかしながら、従来の技術では、複数のアプリケーションを用いてそれぞれ異なる監視処理を行う場合に、判定結果を時間的に適切に融合することが困難であるという問題があった。   However, the conventional technique has a problem that it is difficult to appropriately combine the determination results in time when different monitoring processes are performed using a plurality of applications.

たとえば、それまで認識されていなかった侵入者が、あるフレームにおいて初めて認識された場合には、侵入者が認識されたことを表す判定結果と、そのフレームに対応する時間情報とが出力される。この時間情報は、映像ストリームの送受信処理や、アプリケーション等における処理遅延等に応じて、相対的に変動する可能性がある。これに起因して、複数のアプリケーションからの判定結果を融合する際に、あるアプリケーションがあるフレームを参照する時刻と、別のアプリケーションが同じフレームを参照する時刻とにずれが発生する場合がある。このような場合には、それぞれの判定結果を1つの映像ストリーム内に適切に融合させて表示するのは困難である。   For example, when an intruder that has not been recognized before is recognized for the first time in a certain frame, a determination result indicating that the intruder has been recognized and time information corresponding to the frame are output. This time information may be relatively changed depending on transmission / reception processing of a video stream, processing delay in an application, and the like. Due to this, when merging determination results from a plurality of applications, there may be a difference between the time at which one application refers to a frame and the time at which another application refers to the same frame. In such a case, it is difficult to display the respective determination results by appropriately fusing them in one video stream.

この発明は、このような問題点を解決するためになされたものであり、複数のアプリケーションを用いてそれぞれ異なる監視処理を行う場合に、判定結果を時間的に適切に融合できるようにする、映像ストリーム処理装置、映像ストリーム処理プログラムおよび映像監視システムを提供することを目的とする。   The present invention has been made in order to solve such problems, and in the case where different monitoring processes are performed using a plurality of applications, a video that enables the determination results to be appropriately fused in time. It is an object to provide a stream processing device, a video stream processing program, and a video monitoring system.

上述の問題点を解決するため、この発明に係る映像ストリーム処理装置は、
映像ストリームを構成する複数枚の画像を取得する機能と、
画像のそれぞれに、前記映像ストリーム内において一意の識別子を関連付ける機能と、
関連付けられた画像および識別子の組を、通信ネットワークを介して画像分析装置に送信する機能と、
前記画像のうち一部のみからなる、低レート映像ストリームを生成する機能と、
前記低レート映像ストリームについて、関連付けられた画像および識別子の組を、通信ネットワークを介して画像分析装置に送信する機能と、
を備える。
特定の態様によれば、
各画像に対応する背景差分画像およびフレーム間差分画像を生成する機能と、
各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられた識別子との組を、通信ネットワークを介して画像分析装置に送信する機能と、
をさらに備える。
特定の態様によれば、
前記識別子は、各画像について、その画像を取得した後、背景差分画像およびフレーム間差分画像を生成する前に取得される。
特定の態様によれば、前記識別子はタイムスタンプである
In order to solve the above-described problems, a video stream processing apparatus according to the present invention provides:
A function for acquiring a plurality of images constituting a video stream;
A function of associating each image with a unique identifier in the video stream;
A function of transmitting an associated image and identifier pair to an image analysis device via a communication network;
A function of generating a low-rate video stream consisting of only a part of the image;
A function of transmitting, for the low-rate video stream, an associated image and identifier pair to an image analysis device via a communication network;
Is provided.
According to a particular aspect,
A function of generating a background difference image and an inter-frame difference image corresponding to each image;
For each image, a function of transmitting a set of a corresponding background difference image or a corresponding inter-frame difference image and an identifier associated with the image to the image analysis apparatus via a communication network;
Is further provided.
According to a particular aspect,
The identifier is acquired for each image after acquiring the image and before generating the background difference image and the inter-frame difference image.
According to a particular aspect, the identifier is a time stamp .

また、この発明に係る映像ストリーム処理プログラムは、コンピュータを、上述の映像ストリーム処理装置として機能させる。   The video stream processing program according to the present invention causes a computer to function as the above-described video stream processing apparatus.

また、この発明に係る映像監視システムは、
上述の映像ストリーム処理装置と、
前記複数の画像分析装置と、
画像加工装置と
を備える、映像監視システムであって、
前記映像ストリーム処理装置は、さらに、前記映像ストリームを前記画像加工装置に送信する機能を備え、
各画像分析装置は、画像のうち、所定の判定基準を満たすものについて、その画像に関連付けられた識別子および判定結果を出力する機能を備え、
前記画像加工装置は、前記画像分析装置からの出力に応じて、各画像に加工を行う機能を備える。
The video surveillance system according to the present invention is
The video stream processing device described above;
The plurality of image analyzers;
An image monitoring system comprising an image processing device,
The video stream processing device further includes a function of transmitting the video stream to the image processing device,
Each image analysis apparatus has a function of outputting an identifier and a determination result associated with an image that satisfies a predetermined determination criterion among images,
The image processing device has a function of processing each image in accordance with an output from the image analysis device.

この発明に係る映像ストリーム処理装置、映像ストリーム処理プログラムおよび映像監視システムによれば、各画像に一意の識別子が関連付けられるので、識別子に基づいて判定結果を同期させることができ、判定結果を時間的に適切に融合することができる。   According to the video stream processing device, the video stream processing program, and the video monitoring system according to the present invention, since a unique identifier is associated with each image, the determination result can be synchronized based on the identifier, and the determination result is temporally Can be fused appropriately.

本発明の実施の形態1に係る映像ストリーム処理装置を含む映像監視システムの構成の例を示す図である。It is a figure which shows the example of a structure of the video surveillance system containing the video stream processing apparatus which concerns on Embodiment 1 of this invention. 図1の映像ストリーム処理装置が扱うデータの例を示す図である。It is a figure which shows the example of the data which the video stream processing apparatus of FIG. 1 handles. 図1の映像ストリーム処理装置が画像を取得する際の処理の流れの例を示すフローチャートである。3 is a flowchart illustrating an example of a flow of processing when the video stream processing apparatus of FIG. 1 acquires an image. 図1の映像ストリーム処理装置が画像を送信する際の処理の流れの例を示すフローチャートである。3 is a flowchart illustrating an example of a flow of processing when the video stream processing apparatus of FIG. 1 transmits an image. 本発明の実施の形態1の変形例に係る映像ストリーム処理装置を含む映像監視システムの構成の例を示す図である。It is a figure which shows the example of a structure of the video monitoring system containing the video stream processing apparatus which concerns on the modification of Embodiment 1 of this invention.

以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1.
図1に、本発明の実施の形態1に係る映像監視システム100の構成の例を示す。映像監視システム100は、映像ストリーム処理装置10と、人検知装置31および置き去り検知装置32と、画像加工装置50とを備える。また、映像監視システム100は、図示のように、カメラ20、処理結果格納DB40、等を備えてもよい。人検知装置31および置き去り検知装置32は、画像分析装置の例であり、これら複数の画像分析装置が画像分析装置群30を構成する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
Embodiment 1 FIG.
FIG. 1 shows an example of the configuration of a video surveillance system 100 according to Embodiment 1 of the present invention. The video monitoring system 100 includes a video stream processing device 10, a human detection device 31, a leaving detection device 32, and an image processing device 50. In addition, the video monitoring system 100 may include a camera 20, a processing result storage DB 40, and the like as illustrated. The human detection device 31 and the abandonment detection device 32 are examples of image analysis devices, and the plurality of image analysis devices constitute the image analysis device group 30.

本明細書において、「画像」とはたとえば静止画を表す画像またはデータを意味し、「映像ストリーム」とはたとえば動画またはビデオを表す画像の組またはデータを意味する。すなわち、複数枚の画像が映像ストリームを構成するということができる。   In this specification, “image” means, for example, an image or data representing a still image, and “video stream” means a set or data of an image representing, for example, a moving image or video. That is, it can be said that a plurality of images constitute a video stream.

映像ストリーム処理装置10は公知のコンピュータとしての構成を備え、演算を行う演算手段11と、情報を格納する記憶手段12とを備える。また、とくに図示しないが、映像ストリーム処理装置10は、使用者の操作を受け付ける入力手段と、情報を出力する出力手段と、外部の通信ネットワークに対し情報の入出力を行う通信手段とを備える。   The video stream processing apparatus 10 has a configuration as a known computer, and includes a calculation unit 11 that performs a calculation and a storage unit 12 that stores information. Although not particularly shown, the video stream processing apparatus 10 includes an input unit that receives a user operation, an output unit that outputs information, and a communication unit that inputs and outputs information to an external communication network.

記憶手段12は、本明細書に記載される映像ストリーム処理装置10の動作に必要な情報に加え、映像ストリーム処理プログラムを格納する。演算手段11がこの映像ストリーム処理プログラムを実行することにより、映像ストリーム処理装置10は本明細書に記載される機能を実現する。すなわち、この映像ストリーム処理プログラムは、コンピュータを、本明細書に記載される映像ストリーム処理装置10として機能させる。   The storage unit 12 stores a video stream processing program in addition to information necessary for the operation of the video stream processing apparatus 10 described in this specification. The video stream processing apparatus 10 implements the functions described in the present specification by the arithmetic means 11 executing this video stream processing program. That is, this video stream processing program causes a computer to function as the video stream processing apparatus 10 described in this specification.

人検知装置31、置き去り検知装置32および画像加工装置50もまた公知のコンピュータとしての構成を備える。なお、画像分析装置群30に含まれる各画像分析装置(たとえば人検知装置31および置き去り検知装置32)はそれぞれ異なるコンピュータであってもよいし、同一のコンピュータがそれぞれ異なるアプリケーションプログラムを実行することにより構成される装置であってもよい。   The human detection device 31, the abandonment detection device 32, and the image processing device 50 also have a configuration as a known computer. In addition, each image analysis device (for example, the human detection device 31 and the leaving detection device 32) included in the image analysis device group 30 may be a different computer, or the same computer executes different application programs. It may be a configured device.

映像ストリーム処理装置10、カメラ20、人検知装置31、置き去り検知装置32、処理結果格納DB40、および画像加工装置50は、それぞれ、本明細書に記載されるように、情報を送信、受信、書き込みまたは読み出しすることができる。とくに、映像ストリーム処理装置10は、通信ネットワークを介して、人検知装置31、置き去り検知装置32および画像加工装置50との間で情報を送受信することができる。   The video stream processing device 10, the camera 20, the human detection device 31, the abandonment detection device 32, the processing result storage DB 40, and the image processing device 50 respectively transmit, receive, and write information as described in this specification. Or it can be read. In particular, the video stream processing device 10 can transmit and receive information to and from the human detection device 31, the abandonment detection device 32, and the image processing device 50 via a communication network.

処理結果格納DB40は、人検知装置31または置き去り検知装置32等とともにコンピュータとして構成される記憶装置であってもよいし、独立した記憶装置として動作可能なコンピュータによって構成されてもよい。   The processing result storage DB 40 may be a storage device configured as a computer together with the human detection device 31 or the abandonment detection device 32, or may be configured as a computer operable as an independent storage device.

図2に、映像ストリーム処理装置10が扱うデータの例を示す。この例では、カメラ20から7枚の画像が取得され、それぞれにタイムスタンプが関連付けられている。この例は30フレーム毎秒(30fps)程度の映像ストリームに対応し、たとえば各画像は30ミリ秒置きに受信されるものとする。ここで、各画像はそれぞれ異なるタイミングで受信される(すなわち、定期的に受信されるものであっても、異なる時刻に受信される)ので、タイムスタンプは各画像を一意に特定する識別子として用いることができる。   FIG. 2 shows an example of data handled by the video stream processing apparatus 10. In this example, seven images are acquired from the camera 20, and a time stamp is associated with each. This example corresponds to a video stream of about 30 frames per second (30 fps). For example, each image is received every 30 milliseconds. Here, since each image is received at a different timing (that is, it is received at a different time even if it is periodically received), the time stamp is used as an identifier for uniquely identifying each image. be able to.

なお、「画像#1」等の数字によって表す画像の番号は、本明細書および図面において説明の便宜上付したものであって、実際の画像データに付されている必要はない。   Note that the number of an image represented by a number such as “image # 1” is given for convenience of explanation in the present specification and drawings, and need not be attached to actual image data.

図2に示すように、実施の形態1では、映像ストリーム処理装置10は、取得した映像ストリームと同一のフレームレートの映像ストリーム(「通常レート映像ストリーム」)と、取得した映像ストリームよりも低いフレームレートの映像ストリーム(「低レート映像ストリーム」)とを生成する機能を備える。ここで、低レート映像ストリームとは、取得した映像ストリームを構成する画像のうち一部のみからなる映像ストリームであり、すなわち一部の画像を間引いた映像ストリームであるということができる。   As shown in FIG. 2, in the first embodiment, the video stream processing apparatus 10 uses a video stream having the same frame rate as the acquired video stream (“normal rate video stream”) and a frame lower than the acquired video stream. A function of generating a rate video stream (“low rate video stream”) is provided. Here, the low-rate video stream is a video stream composed of only a part of the images constituting the acquired video stream, that is, a video stream obtained by thinning out a part of the images.

以下、映像ストリーム処理装置10の動作の例を説明する。映像ストリーム処理装置10は、たとえば図3および図4に示す処理を実行することにより、図2に示すような通常レート映像ストリームおよび低レート映像ストリームを生成する。   Hereinafter, an example of the operation of the video stream processing apparatus 10 will be described. The video stream processing apparatus 10 generates the normal rate video stream and the low rate video stream as shown in FIG. 2 by executing the processing shown in FIGS. 3 and 4, for example.

図3は、映像ストリーム処理装置10が画像を取得する際の処理の流れの例を示すフローチャートである。この処理は、たとえば映像ストリーム処理装置10がカメラ20等から映像ストリームを受信する際に実行される。   FIG. 3 is a flowchart illustrating an example of a processing flow when the video stream processing apparatus 10 acquires an image. This process is executed, for example, when the video stream processing apparatus 10 receives a video stream from the camera 20 or the like.

また、図3の処理は、たとえば画像ごとに独立して実行される。映像ストリーム処理装置10の処理速度が十分に高い場合には、カメラ20から画像を連続的に受信する際に、次の画像を受信するまでにその直前の画像について図3の処理を完了することができるが、実施形態はこれに限らない。   Further, the processing of FIG. 3 is executed independently for each image, for example. When the processing speed of the video stream processing device 10 is sufficiently high, when the images are continuously received from the camera 20, the processing of FIG. 3 is completed for the immediately preceding image before the next image is received. However, the embodiment is not limited to this.

まず映像ストリーム処理装置10は、画像を取得する(ステップS1)。次に、映像ストリーム処理装置10は、タイムスタンプを取得し、画像にタイムスタンプを関連付ける(ステップS2)。このタイムスタンプは、たとえばステップS1またはステップS2が実行される時刻を表すものとして取得される。映像ストリーム処理装置10は、時刻を決定または算出する基準となるクロック信号を生成するクロック装置を備えてもよく、そのようなクロック信号に基づいてタイムスタンプを生成することにより、タイムスタンプを取得してもよい。また、映像ストリーム処理装置10は、画像およびタイムスタンプを関連付けて記憶手段12に記憶してもよい。   First, the video stream processing apparatus 10 acquires an image (step S1). Next, the video stream processing apparatus 10 acquires a time stamp and associates the time stamp with the image (step S2). This time stamp is acquired as representing the time at which step S1 or step S2 is executed, for example. The video stream processing apparatus 10 may include a clock device that generates a clock signal serving as a reference for determining or calculating time, and acquires a time stamp by generating a time stamp based on such a clock signal. May be. Further, the video stream processing apparatus 10 may store the image and the time stamp in the storage unit 12 in association with each other.

次に、映像ストリーム処理装置10は、画像に対応する背景差分画像を生成する(ステップS3)。背景差分画像の生成方法は任意であるが、たとえば、事前に所定の背景画像を記憶手段12に記憶しておき、この背景画像との差分を算出することにより生成してもよい。「差分」とは、たとえば各画素を表す数値(RGB値等)についての、各画像において対応する画素間の差分をいう。または、背景差分画像の生成方法として、特許文献1に記載される方法を用いてもよい。図2ではこの差分をマイナス記号を用いて表しており、たとえば「画像#1−背景」とは、1枚目の画像と、背景画像との差分を表す。映像ストリーム処理装置10は、生成した背景差分画像およびタイムスタンプを関連付けて記憶手段12に記憶してもよい。   Next, the video stream processing apparatus 10 generates a background difference image corresponding to the image (step S3). The method for generating the background difference image is arbitrary. For example, a predetermined background image may be stored in advance in the storage unit 12 and may be generated by calculating a difference from the background image. “Difference” refers to a difference between corresponding pixels in each image, for example, regarding a numerical value (RGB value or the like) representing each pixel. Or you may use the method described in patent document 1 as a production | generation method of a background difference image. In FIG. 2, this difference is represented by using a minus sign. For example, “image # 1 -background” represents the difference between the first image and the background image. The video stream processing apparatus 10 may store the generated background difference image and time stamp in the storage unit 12 in association with each other.

次に、映像ストリーム処理装置10は、画像に対応するフレーム間差分画像を生成する(ステップS4)。フレーム間差分画像とは、映像ストリーム内の2枚の画像の差分を表す画像であり、たとえば、処理中の画像と、以前の画像(たとえば直前に受信した画像)との間の差分を表す画像を意味する。図2では、背景差分画像と同様に、フレーム間差分画像についてもマイナス記号を用いて表す。映像ストリーム処理装置10は、生成したフレーム間差分画像およびタイムスタンプを関連付けて記憶手段12に記憶してもよい。   Next, the video stream processing apparatus 10 generates an inter-frame difference image corresponding to the image (step S4). An inter-frame difference image is an image representing a difference between two images in a video stream. For example, an image representing a difference between an image being processed and a previous image (for example, an image received immediately before). Means. In FIG. 2, similarly to the background difference image, the inter-frame difference image is represented using a minus sign. The video stream processing apparatus 10 may store the generated inter-frame difference image and the time stamp in the storage unit 12 in association with each other.

次に、映像ストリーム処理装置10は、低レートフレーム間差分画像を生成する(ステップS5)。低レートフレーム間差分画像とは、低レート映像ストリームにおけるフレーム間差分画像である。なお、ステップS1において取得した画像が、低レート映像ストリームに含まれない画像である場合には、ステップS5の処理は省略してもよい。図2の例では、偶数番目の画像についてはこの処理が省略されている。映像ストリーム処理装置10は、生成した低レートフレーム間差分画像およびタイムスタンプを関連付けて記憶手段12に記憶してもよい。   Next, the video stream processing apparatus 10 generates a low-rate inter-frame difference image (step S5). A low-rate inter-frame difference image is an inter-frame difference image in a low-rate video stream. If the image acquired in step S1 is an image that is not included in the low-rate video stream, the process in step S5 may be omitted. In the example of FIG. 2, this process is omitted for even-numbered images. The video stream processing apparatus 10 may store the generated low-rate inter-frame difference image and the time stamp in the storage unit 12 in association with each other.

このようにして、映像ストリーム処理装置10は、タイムスタンプを付与した通常レート映像ストリームおよび低レート映像ストリームを生成する。   In this way, the video stream processing apparatus 10 generates a normal rate video stream and a low rate video stream to which time stamps are added.

図4は、映像ストリーム処理装置10が画像を送信する際の処理の流れの例を示すフローチャートである。この処理は、たとえば映像ストリーム処理装置10が人検知装置31または置き去り検知装置32に映像ストリームを送信する際に実行される。図4の処理は、図3の処理と一部または全部が並列的に実行されてもよい。   FIG. 4 is a flowchart illustrating an example of a processing flow when the video stream processing apparatus 10 transmits an image. This process is executed, for example, when the video stream processing device 10 transmits a video stream to the human detection device 31 or the leaving detection device 32. The process of FIG. 4 may be partially or entirely executed in parallel with the process of FIG.

まず映像ストリーム処理装置10は、画像送信要求を受信する(ステップS11)。画像送信要求は、他のコンピュータ(たとえば人検知装置31、置き去り検知装置32または画像加工装置50等)から送信される要求であり、送信すべき画像の種類を特定する情報を含む。   First, the video stream processing apparatus 10 receives an image transmission request (step S11). The image transmission request is a request transmitted from another computer (for example, the human detection device 31, the leaving detection device 32, or the image processing device 50), and includes information for specifying the type of image to be transmitted.

送信すべき画像の種類は、たとえば以下のパターンのいずれかとして特定される。
‐パターン1:通常レート映像ストリームの、画像、背景差分画像およびフレーム間差分画像
‐パターン2:低レート映像ストリームの、画像、背景差分画像およびフレーム間差分画像
‐パターン3:通常レート映像ストリームの画像のみ
‐パターン4:通常レート映像ストリームの背景差分画像のみ
‐パターン5:通常レート映像ストリームのフレーム間差分画像のみ
‐パターン6:低レート映像ストリームの画像のみ
‐パターン7:低レート映像ストリームの背景差分画像のみ
‐パターン8:低レート映像ストリームのフレーム間差分画像のみ
‐その他、上記の任意の組み合わせ
The type of image to be transmitted is specified as one of the following patterns, for example.
-Pattern 1: Normal rate video stream image, background difference image and inter-frame difference image-Pattern 2: Low rate video stream image, background difference image and inter-frame difference image-Pattern 3: Normal rate video stream image Only-Pattern 4: Only the background difference image of the normal rate video stream-Pattern 5: Only the difference image between frames of the normal rate video stream-Pattern 6: Only the image of the low rate video stream-Pattern 7: Background difference of the low rate video stream Image only-Pattern 8: Inter-frame difference image of low-rate video stream only-Other combinations of the above

次に、映像ストリーム処理装置10は、要求された種類の画像について、関連付けられた画像およびタイムスタンプの組を、通信ネットワークを介して、要求元(すなわち画像送信要求を送信してきた人検知装置31、置き去り検知装置32または画像加工装置50)に送信する(ステップS12)。   Next, for the requested type of image, the video stream processing apparatus 10 sets the associated image and time stamp pair via the communication network to the request source (that is, the person detection apparatus 31 that has transmitted the image transmission request). And sent to the abandonment detection device 32 or the image processing device 50) (step S12).

ここで、図4の処理は、画像送信要求ごとに独立して実行される。すなわち、たとえば人検知装置31および置き去り検知装置32が相次いで画像送信要求を送信してきた場合には、映像ストリーム処理装置10は、これら複数の画像分析装置に対して、それぞれ要求された種類の画像およびタイムスタンプの組を送信することができる。   Here, the processing of FIG. 4 is executed independently for each image transmission request. That is, for example, when the human detection device 31 and the abandonment detection device 32 transmit image transmission requests one after another, the video stream processing device 10 sends the requested types of images to the plurality of image analysis devices. And a set of time stamps can be transmitted.

送信される画像は、画像送信要求の内容に応じて異なる。たとえば、映像ストリーム処理装置10は、以下の処理のうち1つ以上を、画像送信要求の内容に応じて選択的に実行する。
‐通常レート映像ストリームの各画像について、その画像と、その画像に関連付けられたタイムスタンプとの組を、少なくとも1つの画像分析装置に送信する
‐通常レート映像ストリームの各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられた識別子との組を、少なくとも1つの画像分析装置に送信する
‐低レート映像ストリームの各画像について、その画像と、その画像に関連付けられたタイムスタンプとの組を、少なくとも1つの画像分析装置に送信する
‐低レート映像ストリームの各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられた識別子との組を、少なくとも1つの画像分析装置に送信する
The image to be transmitted differs depending on the content of the image transmission request. For example, the video stream processing apparatus 10 selectively executes one or more of the following processes according to the content of the image transmission request.
-For each image in the normal rate video stream, send the image and the time stamp associated with that image to at least one image analyzer-For each image in the normal rate video stream, the corresponding background difference Send a set of images or corresponding inter-frame difference images and identifiers associated with the images to at least one image analyzer-for each image in the low-rate video stream, the image and associated with the image A set of time stamps to at least one image analysis device-for each image in the low-rate video stream, a corresponding background difference image or a corresponding inter-frame difference image and an identifier associated with the image Send the set to at least one image analyzer

このようにして、たとえば人検知装置31にはパターン1の画像(通常レート映像ストリームの、画像、背景差分画像およびフレーム間差分画像)を送信し、置き去り検知装置32にはパターン2の画像(低レート映像ストリームの、画像、背景差分画像およびフレーム間差分画像)を送信し、画像加工装置50にはパターン3の画像(通常レート映像ストリームの画像のみ)を送信することができる。   In this way, for example, the image of pattern 1 (the image of the normal rate video stream, the background difference image and the inter-frame difference image) is transmitted to the human detection device 31, and the pattern 2 image (low image) is transmitted to the abandonment detection device 32. The image of the rate video stream, the background difference image, and the inter-frame difference image) can be transmitted, and the image of the pattern 3 (only the image of the normal rate video stream) can be transmitted to the image processing device 50.

具体的な送受信方法は任意に設計可能である。たとえば、人検知装置31および置き去り検知装置32が通信ネットワーク上で独立したコンピュータである場合には、それぞれ異なるIPアドレスを割り当てておき、映像ストリーム処理装置10は異なるIPアドレスに対して送信処理を行ってもよい。または、人検知装置31および置き去り検知装置32が通信ネットワーク上で独立したコンピュータであるか否かに関わらず、それぞれ異なる通信ポートを割り当てておき、映像ストリーム処理装置10は異なる通信ポート(またはソケット)に対して送信処理を行ってもよい。   A specific transmission / reception method can be arbitrarily designed. For example, when the human detection device 31 and the abandonment detection device 32 are independent computers on the communication network, different IP addresses are assigned to each other, and the video stream processing device 10 performs transmission processing on different IP addresses. May be. Alternatively, regardless of whether the human detection device 31 and the abandonment detection device 32 are independent computers on the communication network, different communication ports are allocated, and the video stream processing device 10 has different communication ports (or sockets). You may perform a transmission process with respect to.

映像ストリーム処理装置10は、ステップS12の処理を、通信中の画像分析装置から所定の画像停止要求を受信するまで継続する。画像停止要求を受信すると(ステップS13)、映像ストリーム処理装置10は、図4の処理を終了する。なお、画像停止要求は、明示的に送信されるパケット等の形式を取る必要はなく、たとえば通信途絶を暗黙に示すなんらかの情報であってもよい。   The video stream processing apparatus 10 continues the process of step S12 until a predetermined image stop request is received from the communicating image analysis apparatus. When the image stop request is received (step S13), the video stream processing apparatus 10 ends the process of FIG. Note that the image stop request does not need to take the form of a packet that is explicitly transmitted, and may be, for example, some information that implicitly indicates a communication interruption.

人検知装置31および置き去り検知装置32の動作については、とくにフローチャートには示さないが、図4に示す映像ストリーム処理装置10の処理に対応して動作する。たとえば、人検知装置31および置き去り検知装置32は起動すると映像ストリーム処理装置10に画像送信要求を送信し、これに応じて映像ストリーム処理装置10が画像の送信を開始すると、その画像を受信する。要求する画像の種類は、人検知装置31および置き去り検知装置32がそれぞれ実行する分析処理の内容に応じ、事前に定義しておいてもよい。   The operations of the human detection device 31 and the abandonment detection device 32 are not particularly shown in the flowchart, but operate corresponding to the processing of the video stream processing device 10 shown in FIG. For example, the human detection device 31 and the abandonment detection device 32 transmit an image transmission request to the video stream processing device 10 when activated, and receive the image when the video stream processing device 10 starts transmitting an image accordingly. The type of image to be requested may be defined in advance according to the contents of the analysis processing executed by the human detection device 31 and the abandonment detection device 32, respectively.

人検知装置31および置き去り検知装置32は、画像のうち、所定の判定基準を満たすものについて、その画像に関連付けられたタイムスタンプおよび判定結果を出力する。   The human detection device 31 and the abandonment detection device 32 output a time stamp and a determination result associated with an image that satisfies a predetermined determination criterion among images.

たとえば、人検知装置31は、画像を分析し、人間が映っているか否かを判定する。また、人間が映っている場合には、その位置または領域を決定する。位置は2次元座標値(たとえばX座標およびY座標)として決定される。領域は、たとえば矩形の領域として決定され、2組の2次元座標値(たとえば、矩形の左上頂点のX座標およびY座標と、矩形のX方向サイズおよびY方向サイズ)によって表すことができる。   For example, the human detection device 31 analyzes the image and determines whether or not a person is shown. If a person is shown, the position or area is determined. The position is determined as a two-dimensional coordinate value (for example, X coordinate and Y coordinate). The region is determined as a rectangular region, for example, and can be represented by two sets of two-dimensional coordinate values (for example, the X and Y coordinates of the upper left vertex of the rectangle and the X and Y direction sizes of the rectangle).

同様に、たとえば置き去り検知装置32は、画像を分析し、置き去られた物が映っているか否かを判定する。また、置き去られた物が映っている場合には、その位置または領域を決定する。位置は2次元座標値(たとえばX座標およびY座標)として決定される。領域は、たとえば矩形の領域として決定され、2組の2次元座標値(たとえば、矩形の左上頂点のX座標およびY座標と、矩形のX方向サイズおよびY方向サイズ)によって表すことができる。   Similarly, for example, the abandonment detection device 32 analyzes the image and determines whether or not the left object is reflected. Further, when the left object is reflected, the position or area is determined. The position is determined as a two-dimensional coordinate value (for example, X coordinate and Y coordinate). The region is determined as a rectangular region, for example, and can be represented by two sets of two-dimensional coordinate values (for example, the X and Y coordinates of the upper left vertex of the rectangle and the X and Y direction sizes of the rectangle).

人検知装置31および置き去り検知装置32の分析処理の具体的内容(判定基準等)は、たとえば公知技術に基づいて設計可能である。たとえば特許文献1または特許文献2に記載される技術を用いてもよい。   Specific contents (determination criteria and the like) of the analysis processing of the human detection device 31 and the leaving detection device 32 can be designed based on, for example, a known technique. For example, the technique described in Patent Document 1 or Patent Document 2 may be used.

人検知装置31および置き去り検知装置32は、判定結果を処理結果格納DB40に記憶する。判定結果の形式は任意に設計可能であるが、たとえば人検知装置31による判定結果は、各画像のタイムスタンプに、人間が映っているか否かを表すフラグと、映っている場合にはその位置または領域を表す情報とが関連付けられた組として表現することができる。判定結果に画像を含める必要はないが、含めてもよい。   The human detection device 31 and the abandonment detection device 32 store the determination result in the processing result storage DB 40. The format of the determination result can be designed arbitrarily. For example, the determination result by the human detection device 31 includes a flag indicating whether or not a person is reflected in the time stamp of each image, and the position when it is reflected. Alternatively, it can be expressed as a set associated with information representing a region. An image need not be included in the determination result, but may be included.

ここで、各画像のタイムスタンプは映像ストリーム処理装置10によって付与されており、画像分析装置群30について共通なので、人検知装置31と置き去り検知装置32との間で直接の画像同期処理等を行わなくても、判定結果は同期される。たとえば、人検知装置31と置き去り検知装置32とで処理速度に差がある場合であっても、ある人が検知された時刻と、ある置き去り物が検知された時刻とは、それぞれ検知された画像のタイムスタンプに基づいて正確に比較可能である。   Here, since the time stamp of each image is given by the video stream processing device 10 and is common to the image analysis device group 30, direct image synchronization processing or the like is performed between the human detection device 31 and the leaving detection device 32. Even if not, the determination result is synchronized. For example, even when there is a difference in processing speed between the person detection device 31 and the abandonment detection device 32, the time when a certain person is detected and the time when a certain abandoned object is detected are respectively detected images. Can be accurately compared based on the time stamps.

また、画像分析装置群30は、人検知装置31および置き去り検知装置32に代えて、またはこれらに加えて、他の画像分析装置(人同定装置、シャッター開閉判定装置、滞留検知装置、等)を含んでもよい。   The image analysis device group 30 includes other image analysis devices (a person identification device, a shutter open / close determination device, a stay detection device, etc.) instead of or in addition to the human detection device 31 and the leaving detection device 32. May be included.

画像加工装置50は、起動すると映像ストリーム処理装置10に画像送信要求を送信し、これに応じて映像ストリーム処理装置10が画像の送信を開始すると、その画像を受信する。要求する画像の種類は、たとえば通常レート映像ストリームの画像のみである。   When activated, the image processing device 50 transmits an image transmission request to the video stream processing device 10, and receives the image when the video stream processing device 10 starts transmitting an image accordingly. The requested image type is, for example, only an image of a normal rate video stream.

また、画像加工装置50は、処理結果格納DB40に記憶された画像単位の判定結果に基づき、映像ストリーム処理装置10から受信する画像に加工を行う。   Further, the image processing device 50 processes the image received from the video stream processing device 10 based on the determination result in units of images stored in the processing result storage DB 40.

加工の内容は任意に設計可能であるが、たとえば判定結果に応じて画像に所定のマーク、記号または図形等を重ね合わせる処理としてもよい。具体的には、人間が映っていると判定された画像については、該当する領域に特定の色(たとえば黄色)の矩形の枠を重ね合わせ、置き去り物が映っていると判定された画像については、該当する領域に別の特定の色(たとえば赤色)の矩形の枠を重ね合わせてもよい。   The content of the processing can be arbitrarily designed, but for example, a predetermined mark, symbol, figure or the like may be superimposed on the image according to the determination result. Specifically, for an image that is determined to show a human being, an image that is determined to have left behind by overlaying a rectangular frame of a specific color (for example, yellow) on the corresponding area. A rectangular frame of another specific color (for example, red) may be superimposed on the corresponding area.

画像加工装置50は、加工した画像を記憶する。また、画像加工装置50は、加工した画像を、使用者の操作に応じて表示する。表示される画像には人や物の位置を示す枠が描かれているので、画像加工装置50の使用者(たとえば施設の監視者等)は、カメラ20の映像に映っている人や物を容易に認識することができる。   The image processing device 50 stores the processed image. Further, the image processing device 50 displays the processed image in accordance with a user operation. Since a frame indicating the position of a person or an object is drawn on the displayed image, a user of the image processing apparatus 50 (for example, a facility supervisor) can select a person or an object shown in the video of the camera 20. It can be easily recognized.

ここでも、各画像のタイムスタンプは映像ストリーム処理装置10によって付与されており、画像分析装置群30と画像加工装置50とで共通なので、画像分析装置群30と画像加工装置50との間で直接の画像同期処理等を行わなくても、判定結果と加工処理とは同期される。たとえば、映像ストリーム処理装置10から画像加工装置50への画像の送信処理と、人検知装置31による処理結果格納DB40への判定結果の書き込み処理とで処理速度に差がある場合であっても、ある画像において人が検知された場合に、正確なタイミングでその人を示す枠を表示することが可能である。   Also here, the time stamp of each image is given by the video stream processing device 10 and is common to the image analysis device group 30 and the image processing device 50, and therefore directly between the image analysis device group 30 and the image processing device 50. Even if the image synchronization process is not performed, the determination result and the processing process are synchronized. For example, even when there is a difference in processing speed between the transmission processing of the image from the video stream processing device 10 to the image processing device 50 and the writing processing of the determination result to the processing result storage DB 40 by the human detection device 31, When a person is detected in an image, it is possible to display a frame indicating the person at an accurate timing.

以上説明するように、実施の形態1に係る映像ストリーム処理装置10、映像ストリーム処理プログラムおよび映像監視システム100によれば、各画像に一意の識別子としてタイムスタンプが関連付けられるので、タイムスタンプに基づいて判定結果を同期させることができ、判定結果を時間的に適切に融合することができる。   As described above, according to the video stream processing apparatus 10, the video stream processing program, and the video monitoring system 100 according to the first embodiment, each image is associated with a time stamp as a unique identifier. The determination results can be synchronized, and the determination results can be appropriately fused in time.

また、図3の例では、タイムスタンプは、各画像について、その画像を取得した後、かつ、背景差分画像、フレーム間差分画像および低レートフレーム間差分画像を生成する前に取得される。このため、画像ごとにステップS3〜S5の処理時間が変動する場合であっても、画像が発生した時刻を比較的正確に表すタイムスタンプとなる。   In the example of FIG. 3, the time stamp is acquired for each image after the image is acquired and before the background difference image, the inter-frame difference image, and the low-rate inter-frame difference image are generated. For this reason, even if the processing time of steps S3 to S5 varies from image to image, the time stamp represents the time when the image occurred relatively accurately.

実施の形態1において、以下のような変形を施すことができる。
画像分析装置群30に含まれる画像分析装置の数は、少なくとも1つあればよい。画像分析装置が1つの場合には、映像ストリーム処理装置10は、関連付けられた画像およびタイムスタンプの組を、通信ネットワークを介して画像分析装置に送信する。また、映像ストリーム処理装置10は、各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられたタイムスタンプとの組を、通信ネットワークを介して画像分析装置に送信する。
In the first embodiment, the following modifications can be made.
The number of image analysis devices included in the image analysis device group 30 may be at least one. When there is one image analysis device, the video stream processing device 10 transmits the associated image and time stamp pair to the image analysis device via the communication network. In addition, the video stream processing device 10 transmits, for each image, a set of a corresponding background difference image or a corresponding inter-frame difference image and a time stamp associated with the image to the image analysis device via the communication network. To do.

実施の形態1のように画像分析装置が複数の場合には、映像ストリーム処理装置10は、関連付けられた画像およびタイムスタンプの組を、通信ネットワークを介して複数の画像分析装置にそれぞれ送信する。また、映像ストリーム処理装置10は、各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられたタイムスタンプとの組を、通信ネットワークを介して少なくとも1つの画像分析装置に送信する。   When there are a plurality of image analysis apparatuses as in the first embodiment, the video stream processing apparatus 10 transmits a set of associated images and time stamps to the plurality of image analysis apparatuses via the communication network. In addition, the video stream processing apparatus 10 uses, for each image, at least one image analysis of a set of a corresponding background difference image or a corresponding inter-frame difference image and a time stamp associated with the image via a communication network. Send to device.

画像加工装置50は、加工した画像を表示するのではなく、他の方法で出力してもよい。たとえば記憶手段に記憶してもよいし、通信ネットワークを介して他のコンピュータに送信してもよい。   The image processing device 50 may output the processed image by another method instead of displaying the processed image. For example, it may be stored in a storage means or transmitted to another computer via a communication network.

画像加工装置50は省略してもよい。処理結果格納DB40に記憶された判定結果は、他の用途で利用することも可能である。   The image processing device 50 may be omitted. The determination result stored in the processing result storage DB 40 can be used for other purposes.

画像分析装置群30の処理結果に基づいて、より複雑な判定処理を行う装置を追加してもよい。たとえば、各画像において検知された人間の座標等に基づき、「ふらふら歩く人」が映っているか否かの判定を行う装置を追加してもよい。このような装置の判定結果もまた、人検知装置31等の出力と同様の形式で、処理結果格納DB40に記憶されてもよい。   A device that performs more complicated determination processing based on the processing result of the image analysis device group 30 may be added. For example, a device that determines whether or not a “walking person” is reflected based on the human coordinates detected in each image may be added. The determination result of such a device may also be stored in the processing result storage DB 40 in the same format as the output of the human detection device 31 or the like.

図3に示す各ステップの順序はこれに限らない。ステップS3〜S5の順序は任意に入れ替え可能である。また、ステップS2の処理を、ステップS3〜S5の途中または後としてもよい。   The order of the steps shown in FIG. 3 is not limited to this. The order of steps S3 to S5 can be arbitrarily changed. Further, the process of step S2 may be performed during or after steps S3 to S5.

図3のステップS3〜S5のいずれかまたはすべてを省略してもよい。たとえば、実施の形態1では、映像ストリーム処理装置10は低レート映像ストリームを生成する機能を備えるが、この機能は省略してもよい。たとえば、画像分析装置がいずれも比較的高いレートの映像ストリームに対応している場合には、低レートの映像ストリームは不要である。また、実施の形態1では、映像ストリーム処理装置10は背景差分画像およびフレーム間差分画像を生成する機能を備えるが、いずれか一方を生成する機能のみを備えるものであってもよい。または、いずれの機能も備えず、ステップS1で取得した画像についてのみステップS12を実行してもよい。その場合には、送信すべき画像の種類を特定する情報を画像送信要求に含める必要はない。   Any or all of steps S3 to S5 in FIG. 3 may be omitted. For example, in Embodiment 1, the video stream processing apparatus 10 has a function of generating a low-rate video stream, but this function may be omitted. For example, when all of the image analysis devices support a relatively high rate video stream, a low rate video stream is not necessary. In the first embodiment, the video stream processing apparatus 10 has a function of generating a background difference image and an inter-frame difference image, but may have only a function of generating one of them. Alternatively, no function is provided, and step S12 may be executed only for the image acquired in step S1. In that case, it is not necessary to include information specifying the type of image to be transmitted in the image transmission request.

実施の形態1では、画像の識別子としてタイムスタンプを用いたが、映像ストリーム内において一意となる識別子であれば任意のものを用いることができる。タイムスタンプのように、映像ストリーム処理装置10が扱うすべての映像ストリームに共通して一意の識別子であってもよいし、映像ストリーム内における順序等のように、特定の映像ストリーム内でのみ一意の識別子であってもよい。   In the first embodiment, a time stamp is used as an image identifier. However, any identifier can be used as long as it is a unique identifier in the video stream. It may be a unique identifier common to all video streams handled by the video stream processing apparatus 10 such as a time stamp, or may be unique only within a specific video stream, such as an order in the video stream. It may be an identifier.

実施の形態1では、映像ストリーム処理装置10はカメラ20から画像を取得するが、カメラ20に代えて、任意の映像ストリーム出力装置または映像ストリーム記憶装置を用いてもよい。   In the first embodiment, the video stream processing apparatus 10 acquires an image from the camera 20, but any video stream output apparatus or video stream storage apparatus may be used instead of the camera 20.

全体構成は図5のようにしてもよい。図5に示す通り、カメラ映像を入力とし、分析結果を描画した映像を出力としている。映像GW機能(実施の形態1の映像ストリーム処理装置10に対応する)は、カメラ映像を構成する各画像を取得し各分析機能(実施の形態1の画像分析装置群30に含まれる各装置に対応する)にフレーム画像を配布する機能を持つ。分析機能は置去・座込・滞留検知、領域内状態判定、領域内進入検知、異常行動判定、所有物判定の5種があり、必要なものだけ実行することが可能となっている。処理結果統合機能(実施の形態1の処理結果格納DB40および画像加工装置50に対応する)では、それぞれの分析結果、およびそれらを組み合わせた結果を元の画像上に対象を矩形で囲みラベルをつけてマージする。マージされた画像は、映像配信機能を用いて配信され、システムの利用者が分析結果を確認できる。   The overall configuration may be as shown in FIG. As shown in FIG. 5, a camera image is input and an image in which an analysis result is drawn is output. The video GW function (corresponding to the video stream processing device 10 of the first embodiment) acquires each image constituting the camera video, and each analysis function (each device included in the image analysis device group 30 of the first embodiment). Corresponding) has a function to distribute frame images. There are five types of analysis functions: leaving / sitting / stagnation detection, in-region state determination, in-region detection, abnormal behavior determination, and possession determination, and only necessary ones can be executed. In the processing result integration function (corresponding to the processing result storage DB 40 and the image processing apparatus 50 of the first embodiment), each analysis result and the result of combining them are enclosed in a rectangle on the original image and labeled. Merge. The merged image is distributed using the video distribution function, and the system user can check the analysis result.

5つの分析機能は、処理速度がまちまちであり、それぞれ非同期で動作する。非同期で処理された結果を統合するため、映像GWで画像だけではなくID(実施の形態1のタイムスタンプに対応する)を付与し、各機能に画像を配布する。IDを付与することにより、各機能での処理結果の同期をとることが可能となる。   The five analysis functions have various processing speeds and operate asynchronously. In order to integrate the results processed asynchronously, not only an image but also an ID (corresponding to the time stamp of the first embodiment) is assigned to the video GW, and the image is distributed to each function. By assigning an ID, it is possible to synchronize the processing results of each function.

実施の形態1またはこの変形例の方式を用いることで、処理結果統合機能において映像GWからの配布画像と各分析結果を結びつけることが可能となり、配布画像に対し複数の分析結果をまとめて描画した出力が可能となる。   By using the method of the first embodiment or this modified example, it becomes possible to link the distribution image from the video GW and each analysis result in the processing result integration function, and a plurality of analysis results are drawn together on the distribution image. Output is possible.

また、複数の分析結果を組み合わせた検知条件を作成することも可能である。例えば、所有物判定で大きな荷物や杖の判定を行い、置去・座込・滞留検知で座り込んでいる人の検知を行った上で、これらの判定結果を組み合わせる。これにより、大きな荷物を持って困っていそうな人、高齢者で疲れていそうな人を検知し、援助することが可能になる。例えば、所持物判定でベビーカーの判定、置去・座込・滞留検知で置去り物の検知を行い、組み合わせることで、置き去りまたは人が押していないベビーカーの検知結果を示すことができる。   It is also possible to create a detection condition that combines a plurality of analysis results. For example, a large load or a cane is determined in the possession determination, and a sitting person is detected in the leaving / sitting / staying detection, and then these determination results are combined. As a result, it becomes possible to detect and assist a person who seems to be in trouble with a large baggage or an elderly person who seems tired. For example, the stroller determination can be performed by detecting the stroller that has not been left or pushed by a person by detecting the stroller by carrying out possession determination, by detecting a left-behind object by detecting leaving, sitting, or staying.

様々な検知ニーズに統一的に対応するために、本システムでは処理結果統合機能部に検知条件を集中させるとともに、個別の条件を組み込むことができるよう設計されている。   In order to respond to various detection needs in a unified manner, this system is designed so that detection conditions can be concentrated in the processing result integration function unit and individual conditions can be incorporated.

10 映像ストリーム処理装置、31 人検知装置(画像分析装置)、32 検知装置(画像分析装置)、50 画像加工装置、100 映像監視システム。   10 video stream processing device, 31 human detection device (image analysis device), 32 detection device (image analysis device), 50 image processing device, 100 video monitoring system.

Claims (6)

映像ストリームを構成する複数枚の画像を取得する機能と、
画像のそれぞれに、前記映像ストリーム内において一意の識別子を関連付ける機能と、
関連付けられた画像および識別子の組を、通信ネットワークを介して画像分析装置に送信する機能と、
前記画像のうち一部のみからなる、低レート映像ストリームを生成する機能と、
前記低レート映像ストリームについて、関連付けられた画像および識別子の組を、通信ネットワークを介して画像分析装置に送信する機能と、
を備える、映像ストリーム処理装置。
A function for acquiring a plurality of images constituting a video stream;
A function of associating each image with a unique identifier in the video stream;
A function of transmitting an associated image and identifier pair to an image analysis device via a communication network;
A function of generating a low-rate video stream consisting of only a part of the image;
A function of transmitting, for the low-rate video stream, an associated image and identifier pair to an image analysis device via a communication network;
A video stream processing apparatus comprising:
各画像に対応する背景差分画像およびフレーム間差分画像を生成する機能と、
各画像について、対応する背景差分画像または対応するフレーム間差分画像と、その画像に関連付けられた識別子との組を、通信ネットワークを介して画像分析装置に送信する機能と、
をさらに備える、
請求項1に記載の映像ストリーム処理装置。
A function of generating a background difference image and an inter-frame difference image corresponding to each image;
For each image, a function of transmitting a set of a corresponding background difference image or a corresponding inter-frame difference image and an identifier associated with the image to the image analysis apparatus via a communication network;
Further comprising
The video stream processing apparatus according to claim 1.
前記識別子は、各画像について、その画像を取得した後、背景差分画像およびフレーム間差分画像を生成する前に取得される、
請求項2に記載の映像ストリーム処理装置。
The identifier is acquired for each image after acquiring the image and before generating the background difference image and the inter-frame difference image.
The video stream processing apparatus according to claim 2.
前記識別子はタイムスタンプである、請求項1〜3のいずれか一項に記載の映像ストリーム処理装置。   The video stream processing apparatus according to claim 1, wherein the identifier is a time stamp. コンピュータを、請求項1〜4のいずれか一項に記載の映像ストリーム処理装置として機能させる映像ストリーム処理プログラム。 A video stream processing program for causing a computer to function as the video stream processing device according to any one of claims 1 to 4 . 請求項1〜4のいずれか一項に記載の映像ストリーム処理装置と、
前記画像分析装置と、
画像加工装置と
を備える、映像監視システムであって、
前記映像ストリーム処理装置は、さらに、前記映像ストリームを前記画像加工装置に送信する機能を備え、
前記画像分析装置は、画像のうち、所定の判定基準を満たすものについて、その画像に関連付けられた識別子および判定結果を出力する機能を備え、
前記画像加工装置は、前記画像分析装置からの出力に応じて、各画像に加工を行う機能を備える、
映像監視システム。
The video stream processing device according to any one of claims 1 to 4 ,
The image analyzer;
An image monitoring system comprising an image processing device,
The video stream processing device further includes a function of transmitting the video stream to the image processing device,
The image analysis device has a function of outputting an identifier and a determination result associated with an image that satisfies a predetermined determination criterion among images,
The image processing device has a function of processing each image according to an output from the image analysis device,
Video surveillance system.
JP2017003492A 2017-01-12 2017-01-12 Video stream processing apparatus, video stream processing program, and video monitoring system Active JP6423023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017003492A JP6423023B2 (en) 2017-01-12 2017-01-12 Video stream processing apparatus, video stream processing program, and video monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017003492A JP6423023B2 (en) 2017-01-12 2017-01-12 Video stream processing apparatus, video stream processing program, and video monitoring system

Publications (2)

Publication Number Publication Date
JP2018113618A JP2018113618A (en) 2018-07-19
JP6423023B2 true JP6423023B2 (en) 2018-11-14

Family

ID=62912638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017003492A Active JP6423023B2 (en) 2017-01-12 2017-01-12 Video stream processing apparatus, video stream processing program, and video monitoring system

Country Status (1)

Country Link
JP (1) JP6423023B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023152889A1 (en) * 2022-02-10 2023-08-17 日本電気株式会社 Monitoring device, monitoring system, monitoring method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0397080A (en) * 1989-09-11 1991-04-23 Secom Co Ltd Picture monitoring device
JP4292371B2 (en) * 2003-03-14 2009-07-08 オムロン株式会社 Mobile monitoring device
JP4315827B2 (en) * 2004-01-29 2009-08-19 株式会社日立国際電気 Image display method, image display apparatus, and image display program
JP2009088666A (en) * 2007-09-27 2009-04-23 Victor Co Of Japan Ltd Image processor
JP2009246917A (en) * 2008-04-01 2009-10-22 Hitachi Ltd Video display device, and video processing apparatus
US8744216B2 (en) * 2010-03-18 2014-06-03 Panasonic Corporation Omnidirectional image processing device and method using warp processing for enhanced object visibility
JP5911227B2 (en) * 2011-07-12 2016-04-27 キヤノン株式会社 Determination apparatus, determination method, and program
US10769913B2 (en) * 2011-12-22 2020-09-08 Pelco, Inc. Cloud-based video surveillance management system
JP6705102B2 (en) * 2014-12-25 2020-06-03 三菱電機株式会社 Imaging device installation support device, imaging device installation support method, and video recording/reproducing device

Also Published As

Publication number Publication date
JP2018113618A (en) 2018-07-19

Similar Documents

Publication Publication Date Title
US8982208B2 (en) Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method
JP2017534974A (en) Docking system
CN101815197B (en) Image display system, image display apparatus, and control method for image display apparatus
US10728531B2 (en) Image display system, image display apparatus, image display method, and storage medium
US20160027402A1 (en) Wireless communications system, and display apparatus
CN107977922B (en) Image analysis method, device and system
US11586286B1 (en) System and method for navigating on an augmented reality display
WO2023131105A1 (en) Display control method and apparatus, and display device and computer-readable medium
CN111629264A (en) Web-based separate front-end image rendering method
US11977905B2 (en) System and method for updating augmented reality navigation instructions based on a detected error
JP6423023B2 (en) Video stream processing apparatus, video stream processing program, and video monitoring system
US20130179910A1 (en) Terminal device, content display method for terminal device, server device, display data transmission method for server device, and ranking information transmission method for server device
CN110717994A (en) Method for realizing remote video interaction and related equipment
CN112598938A (en) Cognitive function training system, method, device, equipment and storage medium based on augmented reality
CN113778360A (en) Screen projection method and electronic equipment
CN113219668B (en) Method and device for refreshing screen of head-mounted display device and electronic device
EP2773127A1 (en) System for visualizing data
WO2020039897A1 (en) Station monitoring system and station monitoring method
CN113784067B (en) Character superposition method and device, storage medium and electronic device
WO2021063070A1 (en) Communication method and apparatus
JP2010128567A (en) Cursor movement control method and device, and program
CN1983159A (en) Network display apparatus, computer and control method thereof
KR20040006612A (en) Video geographic information system
CN106657705A (en) Mobile-terminal-based method and system for transmitting image to display screen
CN113099212A (en) 3D display method, device, computer equipment and storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181017

R150 Certificate of patent or registration of utility model

Ref document number: 6423023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250