JP2008141700A - Monitoring system and method, and program - Google Patents

Monitoring system and method, and program Download PDF

Info

Publication number
JP2008141700A
JP2008141700A JP2006328685A JP2006328685A JP2008141700A JP 2008141700 A JP2008141700 A JP 2008141700A JP 2006328685 A JP2006328685 A JP 2006328685A JP 2006328685 A JP2006328685 A JP 2006328685A JP 2008141700 A JP2008141700 A JP 2008141700A
Authority
JP
Japan
Prior art keywords
image
unit
moving image
imaging
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006328685A
Other languages
Japanese (ja)
Other versions
JP4977454B2 (en
Inventor
Takayuki Udagawa
隆之 宇田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006328685A priority Critical patent/JP4977454B2/en
Publication of JP2008141700A publication Critical patent/JP2008141700A/en
Application granted granted Critical
Publication of JP4977454B2 publication Critical patent/JP4977454B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring system capable of appropriately monitoring an area high in probability relating to the action of a suspicious person and preventing the data amount of monitoring images from increasing more than needed. <P>SOLUTION: This monitoring system includes: an imaging unit for picking up a motion picture in a monitored area; an object extraction unit for extracting an object meeting predetermined conditions from the motion picture picked up by the imaging unit; a moving direction specifying unit for specifying a moving direction of the object extracted by the object extraction unit based on image contents of the motion picture picked up by the imaging unit; an image generating unit which generates a motion picture constitutive image which includes the object and of which an image width in the moving direction is wider than an image width vertical to the moving direction by trimming a motion picture constitutive image included in the motion picture picked up by the imaging unit; and an output unit for outputting the motion picture including the motion picture constitutive image generated by the image generating unit. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、監視システム、監視方法、及びプログラムに関する。特に本発明は、画像により監視する監視システム及び監視方法、並びに監視システム用のプログラムに関する。   The present invention relates to a monitoring system, a monitoring method, and a program. In particular, the present invention relates to a monitoring system and a monitoring method for monitoring by an image, and a program for the monitoring system.

動画圧縮部において検出された動きベクトルが所定値未満の期間には、撮像部に供給される同期信号の周期を比較的長くすることで撮像部による撮像のフレームレートを低下させ、動きベクトルが所定値以上の期間には、同期信号の周期を比較的短くすることで撮像のフレームレートを高くする撮影装置が知られている(例えば、特許文献1参照。)。
特開2004−200989号公報
During a period when the motion vector detected by the video compression unit is less than a predetermined value, the period of the synchronization signal supplied to the imaging unit is made relatively long to lower the frame rate of imaging by the imaging unit, so that the motion vector is predetermined An imaging device is known that increases the frame rate of imaging by relatively shortening the period of the synchronization signal during a period longer than the value (see, for example, Patent Document 1).
JP 2004-200909 A

特許文献1に記載の撮影装置は、動きが検出されていない間は低フレームレートで撮像し、撮影している低フレームレートの画像から所定値以上の動きが検出されると、撮像のフレームレートを高くしたり、撮像の解像度を高める。しかしながら、特許文献1に記載の撮影装置によると、不審者の行為と関係のない領域の画像の解像度も高めてしまう場合がある。このため、特許文献1に記載の撮影装置では、必要以上にデータ量が増大してしまうという課題があった。   The imaging device described in Patent Literature 1 captures images at a low frame rate while no motion is detected, and when a motion of a predetermined value or more is detected from the captured low frame rate image, the imaging frame rate Or increase the resolution of imaging. However, according to the photographing apparatus described in Patent Document 1, there is a case where the resolution of an image in an area that is not related to the suspicious person's action is also increased. For this reason, the imaging device described in Patent Document 1 has a problem that the data amount increases more than necessary.

そこで本発明は、上記課題を解決することができる監視システム、監視方法、及びプログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。   Then, an object of this invention is to provide the monitoring system, the monitoring method, and program which can solve the said subject. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.

上記課題を解決するために、本発明の第1の形態における監視システムは、監視領域の動画を撮像する撮像部と、撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部と、撮像部が撮像した動画の画像内容に基づいて、オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部と、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像を、撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する画像生成部と、画像生成部が生成した動画構成画像を含む動画を出力する出力部とを備える。   In order to solve the above-described problem, the monitoring system according to the first aspect of the present invention extracts an image that captures a moving image of a monitoring area and an object that meets a predetermined condition from the moving image captured by the image capturing unit. An object extracting unit, a motion direction specifying unit for specifying the moving direction of the object extracted by the object extracting unit based on the image content of the moving image captured by the imaging unit, and an image width of the moving direction including the object. An image generation unit that generates a moving image composition image larger than the image width in the vertical direction from the moving image composition image included in the moving image captured by the imaging unit, and a moving image including the moving image composition image generated by the image generation unit And an output unit.

撮像部が撮像した動画に含まれる複数の動画構成画像に基づいて、動き方向特定部が特定した方向への、複数の動画構成画像の間におけるオブジェクトの動き量を算出する動き量算出部をさらに備え、画像生成部は、動き量算出部が算出した動き量がより大きい場合に、動き方向特定部が特定した動き方向の画像幅がより大きい動画構成画像を、撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成してよい。   A motion amount calculating unit that calculates a motion amount of the object between the plurality of moving image constituent images in the direction specified by the motion direction specifying unit based on the plurality of moving image constituent images included in the moving image captured by the imaging unit; The image generation unit includes, in the moving image captured by the image capturing unit, a moving image constituent image having a larger image width in the motion direction specified by the motion direction specifying unit when the motion amount calculated by the motion amount calculating unit is larger. It may be generated by trimming from a moving image constituent image.

画像生成部は、オブジェクトを含み、オブジェクトに対する動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を、撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成してよい。   The image generation unit includes an object, and the moving image configuration included in the moving image captured by the imaging unit includes a moving image configuration image in which the region on the moving direction side with respect to the object is wider than the region on the opposite side of the moving direction with respect to the object The image may be generated by trimming.

本発明の第2の形態における監視方法は、監視領域の動画を撮像する撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出段階と、撮像部が撮像した動画の画像内容に基づいて、オブジェクト抽出段階において抽出されたオブジェクトの動き方向を特定する動き方向特定段階と、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像を含む動画を撮像部に撮像させるべく撮像部の撮像範囲を設定して、撮像部に監視領域を撮像させる撮像制御段階と、撮像制御段階において撮像範囲が設定された状態で撮像部が撮像した動画を出力する出力段階とを備える。   The monitoring method according to the second aspect of the present invention includes an object extraction stage for extracting an object that meets a predetermined condition from a moving image captured by a capturing unit that captures a moving image of a monitoring area, and a moving image captured by the imaging unit. A moving direction specifying step for specifying the moving direction of the object extracted in the object extracting step based on the image content of the image, and a moving image constituting image including the object, wherein the image width in the moving direction is larger than the image width in the direction perpendicular to the moving direction. The imaging unit sets the imaging range of the imaging unit so that the imaging unit captures a moving image including the image, and the imaging unit captures an image with the imaging range set in the imaging control step, and imaging the monitoring area in the imaging unit An output stage for outputting a moving image.

本発明の第3の形態によると、監視システム用のプログラムであって、監視システムを、監視領域の動画を撮像する撮像部、撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部、撮像部が撮像した動画の画像内容に基づいて、オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像を含む動画を撮像部に撮像させるべく撮像部の撮像範囲を設定して、撮像部に監視領域を撮像させる撮像制御部、撮像制御部によって撮像範囲が設定された状態で撮像部が撮像した動画を出力する出力部として機能させる。   According to the third aspect of the present invention, there is provided a program for a monitoring system, wherein the monitoring system includes an imaging unit that captures a moving image of a monitoring area, and an object that conforms to a predetermined condition from the moving image captured by the imaging unit. An object extraction unit for extracting the image, a motion direction specifying unit for specifying the movement direction of the object extracted by the object extraction unit based on the image content of the moving image captured by the imaging unit, and the image width of the movement direction includes the movement direction. The imaging range is set by the imaging control unit and the imaging control unit that set the imaging range of the imaging unit so that the imaging unit captures a moving image including a moving image configuration image larger than the vertical image width, and causes the imaging unit to capture the monitoring area. It is made to function as an output unit that outputs a moving image captured by the imaging unit in the set state.

本発明の第4の形態における監視システムは、監視領域の動画を撮像する撮像部と、撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部と、撮像部が撮像した動画に基づいて、オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部と、オブジェクト抽出部が抽出したオブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を、撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する画像生成部と、画像生成部が生成した動画構成画像を含む動画を出力する出力部とを備える。   A monitoring system according to a fourth aspect of the present invention includes an imaging unit that captures a moving image of a monitoring area, an object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit, and an imaging unit Includes a motion direction identifying unit that identifies the motion direction of the object extracted by the object extraction unit based on the moving image captured by the object extraction unit, and an object extracted by the object extraction unit. An image generation unit that generates a moving image constituent image wider than a region on the side opposite to the moving direction from a moving image constituent image included in the moving image captured by the imaging unit, and a moving image constituent image generated by the image generation unit And an output unit for outputting a moving image including.

本発明の第5の形態における監視方法は、監視領域の動画を撮像する撮像段階と、撮像段階において撮像された動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出段階と、撮像段階において撮像された動画に基づいて、オブジェクト抽出段階において抽出されたオブジェクトの動き方向を特定する動き方向特定段階と、オブジェクト抽出段階において抽出されたオブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を、撮像段階において撮像された動画に含まれる動画構成画像からトリミングによって生成する画像生成段階と、画像生成段階において生成された動画構成画像を含む動画を出力する出力段階とを備える。   The monitoring method according to the fifth aspect of the present invention includes an imaging stage for capturing a moving image of a monitoring area, an object extraction stage for extracting an object that meets a predetermined condition from the moving image captured in the imaging stage, and imaging A moving direction specifying step for specifying the moving direction of the object extracted in the object extracting step based on the moving image captured in the step, and an object extracted in the object extracting step, In an image generation stage in which a moving image constituent image is generated by trimming from a moving image constituent image included in the moving image captured in the imaging step, the moving image constituent image is wider than the region on the side opposite to the moving direction with respect to the object. An output stage for outputting a moving image including the generated moving image composition image.

本発明の第6の形態によると、監視システム用のプログラムであって、監視システムを、監視領域の動画を撮像する撮像部、撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部、撮像部が撮像した動画に基づいて、オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部、オブジェクト抽出部が抽出したオブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を、撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する画像生成部、画像生成部が生成した動画構成画像を含む動画を出力する出力部として機能させる。   According to the sixth aspect of the present invention, there is provided a program for a monitoring system, the imaging system capturing an image of a moving image in the monitoring area, and an object conforming to a predetermined condition from the moving image captured by the imaging unit. Including an object extraction unit that extracts an object, a motion direction specification unit that specifies a movement direction of the object extracted by the object extraction unit based on a moving image captured by the imaging unit, and an object extracted by the object extraction unit. Image generation unit that generates a moving image composition image in which the region on the direction side is wider than the region on the opposite side of the moving direction with respect to the object from the moving image composition image included in the moving image captured by the imaging unit, image generation The unit functions as an output unit that outputs a moving image including the moving image composing image generated by the unit.

本発明の第7の形態における監視システムは、監視領域の動画を撮像する撮像部と、撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部と、撮像部が撮像した動画に基づいて、オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部と、オブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を撮像部に撮像させるべく撮像部の撮像範囲を設定して、撮像部に撮像させる撮像制御部と、撮像制御部によって撮像範囲が設定された状態で撮像部が撮像した動画を出力する出力部と
を備える監視システム。
A monitoring system according to a seventh aspect of the present invention includes an imaging unit that captures a moving image of a monitoring area, an object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit, and an imaging unit Based on the video captured by the object extraction unit, the movement direction specifying unit that specifies the movement direction of the object extracted by the object extraction unit, and the region on the side of the movement direction with respect to the object is the movement direction with respect to the object. In the state where the imaging range of the imaging unit is set so that the imaging unit captures a moving image composition image wider than the region on the opposite direction side, and the imaging range is set by the imaging control unit. A monitoring system comprising: an output unit that outputs a moving image captured by an imaging unit.

本発明の第8の形態における監視方法は、監視領域の動画を撮像する撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出段階と、撮像部が撮像した動画に基づいて、オブジェクト抽出段階において抽出されたオブジェクトの動き方向を特定する動き方向特定段階と、オブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を撮像部に撮像させるべく撮像部の撮像範囲を設定して、撮像部に撮像させる撮像制御段階と、撮像制御段階において撮像範囲が設定された状態で撮像部が撮像した動画を出力する出力段階とを備える。   The monitoring method according to the eighth aspect of the present invention includes an object extraction stage that extracts an object that meets a predetermined condition from a moving image captured by a capturing unit that captures a moving image of a monitoring area, and a moving image captured by the imaging unit. Based on the movement direction specifying step for specifying the movement direction of the object extracted in the object extraction step, and the region on the side of the movement direction with respect to the object is opposite to the movement direction with respect to the object. The imaging unit sets the imaging range of the imaging unit to cause the imaging unit to capture a moving image composition image wider than the area on the side, and the imaging unit sets the imaging range in the imaging control stage in which the imaging range is set. And an output stage for outputting the captured moving image.

本発明の第9の形態によると、監視システム用のプログラムであって、監視システムを、監視領域の動画を撮像する撮像部、撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部、撮像部が撮像した動画に基づいて、オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部、オブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を撮像部に撮像させるべく撮像部の撮像範囲を設定して、撮像部に撮像させる撮像制御部、撮像制御部によって撮像範囲が設定された状態で撮像部が撮像した動画を出力する出力部として機能させる。   According to the ninth aspect of the present invention, there is provided a program for a monitoring system, wherein the monitoring system includes an imaging unit that captures a moving image of a monitoring area, and an object that conforms to a predetermined condition from the moving image captured by the imaging unit. An object extracting unit for extracting the object, a moving direction specifying unit for specifying the moving direction of the object extracted by the object extracting unit based on the moving image captured by the imaging unit, and an area on the side of the moving direction with respect to the object An imaging control unit that sets an imaging range of the imaging unit so that the imaging unit captures a moving image constituent image wider than an area on the opposite side of the moving direction with respect to the object, and captures the image by the imaging control unit It functions as an output unit that outputs a moving image captured by the imaging unit with the range set.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

本発明によれば、不審者の行為に関連する蓋然性が高い領域を適切に監視するとともに、監視画像のデータ量が必要以上に増えることを未然に防ぐことができる監視システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, while monitoring the area | region with high probability relevant to a suspicious person's action appropriately, the monitoring system which can prevent that the data amount of a monitoring image increases more than necessary can be provided. .

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the invention according to the scope of claims, and all combinations of features described in the embodiments are included. It is not necessarily essential for the solution of the invention.

図1は、一実施形態に係る監視システム110の利用環境の一例を示す。監視システム110は、複数の撮像装置100a〜cと、伝送経路140と、サーバ170と、複数の表示装置180、181、182・・・とを備える。サーバ170及び複数の表示装置180、181、182・・・は、監視領域150、151、152・・・の遠方の監視室160に設けられる。なお、撮像装置100a〜cは、複数の監視領域150、151、152・・・を撮像すべく、複数の監視領域150、151、152・・・のそれぞれに設けられる。以後、複数の監視領域150、151、152・・・のそれぞれに設けられる撮像装置100a〜cを撮像装置100と総称する。   FIG. 1 shows an example of a usage environment of a monitoring system 110 according to an embodiment. The monitoring system 110 includes a plurality of imaging devices 100a to 100c, a transmission path 140, a server 170, and a plurality of display devices 180, 181, 182,. The server 170 and the plurality of display devices 180, 181, 182,... Are provided in a monitoring room 160 far from the monitoring areas 150, 151, 152,. The imaging devices 100a to 100c are provided in each of the plurality of monitoring regions 150, 151, 152,... To capture the plurality of monitoring regions 150, 151, 152,. Hereinafter, the imaging devices 100 a to 100 c provided in each of the plurality of monitoring areas 150, 151, 152.

撮像装置100は、監視領域150、151、152・・・を撮像した動画を伝送経路140を通じてサーバ170に送信する。サーバ170は、撮像装置100から受け取った動画を、表示装置180、181、182・・・に表示させる。表示装置180、181、182・・・は、それぞれ監視領域150、151、152・・・の動画を表示する。   The image capturing apparatus 100 transmits moving images obtained by capturing the monitoring areas 150, 151, 152... To the server 170 through the transmission path 140. The server 170 displays the moving image received from the imaging device 100 on the display devices 180, 181, 182,. The display devices 180, 181, 182,... Display moving images in the monitoring areas 150, 151, 152,.

撮像装置100は、表示装置180、181、182・・・が表示することができるモニタ解像度より高い解像度のフレーム画像を、表示装置180、181、182・・・が表示することができる動画の表示レートであるモニタ表示レートより高いフレームレートで動画を撮像する。そして、撮像装置100は、撮像した動画に人物又は変化が検出されていない間、撮像装置100が撮像した動画をモニタ解像度以下の解像度のフレーム画像がモニタ表示レート以下のレートで表示される動画に変換して、サーバ170に送信し続ける。   The imaging apparatus 100 displays a moving image that can be displayed by the display devices 180, 181, 182... With a frame image having a higher resolution than the monitor resolution that can be displayed by the display devices 180, 181, 182. A moving image is captured at a frame rate higher than the monitor display rate, which is the rate. The imaging device 100 converts the moving image captured by the imaging device 100 into a moving image in which a frame image having a resolution equal to or lower than the monitor resolution is displayed at a rate equal to or lower than the monitor display rate while no person or change is detected in the captured moving image. Convert and continue to send to server 170.

そして、撮像装置100は、動画に人物又は変化が検出されると、撮像した高い解像度・高フレームレートの動画を、動画に人物又は変化が検出されなくなるまでサーバ170に送信し続ける。サーバ170は、撮像装置100から受け取った動画を記録するとともに、受け取った動画をモニタ解像度及びモニタ表示レートに合わせて表示装置180、181、182・・・に表示させる。   Then, when a person or change is detected in the moving image, the imaging apparatus 100 continues to transmit the captured high resolution / high frame rate moving image to the server 170 until no person or change is detected in the moving image. The server 170 records the moving image received from the imaging device 100 and displays the received moving image on the display devices 180, 181, 182,... According to the monitor resolution and the monitor display rate.

例えば、撮像装置100は、撮像して得られた複数のフレーム画像を時間的に平均化して得られた平均化画像から変化を検出したり、平均化画像に含まれる人物を検出する。例えば、撮像装置100は、時間的に連続する平均化画像の間において変化が検出された領域の面積が所定の閾値以上である場合に、動画に変化がある旨を検出する。そして動画から人物又は変化が検出されると、撮像装置100は、少なくとも人物又は変化が検出された部分領域において撮像時の解像度を有するフレーム画像を生成して、生成したフレーム画像を含む動画をサーバ170に送信する。また、撮像装置100は、人物の動きを検出した場合には、少なくとも人物の移動方向の側が広くなるよう設定された部分領域において撮像した解像度を有するフレーム画像を生成して、生成したフレーム画像を含む動画をサーバ170に送信する。   For example, the imaging apparatus 100 detects a change from an averaged image obtained by averaging a plurality of frame images obtained by imaging temporally, or detects a person included in the averaged image. For example, the imaging apparatus 100 detects that there is a change in the moving image when the area of a region where a change is detected between temporally averaged images is equal to or greater than a predetermined threshold. When a person or change is detected from the moving image, the imaging apparatus 100 generates a frame image having resolution at the time of imaging in at least a partial region where the person or change is detected, and the moving image including the generated frame image is stored in the server. To 170. In addition, when detecting the movement of a person, the imaging apparatus 100 generates a frame image having a resolution captured at least in a partial region set so that the moving direction side of the person is widened, and the generated frame image is The moving image including this is transmitted to the server 170.

また、撮像装置100は、人物又は変化が検出された部分領域をフレーム画像とする動画をサーバ170に送信してよい。このとき撮像装置100は、人物又は変化が検出された部分領域以外の領域の部分画像を保持しておく。上記のように、撮像装置100は、人物又は変化が検出されなくなると、画質を低減したフレーム画像をサーバ170に送信するので、人物又は変化が検出されなくなる期間には、伝送経路140が伝送するデータ量は低減する。したがって、撮像装置100は、当該期間に、保持しておいた部分画像をサーバ170に送信してもよい。   In addition, the imaging apparatus 100 may transmit, to the server 170, a moving image having a person or a partial area in which a change is detected as a frame image. At this time, the imaging apparatus 100 holds a partial image of a region other than the partial region in which a person or a change is detected. As described above, the image capturing apparatus 100 transmits a frame image with reduced image quality to the server 170 when no person or change is detected. Therefore, the transmission path 140 transmits during the period in which no person or change is detected. Data volume is reduced. Therefore, the imaging apparatus 100 may transmit the retained partial image to the server 170 during the period.

また、サーバ170は、伝送経路140が伝送することができる時間あたりのデータ量と、撮像装置100が送信する時間あたりのデータ量との差がより小さい場合に、より大きい閾値を撮像装置100に設定させる。これにより、伝送経路140を伝送するデータ量が増加して動画データの到達が遅延することを未然に防ぐことができる。   Further, the server 170 gives a larger threshold value to the image capturing apparatus 100 when the difference between the data amount per time that the transmission path 140 can transmit and the data amount per time transmitted by the image capturing apparatus 100 is smaller. Let it be set. Thereby, it is possible to prevent the amount of data transmitted through the transmission path 140 from increasing and the arrival of moving image data from being delayed.

なお、監視領域150、151、152・・・は、異なる建物内の空間であってよいし、同じ建物内の異なる空間であってもよい。例えば、監視領域150、151、152・・・は、店舗内の陳列棚の間の通路であってよい。また、監視領域150、151、152は、建物内の空間に限らず、建物によって囲われていない開放された空間であってよいことは言うまでもない。   The monitoring areas 150, 151, 152... May be spaces in different buildings, or may be different spaces in the same building. For example, the monitoring areas 150, 151, 152... May be passages between display shelves in the store. Needless to say, the monitoring areas 150, 151, and 152 are not limited to spaces in buildings, but may be open spaces that are not surrounded by buildings.

図2は、撮像装置100のブロック構成の一例を示す。撮像装置100は、撮像部200、平均化画像生成部202、撮像制御部210、オブジェクト領域特定部212、画像保持部214、差分画像生成部216、画像特徴量抽出部220、適合判断部230、条件格納部240、条件設定部242、許容データ量取得部250、画質選択部260、画質格納部262、出力制御部270、画像生成部280、及び出力部290を備える。適合判断部230は、一致度算出部232を有する。また、画像生成部280は、出力動画生成部282を有する。図3は、画像特徴量抽出部220のブロック構成の一例を示す。画像特徴量抽出部220は、変化量算出部221、動き量算出部222、動き方向特定部223、特定色面積算出部224、及びオブジェクト抽出部225を有する。   FIG. 2 shows an example of a block configuration of the imaging apparatus 100. The imaging apparatus 100 includes an imaging unit 200, an averaged image generation unit 202, an imaging control unit 210, an object region specification unit 212, an image holding unit 214, a difference image generation unit 216, an image feature amount extraction unit 220, a conformity determination unit 230, A condition storage unit 240, a condition setting unit 242, an allowable data amount acquisition unit 250, an image quality selection unit 260, an image quality storage unit 262, an output control unit 270, an image generation unit 280, and an output unit 290 are provided. The conformity determination unit 230 includes a matching degree calculation unit 232. Further, the image generation unit 280 includes an output moving image generation unit 282. FIG. 3 shows an example of a block configuration of the image feature quantity extraction unit 220. The image feature amount extraction unit 220 includes a change amount calculation unit 221, a motion amount calculation unit 222, a motion direction specification unit 223, a specific color area calculation unit 224, and an object extraction unit 225.

撮像部200は、監視領域の画像を撮像する。具体的には、撮像部200は、監視領域の動画を撮像する。平均化画像生成部202は、撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化した平均化画像を生成する。例えば、平均化画像生成部202は、複数の動画構成画像を画素毎に平均化することによって、平均化画像を生成する。なお、条件格納部240は、異常が生じていると判断される動画に含まれる複数の動画構成画像が平均化された平均化画像が適合すべき条件を格納する。   The imaging unit 200 captures an image of the monitoring area. Specifically, the imaging unit 200 captures a moving image in the monitoring area. The averaged image generation unit 202 generates an averaged image obtained by averaging a plurality of moving image constituent images included in the moving image captured by the imaging unit 200. For example, the averaged image generation unit 202 generates an averaged image by averaging a plurality of moving image constituent images for each pixel. Note that the condition storage unit 240 stores a condition to which an averaged image obtained by averaging a plurality of moving image constituent images included in a moving image determined to be abnormal is to be matched.

そして、適合判断部230は、平均化画像生成部202が生成した平均化画像が条件に適合するか否かを判断する。そして、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、撮像部200が撮像した動画に含まれる動画構成画像から、適合判断部230が平均化画像が条件に適合する旨を判断した場合より低画質の動画構成画像を含む出力動画を生成する。そして、出力部290は、出力動画生成部282が生成した出力動画を出力する。例えば、出力部290は、複数の撮像部200が撮像した監視領域の動画を伝送する伝送経路140に、出力動画生成部282が生成した出力動画を出力する。なお、出力部290は、撮像部200が撮像した監視領域の動画を出力してもよい。例えば、出力部290は、平均化画像が条件に適合した旨を適合判断部230が判断した場合には、撮像部200が撮像した動画を出力してよい。   Then, the suitability determining unit 230 determines whether or not the averaged image generated by the averaged image generating unit 202 meets the conditions. Then, when the matching determination unit 230 determines that the averaged image does not match the condition, the output moving image generation unit 282 determines that the matching determination unit 230 calculates the average from the moving image constituent images included in the moving image captured by the imaging unit 200. An output moving image including a moving image constituent image with a lower image quality is generated than when it is determined that the converted image meets the conditions. Then, the output unit 290 outputs the output moving image generated by the output moving image generating unit 282. For example, the output unit 290 outputs the output moving image generated by the output moving image generation unit 282 to the transmission path 140 that transmits the moving image of the monitoring area captured by the plurality of imaging units 200. Note that the output unit 290 may output a moving image of the monitoring area captured by the imaging unit 200. For example, the output unit 290 may output a moving image captured by the image capturing unit 200 when the conformity determining unit 230 determines that the averaged image meets the conditions.

具体的には、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、平均化画像が条件に適合する旨を適合判断部230が判断した場合より低い解像度の動画構成画像を含む出力動画を生成する。また、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、平均化画像が条件に適合する旨を適合判断部230が判断した場合より少ない階調数の動画構成画像を含む出力動画を生成してよい。また、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、撮像部200が撮像した動画から、平均化画像が条件に適合する旨を適合判断部230が判断した場合より低い表示レートの出力動画を生成してよい。   Specifically, when the suitability determining unit 230 determines that the averaged image does not conform to the condition, the output moving image generating unit 282 determines that the averaged image conforms to the condition. An output moving image including a moving image constituent image having a lower resolution is generated. In addition, the output moving image generation unit 282, when the conformity determination unit 230 determines that the averaged image does not conform to the condition, has fewer floors than when the conformity determination unit 230 determines that the averaged image conforms to the condition. An output moving image including a moving image constituent image of the logarithm may be generated. Further, the output moving image generation unit 282 determines that the averaged image meets the condition from the moving image captured by the imaging unit 200 when the matching determination unit 230 determines that the averaged image does not match the condition. An output moving image with a lower display rate than that determined by the unit 230 may be generated.

なお、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、平均化画像生成部202が生成した平均化画像を含む出力動画を生成し、平均化画像が条件に適合する旨を適合判断部230が判断した場合に撮像部200が撮像した動画を出力動画としてよい。   Note that the output moving image generation unit 282 generates an output moving image including the averaged image generated by the averaged image generation unit 202 when the conformity determination unit 230 determines that the averaged image does not conform to the condition. The moving image captured by the image capturing unit 200 when the conformity determining unit 230 determines that the converted image matches the condition may be used as the output moving image.

差分画像生成部216は、平均化画像生成部202が生成した第1平均化画像と、当該第1平均化画像を生成するために用いられたいずれの動画構成画像より後に撮像された動画構成画像を用いて平均化画像生成部202が生成した第2平均化画像との間の差分画像を生成する。そして、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、差分画像生成部216が生成した差分画像を含む出力動画を生成し、平均化画像が条件に適合する旨を適合判断部230が判断した場合に撮像部200が撮像した動画を出力動画としてよい。   The difference image generation unit 216 includes a first averaged image generated by the averaged image generation unit 202 and a moving image constituent image captured after any moving image constituent image used to generate the first averaged image. Is used to generate a difference image from the second averaged image generated by the averaged image generation unit 202. Then, the output moving image generation unit 282 generates an output moving image including the difference image generated by the difference image generation unit 216 when the matching determination unit 230 determines that the averaged image does not match the condition, and the averaged image The moving image captured by the imaging unit 200 when the conformity determining unit 230 determines that the image matches the condition may be used as the output moving image.

許容データ量取得部250は、出力部290から出力することが許容されている単位時間あたりのデータ量を取得する。例えば、許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができるデータ量、出力制御装置172が単位時間当たりに処理することができるデータ量容量を取得してよい。そして、出力動画生成部282は、平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、更に許容データ量取得部250が取得したデータ量が予め定められた値より小さいことを条件として、差分画像生成部216が生成した差分画像を含む出力動画を生成する。   The allowable data amount acquisition unit 250 acquires the data amount per unit time permitted to be output from the output unit 290. For example, the allowable data amount acquisition unit 250 may acquire the amount of data that the transmission path 140 can transmit per unit time and the amount of data that the output control device 172 can process per unit time. The output moving image generation unit 282 further determines that the data amount acquired by the allowable data amount acquisition unit 250 is smaller than a predetermined value when the conformity determination unit 230 determines that the averaged image does not conform to the conditions. As a condition, an output moving image including the difference image generated by the difference image generation unit 216 is generated.

なお、適合判断部230は、平均化画像における複数の部分領域のそれぞれが条件に適合するか否かを判断してよい。そして、出力動画生成部282は、適合判断部230が条件に適合する旨を判断した領域である適合領域以外の領域において適合領域より低画質な動画構成画像を含む出力動画を生成してよい。   Note that the suitability determination unit 230 may determine whether each of the plurality of partial regions in the averaged image meets the condition. Then, the output moving image generation unit 282 may generate an output moving image including a moving image constituent image having a lower image quality than the matching region in a region other than the matching region, which is a region where the matching determination unit 230 determines that the condition is met.

なお、オブジェクト抽出部225は、撮像部200が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出する。具体的には、オブジェクト抽出部225は、撮像部200が撮像した動画に含まれる動画構成画像から、条件格納部240が格納している条件に適合するオブジェクトを抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した動画をより低画質の動画に変換する。そして、出力部290は、画像生成部280が変換して得られた動画を出力する。この場合、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した動画をより低い解像度の動画に変換してよい。   The object extraction unit 225 extracts an object that meets a predetermined condition from the moving image captured by the imaging unit 200. Specifically, the object extraction unit 225 extracts an object that meets the conditions stored in the condition storage unit 240 from the moving image configuration image included in the moving image captured by the imaging unit 200. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the moving image captured by the imaging unit 200 into a lower quality moving image. Then, the output unit 290 outputs the moving image obtained by the conversion by the image generation unit 280. In this case, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 may convert the moving image captured by the imaging unit 200 into a lower resolution moving image.

また、動き量算出部222は、撮像部200が撮像した動画に含まれる複数の動画構成画像の間における、オブジェクト抽出部225が抽出したオブジェクトの動き量を算出する。条件格納部240は、抽出されるべきオブジェクトが有するべきオブジェクトの動き量の下限値を格納している。例えば、条件格納部240は、抽出されるべきオブジェクトが有するべき、連続するフレーム間におけるオブジェクトの動き量の下限値を格納している。そして、オブジェクト抽出部225は、動き量算出部222が算出したオブジェクトの動き量が条件格納部240が格納している動き量の下限値以上であるオブジェクトを、撮像部200が撮像した動画に含まれる複数の動画構成画像から抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した動画をより低い解像度の動画に変換する。具体的には、画像生成部280は、動き量算出部222が算出したオブジェクトの動き量がより大きい場合に、撮像部200が撮像した動画をより低い表示レートの動画に変換する。   In addition, the motion amount calculation unit 222 calculates the amount of motion of the object extracted by the object extraction unit 225 among a plurality of moving image constituent images included in the moving image captured by the imaging unit 200. The condition storage unit 240 stores a lower limit value of the amount of movement of the object that the object to be extracted should have. For example, the condition storage unit 240 stores a lower limit value of the amount of motion of the object between consecutive frames that the object to be extracted should have. Then, the object extraction unit 225 includes an object whose motion amount calculated by the motion amount calculation unit 222 is equal to or larger than the lower limit value of the motion amount stored in the condition storage unit 240 in the moving image captured by the imaging unit 200. Extracted from a plurality of moving image constituent images. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the moving image captured by the imaging unit 200 into a lower resolution moving image. Specifically, the image generation unit 280 converts the moving image captured by the imaging unit 200 into a moving image having a lower display rate when the movement amount of the object calculated by the movement amount calculation unit 222 is larger.

なお、画質格納部262は、オブジェクトの大きさ及びオブジェクトの動き量に対応づけて、動画の表示レート及び動画に含まれる動画構成画像の画質の組合せを格納する。そして、画質選択部260は、オブジェクト抽出部225が抽出したオブジェクトの大きさ及び動き量算出部222が算出したオブジェクトの動き量に対応づけて画質格納部262が格納している画質及び表示レートの組合せを選択する。そして、画像生成部280は、撮像部200が撮像した動画を、画質選択部260によって選択された画質の動画構成画像が画質選択部260によって選択された表示レートで表示される動画に変換する。   The image quality storage unit 262 stores a combination of a moving image display rate and a moving image constituent image included in the moving image in association with the size of the object and the amount of movement of the object. The image quality selection unit 260 then associates the image size and display rate stored in the image quality storage unit 262 with the object size extracted by the object extraction unit 225 and the object motion amount calculated by the motion amount calculation unit 222. Select a combination. Then, the image generation unit 280 converts the moving image captured by the imaging unit 200 into a moving image in which the moving image constituent image having the image quality selected by the image quality selecting unit 260 is displayed at the display rate selected by the image quality selecting unit 260.

なお、動き方向特定部223は、撮像部200が撮像した動画の画像内容に基づいて、オブジェクト抽出部225が抽出したオブジェクトの動き方向を特定する。そして、画像生成部280は、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像を、撮像部200が撮像した動画に含まれる動画構成画像からトリミングによって生成する。そして、出力部290は、画像生成部280が生成した動画構成画像を含む動画を出力する。そして、動き量算出部222は、撮像部200が撮像した動画に含まれる複数の動画構成画像に基づいて、動き方向特定部223が特定した方向への、複数の動画構成画像の間におけるオブジェクトの動き量を算出する。そして、画像生成部280は、動き量算出部222が算出した動き量がより大きい場合に、動き方向特定部223が特定した動き方向の画像幅がより大きい動画構成画像を、撮像部200が撮像した動画に含まれる動画構成画像からトリミングによって生成する。このため、撮像装置100は、伝送経路140が伝送するデータ量が不必要に増大することを防ぎつつ、不審者の移動先の領域を適切に監視することができる監視画像を提供することができる。   Note that the movement direction identification unit 223 identifies the movement direction of the object extracted by the object extraction unit 225 based on the image content of the moving image captured by the imaging unit 200. Then, the image generation unit 280 generates, by trimming, a moving image constituent image that includes the object and whose moving image width is larger than the vertical image width from the moving image captured by the imaging unit 200. To do. And the output part 290 outputs the moving image containing the moving image structure image which the image generation part 280 produced | generated. Then, the motion amount calculation unit 222 is based on the plurality of moving image constituent images included in the moving image captured by the imaging unit 200, and the object amount between the plurality of moving image constituent images in the direction specified by the motion direction specifying unit 223. Calculate the amount of movement. Then, in the image generation unit 280, when the motion amount calculated by the motion amount calculation unit 222 is larger, the imaging unit 200 captures a moving image constituent image having a larger image width in the motion direction specified by the motion direction specification unit 223. It is generated by trimming from the moving image constituent image included in the moving image. For this reason, the imaging apparatus 100 can provide a monitoring image that can appropriately monitor the area of the suspicious person's destination while preventing an unnecessary increase in the amount of data transmitted by the transmission path 140. .

なお、条件格納部240は、異常が生じていると判断される動画に含まれる動画構成画像において検出されるべき基準画像からの変化量の下限値を格納する。そして、変化量算出部221は、撮像部200が撮像した動画における予め定められた基準画像からの変化量を算出する。例えば、変化量算出部221は、撮像部200が撮像した動画に含まれる第1動画構成画像における、第1動画構成画像より前に撮像された第2動画構成画像からの変化量を算出する。なお、変化量算出部221は、平均化画像生成部202が生成した平均化画像の、基準画像からの変化量を算出する。なお、基準画像とは、予め用意された監視領域の画像、前のタイミングで撮像部200によって撮像された動画構成画像、又は前のタイミングで生成された平均化画像であってよい。そして、適合判断部230は、変化量算出部221が算出した変化量が条件格納部240が格納している変化量の下限値以上である場合に、平均化画像が条件に適合する旨を判断する。   The condition storage unit 240 stores the lower limit value of the change amount from the reference image to be detected in the moving image constituent image included in the moving image that is determined to be abnormal. Then, the change amount calculation unit 221 calculates a change amount from a predetermined reference image in the moving image captured by the imaging unit 200. For example, the change amount calculation unit 221 calculates the change amount from the second moving image constituent image captured before the first moving image constituent image in the first moving image constituent image included in the moving image captured by the imaging unit 200. The change amount calculation unit 221 calculates the change amount from the reference image of the averaged image generated by the averaged image generation unit 202. The reference image may be an image of a monitoring area prepared in advance, a moving image constituent image captured by the imaging unit 200 at a previous timing, or an averaged image generated at a previous timing. The conformity determination unit 230 determines that the averaged image conforms to the condition when the change amount calculated by the change amount calculation unit 221 is equal to or greater than the lower limit value of the change amount stored in the condition storage unit 240. To do.

また、出力制御部270は、変化量算出部221が算出した変化量が予め定められた変化量の下限値より小さい場合に、撮像部200が撮像した動画を、変化量算出部221が算出した変化量が下限値以上である場合よりデータ量の小さい動画に変換して出力部290に出力させる。具体的には、出力制御部270は、基準画像からの変化量が下限値より小さい場合に、撮像部200が撮像した動画を、基準画像からの変化量が下限値以上である場合より低解像度の動画に変換して出力部290に出力させる。また、出力制御部270は、基準画像からの変化量が下限値より小さい場合に、撮像部200が撮像した動画を、基準画像からの変化量が下限値以上である場合より少ない階調数の動画に変換して出力部290に出力させてよい。その他にも、出力制御部270は、基準画像からの変化量が下限値より小さい場合に、撮像部200が撮像した動画を、基準画像からの変化量が下限値以上である場合より低い表示レートの動画に変換して出力部290に出力させる。なお、条件設定部242は、許容データ量取得部250が取得したデータ量がより小さい場合に、条件格納部240が格納している下限値をより増加させる。   The output control unit 270 calculates the moving image captured by the imaging unit 200 when the variation calculated by the variation calculation unit 221 is smaller than a predetermined lower limit of the variation. The change amount is converted to a moving image with a smaller data amount than when the change amount is equal to or greater than the lower limit value, and output to the output unit 290. Specifically, when the amount of change from the reference image is smaller than the lower limit value, the output control unit 270 displays a moving image captured by the imaging unit 200 at a lower resolution than when the amount of change from the reference image is greater than or equal to the lower limit value. And the output unit 290 outputs it. Further, the output control unit 270 displays a moving image captured by the imaging unit 200 when the amount of change from the reference image is smaller than the lower limit value, with a smaller number of gradations than when the amount of change from the reference image is greater than or equal to the lower limit value. It may be converted into a moving image and output to the output unit 290. In addition, when the change amount from the reference image is smaller than the lower limit value, the output control unit 270 displays a moving image captured by the imaging unit 200 at a lower display rate than when the change amount from the reference image is equal to or higher than the lower limit value. And the output unit 290 outputs it. The condition setting unit 242 further increases the lower limit value stored in the condition storage unit 240 when the data amount acquired by the allowable data amount acquisition unit 250 is smaller.

なお、変化量算出部221は、撮像部200が撮像した動画に含まれる第1動画構成画像と第2動画構成画像との間における同じ被写体を示すオブジェクトの動き量を算出してよい。そして、出力制御部270は、変化量算出部221が算出したオブジェクトの動き量が予め定められた動き量の下限値より小さい場合に、撮像部200が撮像した動画を、変化量算出部221が算出した動き量が動き量の下限値以上である場合よりデータ量の小さい動画に変換して出力部290に出力させる。なお、条件設定部242は、許容データ量取得部250が取得したデータ量がより小さい場合に、動き量の下限値をより増加させてよい。   Note that the change amount calculation unit 221 may calculate a motion amount of an object indicating the same subject between the first moving image constituent image and the second moving image constituent image included in the moving image captured by the imaging unit 200. Then, when the amount of movement of the object calculated by the change amount calculation unit 221 is smaller than the lower limit value of the predetermined amount of movement, the output control unit 270 uses the change amount calculation unit 221 to capture the moving image captured by the imaging unit 200. The calculated amount of motion is converted to a moving image with a smaller amount of data than when the amount of motion is equal to or greater than the lower limit value of the amount of motion, and output to the output unit 290. Note that the condition setting unit 242 may further increase the lower limit value of the motion amount when the data amount acquired by the allowable data amount acquisition unit 250 is smaller.

条件格納部240は、異常が生じていると判断される動画に含まれる複数の動画構成画像を平均化した平均化画像において検出されるべき、平均化画像に含まれるオブジェクトと予め定められたオブジェクトとの間の一致度の下限値を格納する。そして、オブジェクト抽出部225は、平均化画像生成部202が生成した平均化画像からオブジェクトを抽出する。そして、適合判断部230は、オブジェクト抽出部225が抽出したオブジェクトと予め定められたオブジェクトとの間の一致度が、条件格納部240が格納している下限値以上である場合に、平均化画像が条件に適合する旨を判断する。具体的には、一致度算出部232は、撮像部200が撮像した動画に含まれるオブジェクトの形状と予め定められた基準オブジェクトの形状との間の形状の一致度を算出する。そして、適合判断部230は、一致度算出部232が算出した一致度が、条件格納部240が格納している下限値以上である場合に、平均化画像が条件に適合する旨を判断する。   The condition storage unit 240 is configured to detect an object included in the averaged image and a predetermined object to be detected in the averaged image obtained by averaging a plurality of moving image constituent images included in the moving image determined to be abnormal. Stores the lower limit of the degree of coincidence between and. Then, the object extraction unit 225 extracts an object from the averaged image generated by the averaged image generation unit 202. Then, when the degree of coincidence between the object extracted by the object extraction unit 225 and the predetermined object is equal to or higher than the lower limit value stored in the condition storage unit 240, the conformity determination unit 230 Is determined to meet the conditions. Specifically, the degree of coincidence calculation unit 232 calculates the degree of coincidence of the shape between the shape of the object included in the moving image captured by the image capturing unit 200 and the predetermined shape of the reference object. The conformity determination unit 230 determines that the averaged image conforms to the condition when the coincidence degree calculated by the coincidence degree calculation unit 232 is equal to or greater than the lower limit value stored in the condition storage unit 240.

なお、出力制御部270は、一致度算出部232が算出した一致度が予め定められた一致度の下限値より小さい場合に、撮像部200が撮像した動画を、一致度算出部232が算出した一致度が下限値以上である場合よりデータ量の小さい動画に変換して出力部290に出力させてもよい。具体的には、出力制御部270は、一致度算出部232が算出した一致度が予め定められた形状の一致度の下限値より小さい場合に、撮像部200が撮像した動画を、一致度算出部232が算出した一致度が形状の一致度の下限値以上である場合よりデータ量の小さい動画に変換して出力部290に出力させる。なお、条件設定部242は、許容データ量取得部250が取得したデータ量がより小さい場合に、形状の一致度の下限値をより増加させてよい。   The output control unit 270 calculates the moving image captured by the imaging unit 200 when the matching level calculated by the matching level calculation unit 232 is smaller than a predetermined lower limit value of the matching level. It may be converted into a moving image with a smaller data amount than when the degree of coincidence is equal to or higher than the lower limit value, and output to the output unit 290. Specifically, the output control unit 270 calculates the degree of coincidence of the moving image captured by the imaging unit 200 when the degree of coincidence calculated by the coincidence degree calculating unit 232 is smaller than the lower limit value of the degree of coincidence of a predetermined shape. The degree of coincidence calculated by the unit 232 is converted to a moving image with a smaller data amount than when the degree of coincidence of the shape is equal to or greater than the lower limit value of the shape, and is output to the output unit 290. Note that the condition setting unit 242 may increase the lower limit value of the shape matching degree when the data amount acquired by the allowable data amount acquisition unit 250 is smaller.

条件格納部240は、異常が生じていると判断される動画に含まれる複数の動画構成画像を平均化した平均化画像において検出されるべき、予め定められた色範囲に含まれる色が占める面積の下限値を格納する。例えば、条件格納部240は、人物に特徴的な色を含む色範囲に含まれる色が占める面積の下限値を格納してよい。そして、特定色面積算出部224は、平均化画像生成部202が生成した平均化画像における、予め定められた色範囲に含まれる色が占める面積を算出する。そして、適合判断部230は、特定色面積算出部224が算出した面積が条件格納部240が格納している面積の下限値以上である場合に、平均化画像が条件に適合する旨を判断する。具体的には、一致度算出部232は、撮像部200が撮像した動画に含まれるオブジェクトに含まれる色と予め定められた基準オブジェクトに含まれる色との間の色の一致度を算出する。そして、適合判断部230は、一致度算出部232が算出した一致度が、条件格納部240が格納している下限値以上である場合に、平均化画像が条件に適合する旨を判断する。   The condition storage unit 240 is an area occupied by a color included in a predetermined color range that should be detected in an averaged image obtained by averaging a plurality of moving image constituent images included in a moving image that is determined to be abnormal. Stores the lower limit value of. For example, the condition storage unit 240 may store the lower limit value of the area occupied by the color included in the color range including the color characteristic of the person. Then, the specific color area calculation unit 224 calculates an area occupied by colors included in a predetermined color range in the averaged image generated by the averaged image generation unit 202. The conformity determination unit 230 determines that the averaged image conforms to the condition when the area calculated by the specific color area calculation unit 224 is equal to or greater than the lower limit value of the area stored in the condition storage unit 240. . Specifically, the coincidence degree calculation unit 232 calculates the degree of color coincidence between the color included in the object included in the moving image captured by the imaging unit 200 and the color included in the predetermined reference object. The conformity determination unit 230 determines that the averaged image conforms to the condition when the coincidence degree calculated by the coincidence degree calculation unit 232 is equal to or greater than the lower limit value stored in the condition storage unit 240.

条件格納部240は、異常が生じていると判断される動画に含まれる複数の動画構成画像を平均化した平均化画像において検出されるべき、平均化画像に含まれる被写体の位置から撮像部200への方向と被写体の動き方向との間の一致度の下限値を格納する。そして、動き方向特定部223は、平均化画像生成部202が生成した複数の平均化画像の画像内容に基づいて、監視領域内における被写体の動き方向を特定する。そして、適合判断部230は、被写体の動き方向と当該被写体の位置から撮像部200に向かう方向との間の一致度が条件格納部240が格納している一致度の下限値以上である場合に、平均化画像が条件に適合する旨を判断する。   The condition storage unit 240 captures the imaging unit 200 from the position of the subject included in the averaged image that should be detected in the averaged image obtained by averaging a plurality of video constituent images included in the video determined to be abnormal. The lower limit value of the degree of coincidence between the direction to the object and the moving direction of the subject is stored. Then, the movement direction identification unit 223 identifies the movement direction of the subject in the monitoring area based on the image contents of the plurality of averaged images generated by the averaged image generation unit 202. Then, when the matching degree between the moving direction of the subject and the direction from the subject position toward the imaging unit 200 is equal to or more than the lower limit value of the matching degree stored in the condition storage unit 240, the matching determination unit 230 Then, it is determined that the averaged image meets the conditions.

また、オブジェクト領域特定部212は、適合判断部230が条件に適合するオブジェクトが存在する旨を判断した場合に、条件に適合するオブジェクトを含むオブジェクト領域を特定する。そして、出力部290は、適合判断部230が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域の画像を出力する。そして、画像保持部214は、適合判断部230が条件に適合するオブジェクトが存在する旨を判断した場合に、オブジェクト領域以外の領域の画像を保持する。そして、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後の監視領域の動画において、適合判断部230が条件に適合するオブジェクトが存在しない旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を出力部290に出力させる。   The object area specifying unit 212 specifies an object area that includes an object that meets the condition when the matching determination unit 230 determines that an object that meets the condition exists. The output unit 290 outputs an image of the object area when the matching determination unit 230 determines that there is an object that meets the conditions. The image holding unit 214 holds an image of a region other than the object region when the matching determination unit 230 determines that there is an object that meets the conditions. Then, the output control unit 270 determines that there is no object that satisfies the condition in the moving image of the monitoring area after the image holding unit 214 holds the image of the area other than the object area. Then, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214.

なお、出力部290は、条件に適合するオブジェクトが存在する旨を適合判断部230が判断した場合に、許容データ量取得部250が取得したデータ量がより大きいほどより高い画質でオブジェクト領域の画像を出力してよい。また、オブジェクト領域特定部212は、条件に適合するオブジェクトが存在する旨を適合判断部230が判断した場合に、許容データ量取得部250が取得したデータ量がより大きいほど条件に適合するオブジェクトを含むより大きいオブジェクト領域を特定してよい。   Note that the output unit 290, when the conformity determination unit 230 determines that there is an object that meets the condition, the higher the data amount acquired by the allowable data amount acquisition unit 250, the higher the image quality of the object region. May be output. Further, when the conformity determining unit 230 determines that there is an object that meets the condition, the object area specifying unit 212 selects an object that conforms to the condition as the data amount acquired by the allowable data amount acquiring unit 250 is larger. Larger object regions may be identified that contain it.

また、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後の監視領域の動画において、適合判断部230が条件に適合するオブジェクトが存在しない旨を判断した場合に、許容データ量取得部250が取得したデータ量が予め定められた値より大きいことを条件として、画像保持部214が保持しているオブジェクト領域以外の領域の画像を、出力部290に出力させる。   Also, the output control unit 270 determines that the matching determination unit 230 determines that there is no object that meets the conditions in the moving image in the monitoring area after the image holding unit 214 holds the image of the area other than the object area. On the condition that the data amount acquired by the allowable data amount acquisition unit 250 is larger than a predetermined value, the output unit 290 outputs an image of an area other than the object area held by the image holding unit 214.

また、出力制御部270は、画像保持部214がオブジェクト領域以外の領域の画像を保持した後の監視領域の動画において、適合判断部230が条件に適合するオブジェクトが存在しない旨を判断した場合に、画像保持部214が保持しているオブジェクト領域以外の領域の画像を、許容データ量取得部250が取得したデータ量に応じた画質で出力部290に出力させてよい。   Also, the output control unit 270 determines that the matching determination unit 230 determines that there is no object that meets the conditions in the moving image in the monitoring area after the image holding unit 214 holds the image of the area other than the object area. The image of the area other than the object area held by the image holding unit 214 may be output to the output unit 290 with an image quality corresponding to the data amount acquired by the allowable data amount acquisition unit 250.

オブジェクト領域特定部212は、撮像部200が撮像した動画に含まれる複数の動画構成画像にわたるオブジェクトの動き量が、条件格納部240が格納している動き量の下限値以上であるオブジェクトを含む領域を、オブジェクト領域として特定してよい。   The object area specifying unit 212 includes an object in which the amount of motion of the object over a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 is equal to or greater than the lower limit value of the moving amount stored in the condition storage unit 240. May be specified as the object region.

なお、条件格納部240は、動画から抽出されるべきオブジェクトが有するべき予め定められたオブジェクトとの間の一致度の下限値を格納してよい。そして、オブジェクト領域特定部212は、条件格納部240が格納している一致度の下限値以上の一致度で一致するオブジェクトを含む領域を、オブジェクト領域として抽出してよい。また、条件格納部240は、動画から抽出されるべきオブジェクトが有するべき予め定められた色範囲に含まれる色が占める面積の下限値を格納してよい。そして、オブジェクト領域特定部212は、予め定められた色範囲に含まれる色の占める面積が条件格納部240が格納している面積の下限値以上であるオブジェクトを含む領域を、オブジェクト領域として抽出する。   The condition storage unit 240 may store a lower limit value of the degree of coincidence with a predetermined object that the object to be extracted from the moving image should have. Then, the object area specifying unit 212 may extract, as an object area, an area including an object that matches with a matching degree equal to or higher than the lower limit value of the matching degree stored in the condition storage unit 240. In addition, the condition storage unit 240 may store the lower limit value of the area occupied by the color included in the predetermined color range that the object to be extracted from the moving image should have. Then, the object region specifying unit 212 extracts a region including an object in which the area occupied by the color included in the predetermined color range is equal to or larger than the lower limit value of the area stored in the condition storage unit 240 as the object region. .

なお、変化量算出部221及び条件設定部242は撮像装置100のそれぞれに設けられるのではなく、監視システム110は一の変化量算出部221及び一の条件設定部242を有してもよい。そして、変化量算出部221は、複数の撮像部200が撮像したそれぞれの動画における予め定められた基準画像からの変化量を、複数の撮像部200が撮像したそれぞれの動画毎に算出してよい。そして、出力制御部270は、変化量算出部221が算出した変化量が予め定められた変化量の下限値より小さい動画を、変化量算出部221が算出した変化量が下限値以上である場合よりデータ量の小さい動画に変換して伝送経路140に出力させてよい。そして、条件設定部242は、伝送経路140が伝送することができる単位時間あたりのデータ量と複数の撮像部200のそれぞれが出力する単位時間あたりのデータ量との差がより小さい場合に、条件格納部240が格納している下限値をより増加させてもよい。また、一致度算出部232は、複数の撮像部200が撮像したそれぞれの動画に含まれるオブジェクトと予め定められた基準オブジェクトとの間の一致度を、複数の撮像部200が撮像したそれぞれの動画毎に算出してもよい。そして、出力制御部270は、一致度算出部232が算出した一致度が予め定められた一致度の下限値より小さい動画を、一致度算出部232が算出した一致度が下限値以上である場合よりデータ量の小さい動画に変換して伝送経路140に出力させる。そして、条件設定部242は、伝送経路140が伝送することができる単位時間あたりのデータ量と複数の撮像部200のそれぞれが出力する単位時間あたりのデータ量との差がより小さい場合に、下限値をより増加させる。   Note that the change amount calculation unit 221 and the condition setting unit 242 are not provided in each of the imaging devices 100, and the monitoring system 110 may include one change amount calculation unit 221 and one condition setting unit 242. Then, the change amount calculation unit 221 may calculate a change amount from a predetermined reference image in each moving image captured by the plurality of imaging units 200 for each moving image captured by the plurality of imaging units 200. . When the change amount calculated by the change amount calculation unit 221 is smaller than the lower limit value of the predetermined change amount, the output control unit 270 determines that the change amount calculated by the change amount calculation unit 221 is greater than or equal to the lower limit value. It may be converted into a moving image having a smaller data amount and output to the transmission path 140. The condition setting unit 242 sets the condition when the difference between the data amount per unit time that can be transmitted by the transmission path 140 and the data amount per unit time output by each of the plurality of imaging units 200 is smaller. The lower limit value stored in the storage unit 240 may be further increased. In addition, the degree-of-match calculation unit 232 captures the degree of coincidence between an object included in each moving image captured by the plurality of imaging units 200 and a predetermined reference object by each moving image captured by the plurality of imaging units 200. It may be calculated every time. When the matching degree calculated by the matching degree calculation unit 232 is smaller than the lower limit value of the matching degree, the output control unit 270 determines that the matching degree calculated by the matching degree calculation unit 232 is equal to or higher than the lower limit value. It is converted into a moving image having a smaller data amount and output to the transmission path 140. The condition setting unit 242 sets the lower limit when the difference between the data amount per unit time that can be transmitted by the transmission path 140 and the data amount per unit time output by each of the plurality of imaging units 200 is smaller. Increase the value more.

なお、撮像制御部210は、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像を含む動画を撮像部200に撮像させるべく撮像部200の撮像範囲を設定して、撮像部200に監視領域を撮像させる。そして、出力部290は、撮像制御部210によって撮像範囲が設定された状態で撮像部200が撮像した動画を出力する。このとき、撮像制御部210は、オブジェクトを含み、動き方向の画像幅が動き方向に垂直方向の画像幅より大きい動画構成画像が撮像される撮像範囲に含まれる被写体に対して、撮像部200の撮像条件を調整してよい。そして、出力部290は、撮像制御部210によって撮像条件が調整された状態で撮像部200が撮像した動画を出力してよい。   Note that the imaging control unit 210 sets an imaging range of the imaging unit 200 so that the imaging unit 200 captures a moving image including an object and including a moving image constituent image in which the image width in the movement direction is larger than the image width in the direction perpendicular to the movement direction. Then, the imaging unit 200 is caused to image the monitoring area. Then, the output unit 290 outputs the moving image captured by the imaging unit 200 in a state where the imaging range is set by the imaging control unit 210. At this time, the imaging control unit 210 includes the object, and the imaging unit 200 applies the subject included in the imaging range in which the moving image constituent image is captured in which the image width in the movement direction is larger than the image width in the direction perpendicular to the movement direction. Imaging conditions may be adjusted. The output unit 290 may output a moving image captured by the image capturing unit 200 in a state where the image capturing condition is adjusted by the image capturing control unit 210.

また、撮像制御部210は、オブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を撮像部200に撮像させるべく撮像部200の撮像範囲を設定して、撮像部200に撮像させてよい。また、撮像制御部210は、オブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像が撮像される撮像範囲に含まれる被写体に対して、撮像部200の撮像条件を調整してよい。   In addition, the imaging control unit 210 includes the object, and causes the imaging unit 200 to capture a moving image configuration image in which the region on the moving direction side with respect to the object is wider than the region on the side opposite to the moving direction with respect to the object. The imaging range of the imaging unit 200 may be set so that the imaging unit 200 captures an image. In addition, the imaging control unit 210 includes an object, and is included in an imaging range in which a moving image constituent image is captured in which a region on the moving direction side with respect to the object is wider than a region on the side opposite to the moving direction with respect to the object The imaging conditions of the imaging unit 200 may be adjusted for the subject to be captured.

なお、撮像部200が撮像する動画の撮像レートはモニタ表示レートより高くてもよいし、全ての撮像装置100が撮像する動画を送信するために要する時間あたりのデータ量は、伝送経路140が時間あたりに伝送することができるデータ量より大きくてもよい。なお、本実施形態におけるフレーム画像は動画構成画像の一例であり、動画構成画像はフィールド画像を含む。また、撮像部200は、魚眼レンズを通じて、監視領域全体の画像を撮像してもよい。   Note that the imaging rate of the moving image captured by the imaging unit 200 may be higher than the monitor display rate, and the amount of data per time required to transmit the moving images captured by all the imaging apparatuses 100 is the time required for the transmission path 140. It may be larger than the amount of data that can be transmitted per hit. Note that the frame image in the present embodiment is an example of a moving image constituent image, and the moving image constituent image includes a field image. Further, the imaging unit 200 may capture an image of the entire monitoring area through the fisheye lens.

以上の説明においては、撮像装置100が撮像して動画をサーバ170に送信する形態について説明したが、他の形態においては、撮像装置100の機能をサーバ170が有してよい。例えば、撮像装置100は撮像した監視領域の動画をそのまま伝送経路140に出力し、サーバ170が、記録する動画の画質を制御したり、表示装置180、181、及び182が表示する動画の画質を制御してもよい。この場合、サーバ170が、オブジェクト領域特定部212、画像保持部214、差分画像生成部216、画像特徴量抽出部220、適合判断部230、条件格納部240、条件設定部242、許容データ量取得部250、画質選択部260、画質格納部262、出力制御部270、画像生成部280、及び出力部290を備えてよい。この場合、出力部290は、出力動画生成部282が生成した動画を記録媒体に記録したり、表示装置180、181、及び182に表示させてよい。   In the above description, the form in which the imaging apparatus 100 captures an image and transmits a moving image to the server 170 has been described. However, in other forms, the server 170 may have the function of the imaging apparatus 100. For example, the image capturing apparatus 100 outputs the captured moving image of the monitoring area to the transmission path 140 as it is, and the server 170 controls the image quality of the moving image to be recorded or the image quality of the moving image displayed by the display devices 180, 181, and 182. You may control. In this case, the server 170 includes an object area specifying unit 212, an image holding unit 214, a difference image generating unit 216, an image feature amount extracting unit 220, a conformity determining unit 230, a condition storing unit 240, a condition setting unit 242, and an allowable data amount acquisition. A unit 250, an image quality selection unit 260, an image quality storage unit 262, an output control unit 270, an image generation unit 280, and an output unit 290 may be provided. In this case, the output unit 290 may record the moving image generated by the output moving image generation unit 282 on a recording medium or display the moving images on the display devices 180, 181, and 182.

図4は、撮像装置100の動作フローの一例を示す。撮像部200は、表示装置180〜182のモニタ解像度より高解像度のフレーム画像を、表示装置180〜182のモニタ表示レートより高いフレームレートで連続して撮像することによって、監視領域の動画を撮像する(S400)。なお、平均化画像生成部202は、撮像部200がフレーム画像を撮像する度に平均化カウンタをインクリメントする。そして、平均化画像生成部202は、平均化カウンタの値に基づいて、撮像部200が所定数のフレーム画像を撮像したか否かを判断する(S401)。S401において所定数のフレーム画像を撮像した旨が判断された場合には、平均化画像生成部202は、撮像部200が撮像した所定数のフレーム画像にわたって画素毎に平均化することによって平均化画像を生成し(S402)、平均化カウンタを0にセットする。   FIG. 4 shows an example of the operation flow of the imaging apparatus 100. The imaging unit 200 captures a moving image in the monitoring area by continuously capturing frame images having a resolution higher than the monitor resolution of the display devices 180 to 182 at a frame rate higher than the monitor display rate of the display devices 180 to 182. (S400). The averaged image generating unit 202 increments the averaged counter every time the image capturing unit 200 captures a frame image. Then, the averaged image generating unit 202 determines whether or not the imaging unit 200 has captured a predetermined number of frame images based on the value of the averaging counter (S401). If it is determined in S401 that a predetermined number of frame images have been captured, the averaged image generating unit 202 averages the pixels for each pixel over the predetermined number of frame images captured by the imaging unit 200. (S402), and the averaging counter is set to 0.

そして、適合判断部230は、人物に適合するオブジェクトが検出されたか否かを判断する(S404)。具体的には、オブジェクト抽出部225は、平均化画像からエッジ強調等によってオブジェクトの輪郭を抽出する。そして、一致度算出部232は、オブジェクト抽出部225が抽出したオブジェクトの輪郭と、予め定められた人物のパターンとを比較することによって、オブジェクト抽出部225が抽出したオブジェクトの輪郭と予め定められた人物のパターンとの間の形状の一致度を算出する。例えば、一致度算出部232は、オブジェクトの輪郭と、当該オブジェクトと同じ面積を持つ人物のパターンとが一致する部分の面積を、オブジェクトの輪郭の面積で除した値を、形状の一致度として算出してよい。そして、適合判断部230は、一致度算出部232が算出した形状の一致度が、条件格納部240が格納している形状の一致度の下限値以上である場合に、人物に適合するオブジェクトが検出されたと判断する。   Then, the matching determination unit 230 determines whether or not an object matching the person has been detected (S404). Specifically, the object extraction unit 225 extracts the outline of the object from the averaged image by edge enhancement or the like. Then, the degree-of-match calculation unit 232 compares the outline of the object extracted by the object extraction unit 225 with a predetermined person pattern to determine the outline of the object extracted by the object extraction unit 225. The degree of coincidence of the shape with the person pattern is calculated. For example, the degree-of-match calculation unit 232 calculates a value obtained by dividing the area of the portion where the contour of the object matches the pattern of the person having the same area as the object by the area of the contour of the object as the degree of matching of the shape You can do it. Then, when the matching degree of the shape calculated by the matching degree calculation unit 232 is equal to or higher than the lower limit value of the matching degree of the shape stored in the condition storage unit 240, the matching determination unit 230 determines that the object that matches the person is Judge that it was detected.

なお、動き量算出部222は、オブジェクト抽出部225が抽出したオブジェクトの移動速度を算出している。そして、S404において人物に適合するオブジェクトが検出されたと適合判断部230が判断した場合には、画質選択部260は、動き量算出部222が算出した、人物に適合するオブジェクトの移動速度を取得する(S406)。   Note that the motion amount calculation unit 222 calculates the movement speed of the object extracted by the object extraction unit 225. When the suitability determining unit 230 determines that an object that matches the person has been detected in S404, the image quality selecting unit 260 acquires the moving speed of the object that matches the person calculated by the motion amount calculating unit 222. (S406).

そして、撮像装置100は、伝送経路140に出力する出力動画の表示レートとフレーム画像の解像度とを決定する(S408)。具体的には、画質選択部260が、人物に適合するオブジェクトの面積と、人物に適合するオブジェクトの動きの速さとに対応づけて画質格納部262が格納している解像度及び表示レートを選択する。例えば、S408において画質選択部260は、オブジェクトの大きさが小さいほど高い解像度(ただし、撮像部200が撮像したフレーム画像の解像度以下の解像度)が選択され、また、オブジェクトの動き速さが大きいほど高い表示レート(ただし、撮像部200が撮像したフレーム画像の撮像レート以下の表示レート)が決定される。   Then, the imaging apparatus 100 determines the display rate of the output moving image output to the transmission path 140 and the resolution of the frame image (S408). Specifically, the image quality selection unit 260 selects the resolution and display rate stored in the image quality storage unit 262 in association with the area of the object that matches the person and the speed of movement of the object that matches the person. . For example, in S <b> 408, the image quality selection unit 260 selects a higher resolution (however, a resolution equal to or lower than the resolution of the frame image captured by the imaging unit 200) as the size of the object is smaller, and as the movement speed of the object increases. A high display rate (however, a display rate equal to or lower than the imaging rate of the frame image captured by the imaging unit 200) is determined.

そして、出力動画生成部282は、S408において決定された表示レートに従って、撮像部200が撮像したフレーム画像から生成した出力フレーム画像を含む出力動画を生成するか否かを判断する(S410)。例えば、出力動画生成部282は、撮像部200がフレーム画像を撮像する毎にインクリメントされ、撮像されたフレーム画像から動画が生成される毎に0に初期化されるカウンタを保持しており、保持しているカウンタ値と撮像部200が撮像するフレーム画像の撮像間隔との積が、S408で決定した表示レートで示される出力動画が有する出力フレーム画像のフレーム間隔以上である場合に、出力フレーム画像を含む出力動画を生成する旨を判断する。   Then, the output moving image generation unit 282 determines whether to generate an output moving image including an output frame image generated from the frame image captured by the imaging unit 200 according to the display rate determined in S408 (S410). For example, the output moving image generation unit 282 holds a counter that is incremented each time the imaging unit 200 captures a frame image and is initialized to 0 each time a moving image is generated from the captured frame image. Output frame image when the product of the counter value and the imaging interval of the frame image captured by the imaging unit 200 is equal to or larger than the frame interval of the output frame image included in the output moving image indicated by the display rate determined in S408. To generate an output video including

S410において、出力動画生成部282が出力動画を生成する旨を判断した場合に、許容データ量取得部250は、伝送経路140において単位時間あたりに伝送されているデータ量を検出する(S412)。そして、許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができるデータ量と、伝送経路140が単位時間あたりに伝送しているデータ量との差を示す許容データ量を算出する。なお、許容データ量取得部250は、許容データ量をサーバ170から取得してもよい。   In S410, when the output moving image generation unit 282 determines that the output moving image is generated, the allowable data amount acquisition unit 250 detects the amount of data transmitted per unit time in the transmission path 140 (S412). Then, the allowable data amount acquisition unit 250 calculates an allowable data amount indicating a difference between the data amount that the transmission path 140 can transmit per unit time and the data amount that the transmission path 140 transmits per unit time. calculate. The allowable data amount acquisition unit 250 may acquire the allowable data amount from the server 170.

そして、出力動画生成部282は、S408で決定された画質の動画を生成できるか否かを判断する(S414)。具体的には、出力動画生成部282は、許容データ量が、S408で決定された解像度及び表示レートを有する動画データを伝送するのに必要な単位時間あたりに伝送すべきデータ量以上である場合に、S408で決定された画質の動画を生成できる旨を判断する。   Then, the output moving image generating unit 282 determines whether or not the moving image having the image quality determined in S408 can be generated (S414). Specifically, the output moving image generation unit 282 determines that the allowable data amount is equal to or larger than the data amount to be transmitted per unit time necessary to transmit the moving image data having the resolution and display rate determined in S408. Then, it is determined that the moving image having the image quality determined in S408 can be generated.

そして、S414において、S408で決定された画質の動画を生成できる旨が判断された場合には、出力動画生成部282は、撮像部200が撮像したフレーム画像から画素を間引くことによって、フレーム画像をS408で決定された解像度に変換した出力フレーム画像を生成する。そして、出力動画生成部282は、生成した出力フレーム画像を含む動画を生成して、出力部290に供給する(S416)。そして、撮像装置100は、撮影終了指示を受け付けたか否かを判断する(S418)。S418において撮影終了指示を受け付けていない場合には、撮像装置100はS400に処理を移行し、S418において撮影終了指示を受け付けた場合には処理を終了する。   If it is determined in S414 that the moving image having the image quality determined in S408 can be generated, the output moving image generating unit 282 thins out the pixels from the frame image captured by the image capturing unit 200, thereby obtaining the frame image. An output frame image converted to the resolution determined in S408 is generated. Then, the output moving image generation unit 282 generates a moving image including the generated output frame image and supplies the generated moving image to the output unit 290 (S416). Then, the imaging apparatus 100 determines whether an imaging end instruction has been received (S418). When the imaging end instruction is not received in S418, the imaging apparatus 100 proceeds to S400, and when the imaging end instruction is received in S418, the process is ended.

なお、S418の撮影終了判断の後にS400に処理が移行した後に、S401において所定数のフレーム画像を撮像していない旨が判断された場合には、出力動画生成部282は、出力フレーム画像を含む出力動画を生成するか否かを判断する(S440)。S440では、出力動画生成部282は、S410と同様に、既に決定されている表示レートに従って、出力フレーム画像を含む出力動画を生成するか否かを判断する。そして、撮像装置100は、S440において出力フレーム画像を含む出力動画を生成する旨が判断された場合にはS412に処理を移行し、出力フレーム画像を含む出力動画を生成しない旨が判断された場合にはS400に処理を移行する。   If it is determined in S401 that the predetermined number of frame images have not been captured after the processing shifts to S400 after the shooting end determination in S418, the output moving image generation unit 282 includes the output frame image. It is determined whether to generate an output moving image (S440). In S440, as in S410, the output moving image generation unit 282 determines whether to generate an output moving image including an output frame image according to the display rate that has already been determined. If it is determined in S440 that an output moving image including an output frame image is to be generated, the imaging apparatus 100 proceeds to S412 and determines that an output moving image including an output frame image is not to be generated. In S400, the process proceeds to S400.

さて、S414において、出力動画生成部282がS408で決定された画質の動画を生成できない旨を判断した場合には、出力動画生成部282は、人物に適合するオブジェクトの移動方向を取得する(S420)。具体的には、人物に適合するオブジェクトについて動き方向特定部223が特定した動き方向を、当該オブジェクトの移動方向として取得する。   In S414, when the output moving image generating unit 282 determines that the moving image having the image quality determined in S408 cannot be generated, the output moving image generating unit 282 acquires the moving direction of the object suitable for the person (S420). ). Specifically, the movement direction identified by the movement direction identification unit 223 for the object that matches the person is acquired as the movement direction of the object.

そして、出力動画生成部282は、撮像部200が撮像したフレーム画像に対するトリミング範囲を決定する(S422)。具体的には、出力動画生成部282は、人物に適合するオブジェクトを含み、当該オブジェクトの移動方向の画像幅が移動方向に垂直な方向の画像幅より大きいトリミング画像が得られるトリミング範囲を決定する。以下、当該トリミング範囲の領域を人物領域という。そして、出力動画生成部282は、S422で決定したトリミング範囲でフレーム画像をトリミングすることによって、人物領域のトリミング画像を生成する(S424)。また、画像保持部214は、トリミングされた領域の画像(人物領域以外の領域の画像)を記憶しておく(S426)。そして、出力動画生成部282はS424において得られたトリミング画像を含む動画を生成して、出力部290に供給する(S428)。そして、撮像装置100はS418に処理を移行する。   Then, the output moving image generation unit 282 determines a trimming range for the frame image captured by the imaging unit 200 (S422). Specifically, the output moving image generation unit 282 determines a trimming range in which a trimmed image including an object suitable for a person and having an image width in the moving direction of the object larger than an image width in a direction perpendicular to the moving direction is obtained. . Hereinafter, the area of the trimming range is referred to as a person area. Then, the output moving image generating unit 282 generates a trimmed image of the person region by trimming the frame image within the trimming range determined in S422 (S424). Further, the image holding unit 214 stores an image of the trimmed area (an image of an area other than the person area) (S426). Then, the output moving image generation unit 282 generates a moving image including the trimmed image obtained in S424 and supplies the generated moving image to the output unit 290 (S428). And the imaging device 100 transfers a process to S418.

なお、S404において適合判断部230が人物に適合するオブジェクトを検出していない場合には、出力動画生成部282は平均化画像から動画を生成して出力部290に供給する(S430)。このとき、出力動画生成部282は、平均化画像の画素を適宜間引くことによってデータ量を低減した出力フレーム画像を含む動画を生成して出力部290に供給してよいし、撮像部200が撮像したフレーム画像の画素を適宜間引くことによってデータ量を低減した出力フレーム画像から動画を生成して出力部290に供給してもよい。   In S404, if the matching determination unit 230 has not detected an object that matches the person, the output moving image generation unit 282 generates a moving image from the averaged image and supplies the generated moving image to the output unit 290 (S430). At this time, the output moving image generation unit 282 may generate a moving image including an output frame image with a reduced data amount by thinning out the pixels of the averaged image as appropriate, and supply the generated moving image to the output unit 290. A moving image may be generated from an output frame image with a reduced data amount by thinning out the pixels of the frame image as appropriate and supplied to the output unit 290.

そして、出力制御部270は、S426において画像保持部214が保持した人物領域以外の領域の画像を含む動画を出力部290に供給する(S432)。また、S410においてフレーム画像を生成しない旨が判断された場合にも、撮像装置100はS432に処理を進め、出力制御部270がS426において画像保持部214が保持した人物領域以外の領域の画像を含む動画を出力部290に供給する。なお、S432においては、出力制御部270は、人物領域以外の領域の画像から動画を生成して出力部290に供給するのではなく、人物領域以外の領域の画像自体を、出力部290に出力させてもよい。   Then, the output control unit 270 supplies a moving image including an image of an area other than the person area held by the image holding unit 214 in S426 to the output unit 290 (S432). Even when it is determined in S410 that the frame image is not generated, the imaging apparatus 100 proceeds to S432, and the output control unit 270 displays an image of an area other than the person area held by the image holding unit 214 in S426. The moving image including the image is supplied to the output unit 290. Note that in S432, the output control unit 270 does not generate a moving image from an image in an area other than the person area and supplies it to the output unit 290, but outputs the image itself in an area other than the person area to the output unit 290. You may let them.

以上説明したように、撮像装置100は、人物の動きを検出した場合には、人物の動きを検出しない場合より高解像度・高表示レートの動画をサーバ170に送信する。このとき、撮像装置100は、伝送経路140の負荷が高い場合には、人物の動きが検出された領域だけ高解像度にして他の領域をトリミングしたフレーム画像を含む動画をサーバ170に送信し、その後に人物の動きが検出されなくなったときに、トリミングされた人物領域以外の画像を送信する。したがって、撮像装置100によると、伝送経路140の負荷が大きい場合であっても、動画データがサーバ170に到着するのに要する時間を削減することができる。   As described above, when detecting the movement of a person, the imaging apparatus 100 transmits a moving image having a higher resolution and a higher display rate to the server 170 than when no movement of the person is detected. At this time, when the load on the transmission path 140 is high, the imaging apparatus 100 transmits to the server 170 a moving image including a frame image obtained by trimming other regions with a high resolution only in the region in which the movement of the person is detected, Thereafter, when the movement of the person is not detected, an image other than the trimmed person area is transmitted. Therefore, according to the imaging apparatus 100, even when the load on the transmission path 140 is large, the time required for moving image data to arrive at the server 170 can be reduced.

図5は、画質格納部262が格納している画質情報の一例をテーブル形式で示す。画質格納部262は、人物の面積S及び動きの速さVに対応づけて、出力する動画に含まれる出力フレーム画像の解像度PR及び出力する動画の表示レートFRを格納している。例えば、画質格納部262は、人物の面積SがS1以上S2未満であり、動きの速さVがV1未満である場合には、出力フレーム画像の解像度としてPR3、出力する動画の表示レートとしてFR1を格納している。   FIG. 5 shows an example of image quality information stored in the image quality storage unit 262 in a table format. The image quality storage unit 262 stores the resolution PR of the output frame image included in the output moving image and the display rate FR of the moving image to be output in association with the area S of the person and the speed of movement V. For example, when the area S of the person is S1 or more and less than S2 and the speed of movement V is less than V1, the image quality storage unit 262 uses PR3 as the resolution of the output frame image and FR1 as the display rate of the moving image to be output. Is stored.

なお、解像度PRの高さはPR4>PR3>PR2>PR1であり、表示レートFRの高さはFR4>FR3>FR2>FR1である。このように、画質格納部262は、より大きい動きの速さに対応づけてより高い表示レートFRを格納しており、より小さい人物の面積に対応づけてより大きい解像度PRを格納している。このため、撮像装置100は、人物がより大きく写っているフレーム画像の解像度をより低くすることによって、送信する動画のデータ量が必要以上に大きくなってしまうことを未然に防ぐことができる。また、撮像装置100は、より速く動く人物が検出された場合には、表示レートを大きくするので、人物が何をしているかを監視者が容易に判別することができる動画を提供することができる。   Note that the height of the resolution PR is PR4> PR3> PR2> PR1, and the height of the display rate FR is FR4> FR3> FR2> FR1. In this way, the image quality storage unit 262 stores a higher display rate FR in association with a larger speed of movement, and stores a larger resolution PR in association with a smaller person area. For this reason, the imaging apparatus 100 can prevent the data amount of the moving image to be transmitted from becoming unnecessarily large by lowering the resolution of the frame image in which the person is captured larger. In addition, since the imaging apparatus 100 increases the display rate when a person who moves faster is detected, it is possible to provide a moving image that allows the monitor to easily determine what the person is doing. it can.

なお、上記の説明では、画質格納部262は、人物の面積S及び動きの速さVに対応づけて、出力フレーム画像の解像度PR及び出力する動画の表示レートFRを格納しているが、画質格納部262は、人物の面積S及び動きの速さVに対応づけて、出力フレーム画像の解像度PR及び階調数、並びに出力する動画の表示レートFRを格納してもよい。例えば、画質格納部262は、より大きい人物の面積に対応づけてより小さい階調数を格納してもよい。そして、出力動画生成部282は、人物の面積がより大きい場合に、より小さい階調数の出力フレーム画像から出力動画を生成してもよい。   In the above description, the image quality storage unit 262 stores the resolution PR of the output frame image and the display rate FR of the moving image to be output in association with the area S and the movement speed V of the person. The storage unit 262 may store the resolution PR and the number of gradations of the output frame image and the display rate FR of the moving image to be output in association with the area S of the person and the speed of movement V. For example, the image quality storage unit 262 may store a smaller number of gradations in association with the area of a larger person. Then, the output moving image generation unit 282 may generate an output moving image from an output frame image having a smaller number of gradations when the area of the person is larger.

このように、条件格納部240は、撮像部200が撮像した画像から抽出されるべきオブジェクトの条件を格納する。そして、オブジェクト抽出部225は、撮像部200が撮像した画像から、条件に適合するオブジェクトを抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより低画質の画像に変換する。そして、出力部290は、画像生成部280が変換して得られた画像を出力する。   As described above, the condition storage unit 240 stores the condition of the object to be extracted from the image captured by the imaging unit 200. Then, the object extraction unit 225 extracts an object that meets the conditions from the image captured by the imaging unit 200. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into a lower quality image. Then, the output unit 290 outputs the image obtained by the conversion by the image generation unit 280.

例えば、条件格納部240は、抽出されるべきオブジェクトと予め定められたオブジェクトとの間の一致度の下限値を格納する。そして、オブジェクト抽出部225は、条件格納部240が格納している下限値より高い一致度で予め定められたオブジェクトと一致するオブジェクトを、撮像部200が撮像した動画から抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより低画質の画像に変換する。   For example, the condition storage unit 240 stores a lower limit value of the degree of coincidence between an object to be extracted and a predetermined object. Then, the object extraction unit 225 extracts, from the moving image captured by the imaging unit 200, an object that matches a predetermined object with a higher matching degree than the lower limit value stored in the condition storage unit 240. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into a lower quality image.

また、条件格納部240は、抽出されるべきオブジェクトが有するべき予め定められた色範囲に含まれる色が占める面積の下限値を格納する。そして、オブジェクト抽出部225は、予め定められた色範囲に含まれる色が占める面積が、条件格納部240が格納している面積の下限値以上であるオブジェクトを、撮像部200が撮像した動画から抽出する。そして、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより低画質の画像に変換する。   In addition, the condition storage unit 240 stores a lower limit value of an area occupied by a color included in a predetermined color range that an object to be extracted should have. The object extraction unit 225 then captures an object in which the area occupied by the color included in the predetermined color range is equal to or larger than the lower limit value of the area stored in the condition storage unit 240 from the moving image captured by the imaging unit 200. Extract. Then, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into a lower quality image.

具体的には、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより低解像度の画像に変換する。また、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトの大きさがより大きい場合に、撮像部200が撮像した画像をより少ない階調数の画像に変換する。   Specifically, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into a lower resolution image. In addition, when the size of the object extracted by the object extraction unit 225 is larger, the image generation unit 280 converts the image captured by the imaging unit 200 into an image having a smaller number of gradations.

図6は、出力動画生成部282が生成するトリミング画像の一例を示す。出力動画生成部282は、画像600から、出力部290が出力する動画に含めるべきトリミング画像Aを生成する。なお、画像600は、撮像部200が撮像した動画の1コマのフレーム画像であってよいし、平均化画像生成部202が生成した平均化画像であってもよい。動き方向特定部223及び動き量算出部222は、連続する複数の画像においてオブジェクト抽出部225が抽出した同一人物650の位置の変化から、画像600における人物650の動き方向660及び人物650の動きの速さVを算出する。   FIG. 6 shows an example of a trimmed image generated by the output moving image generation unit 282. The output moving image generation unit 282 generates a trimmed image A to be included in the moving image output from the output unit 290 from the image 600. Note that the image 600 may be a frame image of a single frame of a moving image captured by the imaging unit 200, or an averaged image generated by the averaged image generation unit 202. The movement direction identification unit 223 and the movement amount calculation unit 222 determine the movement direction 660 of the person 650 and the movement of the person 650 in the image 600 from the change in the position of the same person 650 extracted by the object extraction unit 225 in a plurality of consecutive images. The speed V is calculated.

そして、出力動画生成部282は、人物650を含み、動き方向特定部223が特定した動き方向の画像幅xが、動き方向に垂直な方向の画像幅yより大きいトリミング枠610を決定する(図4のS422)。本図の例では、出力動画生成部282は、動き方向特定部223が特定した動き方向の側が、動き方向と反対の側より広いトリミング枠610を決定する。   Then, the output moving image generation unit 282 determines the trimming frame 610 that includes the person 650 and whose image width x in the motion direction identified by the motion direction identification unit 223 is larger than the image width y in the direction perpendicular to the motion direction (see FIG. 4 S422). In the example of this figure, the output moving image generation unit 282 determines a trimming frame 610 in which the side of the movement direction specified by the movement direction specification unit 223 is wider than the side opposite to the movement direction.

そして、出力動画生成部282は、トリミング枠610内のトリミング画像Aを画像600が撮像されたタイミングの出力フレーム画像とする動画を生成して、出力部290に供給する(図4のS428)。そして、画像保持部214は、トリミング枠610外の領域画像Bを記憶しておく(図4のS426)。そして、出力部290は、出力部290が出力する動画データの送信データ量より許容データ量が大きいタイミングで、画像保持部214が記憶している領域画像Bを送信する(図4のS432)。   Then, the output moving image generation unit 282 generates a moving image that uses the trimmed image A in the trimming frame 610 as an output frame image at the timing when the image 600 is captured, and supplies the generated moving image to the output unit 290 (S428 in FIG. 4). Then, the image holding unit 214 stores the region image B outside the trimming frame 610 (S426 in FIG. 4). Then, the output unit 290 transmits the region image B stored in the image holding unit 214 at a timing when the allowable data amount is larger than the transmission data amount of the moving image data output from the output unit 290 (S432 in FIG. 4).

このように、画像生成部280は、オブジェクトを含み、オブジェクトに対する動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を、撮像部200が撮像した動画に含まれる動画構成画像からトリミングによって生成する。このため、撮像装置100は、人物650だけでなく、人物650の移動先の画像領域を含めてトリミングした画像をサーバ170に送信することができる。これにより、撮像装置100は、撮像した全領域の画像を送信する場合に比べて送信するデータ量を削減しつつ、監視者にとって望ましい監視対象被写体が写った動画を提供することができる。このため、撮像装置100は、伝送経路140が混雑していて全画像の動画を送信する余裕がないような場合であっても、監視者が人物650を十分に監視することができる内容を持つ動画を速やかにサーバ170に提供することができる。   As described above, the image generation unit 280 includes the object, and the imaging unit 200 captures a moving image configuration image in which the region on the moving direction side with respect to the object is wider than the region on the side opposite to the moving direction with respect to the object. It is generated by trimming from a moving image constituent image included in a moving image. Therefore, the imaging apparatus 100 can transmit not only the person 650 but also the trimmed image including the image area to which the person 650 is moved to the server 170. As a result, the imaging apparatus 100 can provide a moving image in which a monitoring target subject desirable for the supervisor is captured while reducing the amount of data to be transmitted compared to the case of transmitting the entire captured image. For this reason, the imaging apparatus 100 has a content that allows the supervisor to sufficiently monitor the person 650 even when the transmission path 140 is congested and there is no room to transmit the moving images of all the images. A moving image can be promptly provided to the server 170.

図7は、出力動画生成部282が生成するトリミング画像の他の一例を示す。本図の例では、動き量算出部222は、図6より大きい動きの速さを算出している。このとき、出力動画生成部282は、動き方向特定部223が特定した方向760の画像幅がより大きくなるトリミング画像Aが得られるよう、トリミング枠710を設定する。このため、撮像装置100は、人物の動きが速い場合であっても、監視者が人物の行動意図を的確に判断することができる監視画像をサーバ170に提供することができる。   FIG. 7 shows another example of a trimmed image generated by the output moving image generation unit 282. In the example of this figure, the motion amount calculation unit 222 calculates a speed of motion greater than that of FIG. At this time, the output moving image generating unit 282 sets the trimming frame 710 so that a trimmed image A in which the image width in the direction 760 specified by the motion direction specifying unit 223 is larger is obtained. Therefore, the imaging apparatus 100 can provide the server 170 with a monitoring image that allows the monitoring person to accurately determine the action intention of the person even when the movement of the person is fast.

図8は、出力動画生成部282が生成するトリミング画像の更なる他の一例を示す。本図の例では、出力動画生成部282は、人物850が略中央に位置するトリミング枠810を決定する。このように、画像生成部280は、オブジェクト抽出部225が抽出したオブジェクトを含み、オブジェクトに対して動き方向の側の領域が、オブジェクトに対して動き方向と反対方向の側の領域より広い動画構成画像を、撮像部200が撮像した動画に含まれる動画構成画像からトリミングによって生成する。つまり、出力動画生成部282は、人物850の動き方向と側の領域と、当該動き方向と反対方向の側の領域とが略同一となるトリミング画像Aを得ることができるトリミング枠810を決定する。このようにすると、撮像装置100は、人物850の前後方向の領域を監視者が適切に監視することができる画像を、サーバ170に提供することができる。   FIG. 8 shows still another example of the trimmed image generated by the output moving image generating unit 282. In the example of this figure, the output moving image generation unit 282 determines the trimming frame 810 where the person 850 is located substantially at the center. As described above, the image generation unit 280 includes the object extracted by the object extraction unit 225, and a moving image configuration in which the region on the moving direction side with respect to the object is wider than the region on the side opposite to the moving direction with respect to the object. An image is generated by trimming from a moving image constituent image included in a moving image captured by the imaging unit 200. In other words, the output moving image generation unit 282 determines a trimming frame 810 that can obtain a trimmed image A in which the area of the person 850 in the direction of movement and the area in the direction opposite to the direction of movement are substantially the same. . In this way, the imaging apparatus 100 can provide the server 170 with an image that allows the monitor to appropriately monitor the area of the person 850 in the front-rear direction.

なお、図6から図8の説明では、撮像装置100が撮像したフレーム画像又は平均化画像をトリミングする例について説明したが、トリミング枠610、710、及び810でトリミングすることに代えて、撮像制御部210は、トリミング枠610、710、及び810内の被写体に対して撮像条件を合わせて、撮像部200に撮像させてもよい。例えば、撮像制御部210は、トリミング枠610、710、及び810の範囲が撮像部200の撮像範囲となるよう、撮像部200の撮像方向及びズーム値を制御してよい。   In the description of FIGS. 6 to 8, the example of trimming the frame image or the averaged image captured by the imaging apparatus 100 has been described. However, instead of trimming with the trimming frames 610, 710, and 810, imaging control is performed. The unit 210 may cause the imaging unit 200 to capture the image capturing conditions of the subjects in the trimming frames 610, 710, and 810 together. For example, the imaging control unit 210 may control the imaging direction and zoom value of the imaging unit 200 so that the range of the trimming frames 610, 710, and 810 becomes the imaging range of the imaging unit 200.

図9は、出力部290が出力する動画に含まれるフレーム画像の一例を時系列で示す。平均化画像生成部202は、撮像部200が連続して撮像した4つのフレーム画像を平均化することによって、平均化画像910、920、930、940、・・・、980、990・・・を生成する。そして、連続する平均化画像の間で変化がない場合には、出力動画生成部282は、撮像部200の撮像間隔の所定数倍(例えば、4倍)の表示間隔で出力フレーム画像が表示される動画を、出力部290に供給する。例えば、出力動画生成部282は、所定数の連続するフレーム画像を平均化した平均化画像(例えば、910、920、930)が出力フレーム画像である動画を、出力部290に供給する。なお、出力動画生成部282は、平均化画像の画素を適宜間引いた画像を出力フレーム画像とする動画を出力部290に供給してよいし、連続する平均化画像から差分画像生成部216が生成した差分画像を含む動画を出力部290に供給してもよい。   FIG. 9 shows an example of a frame image included in the moving image output by the output unit 290 in time series. The averaged image generation unit 202 averages four frame images continuously captured by the imaging unit 200, thereby obtaining averaged images 910, 920, 930, 940,..., 980, 990. Generate. When there is no change between the continuous averaged images, the output moving image generation unit 282 displays the output frame image at a display interval that is a predetermined number of times (for example, 4 times) the imaging interval of the imaging unit 200. The moving image is supplied to the output unit 290. For example, the output moving image generation unit 282 supplies the output unit 290 with a moving image in which an averaged image (for example, 910, 920, 930) obtained by averaging a predetermined number of consecutive frame images is an output frame image. Note that the output moving image generation unit 282 may supply the output unit 290 with a moving image whose output frame image is an image obtained by appropriately thinning out the pixels of the averaged image, or the difference image generation unit 216 generates from the continuous averaged image. A moving image including the difference image may be supplied to the output unit 290.

そして、例えば時刻t12、t16のように、連続する平均化画像(例えば、平均化画像920及び930、平均化画像930及び平均化画像940)の間で変化が検出され、適合判断部230が平均化画像(例えば、平均化画像930、940)に人物の動きに適合するオブジェクトが存在すると判断すると、出力動画生成部282は、時刻t12より後に撮像部200が撮像したフレーム画像を有する動画を出力部290に供給する。   Then, for example, at times t12 and t16, a change is detected between successive averaged images (for example, averaged images 920 and 930, averaged image 930 and averaged image 940), and the conformity determining unit 230 calculates the average. When it is determined that there is an object that matches the movement of the person in the digitized image (for example, the averaged images 930 and 940), the output moving image generation unit 282 outputs a moving image having a frame image captured by the imaging unit 200 after time t12. Part 290.

このとき、図4のS420〜S428で説明したように、出力動画生成部282は、図6から図8に関連して説明したトリミング枠でトリミングしたトリミング画像941を出力フレーム画像とする動画を、出力部290に供給してよい。そして、画像保持部214は、トリミングされた部分の画像945を保持しておく。そして、出力動画生成部282は、人物の動きが検出されなくなる時刻t80までの間、撮像部200が撮像する撮像間隔の出力フレーム画像を有する動画を生成して、出力部290に供給する。作図の都合上図示されていないが、時刻t14から時刻t80までの間においても、画像保持部214はトリミングされた部分の画像を保持してよいことは言うまでもない。   At this time, as described in S420 to S428 in FIG. 4, the output moving image generation unit 282 generates a moving image in which the trimming image 941 trimmed with the trimming frame described in relation to FIGS. You may supply to the output part 290. FIG. Then, the image holding unit 214 holds an image 945 of the trimmed part. Then, the output moving image generation unit 282 generates a moving image having an output frame image of the imaging interval captured by the imaging unit 200 until time t80 when no human motion is detected, and supplies the generated moving image to the output unit 290. Although not shown for the sake of drawing, it is needless to say that the image holding unit 214 may hold the trimmed portion of the image from time t14 to time t80.

そして、平均化画像980及び990のように、連続する平均化画像の間で変化が検出されなくなると、出力動画生成部282は、再び平均化画像が1コマの出力フレーム画像である動画を出力部290に供給する。このとき、出力制御部270は、画像保持部214が保持している画像945を出力部290に出力させる。なお、出力制御部270は、出力部290から出力される単位時間あたりのデータ量が許容データ量取得部250が取得した許容データ量以下になるよう、画像945を複数の領域に分割して、分割した複数の領域の画像を出力部290に順次出力させてもよい。   When no change is detected between successive averaged images, such as the averaged images 980 and 990, the output moving image generation unit 282 again outputs a moving image in which the averaged image is an output frame image of one frame. Part 290. At this time, the output control unit 270 causes the output unit 290 to output the image 945 held by the image holding unit 214. The output control unit 270 divides the image 945 into a plurality of regions so that the data amount per unit time output from the output unit 290 is equal to or less than the allowable data amount acquired by the allowable data amount acquisition unit 250. You may make the output part 290 output the image of the divided | segmented several area | region sequentially.

なお、画像保持部214は、時刻t13〜t80で撮像部200が撮像したフレーム画像の全体を保持しておき、変化が検出されなくなった時刻t81以降において、画像保持部214が保持しているフレーム画像を1コマの出力フレーム画像とする動画を出力部290に出力させてもよい。このとき、出力制御部270は、出力部290が出力する単位時間あたりのデータ量の合計が、許容データ量取得部250が取得した許容データ量以下になるよう、出力部290に送信させる画像の大きさ、解像度、又は階調数を決定してよい。なお、出力制御部270は、いずれのタイミングで撮像された画像であるかを示すタイミング情報を含めて、画像保持部214が保持しているフレーム画像(又は画像945)を出力部290に出力させる。   The image holding unit 214 holds the entire frame image captured by the imaging unit 200 from time t13 to t80, and the frame held by the image holding unit 214 after time t81 when no change is detected. You may make the output part 290 output the moving image which makes an image the output frame image of 1 flame | frame. At this time, the output control unit 270 causes the output unit 290 to transmit the image data to be transmitted so that the total amount of data per unit time output by the output unit 290 is equal to or less than the allowable data amount acquired by the allowable data amount acquisition unit 250. The size, resolution, or number of gradations may be determined. Note that the output control unit 270 causes the output unit 290 to output the frame image (or the image 945) held by the image holding unit 214, including timing information indicating at which timing the image is captured. .

このように、平均化画像生成部202は、所定の時間幅の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して、所定の時間幅毎に平均化画像を生成する。そして、出力動画生成部282は、第1の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して平均化画像生成部202が生成した第1平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、第1平均化画像を第1の期間の出力動画の動画構成画像とし、第1平均化画像が条件に適合する旨を適合判断部230が判断した場合に、第1の期間に撮像部200が撮像した動画を第1の期間の出力動画とする。   As described above, the averaged image generating unit 202 averages a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 during a predetermined time width, and generates an averaged image for each predetermined time width. To do. Then, the output moving image generation unit 282 averages a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 in the first period, and the first averaged image generated by the averaged image generation unit 202 is a condition. When the conformity determining unit 230 determines that the images do not conform, the first averaged image is used as a moving image constituent image of the output moving image in the first period, and the conformity determining unit 230 determines that the first averaged image meets the conditions. When it is determined, the moving image captured by the imaging unit 200 in the first period is set as the output moving image in the first period.

また、平均化画像生成部202は、所定の時間幅の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して、所定の時間幅毎に平均化画像を生成してよい。そして、出力動画生成部282は、第1の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して平均化画像生成部202が生成した第1平均化画像が条件に適合しない旨を適合判断部230が判断した場合に、第1の期間の次の第2の期間に撮像部200が撮像した複数の動画構成画像を平均化して平均化生成部が生成した平均化画像を第2の期間の出力動画の動画構成画像とし、第1平均化画像が条件に適合する旨を適合判断部230が判断した場合に、第2の期間に撮像部200が撮像した動画を第2の期間の出力動画としてよい。   Further, the averaged image generating unit 202 averages a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 during a predetermined time width, and generates an averaged image for each predetermined time width. Good. Then, the output moving image generation unit 282 averages a plurality of moving image constituent images included in the moving image captured by the imaging unit 200 in the first period, and the first averaged image generated by the averaged image generation unit 202 is a condition. Averaging generated by the averaging generation unit by averaging a plurality of moving image constituent images captured by the image capturing unit 200 in the second period following the first period when the conformity determining unit 230 determines that the images do not conform. The moving image captured by the image capturing unit 200 in the second period when the conformity determining unit 230 determines that the image is the moving image constituent image of the output moving image in the second period and the first averaged image meets the conditions. It is good also as an output animation of the 2nd period.

なお、平均化画像生成部202は、複数の平均化画像によって表される動画の表示レートが許容データ量取得部250が取得したデータ量で送信することができる動画の表示レートより低くなるよう、一の平均化画像を生成するために用いる複数の動画構成画像が撮像される時間幅を決定し、当該時間幅の期間に撮像部200が撮像した動画に含まれる複数の動画構成画像を平均化して、当該時間幅毎に平均化画像を生成してよい。   Note that the averaged image generating unit 202 is configured such that the display rate of the moving image represented by the plurality of averaged images is lower than the display rate of the moving image that can be transmitted with the data amount acquired by the allowable data amount acquiring unit 250. A time width in which a plurality of moving image constituent images used for generating one averaged image is captured is determined, and a plurality of moving image constituent images included in the moving images captured by the imaging unit 200 during the time width are averaged. Thus, an averaged image may be generated for each time width.

図10は、出力動画生成部282が生成する出力フレーム画像の一例を示す。本図は、図9の時刻t13において撮像部200が撮像したフレーム画像から出力動画生成部282が生成する出力フレーム画像の他の一例を示す。図9の例では、出力動画生成部282は、撮像部200が撮像するフレーム画像のうち、人物を含む領域を含むトリミング画像が出力フレーム画像である動画を生成して出力部290に出力させたが、本図の例では、出力動画生成部282は、人物を含む領域の解像度が人物を含む領域以外の領域の解像度より高い出力フレーム画像1010を含む動画を生成して、出力部290に出力させる。   FIG. 10 shows an example of an output frame image generated by the output moving image generation unit 282. This figure shows another example of the output frame image generated by the output moving image generation unit 282 from the frame image captured by the imaging unit 200 at time t13 in FIG. In the example of FIG. 9, the output moving image generation unit 282 generates a moving image in which a trimming image including an area including a person is an output frame image among the frame images captured by the imaging unit 200 and causes the output unit 290 to output the generated moving image. However, in the example of this figure, the output moving image generation unit 282 generates a moving image including the output frame image 1010 in which the resolution of the region including the person is higher than the resolution of the region other than the region including the person, and outputs the generated moving image to the output unit 290. Let

出力動画生成部282は、撮像部200が撮像したフレーム画像において、人物を含む領域より人物を含む領域以外の領域からより多くの画素を間引くことによって出力フレーム画像1010を生成する。なお、出力動画生成部282は、出力フレーム画像1010における複数の領域のそれぞれの解像度を示す解像度情報を含めて出力部290に出力させてよい。また、画像保持部214は、出力動画生成部282が間引いた画素で表される画像を保持してよく、出力制御部270は、画像保持部214が保持している画像を、時刻t81以降において出力部290に出力させてよい。   The output moving image generation unit 282 generates the output frame image 1010 by thinning out more pixels from the region other than the region including the person in the frame image captured by the imaging unit 200 from the region including the person. Note that the output moving image generation unit 282 may cause the output unit 290 to output the resolution information indicating the resolution of each of the plurality of regions in the output frame image 1010. Further, the image holding unit 214 may hold an image represented by the pixels thinned out by the output moving image generation unit 282, and the output control unit 270 may store the image held by the image holding unit 214 after time t81. You may make it output to the output part 290. FIG.

以上説明したように、撮像部200は、表示装置180〜182が表示することができる画素数、階調数、及び表示レートの動画データより多いデータ量の動画を撮像する。また、撮像部200は、伝送経路140が単位時間あたりに伝送することができる撮像装置100の1台あたりのデータ量より大きいデータ量の動画を撮像する。そして、出力動画生成部282及び出力制御部270は、出力部290に出力させる動画の画質、例えば解像度、階調数、及び表示レートを制御することによって、出力部290が時間あたりに出力するデータ量を低減させる。   As described above, the imaging unit 200 captures a moving image having a larger data amount than the moving image data having the number of pixels, the number of gradations, and the display rate that can be displayed by the display devices 180 to 182. In addition, the imaging unit 200 captures a moving image having a data amount larger than the data amount per unit of the imaging apparatus 100 that can be transmitted by the transmission path 140 per unit time. The output moving image generation unit 282 and the output control unit 270 control the image quality of the moving image to be output to the output unit 290, for example, the resolution, the number of gradations, and the display rate, so that the output unit 290 outputs data per time. Reduce the amount.

図11は、出力部290が伝送経路140に出力すべきデータ量の時間発展の一例を示す。許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができる撮像装置100の1台あたりのデータ量を、伝送経路140が許容することができる時間あたりのデータ量である許容データ量として取得する。図1から図10にかけて説明したように、出力動画生成部282及び出力制御部270は、出力部290に出力させる動画の解像度、階調数、及び表示レートを制御することによって、出力部290が時間あたりに出力するデータ量が許容データ量を超えないように制御する。   FIG. 11 shows an example of the time evolution of the amount of data that the output unit 290 should output to the transmission path 140. The allowable data amount acquisition unit 250 is a permissible amount of data per unit time that the transmission path 140 can allow the data amount per unit of the imaging apparatus 100 that the transmission path 140 can transmit per unit time. Get as data volume. As described with reference to FIGS. 1 to 10, the output moving image generation unit 282 and the output control unit 270 control the resolution, the number of gradations, and the display rate of the moving image to be output to the output unit 290 so that the output unit 290 Control the amount of data output per hour so that it does not exceed the allowable amount of data.

例えば、出力動画生成部282は、人物の動きが検出されたりすることによって撮像部200が撮像した表示レート又は解像度の高い動画を送信しようとすると、例えば時刻t1102〜t1103の期間のように、出力部290が出力する単位時間あたりのデータ量が許容データ量を超えてしまう。このような場合、出力動画生成部282は、出力部290が単位時間当たりに出力するデータ量を許容データ量まで低減させるべく、撮像部200が撮像したフレーム画像をトリミングして人物を含む部分の動画を生成したり、人物の動き速さに応じてフレーム画像を適宜間引いたりして、低データ量の動画を生成する。そして、出力制御部270は、時刻1102〜t1103までの間にトリミングされた画像又は間引いた画素で表される画像を、単位時間当たりに出力するデータ量が許容データ量より小さくなる期間(例えば、時刻t1103〜t1104の期間)に出力部290に出力させる。このような制御によって、撮像装置100は、許容データ量と略同一のデータ量の動画を、サーバ170に送信することができる。このため、監視システム110によると、伝送経路140の帯域幅を有効に使用することができる。   For example, if the output moving image generating unit 282 attempts to transmit a moving image with a high display rate or resolution captured by the image capturing unit 200 by detecting the movement of a person, the output moving image generating unit 282 outputs, for example, during a period from time t1102 to t1103. The amount of data per unit time output by the unit 290 exceeds the allowable data amount. In such a case, the output moving image generation unit 282 trims the frame image captured by the imaging unit 200 to reduce the amount of data output by the output unit 290 per unit time to an allowable data amount. A moving image having a low data amount is generated by generating a moving image or by appropriately decimating frame images according to the movement speed of a person. Then, the output control unit 270 outputs a trimmed image from time 1102 to t1103 or an image represented by thinned pixels during a period in which the data amount output per unit time is smaller than the allowable data amount (for example, During the period from time t1103 to time t1104). With such control, the imaging apparatus 100 can transmit a moving image having a data amount substantially the same as the allowable data amount to the server 170. For this reason, according to the monitoring system 110, the bandwidth of the transmission path 140 can be used effectively.

図12は、条件格納部240が格納している条件の一例を示す。条件格納部240は、人物の面積、オブジェクトの動き速さ、変化領域の面積、特定色の面積、基準オブジェクトとの間の形状の一致度、及び基準方向との間の移動方向の一致度のそれぞれについて、下限値(S1、V1、Sα、Sβ、sγ、md)を格納している。そして、適合判断部230は、平均化画像生成部202が生成した平均化画像において、条件格納部240が格納している下限値以上の人物の面積、オブジェクトの動く速さ、変化領域の面積、特定色の面積、基準オブジェクトとの間の形状の一致度、又は基準方向との間の移動方向の一致度を有するオブジェクトが検出された場合に、当該平均化画像は条件格納部240が格納している条件に適合すると判断する。このとき、図1から図11に関連して説明したように、出力動画生成部282は、条件格納部240が格納している条件に適合しないと適合判断部230が判断した場合より高画質の動画を、撮像部200が撮像した動画から生成する。   FIG. 12 shows an example of conditions stored in the condition storage unit 240. The condition storage unit 240 stores the area of the person, the speed of movement of the object, the area of the change area, the area of the specific color, the degree of coincidence of the shape with the reference object, and the degree of coincidence of the movement direction with the reference direction. For each, a lower limit value (S1, V1, Sα, Sβ, sγ, md) is stored. Then, in the averaged image generated by the averaged image generation unit 202, the conformity determination unit 230 includes the area of the person equal to or higher than the lower limit value stored in the condition storage unit 240, the moving speed of the object, the area of the change region, When an object having a specific color area, a shape coincidence with a reference object, or a movement direction coincidence with a reference direction is detected, the average image is stored in the condition storage unit 240. It is judged that it meets the conditions. At this time, as described with reference to FIGS. 1 to 11, the output moving image generation unit 282 has higher image quality than the case where the conformity determination unit 230 determines that the conditions stored in the condition storage unit 240 do not conform. A moving image is generated from the moving image captured by the imaging unit 200.

なお、条件格納部240は、撮像部200が撮像した複数のフレーム画像又は平均化画像生成部202が生成した複数の平均化画像の間で、予め定められた値以上変化した画素値を持つ画素の数の下限値を、変化領域の面積の下限値として格納してよい。また、条件格納部240は、複数のフレーム画像又は複数の平均化画像の全画素数に対する、予め定められた値以上変化した画素値を持つ画素数の比の下限値を、変化領域の面積の下限値として格納してもよい。なお、画素値とは輝度値であってよい。   The condition storage unit 240 is a pixel having a pixel value that has changed by a predetermined value or more between a plurality of frame images captured by the imaging unit 200 or a plurality of averaged images generated by the averaged image generation unit 202. May be stored as the lower limit value of the area of the change region. In addition, the condition storage unit 240 sets a lower limit value of the ratio of the number of pixels having a pixel value changed by a predetermined value or more to the total number of pixels of the plurality of frame images or the plurality of averaged images as the area of the change region. You may store as a lower limit. Note that the pixel value may be a luminance value.

また、条件格納部240は、複数のフレーム画像又は複数の平均化画像に含まれる、予め定められた色範囲に含まれる色を有する画素の数の下限値を、特定色の面積の下限値として格納してよい。また、条件格納部240は、フレーム画像又は平均化画像の全画素数に対する、予め定められた色範囲に含まれる色を有する画素の数の比の下限値を、特定色の面積の下限値として格納してもよい。   In addition, the condition storage unit 240 uses the lower limit value of the number of pixels having colors included in a predetermined color range included in a plurality of frame images or a plurality of averaged images as a lower limit value of the area of the specific color. May be stored. In addition, the condition storage unit 240 sets the lower limit value of the ratio of the number of pixels having a color included in a predetermined color range to the total number of pixels of the frame image or the averaged image as the lower limit value of the area of the specific color. It may be stored.

また、条件格納部240は、フレーム画像又は平均化画像に含まれるオブジェクトの輪郭が同じ面積を有する予め定められた基準オブジェクトと重なり合う部分の面積の下限値を、基準オブジェクトとの間の形状の一致度の下限値として格納してよい。また、条件格納部240は、フレーム画像又は平均化画像に含まれるオブジェクトの輪郭が同じ面積を有する予め定められた基準オブジェクトと重なり合う部分の面積の、オブジェクトの面積に対する比の下限値を、基準オブジェクトとの間の形状の一致度の下限値として格納してもよい。   In addition, the condition storage unit 240 sets the lower limit value of the area where the outline of the object included in the frame image or the averaged image overlaps with a predetermined reference object having the same area, and matches the shape with the reference object. It may be stored as the lower limit of the degree. Further, the condition storage unit 240 sets the lower limit value of the ratio of the area of the portion overlapping the predetermined reference object having the same area as the contour of the object included in the frame image or the averaged image to the area of the object. May be stored as the lower limit value of the degree of coincidence of the shape between and.

また、条件格納部240は、フレーム画像又は平均化画像に含まれるオブジェクトの動き方向と予め定められた基準方向との間のなす角度に反比例する指標値の下限値を、基準方向と移動方向の一致度の下限値として格納してよい。なお基準方向とは、フレーム画像上又は平均化画像上において予め定められた方向であってよく、実空間において予め定められた方向であってもよい。なお、条件格納部240は、フレーム画像又は平均化画像に含まれるオブジェクトが示す被写体が動く方向と当該被写体の位置から撮像部200に向かう方向との間のなす角度に反比例する指標値の下限値を、基準方向と移動方向の一致度の下限値として格納してよい。   The condition storage unit 240 also sets a lower limit value of the index value that is inversely proportional to the angle formed between the movement direction of the object included in the frame image or the averaged image and a predetermined reference direction, in the reference direction and the movement direction. It may be stored as the lower limit value of the matching degree. The reference direction may be a predetermined direction on the frame image or the averaged image, or may be a predetermined direction in the real space. Note that the condition storage unit 240 is a lower limit value of the index value that is inversely proportional to the angle formed between the moving direction of the subject indicated by the object included in the frame image or the averaged image and the direction from the subject position toward the imaging unit 200. May be stored as the lower limit value of the degree of coincidence between the reference direction and the moving direction.

図13は、撮像部200に向かう被写体が撮像されたフレーム画像1310、1320、及び1330の一例を示す。動き方向特定部223は、撮像部200が撮像したフレーム画像1310、1320、及び1330のそれぞれからオブジェクト抽出部225が抽出したオブジェクト1315、1325、及び1335の重心位置1311、1321、及び1331を算出する。また、動き方向特定部223は、フレーム画像1310、1320、及び1330のそれぞれからオブジェクト抽出部225が抽出したオブジェクトの長さl1312、l1322、及びl1332を算出する。   FIG. 13 shows an example of frame images 1310, 1320, and 1330 in which a subject that faces the imaging unit 200 is captured. The movement direction identification unit 223 calculates the barycentric positions 1311, 1321, and 1331 of the objects 1315, 1325, and 1335 extracted by the object extraction unit 225 from the frame images 1310, 1320, and 1330 captured by the imaging unit 200, respectively. . In addition, the movement direction identification unit 223 calculates the object lengths l1312, l1322, and l1332 extracted by the object extraction unit 225 from the frame images 1310, 1320, and 1330, respectively.

そして、動き方向特定部223は、フレーム画像1310、1320、及び1330にわたるオブジェクトの長さの増加率及びオブジェクトの重心位置の変化率を算出して、算出したオブジェクトの長さの増加率が予め定められた基準値以上であり、かつオブジェクトの重心位置の変化率が予め定められた基準値より小さい場合に、オブジェクトが示す被写体が撮像部200に向かっている旨を判断する。   Then, the movement direction identification unit 223 calculates an increase rate of the object length and a change rate of the center of gravity position of the object over the frame images 1310, 1320, and 1330, and the calculated increase rate of the object length is determined in advance. If it is equal to or greater than the determined reference value and the rate of change in the center of gravity of the object is smaller than a predetermined reference value, it is determined that the subject indicated by the object is facing the imaging unit 200.

なお、条件格納部240は、オブジェクトの重心が画像における中心に向かう方向を示す条件を格納してよい。そして、適合判断部230は、重心位置の移動方向が、画像における中心に向かう方向を示す場合に、条件格納部240が格納している条件に適合する旨を判断する。なお、条件格納部240は、オブジェクトの重心が画像における中心に向かう方向を示す条件の他に、オブジェクトの大きさの変化を示す条件を格納してもよい。例えば、条件格納部240は、複数の動画構成画像又は平均化画像にわたって、オブジェクトの長さの増加速度が予め定められた増加速度より大きく、オブジェクトの重心が画像における中心に向かっていること又はオブジェクトの重心が画像における中心近傍にあることを示す条件を格納してよい。   The condition storage unit 240 may store a condition indicating the direction in which the center of gravity of the object is directed toward the center of the image. Then, the suitability determining unit 230 determines that the condition stored in the condition storage unit 240 is satisfied when the moving direction of the gravity center position indicates a direction toward the center of the image. The condition storage unit 240 may store a condition indicating a change in the size of the object in addition to a condition indicating the direction in which the center of gravity of the object is directed toward the center of the image. For example, the condition storage unit 240 may indicate that the increase speed of the object length is larger than a predetermined increase speed over a plurality of moving image constituent images or averaged images, and that the center of gravity of the object is directed toward the center in the image or the object A condition indicating that the center of gravity is near the center of the image may be stored.

このように、撮像装置100は、撮像部200に向かってくる被写体を検出したときに出力する動画の画質を高めることができる。このため、盗難から守るべき物体に撮像部200を設けることによって、その物体に近づく人物を適切に監視することができる。また、撮像装置100は、撮像部200に対して布をかぶせる等の妨害工作をしようとする人物を適切に監視することができる。   As described above, the imaging apparatus 100 can improve the image quality of the moving image that is output when the subject that is facing the imaging unit 200 is detected. For this reason, by providing the imaging unit 200 on an object to be protected from theft, it is possible to appropriately monitor a person approaching the object. In addition, the imaging apparatus 100 can appropriately monitor a person who is trying to perform an obstruction such as covering the imaging unit 200 with a cloth.

図14は、条件設定部242が設定する動き速さの下限値の時間発展の一例を示す。伝送経路140は、時刻t1400〜t1401、時刻t1402〜t1403、及び時刻t1404〜t1405の期間、略一定のデータ量の動画を伝送している。これらの期間においては、いずれの撮像装置100も人物の動きを検出しておらず、全ての撮像装置100は、撮像した動画を低画質の動画に変換して出力することによって、合計のデータ量R0の動画を出力している。   FIG. 14 shows an example of the time evolution of the lower limit value of the movement speed set by the condition setting unit 242. The transmission path 140 transmits a moving image having a substantially constant data amount during the period from time t1400 to t1401, time t1402 to t1403, and time t1404 to t1405. During these periods, none of the image capturing apparatuses 100 detects the movement of a person, and all the image capturing apparatuses 100 convert the captured moving image into a low-quality moving image and output the total amount of data. R0 video is being output.

一方、時刻t1401〜t1402、時刻t1403〜t1404、及び時刻t1405〜t1406の期間には、いずれかの撮像装置100が人物の動きを検出しており、撮像した動画を低画質の動画にすることなくそのまま伝送経路140に出力することによって、伝送経路140が時間あたりに伝送するデータが増大する。このとき、許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができる最大のデータ量Rmaxと、伝送経路140が時間あたりに伝送しているデータ量との差を、単位時間あたりに許容される許容データ量として取得する。なお、許容データ量取得部250は、伝送経路140が単位時間あたりに伝送することができる最大のデータ量Rmaxと伝送経路140が時間あたりに伝送しているデータ量との差を、伝送経路140に動画を出力する撮像装置100の個数で除した値を、許容データ量として取得してもよい。   On the other hand, during the period from time t1401 to t1402, time t1403 to t1404, and time t1405 to t1406, one of the imaging devices 100 detects the movement of a person, and the captured moving image is not converted to a low-quality moving image. By outputting to the transmission path 140 as it is, the data transmitted by the transmission path 140 per time increases. At this time, the allowable data amount acquisition unit 250 calculates the difference between the maximum data amount Rmax that the transmission path 140 can transmit per unit time and the data amount that the transmission path 140 transmits per unit time. Acquired as the allowable amount of data allowed per hour. The allowable data amount acquisition unit 250 calculates the difference between the maximum data amount Rmax that the transmission path 140 can transmit per unit time and the data amount that the transmission path 140 transmits per unit time. Alternatively, a value divided by the number of imaging devices 100 that output a moving image may be acquired as the allowable data amount.

そして、条件設定部242は、許容データ量取得部250が取得した許容データ量に反比例する動き速さの下限値を、条件格納部240に格納させる。これにより、条件格納部240には、許容データ量がより小さいほどより大きい動き速さの下限値が格納される。   Then, the condition setting unit 242 causes the condition storage unit 240 to store a lower limit value of the motion speed that is inversely proportional to the allowable data amount acquired by the allowable data amount acquisition unit 250. As a result, the condition storage unit 240 stores a lower limit value of the movement speed that is larger as the allowable data amount is smaller.

なお、撮像装置100には、優先順位が予め定められてよい。そして、条件設定部242は、より高い優先順位が撮像装置100に定められている場合に、より低い動き速さの下限値を条件格納部240に格納させてよい。また、条件設定部242は、予め定められた順で所定の期間毎に、許容データ量に応じた動き速さの下限値を条件格納部240に格納させてよい。   Note that the priority order of the imaging apparatus 100 may be determined in advance. The condition setting unit 242 may store the lower limit value of the lower motion speed in the condition storage unit 240 when a higher priority is set in the imaging apparatus 100. In addition, the condition setting unit 242 may cause the condition storage unit 240 to store a lower limit value of the movement speed corresponding to the allowable data amount for each predetermined period in a predetermined order.

以上の説明においては、条件格納部240が格納している動き速さの下限値を、許容データ量に応じて条件設定部242が設定する場合について説明したが、条件設定部242は同様に、条件格納部240が格納している人物の面積の下限値、変化領域の面積の下限値、特定色の面積の下限値、基準オブジェクトとの間の形状の一致度の下限値、及び基準方向との間の移動方向の一致度の下限値を、許容データ量に応じて設定することができることは言うまでもない。   In the above description, the case where the condition setting unit 242 sets the lower limit value of the movement speed stored in the condition storage unit 240 according to the allowable data amount has been described. The lower limit value of the area of the person stored in the condition storage unit 240, the lower limit value of the area of the change area, the lower limit value of the area of the specific color, the lower limit value of the degree of coincidence with the reference object, and the reference direction It goes without saying that the lower limit value of the degree of coincidence in the movement direction between the two can be set according to the allowable data amount.

図15は、監視システム110に係るコンピュータ1500のハードウェア構成の一例を示す。コンピュータ1500は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有するレガシー入出力部とを備える。   FIG. 15 shows an exemplary hardware configuration of a computer 1500 related to the monitoring system 110. The computer 1500 includes a CPU peripheral unit including a CPU 1505, a RAM 1520, a graphic controller 1575, and a display device 1580 connected to each other by a host controller 1582, and a communication interface 1530 connected to the host controller 1582 by an input / output controller 1584. An input / output unit having a hard disk drive 1540 and a CD-ROM drive 1560, and a legacy input / output unit having a ROM 1510, a flexible disk drive 1550, and an input / output chip 1570 connected to the input / output controller 1584.

ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 1582 connects the RAM 1520, the CPU 1505 that accesses the RAM 1520 at a high transfer rate, and the graphic controller 1575. The CPU 1505 operates based on programs stored in the ROM 1510 and the RAM 1520 and controls each unit. The graphic controller 1575 acquires image data generated by the CPU 1505 and the like on a frame buffer provided in the RAM 1520 and displays the image data on the display device 1580. Alternatively, the graphic controller 1575 may include a frame buffer that stores image data generated by the CPU 1505 or the like.

入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、コンピュータ1500内のCPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワークを介して撮像装置100と通信し、撮像装置100にプログラム、及びデータを提供する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。   The input / output controller 1584 connects the host controller 1582 to the hard disk drive 1540, the communication interface 1530, and the CD-ROM drive 1560, which are relatively high-speed input / output devices. The hard disk drive 1540 stores programs and data used by the CPU 1505 in the computer 1500. The communication interface 1530 communicates with the image capturing apparatus 100 via a network, and provides programs and data to the image capturing apparatus 100. The CD-ROM drive 1560 reads a program or data from the CD-ROM 1595 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520.

また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、コンピュータ1500が起動時に実行するブート・プログラムや、コンピュータ1500のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550や、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。   The input / output controller 1584 is connected to the ROM 1510, the flexible disk drive 1550, and the relatively low-speed input / output device of the input / output chip 1570. The ROM 1510 stores a boot program executed when the computer 1500 is started up, a program depending on the hardware of the computer 1500, and the like. The flexible disk drive 1550 reads a program or data from the flexible disk 1590 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520. The input / output chip 1570 connects various input / output devices via a flexible disk drive 1550 and, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like.

RAM1520を介して通信インターフェイス1530に提供されるプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM1520を介して通信インターフェイス1530に提供され、ネットワークを介して撮像装置100に送信される。撮像装置100に送信されたプログラムは、撮像装置100においてインストールされて実行される。   A program provided to the communication interface 1530 via the RAM 1520 is stored in a recording medium such as the flexible disk 1590, the CD-ROM 1595, or an IC card and provided by the user. The program is read from the recording medium, provided to the communication interface 1530 via the RAM 1520, and transmitted to the imaging apparatus 100 via the network. The program transmitted to the imaging apparatus 100 is installed and executed in the imaging apparatus 100.

撮像装置100にインストールされて実行されるプログラムは、撮像装置100を、図1から図13に関連して説明した撮像部200、平均化画像生成部202、撮像制御部210、オブジェクト領域特定部212、画像保持部214、差分画像生成部216、変化量算出部221、動き量算出部222、動き方向特定部223、特定色面積算出部224、及びオブジェクト抽出部225、適合判断部230、一致度算出部232、条件格納部240、条件設定部242、許容データ量取得部250、画質選択部260、画質格納部262、出力制御部270、画像生成部280、出力動画生成部282、及び出力部290として機能させる。   The program that is installed and executed in the imaging device 100 includes the imaging device 100, the averaged image generation unit 202, the imaging control unit 210, and the object region specifying unit 212 described with reference to FIGS. , Image holding unit 214, difference image generating unit 216, change amount calculating unit 221, motion amount calculating unit 222, motion direction specifying unit 223, specific color area calculating unit 224, object extracting unit 225, conformity determining unit 230, matching degree Calculation unit 232, condition storage unit 240, condition setting unit 242, allowable data amount acquisition unit 250, image quality selection unit 260, image quality storage unit 262, output control unit 270, image generation unit 280, output video generation unit 282, and output unit Function as 290.

以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDやPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1500に提供してもよい。   The program shown above may be stored in an external storage medium. As the storage medium, in addition to the flexible disk 1590 and the CD-ROM 1595, an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1500 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

監視システム110の利用環境の一例を示す図である。2 is a diagram illustrating an example of a usage environment of a monitoring system 110. FIG. 撮像装置100のブロック構成の一例を示す図である。1 is a diagram illustrating an example of a block configuration of an imaging apparatus 100. FIG. 画像特徴量抽出部220のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the image feature-value extraction part 220. 撮像装置100の動作フローの一例を示す図である。3 is a diagram illustrating an example of an operation flow of the imaging apparatus 100. FIG. 画質格納部262が格納している画質情報の一例を示す図である。It is a figure which shows an example of the image quality information which the image quality storage part 262 has stored. 出力動画生成部282が生成するトリミング画像の一例を示す図である。It is a figure which shows an example of the trimming image which the output moving image production | generation part 282 produces | generates. トリミング画像の他の一例を示す図である。It is a figure which shows another example of a trimming image. トリミング画像の更なる他の一例を示す図である。It is a figure which shows another example of a trimming image. 出力部290が出力するフレーム画像の一例を時系列で示す図である。It is a figure which shows an example of the frame image which the output part 290 outputs in a time series. 出力動画生成部282が生成する出力フレーム画像の一例を示す図である。It is a figure which shows an example of the output frame image which the output moving image production | generation part 282 produces | generates. 出力部290が伝送経路140に出力するデータ量の時間発展の一例を示す図である。6 is a diagram illustrating an example of time development of the amount of data output from an output unit 290 to a transmission path 140. FIG. 条件格納部240が格納している条件の一例を示す図である。It is a figure which shows an example of the conditions which the condition storage part 240 has stored. 撮像部200に向かう被写体が撮像されたフレーム画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of a frame image in which a subject heading for an imaging unit 200 is captured. 条件設定部242が設定する動き速さの下限値の時間発展の一例を示す図である。It is a figure which shows an example of the time development of the lower limit value of the moving speed which the condition setting part 242 sets. 撮像装置100に係るコンピュータ1500のハードウェア構成の一例を示す図である。FIG. 25 is a diagram illustrating an example of a hardware configuration of a computer 1500 related to the imaging apparatus 100.

符号の説明Explanation of symbols

100 撮像装置
110 監視システム
140 伝送経路
150 監視領域
151 監視領域
152 監視領域
160 監視室
170 サーバ
180 表示装置
181 表示装置
182 表示装置
200 撮像部
202 平均化画像生成部
210 撮像制御部
212 オブジェクト領域特定部
214 画像保持部
216 差分画像生成部
220 画像特徴量抽出部
221 変化量算出部
222 動き量算出部
223 動き方向特定部
224 特定色面積算出部
225 オブジェクト抽出部
230 適合判断部
232 一致度算出部
240 条件格納部
242 条件設定部
250 許容データ量取得部
260 画質選択部
262 画質格納部
270 出力制御部
280 画像生成部
282 出力動画生成部
290 出力部
100 Imaging device 110 Monitoring system 140 Transmission path 150 Monitoring region 151 Monitoring region 152 Monitoring region 160 Monitoring room 170 Monitoring room 170 Server 180 Display device 181 Display device 182 Display device 200 Imaging unit 202 Averaged image generating unit 210 Imaging control unit 212 Object region specifying unit 214 Image holding unit 216 Difference image generating unit 220 Image feature amount extracting unit 221 Change amount calculating unit 222 Motion amount calculating unit 223 Motion direction specifying unit 224 Specific color area calculating unit 225 Object extracting unit 230 Conformity determining unit 232 Matching degree calculating unit 240 Condition storage unit 242 Condition setting unit 250 Allowable data amount acquisition unit 260 Image quality selection unit 262 Image quality storage unit 270 Output control unit 280 Image generation unit 282 Output video generation unit 290 Output unit

Claims (16)

監視領域の動画を撮像する撮像部と、
前記撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部と、
前記撮像部が撮像した動画の画像内容に基づいて、前記オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部と、
前記オブジェクトを含み、前記動き方向の画像幅が前記動き方向に垂直方向の画像幅より大きい動画構成画像を、前記撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する画像生成部と、
前記画像生成部が生成した動画構成画像を含む動画を出力する出力部と
を備える監視システム。
An imaging unit that captures a moving image of the monitoring area;
An object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit;
A motion direction identifying unit that identifies the motion direction of the object extracted by the object extraction unit based on the image content of the moving image captured by the imaging unit;
An image generation unit that includes the object and generates a moving image constituent image having an image width in the moving direction larger than an image width in a direction perpendicular to the moving direction from the moving image constituent image included in the moving image captured by the imaging unit; ,
A monitoring system comprising: an output unit that outputs a moving image including the moving image composing image generated by the image generating unit.
前記撮像部が撮像した動画に含まれる複数の動画構成画像に基づいて、前記動き方向特定部が特定した方向への、複数の動画構成画像の間における前記オブジェクトの動き量を算出する動き量算出部
をさらに備え、
前記画像生成部は、前記動き量算出部が算出した動き量がより大きい場合に、前記動き方向特定部が特定した動き方向の画像幅がより大きい動画構成画像を、前記撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する
請求項1に記載の監視システム。
Motion amount calculation for calculating the amount of motion of the object between the plurality of moving image constituent images in the direction specified by the movement direction specifying unit based on the plurality of moving image constituent images included in the moving image captured by the imaging unit. Further comprising
The image generating unit captures a moving image composed of a moving image having a larger image width in the moving direction specified by the moving direction specifying unit when the moving amount calculated by the moving amount calculating unit is larger. The monitoring system according to claim 1, wherein the monitoring system is generated by trimming from a moving image constituent image included in the image.
前記画像生成部は、前記オブジェクトを含み、前記オブジェクトに対する前記動き方向の側の領域が、前記オブジェクトに対して前記動き方向と反対方向の側の領域より広い動画構成画像を、前記撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する
請求項1に記載の監視システム。
The image generation unit includes the object, and the imaging unit captures a moving image configuration image in which a region on the movement direction side with respect to the object is wider than a region on the side opposite to the movement direction with respect to the object. The monitoring system according to claim 1, wherein the monitoring system is generated by trimming from a moving image constituent image included in the moving image.
監視領域の動画を撮像する撮像段階と、
前記撮像段階において撮像された動画からオブジェクトを抽出するオブジェクト抽出段階と、
前記撮像段階において撮像された動画の画像内容に基づいて、前記オブジェクト抽出段階において抽出されたオブジェクトの動き方向を特定する動き方向特定段階と、
前記オブジェクトを含み、前記動き方向の画像幅が前記動き方向に垂直方向の画像幅より大きい動画構成画像を、前記撮像段階において撮像された動画に含まれる動画構成画像からトリミングによって生成する画像生成段階と、
前記画像生成段階において生成された動画構成画像を含む動画を出力する出力段階と
を備える監視方法。
An imaging stage for capturing a video of the surveillance area;
An object extraction step of extracting an object from the video imaged in the imaging step;
A direction-of-motion specifying step for specifying a direction of movement of the object extracted in the object extracting step based on the image content of the moving image captured in the imaging step;
An image generation step of generating, by trimming, a moving image constituent image including the object and having an image width in the moving direction larger than an image width in a direction perpendicular to the moving direction from the moving image constituent image included in the moving image captured in the imaging step When,
A monitoring method comprising: an output step of outputting a moving image including the moving image constituting image generated in the image generation step.
監視システム用のプログラムであって、前記監視システムを、
監視領域の動画を撮像する撮像部、
前記撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部、
前記撮像部が撮像した動画の画像内容に基づいて、前記オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部、
前記オブジェクトを含み、前記動き方向の画像幅が前記動き方向に垂直方向の画像幅より大きい動画構成画像を、前記撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する画像生成部、
前記画像生成部が生成した動画構成画像を含む動画を出力する出力部
として機能させるプログラム。
A monitoring system program comprising:
An imaging unit that captures a moving image of the monitoring area;
An object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit;
A motion direction identifying unit that identifies the motion direction of the object extracted by the object extraction unit based on the image content of the moving image captured by the imaging unit;
An image generation unit that includes the object and generates a moving image constituent image having an image width in the moving direction larger than an image width in a direction perpendicular to the moving direction from a moving image constituent image included in the moving image captured by the imaging unit;
A program that functions as an output unit that outputs a moving image including a moving image constituent image generated by the image generation unit.
監視領域の動画を撮像する撮像部と、
前記撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部と、
前記撮像部が撮像した動画の画像内容に基づいて、前記オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部と、
前記オブジェクトを含み、前記動き方向の画像幅が前記動き方向に垂直方向の画像幅より大きい動画構成画像を含む動画を前記撮像部に撮像させるべく前記撮像部の撮像範囲を設定して、前記撮像部に監視領域を撮像させる撮像制御部と、
前記撮像制御部によって撮像範囲が設定された状態で前記撮像部が撮像した動画を出力する出力部と
を備える監視システム。
An imaging unit that captures a moving image of the monitoring area;
An object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit;
A motion direction identifying unit that identifies the motion direction of the object extracted by the object extraction unit based on the image content of the moving image captured by the imaging unit;
An imaging range of the imaging unit is set so that the imaging unit captures a moving image including a moving image including a moving image including the object and an image width in the moving direction larger than an image width in a direction perpendicular to the moving direction. An imaging control unit that causes the monitoring area to image the monitoring area;
A monitoring system comprising: an output unit that outputs a moving image captured by the imaging unit in a state where an imaging range is set by the imaging control unit.
前記撮像制御部は、前記オブジェクトを含み、前記動き方向の画像幅が前記動き方向に垂直方向の画像幅より大きい動画構成画像が撮像される撮像範囲に含まれる被写体に対して、前記撮像部の撮像条件を調整し、
前記出力部は、前記撮像制御部によって撮像条件が調整された状態で前記撮像部が撮像した動画を出力する
請求項6に記載の監視システム。
The imaging control unit includes the object, and a subject included in an imaging range in which a moving image constituent image in which an image width in the motion direction is larger than an image width in a direction perpendicular to the motion direction is captured by the imaging unit Adjust the imaging conditions,
The monitoring system according to claim 6, wherein the output unit outputs a moving image captured by the imaging unit in a state where imaging conditions are adjusted by the imaging control unit.
監視領域の動画を撮像する撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出段階と、
前記撮像部が撮像した動画の画像内容に基づいて、前記オブジェクト抽出段階において抽出されたオブジェクトの動き方向を特定する動き方向特定段階と、
前記オブジェクトを含み、前記動き方向の画像幅が前記動き方向に垂直方向の画像幅より大きい動画構成画像を含む動画を前記撮像部に撮像させるべく前記撮像部の撮像範囲を設定して、前記撮像部に監視領域を撮像させる撮像制御段階と、
前記撮像制御段階において撮像範囲が設定された状態で前記撮像部が撮像した動画を出力する出力段階と
を備える監視方法。
An object extraction stage for extracting an object that meets a predetermined condition from a moving image captured by an imaging unit that captures a moving image of the monitoring area;
A moving direction specifying step for specifying a moving direction of the object extracted in the object extracting step based on the image content of the moving image captured by the imaging unit;
An imaging range of the imaging unit is set so that the imaging unit captures a moving image including a moving image including a moving image including the object and an image width in the moving direction larger than an image width in a direction perpendicular to the moving direction. An imaging control stage for causing the monitoring area to image the monitoring area;
A monitoring method comprising: an output step of outputting a moving image picked up by the image pickup unit in a state where an image pickup range is set in the image pickup control step.
監視システム用のプログラムであって、前記監視システムを、
監視領域の動画を撮像する撮像部、
前記撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部、
前記撮像部が撮像した動画の画像内容に基づいて、前記オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部、
前記オブジェクトを含み、前記動き方向の画像幅が前記動き方向に垂直方向の画像幅より大きい動画構成画像を含む動画を前記撮像部に撮像させるべく前記撮像部の撮像範囲を設定して、前記撮像部に監視領域を撮像させる撮像制御部、
前記撮像制御部によって撮像範囲が設定された状態で前記撮像部が撮像した動画を出力する出力部
として機能させるプログラム。
A monitoring system program comprising:
An imaging unit that captures a moving image of the monitoring area;
An object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit;
A motion direction identifying unit that identifies the motion direction of the object extracted by the object extraction unit based on the image content of the moving image captured by the imaging unit;
An imaging range of the imaging unit is set so that the imaging unit captures a moving image including a moving image including a moving image including the object and an image width in the moving direction larger than an image width in a direction perpendicular to the moving direction. An imaging control unit that causes the monitoring area to image
A program that functions as an output unit that outputs a moving image captured by the imaging unit in a state where an imaging range is set by the imaging control unit.
監視領域の動画を撮像する撮像部と、
前記撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部と、
前記撮像部が撮像した動画に基づいて、前記オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部と、
前記オブジェクト抽出部が抽出したオブジェクトを含み、前記オブジェクトに対して前記動き方向の側の領域が、前記オブジェクトに対して前記動き方向と反対方向の側の領域より広い動画構成画像を、前記撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する画像生成部と、
前記画像生成部が生成した動画構成画像を含む動画を出力する出力部と
を備える監視システム。
An imaging unit that captures a moving image of the monitoring area;
An object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit;
A motion direction identifying unit that identifies the motion direction of the object extracted by the object extraction unit based on the moving image captured by the imaging unit;
The imaging unit includes an object extracted by the object extraction unit, and a moving image composing image in which a region on the moving direction side with respect to the object is wider than a region on the side opposite to the moving direction with respect to the object. An image generation unit that generates by trimming from a moving image constituent image included in a moving image captured by
A monitoring system comprising: an output unit that outputs a moving image including the moving image composing image generated by the image generating unit.
監視領域の動画を撮像する撮像段階と、
前記撮像段階において撮像された動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出段階と、
前記撮像段階において撮像された動画に基づいて、前記オブジェクト抽出段階において抽出されたオブジェクトの動き方向を特定する動き方向特定段階と、
前記オブジェクト抽出段階において抽出されたオブジェクトを含み、前記オブジェクトに対して前記動き方向の側の領域が、前記オブジェクトに対して前記動き方向と反対方向の側の領域より広い動画構成画像を、前記撮像段階において撮像された動画に含まれる動画構成画像からトリミングによって生成する画像生成段階と、
前記画像生成段階において生成された動画構成画像を含む動画を出力する出力段階と
を備える監視方法。
An imaging stage for capturing a video of the surveillance area;
An object extraction step of extracting an object that meets a predetermined condition from the moving image captured in the imaging step;
A direction-of-motion specifying step of specifying a direction of movement of the object extracted in the object extraction step based on the moving image captured in the imaging step;
The moving image composing image including the object extracted in the object extraction step, wherein a region on the movement direction side with respect to the object is wider than a region on the side opposite to the movement direction with respect to the object. An image generation step of generating by trimming from a moving image constituent image included in the moving image captured in the stage;
A monitoring method comprising: an output step of outputting a moving image including the moving image constituting image generated in the image generation step.
監視システム用のプログラムであって、前記監視システムを、
監視領域の動画を撮像する撮像部、
前記撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部、
前記撮像部が撮像した動画に基づいて、前記オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部、
前記オブジェクト抽出部が抽出したオブジェクトを含み、前記オブジェクトに対して前記動き方向の側の領域が、前記オブジェクトに対して前記動き方向と反対方向の側の領域より広い動画構成画像を、前記撮像部が撮像した動画に含まれる動画構成画像からトリミングによって生成する画像生成部、
前記画像生成部が生成した動画構成画像を含む動画を出力する出力部
として機能させるプログラム。
A monitoring system program comprising:
An imaging unit that captures a moving image of the monitoring area;
An object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit;
A motion direction identifying unit that identifies a motion direction of the object extracted by the object extraction unit based on a moving image captured by the imaging unit;
The imaging unit includes an object extracted by the object extraction unit, and a moving image composing image in which a region on the moving direction side with respect to the object is wider than a region on the side opposite to the moving direction with respect to the object. An image generating unit that generates by trimming from a moving image constituent image included in a moving image captured by
A program that functions as an output unit that outputs a moving image including a moving image constituent image generated by the image generation unit.
監視領域の動画を撮像する撮像部と、
前記撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部と、
前記撮像部が撮像した動画に基づいて、前記オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部と、
前記オブジェクトを含み、前記オブジェクトに対して前記動き方向の側の領域が、前記オブジェクトに対して前記動き方向と反対方向の側の領域より広い動画構成画像を前記撮像部に撮像させるべく前記撮像部の撮像範囲を設定して、前記撮像部に撮像させる撮像制御部と、
前記撮像制御部によって撮像範囲が設定された状態で前記撮像部が撮像した動画を出力する出力部と
を備える監視システム。
An imaging unit that captures a moving image of the monitoring area;
An object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit;
A motion direction identifying unit that identifies the motion direction of the object extracted by the object extraction unit based on the moving image captured by the imaging unit;
The imaging unit includes the object, and causes the imaging unit to capture a moving image constituent image in which the area on the side of the movement direction with respect to the object is wider than the area on the side opposite to the movement direction with respect to the object. An imaging control unit that sets the imaging range of the image and causes the imaging unit to capture an image,
A monitoring system comprising: an output unit that outputs a moving image captured by the imaging unit in a state where an imaging range is set by the imaging control unit.
前記撮像制御部は、前記オブジェクトを含み、前記オブジェクトに対して前記動き方向の側の領域が、前記オブジェクトに対して前記動き方向と反対方向の側の領域より広い動画構成画像が撮像される撮像範囲に含まれる被写体に対して、前記撮像部の撮像条件を調整し、
前記出力部は、前記撮像制御部によって撮像条件が調整された状態で前記撮像部が撮像した動画を出力する
請求項13に記載の監視システム。
The imaging control unit includes the object, and an imaging in which a moving image constituent image is captured in which a region on the moving direction side with respect to the object is wider than a region on the opposite side to the moving direction with respect to the object. Adjust the imaging conditions of the imaging unit for the subject included in the range,
The monitoring system according to claim 13, wherein the output unit outputs a moving image captured by the imaging unit in a state where imaging conditions are adjusted by the imaging control unit.
監視領域の動画を撮像する撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出段階と、
前記撮像部が撮像した動画に基づいて、前記オブジェクト抽出段階において抽出されたオブジェクトの動き方向を特定する動き方向特定段階と、
前記オブジェクトを含み、前記オブジェクトに対して前記動き方向の側の領域が、前記オブジェクトに対して前記動き方向と反対方向の側の領域より広い動画構成画像を前記撮像部に撮像させるべく前記撮像部の撮像範囲を設定して、前記撮像部に撮像させる撮像制御段階と、
前記撮像制御段階において撮像範囲が設定された状態で前記撮像部が撮像した動画を出力する出力段階と
を備える監視方法。
An object extraction stage for extracting an object that meets a predetermined condition from a moving image captured by an imaging unit that captures a moving image of the monitoring area;
A moving direction specifying step of specifying a moving direction of the object extracted in the object extracting step based on a moving image captured by the imaging unit;
The imaging unit includes the object, and causes the imaging unit to capture a moving image constituent image in which the area on the side of the movement direction with respect to the object is wider than the area on the side opposite to the movement direction with respect to the object. An imaging control stage in which the imaging unit is configured to capture an image,
A monitoring method comprising: an output step of outputting a moving image picked up by the image pickup unit in a state where an image pickup range is set in the image pickup control step.
監視システム用のプログラムであって、前記監視システムを、
監視領域の動画を撮像する撮像部、
前記撮像部が撮像した動画から、予め定められた条件に適合するオブジェクトを抽出するオブジェクト抽出部、
前記撮像部が撮像した動画に基づいて、前記オブジェクト抽出部が抽出したオブジェクトの動き方向を特定する動き方向特定部、
前記オブジェクトを含み、前記オブジェクトに対して前記動き方向の側の領域が、前記オブジェクトに対して前記動き方向と反対方向の側の領域より広い動画構成画像を前記撮像部に撮像させるべく前記撮像部の撮像範囲を設定して、前記撮像部に撮像させる撮像制御部、
前記撮像制御部によって撮像範囲が設定された状態で前記撮像部が撮像した動画を出力する出力部
として機能させるプログラム。
A monitoring system program comprising:
An imaging unit that captures a moving image of the monitoring area;
An object extraction unit that extracts an object that meets a predetermined condition from the moving image captured by the imaging unit;
A motion direction identifying unit that identifies a motion direction of the object extracted by the object extraction unit based on a moving image captured by the imaging unit;
The imaging unit includes the object, and causes the imaging unit to capture a moving image constituent image in which the area on the side of the movement direction with respect to the object is wider than the area on the side opposite to the movement direction with respect to the object. An imaging control unit that sets the imaging range of the image and causes the imaging unit to capture an image,
A program that functions as an output unit that outputs a moving image captured by the imaging unit in a state where an imaging range is set by the imaging control unit.
JP2006328685A 2006-12-05 2006-12-05 Monitoring system, monitoring method, and program Active JP4977454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006328685A JP4977454B2 (en) 2006-12-05 2006-12-05 Monitoring system, monitoring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006328685A JP4977454B2 (en) 2006-12-05 2006-12-05 Monitoring system, monitoring method, and program

Publications (2)

Publication Number Publication Date
JP2008141700A true JP2008141700A (en) 2008-06-19
JP4977454B2 JP4977454B2 (en) 2012-07-18

Family

ID=39602664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006328685A Active JP4977454B2 (en) 2006-12-05 2006-12-05 Monitoring system, monitoring method, and program

Country Status (1)

Country Link
JP (1) JP4977454B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080245A1 (en) * 2011-11-29 2013-06-06 パナソニック株式会社 Video processing device and video processing method
JP2015228626A (en) * 2014-06-02 2015-12-17 株式会社東芝 Image output device, image management system, image processing method and program
CN107133646A (en) * 2017-05-03 2017-09-05 山东合天智汇信息技术有限公司 A kind of method and system by human behavior track identification emphasis personnel

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120341A (en) * 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
JP2006229322A (en) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd Automatic tracking controller and automatic tracking control method, program, and automatic tracking system
JP2006245793A (en) * 2005-03-01 2006-09-14 Konica Minolta Holdings Inc Imaging system
JP2006324834A (en) * 2005-05-18 2006-11-30 Hitachi Ltd Device and method for imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120341A (en) * 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
JP2006229322A (en) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd Automatic tracking controller and automatic tracking control method, program, and automatic tracking system
JP2006245793A (en) * 2005-03-01 2006-09-14 Konica Minolta Holdings Inc Imaging system
JP2006324834A (en) * 2005-05-18 2006-11-30 Hitachi Ltd Device and method for imaging

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080245A1 (en) * 2011-11-29 2013-06-06 パナソニック株式会社 Video processing device and video processing method
JP2015228626A (en) * 2014-06-02 2015-12-17 株式会社東芝 Image output device, image management system, image processing method and program
CN107133646A (en) * 2017-05-03 2017-09-05 山东合天智汇信息技术有限公司 A kind of method and system by human behavior track identification emphasis personnel
CN107133646B (en) * 2017-05-03 2019-09-17 山东合天智汇信息技术有限公司 A kind of method and system by human behavior track identification emphasis personnel

Also Published As

Publication number Publication date
JP4977454B2 (en) 2012-07-18

Similar Documents

Publication Publication Date Title
EP2100453B1 (en) Monitoring system, monitoring method and program
US10699473B2 (en) System and method for generating a virtual viewpoint apparatus
JP5213105B2 (en) Video network system and video data management method
US9710923B2 (en) Information processing system, information processing device, imaging device, and information processing method
JP4800073B2 (en) Monitoring system, monitoring method, and monitoring program
US20120057786A1 (en) Image processing apparatus, image processing method, image pickup apparatus, and storage medium storing image processing program
JP4911472B2 (en) Output device, output method, and program
US8681239B2 (en) Image capturing device, image capturing method, program, and integrated circuit
JP4794938B2 (en) Monitoring system, monitoring device, monitoring method, and program
JP2016085742A (en) Foreground image diving method and foreground image dividing device
US20070222858A1 (en) Monitoring system, monitoring method and program therefor
US8798369B2 (en) Apparatus and method for estimating the number of objects included in an image
US20130222621A1 (en) Information processing apparatus, terminal apparatus, image capturing apparatus, information processing method, and information provision method for an image capturing apparatus
JP4694461B2 (en) Imaging apparatus, imaging method, monitoring system, monitoring method, and program
JP4879717B2 (en) Monitoring system, monitoring method, and program
US20160350976A1 (en) Information processing apparatus, method for controlling information processing apparatus, image processing system and non-transitory computer-readable storage medium
JP4979083B2 (en) Monitoring system, monitoring method, and program
JP4977454B2 (en) Monitoring system, monitoring method, and program
JP5150943B2 (en) Monitoring system, monitoring method, and program
US20190197660A1 (en) Information processing device, system, information processing method, and storage medium
JP5033412B2 (en) Monitoring system, monitoring method, and program
JP2007020064A (en) System, apparatus, method and program for imaging
US20230328355A1 (en) Information processing apparatus, information processing method, and program
JP2008236425A (en) Monitoring system, monitoring method, and monitoring program
JP4485423B2 (en) Surveillance camera, surveillance method, and surveillance program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120416

R150 Certificate of patent or registration of utility model

Ref document number: 4977454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250